大模型这个高科技的阳春白雪,终于还是走向了打价格战的泥潭。

随着5月14日和15日OpenAI和谷歌相继发布新的大模型,国内厂商也迅速做出了应对,祭出了中国互联网企业最擅长的大招——降价。最近几天,字节豆包、阿里通义、百度文心、讯飞星火等国内主流大模型纷纷宣布降价,甚至免费。大模型市场竞争急剧升温,愈趋白热化。

我们梳理了这几家大模型近期降价的信息,并借助他们各自的大模型产品,对自己降价动作进行评价。通过他们的回答,我们也可以评判各家大模型的应用效果。

字节跳动豆包大模型

5月15日,字节跳动宣布旗下豆包大模型降价,豆包通用模型pro-32k版模型推理输入价格仅为0.0008元/千Tokens,比行业低99.3%。按照豆包主力模型目前的价格计算,用户花费1元,可以处理相当于3本《三国演义》文字量的内容。

阿里巴巴通义千问大模型

5月21日,阿里云宣布通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。输出价格也直降90%至0.002元/千tokens。这款模型最高支持1千万tokens长文本输入,降价后约为GPT-4价格的1/400。

百度文心大模型

5月21日,百度智能云宣布文心大模型两大主力模型全面免费。分别为今年3月推出的两款轻量级大模型ERNIE Speed、ERNIE Lite,支持8K和128k上下文长度。

讯飞星火大模型

5月22日,讯飞星火宣布API能力免费开放,讯飞星火Lite API永久免费开放,讯飞星火Pro/Max API低至0.21元/万tokens。在讯飞星火,1token相当于1.5个中文汉字,因此2.1元就足够调用“讯飞星火3.5 Max”生成一部余华《活着》的内容量。

新电点评:

自去年年初以来,行业旗帜厂商OpenAI在推出新模型的同时,就不断下调价格。GPT-3.5-turbo模型的每千tokens成本比之前的GPT-3.5模型,价格下降了90%;从GPT-4到GPT-4o的升级过程中,输入价格下降83%;输出价格下降75%。OpenAI的降价力度相当大,无疑给整个行业带来了巨大的冲击。

这么多厂商都选择降价,其根本原因在于算力升级和架构创新等多方面的努力,比如轻量化和线性化的出现,让大模型的推理成本实现了显著的下降。所以近期降价潮中的很多都是轻量化模型。

当然,在这个原本突飞猛进的市场中,选择打价格战,也确实是由于大模型竞争的焦点在改变,已经从单一的技术参数转向了价格、生态建设、市场策略和全球竞争等多个方面,企业需要在这些领域进行综合布局,以适应市场的变化和需求。

大模型的降价对开发者和企业用户来说,无疑是个好消息,他们可以以更低的成本使用这些大模型进行开发和创新,推动人工智能应用的普及和发展。

但也要看到,在大模型成本高企、商业模式尚未得到验证的情况下,价格战可能会让一些专注于模型能力的初创公司面临更大的资金压力,可能导致一些竞争力较弱的企业退出市场,从而加速行业的整合和出清。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注