首页 产业新闻 国产大模型的价格已经卷出网约车大战和百亿补贴的味儿了

国产大模型的价格已经卷出网约车大战和百亿补贴的味儿了

产业新闻 25

    登录就送500w tokens! 1 块钱 100w tokens!一降再降!!仅需0. 0008 元/千tokens!

    没错,互联网价格战熟悉的“味”,已经悄无声息的打到了大模型的战场。

    技术狂飙了一年,大模型公司们早就按捺不住要搅弄商业风云的心, 5 月份,多家大模型产品宣布了密集的降价策略。

    严格来说,是堪称为大模型界“拼多多”的DeepSeek,率先点燃了价格战的引线。

    5 月 6 日,DeepSeek官网推出了“高性价比”的大模型,将旗下的大模型DeepSeek-V2 的价格降到了每百万token输入 1 元、输出 2 元(32K上下文),能力对标GPT-4、llama 3-70B,价格仅为GPT- 4 的近1%。开发者登录 DeepSeek 开放平台送500 万 tokens。

    智谱第一个不服。 5 月 11 日,智谱AI调整了旗下入门级大模型GLM-3-Turbo(上下文长度128k)的价格,从0. 005 元 / 千tokens降低到0. 001 元 / 千tokens。此外,开放平台新注册用户获赠从 500 万tokens提升至 2500 万tokens(包含 2000 万GLM3-Turbo和 500 万GLM4)。而GLM-3 Turbo Batch批处理API还将进一步便宜50%——0.0005/千 tokens,也就是 1 元 200 万tokens。

    5 月 15 日,火山引擎原力大会上,豆包高调的将本来在水面下的价格战,赤裸的搬到了台面上。

    会上火山引擎总裁谭待宣布豆包主力模型在企业市场的定价只有0. 0008 元/千 tokens,0. 8 厘就能处理1, 500 多个汉字,比行业便宜99.3%。

    现场观众的激动程度堪比听到大主播在直播间大吼:“家人们,我们把大模型的价格打下来了!”

    在DeepSeek发起,几个核心厂商跟进的局面下,也彻底拉开了大模型商业竞争进入了“卷价格”的新赛段。

    1

    比价,用百度阿里当“活靶子”

    有意思的是,大家比价归比价,都拿百度文心和阿里通义当靶子。

    无论是DeepSeek、智谱还是豆包,都以文心和通义为标尺进行比价。当然,这也侧面反映了,这两个模型确实在中国大模型中,占据了很重要的位置,甚至是参照物。

    虽然不谈性能只谈价格的方式无异于“耍流氓”,但对于价格敏感型的客户而言,价格基本上就是唯一的决定性因素。

    智谱在公布新大模型时,做了直观的比价图,GLM-3-Turbo的价格是阿里qwen-turbo的八分之一,是百度ERNIR 3. 5 的十二分之一。当然对比ChatGPT的时候,就不能抛开性能,只比价格了。

    同样,豆包在发布豆包通用模型pro的价格时,也拉来了百度和阿里的对标模型作为价格对比。基本上,行业价格等于ERNIE和Qwen的平均价格。

    还有卷的更狠的,直接拉国内外的主流模型们进行集体比价。

    而针对被当活靶子以及是否参与价格战的问题,百度在豆包宣布全面降价的下午便回复道:“文心大模型日均处理Tokens文本已达 2490 亿,并强调使用大模型不应只看价格,更要看综合效果。”

    为了能够让客户更了解低价的现实意义,各家大模型厂商都在努力“接地气”。

    1 块钱在现实世界可能连个包子都买不到,但是在智谱,你能写 1 万条小红书(以 350 字计算);在豆包,你能读三本《三国演义》;在DeepSeek,一位普通开发者充 50 块钱能用好几年。

    不仅卖,他们还免费送。

    开发者登录 DeepSeek 开放平台就送 500 万 tokens,而智谱似乎就是要跟DeepSeek硬刚,随即宣布新注册开放平台用户赠送额度提升500%。开放平台新注册用户获赠从500 万tokens提升至 2500 万tokens(包含 2000 万入门级额度和 500 万企业级额度)。

    有开发者表示:“如果只是自己开发测试根本用不完,热闹都是他们的,我们就负责占便宜。”

    面壁智能直接喊出了“不降价, 0 元不限量”的活动。不过这是因为模型本身免费开源,且部署在端侧,利用终端设备算力,无需调用云端API。

    有开发者向硅星人表达了自身感受:“以前薅服务器和存储空间,现在薅tokens,不出意外的话,后续几家主流的模型厂商都会跟进,我们未来 3 年可能都不用买tokens了。”

    1

    谁是最便宜的大模型?

    那么问题来,到底谁是最便宜的大模型?

    硅星人根据各家厂商的官方信息,汇总整理了部分大模型API的价格,直观的对比了价格,话不多说,直接上图(这可能是市面上最全的比价图了):

    从图表中整理的情况来看,如果按照绝对值计算,豆包pro32k是目前市场价格最低大模型,但DeepSeek-V2 的上下文文本长度为128k,对比下来,可以说是性价比最高的大模型了。

    价格战对于每一代的互联网人而言,都并不陌生,降价策略通常被视为吸引更多用户、增强用户黏性和市场份额的一种有效手段,但同时,也常常逃不开“拿钱换增长”的恶性循环。

    谭待讲道:“用亏损换收入是不可持续的,所以我们从来不走这条路”。

    DeepSeek v2 版本发布时,其员工也表示:基本纯靠模型结构创新(MLA+DeepSeekMoE)+ 超强Infra,且“目前就是大规模服务的价格,不亏本,利润率超50%”。

    价格低还有利润?是怎么做到的?

    影响大模型推理价格的降低的因素有很多,比如技术进步和优化就是一个直接的原因,不少开发者惊叹于幻方是怎么兼顾模型效果和成本的。

    首先源于DeepSeek本身的硬实力,就是我们俗称的“有卡”。根据幻方官方信息,其幻方 AI 智能超算集群配备了 1 万张英伟达高性能的 A100 计算卡,硬件和计算资源可能也是DeepSeek能够保持低价的原因。它也是国内为数不多非大厂拥有万卡的公司。

    其次是来自于架构和算法上的创新。这一点和豆包能低价是相同的。

    谭待介绍道:“火山引擎在技术上有非常多优化手段,可以降低大模型成本,此外在工程上可以通过分布式推理的形式将底层算力使用得更好;另外,在混合调度方面,可以把不同负载作为混合调度,这样的成本也大幅下降。”

    我们都知道,当一个行业进入了价格战阶段,就意味着产品走向了同质化。在大模型发展的早期技术的差异性还未清晰,但低价确实能够带来更广泛的渗透,于国内大模型而言,这是福还是祸?

    客观上来看,大模型API价格战和推理价格的下降,有可能推动AI应用的广泛普及和创新,因为更低的成本使得更多的企业和开发者能够负担得起这项技术,也有更多的尝试空间。不过,降价能否帮助大模型厂商带来更多新增用户和付费用户,仍值得商榷。

    虽然价格的降低可以短期内吸引更多用户尝试和采用AI大模型,但长期而言,技术能力的提升和创新是确保大模型应用普及和持续发展的根本。从互联网技术的发展历程中,我们可以明确看到技术创新和提升为行业带来的深远影响,这对大模型的发展同样适用。

    正如移动互联网的普及并不只是因为手机价格的降低,一个重要原因是苹果推出了iPhone,将多点触控等技术引入手机,带来了新的人机交互方式,让iPhone软件生态的建立成为了可能。

    价格战打到最后,受益的大概率只是少数头部企业。如果不能有效控制成本的企业若盲目加入价格竞争,无疑会丧失自身优势,陷入他人设定的竞争节奏,最后又是一轮行业洗牌。

    不只要“卷”价格,更要“卷”技术,“卷”产品,全方位的“卷”,才能找到新出路。

广告

文章目录

    标签列表