首页 产业新闻 击穿全网底价,通义千问GPT-4级大模型直降97%!1块钱能买200万tokens

击穿全网底价,通义千问GPT-4级大模型直降97%!1块钱能买200万tokens

产业新闻 60

    通义千问GPT-4级大模型,直接击穿全网底价!

    就在刚刚,阿里突然放出大招,官宣9款通义大模型降价。

    其中,性能对标GPT-4的主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,也就是1块钱能买200万tokens,相当于5本《新华字典》的文字量,堪称全球大模型的性价比之王。

    更直观一点对比——

    Qwen-Long支持1000万tokens的长文本输入,对比GPT-4,价格仅为1/400。

    超大杯新品,此番也在降价名单中:刚发布不久的通义千问超大杯Qwen-max,API输入价格也直降67%,低至0.02元/千tokens。

    开源方面,Qwen1.5-72B、Qwen1.5-110B等5款开源模型的输入价格也分别直降75%以上。

    这波操作,再次击穿全网最低价,可以说是专属大模型企业、程序员的618狂欢了。

    来看具体降价情况:

    本次降价,共覆盖9款通义千问系列模型,商业化模型、开源模型全都在列。

    包括:

    Qwen-Long,性能对标GPT-4,API输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅97%;API输出价格从0.02元/千tokens降至0.002元/千tokens,降幅90%。

    Qwen-max,在权威基准OpenCompass上性能追平GPT-4-turbo,API输入价格从0.12/千tokens降至0.04元/千tokens,降幅67%。

    上榜大模型竞技场排名的Qwen1.5系列开源模型方面,Qwen1.5-72B的API输入价格从0.02元/千tokens降至0.005元/千tokens,降幅75%;API输出价格从0.02元/千tokens降至0.01元/千tokens,降幅50%。

    与OpenAI的GPT系列相比,降价后的通义千问系列,基本上都是1折购,性价比拉满。

    以降幅最大的Qwen-Long为例,价格仅为GPT-4的1/400,性能指标上却并不逊色。

    尤其在长文本方面,Qwen-Long支持最长1000万tokens的超长上下文对话,也就是能轻松处理约1500万字或1.5万页的文档。配合同步上线的文档服务,还可支持word、pdf、Markdown、epub、mobi等多种文档格式的解析和对话。

    值得关注的是,不同于国内大部分厂商输入输出价格相同的定价方式,这次Qwen-Long的输入价格比输出价格降幅更大。

    对此,阿里官方也给出了解释:

    现在,用户结合长文本(论文、文档等)对大模型提问已经成为最常见的需求之一,所以模型输入调用量往往大于输出调用量。

    根据统计,真实的模型输入调用量一般是输出的8倍左右。我们把用户使用量最大的输入token价格大幅降下去,对企业来说更划算,可以更好地做到普惠。

    也是希望大家把长文本用起来。

    说起来,这已经不是阿里云第一次击穿行业底价。

    就在今年的2月29日,阿里云刚刚整过一个云产品“疯狂星期四”的大活儿:全线云产品价格直降20%,最高降幅达55%。

    属实是砍自己一大刀了。

    如此大手笔,底气来源是阿里云作为国内第一大公有云厂商,在长期技术积累和规模效应下,已经构建起完备的AI基础设施和Infra技术优势。

    而此番诚意满满的降价,背后更是显露出大模型应用时代,这种技术红利正在成为公有云厂商的“杀手锏”之一。

    在AI基础设施层面,从芯片层到平台层,阿里云已经基于自研的异构芯片互联、高性能网络HPN7.0、高性能存储CPFS、人工智能平台PAI等核心技术和产品,构建起了高弹性的AI算力调度系统。

    举个例子,PAI支持10万卡量级的集群可扩展规模,超大规模训练线性拓展效率达96%。在大模型训练任务中,达到同样效果可节省超50%算力资源,性能达到全球领先水平。

    推理优化方面,阿里云主要提供了三大能力:

    其一,高性能优化。包括系统级的推理优化技术,以及高性能算子、高效推理框架、编译优化的能力。

    其二,自适应调优。随着AI应用的多样化,一个单一的模型很难在所有场景中都保持最佳效能,自适应推理技术允许模型根据输入数据的特性和计算环境的约束,动态调整推理技术应用和计算资源选型。

    其三,可扩展部署。模型推理部署资源的扩展和弹性,能解决推理服务在一定时期内的潮汐现象。

    此前,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光也表示,公有云的技术红利和规模效应,会带来巨大的成本和性能优势。

    这将促使“公有云+API成为企业调用大模型的主流方式”。

    这也正是阿里云把大模型“价格战”再度推向高潮的核心原因。

    尤其对于中小企业、创业团队而言,公有云+API一直以来被视作做大模型应用的性价比之选:

    尽管开源模型发展势头迅猛,以Llama3为代表的最强模型们更被认为已经有媲美GPT-4的表现,但私有化部署仍然面临着成本高昂的问题。

    以使用Qwen-72B开源模型、每月1亿token用量为例,在阿里云百炼上直接调用API,每月仅需600元,私有化部署成本则平均每月超10000元。

    除此之外,公有云+API模式还便于多模型调用,能提供企业级的数据安全保障。以阿里云为例,阿里云可以为企业提供专属VPC环境,做到计算隔离、存储隔离、网络隔离、数据加密。目前,阿里云已主导、深度参与10多项大模型安全相关国际国内技术标准的制定。

    云厂商的开放性,还能为开发者提供更丰富的模型和工具链选择。比如,阿里云百炼平台在通义千问之外,还支持Llama系列、百川、ChatGLM等上百款国内外大模型,同时提供大模型应用一站式开发环境,可以做到5分钟开发一款大模型应用、5到10行代码即可搭建企业级RAG应用。

    量子位智库在《中国AIGC应用全景报告》中提到,AIGC应用产品中,基于自建垂直大模型和API接入的产品占到将近7成。

    这一数据同样从侧面佐证了“公有云+API”模式的市场潜力:在应用市场,对业务的理解和数据积累才是破局关键,在公有云+API的基础上做应用,在成本和启动速度方面都是更现实的选择。

    实际上,无论是直观的价格之争,还是更深层次的AI基础设施之卷,反映出的都是,当大模型发展焦点逐步从基础模型迈向落地应用,平台厂商如何降低大模型的使用门槛,已经成为竞争的关键所在。

    刘伟光指出:

    作为中国第一大云计算公司,阿里云这次将主流大模型API输入价格降低97%,就是希望加速AI应用的爆发。

    我们预计未来大模型API的调用量会有成千上万倍的增长。

    总结起来就是,一方面,对于平台厂商而言,“价格战”背后其实是基础设施、技术能力之争;另一方面,对于整个大模型行业而言,应用是否能持续爆发、进一步普及,入局门槛、运营成本已成关键因素。

    如此看来,近来卷起的降价趋势,对于开发者和期待更多大模型应用的胖友们而言,不可谓不是利好消息。

    你觉得呢?