浪潮信息刘军:AI产业不降本难盈利,1元钱每百万Token的成本还远远不够!(浪潮信息 高管)

(来源:环球网资讯)

北京2025年12月25日 /美通社/ -- 当前全球AI产业已从模型性能竞赛迈入智能体规模化落地的"生死竞速"阶段,"降本" 不再是可选优化项,而是决定AI企业能否盈利、行业能否突破的核心命脉。在此大背景下,浪潮信息推出元脑HC1000超扩展AI『服务器』,将推理成本首次击穿至1元/每百万token。这一突破不仅有望打通智能体产业化落地"最后一公里"的成本障碍,更将重塑AI产业竞争的底层逻辑。

浪潮信息首席AI战略官刘军强调,当前1元/每百万token的成本突破仅是阶段性胜利,面对未来token消耗量指数级增长、复杂任务token需求激增数十倍的必然趋势,现有成本水平仍难支撑AI的普惠落地。未来,AI要真正成为如同 "水电煤" 般的基础资源,token成本必须在现有基础上实现数量级跨越,成本能力将从"核心竞争力"进一步升级为"生存入场券🎟️",直接决定AI企业在智能体时代的生死存亡。

智能体时代,token成本就是竞争力

回顾『互联网』发展史,基础设施的"提速降费"是行业繁荣的重要基石。从拨号上网以Kb计费,到光纤入户后百兆带宽成为标配,再到4G/5G时代数据流量成本趋近于零——每一次通信成本的显著降低,都推动了如视频流媒体、移动支付等全新应用生态的爆发。

当前的AI时代也处于相似的临界点,当技术进步促使token单价下滑之后,企业得以大规模地将AI应用于更复杂、更耗能的场景,如从早期的简短问答,到如今支持超长上下文、具备多步规划与反思能力的智能体……这也导致单任务对token的需求已呈指数级增长。如果token成本下降的速度跟不上消耗量的指数增长,企业将面临更高的费用投入。这昭示着经济学中著名的"杰文斯悖论"正在token经济中完美重演。

来自多方的数据也有力佐证了token消耗量的指数级增长趋势。火山引擎最新披露的数据显示,截至今年12月,字节跳动旗下『豆包』大模型日均token使用量突破50万亿,较去年同期增长超过10倍,相比2024年5月刚推出时的日均调用量增长达417倍;谷歌在10月披露,其各平台每月处理的token用量已达1300万亿,相当于日均43.3万亿,而一年前月均仅为9.7万亿。

当使用量达到"百万亿token/月"的量级时,哪怕每百万token成本只下降1美元💵,也可能带来每月1亿美元💵的成本差异。刘军认为:"token成本就是竞争力,它直接决定了智能体的盈利能力。要让AI真正进入规模化普惠阶段,token成本必须在现有基础上继续实现数量级的下降。"

深挖token成本"暗箱":架构不匹配是核心瓶颈

当下,全球大模型竞赛从"盲目堆算力"转向"追求单位算力产出价值"的新阶段。单位算力产出价值受到能源价格、硬件采购成本、算法优化、运营成本等多种因素的影响,但不可否认的是,现阶段token成本80%以上依然来自算力支出,而阻碍成本下降的核心矛盾,在于推理负载与训练负载截然不同,沿用旧架构会导致算力、显存与网络资源难以同时最优,造成严重的"高配低效"。

一是算力利用率(MFU)的严重倒挂。训练阶段MFU可达50%以上,但在推理阶段,特别是对于追求低延迟的实时交互任务,由于token的自回归解码特性,在每一轮计算中,硬件必须加载全部的模型参数,却只为了计算一个token的输出,导致昂贵的GPU大部分时间在等待数据搬运,实际MFU往往仅为5%-10%。这种巨大的算力闲置是成本高企的结构性根源。

二是"存储墙"瓶颈在推理场景下被放大。在大模型推理中,随着上下文长度的增加,KV Cache呈指数级增长。这不仅占用了大量的显存空间,还导致了由于访存密集带来的高功耗。这种存算分离不仅带来数据迁移功耗和延迟,还必须配合使用价格高昂的HBM,已经成为阻碍token成本下降的重要瓶颈。

三是网络通信与横向扩展代价愈发高昂。当模型规模突破单机承载能力时,跨节点通信成为新瓶颈。传统RoCE或InfiniBand网络的延迟远高于『芯片』内部的总线延迟,通信开销可能占据总推理时间的30%以上,导致企业被迫通过堆砌更多资源来维持响应速度,推高了总拥有成本(TCO)。

对此,刘军指出,降低token成本的核心不是"把一台机器做得更全",而是围绕目标重构系统:把推理流程拆得更细,支持P/D分离、A/F分离、KV并行、细粒度专家拆分等计算策略,让不同计算模块在不同卡上按需配置并发,把每张卡的负载打满,让"卡时成本"更低、让"卡时产出"更高。

基于全新超扩展架构,元脑HC1000实现推理成本首次击破1元/每百万token

当前主流大模型的token成本依然高昂。以输出百万token为例,Claude、Grok等模型的价格普遍在10-15美元💵,国内大模型虽然相对便宜,也多在10元以上。在天文数字级别的调用量下,如此高的token成本让大规模商业化应用面临严峻的ROI挑战。要打破成本僵局,必须从计算架构层面进行根本性重构,从而大幅提升单位算力的产出效率。

为此,浪潮信息推出元脑HC1000超扩展AI『服务器』。该产品基于全新设计的全对称DirectCom极速架构,采用无损超扩展设计,可高效聚合海量本土AI『芯片』,支持极大推理吞吐量,推理成本首次击破1元/每百万token,为智能体突破token成本瓶颈提供极致性能的创新算力系统。

刘军表示:"我们看到原来的AI计算是瞄着大而全去建设的,五脏俱全,各种各样的东西都在里面。但是当我们聚焦降低token成本这一核心目标之后,我们重新思考系统架构设计,找到系统瓶颈,重构出一个极简设计的系统。"

元脑HC1000创新设计了DirectCom极速架构,每计算模组配置16颗AIPU,采用直达通信设计,解决传统架构的协议转换和带宽争抢问题,实现超低延迟;计算通信1:1均衡配比,实现全局无阻塞通信;全对称的系统拓扑设计,可以支持灵活的PD分离、AF分离方案,按需配置计算实例,最大化资源利用率。

同时,元脑HC1000支持超大规模无损扩展,DirectCom架构保障了计算和通信均衡,通过算网深度协同、全域无损技术实现推理性能1.75倍提升,并且通过对大模型的计算流程细分和模型结构解耦,实现计算负载的灵活按需配比,单卡MFU最高可提升5.7倍。

此外,元脑HC1000通过自适应路由和智能拥塞控制算法,提供数据包级动态『负载均衡』,实现KV Cache传输和All to All通信流量的智能调度,将KV Cache传输对Prefill、Decode计算实例影响降低5-10倍。

刘军强调,当前"1元/每百万token"还远远不够,面对未来token消耗量的指数级增长,若要实现单token成本的持续、数量级下降,需要推动计算架构的根本性革新。这也要求整个AI产业的产品技术创新,要从当前的规模导向转为效率导向,从根本上重新思考和设计AI计算系统,发展AI专用计算架构,探索开发大模型『芯片』,推动算法硬件化的专用计算架构创新,实现软硬件深度优化,这将是未来的发展方向。

特别声明:[浪潮信息刘军:AI产业不降本难盈利,1元钱每百万Token的成本还远远不够!(浪潮信息 高管)] 该文观点仅代表作者本人,今日霍州系信息发布平台,霍州网仅提供信息存储空间服务。

猜你喜欢

老庄系列第三部 完结篇 老庄的梦想照进了理想--068(老庄系列第三部小说)

“没什么呀,这不很正常的三角眼嘛,哪有你说的什么红啊绿的,还有什么热乎的和冰冷的,星星你这是书读的太多,脑子里成天想的都是学习的是,眼睛里看到的诠释和你的实验有关的东西,所以看什么都有点和我们不一样”, “…

老庄系列第三部 完结篇 老庄的梦想照进了理想--068(老庄系列第三部小说)

『肖战』一闻香,全网心跳停!(假如『肖战』『王一博』拍了香炉篇)

更令人惊喜的是,他对『香氛』的专业解读——精准描述“前调黑加仑果香、中调千叶玫瑰、后调木质温暖感”,被网友盛赞为“行走的『香氛』诗人”,种草力惊人。董宇辉更在前一日直播中盛赞其演技,称其通过喉结微动、眼神转变精准演绎…

『肖战』一闻香,全网心跳停!(假如『肖战』『王一博』拍了香炉篇)

凯特三姐弟:姐姐嫁王子,妹妹成阔太,弟弟做农夫,比梅根好太多(凯特三巨头)

凯特出身普通,家庭背景并不显赫,但她成功地实现了从平民到王妃的蜕变,过上了幸福的生活。从表面上看,凯特王妃的娘家并不出众,但她的家庭却充满了人情味和温馨,是王室无法比拟的。 对于王室来说,凯特这种省心的家庭…

凯特三姐弟:姐姐嫁王子,妹妹成阔太,弟弟做农夫,比梅根好太多(凯特三巨头)

成都联杰易达、针对中东能源企业的海外云资源成本优化解决方案(联杰物流)

在成本压力与资源配置效率双重考量下,成都联杰易达科技有限公司致力于提供有效的云资源优化方案,以应对客户在海外运营中的需求。 未来,成都联杰易达科技有限公司将继续发挥自身优势,结合科技驱动与高标准的服务质量,…

成都联杰易达、针对中东能源企业的海外云资源成本优化解决方案(联杰物流)

杨旭文谈《黑白局》:缉毒警的无畏不是“不怕”,而是职责就在身前(杨旭文帅)

剧中,杨旭文饰演青年铁路公安展鹏,这是一个为了追寻父亲足迹而投身警界、在盗窃与贩毒交织的迷局中捍卫正义的热血干警。 接受采访时,杨旭文提到,展鹏是个“人间清醒”的行动派,如果用当下流行的MBTI来定义展鹏,他…

杨旭文谈《<strong>黑白局</strong>》:缉毒警的无畏不是“不怕”,而是职责就在身前(杨旭文帅)