2025云栖大会 | 阿里云全力战AI,剑指超级人工智能

作者:

邹大斌

责任编辑:

邹大斌

来源:

电脑商情在线

时间:

2025-10-09 11:07

关键字:

阿里云 AI云 AI Agent

一年一度的云栖大会在国庆大假之前落幕。始于2009年的云栖大会至今已经连续举办了16年。作为一场云计算行业的大会,伴随人工智能技术的快速发展,“AI含量”逐年增加。今年AI已经成为了大会主角,从阿里巴巴集团CEO、阿里云智能集团董事长兼CEO吴泳铭关于超级人工智能的主旨演讲到整个大会设计110多场论坛、以及4万平米的展区,AI无处不在。今天的阿里云正在全面拥抱AI,除了发力通义大模型、魔搭社区,为Agent的开发和落地创造条件之外,还对算力、网络和存储等基础设施面向AI全面优化。

AGI是起点,超级人工智能是未来

这几年,人工智能技术的普及势不可挡,正在全面重塑社会的方方面面,这场由人工智能驱动的变革已经全面开启。

不过,在吴泳铭看来,这个变革才刚刚开始,目前的人工智能应用主要是生成式人工智能(AGI),这只是初级阶段,未来会走向超级人工智能,届时人工智能将替代能源成为最重要的商品。

“AGI并非AI发展的终点,而是全新的起点。AI不会止步于AGI,它将迈向超越人类智能、能够自我迭代进化的超级人工智能(ASI)。”吴泳铭在主旨演讲时表示。

吴泳铭认为,实现超级人工智能要经历三个阶段:第一阶段是“智能涌现”,特征是“学习人”,理解人类的问题、意图;第二个阶段是“自主行动”,特征是“辅助人”,完成与真实世界互动,这也是我们当前所处的阶段;第三个阶段是“自我迭代”,特征是“超越人”,超越人类,直接从物理世界获取更全面、更原始的数据。

基于这样的判断,吴泳铭认为大模型将成为下一代的操作系统,而超级AI云将成为下一代的操作系统。吴泳铭在演讲中指出,阿里云将通过两大核心路径实施AI战略:第一,通义千问坚定开源开放路线,致力于打造“AI时代的安卓”;其二,构建作为“下一代计算机”的超级AI云,为全球提供智能算力。

为此,阿里巴巴积极推进3年3800亿的AI基础设施投资计划,未来还会持续投入。他预计,到2032年阿里云云全球数据中心能耗规模相比2022年将提升10倍。

七箭齐发,打造AI时代的操作系统

ChatGPT的走红,让大模型迅速进入普通人的视野,很快市场上出现了各种各样的大模型,业界称其为“百模”大战。阿里云的通义千问是中国市场出现的第一批大模型,也是中国市场最为成功的大模型之一。这得益于其阿里云一直坚持的开源路线,以及持续不断地打磨和优化。

通义大模型从2023年4月发布以来,整个通义大模型家族已经拥有300多款大模型,分别覆盖各个不同的领域,包括通用、视觉、语音以及多模同。作为开源的大模型,通义千问全球下载量超过6亿,衍生模型超过17万是全球最流行的开源大模型的。超100万家客户接入通义大模型,权威调研机构沙利文2025上半年报告显示,在中国企业级大模型调用市场中,阿里通义占比第一。

在今年的云栖大会上,阿里云宣布对全球通义大模型大家族继续扩容,同时对现有大模型进行优化。

Qwen3-Max是阿里云通义大家族的旗舰模型,也是整个家族中最大、最强的基础模型,其训练数据量达到36T Tokens,总参数超过万亿,拥有极强的编码能力和Agent工具调用能力。在Qwen3-Max正式发布。

下一代基础模型架构Qwen3-Next及系列模型正式发布,模型总参数80B仅激活 3B ,性能即可媲美千问3旗舰版235B模型,实现模型计算效率的重大突破。

而在专项模型方面,千问编程模型Qwen3-Coder重磅升级。新的Qwen3-Coder与Qwen Code、Claude Code系统联合训练,应用效果显著提升,推理速度更快,代码安全性也显著提升。

2025杭州云栖大会上,通义大模型家族还迎来了全新的成员——语音大模型通义百聆,包括语音识别大模型Fun-ASR、语音合成大模型Fun-CosyVoice。

阿里云不仅发力大模型,还为大模型的应用开发创造条件,作为一站式模型服务和Agent开发平台,阿里云百炼也来了重磅升级。今年的云栖大会上,阿里云发布了全新Agent开发框架ModelStudio-ADK,该框架突破以预定义编排方式开发Agent的局限,可帮助企业高效开发具备自主决策、多轮反思和循环执行能力的Agent。

拥抱AI,基础设施全面升级

AI热潮的持续高涨带动了云计算市场的快速增长。根据阿里巴巴发布的2026财年第一季度(自然年2025年第二季度)财报,阿里云季度营收为333.98亿元人民币,同比增长26%,创下三年来的最高增速,超出市场预期。这一强劲增长主要由公共云业务驱动,尤其是AI相关产品的需求激增。数据显示,AI相关产品收入已连续八个季度实现三位数的同比增长。显然,AI营收的增长离不开阿里云对基础设施的不断优化和持续创新。

磐久AI Infra 2.0 超节点服务器就是一个很好的例子。随着大模型进入万亿级参数,大模型的训练和推理对服务器提出了新的挑战,需要更强大的算力、内存,已经突破了单台服务器8卡/10卡的极限,通过Scale-Up网络实现数十、上百GPU卡的互联成为刚需。2024年英伟达推出的NVL72超节点就是一个很好的尝试。

在今年的云栖大会上,阿里云的超节点也正式亮相,这就是磐久AI Infra 2.0 超节点服务器。它由阿里云自主研发设计,具备高密度、高性能和高可用的优势,单柜支持128张GPU卡,包括各种国产AI芯片,采用液冷,整机柜350kw。卡间互联采用阿里云自研的Alink,可以实现高达PB/s级别的带宽和百纳秒的延迟。相对传统架构,同等AI算力下推理性能提升50%。

除了算力之外,阿里云还在网络和存储层面发力。在网络层面,阿里云新一代高性能网络HPN 8.0全新亮相。HPN8.0采用训推一体化架构,存储网络带宽拉升至800Gbps,GPU互联网络带宽达到6.4Tbps,可支持单集群10万卡GPU高效互联,为万卡大集群提供高性能、确定性的云上基础网络,助力AI训推提效。

在存储层面,阿里云分布式存储面向AI需求全面升级。高性能并行文件存储CPFS单客户端吞吐提升至40GB/s, 可满足AI训练对快速读取数据的极致需求;表格存储Tablestore为Agent提供高性能记忆库和知识库;对象存储OSS推出 Vector Bucket,为向量数据提供高性价比的海量存储,相比自建开源向量数据库,成本骤降95%,结合OSS MetaQuery 语义检索和内容感知能力,可快速构建RAG等AI应用。

另外,为了支持AI智算集群,阿里云的智算平台灵骏和阿里云人工智能平台PAI也都进行了升级。

显然,强大基础设施为AI应用的落地提供了充足的支持,也为阿里云营收重回高增长态势奠定了基础。第三方机构Omdia2025年上半年数据显示,中国AI云市场阿里云占比35.8%,超过2到4名总和;在已采用生成式AI的财富中国500强中,超53%企业选择阿里云,渗透率位列第一。未来3年,阿里巴巴将投入3800亿用于建设云和AI基础设施,总额超过过去十年的总和。

ToB最前沿

ToB最前沿抖音号

CBI科技在线

地址:北京市朝阳区北三环东路三元桥曙光西里甲1号第三置业A座1508室 商务内容合作QQ:2291221 电话:13391790444或(010)62178877
版权所有:电脑商情信息服务集团 北京赢邦策略咨询有限责任公司
声明:本媒体部分图片、文章来源于网络,版权归原作者所有,我司致力于保护作者版权,如有侵权,请与我司联系删除
京ICP备:2022009079号-3
京公网安备:11010502051901号
ICP证:京B2-20230255