高通发布AI加速器及其神秘机架系统

作者:

CBINEWS

责任编辑:

邹大斌

来源:

电脑商情在线

时间:

2025-10-28 10:37

关键字:

高通 AI加速器 AI 数据中心

高通公司近日公布了2个AI加速器及配套的机架级系统,披露了其进军AI数据中心市场的部分计划,所有这些产品均专注于推理工作负载。

这两个新的加速器分别是AI200和AI250“,高通仅提供了极少的技术细节,表示AI200每卡支持768GB的LPDDR内存,而AI250将采用“基于近内存计算的创新内存架构”,并宣称其“在AI推理工作负载的效率和性能上实现了一代飞跃,有效内存带宽提升超过10倍,功耗显著降低”。

这些加速卡将搭载于预配置的机架中出货,机架采用“直接液冷以实现热效率,通过PCIe实现纵向扩展,通过以太网实现横向扩展,支持机密计算以保障AI工作负载的安全性,整机架功耗为160千瓦”。

今年5月,高通CEO克里斯蒂亚诺·阿蒙曾发表过一些略显神秘的言论,称公司只会以“独特且颠覆性的产品”进入AI数据中心市场,并将利用其在CPU设计方面的专长,“思考如何构建高性能、极低功耗的推理集群”。

然而,此次公告并未提及CPU。公告强调,其加速器建立在高通“NPU技术领先地位”之上——这无疑是指其集成于笔记本电脑和移动设备处理器中的Hexagon品牌神经网络处理单元。

高通最新的Hexagon NPU被集成于骁龙8 Elite SoC中,包含12个标量加速器和8个向量加速器,支持INT2、INT4、INT8、INT16、FP8和FP16等多种精度。

此次公告中最引人注目的线索或许是:新产品“在每瓦每美元性能方面,提供机架级性能和卓越的内存容量,实现高性能的快速生成式AI推理”,并具备“低总体拥有成本”。

这一表述直击AI运营商的三大痛点:

其一是运行AI应用所需的能源成本;其二是高能耗会产生大量热量,导致数据中心需要更多冷却基础设施——这同样消耗能源并增加成本;其三是加速器可用内存容量,这决定了它们能运行哪些模型,或单个加速器能同时运行多少模型。

高通宣称AI200每卡配备768GB内存,这一容量明显超过英伟达或AMD旗舰加速器所提供的水平。

因此,高通似乎在暗示其AI产品能以更少的资源完成更多的推理任务,这种组合在AI工作负载不断普及(或即将普及)的背景下,无疑将吸引大量运营商。

高通还宣布沙特AI公司Humain将成为其新产品的客户。Humain“计划从2026年开始部署200兆瓦的高通AI200和AI250机架解决方案,为沙特阿拉伯王国及全球提供高性能AI推理服务”。

但高通表示,AI250预计要到2027年才能上市。因此,Humain的声明与本次新闻的其他内容一样,难以评估——因为它缺乏关于高通究竟创造了什么、以及其产品是否真能与现有加速器竞争的重要细节。

高通的公告中也未提及主要超大规模云服务商是否对其产品表现出兴趣,或其方案是否适用于本地部署。

尽管如此,此次发布标志着高通在早前以CPU为中心的数据中心尝试失败后,再度重返该领域。投资者显然看好这一新举措,公司股价在周一上涨了11%。

ToB最前沿

ToB最前沿抖音号

CBI科技在线

地址:北京市朝阳区北三环东路三元桥曙光西里甲1号第三置业A座1508室 商务内容合作QQ:2291221 电话:13391790444或(010)62178877
版权所有:电脑商情信息服务集团 北京赢邦策略咨询有限责任公司
声明:本媒体部分图片、文章来源于网络,版权归原作者所有,我司致力于保护作者版权,如有侵权,请与我司联系删除
京ICP备:2022009079号-3
京公网安备:11010502051901号
ICP证:京B2-20230255