警惕开源AI部署的安全风险

作者:

CBINEWS

责任编辑:

邹大斌

来源:

电脑商情在线

时间:

2026-02-02 12:48

关键字:

AI 大模型 开源 安全

如果说AI本身已足够令人担忧,那么研究人员最新发现:开源AI部署可能带来比商业AI供应商更大的安全风险。

SentinelLABS的威胁研究人员联合互联网测绘公司Censys,对暴露在公网上的Ollama部署情况进行了调查,结果发现了一个遍布全球、高度同质化的开源AI网络——只待一个合适的零日漏洞出现,便可能全面沦陷。

研究人员共发现130个国家中175,108个唯一的Ollama主机暴露于公共互联网。其中绝大多数运行的是Llama、Qwen2和Gemma2模型,且大多采用相同的模型量化压缩方式和打包方案。双方指出,这表明开源AI部署已形成一种极易被大规模利用的“单一文化”(monoculture)。

他们在报告中写道:“特定量化模型在处理token时若存在漏洞,可能同时影响大量暴露在外的系统,而非仅表现为孤立事件。”

更糟的是,许多暴露的Ollama实例启用了通过API端点调用工具的能力、视觉功能,以及缺乏安全防护机制的无审查提示模板。由于这些部署并非由大型AI公司管理,SentinelLABS与Censys警告称,这些暴露面很可能无人监控,一旦遭利用也难以察觉。

据他们分析,主要风险包括:

•因缺乏集中监管而导致的资源劫持;

•因缺少安全护栏和暴露的API端点而引发的远程特权操作执行;

•攻击者通过受害者基础设施转发恶意流量,实现身份洗白(identity laundering)。

研究团队强调,关键教训在于:无论是否开源,AI都应被视为关键基础设施加以对待。

“大语言模型(LLM)正越来越多地部署在边缘端,用于将指令转化为具体操作,” SentinelLABS与Censys总结道,“因此,它们必须像其他对外暴露的关键基础设施一样,实施同等强度的身份认证、监控和网络控制措施。”

ToB最前沿

ToB最前沿抖音号

CBI科技在线

地址:北京市朝阳区北三环东路三元桥曙光西里甲1号第三置业A座1508室 商务内容合作QQ:2291221 电话:13391790444或(010)62178877
版权所有:电脑商情信息服务集团 北京赢邦策略咨询有限责任公司
声明:本媒体部分图片、文章来源于网络,版权归原作者所有,我司致力于保护作者版权,如有侵权,请与我司联系删除
京ICP备:2022009079号-3
京公网安备:11010502051901号
ICP证:京B2-20230255