周鸿祎:传统网安方案解决不了AI四大安全问题

作者:

文少

责任编辑:

刘沙

来源:

电脑商情在线

时间:

2025-03-04 14:50

关键字:

周鸿祎 大模型 安全

  近日,全国政协委员、360集团创始人周鸿祎围绕DeepSeek与网络安全问题发表了观点。他指出,网上把DeepSeek当成一个传统的IT设备来看待其安全相关问题,这种思路已经过时了。传统的网络安全解决方案解决不了人工智能的安全问题,人工智能的安全问题要从四个层面来看待:

  一、基座模型的安全问题

  周鸿祎提到,DeepSeek容易出现"幻觉"问题,但是幻觉是可以防止的,通过连接互联网知识库或企业专有知识库可以进行校正。他还指出,DeepSeek虽然强大,但并非绝对可靠,就像人类专家也有可能犯错。用户应该具备判断能力,进行多方验证。

  二、用户端安全问题

  用户端的安全问题同样严峻。大模型容易被"PUA"(操纵),尤其是企业内部的大模型,攻击者无需复杂的黑客技术,也无需特定的权限,仅通过巧妙的引导就能让大模型泄露敏感信息,这可能带来严重的数据泄露风险。周鸿祎举例说,目前网上流行"越狱代码",可以通过简单的提示词让Grok-3大模型失控,这种攻击方式简单且难以防范。这意味着,即使是非技术背景的用户也可能利用大模型发动攻击,企业需要防范用户端的潜在风险。

  三、知识库引发的数据安全问题

  当企业将专业知识库接入大模型时,大模型可以提供更个性化的输出结果,但是这也带来了数据安全风险。例如,不同企业基于不同的知识库会得出不同的结论。一旦企业的重要资料被放入知识库并提供给大模型,大模型可能会毫无保留地将这些信息泄露给任何提问者,从而导致企业数据泄露。

  四、"以模制模"的安全问题

  周鸿祎还提到"Agent"(智能体)的概念。他指出,大模型只是一个大脑,能够进行推理和对话,但这个能力是有限的。让智能体操作电脑、服务器等物理设施才能发挥更大作用。但是,一旦赋予智能体这些操作权限,智能体出错就会导致严重后果。如,数字人可能未经授权发送虚假邮件或指令,造成混乱。

  周鸿祎强调,人工智能的安全问题是一个全新的领域,涵盖了基座模型、用户端、知识库和智能体等多个层面,需要新的解决方案来应对这些挑战。

ToB最前沿

ToB最前沿抖音号

CBI科技在线

地址:北京市朝阳区北三环东路三元桥曙光西里甲1号第三置业A座1508室 商务内容合作QQ:2291221 电话:13391790444或(010)62178877
版权所有:电脑商情信息服务集团 北京赢邦策略咨询有限责任公司
声明:本媒体部分图片、文章来源于网络,版权归原作者所有,我司致力于保护作者版权,如有侵权,请与我司联系删除
京ICP备:2022009079号-3
京公网安备:11010502051901号
ICP证:京B2-20230255