周鸿祎:传统网安方案解决不了AI四大安全问题
文少
责任编辑:刘沙
电脑商情在线
时间:2025-03-04 14:50
周鸿祎 大模型 安全
近日,全国政协委员、360集团创始人周鸿祎围绕DeepSeek与网络安全问题发表了观点。他指出,网上把DeepSeek当成一个传统的IT设备来看待其安全相关问题,这种思路已经过时了。传统的网络安全解决方案解决不了人工智能的安全问题,人工智能的安全问题要从四个层面来看待:
一、基座模型的安全问题
周鸿祎提到,DeepSeek容易出现"幻觉"问题,但是幻觉是可以防止的,通过连接互联网知识库或企业专有知识库可以进行校正。他还指出,DeepSeek虽然强大,但并非绝对可靠,就像人类专家也有可能犯错。用户应该具备判断能力,进行多方验证。
二、用户端安全问题
用户端的安全问题同样严峻。大模型容易被"PUA"(操纵),尤其是企业内部的大模型,攻击者无需复杂的黑客技术,也无需特定的权限,仅通过巧妙的引导就能让大模型泄露敏感信息,这可能带来严重的数据泄露风险。周鸿祎举例说,目前网上流行"越狱代码",可以通过简单的提示词让Grok-3大模型失控,这种攻击方式简单且难以防范。这意味着,即使是非技术背景的用户也可能利用大模型发动攻击,企业需要防范用户端的潜在风险。
三、知识库引发的数据安全问题
当企业将专业知识库接入大模型时,大模型可以提供更个性化的输出结果,但是这也带来了数据安全风险。例如,不同企业基于不同的知识库会得出不同的结论。一旦企业的重要资料被放入知识库并提供给大模型,大模型可能会毫无保留地将这些信息泄露给任何提问者,从而导致企业数据泄露。
四、"以模制模"的安全问题
周鸿祎还提到"Agent"(智能体)的概念。他指出,大模型只是一个大脑,能够进行推理和对话,但这个能力是有限的。让智能体操作电脑、服务器等物理设施才能发挥更大作用。但是,一旦赋予智能体这些操作权限,智能体出错就会导致严重后果。如,数字人可能未经授权发送虚假邮件或指令,造成混乱。
周鸿祎强调,人工智能的安全问题是一个全新的领域,涵盖了基座模型、用户端、知识库和智能体等多个层面,需要新的解决方案来应对这些挑战。