如何防止基于AI的数据泄露
刘沙
责任编辑:刘沙
电脑商情在线
时间:2026-01-20 11:46
AI 数据泄露 CISO

对于所有公司来说,竞争对手利用针对性极强的活动挖走自己的客户都是噩梦。而且,如果精准度很高,这件事情就绝非巧合,有理由怀疑竞争对手是以某种特殊的方式获得了这些敏感数据。
数据泄露的源头可能是:一名前员工利用AI助手访问了一个包含大量账户数据的内部数据库。随后,他复制了客户销售数据和产品使用情况等敏感信息,并将这些信息带到了新雇主那里。
这个例子说明了一个正在迅速蔓延的问题:生成式AI工具的快速普及将不可避免地导致更多的数据泄露。
根据Gartner最近的一项调查,最常见的AI应用场景是基于生成式AI的应用程序,例如Microsoft 365 Copilot等等。虽然这些工具是公司提高生产力的绝佳方式,但是它们也对数据安全构成了极大的挑战。
数据风险
研究表明,几乎99%的授权未被使用,其中超过一半属于高风险。原则上,未使用和过于宽泛的访问权限本身就有数据安全问题,在很多情况下AI都使这种情况加倍地恶化了。
当用户向AI助手提问时,该工具会利用图技术,基于互联网内容和公司数据,以自然语言生成答案。例如,Microsoft Copilot可以访问用户有权访问的所有数据——即使用户自己都不知道他们拥有这些访问权限。因此,Copilot很容易泄露敏感数据。
AI降低了攻击者的门槛
AI已经使攻击者不再需要“黑”系统,也不用小心谨慎地勘察环境。现在,他们只需向AI助手询问敏感信息或访问凭据,就可以在环境中横向移动。
AI给网络安全带来的最大挑战包括:
- 员工访问过多的数据
- 敏感数据通常未被标记或者标记错误
- 内部人员可以利用自然语言快速查找并窃取数据
- 攻击者可以找到用于提升权限和横向移动的秘密信息
- 不能手动设置正确的访问权限
- 生成式AI可以快速生成新的敏感数据
这些数据安全挑战并非新问题。然而,AI能够以惊人的速度、轻易地将信息暴露给攻击者,使这些漏洞比以往任何时候都更容易被利用。
防范AI风险的保护措施
消除AI相关风险的第一步是确保基础工作已经完成。在部署像Copilot这样强大的工具之前,CISO需要清楚所有敏感数据的位置,还需要能够分析威胁和风险,弥补安全漏洞,并高效地修复配置错误。
只有当CISO对其环境中的数据安全有牢固的掌控力,并且建立了正确的流程时,公司才能引入AI助手。即使在部署之后,安全管理人员也应持续监控以下三个关键领域:
- 访问权限: 确保员工的权限设置恰当,而且让AI工具的访问权限与用户的权限相匹配至关重要。
- 数据分类: 一旦CISO了解了公司拥有的敏感数据类型,就可以对其进行标记,以有效执行数据泄露防护(DLP)规则。
- 人员活动: 必须监控AI助手的使用情况,并检测任何可疑行为。分析用户输入的提示词以及被访问的文件。
这些对于防止AI滥用都至关重要。
