如何防止基于AI的数据泄露

作者:

刘沙

责任编辑:

刘沙

来源:

电脑商情在线

时间:

2026-01-20 11:46

关键字:

AI 数据泄露 CISO

对于所有公司来说,竞争对手利用针对性极强的活动挖走自己的客户都是噩梦。而且,如果精准度很高,这件事情就绝非巧合,有理由怀疑竞争对手是以某种特殊的方式获得了这些敏感数据。

数据泄露的源头可能是:一名前员工利用AI助手访问了一个包含大量账户数据的内部数据库。随后,他复制了客户销售数据和产品使用情况等敏感信息,并将这些信息带到了新雇主那里。

这个例子说明了一个正在迅速蔓延的问题:生成式AI工具的快速普及将不可避免地导致更多的数据泄露。

根据Gartner最近的一项调查,最常见的AI应用场景是基于生成式AI的应用程序,例如Microsoft 365 Copilot等等。虽然这些工具是公司提高生产力的绝佳方式,但是它们也对数据安全构成了极大的挑战。

数据风险

研究表明,几乎99%的授权未被使用,其中超过一半属于高风险。原则上,未使用和过于宽泛的访问权限本身就有数据安全问题,在很多情况下AI都使这种情况加倍地恶化了。

当用户向AI助手提问时,该工具会利用图技术,基于互联网内容和公司数据,以自然语言生成答案。例如,Microsoft Copilot可以访问用户有权访问的所有数据——即使用户自己都不知道他们拥有这些访问权限。因此,Copilot很容易泄露敏感数据。

AI降低了攻击者的门槛

AI已经使攻击者不再需要“黑”系统,也不用小心谨慎地勘察环境。现在,他们只需向AI助手询问敏感信息或访问凭据,就可以在环境中横向移动。

AI给网络安全带来的最大挑战包括:

  •  员工访问过多的数据
  •  敏感数据通常未被标记或者标记错误
  •  内部人员可以利用自然语言快速查找并窃取数据
  •  攻击者可以找到用于提升权限和横向移动的秘密信息
  •  不能手动设置正确的访问权限
  •  生成式AI可以快速生成新的敏感数据

这些数据安全挑战并非新问题。然而,AI能够以惊人的速度、轻易地将信息暴露给攻击者,使这些漏洞比以往任何时候都更容易被利用。

防范AI风险的保护措施

消除AI相关风险的第一步是确保基础工作已经完成。在部署像Copilot这样强大的工具之前,CISO需要清楚所有敏感数据的位置,还需要能够分析威胁和风险,弥补安全漏洞,并高效地修复配置错误。

只有当CISO对其环境中的数据安全有牢固的掌控力,并且建立了正确的流程时,公司才能引入AI助手。即使在部署之后,安全管理人员也应持续监控以下三个关键领域:

  •  访问权限: 确保员工的权限设置恰当,而且让AI工具的访问权限与用户的权限相匹配至关重要。
  •  数据分类: 一旦CISO了解了公司拥有的敏感数据类型,就可以对其进行标记,以有效执行数据泄露防护(DLP)规则。
  •  人员活动: 必须监控AI助手的使用情况,并检测任何可疑行为。分析用户输入的提示词以及被访问的文件。

这些对于防止AI滥用都至关重要。

ToB最前沿

ToB最前沿抖音号

CBI科技在线

地址:北京市朝阳区北三环东路三元桥曙光西里甲1号第三置业A座1508室 商务内容合作QQ:2291221 电话:13391790444或(010)62178877
版权所有:电脑商情信息服务集团 北京赢邦策略咨询有限责任公司
声明:本媒体部分图片、文章来源于网络,版权归原作者所有,我司致力于保护作者版权,如有侵权,请与我司联系删除
京ICP备:2022009079号-3
京公网安备:11010502051901号
ICP证:京B2-20230255