生成式AI在企业中的数据隐私挑战与应对措施

AI快讯 1年前 (2024) admin
2,697 0

根据思科(Cisco)最新进行的调查显示,尽管企业员工普遍了解生成式AI在数据隐私方面的不足,但仍然有很多人将敏感的公司数据输入到类似ChatGPT的AI应用程序中。这一现象引发了企业对数据安全的担忧,并在一定程度上促使了一些公司实施内部禁令以限制生成式AI的使用。

生成式AI在企业中的数据隐私挑战与应对措施

调查结果

根据思科对全球2600名隐私和安全专业人士进行的年度数据隐私基准调查,超过四分之一的公司已在内部实施了生成式AI禁令。此外,三分之二的公司采取了措施,限制了基于大型语言模型的系统中可以输入的信息,或者直接禁止了特定应用程序的使用。

思科卓越隐私中心主任Robert Waitman在博客文章中指出:“超过三分之二的受访者表示,他们担心数据有被竞争对手或公众共享的风险。尽管如此,他们中的许多人仍然输入了可能存在问题的信息,包括有关所在公司的非公开信息(48%)。”

对生成式AI的认知提高

调查结果表明,受访者对生成式AI的认知程度不断提高。55%的人表示他们“非常熟悉”这项技术,相较于去年的调查,这一比例有所增加。与此同时,79%的受访者在今年的调查中表示,他们正在从生成式AI应用中获得“显著或非常显著的价值”。

然而,尽管对生成式AI的认知提高,受访者在部署这类工具时对公司数据安全的担忧仍然存在。其中包括担心AI可能危及公司的法律和知识产权(69%)、将专有数据泄露给竞争对手或公众(68%)以及应用程序输出内容可能不准确(68%)。92%的受访者认为,部署生成式AI需要“管理数据和风险的新技术”。

实际应用中的矛盾与挑战

尽管存在对生成式AI的担忧,许多受访者坦言他们曾将敏感的公司数据输入到生成AI应用程序中。例如,62%的人输入了有关内部流程的信息,而48%的人在生成式AI应用程序中使用敏感的公司数据以寻求新的见解。

企业为了规避这一矛盾,越来越普遍地发布内部禁令,限制员工使用生成式AI。有27%的受访者表示,他们的公司已经完全禁止使用这项技术。其他公司则采取了一系列限制措施,包括数据限制(63%)、工具限制(61%)或数据验证要求(36%)。

这一趋势与零售、制造业和金融服务行业在2023年发布的类似公告相一致。三星、亚马逊、苹果和Verizon等公司已经实施了类似的限制,禁止员工使用生成式AI。

专家观点

生成式AI专家Henry Ajder指出,这些企业决策的背后可能是对监管不确定性和数据隐私担忧的回应。他说:“人们意识到,如果他们以目前的方式使用生成式AI,在当前的监管环境下,他们的一些行为将会违反法规,或者公司在安全维护方面的成本将非常高。”

综合而言,尽管生成式AI在带来显著价值的同时也引发了企业数据隐私的担忧,企业和专业人士需要在使用这项技术时权衡风险与回报,并采取适当的措施确保数据的安全和隐私得到有效保护。

版权声明:admin 发表于 2024-01-26 21:37:03。
转载请注明:生成式AI在企业中的数据隐私挑战与应对措施 | ai导航网

暂无评论

暂无评论...