近期,思科发布了2024年数据隐私基准研究,揭示了组织在使用生成式人工智能方面面临的隐私和安全问题。以下是该研究的主要发现以及对组织产生的影响。
暂时禁止生成式人工智能的使用
根据研究,超过四分之一(27%)的组织出于对隐私和数据安全风险的担忧,已经暂时禁止员工使用生成式人工智能。这表明组织对新兴技术的谨慎态度,优先考虑数据安全和隐私保护。

对生成式人工智能工具的控制和限制
大多数组织采取了控制措施,其中近三分之二(63%)的受访者限制了输入到这些工具的数据,而61%的受访者限制了员工可以使用的生成式人工智能工具的范围。这反映了对这一技术潜在风险的广泛认识,并对其使用进行了有效的管理。
敏感数据的输入与挑战
尽管存在对生成式人工智能的限制,62%的组织承认已经将敏感数据输入到这些应用程序中。这些敏感数据包括内部流程信息、员工姓名或信息、公司的非公开信息以及客户名称或信息。这突显了在安全管理方面的挑战,需要对敏感信息的使用加强监控。
对生成式人工智能的担忧
研究显示,92%的受访者认为生成式人工智能是一项全新的技术,面临新的挑战,需要采用新技术来管理数据和风险。主要担忧包括可能损害组织的法律和知识产权、信息泄漏或与竞争对手分享、返回给用户的错误信息、对人类的有害以及可能替代员工和自身的风险。
账户泄漏和滥用的重大风险
研究指出,员工的人工智能账户泄漏和滥用是企业面临的重大风险之一。卡巴斯基的调查发现,被盗的ChatGPT账户在暗网广受热销,对用户和公司构成重大威胁。
法规合规和客户信任的挑战
对于安全和隐私专业人士而言,保障客户信任是一项重要任务。然而,91%的专业人士承认需要采取更多措施,让客户对人工智能的数据使用感到放心。这与生成式人工智能可能涉及违反GDPR等数据保护法规的风险密切相关。
建立AI信任的挑战与不足
思科的调研指出,在建立AI信任方面,目前没有一项工作获得超过50%受访者的采用。这包括解释AI应用的工作原理、确保流程中有人员干预、制定AI道德管理计划以及审计AI应用的偏差。这提示了在AI领域安全治理方面的亟待加强。
思科首席法务官Dev Stahlkopf强调:“超过90%的受访者认为人工智能需要新技术来管理数据和风险。AI安全治理对于建立客户信任至关重要。”
综合而言,生成式人工智能的广泛应用带来了许多挑战,组织需要采取切实可行的措施,以确保数据隐私和安全得到有效保护,同时满足法规合规的要求,赢得客户的信任。