近日,OpenAI 宣布采取新措施以应对虚假信息滥用和误导事件,特别是在即将举行的大选前。这一系列措施旨在防止其人工智能聊天机器人 ChatGPT 和图像生成器 DALL-E 3 被用于散布虚假信息。

联合公职人员组织合作
OpenAI 表示,他们已经与美国历史最悠久的无党派公职人员专业组织——全美国务卿协会(NASS)展开合作。该合作旨在确保在 11 月美国总统大选前,ChatGPT 不会向用户输出错误信息。作为具体例子,当用户询问有关选举的问题时,聊天机器人将引导用户访问美国投票信息的权威网站 CanIVote.org。
这一合作计划的目的是通过借鉴在美国大选中的经验教训,提高在其他国家和地区的应对能力。
数字证书与内容真实性联盟
为了防止深度伪造,OpenAI 还宣布将在其最新版人工智能图像生成器 DALL-E 3 生成的图像上实施内容出处和真实性联盟(C2PA)的数字证书。C2PA 是联合发展基金会的项目,该基金会是一家总部位于华盛顿的非营利组织,致力于对抗数字时代的虚假信息和操纵行为。
该联盟的成员包括 Adobe、X 和《纽约时报》等大公司,它们积极支持通过实施加密内容出处标准来确保信息真实性的举措。
OpenAI 还表示正在试验一种出处分类器,用于检测由 DALL-E 生成的图像。即使图像经过常见类型的修改,早期测试结果也显示出良好的希望。该分类器计划首先提供给第一批测试者,包括记者、平台和研究人员,以便收集反馈意见。
行业其他尝试
OpenAI 的努力是当前应对虚假信息的一部分,其他公司也在尝试类似的解决方案。谷歌的 DeepMind 利用 SynthID 对人工智能生成的图像和音频进行数字水印处理。Meta 也在为其图像生成器开发类似的水印工具,尽管相关信息相对较少。
为确保新系统的安全性,OpenAI 表示将在发布前进行红队测试,并鼓励用户和外部合作伙伴提供反馈,建立安全缓解措施以降低潜在的危害。
面临的挑战
尽管打击虚假信息是必要的,但实施起来却具有挑战性。基于人工智能的文本分析平台 Copyleaks 的创始人兼首席执行官阿隆-亚明表示,今年的大选被认为是近代史上最大的选举年之一。全球范围内的担忧表明人工智能可能被滥用于政治活动等领域,但由于用户群规模庞大,实施相关措施可能面临一定难度。
在英国,信息专员办公室于今年 1 月 15 日启动了关于生成式人工智能的系列咨询,为即将到来的大选做好准备。
综上所述,OpenAI 的新措施标志着对抗虚假信息的积极努力。随着技术的发展,各方合作愈发重要,以确保人工智能的使用不会导致信息滥用和误导。