OpenAI修改使用政策引发人工智能军事化担忧

AI快讯 2年前 (2024) admin
4,402 0

上周末,人工智能领军企业OpenAI悄悄从ChatGPT使用政策中删除了禁止应用于军事用途的条款,这引发了对人工智能武器化的担忧。这一举动标志着人工智能领域可能面临更广泛的军事化应用,为此引起了业内的广泛猜测和质疑。

OpenAI修改使用政策引发人工智能军事化担忧

政策修改引发猜测

在新政策曝光前不到一个月,美国国防部副部长希克斯曾表示,美国军方与硅谷的合作是“击败”中国的关键。过去,硅谷科技巨头通常保持与军方的距离,但随着近年来科技公司逐渐与政治/军方接触,OpenAI的此次政策修改似乎是对这一趋势的响应。

武器化的潘多拉盒子

媒体The Intercept发现,OpenAI在新的使用政策中删除了包括“禁止用于高度人身伤害风险的活动”以及“军事和战争”的内容。尽管新政策保留了一些关于个人行为的限制,但对于全面禁止“军事和战争”的明确规定已经被删除。

网络安全公司Trail of Bits的专家Heidy Khlaaf指出,OpenAI明确了人工智能在军事应用中可能产生的风险,但新政策更强调合法性而非安全性。这引发了对人工智能在军事领域应用的潜在危害的担忧。

人工智能的潜在军事应用

人工智能在军事领域的潜在应用涵盖了多个方面。虽然OpenAI的产品目前还无法直接执行杀伤性任务,但类似ChatGPT的大语言模型可以在军事机器中发挥关键作用。它们可以用于快速编写代码、处理情报、增强指挥控制系统,甚至生成军事采购订单。

据报道,美国国家地理空间情报局(National Geospatial-Intelligence Agency, NGA)已经在考虑使用ChatGPT来协助分析地理空间情报,加速军事作战单元获取情报的速度。

投资者和合作伙伴关系的影响

OpenAI的投资者和合作伙伴微软是美国主要国防承包商之一,投资了大量资金并转售OpenAI的软件工具。这使得人们对OpenAI的军事应用政策修改产生更多质疑,担心其是否打开了参与战争基础设施的大门。

担忧与反思

政策修改引发了业界对人工智能军事化可能带来的潜在问题的担忧。AI Now董事总经理Sarah Myers West表示,鉴于人工智能已经在一些冲突中被用于针对平民,OpenAI的政策修改显得耐人寻味。对于人工智能在军事领域的合法性和安全性问题,业界呼吁进行更多的透明和讨论,以确保人工智能的应用符合道德和法律标准。

版权声明:admin 发表于 2024-01-15 22:59:44。
转载请注明:OpenAI修改使用政策引发人工智能军事化担忧 | ai导航网

暂无评论

暂无评论...