摘要: 受欢迎的Chatgpt平台的制造商Openai悄悄地改变了其使用政策,使该公司可以与军队合作,从而在公司工作人员中打开了潜在的裂痕。
OpenAI,流行的人工智能聊天机器人平台CHAT GPT的母公司,修改了其使用政策,取消了对其技术用于“军事和战争”方面的禁止。
OpenAI的使用政策在今年1月10日之前明确禁止将其技术用于“武器开发、军事和战争”,但根据Computer World的报道,该政策已经更新为只禁止可能“对他人造成伤害”的使用。
OpenAI发言人告诉福克斯新闻数码版:“我们的政策不允许使用我们的工具伤害人们、开发武器、进行通信监视或伤害他人或破坏财产。然而,有一些与我们的使命相符的国家安全用例。例如,我们已经与DARPA合作,推动创建新的网络安全工具,以保护依赖于开源软件的关键基础设施和行业。我们以前的政策中并不清楚这些有益的用例是否属于‘军事’范畴。因此,我们更新政策的目标是提供明确性,并有能力进行这些讨论。”
这一悄然的变化将使OpenAI能够与军方密切合作,这一点一直是该公司管理层分歧的焦点。
但Pioneer Development Group的首席分析官Christopher Alexander认为,公司内部的分歧源于对军方实际使用OpenAI技术的误解。
“失败的派别担心人工智能变得过于强大或无法控制,可能误解了OpenAI可能支持军方的方式,”Alexander告诉福克斯新闻数码版。“OpenAI最有可能的用途是进行日常行政和后勤工作,这对纳税人来说是巨大的成本节约。我很高兴看到OpenAI的现任领导层理解提升国防能力的重要性,这将减少战场上的人员伤亡。”
随着人工智能的不断发展,人们对该技术所带来的危险也越来越担忧。Computer World的报道指出,去年5月,数百名技术领袖和其他公众人物签署了一封公开信,警告人工智能最终可能导致灭绝事件,并且应该优先采取措施来防止这种情况发生。
OpenAI首席执行官Sam Altman是该行业最重要的人物之一,他签署了这封信,突显了该公司似乎一直希望限制人工智能的危险潜力。
然而,一些专家认为,对于该公司来说,这样的变化是不可避免的,并指出美国的对手,如中国,已经在展望人工智能在未来战场上发挥重要作用的情况。
“这可能是多种事件的结合。首先,非营利董事会的削弱可能导致放弃这一政策。其次,军方将有可能既能挽救生命,又可能夺取生命的应用,不允许这些用途很难自圆其说。最后,鉴于我们的敌人在人工智能方面的进展,我相信美国政府已要求模型提供商改变这些政策。我们不能让敌人使用这项技术,而美国却不能使用。”Center for Advanced Preparedness and Threat Response Simulation的创始人Phil Siegel告诉福克斯新闻数码版。
Heritage Foundation的技术政策中心研究员Jake Denton认为,虽然军方从人工智能公司获得了更多合作机会,但透明度应该成为未来任何交易的重要特点。
“当我们的政府探索国防领域的人工智能应用时,我们必须要求透明度,”Denton说。“在国家安全事务中,不透明、不可解释的系统是不可接受的。”
虽然这一突然变化可能会导致OpenAI内部的分歧加剧,但一些人认为,在该公司朝着潜在的军事合作迈进时,应该对该公司本身持怀疑态度。其中包括传统基金会的技术政策中心研究员Jake Denton,他指出了该公司的机密模型。
“像OpenAI这样的公司并不是道德监护人,他们美化道德只是为了安抚批评者,”Denton告诉福克斯新闻数码版。“虽然在我们的军队中采用先进的人工智能系统和工具是自然而然的进化,但OpenAI不透明的黑匣子模型应该引起警惕。在未来的国防合作中,透明度应该是一个重要的标志。”
作为美国国防部收到越来越多来自人工智能公司的潜在合作提议,Denton认为透明度应该成为任何未来交易的重要特点。
“当我们的政府探索国防领域的人工智能应用时,我们必须要求透明度,”Denton说。“在国家安全事务中,不透明、不可解释的系统是不可接受的。”