摘要: 一群前和现任的Openai工作人员在一封信中引起了人们的关注,即没有法规,人工智能的竞赛可能会导致人类灭绝之类的事情。
前OpenAI员工发表公开信,对人工智能技术可能带来的风险表示担忧
一群前OpenAI员工和现任员工在网上发布了一封公开信,表达了他们对人工智能(AI)技术可能对人类造成的影响和严重风险的担忧。
这封信发布在righttowarn.ai上,由五名前OpenAI员工、一名Google DeepMind的现任员工和一名前员工、四名未透露姓名的OpenAI现任员工以及两名前员工签署。
这个团体表示,AI带来的风险范围从“进一步巩固现有的不平等,到操纵和误导,再到失去对自主AI系统的控制,可能导致人类灭绝。”
他们写道:“AI公司自己已经承认了这些风险,全世界的政府和其他AI专家也承认了。我们希望这些风险可以在科学界、政策制定者和公众的充分指导下得到充分缓解。”
苹果的WWDC将成为科技巨头AI的转折点
这个团体表示,AI公司有强烈的财务激励来避免有效的监管,以及对其系统的能力和限制有大量信息。
例如,这些公司拥有关于其保护措施的充分信息以及AI进展可能导致不同类型危害的风险水平的非公开信息。
该团体成员之一、OpenAI治理部门的前研究员Daniel Kokotajlo告诉纽约时报,OpenAI对构建人工通用智能(AGI)感到兴奋,但他们“在鲁莽地争先恐后地竞赛。”
Zoom CEO希望客户将他们的AI助力“数字孪生体”发送到未来会议
Kokotajlo表示,他之前预测AGI可能在2050年到来,但在看到技术进展的速度后,他告诉时报,有50%的可能性AGI可能在2027年到来。
他还表示,他相信先进的AI会摧毁或对人类造成灾难性伤害的概率为70%。
该团体表示,他们认为这些公司不能指望他们自愿分享这些信息。
“只要这些公司没有受到有效的政府监督,现任和前任员工是少数能够让他们对公众负责的人之一,”他们写道。
苹果在WWDC上推出“苹果智能”
OpenAI告诉福克斯商业频道,他们同意公开信呼吁政府监管AI行业,因为他们是该行业第一个呼吁这种监管的公司。
该公司还表示,他们定期与全球各地的政策制定者进行接触,并对取得的进展感到鼓舞。
一位OpenAI发言人还表示,他们有不发布技术直到必要的保障措施到位的记录。
因为其产品被92%的财富500强公司使用,安全可靠的系统至关重要。发言人表示,如果产品不安全,公司就不会订阅。
“我们以提供最强大和最安全的AI系统而自豪,并相信我们的科学方法来解决风险问题,”OpenAI发言人说。“我们同意,鉴于这项技术的重要性,严格的辩论至关重要,我们将继续与世界各地的政府、民间社会和其他社区保持接触。”
“这也是为什么我们为员工提供了表达关切的途径,包括一个匿名的廉正热线和一个由我们董事会成员和公司安全领导人领导的安全委员会,”发言人补充道。