摘要: 来自OpenAI,拟人化,DeepMind和其他领先的AI公司的现任和前任雇员已经写了一封公开信,以解决该技术的风险。
OpenAI面临内部纷争和外部批评
Ryan Daws是TechForge Media的高级编辑,拥有十多年的经验,擅长撰写引人入胜的叙述并让复杂话题易于理解。他的文章和与行业领袖的采访使他被Onalytica等组织认可为关键影响者。在他的领导下,出版物因其卓越性能而受到Forrester等分析公司的赞扬。您可以在X (@gadget_ry)或Mastodon (@gadgetry@techhub.social)上与他联系。
今年五月,OpenAI公司的几名知名员工离职,包括前OpenAI“超级对齐”工作的负责人Jan Leike。Leike的离职发生在OpenAI公司推出其新旗舰GPT-4o模型后不久,该模型在其春季更新活动中被吹捧为“神奇”。
据报道,Leike的离职是由于对安全措施、监控实践以及对华丽产品发布的优先考虑而持续发生的分歧。
Leike的离职引发了OpenAI公司的一系列问题。前OpenAI董事会成员提出了针对首席执行官Sam Altman和公司领导层的心理虐待指控。
OpenAI公司内部的不断动荡与外界对类似该公司自己的语言模型等生成式AI技术潜在风险的担忧日益增加。批评者警告称,先进AI超越人类能力的即将到来的存在威胁,以及更直接的风险,如工作替代和将AI用于误导和操纵活动。
为了回应这些担忧,来自OpenAI、Anthropic、DeepMind和其他领先AI公司的一群现任和前任员工共同起草了一封公开信,旨在保护告密者,并促进围绕AI开发的更大透明度和问责制。
这些要求包括不强制员工签署不抨击公司的条款,支持员工匿名向董事会、监管机构和独立专家提出关切,支持开放批评文化,并不会对分享机密风险信息的员工进行报复。
OpenAI公司被指责强迫离职员工签署保密协议,以防止他们批评公司或失去已获得的股权。OpenAI首席执行官Sam Altman承认对这种情况感到“尴尬”,但声称公司从未实际收回任何人的已获得股权。
随着AI革命的推进,OpenAI公司内部的纷争和告密者的要求突显了该技术围绕的成长烦恼和未解决的伦理困境。