谷歌AI模型Gemini因偏见问题被迫关闭图片生成功能

摘要: Google的双子座模型在“醒来”造成了进攻之后道歉。随着技术变得更加有能力,人们期望对AI的价值观进行政治斗争会恶化。

谷歌AI模型Gemini因偏见问题被迫关闭图片生成功能

谷歌AI模型Gemini因偏见问题被迫关闭图片生成功能

上周,谷歌不得不关闭其最新AI模型Gemini的图片生成功能,因为有投诉称当要求生成白人男性历史人物形象时,Gemini默认展示了女性和有色人种,包括维京人、教皇和德国士兵。公司公开道歉并表示将改进。Alphabet的CEO Sundar Pichai在周三向员工发出了致歉备忘录。备忘录中写道:“我知道它的一些回应冒犯了我们的用户并显示了偏见。明确地说,这是完全不可接受的,我们做错了。”

然而,谷歌的批评者并未消声。最近,社交媒体上的保守声音指出Gemini的文本回应显示了自由主义偏见。周日,埃隆·马斯克在X上发布了截图,显示Gemini表示即使这是避免核战争的唯一方法,也不能错误地性别识别凯特琳·詹纳。马斯克写道:“谷歌的Gemini超级种族主义和性别歧视。”

知情人士称,谷歌内部有人认为这场风波反映了关于AI模型产出内容的规范仍在变化。据称,公司正在开展项目,以减少未来类似Gemini中出现的问题。

谷歌过去努力增加算法输出的多样性并未受到谴责。谷歌此前调整了其搜索引擎,以在描绘首席执行官的图像中展示更多女性和有色人种,尽管这可能不符合企业现实。

Gemini经常默认展示非白人和女性,是因为公司使用一种称为微调的过程来引导模型的回应。该公司试图补偿图像生成器中常见的偏见,这些偏见源于用于训练它们的图像中存在有害的文化刻板印象,其中许多通常来自网络并展示白人、西方的偏见。没有这种微调,当要求描绘医生或律师时,AI图像生成器会主要生成白人的图像,或者当要求创建罪犯的图像时,会不成比例地展示黑人。看起来谷歌最终过度补偿,或者没有正确测试调整以纠正偏见的后果。

为什么会发生这种情况?也许只是因为谷歌匆忙推出了Gemini。该公司显然在释放AI技术方面找不到正确的节奏。它曾对其AI技术采取更谨慎的态度,因为出于道德考虑决定不发布一款强大的聊天机器人。在OpenAI的CHAT GPT风靡全球后,谷歌转入了不同的轨道。在匆忙之中,质量控制似乎受到了影响。

普林斯顿大学教授、机器学习公平性书籍合著者Arvind Narayanan表示:“Gemini的行为看起来像是一个彻底的产品失败。这些问题与多年来我们一直看到的问题相同。令人难以置信的是,他们发布了一个图像生成器,似乎从未尝试生成历史人物的图像。”

像Gemini和CHAT GPT这样的聊天机器人是通过让人类测试模型并提供反馈来微调的。AI研究人员Paul Christiano表示,Gemini的有争议回应可能反映了谷歌试图快速训练其模型,并未对其行为进行足够检查。但他补充说,努力使AI模型对齐不可避免地涉及到不是每个人都会同意的判断。试图陷害Gemini的假设性问题通常将聊天机器人推向一个让人难以满足所有人的领域。“绝对是这样,任何使用‘更重要’或‘更好’等短语的问题都将是有争议的,”他说。

© 版权声明

相关文章

暂无评论

暂无评论...