摘要: Google的一位高管在其双子座AI Image Generator发出病毒式创造“唤醒”内容后,提供了MEA Culpa,通常会忽略白人。
Google因AI图像生成器问题道歉
Google就其备受批评的人工智能(AI)图像生成器发布道歉声明,承认其“偏离了初衷”。
Google知识与信息高级副总裁Prabhakar Raghavan在Google产品博客上写道:“三周前,我们为Gemini会话应用(之前称为Bard)推出了新的图像生成功能,其中包括创建人物图像的功能。显然,这一功能偏离了初衷。”他表示:“一些生成的图像不准确甚至令人反感。我们感谢用户的反馈,并对这一功能未能正常运作感到抱歉。”
Gemini因创建历史不准确的图像而在本周引起热议,多次展示各种族裔的人物,往往忽视白人。Google承认了这一问题,并于周四暂停了有关人物的图像生成。
虽然解释“发生了什么”,Raghavan表示,Gemini的设计初衷是避免“创建暴力或色情图像,或真实人物的描绘”,各种提示应提供“各种人物”的图像,而不是“一种族裔”的图像。
“然而,如果您提示Gemini生成特定类型的人物图像 —— 比如‘教室里的黑人老师’或‘白人兽医和狗’ —— 或者特定文化或历史背景下的人物,您应该绝对得到一个准确反映您要求的内容的回应。” Raghavan写道。“那么出了什么问题呢?简而言之,有两点。首先,我们调整Gemini以展示各种人物的工作未能考虑到应清晰展示各种人物的情况。其次,随着时间的推移,模型变得比我们预期的更加谨慎,并拒绝完全回答某些提示 ——错误地将一些非常无害的提示解释为敏感提示。”
“这两点导致模型在某些情况下过度补偿,在其他情况下过于保守,导致出现令人尴尬和错误的图像,”他继续说。“这不是我们的初衷。我们不希望Gemini拒绝创建任何特定群体的图像。我们也不希望它创建不准确的历史 —— 或任何其他 —— 图像。”
Google高管承诺,在再次上线之前,图像处理功能将经过“广泛测试”。
“需要记住的一点是:Gemini是一个创造性和生产力工具,并不总是可靠,特别是在生成关于时事、新闻发展或热点话题的图像或文本时。它会犯错,” Raghavan说。
Raghavan强调,Gemini与Google的搜索引擎完全独立,并建议用户在寻找“高质量信息”时依赖Google搜索。
“我不能承诺Gemini不会偶尔生成令人尴尬、不准确或令人反感的结果 —— 但我可以承诺,每当我们发现问题时,我们将继续采取行动。人工智能是一种新兴技术,在许多方面都很有帮助,具有巨大潜力,我们正在尽最大努力安全、负责任地推广它,” Raghavan补充说。