谷歌解釋為什么Gemini的圖像生成功能對多樣性進行了過度校正
近日,谷歌的高級副總裁普拉巴卡爾·拉加萬解釋了Gemini圖像生成功能的過度校正問題,并表示公司致力于改進這一功能。他指出,過度校正主要是由于谷歌努力確保生成的圖像符合廣泛人群的需求,但未能考慮到一些情況下不應該顯示的內容,以及隨著時間推移,人工智能模型變得更加謹慎,拒絕回答本質上不具有攻擊性的提示所致。
據鉍讀網了解,Gemini的圖像生成功能旨在確保生成的圖像不包含暴力或色情內容,并且應該涵蓋不同種族和特征的人。然而,最近的發現表明,Gemini會拒絕某些提示,例如專門針對白人的提示。此外,Gemini還存在生成歷史準確圖像的問題,例如在生成第二次世界大戰期間德國士兵的圖像時出現了穿著納粹制服的黑人男性和亞洲女性的圖像,以及生成美國開國元勛和歷代教皇的圖像時出現有色人種的照片。
拉加萬強調,谷歌不打算讓Gemini拒絕創建特定群體的圖像或生成歷史上不準確的照片。他重申了谷歌的承諾,即將致力于改進Gemini的圖像生成功能。然而,這需要廣泛的測試,因此公司可能需要一段時間才能重新啟用該功能。目前,當用戶嘗試使用Gemini創建圖像時,聊天機器人會回復他們正在努力提高Gemini生成人物圖像的能力,并預計此功能將在發布更新時通知用戶。