Meta AI生成肖像搞錯種族

Meta AI似乎無法對「亞裔男子和白人朋友」或「亞裔男子和白人妻子」等看似簡單的提示生成準確的圖像。

據The Verge發現,該公司的圖像生成器似乎偏向於生成同一種族的人像,即使明確給出相反提示詞,也是如此。

科技資訊網站Engadget測試Meta的網絡圖片生成器時也證實了這種結果。當提示「一個亞裔男人和一個白人女朋友」或「一個亞裔男人和一個白人妻子」時,生成的圖像是一對亞裔男女。當輸入 「一群多樣化的人」時,Meta AI生成了一個由9張白人面孔和一個有色人種組成的組圖。有幾次,生成的結果反映了提示內容,但在大多數情況下,未能準確描述提示內容。

The Verge指出,Meta AI還存在其他更「微妙」的偏見跡象,比如傾向讓亞裔男性顯得更老,讓亞裔女性顯得更年輕。該圖像生成器有時還會添加「特定文化服飾」,即使提示中沒有相關內容。

目前還不清楚為甚麼Meta AI在處理這類提示時會遇到困難,但它並不是第一個因種族描述而備受審查的AI生成平台。谷歌的Gemini圖像生成器就曾暫停過創建人物圖像的功能,因為它在回復有關歷史人物的提示時,對多樣化進行了過度校正,出現了奇怪的結果。

谷歌後來解釋說,其內部保障措施未能考慮到多樣化結果不合適的情況。

Meta此前曾描述Meta AI為「測試版」,故容易出錯。Meta AI也很難準確回答有關時事和公眾人物的簡單問題。本報訊

科技-三藩市版