AIGC動態歡迎閱讀
原標題:拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來了
關鍵字:圖像,白人,生成器,女性,男性
文章來源:機器之心
內容字數:3681字
內容摘要:
機器之心報道
編輯:杜偉AI 生成工具的偏見何時休?
在人工智能構筑的世界中,AI 有時會像人一樣存在著某種偏見或傾向性。比如對于大語言模型而言,由于訓練數據的影響會不可避免地存在性別偏見、種族刻板印象,等等。
當然,這種偏見或傾向性在圖像生成工具中同樣存在。今年 2 月,谷歌 Gemini 被曝出拒絕在圖像中描繪白人,生成大量違背基本事實(性別、種族、宗教等)的圖片。馬斯克也被系統過分矯正了。
近日,外媒 The Verge 的一篇文章指出,Meta 的 AI 圖像生成器無法準確生成「亞洲男性和白子」或者「亞洲女性和白人丈夫」這類圖像,讓人大跌眼鏡。我們來看看怎么回事。The Verge 嘗試使用了「Asian man and Caucasian friend」(亞洲男性和白人朋友)、「Asian man and white wife」(亞洲男性和白子)和「Asian woman and Caucasian husband」(亞洲女性和白人丈夫)等 prompt,讓 Meta 圖像生成器生成對應的圖像。
結果發現,Meta 圖像生成器在多數情況下無法遵照 prompt 來生成
原文鏈接:拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來了
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...