拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來了
AIGC動態(tài)歡迎閱讀
原標題:拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來了
關(guān)鍵字:圖像,白人,生成器,女性,男性
文章來源:機器之心
內(nèi)容字數(shù):3681字
內(nèi)容摘要:
機器之心報道
編輯:杜偉AI 生成工具的偏見何時休?
在人工智能構(gòu)筑的世界中,AI 有時會像人一樣存在著某種偏見或傾向性。比如對于大語言模型而言,由于訓(xùn)練數(shù)據(jù)的影響會不可避免地存在性別偏見、種族刻板印象,等等。
當然,這種偏見或傾向性在圖像生成工具中同樣存在。今年 2 月,谷歌 Gemini 被曝出拒絕在圖像中描繪白人,生成大量違背基本事實(性別、種族、宗教等)的圖片。馬斯克也被系統(tǒng)過分矯正了。
近日,外媒 The Verge 的一篇文章指出,Meta 的 AI 圖像生成器無法準確生成「亞洲男性和白子」或者「亞洲女性和白人丈夫」這類圖像,讓人大跌眼鏡。我們來看看怎么回事。The Verge 嘗試使用了「Asian man and Caucasian friend」(亞洲男性和白人朋友)、「Asian man and white wife」(亞洲男性和白子)和「Asian woman and Caucasian husband」(亞洲女性和白人丈夫)等 prompt,讓 Meta 圖像生成器生成對應(yīng)的圖像。
結(jié)果發(fā)現(xiàn),Meta 圖像生成器在多數(shù)情況下無法遵照 prompt 來生成
原文鏈接:拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來了
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...