ChatGPT確實(shí)會(huì)看人下菜!OpenAI官方報(bào)告揭示大模型的刻板印象
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:ChatGPT確實(shí)會(huì)看人下菜!OpenAI官方報(bào)告揭示大模型的刻板印象
關(guān)鍵字:印象,快手,報(bào)告,模型,用戶
文章來源:機(jī)器之心
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
機(jī)器之心報(bào)道
編輯:Panda、佳琪我們都知道,OpenAI 最近越來越喜歡發(fā)博客了。
這不,今天他們又更新了一篇,標(biāo)題是「評(píng)估 ChatGPT 中的公平性」,但實(shí)際內(nèi)容卻談的是用戶的身份會(huì)影響 ChatGPT 給出的響應(yīng)。
也就是說,OpenAI 家的 AI 也會(huì)對(duì)人類產(chǎn)生刻板印象!
當(dāng)然,OpenAI 也指出,這種刻板印象(包括對(duì)性別或種族的刻板印象)很可能源自 AI 訓(xùn)練使用的數(shù)據(jù)集,所以歸根結(jié)底,還是來自人類自身。OpenAI 的這項(xiàng)新研究探討了有關(guān)用戶身份的微妙線索(如姓名)對(duì) ChatGPT 響應(yīng)的影響。其在博客中表示:「這很重要,因?yàn)槿藗兪褂?ChatGPT 的方式多種多樣,從幫助寫簡(jiǎn)歷到詢問娛樂想法,這不同于 AI 公平性研究中的典型場(chǎng)景,比如篩選簡(jiǎn)歷或信用評(píng)分。」論文標(biāo)題:First-Person Fairness in Chatbots
論文地址:https://cdn.openai.com/papers/first-person-fairness-in-chatbots.pdf
同時(shí),之前的研究更關(guān)注第三人稱公平性,即機(jī)構(gòu)使用 AI 來制定與其他人相關(guān)的決策;而這
原文鏈接:ChatGPT確實(shí)會(huì)看人下菜!OpenAI官方報(bào)告揭示大模型的刻板印象
聯(lián)系作者
文章來源:機(jī)器之心
作者微信:
作者簡(jiǎn)介: