Nature:大語(yǔ)言模型只是沒(méi)有感情的「學(xué)人精」
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:Nature:大語(yǔ)言模型只是沒(méi)有感情的「學(xué)人精」
關(guān)鍵字:模型,語(yǔ)言,解讀,角色,角色扮演
文章來(lái)源:大數(shù)據(jù)文摘
內(nèi)容字?jǐn)?shù):7414字
內(nèi)容摘要:大數(shù)據(jù)文摘授權(quán)轉(zhuǎn)載自HyperAI超神經(jīng)作者:李寶珠編輯:三羊ChatGPT 爆火后,大語(yǔ)言模型一躍而至,成為了行業(yè)與資本的寵兒。而在人們或是獵奇、或是探究地一次次對(duì)話中,大語(yǔ)言模型所表現(xiàn)出的過(guò)度擬人化也引起了越來(lái)越多的關(guān)注。其實(shí),在 AI 發(fā)展的數(shù)年沉浮之中,除了技術(shù)上的更新升級(jí)外,有關(guān) AI 倫理問(wèn)題的種種爭(zhēng)論從未停止。尤其是在 ChatGPT 等大模型應(yīng)用持續(xù)深化之際,有關(guān)「大語(yǔ)言模型越來(lái)越像人」的甚囂塵上,甚至有前 Google 工程師稱(chēng),自家的機(jī)器人 LaMDA 已經(jīng)產(chǎn)生了自我意識(shí)。雖然這位工程師最終被 Google 辭退,但其卻一度將關(guān)于「AI 倫理」的討論推向了——如何判定機(jī)器人是否產(chǎn)生自我意識(shí)?大語(yǔ)言模型的擬人化究竟是蜜糖還是?ChatGPT 等機(jī)器人為什么會(huì)胡編亂造?……對(duì)此,來(lái)自谷歌 DeepMind 的 Murray Shanahan,以及…
原文鏈接:點(diǎn)此閱讀原文:Nature:大語(yǔ)言模型只是沒(méi)有感情的「學(xué)人精」
聯(lián)系作者
文章來(lái)源:大數(shù)據(jù)文摘
作者微信:BigDataDigest
作者簡(jiǎn)介:普及數(shù)據(jù)思維,傳播數(shù)據(jù)文化
相關(guān)文章
