AI的“隨機(jī)性”挑戰(zhàn):它們比人類更“不隨機(jī)”?
原標(biāo)題:AI的“隨機(jī)性”挑戰(zhàn):它們比人類更“不隨機(jī)”?
文章來源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):10055字
人類、AI與隨機(jī)性:一項關(guān)于大語言模型偏差的有趣研究
本文探討了一項來自康奈爾大學(xué)的研究,該研究考察了大語言模型(LLM)在生成隨機(jī)序列方面的表現(xiàn),并將其與人類的“偽隨機(jī)”行為進(jìn)行了比較。研究發(fā)現(xiàn),LLM不僅未能實(shí)現(xiàn)真正的隨機(jī)性,反而繼承并放大了人類在隨機(jī)性任務(wù)中的固有偏差。
人類的“偽隨機(jī)”行為
人類并非真正的隨機(jī)數(shù)生成器。我們傾向于在看似隨機(jī)的中尋找模式和規(guī)律,這導(dǎo)致我們在選擇時表現(xiàn)出可預(yù)測的偏差。例如,在選擇1到10之間的數(shù)字時,人們更傾向于選擇7;在拋硬幣實(shí)驗(yàn)中,人們也往往無法生成真正的隨機(jī)序列。
LLM的隨機(jī)性實(shí)驗(yàn):虛擬硬幣拋擲
研究人員通過一個經(jīng)典的實(shí)驗(yàn)——生成二進(jìn)制隨機(jī)序列(模擬拋硬幣)——來評估LLM(GPT-4和Llama-3)的隨機(jī)性。他們使用了“溫度”參數(shù)來控制模型輸出的多樣性,溫度越高,輸出越隨機(jī)。
AI繼承并放大了人類偏差
實(shí)驗(yàn)結(jié)果顯示,LLM在生成隨機(jī)序列時,表現(xiàn)出了與人類相似的偏差,甚至在某些情況下還加劇了這些偏差。具體而言:
“正面優(yōu)先”偏差:超過88%的AI生成的序列以“正面”開始,遠(yuǎn)高于人類的比例,尤其Llama-3的偏差最為明顯。
“平衡”偏差:GPT-4和Llama-3生成的序列中,正面和反面的比例往往過于接近50%,比真正的隨機(jī)序列更“平衡”,也與人類的傾向相符。
“過度切換”偏差:人類在生成隨機(jī)序列時,往往會過度切換正面和反面,以使其看起來更“隨機(jī)”。AI模型也繼承了這種傾向,甚至將其放大。
溫度參數(shù)的影響
溫度參數(shù)影響著LLM輸出的多樣性。過高的溫度會使輸出變得混亂,而過低的溫度則會限制多樣性。研究發(fā)現(xiàn),即使溫度變化,LLM的“正面優(yōu)先”偏差依然存在。
研究意義
這項研究揭示了LLM在隨機(jī)性任務(wù)中的局限性,也進(jìn)一步闡明了人類認(rèn)知偏差對AI系統(tǒng)的影響。 理解這些偏差對于改進(jìn)LLM的設(shè)計和應(yīng)用至關(guān)重要,這有助于開發(fā)更可靠、更強(qiáng)大的AI系統(tǒng)。 未來的研究可以進(jìn)一步探索這些偏差的根源以及如何減輕它們的影響。
總而言之,這項研究不僅揭示了大語言模型在模擬隨機(jī)性方面的不足,更重要的是,它強(qiáng)調(diào)了人類認(rèn)知偏差在人工智能系統(tǒng)中的深遠(yuǎn)影響,以及在構(gòu)建更可靠的AI系統(tǒng)時,對這些偏差進(jìn)行深入研究和糾正的重要性。
聯(lián)系作者
文章來源:人工智能學(xué)家
作者微信:
作者簡介:致力成為權(quán)威的人工智能科技媒體和前沿科技研究機(jī)構(gòu)