原標題:AI的“隨機性”挑戰:它們比人類更“不隨機”?
文章來源:人工智能學家
內容字數:10055字
人類、AI與隨機性:一項關于大語言模型偏差的有趣研究
本文探討了一項來自康奈爾大學的研究,該研究考察了大語言模型(LLM)在生成隨機序列方面的表現,并將其與人類的“偽隨機”行為進行了比較。研究發現,LLM不僅未能實現真正的隨機性,反而繼承并放大了人類在隨機性任務中的固有偏差。
人類的“偽隨機”行為
人類并非真正的隨機數生成器。我們傾向于在看似隨機的中尋找模式和規律,這導致我們在選擇時表現出可預測的偏差。例如,在選擇1到10之間的數字時,人們更傾向于選擇7;在拋硬幣實驗中,人們也往往無法生成真正的隨機序列。
LLM的隨機性實驗:虛擬硬幣拋擲
研究人員通過一個經典的實驗——生成二進制隨機序列(模擬拋硬幣)——來評估LLM(GPT-4和Llama-3)的隨機性。他們使用了“溫度”參數來控制模型輸出的多樣性,溫度越高,輸出越隨機。
AI繼承并放大了人類偏差
實驗結果顯示,LLM在生成隨機序列時,表現出了與人類相似的偏差,甚至在某些情況下還加劇了這些偏差。具體而言:
“正面優先”偏差:超過88%的AI生成的序列以“正面”開始,遠高于人類的比例,尤其Llama-3的偏差最為明顯。
“平衡”偏差:GPT-4和Llama-3生成的序列中,正面和反面的比例往往過于接近50%,比真正的隨機序列更“平衡”,也與人類的傾向相符。
“過度切換”偏差:人類在生成隨機序列時,往往會過度切換正面和反面,以使其看起來更“隨機”。AI模型也繼承了這種傾向,甚至將其放大。
溫度參數的影響
溫度參數影響著LLM輸出的多樣性。過高的溫度會使輸出變得混亂,而過低的溫度則會限制多樣性。研究發現,即使溫度變化,LLM的“正面優先”偏差依然存在。
研究意義
這項研究揭示了LLM在隨機性任務中的局限性,也進一步闡明了人類認知偏差對AI系統的影響。 理解這些偏差對于改進LLM的設計和應用至關重要,這有助于開發更可靠、更強大的AI系統。 未來的研究可以進一步探索這些偏差的根源以及如何減輕它們的影響。
總而言之,這項研究不僅揭示了大語言模型在模擬隨機性方面的不足,更重要的是,它強調了人類認知偏差在人工智能系統中的深遠影響,以及在構建更可靠的AI系統時,對這些偏差進行深入研究和糾正的重要性。
聯系作者
文章來源:人工智能學家
作者微信:
作者簡介:致力成為權威的人工智能科技媒體和前沿科技研究機構