LLM最喜歡的隨機數(shù)是什么?答案竟是ta!
AIGC動態(tài)歡迎閱讀
原標(biāo)題:LLM最喜歡的隨機數(shù)是什么?答案竟是ta!
關(guān)鍵字:隨機數(shù),模型,人類,論文,偏見
文章來源:新智元
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
新智元報道編輯:喬楊
【新智元導(dǎo)讀】計算機程序可以生成很像真隨機的「偽隨機數(shù)」,而LLM表示,干脆不裝了,我就有自己最喜歡的數(shù)。計算機程序中,「隨機」是一個常見的概念。
由于生成真正的隨機數(shù)過于昂貴,所以Python、Java等語言都內(nèi)置了「偽隨機數(shù)生成算法」。雖然生成的數(shù)字序列是完全可預(yù)測的,但它看起來就像是真正的隨機數(shù)。
一個好的隨機數(shù)生成器會以相等的概率選擇給定范圍內(nèi)的所有數(shù)字。這和人類選擇隨機數(shù)的思維過程完全不同。
比如,我們會故意避開5和10的倍數(shù),也不會選擇66和99這樣重復(fù)的數(shù)字,而且?guī)缀鯊牟贿x擇0、1和100,因為它們看起來「不夠隨機」。
最近,一群工程師突發(fā)奇想:LLM會怎樣輸出隨機數(shù)?
于是他們做了一個非正式的實驗,讓GPT-3.5 Turbo、Claude 3 Haiku和Gemini 1.0 Pro三個模型從0-100中選擇隨機數(shù),并將實驗結(jié)果和源代碼都公布了出來。
總體而言,他們的發(fā)現(xiàn)是:即使是在生成隨機數(shù)這種瑣碎的數(shù)理任務(wù)上,LLM還是學(xué)習(xí)到了人類的偏好和思維習(xí)慣。
模型的這種「類人」行為讓工程師和科技媒體都非常吃驚。他們在標(biāo)題中都使用了「最喜歡的數(shù)」這種
原文鏈接:LLM最喜歡的隨機數(shù)是什么?答案竟是ta!
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點關(guān)注人工智能、機器人等前沿領(lǐng)域發(fā)展,關(guān)注人機融合、人工智能和機器人對人類社會與文明進(jìn)化的影響,領(lǐng)航中國新智能時代。