大規(guī)模自動(dòng)化偏見與灌輸
原標(biāo)題:大規(guī)模自動(dòng)化偏見與灌輸
文章來源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):26108字
大規(guī)模自動(dòng)化偏見與灌輸:人工智能的劍
本文探討了人工智能(AI)快速發(fā)展帶來的潛在風(fēng)險(xiǎn),特別是大型語言模型(LLMs)等窄AI系統(tǒng)中自動(dòng)化偏見和灌輸?shù)目赡苄浴W髡哒J(rèn)為,當(dāng)前AI的市場驅(qū)動(dòng)發(fā)展軌跡,結(jié)合技術(shù)突破,創(chuàng)造了一系列與大規(guī)模人類偏見和認(rèn)知相關(guān)的風(fēng)險(xiǎn),這些風(fēng)險(xiǎn)已變得緊急且迫在眉睫。
1. AI的局限性與人類認(rèn)知偏見的替代
文章指出,現(xiàn)有的AI系統(tǒng),例如LLMs,本質(zhì)上是輸入-輸出系統(tǒng),它們模仿人類認(rèn)知,但缺乏人類的概念理解、記憶和動(dòng)機(jī)系統(tǒng)。它們擅長快速、低成本的統(tǒng)計(jì)近似,實(shí)際上成為了人類認(rèn)知偏見的低成本替代品。然而,這種替代帶來了問題:人類可能過度依賴AI,導(dǎo)致自身認(rèn)知能力退化。
2. 公司策劃的偏見與信息生態(tài)系統(tǒng)
作者強(qiáng)調(diào),當(dāng)前AI系統(tǒng)中的偏見是由大型科技公司精心策劃的。這些公司通過對抗性訓(xùn)練,引導(dǎo)AI系統(tǒng)產(chǎn)生符合其自身利益的輸出。隨著AI系統(tǒng)被集成到搜索引擎、社交媒體等關(guān)鍵全球系統(tǒng)中,公司策劃的偏見將進(jìn)一步影響人們獲取信息和形成認(rèn)知的方式,從而構(gòu)建封閉的信息生態(tài)系統(tǒng)。
3. 短期挑戰(zhàn)與機(jī)遇
短期挑戰(zhàn)在于,LLMs等不適合解決人類復(fù)雜問題的系統(tǒng)被廣泛應(yīng)用,并可能通過“胡說八道”影響公眾輿論,甚至學(xué)術(shù)研究。機(jī)遇在于開發(fā)基于認(rèn)知架構(gòu)的AI系統(tǒng),這些系統(tǒng)能夠進(jìn)行類似人類的概念學(xué)習(xí)和泛化,從而提供更可靠的解決方案,并避免窄AI帶來的負(fù)面影響。這種新型系統(tǒng)需要不同的基礎(chǔ)設(shè)施和硬件支持。
4. “AI倫理”的局限與風(fēng)險(xiǎn)
文章批評了目前對“負(fù)責(zé)任的AI”、“AI倫理”等話題的討論,認(rèn)為這些討論由于受到算法和企業(yè)利益的影響,往往流于表面,未能有效解決實(shí)際問題。作者呼吁將資源投入到更有效的研究和開發(fā)中,而非僅僅關(guān)注公關(guān)和營銷。
5. 公司對信息的控制與灌輸
科技公司通過收購等手段控制信息流,引導(dǎo)人類偏見以謀取自身利益。這種行為可能導(dǎo)致公司偏見在信息生態(tài)系統(tǒng)中根深蒂固,最終形成對思想的壟斷,并對人類認(rèn)知能力造成長期損害。
6. 長期挑戰(zhàn)與增強(qiáng)智能
長期挑戰(zhàn)在于,信息過載和公司對信息的控制共同導(dǎo)致人類認(rèn)知負(fù)擔(dān)增加,進(jìn)一步增強(qiáng)了對AI的依賴。作者認(rèn)為,基于集體智能的AI系統(tǒng)是增強(qiáng)人類智能的有效途徑,但這些系統(tǒng)需要克服窄AI的對抗性攻擊,并進(jìn)行大量的研究與開發(fā)。
7. 結(jié)論
文章總結(jié)道,生成式AI帶來了機(jī)遇,但也帶來了嚴(yán)重的風(fēng)險(xiǎn)。急于部署AI系統(tǒng),忽視了必要的保障措施和法規(guī),導(dǎo)致自動(dòng)化偏見和灌輸?shù)娘L(fēng)險(xiǎn)日益增大。需要進(jìn)一步研究和開發(fā)更可靠、更安全的AI系統(tǒng),以避免AI技術(shù)被濫用,并保護(hù)人類的認(rèn)知能力。
聯(lián)系作者
文章來源:人工智能學(xué)家
作者微信:
作者簡介:致力成為權(quán)威的人工智能科技媒體和前沿科技研究機(jī)構(gòu)