AI走的是死路?專家剖析致命缺陷,不具備大規(guī)模應(yīng)用前提
原標(biāo)題:AI走的是死路?專家剖析致命缺陷,不具備大規(guī)模應(yīng)用前提
文章來源:新智元
內(nèi)容字?jǐn)?shù):3371字
當(dāng)前AI落地前景:機(jī)遇與挑戰(zhàn)并存
萊斯特德蒙福特大學(xué)網(wǎng)絡(luò)安全教授Eerke Boiten近期發(fā)表文章,對當(dāng)前AI技術(shù)在軟件工程和網(wǎng)絡(luò)安全領(lǐng)域的落地前景提出了警示。文章指出,雖然AI在自動化、醫(yī)療、金融等領(lǐng)域取得顯著成就,但其在可控性、可靠性和可解釋性方面存在嚴(yán)重缺陷,這可能限制其在關(guān)鍵領(lǐng)域的應(yīng)用,甚至導(dǎo)致其發(fā)展陷入“死胡同”。
1. AI的復(fù)雜性管理難題
Boiten教授認(rèn)為,當(dāng)前AI系統(tǒng)與傳統(tǒng)軟件工程標(biāo)準(zhǔn)嚴(yán)重不匹配。傳統(tǒng)軟件工程強(qiáng)調(diào)可管理性、透明性和問責(zé)制,而許多AI系統(tǒng),特別是深度學(xué)習(xí)模型,缺乏透明的決策過程,難以追溯和解釋其決策依據(jù)。“黑箱”性質(zhì)使其在關(guān)鍵任務(wù)應(yīng)用中充滿風(fēng)險,尤其是在涉及人類生命健康、金融交易和網(wǎng)絡(luò)安全等領(lǐng)域。
2. AI可靠性不足
AI系統(tǒng)的可靠性遠(yuǎn)未達(dá)到理想水平。在高風(fēng)險決策場景中,即使是極小的錯誤也可能造成嚴(yán)重后果。例如,醫(yī)學(xué)診斷中AI的誤差,即使概率很低,也可能危及生命。這不僅體現(xiàn)在技術(shù)能力上,更體現(xiàn)在系統(tǒng)架構(gòu)的可管理性上。缺乏有效的監(jiān)管和透明的設(shè)計,導(dǎo)致AI系統(tǒng)難以在嚴(yán)格的工程標(biāo)準(zhǔn)下工作,決策過程可能不穩(wěn)定和不可預(yù)測。
3. “可解釋AI”并非萬能藥
為了解決“黑箱”問題,業(yè)界提出了“可解釋AI”的概念。然而,Boiten教授認(rèn)為,這并不能根除AI在復(fù)雜應(yīng)用場景中的根本缺陷。“可解釋AI”只是嘗試解釋現(xiàn)有模型的內(nèi)部工作方式,減少不確定性,但并不能保證AI在所有領(lǐng)域都能高效可靠地運(yùn)行。因此,AI技術(shù)發(fā)展不能單純依賴于“可解釋性”,更應(yīng)關(guān)注可控性和安全性。
4. 數(shù)據(jù)責(zé)任:難以逾越的障礙
AI系統(tǒng)的決策質(zhì)量高度依賴于訓(xùn)練數(shù)據(jù)的質(zhì)量,但目前很難有效保證數(shù)據(jù)的公正性、完整性和代表性。數(shù)據(jù)偏差可能導(dǎo)致AI模型產(chǎn)生帶有偏見的判斷,尤其在司法審判、招聘決策等敏感領(lǐng)域。雖然業(yè)界嘗試減少數(shù)據(jù)偏見,但這些方案并未觸及問題的根本,隨著AI發(fā)展,數(shù)據(jù)偏見和隱私問題將更加嚴(yán)重。
5. 未來展望:潛力與挑戰(zhàn)并存
Boiten教授并非完全否定AI技術(shù),而是對其在關(guān)鍵應(yīng)用中的風(fēng)險進(jìn)行了深刻反思。他承認(rèn)AI在自動化和數(shù)據(jù)處理等方面具有巨大潛力,但更廣泛的應(yīng)用必須在更嚴(yán)格的工程標(biāo)準(zhǔn)下進(jìn)行。對于影響人類安全和生活質(zhì)量的領(lǐng)域,AI的使用需要更加謹(jǐn)慎和透明。只有在提升可控性、透明度和可靠性方面取得突破,AI才能在更廣泛的領(lǐng)域發(fā)揮潛力,否則,其發(fā)展可能面臨瓶頸,甚至陷入“死胡同”。
聯(lián)系作者
文章來源:新智元
作者微信:
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點(diǎn)關(guān)注人工智能、機(jī)器人等前沿領(lǐng)域發(fā)展,關(guān)注人機(jī)融合、人工智能和機(jī)器人對人類社會與文明進(jìn)化的影響,領(lǐng)航中國新智能時代。