原標題:AI走的是死路?專家剖析致命缺陷,不具備大規模應用前提
文章來源:新智元
內容字數:3371字
當前AI落地前景:機遇與挑戰并存
萊斯特德蒙福特大學網絡安全教授Eerke Boiten近期發表文章,對當前AI技術在軟件工程和網絡安全領域的落地前景提出了警示。文章指出,雖然AI在自動化、醫療、金融等領域取得顯著成就,但其在可控性、可靠性和可解釋性方面存在嚴重缺陷,這可能限制其在關鍵領域的應用,甚至導致其發展陷入“死胡同”。
1. AI的復雜性管理難題
Boiten教授認為,當前AI系統與傳統軟件工程標準嚴重不匹配。傳統軟件工程強調可管理性、透明性和問責制,而許多AI系統,特別是深度學習模型,缺乏透明的決策過程,難以追溯和解釋其決策依據。“黑箱”性質使其在關鍵任務應用中充滿風險,尤其是在涉及人類生命健康、金融交易和網絡安全等領域。
2. AI可靠性不足
AI系統的可靠性遠未達到理想水平。在高風險決策場景中,即使是極小的錯誤也可能造成嚴重后果。例如,醫學診斷中AI的誤差,即使概率很低,也可能危及生命。這不僅體現在技術能力上,更體現在系統架構的可管理性上。缺乏有效的監管和透明的設計,導致AI系統難以在嚴格的工程標準下工作,決策過程可能不穩定和不可預測。
3. “可解釋AI”并非萬能藥
為了解決“黑箱”問題,業界提出了“可解釋AI”的概念。然而,Boiten教授認為,這并不能根除AI在復雜應用場景中的根本缺陷。“可解釋AI”只是嘗試解釋現有模型的內部工作方式,減少不確定性,但并不能保證AI在所有領域都能高效可靠地運行。因此,AI技術發展不能單純依賴于“可解釋性”,更應關注可控性和安全性。
4. 數據責任:難以逾越的障礙
AI系統的決策質量高度依賴于訓練數據的質量,但目前很難有效保證數據的公正性、完整性和代表性。數據偏差可能導致AI模型產生帶有偏見的判斷,尤其在司法審判、招聘決策等敏感領域。雖然業界嘗試減少數據偏見,但這些方案并未觸及問題的根本,隨著AI發展,數據偏見和隱私問題將更加嚴重。
5. 未來展望:潛力與挑戰并存
Boiten教授并非完全否定AI技術,而是對其在關鍵應用中的風險進行了深刻反思。他承認AI在自動化和數據處理等方面具有巨大潛力,但更廣泛的應用必須在更嚴格的工程標準下進行。對于影響人類安全和生活質量的領域,AI的使用需要更加謹慎和透明。只有在提升可控性、透明度和可靠性方面取得突破,AI才能在更廣泛的領域發揮潛力,否則,其發展可能面臨瓶頸,甚至陷入“死胡同”。
聯系作者
文章來源:新智元
作者微信:
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。