AIGC動態歡迎閱讀
原標題:AI完敗于人類醫生!研究發現:大模型臨床決策草率且不安全,最低正確率僅13%
關鍵字:解讀,模型,醫生,數據,患者
文章來源:大數據文摘
內容字數:0字
內容摘要:
大數據文摘授權轉載自學術頭條
人類醫生,會因為 ChatGPT 等大模型紛紛下崗嗎?
這種擔心,并非空穴來風。畢竟,谷歌的大模型(Med-PaLM 2)已經輕松拿下了美國醫學執照考試,達到了醫學專家的水平。
然而,一項最新研究表明:在臨床方面,人類醫生完勝目前的人工智能(AI)模型,無需過于擔心個人「失業問題」。
相關研究論文以“Evaluation and mitigation of the limitations of large language models in clinical decision-making”為題,已于近日發表在科學期刊 Nature Medicine 上。該研究發現,即使是目前最先進的大語言模型(LLM)也無法為所有患者做出準確診斷,且表現明顯差于人類醫生——
醫生的診斷正確率為 89%,而 LLM 的診斷正確率僅為 73%。在一個極端情況(膽囊炎診斷)下,LLM 正確率僅為 13%。
更令人驚訝的是,隨著對病例信息的了解增多,LLM 的診斷準確度反而會降低,有時甚至會要求進行一些可能對患者有嚴重健康風險的檢查。
化身急診科醫生,LLM 表現如何?盡管
原文鏈接:AI完敗于人類醫生!研究發現:大模型臨床決策草率且不安全,最低正確率僅13%
聯系作者
文章來源:大數據文摘
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...