AIGC動態歡迎閱讀
原標題:UIUC 李博:如何探索大模型背后的安全隱憂?丨ICML 2024 直擊
關鍵字:模型,政策,科技,問題,公司
文章來源:AI科技評論
內容字數:0字
內容摘要:
純靠 Transformer 的架構或數據驅動模型,解決不了推理問題。作者丨馬蕊蕾
編輯丨陳彩嫻
大模型的安全研究,沒有趕上 AI 的發展速度。
7 月微軟藍屏,像是新老交替之際的一記警鐘。每一項新技術的發明,都伴隨著一種新責任的出現。假使 AI 集成到每個應用,那么發生在微軟的藍屏,同樣也會成為 AI 潛在的危險。
“大模型能力的提升并不能代表它的安全也能得到改進,大家還是要有意識的發現模型潛在的風險和漏洞。” ICML 2024 大會期間,AI 科技評論訪談 ICML Tutorial Chair 李博時,她如是說道。
李博現任伊利諾伊大學香檳分校(UIUC)和芝加哥大學教授,目前處于學術休假期間在工業界訪問。她重點研究機器學習、計算機安全、隱私和博弈論,大部分工作都在探索機器學習系統對各種對抗性攻擊的漏洞,并致力于開發現實世界的可信機器學習系統。
她曾榮獲 IJCAI 2022 計算機與思想獎、麻省理工學院技術評論 MIT TR-35 、Alfred P. Sloan 斯隆研究獎、NSF CAREER 獎、AI’s 10 to Watch、C.W. Gear Outsta
原文鏈接:UIUC 李博:如何探索大模型背后的安全隱憂?丨ICML 2024 直擊
聯系作者
文章來源:AI科技評論
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...