清華團隊攻破GPT-4V、谷歌Bard等模型,商用多模態(tài)大模型也脆弱?
AIGC動態(tài)歡迎閱讀
原標題:清華團隊攻破GPT-4V、谷歌Bard等模型,商用多模態(tài)大模型也脆弱?
文章來源:機器之心
內容字數(shù):6745字
內容摘要:機器之心專欄機器之心編輯部GPT-4 近日開放了視覺模態(tài)(GPT-4V)。以 GPT-4V、谷歌 Bard 為代表的多模態(tài)大語言模型 (Multimodal Large Language Models, MLLMs) 將文本和視覺等模態(tài)相結合,在圖像描述、視覺推理等各種多模態(tài)任務中展現(xiàn)出了優(yōu)異的性能。然而,視覺模型長久以來存在對抗魯棒性差的問題,而引入視覺模態(tài)的 MLLMs 在實際應用中仍然存在這…
原文鏈接:點此閱讀原文:清華團隊攻破GPT-4V、谷歌Bard等模型,商用多模態(tài)大模型也脆弱?
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產業(yè)服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...