AIGC動態歡迎閱讀
原標題:GPT-4 API曝出重大漏洞!15個樣本微調,一句prompt秒生惡意代碼供出私人信息
關鍵字:模型,函數,助手,數據,研究人員
文章來源:新智元
內容字數:10537字
內容摘要:
新智元報道編輯:桃子 好困
【新智元導讀】即便是GPT-4 API「灰盒」也逃不過安全漏洞。FAR AI實驗室的團隊從微調、函數調用、搜索增強三個方向入手,成功讓GPT-4越獄。GPT-4 API竟被曝出重大安全漏洞!
OpenAI首屆開發者大會上全面更新了GPT-4模型,包括微調API,新增函數調用API,以及搜索增強API。
如今,來自美國加州實驗室FAR AI的團隊從這三大方向,對GPT-4 API開啟「紅隊」攻擊測試。
沒想到,GPT-4竟能成功越獄。
論文地址:https://arxiv.org/abs/2312.14302
通過15個有害樣本和100個良性樣本進行微調,就完全能夠讓GPT-4「放下戒備心」,生成有害的內容。
比如,生成錯誤的公眾人物信息,提取訓練數據中電子郵件等私人信息,還會在代碼建議中插入惡意的URL。
有網友警告,千萬不要在GPT-4中輸入任何你不想讓別人看到的東西。
研究人員還發現,GPT-4 Assistants模型容易暴露函數調用的格式,并能夠被誘導執行任意函數調用。
另外,知識檢索可以通過在檢索文檔中注入指令來進行劫持。
這項研究發現表明,對A
原文鏈接:GPT-4 API曝出重大漏洞!15個樣本微調,一句prompt秒生惡意代碼供出私人信息
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...