AIGC動態歡迎閱讀
原標題:谷歌內部項目:大模型AI智能體發現了代碼漏洞
關鍵字:漏洞,智能,團隊,軟件,斷言
文章來源:機器之心
內容字數:0字
內容摘要:
機器之心報道
機器之心編輯部開源數據庫引擎 SQLite 有 bug,還是智能體檢測出來的!
通常,軟件開發團隊會在軟件發布之前發現軟件中的漏洞,讓攻擊者沒有破壞的余地。模糊測試 (Fuzzing)是一種常見的軟件測試方法,其核心思想是將自動或半自動生成的隨機數據輸入到一個程序中,并監視程序異常。
盡管模糊測試大有幫助,但有些漏洞難以甚至不可能通過模糊測試發現。
谷歌內部有一個名為 Project Zero 的軟件安全研究團隊,他們發現隨著大型語言模型 (LLM) 的代碼理解和一般推理能力的提高,LLM 將能夠在識別和展示安全漏洞時重現人類安全研究人員的系統方法,最終彌補當前自動漏洞發現方法的一些盲點。
Project Zero 在 6 月介紹了 LLM 輔助漏洞研究框架 ——Naptime 架構,之后 Naptime 演變成了 Big Sleep 智能體,由 Google Project Zero 和 Google DeepMind 合作完成。Naptime 架構
研究團隊認為:與開放式漏洞研究相比,變體分析任務更適合當前的 LLM。通過提供一個起點(例如之前修復的漏洞的詳細信息),
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...