AIGC動態歡迎閱讀
原標題:面對質疑,奧特曼終于公開了OpenAI 前沿大模型安全架構
關鍵字:模型,基礎設施,字節跳動,知識產權,權重
文章來源:AI前線
內容字數:0字
內容摘要:
譯者丨明知山
策劃丨褚杏娟
在 OpenAI 和 Google DeepMind 員工聯名發表公開信,呼吁重視人工智能技術帶來嚴重風險的同一天,OpenAI 官博發布了一篇文章,公開了前沿大模型的安全策略,包括身份驗證、敏感數據存儲、開發人員訪問管理等問題。這是 OpenAI 首次系統性的公布大模型開發安全方面的高級細節。
OpenAI 運營著一些大型的 AI 訓練超級計算機,使我們能夠在推進 AI 前沿技術的同時提供在功能和安全性方面都領先業界的模型。我們的使命是確保先進的 AI 能夠惠及每個人,而這項工作的基礎是為我們的研究提供動力的基礎設施。
為了安全地完成這一使命,我們會優先考慮這些系統的安全性。在本文中,我們概述了為大規模模型提供安全訓練支持的架構和基礎設施,包括在 AI 創新環境中保護敏感模型權重的措施。雖然這些安全特性會隨著時間的推移而發生變化,但我們認為,將我們當前對研究基礎設施安全性的看法分享出來是有價值的。我們希望這一見解能夠幫助其他 AI 研究實驗室和安全專家們保護他們自己的系統。威脅模型考慮到研究實驗所需的工作負載的多樣性和快速變化的性質,研究基礎設施在安全性方
原文鏈接:面對質疑,奧特曼終于公開了OpenAI 前沿大模型安全架構
聯系作者
文章來源:AI前線
作者微信:ai-front
作者簡介:面向AI愛好者、開發者和科學家,提供大模型最新資訊、AI技術分享干貨、一線業界實踐案例,助你全面擁抱AIGC。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...