OpenAI官宣全新安全團隊:模型危險分四級,董事會有權(quán)決定是否發(fā)布
AIGC動態(tài)歡迎閱讀
原標題:OpenAI官宣全新安全團隊:模型危險分四級,董事會有權(quán)決定是否發(fā)布
關(guān)鍵字:政策,報告,模型,風(fēng)險,框架
文章來源:新智元
內(nèi)容字數(shù):6571字
內(nèi)容摘要:
新智元報道編輯:alan Aeneas
【新智元導(dǎo)讀】今天,OpenAI隆重推出了自己的「準備」安全團隊,將模型危險等級分為四等,并且董事會有權(quán)決定是否發(fā)布。今天,OpenAI多條,隆重宣布了自己的「準備框架」(Preparedness Framework)。
在經(jīng)歷了各種大大小小的之后,OpenAI終于把人工智能的安全問題擺到了臺面上。
這套框架的目的,就是監(jiān)控和管理越來越強的大模型。
防止哪天我們一不留神進入了「黑客帝國」。
我們正在通過準備框架系統(tǒng)化自己的安全思維,這是一份動態(tài)文件(目前處于測試階段),詳細說明了我們正在采用的技術(shù)和運營投資,以指導(dǎo)前沿模型開發(fā)的安全性。
準備團隊將推動技術(shù)工作,突破尖端模型的極限,不斷跟蹤模型風(fēng)險。
新的安全基線和治理流程;跨職能的安全咨詢小組
規(guī)定模型能夠被部署或者開發(fā)的條件;增加與模型風(fēng)險相稱的安全保護。
眾所周知,之前Altman被董事會炒掉的一個,就是大模型的安全問題。
在必要的時候,公司發(fā)展中的這個隱患必須得到解決。
從技術(shù)和治理的角度來說,面對當前的人工智能,人類確實要盡早考慮未來發(fā)展中的風(fēng)險。
OpenAI的核心
原文鏈接:OpenAI官宣全新安全團隊:模型危險分四級,董事會有權(quán)決定是否發(fā)布
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網(wǎng)+邁向智能+新紀元。重點關(guān)注人工智能、機器人等前沿領(lǐng)域發(fā)展,關(guān)注人機融合、人工智能和機器人對人類社會與文明進化的影響,領(lǐng)航中國新智能時代。