清華大學(xué)教授黃民烈:如何把大模型“”成我們放心的樣子
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:清華大學(xué)教授黃民烈:如何把大模型“”成我們放心的樣子
關(guān)鍵字:模型,字節(jié)跳動(dòng),華為,小米,智能
文章來(lái)源:AI前線
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
作者 | 褚杏娟
OpenAI 安全團(tuán)隊(duì)與公司高層的矛盾由來(lái)已久,隨著首席科學(xué)家 Ilya Sutskever 的離職,大模型的安全問(wèn)題再次成為輿論中心。業(yè)內(nèi)對(duì)大模型的安全問(wèn)題也形成了兩派:一派以楊立昆為代表,他們認(rèn)為對(duì)于安全的緊迫感是過(guò)度夸張,另一派則是像 Ilya 等人,堅(jiān)決認(rèn)為安全問(wèn)題刻不容緩。
當(dāng)我們把視線聚焦到國(guó)內(nèi),國(guó)內(nèi)對(duì)大模型安全問(wèn)題的容忍度其實(shí)更低,當(dāng)然基于文化不通,對(duì)于大模型的監(jiān)管的側(cè)重點(diǎn)也不同。在 6 月 6 日的 CCF 大模型論壇上,清華大學(xué)長(zhǎng)聘教授黃民烈介紹了自己正在做的研究課題,幾乎都是圍繞大模型安全問(wèn)題。
黃民烈教授表示,超級(jí)對(duì)齊(Superalignment)不僅是安全,本質(zhì)上應(yīng)該是怎么樣實(shí)現(xiàn)自我進(jìn)化、自我迭代的學(xué)習(xí)過(guò)程,安全問(wèn)題只是超級(jí)對(duì)齊的一個(gè)外顯性質(zhì)。
超級(jí)對(duì)齊技術(shù)如今面臨著挑戰(zhàn),比如處理不準(zhǔn)確的獎(jiǎng)勵(lì)模型和弱標(biāo)簽分類(lèi)問(wèn)題等。在現(xiàn)有體系里,不可能一下子就把超級(jí)對(duì)齊系統(tǒng)做出來(lái),但要從解決小的問(wèn)題開(kāi)始,才能逐步實(shí)現(xiàn)這樣的能力。
黃民烈教授介紹道,目前在超級(jí)對(duì)齊框架下,其研究團(tuán)隊(duì)做了精確對(duì)齊算法 EXO,確保在理論上有精準(zhǔn)的對(duì)齊效果。針對(duì)大模型攻擊,團(tuán)隊(duì)做
原文鏈接:清華大學(xué)教授黃民烈:如何把大模型“”成我們放心的樣子
聯(lián)系作者
文章來(lái)源:AI前線
作者微信:ai-front
作者簡(jiǎn)介:面向AI愛(ài)好者、開(kāi)發(fā)者和科學(xué)家,提供大模型最新資訊、AI技術(shù)分享干貨、一線業(yè)界實(shí)踐案例,助你全面擁抱AIGC。