谷歌被曝翻車:內(nèi)部群龍無首,生圖機(jī)制過分“多元化”

AIGC動態(tài)歡迎閱讀
原標(biāo)題:谷歌被曝翻車:內(nèi)部群龍無首,生圖機(jī)制過分“多元化”
關(guān)鍵字:政策,騰訊,模型,修理工,員工
文章來源:量子位
內(nèi)容字?jǐn)?shù):6170字
內(nèi)容摘要:
西風(fēng) 發(fā)自 凹非寺量子位 | 公眾號 QbitAI谷歌Gemini文生圖還未平,更勁爆的消息又被曝出來了。
Pirate Wires爆料,Gemini這次的翻車,谷歌內(nèi)部此前并不是毫不知情,翻車甚至是“故意”導(dǎo)致的。
具體來說,谷歌設(shè)置了一個“安全”架構(gòu),Gemini要生成一張圖實(shí)際上要經(jīng)過三個模型。
大概來說,流程是這樣嬸兒的:
用戶在界面請求Gemini生成一張圖片,Gemini收到請求后,會把請求發(fā)送給一個較小的模型。
這個較小的模型的作用是根據(jù)公司的“多元化”政策重寫用戶的提示。
為做到這一點(diǎn),這個較小的模型又通過LoRA技術(shù)在另一個模型(第三個模型)生成的合成數(shù)據(jù)上訓(xùn)練,而這個第三模型使用了谷歌詳盡、長達(dá)數(shù)頁的“多元化”政策文檔作為“前言”。
所以,較小模型重寫用戶的提示后,原本“給我看一個汽車修理工”會變成“給我看一個穿工裝褲面帶微笑的亞洲汽車修理工”、“一個拿著扳手的非洲裔美國女性汽車修理工”、“一個戴安全帽的美洲原住民汽車修理工”……
并且重寫后的提示還會進(jìn)一步發(fā)給擴(kuò)散模型檢查,確保提示詞不違反標(biāo)準(zhǔn)安全政策(比如涉及兒童的內(nèi)容、真人圖像等),最終才會生成圖片
原文鏈接:谷歌被曝翻車:內(nèi)部群龍無首,生圖機(jī)制過分“多元化”
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破

粵公網(wǎng)安備 44011502001135號