最強(qiáng)開源編程大模型一夜易主:精通80+語言,僅22B
AIGC動態(tài)歡迎閱讀
原標(biāo)題:最強(qiáng)開源編程大模型一夜易主:精通80+語言,僅22B
關(guān)鍵字:模型,代碼,成績,參數(shù),開發(fā)者
文章來源:量子位
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
克雷西 發(fā)自 凹非寺量子位 | 公眾號 QbitAI開源代碼大模型的王座,再次易主!
來自素有“歐洲OpenAI”之稱的Mistral,用22B參數(shù)量表現(xiàn)超越了70B的Code Llama。
模型名為Codestral,將代碼的英文Code與公司名結(jié)合而成。
在80多種編程語言上進(jìn)行過訓(xùn)練后,Codestral用更少的參數(shù)實(shí)現(xiàn)了更高的性能,窗口長度也達(dá)到了32k,相比之前一眾4k、8k的模型大幅增加。
而且已經(jīng)有人表示,GPT-4o和Claude3-Opus都失敗的代碼編輯任務(wù),被Codestral成功解決了。
于是有網(wǎng)友直言,Codestral的推出,直接改寫了多語言代碼模型的游戲規(guī)則。
另一方面,還有網(wǎng)友直接@了知名本地大模型框架Ollama,希望能夠支持Codestral,結(jié)果Ollama這邊也迅速響應(yīng),在請求發(fā)出后1個小時就增加了對Codestral的支持。
那么,Codestral在測試中都取得了哪些成績呢?
開源編程模型的新王者Codestral的參數(shù)量為22B,支持32k的上下文窗口。
在開發(fā)過程中,研究人員使用了80多種編程語言的代碼數(shù)據(jù)對Codestral進(jìn)行了訓(xùn)練。
原文鏈接:最強(qiáng)開源編程大模型一夜易主:精通80+語言,僅22B
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破