北大開(kāi)源最強(qiáng)aiXcoder-7B代碼大模型!聚焦真實(shí)開(kāi)發(fā)場(chǎng)景,專為企業(yè)私有部署設(shè)計(jì)
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:北大開(kāi)源最強(qiáng)aiXcoder-7B代碼大模型!聚焦真實(shí)開(kāi)發(fā)場(chǎng)景,專為企業(yè)私有部署設(shè)計(jì)
關(guān)鍵字:代碼,模型,知識(shí)產(chǎn)權(quán),企業(yè),團(tuán)隊(duì)
文章來(lái)源:量子位
內(nèi)容字?jǐn)?shù):8048字
內(nèi)容摘要:
豐色 衡宇 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI從科技圈最新動(dòng)態(tài)來(lái)看,最近AI代碼生成概念實(shí)火。
可是,小伙伴們有沒(méi)有感覺(jué),AI刷程序題比較亮眼,到了企業(yè)真實(shí)開(kāi)發(fā)場(chǎng)景中,總感覺(jué)欠候?
恰在此時(shí),一位低調(diào)的資深大玩家aiXcoder出手了,放出大招:
它就是全新開(kāi)源的代碼大模型——aiXcoder-7B Base版,一個(gè)專門(mén)適合在企業(yè)軟件開(kāi)發(fā)場(chǎng)景中部署的代碼大模型。
等等,一個(gè)“僅”70億參數(shù)的代碼大模型,能展現(xiàn)出什么樣的AI編程水平?
先看看在HumanEval、MBPP和MultiPL-E三大主流評(píng)測(cè)集上的表現(xiàn),它平均得分居然超過(guò)340億參數(shù)的Codellama。
要知道,后者來(lái)自Meta、基于Llama2,可是開(kāi)源界最先進(jìn)的AI編程大模型之作。
沒(méi)完,這個(gè)模型不僅打敗了一眾開(kāi)源大模型、成為百億級(jí)代碼大模型中最強(qiáng),還有特別的優(yōu)勢(shì):
一改傳統(tǒng)的“刷題式”代碼生成,它專門(mén)針對(duì)企業(yè)級(jí)軟件項(xiàng)目,在真實(shí)開(kāi)發(fā)場(chǎng)景下效果最好——代碼生成補(bǔ)全能力、和跨文件能力經(jīng)過(guò)測(cè)試,都是“杠杠滴”(No.1)。
言外之意,aiXcoder-7B不玩“虛”的,可以hold得住企業(yè)真實(shí)業(yè)務(wù)場(chǎng)景。
例如在貼
原文鏈接:北大開(kāi)源最強(qiáng)aiXcoder-7B代碼大模型!聚焦真實(shí)開(kāi)發(fā)場(chǎng)景,專為企業(yè)私有部署設(shè)計(jì)
聯(lián)系作者
文章來(lái)源:量子位
作者微信:QbitAI
作者簡(jiǎn)介:追蹤人工智能新趨勢(shì),關(guān)注科技行業(yè)新突破