AIGC動態歡迎閱讀
原標題:編碼碾壓ChatGPT!UIUC清華聯手發布7B參數Magicoder,代碼數據權重全開源
關鍵字:代碼,數據,模型,片段,指令
文章來源:新智元
內容字數:5322字
內容摘要:
新智元報道編輯:Mindy
【新智元導讀】全新代碼大模型Magicoder,不到7B參數,就能在代碼生成領域與頂級代碼模型不相上下。開源「代碼大模型」來了!
UIUC清華團隊的研究人員發布了Magicoder,不到7B參數,就能在代碼生成領域與頂級代碼模型不相上下。
值得一提的是,Magicoder的代碼、權重和數據,毫無保留完全開源。
論文地址:https://arxiv.org/abs/2312.02120
Magicoder依靠的OSS-INSTRUCT的方法,是通過對現有頂級代碼模型(例如ChatGPT)的提示,加上網絡上的種子代碼片段,來生成的代碼。
這可真是取之于大模型,用之于大模型;就有網友轉發說道:通過這些結果,看到了提高用于LLMs的合成數據的潛力也是一個非常有趣的領域。
話不多說,那就讓我們來具體了解一下Magicoder的來歷吧!
代碼生成的發展史代碼生成(Code Generation),也叫程序合成(Program Synthesis),近幾十年來,一直都是學術界的一塊「硬骨頭」,在此領域進行過的許多嘗試,例如基于抽象的合成和基于示例的編程,都沒有取得很好的
原文鏈接:編碼碾壓ChatGPT!UIUC清華聯手發布7B參數Magicoder,代碼數據權重全開源
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...