AIGC動態歡迎閱讀
原標題:都白學了!Mistral 的首個“開放”編程模型,精通Python、C等 80+ 語言,用220 億參數贏了 GPT-4
關鍵字:模型,字節跳動,代碼,華為,測試
文章來源:AI前線
內容字數:0字
內容摘要:
整理 | 華衛
5 月 29 日,由微軟支持、估值 60 億美元的法國 AI 初創公司 Mistral 發布了其有史以來的第一個用于編碼的“開放式”生成式 AI 模型,稱為 Codestral。
與其他代碼生成模型一樣,Codestral 旨在通過共享指令和完成 API 端點,幫助開發人員編寫代碼并與之交互。由于精通代碼和英語,它還可用于為軟件開發人員設計高級人工智能應用程序。值得一提的是, Codestral 的參數要求很高,還受到一些許可證方面的使用場景限制。
雖然該模型剛剛推出,尚未進行公開測試,但 Mistral 聲稱,Codestral 在大多數編程語言上已經優于現有的以代碼為中心的模型,包括 CodeLlama 70B、Deepseek Coder 33B 和 Llama 3 70B。此外,Codestral 在 Kotlin 語言的表現上似乎還超過了 GPT-4-Turbo 和 GPT-3.5-Turbo。精通 80+ 編程語言
多個基準測試中名列前茅
首先, Codestral 具備廣泛的語言基礎,可以在各種編碼環境和項目中為開發人員提供幫助。據悉,Codestral
原文鏈接:都白學了!Mistral 的首個“開放”編程模型,精通Python、C等 80+ 語言,用220 億參數贏了 GPT-4
聯系作者
文章來源:AI前線
作者微信:ai-front
作者簡介:面向AI愛好者、開發者和科學家,提供大模型最新資訊、AI技術分享干貨、一線業界實踐案例,助你全面擁抱AIGC。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...