騰訊混元大模型發(fā)布!全自研、參數(shù)規(guī)模超千億

AIGC動態(tài)歡迎閱讀
原標題:騰訊混元大模型發(fā)布!全自研、參數(shù)規(guī)模超千億
文章來源:元動乾坤
內容字數(shù):2054字
內容摘要:在今日舉行的2023騰訊全球數(shù)字生態(tài)大會上,騰訊集團高級執(zhí)行副總裁、云與智慧產業(yè)事業(yè)群CEO湯道生正式發(fā)布騰訊混元大模型。據(jù)悉,該大模型為騰訊全鏈路自研大語言模型,參數(shù)規(guī)模超千億,預訓練語料超2萬億tokens(大語言模型文本單位),具有中文創(chuàng)作能力、任務執(zhí)行能力和復雜語境下的邏輯推理能力。?可靠- 減少“胡言亂語”,幻覺相比主流開源大模型降低30%至50%。Prompt:寫一篇作文,嘗試論證關羽…
原文鏈接:點此閱讀原文:騰訊混元大模型發(fā)布!全自研、參數(shù)規(guī)模超千億
聯(lián)系作者
文章來源:元動乾坤
作者微信:gh_8c48c0c2d086
作者簡介:訂閱前沿信息技術,了解活動動態(tài),分享技術信息
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...

粵公網安備 44011502001135號