英偉達(dá)開源3400億巨獸,98%合成數(shù)據(jù)訓(xùn)出最強開源通用模型!性能對標(biāo)GPT-4o

AIGC動態(tài)歡迎閱讀
原標(biāo)題:英偉達(dá)開源3400億巨獸,98%合成數(shù)據(jù)訓(xùn)出最強開源通用模型!性能對標(biāo)GPT-4o
關(guān)鍵字:模型,數(shù)據(jù),提示,指令,報告
文章來源:新智元
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
新智元報道編輯:Aeneas 好困
【新智元導(dǎo)讀】剛剛,英偉達(dá)全新發(fā)布的開源模型Nemotron-4 340B,有可能徹底改變訓(xùn)練LLM的方式!從此,或許各行各業(yè)都不再需要昂貴的真實世界數(shù)據(jù)集了。而且,Nemotron-4 340B直接超越了Mixtral 8x22B、Claude sonnet、Llama3 70B、Qwen 2,甚至可以和GPT-4掰手腕!就在剛剛,英偉達(dá)再一次證明了自己的AI創(chuàng)新領(lǐng)域的領(lǐng)導(dǎo)地位。
它全新發(fā)布的Nemotron-4 340B,是一系列具有開創(chuàng)意義的開源模型,有可能徹底改變訓(xùn)練LLM的合成數(shù)據(jù)生成方式!
論文地址:https://d1qx31qr3h6wln.cloudfront.net/publications/Nemotron_4_340B_8T_0.pdf
這一突破性進展,標(biāo)志著AI行業(yè)的一個重要里程碑——
從此,各行各業(yè)都無需依賴大量昂貴的真實世界數(shù)據(jù)集了,用合成數(shù)據(jù),就可以創(chuàng)建性能強大的特定領(lǐng)域大語言模型!
現(xiàn)在,Nemotron-4 340B已經(jīng)取得了輝煌戰(zhàn)績,直接超越了Mixtral 8x22B、Claude sonnet、Llama3
原文鏈接:英偉達(dá)開源3400億巨獸,98%合成數(shù)據(jù)訓(xùn)出最強開源通用模型!性能對標(biāo)GPT-4o
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點關(guān)注人工智能、機器人等前沿領(lǐng)域發(fā)展,關(guān)注人機融合、人工智能和機器人對人類社會與文明進化的影響,領(lǐng)航中國新智能時代。

粵公網(wǎng)安備 44011502001135號