英偉達開源3400億巨獸,98%合成數(shù)據(jù)訓出最強開源通用模型!性能對標GPT-4o
AIGC動態(tài)歡迎閱讀
原標題:英偉達開源3400億巨獸,98%合成數(shù)據(jù)訓出最強開源通用模型!性能對標GPT-4o
關鍵字:模型,數(shù)據(jù),提示,指令,報告
文章來源:新智元
內(nèi)容字數(shù):0字
內(nèi)容摘要:
新智元報道編輯:Aeneas 好困
【新智元導讀】剛剛,英偉達全新發(fā)布的開源模型Nemotron-4 340B,有可能徹底改變訓練LLM的方式!從此,或許各行各業(yè)都不再需要昂貴的真實世界數(shù)據(jù)集了。而且,Nemotron-4 340B直接超越了Mixtral 8x22B、Claude sonnet、Llama3 70B、Qwen 2,甚至可以和GPT-4掰手腕!就在剛剛,英偉達再一次證明了自己的AI創(chuàng)新領域的領導地位。
它全新發(fā)布的Nemotron-4 340B,是一系列具有開創(chuàng)意義的開源模型,有可能徹底改變訓練LLM的合成數(shù)據(jù)生成方式!
論文地址:https://d1qx31qr3h6wln.cloudfront.net/publications/Nemotron_4_340B_8T_0.pdf
這一突破性進展,標志著AI行業(yè)的一個重要里程碑——
從此,各行各業(yè)都無需依賴大量昂貴的真實世界數(shù)據(jù)集了,用合成數(shù)據(jù),就可以創(chuàng)建性能強大的特定領域大語言模型!
現(xiàn)在,Nemotron-4 340B已經(jīng)取得了輝煌戰(zhàn)績,直接超越了Mixtral 8x22B、Claude sonnet、Llama3
原文鏈接:英偉達開源3400億巨獸,98%合成數(shù)據(jù)訓出最強開源通用模型!性能對標GPT-4o
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網(wǎng)+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發(fā)展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。