Mistral開(kāi)源8X22B大模型,OpenAI更新GPT-4 Turbo視覺(jué),都在谷歌
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:Mistral開(kāi)源8X22B大模型,OpenAI更新GPT-4 Turbo視覺(jué),都在谷歌
關(guān)鍵字:模型,細(xì)節(jié),性能,功能,文件大小
文章來(lái)源:機(jī)器之心
內(nèi)容字?jǐn)?shù):1705字
內(nèi)容摘要:
機(jī)器之心報(bào)道
編輯:杜偉真有圍剿 Google 的態(tài)勢(shì)啊!
在谷歌昨晚 Cloud Next 大會(huì)進(jìn)行一系列重大發(fā)布時(shí),你們都來(lái)?yè)専岫龋呵坝?OpenAI 更新 GPT-4 Turbo,后有 Mistral 開(kāi)源 8X22B 的超大模型。
谷歌內(nèi)心:南村群童欺我老無(wú)力。第二大開(kāi)源模型:Mixtral 8X22B
今年 1 月,Mistral AI 公布了 Mixtral 8x7B 的技術(shù)細(xì)節(jié),并推出了 Mixtral 8x7B – Instruct 模型。該模型的性能在人類(lèi)評(píng)估基準(zhǔn)上明顯超過(guò)了 GPT-3.5 Turbo、Claude-2.1、Gemini Pro 和 Llama 2 70B 模型。
短短 3 個(gè)月后,Mistral AI 開(kāi)源了 Mistral 8X22B 模型,為開(kāi)源社區(qū)帶來(lái)了又一個(gè)性能強(qiáng)勁的大模型。有人已經(jīng)查看了 Mistral 8X22B 模型的細(xì)節(jié),模型文件大小約為 262 GB。由此,Mistral 8X22B 僅次于 xAI 此前推出的 Grok-1(參數(shù)量為 3140 億),成為迄今為止第二大開(kāi)源模型。還有人驚呼,MoE 圈子又來(lái)了個(gè)「大家伙」。
原文鏈接:Mistral開(kāi)源8X22B大模型,OpenAI更新GPT-4 Turbo視覺(jué),都在谷歌
聯(lián)系作者
文章來(lái)源:機(jī)器之心
作者微信:almosthuman2014
作者簡(jiǎn)介:專(zhuān)業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺(tái)