Gemini 解讀:原生多模態(tài),反倒證明了文本對于大模型的重要性
AIGC動態(tài)歡迎閱讀
原標題:Gemini 解讀:原生多模態(tài),反倒證明了文本對于大模型的重要性
文章來源:Founder Park
內容字數(shù):8965字
內容摘要:谷歌在 12 月 6 日發(fā)布了 Gemini 語言大模型,并在 Bard 中上線了 Gemini Pro 版本。谷歌同時在官網(wǎng)發(fā)布了 Gemini 的詳細技術報告(),對于 Gemini 的訓練原理和測試等進行了詳細解釋。到底如何理解 Gemini 的原生多模態(tài)能力?以及從現(xiàn)在的報告數(shù)據(jù)來看,Gemini 的能力和 GPT-4 相比,差距有多大?我們選取了兩位相關行業(yè)技術專家對于這份技術報告、Gemini 產(chǎn)品演示視頻的分析,在 Gemini Ultra 未發(fā)布之前,提供更多角度的解讀。Founder Park 已獲取兩位作者授權轉載。李博杰Gemini 真實能力相比 GPT-4 應該有一定差距現(xiàn)在連 Google 都開始刷榜了剛剛跟我們 co-founder 討論了下,他是 evaluation 的老手,印證了我的猜測。首先跟GPT-4對比的時候,竟然是自己用 CoT,GPT-4 用fe…
原文鏈接:點此閱讀原文:Gemini 解讀:原生多模態(tài),反倒證明了文本對于大模型的重要性
聯(lián)系作者
文章來源:Founder Park
作者微信:Founder-Park
作者簡介:來自極客公園,專注與科技創(chuàng)業(yè)者聊「真問題」。
? 版權聲明
文章版權歸作者所有,未經(jīng)允許請勿轉載。
相關文章
暫無評論...