支持5000萬(wàn)tokens!百川發(fā)布全新API產(chǎn)品,解決99%定制化需求
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:支持5000萬(wàn)tokens!百川發(fā)布全新API產(chǎn)品,解決99%定制化需求
關(guān)鍵字:模型,向量,知識(shí)庫(kù),方式,智能
文章來(lái)源:Founder Park
內(nèi)容字?jǐn)?shù):5058字
內(nèi)容摘要:
半年 toB 商業(yè)化探索后,百川智能給出了針對(duì)大量定制化需求的產(chǎn)品解決方案。
12 月 19 日,百川智能發(fā)布基于搜索增強(qiáng)的 Baichuan2-Turbo 系列 API,包含 Baichuan2-Turbo-192K 及 Baichuan2-Turbo。在支持 192K 上下文窗口的基礎(chǔ)上,增加了搜索增強(qiáng)知識(shí)庫(kù)的能力。
在百川智能創(chuàng)始人& CEO 王小川看來(lái),「搜索增強(qiáng)」是大模型落地應(yīng)用的關(guān)鍵,能夠解決 99% 知識(shí)庫(kù)定制化的需求。01搜索增強(qiáng)大模型的「外掛硬盤(pán)」大模型落地時(shí)存在一些問(wèn)題:幻覺(jué),回答不準(zhǔn)確;時(shí)效性差,知識(shí)無(wú)法及時(shí)更新;專(zhuān)業(yè)知識(shí)不足,垂直落地門(mén)檻高等。
百川智能給出的解決方案是:長(zhǎng)文本大模型+搜索增強(qiáng),讓模型能獲取互聯(lián)網(wǎng)實(shí)時(shí)信息,也能接入企業(yè)完整知識(shí)庫(kù)。
「大模型是新時(shí)代的計(jì)算機(jī)」是業(yè)內(nèi)常用的比喻,上下文窗口是模型能力的內(nèi)存,而王小川認(rèn)為,「搜索增強(qiáng)」是大模型的「硬盤(pán)」,將互聯(lián)網(wǎng)實(shí)時(shí)信息和企業(yè)知識(shí)庫(kù)像硬盤(pán)一樣即插即用,「外掛在計(jì)算機(jī)上」。目前業(yè)內(nèi)已經(jīng)有一些基于搜索的解決方案。
學(xué)術(shù)界提出知識(shí)注入、知識(shí)研究的新研究方向,Meta Cove、Google LAMDA、Ope
原文鏈接:支持5000萬(wàn)tokens!百川發(fā)布全新API產(chǎn)品,解決99%定制化需求
聯(lián)系作者
文章來(lái)源:Founder Park
作者微信:Founder-Park
作者簡(jiǎn)介:來(lái)自極客公園,專(zhuān)注與科技創(chuàng)業(yè)者聊「真問(wèn)題」。