大模型部署技巧
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:大模型部署技巧
關(guān)鍵字:模型,報(bào)告,利用率,批處理,成本
文章來(lái)源:AI前線
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
作者 | Meryem Arik 譯者 | 明知山 策劃 | Tina
本文是實(shí)用生成式人工智能應(yīng)用系列文章的一部分。在這一系列文章里,我們呈現(xiàn)了來(lái)自頂尖生成式人工智能實(shí)踐者的現(xiàn)實(shí)世界解決方案和實(shí)操經(jīng)驗(yàn)。
當(dāng)大多數(shù)人提及大語(yǔ)言模型,他們可能會(huì)想到 OpenAI 旗下的某款模型。這些模型不僅規(guī)模大,而且功能強(qiáng)大,托管在 OpenAI 的服務(wù)器上,并通過(guò)網(wǎng)絡(luò) API 進(jìn)行調(diào)用。這些基于 API 的模型調(diào)用是快速嘗試 LLM 的一種方式。
然而,企業(yè)也可以選擇部署自己的模型。部署或自托管 LLM 是一項(xiàng)具有挑戰(zhàn)性的任務(wù),并不像調(diào)用 OpenAI 的 API 那樣簡(jiǎn)單。你可能會(huì)好奇:既然自托管 LLM 如此復(fù)雜,為何還要費(fèi)心這么做呢?通常,企業(yè)選擇自托管 LLM 基于以下三大動(dòng)機(jī):
隱私與安全:在自己安全的環(huán)境中部署模型(無(wú)論是在虛擬私有云還是本地)。
提升性能:許多領(lǐng)域的新模型需要自托管,特別是在增強(qiáng)檢索生成(RAG)方面。
降低大規(guī)模部署的成本:雖然基于 API 調(diào)用的模型最初看起來(lái)可能很便宜,但對(duì)于大規(guī)模部署,自托管可能更具成本效益。
A16Z 的一份報(bào)告揭示了一個(gè)趨勢(shì):82% 的企業(yè)
原文鏈接:大模型部署技巧
聯(lián)系作者
文章來(lái)源:AI前線
作者微信:
作者簡(jiǎn)介: