Meta官方的Prompt工程指南:Llama 2這樣用更高效
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:Meta官方的Prompt工程指南:Llama 2這樣用更高效
關(guān)鍵字:模型,消息,指令,參數(shù),角色
文章來(lái)源:機(jī)器之心
內(nèi)容字?jǐn)?shù):15982字
內(nèi)容摘要:
機(jī)器之心報(bào)道
編輯:小舟隨著大型語(yǔ)言模型(LLM)技術(shù)日漸成熟,提示工程(Prompt Engineering)變得越來(lái)越重要。一些研究機(jī)構(gòu)發(fā)布了 LLM 提示工程指南,包括微軟、OpenAI 等等。
最近,Llama 系列開(kāi)源模型的提出者 Meta 也針對(duì) Llama 2 發(fā)布了一份交互式提示工程指南,涵蓋了 Llama 2 的快速工程和最佳實(shí)踐。以下是這份指南的核心內(nèi)容。
Llama 模型
2023 年,Meta 推出了 Llama 、Llama 2 模型。較小的模型部署和運(yùn)行成本較低,而更大的模型能力更強(qiáng)。
Llama 2 系列模型參數(shù)規(guī)模如下:Code Llama 是一個(gè)以代碼為中心的 LLM,建立在 Llama 2 的基礎(chǔ)上,也有各種參數(shù)規(guī)模和微調(diào)變體:部署 LLM
LLM 可以通過(guò)多種方式部署和訪問(wèn),包括:
自托管(Self-hosting):使用本地硬件來(lái)運(yùn)行推理,例如使用 llama.cpp 在 Macbook Pro 上運(yùn)行 Llama 2。優(yōu)勢(shì):自托管最適合有隱私 / 安全需要的情況,或者您擁有足夠的 GPU。
云托管:依靠云提供商來(lái)部署托管特定模型的實(shí)例,例如通過(guò)
原文鏈接:Meta官方的Prompt工程指南:Llama 2這樣用更高效
聯(lián)系作者
文章來(lái)源:機(jī)器之心
作者微信:almosthuman2014
作者簡(jiǎn)介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺(tái)