5億個token之后,我們得出關(guān)于GPT的七條寶貴經(jīng)驗
AIGC動態(tài)歡迎閱讀
原標題:5億個token之后,我們得出關(guān)于GPT的七條寶貴經(jīng)驗
關(guān)鍵字:面包店,上下文,經(jīng)驗,模型,內(nèi)容
文章來源:機器之心
內(nèi)容字數(shù):6320字
內(nèi)容摘要:
機器之心報道
機器之心編輯部ChatGPT 正確的使用姿勢。
自 ChatGPT 問世以來,OpenAI 一直被認為是全球生成式大模型的領(lǐng)導(dǎo)者。2023 年 3 月,OpenAI 官方宣布,開發(fā)者可以通過 API 將 ChatGPT 和 Whisper 模型集成到他們的應(yīng)用程序和產(chǎn)品中。在 GPT-4 發(fā)布的同時 OpenAI 也開放了其 API。
一年過去了,OpenAI 的大模型使用體驗究竟如何,行業(yè)內(nèi)的開發(fā)者怎么評價?
最近,初創(chuàng)公司 Truss 的 CTO Ken Kantzer 發(fā)布了一篇題為《Lessons after a half-billion GPT tokens》的博客,闡述了在使用 OpenAI 的模型(85% GPT-4、15% GPT-3.5)處理完 5 億個 token 之后,總結(jié)出的七條寶貴經(jīng)驗。Ken Kantzer
機器之心對這篇博客進行了不改變原意的編譯、整理,以下是博客原文內(nèi)容:
經(jīng)驗 1:prompt,少即是多
我們發(fā)現(xiàn),如果 prompt 中的信息已經(jīng)是常識,那么該 prompt 不會幫助模型產(chǎn)生更好的結(jié)果。GPT 并不愚蠢,如果您過度指定,它
原文鏈接:5億個token之后,我們得出關(guān)于GPT的七條寶貴經(jīng)驗
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺