
AIGC動態歡迎閱讀
原標題:大模型能自己優化Prompt了,曾經那么火的提示工程要死了嗎?
關鍵字:模型,提示,工程,圖像,人類
文章來源:機器之心
內容字數:7316字
內容摘要:
選自IEEE
機器之心編譯
編輯:Panda人類設計 prompt 的效率其實很低,效果也不如 AI 模型自己優化。2022 年底,ChatGPT 上線,同時引爆了一個新的名詞:提示工程(Prompt Engineering)。
簡而言之,提示工程就是尋找一種編輯查詢(query)的方式,使得大型語言模型(LLM)或 AI 繪畫或視頻生成器能得到最佳結果或者讓用戶能繞過這些模型的安保措施?,F在的互聯網上到處都是提示工程指南、快捷查詢表、建議推文,可以幫助用戶充分使用 LLM。在商業領域,現在也有不少公司競相使用 LLM 來構建產品 copilot、自動化繁瑣的工作、創造個人助理。
之前在微軟工作過的 Austin Henley 最近采訪了一些基于 LLM 開發 copilot 產品或服務的人:「每一家企業都想將其用于他們能想象到的每一種用例?!惯@也是企業會尋求專業提示工程師幫助的原因。
但一些新的研究結果表明,提示工程干得最好的還是模型自己,而非人類工程師。
這不禁讓人懷疑提示工程的未來 —— 并且也讓人越來越懷疑可能相當多提示工程崗位都只是曇花一現,至少少于當前該領域的想象。
自動微
原文鏈接:大模型能自己優化Prompt了,曾經那么火的提示工程要死了嗎?
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...

粵公網安備 44011502001135號