標簽:步驟

8x7B MoE與Flash Attention 2結(jié)合,不到10行代碼實現(xiàn)快速推理

機器之心報道 編輯:陳萍感興趣的小伙伴,可以跟著操作過程試一試。前段時間,Mistral AI 公布的 Mixtral 8x7B 模型爆火整個開源社區(qū),其架構(gòu)與 GPT-4 非常相...
閱讀原文

OpenAI 官方 Prompt 工程指南:寫好 Prompt 的六個策略

其實一直有很多人問我,Prompt 要怎么寫效果才好,有沒有模板。 我每次都會說,能清晰的表達你的想法,才是最重要的,各種技巧都是其次。但是,我還是希望發(fā)...
閱讀原文

大模型+多模態(tài)的3種實現(xiàn)方法|文末贈書

我們知道,預訓練LLM已經(jīng)取得了諸多驚人的成就, 然而其明顯的劣勢是不支持其他模態(tài)(包括圖像、語音、視頻模態(tài))的輸入和輸出,那么如何在預訓練LLM的基礎(chǔ)上...
閱讀原文

Meta教你5步學會用Llama2:我見過最簡單的大模型教學

機器之心報道編輯:趙陽本文是 Meta 官網(wǎng)推出的 Llama2 使用教學博客,簡單 5 步教會你如何使用 Llama2。在這篇博客中,Meta 探討了使用 Llama 2 的五個步驟...
閱讀原文

GPT-4慘遭削弱,偷懶摸魚絕不多寫一行代碼,OpenAI已介入調(diào)查

西風 發(fā)自 凹非寺量子位 | 公眾號 QbitAIGPT-4再次遭網(wǎng)友“群攻”,原因是“懶”得離譜!有網(wǎng)友想在Android系統(tǒng)開發(fā)一個能夠與OpenAI API實時交互的應用。于是把...
閱讀原文

預測token速度翻番!Transformer新解碼算法火了,來自小羊駝團隊|代碼已開源

豐色 發(fā)自 凹非寺量子位 | 公眾號QbitAI小羊駝團隊的新研究火了。他們開發(fā)了一種新的解碼算法,可以讓模型預測100個token數(shù)的速度提高1.5-2.3倍,進而加速LLM...
閱讀原文
123