網(wǎng)傳Ilya Sutskever的推薦清單火了,掌握當(dāng)前AI 90%
AIGC動態(tài)歡迎閱讀
原標(biāo)題:網(wǎng)傳Ilya Sutskever的推薦清單火了,掌握當(dāng)前AI 90%
關(guān)鍵字:論文,神經(jīng)網(wǎng)絡(luò),復(fù)雜度,架構(gòu),清單
文章來源:機器之心
內(nèi)容字?jǐn)?shù):3703字
內(nèi)容摘要:
機器之心報道
編輯:小舟隨著生成式 AI 模型掀起新一輪 AI 浪潮,越來越多的行業(yè)迎來技術(shù)變革。許多行業(yè)從業(yè)者、基礎(chǔ)科學(xué)研究者需要快速了解 AI 領(lǐng)域發(fā)展現(xiàn)狀、掌握必要的基礎(chǔ)知識。
如果有一份「機器學(xué)習(xí)精煉秘笈」,你認(rèn)為應(yīng)該涵蓋哪些知識?
近日,一份網(wǎng)傳 OpenAI 聯(lián)合創(chuàng)始人兼首席科學(xué)家 Ilya Sutskever 整理的一份機器學(xué)習(xí)研究文章清單火了。網(wǎng)友稱「Ilya 認(rèn)為掌握了這些內(nèi)容,你就了解了當(dāng)前(人工智能領(lǐng)域) 90% 的重要內(nèi)容。」推薦清單:https://arc.net/folder/D0472A20-9C20-4D3F-B145-D2865C0A9FEE
從研究主題上看,Ilya Sutskever 重點關(guān)注 transformer 架構(gòu)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、長短期記憶網(wǎng)絡(luò)(LSTM)、神經(jīng)網(wǎng)絡(luò)的復(fù)雜度等。推薦清單部分截圖。
例如,Ilya 推薦谷歌在 2017 年發(fā)表的經(jīng)典論文《Attention Is All You Need》,這是 transformer 架構(gòu)的問世之作。transformer 架構(gòu)今天已經(jīng)成為人工智能領(lǐng)域的主流基礎(chǔ)架構(gòu),特別是它是生成
原文鏈接:網(wǎng)傳Ilya Sutskever的推薦清單火了,掌握當(dāng)前AI 90%
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺