AIGC動態歡迎閱讀
原標題:Yann LeCun:生成模型不適合處理視頻,AI得在抽象空間中進行預測
關鍵字:模型,視頻,數據,世界,系統
文章來源:機器之心
內容字數:6697字
內容摘要:
機器之心報道
機器之心編輯部AI 理解視頻不能依靠在像素空間中預測。在互聯網文本數據即將枯竭之際,很多 AI 研究者將目光轉向了視頻。但如何讓 AI 理解視頻數據成了新的難題。
在 2024 世界經濟論壇的一次會談中,圖靈獎得主、Meta 首席 AI 科學家 Yann LeCun 被問到了這個問題。他認為,雖然這個問題還沒有明確的答案,但適合用來處理視頻的模型并不是我們現在大范圍應用的生成模型。而且新的模型應該學會在抽象的表征空間中預測,而不是在像素空間中。
一起參與討論的還有斯坦福大學教授、Coursera 聯合創始人 Daphne Koller。她的研究領域主要是人工智能及其在生物醫學科學中的應用。她指出了理解因果關系對于構建未來AI系統的重要性。【關注機器之心視頻號,第一時間看到有趣的AI內容】
以下是視頻的文字版本:
主持人:我在世界經濟論壇中參與過一些討論。他們說,我們的數據快用完了,真的嗎?網絡上沒有那么多了?
Daphne Koller:是真的。
主持人:但是自動駕駛汽車可能提供更多數據。Yann,你覺得呢?
Yann LeCun:我完全同意 Daphne 的觀點。當然
原文鏈接:Yann LeCun:生成模型不適合處理視頻,AI得在抽象空間中進行預測
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...