国产精品亚洲mnbav网站_成人午夜亚洲精品无码网站_日韩va亚洲va欧洲va国产_亚洲欧洲精品成人久久曰影片

谷歌 AlphaChip 論文再被質(zhì)疑,DeepMind 駁斥都沒做與訓練,順帶還揪出了“內(nèi)鬼”?

AIGC動態(tài)1年前 (2024)發(fā)布 AI前線
715 0 0

作者 | Anna Goldie、Azalia Mirhoseini、Jeff Dean
譯者 | 核子可樂
策劃 | 褚杏娟 2020 年,DeepMind 發(fā)布了一種能夠生成超越人類能力的深度強化學習芯片布局設計方法,隨后在《自然》雜志上發(fā)表了該方法,并通過 GitHub 開源了相關成果。AlphaChip 項目激發(fā)了芯片設計 AI 領域的大量后續(xù)工作,并已在 Alphabet 最先進的芯片中得到應用,同時得到外部芯片制造商的支持和擴展。不過之后,業(yè)內(nèi)也持續(xù)有對 AlphaChip 的質(zhì)疑。在 2024 年 11 月的《ACM 通訊》雜志上,Synopsys 架構師 Igor Markov 也發(fā)表了對三篇論文的元分析,主要包括 AlphaChip 原論文、Cheng 等人投稿到 ISPD 的論文以及 Markov 未發(fā)表的論文,總結了人們對 AlphaChip 的各種質(zhì)疑。始末如下:2020 年 4 月:發(fā)布 AlphaChip 《自然》論文的 arXiv 預印本。2020 年 8 月:在 TPU v5e 中流片了 10 種由 AlphaChip 生成的布局。2021 年 6 月:在《自然》雜志上發(fā)表論文。2021 年 9 月:在 TPU v5p 中流片了 15 種由 AlphaChip 生成的布局。2022 年 1 月至 2022 年 7 月:在確保遵守出口管制限制并消除內(nèi)部依賴關系之后,DeepMind 開源了 AlphaChip。期間谷歌中另一支團隊復現(xiàn)了 AlphaChip 在《自然》雜志上所發(fā)表論文中的結果。2022 年 2 月:谷歌內(nèi)部的委員會拒絕發(fā)表 Markov 等人的論文,因為數(shù)據(jù)并不支持其主張和結論。2022 年 10 月:Trillium(最新發(fā)布的 TPU)中流片了 25 種由 AlphaChip 生成的布局。2023 年 2 月:Cheng 等人在 arXiv 上發(fā)帖,聲稱對 AlphaChip 的方法進行了“大規(guī)模重新實現(xiàn)”。2023 年 6 月:Markov 在 arXiv 上發(fā)布了他的“元分析”預印本論文。2023 年 9 月:《自然》雜志發(fā)布編者注,稱他們正在調(diào)查 DeepMind 的論文,并啟動了第二輪同行評審流程。2024 年 3 月:谷歌 Axion 處理器(基于 Arm 架構的 CPU)采用了 7 種由 AlphaChip 生成的布局。2024 年 4 月:《自然》雜志完成了調(diào)查與出版后審查,并完全支持 DeepMind 的成果,結論是“最好的解決方式是以附錄形式發(fā)布論文更新。”2024 年 9 月:聯(lián)發(fā)科高級副總裁宣布,他們擴展了 AlphaChip 以加速其最先進芯片的開發(fā)。2024 年 11 月:Markov 重新發(fā)表了他的“元分析”文章,但此前在《自然》雜志的調(diào)查和二次同行評審過程中,他提出的擔憂被發(fā)現(xiàn)毫無根據(jù)。谷歌 DeepMind 三位高級研究員 Anna Goldie、Azalia Mirhoseini 和 Jeff Dean 聯(lián)合發(fā)文,針對上述論文提出的質(zhì)疑做出了回應。DeepMind 指出,Cheng 等人受邀發(fā)表的 ISPD 論文沒有遵循標準的機器學習實踐,其中采用的強化學習方法與實驗設置同 AlphaChip 在《自然》論文中的描述存在很大差異。此外,ISPD 的受邀論文未經(jīng)同行評審。“元分析”論文是一份未發(fā)表的 PDF,未列出作者名單,文章描述稱其為“谷歌二號團隊”進行的“單獨評估”,但實際上是由 Markov 本人參與并共同撰寫,且這一事實在文章中并未披露。這篇文章并不符合谷歌的出版標準。2022 年,谷歌委員會對其進行了審查,認定“草稿中的主張和結論并未得到實驗科學的支持”,且“由于 AlphaChip 在其原始數(shù)據(jù)集上的結果確實可復現(xiàn)”,因此 [Markov 等人] 的強化學習評估結果受到質(zhì)疑。DeepMind 向該委員會提供了一行腳本,該腳本生成的強化學習結果明顯優(yōu)于 Markov 等人報告的結果,也優(yōu)于他們“更強”的模擬退火基準性能。DeepMind 三人稱仍不清楚 Markov 及其他聯(lián)合作者如何得出論文中的數(shù)字。Markov 的“元分析”也讓 DeepMind 產(chǎn)生了新的擔憂,即谷歌內(nèi)部存在一位“告密者”。但這位“告密者”向谷歌調(diào)查員承認,他并無確切理由懷疑 AlphaChip 論文存在欺詐行為:他曾表示懷疑 Goldie 和 Mirhoseini 的研究成果中存在欺詐行為,但表示沒有證據(jù)支持他的這種懷疑。“在他的‘元分析’中,Markov 在沒有證據(jù)的情況下對 DeepMind 實際上并不存在的‘欺詐與學術不端行為’做出了瘋狂推測。Markov 的大部分批評方式可以總結為:在他看來,DeepMind 的方法不應該起效,因此一定不會起效,而任何指向相反結論的證據(jù)都屬于欺詐。《自然》雜志調(diào)查了 Markov 提出的質(zhì)疑,發(fā)現(xiàn)其完全沒有根據(jù),并在調(diào)查結束后發(fā)表一份附錄來為我們的工作正名。”DeepMind 表示。Markov 指出,“在這篇論文中,我們發(fā)現(xiàn)機器學習中存在各種可疑的做法,包括不可復現(xiàn)的研究實踐、刻意挑選結果、誤報以及可能的數(shù)據(jù)污染(泄漏)。”對此,DeepMind 表示:我們不存在任何此類行為,也沒有任何其他形式的學術不端舉動,Markov 亦沒有為這些指控提供任何證據(jù)。Markov 在論文中沒有對所謂“刻意挑選結果”做出任何具體描述,更遑論列舉切實證據(jù)。他亦沒有對所謂“誤報”做出明確解釋,或者提供證據(jù)。文中沒有提供任何數(shù)據(jù)污染(泄漏)的證據(jù),只表示這種情形可能有助于獲得更好的研究結果。這些指控當中,相當一部分在正文中根本見不到,卻在“結論”部分突然冒了出來。順帶一提,Cheng 等人在腳注部分也提到,在其針對主數(shù)據(jù)表的 6 個測試案例中,RePlAce 在 2 項測試中無法得出任何結果。DeepMind 表示,Markov 在他的“元分析”文章中完全沒有提及他本人就是這兩項“單獨評估”之一的作者。他還在參考文獻部分的論文作者中省略了自己的名字,只鏈接到一份匿名 PDF。當在 LinkedIn 上被問及時,Markov 先是承認了自己的作者身份,但后來又刪除了該帖子。Markov 也沒有披露他在 Synopsys 公司擔任高級職務的情況,該公司授權發(fā)布多種與 DeepMind 開源方案相競爭的商業(yè)工具。“請注意,Markov 的引文與我們的論文無關,這可能誤導讀者認為原始文章為其觀點提供了佐證。”DeepMind 進一步表示,“為了詆毀我們的 TPU 部署,Markov 還暗示谷歌是在故意‘護犢子’,即允許在 TPU 中使用劣質(zhì)的 AlphaCip 生成布局來支持我們的研究發(fā)現(xiàn)。這既不符合事實,也十分荒謬。谷歌永遠更關心 TPU 設計的效率——畢竟這是一個耗資數(shù)十億美元的項目,也是 Google Cloud 以及多個 AI 項目的核心,重要程度遠超一篇研究論文。”DeepMind 總結道,簡而言之,Markov 的論文未包含原始數(shù)據(jù),僅僅是對兩篇論文的“元分析”。第一篇論文未列出作者名單(盡管 Markov 本人就是作者之一)且從未發(fā)表過,提出的主張既沒有科學數(shù)據(jù)支持也無法復現(xiàn)。第二篇由 Cheng 等人發(fā)表的論文,是 Markov“元分析”中唯一的實質(zhì)性內(nèi)容,因此我們在后文中將主要討論此文聲稱在復現(xiàn)我們方法時遇到的重要問題。“事實上,我們投入了很長時間才讓 TPU 團隊對我們的成果建立起足夠的信任,讓他們使用我們的布局。盡管 AlphaChip 在指標層面的表現(xiàn)已經(jīng)超越了人類專家,但我們理解 TPU 團隊的擔憂——他們的工作是按時交付 TPU 芯片,并保證成果盡可能高效可靠,因此不想承擔任何非必要的風險。AlphaChip 已被部署在 Alphabet 的其他硬件當中,但屬于商業(yè)機密因此目前無法披露。”DeepMind 研究員稱。下面是 DeepMind 詳細指出的質(zhì)疑論文中存在的問題。
Cheng 等人在成果復現(xiàn)過程中的錯誤
Cheng 等人聲稱在新的測試用例上,將 DeepMind 的方法與其他方法進行了比較。DeepMind 研究院指出,Cheng 等人并未嚴格按照《自然》雜志上描述的方式運行成果,因此得到的結果自然也相去甚遠。DeepMind 整理了他們在復現(xiàn)過程中的 5 個主要錯誤:沒有預先訓練強化學習方法。從先前經(jīng)驗中學習的能力是 DeepMind 基于學習方法的主要優(yōu)勢,而將其消除本質(zhì)上就是在評估一種完全不同且質(zhì)量更差的方法。預訓練也是 Gemini 和 ChatGPT 等大語言模型獲取強大 AI 生成能力的前提(「GPT」中的「P」就代表「預訓練」)。使用的計算資源低了一個數(shù)量級:強化學習經(jīng)驗收集器僅相當于原始論文的二十分之一(26 個,《自然》論文中為 512 個),GPU 減少至一半(8 個,《自然》論文中為 16 個)。未將模型訓練到收斂。訓練到收斂是機器學習領域的標準實踐,因為這樣才能保證性能穩(wěn)定。在不具代表性且不可重復的基準上進行評估。Cheng 等人的基準采用更舊且尺寸更大的制程節(jié)點(45 納米與 12 納米,《自然》論文中為 7 納米以下),而且從物理設計角度來看存在很大差異。此外,作者無法或不愿公布其主數(shù)據(jù)表中復現(xiàn)結果所使用的綜合網(wǎng)表。對 DeepMind 的方法進行了“大規(guī)模重新實現(xiàn)”,但這可能會引發(fā)錯誤。
強化學習方法沒有經(jīng)過預訓練 AlphaChip 是一種基于學習的方法,意味著隨著其解決更多芯片布局問題實例,它也會變得更快、更好。這種改進是通過預訓練實現(xiàn)的,預訓練包括在運行保留的測試用例(測試數(shù)據(jù))之前先在“練習”布局塊(訓練數(shù)據(jù))上接受訓練。訓練數(shù)據(jù)集越大,該方法在布局設計方面的表現(xiàn)就越好。Cheng 等人根本沒有進行過預訓練(即沒有訓練數(shù)據(jù)),這意味著強化學習代理之前從未接觸過芯片設計,必須從頭學習如何針對各個測試用例進行布局。這消除了 DeepMind 方法的關鍵優(yōu)勢,即從先前經(jīng)驗中學習的能力。與其他知名的強化學習用例類似,這就像評估一個之前從未接觸過圍棋比賽的 AlphaGo 版本(而非經(jīng)過過數(shù)百萬場對弈預訓練的版本),然后得出結論說 AlphaGo 不擅長圍棋。DeepMind 在《自然》論文中詳細討論了預訓練的重要性(例如「預訓練」一詞出現(xiàn)了 37 次),并通過經(jīng)驗證明了其影響。例如,《自然》圖四(在本文中為圖三)顯示預訓練可以提高布局質(zhì)量和收斂速度。在開源 Ariane RISC_V CPU 上,未經(jīng)預訓練的強化學習策略需要 48 個小時才能達到預訓練模型在 6 小時內(nèi)所產(chǎn)生的結果。正如 DeepMind 在《自然》雜志上所發(fā)表論文中所述,DeepMind 為了獲取主數(shù)據(jù)表中的結果進行了 48 小時的預訓練,而 Cheng 等人的預訓練時長為 0 小時。在 Cheng 等人的論文發(fā)表之前,DeepMind 與其中作者的最后一次溝通是在 2022 年 8 月。當時 DeepMind 與對方聯(lián)系,并分享了 DeepMind 的最新消息。相比之下,在《自然》雜志上發(fā)表之前,DeepMind 與 Cheng 等人的高級作者 Andrew Kahng 進行了廣泛溝通。此外 DeepMind 還聯(lián)系了此前最先進技術 RePlAce 的研究團隊,以確保 DeepMind 使用了 RePlAce 的適當配置。對大量布局塊進行預訓練所帶來的性能提升與從隨機初始化策略開始相比,預訓練能夠提高收斂速度。在開源 Ariane RISC-V CPU 上,隨機初始化策略需要 48 個小時才能達到預訓練策略在 6 小時內(nèi)所產(chǎn)生的結果。DeepMind 的開源代碼倉庫可以完全復現(xiàn)在《自然》雜志上描述的方法。Cheng 等人試圖為他們預訓練的缺失尋找借口,稱 DeepMind 的開源代碼倉庫不支持預訓練,但這是不正確的。DeepMind 提供了多個預訓練運行方法示例,且始終受到支持。
為強化學習方法提供的計算資源遠少于原始論文 在 Cheng 等人的論文中,強化學習方法使用的經(jīng)驗收集器僅為原始論文的二十分之一(26 個,《自然》論文中為 512 個),GPU 數(shù)量減少至一半(8 個,《自然》論文為 16 個)。算力資源的減少可能會損害性能,或者需要運行更長時間才能實現(xiàn)相同(或者更差)的性能。如下圖,在大量 GPU 上進行訓練可以加快收斂速度并獲得更好的最終質(zhì)量。如果 Cheng 等人在論文中使用與《自然》論文中相同的實驗設置,可能會改善他們的復現(xiàn)結果。速度和質(zhì)量會隨著計算資源的增加而提高。左圖:布局反饋(越高越好)與訓練時間的關系,表現(xiàn)為一條關于 GPU 數(shù)量的函數(shù)。不可行的布局將獲得 -2 的布局反饋,增加 GPU 數(shù)量則可獲得更好的最終布局。右圖:達到給定布局回報所需要的時間,表現(xiàn)為一條關于 GPU 數(shù)量的函數(shù)。灰色條表示實驗未達到特定的回報值。最佳布局回報 -1.07 只能在 GPU=8 的情況下實現(xiàn),而這已經(jīng)是 Cheng 等人實驗中的最高設置。
未將強化學習方法訓練至收斂 隨著機器學習模型不斷接受訓練,其損失通常會減少而后趨于穩(wěn)定,代表其發(fā)生了“收斂”——即桺尼桑學會了它所能學到關于當前所執(zhí)行任務的知識。訓練收斂是機器學習領域的標準實踐,未至收斂則會損害性能。Cheng 等人在其隨附項目站點上,沒有提供四個布局塊上任何一項達到收斂的訓練結果圖(其中 BlackParrot-NG45 和 Ariane-NG45 完全沒有配圖)。圖五所示,為 Cheng 等人項目站點上的收斂圖。表一總結了其中的可用信息。對于所有四個配有收斂圖的布局塊(Ariane-GF12、MemPool-NG45、BlackParrot-GF12 和 MemPool-GF12),訓練在相對較低的步數(shù)(分別為 350k、250k、160k 和 250k 步)10 處停止。遵循標準機器學習實踐可能會提高這些測試用例的性能。Cheng 等人未在隨附項目站點上提供任何在測試用例上進行了正確訓練的 Tensorboard 證據(jù)。
Cheng 等人的測試用例未使用現(xiàn)代芯片 盡管 Cheng 等人似乎顯示 1M 步后在 Ariane-NG45 上實現(xiàn)了收斂,但卻省略了總訓練損失中的大部分內(nèi)容,僅描述了線長、密度和擁塞成本。但除此之外,總損失還應涵蓋熵正則化損失、KL 懲罰損失、L2 正則化損失、策略梯度損失和值估計損失。關于訓練損失的詳細信息,可參閱開源代碼:https://github.com/google-research/circuit_training/blob/ 90fbe0e939c3038e43db63d2cf1ff570e525547a/circuit_training/learning/agent.py#L408。Cheng 等人沒有為該布局塊提供 TensorBoard,如表一所示,所有其他布局塊的運行步數(shù)則遠少于 1M 步。Cheng 等項目站點上公布的收斂圖。在 Ariane-NG45(左上)和 MemPool-NG45(右上)中,在 100k 步左右出現(xiàn)了奇怪的發(fā)散,但損失似乎仍呈下降趨勢,且可能隨著進一步訓練而改善。在 BlackParrot-GF12(左下)和 MemPool-GF12(右下)處,模型尚未收斂,且同樣可能在更長的訓練時間后改善。在《自然》論文中,DeepMind 報告了在 7 納米以下制程工藝的張量處理單元(TPU)運行布局塊的結果,其代表現(xiàn)代芯片的典型特征。相比之下,Cheng 等人言說蠅使用的是較舊的制程節(jié)點(45 納米和 12 納米),其在物理設計角度存在很大區(qū)別;例如在 10 納米以下,芯片通常使用多重圖案化 [15.38],導致在較低密度下出現(xiàn)布線擁塞問題。因此對于較舊的制程節(jié)點,DeepMind 的方法可能受益于對其獎勵函數(shù) 11 的擁塞或密度分量的調(diào)整。DeepMind 并沒有專門將自己的技術方案應用于較舊的芯片節(jié)點設計,因為 DeepMind 所有的工作都運行在 7 納米、5 納米及更新的制程工藝之上。
Cheng 等人論文中的其他問題

與商業(yè)自動布局設計工具的不恰當比較 Cheng 等人將被嚴重弱化的強化學習方法,與在 DeepMind 方法發(fā)布多年之后的閉源專有軟件進行了比較。“這顯然不是對我們方法進行評估的合理方式——據(jù)我們所知,這款閉源工具可能就是基于我們的成果構建而成。”谷歌工程師確實提出了驗證建議,但并未遵循 Cheng 等人提出的具體方法。2020 年 5 月,DeepMind 開展了一項內(nèi)部盲測 12,將其方法與兩款領先的商業(yè)自動布局設計工具的最新版本進行了比較。DeepMind 的方法優(yōu)于后兩者,以 13 比 4(3 平)的成績優(yōu)于其中一種,以 15 比 1(4 平)的成績優(yōu)于另外一種。遺憾的是,受到商業(yè)供應商的標準許可協(xié)議的限制,DeepMind 無法公開具體對比細節(jié)。
“消融”了標準單元簇重新均衡中的初始布局 在運行 DeepMind《自然》論文中的方法之前,DeepMind 利用物理合成(即芯片設計過程中的前一步)中的近似初始布局方式解決了 hMETIS 中標準單元簇大小不均衡的問題。Cheng 等人對單個布局塊(Ariane-NG45)進行了“消融”研究。他們沒有簡單跳過簇重新均衡步驟,而是嘗試將所有芯片組件堆疊在左下角 13,導致重新均衡步驟產(chǎn)生了退化的標準單元簇。對于由此引發(fā)的性能損害,Cheng 等人得出結論,認為 DeepMind 的強化學習代理以某種方式利用了初始布局信息,卻忽略了其根本未訪問初始布局且未放置標準單元的現(xiàn)實情況。DeepMind 也進行了一項消融研究,完全消除了對初始布局的使用,且沒有觀察到性能下降(見表二)。DeepMind 只是跳過了集群重新均衡的步驟,轉而將 hMETIS 的簇“不均衡度”參數(shù)降低到最低設置 (UBFactor=1)14,借此保證 hMETIS 生成更加均衡的簇。這項輔助預處理步驟已被記錄并自 2022 年 6 月 10 日起開源,但隨后發(fā)現(xiàn)其沒有必要,因此已被從 DeepMind 的生產(chǎn)流程中刪除。在存在和不存在初始布局的情況下,對標準單元進行聚類后的強化學習結果。對于所有指標來說,幅度均越低越好。不存在初始布局的聚類似乎不會造成性能損害。
代理成本與最終指標之間的相關性研究存在缺陷 Cheng 等人聲稱,DeepMind 的代理成本與最終指標間缺乏良好的相關性。但從他們的相關性研究方法來看,總體代理成本與除標準單元面積之外的所有最終指標間存在著較弱的正相關性。DeepMind 將布局面積視為硬約束條件,因此不會對其進行優(yōu)化。基于機器學習的做強 使用的代理成本,通常僅與目標具有弱相關性。例如,Gemini 和 ChatGPT 這樣的大語言模型就通過訓練來猜測序列中的下一個單詞,這在本質(zhì)上屬于嘈雜信號。此外,Cheng 等人在相關性研究中還做出了一些令人“匪夷所思”的選擇:DeepMind 的盲測將強化學習與 20 個 TPU 布局塊上的人類專家與商業(yè)自動布局設計工具進行了比較。首先,負責放置給定布局塊的物理設計工程師會對這幾種匿名布局進行排名,且僅根據(jù)最終 QoR 指標進行評估,期間并不知曉各布局由哪種方式生成。接下來,由七名物理設計專家組成的小組負責審查排名結果是否可靠。在全部兩輪評估完成之后,才最終揭曉答案。結果是,最佳布局多數(shù)由強化學習方法生成,其次是人類專家,最后是商業(yè)自動布局設計工具。Cheng 等人還嘗試將所有組件放置在右上角的頂部和中心的單個點上。不出所料,這同樣引發(fā)了性能退化。UBfactor 是一條范圍從 1 到 49 的參數(shù),其取值越低則代表 hMETIS 越是優(yōu)先考慮對簇大小做出均衡。在 DeepMind 發(fā)表在《自然》上的論文中,UBfactor 被設置為 5。Cheng 等人論文中的表二顯示,總體代理成本與最終指標之間存在較弱的正相關性,但標準單元面積除外,因為 DeepMind 將這項指標視為硬約束條件且不做優(yōu)化。Cheng 等人僅報告了代理成本低于 0.9 的相關性,且沒有此為這種評判方式提供任何理由。這樣的閾值排除了他們自己的大部分結果(參見 Cheng 等人論文中的表一)。相關性研究僅考慮到單一 45 納米測試案例(Ariane-NG45)。NG45 是一種更陳舊的制程節(jié)點規(guī)格,總體成本函數(shù)的擁塞和密度分量可能應該進行調(diào)整以更好地反映這種運行環(huán)境(參見第 2.4 節(jié))。
Cheng 等人錯誤地聲稱谷歌工程師已經(jīng)做出驗證 Cheng 等人聲稱谷歌工程師證實了該文章的技術正確性,但事實并非如此。谷歌工程師(并非本《自然》論文的通訊作者)只是證實他們確實從頭開始(即沒有經(jīng)過預訓練)在 DeepMind 開源代碼倉庫的快速使用部分中,選取了單個測試用例并進行了訓練。快速使用指南顯然沒有全面復制 DeepMind 在《自然》論文中描述的方法,只是作為確認所需軟件已成功安裝、代碼已編譯完成且能夠在單個簡單測試用例(Ariane)上成功運行的前置準備。事實上,谷歌工程師們也提出了與 DeepMind 相同的擔憂,并提供了建設性的反饋,但并未得到 Cheng 等人的理會。例如,在 Cheng 等人的論文發(fā)表之前,谷歌工程師們就已經(jīng)通過書面交流和多次會議提出了改進意見,包括使用的計算資源過少、未能調(diào)整代理成本權重以解釋截然不同的制程節(jié)點等等。Cheng 等人在其文章的致謝部分,還列舉了 DeepMind《自然》論文的通訊作者,以此暗示向他們征求過意見甚至參與過驗證流程。但事實并非如此,通訊作者們完全是在該論文發(fā)表之后才得到消息。
透明度與可重復性

AlphaChip 屬于完全開源項目 DeepMind 已經(jīng)開源了自己的代碼倉庫,以完全復現(xiàn) DeepMind 在《自然》論文中描述的方法。DeepMind 強化學習方法中的第一行代碼均可接受檢查、執(zhí)行或修改,DeepMind 提供源代碼或二進制文件來執(zhí)行所有預處理及后處理步驟。TF-Agents 團隊花了一年多時間公布了自己的開源代碼,其中包括復現(xiàn) DeepMind 的方法和《自然》論文中的結果。以下是我們開源代碼倉庫中的相關說明:“我們在代碼開源過程中與谷歌另一支團隊(TF-Agents)共同合作。TF-Agents 首先使用我們的代碼倉庫復現(xiàn)了我們在《自然》論文中的結果,而后重新實現(xiàn)了具體方法并使用他們的實現(xiàn)再次復現(xiàn)了論文結果,而后將他們的實現(xiàn)版本進行開源,以保證其中不依賴任何內(nèi)部基礎設施。”Cheng 等人毫無必要地對我們二進制文件中的兩項函數(shù)進行了“逆向工程”以進行性能優(yōu)化(分別為代理成本函數(shù)以及 FD 力導向標準單元布局器)。正如 MLCAD 2021 論文中所討論,我們現(xiàn)在建議使用性能更高的 DREAMPlace 進行標準單元放置,而非 FD。我們提供傳統(tǒng) FD 二進制文件的唯一目的,僅在于精確復現(xiàn)我們在《自然》雜志上發(fā)表的方法。關于公共基準,DeepMind 在《自然》論文中報告了開源 Ariane RISC-V CPU 的結果。此外,在 MLCAD 2021 的后續(xù)論文中,DeepMind 對開源 ISPD 2015 競賽中的基準測試進行了評估 [6]。由于已經(jīng)開源了項目代碼,所以社區(qū)可以按照 DeepMind 的方法在任何公共基準測試上評估成果。
Cheng 等人聲稱他們無法公開他們的“開放”測試用例 DeepMind 對 Cheng 等人提出的批評之一,是其對《自然》論文的評估是在專有 TPU 布局塊之上進行。Cheng 等人聲稱對一組開放測試用例進行評估是為了提高可重復性,但當 DeepMind 與對方溝通時,他們無法或不愿提供在其主數(shù)據(jù)表中“開放”測試用例上復現(xiàn)結果時使用的綜合網(wǎng)表,這意味著 DeepMind 無法復現(xiàn) Cheng 等人表一中的任何結果:GF12(12 納米):這些測試用例是專有的,不對公眾開放,但卻被 Cheng 等人在結果中予以混淆。意味著即使外部研究人員擁有訪問權限,也仍然無法對結果直接進行比較。NG45(45 納米):盡管 Cheng 等人自 2024 年 2 月以來已收到 10 余次申請,但始終沒有發(fā)布復現(xiàn) NG45 結果所需的綜合網(wǎng)表。請注意,其他論文也對 NG45 布局塊進行了評估,但得到的結果與 Cheng 等人論文中表一的結果不一致,代表其結論的可重復性存疑。現(xiàn)代芯片 IP 具有敏感和專有屬性。據(jù) DeepMind 所知,目前還沒有針對前沿制程工藝的開放基準。目前,完全開放的設計通常為 28 納米、45 納米甚至 130 納米,其許多物理設計特征與 7 納米以下制程完全不同。聲明:本文為 InfoQ 翻譯,未經(jīng)許可禁止轉載。會議推薦就在 12 月 13 日 -14 日,AICon 將匯聚 70+ 位 AI 及技術領域的專家,深入探討大模型與推理、AI Agent、多模態(tài)、具身智能等前沿話題。此外,還有豐富的圓桌論壇、以及展區(qū)活動,滿足你對大模型實踐的好奇與想象。現(xiàn)在正值 9 折倒計時,名額有限,快掃碼咨詢了解詳情,別錯過這次絕佳的學習與交流機會!今日薦文ChatGPT 干掉了一家上市公司!千億市值歸零、10 多年 CEO 被迫離職,付費用戶直呼上當營收翻倍、Blackwell芯片爆單,黃仁勛否認 Scaling Law 失效,但英偉達財報后股價還是跌了最大的 AI Agent 生態(tài)系統(tǒng)來了!微軟推出適配 1800 種大模型的智能體,邁入自己的 Agent 時代獨家|騰訊杰出科學家、混元大模型技術負責人之一劉威離職英偉達 Blackwell 芯片又又又曝問題!老黃大半年沒搞定,微軟們被迫換貨、換方案你也「在看」嗎??

閱讀原文
? 版權聲明
蟬鏡AI數(shù)字人

相關文章

蟬鏡AI數(shù)字人

暫無評論

暫無評論...
国产精品亚洲mnbav网站_成人午夜亚洲精品无码网站_日韩va亚洲va欧洲va国产_亚洲欧洲精品成人久久曰影片
<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        亚洲一本二本| 亚洲一区二区三区免费在线观看| 国产精品专区h在线观看| 久草热8精品视频在线观看| 996这里只有精品| 色婷婷av一区二区| 91麻豆精品国产综合久久久 | 日本一区二区精品视频| 国产精品麻豆网站| 亚洲精品国产一区黑色丝袜| 美乳少妇欧美精品| 视频在线观看一区| 无码精品a∨在线观看中文| 欧美日本国产一区| 视频精品在线观看| 免费看国产精品一二区视频| 一区二区久久久久久| 一区二区成人免费视频| 青青久久av北条麻妃黑人| 久久国产麻豆精品| 五月花丁香婷婷| 亚洲欧美在线免费观看| 在线看片一区| 人妻有码中文字幕| 亚洲精品国产精品久久清纯直播 | 三日本三级少妇三级99| 亚洲最新av在线网站| 国产乱码精品| 99视频在线免费| 亚洲欧美在线磁力| 天堂成人免费av电影一区| 美女av免费在线观看| 亚洲风情亚aⅴ在线发布| 在线中文字幕亚洲| 黄页免费在线观看视频| 亚洲缚视频在线观看| 亚洲视频碰碰| 美女喷白浆视频| 色七七影院综合| 久久99国产乱子伦精品免费| www.黄色网| 国产91精品高潮白浆喷水| 97超碰欧美中文字幕| 永久免费av无码网站性色av| 国产精品视频成人| 亚洲视频一区二区免费在线观看| www.成人| 欧美亚州在线观看| 欧美群妇大交群中文字幕| 欧美成人直播| 四虎永久在线精品无码视频| 中文字幕精品在线| 国产又黄又大久久| 亚洲成人网在线播放| 国产精品丝袜久久久久久不卡| 国产精品久久久久久亚洲毛片 | 欧美精品久久天天躁| 中国精品18videos性欧美| 玩弄中年熟妇正在播放| 亚洲人成网7777777国产| 九九精品视频在线看| 国产偷人妻精品一区| 成人久久久久久| 五月婷婷久久综合| 久久精品亚洲人成影院 | 日本高清www| 91精品视频观看| 欧美日韩国产在线| 欧美激情无毛| 日韩欧美色视频| 国产ts一区二区| 亚洲大型综合色站| 91成人影院| 91插插插影院| 国产精品久久一区| 欧美午夜视频在线观看| 欧美日韩精品| 国产精久久久久| 成人网址在线观看| 欧美午夜精品久久久久久超碰| 国产真实久久| 老司机免费视频| 成人免费91在线看| 欧美一区二区三区四区高清| 日韩中文字幕91| 欧美激情久久久久久久| 欧美第一黄网| 亚洲欧美日韩天堂| 91一区二区三区在线播放| 哺乳挤奶一区二区三区免费看| av日韩在线看| 欧美激情视频播放| 一区二区三区四区在线播放| 国产精品精品国产一区二区| 欧美激情第一区| 亚洲在线免费视频| 国产一区不卡视频| 四虎影视国产精品| 激情成人开心网| 国模精品视频一区二区| 亚洲国产综合在线| 亚洲天堂男人| 亚洲天堂精品一区| 中文字幕免费高| 国产视频一区二区在线| 秋霞在线一区| 亚洲午夜精品一区| 99久热re在线精品996热视频| 日韩一区二区三区在线视频| 国产精品一二一区| 久久九九热re6这里有精品| 国产真人无码作爱视频免费| 成人在线视频福利| 亚洲精品狠狠操| 国产精品毛片久久久久久 | 精品一区二区免费在线观看| 亚洲精品视频一二三区| 日韩中文字幕免费在线| 成人淫片在线看| 日韩av在线直播| 亚洲欧洲日韩一区二区三区| 影音先锋中文字幕一区| 激情五月激情综合| 久久综合九色综合88i| 国产精品91在线| 精品粉嫩超白一线天av| 国产三级一区二区三区| 欧美网站在线| 小说区图片区亚洲| 亚洲色精品三区二区一区| 成人中文字幕在线观看| 亚洲精品网站在线播放gif| 亚洲天堂av老司机| 日日嗨av一区二区三区四区| 4438全国亚洲精品观看视频| 少妇愉情理伦片bd| 亚洲国产日韩综合一区| 亚洲午夜电影在线| 日韩电影在线一区| 秋霞蜜臀av久久电影网免费| 波多野结衣先锋影音| a级片一区二区| 国产日韩欧美在线| 亚洲欧美日韩精品久久亚洲区 | 亚洲国产精品久久久男人的天堂| 美腿丝袜亚洲综合| 欧美肉体xxxx裸体137大胆| 中文字幕一区二区三区人妻电影| 亚洲色欲久久久综合网东京热| 成人免费激情视频| 色青青草原桃花久久综合 | 欧美理论片在线观看| 欧美日韩mp4| 国产精品久久久久永久免费观看| 日韩专区一卡二卡| 日韩理论电影| 18岁成人毛片| 18深夜在线观看免费视频| 黄色网址在线免费看| 91久久综合亚洲鲁鲁五月天| 日韩中文在线不卡| 日韩一级欧美一级| 亚洲欧美日本韩国| 国产一区二区三区精品视频 | 成人永久免费视频| 在线观看一区视频| 五月综合久久| 国产老头老太做爰视频| 亚洲理论中文字幕| 乱熟女高潮一区二区在线| 草莓视频一区| 日韩美女免费视频| 精品国产依人香蕉在线精品| 日韩一区二区电影在线| 亚洲国产成人va在线观看天堂| av不卡免费电影| 视频在线观看国产精品| 国产高清一区二区| 国产三级精品三级在线观看国产| 亚洲黄色网址大全| 美女日批在线观看| 精品免费国产一区二区| 中文字幕欧美日韩一区二区| 国产欧美综合精品一区二区| 国产精品久久电影观看| 久久福利网址导航| 亚洲天堂成人在线| 欧美tickling挠脚心丨vk| 日韩欧美在线视频| 夜夜揉揉日日人人青青一国产精品| 91视频你懂的| 国产精品 欧美精品| 秋霞国产午夜精品免费视频 | 久久先锋影音av| 日韩一区二区三免费高清在线观看| 91精品又粗又猛又爽| 国产福利影院在线观看| 福利视频一区二区三区四区| 一级特黄录像免费播放全99| 久久亚裔精品欧美| 国产精品久久久久久久久久久久冷| 国产精品久久久久久久久粉嫩av| 性欧美xxxx交| 欧美激情影音先锋| 另类美女黄大片| 最近2019中文字幕大全第二页| 亚洲福利在线播放| 亚洲成年网站在线观看| 日韩欧美中文字幕一区| 欧美一级片在线| 56国语精品自产拍在线观看| 欧美日韩性生活| 欧美偷拍一区二区| 欧美老女人在线| 91精品国产综合久久久久久漫画| 91高清视频免费看| 色av一区二区| 91精品福利在线| 在线看国产一区| 欧洲另类一二三四区| 日本高清无吗v一区| 欧美综合在线视频| 欧洲在线/亚洲| 欧美日韩午夜影院| 欧美日韩国产首页| 91精品国产综合久久福利软件| 欧美在线啊v一区| 91麻豆精品国产91久久久资源速度| 欧美三级电影在线观看| 8v天堂国产在线一区二区| 8x福利精品第一导航| 国产一区欧美二区| 高清不卡一二三区| 99精品国产91久久久久久| 久久久国产一区二区三区四区小说| 久久久精品欧美丰满| 国产欧美日韩视频在线观看| 日韩一区欧美一区| 亚洲午夜在线电影| 欧美三级日韩三级| 日韩一区二区免费在线观看| 日韩精品在线观看视频| 色哟哟网站入口亚洲精品| 欧美日韩成人网| 国产成人一区二| 亚洲一区中文字幕| 久久综合久久久| 少妇熟女一区二区| 久草资源站在线观看| 亚洲精品永久视频| 美国黄色a级片| 综合五月激情网| 欧美自拍一区| 自产国语精品视频| 日韩精品免费视频人成| 盗摄精品av一区二区三区| 国产欧美日韩一区二区三区在线观看| 成人免费在线播放视频| 欧美日韩中文字幕日韩欧美| 欧美一级搡bbbb搡bbbb| 最近2019年日本中文免费字幕| 69久久夜色精品国产69乱青草 | 国产女人18毛片| 制服丝袜综合网| 99久久久久久久久久| 成人网av.com/| 精品一区二区三区的国产在线观看| 欧美午夜不卡| 国产伦精品一区二区三区免费迷| 久久精子c满五个校花| 精品美女久久久久久免费| 精品久久久三级丝袜| 久久天天躁狠狠躁老女人| 国产精品美女久久久久久免费| 欧美日韩在线精品一区二区三区| 免费看国产一级片| 四虎精品一区二区| 警花av一区二区三区| 欧美残忍xxxx极端| 久久精品999| 亚洲欧美一区二区不卡| 91精品国产综合久久婷婷香蕉 | 日韩视频免费在线观看| 国产日韩欧美黄色| 午夜精品福利一区二区| 自拍偷拍21p| av资源在线免费观看| 国产一区二区三区四区五区| 日韩国产成人精品| 国产精品成人网| 在线电影欧美成精品| 久久在线免费视频| 国产精品一区二区三区在线| 人人干视频在线| av网在线播放| 精品国精品国产自在久国产应用| 青娱乐精品视频| 国产精品久久久久久久第一福利| 欧美一级在线免费| 国产69精品久久久久9999| 欧美亚洲国产免费| 天堂av手机在线| 91久久偷偷做嫩草影院电| 国产日韩亚洲| 国产精品私人影院| 欧美大肚乱孕交hd孕妇| 奇米4444一区二区三区| 一区二区在线不卡| 在线黄色免费网站| 亚洲影院天堂中文av色| 精品写真视频在线观看| 精品久久久久久久久久久久| 中文字幕亚洲图片| 国产伦精品一区二区三区免费视频 | 色偷偷88欧美精品久久久| 久久精品久久久久电影| 久久国产精品 国产精品| 三级av免费观看| 成人动漫视频| 国产综合成人久久大片91| 精品欧美国产一区二区三区| 久久久国产91| 日韩三级电影网站| 老熟妇精品一区二区三区| 精品国产一区二区三区噜噜噜| 丁香亚洲综合激情啪啪综合| 欧美日韩国产首页| 欧洲亚洲妇女av| 欧美日韩精品在线一区二区 | 欧美在线免费| 中文字幕第一区第二区| 亚洲欧美日韩精品久久亚洲区 | 日韩一级片av| 日本成人在线一区| 狠狠躁夜夜躁人人爽天天天天97| 欧美久久精品午夜青青大伊人| 亚洲v欧美v另类v综合v日韩v| 久久精品老司机| 欧美激情综合色综合啪啪| 1区2区3区国产精品| 色吧影院999| 一区二区日本| 国产高清视频免费在线观看| 午夜亚洲福利在线老司机| 欧美日韩一区二区三区在线免费观看| 久久大大胆人体| 免费高清一区二区三区| 久久国产精品美女| 国产成人在线视频网站| 亚洲电影中文字幕| 久久久婷婷一区二区三区不卡| 国产艳俗歌舞表演hd| 激情亚洲网站| 色八戒一区二区三区| 国产精品欧美一区二区| 亚洲视频第二页| 国产精品7m凸凹视频分类| 亚洲乱码日产精品bd| 午夜精品一区二区三区在线视 | 亚洲国产精品一区二区www在线| 欧美激情xxxx| 91国视频在线| 国产日产精品_国产精品毛片| 久久精品一级爱片| 色偷偷av一区二区三区| 久久艹国产精品| 牛牛影视一区二区三区免费看| 久久久久久**毛片大全| 色婷婷久久av| 三上悠亚久久精品| 免费av一区| 亚洲欧美一区二区三区孕妇| 国产91精品久久久久久| 欧美精品久久久久久久久25p| 91精品国产91久久久久久密臀 | av中文字幕av| 国产另类在线| 中文字幕一区二区视频| 午夜精品一区二区三区视频免费看| 黄色高清无遮挡| 91久久夜色精品国产按摩| 亚洲成人在线观看视频| 国产精品r级在线| 中文字幕免费高清视频| 丝袜亚洲精品中文字幕一区| 日韩午夜在线观看| 五月天综合网| 成人影院中文字幕| 亚洲欧美综合另类在线卡通| 青青久久av北条麻妃黑人| 稀缺小u女呦精品呦| 日本亚洲欧美天堂免费| 亚洲激情视频网站| 欧美 亚洲 视频| 日本一区二区在线看| 欧美特黄级在线| 精品日韩欧美| 欧美国产亚洲精品| 亚洲人亚洲人成电影网站色| 国产精品激情av电影在线观看|