日本一区二区三区久久-日本一区二区三区久久精品-日本一区二区三区日本免费-日本一区二区三区在线观看视频-国产不卡免费视频-国产不卡视频

關于ZAKER 合作
硅星人 6分鐘前

直擊黃仁勛 GTC 演講:揭秘下一代芯片 Rubin,要把“ DeepSeek 紅利”通通吃掉,貨已賣到 2027 年

科技界泰勒 · 斯威夫特、Token 經濟學鼓吹者、摩爾定律的新希望和新晉 " 英偉達首席財務摧毀官 " 黃仁勛,剛剛完成了他年度最重要演講。

" 人們說我的 GTC 演講就像 AI 界的超級碗。" 黃仁勛說。" 電腦行業的所有人都在這里了。"

2025 年 3 月 18 日,來自全球各地的數萬人聚集在美國圣何塞,參加年度 GTC 大會。這場演講的確盛況空前,圣何塞不大的市區徹底擁堵癱瘓。10 點開始的演講,有不少人 6 點就開始排隊。

這位英偉達創始人兼 CEO 發表了長達兩小時的主題演講,扔出了一系列產品,包括 Blackwell Ultra 版芯片,下一代芯片 Rubin,要做 AI 開發操作系統的 Dynamo,首款電光集成交換機 CPO,更強大的個人超級電腦 DGX,以及一系列機器人相關的模型和平臺。

這些發布,性能依舊驚人。

總體來看,最核心的硬核發布包括:

1)Blackwell Ultra 超級芯片:專為 "AI 推理時代 " 打造,性能比上代提升 1.5 倍,在 DeepSeek R1 模型上每秒處理 1000 個 tokens,響應時間從 1.5 分鐘縮至 10 秒。黃仁勛直言 " 買得越多,賺得越多 "。與 Hopper 相比,為數據中心創造 50 倍收入潛力。

2)Vera Rubin 下一代芯片:計劃 2026 年底推出的下一代超級芯片,內存容量是 Grace 的 4.2 倍,帶寬提高 2.4 倍,88 個 CPU 核心性能翻倍,配備 288GB 高帶寬 HBM4 內存。黃仁勛還預告 2027 年推出 Vera Rubin Ultra 和 2028 年的 " 費曼 " 芯片。

3)Dynamo 推理框架:黃仁勛稱其為 "AI 工廠的操作系統 ",這一開源框架能協調數千 GPU 通信,通過 " 分離式服務 " 分別優化模型思考和生成階段,最大化資源利用率,與 Perplexity 達成合作開發。

4)DGX 個人 AI 超級電腦:推出 Mac Mini 大小的 DGX Spark ( 3000 美元 ) 和更強大的 DGX Station,前者提供 1000 萬億次 / 秒 AI 算力,128GB 內存;后者搭載 GB300 芯片,提供 20 拍計算性能和 784GB 內存。多家合作伙伴將推出兼容版本。

5)Isaac GROOT N1 機器人基礎模型:首個開放式人形機器人基礎模型,能輕松掌握抓取、移動等復雜任務。配套推出仿真框架和藍圖工具,以及與谷歌 DeepMind、迪士尼合作開發的 Newton 物理引擎。黃仁勛宣稱 " 通用型機器人時代已經到來 "。

Token 經濟學 +AI 工廠:DeepSeek 帶來的推理紅利,英偉達都會吃掉

和過往多次激動人心的演講不同,今年 GTC 主題演講可能是黃仁勛多年來第一次需要 " 回答 " 問題,而非完全由他設定議題的一次——

在 DeepSeek R1 引發的沖擊后,英偉達近年來少有的被市場質疑:是否隨著算力進入推理時代后,它代表的規模化不再成立。所有人期待黃仁勛給出回答,而且就在主旨演講前,英偉達股價開始下行,最終也以下跌收盤。

這也是貫穿當天演講的核心。

黃仁勛的解法是:

他比所有人都更加激進地強調推理的重要性,并且通過通俗易懂地解釋以及各種英偉達真實數據和產品路線圖,來證明一件事——推理時代對計算的要求反而更加高,而已經領先的英偉達會繼續領先下去。

" 兩年前 ChatGPT 開始,我們經歷了各種技術的創新和進步,終于到了推理的時代。AI 會思考和推理,能解決更多的問題。Scaling Law 從一個變成了三個。" 黃仁勛說。

言下之意,AI 向推理階段的轉移不是 scaling law 的結束,反而是因為 Scaling law 比人們預期的發展更快,進入了這個新的階段。

" 關于擴展定律 ( scaling law ) 和算力,去年全世界幾乎都預測錯了。AI 的擴展定律比我們想象的更具影響力,極大加速了計算需求的增長。實際上,如今的算力需求比我們去年預估的高出了 100 倍。"

黃仁勛解釋道,過去 AI 主要依賴經驗和預訓練數據進行學習,并能一次性完成推理演示。而現在的 AI 系統采用 " 思維鏈 " ( Chain of Thought ) 技術進行逐步推理。不再只是簡單地預測下一個 token,而是生成完整的推理步驟,每個步驟的輸出都會作為下一步的輸入,使得處理單個查詢所需的 tokens 數量增加了約 10 倍。

同時,為了保證用戶體驗和交互性,避免用戶因 AI" 思考 " 時間過長而失去耐心,系統需要以 10 倍的速度處理這些額外增加的 tokens。因此,10 倍的 tokens 量乘以 10 倍的處理速度要求,導致總計算需求增加了約 100 倍。此外,訓練這些復雜推理能力需要通過強化學習處理數萬億級的 tokens,進一步推高了算力需求。

" 我認為計算有一個最終的難題,就是推理(inference)。之前所有人都以為它很簡單,但其實并不是。" 黃仁勛說。

他直接把推理上升到了最終極挑戰的地位,而這個挑戰需要復雜的系統化的能力來解決,這只有英偉達可以。

黃仁勛還用了一個 demo 來對比傳統 LLM 與推理增強型模型的不同,其中推理模型他選擇了 DeepSeek。

這個例子里,兩個模型要為婚宴安排座位。這直觀展現了兩者在復雜約束條件下(包括父母與姻親不能相鄰、攝影效果最佳化、新娘的特殊要求以及牧師的加入)的不同解法。

Llama 3.3 70B 采用 " 一次性 " 方式,快速生成了 439 個 tokens 的回答,雖然響應迅速但結果錯誤,等于產生了 439 個 " 浪費的 tokens"。而 DeepSeek R1 則啟動了深入的思考過程,生成 8,559 個 tokens,它嘗試了多種可能的情境,并反復檢驗自己的答案,最終得出了正確解決方案。

從圖表中可以清楚看到,相比傳統 LLM,推理模型的 tokens 生成量增加了 20 倍,計算資源需求更是高出 150 倍。這一演示直觀展示了現代 AI 為何需要更強算力——推理過程依賴大量 token 的處理與生成,而每生成一個 token 都需要加載整個萬億級參數的模型。" 這就是為什么高速互連技術(如 NVLink)變得如此重要——它能支持這種大規模數據移動,使 AI ‘思考’成為可能。"

除了技術上的展示,他更想要的是對客戶和市場展示信心,對此,他再次化身最強銷售,他給出的答案也可以簡單總結為一個公式:

Token 經濟學 +AI 工廠 = 推理時代依然利好英偉達

黃仁勛從開場的視頻到最后,都在強調一件事:今天從自動駕駛,到生成式 AI,一切的根源都是 token,而產生這些 token 的根源是英偉達。

這是黃仁勛一直在講述的 token 經濟學,當 AI 變成一切生產力提升的根源,token 就成了最根本的單位。如何讓每個生成的 token 都劃算,就是今天所有企業要關心的事情。

今天,電腦的地位徹底發生改變,以往它是軟件提取信息的地方,現在它是產生 Token 的地方,它是 AI 工廠。而作為一個工廠,就要計算投入產出比。黃仁勛把 AI 輸出的 token 認為是成本,而每個用戶能夠獲得的 token 則是收益。

縱軸是作為 AI 工廠的輸出,計量單位是每兆瓦生成的 TPS(每秒 touken 數),橫軸是用戶得到的 TPS。一個曲線能在橫軸和縱軸都擴張,你的收入就越多。

而橫軸更高的同時縱軸越低的話,你就能越賺錢。

而英偉達的產品,在不停推動著這個賺錢曲線的實現。

黃仁勛在圖里直接對比了 Blackwell 與 Hopper:一個 1 兆瓦的 Hopper 數據中心每秒可產生約 250 萬 tokens,而采用相同功耗的 Blackwell 系統(結合 NVLink 72、FP4 精度和 Dynamo 系統),性能可提升 25 倍。特別是在推理模型上,Blackwell 的表現更為出色,性能比 Hopper 高出 40 倍。

" 當 Blackwell 開始大量出貨時,你基本上送給別人 Hopper 都不會要。" 他笑著說:" 別怕,Hopper 在某些情況下還是可以的……這是我能對 Hopper 說的最好話了。"

這么說顯然對 Hooper 這個還在銷售的產品線是巨大打擊,他開玩笑說,自己變成了 " 首席財務摧毀官 "。

在比較 100 兆瓦 AI 工廠時,黃仁勛指出,基于 Hopper 的工廠需要 45,000 個芯片和 1,400 個機架,每秒產生 3 億 tokens,而 Blackwell 則需要更少的硬件實現更高的性能。雖然 Blackwell 單價可能更高,但其計算效率的提升使 AI 工廠在長期運營中節省更多成本。

" 基本上你買得越多,省得越多!不,甚至比這更好——買得越多,賺得越多!" 這句經典的黃仁勛數學,再次用在了推理時代。

這一切都利好英偉達,AI 的投資會繼續,即將達到萬億美元的拐點。

" 我之前說過,預計到 2028 年,數據中心的建設將達到萬億美元規模,而我非常確信我們很快就會達到這個目標。"

市場的高預期下,把貨 " 賣 " 到了 2027 年

具體來看此次黃仁勛帶來的新產品的最新細節。

NVIDIA Blackwell Ultra:

它是 NVIDIA Blackwell 新一代版本—— NVIDIA Blackwell Ultra。Blackwell Ultra 專為 "AI 推理時代 " 設計,這類技術隨著 DeepSeek R1 的推出而進入主流。

Blackwell Ultra 基于去年推出的 Blackwell 架構打造,包括兩大核心產品:GB300 NVL72 機架式系統和 HGX B300 NVL16 系統。GB300 NVL72 的 AI 性能比上一代提升了 1.5 倍,而與使用 Hopper 架構的數據中心相比,收入潛力提高了 50 倍。

黃仁勛表示:"AI 已經實現了巨大飛躍:能進行推理和自主行動的 AI 需要成倍增長的計算性能。我們專為這一時刻設計了 Blackwell Ultra,這是一個多功能平臺,可以輕松高效地完成預訓練、后訓練和 AI 推理。"

GB300 NVL72 在一個機架式設計中連接了 72 個 Blackwell Ultra GPU 和 36 個基于 Arm 架構的 Grace CPU。有了這個系統,AI 模型可以利用更強大的計算能力探索不同的問題解決方案,將復雜請求分解為多個步驟,從而提供質量更高的回答。

根據英偉達的說法,GB300 NVL72 系統在運行 DeepSeek 的 R1 人工智能模型時,每秒能處理 1000 個 tokens,而使用老款 Hopper 芯片時只能每秒處理 100 個。這一升級意味著實際使用中,GB300 NVL72 只需約 10 秒就能回答用戶問題,而 Hopper 則需要 1.5 分鐘才能完成同樣的任務。簡單來說,新一代 Blackwell Ultra 系統比舊款 Hopper 系統快了近 9 倍,是一次質的飛躍。

這款產品也將在英偉達的 DGX Cloud 平臺上提供,這是一個端到端的全托管 AI 平臺,通過軟件、服務和專業知識優化性能。而使用 GB300 NVL72 設計的 DGX SuperPOD 系統則為客戶提供了一站式的 "AI 工廠 "。

HGX B300 NVL16 系統在處理大型語言模型時速度比上一代快 11 倍,計算能力提高 7 倍,內存容量增大 4 倍,足以應對最復雜的 AI 任務,如高級推理。

Blackwell 芯片目前已全面投產,據稱,這是英偉達歷史上最快的產能提升。在最一個季度中,Blackwell 為英偉達貢獻了 110 億美元收入,占公司總收入 393 億美元的近三分之一。

下一代 AI" 超級芯片 "Vera Rubin:

截至今年 1 月的 2025 財年,英偉達銷售額實現了驚人的翻倍增長,達到 1246.2 億美元。這主要歸功于兩方面:Hopper 芯片的持續熱銷和 Blackwell 芯片的早期訂單。

要保持這樣的增長勢頭,英偉達必須推出讓客戶 " 錢花得值 " 的新一代芯片。這意味著新芯片需要在速度更快、耗電更少、總擁有成本更低等方面超越上一代產品。

黃仁勛首次展示了下一代 Vera Rubin AI 超級芯片,這款產品以以暗物質研究先驅天文學家 Vera Rubin 命名,預計將于 2026 年底推出。這款芯片延續了前代產品的設計理念,采用 CPU ( Vera ) 和 GPU ( Rubin ) 組合架構。

主要升級包括:內存容量是 Grace 的 4.2 倍,內存帶寬提高 2.4 倍,88 個 CPU 核心提供比 Grace Blackwell 兩倍的整體性能,以及 Rubin GPU 中的 288GB 高帶寬內存 4 ( HBM4 ) 。

" 基本上所有東西都是全新的,除了機箱," 黃仁勛說道。

黃仁勛還預告了 2027 年的后續產品:Vera Rubin Ultra,這款產品將采用 Rubin Ultra GPU,將四個 GPU 合并為一個單元。

市場的預期之高,英偉達需要把 2027 年的貨提前透露給大家看。

黃仁勛表示,AI 正處于 " 拐點 ",預測到 2028 年數據中心收入將達到 1 萬億美元。英偉達代號為 " 費曼 " ( Feynman ) 的下一代 AI 芯片將于 2028 年亮相。

Nvidia Dynamo:AI 工廠的操作系統

黃仁勛發布了開源推理框架 Dynamo,用于加速和擴展 AI 推理模型。黃仁勛稱之為 "AI 工廠的操作系統 ",并解釋說這個名字來源于工業革命中的第一個關鍵發明—發電機(Dynamo)。

Dynamo 專為部署推理型模型的 "AI 工廠 " 設計,幫助最大化產出效益。它能協調和加速成千上萬 GPU 之間的通信,并采用 " 分離式服務 " 技術,在不同 GPU 上分開處理大語言模型的 " 思考階段 " 和 " 生成階段 "。這樣每個階段都能針對特定需求進行獨立優化,確保 GPU 資源得到最充分利用。

黃仁勛透露,英偉達正在與 " 最喜歡的合作伙伴 " 之一 Perplexity 合作開發 Dynamo。" 非常喜歡他們,不僅因為他們做的革命性工作,還因為 Aravind 是個很棒的人 "

DGX Spark、DGX Station:家用 "AI 超級電腦 "

黃仁勛還帶來了面向個人用戶的 "AI 超級電腦 " —— DGX Spark 和 DGX Station。兩款設備都采用了 Grace Blackwell 平臺,為用戶提供本地運行大型 AI 模型的能力,而無需持續連接數據中心。其中較小的 Spark 版本現已開放預訂。

DGX Spark 是英偉達今年在 CES 展會上以 "Digits" 為名發布的那款 Mac Mini 大小的 " 世界最小 AI 超級電腦 ",售價 3000 美元。而更大的 DGX Station 則面向 "AI 開發者、研究人員、數據科學家和學生,用于在桌面上原型設計、微調和運行大型模型 ",目前尚未公布價格。

Spark 搭載了英偉達的 GB10 Blackwell 超級芯片,配備第五代 Tensor 核心和 FP4 支持。提供 " 高達 1000 萬億次每秒 ( TOPS ) 的 AI 計算能力,足以微調和運行最新的 AI 推理模型,包括英偉達 Cosmos Reason 世界基礎模型和 NVIDIA GROOT N1 機器人基礎模型 "。Spark 配備 128GB 統一內存和最高 4TB 的 NVMe SSD 存儲。

體積更大的 DGX Station 容納了英偉達剛剛發布的更強大的 GB300 Blackwell Ultra 桌面超級芯片," 提供 20 拍(petaflops)的 AI 性能和 784GB 統一系統內存 "。

英偉達還宣布 OEM 合作伙伴將推出自己版本的 DGX 設備:華碩、戴爾、惠普、Boxx、Lambda 和超微將打造自己的 DGX Station,將于今年晚些時候上市。華碩、戴爾、惠普和聯想將推出 DGX Spark 版本

英偉達并非唯一打造具有大統一內存、可用于本地大語言模型的 GPU 廠商。AMD 也推出了 Ryzen AI Max+ "Strix Halo" 芯片。這些設備的出現,意味著強大的 AI 計算能力正從云端走向家庭和個人,為普通用戶提供了本地 AI 運算能力。

黃仁勛還宣布了對其網絡組件的更新,以便將數百或數千個 GPU 連接在一起,使它們作為一個整體協同工作同時,英偉達在網絡技術方面也取得了進展,推出了基于光子學的 Spectrum-X 和 Quantum-X 交換機,提升了數據中心 GPU 互聯的效率和可擴展性。

小機器人 Newton:

此外還有英偉達與谷歌 DeepMind 和迪士尼研究院合作,專為開發機器人而設計 Newton 開源物理引擎。

在介紹 NVIDIA 與 DeepMind、Disney 和 NVIDIA 聯合研發的機器人 Newton 時,演示視頻忽然中斷。熟悉 GTC 節奏的人都知道,那味兒又來了。

" 怎么回事,我們只剩兩分鐘了,我需要跟真人說話。" 黃仁勛故作焦急地來回踱步," 什么,正在重新調整架構,那是什么意思 ...." 話音剛落,Newton 機器人 Blue 就從舞臺一側緩緩升起。隨后一邊發出電影里那樣古靈精怪的機械聲,一邊搖頭晃腦地走到了黃仁勛身邊,全場爆發出掌聲與笑聲。

" 告訴我這是不是很驚人!嘿 Blue,你喜歡你的新物理引擎嗎?觸覺反饋、剛體和軟體模擬,實時物理計算。我敢打賭你喜歡!" 黃仁勛特別指出,現場觀眾看到的一切都是實時模擬,這將是未來機器人訓練的關鍵方式,并透露 Blue 內部搭載了兩臺 NVIDIA 計算機。

而 Blue 也與黃仁勛互動,跟著做出點頭、搖擺的回應,并聽從他的指揮站到旁邊。這也是整場發布和演講中,難得的輕松時刻。

今天是個瘋狂的時代,英偉達可以把芯片的架構更新提高到一年一次,但即便如此,人們的胃口似乎依然沒有得到滿足。

黃仁勛似乎也對此有些不爽,在演講里,他略微吐槽到:

" 我們發布了新東西,但人們馬上會說好的,接下來呢?這對任何公司都不正常。" 他說。

" 畢竟這不像買個筆記本電腦,我們需要有計劃,土地,能源,我們的人的部署,這都需要提前幾年做計劃。所以我們可能不能讓你很吃驚,但一切都在按照計劃進行。"

相關標簽
主站蜘蛛池模板: 国产精品成人不卡在线观看 | 亚洲天堂免费看 | 国内精品免费一区二区三区 | 在线久草| 久久精品国产亚洲欧美 | 欧美一级免费 | 国产日韩精品欧美一区喷 | 手机在线成人精品视频网 | 久久久久久国产精品视频 | 欧美亚洲日本韩国一级毛片 | 国产在线播放免费 | 亚洲天堂精品在线观看 | 成年人免费在线视频观看 | 成人亚洲国产 | 男人的天堂中文字幕 | 一级做a爰片久久毛片免费看 | 国产精品二区页在线播放 | 黄色三级理论片 | www.午夜精品| 日韩在线一区二区三区视频 | 久久国产一片免费观看 | 欧美激情一区二区三区高清视频 | 亚洲国产精品自产拍在线播放 | 日韩在线高清 | 欧洲国产伦久久久久久久 | a久久99精品久久久久久不 | chinese性老妇中国 | 欧美日韩精品国产一区二区 | 国产一级做a爰片在线看 | 一级毛片在线 | 欧美日韩亚洲高清不卡一区二区三区 | 欧美黄色免费 | 午夜大片免费男女爽爽影院久久 | 国产精品视频免费播放 | 在线视频第一页 | 女人一级一级毛片 | 日韩一级片免费看 | 欧美午夜成年片在线观看 | 亚洲一区二区三区久久 | 一级色黄 | 久久在线一区 |