文 | 智能相對論
作者 | 陳泊丞
數(shù)十億建成的萬卡 GPU 集群,實際利用率不足 40%。
這不是某個智算中心的個例。在過去兩年里,中國涌現(xiàn)了大大小小幾十個智算中心項目,GPU 買了一批又一批,但真正跑滿的時候不多。問題不在芯片本身——而在數(shù)據(jù)供給跟不上。
GPU 在空轉(zhuǎn),等存儲喂數(shù)據(jù)。這件事說起來簡單,但背后卻是一筆巨大的“沉沒成本”:花了幾十億建算力,最后發(fā)現(xiàn)瓶頸卡在存儲上。
事實上,整個行業(yè)都在討論“算力瓶頸”,但真正拖慢中國 AI 落地節(jié)奏的,很可能是存儲。
有意思的是,正是在這屆 GTC 上,英偉達(dá)第一次把“存儲”放到了與“算力”并列的位置。它在超節(jié)點中內(nèi)置獨立的存儲柜,定義新的 AI 存儲參考架構(gòu)(STX/CMX),并聯(lián)合 12 家存儲廠商發(fā)布解決方案——這不是英偉達(dá)的常規(guī)操作。
一家靠 GPU 起家的公司,為什么突然對存儲這么上心?這背后,是 AI 產(chǎn)業(yè)底層邏輯的一次根本性轉(zhuǎn)變。
英偉達(dá)在 GTC 上給全行業(yè)補了一堂存儲課
要理解英偉達(dá)在 GTC 上的動作,先得回答一個問題:為什么它要在這個節(jié)點做這件事?
答案的背后是一個正在發(fā)生的大趨勢:從“訓(xùn)練為王”到“推理為王”的階段性轉(zhuǎn)變。
過去幾年,AI 行業(yè)的主要矛盾是“模型不夠大、訓(xùn)練不夠久”。那時候存儲是配角,GPU 喂飽了數(shù)據(jù)就行。但是,當(dāng)大模型開始大規(guī)模落地,推理變成了主戰(zhàn)場,整個故事的底層邏輯就變了。
推理需要什么?實時、低延遲、海量隨機讀寫的數(shù)據(jù)訪問。這跟訓(xùn)練階段完全不同——訓(xùn)練可以批處理,而推理必須秒級響應(yīng);訓(xùn)練可以提前準(zhǔn)備好數(shù)據(jù),而推理得隨時待命。
黃仁勛在 CES 和 GTC 上都說過一句話:"KV Cache 的激增足以催生一個全新的存儲市場”。這話聽著像營銷,但仔細(xì)想想,GPU 廠商第一次公開承認(rèn)“計算不再是最稀缺的資源,數(shù)據(jù)供給才是”,這本身就是信號。
基于這個認(rèn)知,英偉達(dá)在 GTC 上直接打出了三張關(guān)鍵牌,分別為 CMX、AIDP 和 SCADA,對應(yīng)回答的是不同層次的問題。
首先,CMX 也就是 G3.5 層,回答“推理太貴”的問題。當(dāng) KV Cache 從顯存溢出到存儲池,推理成本的核心矛盾從“算力貴”變成“數(shù)據(jù)供給貴”。英偉達(dá)用 CMX 架構(gòu)把存儲性能與 GPU 計算進(jìn)行了深度綁定,這套玩法本質(zhì)上是“極致協(xié)同設(shè)計”——存儲不再是外掛硬盤,而是 GPU 系統(tǒng)的延伸。
其次,AIDP 回答“數(shù)據(jù)不敢動”的問題。深入行業(yè)真實需求來看,企業(yè)不是沒有數(shù)據(jù),而是數(shù)據(jù)不敢搬、不能搬。譬如,金融客戶的數(shù)據(jù)出不了機房,政務(wù)系統(tǒng)的數(shù)據(jù)有合規(guī)要求,醫(yī)療數(shù)據(jù)碰都不能碰。因此,英偉達(dá)提出"Data-in-Place"(數(shù)據(jù)就地處理),本質(zhì)是讓 AI 能力下沉到存儲里,減少數(shù)據(jù)的搬運。
最后,SCADA 回答"GPU 吃不飽”的問題。在推薦系統(tǒng)、圖神經(jīng)網(wǎng)絡(luò)這些場景,GPU 需要從海量數(shù)據(jù)中隨機讀取極小粒度的數(shù)據(jù)。然而,傳統(tǒng) I/O 路徑太重,GPU 經(jīng)常“餓著肚子等數(shù)據(jù)”。為此,SCADA 允許 GPU 繞過了 CPU 直接訪問存儲,帶寬接近 HBM,支持 EB 級數(shù)據(jù)集——很顯然,這是為未來的實時決策場景鋪路。
三張牌,三層問題,從眼前到當(dāng)下再到未來,構(gòu)成了英偉達(dá)對 AI 存儲的完整判斷。也正是在這個判斷下,英偉達(dá)喊出了"2026 is the year of AI storage"。
中國市場的“冰與火”:最旺盛的需求與最普遍的誤判
把視線拉回中國。
事實上,中國是全球 AI 存儲需求最旺盛的市場——這話不算夸張。智能客服、RAG 知識中臺、代碼生成、自動駕駛仿真、智能制造......這些場景的落地速度實實在在走在了全球前列。
在政策層面,“人工智能+"全面鋪開,數(shù)據(jù)要素×三年行動計劃啟動,“東數(shù)西算”2.0 推動算電協(xié)同——從合規(guī)、基建到成本,政策紅利也在多個維度拉動了高質(zhì)量存儲建設(shè)。
客觀而言,需求是真的。但這枚硬幣還有另一面。
多數(shù)智算中心的存儲投入占比不足 10%,剩下的錢幾乎全砸進(jìn)了 GPU 服務(wù)器。結(jié)果呢?GPU 集群利用率普遍低于 40%,“算力過剩與存儲瓶頸并存”成了一種荒誕的現(xiàn)實。花了幾十億買算力,最后發(fā)現(xiàn)卡脖子的不是芯片,是數(shù)據(jù)供給。
這不是技術(shù)問題,是認(rèn)知問題。整個行業(yè)的注意力都被“算力”兩個字吸走了,沒人認(rèn)真想過,卡能跑滿嗎?
更棘手的是,冰層之下還有結(jié)構(gòu)性掣肘,不是喊兩句口號就能解決的。
比如標(biāo)準(zhǔn)缺失。面向昇騰、海光這類國產(chǎn)算力的存儲架構(gòu)和評測標(biāo)準(zhǔn)幾乎空白,廠商各自為戰(zhàn),集成成本高企。再比如生態(tài)碎片化。國內(nèi)存儲產(chǎn)業(yè)硬件能力強,但核心軟件能力比如 KV Cache 調(diào)度算法、數(shù)據(jù)就地處理引擎——與英偉達(dá)的“極致協(xié)同設(shè)計”相比,還有肉眼可見的差距。
中國有最大的市場需求,但缺乏把需求轉(zhuǎn)化為產(chǎn)品的生態(tài)協(xié)同能力。這個矛盾不解決,需求旺盛就只是數(shù)字好看,落不了地。
最核心的問題,可能要靠存儲廠商來回答
那么,這個局怎么破?
回歸一個樸素的問題:誰最懂?dāng)?shù)據(jù)?
當(dāng)整個行業(yè)都在討論“用更多 GPU 訓(xùn)練更大模型”時,做存儲的人在琢磨另一件事:數(shù)據(jù)從哪來、如何治理、怎么讓 AI 用得上——這是兩種完全不同的視角。算力廠商看的是“模型需要多少 Flops",存儲廠商看的是“模型需要多少數(shù)據(jù)、怎么高效喂進(jìn)去”。
這個視角差異,在 AI 大規(guī)模落地的階段,變得前所未有的重要。
英偉為什么要定義 AIDP 參考架構(gòu)并交給存儲廠商推出解決方案在企業(yè)落地?因為越來越多的廠商意識到,數(shù)據(jù)供給的入口正在成為 AI 基礎(chǔ)設(shè)施的核心卡口。存儲不再是配角,它可以是主角,是 AI 系統(tǒng)的“數(shù)據(jù)中樞”。
正是基于這個判斷,華為打破了傳統(tǒng)存儲的煙囪式結(jié)構(gòu),用一套底座即 AIDP(AI Data Platform)架構(gòu)覆蓋了三大場景。
這套架構(gòu)的核心邏輯其實很樸素:客戶不需要為 KV Cache、AIDP、SCADA 分別建三套系統(tǒng),這不是成本問題,是現(xiàn)實不允許。舉個例子,一個智算中心可能有昇騰和海光的卡要兼顧,一個金融機構(gòu)的數(shù)據(jù)不能出域但又要支撐實時推理——這些矛盾不是買更多 GPU 能解決的,需要的是一套能統(tǒng)一調(diào)度、分層處理、漸進(jìn)演進(jìn)的存儲架構(gòu)。
圍繞這個邏輯,華為在每一層都埋了具體的能力。
G3.5 層,UCM(統(tǒng)一緩存管理器)實現(xiàn)顯存與存儲間的秒級熱遷移,推理并發(fā)能力提升數(shù)倍——這解決的是“推理貴”的問題,讓 PB 級 KV Cache 不再必須駐留在昂貴的 HBM 顯存里。
企業(yè) AI 層,VSS 向量檢索和 RAG 能力直接內(nèi)嵌到存儲系統(tǒng),數(shù)據(jù)不用搬出去就能被調(diào)用——這解決的是“數(shù)據(jù)不敢動”的問題,合規(guī)要求不是束縛,而是架構(gòu)設(shè)計的起點。
SCADA 層,預(yù)留 GPU Initiate IO 接口,支持未來 GPU 直接訪問超大規(guī)模數(shù)據(jù)集——這一步是面向未來的,目前能落地的場景有限,但架構(gòu)要提前站位。
三層能力對應(yīng)三層價值:眼前的降本、當(dāng)下的合規(guī)、未來的擴展。這不是功能堆砌,是有優(yōu)先級判斷的演進(jìn)路線。
落地層面,基于 OceanStor A800 高性能 AI 存儲和 OceanStor Dorado 全閃存存儲,華為提供了一體化和獨立式兩種交付模式——前者面向新建場景,后者面向存量系統(tǒng)的漸進(jìn)式改造。不同客戶的現(xiàn)實處境不同,解法也不同,這本身就是務(wù)實的體現(xiàn)。
說到底,中國 AI 存儲市場需要的不是“英偉達(dá)的中國版”,而是一條適配本土需求的務(wù)實路徑。華為在做這件事,不代表它是唯一答案,但這條路線的核心判斷——統(tǒng)一底座、平滑演進(jìn)、數(shù)據(jù)安全內(nèi)生,確實回應(yīng)了當(dāng)前市場最真實的痛點。
結(jié)語
GTC 2026 或許只是起點。
英偉達(dá)在補課,存儲廠商在解題,中國市場的需求在倒逼整個行業(yè)重新審視這個問題。當(dāng)“算力”不再是稀缺資源的代名詞,數(shù)據(jù)供給的效率正在成為下一階段 AI 競爭的關(guān)鍵變量。
當(dāng)然,“重算力、輕存力”的慣性思維不會自動消失。它需要有人指出這個問題,需要有人用實際案例證明:存儲投入的 ROI,可能比追加 GPU 更能提升整個系統(tǒng)的效率。
這不是華為一家公司的事。這是整個行業(yè)都需要回答的問題。
此內(nèi)容為【智能相對論】原創(chuàng),
僅代表個人觀點,未經(jīng)授權(quán),任何人不得以任何方式使用,包括轉(zhuǎn)載、摘編、復(fù)制或建立鏡像。
•AI 產(chǎn)業(yè)新媒體;
•澎湃新聞科技榜單月度 top5;
•文章長期“霸占”鈦媒體熱門文章排行榜 TOP10;
•著有《人工智能 十萬個為什么》
•【重點關(guān)注領(lǐng)域】智能家電(含白電、黑電、智能手機、無人機等 AIoT 設(shè)備)、智能駕駛、AI+、、、AI+、AI+、AR/VR、、開發(fā)者以及背后的芯片、算法等。
行業(yè)資訊、企業(yè)動態(tài)、峰會活動可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...