如果2023 年的科技圈有關鍵詞的話,那一定是「AI 人工智能」。如果這個關鍵詞有主角,那一定是NVIDIA 英偉達。
無可否認的一點是,英偉達憑藉硬件領域的多年積累,在現在的AI 領域擁有著絕對的霸權地位。
但就在昨天,AMD 宣布即將推出最先進的數據中心GPU MI300X,預計將在第四季度上市。雖然沒有明確給英偉達下戰書,可發布會上的功能宣傳均直指AI 大模型訓練,向AI 霸主挑戰的意味十分明顯。
但投資人對AMD 的新品可以說是興趣缺缺,甚至發布會後,AMD 的股價收跌3.6%。筆者綜合分析後,認為原因有如下幾點。
AMD 的AI 野心有些遲鈍
AMD 這顆MI300X 基於台積電工藝打造,CDNA3 架構,具備1530 億個晶體管,HBM3 內存達到了192GB,內存帶寬達到了5.2TB/s。

尤其是在內存方面,由於現在大模型AI 訓練對於內存需求的極大提升,現有的服務器在計算時比起算力瓶頸,往往會先面臨「內存牆」的問題,因此英偉達在H100 等芯片中提供的都是多達幾十GB 的HBM3 內存。
AMD 早在7nm 的工藝節點上就曾在消費級產品中試水了HBM 顯存,只是當時大家都沒意識到大容量顯存和帶寬的應用價值。也在幾年前就訂立了AI 發展的策略和計算處理器的能效目標。奈何沒有吃上風口的紅利,可以說是起了個大早,趕了個晚集。
所以AMD 這次乾脆在單顆MI300X 就提供了兩倍於英偉達H100 80G 的顯存容量和帶寬,可以加載更大參數的模型。根據AMD CEO 蘇姿豐的介紹,MI300X 理論上可以支持400 億個參數的AI 模型。

基於此,AMD 還宣布了新的Instinct 平台,採用OCP 開放計算標準,由八塊Instinct MI300X 加速卡組合成,可提供高達1.5TB HBM3 內存。對於開發者來說,針對更大的模型,只需要更少的GPU 數量就可以完成運算,可以節省相當大的成本。
奈何,AMD 東西雖好,可就是沒有人買賬。
英偉達的AI 帝國不是一天建成的
以目前的情況來說,英偉達佔據著AI 計算市場80% 至95% 的市場份額,這個比例非常誇張,一定程度上形成了AI 算力壟斷。
在「落後就要挨打」的緊迫感驅使之下,有意開發AI 模型的企業就不得不在現階段掏3 萬美元一張的價錢選擇英偉達的GPU,甚至一卡難求。
而對於微軟、谷歌這樣具備技術實力和資金支持的大企業來說,他們除了基於現有的算力硬件開發大模型外,已經開始著手自研AI 芯片這條道路了。
因此,目前擺在AI 企業面前的只有兩條路:大廠搞自研,小廠用NV。AMD 想從中橫插一腳相當難。

加上英偉達打磨了多年的CUDA 軟件平台的強捆綁,廠商在沒有經過驗證的情況下貿然切換到AMD 平台顯然不明智。這也導致在發布會期間,僅有Meta 一家表示將選用AMD 的新Bergamo 系列服務器芯片,甚至都不是GPU 平台。
福布斯方面認為:不要指望AMD 的新款產品能搶走英偉達多少市場份額
AMD 選擇了差異化的路
AMD 高管Forrest Norrod 曾說「AMD 不可能複制英偉達的成功之道,但AMD 可以走自己的路線」。即便AMD 發布了新的AI 計算芯片,也不意味著就得和英偉達正面硬碰硬。
首先一點就是價格,AMD 並沒有公佈有關新芯片的價格信息,考慮到英偉達主力產品的高價,相對更低的定價或者更好的性價比可能是AMD 收穫市場份額的利器。再加上新競爭對手的入局,本身也會帶動行業競爭向更低成本的方向傾斜。

再一個就是差異化道路了。AMD 近年在CPU 領域進展迅猛,年初發布的MI300(現更名為MI300A)就是一款CPU 與GPU 結合的一體化計算系統。此前完成收購的全球最大FPGA 廠商賽靈思也有望為AMD 的AI 生態添磚加瓦。
在差距已經難以彌補的情況下,AMD 的未來選擇是理智的。
寫在最後
AMDCEO 蘇姿豐在發布會上表示,未來到2027 年,數據中心人工智能加速器的潛在市場總額將從現在的300 億美元增長至1500 億美元以上。
同時她也認為「我們仍處於人工智能生命週期的起步階段。」雖然未來還有很大的成長空間,但現在可能確實無人能撼動英偉達的AI 霸主地位了。