CPU與GPU雙產(chǎn)業(yè)巨頭、英偉達競爭對手之一AMD(AMD.US)于美東時間周二展示了其即將推出的人工智能處理器系列產(chǎn)品,旨在幫助數(shù)據(jù)中心處理大量人工智能數(shù)據(jù)流量,并挑戰(zhàn)英偉達(NVDA.US)在這個新興市場的強勢主導(dǎo)地位。
AMD周二在舊金山的新品發(fā)布會中表示,該公司推出的Instinct MI300系列將包括一個加速器,可以加快ChatGPT和其他聊天機器人等生成式人工智能產(chǎn)品背后的數(shù)據(jù)處理速度。這款名為MI300X的產(chǎn)品是最早于今年1月在國際消費電子展(CES)上公布的產(chǎn)品系列陣容的其中一部分內(nèi)容。
AMD全新推出的GPU專用MI300,即MI300X,是針對大語言模型(LLM)的優(yōu)化版,擁有192GB的HBM3內(nèi)存、5.2TB/秒的帶寬和 896GB/秒的Infinity Fabric 帶寬。AMD將1530億個晶體管集成在共12個5納米的小芯片中。AMD表示,MI300X提供的HBM密度最高是英偉達AI芯片H100的2.4倍,其HBM帶寬最高是H100的1.6倍。這意味著,AMD的芯片可以運行比英偉達芯片更大的模型。AMD未披露具體的價格。
(相關(guān)資料圖)
蘇姿豐介紹,MI300X可以支持400億個參數(shù)的Hugging Face AI 模型運行,并演示了讓這個LLM寫一首關(guān)于舊金山的詩。這是全球首次在單個GPU上運行這么大的模型,單個MI300X可以運行一個參數(shù)多達800億的模型。AMD首席執(zhí)行官蘇姿豐表示,隨著模型規(guī)模越來越大,就需要多個GPU來運行最新的大型語言模型,而隨著AMD芯片內(nèi)存的增加,開發(fā)人員將不再需要那么多數(shù)量的GPU,意味著可以節(jié)約成本。
與芯片行業(yè)的許多公司一樣,AMD正在競相滿足其客戶對人工智能計算日益增長的需求。依賴于大語言模型(LLM)的流行服務(wù)——即處理大量數(shù)據(jù)以回答使用者查詢的問題和生成圖像的算法,正在將數(shù)據(jù)中心算力推向極限。
到目前為止,英偉達在提供處理這些工作負載所需的硬件技術(shù)方面具有非常大的優(yōu)勢,尤其是英偉達推出的A100/H100 GPU芯片極度適合AI訓(xùn)練和運行機器學(xué)習(xí)軟件,這也是支持Open AI旗下火爆全球的ChatGPT的最關(guān)鍵底層硬件。
AMD首席執(zhí)行官蘇姿豐(Lisa Su)在發(fā)布會上表示:“我們?nèi)蕴幱谌斯ぶ悄苌芷诘姆浅7浅T缙诘碾A段?!薄昂翢o疑問,在可預(yù)見的未來,人工智能將成為硅消費的關(guān)鍵驅(qū)動力?!?/p>
蘇姿豐在發(fā)布會中預(yù)測,到2027年,數(shù)據(jù)中心人工智能加速器(AI accelerators )的潛在市場總額預(yù)計將增長五倍,達到1500億美元以上。
市場調(diào)研機構(gòu)Technavio 此前公布的一份最新研報顯示,范圍涵蓋GPU、CPU、FPGA、ASIC的人工智能 (AI) 用途芯片市場規(guī)模預(yù)計在2022-2027年期間以高達驚人的61.51%的復(fù)合年增長率爆炸式增長,在2027年達到大約2105億美元的市場規(guī)模。
Technavio表示,市場規(guī)模擴張取決于幾個因素,其中包括數(shù)據(jù)中心越來越多地采用人工智能芯片,企業(yè)越來越多地關(guān)注智能手機的人工智能芯片開發(fā),以及自動駕駛汽車中人工智能芯片的開發(fā)。
投資者們似乎反應(yīng)冷淡,發(fā)布會未能促進AMD股價繼續(xù)上行
盡管如此,這場關(guān)于AI芯片的演講并沒有讓投資者眼花繚亂,他們此前已經(jīng)對人工智能市場規(guī)模的擴張速度抱有極高的期望。截至周一收盤,AMD股價今年累計上漲接近95%,但在周二的發(fā)布會結(jié)束后,截至周二美股收盤,AMD股價跌幅超過3%,其競爭對手英偉達股價反而漲近4%。今年迄今為止,AMD競爭對手英偉達的漲幅則高達驚人的186%。
值得注意的是,英偉達的市場領(lǐng)先地位不僅來自其芯片硬件產(chǎn)品,還來自十多年來為人工智能領(lǐng)域的研究人員提供各種軟件工具,并成功預(yù)測在需要數(shù)年時間設(shè)計的芯片中需要什么軟件以及哪些類型的軟件,并且構(gòu)成了完整的“英偉達AI硬件+軟件生態(tài)系統(tǒng)”。
AMD周二更新了其Rocm軟件,該軟件與英偉達的Cuda軟件平臺競爭。AMD總裁表示,在構(gòu)建強大的軟件堆棧方面,AMD取得巨大進步,ROCm軟件??膳c模型、庫、框架和工具的開放生態(tài)系統(tǒng)配合使用。
來自研究機構(gòu)Moor Insights & Strategy的分析師Anshel Sag表示:“即使AMD在硬件性能方面具有絕對的競爭力,但人們似乎仍不相信AMD的軟件解決方案生態(tài)環(huán)境能與英偉達相媲美?!?/p>
AMD新品已獲科技巨頭亞馬遜和Meta青睞
據(jù)了解,美國科技巨頭亞馬遜(AMZN.US)旗下AWS和Facebook母公司Meta Platforms(META.US)的高管與蘇姿豐在臺上討論了在他們的數(shù)據(jù)中心使用全新的AMD處理器。這家芯片巨頭還宣布,其最新版本的Epyc服務(wù)器處理器和一款名為Bergamo的新變體版本已經(jīng)全面上市,該全新版本旨在用于云計算。
AMD表示,已開始向Meta等公司大量出貨一款名為Bergamo的通用中央處理器芯片。Facebook母公司Meta負責(zé)計算基礎(chǔ)設(shè)施的Alexis Black Bjorlin表示,該公司采用了Bergamo芯片,該芯片針對的是AMD數(shù)據(jù)中心業(yè)務(wù)的另一部分,該業(yè)務(wù)主要面向云計算提供商和其他大型芯片買家。
幫助創(chuàng)建人工智能開源軟件的Meta副總裁Soumith Chintala表示,他與AMD密切合作,使得人工智能開發(fā)人員更容易使用更加自由的工具,從人工智能芯片的“單一主導(dǎo)供應(yīng)商”轉(zhuǎn)換到AMD提供的其他產(chǎn)品。Chintala在會上表示:“你實際上不必做很多工作——或者在很多情境下毫不費力,但是能夠?qū)崿F(xiàn)從一個平臺到另一個平臺?!?/p>
此外,隨著第四代EPYC處理器AMD Genoa-X的推出,另一科技巨頭微軟(MSFT.US)表示,其Azure云平臺正在為芯片提供新的Hbv4和HX云實例,用于技術(shù)層面的計算。
AMD表示,MI300X加速器基于AMD的CDNA 3技術(shù),使用高達192GB的內(nèi)存來處理大語言模型和生成式人工智能的工作負載。AMD強調(diào),主要客戶將在第三季開始試用該技術(shù),第四季開始有望實現(xiàn)全面生產(chǎn)。另一個型號,Instinct MI300A,現(xiàn)在正在向客戶推出。蘇姿豐演示中介紹,AMD的Instinct MI300A號稱全球首款針對AI和高性能計算(HPC)的加速處理器(APU)加速器。在13個小芯片中遍布1460億個晶體管。