英偉達用於人工智慧和高效能運算的最新 H100 GPU非常昂貴。CDW 以每片30,603 美元的價格出售帶有 80GB HBM2e 記憶體的英偉達H100 PCIe 卡 。在 Ebay 上,如果想要快速購買這款產品,這些東西每件售價超過 40,000 美元。
最近,英偉達推出了更強大的H100 NVL 產品,該產品將兩張 H100 PCIe 卡與每張卡上的 96GB HBM3 記憶體橋接起來,以獲得專為大型語言模型訓練設計的終極雙 GPU 188GB 解決方案。該產品的單價肯定會遠高於 30,000 美元,但尚不清楚 英偉達以何種價格向為其 LLM 項目購買數萬塊電路板的客戶銷售此類產品。
AI潮帶動顯示卡熱
受AI晶片需求的提振,英偉達今年以來股價累計漲幅超過83%,近一個月的漲幅就接近60%,成為美股科技巨頭企業中表現最好的公司。
原本,A100的價格大約為1萬美金,是目前AI應用的「主力晶片」;另據了解,此前一些零售商對H100的報價大約在3.6萬元美金,近期的價格又有了顯著上漲。一位內部人士稱:「英偉達提供的H100用作人工智慧訓練的話,一般是8個GPU搭在一個NVLink板上一起賣。」
H100晶片於去年年初發布,在去年9月量產。與上一代A100晶片相比,H100包括了大量的技術更新和升級,所有設計均達到新的性能和效率水平。Hopper包含800億個電晶體,它是使用定製的台積電N4(4奈米)工藝製造而成的。此前,A100的電晶體數量為540億個。
H100晶片未向中國市場供應,而是使用替代產品A800和H800,這也是目前大部分中國開發者在開發大型語言模型時使用的晶片。
上個月的英偉達GTC技術峰會上,黃仁勳表示:「在中國,我們有特別定製的Ampere和Hopper晶片。但是,這些會通過中國雲提供商,比如阿里巴巴、騰訊百度這些來提供落地的能力,我完全相信他們有能力去提供頂級的系統服務,對於中國初創公司一定會有機會來開發自己的大語言模型。」
馬斯克購買一萬個英偉達顯示卡
在最近的 Twitter Spaces 採訪中,馬斯克確認了Twitter 採購了大約 10,000 個英偉達計算 GPU,並表示如今包括特斯拉和 Twitter 在內的所有人都在購買 GPU 用於計算和人工智慧。這是事實,因為微軟和甲骨文在最近幾個季度都為他們的人工智慧和雲服務 購買了數萬個英偉達的 A100 和 H100 GPU 。
馬斯克表示「似乎每個人和他們的狗此時都在購買 GPU,Twitter和特斯拉肯定會購買 GPU。」與此同時,馬斯克正在創辦一家獨立於他的其他公司的AI 企業,但它可以使用 Twitter 內容進行培訓。
為了建立這個新項目,馬斯克正在從包括 DeepMind 在內的頂級人工智慧公司招募工程師,並且已經從 DeepMind 引進了 Igor Babuschkin 和大約六名其他人工智慧專家。
馬斯克在2015年參與創辦的OpenAI的ChatGPT的迅速發展。隨後,百度也推出了「文心一言」大模型;阿里巴巴宣佈推出「通義千問」大模型,並表示所有產品未來將接入大模型全面改造;商湯發佈了其大模型體系「商湯日日新大模型」。華為、360、京東等巨頭也已宣佈將推出相關產品。王小川、王慧文等人也紛紛宣佈入局大模型賽道,並創立各自的初創企業,掀起新一波的AI創業潮。
算力需求井噴,多領域受益
在科技巨頭加碼大模型技術的同時,對算力的需求再次上了一個新臺階,甚至達到井噴的程度。ChatGPT體現了當前AI訓練速度、訓練精度的提升,背後的根本邏輯在於龐大訓練資料集的支撐,而對於硬體層面來說,計算與傳輸是保證ChatGPT平穩運行的核心。
工信部統計顯示,近年來,我國算力產業年增長率近30%,算力總規模位居全球第二。截至去年底,我國算力總規模達到180百億億次浮點運算/秒,存力總規模超過1000EB(1萬億GB)。國家樞紐節點間的網路單向時延降低到20毫秒以內,算力核心產業規模達到1.8萬億元。中國資訊通訊研究院測算,算力每投入1元,將帶動3至4元的GDP經濟增長。
在這樣蓬勃發展的市場,大模型的訓練離不開大算力的支撐。在越來越多的大模型產品湧現的當下,算力也必須跟上需求的增長,包括晶片、伺服器、雲端運算乃至資料中心等多個領域都將受益。(文:半導體產業縱橫)