在這一輪人工智能的大爆發中,最出名的無疑是拿出了ChatGPT的OpenAI,但要說到目前為止真正意義上得到實惠的,顯然就非英偉達莫屬了。只不過,目前微軟、谷歌、Meta、OpenAI等參與者給英偉達“抬轎子”的日子可能很快就要過去了,就在日前,OpenAI和微軟在同一天被曝光了各自的造芯計劃。
據知情人士透露,微軟方面計劃在下月舉行的年度開發者大會上推出旗下首款為人工智能設計的芯片,來降低成本、並減少對英偉達的依賴。據稱微軟的這款自研芯片將用於數據中心、服務器,其為訓練大語言模型(LLM)等軟件而設計,同時可支持推理,能為所有AI軟件提供動力。
同一時間,OpenAI也被曝出正在探索自研AI芯片,同時也開始評估潛在的收購目標。而且在招聘網站上,OpenAI已在招募硬件工程師。再加上早已開始自研專用集成電路(ASIC)芯片的谷歌、亞馬遜、Meta,目前海外AI賽道的主要參與者幾乎是全數下場自研AI芯片了。畢竟如今在AI這條賽道中,算力焦慮就猶如達摩克利斯之劍,一直高懸在各大廠的頭頂。
如果說石油被稱為“工業的血液”,那麼英偉達的Ampere A100、Hopper H100加速卡現階段無疑就是AI的血液。目前,運行ChatGPT的微軟數據中心服務器裡有數以萬計的A100在工作,而作為市面上性能最強的AI算力芯片,更先進的H100即使有著高達4萬美元的價格,自上市以來也一直處於供不應求的狀態。
從國內市場的百度、字節跳動、騰訊和阿里巴巴,到海外的微軟、亞馬遜,英偉達的GPU已經在事實上成為了AI領域的硬通貨。這樣的局面更是讓英偉達從GPU製造商轉型為AI領域最有權勢的投資機構之一,而這個行業對於英偉達GPU的依賴性,也使得大家紛紛傾向於選擇他們的投資。
根據英偉達方面在8月中旬公佈的2024財年第二季度財報顯示,該季度其營收額達到了135億美元,其中數據中心業務營收實現了創紀錄的103.2億美元,僅這一個季度就翻了一倍多。按照英偉達自己的解釋,市場對生成式AI芯片前所未有的需求抵消了PC市場對GPU需求萎縮的衝擊。自今年以來,英偉達的股價漲幅已接近230%,所以從某種意義來說,這家公司就是“AI浪潮本浪”。
科技巨頭以及AI創業者對於算力的追求讓英偉達賺得盆滿缽滿,這一現狀在目前各大廠商暫時沒有找到一個合適商業模型的情況下,更是顯得尤為突出。當年虛擬貨幣火的時候,英偉達靠給礦工賣顯卡賺了大錢,現在AI走紅,英偉達又繼續給AI廠商賣加速卡獲利,這又怎能不讓微軟、OpenAI等廠商眼熱呢?
既然從本質上來說,ChatGPT這類大型語言模型就是“大力出奇跡”,畢竟神經網絡的層數多了、參數規模大了、語料豐富了,“智能”也就隨之湧現。根據市場調查機構TrendForce在今年3月初的推算顯示,如果以半精度浮點算力為311.88 TFLOPS的英偉達Ampere A100來計算,運行算力消耗高達3640PF-days的ChatGPT,需要至少3萬片A100才能讓這個模型運轉起來。
所以微軟和OpenAI自研AI芯片也是個很正常的選項,畢竟微軟財大氣粗,OpenAI更是一眾投資機構揮舞著鈔票要投的對象,兩者都不差錢。
那麼問題就來了,AI賽道的頂級玩家紛紛自研AI芯片,會動搖目前英偉達的地位嗎?
如果微軟、Meta、谷歌、OpenAI願意付出代價,英偉達的好日子確實可能就要到頭了,但這個代價或許有點大。
自研AI芯片並不難,但要將AI芯片轉化為算力卻不容易,要不同樣是GPU廠商的AMD怎麼就沒吃到這一輪紅利呢。還不是因為目前AI行業高度依賴英偉達的CUDA生態,而CUDA則只能用英偉達自家GPU的並行計算框架。換而言之,硬件層面追趕英偉達或許不難,可問題的實質是如何在軟件生態層面填平他們的護城河。
經歷了過去十餘年的積累,英偉達的CUDA在庫、工具和資源生態系統提供了豐富的工具,使得開發者能夠輕鬆藉助GPU的並行計算能力,構建更強大和高效的AI模型,同時也是實現高性能、高通用性、高易用性,以及針對不同應用場景深度優化的關鍵所在。更妙的是,CUDA是軟硬件結合的橋樑,它既是英偉達軟件生態的基座,也是其硬件形態的軟件抽象。
由於英偉達這一護城河過於成功,以至於解決英偉達在AI算力領域的壟斷的方式,是在CUDA之外另起爐灶,可這一策略要直面用戶粘性的難題。退而求其次的做法則是兼容CUDA,但這會導致硬件生態必須走英偉達的路線。所以顯而易見的是,無論哪一條道路,代價都是極其驚人的。
當然,AI大廠集體炒作自研芯片,在某種意義上也可以被視為是對英偉達的一次“逼宮”,是要逼迫英偉達將超額利潤吐出來的策略也說不定。
iPhone 15 Plus/15 Pro Max綜合評測:影像篇
iPhone 15系列的影像調教,或將會讓更多人滿意。