ICC訊 ChatGPT的火爆不但拉升了很多芯片公司的股票,還為半導體行業(yè)帶來實際的實惠。有消息傳出,臺積電陸續(xù)接到英偉達、AMD與蘋果的5nm急單,均源自AI服務器平臺的需求飆升,有望讓原本空閑的5nm產能轉為滿載。
歡呼聲還沒有冷卻,AMD砍單5nm的消息就相繼傳來。讓人不禁心生疑問,Chatgpt究竟能提振整個芯片行業(yè),還是只為一兩家公司的利好?
ChatGPT不是所有人的救世主
消息指出,AMD已經將2023年第二季5nm的 Genoa CPU 晶圓訂單削減至僅 30,000 片。原因并不是這款芯片賣得不好,而是整個服務器市場行業(yè)萎靡而降低預期。
服務器過去被認為是能給半導體提供驅動力的引擎之一,但是從2022年Q4開始,行業(yè)對出貨預期就開始趨向保守。有海外投資機構指出,服務器市場上行周期通常持續(xù)5~6個季度,然后就會有2~3個季度的下行周期,下行周期已逐步從第三季開始顯現(xiàn),因此會順勢發(fā)展到2023第一季。
目前看來,這個判斷已經是非常樂觀了。TrendForce的研報指出,北美四大云服務供應商都在下修2023年的服務器采購量,并將目標持續(xù)下調。 Meta、微軟、Google、AWS四家公司的服務器采購量由原先估的年增6.9%下修至4.4%,將拖累2023年全球服務器整體出貨量年增幅降至1.87%。
Meta的服務器采購量降幅為3.0%,并不排除進一步下降的可能。在經濟大環(huán)境不景氣之外,Meta的電商業(yè)務在疫情之后依舊受到沖擊,加上ODM廠庫存仍高,恐將影響后續(xù)擴建動能。
微軟的服務器采購量由年增16.9%下修至13.4%,但仍保持了雙位數(shù)的增長。主要影響采購量的原因包括了裁員給SaaS業(yè)務營收的影響;企業(yè)支出收斂,使IaaS、PaaS云端業(yè)務成長受限;供應鏈物料去化不如預期,導致新平臺Gen 9量產規(guī)??s限等。
Google將服務器的年采購量降至了5.2%。其中包含兩大原因,一是因為采用Intel Sapphire Rapids與AMD Genoa的新機成本仍然過高,二也是因為疫情影響了其云端營收的成長,使Google不得不降低服務器的擴充節(jié)奏。
AWS服務器采購量年增幅也降至6.2%,其主要考量是Graviton機型的需求是否放緩,背后也反映了整個大環(huán)境的疲軟。
既然云服務器廠商都對后市看低,那ChatGPT所帶來的訂單是否只是曇花一現(xiàn)。對于這個問題,現(xiàn)在還沒有明確的定論,但可以確定的是,獲益者依然存在。
按照通常的邏輯,ChatGPT的火爆需要大型數(shù)據(jù)中心的支撐,必然帶來整個服務器市場的火爆。但事實上真正的獲利者可能只有AI服務器。
AI服務器專為AI運算而生,與普通服務器最大的不同就是配置的GPU數(shù)量。普通服務器一般是單卡或雙卡,但AI服務器為了應對大量的計算,一般配置四塊以上的GPU卡,甚至要搭建AI服務器集群。
數(shù)據(jù)顯示,AI服務器的成本將從18.2億美元提升到127.6億美元,年復合增長率將高達91%,總體需求將從2023年的9100臺提升到2026年的63800臺,并一直維持高增長態(tài)勢。
某服務器生產商指出,今年預計50%的產品為AI服務器,而去年這一比例只為20%,這也證明了AI服務器的火爆。
目前只有一個獲益者
AI服務器也包含了CPU和其他加速芯片,但用量最大仍是GPU,而全球AI GPU的霸主正是英偉達公司。
實際上,來自數(shù)據(jù)中心服務器方面的營收一直是英偉達業(yè)績的增長點。在2023年1月29日剛結束的2023財年第四財季上,英偉達公布的營業(yè)收入為60.51億美元,同比-21%/環(huán)比+2%;毛利率為63.3%,游戲毛利率下滑部分被汽車、數(shù)據(jù)中心的貢獻抵消,庫存費用降低使毛利率環(huán)比抬升;營業(yè)利潤同比-68%/環(huán)比+109%;凈利潤同比-53%/環(huán)比+108%;EPS為0.57美元/股,同比-52%/環(huán)比+111%。
數(shù)據(jù)中心是最大的亮點,其營業(yè)收入同比+11%/環(huán)比-6%,增長主要由美國云服務提供商推動,而得益于超大規(guī)模客戶的強勁增長,2023財年營收同比+41%。
ChatGPT的背后自然不能缺少英偉達的身影。據(jù)悉,ChatGPT Beta版本使用了10000個英偉達GPU訓練模型,新一代GPT-5大模型正在25000個英偉達GPU上訓練。
花旗集團的分析師Atif Malik做出預估,ChatGPT可能會在未來12個月內為英偉達帶來30億到110億美元的銷售額。以最高值計算,對比2023財年的整體營收,由生成式AI應用帶來的營收最多將占據(jù)40.8%的份額。
挖礦潮雖然消退,但英偉達又憑借數(shù)據(jù)中心GPU需求爆發(fā)再獲能量。其A100及H100芯片分別得到眾多大客戶的訂單,高端H100更是供不應求。其中,NVIDIA A100及H100同時拿下甲骨文長期大單,亦與Microsoft展開多年的合作計劃,雙方攜手打造全球最強大的AI超級電腦,Microsoft Azure平臺將陸續(xù)加入上萬個A100/H100 GPU。
如果說ChatGPT能使哪家芯片公司直接受益,最明確無誤的回答就是英偉達。瑞銀(UBS)分析師在一份報告中表示,英偉達GPU芯片是唯一可用于打造大規(guī)模AI語言系統(tǒng)的產品。
英偉達的GPU主要用于AI模型的訓練。雖然訓練芯片的數(shù)量只占整個AI芯片的10%-20%,但其價格昂貴,價格達到1000美元甚至10000美元級別,而推理芯片的價格則只有100 美元以上。這就意味著英偉達獲得了行業(yè)大部分的利潤,就如同蘋果之于智能手機一樣。
英偉達并不是這個市場上唯一的參與者,AMD 也生產 GPU,但在 AI GPU 市場的份額相當小。微軟的競爭對手谷歌會選擇使用張量處理單元(TPU)來進行自己的訓練,也可能會使用替代芯片,比如AMD的MI300,但都不會威脅英偉達在這個市場的地位。
讓英偉達保持壟斷地位的不單是芯片的性能,還有其苦心經營多年的CUDA生態(tài)與用戶使用慣性。
從滿足易部署(用戶開箱即用)、層次靈活的開發(fā)接口(OpenCL、OpenGL類似的一種API)、滿足不同領域開發(fā)者編程語言(Fortran, C/C++, Python)、品類齊全的工具集(GDB、Nsight、Memcheck等)、第三方工具和軟件庫等多個方面,CUDA都沒有明顯的競爭者。
CUDA已經形成群聚效應。用戶在使用CUDA的過程中,會產生大量基于CUDA的入門文檔,研究成果,學術論文,開發(fā)類庫以及技術討論,使得開發(fā)人員不斷被吸引而來,總數(shù)量已經累積到 300萬。
用戶要想轉換平臺,遷移成本將非常高。企業(yè)和研究人員之前的代碼,測試基準結果都是基于CUDA平臺上的,一旦遷移就意味著代碼重寫,重新編譯,之前的測試結果要重新校準,將帶來極其高的成本。此外,云端訓練與終端部署的軟件生態(tài)與工具鏈的統(tǒng)一,也使得CUDA擁有更大的替換難度。
并且,同樣是提供AI用GPU的AMD,至今也未開發(fā)出被廣泛采用的 CUDA 替代品,就更別提其他新進的AI初創(chuàng)公司了。
如今,英偉達不單想一個簡單的方案提供商,還要趁這股熱潮實現(xiàn)更大的野心。黃仁勛就表示,英偉達正在與主要云服務商進行合作,提供英偉達AI云服務,從而讓企業(yè)可以輕松訪問世界上最先進的AI平臺。據(jù)悉,眼下英偉達已經在通過甲骨文提供新版云服務,很快將通過微軟和谷歌提供AI云服務。
無可否認,ChatGPT確實為芯片業(yè)帶來新的商機,但那還是一個較遙遠的目標。著名半導體分析師陸行之警告那些AI芯片公司,如果ChatGPT所帶動的人工智能芯片銷售,幾年內只能貢獻少于5%營收,危險就即將到來。
在國內市場,雖然英偉達的部分產品被禁,但是其依然擁有龐大的用戶群,國內廠商要想抓住ChatGPT帶來的機遇,還需要加倍努力。