AI Server需求帶動北美四大CSP加速自研ASIC(應(yīng)用特定集成)芯片,平均1~2年就會推出升級版本。中國AI Server市場預(yù)計外購NVIDIA(英偉達(dá))、AMD(超威)等芯片比例會從2024年約63%下降至2025年約42%,而中國本土芯片供應(yīng)商(如華為等)在國有AI芯片政策支持下,預(yù)期2025年占比將提升至40%,幾乎與外購芯片比例平分秋色。
TrendForce集邦咨詢表示,CSP為應(yīng)對AI工作負(fù)載規(guī)模逐步擴(kuò)大,同時計劃降低對NVIDIA、AMD的高度依賴,因此積極投入ASIC開發(fā)進(jìn)程,以便能控制成本、性能和供應(yīng)鏈彈性,進(jìn)一步改善營運成本支出。
觀察美系四大CSP在AI ASIC進(jìn)展,居領(lǐng)先地位的Google(谷歌)已推出TPU v6 Trillium,主打能效比和針對AI大型模型的最佳化,預(yù)計2025年將大幅取代現(xiàn)有TPU v5。針對新一代產(chǎn)品開發(fā),Google從原先與Broadcom(博通)的單一伙伴模式,新增與MediaTek(聯(lián)發(fā)科)合作,轉(zhuǎn)為雙供應(yīng)鏈布局。此舉將提升設(shè)計彈性,降低依賴單一供應(yīng)鏈的風(fēng)險,并有助增加高階先進(jìn)制程布局。
AWS(亞馬遜云科技)目前以與Marvell(美滿電子)協(xié)同設(shè)計的Trainium v2為主力,其主要支持生成式AI與大型語言模型訓(xùn)練應(yīng)用,AWS也和Alchip合作Trainium v3開發(fā)。TrendForce集邦咨詢預(yù)估2025年AWS的ASIC出貨量將大幅成長,年增表現(xiàn)為美系CSP中最強(qiáng)。
Meta成功部署首款自研AI加速器MTIA后,正與Broadcom共同開發(fā)下一代MTIA v2。由于Meta對AI推理負(fù)載具高度客制化需求,MTIA v2設(shè)計特別聚焦能效最佳化與低延遲架構(gòu),以確保兼顧推理效能與運營效率。
Microsoft(微軟)目前在AI Server建置仍以搭載NVIDIA GPU的解決方案為主,但也加速ASIC開發(fā),其Maia系列芯片主要針對Azure云端平臺上的生成式AI應(yīng)用與相關(guān)服務(wù)進(jìn)行優(yōu)化,下一代Maia v2的設(shè)計也已定案,并由GUC負(fù)責(zé)后段實體設(shè)計及后續(xù)量產(chǎn)交付。除了持續(xù)與GUC深化合作外,Microsoft也引入Marvell共同參與設(shè)計開發(fā)Maia v2進(jìn)階版,借此強(qiáng)化自研芯片的技術(shù)布局,并有效分散開發(fā)過程中的技術(shù)與供應(yīng)鏈風(fēng)險。
中國AI供應(yīng)鏈自主化加速
分析中國自主化AI方案,華為積極發(fā)展昇騰芯片系列,主要面向內(nèi)需市場,應(yīng)用層面包含LLM訓(xùn)練、地方型智慧城市基礎(chǔ)建設(shè)及大型電信運營商的云網(wǎng)AI應(yīng)用等。在國家型項目支持及互聯(lián)網(wǎng)、DeepSeek相關(guān)LLM AI應(yīng)用蓬勃發(fā)展下,長期將撼動NVIDIA等在中國AI市場的領(lǐng)先地位。
寒武紀(jì)的思元(MLU)AI芯片系列,亦瞄準(zhǔn)云端業(yè)者的AI訓(xùn)練與推理等應(yīng)用。觀察寒武紀(jì)2024年陸續(xù)與本地大型CSP進(jìn)行前期測試驗證可行性后,2025年將逐步推進(jìn)思元AI方案至云端AI市場中。
TrendForce集邦咨詢表示,中系CSP正加速發(fā)展自研AI ASIC,阿里巴巴旗下平頭哥(T-head)已推出Hanguang 800 AI推理芯片,百度繼量產(chǎn)Kunlun II后,已著手開發(fā)Kunlun III,主打高效能訓(xùn)練與推理雙支持架構(gòu)。騰訊除了自家AI推理芯片Zixiao,亦采用策略投資的IC設(shè)計公司Enflame(燧原科技)解決方案。
在國際形勢變化與供應(yīng)鏈重構(gòu)的背景下,將凸顯中國芯片供應(yīng)商如華為、寒武紀(jì),以及各CSP投入自研ASIC的必要性與重要性,并帶動AI Server市場朝向不同生態(tài)體系發(fā)展。