自駕車AI人工智慧夯 伺服器出貨年複合成長率可達10.8%

▲TrendForce觀察在ChatBot相關應用加持下,可望再度刺激AI相關領域的活絡,2022至2026年複合成長率將達10.8%。(圖/取自Pixabay免費圖庫)
記者許家禎/台北報導-2023-03-08 14:15:20
調研機構TrendForce觀察到始自2018年新興應用題材的帶領下,包含自駕車、AIoT與邊緣運算,諸多大型雲端業者開始大量投入AI相關的設備建置,截至2022年為止,預估搭載GPGPU(General Purpose GPU)的AI 伺服器年出貨量占整體伺服器比重近1%,而2023年預估在ChatBot相關應用加持下,可望再度刺激AI相關領域的活絡,預估出貨量年成長可達8%;2022至2026年複合成長率將達10.8%。

我是廣告 請繼續往下閱讀

據TrendForce統計,2022年AI伺服器採購占比以北美四大雲端業者Google、AWS、Meta、Microsoft合計占66.2%為最,而中國近年來隨著國產化力道加劇下,AI建置浪潮隨之增溫,以ByteDance的採購力道最為顯著,年採購占比達6.2%,其次緊接在後的則是Tencent、Alibaba與Baidu,分別約為2.3%、1.5%與1.5%。

在看好AI發展的前景下,Microsoft更是大舉投資OpenAI,除了於今年2月推出自家搜尋引擎Bing的強化版,其中融合ChatGPT技術以及與OpenAI合作開發大型語言模型「Prometheus」;Baidu亦於2023年2月宣布將推出相關服務「文心一言(ERNIE Bot)」,初期將以獨立軟體呈現,後續也將導入搜尋引擎。

以運算規格來看,ChatGPT主要以NVIDIA A100為主,獨家使用Microsoft Azure雲服務資源。若合併其他Microsoft應用而計,全年Microsoft AI伺服器年需求為25,000台。Baidu文心一言採用NVIDIA A800(繼A100被美國商務部限制後的替代品),合併其他應用,Baidu AI伺服器年需求約為2,000台。

TrendForce分析,以AI運算所需要的server GPU而言,其市場以NVIDIA H100、A100、A800(滿足中國需求)以及AMD MI250、MI250X系列為主,而NVIDIA與AMD的Server GPU占比約8:2。

我是廣告 請繼續往下閱讀

若聚焦於這些GPU規格,其中因應高頻寬運算而使用的HBM(High Bandwidth Memory)更受到市場矚目。以位元計算,HBM占整個DRAM市場比重約1.5%,供應商以三星(Samsung)、SK海力士(SK hynix)與美光(Micron)為主。但以NVIDIA使用的HBM3,SK海力士是目前唯一量產的廠商,因此在該規格主導市場,由於生產技術門檻高,對原廠而言屬於高毛利產品。

2020至2021年疫情期間由於擔心供應鏈缺料,超額備料下使得HBM年需求成長率特別亮眼,而自2023年起需求成長率在物料調節下有所收斂。TrendForce預估,2023至2025年HBM市場年複合成長率有望成長至40至45%以上。整體而言,伴隨全球雲端業者逐年增加AI伺服器的投入,儘管大環境受高通膨、經濟增長放緩衝擊,企業、組織對於IT支出轉趨保守,但在ChatBot與搜尋引擎應用的帶動下,AI相關轉型布局仍被視為雲端業者投入資本支出的優先項目。

我是廣告 請繼續往下閱讀

我是廣告 請繼續往下閱讀