生成式AI與大型語言模型(Large Language Model;LLM)相關需求爆發,吸引包括大型雲端業者、主要伺服器品牌商皆加入AI伺服器軍備競賽,並將採購重點集中於以採用高頻寬記憶體(High Bandwidth Memory;HBM)為主的高階AI伺服器。由於封裝HBM所需CoWoS產能不足。DIGITIMES 研究中心認為2023年高階AI伺服器需求與供給將有35%以上的落差,但預估高階AI伺服器出貨量仍將增加5倍,達17.2萬台。
DIGITIMES研究中心預期2023年全球主要雲端業者與品牌高階AI伺服器出貨量將有8成以上集中於前五大業者,其中,注資Open AI ChatGPT並大量投入生成式AI雲服務的微軟(Microsoft),直接透過代工廠生產的高階AI伺服器出貨將排名第一。
長期投入生成式AI也掌握關鍵技術的Google以投入自家研發的TPU(Tensor Processing Unit)做為主攻的高階AI伺服器機種,透過代工廠的產量將排名第二;最積極部署開源LLM模型的Meta出貨將居第三。亞馬遜(Amazon)投入腳步較慢,但也積極與第三方業者合作,預期透過代工廠出貨排名第四。美超微(Supermicro)、戴爾(Dell)、NVIDIA及慧與(HPE)等品牌業者出貨則緊追在大型業者之後。
DIGITIMES 研究中心分析師蕭聖倫指出,高階AI伺服器所採加速器種類方面,預期2023年NVIDIA HGX GPU系列將佔近8成,其中,H100 HGX出貨將略多於A100 HGX;TPU因Google積極採用,佔比將超過1成,其他則主要為PCIe版的NVIDIA 100系列,及少量的NVIDIA GH200與超微(AMD)、英特爾(Intel)等業者的高階GPU。
蕭聖倫認為,高階AI伺服器代工廠出貨方面,預期英業達與美商ZT Systems分別為L6與L10到L12製造的最大贏家,英業達掌握多個大型雲端業者及品牌商訂單,2023年佔L6比重將近6成;ZT Systems則因早期即與大型雲端業者及相關技術提供者合作,具備大型GPU叢集系統整合技術優勢,預期其L10到L12佔比將近5成,而台廠中則以廣達在L10到L12布局最為積極。
我是廣告 請繼續往下閱讀
長期投入生成式AI也掌握關鍵技術的Google以投入自家研發的TPU(Tensor Processing Unit)做為主攻的高階AI伺服器機種,透過代工廠的產量將排名第二;最積極部署開源LLM模型的Meta出貨將居第三。亞馬遜(Amazon)投入腳步較慢,但也積極與第三方業者合作,預期透過代工廠出貨排名第四。美超微(Supermicro)、戴爾(Dell)、NVIDIA及慧與(HPE)等品牌業者出貨則緊追在大型業者之後。
DIGITIMES 研究中心分析師蕭聖倫指出,高階AI伺服器所採加速器種類方面,預期2023年NVIDIA HGX GPU系列將佔近8成,其中,H100 HGX出貨將略多於A100 HGX;TPU因Google積極採用,佔比將超過1成,其他則主要為PCIe版的NVIDIA 100系列,及少量的NVIDIA GH200與超微(AMD)、英特爾(Intel)等業者的高階GPU。
蕭聖倫認為,高階AI伺服器代工廠出貨方面,預期英業達與美商ZT Systems分別為L6與L10到L12製造的最大贏家,英業達掌握多個大型雲端業者及品牌商訂單,2023年佔L6比重將近6成;ZT Systems則因早期即與大型雲端業者及相關技術提供者合作,具備大型GPU叢集系統整合技術優勢,預期其L10到L12佔比將近5成,而台廠中則以廣達在L10到L12布局最為積極。