根據 TrendForce 最新調查,隨著 AI server 需求快速擴張,全球大型雲端服務業者 (CSP) 正擴大採購 NVIDIA GPU 整櫃式解決方案、擴建資料中心等基礎建設,並加速自研 AI ASIC,預估將帶動 2025 年 Google、AWS、Meta、Microsoft、Oracle 和 Tencent、Alibaba、Baidu 等八大 CSP 的合計資本支出突破 4,200 億美元,約為 2023、2024 年相加的水準,年增幅更高達 61%。
TrendForce 表示,2026 年在 GB / VR 等 AI 機櫃方案持續放量下,八大 CSP 的總資本支出有望再創新高,年增達 24%,來到 5,200 億美元以上。除此之外,支出結構已從能直接創造收益的設備,轉向 server、GPU 等短期資產,意味著鞏固中長期競爭力與市占率優先於改善短期獲利。
2025 年 GB200/GB300 Rack 為 CSP 重點布建的整櫃式 AI 方案,需求量成長將優於預期。客戶除主要來自北美前四大 CSP 和 Oracle 外,Tesla/xAI、Coreweave 和 Nebius 等的需求亦有提升,以執行雲端 AI 租賃服務或生成式 AI。2026 年 CSP 將擴大布局 GB300 Rack 整櫃式方案,並於下半年起逐步轉至 NVIDIA Rubin VR200 Rack 新方案。
CSP 自研晶片出貨量有望逐年攀升
北美四大 CSP 持續深化 AI ASIC 布局,以強化在生成式 AI 與大型語言模型運算上的自主性與成本掌控能力。Google 與 Broadcom 合作 TPU v7p (Ironwood),鎖定訓練應用,預計於 2026 年逐步放量,將接替 TPU v6e (Trillium) 的核心 AI 加速平台。TrendForce 預估 Google TPU 出貨量將持續領先,2026 更有望實現逾 40% 的年增長。
AWS 主力部署 Trainium v2,將於 2025 年底推出液冷版本機櫃,而由 Alchip、Marvell 參與設計的 Trainium v3,首款規格預計於 2026 年第一季量產。TrendForce 估計 2025 年 AWS 自研 ASIC 出貨量將大幅成長一倍以上,當年度增速為四大業者之最,2026 年的年增幅度可望逼近 20%。
Meta 則加強與 Broadcom 合作,預計於 2025 年第四季量產 MTIA v2,提升推論效能與降低延遲。TrendForce 預估 2025 年 MTIA 出貨主要部署於 Meta 內部 AI 平台與推薦系統,待 2026 年採用 HBM 的 MTIA v3 推出,整體出貨規模將呈雙倍以上成長。
Microsoft 則規劃由 GUC 協助量產 Maia v2,預計於 2026 年上半啟動。此外,Maia v3 因設計調整延後量產時程,預料短期內 Microsoft 自研晶片出貨量相當有限,進度較落後競爭對手。