加速晶片
」美中貿易戰陸廠抱團取暖 集邦:自製高階晶片發展仍受限
美中貿易戰持續升級,美國不准多國的高科技產品與設備出口到中國大陸,特別是半導體與現在最流行的AI人工智慧等相關領域,中國的科技公司近來擴大投資自製。調研機構集邦科技(TrendForce)最新報告表示,華為旗下海思投入AI晶片自主化研發,推出新一代AI晶片昇騰(Ascend)910B,自產自銷也出售給其他中國業者,但效能沒有輝達(Nvidia)的A800好、軟體生態系統不同,加上產能不足、生產設備也可能受限於後續的禁令,預期中國若要建立完整的AI生態系,仍有很大的空間待突破。集邦表示, 對華為而言,昇騰除用於自家公有雲基礎設施,也能出售給其他中國業者,像是百度今年即向華為訂購逾千顆昇騰910B晶片,用以建置約200台AI伺服器;科大訊飛今年8月也與華為對外共同發表搭載昇騰910B AI加速晶片的「星火一體機」,適用於企業專屬LLM(Large Language Model)的軟硬體整合型設備。TrendForce推論,新一代AI晶片昇騰910B應是由中芯國際(SMIC)的N+2製程所打造,但生產過程可能面臨兩個風險。第一是中芯國際的N+2製程產能幾乎用於給華為手機產品,未來雖有擴產規劃,但其AI晶片所需產能可能受到手機或其他資料中心業務(如鯤鵬CPU)所排擠。第二是中芯國際仍在實體清單之列,未來先進製程設備取得仍將受到限制。目前市場分析昇騰910B效能也略遜於A800系列,軟體生態也與NVIDIA CUDA存在很大的差距,故採用昇騰910B的使用效率尚不及A800,但考量美國禁令可能擴大的風險,而促使中國廠商轉往採購部分昇騰910B。但整體來看,中國若要建立完整的AI生態系仍有很大的空間待突破。目前中國的科技公司以百度和阿里巴巴最積極投入自研ASIC加速晶片,百度在2020年初即發展其自研ASIC崑崙芯一代,第二代於2021年量產,第三代則預計於2024年上市。據TrendForce調查相關供應鏈,2023年後百度為建置其文心一言及相關AI訓練等基礎設施,將同步採購如華為的昇騰910B加速晶片,並擴大採用崑崙芯加速晶片用於自家AI基礎設施。阿里在2018年4月全資收購中國CPU IP供應商中天微之後,同年9月成立平頭哥半導體(T-Head),並自研ASIC AI晶片含光800。據TrendForce了解,旗下T-Head原第一代ASIC晶片還得仰賴外部業者如GUC共同設計,2023年後該公司將轉而較仰賴自身企業內部資源,強化新一代ASIC晶片自主設計能力,主應用於自家阿里雲AI基礎設施。
集邦看好今明兩年 AI伺服器出貨成長皆逾37%
全球市場研究機構集邦科技(TrendForce)17日針對明年的科技產業發展做重點整理,可看出AI產業一片欣欣向榮,包括伺服器、高頻寬記憶體、加速晶片等會迎來喜訊,像是今年AI的伺服器(包含搭載GPU、FPGA、ASIC等)出貨量逾120萬台,年增高達37.7%,而預計明年將再成長逾38%。集邦科技表示,CSP(雲端服務供應商)業者如Microsoft、Google、AWS等近期都在加大AI投資力道,推升AI伺服器需求上揚,估算2023年AI伺服器出貨量逾120萬台,年增37.7%,占整體伺服器出貨量達9%,2024年將再成長逾38%,AI伺服器占比將逾12%。除了NVIDIA與AMD的GPU解決方案外,大型CSP業者也擴大自研ASIC晶片將成趨勢,Google自2023年下半加速自研TPU導入AI伺服器,年成長將逾7成,2024年AWS亦將擴大採用自研ASIC,出貨量有望翻倍成長,其他如Microsoft、Meta等亦規劃擴展自研計畫,GPU部分成長潛力恐受到侵蝕。預計在2024年後,將延伸至更多應用領域業者投入專業AI模型及軟體服務開發,帶動搭載中低階GPU(如L40S等系列)等邊緣AI Server成長,預期2023到2026年邊緣AI伺服器出貨平均年成長率將逾兩成。AI伺服器也帶動了AI加速晶片需求,其中高頻寬記憶體(HBM)為加速晶片上的關鍵性DRAM產品。以規格而言,除了現有的市場主流HBM2e外,今年HBM3的需求比重亦隨著NVIDIA H100/H800以及AMD MI300系列的量產而提升。展望2024年,三大記憶體廠商將進一步推出新一代高頻寬記憶體HBM3e,一舉將速度提升至8Gbps,提供2024到2025年新款AI加速晶片更高的性能表現。AI加速晶片市場除了Server GPU龍頭廠商NVIDIA、AMD外,CSP業者也加速開發自研AI晶片的腳步,產品共通點為皆搭載HBM。伴隨訓練模型與應用的複雜性增加,預期將帶動HBM需求大幅成長。HBM相比其他DRAM產品的平均單位售價高出數倍,預期2024年將對記憶體原廠的營收將有顯著挹注,預估2024年HBM營收年增長率將達172%。
AI伺服器需求強 研調:2024年先進封裝產能增4成
研調機構TrendForce觀察AI應用帶動AI伺服器成長熱潮,對高階AI晶片及HBM(高頻寬記憶體)強烈需求、台積電2023年底CoWoS月產能有望達12K,NVIDIA在A100及H100等相關AI Server需求帶動下,對CoWoS產能較年初需求量,估提升近5成,加上AMD、Google等高階AI晶片需求成長下,將使下半年CoWoS產能吃緊,至2024年先進封裝產能將再成長3~4成。2023年由ChatBOT等生成式AI應用帶動AI伺服器成長熱潮,又以大型雲端業者最積極投入,包含Microsoft、Google、AWS或其他中系業者如Baidu、ByteDance等陸續採購高階AI伺服器,以持續訓練及優化AI分析模型。TrendForce指出,為提升整體AI伺服器的系統運算效能,以及記憶體傳輸頻寬等,NVIDIA、AMD、Intel等高階AI晶片中大多選擇搭載HBM。目前NVIDIA的A100及H100,各搭載達80GB的HBM2e及HBM3,在其最新整合CPU及GPU的Grace Hopper晶片中,單顆晶片HBM搭載容量再提升20%,達96GB。另外,AMD的MI300也搭配HBM3,其中,MI300A容量與前一代相同為128GB,更高階MI300X則達192GB,提升了50%。同時預期Google將於2023年下半年積極擴大與Broadcom合作開發AISC AI加速晶片TPU亦採搭載HBM記憶體,以擴建AI基礎設施。TrendForce指出,在AI較急促需求下,無論是HBM或CoWoS生產過程中,得後續觀察周邊配套措施,例如直通矽晶穿孔封裝技術(TSV)、中介層電路板(Interposer)以及相關設備(如濕製程設備)等是否能到位,如前置時間(Lead Time)等考量。而在AI強勁需求持續下,估NVIDIA針對CoWoS相關製程,亦不排除將評估其他類似先進封裝外援,例如Amkor或Samsung等,以因應可能供不應求的情形。