AI新勢力1/「吃電怪獸」引爆能源話題 這小子挑戰教主「用這方法」就不需新核電
記者:陳曼儂 | 2024-08-11 06:00
耐能創辦人劉峻誠,以NPU挑戰當前最流行的GPU教主與核電議題。(圖/方萬民攝、翻攝自台北市電腦公會臉書)
首場「國家氣候變遷對策委員會」8月8日啟動,4小時的能源議題討論中,核電從「反核」或「擁核」是非題,轉為「多選題」,擔任副召集人的和碩董事長童子賢以深知企業購買綠電苦楚而力挺核電,尤其台灣經濟邁入AI新世代,「沒電力」就等於「沒國力」。
童子賢挺核主張,關鍵源自ChatGPT問世掀起全球AI人工智慧巨浪,輝達執行長黃仁勳被冠上「AI教父」,然而獨霸AI晶片市場的輝達GPU,跑出超級算力也極度耗電,成了「吃電怪獸」,科技大咖急尋解方。
不過,「『CPU+GPU+NPU』能一舉解決AI設備又貴又耗電的痛點。」這話出自43歲的耐能(Kneron)創辦人暨執行長劉峻誠。
凱米颱風襲台前夕,台北市電腦公會7月23日舉辦「迎向AI新時代-從COMPUTEX看台灣資通訊產業的下一步」記者會,CTWANT記者觀察,現場座無虛席,賓客不畏風雨,就是為了聽童子賢的AI與核電看法。
記者會上,主持人做球給童子賢,將話題轉向能源議題。童子賢滔滔不絕地解釋,台灣去年用電2821.4億度,3、4年後就會超過3000億度,若一度發電成本差1元,一年就要多花三千億元,「如果搭配3成綠能、3成核能,以及4成火力發電,這樣經濟效率較高的排列組合,省下經費就可以彌補健保的缺口、高等教育跟研究的需求,這樣更有意義。」
「沒電力就沒算力,沒有算力就沒有國力!」童子賢慷慨激昂地開出解方,必須要重新考慮核電,其他大老也連連贊同時,輪到坐在最邊邊的第七位演講者,卻說出不同看法。
「完整的(AI運算)系統應該是CPU+GPU+NPU」,而非單純用GPU跑AI,因為代價太大,用了NPU這樣的低功耗晶片後,「就不需要像童董事長一直在講的,甚至要蓋核電廠才有電力去支持這種運用。」劉峻誠一開口,竟然直球對決童子賢,台下引起一陣騷動。
不同處理器在AI系統中扮演不同角色,CPU(中央處理器)為電腦核心處理單元,負責執行和控制,處理基本運算和邏輯運算,GPU(圖形處理器)為了圖形和影像處理而生,擅長並行處理大量數據,隨深度學習興起,被廣泛應用於AI運算中,NPU(神經處理器)專為AI推理任務設計,能在低功耗情況下高效執行深度學習模型。
在輝達GPU制霸下的AI算力有多耗電?國際能源總署(IEA)提到,使用Google搜尋網路,平均每次耗電0.3Wh,使用ChatGPT平均耗電2.9Wh,將近十倍。高盛證券預估,2023年至2030年間,全球AI資料中心對電力需求將增長160%,特斯拉執行長馬斯克甚至憂慮,未來兩年「晶片荒」將轉為「電力荒」。經濟部能源署也「保守估計」,在AI帶動下,我國用電量10年將增加32%,拉高到3641億度左右。
據此,當各國及科技龍頭展開AI算力軍備競賽,巨資向輝達購買GPU,同時也面臨接踵而來的耗電與排碳問題。
Supermicro美超微全球業務資深副總裁周政賢向CTWANT記者表示,AI運算要大量的電,部分是為了散熱,所以「液冷」技術開始受重視,畢竟「新設電廠在許多國家,都不是件容易的事。」IP矽智財大廠安謀Arm執行長瑞恩‧哈斯日前也表示,到2030年,AI資料中心會消耗美國電力20到25%,比現在的4%大幅增加,所以他們現正砸錢研究如何降低人工智慧技術的功耗。
NPU業者劉峻誠給出另一個方向,「GPU其實不適合跑AI,因為他太貴、太耗電,台灣總不能到處都蓋核電廠。」「如果我們把NPU真正發揚光大,台灣就不會在AI時代只是個製造和代工業,是我們能真正掌握、自建專屬台灣且有影響力的AI。」
「年底有好幾家雲端大廠,已經非常明確要做『類NPU』架構,而且是國際的一線大廠,這事正在發生!」劉峻誠得意地向CTWANT記者說。
事實上,英特爾去年推出的新款Core Ultra處理器晶片,測試20次AI圖像生成時發現,NPU執行任務要20.7秒,僅花CPU一半的時間,功耗更降低75%,只有10瓦,優於GPU的37瓦,整體效率提升7.8倍,若將NPU與GPU結合使用,處理時間更僅需11.3秒,最後推出結合三種模式的晶片。
一位業內人士向CTWANT記者表示,這類型CPU+GPU+NPU的做法,會越來越普遍,雖然GPU的算力還是比較強,但應用在消費性電子產品上,NPU的省電優勢不容小覷,而輝達GPU獨霸的AI高算力系統,要如何擺脫吃電怪獸的桎梏,大家也拭目以待。