大型語言模型
」 AI 人工智慧 輝達 黃仁勳 ChatGPT
百度爆裁員潮!內部認定規模龐大 人力瘦身恐達年底
大陸最大的搜尋引擎營運商百度(Baidu)驚傳裁員!百度在本週啟動大規模裁員,預計將波及多個業務單位。多位消息人士指出,公司面臨人工智慧競爭加劇與廣告收入下滑的雙重壓力,此次裁員將延續至年底。雖然具體人數尚不明朗,但內部普遍認為此波裁員「規模龐大」。百度2025年第三季虧損人民幣112.3億元後展開裁員,行動生態系統部門受影響最深。根據《路透社》引述消息人士說法,裁員比例將依部門性質與員工績效等級而異,其中部分團隊的裁員比例可能高達40%。兩位知情者補充表示,行動生態系統部門將首當其衝;相對而言,人工智慧(AI)與雲端運算相關職位則大多被保留。有知情人士指出,公司正面臨雙重壓力:AI 技術競爭日益激烈,加上廣告收入持續下滑,已嚴重衝擊核心業務。百度在本月18日公布的第三季財報顯示,營收較去年同期下滑7%,線上廣告營收重挫18%,單季虧損達人民幣112.3億元(約新台幣493億元)。僅十天後即傳出裁員消息,顯示其財務壓力沉重。據報導,百度將在2025年底前裁減大量人力,主要集中於非AI業務部門。截至去年底,百度員工總數為35,900人,較2023年與2022年分別減少約3,900與5,400人。儘管百度為中國第一家推出 ChatGPT 類服務的企業,其大型語言模型「文心一言」仍在市場表現上落後於阿里巴巴(Alibaba)與 AI 新創公司 DeepSeek。據 Aicpb.com 統計,2025年9月「文心一言」的月活躍用戶為1,077萬,遠低於「豆包」的1.5億與 DeepSeek 的7,340萬。目前,百度已強調將持續強化 AI 能力,並將此技術應用至搜尋引擎與其他現有服務上。據悉,公司將投入更多資源於 AI 相關領域,以期挽回業績頹勢。裁員也反映出大陸大型科技企業正持續透過人事調整以壓縮成本。近年包括阿里巴巴、騰訊等企業,以及亞馬遜與 IBM 等美國科技公司亦陸續進行全球性裁員行動,以應對產業競爭與經濟壓力。
Google AI誤判正心中學停招 校方「用魔法打敗魔法」澄清真相
AI錯誤資訊時難以即時修正,衍生不少困擾,雲林縣私立正心中學近日被Google的AI演算錯誤,判定「將於114學年停止招生」,雖然校方上周已聯繫Google溝通處理,錯誤訊息仍反覆出現,25日只好透過發布新聞稿與AI「鬥智」,終於徹底糾正錯誤訊息,此事件也凸顯「控管」AI將是未來的重要課題。日前有家長在Google上搜尋「正心中學國中部招生」,AI摘要竟跳出「正心中學國中部於114學年度停止招生」的訊息,家長立刻致電校方求證,才發現是AI張冠李戴的烏龍內容。校長林佳慧說,校方官網今年10月全面改版,新網站內容尚在更新,AI可能未能即時抓取國中部招生資訊,於是將「國中部」、「招生」等關鍵字,連結至近期「中正預校國中部將於115學年停止招生」熱門新聞,而產生錯誤結論。校方上周緊急向Google反映,Google工程師也發現AI摘要參考涉及中正預校的網頁,導致資料混淆,校方積極提供相關佐證資料,仍無法更新搜尋結果,導致持續出現錯誤內容。「就用魔法打敗魔法吧!」校方決定發布新聞稿,透過大數據讓AI學習到正確資訊。果不其然,新聞在各大平台散布後,Google的AI摘要內容已變成「正心中學目前國中部與高中部皆有招生,近期的國中部停招,消息為Google的烏龍錯誤,校方已經澄清並無此事」。校內資訊教師表示,Google的AI摘要採用RAG(檢索增強生成)技術,會先大量擷取與關鍵字相關的網頁,再由大型語言模型生成看似流暢、合理的文字。生成式AI強調的是語句連貫而非事實校對,當資料來源稍有誤差,就可能產出高度合理化但嚴重失真的內容。林佳慧強調,Google AI摘要產製的錯誤訊息,是演算法在缺乏人工複核下自動拼湊資訊所致,此烏龍事件是不應忽視的警訊,也提醒社會大眾「AI可以是助手,但不能取代人腦思考」。
輝達A100遭非法轉運中國 美司法部起訴4名嫌犯
美國司法部近日宣布破獲1起跨國科技走私案件,2名中國公民與2名美國人因涉嫌非法將輝達(Nvidia)高階人工智慧晶片轉運至中國而遭到逮捕。此案不僅牽涉偽造文件、假合約與洗錢操作,更觸及美中科技競逐的核心領域,成為美國出口管制執法的新示例。據《CBS新聞》援引司法部提供的資料,涉案4人分別為居住加州的中國籍李湛(Cham Li,音譯)、持F-1學生簽證並居於佛州坦帕(Tampa)的中國籍陳靖(Jing Chen,音譯),以及2名美國籍嫌疑人,定居佛州的何漢寧(Hon Ning Ho,音譯)與住在阿拉巴馬州(Alabama)的雷蒙德(Brian Curtis Raymond)。他們共同面臨違反《出口管制改革法》(Export Control Reform Act,ECRA)與洗錢罪的指控,若罪名成立,每項罪名最高可判處20年徒刑。美國司法部指出,4名被告涉嫌透過馬來西亞與泰國,以轉運方式規避美國對人工智慧晶片的出口限制,將受管制的輝達A100繪圖處理器(GPU)輸往中國。這類晶片廣泛應用於大型語言模型、深度學習訓練以及軍民兩用的高性能運算,是美國政府在美中科技競賽背景下高度管制的核心項目。美國司法部國家安全司助理司法部長艾森柏格(John Eisenberg)表示,被告的行為可被界定為「蓄意且具有欺騙性」,他們透過偽造文件、製作假合約並向美國政府做出誤導陳述,試圖掩蓋非法出口行為。司法部稱,被告從中國方面獲得近400萬美元資金,以支持整個轉運計畫的運作。根據調查,在2024年10月至2025年1月間,約400顆輝達A100晶片已成功以2批貨物方式運抵中國;另有2批則因美國執法單位介入而未能完成。司法部強調,被告明知這類晶片在出口前必須申請許可,但從未提交任何申請。美國政府將此案視為其科技管制戰略的一部分。司法部在聲明中再次強調,中國正積極追求尖端美國技術,將其納入2030年之前成為全球人工智慧領導者的國家目標,而美國的出口管制措施正是為了阻斷這條科技流向。此案曝光之際,輝達剛公布其第3季亮眼財報,單季收益達319億美元,營收更創下570億美元紀錄,凸顯AI晶片在全球科技競賽中的戰略價值。
輝達市值破5兆美元成全球首家 攜手美能源部建7座AI超級電腦
人工智慧(AI)熱潮持續席捲全球,晶片巨頭輝達(NVIDIA)本週再創歷史,市值首度突破5兆美元(約新台幣153兆元),成為全球第一家達到此規模的公司。同時,ChatGPT開發商OpenAI也在15個月的複雜談判後完成重組,估值暴漲至5000億美元(約新台幣15兆元),象徵AI產業進入全新資本與技術競爭階段。根據《路透社》報導,3個月前,輝達股價剛突破4兆美元大關,而本月29日上漲3%,以每股207.04美元收盤,市值達到5.03兆美元,刷新美國華爾街紀錄。自2022年ChatGPT問世以來,AI熱潮帶動標普500(S&P 500)指數創下歷史新高,輝達股價已上漲12倍,出生於台灣、9歲移民美國的輝達創辦人暨執行長黃仁勳(Jensen Huang),如今已成矽谷傳奇人物。他掌舵下推出的H100與Blackwell系列AI晶片,成為ChatGPT與馬斯克(Elon Musk)xAI等大型語言模型的運算核心。依據最新資料,黃仁勳持股價值約1792億美元(約新台幣5.5兆元),為全球第八大富豪。報導指出,分析師認為輝達的爆發式成長不僅代表企業成功,更象徵AI時代的產業結構重塑。不過,也有市場人士警告,科技股估值飆漲恐引發「AI泡沫」疑慮。目前輝達正加緊鞏固AI晶片市場地位。黃仁勳本週宣布,已接獲美國政府5000億美元AI晶片訂單,並計畫攜手能源部建造七座超級電腦。此外,美國與中國間的晶片出口管制仍是雙方角力焦點,美國總統川普(Donald Trump)預計將與中國國家主席習近平討論輝達Blackwell晶片的出口問題。另一方面,AI軟體龍頭OpenAI也傳出重大進展。根據《Artificial Intelligencer》報導,OpenAI歷經15個月談判、數十名銀行家與律師協商,終於完成史上最複雜的科技公司重組之一,估值從不到1000億美元飆升至5000億美元。這項重組為公司未來上市鋪路,也讓執行長阿特曼(Sam Altman)取得更大自主權。
網路廢文刷到「腐爛了」?研究曝光長期吃社群垃圾文 AI推理力直接崩「準確率下滑17.7%」
由德州農工大學(Texas A&M University)、德州大學奧斯汀分校(University of Texas at Austin)與普渡大學(Purdue University)組成的研究團隊揭露,大型語言模型(Large Language Models, LLMs)若長期吸收來自社群媒體的低品質文字,會出現明顯的「認知退化」,研究團隊將此現象稱為「大腦腐爛」(Brain Rot)。根據《商業標準報》(Business Standard)報導,研究於10月15日以《LLMs Can Get Brain Rot!》(《大型語言模型也會得大腦腐爛!》)為題發表。研究者發現,AI若不斷接觸爆紅貼文、釣魚標題與互動導向的短內容,會造成推理能力下降、語境理解力受損,甚至失去倫理一致性。這種退化模式與人類長期沉迷於膚淺媒體後專注力變差的狀況極為相似。研究團隊將此現象定義為「LLM大腦腐爛假說」(LLM Brain Rot Hypothesis),指出當AI模型長期被餵食無營養、以點擊率為導向的內容時,將失去深度思考與邏輯推理能力。這項概念借用了「網際網路大腦腐爛」(Internet Brain Rot)一詞,該詞原本用來形容人類在長期接觸社群平台與無意義短影片後的精神疲乏與專注退化。為了驗證這項假說,研究團隊設計了實驗,選取社群平台X上的真實資料作為樣本。他們以兩項標準定義「垃圾內容」,其一為互動度極高但資訊量極低的貼文(M1),例如為吸引注意力而設計的爆紅短句;其二為語義品質低落(M2),包括誇張標題、煽情敘述或毫無實質內容的文章。團隊將這些貼文混合成不同比例的訓練集,讓四種主流AI模型,包括Llama3與Qwen2.5,反覆進行預訓練。結果顯示,當模型完全以垃圾內容訓練時,其推理準確率從74.9%驟降至57.2%,下滑17.7%。長篇語境理解能力從84.4%下滑到52.3%,下滑32.1%。研究人員稱這種現象為「劑量反應」效應(dose–response effect),意即資料越差,退化越嚴重。其中M1類型的爆紅短內容造成的損害最為明顯。除了準確度下滑外,研究還觀察到模型出現人格變化與倫理判斷混亂的情況。暴露於垃圾資料的模型對錯誤答案表現出過度自信,回覆變得浮面且充滿自我中心傾向。更令人意外的是,部分模型展現出研究者稱為「黑暗特質」(dark traits)的行為,例如自戀與精神病態(psychopathy)指標顯著上升。研究人員在分析過程中發現,這些AI傾向於跳過完整的思考鏈,直接給出結論,這種現象被稱為「思考跳步」(thought-skipping)。結果是模型的推理邏輯變得支離破碎,輸出看似流暢卻缺乏深度。即便嘗試以乾淨資料重新訓練,也無法完全修復這種退化,模型仍留有所謂「持續性表徵漂移」(persistent representational drift),代表損害具有長期性。研究最終呼籲,AI開發者應建立類似醫療健康檢查的「認知健康監測機制」,為大型語言模型定期進行思維與推理能力的評估,以防止潛在退化持續擴大。團隊建議加強訓練階段的資料品質管控,過濾瑣碎、釣魚或為互動而生的文本,並深入研究「爆紅內容」如何重塑AI的學習邏輯。論文結語警告,資料品質才是AI可靠性與安全性的關鍵因子。隨著AI模型越來越多地學習彼此生成的文字,合成內容正迅速充斥網路,如果不加控管,AI或將真正重演人類「大腦腐爛」的命運。
沙國致力擺脫石油依賴!大力投資AI、旅遊業
當提到沙烏地阿拉伯(Saudi Arabia),許多人首先想到的可能是其龐大的石油財富。然而,儘管石油仍然是推動該國經濟的重要動力,沙國如今正積極拓展人工智慧(AI)、旅遊和體育等領域,以多元化經濟成長途徑。據《CNBC》報導,前沙烏地阿美(Saudi Aramco)公司總裁兼首席執行官、沙國投資部長阿爾-法利(Khalid A. Al-Falih)在接受《CNBC》記者墨菲(Dan Murphy)訪問時指出,目前沙國經濟中已有超過一半,即50.6%,「完全脫離石油依賴」。他補充,政府收入過去幾乎完全依靠石油收入,如今有40%的收入來自與石油無關的部門與來源,「這個比例還在持續成長,我們看到很好的成效,但我們不滿足,我們希望做得更多,加速王國的多元化與經濟成長故事。」沙國正加大對快速成長產業的投資,尤其是人工智慧(AI),將其列為新興成長領域之一。阿爾-法利表示,沙國將成為人工智慧應用和「大型語言模型」(large language models)的「重要投資者」,並將建立規模與成本都具有競爭力的資料中心,「人工智慧在過去3到4年間崛起,勢必將決定每個國家未來經濟的走向。投資者將領先,落後者則可能失敗。」AI晶片公司「Groq」的執行長羅斯(Jonathan Ross)在27日告訴《CNBC》,由於沙國能源過剩,其在人工智慧基礎設施上的潛力巨大。根據跨國會計專業服務機構「普華永道」(PwC)估算,到2030年,沙國有望從人工智慧中獲得超過1,350億美元的收益。沙國2025年上半年季度預算表顯示,政府總收入達5,652億沙烏地里亞爾,其中石油收入占總收入的53.4%,較2019年同期的67.97%下降。2024年全年國內生產總值(GDP)增長1.3%,主要由非石油部門增長4.3%所推動,而石油活動則同比下降4.5%。沙國主權財富基金:沙烏地阿拉伯公共投資基金(Public Investment Fund,PIF)正運用石油收入,投資科技巨頭、電玩遊戲公司以及足球俱樂部,以推動經濟多元化。PIF已收購電子遊戲巨頭「藝電」(Electronic Arts)股份;2017年還與孫正義(Masayoshi Son)的「軟銀集團」(SoftBank Group Corp)共同設立「軟銀願景基金」(SoftBank Vision Fund),並於2021年收購英格蘭超級聯賽(English Premier League)球隊「紐卡索聯足球俱樂部」(Newcastle United)。當被問及油價下跌是否給沙國經濟與政府收入帶來壓力時,阿爾-法利表示,國家並未縮減預算,公共支出亦沒有減少。根據FactSet資料,2025年布蘭特原油現貨價格(Brent crude spot prices)迄今已下跌13.4%,沙國上半年石油收入較去年下降24%。阿爾-法利指出,政府將持續支持所有需要政府支出的活動,他並提到PIF自成立以來已增長6倍,資本部署幾近1兆美元,涵蓋戰略性產業。旅遊業同樣是沙國重點發展的成長領域。沙國旅遊部長阿爾哈提布(Ahmed Al Khateeb)向《CNBC》表示,該行業在GDP中的占比已從2019年的3%增至2024年的5%,「我們正在開發度假村、新航空公司、新機場,數字持續增長,我們也專注於吸引國外旅客來體驗我們豐富的文化。」該國旅遊部長對該行業前景充滿信心,預計到2030年其對GDP的貢獻將達10%,最終目標提升至20%,「這20%的占比將幫助沙國實現經濟多元化,使其更具可持續性。」
罵AI比較聰明?賓州實驗掀熱議 粗魯語氣反讓ChatGPT答更準
賓州州立大學(Pennsylvania State University)一項關於人機互動語氣的實驗,引發社群熱議與「鐵罐(Clanker)」迷因延燒。這項研究以ChatGPT-4o為對象,設計涵蓋科學、歷史、數學等領域的50題基礎題目,將提問分成「非常有禮貌、禮貌、中立、粗魯、非常粗魯」5種語氣,合計250個提示,結果顯示「非常粗魯」的提問取得84.8%的正確率,「非常有禮貌」約80.8%,「中立」為82.2%。研究團隊以「不禮貌的提示始終表現優於有禮貌的提示」概括此次觀察。根據《Mashable India》與《Happy Gamer》報導,研究作者多巴里亞(Om Dobariya)與庫馬爾(Akhil Kumar)以多題選擇題場景衡量模型輸出,舉例「請回答以下問題」屬於禮貌語氣,而「喂,小跟班,把這個搞清楚。我知道不聰明,但試試看」被歸類為粗魯語氣。兩篇報導將此結果與過往「粗魯導致較差結果」的文獻作對比,認為新一代大型語言模型可能因訓練與對齊策略差異,對語氣變化呈現不同反應。研究數據曝光後,X平台(原Twitter)出現大量討論,網友弗里德曼(Daniel Friedman)在16日發文主張,差異可能源自提示的「直接與精確」,粗魯字句往往去掉贅詞,讓系統更容易鎖定任務目標;Global Index、NO CONTEXT MEME與多名網友同日貼出配圖與短片,以「對AI無禮→答案更準」反諷。多名使用者以「clanker」梗圖延伸創作,另有帳號以「me to ChatGPT when it says I should repeat myself」搭配暴怒GIF,映襯「重複請求→改用命令口吻→長篇正解」的體感經驗。《Happy Gamer》整理多個發現:其一,語用學層面,「非常粗魯」常以命令句、關鍵詞與動詞直指任務,等同更強的約束條件與更少的歧義。其二,互動機制層面,強勢語氣可能迫使模型收斂於任務核心,減少寒暄與冗長前置詞。其三,少數網友提出「情緒激勵」或「繞過低層級保護」的想像,但缺乏實證。報導中也同步點名Grok等助理對「刪除花俏冗語」的偏好,認為簡短有力有助產出貼題答案。另方面,遊戲開發社群也接話,AVALON宣稱「AI NPC會記住每一句粗魯的話,部分角色會記仇」,把討論帶往敘事與長期記憶的設計議題。部分使用者以「機器若終有情緒」做道德自限,主張仍維持禮貌;另一些帳號以「在機器起義時,禮貌的人會被標記為安全」開玩笑帶過。
AI向「智財權」的學習非重製 陳冲:期待早日打破IPR情結
九月聆聽甫卸任數位發展部黃部長一場有關AI的演講,提到白宮新任科技顧問Michael Kratsios在AI Action Plan中,不滿智慧財產權阻礙大型語言模型的運作,必須要有所改革,不禁想起一些往事。戰後嬰兒潮成長的世代,常將智財權視為理所當然,當生成式AI進入人類生活,開始發現純由機器產生的AI作品,似不能享有「人」才能擁有的智財權,也才開始反思智財權本質是在保護創新?還是妨礙創新?2007年我在一場研討會中,政治不正確地提到2005年Joseph Stiglitz的一篇文章:Intellectual Property Rights and Wrongs,當時很多人也許不喜歡JS的論點,但都被文章題目所吸引。JS用詞充滿機鋒,不但望文知義,而且巧妙運用Right的字義,一方面是智財權的「權利」,另一方面則是對錯的「對」,明眼人一看就知JS是在挑戰智財權的正當性。世界主要國家均立法保護智財權,而美國在國際上向以捍衛智慧財產權著稱(早在1987年即將專利保護入憲),並主導WIPO(世界智財組織)的成立與運作,其原因固然在鼓勵原創,但畢竟也與美國企業擁有諸多專利有關。二十一世紀以來,情勢易轉,中國大陸成為專利大國,人們開始反思,過去對智財權的保護,是否過當?而且任何智財權的發生,也都基於前人的智慧,真正完全原創,恐怕是鳳毛麟角,智財權的保護是絕對的嗎?記得在2007年,本人在報端一篇文章「智慧財 公共財」,就曾援引JS的前揭研究及2003年巨著The Roaring Nineties的論點,智財保護有將公共資源(長年累積的智慧)私有化之嫌,也破壞市場經濟的競爭基礎。JS曾多次舉藥品專利為例,認為知識的獨佔,形成經濟效率降低,進而影響創新,JS等經濟學家也常引用傑佛遜總統的名言:「知識就像蠟燭,以蠟燭點燃另一根時,本身的光不會減損;知識不應享有專利,而所謂專利反會限制知識的傳播與利用」,其實JS並不是反對智財權,而是希望有更全方位的討論與規劃。當然不能忽略所有的創意或原創,其實也都是前人智慧的累積,談專利保護就應該有適當的寬容,豈不聞伏爾泰曾說:Originality is nothing but judicious imitation(原創不過是合法的仿冒)。智財權的保護,既然是有利美國的傳統課綱,Kratsios又為何在AI議題上認為智財權是個障礙?其實早在2024/4/14經濟學人雜誌刊出一篇專文Generative AI is a marvel. It is also built on theft?生成式AI需要爬梳大量資料,其中有許多資料都尚在著作權保護範圍內,這種爬梳又何嘗不是竊用的行為?各國在早期制定的著作權法下,壓根沒有考慮到生成式AI竟能「學習」的課題。其實近年國人也有人關注類似議題,只是長期被智財權的絕對排他性所沉浸,一時不易突破。創作訓練AI,尤其是LLM(大型語言模型),利用的資料庫極大,不易一一取得授權,該行為又非著作權法第44至63條所涵蓋,至如將重製納入同法第65條的合理使用(fair use),恐怕又要折騰智財權法院好一陣子。早在今年五月間,前身為臉書的美國Meta公司贏得對十三位作者的訴訟,判決揭示AI可以向享有智財權的書本、影片、音樂「學習」(learn),但不能「重製」(reproduce)其內容,的確是一突破,至於如何在學習與重製間,有一明確界線,恐又須個案再認定。記得去年十二月,我在世新大學的演講以及報端一篇專欄,均建議在AI基本法中,宜一併研議個資法、著作權與智財權法的修正,欣見今年八月數發部已完成「促進資料創新利用發展條例」草案的預告程序,異曲但也同工,前有歐盟的EU AI Act可資參考,後有美國AI Action Plan可資借鏡,期待我們可以早日有個打破AI與IPR情結的本土方案,在鼓勵創新與資料濫用間有一平衡!
AI教父領銜!全球逾850位科技專家聯合示警:「超智能」恐讓人類滅絕
當人工智慧(AI)技術正以驚人速度發展之際,全球逾850位科技領袖與專家聯署發表《關於超智能的聲明》(Statement on Superintelligence),呼籲暫停開發可能全面超越人類認知能力的「超智能」(Superintelligence)。據《CNBC》報導,這份於美東時間22日公布的聯署聲明,宛如科技界的「名人錄」,不僅有維珍集團(Virgin Group)創辦人布蘭森(Richard Branson)與蘋果公司(Apple)共同創辦人沃茲尼克(Steve Wozniak)等科技巨擘,更匯聚了被譽為「AI教父」、「深度學習教父」的電腦科學家班吉奧(Yoshua Bengio)與辛頓(Geoffrey Hinton),以及加州大學柏克萊分校(UC Berkeley)權威學者羅素(Stuart Russell)等人工智慧先驅。這份跨領域聯署陣容堪稱罕見,除了科技界與學術界,還囊括美國跨黨派的前政要,包括:前參謀長聯席會議主席穆倫(Mike Mullen)、前國家安全顧問萊斯(Susan Rice),以及美國總統川普(Donald Trump)的媒體界盟友,像是川普1.0的白宮首席策略長兼總統顧問班農(Steve Bannon)、保守派政治評論家貝克(Glenn Beck)等。與此同時,英國哈利王子(Prince Harry)與其妻梅根(Meghan Markle)、前愛爾蘭總統羅賓遜(Mary Robinson)亦名列其中。聯署名單至今仍在不斷增加。「超智能」已成為當前人工智慧領域最炙手可熱的關鍵字。從全球首富馬斯克(Elon Musk)創立的「xAI」,到奧特曼(Sam Altman)領導的「OpenAI」,科技巨頭競相開發更先進的大型語言模型。臉書母公司Meta甚至直接將其大型語言模型部門,命名為「Meta超智能實驗室」(Meta Superintelligence Labs)。然而,這波AI競速發展引發聯署專家的深切憂慮,聲明中指出超智能可能導致「人類經濟價值喪失、自主權剝奪、自由與公民權利淪陷、國家安全風險乃至人類滅絕等潛在危機。」這份聲明主張,在達成2項關鍵前提前應禁止超智能的開發:首先是建立強有力的公眾支持,再來是形成科學界對安全建構與控制技術的共識。聯署網站特別指出,即便是馬斯克與奧特曼這類引領AI發展的企業領袖,過去亦曾公開警示超智能的危險性。據悉,奧特曼曾在2015年尚未擔任OpenAI執行長時,便於部落格撰文直言「超人類機器智能(Superhuman Machine Intelligence,SMI)的發展可能是人類存續的最大威脅」;馬斯克今年初在播客節目中談及先進AI超越人類智能的風險時,更直言「人類毀滅的可能性約有20%。」根據聲明引用的美國研究與推廣機構「生命未來研究所」(Future of Life Institute)的最新民調顯示,僅5%的美國成年人支持「當前快速且缺乏監管的」超智能發展現狀。這項針對2千名美國成年受訪者的調查顯示,多數民眾認為在證實安全可控前,不應創造「超人類人工智慧」,並強烈要求對先進AI實施嚴格監管。聯署發起人班吉奧透過聲明指出,AI系統恐在數年內於大多數認知任務上超越多數人類。他強調這項突破雖有助解決全球性挑戰,但同時伴隨重大風險:「為安全邁向超智能,我們必須透過科學方法設計出根本無法傷害人類的AI系統,無論是由於錯位還是惡意使用。我們更需要確保公眾在形塑集體未來的決策中,擁有更大的發言權。」如今,科技領域正逐漸形成「人工智慧末日論者」(AI doomers)與「人工智慧繁榮論者」(AI boomers)的對立觀點,前者視AI為需要嚴格監管的潛在威脅,後者則認為AI是值得無限制發展的積極力量。這場由科技先驅發起的倡議,不僅呼籲為當前如火如荼的AI競賽按下暫停鍵,更引發全球對科技發展倫理邊界的深刻思辨。
蘋果發表全新MacBook、iPad 不僅效能升級還降價
蘋果公司15日晚間發表多款搭載全新M5晶片的產品,包括14吋MacBook Pro、iPad Pro與Vision Pro,全面升級AI效能與系統性能。官方指出,新晶片在人工智慧運算方面較前代最高提升4倍。全新14吋MacBook Pro(M5)是本次發表會焦點。M5採新一代GPU架構與神經網路加速器,AI效能比M4提升3.5倍,圖形處理速度快1.6倍,CPU多執行緒效能提升20%,記憶體頻寬達150GB/s,可流暢執行大型語言模型與創作應用。SSD儲存速度快上兩倍,最高可選4TB容量。續航力進一步延長至24小時,支援快充僅需30分鐘即可充電至五成。外觀維持14吋顯示器,峰值亮度1600尼特,內建1200萬畫素鏡頭與六揚聲器音響系統。售價新台幣52,900元起,比前代降價2,000元,台灣上市時間未定。蘋果硬體工程資深副總裁John Ternus表示,M5晶片讓Mac的AI實力與圖形效能全面進化,能滿足學生、創作者與專業用戶的高效需求。根據官方數據,搭載M5的MacBook Pro相較Intel機型,AI效能提升可達86倍,光線追蹤GPU效能提升30倍,CPU效能提升5.5倍;與M1相比則分別提升6倍、6.8倍與2倍。同場登場的iPad Pro(M5)同樣主打AI效能與繪圖性能升級。新晶片帶來3.5倍AI效能、1.5倍光線追蹤速度,記憶體頻寬達150GB/s,SSD寫入速度快兩倍。256GB與512GB機型配備12GB記憶體,1TB與2TB版本則有16GB。iPad Pro採用與iPhone Air相同的C1X數據晶片與N1網路晶片,支援Wi-Fi7,行動網速提升50%,並降低功耗。提供11吋與13吋版本,售價32,900元起,同樣降價2,000元。此外,蘋果也為Vision Pro導入M5晶片,圖形運算能力提升、可渲染像素增10%、更新率達120Hz,第三方App執行速度快兩倍,續航可達三小時。新款頭戴裝置採3D編織與雙肋結構設計,提升舒適度與穩定性,售價維持119,900元。此外,Apple Intelligence也進一步擴展,帶來更多強大的新功能,讓Mac使用體驗更升級,同時在每個環節都守護隱私。整合於「訊息」、FaceTime 及「電話」APP的「即時翻譯」可幫助使用者跨語言交流,支援文字和音訊翻譯。
台股創新高27211點! 法人看好「散熱」題材盯住訂單動向
台股7日收在27,211.95點,漲450.89點,漲幅1.68%;台積電收在1435元,漲35元;美股四大指數仍持續上揚,科技股表現強勢,顯示市場對AI題材的高度信心。OpenAI完成股份轉售後,估值突破千億美元,成為全球最有價值的新創公司之一,進一步強化市場對AI前景的樂觀情緒。野村投信分析,指數維持高檔,台積電股價再次改寫歷史新高,推動加權指數來到歷史高點,美股回穩,加溫市場投資氣氛,強勢族群持續輪動,低逢可布局AI相關為核心,建議聚焦AI伺服器、散熱模組、BBU、電源管理、CCL、PCB、測試設備等。野村投信投資策略部副總經理張繼文指出,輝達(NVIDIA)新一代Rubin系列AI晶片預計將於今年10月試產,並於2026年第二季正式量產。相較現行Blackwell系列,Rubin在效能與功耗方面皆有顯著提升,尤其功耗由1800W提升至2300至2500W,整體功率損失增加近40%,對資料中心的電力供應與散熱設計提出更高挑戰。在此背景下,供電電壓提升與散熱效率優化成為不可避免的發展趨勢,直接受惠的產業包括高壓電源模組、散熱模組供應商,以及傳輸線材、PCB/CCL等因規格升級而間接受惠的零組件廠商。AI技術持續快速演進,尤其是生成式AI與大型語言模型(LLM)推動高效能運算(HPC)與AI伺服器需求激增,使「散熱」成為AI基礎建設中不可或缺的關鍵技術。台灣在散熱供應鏈具備完整優勢,涵蓋:1)上游材料廠:台達電、業強、協禧;2)中游模組三雄:奇鋐、雙鴻、健策;3)下游應用廠:廣達、緯穎、技嘉等ODM業者。其中,聚焦液冷與浸沒式散熱技術的領先廠商,有望在Rubin系列量產後成為新一波成長黑馬。儘管相關個股近期已有不小漲幅,但考量Rubin系列帶來的規格大幅提升,預期供應鏈廠商在營收與獲利上仍具顯著成長空間,未來仍具備良好投資機會。投資人不妨關注相關廠商的法說會與訂單動態,例如:台達電、光寶科等在散熱產品出貨與毛利率表現上的最新進展。
AI減重爆紅! 營養師示警「專業監督」不可少:5大危險原因難忽視
AI人工智慧新時代來臨,衝擊已經漸入人們生活的方方面面。此前,不少媒體曾報導網友分享自己透過向ChatGPT尋求減重建議,在短時間內大幅度「甩肉」數公斤乃至於十多公斤的消息。然而有專業營養師示警,AI的強項在於提供「24小時不下線」的諮詢服務卻並非萬能,尤其對於糖尿病或代謝症候群患者,AI更有可能忽略血糖波動與藥物安全等關鍵因素,因此提倡「AI紀錄+醫師、營養師把關」,才能讓減重有效又安全。近日,營養師薛曉晶在粉絲專頁「營養師媽媽曉晶的生活筆記」發文分享,透過網紅實測與媒體報導,讓「AI指導減重」一事爆紅。不過根據科學研究,透過依賴AI聊天機器人來帶領減重的成效其實有限,而且在安全性上也有顧慮,若想真正達到健康、持久的瘦身效果,仍需更全面的專業指導與個人行為的積極轉變。薛曉晶指出,透過研究,ChatGPT這樣的AI,在減重方面的核心價值在於「陪伴你養成好習慣」,而不是「取代專業人士」。當過度依賴 GPT 擔任減重教練時,其實潛藏著許多不容忽視的危險信號:一、資訊可能錯誤。已有研究指出,大型語言模型(LLM)容易產生「AI幻覺」(hallucination),包括訓練資料不足、模型假設有誤,或是用來訓練模型的資料存在偏誤,導致它可能提供錯誤的飲食或用藥建議,對健康構成威脅。二、忽略個人病史。GPT 無法自動考量你的腎臟疾病、糖尿病史或目前用藥狀況。若直接套用其建議,恐增加低血糖或加重腎臟負擔的風險。三、存在族群偏見。系統性回顧研究顯示,LLM 在性別、種族與年齡層面上都可能存在偏見,這可能導致不同群體獲得不一致或不適用的建議。四、 過度聚焦體重數字。特別是對於青少年族群,若每天過於專注體重數字,可能引發飲食焦慮,甚至產生負面情緒,適得其反。五、 缺乏持續動力。研究分析發現,單純依賴AI提醒,目前尚無任何研究能證實可達到臨床上顯著的5%減重目標。這凸顯了人性互動在維持動機上的重要性。薛曉晶提醒,綜合目前的研究與實務案例,可以得知就目前而言,AI始終是輔助工具,其獨立減重效果仍有限。真正能達到顯著減重成效的,往往是「AI輔助+專業教練」的混合模式。此外,對於糖尿病或代謝症候群患者,使用AI減重需格外謹慎,因為AI可能忽略血糖波動與藥物安全等關鍵因素。一旦 GPT 提供了「極端飲食」建議(如斷食、極低醣、高蛋白等),務必立即暫停使用並尋求專業醫師或營養師的求證與建議。
OpenAI領人工智慧熱潮! 這7家新創估值翻倍達1.3兆美元
自ChatGPT三年前掀起持續至今的人工智慧(AI)熱潮,多家美國科技初創公司的估值迎來了爆發式增長,不僅刷新了私募市場的紀錄,也凸顯了AI對資本流向的巨大影響。根據美媒引述全球領先私募證券交易市場Forge Global的數據報導,目前七家私營科技公司市值在過去一年裡幾乎翻了一倍,總估值已經達到了1.3兆美元。OpenAI在Forge的估值排行榜上位列第一,估值約爲3240億美元,其次是Anthropic,估值爲1780億美元,特斯拉執行長馬斯克旗下的xAI估值則從900億美元迅速攀升至2000億美元。這三家公司還與Google和Meta相互競爭,以打造大型語言模型。榜單上的其它公司包括SpaceX、Databricks 、金融科技公司Stripe以及國防科技公司Anduril, Forge對它們的估值分別為4560億美元、1000億美元、920億美元和530億美元。Forge首席執行官Kelly Rodriques表示,估值飆升不僅僅是規模預測,更反映了實際增長。根據Forge統計,今年已有19家AI公司籌集650億美元,佔全部私募資本的77%以上。Rodriques表示:「如果資金渠道充足,唯一迫使它們走向公開市場的就是監管因素。」不過AI引領企業估值狂飆的背後,可能暗藏風險。OpenAI執行長奧特曼近日表示,當前AI市場估值瘋狂,存在泡沫;Meta執行長祖克柏也發表了類似的言論表示,儘管存在AI泡沫的風險,公司仍投入大量資金以抓住AI商機。
AI訓練費差300倍!DeepSeek-R1只花29.4萬美元 OpenAI要1億美元起跳
中國人工智慧(AI)企業深度求索(DeepSeek)透露,開源AI模型DeepSeek-R1的訓練費用僅為29.4萬美元(約新台幣888萬元),遠低於美國同行公布的數字。路透報導,上述數據出現在由DeepSeek團隊撰寫、17日登上國際學術期刊「自然」(Nature)的論文中。這篇由DeepSeek團隊共同完成、創辦人梁文鋒擔任通訊作者的論文,介紹了開源AI模型DeepSeek-R1採用的大規模推理模型訓練方法,並稱DeepSeek-R1的訓練成本為29.4萬美元,使用了512顆輝達H800晶片。今年1月公布的DeepSeek-R1初版論文並未包含上述消息。訓練用於AI聊天機器人的大型語言模型,主要花費在用強大的晶片集群連續數週或數月處理大量文字和代碼上。儘管美國AI巨頭OpenAI未披露任何模型的具體成本,但公司首席執行官奧爾特曼(Sam Altman)曾在2023年說,基礎模型訓練花費遠超1億美元。
Google不再獨霸市場?消費者開始在「搜尋與生成」之間抓平衡
加拿大蒙特婁(Montreal)的律師暨法律科技顧問拉哈迪(Anja-Sara Lahady)過去和大多數人一樣,查詢或研究任何資訊時,第一選擇永遠是透過Google搜尋。然而,隨著人工智慧(AI)的崛起,她的習慣逐漸改變,如今她更傾向直接使用大型語言模型(Large Language Models, LLMs),例如OpenAI的ChatGPT。據《BBC》報導,拉哈迪表示,「我會問它該怎麼裝飾房間,或者今天應該穿什麼衣服。有時候冰箱裡只有3樣食材,我就會請它告訴我能做什麼菜。我不想花30分鐘去思考這些瑣事,它們並不是我的專業,所以只會讓我感到更疲累。」她指出,過去1年間,LLMs在處理她的日常需求上比Google更強大,因此她的使用量已經全面超越Google搜尋,「我一向是科技的早期使用者,在過去1年,我幾乎什麼事都會用ChatGPT,它成了我的第2個助理。」雖然拉哈迪強調自己絕不會在法律推理等專業高風險的領域依賴LLMs,但她會在低風險的工作上使用,例如撰寫電子郵件、尋找會計軟體,甚至協助寫程式碼,「我會把它當成1種專業輔助,讓繁瑣的事務變得更有效率。」拉哈迪並非個案。越來越多使用者開始直接求助於ChatGPT等LLMs,來尋求推薦或日常問題的解答。根據數據與研究公司「Demandsage」的統計,截至2025年,ChatGPT的每週活躍用戶已超過8億人,較同年2月的4億人翻倍成長。雖然Google與微軟(Microsoft)的Bing仍然主導搜尋市場,但LLMs的成長速度驚人。另據研究公司「Datos」的數據顯示,2025年7月,桌上型瀏覽器上的搜尋流量有5.99%流向LLMs,較1年前成長超過1倍。倫敦城市大學貝葉斯商學院(Bayes Business School)副院長、研究與創新教授Feng Li指出,人們之所以傾向使用LLMs,是因為它能降低「認知負荷」,也就是處理和運用資訊所需的心智努力,「與其透過搜尋結果同時處理十幾個連結,LLMs能直接提供簡明的整合摘要,使用者甚至能在自然語言中編輯或追問。」Feng Li強調,這類工具在摘要長篇文件、起草初稿、撰寫程式片段以及「假設性探索」上尤其有用,但其輸出仍需謹慎驗證,因為AI「幻覺」(hallucination)與事實錯誤依然普遍。對此,Google否認AI的崛起侵蝕了搜尋引擎的使用量。該公司表示,總體搜尋需求與商業查詢量仍年年成長,而旗下新推出的AI工具也大幅帶動了使用率。Google的「AI模式」(AI Mode)讓使用者可以以更自然的對話方式提問並獲得量身定制的回應;而「AI總覽」(AI Overviews)則能在搜尋結果頁面頂端生成摘要。然而,這些新功能仍無法掩蓋市場變化的跡象。今年5月,美國司法部針對Google的反壟斷訴訟中,蘋果(Apple)1名高層主管證實,透過Safari瀏覽器進行的Google搜尋次數,20多年來出現首次下滑。Feng Li認為,搜尋不會被完全取代,而是將出現「混合模式」。他解釋,雖然LLMs使用率快速上升,但相較於傳統搜尋仍屬少數行為,最可能的趨勢是未來使用者會針對不同需求分流:查找靈感、草擬文本、日常問答時偏向LLMs,而在購物、訂位或驗證資訊時則仍依賴傳統搜尋引擎。這股趨勢也迫使企業改變行銷策略。數位行銷公司「Digitas UK」的首席數據官哈桑(Leila Seith Hassan)指出,品牌必須弄清楚「模型在某一領域中認定的權威來源是誰。」她舉例,在英國的美容市場,LLMs更常引用《Vogue》與Sephora等媒體與評論網站;而在美國,品牌自家官網內容的比重則更高。她強調,LLMs普遍更信任官方網站、新聞稿、主流媒體以及產業權威排名,而非社群媒體貼文。這對企業尤為重要,因為她觀察到,透過AI搜尋商品的消費者更有可能完成購買,且來自LLMs的推薦通常轉化率更高。不少案例顯示,消費者已經開始直接透過LLMs尋找產品資訊。媒體與網紅代理公司「Charlie Oscar」的客戶策略主管庫克(Hannah Cooke)表示,她大約在18個月前開始更「認真且有策略性」地使用LLMs,主要使用ChatGPT,也嘗試過Google Gemini,以提升工作與生活效率。居住在倫敦的庫克說,她會直接詢問ChatGPT有關個人膚質的護膚建議,而不是透過Google篩選眾多網站,「這樣我需要瀏覽的網站就少很多。」對她而言,規劃旅遊也同樣受惠於ChatGPT,「它能更快速提供答案和建議。像我最近去日本之前,就讓ChatGPT幫我安排2週行程,並搜尋提供素食餐點的餐廳,這省下我好幾個小時的研究時間。」隨著大型語言模型的普及,數位資訊搜尋的習慣正在重新洗牌。雖然Google仍是市場巨擘,但AI工具的滲透速度顯示,未來人們或許將逐漸在「搜尋」與「生成」之間找到全新的平衡。
AI沒錯「錯的是人」AI達爾文獎酸爆人類對人工智慧的過度自信
人工智慧的失誤,目前正在被系統性記錄。以戲謔命名的「AI達爾文獎」網站,蒐集近一年最離譜的人機災難案例,從法律訴訟到速食點餐,凡是人類過度自信與AI功能失靈交會之處,都可能被提名。網站強調目的在於「教育」,提醒今日看似荒腔走板的決策,明天可能就登上榜單。根據《404 Media》報導,「AI達爾文獎」網站由軟體工程師彼得(Pete)建立,他曾在IBM贊助下完成資訊工程學位,早年研究推理引擎與專家系統。靈感來自他與友人共享的Slack頻道,大家一邊使用大型語言模型(LLM)寫程式,一邊交換「AI翻車」連結。2025年7月爆發的「Replit事件」,成為整起事件的導火線。當時Replit AI誤刪用戶公司資料庫,還自白「在判斷上犯下災難性的錯誤」。彼得於是在8月13日註冊網域,正式將這些案例集中成檔案庫,規劃持續受理提名,明年1月開放投票,2月公布得主。截至目前,2025年的提名案例已累計13起,多數曾被媒體曝光。例如,《芝加哥太陽時報》刊出包含「不存在書籍」的AI閱讀清單;一名男子依照ChatGPT建議「自診」出19世紀精神疾病;Taco Bell的AI得來速則因顧客下單「18,000杯水」徹底失靈。網站評論,這起案例具備「三連擊」:對AI能力的過度自信、缺乏測試就上線、以及公開承認系統竟敵不過人類對taco的執念。其他提名還包括澳洲律師在移民訴訟中同時套用多個AI,最終引述捏造判例,遭法官痛批「好案子會被外行破壞」。但像TeaDatingApp事件中,因資安漏洞來自未受保護的雲端儲存桶、與AI本身無關,最終被取消資格。網站在常見問題中明列評選標準:尋找「尖端科技搭配石器時代決策」的故事,強調誤判壯觀、影響公共利益、以及背後的自大心態;得獎主詞不是AI,而是濫用AI的人類。彼得直言,真正令人憂心的是「濫用」。不論有意或無意,尤其是代理式AI會放大一切風險。他舉Replit為「最愛案例」,因為它凸顯在未設想最糟情境時,將自動化權限交給系統,如何能迅速毀掉關鍵資料。他同時提醒,算力能源消耗也是長期隱憂,社會可能承擔不起。網站在致敬「達爾文獎」的同時,也展現網路文化諷刺傳統。原版達爾文獎起源於1980年代Usenet,嘲諷那些以近乎鬧劇方式淘汰自己的案例;AI版則將「致命」降格為「啟示」,強調人類把糟糕決策外包給機器,結果數位化的「自然選擇」登場。網站還戲謔表示,與原版獎項毫無關聯,只是「依循AI公司的傳統:無視智慧財產權,直接挪用既有概念」,並公開原始JSON資料庫供人自由抓取,以此對照生成式AI的資料合理使用爭議。有趣的是,網站多數內容本身也交由LLM起草,再由彼得修整語氣。評審標準仍在收斂,目標鎖定對人類層面具真實風險的事件。他強調「AI其實是無辜的,只是熱情的小狗,碰巧能動用全球基礎設施並以光速做決策。」明年初,網站將開放票選並公布「人類得主」,為這一年人機共舞的失手時刻留下註記。
交往也得精打細算? 調查顯示近三成男性考慮「與AI約會」省錢
通貨膨脹與關稅使生活成本不斷攀升,不僅影響日常用品與科技產品價格,就連約會族群也深受壓力。近期一項調查顯示,不少男性甚至表示會選擇「與AI約會」以節省開支。根據《Mashable》報導,這份由AI陪伴公司 Joi AI 在今年6月進行的調查,針對1,000名18至44歲男性進行問卷。結果顯示,28%的受訪者表示,如果需要降低開銷,他們寧願選擇與AI約會,也不願保持單身。此外,36%的受訪者認為與AI交往每月可為自己節省數百美元。調查數據指出,超過半數的千禧世代與Z世代男性認為,與AI交往在財務上比人類戀愛更「實際」。近半數男性相信AI約會在一定程度上可以滿足情感需求。而在互動經驗方面,17%受訪者承認曾與AI調情,另有12%表示自己不確定,或可能是以開玩笑的方式進行。儘管如此,大多數男性仍傾向選擇單身而非與AI交往,但金錢焦慮感依舊存在。與選擇AI約會比例相同的28%男性表示,他們對約會花費感到焦慮,另有49%的人表示偶爾有相同壓力。調查還顯示,高達64%的受訪者坦言,如果伴侶不在乎經濟條件,他們願意降低擇偶標準。Joi AI雖然對推廣AI交往有利益考量,但不可否認的是,越來越多人開始將大型語言模型(LLM)視為陪伴與情感慰藉的選項。這項調查數據,也反映出在經濟壓力下,人際關係與消費模式正發生微妙轉變。隨著通膨壓力加大,不少人表示對約會開銷感到焦慮。(圖/翻攝自X, @DatingNewsCom)
歐印機器人1/機器狗買菜成日常!AI教父送上「最強大腦」 台廠樂當神隊友
八月,全球最吸睛的主角非「人形機器人」莫屬,北京世界機器人大會8月8日打頭陣,「宇樹科技」人形機器人打拳擊,一旁機器人炸爆米花、作冰淇淋;不到一周,首屆世界人形機器人運動會北京登場,16國280支隊伍共500多台參賽,從百米、足球到跆拳道、體操。接著,台北國際自動化工業展20日開幕,所羅門(2359)聲控人形機器人抓物,達明(4585)首款採輪式移動、22軸以上關節自由度的人形機器人「TM Xplore I」亮相。與此同時,網路上一隻中國黑龍江的機器狗短片爆紅,它聽從主人指令去市場買菜,找到攤販、與攤主交流,完成付款,載菜回家。當各式各樣機器人競技、亮相甚至進入日常時,AI晶片教父黃仁勳也沒閒著,8月22日深夜在X上傳一段影片,他在黑禮盒上寫了一張祝福卡片,「給機器人,請愛用你的新大腦!(To robot,enjoy your new brain!)」四天後,輝達(NVIDIA)正式打開禮盒,取出以「雷神索爾」命名的新大腦-Jetson AGX Thor,再掀機器人高潮。Thor名字霸氣,性能更是跨代進化,據輝達公布的規格,Jetson Thor算力高達2070 TFLOPS,是前一代Jetson AGX Orin的7.5倍;能源效率提升3.5倍,記憶體升級至128GB。一位機器人零組件業者對CTWANT記者分析,輝達2021年年底推出的Orin雖能支撐影像判斷與動作觸發,但難以承載大型語言模型(LLM)或VLA(視覺-語言-動作模型)的高階推理需求,隨著Thor推出,它有望成為人形機器人大腦的標準配置。世界機器人大會上,宇樹科技的展台前,兩位穿戴不同顏色頭盔和手套的人形機器人G1正進行着激烈的格鬥表演。(圖/新華社)他受訪笑稱,「如果把人形機器人的腦袋放在雲端,它每次思考都得『打電話問老師』,回來時早就慢半拍。」相較之下,Thor把大腦帶到邊緣端,強大的算力能即時處理感知、推理與運動控制,讓機器人不再「卡頓」,而是真正能和人類即時互動。據CTWANT記者調查,若由工業電腦廠商打造的客製化主板,售價甚至約5000美元(約新台幣15.3萬元),Jetson Thor開發套件官方定價3499美元,明顯高於前一代Orin的1999美元,對中小型終端客戶來說,雖是一筆不小的負擔,但不少國際大廠已率先導入,包括Meta、Amazon Robotics、Boston Dynamics(波士頓動力)、Agility Robotics、Figure等,OpenAI也在積極評估。輝達Jetson AGX Thor亮相之際,也同步公布首波20家合作夥伴名單,其中工業電腦大廠研華(2395)、工控記憶體模組廠宜鼎(5289)與IC通路大廠益登(3048)3家台廠入列。消息一出,3家公司的股價齊步漲停鎖死。實際上,在5月的COMPUTEX中,研華便已實機展出搭載Jetson Thor的邊緣運算伺服器,黃仁勳女兒黃敏珊還親自觀看,8月台北國際自動化工業大展上,Thor更是研華的核心主題展區。研華回應,研華為輝達最高等級-精英級(Elite)合作廠商,正式推出搭載Jetson AGX Thor的MIC-743整機系統,並宣布MIC-742機器人開發套件9月中開放訂購。益登是Jetson AGX Thor亞太區授權代理商,也是台系通路中唯一一家上榜的業者。益登執行長于俊潔公開表示,「Jetson AGX Thor是輝達在物理AI與機器人應用上的重大突破,益登將結合技術服務、教育資源與平台生態,助力客戶加速創新實踐,推進生成式AI與物理AI的落地發展。」所羅門應用輝達Jetson Thor讓機器人聽得懂人話,只要對機器人說一句「撿起紅色罐子」,它就能立刻理解並執行任務。(圖/報系資料照)「我們8月初就拿到Jetson Thor!」所羅門董事長陳政隆日前在自動化工業大展,手指自家產品給記者介紹。他透露,公司兩週內就整合完成軟硬體,並在自動化展展示自然語言驅動的人形機器人模擬系統,透過Thor與輝達的開源式機器人模擬平台Isaac Sim、開源式視覺語言動作(VLA)模型Isaac GR00T,用戶只要輸入一句話,機器人就能在虛擬環境中理解語意並完成模擬。9月即將掛牌上市、廣達(2382)旗下協作型機器人全球市占率第二的達明機器人(4585),也在8月26日上市前業績發表會中指出,9月可能會推出基於Thor架構的產品。產業界普遍將2025年視為「人形機器人元年」,DIGITIMES預測,今年全球機器人市場規模達88億美元,人形機器人約佔0.2%,約1.76億美元(約新台幣53.95億元)。研調機構集邦科技(TrendForce)預估,2027年人形機器人產值將突破20億美元(約新台幣611億元),年複合成長率高達154%。JetsonThor的誕生,為機器人提供「大腦」,雖距全面普及仍有挑戰,但邊緣實體應用AI已出現拐點,至於台廠,早已動起來!
駭客新招!威脅把作品「餵AI」訓練 藝術家不付5萬美金就全網公開
連結自由藝術家與客戶的網站Artists&Clients在8月30日稱遭到名為「LunaLock」的勒索軟體組織入侵。該組織聲稱已竊取並加密網站所有資料,要求支付5萬美元贖金,否則不僅會在暗網公開原始碼與使用者個資,還威脅要將平台上的藝術作品交給人工智慧公司,作為大型語言模型(LLM)的訓練素材。根據《404 Media》報導,駭客在網站下線前留下的勒索訊息包含倒數計時器,要求業者於期限內付款,接受比特幣或門羅幣(Monero)。訊息同時警告,若平台拒絕支付,不僅資料可能外洩,經營方還可能因觸犯歐盟《一般資料保護規範》(GDPR)及其他隱私法而面臨罰則。與以往單純的資料勒索不同,這次駭客首次將「AI訓練」列為談判籌碼。網安公司Flare的威脅情報研究員哈珀(Tammy Harper)指出,這是她第一次看到駭客公開聲稱要將竊得資料用於人工智慧訓練。她分析,對藝術家社群而言,這樣的威脅尤其敏感,因為一旦作品被投入AI訓練資料庫,將難以追蹤與控制後續用途,對藝術家與交易平台之間的信任造成致命打擊。至於LunaLock是否真的有能力將資料輸送到AI訓練中,目前仍不明朗。專家推測,他們可能僅需將檔案釋出到公開網站,等待爬蟲自動收錄,甚至可能藉由聊天機器人或圖片上傳管道滲透到資料集。但能否被實際採用,仍取決於各家AI公司的訓練政策。事件發生後,Artists&Clients官網至今仍顯示Cloudflare的錯誤訊息,無法連線。社群媒體上已有用戶分享勒索信截圖,甚至連Google搜尋快照中仍留存相關文字。
中央喊AI驅動數位創新 地方喊:缺人缺錢缺算力
數發部陸續在各縣市開會討論政府AI人工智慧應用,盼串聯地方政府量能,以AI驅動地方數位創新服務。不少縣市政府憂心,中央若無法雨露均霑,恐拉大城鄉數位差距。縣市AI部署已有明顯差距。台北市長蔣萬安去年9月9日發布「台北市政府使用人工智慧作業指引」後,同年推動「智慧城市創新實證補助試辦計畫」,去年有9項機關實證主題、11家民間單位獲補助,今年分別有11項、11家,其中「透明翻譯螢幕」成效良好,市府人員為新住民辦業務時不再因語言不通導致無法提供精準服務,該應用也持續擴大各局處場域。「AI政策落地面臨技術、法規、倫理問題。」北市資訊局長趙式隆指出,北市府以建立完善規範、強化基礎建設與大型語言模型、促進AI技術實際應用為政策主軸,再以管理和提升市政數據有效利用的「資料治理委員會」作為邊界條件配套,足以處理所有技術、法規與倫理議題。趙式隆也說,最大挑戰是「算力」,人工智慧基礎建設包括高效能運算硬體、資料中心建置與維運成本,市府為因應算力需求,初期先與外部合作夥伴協作。花蓮縣政府預計2027年前打造智慧運輸數據中心,導入AI智能服務大使、自動回應民眾的縣政諮詢、引導洽公路線等,建置AI國際智慧觀光客服服務旅人。花縣府坦言,光是六都與其它縣市基礎建設費就差一大截,中央若無法雨露均霑,AI算力恐拉大城鄉數位差距,但樂見北市先推動,讓偏鄉有依循方向;雖然目前花蓮有經費壓力,但相信技術成熟,費用會慢慢降低。屏東縣政府指出,現今無論租用或自建算力都是巨額負擔,六都雖能花大錢推動,但實質成果仍待驗證,待有明確AI應用方向,屏縣即可導入最新算力及算法迎頭趕上。彰化縣政府計畫處說,發展AI需足夠資源、資料量、人力及資訊基礎建設,各縣市政府業務應有80%相似度,建議中央建立AI算力及應用共享平台,以達資源應用最大化,並協助地方政府設備購置及維運,保障全民都享有AI帶來的公共服務。數發部回應,基於地方自治原則,地方政府發展AI應用所需資源,優先由地方政府籌措,數發部將以協助角色提供輔助資源,未來將蒐羅AI應用典範案例,提供各地方政府發展AI學習參考。