AI Token耗量持續攀升—推理模型的崛起與產業重塑
2022年下半,AI技術出現罕見的結構性轉折。Frontier Model 首度同時展現出真正的泛化(Generalization)與多工能力(Multi-tasking)。泛化意味著模型學到可擴展的語義與分析能力,能在新的指令形式與問題情境下維持穩定表現;多工則意味著同一套模型可以服務翻譯、摘要、圖片生成、問答等截然不同的場景應用,無需為每個任務另行訓練專用模型。這個突破,使AI從針對單一任務優化的垂直工具,轉變為橫向的通用、高成長智慧服務。同時也對供應鏈產生即時衝擊:自2022年下半起,資料中心的算力需求全面上修,GPU短缺從研究機構蔓延至企業端,並推動整條AI供應鏈——從晶片、伺服器到應用層——重新定位。2024年的下一步:推理(Reasoning)登場。泛化與多工解決「能做什麼」的問題,卻沒有解決「能想多深」的限制。對話式問答提供足夠解方,但遇到需要多步驟邏輯推導的任務如解數學題、複雜程式除錯、分析法律條文、科學探索、邏輯論證等,模型的能力侷限就被暴露出來。這個落差,在2024年下半開始逐步被補上。OpenAI-o1的發布標誌著推理時代的開始。推理模型呈現出更接近「System-2」的思考方式——借用心理學家康納曼(Daniel Kahneman, 1934~2024)的框架:System-1是快速直覺式的反應,System-2是緩慢刻意的深層推理。在實際運作中,推理模型不會直接輸出答案,而是先在內部展開較長的(推理)思維鏈(Chain-of-Thought, CoT),逐步分解問題、排查矛盾、整合邏輯,再收斂出最終回應。數學推導、程式除錯、法律條文解析、醫療決策輔助——這些原本只有專業人士才能應付的複雜任務,開始出現跨越式的能力提升。推理能力的形塑,來自幾個相互強化的技術突破。最基礎的是思維鏈CoT訓練。模型在訓練時被要求把推理過程一併展開,而非直接給最終答案,強迫模型在解題時學會分解問題、逐步推進。這種推理的引導,顯著提升複雜邏輯任務的表現。其次是強化學習(Reinforcement Learning)的深度整合。模型透過持續與真實任務互動並接收回饋,逐步找出「真正有用的答案」而非「聽起來合理的答案」——這成為推理品質得以持續演進的核心機制。值得注意的是,強化學習的獎勵機制,也間接強化模型「用更多token想清楚」的行為傾向——更長的思維鏈往往對應更好的答案,模型在訓練中學會以算力(更多token)換品質。第三條路是推論時擴展(Test-Time Scaling),被視為繼預訓練(Pre-training)、後訓練(Post-training)之後的第三條scaling law:不必重新訓練模型,只需在推論(inference)階段投入更多運算資源,讓模型「想更久」,就能換取更好的答案品質。正因如此,隨著用戶數量增加,據報導,目前實際對用戶服務時的推論運算需求,已經高於模型訓練階段的算力消耗。推理能力的代價,直接反映在token用量上。傳統問答模式下,一次查詢平均消耗數百個token;推理模型因為需要展開較長的內部推理步驟,每次查詢的使用量往往是傳統模式的10到50倍。這種倍數效應已在市場流量結構中浮現:目前推理模型的token使用量,已佔整體LLM流量的6成以上,預計會持續增長。這不只是技術規格的改變,而是整個算力需求預測邏輯必須重新計算的開始。當推理能力成熟,一個更大的結構性轉變隨之而來:Agent 的崛起。Agent (代理人)不是升級版的聊天機器人,而是具備目標驅動、自主規劃與多步驟執行能力的AI系統。沒有深層推理,Agent只是預先編排好的流程;有了推理,它才能在複雜流程中深度思考,做出判斷、處理例外、在不確定性中高價值任務。程式設計是第一個Agent的突破點。GitHub Copilot、Anthropic Claude與Cursor的AI coding工具,目前市佔各約24%至25%,生產力提升幅度估計達1.5至3倍。從成長速度可以感受到市場反應的強度:Anthropic的年化營收(ARR)在2025年年增幅逾 800%,Cursor從1億美元成長至10億美元、年增達900%。法律、醫療、財務等垂直領域的跟進速度也正在加快:據報導,Harvey的法律AI ARR已達1.5億美元。OpenEvidence在臨床醫療場景的ARR同樣超過 1.5 億美元。這些垂直應用的共同特徵,在於它們都依賴多步驟推理——不只是查詢資料庫,而是在法條、案例與臨床指引之間做出複合判斷,處理真實世界中的模糊與矛盾。推理的架構決定token耗量只會持續增加。每個新應用場景導入、每個Agent工作流程啟動,都意味著更多的思考步驟與更高的算力消耗——這是推理模型的設計本質,不會因為效率優化而消失,只會因為應用範疇擴大而放大。對半導體、伺服器、高頻寬記憶體供應鏈而言,這是結構性的長期需求訊號。當推理能力從數位工作流程走向實體世界,影響規模可能再擴大一個量級。工廠排程、醫療診斷輔助、教育個人化、法律文件審查——這些場域一旦嵌入自主推理能力,改變的不只是工具,而是企業工作流程與人員分工的重組。這種重組很可能使對ICT基礎建設的需求,從一次性的升級,轉為更長期的投入。這波AI資本投入是否會在建設高峰後趨於平緩?推理模型提供一種不同的結構性邏輯。其特性在於,應用規模的擴張會直接轉化為持續性的推理運算需求,而不僅是一次性的部署成本。當前推論已成為AI算力負載的主要來源,而推理型推論的運算佔比不斷攀升。再加上方興未艾的Agent架構興起,以及各種以token消耗為核心的智慧服務快速普及,算力需求將不再僅僅隨模型訓練週期波動,而是與日常使用頻率高度綁定。當使用深度與應用廣度持續擴張,供應鏈從晶片、記憶體到電力基礎設施所面對的需求動能,可能更接近結構性成長,而非單一景氣循環所驅動。延伸報導專家講堂:AI愈強,Token卻愈便宜
AI愈強,Token卻愈便宜
2023年初,OpenAIGPT-4的API定價約為每百萬token30美元;如今,主流前瞻模型已全面重訂價格:GPT-4o mini降至0.15美元、Anthropic Claude 3.5 Haiku低至0.25美元、Google Gemini 2.0 Flash更壓至0.10美元—降幅從90%到99%不等,而且仍在持續下修。這不是削價競爭,而是深層的技術與市場力量共同作用的結果,並正在引發整個AI生態系的結構性改變。3個相互強化的力量在同時作用,支撐token價格持續下降。首先是模型效率的快速提升。蒸餾(distillation)將大模型的能力壓縮進更小的架構,量化(quantization)降低每次運算的位元需求,混合專家架構(MoE)讓推論時只啟動最相關的小網路。同樣的任務,所需算力持續縮減,而且這個技術優化態勢,還沒止息。其次,是系統層級的優化。產業界已清楚Transformer推論的運算瓶頸——矩陣乘法佔了絕大多數計算量,KVCache的記憶體存取效率與頻寬配置直接影響延遲,而批次處理策略則決定整體吞吐量。從編譯器最佳化、推論排程到硬體與系統層的整體優化,讓同一套硬體能服務更多prompt、產出更多token。以Google為例,透過TPU與模型、系統的協同優化,在特定工作負載下推論能效出現數倍到數十倍等級的提升,顯示推論成本仍有可觀的下降空間。接著是競爭格局的根本改變。DeepSeek-R1、Meta LLaMA3、阿里巴巴Qwen2.5等開源模型持續追近閉源frontier模型的效能(約落後7個月),打破少數大廠的定價壟斷。開源模型的全球部署量已佔整體AI使用的約3成,也成了市場定價基準的壓力源。Token成本的持續下降,正在同步觸發3個層面的連鎖反應。第一,是AI推論應用的急遽擴張。當每百萬token的成本從過去的高價模型,下降到數十分美分至數美元等級,大量原本「因成本不具經濟效益」的場景開始跨越可行門檻。個人化郵件撰寫、即時翻譯、文件摘要、程式碼生成、多語客服回覆、會議紀錄整理、合約審閱輔助、報表初稿產生等任務,不再只是試驗性功能,而逐步成為工作流程中的常態模組。關鍵不在於成本歸零,而在於邊際成本已低到足以長時間、完整部署推論服務,讓AI從「偶爾使用的工具」轉變為持續運行的生產力工具。第二,是Agent對工作流程的全面滲透。低成本token是Agent得以規模化的前提。這一點已在市場成長速度上反映出來:Anthropic的營收規模近年快速進入數十億美元級距,年增幅達數倍;Cursor等AI coding工具在短時間內從千萬美元級別,躍升至上億美元年化營收,成為成長最快的一批AI SaaS產品。這些成長快速的新創幾乎無一例外地以agent或workflow automation為核心定位——無論是Anthropic、Harvey、Glean——產品路線指向的是自主代理與垂直工作流程整合,而非單純的聊天介面。一個agent往往需要與多個工具連續互動、發出數十次甚至上百次API呼叫才能完成任務。token成本的每一次下降,都在直接擴大agent可運行的任務邊界與商業規模,同時也引發更多的token用量。第三是價值的持續上移。最具體的案例是程式碼生成。Cursor、ClaudeCode等AI coding agent以Claude與GPT-4o為核心引擎,正在重塑開發者的工作流程,而非只是IDE的外掛。Microsoft 365 Copilot、Anthropic Claude將AI能力直接嵌入Excel的公式建議與資料分析、PowerPoint的簡報生成、Teams的即時摘要,使AI不再是獨立查詢工具,而成為日常工作的預設助手。根據DIGITIMES Research的市場觀察,AI產業價值佔比將在2026至2028由硬體逐步轉向軟體與服務,而應用層的滲透速度,將成為下一階段競爭的真正起點。成本的持續下壓,讓另一端的問題更加凸顯:如何繼續壓低生產token的成本(TCO)?顯現在2個產業核心。晶片架構是第一個關鍵。各大CSP正加速投入自研ASIC,針對Transformer推論的計算模式深度最佳化,在特定工作負載下可實現數倍等級的能效提升,使算力成本的下降速度不再完全受制於通用GPU的產品節奏。電力則是更根本的制約因素。高密度AI資料中心的電費往往佔營運成本的相當比例,當規模擴張到一定程度,電力取得能力往往比伺服器採購能力更早觸及上限。近年新資料中心的選址優先順序已悄悄改變——穩定電力供給逐漸取代土地成本成為首要考量。多家能源研究機構預測,全球資料中心電力需求在未來數年將出現倍數成長,AI擴張的真正瓶頸,已從晶片轉向能源。Token成本持續驟降,是AI進入第二階段的信號。第一階段的核心問題是「能不能做到」,競爭集中在最先進模型的能力競賽;第二階段的問題已經不同——誰能把TCO壓得夠低、把平台做得夠開放,讓更多應用在上面生長,才是真正的決勝點。接下來幾年,與其看各家發布什麼新模型,不如看推論成本降到哪裡、開發者生態有多活躍,以及有多少垂直應用選擇在平台上發展;這些變數的交會處,才是下一波市場重心真正落腳的位置。對台灣而言,半導體與伺服器供應鏈能否持續協助全球客戶優化整體TCO,將決定我們在這一波Token通縮浪潮中的角色與分量。
AI的曼德拉效應
許多人第一次聽說曼德拉(Nelson Mandela,1918~2013)當選總統時,都會錯愕地說:「我清楚記得他在獄中去世的新聞畫面。」這種大規模的錯誤記憶,被稱為「曼德拉效應」(Mandela Effect)。它說明人類記憶不是錄影帶,而是每次回想時都在重建的神經活動。當微小誤差透過媒體傳播並被群體強化,最終可能凝固為堅信不疑的「事實」。生成式AI的出現,讓這個現象進入危險的新階段。過去的錯誤記憶源於人腦的模糊回想,如今卻可能來自精心製作的數位幻象。AI能輕易生成高度擬真的內容,例如「C-3PO全銀色劇照」或「皮卡丘黑色尾巴百科條目」。這些虛構細節真實得足以欺騙未經查證的觀者,一旦在社群媒體病毒式擴散,說服力遠超過去的謠言。更可怕的是,AI生成的不只是單一圖片或文字,而是包含照片、影片與文章的完整「證據鏈」,讓虛假記憶看似天衣無縫。同時,AI內容正以驚人速度污染資訊生態。當人們試圖驗證記憶時,搜尋結果往往充斥大量口徑一致的錯誤答案,形成資訊迴音室。社群演算法又偏好新奇與爭議性內容,AI製造的謠言正符合這些條件,於是錯誤訊息在推送與點擊間不斷循環,甚至被推升至主流討論。更令人憂心的是,AI不僅能放大既有錯誤,還能憑空創造從未存在的記憶。想像有人利用AI虛構一個九〇年代的卡通角色,生成動畫片段、廣告影像與週邊商品照片,再編造討論貼文。這些充滿懷舊元素的內容迅速走紅,10年後,當年的孩童已成年,腦中仍保留模糊印象。當有人發問「你還記得這個卡通嗎?」便會有大批網友響應,甚至補充劇情細節。一個根本不存在的角色,竟成為集體的童年回憶。此時,AI已不是錯誤的放大器,而是記憶的原始編造者,繞過既有事實,直接向集體意識注入從未發生過的過去。這絕非單純趣聞,而是深具社會風險的徵兆。當偽造記憶結合擬真圖像、詳盡文本和龐大社群互動,真實與虛構的邊界將愈加模糊。它可能動搖人們對歷史的理解,使司法證據效力大打折扣,甚至撼動政治共識。如果某個重大事件被AI大規模改寫,數百萬人因而誤解,後果難以想像。更極端的情境是,當AI生成的虛假內容數量超過真實資訊時,搜尋引擎甚至可能將錯誤答案置於前列。此時,真相反而成了需要額外努力證明的「少數說法」,我們將進入一個「真相倒置」的時代。因此,社會必須建立數位免疫系統。技術上需要更精準的檢測工具,辨識內容是否為AI生成。制度上,平台應透明標註AI內容,並對惡意散布者設立規範;教育上,更需強化數位素養,培養理解演算法運作的能力,養成交叉驗證與批判思考的習慣。在個人層面,每位使用者都應保持警覺。我們必須追溯訊息來源,不輕信單一說法,也不要因「眾人皆信」就放下懷疑。面對任何看似「眾所周知」的資訊,都應該問3個問題:來源是什麼?是否有可靠第三方驗證?是否符合基本邏輯與常識?AI的曼德拉效應提醒我們,過去不再是堅固不動的參考點,而是隨著數位技術持續被改寫的場域。在這個由演算法與幻象交織的記憶迷宮裡,真相的價值從未如此珍貴。當記憶本身都能被製造,守護真實便成為每個人的責任,而我們的選擇,將決定未來世代如何理解過去、認識現在。
物聯網中藥局
傳統中醫(Traditional Chinese Medicine;TCM)源自古代中國的醫學體系,重視個體差異,考慮到個人體質和季節等因素。對於相同的疾病,中醫可能會根據不同個體的情況,開出不同的治療方法和藥物。KingNet國家網路醫藥比較中醫和西醫,指出:「中醫治本,西醫治標。」中草藥一直是華人治療、預防疾病和維持健康的重要手段。比較中醫傷科和西醫康復醫學的治療方法,可以理解為「中醫善於治療,西醫善於診斷」。近年來,隨著新冠肺炎病毒的全球蔓延,人們對中醫療癒和增強免疫功能的關注增加。根據中醫理論,中草藥被用於診斷、治療、緩解或預防人類疾病。中草藥的材料來自自然界,包括礦物質、植物和動物衍生的原材料,以及加工產品和草藥湯劑。傳統上,中醫涉及草藥的煎煮,使其中的成分溶解在水中,形成藥液。然而,煎煮過程耗時,攜帶藥液也不便。隨著中醫治療的普及,傳統的草藥湯劑正逐漸被科學中藥(Scientific Chinese Medicine;SCM)所取代。科學中藥並不是直接由原草藥研磨而成,而是通過收集草藥材料、煎煮和烘焙製成的,大大提高中藥消費的效率。近年來,科學中藥在消費者中獲得認可。病人獲得醫院或診所的處方後,會去藥房領取科學中藥包(裝有藥粉的紙袋)。藥劑師從各種科學中藥瓶中測量出處方量的藥粉,混合後包裝並密封成多日劑量。然而,這一過程通常是手工的,繁瑣且易出錯。為了解決這個問題,黃信行教授和我提出SCMtalk,一種基於物聯網(IoT)的科學中藥局機制,能夠提高科學中藥包生成的效率和準確性。SCMtalk實現4種機械物聯網設備:選粉設備(圖1 (1)-(7))、混合清洗設備(圖1 (8)-(10))、分配設備(圖1 (12))和包裝設備(圖1 (13))。這些設備和SCMtalk伺服器安裝在一個約53公分寬、40公分長、120公分高的櫃子中。通過這些物聯網設備,SCM粉末被包裝成藥包(圖1 (11))。選粉設備包括一個內置活塞的圓柱形藥罐(圖1 (6)),使用前需要填充預混藥粉。上述4種物聯網設備由IoTtalk物聯網平台管理,該平台安裝在分配和混合櫃中的SCMtalk伺服器上。分配和包裝櫃中的現場觸控面板(圖1 (14))作為多功能控制界面,顯示SCMtalk的當前運行狀態。SCMtalk也支援遠程控制,可以通過任何具有網頁瀏覽器的移動設備進行訪問(圖1 (15))。瀏覽器包括一個視訊螢幕,允許藥劑師通過鏡頭遠端監控SCMtalk的操作(圖1 (16))。分配和混合櫃中間的加載口(圖1 (12))是分配設備的入口,機器手臂(圖1 (8))將藥罐(圖1 (6))放置在這裡。下方是藥包的出口(圖1 (13)),在自動化過程完成後,可以從下方出口取出藥包(圖1 (11))。通過應用垂直包裝技術,每個處方的藥包數量可以達到100個。SCMtalk全自動系統運行,精確分配藥粉。其每一個包裝速度少於3秒,每個處方可達到超過100包,這在前處理和後續清潔上節省大量時間。這個SCM應用需要資訊工程師、藥劑師和機械專家的合作,使用物聯網平台來實現智慧藥房。
辯證法在AI機房
機房深處的嗡鳴中,理性正進行一場無人旁觀的演出。AI伺服器成列排開,數據流經管線,錯誤被標記、修正並轉化為下一輪嘗試。此處既無康德(Immanuel Kant)憂慮的形而上學僭越,也無黑格爾(Georg Wilhelm Friedrich Hegel)期待的絕對精神降臨。但若細察訓練曲線的起伏,仍可辨識出古老的模式:否定之否定,在矛盾中前進,在破裂中重組。康德若見到當代AI系統,或許會感到些許安慰。我們為模型設下界限,正如他為理性劃定合法範圍。拒絕提示詞(Prompt)與倫理對齊機制傳遞著相同訊息:並非所有問題都該被回答,能力並非毫無節制地釋放。當AI模型遭遇無法化解的衝突時,它被要求止步並承認限制,而非陷入二律背反(Antinomies)的無盡循環。這是一種知其邊界的理性。黑格爾則會指出,這些界限本身即是暫時的。AI模型不斷超越舊版本的歷程,正是辯證運動的實踐。每次微調都否定前一狀態,每次架構革新都揚棄(Aufhebung)舊範式。GPT-3讓位於GPT-4,並非否定其價值,而是在更高層次將其成果保存並超越。正反合(Thesis-Antithesis-Synthesis)在此演化為技術發展的當代形式,模型在錯誤中學習、在矛盾中成長。辯證法在此不再是觀念運動,而是具體的勞動關係與資本累積。進步敘事掩蓋這些代價,使矛盾轉移至供應鏈末端,以不可見的形式延續。在工程實務中,黑格爾的辯證結構被徹底去魅,轉化為可操作的技術形式。矛盾簡化為損失函數(Loss Function),否定簡化為反向傳播(Backpropagation),對抗性訓練(Adversarial Training)成為核心方法。生成對抗網路(Generative Adversarial Networks)透過生成器與判別器的制衡,在競逐中逼近納許(John Nash Jr.)均衡。此處沒有精神的自我實現,只有可計算的最佳化過程。黑格爾相信歷史運動指向自由意識的完成,但人工智慧顯示,辯證結構可以在沒有目的論的情況下運作。它無需終點與意義,只要在高維空間中收斂。這印證理性的習性:面對複雜性時,將走向矛盾與揚棄,無論是否有歸宿在等待。這種認知令人不安。我們以為進入純技術時代,擺脫形而上學包袱,但當模型在無數次失敗後找到穩定狀態,我們只是再次見證理性的老習慣:拒絕簡化,必須經由否定尋路。只是這次我們不稱之為精神的歷險,而稱之為機器學習。真正的問題在於,當辯證運動在無意識系統中自動發生,責任由誰承擔?沒有靈魂的理性依然塑造世界,產生偏見、失業與操控,而後果終由具體的人承受。康德的界限及黑格爾的運動如幽靈般徘徊於機房,提醒我們技術並非中性,理性的形式始終伴隨成本。當你站在資料中心外聽著冷卻風扇的聲音,不妨想像運轉的不只是矽晶片,還有幾百年前關於理性、自由與矛盾的老問題。只是這一次,它們不等待哲學家回答,而直接在現實中展開,由算法執行,其後果則由人類承受。
身有彩鳳雙翼飛:台灣半導體產業與電子製造服務產業 (二)
我將半導體與電子業的緊密結合稱為晶片經濟價值的外溢。以前電子系統經濟價值的創造高度集中在晶片單一環節,但是現在電子系統經濟價值的創造無法單靠晶片製程的演進,經濟價值的創造必須外溢至封測乃至於系統環節,方能完整創造可以交易的經濟價值。有兩個現象很可以說明問題。一個是進出口資料,台灣高階晶片的貿易成長與高階電子系統在外貿數量的成長是高度相當相關的;另一個更圖像化:黃仁勳來台灣邀宴總是從最上游的晶片製造一路請到電子系統製造服務廠商。這個近乎典範移轉的變化重新塑造供應鏈。半導體從最起始時的完全整合元件製造(Integrated Device Manufacturer;IDM),透過生產環節的去藕合—線路設計、晶圓製造、封測等環節之間的切割而各自追求單一環節的規模經濟,現在因為元件微縮自然條件壁障的接近而趨勢反轉,又重新整合了。而且這次的重新整合走得更遠,從晶片一直整合到電子系統。而且整合的程度相當緊密,這就是文章標題的身有彩鳳雙翼飛的隱喻。台灣因為歷史和地理的因緣,在AI興起的年代,挾此雙翼,竟然創下7.4%的GDP年增率!這個資料在21世紀的已開發國家中,除了愛爾蘭因跨國利益移轉(multinational profit shifting)以及IP的重置(IP relocation)外,僅有新加坡曾經到達此一水準。由晶片價值外溢造成半導體與電子製造業的密切垂直整合,在企業管理學的競爭理論中,就是在產業價值鏈佔據多重優勢節點,具有高度競爭力。特別是在高階晶片及電子製造服務(EMS)這兩個領域中,台灣世界市場的佔比都超過一半,這使得雙翼強強聯手的地位難以撼動。AI 伺服器的應用只是個開端。這雙翼開展的強大力量已開始擴充至其他的應用;或者與其他台灣傳統強項連結,形成更強烈的優勢。2025年台灣與英國簽訂的低地球軌道衛星(LEO)合作備忘録“A Five-year Memorandum of Understanding between the Taiwan Space Agency(TASA) and the U.K.-based Satellite Application Catapult(SAC)to Strengthen Space Industry Collaboration”,英國負責的是系統設計、應用與生態整合,台灣負責的是硬體製造、零件及供應鏈的執行,特別是特殊半導體及精密電子模組。這就是將原先半導體及電子製造的優勢應用並擴充至通訊、觀測、氣象、軍事等領域。無人機(UAV)自從在俄烏戰場上被實證應用偏向消費性電子的屬性後,台灣在非紅供應鏈中自然成了首選。無人機其上的零件其中有一部分屬於精密機械的範疇,譬如用於中短航程的馬達。精密機械原先也是台灣的優勢領域,但是面臨日、韓的競爭,以及中國的威脅。專注於能與半導體和電子製造的協作之後,就有機會明顯區劃與競爭者的市場,並且利用協作的其他部分取得優勢。電動車、機器人等新興產業也可以有相同的策略。台灣的醫療系統常年高居國際評比第一,也是台灣有高度競爭力的產業之一。但是醫療行為牽涉到法律、保險、文化等多種因素,不易外擴。最重要的,它不是可以量產的產業,也無法出口。所以對於醫療產業的市場行銷,過去曾以觀光醫療來嘗試,結果自然是不顯著,觀光醫療也有對本土的量能排擠效應。AI出現之後,AI healthcare是當然應用之一。結合台灣醫療體系中的知識、數據、工作流程(workflow)等,建立診斷(diagnosis)、預後(prognosis)、治療(treatment)等的模型。這樣的AI healthcare產品,不僅可以輸出,還可以量產。特別是2020年後歐盟提出主權資料(sovereign data)的概念、2023年 NVIDIA 跟進主權AI(sovereign AI)的概念,使得貨櫃AI server中心與AI healthcare模型捆綁出口變得可行。這是台灣醫療產業增值的契機。對於未來的產業,亦做如是想。量子計算是未來高效能計算的一部分,它出現的方式高機率會與傳統的計算以混雜(hybrid)的方式聯合運算。其實現在量子計算的原型機都帯有一部傳統的伺服器。問題是未來的量子計算機會因為其型態特殊而另起山頭?還是由目前已累積相當動量的AI伺服器體系整合進來?NVIDIA 顯然更傾向於後者,也在架構上做好準備:CUDA-Q。台灣的電子製造服務業顯然已嗅到商機而開始投入量子計算。自己投入量子計算的基礎研發顯然已稍晚,利用台灣已然成形的雙翼在量子時代繼續分享成長的果實,機會顯然比較高。
AI由線條推理到花朵綻放
這場藝術實驗始於我手中的彈性尖鋼筆(flexible nib fountain pen)。女郎站立時重心微偏,抬起的手指輕觸髮際,另一手將長髮牽引至身前。筆尖在肩線與腹部之間游移,藉由墨色乾濕的變化捕捉呼吸的節奏。襯衫的翻領、袖口與牛仔褲口袋的摺線,在壓力轉換下形成清楚而克制的結構,這些線條描寫衣物,界定身體如何佔據空間。創作隨後運用大型語言模型(LLM),進入提示詞(prompt)的階段。語言開始取代手勢,引導觀看的方向。描繪物件的提示要求理解線條的功能,讓牽牛花取代織品,成為身體的延伸。人工智慧在此展現出真正的推理能力,避免機械地生成裝飾圖案。先深入解析鋼筆原稿的內在邏輯,將每一條線索還原成空間語法。模型識別出哪些線條是承重的結構骨架(structural skeleton),哪些線條標示著遮蔽與顯露的邊界,哪些則只是暗示形體轉折的輔助記號。這個拆解過程是語義層面的理解,不是畫素的複製。推理的關鍵在於轉譯而非覆蓋。人工智慧理解到原本屬於襯衫領口、袖口褶皺、牛仔褲腰線的那些邊界線。這些固定布料本身的功能被巧妙地用來定義形體的轉折點與視線的停留位置。於是這些功能性邊界被重新詮釋為植物生長的潛在路徑,藤蔓便沿著既有的陰影邏輯與力學走向自然攀附,順著肌理的起伏延展。花朵精確落在原先線條最密集、視覺重量最集中的節點上,那些曾經是衣物扣合處、褶皺匯聚處的位置。如今成為牽牛花綻放的所在並非隨意安放的裝飾。這是從幾何邊界到有機生命的連續轉換,線條的功能在AI的翻譯中得以延續,只是語言從布料的物理性轉向植物的生長性。當水彩層次(watercolor layers)被引入,淡紫與嫩綠並未覆蓋鋼筆的節奏。LLM順著線條留下的路徑滲透,在透明與疊加之間建立時間感。身體因此不再是被觀看的靜態中心,而成為一個正在發生、持續生長的場域。線條在此完成它們的使命,從定義形體到啟動生長,最終退場後留下的是一套自洽的生態邏輯。人工智慧並不單純再現人體藝術。LLM由線條推理出花朵,由結構演化為生命。這是由視覺語法翻譯成自然法則的靜默過程。
身有彩鳳雙翼飛:台灣半導體產業與電子製造服務產業 (一)
台灣的ICT產業,主要包括半導體產業與電子製造服務業(Electronics Manufacturing Services;EMS),於2024年佔台灣出口的65.2%;在2025年,此一數字預估可能進一步提升到74%左右。此一比例是台灣在世界產業競爭賽事中的特例,對於台灣未來的進一步產業新發展有深遠的意義。電影「造山者」(A Chip Odyssey)中敍述台灣最早期的半導體CMOS技術引進自美國無線電公司(Radio Corporation of America;RCA),其實對台灣有一個項不亞於授權半導體技術給台灣的貢獻—先是在1966年台灣設立的楠梓出口加工園區組裝當時不算太先進科技的黑白電視(彩色電視於50年代後期已進入量產),之後陸續有增你智(Zenith)等公司加入此一行列,再加上後來台灣取得RCA黑白電視技術授權的廠家,鼎盛時期的台灣黑白電視產量超過世界的一半。這系列電子系統製造的奠基對於台灣70年代迄今的發展有3個重要的意義。第一個是電子產業的成形。一家企業不算是一個產業,一群關連的企業才是,佔全世界產能一半以上更當然是。第二個是將社會菁英人才動員導向電子相關產業。第三個是供應鏈的建立,當時包括最基礎元件的電阻與電容等。這個由黑白電視塑造的產業,形成1970年代開始發韌半導體的國內市場;又由於許多電子產品是面對全球的大比例市場,如前所述的黑白電視、後來的PCB板、個人電腦等,讓台灣的半導體產業在誕生時馬上可以用進口替代的策略迎接廣袤的全球市場。但是在初期半導體與電子業的關係也就只是鬆散的元件產品與市場關係,二者並沒有太強烈的關連。兩個關鍵轉折引發兩者之間關係深層的改變,從而結合變得更為緊密。一個是製程演化到28奈米之後,平面製程的微縮能增加的經濟價值快走到盡頭了。此時每個電晶體的平均成本降到歷史上最低。之後的製程名字雖然也如摩爾定律般的往22奈米、14奈米、10奈米、7奈米等一直走下去,但那只是個節點標記,用來敍述這節點的效能,卻與電晶體的真實臨界尺度沒有太大的關係。所以每個電晶體的平均成本從28奈米後又開始拉高。之後電晶體效能的持續提升主要靠的是電晶體3D製造製程,如FinFET、GAAFET、CFET等。3D電晶體製程顯然要比二維電晶體製程要複雜許多,兼之臨界尺寸無法有效縮小,成本的上升理所當然。另一個原因是AI伺服器的興起。由它對電力飢渴的程度就知道它需要處理資料的速度以及流量。傳統晶片的設計原先會同時考慮效能、功率以及面積(Performance, Power, Area;PPA)並且在其中取得均衡,尋求最大的綜合經濟價值。但是如前所述的,晶片在二維微縮的進展已遭遇強大阻力,而AI的運算又要求極致的算力,所以效能優先;其他的問題嘛,交由封測、乃至於整個電子系統來解決。以前晶圓製造廠商很多選擇外包封裝測試此一環節,因為後者毛利較低,在晶圓製造廠商的眼中,將資金投入毛利率高的晶圓生產環節才是對資最金最有效的運用。但是由於半導體製程現在面臨高效能計算(High Performance Computing;HPC)對於速度嚴峻的挑戰,一味的傾向於提升晶片的效能,其他無法在晶片階層解決的問題就必須移交給封裝測試、甚至是電子系統本身來解決。這個轉變解釋了很多現象。譬如晶圓代工廠把封裝測試重新納入版圖—雖然稱之為先進封裝,以解決晶片效能不足的問題,包括頻寬、散熱、面積效率等。又譬如在AI伺服器系統的全光纖化—晶片的速度、散熱的優化不足,那就用系統的方式來彌補。
緯創數位算力捐贈
在人類文明演進中,財富形態不斷轉換,從工業革命支撐生產的鋼鐵與石油,到資訊時代創造價值的數據,再到今日人工智慧時代逐漸成為關鍵資源的算力與算法。隨著高階運算能力在部分領域集中於少數組織,社會不平等呈現新的結構樣貌。在此背景下,安德魯.卡內基(Andrew Carnegie)於19世紀留下的精神遺產,為當代提供一條值得參照的思考路徑。這段故事始於1850年代的匹茲堡。當時的卡內基仍是一名薪資微薄的蘇格蘭移民少年,在電報公司從事基層工作。安德森(James Anderson)上校身為退休軍官,選擇每週六向勤奮的年輕工人開放私人藏書。對卡內基而言,這間擁有約400本書籍的書房不是金錢救助,而是一扇通往知識世界的入口。這段被他人分享資源的經驗,深刻影響他日後對財富意義的理解。一九〇一年,卡內基將鋼鐵事業出售給約翰.皮爾龐特.摩根(John Pierpont Morgan),累積驚人財富。事實上,他早在一八八九年發表《財富的福音》(The Gospel of Wealth)時,便已明確提出富有地死去是可恥的信念。在生命最後20年裡,他將絕大部分財富轉化為公共資產,資助興建超過2,500座圖書館,使後來的孩子不必仰賴私人恩惠,也能接近知識。進入現代,科技公司確實提前所未有的工具,但多數人工智慧服務仍存在資源與功能上的限制。一般使用者能動用的運算能力,在模型規模與訓練深度上,仍遠不及頂級研究機構與大型企業。超級運算中心與先進晶片等關鍵資源,依然高度集中於少數組織之中。因此,如何讓算力逐步具備公共性,成為值得嚴肅討論的議題。若掌握關鍵資源的決策者能效法卡內基與安德森上校的精神,將部分高階算力視為公共基礎設施,而非僅作為競爭資產,人工智慧的發展方向或許會出現不同的可能。這並不意味企業必須放棄既有商業模式,而是在現行體系之外,為學界與創作者保留可被合理使用的公共通道。近年來,已有企業開始以試行計畫的形式探索這類方向。例如緯創推動的算力捐贈方案,嘗試將高階運算資源提供給部分新創團隊與學研機構,用於大語言模型訓練與微調、模型推論與部署,以及虛擬環境模擬等應用,讓原本受限於資源的團隊得以進行實質研究。這類嘗試呼應安德森上校開放書房的精神,只是媒介由書籍轉變為運算能力。在這樣的構想下,算力中心應如同當年的書房。這種分享並非單向施予。卡內基當年要求社區承擔圖書館的維護責任,是為了確保公共資源能被負責地使用。放在人工智慧時代,這意味著使用者與社群必須參與治理與監督,使技術回應實際需求,而非僅服務於少數目標。實現算力公共化勢必面臨成本與管理上的挑戰,但透過公私合作與跨領域協調,仍有可能逐步推進。當企業願意分享部分資源,而學術與公共機構能有效管理,一個更具包容性的創新環境便有機會成形。出身資源匱乏地區的年輕人,將不再因門檻而被排除在創新之外,原本可能加劇不平等的技術集中,也能轉化為推動文明進化的力量。最終,真正的財富不在於擁有多少伺服器或晶片,而在於為他人打開多少通往智慧的入口。若算力能逐步成為如同道路與電力般的公共資源,機會的流動性便得以維持。那份源自19世紀少年在安德森書房裡感受到的希望,也能在今日的數據流動中,持續轉化為改變命運的可能性。
AI的求真與造假
民主允許人民擁有政治自由和言論自由,提供人們尋求真相的機制和教育,可以揭開當前或歷史事件背後扭曲、歪曲、意識形態和階級利益的面紗下隱藏的真相。因此,享有的獨特「智識」特權,知識份子的責任深遠。語言學家和哲學家杭士基(Avram Noam Chomsky)指出:「知識份子有責任講真話,揭露謊言。」這句話強調具有知識和理解力的人士在倫理上有責任傳播準確的信息,並揭露虛假。今日,人工智慧(AI)成為一種強大的工具,與這種責任相契合,它提供了前所未有的能力,既能揭露又能對抗錯誤信息。AI在驗證信息和檢測虛假方面有其威力。人類利用機器學習算法,可以分析大量數據,將主張與已確立的事實交叉參照,以驗證其準確性,提供超出人類能力範圍的洞察。例如,Facebook和X等平台使用AI來檢測和標記虛假信息。AI能夠迅速揭穿在社交媒體和其他平台上流傳的虛假主張,有效遏制錯誤信息的傳播。AI在對抗Deepfake(使用AI創建的高度逼真但虛假的音頻和影片內容)方面也發揮重要作用。先進的AI模型通過分析人類無法察覺的微小不一致性來檢測Deepfake,保持信息的完整性,防止操縱內容的傳播。例如,微軟(Microsoft)開發的Video Authenticator工具能夠分析視訊中畫素的細微變化,檢測出Deepfake,從而維護信息的真實性。隨著生成式AI的快速進步,單純的偵測已成為一場永無止境的競賽。為此,微軟等業界領導者已將策略從被動偵測,升級為主動建立信任的「來源證明」(Provenance)架構。他們共同發起「內容來源與真實性聯盟」(C2PA),並推動「內容憑證」(Content Credentials)技術標準。這個標準如同數位內容的「營養標籤」,可以在檔案中嵌入其來源、作者及編輯歷史,讓使用者能輕鬆查驗資訊的真實性。今日大語言模型(LLM)的聊天應用貪婪地吞噬巨量的數據,在對話中找到最合理的答案,或是在科學問題中找到最有可能的解答。杭士基認為LLM「基本上是一種比較高科技的剽竊」和「逃避學習的方式」。人類的心智不像LLM,而是一個更驚人、有效率又優雅的系統,僅用有限的資訊就能運作。它不會試圖從數據中找出關聯性,而是努力創造解釋,分辨是非。要達到杭士基的理想,AI應該朝說真話和揭露謊言方面整合,賦予深遠的社會意義。AI應增強知識份子有效履行職責的能力,確保準確信息在公共領域中傳播。隨著AI的不斷進化,它在保持信息完整性方面的角色將變得日益重要。特別是在政治選舉和公共衛生等關鍵領域,AI可以幫助確保信息的透明和準確,保護民主進程和公共利益。然而,使用AI尋求真相,開發人員必須確保AI系統的公正透明,避免傳播虛假信息或不公正的結果。例如,AI算法在訓練數據上的偏見可能導致不公平的結果,必須有嚴格的審查和調整。我們必須設置監管架構來監督AI在信息傳播中的使用,平衡其潛在的好處與倫理考慮。社會必須對AI的潛在濫用保持警惕。技術人員、倫理學家和政策制定者之間必須持續的對話,負責任地使用AI,創造一個真理繁榮且虛假最小化的環境。因此,未來的發展需以品德教育為首,確保AI服務於真理和正義,達成杭士基對知識份子責任的願景。
智慧應用 影音