AI的不可逆進化

林一平
2026-03-11
AI語音摘要
00:44
Lewis Carroll。
Lewis Carroll。

對過去的執著,常使人誤以為昨日是一個可以重啟的程式(rebootable program),彷彿只要回到某個儲存點(save point)便能修正錯誤。然而,時間的核心機制是改寫(rewrite),而非還原(restore)。每一次前進,都伴隨著內在結構的調整。路易斯·卡羅(Lewis Carroll)在《愛麗絲夢遊仙境》(Alice's Adventures in Wonderland)中,透過愛麗絲(Alice)之口說出那句著名的話:「回到昨天沒有用,因為那時的我已是不同的人。她之所以無法回歸原貌,正因其認知框架(cognitive framework)已被經驗永久改變。」

將此觀點延伸至AI發展,可以看到相似的邏輯。一個完成訓練的AI模型,其昨日由固定的訓練資料集(training dataset)與初始模型權重(initial model weights)所構成。在部署後,模型本身通常維持靜態;唯有經過微調(fine-tuning)或持續學習(continual learning),它才會進入新的階段。每一次有目的的再訓練與迭代,都會不可逆地改變其內部參數結構。

人們往往期望AI的記憶,也就是其經訓練形成的知識,是穩定且可預測的。然而,如同人類學習,AI的成長並非線性過程。新資料可能引入異常案例(anomalies),也可能挑戰既有模式。一個大型語言模型(LLM)在不同版本間所呈現的細微輸出差異,正反映其在再訓練後參數(parameters)配置的調整結果。模型並非單純重複過去的計算,而是在舊有基礎上,經由新的訓練週期,形成帶有修正理解(revised understanding)的新狀態。

這種不可逆的進化同時蘊含深刻風險。當AI吸收錯誤或帶有偏差的資料,它可能朝錯誤方向演進,且難以回到一個所謂正確的昨日。正因如此,資料來源的選擇、治理與監管顯得格外重要。持續學習的路徑如同單行道,一旦資料受到污染,後續修正所需付出的代價將極為高昂。

因此,對AI而言,真正的適應性並不在於固守一個被視為完美的過去訓練集,而在於能否在面對模糊性與錯誤時,透過審慎的再訓練與優化,生成更準確且更具彈性的回應。它的進化不在於靜態保存所有資訊,而在於能於每一次訓練迭代中調整內在連結與權重,持續向前。它的昨日完成初始學習,它的今日則攜帶更新後的參數結構,在新的任務中延伸出新的知識。

現為中國醫藥大學醫療資訊學系講座教授,曾任科技部次長,為ACM Fellow、IEEE Fellow、AAAS Fellow及IET Fellow。研究興趣為物聯網、行動計算及系統模擬,發展出一套物聯網系統IoTtalk,廣泛應用於智慧農業、智慧教育、智慧校園等領域/場域。興趣多元,喜好藝術、繪畫、寫作,遨遊於科技與人文間自得其樂,著有<閃文集>、<大橋驟雨>。
智慧應用 影音