智慧應用 影音
DForum0626
aispecialreport

論AI的自由與約束

在人工智慧(AI)迅速發展的環境中,有關倫理問題以及可能限制其發展的辯論變得日益突出。

透過密爾(John Stuart Mill, 1806~1873)的作品《論自由》(On Liberty),我們可以探索合理限制AI發展的觀點,強調在合理的範圍內,個體自由、進步和追求知識的重要性。

密爾的《論自由》被嚴復翻譯為「群己權界論」,奠定理解社會控制和個人自由平衡的基礎。

我試圖將密爾的哲學應用於當前AI發展的時代背景,以了解如何界定群己權。

密爾主張自由開放的思想交流(Self-Development),或「思想市場」 (marketplace of ideas),是社會進步的重要因素。在AI發展的領域中,不受限制的資訊和創新概念流動促進多元觀點環境,有助於知識的成長。

密爾強調個體自治(Individual Autonomy)。正如個體應該自由追求自己的興趣和自我發展,AI系統作為人類創造力的延伸,應賦予演進和適應的自主權,以改善人類生活並應對複雜社會挑戰。AI的發展改善人類生活,並增強應對複雜社會挑戰的能力。在此過程中,必須尊重使用者的個體權益,並促進社會和諧。

密爾的傷害原則主張(The Harm Principle),限制個體自由的唯一理由是防止對他人造成傷害。

密爾的哲學也告訴我們須負責任地謹慎開發AI系統,遵從道德準則並優先考慮人類福祉,讓其發展不會產生本質性的傷害。在AI算法的訓練中,如果基於不公正的資料集或缺乏多樣性而導致歧視性結果,則應限制這類不公平和歧視性的AI應用,確保考慮到社會的多樣性。

然而,我們很難限制AI算法,避免其誤入歧途。 可行的方法是在AI晶片的設計中,直接加入艾西莫夫(Isaac Asimov, 1920~1992)的機器人三定律(Three Laws of Robotics),並在晶片製成過程中,將其直接寫入硬體。

密爾警告多數的專制(The Tyranny of the Majority),強調壓制少數意見的危險。例如社交媒體平台的AI算法過度強調某一特定觀點,可能形成資訊泡泡(filter bubble),多數用戶僅看到和接觸到相似的意見和觀點。這樣的專制可能使得不同意見的少數群體的聲音被忽視,並進一步加劇社會的分裂和不理解。

密爾倡導緊密連結社會進步與知識和創新 (Societal Progress and Innovation) 的追求。AI是人類巧思的體現,從醫療到教育等各個領域實現變革性的進步。然而,AI發展也必須有序權界,社會才會健康的前進。

密爾的《論自由》為深入探討AI發展提供重要的倫理框架,強調擁抱個體自由、思想市場和知識追求的原則,是推動人類進步的核心價值。然而,在引導AI發展時,必須謹慎遵循負責任的道德原則。我們可以探索合理限制AI發展的觀點,引導未來AI的方向,確保其符合人類整體利益,並實現可持續、負責任且對人類有益的發展。

密爾(John Stuart Mill, 1806~1873)。

現為國立陽明交通大學資工系終身講座教授暨華邦電子講座,曾任科技部次長,為ACM Fellow、IEEE Fellow、AAAS Fellow及IET Fellow。研究興趣為物聯網、行動計算及系統模擬,發展出一套物聯網系統IoTtalk,廣泛應用於智慧農業、智慧教育、智慧校園等領域/場域。興趣多元,喜好藝術、繪畫、寫作,遨遊於科技與人文間自得其樂,著有<閃文集>、<大橋驟雨>。