近年來,人工智慧快速滲透進公共治理、商業決策與日常生活。從智慧城市、金融科技到演算法推薦系統,AI正逐漸成為社會運作的重要基礎。然而,在追求效率與最佳化的同時,一個更根本的問題也浮現:如果AI只追求「多數人的最大效益」,人性的多元、開放與參與,是否反而會被壓縮?
許多AI系統背後隱含的,其實是一種「集體偏好效益主義」:透過大量資料分析,找出多數人的共同偏好,再以最高效率滿足這些偏好。這種模式看似理性,卻可能帶來深刻的人本危機。
首先,是多元性的威脅。當演算法傾向服務「大多數人」,少數需求與差異性便容易被忽略。例如,智慧交通系統可能極大化整體通勤效率,卻不一定照顧老人、身障者或偏遠地區居民的需求;金融科技能提升GDP與消費便利,卻未必同時提升社會信任與公平。
更重要的是,不是所有價值都能被量化。幸福、效率或消費行為較容易成為資料,但尊嚴、信任、社會韌性與文化差異,往往高度依賴脈絡,難以被轉化成演算法可計算的數值。一旦社會過度依賴可計算的價值,人類對於不同生活方式的想像能力,也可能逐漸被限縮。
其次,是對開放性的威脅。AI本質上建立於歷史資料與既有模式,因此它擅長預測「過去延伸出的未來」,卻難以理解真正突破性的改變。然而,人類社會最重要的特質之一,恰恰是能夠批判既有規範、重新想像未來。
歷史從來不是線性延續。民主、人權、性別平等與社會改革,都不是從過去資料中自然推導出的結果,而是人類主動挑戰既有秩序後創造出的新可能。如果AI逐漸成為治理與決策核心,我們更必須警惕:社會是否會愈來愈傾向依循歷史慣性,而失去重新想像未來的能力?
此外,AI也可能加深人類與世界之間的距離。今天的人們愈來愈透過螢幕、演算法與平台間接理解世界,而不是直接經驗世界。這不只是資訊可靠性的問題,更是存在感的問題。當人們愈少親身接觸土地、街道、他人與自然,我們的人生也可能逐漸變成一種「二手人生」。
最後,AI最大的風險,也許是削弱人的參與價值。哲學家麥金泰爾曾說:「人的美好生活,是花在追求美好生活上的人生。」真正重要的,不只是結果,而是參與建構的過程。然而,AI所代表的結果導向邏輯,卻可能讓人逐漸從主動思考者,退化成被動接受建議的人。當演算法替我們決定看什麼、買什麼、相信什麼,甚至替政府預測「最佳政策」時,人類是否還保有主動思考、犯錯、懷疑與重新選擇的能力?
人之所以為人,不只是因為我們會計算,而是因為我們會希望、會想像、會懷疑,也會在不確定中追尋意義。因此,人本AI真正的核心,不只是讓AI更聰明,而是讓科技始終願意為人的差異性、開放性與參與性留下空間。否則,當世界變得愈來愈有效率,人卻可能愈來愈不像人。
(文章僅代表作者觀點,不代表Newtalk新聞立場。)