由台灣獨立建國聯盟、台灣安保協會、現代文化基金會、新台灣和平基金會今(25)天主辦的「AI與風險社會」講座,邀請到文化大學新聞系教授陳慧蓉、文化大學哲學系教授吳豐維及台灣勞工陣線秘書長孫友聯分享觀察到AI發展背後的風險,並由台灣黑熊學院執行長朱福銘主持綜合討論。
陳蕙蓉:面對AI 風險 政府應建構安全、本土化資料庫
陳慧蓉將AI背後的風險比喻為《進擊的巨人》,應該築起風險防範的三道城牆:「主權資料庫建置、責任應用與發展、人工智慧公民識讀」。她強調,AI背後的數位學習與人類的語言學習模式不同,社會應該關注未來AI數位系統學習失控時,政府、社會該如何制止。
陳慧蓉首先引用被稱之為「AI教父」的前Google執行長辛頓(Geoffrey Hinton)所指出的AI風險:1.被惡意國家、組織、個人所錯用;2.造成科技性失業(尤其是機械性與記憶性的工作,例如法務助理,個人助理,翻譯等);3.通用人工智慧對人類社會的存在性威脅(例如:個人及公司讓AI系統不僅發展自己的程式碼,也開始跑自己的程式碼)。
陳慧蓉說,今(2024)年8月1日歐盟「人工智慧法」(AI Act),以「風險」為主軸區分AI的四種風險:一、「不可接受風險」(Unacceptable Risk)是完全禁止,例如:社會信用積分系統、操弄型AI;二、「高風險」(High Risk)也是歐盟AI法案主要規範對象;三、有限風險(Limited Risk)針對透明化規範,開發者及部署者必須讓終端使用者知道他們是與AI互動,例如: 聊天機器人、深偽和AI生成照片);四、「最低風險」(Minimal Risk)則不受歐盟AI 法案所規範,例如:AI電玩、垃圾郵件過濾器等。
陳慧蓉指出,AI 資料庫在台灣經常忽視本地文化,導致生成的內容不符合台灣本土特徵。為解決此問題,陳慧蓉相當肯定以台灣主體性為文本的「可信任生成式AI 對話引擎」(TAIDE),引入台灣特有的語料庫。目前台灣的資料庫中,原住民語言、性別平等意識及運動,或相關的社會議題的呈現還是不足。背後的問題反映出台灣轉型正義進展遲緩,導致相關資料的釋出趕不上資料庫的更新。
她說,台灣在2024年巴黎奧運之所以被世界看見,並不是運動員得了多少金牌,而是台灣對性別意識的多元價值,讓我們不同於還充滿性別偏見的國家。因此,陳慧蓉也呼籲未來台灣的AI重點發展,更應該關注轉型正義及永續價值,建構「可信任」AI 模型,以反應民主社會的多元性。
孫友聯:AI衝擊勞動市場 應重視科技性失業、歧視隱憂
孫友聯則提到ChatGPT都承認的「偏見與歧視」,大量使用AI,讓從事人的服務的行業(如銀行、咖啡館)逐漸失去溫度。他開玩笑地說,儘管短期看不到AI會跟他一樣走在街頭,但是AI技術已經對社會和勞動市場形成「科技性失業」的隱憂,並強調AI可能在社會中帶來更強的偏見、歧視。他以近期中國網路公司「奇虎360」所推出的兒童AI手錶為例,指出AI資料庫中的偏見資訊,可能會加劇社會中衝突的產生,因此,孫友聯認為,AI產出的穩定性和可靠性仍需進一步驗證。
孫友聯表示,隨著科技進步,勞動市場正在重塑,人們在生產過程中使用先進的機器設備代替人類勞動,讓部分職業可能被AI取代,形成「科技性失業」。此外,在勞動領域,因為AI 具有高重複性的特徵,可能會對勞動者的性別歧視、員工管理、人臉辨識及工作安全等方面造成挑戰。
孫友聯呼籲,政府在發展AI的法制過程中,不可以遺漏社會保險及勞動法律領域。透過制度化的措施為個人提供足夠的「緩衝」,避免因為AI,讓勞動者掉入被邊緣化或社會排除的風險,以應對AI發展過程所帶來的挑戰。
吳豐維:歐盟《人工智慧法》的倫理特色
吳豐維以哲學家對風險和人工智慧(AI)開頭,指出當代哲學如何看待AI的潛在風險和道德問題,並分析了AI法案如何通過風險評估來制定法律規範。他也簡介了2024年8月1日生效的歐盟《人工智慧法》,指出近年歐盟已基於不同的AI風險,制定不同強度的規範。
藉由簡介該部法案的立法目的,吳豐維提醒台灣政府未來可參照歐盟法案,當要促進AI的發展時,目的是保護人們的健康、安全與基本權利免於AI 的傷害,同時針對高度風險AI的提供者/開發者制定規範,以保護AI的發展。
吳豐維提醒,根據歐盟的《人工智慧法》,政府應該特別禁止AI操弄行為與決策、剝削弱勢、蒐集敏感的生物識別、社會評分,以避免過度發展的AI系統反過來傷害公民社會、國家主權。
吳豐維提出很少人談到的歐盟《人工智慧法》的倫理特色,AI具有目的義務論(deontology)性格,「隱私」(privacy)、「尊嚴」(dignity)、「自主」(autonomy)。歐盟的AI法案所提出的風險評估,在哲學上為「負向效益主義」(negative utilitarianism)特性。就「風險」概念,採取的是兩害相權取其輕。
吳豐維強調,AI資料庫會導致「移風易俗」,因為不同的資料庫,有不同價值觀,必須重視「主體性」乃至「主權」問題。台灣所使用的資料庫必須能反映出台灣的主權、特有的價值觀,避免在使用AI的過程中,被錯誤的資訊或價值觀所誤導。他特別提到AI的道德地位,指出在AI 成為超級智慧之前,要先思考AI 本身是否「具有意識」,也就是「能判斷自己身處在那裡」,這種如動物般的意識,之後才能討論所謂的超級智慧(superintelligence),如果未來AI 資料庫發展成「超級智慧」,判定人類「長期」對地球是有危害的,就有可能反過來將人類當作是攻擊的目標。
台灣黑熊學院執行長朱福銘在座談會綜合討論當中擔任主持。 圖:台灣獨立建國聯盟提供