AI演算法帶有偏見! 新研究:黑人用語較易被AI視為仇恨言論

新頭殼newtalk | 戴敏琪 綜合報導
1970-01-01T00:00:00Z
人工智慧也會有偏見?! 新研究揭AI標示仇恨言論針對黑人   圖:新頭殼資料庫
人工智慧也會有偏見?! 新研究揭AI標示仇恨言論針對黑人   圖:新頭殼資料庫

近幾年,社群平台對言論管控需求暴增,科技巨頭如Facebook和Youtube等,也逐步透過AI過濾不當言論。然而,近期有研究發現,使用AI反而會強化社會既有的偏見,黑人的言論更容易被標示為仇恨言論。

根據華盛頓大學 (University of Washington) 及康乃爾大學的聯合研究,非裔美國人(即黑人)所發的Twitter貼文中,被AI偵測為仇恨言論的數量,相較其他族裔多了1.5倍。此外,使用美國黑人用語的貼文,比起一般用語更容易被標示為仇恨言論,數量多了2.2倍。

目前,AI仍難以理解人類語言背後的社會情境,無法辨別文字使用者的文化背景,以及字詞背後的意義。例如,在白人社會裡,「黑鬼」是禁忌詞,然而卻是黑人的戲謔日常用語;而異性戀使用「酷兒」詞彙可能帶有貶抑,但對同性戀者來說,卻可能是正向意涵。

兩篇論文都在計算語言學年度大會(Annual Meeting of the Association for Computational Linguistics)上發表,我們所認為客觀的演算法其實會強化偏見,並證明了AI訓練素材本身就帶有偏見。

AI訓練素材中可能帶有各式各樣的偏見,而Google、Facebook及Twitter等平台使用的內容審查工具,是否也帶有偏見,研究者之一、電腦科學程式專家Maarten Sap表示:「我們必須正視這個情況。」

社群平台對言論管控需求暴增,科技巨頭如Facebook和Youtube等,也逐步透過AI過濾不當言論。

AI訓練素材中可能帶有各式各樣的偏見,而Google、Facebook及Twitter等平台使用的內容審查工具

華盛頓大學及康乃爾大學的聯合研究,非裔美國人(即黑人)所發的Twitter貼文中,被AI偵測為仇恨言論的數量,相較其他族裔多了1.5倍。

喜歡這篇文章嗎?歡迎按讚、分享、灌溉 ~
※登入會員後FB分享可獲得﹝ 台北政治經濟交易所﹞點數100點 每日分享不同篇文章最多可得500點


 

網友回應