近幾年,社群平台對言論管控需求暴增,科技巨頭如Facebook和Youtube等,也逐步透過AI過濾不當言論。然而,近期有研究發現,使用AI反而會強化社會既有的偏見,黑人的言論更容易被標示為仇恨言論。

根據華盛頓大學 (University of Washington) 及康乃爾大學的聯合研究,非裔美國人(即黑人)所發的Twitter貼文中,被AI偵測為仇恨言論的數量,相較其他族裔多了1.5倍。此外,使用美國黑人用語的貼文,比起一般用語更容易被標示為仇恨言論,數量多了2.2倍。

目前,AI仍難以理解人類語言背後的社會情境,無法辨別文字使用者的文化背景,以及字詞背後的意義。例如,在白人社會裡,「黑鬼」是禁忌詞,然而卻是黑人的戲謔日常用語;而異性戀使用「酷兒」詞彙可能帶有貶抑,但對同性戀者來說,卻可能是正向意涵。

兩篇論文都在計算語言學年度大會(Annual Meeting of the Association for Computational Linguistics)上發表,我們所認為客觀的演算法其實會強化偏見,並證明了AI訓練素材本身就帶有偏見。

AI訓練素材中可能帶有各式各樣的偏見,而Google、Facebook及Twitter等平台使用的內容審查工具,是否也帶有偏見,研究者之一、電腦科學程式專家Maarten Sap表示:「我們必須正視這個情況。」