為了防止仇恨訊息與假新聞傳播,知名社交網站「臉書」(Facebook)自從2016年起便開始大力掃蕩這樣的言論,但公民團體暨新聞媒體「ProPublica」最新的調查發現,由於臉書採用的是「人工審查」,造成了刪文標準的不一致,進而使許多這樣惡意的內容仍然在臉書上流竄,而真正令人感到被冒犯的貼文反而留存。

「臉書」是許多用戶賴以為生的社交平台,但許多牽涉種族、性別、宗教等等的仇恨內容,往往使得對立更加激烈化,對此,臉書特別招募了7千5百多位內容檢查員,並由他們來被用戶檢舉有問題的貼文,而公民團體暨新聞媒體「ProPublica」針對臉書的內容審查篩檢進行了研究,他們請用戶提供有仇恨內容的檢舉,他們收到了900多則檢舉,最後發現有49則應刪除而未被刪除,他們將這49篇貼文轉寄給臉書,並要求說明,而臉書也認同49則中有22則是內容不適切的,另外19則是沒有問題的,6則是檢舉不正確,另外兩則則是資訊不足無法判斷。

而正是因為這樣標準不一致的人工審查,也使得用戶常常認為臉書的貼文規定有所浮動,也無法進行標準化的檢查,對此臉書副總裁Justin Osofsky深感抱歉,並表示臉書每周都會刪掉6.6萬則的貼文,其中不僅涉及仇恨內容,像是批評宗教、工作抑或是政治意識形態,也會被刪除,而一篇貼文如果被檢舉重複太多次也會被臉書忽略,而除了道歉以外,臉書表示今年將會擴增部門人員到達2萬人,也希望這樣能夠更有效的打擊仇恨言論。

「臉書」是許多用戶賴以為生的社交平台,但許多牽涉種族、性別、宗教等等的仇恨內容,往往使得對立更加激烈化,圖中為未被刪除的種族歧視言論。   圖:翻攝自 ProPublica