社群網站龍頭臉書(Facebook)安全長史塔莫斯警告,解決假新聞問題比外界所想的還要複雜且危險,表示外界看得太簡單。

彭博報導,史塔莫斯(Alex Stamos)警告,若外界希望能透過技術性方式處理假新聞問題,可能會無意間導致思想偏見。

史塔莫斯昨天接二連三推文表示,只利用電腦程式來偵測假新聞或宣傳的資料非常困難。史塔莫斯寫道:「大公司沒有人以中立立場看待演算法。」他也說,媒體將這件事看得太簡單,「沒有人注意到風險問題」。

要簡單地以技術方式來解決,就是壓下那些被臉書發現以機器人散播的話題,但他說,使用這方法的前提是「如果你不擔心成為真理部,而這種真理部還有『根據你個人偏見訓練而成的』機器學習系統」。史塔莫斯的推文,說明了臉書何以找來1000多人審查廣告,而不嘗試自動化審查的原因。

臉書日前發書面聲明給廣告商,表示將開始人工審查那些根據政治、宗教、種族和社會議題來鎖定用戶投放的廣告。俄羅斯政府在美國大選前利用假帳號散播政治爭端。臉書試圖找出,不用審查人們思想就能監視廣告系統的方法。

史塔莫斯說:「許多人沒有用心去想,他們要求(矽谷)打造的世界會是什麼模樣」、「當眾神希望懲罰我們時,祂們就會回應我們的心願。」

「如果你要求你不喜歡的人減少發言,但也不滿喜歡的人被審查,小心,這真的很常見。」