近幾年,人臉辨識系統被用於手機解鎖、執法單位、機場及銀行等機構,應用愈趨廣泛。但近期美國政府研究指出,人臉辨識系統針對「非白人面孔」的誤判相當高,引發技術疑慮。
美國國家標準技術研究所(NIST)針對數十種臉部辨識演算法的研究報告顯示,在「一對一」辨識技術中,非裔美國人及亞裔的臉孔被誤判成的機率,是白種人的10至100倍。另一項針對「一對多」辨識技術的測試結果則顯示,非裔女性性別較容易遭誤判。該系統通常用於犯罪辨識,這意味著,這些技術誤判可能導致無辜的民眾遭捕或入獄。
先前據科學家研究,不僅人臉辨識系統存在偏見,包括Google、亞馬遜等搜尋引擎在內,都含有大量性別偏見;華盛頓大學的研究也顯示,非裔美國人所發布的Twitter貼文中,被AI偵測為仇恨言論的數量,相較其他族裔多了1.5倍。顯然隨著人工智慧技術應用日益普及,如何解決AI訓練素材的偏見問題以及系統的精確度,也變得更加迫切。