人臉辨識系統隱含高偏見!美研究:有色人種誤判率多出100倍

新頭殼newtalk | 戴敏琪 綜合報導
1970-01-01T00:00:00Z
隨著人工智慧AI應用日益普及,伴隨而來的疑慮更加不容忽視。   圖:新頭殻資料照
隨著人工智慧AI應用日益普及,伴隨而來的疑慮更加不容忽視。   圖:新頭殻資料照

近幾年,人臉辨識系統被用於手機解鎖、執法單位、機場及銀行等機構,應用愈趨廣泛。但近期美國政府研究指出,人臉辨識系統針對「非白人面孔」的誤判相當高,引發技術疑慮。

美國國家標準技術研究所(NIST)針對數十種臉部辨識演算法的研究報告顯示,在「一對一」辨識技術中,非裔美國人及亞裔的臉孔被誤判成的機率,是白種人的10至100倍。另一項針對「一對多」辨識技術的測試結果則顯示,非裔女性性別較容易遭誤判。該系統通常用於犯罪辨識,這意味著,這些技術誤判可能導致無辜的民眾遭捕或入獄。

先前據科學家研究,不僅人臉辨識系統存在偏見,包括Google、亞馬遜等搜尋引擎在內,都含有大量性別偏見;華盛頓大學的研究也顯示,非裔美國人所發布的Twitter貼文中,被AI偵測為仇恨言論的數量,相較其他族裔多了1.5倍。顯然隨著人工智慧技術應用日益普及,如何解決AI訓練素材的偏見問題以及系統的精確度,也變得更加迫切。

近幾年,人臉辨識系統被用於手機解鎖、執法單位、機場及銀行等機構,應用愈趨廣泛。但近期美國政府研究指出,人臉辨識系統針對「非白人面孔」的誤判相當高,引發技術疑慮。

美國國家標準技術研究所(NIST)針對數十種臉部辨識演算法的研究報告顯示,在「一對一」辨識技術中,非裔美國人及亞裔的臉孔被誤判成的機率,是白種人的10至100倍。

先前據科學家研究,不僅人臉辨識系統存在偏見,包括Google、亞馬遜等搜尋引擎在內,都含有大量性別偏見;華盛頓大學的研究也顯示,非裔美國人所發布的Twitter貼文中,被AI偵測為仇恨言論的數量,相較其他族裔多了1.5倍。

網友留言
留言如有不雅或攻擊性文字、重複灌水、廣告、外站連結等內容,本網站將保有刪除留言之權利
留言
追蹤
網頁已閒置超過 90 秒囉!
請按任意鍵,或點擊空白處,即可回到文章。