近年來人工智慧進步,透過機械學習與數據能夠讓AI開始辨識圖像,其中也包含許多專家曾經質疑過的人臉辨識系統,而近日美國麻省理工學院媒體實驗室的最新研究強調,人臉辨識技術因受限於提供的數據資料以及演算法的差異,使其準確性出現偏差。

根據外媒報導,麻省理工學院媒體實驗室的利用政治家的面孔,建立了男女總繼1,270個的人臉數據庫,在經過微軟、IBM、Megvii三種人臉辨識系統的測試之後發現,有高達35%的深色皮膚女性,會被誤認為是男性,而12%的黑皮膚男性則是被誤認成女性,但若是顏色較輕的男女性,則只有7%的機率被錯認。

事實上人臉辨識技術已不是第一次遭受質疑,早在2015年時,Google的照片應用程式,就曾將黑人判別為大猩猩,而Google也在事後立即承諾修復此BUG;而兩年前大西洋報就曾報導過,利用人臉辨識技術導入執法系統,可能會不成比例的牽連到非洲裔美國人,表示這個技術扔在興起當中,但卻有著更大的隱憂。

而根據媒體所指,過去也曾有研究小組做相關研究,並發現亞洲人開發的人臉辨識系統比白人更能準確識別亞洲人; 而在歐洲和美國部分地區則相反,雖然這樣的問題並不是刻意的偏見導致,但如果要解決這樣的問題,還需要更多數據來限制這樣的狀況發生。