臉部辨識預測犯罪?上千位專家聯署譴責:危害人權

新頭殼newtalk | 黃伃君 綜合報導
1970-01-01T00:00:00Z
1000多名專家聯署質疑「臉部辨識預測犯罪」危害人權。   圖:取自 NtechLab 官網
1000多名專家聯署質疑「臉部辨識預測犯罪」危害人權。   圖:取自 NtechLab 官網

德國科學期刊Springer Nature將出版一篇關於「人臉辨識預測犯罪」的報告,引發多達1000多名AI專家發表公開信,質疑這份報告潛在的歧視性演算法,可能危害人權,呼籲期刊拒絕出版。

這份報告由美國哈里斯堡大學提出,該校教授與博士學生研發的軟體,號稱只要掃描人臉照片,就能夠自動預測照片人物是否會犯罪,有80%的準確率,而且沒有種族偏見。報告表示,這份研究希望能夠幫助執法單位預防犯罪,而完整報告預計會由Springer Nature出刊。

許多相關領域的專家得知消息後,組成「科技批判聯盟」(Coalition for Critical Technology),超過1000名專家共同聯署,包括來自哈佛大學、麻省理工學院、Google、微軟等重要機構,要求出版審查委員會立即阻止這篇報告公開出稿,也要求Springer須出面聲明承認錯誤,並譴責這種違法人權的行為,同時呼籲各大出版社都禁止刊登類似的研究報告。

連署書認為,這份研究聲稱可透過生物識別和刑案數據來預測犯罪,但是這些資料庫可能基於辦案者、警官、法官的偏見執法,辨識軟體依然會有歧視的疑慮存在,可能危害到弱勢族群的權益。其中一名連署人Audrey Beard表示:「不可能發明一種能夠預測犯罪,卻沒有偏見的辨識系統,因為刑事正義本身就存在偏見。」

美國近期爆發種族平權運動,引起大眾對執法單位刻意打壓少數族群感到不滿。科技領域也掀起一股反歧視的聲浪,許多專家開始審視科技應用潛在的歧視行為,臉部辨識技術為其中之一。IBM、亞馬遜、微軟在近日都公開表示,將不再提供臉部辨識技術給美國警方。

引發多達1000多名AI專家發表公開信,質疑這則報告潛在的歧視性演算法

號稱有80%的準確率,而且沒有種族偏見

也要求Springer須出面聲明承認錯誤,並譴責這種違法人權的行為

網友留言
留言如有不雅或攻擊性文字、重複灌水、廣告、外站連結等內容,本網站將保有刪除留言之權利
留言
追蹤
網頁已閒置超過 90 秒囉!
請按任意鍵,或點擊空白處,即可回到文章。