非白人失誤率高   面部辨識天生歧視

虎仔 / 馬日山 2018-02-13 03:33 | 網絡消息
自從 iPhone X 引入 Face ID 功能,越來越多消費者考慮手機是否配備面部辨識技術。大部份閱讀這篇文章的,相信都是黃皮膚亞洲人,有沒有想過面部辨識技術天生帶有歧視成份,對我們亞洲人,甚至其他非白種人的辨識準確度會比較低呢?

0213-2bFB.jpg

這並非電腦本身是種族歧視份子,根據麻省理工媒體實驗室 Joy Buolamwini 的一項研究,非白人辨識率較低是源於訓練面部辨識功能時,向系統提供的數據和製作演算法的環境所致。為了避免問題出現,研究員 Buolamwini 正努力推動「演算法問責制」,希望軟件工程師和開發人員令系統作出的自動化決定更透明、公平和能夠解釋。

0213-2a.jpg

面部辨識技術辨認白人時曾角度達 99%,但相片中人的膚色越深,出錯率就會越高,而最高可達 35%。Buolamwini 相信系統的偏見並非刻意為之,但她認為應該更加刻意挑選訓練人工智能軟件的材料,令到系統在辨識女性和有色人種時更加聰明。Buolamwini 的研究集中於 3 間有提供性別分類特徵,並讓公眾測試程式碼的機構:Microsoft、IBM 和 Megvii。

Buolamwini 將研究結果跟三間機構分享,最後 IBM 表示他們會改善面部分析軟件,並且在本月內改善服務;Microsoft 則表示會投資在研究方面,期望未來能夠分辨、了解和移除所有面部辨識的偏見,至於中國公司 Megvii 則未有就 Buolamwini 的研究作出回應。

資料來源:androidcommunity

 

最新新聞