您的input如何,您的output也必如何。
當前位置: 首頁 » A-Journal » 消息與故事 » 【自動駕駛】原來,自動駕駛的汽車也懂得歧視
英國作家喬治‧奧威爾在小說《動物農莊》中寫道:「所有的動物都平等,但有些動物比其他動物更平等。」而在一個充滿著自動駕駛汽車的世界裡,則很可能是某些行人比其他行人更安全。
美國喬治亞理工學院 (Georgia Institute of Technology) 一項研究於近日發布。該項研究的主旨是詳細研究八個可以用來幫助自動駕駛汽車辨認路標、行人和其他物件的人工智慧模型,檢驗它們的準確度是否受人類的膚色影響。結果顯示,這些模型遇到膚色較深的行人時,表現竟然會有所下降。
研究人員是根據費氏量表 (Fitzpatrick scale) ──一個經常被用來分類人類膚色的工具── 上的分數,把行人的影像分成兩組,再測試那八個人工智慧模型。他們發現模型在辨認膚色較深的影像時,其準確度平均會降低約 5%。即使研究人員控制了影像拍攝時間及行人影像偶爾被遮擋等變數之後,這個準確度的差異依然存在。
換言之,如果日後馬路上全是自動駕駛汽車的話,深膚色的行人面對的危險可能較淺色皮膚的行人為高。
這份研究的另一貢獻,在於讓人們取得更多證據,證明人類的偏見滲入了自動決策系統。由於這些人工智慧系統是依靠人類「餵給」的數據和例子進行學習,假如系統的開發人員相對輕視某一類人,例如深膚色的人,系統在學習過程中本身就較少遇到相關的數據和例子,以致在實用階段便會很難把它們正確辨別出來,產生出「演算偏見」。
當然,這份研究仍有待同行評審,而且研究人員也不是在直接測試各汽車廠商研發、安裝在產品上的人工智慧模型──因為廠商根本不會公開它們自家的人工智慧模型和訓練它們所用的數據庫,但這並不表示研究毫無參考價值。至少,它為我們發出了警號,提醒我們注意人工智慧模型「與生俱來」的潛在風險。
正如研究人員所說,如果汽車廠商採用的視像辨別模型與他們在研究中測認的擁有類似的結構,就應該對它們作更仔細的檢查。