AI「學會」偏見 黑人名字聯繫負面詞

[2016.08.29] 發表

美國普林斯頓大學早前測試一個人工智能程式(AI),發現它把一些白人常用名字視為「愉快」的字詞;黑人常用名字則是「不愉快」的詞語。研究員指出AI透過互聯網學習,連人類的種族偏見也會有樣學樣。

學人類語言 種族偏見潛移默化

GloVe是一個不受規管的AI學習程式,自行在數據中找出模式學習。普林斯頓大學研究員參考了1998年華盛頓大學一個研究,假設AI從網上了解人們使用的語言,繼而自行學習,AI亦將會「學習」到人類語言中潛藏的種族與性別歧視。當年華盛頓大學專家邀請人們將一些詞語與「愉快」、「不愉快」聯繫起來。接受測試者把「花」、「昆蟲」先後區分為「愉快」及「不愉快」;後來他們要再區分一堆人名,結果發現測試者認為白人名字「愉快」,黑人名字則「不愉快」。

普林斯頓大學研究員複製這個測試,只不過測試對象改為GloVe。研究發現,GloVe把Emily和Matt等白人常見名字判斷為「愉快」,至於Ebony和Jamal等黑人常見名字則判斷為「不愉快」。

普林斯頓大學的研究顯示GloVe的數據庫受到偏見和先入為主的觀念所「污染」,演算法亦複製出這些人類最差劣的價值觀。

預測罪犯軟件 低估白人風險

人類愈來愈倚重程式作重要決定,認為機械不會受人類偏見所左右,更能作出客觀判斷。不過,近期研究卻顯示機器可能不會客觀。ProPublica今年5月便報道,佛羅里達州政府用來預測未來罪犯的軟件有系統地低估白人罪犯再犯事的風險,干犯嚴重罪行的白人往往被評定為風險低於僅犯輕微罪行的黑人。

一些專家相信,問題根源可能在於演算法學習的數據所隱藏的偏見。

(每日郵報/Vice)

更多國際要聞
新加坡寨卡急增至41宗
【明報專訊】新加坡昨公布當地寨卡個案急增40宗,至41宗,確診者全部在首名確診者居住的芽籠區工作或居住,當中7人仍留醫。有專家建議,如無必要... 詳情
日最大規模奪島演習耗36噸實彈
【綜合報道】日本陸上自衛隊28日在靜岡縣的東富士演習場舉行了國內最大規模的實彈射擊演習「富士總合火力演習」。演習以奪回被敵人佔領的島嶼為假想... 詳情
意地震死者國葬 消防憾未救8歲童
意大利中部上周三6.2級地震,截至昨日死亡人數增至290。當局將上周六(27日)定為全國哀悼日,為35名死者舉行國葬,各公眾場所下半旗致哀。... 詳情
【明報專訊】美國常春藤名校康奈爾大學校園28日凌晨爆發「大爭吵」事件,導致1死1傷,警方正在深入調查中。 紐約伊莎卡警局指出,康奈爾大... 詳情
半數德國人反對默克爾續任
【明報專訊】從年初德國跨年發生難民性騷擾事件,再加上7月爆發一連串平民遭暴力攻擊事件,德國人民就對默克爾(Angela Merkel)的移民... 詳情

明報網站 · 版權所有 · 不得轉載
Copyright © 2016 mingpaocanada.com All rights reserved.
Ming Pao Daily News A wholly owned subsidiary of Ming Pao Enterprise Corporation Ltd.
Toronto Chinese Newspaper

1355 Huntingwood Drive, Scarborough, Ontario, Canada M1S 3J1 | Tel.: (416) 321-0088 | Fax: (416) 321-9663 | Advertising Hotline Tel: (416) 673-8250