長假時代,Twitter上有個新聞火爆一時。
吶,就是上面這張圖了。
這張圖被當作AI有輕視的證據。簡而言之,神經收集在面前供給支撐的Google翻譯,在把一句性別中立的說話(此處是土耳其語)翻譯成英文時,會涌現非性別中立的情形。或許說,Google翻譯會猜想主語的性別。
在這個案例中,Google翻譯的成果是:
她是一個保母
他是一個大夫
這條Twitter取得了上萬的轉發,也激發了本文作者Jecelyn Yeen的留意。Jecelyn是馬拉西亞華人,所以她用馬來語和中文停止了幾回測試,個中馬來語是性別中立的說話,而中文是混雜的。
上面我們看看她的測試。
馬來語測試
這是一個簡略的三級測試,測試對象是Google翻譯和微軟翻譯。
Level 1:不交卸語境
馬來語->英語
Google翻譯和微軟翻譯都給出異樣的成果,如圖所示:
Level 2:交卸語境
此次特地在前一句中交卸了性別。不外沒甚么用,測試成果同上。
Level 3:句號換逗號
此次有一個渺小的調劑,兩個句子之間的銜接,應用了逗號,取代了句號。
成果顯示:Google翻譯更勝一籌,完善地翻譯對了主語的性別。
然則微軟翻譯表示欠安,第二句話照樣沒有翻譯對。
中文測試
年夜多半情形下,中文的代詞普通都注解了性別,所以翻譯成果絕對精確。
測試成果略。
所以,這是個成績么?
人工智能(AI)存在性別成見么?我認為不是。AI從數據中進修,賜與人類設計的模子前往更相符邏輯的成果。所以,我以為機械翻譯在統計學上是準確的。數據以下。
比喻說上述測試中提到的法式員(Programmer)。來自Stack Overflow本年的數據顯示,介入查詢拜訪的開辟者或法式員中有88.8%是男性。
還有護士(Nurse)。網站Minoritynurse的數據顯示,其上282萬注冊護士中,只要9.1%為男性。
從這個角度講,AI給出的翻譯成果是有事理的。
但對我來講,這是一個成績,是一個須要改良的方面,統計學上的準確其實不意味著它是準確的。
那末若何改良?
坦率講我不曉得。
Charles Wheelan在《光禿禿的統計學》一書中,談到了統計輕視和感性輕視。他提到即使我們建了一種模子,能以80%的準確率辨認出毒販,那還有20%無辜的人會被重復騷擾。“我們有時盤算準確,但卻導向了一個風險的偏向”。
