通過系統(tǒng)的機器訓練,讓 AI 代替 HR 篩選簡歷,無疑能幫助公司節(jié)省大量的勞動力,并且更有效地挑選出合適的人才。萬萬沒想到的是,亞馬遜的 AI 卻戴上了有色眼鏡。
類似人類的情感傾向出現(xiàn)在了 AI 上,本身就有悖于人類訓練 AI 的目的。我們希望人工智能是中立、結果導向的,甚至在理性的前提下,會帶有一絲無情。
好在亞馬遜自己也發(fā)現(xiàn)了這個問題,去年已將負責該項目的團隊解散。
人工智能“性別歧視”的起因
在亞馬遜 AI 招聘歧視事件的最后,大家把問題歸咎于人工智能訓練樣本上。因為在具體的訓練方法上,亞馬遜針對性開發(fā)了 500 個特定職位的模型,對過去 10 年的簡歷中的 5 萬個關鍵詞進行識別,最后進行重要程度的優(yōu)先級排序。
因此簡單來說,AI 的工作還是抓取關鍵詞。然而在這些簡歷中,大部分求職者為男性,他們使用諸如“執(zhí)行”這樣的關鍵詞更加頻繁,而女性相關的數(shù)據(jù)太少,因此 AI 會誤以為沒有這類關鍵詞的女性簡歷不那么重要。
類似的事情同樣發(fā)生在了 Google 身上。早在 2017 年,Quartz 報道了一篇題為《The reason why most of the images that show up when you search for “doctor” are white men》的文章,如果你在 Google image 上搜索”doctor“,獲得的結果中大部分都是白人男性。