據(jù)《每日郵報》報道,計算機程序員們正試圖教育機器人減少性別歧視,其方法是幫助它們擺脫某些單詞所帶來的偏見。
雖然計算機可能是中性的,但人類的偏見可能無意識地體現(xiàn)在對語言進行分析的機器學(xué)習(xí)算法。這種偏見被證明已產(chǎn)生影響,如對求職者進行分類的基本計算機程序,可能會基于關(guān)鍵詞而對某些求職者產(chǎn)生歧視。但美國有一個研究小組在正試圖打破這種偏見。
微軟研究院(MicrosoftResearch)的程序員亞當(dāng)·卡萊(AdamKalai)正與波士頓大學(xué)的研究人員合作,試圖從計算機中刪除這種偏見。
該研究小組正在利用一種被稱為“詞向量(WordEmbedding)”的技術(shù),教育機器如何通過尋找單詞之間的關(guān)系來處理語言。使用該方法,機器可以通過比較單詞“她”和“他”來了解上下文。具體在應(yīng)用時,機器會找到合適的配對,如“姐妹-兄弟”或“女王-王”。但是,當(dāng)計算機搜索現(xiàn)實世界資源時,詞向量方法可能根據(jù)固有的性別成見而進行配對。例如,尋找工作職位時,對于“她-他”配對,計算機會聯(lián)想到“縫紉工-木工”或“室內(nèi)設(shè)計師-建筑師”。
向計算機輸入來自谷歌新聞的文章,正如所預(yù)料的,對于“她-他”單詞配對,能產(chǎn)生了一些良性的關(guān)聯(lián),如母親-父親和自己(herself)-自己(himself)。而一些配對更不常見,如“子宮-小腸”或“未婚夫-室友”。但一些基于性別偏見而產(chǎn)生的配對可能有問題。例如,“可愛”被認為是一個女性專用詞,而“輝煌”等于男性,同樣還有“家庭主婦”與“計算機程序員”配對。
在職業(yè)上,這種性別歧視最極端的例子是,哲學(xué)家、戰(zhàn)斗機飛行員、上司和架構(gòu)師等這些工作通常與“他”有關(guān)。而與“她”相關(guān)的職業(yè)包括家庭主婦、社交名媛、接待員和理發(fā)師。
卡萊在接受NPR(美國全國廣播公司)采訪時表示:“我們試圖避免出現(xiàn)性別歧視的現(xiàn)象,尤其是在新聞文章中……但你發(fā)現(xiàn),這些單詞配對存在相當(dāng)嚴重的性別歧視性質(zhì)。”
在網(wǎng)上最近公布的一篇研究報告中,該研究小組發(fā)現(xiàn),他們可以訓(xùn)練機器忽略單詞的某些關(guān)聯(lián),同時保持了所需的關(guān)鍵信息。他們解釋稱:“我們的目標是減少單詞配對的性別偏見,同時保留其有用的屬性。”
通過調(diào)整他們的算法,該小組能夠去除單詞之間的某些關(guān)聯(lián),如“前臺”和“女性”,同時保持合適的單詞配對,如“女王”和“女性”。
雖然其算法仍基于性別產(chǎn)生配對,但忽略了某些潛在的關(guān)聯(lián)——即某些詞被視為更男性化或女性化。他們認為這種方法或許能通過“詞向量”技術(shù)改進機器學(xué)習(xí),在保持有用關(guān)聯(lián)的同時擺脫單詞固有的偏見。
根據(jù)NPR的報道,問題是并不一定要用“詞向量”算法來處理語言,這種算法可以區(qū)分性別和種族,但只有當(dāng)研究人員希望專注于某一特定性別或群體時,才可能需要這種算法。
當(dāng)這種技術(shù)被打算作為一種不偏不倚的方法對數(shù)據(jù)進行分類,而不考慮性別或種族偏見時,這種技術(shù)可能會有問題。對此,研究人員解釋稱:“理解基于種族、民族和文化的固有成見而產(chǎn)生的直接和間接偏見,是一項微妙的工作。今后這項工作的一個重要方向?qū)⑹橇炕拖@些偏見。”
“中國成都五金機電指數(shù)”官方網(wǎng)站: http://wjzs.org/
“中國成都五金機電指數(shù)”資訊QQ:100360145
“中國成都五金機電指數(shù)”新浪微博: http://weibo.com/wanguanwj
“中國成都五金機電指數(shù)”: 028-61690086-6655 |