智能相對論 | 2018-10-14 08:46 公平比情緒要抽象得多,,而且如果人工智能需要研究公平算法,,誰來決定公平的考量因素呢?這似乎陷入了一個死循環(huán),。 亞馬遜AI招聘工具被曝歧視女性,,官方宣布解散團隊,這事就完了嗎? 這不禁讓我想起,,1911年辛亥革命后,,上海外灘公園外立著的一塊寫有幾行字的告示牌——“華人與狗不得入內”被拆除,上海人民稍微松了一口氣,。 但歧視不會缺席,,也不會遲到。 直到今天,,職場對女性的歧視依然嚴重,,雖然少有用人單位明目張膽的聲張只招男性不找女性,但招聘女性時設置的門檻卻無不寫著歧視,,除了考察工作能力,,還要考量婚姻狀況,家庭狀況,、生育狀態(tài)等等,。并且,這些問題在入職前,,這些你一直以為的隱私的都會被赤裸裸的直接提問,。 更讓人感到無力的是,隨著人工智能技術的進步,,這種職場歧視似乎在不斷加深,。這兩天,亞馬遜AI招聘工具被曝性別歧視,,該系統(tǒng)會給予包含“女性”這個詞的簡歷以低星評級,。即使技術人員修改程序使得系統(tǒng)在特定術語上秉持中立的原則,但是接下機器還會有什么新的歧視,,無人知曉,。 數(shù)據(jù)是社會的產物,技術中立是不可能的技術中立是不可能中立的,,這輩子都不可能,。 你以為的技術中立是什么?不含偏見,,不偏不倚,,人人都能平等的享受科技帶來的便捷。 這是企業(yè)的宣傳語但不是事實,。任何一種技術的發(fā)明一定免不了沾滿了有血有肉的人的“色彩”,,它由人塑造,受當下的社會環(huán)境影響,,是社會的產物,。而人工智能技術,,它由數(shù)據(jù)驅動,由于數(shù)據(jù)具有一定的社會屬性,,所以數(shù)據(jù)里的歧視,,會完整的反射到了人工智能招聘機器上甚至會被成倍放大。 果殼網文章《當AI學會性別歧視》里提到一個案例,,有一位研究人員的研究內容是辨認場景復雜生活照,,她發(fā)現(xiàn),男人被認成女人的圖片有一些共同點——都是站在廚房里,,或者在做家務,。 這并不是哪里出現(xiàn)了問題,而是機器從大數(shù)據(jù)里得到的認知就是女人和某些特定的元素有關,,比如廚房,比如家務,??磥聿还苣膫€國家,女性都多于家庭聯(lián)系在一起,。 波伏娃說,,一個人不是生來就是女人,她是變成女人的,。 我們毫無知覺的變成了女人,,又不自覺的向女性身份看齊表示認同。機器仿佛是《皇帝的新衣》里那個天真小孩,,敏銳的察覺我們身為女人所帶有的標簽(主動或被動),,最后以一種近乎殘酷的方式呈現(xiàn)出來。就像人們常常覺得男生比女生更適合理科一樣,,人們固有的觀念是男性比女性更適合領導崗位,,男性比女性更擅于決策等等。在谷歌的廣告服務中,,男性會比女性看到更多的高薪招聘廣告,,這些既定的事實使得女性的職場天花板愈加明顯。 樂觀一點說,,隨著社會的進步,,職場對女性的歧視將會慢慢改變,悲觀一點,,……還是不說了吧,。在實際的機器訓練中,數(shù)據(jù)驅動的技術如果能全面反映數(shù)據(jù)本身的內在聯(lián)系,,人們無疑會認可這門技術,,但是如果這門技術反應的內在聯(lián)系是人們不希望它反應的呢,?這些明晃晃、大剌剌,、冷冰冰的職場歧視,,一句所謂的技術中立,就能解釋嗎,? 正如劍橋大學教授魯恩·奈如普(Rune Nyrup)所言,,“沒有事實上的技術中立。對機器來說,,中立的就是占統(tǒng)治地位的,。” 在AI招聘上,,有公平算法嗎,?關于人工智能歧視的問題已經發(fā)生多起,比如谷歌的圖片軟件曾錯將黑人標記為“大猩猩”,,微軟的Tay 僅僅上線一天,, 就變成了一個集反猶太人、性別歧視,、種族歧視等于一身的“不良少女”等等,。那么在未來,人工智能招聘是否可以實現(xiàn)真正的公平呢,? 實際上AI可應用于招聘的很多環(huán)節(jié),,比如篩選簡歷,視頻面試,,聊天面試等,。篩選簡歷是一個大工程,少則幾十份,,多則幾百份,。曾有一個做HR的朋友說,有時候簡歷實在太多就分成兩半,,另一半直接扔垃圾桶……因此,,這種重復且瑣碎的活最適合人工智能來干。但人工智能篩選簡歷需要將公平量化,,使公平被翻譯成可操作性的算法,。 而利用人工智能聊天機器人,不管是視頻聊天還是其他形式的聊天,,機器人都需要具備一定的分析能力,,比如分析求職者的語調、眼神和回答的表情,,來判斷求職者是否對工作富有熱情,。但這同樣需要公平算法,,畢竟智能相對論(aixdlun)分析師雷宇的瞇瞇眼被人認定為打瞌睡也不是一兩次了。 那么公平可以被量化嗎,? 2011年《科學》雜志上的一項研究顯示,,情緒可以被數(shù)據(jù)化,來自世界上不同文化背景的人們每天,、每周的心情都遵循著相似的模式,。這項研究建立在兩年多來對84個國家240萬人的5.09億條微博的數(shù)據(jù)分析上。 但是公平比情緒要抽象得多,,而且如果人工智能需要研究公平算法,,誰來決定公平的考量因素呢?這似乎陷入了一個死循環(huán),。 我們很難將公平量化,,也就不說公平算法了。現(xiàn)階段的人工智能招聘官一般用在低水平入門級別的工作招聘中,,而稍微要求高一點的招聘,,AI最多能起輔助作用,也就是科大訊飛所說的“人機耦合”,。 歧視無處不在,子子孫孫無窮盡也在發(fā)生人工智能招聘歧視之后,,亞馬遜拒絕對于該招聘引擎或面臨的挑戰(zhàn)作出評論,,并表示自己一直致力于保證公司的員工多樣性和平等。 但智能相對論想要提醒大家的是,,亞馬遜也致力于成為“地球上最以消費者為中心的公司“,,但有研究發(fā)現(xiàn),亞馬遜的購物推薦系統(tǒng)卻一直偏袒其自己及其合作伙伴的商品,,即使其他賣家的商品的價格更低,。而在購物比價服務中,亞馬遜隱瞞了其自己以及其合作伙伴的商品的運費,,導致消費者不能得到一個公正的比價結果,。 商家為了自身利益最大化,會有無數(shù)歧視的手段和理由,。同樣,,職場中的女性,會被無數(shù)看似正當?shù)睦碛善缫?,未婚未孕,?企業(yè)方擔心你休婚假產假,未婚已孕,?企業(yè)方擔心你生小孩要耽誤一年,,其中最可怕的就是大齡未婚的女青年了…… 100多年過去了,,上海已經儼然成了一個像模像樣的大都市,但也成了這個時代歧視外地人的典型,。 這樣看上海的我,,又何嘗不是歧視呢。 【鈦媒體作者介紹:智能相對論(aixdlun),,作者|雷宇】 |
|
來自: 昵稱30604781 > 《社會人文經濟》