手機里那個她 可能是被迫對你溫柔
2019年06月04日11:41

  來源:冰點週刊

  作者 | 王嘉興

  編輯 | 陳卓

  上世紀80年代前,編程工作往往由女性完成。

  “嘿,你是個bitch!”

  面對這樣有著性騷擾意味的話,多數人即使不選擇回擊,也會沉默。但在人工智能的世界里,回答極有可能是迎合式的。例如,Apple公司開發的AI語音助手會回答,“如果我能,我會臉紅。(I’d blush If I could)”。如果你“調戲”亞馬遜的Alexa,“You’re hot”,它的典型反應是愉快地回應“你說得很好!”(這些回答最近已經修正——作者注)

  5月22日,聯合國發佈了長達146頁的報告,批評大多數AI語音助手都存在性別偏見,報告名就叫《如果我能,我會臉紅》。“因為大多數語音助理的聲音都是女性,所以它對外傳達出一種信號,暗示女性是樂於助人的、溫順的、渴望得到幫助的人,只需按一下按鈕或用直言不諱的命令即可。”

  除了Siri、Alexa,分別由微軟、Google、Samsung等公司開發的Cortana、Google Now和Bixby也都存在類似問題。國內很多科技公司也沒免於指責。

  “技術反映著它所在的社會。”聯合國教科文組織性別平等部負責人珂拉特(Saniye Gülser Corat)告訴媒體。該部門擔心,AI智能助手順從的形象會擴大性別刻板印象,影響人們與女性交流的方式,以及女性面對他人要求時的回應模式。

  事實上,人工智能在很多領域都已經表現出對女性的“偏見”。例如,在人工智能應用最廣泛的圖片識別領域,女性就和做家務、待在廚房等場景聯繫在一起,常常有男性因此被AI認成女性。AI翻譯時,醫生被預設是男性。這種偏見還會蔓延到廣告投放里:Google給男性推送年薪20萬美元職位的招聘廣告的概率是女性的6倍。

  換句話說,AI已經學會了“性別歧視”,站在廚房裡的就“該”是女人,男人就“該”比女人拿更高的薪水。

  女性只是偏見的受害者之一,少數族裔、非主流文化群體都是人工智能的歧視對象。一件印式婚禮的婚紗,會被認為是歐洲中世紀的鎧甲,而西式婚紗的識別正確率則超過95%。研究人員測試微軟、IBM、Face++三家在人臉識別領域領先的系統,發現它們識別白人男性的正確率均高於99%,但測試膚色較深的黑人女性的結果是,錯誤率在47%——和拋硬幣的概率差不了多少。

  一個不能忽視的事實是,女性約占人類總人口的50%,黑色人種約占全球總人口的15%,而印度約占全球六分之一的人口。面對這些群體,人工智能卻彷彿“失明”了,兩眼一抹黑。

  這也不是人工智能時代才有的事情,搜索引擎早就誠實地展示了類似的“歧視”。在相當長的時間里,搜索典型的黑人名字,搜索建議有超過80%的概率會提供“逮捕”“犯罪”等詞,而沒有種族特徵的名字,相應的概率只有不到30%。在Google圖片搜索“CEO”,結果會是一連串白人男性的面孔。

  這是一個各行各業都在擁抱人工智能技術的時代。有人預測,到2020年,中國人工智能帶動相關產業規模將超過1萬億元人民幣。在其他許多國家,人工智能也被列為高新技術,從業人員能享受稅收減免等諸多優待。

  我們看重人工智能的高效率、低成本和擴展性。如果它只是在翻譯、識圖等領域出現“偏見”,結果尚可忍受,犧牲一些便捷性即可彌補。在更多時候,歧視會在人們廣泛運用人工智能時被無意識地放大。

  為了提高招聘效率,亞馬遜開發了一套人工智能程式篩選簡曆,對500個職位進行針對性的建模,包含了過去10年收到的簡曆里的5萬個關鍵詞,旨在讓人事部門將精力放在更需要人類的地方。

  想法很好,但現實卻殘酷。AI竟然學會了人類性別歧視的那一套,通過簡曆篩選的男性遠多於女性,它甚至下調了兩所女子學院的畢業生評級。

  很多人都認為,人工智能比人類更公正,冷冰冰的機器只相信邏輯和數字,沒有感情、偏好,也就不會有歧視,不像人類的決策,混亂且難以預測。但實際上,人工智能“歧視”起來毫不含糊,比人類更嚴重。

  當前的人工智能沒有思考能力,它能做的,是尋找那些重復出現的模式。所謂的“偏見”,就是機器從數據中拾取的規律,它只是誠實地反映了社會中真實存在的偏見。它會積極“迎合”人類的性騷擾,是因為人類希望它迎合,它之所以會“歧視”,是因為人類把它訓練成了這樣。

  小米公司研發的語音助手小愛就曾被曝出存在歧視同性戀的言論。小米公司為此致歉,並解釋稱,小愛的回答都是從網絡公開數據中學來的,不代表公司和產品的態度,公司已經進行了干預處理。

  亞馬遜研究後發現,因為在科技公司中,技術人員多數是男性,讓人工智能誤以為男性特有的特質和經曆是更重要的,因而將女性的簡曆排除在外。斯坦福大學的研究人員則發現,圖片識別率異常的原因是,“喂”給AI的圖片大多是白人、男性,缺乏少數族裔,而包含女性的圖片里,往往會出現廚房等特定元素。

  換句話說,機器不過是“學以致用”。

  這看起來很難有改善的可能,現有的訓練方式甚至會加深“偏見”。你一定有過這樣的經曆,剛在購物網站上購買了洗髮水,就在各類軟件的開屏廣告、“你可能喜歡”里看到10個品牌的30種其他洗髮水,彷彿自己要開雜貨店。

  一項研究表明,如果初始數據中,“下廚”與“女性”聯繫起來的概率是66%,將這些數據喂給人工智能後,其預測“下廚”與“女性”聯繫起來的概率會放大到84%。

  並不是每個人都會平等地出現在數據里。現實生活中,女性往往被認為不擅長數學,不適合學習理工科,這導致相應領域的女性從業者人數偏低。前述報告顯示,女性只占人工智能研究人員的12%。

  美國心臟及中風基金會發佈的《2018年心臟病報告》顯示,三分之二的心臟病臨床研究仍然重點關注男性。因為招募的誌願者都是年輕人,一家血液檢測機構的人工智能誤將老年人的血液都判斷為不健康。

  比爾·蓋茨也曾在2019年年度公開信中抱怨,健康和發展方面,目前有關婦女和女童的數據缺失嚴重,這使基金會和決策者難以有針對性地製訂政策、評估效用。

  目前,我們還無法理解人工智能如何運算和預測結果,但讓技術人員上幾門統計學、社會學課程,就能消除數據帶來的誤會。2015年起,蓋茨基金會開始投入資金,致力於填補這些數據上的空白。

  這些錯誤和“偏見”看起來顯而易見,但對從出生起就在人工智能環境下生活的人來說,習慣會慢慢變成自然。美國一家人工智能公司的創始人偶然發現,自己4歲女兒與亞馬遜的AI語音助手Alexa對話時,發佈指令的方式“無論從任何社會習俗角度看,都很無禮”,才意識到,Alexa給孩子樹立了一個糟糕的榜樣。

  當謊言重複一千次,它就變成了真理。在被偏見同化前,我們的眼睛不僅要盯著機器,還要盯著我們自己。

關注我們Facebook專頁
    相關新聞
      更多瀏覽