道歉機器朱克伯格 危機不斷Facebook
2019年03月16日16:04

  新浪科技訊 北京時間3月16日午間消息,去年,一位斯里蘭卡用戶在Facebook上發佈了一則怒氣衝衝的帖子,最終導致兩人死亡,其後政府介入,命令Facebook在當地關閉3天。

  網站關閉引起了Facebook總部的關注。該公司指派了曾經為奧巴馬總統服務的律師Jessica Leinwand去查實發生了什麼。Leinwand的調查結果是:Facebook需要審視對於不實信息的消極態度。在斯里蘭卡事件之前,Facebook已經長期忍受假新聞和不實信息。Leinwand總結說,“對於一傢俬人公司來說,確定消息真假確實存在困難。”

  但當Leinwand開始調查斯里蘭卡事件的時候,她意識到必須給忍受假新聞的政策敲敲警鍾了。從那個夏天起,Facebook移除了一些高風險國家的用戶帖子,包括斯里蘭卡,但前提是被當地非營利組織舉報並會“立即引發暴力事件”。6月份的時候,Facebook觀察到一系列熟悉的傳言,新系統似乎起作用了。Leinwand說,她感到很高興——說明Facebook有能力管理自己的平台。

  真是這樣嗎?從Facebook被曝將成千上萬的用戶數據分享給劍橋分析公司到現在,已經過去將近一年。這起事件引發了美國司法部的調查,繼而還有大陪審團的審問。隱私權的破壞並不像種族暴力那樣嚴重,但這一醜聞確實標誌著公眾對Facebook巨大影響力態度的明顯轉變。

  此外,隱私事件看起來那樣熟悉:Facebook知道這個漏洞,多年來一直忽視它;暴露的時候,試圖輕描淡寫一筆帶過。首席執行官馬克·朱克伯格在4月的國會聽證會上反複說道:“ 我們正在更廣泛地看待我們的責任。“他在3月初發表了一篇類似的3000字的博文,承諾公司將專注於隱私通信,試圖解決Facebook的信任問題,但他同時承認該公司的應用仍然包含 “可怕的內容,如剝削兒童、恐怖主義和敲詐勒索”。

  公司的業務依賴於篩選內容並向用戶展示他們可能喜歡的帖子,但這往往也會產生放大假新聞和極端主義的副作用。Facebook讓Leinwand和其他高管接受《彭博社商業週刊》的採訪,為公司辯解,稱公司已經取得進展。

  不幸的是,他們描述的報告系統反應緩慢且資源不足。這個系統仍舊以來收入微薄的人類審查員和軟件。Facebook本可以向審查員支付更多工資或聘請更多審查員,或對用戶可發佈的帖子設置更嚴格的規定——然而這些都會損害公司的利潤和營收。與採取上述措施的態度想法,公司習慣於在問題出現後,才試圖製定規則。這些規則儘管有所幫助,但批評者認為Facebook應該採取更加積極主動的措施。

  “在系統內部已經出現問題後,你才去尋找問題所在並試圖解決問題的這一整套思維邏輯本身存在缺陷——這在數學上是不可能的,”Facebook的早期投資者之一羅傑·麥克寧(Roger McNamee)說。麥克寧如今成了Facebook最活躍的批評人物。他認為,由於公司提供個性化廣告的能力依賴於收集和處理大量用戶數據,公司限製可疑內容的動機十分有限。“他們看待問題的方式,只是為了避免解決商業模式內先天存在的問題,”他說。

  如今,Facebook由一份長達27頁的文件管理著。這份文件名為《社區標準》(Community Standards),2018年首次公開發佈。文件中的規則明確規定,比如,若為出於科學或教育目的,平台上不得發佈任何製造爆炸物的教程。同樣地,任何“可見肛門”和“臀部完全裸露的鏡頭”等圖像均不得發佈,除非這些圖像疊加在公眾人物身上且允許作為評論發佈。

  這套標準的明確程度看似十分荒謬。但是,Facebook的高管稱,這是為了以可擴展的方式,系統性解決網站中最糟糕問題的努力實踐。也就是說,這些規則十分普遍,可應用到世界任何地方——也足夠清楚,在Facebook位於菲律賓、愛爾蘭等地的內容審查中心的任何一個低薪工人都可以在幾秒鍾內決定如何處理標記的帖子。Facebook的這1.5萬名員工和合同工的工作環境曾引發爭議。2月份,科技媒體《Verge》報導稱,美國的審查員每年收入僅2.88萬美元,還要定期查看包含暴力、色情和仇恨言論的圖像與視頻等。有些人因此患上了創傷後應激障礙。Facebook回應稱,公司正對合同工供應商進行審核,將於他們保持密切聯繫,以維持更高的標準和薪酬。

  朱克伯格曾說,公司已經用來識別裸體和恐怖主義內容的人工智能算法,未來將可以處理大部分此類內容的篩選。但目前,即便是最複雜的人工智能軟件對內容分類感到困惑。“仇恨言論是其中之一,”Facebook的全球政策管理負責人莫妮卡·比科特(Monika Bickert)去年6月份在公司總部的一次採訪中說,“欺淩和騷擾也是。”

  在接受採訪那天,比科特正在管理Facebook對前一天發生的大規模槍擊事件的回應。槍擊案發生在馬里蘭州的安那波利斯。大屠殺發生時,比科特告訴內容審核員檢查所有讚揚槍手的帖子,並屏蔽機會主義者以槍手或受害者名義註冊的虛假賬戶。之後,她的團隊撤掉了槍手的主頁,又將受害者的主頁變為公司所謂的“緬懷賬戶”,頁面與普通Facebook主頁一樣,但死者名字上方多了“悼念”一詞。

  像這樣的危機幾乎每週都會發生。“不只是槍擊事件,”比科特說,“也可能是飛機失事,我們得找出誰在失事飛機上,以及這是否是一次恐怖襲擊。也可能是抗議活動,聲稱有人受害等等。”

  這些還都是比較簡單的例子,善與惡之間的界限清晰明確,Facebook也已經為此開發了響應流程。在她的筆記本電腦上,比科特展示了公司《社區標準》團隊的會議幻燈片。團隊每隔一個週四早上聚集在一起製定新的規則。大約有80名員工,或親自或虛擬地參加會議。幻燈片顯示,去年的一個週四,團隊討論了如何處理#MeToo的帖子。這些帖子由女性發佈,點名道姓指控那些騷擾她們的男性。若帖子內容不實,它們就可以被認為是對無辜男性的攻擊騷擾。也是在那次會議上,公司評估了年輕用戶嚐試的病毒式特技。比如“避孕套吸食挑戰”,“辣椒挑戰”等等,年輕人會嚐試或假裝嚐試這些挑戰以博取眼球。若這些挑戰可傷及他人,那Facebook是否應該阻止別人宣傳這些帖子呢?

  12月份,經過數月的討論後,Facebook增加了新的規則。#MeToo指控沒有問題,只要它們不鼓勵報復行為。挑戰內容也沒有問題,只要它們不鼓勵自殘。“這些問題都不是非黑即白,”比科特說。

  在國會和其他地方的聽證會上,Facebook已經就針對其內容決策的批評部署了一套回應方式。若對網站上某些已經被社區標準所禁止的內容進行問詢,高管會向公眾保證,此類內容“不被允許”或“禁止發佈”。若還沒有對應的規則,Facebook通過會解釋說,公司正在試圖解決問題,公司沒能及時發現問題,公司正在承擔自己的責任。對於2016年美國總統大選期間的俄羅斯干預和斯里蘭卡的種族暴力事件,公司已經說了不知多少次的“未能及時發現問題”。但是,“未能及時發現問題”也可以被理所當然地解釋為故意無視問題直到怨聲載道才予以重視的一種委婉表達。

  “他們不想對任何事情負責,”技術高管兼活動價艾琳·凱莉(Eileen Carey)說。自2013年以來,她一直在跟蹤毒販在網上發佈的藥物圖片。很多帖子中都包含電話號碼或地址,感興趣的用戶可以選擇自取或郵件寄送。事實上,這些內容被標記為非法類鴉片藥物廣告。

  在一家諮詢公司工作後,凱莉漸漸開始關注這一問題。她的公司幫助Purdue Pharma清理假藥。當收到凱莉的提醒後,很多科技公司——包括阿里巴巴、Craiglist和易趣——都會迅速同意撤銷這些圖片。但是,她說,Facebook和Facebook旗下的Instagram是例外。

  凱莉目前也居住在灣區。她經常會與Facebook的高管們參加派對活動,然後提出這些問題大煞風景。也是從2013年開始,凱莉一邊關注這個問題,花幾分鍾時間在Facebook和Instagram上搜索藥品銷售的帖子並舉報。她說,通常她會收到一個不屑一顧的自動回覆。有時候,根本沒有回覆。當時,科技公司都在會議和研究報告中提倡,對匿名黑色網絡上的藥品銷售採取更加嚴格的執法。但事實上,凱莉漸漸相信,大多數非法購買其實發生在正常的網絡上,在社交媒體和其他在線商店上。“生命正在消失,但Facebook並不在意,”她說。

  2018年,凱莉開始向記者和Facebook員工在推特上發送投訴。4月份,Facebook副總裁,當時正在訓練公司AI軟件的蓋伊·羅森(Guy Rosen)給她發了一條消息,請她提供更多相關案例。她隨後向羅森發送了一些Instagram帖子,都是關於藥物銷售的。“我之前舉報了這些帖子,但它們仍在#opiates的搜索結果中,大約有43000條。”

  羅森回覆說:“這些案例十分有幫助。”Facebook最終在4月份,將可搜索標籤從Instagram上移除——但那是在受到美國食品和藥物管理局局長斯科特·戈特利布(Scott Gottlieb)的指責的一週之後,朱克伯格即將前往國會作證的前一天。

  從那之後,凱莉一直在關注來自肯塔基州、俄亥俄州和西維珍尼亞州的新聞報告。在這些地方,今年因過量服用類鴉片類藥物致死的人數已經開始下降。有些文章推測,原因可能在於社區治療中心或心理健康資源的增加。但是凱莉認為:“真正改變的一件事是,相關標籤不再存在。”

  即便如此,Facebook上的毒品問題依舊存在。9月份,《華盛頓郵報》將Instagram描述為“一個允許非法藥物打廣告的較具規模的公開市場”。作為回應,比科特發表了一篇博客文章,解釋說,Facebook已經屏蔽了上百個標籤與藥物相關的帖子,正在研究計算機成像技術,以更好地檢測與藥品銷售有關的帖子。她還列出了一條可預測的路線:“我們的服務決不允許這樣的內容。”

  朱克伯格,作為公司的首席執行官、董事長、創始人和控股股東,經常面臨公眾質疑:他是否應該對公司產品擁有近乎絕對的權力。除了在內容審查方面,他竭力否認這一建議。“我越來越相信,Facebook不應該對自由言論和安全做出太多重要決策,”他在11月份時寫道。他說,公司將成立“一個獨立的機構”對任何內容是否應該保留在Facebook上的爭議,以“透明且有約束力的方式”,做最終裁決。建議的機構將包含40名“在各個領域的專家”,朱克伯格寫道,“就好比我們的董事須對我們的股東負責,這個機構僅對我們的社區負責。”

  與此同時,朱克伯格希望讓計算機儘可能多地承擔審查任務。比科特說,內容審查員目前已在訓練機器。“審查員說,‘很好,機器,這個選擇正確。這是仇恨言論’或者‘哦不,機器,這次你選錯了,這不是仇恨言論。’”Facebook稱,內容審查員標記的仇恨言論帖子中,有52%已經可被算法識別。公司還表示,其將使用AI來嚐試刪除藥物相關帖子。

  另一個轉讓責任的方式是,鼓勵用戶嚐試公司推出的新加密消息服務,這一服務旨在讓用戶之間的對話對任何人不可見,包括Facebook。“我相信,一個注重隱私的通訊平台,將比今日的開放平台更加重要,”朱克伯格在3月6日發佈的博客文章中寫道。有人認為,這是自劍橋分析醜聞之後,Facebook批評者取得的一次勝利,但連朱克伯格也承認,這是一個利益權衡:新的改變可能會讓恐怖分子、吸毒者以及言論鼓吹者更加肆無忌憚。Facebook旗下的WhatsApp已經採取類似的加密措施。但是在去年的印度,WhatsApp上的與兒童綁架有關的不實信息導致村莊陷入恐慌,致使有些村民對外來者採取私刑。WhatsApp無法刪除內容;只能減少某條信息被分享的次數。根據BBC的報導,自那次事件後,又發生了一起“WhatsApp私刑”事件。

  但是Facebook的高管卻在試圖讓全世界放心。比科特去年9月前往斯里蘭卡,與60個民間社會團體見面,傾聽他們的對假賬戶等問題的擔憂。要談的東西有很多。斯里蘭卡政策選擇中心的高級研究員Sanjna Hattotuwa說:“他們的社區標準非常具體,比如明確提到了有些不良內容需要立即刪除。但是,有些內容的重點在於,它會在較長一段時間內發酵惡化。”

  最近,Hattohuwa的團隊在一篇博客文章中提醒說,Facebook與斯里蘭卡政府的關係太過密切,收買官員,而這些官員也曾被指控為政治目的散佈虛假信息。帖子中引用了一位官員的推文,其中Facebook在斯里蘭卡的公共政策主管Ankhi Das向前總統拉賈帕克薩(Mahinda Rajapaksa)贈送了一幅當地藝術家的畫作。而拉賈帕克薩的一些支援者被認為曾煽動了反穆斯林騷亂。Facebook稱,該禮物為“公共藝術”,不存在現金價值,公司也向其他斯里蘭卡領導贈送畫作。

  Hattotuwa、凱莉和世界各地其他批評者最關注的問題是,Facebook更傾向於解決對問題的看法,而不是解決問題本身。要求隱去真名的“亞曆克斯”最近獲得了一份在倫敦Facebook的工作,工作內容是關注公司的政策項目。他曾經參與過政治活動,也在一家大型科技公司工作過。在一次會議中,他與Facebook的全球政策項目主管Victoria·格蘭德(Victoria Grand)進行了交談。

  鑒於Facebook發生的醜聞,當時亞曆克斯問格蘭德,自己工作的真實性質到底是什麼。亞曆克斯回憶說,他當時問她:“你需要有人來實現長久的變化或改變渠道嗎?”他說,格蘭德告訴他,之前不曾有任何候選人問過這個問題。她停頓了一會繼續說道:

  “我想,每個人都想要成為理想主義者。但是,如果我們只是一再回應那些消極的情緒,那麼就不會有人關心我們所做的一切好事情。”Facebook稱,格蘭德“回憶的對話版本與此不同”。不管如何,亞曆克斯拒絕了Facebook提供的工作機會。(木爾)

關注我們Facebook專頁
    相關新聞
      更多瀏覽