GoogleAI道德委員會解散,如何讓人工智能明辨是非?
2019年04月17日11:01

原標題:GoogleAI道德委員會解散,如何讓人工智能明辨是非?

據外媒報導,3月26日,Google全球事務高級副總裁Kent Walker在Google博客中發文宣佈,為了貫徹落實Google AI七原則,完善相關的內部治理結構和流程,成立ATEAC委員會,用來處理人工智能中的棘手問題。

委員會設置8名成員,有經濟學家、有心理學家、有美國前副國務卿,但成立不到一週,一位專家自願退出。在本週,Google員工發起了一項請願,要求該公司撤換另一名委員會成員,因為他反對保障同性戀和變性人同等權利的法律。

為了回應抗議,Google決定完全解散這個名為先進技術外部諮詢委員會(ATEAC)的團隊,並在聲明中稱:“很明顯,在當前的環境中,ATEAC不能按我們所希望的方式運行,所以我們要解散它,並回到原計劃上來,我們將繼續在AI帶來的重要問題上進行我們的工作,並將找到不同的方式來獲取外部對這些問題的意見。”

雖然Google的AI道德委員會成立一週就土崩瓦解,但這並不意味著人工智能道德委員會的失敗和無意義。實際上,人工智能道德委員會的存在尤為必要。AI倫理問題究竟何去何從依然值得深思。

AI與倫理的平衡,如何規避道德風險?

早到艾薩克·阿西莫夫(Isaac Asimov)提出“機器人三定律”,再到《西部世界》、《機械姬》、《黑客帝國》、《終結者》等影視劇都對人工智能倫理問題做出了思考,人工智能可以解放人類勞動力,但也有可能損害人類的利益,將大眾引向深淵。

人工智能的算法來自於數據,當數據里帶有潛在的價值觀傾向,隱含著偏見等問題,被系統學習吸收,誰來維持民眾的共識,保證社會的公平?當機器自我進化擁有了自主意識,脫離人的控製,人類作為其生產創作者,是否依舊能夠穩穩地掌握全局?當不成熟的人工智能技術陷入異常,造成失誤,甚至非法入侵而傷害人類,誰該為此承擔責任?

像Google自動駕駛汽車造成人員傷亡、機器人傷人事件、保險公司利用臉書數據預測事故發生率涉嫌存在偏見等都現實中的失敗案例,也是人工智能存在倫理和道德風險的例證。

面對人工智能引發的倫理問題,科技巨頭們紛紛成立倫理委員會應對挑戰。2016年,亞馬遜、微軟、Google、IBM和Facebook聯合成立了一家非營利性的人工智能合作組織(Partnership on AI),而蘋果於2017年1月加入該組織。

在科技巨頭們的共識里,與其靠外界強加約束AI發展,不如先成立倫理委員會自主監督。AI道德委員會是一種監督保障,更是風險評估標準。它能夠幫助人工智能公司做出道德決策,使社會受益。

就像麻省理工學院情感計算研究組主任羅薩琳德·皮卡德教授所言,“機器越自由,就越需要道德準則。”而學者們也給出了讓人工智能規避風險的新思考。

《道德機器:如何讓機器人明辨是非》中美國認知科學哲學家科林·艾倫和技術倫理專家溫德爾·瓦拉赫強調了兩個維度——針對道德相關事實的自主性維度和敏感性維度,給出了一個關於日趨複雜的AMAs(人工道德智能體)軌跡的理解框架,以“評估它們面對的選項的倫理可接受性”。他們認為“自上而下”和“自下而上”相混合的模式是機器道德發展模式的最佳選擇。即將從數據當中學習經驗的自下向上和用確定的規則進行預編程自上向下結合起來。

美國機器智能研究院奠基人尤德科夫斯基提出了“友好人工智能”的概念,認為“友善”從設計伊始就應當被注入機器的智能系統中。

2017年12月12日,電氣電子工程師學會(IEEE)發佈了《人工智能設計的倫理準則》(第2版),提出合乎倫理地設計、開發和應用人工智能技術應該遵循以下一般原則:人權——確保它們不侵犯國際公認的人權;福祉——在它們的設計和使用中優先考慮人類福祉的指標;問責——確保它們的設計者和操作者負責任且可問責;透明——確保它們以透明的方式運行。

各國的學者、專家不斷提出關於人工智能的新倫理原則,但以人為本的理念始不曾改變。歐盟在近日也提交了他們對於人工智能倫理的答卷。

人工智能時代的道德重建:可信賴的AI

4月9日,歐盟發佈了AI倫理指導方針,作為公司和政府機構未來開發AI時應遵循7大原則,呼籲“值得信賴的人工智能”。“可信賴 AI”是對人工智能時代的道德重建,為AI的發展指明了一條合乎倫理的方向。

歐盟 AI 道德準則草案指出,可信賴的 AI 有兩個組成要素:一、應尊重基本權利,適用法規、核心原則和價值觀,以確保“道德目的”(ethical purpose),二、兼具技術魯棒性(robust)和可靠性,因為即使有良好的意圖,缺乏技術掌握也會造成無意的傷害。

歐盟提出可信賴 AI 的道德準則草案以及框架

七大關鍵原則如下:

人類作用和監督:人工智能不應該踐踏人類的自主性。人們不應該被AI系統操縱或脅迫,而且,人類應該能夠干預或監督軟件做出的每一個決定。

技術的穩健性和安全性:人工智能應該是安全的、準確的。它不應該易於受到外部攻擊(例如對抗性實例)的影響,而且,應該是相當可靠的。

隱私和數據管理:人工智能系統收集的個人數據應該是安全的、私有的。它不應該讓任何人接觸,也不應該輕易被盜。

透明性:用於創建人工智能系統的數據和算法應該是可訪問的,軟件所做的決定應“由人類理解和跟蹤”。換句話說,操作員應該能夠解釋AI系統所做的決定。

多樣性、非歧視和公平性:人工智能提供的服務應面向所有人,無論年齡、性別、種族或其他特徵。同樣地,系統不應該在這些方面存在偏見。

環境和社會福祉:人工智能系統應該是可持續的(即它們應該對生態負責)並“促進積極的社會變革”。

問責製:人工智能系統應該是可審計的,並被納入企業可舉報範疇,以便受到現有規則的保護。應事先告知和報告系統可能產生的負面影響。

有數據顯示,美國人工智能企業數量2039家位列全球第一,中國(不含港澳台地區)有1040家,占全球人工智能企業數的一半以上,《2019年全球AI人才報告》則展示了全球36524位頂尖AI人才,一半以上在中美。中國與美國在AI領域的人才和企業上占盡了優勢,可謂你追我趕,難分高低,歐盟從倫理角度切入,率先對人工智能的發展倫理做出規範,或許不失為一大良策。

□範娜娜(新京報智慧城市研究院研究員)

校對:陸愛英

關注我們Facebook專頁
    相關新聞
      更多瀏覽