如果能賦予AI人性的光輝 人類世界將會怎樣
2018年05月17日19:05

  摘要:人類會不會被毀滅?

  原標題:如果能賦予AI人性的光輝

  來源:IT時報

  作者:章蔚瑋 潘少穎

  公元2035年,是人與機器人和諧相處的社會。社會是需要規則的,猶如在人類社會中,法律對人類行為的約束以及既定的道德規範對人類行為的指引,在機器人的世界里,也有著“機器人三定律”等“法規”,有了這些法則、定律,科幻小說家阿西莫夫筆下的機器人不再是“欺師滅祖”“犯上作亂”的反面角色,而是人類忠實的奴仆和朋友。那個時代,有不會造成擁堵的無人駕駛汽車、在家可享受的未來醫療、與人類實時互動的智能家居、沉浸式體驗的歷史事件甚至是與人工智能的愛情……

  但是,自人工智能誕生以來,“人類會不會被毀滅”“如果人類放手不管,不考慮道德倫理問題,計算機系統的演化會不會讓我們懊悔不已”等這樣的問題總是讓我們更加審慎地對待人工智能的發展。猶如電影《我,機器人》中的場景――機器人竟然具備了自我進化的能力,他們對“三大定律”有了自己的理解,他們隨時會轉化成整個人類的“機械公敵”。由此,一場製造者和被製造者之間的戰爭拉開序幕。

  對於人工智能是否會毀滅人類,有人認為重要的不在技術,而是規則。在人工智能這股不可逆的潮流中,前有阿西莫夫著名的機器人學三大定律,後有國際人工智能界正在日益重視的倫理與法律問題,如IEEE全球人工智能與倫理倡議、阿西洛馬人工智能23條倫理原則相繼出現,顯而易見,人類渴望著科技的進步,但又恐懼科技的進步。在我們想像並踐行著人工智能如何改善生活的時候,也在考慮人工智能如何面對倫理道德問題。

  AI的決策一定準確嗎?

  它的數據或帶偏見性

  一輛正在行駛的無人駕駛汽車,因為某些原因導致無法刹車,行駛前方是五名無辜路人,假如行駛方向不變,五名路人將產生生命危險。同時,路邊有一片空地,有一名路人正在散步,如果汽車改道,那麼只有這一名路人會面臨生命危險,這時,無人駕駛汽車的人工智能系統該做出如何選擇?

  還是這輛正在行駛的無人駕駛汽車,由於數據信息高度互通,它通過人工智能系統得知兩個方向的六名路人身份(比如:罪犯、教師、醫生、工程師等)或者他們之間被記錄下的衝突。此時,這輛無人駕駛汽車該做出怎樣的選擇,是否會根據各類資料來對他們之間的聯繫做出“道德”評判?

  ……

  在人工智能發展的現階段,最受人關注的場景是無人駕駛。上述場景在現實生活中發生的概率可能不高,但因無人駕駛而生的幾場交通事故卻不得不提醒人類:AI並非那麼靠譜。比如,今年3月18日,Uber發生了一起無人駕駛汽車致死事故,真相是這輛車的傳感器已經探測到了一位正在橫穿馬路的行人,但自動駕駛軟件沒有在當下採取避讓措施,最終釀成悲劇。

  這起事故從表面看體現的是技術問題,Uber無人車檢測到了行人,但選擇不避讓。實際上,當把判斷權轉移給計算機系統,就會牽涉到道德和倫理困境。

  美國《Science》雜誌此前做過一個無人駕駛汽車道德困境的社會調查,結果顯示,受訪者認為,無人駕駛汽車車主應該選擇最小化對他人的傷害,即使會致使自己受傷。但當問及會選擇購買“車主保護優先”還是“行人保護優先”的無人駕駛汽車,受訪者更傾向於購買“車主保護優先”的無人駕駛汽車。

  2017年8月,德國交通運輸與數字基礎建設部下屬的道德委員會公佈了一套被稱為世界上首部的自動駕駛道德準則,或許可以作為這個問題的參考。這套由科學家和法律專家共同提出的15條自駕系統的駕駛決策道德準則的核心原則是:生命應該始終優先於財產或動物。其中明確,保護人類生命一定是首要任務,在事故無可避免的情況下,人的生命要比其他動物、建物都還重要。也就是說,無人駕駛汽車系統在必要時會對人類和動物的生命價值進行量化比較,以便於無人駕駛汽車在應對將要發生的事故時做出恰當的反應。

  但是,規範中也提到,自駕系統不得以年齡、性別、種族、是否殘疾等作為判斷條件,對於自動駕駛系統來說,選擇難度似乎更大了。

  在一般人看來,無人駕駛汽車上的AI系統中的數據是公平的、可解釋的、沒有種族、性別以及意識形態上的偏見。但IBM研究中心研究員Francesca Rossi告訴《IT時報》記者,大多數人工智能系統都是有偏見的。

  2015年,Google自動駕駛負責人曾表示,危機情況下,Google無法決定誰是更好的人,但會努力保護最脆弱的人。

  “IBM開發了一種可以減少存在於訓練數據集中偏見的方法,以便於讓之後使用該數據集進行訓練的AI算法儘可能保持公平。在未來5年,這些偏見將被馴服和消除。” Francesca Rossi表示。

  AI是“神一樣的存在”嗎?

  有可能成“神”,但會讓人類尷尬

  一位隱居在山裡的瘋狂科學家秘密地進行著一項人工智能的實驗,他邀請了一位程式員共同完成這項圖靈測試中“人”的角色――如果人不再意識到是在與一台計算機進行交互,意味著機器擁有了自我意識,人類歷史也將由此被改寫,“神”將由此誕生。

  這是電影《機械姬》的開場情節,在這個故事中,究竟是創造出超級人工智能的天才科學家是神?還是超級人工智能是神?

  在瑞士阿爾卑斯盧加諾的一個實驗室里,德國計算機科學家尤爾根・施米德胡貝的公司Nnaisense在開發可像嬰兒那樣運作的系統,他們為那些“系統”設置小實驗,讓它們理解這個世界是如何運作的。他認為,這會是未來“真正的AI”。唯一的問題在於,它們進展過於緩慢――目前只有10億神經連接,人類大腦皮層的神經連接數量約為100萬億。

  在世界人工智能領域,施米德胡貝是目前世界上唯一可能被稱為AI機器人之父的科學家,他的工作是讓機器人變得更有自主意識。他在接受媒體採訪時表示,現在的趨勢是,計算機每5年加快十倍,按照這個速度,只需25年,就能開發出可媲美人類大腦的遞歸神經網絡。“我們距離實現動物級別的智能並不遙遠,比如烏鴉或者卷尾猴屬。這樣,機器智能超過人類智能似乎將會在2050年發生。”

  如同電影中那位創造了超級人工智能的科學家對機器人“自我覺醒”的熱切期待,施米德胡貝同樣不熱衷“機器人的存在主要是為人類服務”的說法,他更傾向於機器人會成為“神”。“到2050年,我們將會迎來比我們更加智能的AI,到那時候執著於研究人類的生物圈將會變得沒有意義。AI會把歷史推向下一個階段,向有充裕資源的地方進發。幾百年後,它們將會在銀河系建立殖民地。”在施米德胡貝看來,未來擁有人類智能甚至超過人工智能的抗熱機器人將能夠更接近於太陽能,它們最終將會在銀河系的小行星帶建立殖民地。

  施米德胡貝的說法一直備受爭議,尤其是來自神經系統學的科學家就對此表示質疑,認為不應該開發讓機器人有自我意識的算法。

  “AI機器人是否應該具有自我意識”一直是國外科學家積極關注的話題,暢銷書《我們最後的發明:人工智能與人類時代的終結》作者James Barrat曾進行過一次獨立調查,他問受訪者“超級人工智能(擁有自我意識)哪一年會實現”,選項有2030年、2050年、2100年和永遠不會實現,超過三分之二的受訪者認為超級人工智能會在2050年實現,只有2%的參與者認為超級人工智能永遠不會實現。

  讓人類倍感不安的隱患是,一旦人工智能完成向超級人工智能的進化後,人類世界將會發生怎樣的改變?

  超級AI可怕嗎?

  遠慮尚“遠”,近憂在即

  在《機械姬》中,最終,那台名為eva 的超級人工智能機器人騙過了人類,通過了圖靈測試,並將長期禁錮它於幽暗實驗室的“父親”――科學家殺害,並拋下了那個一直被她利用的程式員”遠走高飛”。在她奔向藍天白雲時,她發現那是她一直嚮往的自由。在那之後,世界上不會有人知道她是一個通過圖靈測試的超級AI機器人。

  “如果我沒有通過你的測試,會有什麼發生在我身上?”“有人會對你進行測試,然後因為你的表現不盡如人意而把你關掉,或者拆掉嗎?”在電影中,eva一直在試圖探索自己與人類的關係。最終,對試圖禁錮她的人類進行了毀滅性的傷害。

  對於這樣的結局,施米德胡貝不以為然,他覺得到那個時候,人類將不適合做超級人工智能的奴隸。“對我們而言,最好的保護是讓它們對我們缺乏興趣,因為大多數物種最大的敵人都是自己。它們對我們的關注,將會如同我們對螞蟻的關注一樣。”

  顯然,施米德胡貝並沒有對超級人工智能的未來與人類的關係給出一個明確的判斷。相反,一些更為激進的科學家提出“要把AI關進籠子裡”。

  “否則,機器將接管一切,它們會決定如何處理我們!”美國路易斯威爾大學工程學院計算機工程和計算機科學系教授、網絡安全實驗室創始人兼主管亞姆・博爾斯基提出“把AI裝進盒子裡”的方法論,“把他們放在一個可控的環境里,比如當你研究一種電腦病毒時,可以把它放在孤立的系統中,這個系統無法接入互聯網,所以,你可以在安全的環境中瞭解它的行為,控製輸入和輸出。”

  自從AI誕生以來,對於人類威脅論就不絕於耳。其中最主流的觀點就是,AI不僅僅是一個“現金工具”,它實際上是個獨立的個體,可以做出自己的決定。此時,就與有意識但無“道德感”的動物相似,就像人類總是無法確保野生動物不會對人類造成安全威脅。於是,更為激進的科學家就提出了要將AI拴起來,關進籠子裡,並且努力讓它變得安全、有益。

  但這樣的隱患卻依然無法完全杜絕,人類無法控製決策的各個方面,人工智能也可能會以多種方式傷害人類。目前,在全球範圍內,關於AI威脅論主要來自以下幾個方面:一是設計上的錯誤,就像任何軟件一樣,你會遇到電腦錯誤,你的價值觀與人類價值觀不一致;二是有目的的、設計帶有惡意的AI,有些人想要傷害別人,他們會故意設計出一套智能系統來執行摧毀和殺戮任務;三是AI發展超出人類預期,人類將無法理解它在做什麼,甚至無法與它進行有意義的交流。

  在AI威脅論面前,反對派科學家明確反對賦予機器人平等的權利,比如人權和投票權。亞姆・博爾斯基認為,機器人幾乎可以無限“繁殖”。“他們可以擁有一萬億份任何軟件的拷貝,幾乎即時就可以獲得,如果每個軟件都有投票權,那基本上就意味著人類將失去任何權利,意味著我們自己放棄了人權。因此,任何提議賦予機器人這種公民權利的人,就是在反對人權。”

  人類準備好了嗎?

  用“立法”來約束

  有人類學家提出,人類的核心目標是延續自己的基因,在我們盡全力實現目標時,道德會在一些領導產生作用,比如“是否會傷害他人”。這也正是未來超級人工智能與人類最大的不同所在,一個不具有道德性的超級人工智能會努力實現它原本設定的目標, 在這個過程中,將對人類生存安全產生危險。

  觀點更為中立的科學家提出要為人工智能“立法”。以德國交通運輸與數字基礎建設部下屬的道德委員會公佈的一套被稱為世界上首部的自動駕駛道德準則為例,這是目前全球範圍內唯一一個被列為行政條款的與AI相關規範,但在具體實施過程中依然存在大量技術難題,比如如何讓無人駕駛的AI系統能準確瞭解條款中的含義。在騰訊研究院高級研究員曹建峰看來,大部分國家對人工智能相關立法的規範依然停留在討論階段,因為受到太多不可預測因素的存在,包括AI語言的溝通。

  科學家口中的AI憲法會是什麼?它應當是基於現實世界的一個模型,以約束人工智能在各種不同條件下做出符合人類倫理的決定為目標。

  語言編程Wolfram Mathematica創始人、總裁Stephen wolfram曾提出“如何把法律與計算聯繫起來”的疑問,“發明一種合法代碼,不同於今天的法律和合同上的自然語言?”“為AI設計一種通用語言的想法,用一種符號化的語言,把法律表示可計算的形式,並且告訴AI我們想做什麼?”在Stephen wolfram看來,僅僅依靠語言的改變來約束AI,在現實中並不可行。當下對人類最大的挑戰不是設定法律,而是尋找出某種適合的方式來描述這些適用於AI的法律或者規範。AI計算在某種程度上是狂野不可控的東西,因此很難存在一個簡單的原理,而是通過搭建更為複雜的框架來囊括這樣的法則。

  “我們當下更多的是關注如何約束AI開發者。”在曹建峰看來,與國外前沿研究AI不同,國內更關注當下,比如在個人隱私保護以及性別歧視等倫理角度出發。

  亞太人工智能法律研究院院長劉德良曾表示,人工智能立法總的思路要往“安全可控”的方向發展,這也應是最高指導原則,“人工智能在各個領域都會有具體的應用,比如在教育、醫療、家政服務、道路交通等領域,涉及的問題也不盡相同。為了達到安全可控,應該首先在行業內出台標準,也就是人工智能產品在上市和投入市場使用之前,必須符合一些法定的標準,但是‘標準的空缺’應該彌補。而同樣的,不同的領域所涉及的安全標準也不一樣。所以在產業發展時,對人工智能的安全標準要有強製性的規定,只有符合這個標準才能讓其上市和投入使用,這是保障其安全可控的基本要點。”

  人機和諧相處的“秘籍”是什麼?

  AI與人類的價值觀一致

  除了行業標準以外,人工智能最主要的問題是“算法”。“為了保障人工智能的安全可控,要對其具體的‘算法’設立專家審查評估委員會。這一委員會可能包括技術專家、網絡安全專家、管理專家等,對其算法和管理方面進行審查,因為可能存在其‘算法’被一些居心叵測的人所篡改,造成不良的影響。此外,還涉及到人工智能是否符合倫理道德的要求。”劉德良說。

  去年7月,國務院發佈了《新一代人工智能發展規劃》,其中提到,到2025年,要初步建立人工智能法律法規、倫理規範和政策體系,形成人工智能安全評估和管控能力。

  得益於機器學習技術的進步,人工智能在不斷髮展,並給許多產業帶來了革命性的變化,Francesca Rossi告訴記者,機器在學習過程中的確會涉及到倫理道德問題。在她看來,機器在倫理道德上有時會更具優勢,因為人類在決策過程中會存在偏差。不過,Francesca Rossi也坦言,當人工智能碰到倫理道德,存在三方面的問題:第一,人類的道德標準是難以量化的;第二,道德在人類社會屬於常識,但卻很難用機器能夠理解的語言去說明,也就是說機器有時並不能理解一些道德標準;第三,如何在人和系統之間建立信任機製。“現階段,機器學習是人工智能系統不斷完善的主要驅動力。但是,機器學習的局限性之一是,其結果大多是以‘黑箱’的形式存在,即人們只能‘知其然’,卻‘不知其所以然’,這是引發人工智能法律、倫理等問題的重要原因之一。以自動駕駛為例,一旦發生事故,很難認定誰應當為此負責。也正因為如此,人工智能倫理問題的解決與技術的發展密切相關,可解釋、可說明性是目前人工智能系統亟待解決的問題。”

  也有業內人士擔憂,人工智能全面超越人類智能並出現自我意識是危險的,不過這是遠慮;但其不可解釋性會帶來“近憂”,如將深度學習應用於軍事決策,萬一系統出現原則性決策失誤怎麼辦?

  4月16日,英國議會發佈報告說,在發展和應用人工智能過程中,有必要把倫理道德放在核心位置,以確保這項技術更好地造福人類。報告提出,應確立一個適用於不同領域的“人工智能準則”,其中主要包括五個方面:人工智能應為人類共同利益服務;人工智能應遵循可理解性和公平性原則;人工智能不應用於削弱個人、家庭乃至社區的數據權利或隱私;所有公民都應有權利接受相關教育,以便能在精神、情感和經濟上適應人工智能發展;人工智能絕不應被賦予任何傷害、毀滅或欺騙人類的自主能力。

  我國的人工智能技術可謂與世界發達國家同步,但倫理和法律研究則嚴重滯後,這種“缺位”會製約未來的發展。人機關係中,智能機器與人類的價值觀和規範體系必須一致。如何將人類的價值觀和規範嵌入人工智能系統,賦予AI以人性的光輝,成為當前所面臨最現實的挑戰。

關注我們Facebook專頁
    相關新聞
      更多瀏覽