當AI有了“自由意誌”
2020年12月15日18:10

原標題:當AI有了“自由意誌”

文章經授權轉自公眾號:腦極體(ID:unity007)作者: 海怪

在人工智能呈現一番欣欣向榮的景象之時,這項技術的問題和潛在威脅也正在顯現。是時候認真探討一下AI技術的“價值觀”問題了。

很多人最近一定注意到,有關AI的負面新聞頻頻上頭條,而且還帶有很強的魔幻色彩。

11月20號,韓國13歲的天才圍棋少女金恩持承認了她在9月底的一場在線圍棋比賽中作弊,使用了AI推薦的棋譜,約等於斷送了自己的職業生涯。11月27日,伊朗核武器專家法赫里紮遭到一挺由AI控制的自動機槍的襲擊而身亡,這意味著精準的人臉識別技術作為AI武器已經參與到人間的殺戮當中。

說回國內,前一段時間有人帶頭盔去售樓處看房,就是為避免被房地產商進行精準的人臉識別而被,當做“熟客”來“宰殺”,人臉識別濫用問題已擺在我們面前。更荒誕的是,最近曝出一個房產中介就利用政府機構的在線服務的流程流動,輕而易舉地讓售房者在不知情的狀況下通過人臉識別系統把房子過戶給了買家,自己套取了交易款。原本為民提供便利的AI服務成了別有用心者的幫兇。

“殺人者人也,非刀也”,這是我們為“工具無道德價值”做辯護的古老理由,也是人類確證自己具有獨一無二的道德價值的傲嬌說辭。同樣這一理由似乎也可以為上面這些AI的負面案例做解釋,可以說這裏的AI技術也都只是人類應用的工具,真正始作俑者的還是人類。

這樣說似乎無可厚非,正如一切技術的發明帶給人類巨大福祉的同時也可能帶來可能的災禍一樣,反之亦然。比如諾貝爾發明的炸藥可以開礦搬山也可以投入戰場屠戮生靈,核技術可以用來製造原子彈毀天滅地也可以用來做核電站造福大眾。理性樂觀派總是相信人類可以通過技術進步創造一個美麗新世界,並克服技術產生的種種負面效應。

不過,我們需要注意的是,這一次人工智能技術革命的不同之處在於它將真正重塑人類。以往的任何一場技術革命只是增強了人類在體力、腦力等方面的專項能力,但這一次AI將直接抵達人的核心本質——那個所謂撐起人尊嚴和價值的“自由意誌”。

大多數人會將這種宏大議題當作杞人憂天的無稽之談,因為“狼來了”的故事人們已經聽過多次。很多大人物對於人工智能威脅人類地位的告誡,也有種“口嫌體正直”的意味,無不在自己的領域內推動AI技術的進化和使用。

但是作為人類社會基石的“自由意誌”本身已經從腦神經科學和社會學上被嚴重挑戰,而人工智能在模擬和指導人類決策的能力又在大幅提升,這樣我們就將接近這個人類命運改變的交彙點:人的自由被還原為一種可計算的生理機製,AI的計算能力又超過人類的計算能力。

這時,我們也就如同溫水中的青蛙,只能黯然接受“被煮熟”的命運安排。幸而在AI技術正在日漸暴露出這些無傷大雅的問題之時,我們仍然要有一種對AI的警惕。

那就是AI擁有“自由意誌”之時,可以做到價值中立嗎?

技術的價值中立難成立,AI亦然

在關於“技術是否價值中立”的探討中,現在的人們大多會傾向於“技術中立”的觀點。

我們通常認為一項技術的道德價值在於使用它的人,比如決定一把刀是用來烹飪還是用來行兇的關鍵是手握這把刀的那個人的想法;而一項技術的價值大小也不在於它自身而在於使用它的人的用途,比如在電影《上帝也瘋狂》里,非洲原始部落的人們獲得了一個完整的可樂玻璃瓶,這個在現代社會平平無奇的消費品,從一開始被當做無所不能的神物到後面變成引發族群紛爭的魔鬼。這個可樂瓶的價值在土著人手裡就經曆了天壤之別的變化。

這一假設的好處就是維護了人的尊嚴,選擇什麼樣的技術用來做什麼樣的事情,都是我們自己的選擇,最終的後果都要由我們來負責。

但實際上真的如此嗎?

從最初的人類開始掌握生火和放火這一項最初級技術的時候,一個部落中的女性就能釋放出超出她體力數以萬倍的能量,因為一把火就能燒出一大片森林,他們就能收穫這片土地裡沒有來得及逃跑的生靈的肉類,後面還可以開墾出一片又一片的農田。想想今天的亞馬遜雨林,在全球化的消費貿易網絡中,被巴西農民幾乎燒燬殆盡來該種糧食作物。火本身是無目的的,但是使用火的人是知曉火的特性和威力,也能控制火的範圍和用途。人類之火,與天然之火的不同之處在於,火本身已經包含了人類的意誌和目的。

可以想見,人類此後發明的任何一個工具或技術都或多或少包含著發明者本身的目的。一把鋒利的石刀既帶有了切割了功用,也帶有了殺戮的能力,而一把槍發明出來,自然就有著更高效地殺戮的功效在裡面,不管買它的人是用來防身還是用來害人,都是深知這一點的。一項技術的發明總是有原因的,而原因背後一定是有目的方向性的,暗含了其主觀價值。

隨著人類的技術工具越來越複雜和高級,技術的目的性對於使用者的影響也就越大。而且我們已經越發習慣這些技術,就如同我們須臾離不開電池和網絡一樣,這些技術已經在潛移默化地改變著我們的選擇和判斷。當我們以為自己的選擇是自由選擇的時候,其實大多數都是被工具所訓練和改變了的。

最典型的現代技術莫過於各種互聯網應用和遊戲,以短視頻最為典型。依託沉浸式展示、無限下滑換頁和偏好推薦算法,短視頻成為手機用戶的“殺時間”神器,很多人不知不覺就會在其中花費數十分鐘時間。如果稍加反省,我們就會發現這套推薦技術當中所包含的利用人性弱點和上癮機製來獲取用戶時間的價值傾向。

雖然我們清楚這些公司和他們的聰明無比的工程師未必有操縱人心的惡意,而只是有取得商業成功的動機,就會不斷地加入操縱人心的技術。而這一次,工程師們有了一個最好的助手,那就是人工智能。

AI算法的最初目標一定是體現了人類的某一目的,比如在對抗學習中拿到最高的分數、在圖像識別中得到最高的識別率,在偏好推薦上要不斷滿足用戶喜好,找到儘可能多的相似內容。人工智能不僅在某些方面表現不錯,而且還有了趕超人類決策的計算能力。

從“不夠好”的AI到“被用壞”的AI

AI威脅論,很多人已經講了很多次,但我們這裏並不是再重複這種大眾所理解的“AI統治人類”“AI取代人類工作”的觀點。因為這種觀點也彷彿再說AI會成為一個獨立於人的新的物種存在,而如今來看,這樣的AI不知要到猴年馬月才實現,或者根本無法實現。

我們這裏強調的是,不同於以往任何力學的、化學的、生物的技術,僅僅提高人類的局部性的能力,這一次AI技術這次要替代的是人的感知、判斷和決策能力,是對人的理性行為的一種“復刻”。

AI技術的這種“非中立”特性難免會導致以下結果:

一、AI算法在數據訓練中由於模型設計和數據樣本不足等問題會難以避免地出現偏見。

比如,2018年的一則報導中,亞馬遜的AI招聘系統被指出系統性地歧視女性,在發現簡曆中出現“女性”字樣就會降低應聘者的分數,而且還被發現,標註某兩所女子大學的簡曆也會在排序上被降級。而人工智能的這一權重決策正是來自於學習了亞馬遜此前10年的簡曆數據。顯然,這十年中,大部分被錄用的候選人都是男性,人類HR在招募技術崗位上的偏好也教會了人工智能採用同樣的策略。

而在更常見的人臉識別領域,則出現了明顯的性別和種族歧視的算法偏見。根據美國NIST(國家標準及技術研究院)在2019年12月的一份報告,在美國人臉識別系統中,黑人的人臉識別錯誤率是白種人的100倍,與黃種人相比,黑人人臉的識別錯誤率也是前者的10倍,而在執法機關的人臉圖片庫中,識別錯誤率最高的是美國原住民。另外,女性和老人的臉部也更難以識別。這一研究的數據來源是美國簽證申請和過境數據庫中的1800萬張人臉照片,並測試了189種人臉識別算法,研究結果代表了絕大部分商業應用算法的結果。

今年上映的一部《編碼偏見》的流媒體影片正揭露了這一問題,人工智能正在接管著關於人們的信息、安全、機會甚至自由等權力的時候,如果人們不改正這些算法中存在的偏見和歧視,那麼AI技術會必然創造一個更加糟糕的世界,比如被錯誤識別並逮捕的少數族裔青年、被算法判斷為能力不足的女性員工,被垃圾信息所包圍的少年。

當然,這還只是AI技術不夠好的一種表現。很多人覺得我們可以不斷調整算法,增大數據樣本就可以解決這些低級錯誤、算法歧視等問題。假如偏見可以消除、算法可以優化,我們又將迎來一個怎樣的局面呢?

二、AI技術很可能會由於數據的規模聚集和技術競賽的排他性中,掌握在少數技術公司和政府手中,幫助擁有技術特權的人群和組織獲得難以撼動的權力和財富,從而鞏固這一趨勢。

我們不能說AI技術一定會助長極權和壟斷,但是我們正在看到這樣的苗頭出現。

普通大眾不僅通過在互聯網上的各種操作交出了自己的習慣偏好和消費數據,而且現在還在通過可穿戴設備等信息來獲取我們的生理指標數據。如果任何一個AI算法系統能夠同時擁有這兩種數據,並且對其建立起相對應的相關性,那麼,這一系統將真正全面獲得操縱人心的能力。

正由於我們人類的任何決策可以轉化為各種生理、心理和行為的各種數據,而我們又想通過AI技術來洞悉這一切背後的因果鏈條,那麼AI將有極大地可能完成人類的這一使命,如果往好處走,AI將代替人類的智力釋放出前所未有的生產力,如果往壞處走,AI技術也將產生無法想像的破壞力。

比如,在核冬天的威懾之後,AI武器的發展將使得精準殺戮成為可能,雖然在一定意義上可以避免大規模的熱武器衝突,但是每個國家都將在這種無孔不入的AI武器或殺手機器人的威脅下產生十足的敵意。如果這些AI武器一旦被極端組織掌握,更有可能成為挑起事端的大殺器。再比如更有可能的一個趨勢是,AI算法只是代表了少數特權階層的意誌,而大部分人淪為供AI進化的數據源。

儘管來說,AI直接統治人類既無可能,但AI被人類用壞,成為塑造人類不平等的幫兇是極有可能的。

現在,我們更重要的是,放棄對AI技術客觀中立性的幻想,也要警惕AI算法對於我們決策的強大操縱力,同時又得致力於推動人工智能的普惠,才是接下來要做的事情。

對AI的自由意誌保留拒絕的權利

我們這裏只是指明了一個問題:人工智能是存在價值觀的,其價值觀的來源並非來自於突然的“自我覺醒”,而是從人這裏繼承了相應的價值觀,“復刻”了人的所謂“自由意誌”。

當AI算法不夠強大的時候,其可能繼承人類的認知錯誤和偏見,但當AI算法足夠強大的時候,其也並不會變得“客觀中立”,而是體現了人類工具理性推向極致的價值觀,那就是更集中的權力、更多的財富、不斷自我強化和升級。

這一價值觀反作用到普通的人類個體身上,可能有兩個結果,一種是與AI算法協同進化,在智識上甚至生理上不斷升級自己,成為掌控AI的發展趨向的超級人類;一種是無法理解AI技術運行邏輯,也沒有辦法參與自主決策的大眾,將自己的生活決策交給算法。

因為人的生物學的進化速度實在難以趕上AI計算能力的增長,人類的知識只能以線性循環的方式一代又一代傳授,而AI則是以指數級方式累計增長,這就決定了大多數人只能交付出自己的決策機製,而由AI來判斷我們的各種想法的成功概率。

而在今天,這一問題已以種很隱蔽的方式呈現著。正如很多人認為自己要聽從自己內心的聲音,但是我們卻並不知道這些內心的需求哪些是我們的“自由意誌”想要的,哪些是被各種價值體系所塑造的。而我們知道AI算法已經開始從每一個廣告推薦、每一個內容篩選、每一次自拍美顏、每一次你的行為追蹤下,就已經開始為你進行需求的植入了。

在人工智能狂飆突進的這幾年當中,我們其實已經過分站在“AI將造福人類”的宏大敘事當中,畢竟我們對於這一新型技術產業寄予了太多的希望。但是我們看到現在針對個人隱私領域上馬的AI應用,正在竭盡所能地掌握人們的全方位數據,但其實我們並未對這一趨勢做好準備。

最近我們也注意到,由於一些行業和場景中人臉識別技術被大量濫用,一些地方的相關部門開始推出整治規範,要求拆除這些AI設備。未來,這場關於人工智能的應用邊界博弈的拉鋸戰還將一直持續下去。

但未來的長期博弈中,我們哪怕犧牲一點便利性,也要在讓度自己的選擇權,交給人工智能來處理的時候,保持足夠的冷靜,同時對AI有擁有“Say No”的力量。

特別聲明:本文為合作媒體授權DoNews專欄轉載,文章版權歸原作者及原出處所有。文章系作者個人觀點,不代表DoNews專欄的立場,轉載請聯繫原作者及原出處獲取授權。(有任何疑問都請聯繫idonews@donews.com)

關注我們Facebook專頁
    相關新聞
      更多瀏覽