自動駕駛車禍,誰來擔責?
2021年04月23日12:05

  來源:返樸  

  4月12日,中國首個自動駕駛公交車項目在重慶市永川區正式投入運營,3台L4級自動駕駛公交車(百度巴士)上路載客,標誌著中國自動駕駛商業化落地迎來重大突破。隨著自動駕駛愈發深入大眾生活,人們不禁要問:自動駕駛安全嗎?萬一出車禍該誰負責?

  撰文 | 劉凱(渤海大學教育科學學院、渤海大學通用人工智能研究所)

  自動駕駛現已來到關鍵的歷史局點。從百度Robotaxi到宇通WITGO,從到鄭東新區到重慶永川,我國裝備L3-L4高等級自動駕駛技術的商用車及開放道路漸成規模;但與此同時,L2級自動駕駛事故在耳畔警響,何況還有惡劣天氣、臨時管製、交通路口、路面落物或反光等更大挑戰。在應對全天候全場景行駛工況時,自動駕駛仍有較長的路要走。

  據《汽車之心》2019年總結:

  2016年1月20日,京港澳高速河北邯鄲段,23歲的高雅寧駕駛2014款白色TeslaModel S撞車身亡,後被確認為全球首例“自動駕駛”致死車禍;

  2016年5月7日,美國佛羅里達州 Wiliston 27 號高速上,40歲的Joshua Brown駕駛2015 款黑色Tesla Model S撞車身亡;

  2018年3月1日,美國佛羅里達州棕櫚灘,50歲的Jeremy Banner駕駛紅色Tesla Model 3撞車身亡;

  2018年3月18日,美國亞利桑那州坦佩市,一台Uber 自動駕駛測試車在自動駕駛模式下撞上正推著自行車橫穿馬路的白人女性 Elaine Herzberg ,並致其死亡,這是全球首例自動駕駛測試車撞死行人事故;

  2018年3月23日,美國加州山景城 101 高速,38歲的黃偉倫駕駛2017 款藍色Tesla Model X P100D加速撞上隔離帶身亡。

  “擁抱”還是“排斥”?這是個難題。事實上,儘管大眾當前對自動駕駛的諸多憂慮都是“技術可解”,即,通過改進技術方案或強製人工介入的方式妥當解決,但技術問題之外的相關領域卻聚訟不斷,並以倫理為最。2020年8月,國家標準化管理委員會、中央網信辦、國家發展改革委、科技部、工業和信息化部等五部門聯合印發《國家新一代人工智能標準體系建設指南》,指南中也明確設立“H安全/倫理”類,意圖規範人工智能服務對傳統道德倫理和法律秩序產生的衝擊。

圖片截選自《國家新一代人工智能標準體系建設指南》
圖片截選自《國家新一代人工智能標準體系建設指南》

  然而,人工智能內部有著不同的技術路線,總體上可分為專用人工智能與通用人工智能兩類(詳情參見返樸文章《人工智能與心理學的迷思》)。二者具有不同的前提假設和理論依據,對相同問題便有不同的解讀和回答,因此需要區別對待。在自動駕駛領域,專用人工智能路線對應L1-L4級,而通用人工智能則對應L5級。本文將針對專用人工智能路線下自動駕駛的倫理問題進行討論,首當其衝的便是經典的“電車難題”。

  讓我們設想一輛疾駛的電車,前方是兩條支線,每條支線上都站有數量不等的無辜平民,電車駛入任何一條支線都會導致平民死亡。請問司機如何抉擇?

  這是“電車難題”經典卻絕非唯一的表述方式,後續相繼出現了各種變體。在方向選擇矛盾的基礎上,自動駕駛又疊加了另一個兩難之選:

  高速行駛的自動駕駛汽車,避讓行人就會導致主駕身亡,不避讓便會導致行人死亡。自動駕駛汽車該怎麼做?

  實際上,自動駕駛的“電車難題”背後,就是兩個倫理衝突的算法設定問題:如果相撞不可避免,犧牲自己還是他人;如果犧牲他人不可避免,犧牲多些還是少些。說巧不巧,二者同時也是構築倫理學大廈的兩大基石:主體性及客體價值。

  專用人工智能以解決特定領域問題為出發點,通過技術迭代,漸進提升智能化程度。由於其技術路線本身的局限性,解決電車難題存在著以下困難:

  專用人工智能對於封閉問題友好,對開放問題十分頭疼。專用人工智能其實並不能“思考”,而只能“計算”。“計算”的模式是直接或間接由人工實現的:前者對應的是“人工算法”,即由領域專家直接確定算法規則;後者對應的是“數據算法”,即規則不由人工給出,而從真實數據間接提煉獲得。但無論哪種算法,都無法確保對開放問題的涵蓋性足夠廣闊和豐盈。

  進一步說,如果放鬆限製,使得人力和數據的豐富程度得到足夠滿足,但規則本身卻依舊有可能因證據來源差異而產生內部衝突。類似“親媽和媳婦同時落水,先救誰?”這樣的問題,不同回答皆有正面與反面證據,判別的前提出發點不同,結論也必然各異。因此,倫理問題屬於經驗問題,但經驗問題並不等同於計算問題。於是,“電車難題”不可能在專用人工智能框架下直接給出穩定的最優解。

  間接的方式是否可行呢?事實上,窮舉就是這類最典型的方式。其標準做法是:採集自動駕駛各種環境條件、司機和行人的行為和心理特徵,以及汽車的各種參數,繼而窮舉可能空間的組合,並根據已知“合理”的先驗知識、時間序列特徵來調整權重網絡模型。

  這是目前主流人工智能領域深度學習的核心方法。不過,即便自動駕駛汽車的硬件設備足夠先進,其計算能力在某一特定時刻依舊是相對不足的,如果離開規範的自動駕駛路段而駛入開放路段,窮舉式無法確保在有限時間內總能順利地感知、運算並返回結果。這體現了專用人工智能所謂“感知智能和計算智能”的根本局限之一——將智能與計算相等同。人類擁有智能,但人類不是電腦,我們不靠升級大腦物理設施提升智力水平。

  退一步而言,即使窮舉總可執行並返回結果,開放環境的內容仍然是不可能窮盡的,因此自動駕駛系統對開放環境的經驗準備也總是相對不足的。這體現了專用人工智能另一個根本局限——知識工程黑洞,即,開放環境的可能空間無法窮盡,總會遇到意外的棘手情況,這意味著程式員無法完備地將倫理規範價值量化後的“道德代碼”置入汽車駕駛軟件。

  再退一步,假如處於理想世界,窮舉的方法和內容都能逐一枚舉,但此時系統最終決策也會受到巨大挑戰。儘管有“大算力”“大模型”“大數據”的加持,仍然無法避免“解釋黑箱”的問題——我們無法解釋系統是怎樣做出決策的。當前自動駕駛路線大多基於統計學習,決策依據更多來自概率而非邏輯模型,決策的信度和效度並不透明,令自動駕駛事故判定變得難度更高。

  再退一萬步,即使決策的有效性和解釋也不是問題,最優化也依舊無解!因為系統會不可避免地陷入“目標悖論”——如果摩托車手知道自動駕駛汽車會優先保護生存概率最低者,他就只能選擇不戴頭盔,因為佩戴頭盔會提高他的生存概率,結果頭盔之類的安全措施反而會讓他成為高危的移動犧牲者。最終結果便是“劣幣驅逐良幣”:遵規守紀的人反而會面臨更高的事故風險。

  因此,在人工智能的語境下,並不總能將倫理衝突轉化為合理的經濟等價式去進行形式化價值計算,結果導致所有嵌入“道德律令”的做法也永遠無法滿足開放條件下自動駕駛多樣問題的解決。說到底,倫理本質上是價值的“判斷”,而非價值的“估算”!專用人工智能沒有主體性,無法自主進行價值判斷,所以在專用人工智能框架內不存在倫理衝突“技術解”的可能性。

  那我們是否就此對自動駕駛宣判“死刑”了呢?不僅不是,而且恰好相反。問題的要害在於,理論層面的倫理與應用層面的責任是兩個相關、但不同的問題,很容易被隱蔽地混淆。

  “道路千萬條,安全第一條”,有科學證據表明,自動駕駛系統比人類駕駛員具有更高的安全性,這種安全性還體現為規模的指數化,即自動駕駛越多,交通的整體通暢和安全水平越好。因此,自動駕駛出行方式是大勢所趨。

  學界的焦慮主要來自對自動駕駛事故責任的認定。考慮到專用人工智能技術本身的技術特點,L1-L4級自動駕駛的責任問題可分類討論:

  (1)封閉路段。

  滿足自動駕駛的封閉路段,道路服務商必須能夠提供下述基本服務:確保路面暢通、無雜物堆積、標記線和指示牌清晰無誤,為重要地點設立智能樞紐,提供異常天氣、地質災害等的預警等。如果道路工況不達標,道路服務商應對自動駕駛事故承擔主要責任。

  如果道路工況達標,則應檢視自動駕駛是否存在硬件或軟件故障,部件有問題則由相關廠商承擔責任,部件整合搭配問題則有整車製造商承擔責任。特別地,如在滿足自動駕駛條件下,在車輛前行方向出現了橫穿馬路的行人或動物,如果是行人違規,則由行人承擔責任,如果穿行者是動物,則由道路服務商承擔責任。這類似現在的高速公路,汽車可以高速行駛的預設前提是道路服務商為車輛提供必要的全程封閉管製,不允許非機動車或行人在高速公路上穿行。此時,自動駕駛汽車駕駛員不承擔事故責任,自動駕駛汽車應該優先保護駕駛員。

  (2)開放路段。

  在不滿足完全自動駕駛條件的開放路段進行自動駕駛,其行為本身已經包含了發生潛在交通危險的可能性。此時,駕駛員如果仍然開啟自動駕駛模式前行,不論有意或無意,都已在事實層面實施了自動駕駛行為。如果發生交通事故:

  ① 我方和對方都遵守交通規則。由駕駛員承擔主要責任,由自動駕駛部件或整車製造商承擔次要責任。此種情況下,自動駕駛汽車應優先保護駕駛員。

  ② 我方遵守交通規則,對方違反交通規則。由對方承擔主要責任,由駕駛員承擔次要責任。此種情況下,自動駕駛汽車應優先保護駕駛員。

  ③ 我方違反交通規則,對方遵守交通規則。如果因破解系統造成與廠商版本不同,則由駕駛員承擔全部責任,否則由自動駕駛部件或整車製造商承擔主要責任。此種情況下,自動駕駛汽車應優先保護行人。

  ④ 我方和對方都違反交通規則。如果因破解系統造成與廠商版本不同,則由駕駛員和對方共同承擔責任,否則由自動駕駛部件或整車製造商與對方共同承擔責任。此種情況下,自動駕駛汽車應優先保護行人。

  綜上幾種情況,基於專用人工智能技術的自動駕駛系統不存在“機器道德主體地位”問題,機器不能作為法律懲戒對象而必須由責任人來承擔責任後果。

  事實上,自動駕駛事故責任認定問題,也並未超越現行法律體系的有效調控範圍。也就是說,應將自動駕駛系統也視為車輛專用系統的一個基本部分。比如,如果輪胎有缺陷,在正常使用情境下出了問題,則應該由相應的產品提供商負責。但駕駛員明知冰雪路面不該使用普通車胎,卻依舊駕駛造成事故的,責任便由本人承擔。自動駕駛事故的責任認定也亦如此。

  最後,從計算問題、法律問題再回歸到倫理問題。在計算層面,自動駕駛沒有技術的“倫理解”。但在法律層面,自動駕駛的實際應用沒有倫理障礙。

  專用人工智能框架下,自動駕駛的核心特徵強調工具的自動化(L1-L4)而非自主化(L5)。工具性意味著,只能確保在既定使用範圍內正常工作,這是理解自動駕駛合法性和有效性的前提。而在倫理層面的“電車難題”及其變種,本質上都是前提為一對互斥矛盾、且前提必須成立的情況下,尋求化解矛盾的方案。換言之,雖在倫理空間無法突破給定的矛盾預設,但可以試圖在法律空間內用經濟手段尋求倫理解。因此,不論電車疾駛向哪一條支線,電車司機在法律上都是無責的,負責的反而應該是明知不該、卻執拗聚在鐵軌上的“無辜”行人。

  倫理問題未必都有合理解,有合理解也未必有最優解,這反映了開放世界價值判斷的多元化。而多元的價值判斷,必然導致很多情況下不存在最優解,而只有可行解甚至無奈解。這意味著,在“元倫理學”範疇內,倫理學系統的“公理化”理論假設本身就面臨“非公理化”現實的無情挑戰與深刻詰責。因此,儘管我們至今仍在爭論電車司機該選擇哪條支線,卻並不妨礙地鐵、汽車、火車、飛機、輪船等各種交通工具的使用越來越多、智能化程度越來越高。

  歸根到底,在專用人工智能框架下,L1-L4級的自動駕駛倫理難題“不足為懼”:倫理難題既非自動駕駛所專有,也無須自動駕駛技術來終結,更不會成為其應用推廣的阻礙。

關注我們Facebook專頁
    相關新聞
      更多瀏覽