裸奔的Tesla,也難以實現駕駛自由
2021年03月31日12:27

原標題:裸奔的Tesla,也難以實現駕駛自由

作者:古廿

曾經在李彥宏看來,中國用戶可以為了便利放棄隱私安全。但是如今在智能汽車領域,即使車主們信息裸奔,駕駛自由卻依然難以實現。

幾年前汽車行業曾經大膽預測的自動駕駛時間表,如今卻在不斷推遲。2019年以前,大家對於自動駕駛技術難以應用的普遍認知歸咎於當時不能滿足低延時要求的4G網絡。

隨著2020年5G基礎發展和部署的完善,滿足自動駕駛的低延時網絡成為可能,被稱為5G元年的2020年,也迎來了自動駕駛元年。

2020年2月,在一個公開的播客節目中TeslaCEO馬斯克承諾:2020年底,實現全自動駕駛—即Tesla汽車在沒有駕駛員任何干預的情況下,自動行駛到目的地。

為了表示信心,在同年4月的Tesla自動駕駛開放日上,馬斯克再次強化承諾:2020年底,Tesla將Autopilot系統升級到全自動駕駛功能,配置在Model S和Model 3上,並且將部署超過100萬輛無人駕駛計程車。

在2020年7月9日於上海舉行的世界人工智能大會開幕式上,馬斯克進行演講並表示:Tesla已經非常接近L5自動駕駛了,有信心在2020年完成開發L5級別的基本功能。

在馬斯克看來,實現L5級別的全自動駕駛不存在根本性難題,只是還有很多要解決的細節性問題。

如今關於Tesla自動駕駛時間表的這一切正在被媒體們認為是馬斯克泡沫,因為事實證明在2020年沒有實現的L5級別自動駕駛,即使在2021年也幾乎難以實現。

曾經被馬斯克認為只是細節性的小問題,如今正在成為使智能汽車深陷輿論的大問題。

| 無處不在的車主裸奔

根據英特爾公司預測,2020年一輛每天運行8小時的自動駕駛聯網汽車可以產生4TB的數據。作為對比,2020年互聯網用戶每天產生1.5GB數據量,以此計算,一輛聯網汽車每天產生的數據量相當於3000人每天產生的網絡數據量。

這麼龐大的數據量主要來自於為了實現自動駕駛,遍佈汽車的數百個車載傳感器。以英特爾研究數據來看,鏡頭每秒可以產生20-40Mb的數據,激光雷達每秒產生將近10-70MB的數據。

雖然數據量驚人,但是對於數據的採集方式和用途,新能源廠商們卻得不到車主的信任。

以最近馬斯克在推特親自下場回應,引發社會爭議的Tesla監控門為例。事情的起因是馬斯克發推文提醒自動駕駛Bate版本的試用用戶,稱根據監控攝像頭髮現有部分車主對於道路情況沒有足夠關注,對於這部分用戶要收回試用權限。

隨後有網友追問車內鏡頭是不是可以監控車主,馬斯克回答是的。之後關於Tesla是否監控車主,侵犯隱私的問題引發網友熱議。

對於此事,Tesla官方隨後在3月19日發佈聲明表示:Tesla的車輛不存在通過車內鏡頭侵犯車主隱私的行為,並強調稱,所有中國市場上的Tesla車輛均未開啟車內鏡頭。

官方的回答並沒有讓車主們安心,根據新浪科技最近的一次微博投票顯示,70%的人表示不相信。主要原因可能是因為在2017年時,對於車內鏡頭的功能,馬斯克曾經表示是為了共享自動駕駛汽車準備的,通過鏡頭可以來監控是否有人故意弄髒你的車。

後來自動駕駛無限期推遲,共享計劃也不了了之。但是車內的鏡頭卻被用來監視司機,這讓車主們認為監控與否完全取決於Tesla,自己不能知曉也不能自由控制。

車內鏡頭監控不是什麼新鮮事,以國內為例,根據交通部規定,部分車輛安裝智能視頻監控系統早已成為必要條件——依據交通運輸部辦公廳發佈的“關於推廣智能視頻監控報警技術的通知”,在2020年6月30日前,所有“兩客一危”車輛需安裝完畢。

但是人們對於智能汽車卻不再相信,因為相較於自己按照規定通知安裝的知情權,Tesla等智能汽車可能不需要讓你知道,通過軟件更新就可以啟動車內鏡頭。

根據《IT時報》報導,蔚來、小鵬等一批造車新勢力的部分車型上都有鏡頭,目的是監測車主是否疲勞駕駛。對於是否會侵犯隱私,廠商們都表示只會檢測駕駛員眼球,在疲勞駕駛時車輛給予提醒。

業內人士表示“疲勞提醒”等類似功能也被作為一個車輛智能化的亮點來進行售賣,而且不上傳雲,本地就可以處理數據信息並做出提醒。

如果說車內鏡頭是為了駕駛安全,那麼被稱為自動駕駛汽車“眼睛”的車外鏡頭則成為Tesla會侵犯隱私的官方懷疑。

根據相關媒體報導,Tesla被禁止停放在相關國家安全家屬院內,主要因為Tesla會主動收集車身周圍的外部環境情況。此前這一模式被認為是Tesla智能化的表現之一,稱為“哨兵模式”。

根據外媒報導,對於Tesla汽車,儀表板相機和自拍相機可以在汽車停放時記錄,而對於車主而言,他們不可能知道Tesla何時會這樣做。這些鏡頭支援“哨兵模式”等功能,此外,它們還能使雨刷“看到”雨滴,並自動工作。

除了擔心會泄露隱私的鏡頭問題,不起眼的二手零件隱私問題此前也引發擔憂。

美國消費者媒體CNBC此前指出,如果你不幸撞毀了你的Tesla汽車,即使它被拖往垃圾場,你也不要忘記,它可能帶著一大堆有關你的歷史,因為Tesla電動汽車所存儲的數據遠超出你的想像。

2020年一個化名為“GreenTheOnly”的白帽駭客,通過在eBay購買的Tesla二手零件,從中提取出包括但不限於手機電話本、通話記錄、日曆項目、Spotify和Wi-Fi密碼、家庭和工作地點的定位、導航去過的位置,以及允許訪問Netflix和YouTube(還有附加的Gmail帳戶)的會話cookies。

不僅如此,在2019年3月,根據美國消費者新聞報導,打撈出來的Tesla汽車也依然存儲有數據。雖然用戶可以利用工廠設置選項清除汽車中的敏感數據,但一旦舊部件從汽車上拆除,用戶就無法進行清除。

不僅Tesla有隱私問題,其他品牌的汽車也有同樣的隱私問題。美國聯邦貿易委員會(FTC)此前曾向司機發出警告,提醒他們不要將自己的手機與租來的車輛配對,並敦促他們學會在退還租車或出售自己的汽車之前,將汽車系統“擦”乾淨。

GreenThely解釋說:“汽車在什麼時候記錄什麼,以及在內部系統中存儲什麼,Tesla在這方面並不是超級透明的。你可以選擇退出所有數據收集,但之後你就失去了軟件更新和其它一大堆功能。因此,可以理解的是,沒有人會那樣做,甚至可能包括我在內”

數據知情權不清晰,作為車主不知道自己購買的汽車處於什麼狀態;二手零件數據抹除不徹底,車主隱私信息伴隨著二手零件在不同人之間流轉。

根據今年兩會上海市信息安全行業協會會長談劍鋒提交的《關於加強對智能汽車數據安全監管》提案中的統計數據稱:Tesla可以採集覆蓋車主個人信息、車輛環境信息、車輛行駛信息、車主手機信息等200多項信息,國內同類廠商也採集有170多項。

大量的信息數據被採集用來支援自動駕駛,但是即使如此,自動駕駛卻依然難以實現。

| 難以自由的自動駕駛

自動駕駛的穩定性和車主們的隱私安全一樣,也是一個不可知的數據黑盒。

以一直對外公開宣稱自動駕駛的Tesla為例,3月6號馬斯克稱Tesla完全駕駛系統測試版已經發佈。但是內測版本推出不久後,在一段測評博主13分鐘的公開視頻中,自動駕駛模式下的Tesla汽車在美國加州某街道狀況頻出。

3月23日,在中國台灣的TeslaModel 3車主在當地試用自動駕駛功能時發生事故,車輛在闖過紅燈後撞上多台橫向行駛的摩托車,並最終翻車。此前一週內,另一輛TeslaModel3在美國密歇根州撞上了一輛靜止的警車,引來了美國國家公路交通安全管理局的調查。

3月18日,美國國家公路交通安全管理局正式宣佈,該機構已針對27起Tesla自動駕駛系統的安全事故進行調查,其中至少有3起是最近數週內發生的。

事實上,從2016年開始,自動駕駛相關的安全事故就不斷髮生。

2016年1月20日,京港澳高速河北邯鄲段發生一起追尾事故,一輛Tesla轎車直接撞上一輛正在作業的道路清掃車,Tesla轎車當場損壞,司機高雅寧不幸身亡。曆時一年多,2018年2月27日,Tesla確認事故發生時車輛開啟自動駕駛功能。

2016年5月7日,佛羅里達州一名司機因傳感器和鏡頭系統未能檢測到一輛橫穿馬路的大貨車,從而沒有採取製動而喪生,引發了對Tesla自動駕駛技術的諸多質疑。

2017年3月24日,Uber的一輛自動駕駛車在路試時與另一輛SUV發生碰撞;2017年8月26日,Google自動駕駛汽車發生過十幾次的交通事故。

自動駕駛難以實現,自動駕駛的事故原因卻基本都是人為。

2020年1月份,美國國家公路交通安全管理局(NHTSA)收到一份Tesla“意外加速”的事故請願書,僅美國單一市場涉及123輛車和110起撞車事故,52人受傷。

報告中稱,當車主試圖將Tesla車輛停在車庫或路邊時,車輛發生了突然加速事件。還有一些車主表示,突然加速發生在交通行駛過程中或使用自動駕駛輔助系統時,最終導致撞車。涉事車輛包含2013年至2019年生產的Tesla汽車,Model 3、Model S和Model X車型。

此後,美國國家公路交通安全管理局經過一年詳細評估後認為:絕大部分事故案例,並非因Tesla車輛的技術故障所造成,都是由車主誤操作所導致,並且Tesla的設計也不會提高車主誤操作的概率。

根據新浪科技報導:“數據包背後的事實,完全依賴於工程師的解讀與還原。”這或許也是車主對於Tesla缺乏信賴的原因—Tesla提供給車主的檢測報告並不完整,且依賴於自己的工程師的解讀。

一方面依靠自己的數據,Tesla幾乎所有的檢測報告都把問題指向車主;另一方面,依靠發佈季度數據報告,Tesla在證明自動駕駛越來越安全。

根據Tesla發佈的2020年第四季度報告顯示“有Autopilot功能的車輛,每行駛345萬英里記錄了一起事故。對於那些沒有Autopilot但使用我們的主動安全功能的駕駛者,我們每行駛205萬英里就記錄了一起事故。對於那些沒有Autopilot功能,也沒有主動安全功能的駕駛者,每行駛127萬英里就會發生一起事故。相比之下,NHTSA的最新數據顯示,在美國,每48.4萬英里就有一起汽車事故。”

自2018年以來,Tesla一直通過發佈這樣的報告,對比自動駕駛與非自動駕駛時的每次事故里程數,為其在自動駕駛安全方面的改進打造一個標杆。但是根據外媒報導,對於數據的真實性也有不少人存疑。

在2017年Tesla給美國國家公路交通安全管理局(NHTSA)提供數據時,曾經被美國一家諮詢公司QSC發現Tesla汽車向NHTSA提供的兩個數據點有問題:在安裝Autopilot系統之前里程表的最後一個讀數,和安裝完成之後的里程表第一個讀數不一樣。

簡單來說,就是Tesla對統計數據做了手腳,導致NHTSA的數據完全不可信。根據QCS的統計,Tesla向NHTSA提供了43,481輛車輛的數據,這些車輛中有69%缺少激活Autopilot前的行駛里程數據。

除了一直宣稱自動駕駛的Tesla,國內對標Tesla的幾大智能廠商,比如理想汽車也曾在2020年青島因為輔助駕駛發生事故。

即使如此,畫大餅吹大牛,依然是加快自動駕駛的方法之一。因為在業內人士看來,只有上路才有數據,大量的數據才可以推動自動駕駛的發展。

| 自動駕駛還差什麼

相比電動汽車經常強調電池技術用來緩解車主里程焦慮,自動駕駛汽車喜歡強調數據量,數據量也成為作為衡量一個廠商自動駕駛能力的標準之一。

數據就是AI的燃料,但是對於車主們來說,即使把個人信息數據全權託付,自動駕駛卻一再延期。即使激進如馬斯克,也在頻發的Tesla事故中從中國官方下架了自動駕駛的宣傳噱頭。

那麼數據喂養究竟能不能養出自動駕駛呢?根據業內的共識劃分來看,一輛汽車想要實現自動駕駛大致分為三步:感知識別→決策規劃→控制執行,其中最大的困難和瓶頸就來自於感知識別。

行業內目前主要分為兩個派系:一個是以Tesla為主的視覺派,就是採取類似人的感知模式,通過神經網絡的學習,不斷進化外界感知能力,提高自動駕駛水平。另一個是小鵬汽車為主的激光雷達系,通過反射形成的“點雲”數據集合感知外部,實現自動駕駛。

視覺派系的主要優點是硬件便宜,但是因為軟件類的神經網絡訓練時間長、數據集昂貴,所以Tesla後續的全套FSD更新,有人預計大概能達到20萬美元,所以Tesla也被稱為未來賣軟件提高收入的車廠。

業內人士分析認為:通過數據喂養可以不斷地支援Tesla進行神經網絡算法的迭代,但是只有數據喂養的訓練卻遠遠不夠。更多的基礎設施,實現車輛之間的信息互相交換,車輛和道路之間的信息協同才是車聯網自動駕駛的未來。

對於自動駕駛來說,不管神經網絡算法多麼強大,數據集訓練多麼完美,還有一個不可避免的問題是都會面臨AI上的無限逼近。簡單來說就是只能無限逼近100%的正確性,卻不能如同現在0、1二進製計算機里永遠100%的機器正確性。

人類容許自己犯錯誤,但是對於自動駕駛來說,無限逼近的安全性究竟是多少還沒有結論。

不過根據傳統汽車廠商ISO安全認證的經驗,對於安全性,取人類生存率最高的10歲為標準,只要汽車的安全性高於10歲時人類的生存率就認為足夠安全。

關於自動駕駛,可能在到來之前,我們還有很多標準需要完善。比如數據隱私、比如安全標準,而不僅僅只是一個SEC的自動駕駛等級劃分。

特別聲明:本文為合作媒體授權DoNews專欄轉載,文章版權歸原作者及原出處所有。文章系作者個人觀點,不代表DoNews專欄的立場,轉載請聯繫原作者及原出處獲取授權。

關注我們Facebook專頁
    相關新聞
      更多瀏覽