1. 程式人生 > 資訊 >蔚來致死事故陷爭議,無人為誇出的“自動駕駛”買單

蔚來致死事故陷爭議,無人為誇出的“自動駕駛”買單

半個月的時間裡,蔚來接連發生二起致死事故,讓這家市值超過 700 億美元的新造車頭部公司陷入巨大爭議當中。

近日,一則訃告稱,8 月 12 日下午 2 時,上善若水投資管理公司創始人、意統天下餐飲管理公司創始人、美一好品牌管理公司創始人林文欽,駕駛蔚來 ES8 汽車啟用自動駕駛功能(NOP 領航狀態)後,在瀋海高速涵江段發生交通事故,不幸逝世,終年 31 歲。

媒體報道稱,蔚來福建閩南區域負責人張波曾與向此次事故經辦民警親口確認,當時被追尾的高速路政車輛正在進行收雪糕筒作業,車主使用 NOP 領航輔助功能。

事故發生後,蔚來方面迴應稱:NOP 領航輔助不是自動駕駛,使用者應該時刻手握方向盤並目視前方,並稱這是一起交通事故,在等交警部門調查,後續有調查結果會向外界同步。

這是中國新造車品牌首次因“自動駕駛”出現車禍致死事件,被網友稱為“中國自動駕駛第一案”。NOP 成為大眾關注和蔚來回應的焦點,這也再次引發了網友對自動駕駛安全性的擔憂。

與此同時,輔助駕駛和自動駕駛這兩個概念的混淆,以及一些企業對輔助駕駛“自動化”的虛假誇大宣傳,也使得一些使用者忽略了背後的風險。

固然,任何新興技術的迭代與成熟,都需要一定的耐心和寬容,但如果是以人的生命為代價,未免太過沉重。而在目前尚待完善的法律監管之下,誰又該為被誇大的“自動駕駛”買單?

“自動駕駛”事故再發,蔚來要步特斯拉後塵?

特斯拉走過的路,蔚來似乎也要再走一遍。在此次事故前的 7 月 30 日,一輛蔚來 EC6 在上海浦東撞擊石墩發生車禍,車輛起火,車主不幸喪生。當時也有疑問,蔚來是否處於 NOP 狀態。蔚來方面表示,相關部門還在進一步調查,事故原因需在調查後才能明確。

值得注意的是,在過去八個月的時間裡,在瀋海高速上,包括此次在內,蔚來已出現三起重大交通事故,其中兩起事故確認開啟 NIO Pilot 功能。

去年 12 月,在瀋海高速福建鏡洋段,一輛蔚來 ES8 追尾前方掛車,駕駛員被困車內,後被消防員救出,據稱事發地前面沒有明顯的剎車痕跡。今年 1 月,蔚來 ES8 在開啟 NIO Pilot 自動駕駛輔助的情況下,撞上瀋海高速的道路護欄,並追尾一輛停靠在內道的五菱巨集光,所幸沒有人員傷亡。因此,8 月 12 日的事故也是蔚來第一起明確的與 NIO Pilot 相關的致死事故。

蔚來 NIO Pilot 是與蔚來首款量產車 ES8 一同釋出的自動輔助駕駛系統,採用 1 個三目前向攝像頭、4 個環視攝像頭、5 個毫米波雷達以及 12 個超聲波感測器,搭載 Mobileye EyeQ4 自動駕駛晶片,支援超過 20 項輔助駕駛功能,支援遠端車輛軟體升級(FOTA)。

據瞭解,NIO Pilot 採用選配的方式銷售,有精選包和全配包兩種,價格分別為 1.5 萬元、3.9 萬元,後者包含了 NOP(領航輔助)功能。NOP 全稱為 Navigate On Pilot,蔚來在去年 10 月推出,併成為全球第二家實現領航輔助功能的汽車品牌,此前僅有特斯拉一家。

特斯拉此前也多次發生過類似事故。2016 年 1 月,一輛開啟 Autopilot 自動駕駛模式的特斯拉在京港澳高速河北邯鄲段撞上正在作業的道路清掃車,司機不幸身亡。此後,特斯拉在美國也發生撞上消防車、停靠作業的警車等事故。去年 6 月,一輛特斯拉 Model 3 又徑直撞上側翻在路中央的白色貨車。這幾起事發時,特斯拉車輛都處於 Autopilot 自動駕駛狀態。

根據此次蔚來事故資訊,此次被追尾的收雪糕筒的路政車是在向前低速行駛。這和特斯拉幾起事故有一些共同點,被撞的前車都是不規則車輛、慢速作業或者是接近靜態。

據瞭解,蔚來的 NIO Pilot/NOP 自動駕駛輔助系統使用的是毫米波雷達 + 攝像頭的組合方案,其中攝像頭是主感測器。在事故發生後,有蔚來工作人員表示,目前 NIO Pilot 系統無法識別雪糕筒,以及停駐在前方的障礙物,比如動物、行人、摩托車等。

林文欽的朋友鄭先生向媒體提供的相應的駕駛資料顯示,事發當天,事故車共有三段行駛記錄,且最新一次駕駛里程為 85 公里,歷時 113 分鐘。在時長為 113 分鐘的行駛過程中,當事人平均速度為 45.1 公里/時、最高速度為 114.6 公里/時。

在 NIO Pilot 方面,當事人里程為 72 公里,佔總里程的 84.7%;使用時長為 48 分鐘,佔總時長的 42.5%。NOP 里程為 68 公里,佔總里程 80%;NOP 時長為 44 分鐘,佔總時長的 38.9%。同時,事發行駛過程中,存在急加速 1 次,並未出現急減速的行為。

媒體報道稱,鄭先生推測,事故發生的原因可能是林文欽駕駛的 ES8 在開啟 NOP 功能時,未能成功識別高速公路上的工程車,導致直接撞上。也有業內人士也表示,若事故車處於 NOP 狀態,不排除系統沒有檢測到前方出現路障的可能。不過,前述資料未得到蔚來官方迴應,交警目前也尚未披露此次事故更多進展。

有自動駕駛人士接受採訪表示,靜態物體的檢測是現在技術水平下 L2 級自動駕駛面臨的普遍難題,比如形狀不規則的工程車很可能在視覺演算法中缺失,毫米波雷達對靜態物體的檢測也有可能因過濾太多而出現漏檢,這就可能導致車輛無法識別前方緩行或停止的物體。

蔚來在使用者手冊中就強調,和其他輔助駕駛功能一樣,“領航輔助”是一個舒適性功能,而非防碰撞功能。當本車與前車相對車速大於 50 公里/小時時,如前車靜止或緩行,“領航輔助”存在無法剎停的風險。同時,還明確提到,領航輔助無法響應靜態障礙物(如路障、三角警示牌等),如前方存在事故或施工區域,請立即接管車輛以控制方向和速度。

輔助駕駛不是自動駕駛,激進宣傳應停止

這次事故也引發了外界對輔助駕駛和自動駕駛概念的關注。也有觀點也認為,車企將輔助駕駛“自動化”的誇大虛假宣傳也該停止了,廠商關於“自動駕駛”宣傳的應慎之又慎。

按照國際汽車工程學會 SAE 的等級分類,自動駕駛分為 L0-L5 在內的六個等級。國內的自動駕駛級別是以美國的 SAE 自動駕駛分級為標準,並在此基礎上結合中國特殊的道路也形成六個等級,今年已正式開始實施。

根據分級定義,L4 及以上才開始擺脫人為干預,是真正的自動駕駛,車輛控制權由自動駕駛系統完全所有,事故責任歸屬則相對更加清晰。在 L3 級別的自動駕駛中,車輛的操作和感知均由作業系統自身完成,但駕駛員仍需要隨時準備接應自動駕駛系統發出的接管請求,這就導致了車輛行使的控制權存在搖擺,權責不明確。

L1/L2 等級的車輛具備簡單的環境感知和執行功能,屬於輔助駕駛,主要操作是由駕駛員完成,此時駕駛員的注意義務同駕駛普通汽車相當,侵權責任及刑事風險均由駕駛員承擔。特斯拉的 NOA、蔚來的 NOP、小鵬的 NGP,嚴格意義來講,都屬於 L2 級輔助駕駛。根據國家法規,在 L2 輔助駕駛下,駕駛員不允許長時間雙手離開方向盤。在此次事故發生時,車主是否雙手脫離方向盤,目前尚不清楚。

不過,在現實中,“L2 + 自動駕駛”“高階輔助駕駛”“解放雙方”“人工接管率”等說法出現在不少車企的宣傳當中,輔助駕駛的概念被有所弱化。蔚來副總裁沈斐就曾在 2019 年 8 月在高速上讓車輛“自動駕駛”,而自己在車內駕駛座上吃飯,親自為蔚來自動輔助駕駛功能宣傳,當時也遭到不少質疑。

馬斯克也曾宣稱特斯拉已實現完全自動駕駛,而在特斯拉官網上只有一條不起眼的免責宣告:“目前可用的(Autopilot)功能需要駕駛員主動進行監控,車輛尚未實現完全自動駕駛。”

這很容易給使用者造成誤解,此次林文欽的訃告就將蔚來的 NOP 視為自動駕駛功能。特斯拉不少車禍,都是由於使用者過於相信系統,而注意力未集中導致。華為自動駕駛產品部前部長蘇箐在吐槽特斯拉的自動駕駛時,就用上了“殺人”的字眼。不少觀點認為,激進的技術策略有關和失真的宣傳成為特斯拉事故頻發的重要誘因。

不久前,理想車主將駕駛座椅平躺,雙手完全脫離方向盤而在輔助駕駛功能下獨立操控汽車。理想汽車對此緊急澄清,理想 ONE 所提供的是輔助駕駛功能不是自動駕駛,要求所有車主按照正確方式使用輔助駕駛系統。

業界已注意到用詞可能引起的對消費者的誤導。約在 2 個月前,Waymo 公司首席安全官 Mauricio Pena 就撰文稱,谷歌停止使用 self-drive,轉而使用 autonoumos,主要是為了安全。谷歌研究認為,這兩個詞的混用會給使用者帶來直接風險,那些開著具有輔助駕駛系統車輛的使用者,正在給予車輛超出其能力的責任,誤將輔助駕駛當成自動駕駛。

特斯拉一系列致死事故後,馬斯克也不得不改口,稱“It ’s autopilot,not autonomous”,他自己也不認可將 Autopilot 譯為自動駕駛。今年 3 月,面對美國政府的一再質詢,特斯拉承認其 Autopilot 和 FSD 功能只是駕駛輔助功能,無論是單獨還是從整體來看,兩者都不具備自動駕駛的功能,也不能讓特斯拉車輛實現自動駕駛。

目前,無論是特斯拉,還是蔚來、小鵬、理想都在加強自動駕駛投入。蔚來 CEO 李斌在 8 月 12 日財報電話中表示,目前自動駕駛團隊規模在 500 人左右,年底達到 800 人規模。理想汽車總裁沈亞楠不久前也提到,年底要建成 600 人的自動駕駛團隊,將進一步加大自動駕駛投入。

這方面的監管也需要逐步完善。就在林文欽發生事故當天,工信部在印發的《關於加強智慧網聯汽車生產企業及產品准入管理的意見》中提到,車企要嚴格履行告知義務,針對自家的駕駛輔助和自動駕駛功能,明確告知車輛功能、效能限制、駕駛員職責,功能啟用和退出條件等等。

同時,《意見》還要求車企在功能上確保司機的駕駛責任,有識別自動駕駛功能失效條件的能力,明確讓車主知曉駕駛狀態,以及具有事件資料記錄系統和自動駕駛資料記錄系統,並要求未經審批不得 OTA 升級自動駕駛功能,全方位加強量產車自動駕駛功能的安全性和責任意識。

目前,尚無法確認蔚來此次事故中的責任如何認定。蔚來使用者手冊提到,領航輔助作為一種駕駛輔助功能,無法應對所有交通、天氣和道路狀況,且使用者始終承擔著安全行駛且遵守現行交通法律法規的最終責任。

但是,國家、行業目前還沒有出臺相關管理鑑定智慧汽車自動駕駛事故責任的法規或辦法。有律師表示,監控探頭、行車記錄儀、車輛行駛資料、現場勘驗結論等都會成為確定事故責任的證據,商家前期宣傳話術也具有一定參考性。

有媒體報道稱,林文欽家屬委託的北京權佑律師事務所執行主任林麗鴻表示,蔚來技術人員在未經交警同意的情況下,私自接觸涉案車輛,並進行相關操作的情況。交警已傳喚該技術人員做筆錄,如果調查結果為車輛資料被篡改或者銷燬,將涉及刑事犯罪,蔚來將對本案件承擔全部責任。

就此訊息,今日晚間,蔚來發布宣告稱,公司沒有任何刪改資料的行為,也沒有員工被警方傳喚。蔚來表示,為確保高速碰撞後的事故車電池安全,當天 17 點多,蔚來服務人員在事故車停車場進行了斷電作業,該作業本身不會造成資料丟失。

但無論結果如何,自動駕駛的發展都不能以人的生命為代價。“蔚來們”也應停止激進的宣傳,而使用者在體驗新技術的過程更應時刻牢記珍愛生命、安全駕駛。