1. 程式人生 > 資訊 >四次事故兩死兩傷,特斯拉為啥總是撞上白色卡車

四次事故兩死兩傷,特斯拉為啥總是撞上白色卡車

據外媒報道,就在幾天前,美國底特律一臺白色 Model Y 在一個 T 字路口正面撞上了一臺大型卡車。Model Y 車頭較低,其直接鑽進了卡車底部車輛嚴重損毀。

事故發生在當地時間凌晨 3:20 分左右,事發時車內一男一女兩名乘客嚴重受傷,並被送往當地醫院救治,卡車司機則並未受傷。

▲近日特斯拉在底特律撞上白色卡車

2016 年和 2019 年,特斯拉在美國出現過兩次致命事故。都是在開啟 L2 級自動駕駛系統的同時,車輛以垂直方向撞上了大型卡車,最終導致車內人員喪生。

2020 年,臺灣一臺 Model 3 在高速上也撞上了一臺側翻的卡車。

▲2019 年特斯拉事故車輛,駕駛員不幸喪生

▲2020 年事故現場監控畫面

這三起事故有很高的相似性,因此特斯拉再次發生類似事故後,也引起了強烈關注,同時又在不斷提出一個靈魂問題:

為什麼被稱為量產車最強的 L2 級自動駕駛系統,卻總是躲不開一臺白色卡車?

答案其實並非是特斯拉技術不強,也根本不是白色卡車就是特斯拉的 “天敵”。

而是因為對靜態車輛的檢測,屬於當下以 “攝像頭 + 毫米波雷達”作為主感測器的 L2 級自動駕駛方案的一個世界性難題,各家的系統對靜止車輛都很頭疼。

比如今年 2 月份,一臺蔚來 ES8 在開啟 L2 級自動駕駛系統巡航時,先後撞了一個行人和一臺靜止的五菱巨集光。

一、尚未確認特斯拉是否開啟了 L2

正如前文所言,這起事故之所以收到了中外一些媒體的關注,核心是因為特斯拉的車型曾經出現過開 L2 撞卡車,並致駕駛員喪生的嚴重事故。

但從目前外媒的報道和推特上知情網友的訊息來看,目前尚無法確認事故發生時車輛是否開啟了 L2 級自動駕駛系統。

▲事故現場

因此這起事故的原因並非與特斯拉 L2 級自動駕駛系統有關。

當然,即使是 2016 年和 2019 年的兩起致命撞卡車事故,從責任劃分上來說也是駕駛員的問題。

▲2016 年類似事故現場

因為特斯拉的 Autopilot 系統屬於 L2 級自動駕駛,一是隻能在有限的場景下工作,二是需要駕駛員全程監控路況並隨時準備接管。

比如垂直方向有大型卡車時,就屬於系統不工作的場景,需要駕駛員及時接管車輛。

去年 3 月 23 日,美國國家運輸安全委員會(NTSB)針對兩起特斯拉 Autopilot L2 級自動駕駛系統致人死亡的事件釋出了最終報告。報告表明,兩起事故當中,駕駛員都過度依賴特斯拉 L2 級自動駕駛功能,從而出現注意力不集中的現象,最終導致事故發生。

▲NTSB 在其網站上的釋出了最終調查報告

NTSB 認為,卡車駕駛員在路口沒有停車,直接左轉駛入高速公路,屬於危險駕駛行為。特斯拉 Model 3 駕駛員過度依賴特斯拉 L2 級自動駕駛技術,導致注意力不集中。NTSB 最終認定,事故原因是特斯拉 Autopilot L2 級自動駕駛系統在駕駛員脫手時沒有及時提醒,與設計使用條件不一致,最終導致發生碰撞事故。

其中一起事故,就是 2019 年 3 月 1 日出現的 Model 3 撞上卡車致使駕駛員死亡的事故。

就算沒有開啟 L2,那特斯拉的 AEB 自動緊急制動系統為什麼也失靈了呢?

特斯拉的 AEB 系統可以手動關閉,因此如果駕駛員當時關閉了 AEB,那麼系統自然就不會工作了。

二、事故可能性分析

感測器配置要背鍋從美國監管機構的報告可以看出,垂直方向撞卡車的事故,明顯是超過了特斯拉 L2 系統的工作範圍,又加上駕駛員沒有及時接管所造成的。

那麼問題來了,為什麼被公認為 “量產車最強 L2”的 Autopilot 系統,就是躲不開一輛活生生的大卡車呢?

與車東西此前報道蔚來 ES8 事故的結論一致:這起事故的根本原因是 “攝像頭 + 毫米波雷達”的感測器配置,很難識別靜止車輛或緩行車輛。

與 Model 3 一樣,特斯拉 Model Y 周身搭載了 8 個攝像頭,1 個大陸的毫米波雷達,和 12 個超聲波雷達。

▲特斯拉感測器配置

在開啟 L2 級自動駕駛系統(Autopilot、NOA 或 EAP 系統)時,車輛主要依靠前視攝像頭和毫米波雷達探測前方物體。

特斯拉雖然是三目前視攝像頭,但並沒有使用立體視覺,三個攝像頭主要是焦距不同,看的視野範圍不同。

所以總的來說,特斯拉與目前絕大部分 L2 級自動駕駛系統都一樣,都是視覺 + 毫米波雷達的感測器方案。

不管是使用基於規則的視覺演算法還是使用深度學習技術,視覺在感知外界物體時永遠做不到 100% 準確,甚至經常會出錯。

比如筆者自己的特斯拉在出地庫時,就會莫名把牆壁識別為公交車。又比如最近很火的一個抖音視訊中,特斯拉在空無一人的墓地,就莫名識別出了行人。

▲特斯拉在無人墓地識別出行人

此外,還出現過把公交車身上的人物照片識別為行人、把路邊廣告螢幕上的停車標誌識別為真實停車標誌的案例。

而靠反射毫米波來探測目標的雷達不會 “見鬼”,前方有東西就有回波,沒有東西就沒有回波。

正是因為視覺出錯概率很高,雷達更 “靠譜”,因此大部分 L2 系統會在視覺的基礎上再引入毫米波雷達的探測結果進行驗證。

如果攝像頭髮現前方有車輛,雷達也確認了前車的位置和速度,就可以做出剎車的動作。

如果用這些誤識別的結果來做駕駛決策,顯然會出現更多的問題。特斯拉自然知道這一點,因此在實際中並不會對純視覺的感知結果進行反應。

所以這起事故的原因就很明確了,不管視覺有沒有識別到前車,一定是毫米波雷達沒有給出結果,所以最終系統沒有反應。

三、毫米波雷達天生缺陷

害怕靜止車輛毫米波雷達即然不會 “見鬼”,那麼為啥會識別不到前方的卡車呢?

東南大學國家毫米波重點實驗室毫米雷達技術專家、毫米波雷達公司隼眼科技 CTO 張慧多次向車東西分析了背後的原因。

從最底層的工作原理來說,毫米波雷達主要是依靠多普勒效應來感知移動目標。多普勒效應的特性是,動態對動態最容易感知、動態對靜態較難感知、靜態對靜態極難感知。

這是因為如果前方車輛靜止,目標資訊容易和地雜波等摻雜在一起,需要一定的演算法才能從中分辨出目標。而如果是一個行駛中的汽車,基於其多普勒資訊,從而比較好探測到目標。

所以如果卡車靜止或者移動速度很慢,雷達的演算法就無法知道前方有物體。

但這種可能性並不大,因為各大雷達公司已經做出了一些感知演算法,可以識別靜態物體。

真正的難點是,現在的雷達沒有高度資訊,並且空間解析度不足。

沒有高度資訊,意味著雷達很難區分橫穿馬路的路牌和橋下的車;空間解析度不足,意味著兩個距離很近的物體,其回波會被混在一起,很難知道有幾個目標。

所以雷達公司和一些車企在拿到雷達的反射資料後,會通過演算法直接將一些靜止物體,或者疑似靜止的物體過濾掉,以避免產生錯誤的反應。

比如本次事故場景中,因為卡車是垂直 Model Y 方向行駛,如果同時行駛速度又很慢的話,因為缺乏徑向多普勒分量,雷達的識別演算法很容易將其當成靜態目標過濾掉了。

如果毫米波雷達把目標過濾掉了,所以不管視覺能否看到這臺卡車,都不起用了。

結語:車企仍在不斷優化 L2 級自動駕駛回到這起事故,特斯拉當時是否開啟了自動駕駛系統還沒有確定,事故原因還需要等待當地警方和特斯拉官方調查。實際上,即便開啟了 L2 級自動駕駛系統,白色卡車這一場景也有些極端。對目前量產 L2 級自動駕駛系統來說,還有不少場景無法處理。

針對 L2 級自動駕駛系統存在的種種問題,車企也給出了自己的解決方案。一方面,自動駕駛演算法不斷優化,通過 “影子模式”、上路測試等方法,讓自動駕駛系統不斷成熟,同時不斷增加 L2 級自動駕駛的功能。另一方面,隨著硬體成本的下降,不少車型已經規劃搭載鐳射雷達,避免類似事故發生。