[汽車之家 行業(yè)] 自動駕駛最近幾年有多火熱?百度董事長李彥宏曾說“到2030年,沒有自動駕駛能力的電動車,將完全沒有競爭力。”在汽車電動化快速發(fā)展的同時,自動駕駛已經(jīng)成為了很多汽車品牌的宣傳賣點。不過,汽車智能化發(fā)展并沒有如想象中的那么順利,最近幾年,已有多起與自動駕駛相關(guān)的事故發(fā)生。
前不久,浙江寧波高速公路發(fā)生一起事故,一位小鵬汽車車主采用智能駕駛輔助,沒有人工介入,撞了停在路邊的一輛施工車輛,造成人員傷亡。雖然車主承認自己開車走神了,而且品牌方也多次強調(diào):開啟L2輔助駕駛系統(tǒng)依然需要駕駛員集中注意力,但這件事還是引起了不少的討論熱度。
類似的事情并不少見,去年一位蔚來車主在高速上撞上了同樣的靜止施工車輛。據(jù)媒體報道,特斯拉也多次在路上撞上靜止的汽車。
這類事情之所以能引起廣泛的討論,主要原因在于對于人類駕駛員來說非常簡單的場景,對于“自動駕駛”來說并非如此。這不禁讓人產(chǎn)生疑問:前面停著如此大且明顯的的障礙物,為什么這些號稱“智能駕駛”的汽車連這些基本的場景都判斷不了?
即使廠家一再聲明,目前市面上的車還處于L2輔助駕駛階段,離真正的“自動駕駛”還很遠。但是坐擁幾百TOPS算力芯片,高清攝像頭,毫米波雷達,超聲波雷達等號稱“高科技”的智能電動車,它的能力邊界到底在哪兒?消費者應(yīng)該對當下的“自動駕駛”技術(shù)抱有什么樣的期待?
毫米波雷達能力有限
無論是特斯拉還是國內(nèi)眾多新勢力,目前的L2駕駛輔助系統(tǒng)方案都是攝像頭加毫米波雷達的組合。
比如特斯拉采用的就是1個毫米波雷達,12個超聲波雷達和8個攝像頭組成的感知系統(tǒng);蔚來ES8搭載了一個前向3目攝像頭,5個毫米波雷達,12個超聲波雷達;而小鵬P7搭載的是1個高感知攝像頭,3個毫米波雷達,以及2個超聲波雷達。
可見國內(nèi)外,對于目前的L2系統(tǒng)都是以攝像頭加毫米波雷達為主的傳感器方案,來對周圍的環(huán)境進行感知。
『毫米波雷達分類』
毫米波雷達的原理很簡單,就是把毫米波發(fā)送出去,然后毫米波碰到障礙物會反射回來,根據(jù)反射回來后接收到的回波,我們可以得到一個時間差,有了時間差我們就能知道此時汽車距離障礙物的相對距離,這就是多普勒原理。
現(xiàn)在L2系統(tǒng)上幾乎都用上毫米波雷達,主要原因就是它抗干擾能力強,受天氣影響小,是全天候工作的傳感器。
看上去毫米波雷達是一個很好用的傳感器。理論上,它能夠穿透煙霧,也不受天氣影響,那前面有障礙物,不管是靜止的還是運動的,應(yīng)該都能識別到。然而現(xiàn)實情況是,在此前發(fā)生的交通事故中,特斯拉遇到橫在路面的大貨車,蔚來遇到大型工程車,以及小鵬遇到停在馬路邊的小轎車,都沒能識別到。難道是毫米波雷達徒有其名嗎?
事實上,毫米波雷達靠向前發(fā)射雷達波工作。但是目前的毫米波雷達仰角測量能力很弱,這就導(dǎo)致了毫米波雷達無法識別高度。一般情況下,雷達波遇到正前方的障礙物時能反射波回來,但是雷達波遇到旁邊的橋梁,路牌,路面,減速帶等也能反射回來,這就造成了真實的路障和虛假的路障傻傻分不清楚。尤其是在較遠距離的探測時,多徑反射、無法識別高度的目標會產(chǎn)生很多雜波,致使系統(tǒng)出現(xiàn)誤判。
『特斯拉自動駕駛系統(tǒng)識別交通信號』
因此,當前方出現(xiàn)靜止物體的時候,即便毫米波雷達能夠識別到真正的障礙物,也不能區(qū)分出它是路面、路牌還是停著的汽車。因為在毫米波雷達眼里,這些都是一樣的東西。如果是在高速公路上,毫米波雷達出現(xiàn)誤判就會引起車緊急剎車。為了避免這種情況,車速達到一定值之后,毫米波雷達識別靜止物體的權(quán)重會變低。這時候,依靠毫米波雷達作為單一傳感器進行感知就明顯不夠用了,還需要攝像頭。
攝像頭和視覺識別也會“犯迷糊”
在智能駕駛中,用攝像頭的初衷就跟人眼一樣:既然人類駕駛員能夠用人眼看到的一切來進行駕駛行為,那么汽車依靠攝像頭加算法也可以,這一點馬斯克深有感觸。
在智能電動車上,攝像頭代替人眼來進行測量和判斷,將目標的光線信號轉(zhuǎn)化成圖像信號,傳送給專門的圖像識別處理器,根據(jù)圖像的像素分布,亮度和顏色等信息,以抽取目標的特征,最終獲得相應(yīng)的識別信息。
『特斯拉Model3撞上側(cè)翻的貨車』
通俗來講就是:攝像頭的工作原理跟人眼一樣,首先要看到前方的物體,然后在腦子里搜索,以前有沒有見過這個物體,如果找到匹配的,那就能夠認出這是什么;如果沒見過,那就不認識直接忽略掉。
比如說,車載攝像頭看到一個錐形桶,會先在數(shù)據(jù)庫里比對類似的物體。然后攝像頭以后每次看到這種顏色,形狀,大小差不多的物體之后,就會標注為錐形桶。因此攝像頭需要進行海量的數(shù)據(jù)訓(xùn)練,以認識更多的而物體。
對于攝像頭來說,首先要看到,其次要認識。而在寧波的那場事故中,從視頻里看天氣良好,光照很足視野開闊,攝像頭應(yīng)該已經(jīng)看到了前方的車輛。但是由于當時汽車車尾放了一個錐形桶,錐形桶前方又站了一個人,這三者出現(xiàn)了重疊。這三件靜止的事物,按理說攝像頭都能識別。但如果三者重疊合一,算法就沒見過這種物體了,攝像頭也沒有經(jīng)過訓(xùn)練和標注,也識別不出來。
類似的例子還有很多,在一個L2輔助駕駛系統(tǒng)中,如果前方出現(xiàn)了不規(guī)則的物體,或者沒有被標注過的物體,攝像頭就會選擇直接忽略掉。
因此,對于攝像頭的能力可以概括為:你教過它的,它就認識;沒教過,它就不認識。
一個讓人不愿意承認的事實是,毫米波雷達識別靜止物體時不好用,而攝像頭只能識別他認識的物體,現(xiàn)在的輔助駕駛系統(tǒng)只能應(yīng)付一些比較簡單的路況,稍微復(fù)雜一些便無能為力,F(xiàn)實世界太復(fù)雜,人類善于處理復(fù)雜場景觸類旁通,但是機器不能。
現(xiàn)實世界的復(fù)雜性超出想象
盡管國內(nèi)宣傳了很久的智能電動車,或者自動駕駛汽車,但是目前市場上沒有L3級別的自動駕駛車型出現(xiàn),而那些聲稱達到L3、L4級別的,也遠沒有達到量產(chǎn)水平。因為對于一款自動駕駛汽車來說,即使你能夠應(yīng)對馬路上95%以上的路況,但是還有5%的可能性會出事故。這對一個交通工具來說,是不能接受的。
現(xiàn)實世界的復(fù)雜性在于特殊情況太多了,比如高速上一般都是運動的汽車,而冷不丁總有故障車輛停在高速上,人類能輕而易舉識別他們,但是目前的L2系統(tǒng)卻很難。
『去年一蔚來車主因開啟“自動駕駛”功能出事故』
人工智能不擅于應(yīng)對的那些5%的特殊情況,我們稱之為邊緣場景(corner case)。舉個例子,現(xiàn)階段的攝像頭能夠很容易識別到前方運動的汽車,但是如果一把椅子突然從前方車上掉下來,攝像頭就無能為力了。因為攝像頭沒遇到過這種情況,它不知道怎么應(yīng)對,只能直沖沖撞上去。
類似的場景還有很多,比如面對空中飛來的一個大氣球,自動駕駛是一個急剎還是直接開過去?我們的自動駕駛系統(tǒng)能夠識別站立的人,那如果遇到橫躺馬路上的人,又是否能夠識別?
這種邊緣場景實在太多了,現(xiàn)實路況的多樣性和復(fù)雜性,讓現(xiàn)在的自動駕駛輔助系統(tǒng)屢出事故。而對于我們普通消費者來說,要對技術(shù)的發(fā)展保持清醒的認知,因為目前的量產(chǎn)自動駕駛技術(shù)還遠沒有能夠達到讓人開車走神的地步,最靠譜的司機依然是掌握方向盤的人類。
好評理由:
差評理由: