● 全場景駕駛輔助駕駛或將在明年落地
根據(jù)小鵬汽車的發(fā)展路線圖,2023-2025年將會是智能駕駛系統(tǒng)競爭下半場的開局,全場景輔助駕駛將會成為商家們搶占的首個制高點。從2025年開始,技術將會向全面自動駕駛以及無人駕駛進發(fā)。
XNGP全場景駕駛輔助系統(tǒng)之所以功能強大,有三大原因,一是它建立在算力強大的英偉達Orin平臺之上;其次是小鵬經過一整年的努力,自動駕駛軟件得到進一步優(yōu)化;最后就是完成了全閉環(huán)、自成長的AI人工智能以及數(shù)據(jù)體系。
XNet相比起小鵬以前的多相機單幀的方式輸入模型,后期在進行數(shù)據(jù)融合的方案,具備更好的實時性、精確度,即靜態(tài)環(huán)視感知能力更優(yōu)。
有鑒于城市道路復雜多變的特點,道路特征變更頻率高(道路磨損或改道等),XNet采用了重感知輕地圖的策略。憑借英偉達Orin平臺的強大算力來拓展XNet的感知能力邊界,從而戰(zhàn)勝復雜多變城市道路帶來的挑戰(zhàn)。基于XNet的XNGP功能和XPILOT功能的一個明顯區(qū)別就是是否依賴于高精地圖數(shù)據(jù)。
在人工智能技術爆發(fā)的時代,一個卓有成效的網絡架構也就意味著巨量的數(shù)據(jù)數(shù)據(jù)以及龐大算力的消耗。
好在方法總比問題多,小鵬開發(fā)了全自動標注系統(tǒng),過去2000人年的標注量,現(xiàn)在可以在16.7天內完成,而且自動標注質量更高、信息更全、產能更大。
受益于扶搖超算中心600PFLOPS的算力加持,動態(tài)XNet的訓練時間由過去的276天縮減到現(xiàn)在的11小時,效率提升超過600倍。
XNet是基于Transformer神經網絡模型的,小鵬通過對Transformer算子進行完全重構、主干網絡優(yōu)化等措施,實現(xiàn)了算力利用率的大幅提升。具備這種優(yōu)化能力的公司,在業(yè)內并不多見,這一方面是得益于小鵬一直以來堅持的全棧自研策略,另一方面則是在英偉達Xavier平臺上開發(fā)駕駛輔助系統(tǒng)軟件的技術積累。Xaviver和Orin是英偉達推出的兩代智駕域控制器,它們本質上都是基于英偉達的CUDA計算架構。小鵬在Xavier平臺上的開發(fā)經驗,是其在Orin平臺上取得快速突破的重要原因之一。
這個體系中,黃金骨干模型的地位至關重要。黃金骨干模型的工作就是遇到邊角案例(corner case)時(如滿載廢品的三輪車等異形車輛),自動把數(shù)據(jù)上傳到云端,觸發(fā)數(shù)據(jù)的定向收集,利用收集到的數(shù)據(jù)訓練模型。黃金骨干模型的設立使得發(fā)布模型訓練和XNGP技術網絡的性能迭代優(yōu)化解耦,即遇到邊角案例時,只需要對基干網絡進行優(yōu)化即可,無需從頭開始訓練網絡,實現(xiàn)訓練效率的大幅提升。
小鵬在已經上路的10萬臺小鵬車型上部署了超過300個觸發(fā)器,可以根據(jù)需要獲得各種各樣邊角案例的樣本。而海量的樣本數(shù)據(jù),尤其是邊角案例樣本數(shù)據(jù)是一個優(yōu)秀XNet得以誕生的基礎。
這樣服務器就能夠收到大量三輪車類似物的圖像數(shù)據(jù)。數(shù)據(jù)經過標注后,在送入基干網絡進行學習便能夠提升網絡對這種載滿貨的三輪車的識別率。
據(jù)稱,XNGP功能每修改一行代碼都要經過5000萬公里的仿真行駛、5000+個核心模擬場景和17000+個專項模擬場景的考驗,確保系統(tǒng)的性能和功能安全性都處于標準之上。
2023年下半年,小鵬將在大部分無高精地圖城市開放變道、超車以及左/右轉能力。小鵬預計會在2024年內達成全場景導航輔助駕駛,實現(xiàn)從車位到車位的導航駕駛輔助。目前,小鵬旗下只有G9 Max版是采用英偉達Orin平臺智能駕駛域控制器,所以G9 Max版的車主會是首批體驗XNGP功能的人。
相比起XNGP功能,XPILOT依賴于高精地圖數(shù)據(jù),在沒有高精地圖的城市,XPILOT的使用體驗不及XNGP。脫離高精地圖依賴也是未來一段時間XNGP的核心競爭力所在。
如果這稱為現(xiàn)實,Robotaxi運營車和帶有XNGP的商品車在路上行駛時采集到的數(shù)據(jù)就能形成反哺閉環(huán)。帶有XNGP的商品車采集到的道路數(shù)據(jù)可以反哺Robotaxi運營車,Robotaxi運營車的自動駕駛能力亦能反哺帶有XNGP的商品車。
好評理由:
差評理由: