2023智能汽車行業(yè)專題研究:大模型應(yīng)用下自動駕駛賽道將有哪些變化_第1頁
2023智能汽車行業(yè)專題研究:大模型應(yīng)用下自動駕駛賽道將有哪些變化_第2頁
2023智能汽車行業(yè)專題研究:大模型應(yīng)用下自動駕駛賽道將有哪些變化_第3頁
2023智能汽車行業(yè)專題研究:大模型應(yīng)用下自動駕駛賽道將有哪些變化_第4頁
2023智能汽車行業(yè)專題研究:大模型應(yīng)用下自動駕駛賽道將有哪些變化_第5頁
已閱讀5頁,還剩24頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

大模型應(yīng)用下自動駕駛賽道將有哪些變化?目錄進展與趨勢特斯拉開啟自動駕駛3.0大模型時代BEV+Transformer提高智能駕駛感知能力和泛化能力占用網(wǎng)絡(luò)模型有望成為下一代自動駕駛算法進步方向BEV+Transformer已成自動駕駛算法主流趨勢如何應(yīng)用?有何趨勢大模型目前主要用于感知和預(yù)測環(huán)節(jié),逐漸向決策層滲透大模型可提升智能駕駛性能,有望加快L3及以上自動駕駛落地NOA快速落地

成為智能化新指標新變化?新需求?云端算力是否需要智算中心?智算中心成為下一階段競爭重點需要多少?預(yù)計2025年總算力需求達14-46EFLOPS如何建智算中心?合作/采購模式為主,自建傾向較高車端算力如何變化?感知數(shù)量質(zhì)量和場景復(fù)雜度驅(qū)動算力升級需要多少?算力需求翻倍達800TOPS感知端車載攝像頭數(shù)量質(zhì)量齊升無圖方案頻出,逐步降低對高精地圖依賴激光雷達仍作為重要傳感器,長期需求或?qū)⒁婍斚?D成像毫米波雷達升級,或?qū)⑻娲途€激光雷達執(zhí)行端有望加快線控底盤環(huán)節(jié)國產(chǎn)化進程商業(yè)模式訂閱模式或成主流4

風險提示研究背景及目的Open

AI推出Chat

GPT,人工智能迎來新時代,大模型成為角逐重點掀起百模大戰(zhàn),行業(yè)賦能加速。自動駕駛是大模型行業(yè)應(yīng)用的重點領(lǐng)域之一,本報告嘗試解答下列問題:進展與趨勢應(yīng)用與效果未來展望變化與影響大模型應(yīng)用進展與趨勢主機廠與供應(yīng)商大模型應(yīng)用進展與規(guī)劃如何?大模型是否將成主流?1423大模型如何應(yīng)用及其應(yīng)用效果如何大模型主要用途/效果?是否會帶來新的駕駛功能/駕駛場景?未來展望大模型應(yīng)用下L3及以上自動駕駛何時到來?影響因素是什么?大模型對產(chǎn)業(yè)鏈影響幾何產(chǎn)業(yè)鏈會有哪些新影響和新需求?誰將收益/誰或?qū)⑹苡绊??進展與趨勢11.1

特斯拉開啟自動駕駛3.0大模型時代?特斯拉率先引入大模型,

開啟自動駕駛3.0時代。2015

年,

特斯拉開始布局自研自動駕駛軟硬件,2016-2019年陸續(xù)實現(xiàn)算法和芯片自研。2020年特斯拉重構(gòu)自動駕駛算法,引入BEV+

Transformer取代傳統(tǒng)的2D+CNN算法,并采用特征級融合取代后融合,自動標注取代人工標注。2022年算法中引入時序網(wǎng)絡(luò),

并將BEV

升級為占用網(wǎng)絡(luò)(OccupancyNetwork)。2023年8月,端到端AI自動駕駛系統(tǒng)FSDBeta

V12首次公開亮相,完全依靠車載攝像頭和神經(jīng)網(wǎng)絡(luò)來識別道路和交通情況,并做出相應(yīng)的決策。?

FSD入華進程漸近,有望加速智能化進程。目前FSDBeta版本尚未在國內(nèi)開放,根據(jù)36氪消息,特斯拉已在中國建立數(shù)據(jù)中心,并布局組建國內(nèi)運營團隊和數(shù)據(jù)標注團隊。由于中國道路的復(fù)雜性,特斯拉FSD方案入華仍要進行大量中國里程的實車驗證,采集對應(yīng)場景的數(shù)據(jù),優(yōu)化訓(xùn)練出針對中國場景的神經(jīng)網(wǎng)絡(luò)模型,提煉針對性策略。我們認為,F(xiàn)SD或?qū)⒃?024年進入中國,經(jīng)過對中國道路的訓(xùn)練后,2025年大規(guī)模上車。預(yù)計FSD入華后,有望整體加速中國電動汽車的智能化進程。2016以前軟硬件均有Mobileye提供硬件:HW

1.0軟件:Autopilot

1.0算法:2D+CNN2016-2017牽手英偉達,算法實現(xiàn)自研? 硬件:HW2.0-HW

2.5軟件:Autopilot

2.0算法:2D+CNN2018-2019采用自研芯片F(xiàn)SD,算法升級HyraNet神經(jīng)網(wǎng)絡(luò)架構(gòu)+特征提取網(wǎng)絡(luò)

BiFPN。硬件:HW

3.0軟件:Autopilot

3.0算法:2D+CNN(HydraNet+BiFPN)2020引入BEV+Transformer,特征級融合取代后融合,自動標注取代人工標注,布局Dojo開發(fā)硬件:HW

3.0軟件:FSD

Beta算法:BEV+Transformer2021-2022引入時序網(wǎng)絡(luò),BEV

升級為占用網(wǎng)絡(luò)(Occupancy

Network)硬件:HW

3.0軟件:FSDBeta

V9-10算法:Occupancy+Transformer2023——使用端到端技術(shù)硬件:HW

4.0軟件:FSD

V12算法:Occupancy

+Transformer特斯拉智能駕駛迭代歷程1.2BEV+Transformer

提高智能駕駛感知能力和泛化能力BEV/Transformer

分別是什么?

BEV

全稱是Bird’s

Eye

View(鳥瞰視角),是將三維環(huán)境信息投影到二維平面的一種方法,以俯視視角來展示環(huán)境當中的物體和地形。Transformer大模型本質(zhì)上是基于自注意力機制的深度學(xué)習模型,與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)RNN和CNN不同,Transformer不會按照串行順序來處理數(shù)據(jù),而是通過注意力機制,挖掘序列中不同元素的聯(lián)系及相關(guān)性,使得Transformer可以適應(yīng)不同長度和不同結(jié)構(gòu)的輸入,從而提高模型在處理序列數(shù)據(jù)上的能力。與傳統(tǒng)小模型相比,BEV+Transformer

的優(yōu)勢主要在于提升智能駕駛的感知能力和泛化能力,有助于緩解智能駕駛的長尾問題:1)提高感知能力:BEV統(tǒng)一視角,將激光雷達、雷達和相機等多模態(tài)數(shù)據(jù)融合至同一平面上,可以提供全局視角并消除數(shù)據(jù)之間的遮擋和重疊問題,提高物體檢測

和跟

蹤的精

;

2

提高泛化

力:Transformer模型通過自注意力機制,可實現(xiàn)全局理解的特征提取,有利于尋找事物本身的內(nèi)在關(guān)系,使智能駕駛學(xué)會總結(jié)歸納而不是機械式學(xué)BEV+Transformer技術(shù)路線BEV+Transformer技術(shù)路線的優(yōu)勢(VS

傳統(tǒng)小模型)傳統(tǒng)小模型BEV+Transformer單視角攝像頭來進行單模塊感知(即后融合),在視野和信息的獲取方面存在著很大的局限性傳統(tǒng)的小模型,如CNN、RNN等,參數(shù)小、泛化性差,并不能支撐高等級自動駕駛的海量數(shù)據(jù)處理需求BEV將多個傳感器圖像融合至同一平面(即中融合),提供全局視角,可以更全面的了解周圍環(huán)境利用Transformer自注意力機制可實現(xiàn)全局理解的特征提取,增強模型穩(wěn)定性和泛化能力1.3

占用網(wǎng)絡(luò)模型有望成為下一代自動駕駛算法進步方向特斯拉在2022年AIDay上發(fā)布Occupancy

Networks(占用網(wǎng)絡(luò)),將BEV網(wǎng)絡(luò)在高度方向進行了進一步的擴展,從而實現(xiàn)了BEV從2D到3D的優(yōu)化,可實時預(yù)測被遮擋物體的狀態(tài),解決了目標檢測的長尾問題,即使某些物體不存在于訓(xùn)練集中,但是因為算法本身進行的是空間占用的檢測,不進行目標檢測,因此從根本上避免了這個問題。華為ADS

2.0進一步升級GOD網(wǎng)絡(luò),道路拓撲推理網(wǎng)絡(luò)進一步增強,類似于特斯拉的占用網(wǎng)絡(luò)。GOD

2.0

(通用障礙物檢測網(wǎng)絡(luò),General

Obstacle

Detection)

障礙物識別無上限,障礙物識別率達到99.9%;RCR2.0能識別更多路,感知面積達到2.5個足球場,道路拓撲實時Th成。2023年12月,搭載ADS

2.0的問界新M7可實現(xiàn)全國無高精地圖的高階智能駕駛。占用網(wǎng)絡(luò)模型以占用的方式重建了3D場景,可用于通用障礙物檢測,精準實現(xiàn)空間中物體的占位情況、語義識別、運動情況等,在表征上更具優(yōu)勢,有望成為下一代自動駕駛算法進步方向。Occupancy

Network

效果 華為GOD

2.01.4

BEV+Transformer已成自動駕駛算法主流趨勢?

目前包括比亞迪、蔚小理、智己等車企,以及華為、百度

Apollo、毫末智行、地平線、輕舟智航、覺非科技、商湯科技等自動駕駛企業(yè)均已布局

BEV+Transformer。據(jù)下表,大模型應(yīng)用已成自動駕駛賽道主流趨勢,其中新勢力及自動駕駛供應(yīng)商布局領(lǐng)先,大模型應(yīng)用已成自動駕駛的主流趨勢。國內(nèi)自動駕駛廠商智能駕駛大模型布局梳理(不完全統(tǒng)計)廠商類型進展BEVTransformerOccupancyNetwork小鵬OEM2021年下半年起,小鵬開始搭建基于Transformer大模型的BEV視覺感知系統(tǒng)

Xnet,可實現(xiàn)無高精地圖城市NOA。??理想OEM采用具有Transformer+BEV算法架構(gòu),以及占用網(wǎng)絡(luò),搭配紅綠燈識別TIN網(wǎng)絡(luò)和城市復(fù)雜路口識別NPN特征網(wǎng)絡(luò),能實現(xiàn)無高精地圖的城市NOA??蔚來OEM2021年開始搭建BEV+Transformer的技術(shù)架構(gòu),將于2023年6

月下向用戶推送??比亞迪OEM感知模型的開發(fā)已經(jīng)實現(xiàn)100%數(shù)擺驅(qū)動,并研發(fā)了擁有多相機的BEV模型,

計劃年內(nèi)做到量產(chǎn);決策規(guī)劃大模型將采用Transformer

架構(gòu)??智己OEM2021年布局Transformer橫型和時序BEV,2023年發(fā)布Transfrmer架構(gòu)的

D.L.P.人工智能橫型???華為Tier

1ADS

1.0

已實現(xiàn)基于Transformer

BEV

架構(gòu);ADS

2.0

在合

BEV

感知能力基礎(chǔ)上使用GOD

網(wǎng)絡(luò)???(GOD網(wǎng)絡(luò))毫末智行Tier

1在MANA

感知架構(gòu)中,采用BEV融合融(視覺+Llidar)技術(shù),利用自研的Transformer算法,實現(xiàn)對視信息的BEV轉(zhuǎn)化??小馬智行Tier

1自研BEV感知算法,僅用導(dǎo)航地圖實現(xiàn)高速與城市NOA功能?地平線Tier

1基于BEV+Transformer的算法,已經(jīng)在征程5上閉環(huán)驗證,純視覺BEV

動靜態(tài)環(huán)境感知等即將量產(chǎn)??輕舟智航Tier

1時序多模態(tài)待征融合的大模型OmniNet能夠在線建圖,以一個神經(jīng)網(wǎng)絡(luò)即可實現(xiàn)視覺、激光雷達、毫米波雷達在BEV空問和圖像空問上輸出多任務(wù)結(jié)果,達到高精地圖的精度。??商湯Tier

1布局BEV+transformer

大模型的算法??百度ApolloTier

12022年,Apollo團隊推出了第二代純視覺感知系統(tǒng)Lite++,Transformer把前視特征轉(zhuǎn)到BEV

直接輸出三維感知結(jié)果;2023年1月,推出車路一體的端到端感知解決方案

UniBEV,更易實現(xiàn)多模、多視角、多時間上的時空特征融合。??智駕科技Tier

1MAXIPILOT

2.0-Pro

與MAXIPILOT

3.0-Max

均使用

BEV+Transformer

算法??覺非科技Tier

1發(fā)布面向城市NOA記億通勒/泊車的“基于BEV的數(shù)據(jù)團環(huán)融合智能駕駛解決方案”其中BEV+Transformer的算法訓(xùn)練數(shù)據(jù)由地圖數(shù)據(jù)庫通過自研數(shù)據(jù)中心選代Th成??紐勱科技Tier

1在感知層面可同時融合空間、時間信息,多傳感器、多任務(wù)之間高效協(xié)同。行泊一體方案MaxDrive使用BEV+Transformer技術(shù)架構(gòu)??MomentaTier

1已經(jīng)量產(chǎn)BEV+Transformer,目前在研發(fā)下一代的技術(shù)方案DD4D(DataDriven4D

Model)??如何應(yīng)用?有何效果?22.1

車端賦能主要作用于感知和預(yù)測環(huán)節(jié),逐漸向決策層滲透車道線檢測3D目標檢測障礙物檢測紅路燈檢測感知車輛行為預(yù)測行人行為預(yù)測預(yù)測全局路徑規(guī)劃行為決策運動規(guī)劃規(guī)劃決策車道保持車輛跟隨車道變換制動避障控制利 用Transformer模型對

BEV

數(shù)據(jù)進行特征提取,

實現(xiàn)障礙物的檢測和定位基于感知模塊的輸出,

使用Transformer模型預(yù)測其他交通參與者的未來行為和軌跡根據(jù)預(yù)測結(jié)果,結(jié)合交通規(guī)則和車輛狀態(tài),有效平衡不同信息源之間的權(quán)重Th成合適的駕駛策略。大模型在自動駕駛中的應(yīng)用簡單來說,就是把整車采集到的數(shù)據(jù)回傳到云端,通過云端部署的大模型,對數(shù)據(jù)進行相近的訓(xùn)練。大模型主要作用于自動駕駛的感知和預(yù)測環(huán)節(jié)。在感知層,可以利用Transformer模型對BEV數(shù)據(jù)進行特征提取,實現(xiàn)對障礙物的監(jiān)測和定位;預(yù)測層基于感知模塊的輸出,利用Transformer模型捕捉學(xué)習交通參與者的運動模式和歷史軌跡數(shù)據(jù),預(yù)測他們未來行為和軌跡。未來將驅(qū)動駕駛策略Th成逐漸從規(guī)則驅(qū)動向數(shù)據(jù)驅(qū)動轉(zhuǎn)變。規(guī)劃決策層的駕駛策略的Th成有兩種方式:1)基于數(shù)據(jù)驅(qū)動的深度學(xué)習算法;2)基于規(guī)則驅(qū)動(出于安全考慮,目前普遍采取基于規(guī)則Th成駕駛策略,但隨著自動駕駛等級的提升及應(yīng)用場景的不斷拓展,基于規(guī)則的規(guī)控算法存在較多Corner

Case處理局限性)。結(jié)合車輛動力學(xué),可利用Transformer模型Th成合適的駕駛策略:將動態(tài)環(huán)境、路況信息、車輛狀態(tài)等數(shù)據(jù)整合到模型中,Transformer多頭注意力機制有效平衡不同信息源之間的權(quán)重,以便快速在復(fù)雜環(huán)境中做出合理決策。大模型在自動駕駛中的應(yīng)用 端到端自動駕駛

VS.

模塊化自動駕駛端到端自動駕駛2.2

云端應(yīng)用部署,有望加快L3及以上自動駕駛落地大模型云端應(yīng)用加速L3及以上自動駕駛落地。主要在于:1)采用大模型預(yù)訓(xùn)練的方式可以實現(xiàn)自動標注,提高數(shù)據(jù)標注的精度和效率,同時縮減成本;2)對長尾數(shù)據(jù)進行挖掘,大模型具有較強的泛化性,加速解決長尾問題;3)場景仿真和數(shù)據(jù)Th成,模擬真實道路場景和高危險性場景數(shù)據(jù),

加速模型優(yōu)化。大模型目前仍處于發(fā)展初期階段,預(yù)計未來應(yīng)用比例快速增長。大模型在智能汽車中的應(yīng)用仍存在多模態(tài)數(shù)據(jù)融合、云端算力需求大、車端部署、以及安全性和一致性等問題。我們認為大模型應(yīng)用仍處于初期階段,隨著模型的優(yōu)化和技術(shù)的應(yīng)用,大模型在自動駕駛中的應(yīng)用比例或?qū)⒖焖偬嵘?。大模型云端?yīng)用自動標注商湯大模型自動標注精度可以達到98%以上,標注周期和標注成本都可以縮減數(shù)十倍以上。數(shù)據(jù)挖掘區(qū)別于傳統(tǒng)基于標簽的方式來挖掘長尾場景,

大模型從大量數(shù)據(jù)中提取特征進行數(shù)據(jù)挖掘。場景仿真毫末采用NeRF

技術(shù)進行自動駕駛場景的重建,

研發(fā)過程覆蓋率超過70%,研發(fā)效能較兩年前提升8倍。大模型在智能汽車應(yīng)用的挑戰(zhàn)多模態(tài)數(shù)據(jù)自然語言:HMI

可復(fù)用大模型圖像、音頻等自然語言數(shù)據(jù)傳感器:車載多類傳感器數(shù)據(jù):如Camera、Lidar、Radar、GNSS、IMU等場景:場景數(shù)據(jù):如道路拓撲、交通標志標線、交通流、行為模型等訓(xùn)練算力:大模型大于10億量級GPU

hours(小模型僅10-100萬量級)部署算力:大模型推理有高算力需求內(nèi)存:大模型推理激發(fā)存儲需求時延:大模型推理時延遠高于智能駕駛i汽車要求其他安全:汽車的高功能安全、網(wǎng)絡(luò)安全要求,現(xiàn)有大橫型能力難以達到一致性:車輛行為一致性要求高

(現(xiàn)有大模型Th成內(nèi)容不穩(wěn)定)品牌小鵬阿維塔問界極狐車型G6/G9/P7i

Max版本阿維塔11問界M5/新M7

智駕版阿爾法S

HI版本高速NOA√√√√城市NOA√選配選配選配價格22.99-41.99萬元30.00-39.00萬元27.98-32.98萬元32.98萬元芯片OrinX*

2華為MDC810華為MDC610華為MDC810算力508TOPS400TOPS544TOPS400TOPS傳感器方案12V5R2L12U(G6/P7i)11V5R2L12U(G9)13V6R3L12U11V3R1L12U13V6R3L12U是否需要高精地圖是(2024款G9實時Th成高精地圖)是是是付費模式標配高速NOA標配,城市NOA選配,按月訂閱640元,按年訂閱6400元,一次性購買32,000元高速NOA標配,城市NOA選配,按月訂閱720元,按年訂閱7200元,一次性購買36,000元高速NOA標配,城市NOA選配,按月訂閱720元,按年訂閱7200元,一次性購買36,000元無圖方案落地時間2023年下半年2023年年底2023年年底2023年年底落地進展及規(guī)劃城市NOA開通5城(廣州/深圳/上海/北京/佛山),預(yù)計2023年落地50城;2024年落地200城城市NOA開通5城(上海/深圳/廣州/重慶/杭州),預(yù)計2023年三季度15城,四季度45城2023年年底無圖版本落地全國城市NOA開通6城(深圳、上海、廣州、北京、重慶、杭州),預(yù)計2023年無圖版本Q3落地15城,Q4落地 城2.3NOA快速落地

成為智能化新指標?

大模型催化下,城市NOA快速落地,開啟百城落地規(guī)劃。小鵬及華為合作品牌車企(阿維塔、問界、極狐)走在前列,目前大多仍需依賴高精地圖,無圖方案或?qū)⒃?023年底落地。泰伯研究院預(yù)測到2025年,搭載NOA的車型將有望超過400萬輛,滲透率將有望從2023年的12%增加到32%。2025年高階智能駕駛(NOA)市場規(guī)模有望達到520億元,2023-2025年平均年增長率預(yù)計為105%。主機廠/供應(yīng)商城市NOA落地進展(截至2023年9月19日)注:√表示標配,V/R/L/U分別代表攝像頭/毫米波雷達/激光雷達/超聲波雷達2.3NOA快速落地

成為智能化新指標品牌蔚來理想理想上汽智己騰勢車型全系列車型L7/L8Air&Pro,L9

ProL7/L8/L9

MaxL7/LS7騰勢N7高速NOA選配√√選配選配城市NOA選配未開通√未開通選配價格42.80-59.80萬元31.98-35.98萬元37.98-45.98萬元28.98-45.98萬元30.18-34.98萬元芯片OrinX*

4地平線J5OrinX*

2Orin

XOrin

X算力1016TOPS128TOPS508TOPS254TOPS254TOPS傳感器方案11V5R1L12U10V1R12U11V1R1L12U11V5R2L12U13V5R2L12U是否需要高精地圖是是是是未知付費模式高速NOA和城市NOA選配,NAD按月訂閱680元,NOP+按月訂閱380元標配標配高速NOA選配,選裝包36800元選配,選裝包28000元無圖方案落地時間2023年年底2023年9月公測落地進展及規(guī)劃NOP+覆蓋全國95

的高速城快道路2023年底開通100城(無圖)高速NOA:2023年12月輻射全國333城;城市NOA:2023年4月開始內(nèi)測,2023年10月開始公測;通勤NOA:2024年通勤模式,百城齊開,2025年將邁入Door

to

Door時代全場景通勤高速NOA預(yù)計2023年底開通;城市NOA預(yù)計2024Q1開通注:√表示標配,V/R/L/U分別代表攝像頭/毫米波雷達/激光雷達/超聲波雷達2.3NOA快速落地

成為智能化新指標品牌極氪長城魏牌長城魏牌嵐圖極越車型極氪001新摩卡DHT

PHEV藍山DHT

PHEV新嵐圖FREE極越01高速NOA選配選配√選配未開通城市NOA未開通未開通未開通未開通未開通價格26.90萬起23.18萬元30.88萬元26.69萬起步25.99萬元起芯片MobileyeQ5H*

2--ApolloHighwayDrivingPro智能駕駛系統(tǒng)Apollo

3.0版高階智駕OrinX*

2算力48TOPS--16/32TOPS508TOPS傳感器方案15V1R13U5V5R12U9V5R12U13V5R12U13V5R2L12U是否需要高精地圖是是是是輕量級高精地圖付費模式高速NOA選配高速NOA選配,選裝包17000元標配高速NOA選配,選裝包25000元-無圖方案落地時間----落地進展及規(guī)劃高速NOA

9月正式推送,首開上海杭州兩城,預(yù)計2023年底開通15城,啟動20城內(nèi)測城市NOA預(yù)計2024Q1量產(chǎn)落地,2024年落地100城領(lǐng)航輔助智駕功能已經(jīng)覆蓋全國347個城市高速NOA和城市NOA預(yù)計10月底正式落地注:√表示標配,V/R/L/U分別代表攝像頭/毫米波雷達/激光雷達/超聲波雷達新變化

新需求33.1云端算力|

是否需要智算中心?智算中心成為下一階段競爭重點?

自動駕駛系統(tǒng)的開發(fā)、驗證、迭代需要算力支持。自動駕駛系統(tǒng)前期開發(fā)依賴大量環(huán)境數(shù)據(jù)的輸入,形成貫穿感知、決策、規(guī)劃、控制多環(huán)節(jié)的算法。后期仍需持續(xù)輸入數(shù)據(jù),對算法進行訓(xùn)練與驗證,加速自動駕駛迭代落地。同時仿真測試中場景搭建與渲染也需要高算力支持。?

智算中心承載著訓(xùn)練自動駕駛系統(tǒng)所需的巨大算力。為支撐人工智能計算提供了重要的硬件基礎(chǔ)設(shè)施,其底層硬件技術(shù)路徑包括GPU、ASIC、FPGA、NPU。根據(jù)IDC調(diào)研,汽車行業(yè)訓(xùn)練自動駕駛算法的硬件基礎(chǔ)設(shè)施以GPU為主,

占比61.4%。?

頭部自動駕駛廠商已布局智算中心。特斯拉、吉利、

小鵬、毫末智行等主要自動駕駛廠商采用不同模式建設(shè)云端計算中心用于模型訓(xùn)練。我們認為,智算中心已成為下一階段競爭重點,能夠幫助車企構(gòu)建包括數(shù)據(jù)采集、數(shù)據(jù)處理、數(shù)據(jù)標注、模型訓(xùn)練、測試驗證的數(shù)據(jù)閉環(huán),

從而提升Corner

Case數(shù)據(jù)采集效率、提高模型的泛化能力以及驅(qū)動算法的迭代。特斯拉吉利小鵬毫末理想公司類型主機廠主機廠主機廠自動駕駛廠商主機廠算力中心名稱1萬塊英偉達H100組成的訓(xùn)練集群+Dojo星睿扶搖雪湖·綠洲(定址山西)上線時間2023年8月2023年1月2022年8月2023年1月2023Q3合作廠商自建阿里云阿里云火山引擎火山引擎算力峰值訓(xùn)練集群:340

PFLOPS(FP64)Dojo:預(yù)計24年10月100

EFLOPS810

PFLOS預(yù)計25年:1.2

EFLOPS600PFLOPS670

PFLOPS750

PFLOPS(FP16)投資金額訓(xùn)練集群:3億美元Dojo:10億美元10億元---主機廠/自動駕駛廠商智算中心建設(shè)情況梳理3.1云端算力|需要多少?預(yù)計到2025年將達到14-46

EFLOPS?

預(yù)計到2025年,智算中心算力需求將達到14-43

EFLOPS。我們采用兩種測算方法:1)以吉利為基礎(chǔ),從單車算力需求角度進行測算。星睿智算中心算力預(yù)計2025年達到1200PFLOPS,可支持350萬輛在線車輛并行計算,我們預(yù)測到2025年總算力需求為14EFLOPS;2)以小鵬為基礎(chǔ),從數(shù)據(jù)量角度測算需求。假設(shè)小鵬扶搖算力可支撐未來2年每輛車每天10TB數(shù)據(jù)量的訓(xùn)練算力,2023E/2024E/2025E

中國乘用車銷量分別為2380/2428/2485萬輛,2023E/2024E/2025E中國L2及以上級別智能駕駛滲透率為50%/70%/80%,我們預(yù)測到2025年算力需求達到46EFLOPS。算力需求與車企高階智能駕駛滲透率相關(guān),我們預(yù)計到2025年,算力需求區(qū)間或為14-46EFLOPS,按英偉達A1001萬美元/張價格核算,自動駕駛智算中心僅算力市場規(guī)?;?qū)⑦_到4-15億美元,國2023E2024E2025E小鵬交付量(萬輛)162128L2及以上智能駕駛滲透率95100100數(shù)據(jù)量/年(EB)5227219612023-2025總數(shù)據(jù)量(EB)3,969中國乘用車銷量(萬輛)2,3802,4282,485L2及以上智能駕駛滲透率507080數(shù)據(jù)量/年(EB)40,85558,35168,2532023-2025總數(shù)據(jù)量(EB)307,521年算力需求為假設(shè)1.

扶搖算力可支持未來2年需求假設(shè)2.

平均每輛車每天產(chǎn)Th10TB數(shù)據(jù)量假設(shè)3.

小鵬2023/2024/2025年銷量分別達到16/21/28萬假設(shè)4.

中國2023/2024/2025年乘用車銷量分別為2380/2428/2485萬輛,L2及以上智能駕駛滲透率達到50%/70%/80%產(chǎn)算力產(chǎn)業(yè)鏈值得關(guān)注。智算中心算力需求預(yù)測-以吉利為基礎(chǔ) 智算中心算力需求預(yù)測-以小鵬為基礎(chǔ)2025E吉利算力(PFLOPS)1200并行計算數(shù)(萬輛)350L2及以上智能駕駛滲透率50每萬輛算力(PFLOPS/萬輛)7中國乘用車銷量2485L2及以上智能駕駛滲透率80總算力需求14

EFLOPS假設(shè)1.

中國2025年乘用車銷量為2485萬輛假設(shè)2.

2025年我國L2及以上智能駕駛滲透率達到803.1云端算力|

如何建智算中心?合作/采購模式為主,自建傾向較高優(yōu)勢:降低研發(fā)費用,可加快產(chǎn)品研發(fā)落地速度掌握智駕核心,利用合作伙伴能力反哺自身劣勢:難以找到合作的合作伙伴缺乏全棧能力,依賴合作伙伴能力優(yōu)勢:可快速落地,掌握先機直接搭建完整解決方案,無需承擔技術(shù)風險劣勢:需要持續(xù)性投資,可能造成邊際成本不斷上漲數(shù)據(jù)安全和數(shù)據(jù)隱私問題優(yōu)勢:規(guī)模擴大時邊際成本可收斂,長期成本優(yōu)勢可多場景復(fù)用數(shù)據(jù)安全可靠性高全棧能力,差異化服務(wù)構(gòu)建競爭有優(yōu)勢劣勢:初始投資過高,面臨資金壓力(超過1億元)項目時間周期過長(3-4個月)數(shù)據(jù)是否需要大算力支持?需求是否能承擔高昂初始投資成本?成本是否具備自動駕駛算法自研能力和智算中心建設(shè)能力?能力1.

自研自建2.

合作建設(shè)3.

采購/租用智算中心建設(shè)需要綜合考慮需求、成本、能力三大因素。需求上數(shù)據(jù)是否起量是否需要大算力支持;成本上能否承擔高昂的初始投資成本;能力上是否具備自動駕駛算法自研能力和智算中心建設(shè)運營能力。呈現(xiàn)自建、合作、采購/租用三種建設(shè)模式。1)自研自建為主:需求成本能力均滿足,自研算法、自建算力中心及應(yīng)用,僅采購部分外部云服務(wù),如特斯拉;2)合作模式:采取核心算法自研,由阿里、百度、騰訊、火山引擎等提供計算中心搭建與運營過程,適用于有算法自研能力,成本有限且智算中心搭建能力有限的廠商;3)采購/租用:外采包括算法、計算資源、應(yīng)用服務(wù)在內(nèi)的全棧解決方案。合作/采購模式為主,自建傾向較高。我們認為,由于初始成本較高,國內(nèi)主流自動駕駛廠商大多采取合作模式/采購模式,但從長期成本優(yōu)勢來看或仍具備較高的自建傾向。我們認為中短期內(nèi),算力供應(yīng)商將存在較大機會,長期自建趨勢下Th存空間或?qū)⒈粔嚎s,但對其服務(wù)和運營能力仍將具有長久需求。智算中心建設(shè)模式及其考慮因素智算中心建設(shè)模式3.2車端算力|

如何變化?感知數(shù)量質(zhì)量和場景復(fù)雜度驅(qū)動算力升級感知硬件的數(shù)量和性能不斷提升,邊緣計算需求增加。自動駕駛級別越高,傳感器配置數(shù)量越多,運行產(chǎn)Th的數(shù)據(jù)隨之大量增加。據(jù)新戰(zhàn)略低速無人駕駛產(chǎn)業(yè)研究所數(shù)據(jù),1個200W像素的高清攝像頭24小時錄像需占用40~60GB的存儲容量;1個單線激光雷達每小時可產(chǎn)Th3~4GB點云數(shù)據(jù);另外,GPS定位系統(tǒng)、車輛位姿等均有數(shù)據(jù)積累。當一輛自動駕駛車輛每天可以產(chǎn)Th數(shù)TB,甚至數(shù)十TB數(shù)據(jù),數(shù)據(jù)處理能力即為自動駕駛技術(shù)驗證的關(guān)鍵點之一。若過度依賴云端數(shù)據(jù)處理分析和指令回傳,就會出現(xiàn)各種數(shù)據(jù)都往云端傳輸,云平臺數(shù)據(jù)過多,處理效率降低,時延增大,將極大影響自動駕駛車輛的使用體驗。邊緣計算能預(yù)處理數(shù)據(jù),過濾掉無用數(shù)據(jù)再上傳到云端。大模型催化駕駛場景復(fù)雜多樣,提升算力需求。大模型催化下,NOA不斷從高速道路向城市道路拓展(高速道路-城市快速路-城市主干道-城市次干道-城市支路)。與城市道路相比,高速道路可能的場景和物體相對固定,而城市道路不僅是最主要出行場景(每天僅25%的人出行途徑高速,而城市道路則是100%),而且環(huán)境復(fù)雜度更高,同時提升物體識別、感知融合和系統(tǒng)決策算力需求。特斯拉VS

小鵬智能駕駛感知硬件與算力 高速和城市行車場景對比特斯拉Model

Y小鵬G6

Max版本車外攝像頭8個120萬像素2個800萬像素+9個200萬像素超聲波雷達1212毫米波雷達15激光雷達02高精地圖無有算力144

TOPS508

TOPS車道保持定速巡航主動剎車自主上下匝道主動變道超車主動避障…自主識別交通標志自主進出環(huán)島自主識別車位泊車記憶泊車紅綠燈通行、掉頭、并線自主切換車道自主切換到路代客泊車…高速場景城市場景3.2車端算力|需要多少?算力需求翻倍,或?qū)⑦_到800TOPS廠商芯片內(nèi)容英偉達Thor(2000TOPS)支持8位浮點(FP8)的精度,首個采用推理Transformer引擎的NVIDIA自動駕駛汽車平臺。地平線征程5(128TOPS)構(gòu)建面向大參數(shù)的Transformer的統(tǒng)一的計算架構(gòu),在架構(gòu)上面優(yōu)化它的計算效率,降低功耗,打造芯片+工具鏈開放平臺。黑芝麻A1000(58TOPS)已將開發(fā)的BEV模型部署到華山二號A1000芯片上,同時還可部署在最新發(fā)布的武當系列C1200芯片上愛芯元智M55(8TOPS)M76(60TOPS)混合精度NPU通過豐富的算子和指令集優(yōu)化,支持BEV與Transformer布署車端算力需求翻倍,達800TOPS以上。上汽人工智能實驗室表示,實現(xiàn)L2級自動駕駛只需10Tops以下的算力,即便是實現(xiàn)L4級自動駕駛也只需100Tops左右的算力,只有到了真正無人駕駛的L5級,才需要1000+Tops的算力?,F(xiàn)實中主機廠具備城市NOA高階智能駕駛功能的車型,算力大多在200-500TOPS左右。沐曦首席產(chǎn)品官孫國梁指出,在車端部署大模型并能實現(xiàn)既定任務(wù),算力至少要達到300~500TOPS。我們認為,模型優(yōu)化或可降低算力要求,但考慮到未來場景復(fù)雜度的增加,數(shù)據(jù)量增加,以及視覺感知占比增加(相對基于規(guī)則),車端算力或?qū)⒎哆_800TOPS以上。大模型同時對芯片效能有更高要求。除了對算力有更高要求外,Transformer大模型對芯片效能有更高要求,主要體現(xiàn)在:1)CNN模型以卷積和矩陣乘等計算密集型算子為主(目前大多芯片是以CNN模型為出發(fā)點設(shè)計的),而Transformer是以訪存密集型算子為主的,對帶寬和存儲有較高要求;2)Transformer是浮點矢量矩陣乘法累加運算,而目前智能駕駛芯片基本均針對INT8的。智能駕駛芯片廠商正在加強芯片對Transformer的適配,如英偉達在新一代GPU中特別增加了Transformer引擎。智能駕駛算力需求持續(xù)增長 智能駕駛芯片廠商加強芯片對Transformer的適配3.3感知端|

車載攝像頭數(shù)量質(zhì)量齊升?

單車搭載的攝像頭數(shù)量將增加。Yole報告指出,L1~L2級自動駕駛功能僅需前后兩顆攝像頭,L2+級則需要引入ADAS前視感知攝像頭,加上4顆環(huán)視,共計需要5顆攝像頭。實際主機廠為后續(xù)OTA升級預(yù)留冗余,單車攝像頭配置遠超本級ADAS所需的攝像頭數(shù)量,如特斯拉Model

3搭載9顆高清攝像頭,蔚來、小鵬、理想車型攝像頭數(shù)量達到10-13顆。?

攝像頭像素要求升級。大模型提高對感知數(shù)據(jù)的精細化要求,高分辨率圖像數(shù)據(jù)可以作為深度學(xué)習模型中更新和優(yōu)化其架構(gòu)的參數(shù)的數(shù)據(jù)源,車載攝像頭向800萬像素或更高像素級別升級。尤其是前視攝像頭,前視需要解決的場景最多,目標識別任務(wù)最復(fù)雜,比如遠距離小目標識別,近距離目標切入識別,高級別自動駕駛車輛中都在規(guī)劃應(yīng)用800萬級別的高清像素攝像頭,用于對更遠距離的目標進行識別和監(jiān)測。目前具備800W像素攝像頭模組Th產(chǎn)能力的廠商還比較少,比如說舜宇、聯(lián)創(chuàng)電子等。百度Apollo

聯(lián)合索尼半導(dǎo)體方案公司、聯(lián)創(chuàng)電子(LCE)與黑芝麻智能,全球首創(chuàng)超1500萬高像素車載攝像頭模組。L1-L3自動駕駛等級所需車載攝像頭數(shù)量主機廠車型上市時間攝像頭搭載情況特斯拉Model

S20141顆前置攝像頭特斯拉Model

320169顆120萬像素的高清攝像頭小鵬P720209顆高感知攝像,4顆環(huán)視攝像頭蔚來ET720217顆800萬像素ADAS攝像頭、4顆300萬像素環(huán)視攝像頭吉利極氪001202115顆攝像頭,其中有7顆800萬像素攝像頭阿維塔科技阿維塔11202213顆高清攝像頭,包括9個ADAS攝像頭、4個環(huán)視攝像頭3.3感知端|

無圖方案頻出,逐步降低對高精地圖依賴為什么要去高精地圖?高精度地圖作為先驗信息,可以給自動駕駛提供大量的安全冗余,在數(shù)據(jù)和算法尚未成熟之前,主機廠依賴程度較高。脫圖原因主要在于:1)高精地圖存在更新周期漫長、成本高昂、圖商資格收緊等弊端,限制了高階自動駕駛大規(guī)模商業(yè)化的可能性。2)構(gòu)建數(shù)據(jù)閉環(huán),形成對算法模型的迭代升級反哺車端。如何實現(xiàn)去高精地圖?特斯拉引入車道線網(wǎng)絡(luò)及新的數(shù)據(jù)標注方法,將車道同時線標注為一系列點,每個點有自己明確的語義(如“起始、并線、分叉、結(jié)束”等),從而形成完整的車道線連通關(guān)系圖,幫助FSD補足對高精地圖的需求。國內(nèi)自動駕駛頭部公司去高精地圖后或采取車端實時建圖方案,通過安裝在車輛上的相機等傳感器來構(gòu)建車輛行駛過程中周圍的環(huán)境地圖。無圖方案頻出,逐步降低對高精地圖依賴。目前小鵬、華為等頭部主機廠發(fā)布無高精地圖的高階智能駕駛方案,并定下量產(chǎn)時間表,華為、毫末、元戎啟行等自動駕駛公司也加入其中,自動駕駛算法“重感知,輕地圖”趨勢明確。另一方面,百度、騰訊、四維等圖商近期也釋放輕地圖傾向,提供“精簡版”高精地圖,比如騰訊的HD

AIR,四維圖新的場景地圖。華為ADS2.0

去高精地圖方案主機廠/供應(yīng)商高精地圖替代方案主機廠時間替代高精地圖的方法小鵬2023年9月使用Xnet深度視覺感知神經(jīng)網(wǎng)絡(luò),實時Th成3D高精地圖理想2023年6月通過NPN特征和TIN網(wǎng)絡(luò),配合BEV大模型,能夠準確識別城市中的復(fù)雜路口和信號燈通行意圖,從而實現(xiàn)去高精地圖的能力華為2023年4月已實現(xiàn)基于Transformer的BEV架構(gòu),ADS

2.0進一步升級,基于道路拓撲推理網(wǎng)絡(luò)進一步增強,即使無高精地圖也能看懂路,紅綠燈等各種道路元素,使得無圖也能開。百度2023年8月Apollo將使用純視覺感知,同時輔以激光雷達,實現(xiàn)“純視覺+激光雷達”的感知冗余,以提供連貫的城市駕駛;Apollo

使用“輕量級高精地圖”方案,比行業(yè)通用的傳統(tǒng)高精地圖要“輕”近80%元戎啟行2023年3月發(fā)布不依賴高精地圖的新一代自動駕駛方案DeepRoute-Driver3.0小馬智行2023年4月通過感知模塊、預(yù)測模塊等所有模塊的提升不強依賴高精地圖3.3感知端|

激光雷達仍作為重要傳感器,長期需求或?qū)⒁婍敀呙瓒私邮斩诵畔⑻幚鞡EV技術(shù)能夠提供全局視角下的環(huán)境感知下,融合兩個信息源提供最大的安全保障。激光雷達在距離和空間信息方面具有精度優(yōu)勢,搭載激光雷達的多傳感器融合感知方案可通過互補達到全環(huán)境感知能力,可為高級別自動駕駛提供安全冗余。特斯拉在感知領(lǐng)域引入占用網(wǎng)絡(luò)模型,在不定義具體物體的情況下,去確定物體在三維空間中的位置及速度運動,來實現(xiàn)類似激光雷達的感知效果。我們認為國內(nèi)主機廠在機器視覺算法進步的過程中,預(yù)計仍將激光雷達作為重要的補充傳感器,由此可減少在視覺領(lǐng)域所需積累的數(shù)據(jù)量,但長期來看需求或?qū)⒁婍?,未來主機廠預(yù)計將逐漸降低對激光雷達的依賴。通過技術(shù)迭代和大規(guī)模量產(chǎn)實現(xiàn)降本。根據(jù)天風電子團隊報告《后智能手機時代光學(xué)看什么?光學(xué)標的未來誰能走出來?》,激光雷達掃描方式從機械式到半固態(tài)是降本第一步?;旌瞎虘B(tài)式比機械式成本低的主要原因在:1)發(fā)射&接收端:相比于機械式激光雷達,激光器收發(fā)模塊數(shù)量明顯減少;2)掃描端:機械式收發(fā)模塊動,系統(tǒng)復(fù)雜度高,電機成本高+調(diào)整測試難度大。激光器收發(fā)芯片集成化+MEMS

規(guī)?;慨a(chǎn)是降本第二步。激光雷達不同環(huán)節(jié)降本技術(shù)路徑 激光雷達規(guī)?;慨a(chǎn)可實現(xiàn)快速降本發(fā)射端 EEL→VSCEL→VSCEL陣列機械式→半固態(tài)→純固態(tài)PD/APD→SPAD/SPiMFPGA→SoC傳統(tǒng)毫米波雷達4D毫米波雷達核心區(qū)別縱向天線無有天線數(shù)少多通道數(shù)3發(fā)4收/2發(fā)4收為代表12發(fā)16收/48發(fā)48收等核心參數(shù)俯仰角度無優(yōu)于2度方位角分辨率5-8度<1度精度0.3度0.1度最遠探測距離≤200m≤300m,短/中/長三種模式點云有限返回信息數(shù)十倍的返回信息點、高密度點云功能優(yōu)化靜止識別識別難度大可適應(yīng)復(fù)雜路況橫向移動障礙物檢測識別難度大可適應(yīng)復(fù)雜路況相鄰人/物區(qū)分不可區(qū)分可區(qū)分高度識別高出物體喝地面車輛難以區(qū)分可在150m出區(qū)分地物和立交橋隱藏車輛探測幾率20%80%3.3感知端|

向4D成像毫米波雷達升級,或?qū)⑻娲途€激光雷達4D成像毫米波雷達或?qū)⑼耆娲?D毫米波雷達,有望對低線激光雷達形成替代。4D毫米波成像雷達相對于傳統(tǒng)毫米波雷達增加了俯仰角度的信息感知能力,可對縱向目標進行高分辨率地識別;“成像”則類似于激光雷達的點云成像效果。與傳統(tǒng)毫米波相比,4D成像雷達的射頻收發(fā)通道數(shù)量多出十倍以上,隨著俯仰角分辨率大大提高,能夠?qū)δ繕撕铜h(huán)境呈現(xiàn)出豐富的點云圖像以及距離、速度和角度信息,可以適應(yīng)更多復(fù)雜路況(如較小物體、遮擋物體以及靜止物體和橫向移動障礙物檢測等)。與激光雷達相比,部分指標近似達到16線激光雷達性能,但成本僅為激光雷達十分之一。我們認為

4D

毫米波雷達是較為經(jīng)濟、穩(wěn)定的車載傳感器,或?qū)⑼耆娲?D毫米波雷達,并替代低線激光雷達,與高線激光雷達形成互補,后續(xù)或?qū)⒅鸩綕B透放量。4D毫米波雷達在中高端車型及自動駕駛服務(wù)車型中快速滲透。特斯拉基于全新的自動駕駛硬件HW4.0,首次在S/X的車型上搭載了4D毫米波雷達。根據(jù)天風電子團隊報告《4D

毫米波雷達:平衡成本&性能的標配傳感器,自動駕駛再添新翼》,除Tesla外,價格在40萬元以下的理想車型和價格在70

萬以上的寶馬車型、以及通用收購的Cruise自動駕駛服務(wù)車均于近兩年完成了4D毫米波雷達布局

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論