汽車智能化行業(yè)市場分析1_第1頁
汽車智能化行業(yè)市場分析1_第2頁
汽車智能化行業(yè)市場分析1_第3頁
汽車智能化行業(yè)市場分析1_第4頁
汽車智能化行業(yè)市場分析1_第5頁
已閱讀5頁,還剩21頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

汽車智能化行業(yè)市場分析一、AI技術(shù)提升汽車智能化汽車智能化主要體現(xiàn)在自動駕駛和智能座艙兩方面,AI技術(shù)的發(fā)展持續(xù)提升汽車的智能化能力,BEV、認(rèn)知、NLP語言等AI大模型技術(shù)有望助推汽車智能化登上新高度。2023年上半年,已有多家廠商基于BEV大模型的自動輔助導(dǎo)航駕駛NOA系統(tǒng)量產(chǎn);2023年6月發(fā)布的新摩卡DHT-PHEV將搭載認(rèn)知大模型;2023年內(nèi),2款搭載NLP語言大模型的新車型將要上市。1.1國標(biāo)促進(jìn)自動駕駛逐步落地,座艙智能化程度持續(xù)提升隨著人工智能技術(shù)的不斷進(jìn)步和成本的降低,自動駕駛技術(shù)有望不斷成熟和普及。國標(biāo)《汽車駕駛自動化分級》(GB/T40429-2021)于2022年3月正式實施。國標(biāo)參考美國SAE標(biāo)準(zhǔn)基礎(chǔ),0-5級基本對應(yīng)SAE標(biāo)準(zhǔn)L0-L5;值得注意的是,國標(biāo)將0-2級自動駕駛規(guī)定為如遇到事件影響由駕駛員及系統(tǒng)協(xié)作完成,并非SAE標(biāo)準(zhǔn)中的全部讓駕駛員來完成。根據(jù)工信部、中國工業(yè)經(jīng)濟(jì)聯(lián)合會、中國汽車工程學(xué)會等機(jī)構(gòu)數(shù)據(jù),2022年2級(L2級)輔助駕駛滲透率達(dá)34%,其中燃油車滲透率為32%,新能源汽車滲透率為46%。目前全球和中國汽車市場3+級(L3+級)高等級自動駕駛技術(shù)的滲透率仍處于極低水平。在中國汽車工程學(xué)會牽頭組織編制的《節(jié)能與新能源汽車技術(shù)路線圖2.0》中,明確提到到2025年,PA(部分自動駕駛)、CA(有條件自動駕駛)級智能網(wǎng)聯(lián)汽車市場份額超過50%,HA(高度自動駕駛)級智能網(wǎng)聯(lián)汽車實現(xiàn)限定區(qū)域和特定場景商業(yè)化應(yīng)用。到2030年,PA、CA級智能網(wǎng)聯(lián)汽車市場份額超過70%,HA級智能網(wǎng)聯(lián)汽車市場份額達(dá)到20%,并在高速公路廣泛應(yīng)用、在部分城市道路規(guī)模化應(yīng)用。相似的,中國工業(yè)經(jīng)濟(jì)聯(lián)合會會長李毅中預(yù)測,2030年L3自動駕駛滲透率將達(dá)70%。此外,汽車的智能化也體現(xiàn)在座艙的持續(xù)升級,已從傳統(tǒng)座艙的機(jī)械儀表盤、車載收音機(jī)等,發(fā)展到具有生物識別、駕駛員健康的智能助理座艙,并將實現(xiàn)使用場景豐富的信息、娛樂等多功能融合的第三生活空間。1.2AI是自動駕駛模塊化系統(tǒng)和端到端系統(tǒng)的關(guān)鍵AI是自動駕駛系統(tǒng)感知和決策模塊的關(guān)鍵。主流自動駕駛系統(tǒng)為模塊化系統(tǒng),可分為感知、決策和執(zhí)行三層,AI是其中感知層和決策層的核心內(nèi)容。感知層中,傳感器算法是關(guān)鍵,多傳感器融合算法可分為數(shù)據(jù)級融合、特征級融合和決策級融合三種,決策級融合是最廣應(yīng)用的技術(shù)方案。特斯拉的矢量地圖建模和自動車道標(biāo)注算法是其自動駕駛算法的重要內(nèi)容,為實現(xiàn)車道軌跡規(guī)劃提供支持。決策規(guī)劃算法可進(jìn)一步分為全局路徑規(guī)劃層、行為決策層和運動規(guī)劃層。全局規(guī)劃算法,包括基于物理模型、基于意圖分類、基于深度學(xué)習(xí)等主要類別;行為決策算法,包括基于規(guī)則、基于學(xué)習(xí)、融合規(guī)則和學(xué)習(xí)等主要類別;運動規(guī)劃算法,包括基于策略規(guī)則、基于最優(yōu)控制、基于機(jī)器學(xué)習(xí)等主要類別。行為預(yù)警式運動規(guī)劃將決策規(guī)劃過程升級為交互式過程,引入人機(jī)共駕、車路協(xié)同以及車輛對外部動態(tài)環(huán)境的風(fēng)險預(yù)估,有助于提高自動駕駛車輛行駛安全性。端到端自動駕駛系統(tǒng)成為研究熱門,對AI大模型需求更甚。端到端系統(tǒng)中感知決策一體化,較傳統(tǒng)模塊化設(shè)計性能有望更佳,同時可更有效處理復(fù)雜路況和多交通要素交互情況。2023年5月,特斯拉CEO馬斯克在推特表示,特斯拉計劃在其全自動駕駛(FSD)Betav12版本中使用全新的端到端人工智能,通過單個神經(jīng)網(wǎng)絡(luò)編碼,僅利用特斯拉汽車上的攝像頭輸入,來輸出轉(zhuǎn)向、加速、制動等駕駛行為,模型可通過學(xué)習(xí)人類輸入的駕駛行為來不斷改進(jìn)。復(fù)雜性和安全性隱憂存在,端到端系統(tǒng)尚未落地。在端到端系統(tǒng)中,輸入數(shù)據(jù)到輸出控制僅通過一個AI大模型實現(xiàn)。一方面,多模態(tài)、大量傳感輸入數(shù)據(jù)和嚴(yán)苛的輸出精度和速度要求,對車載硬件算力和車端、云端協(xié)同要求較高;另一方面黑箱模型很難進(jìn)行系統(tǒng)化的解釋分析,只能依靠推測和實驗調(diào)整,在出現(xiàn)問題時難以快速定位對癥,在模型更新時也易出現(xiàn)倒退。因此,端到端自動駕駛系統(tǒng)目前還未成為主流。1.3AI大模型在自動駕駛領(lǐng)域應(yīng)用前景廣闊AI大模型在NLP、CV方向發(fā)展迅速,在自動駕駛領(lǐng)域感知、決策等模塊具有廣闊應(yīng)用前景。CV大模型主要用于感知層算法,可用于數(shù)據(jù)自動標(biāo)注、傳感器算法和場景仿真;NLP大模型主要可應(yīng)用于車機(jī)系統(tǒng)和智能座艙,實現(xiàn)更高智能的人車交互;而多模態(tài)大模型一方面可應(yīng)用于多傳感器數(shù)據(jù)融合的感知算法,提高感知精度和安全性;另一方面,多模態(tài)大模型是端到端、決控集成、感知決策一體化等新自動駕駛架構(gòu)實現(xiàn)的主要解決方案。海量數(shù)據(jù)驅(qū)動的多模態(tài)AI大模型將成為集成化自動駕駛設(shè)計實現(xiàn)的關(guān)鍵。AI大模型有望加速L0-L2級輔助駕駛向L3+高等級自動駕駛的發(fā)展過程。高等級自動駕駛對精度和復(fù)雜度要求更高,需要高精度的環(huán)境感知和場景重建。要突破極端路況/天氣等長尾場景的應(yīng)用,實車數(shù)據(jù)和測試數(shù)據(jù)必須有更充分的積累。一方面,面對環(huán)境感知數(shù)據(jù)量和復(fù)雜度的增加,數(shù)據(jù)標(biāo)注和仿真方法必須進(jìn)步;另一方面,為了減少感知過程中原始數(shù)據(jù)的信息損失從而提高感知精度,數(shù)據(jù)驅(qū)動的多傳感器數(shù)據(jù)融合AI大模型將更受重視。高等級自動駕駛在認(rèn)知決策需更智能化、人性化。傳統(tǒng)決策規(guī)劃方法將從傳統(tǒng)的基于規(guī)則,向數(shù)據(jù)驅(qū)動、基于學(xué)習(xí)的決策智能方向發(fā)展,Transformer+RL架構(gòu)已展示出面對更大數(shù)據(jù)集、更復(fù)雜、更大型環(huán)境中的應(yīng)用優(yōu)勢。長期來看,端到端自動駕駛系統(tǒng)落地有望。端到端系統(tǒng)需基于單一模型實現(xiàn)輸入數(shù)據(jù)處理到?jīng)Q策控制的全過程,Transformer架構(gòu)的AI大模型可滿足需求。二、多種AI大模型將應(yīng)用在智能汽車2.1AI大模型在智能汽車的應(yīng)用,需滿足數(shù)據(jù)、模型、算力的三重要求海量訓(xùn)練數(shù)據(jù)是AI大模型的應(yīng)用前提。自動駕駛龍頭企業(yè)的實際里程數(shù)據(jù)積累占據(jù)大模型應(yīng)用先機(jī)。2020年4月,特斯拉Autopilot智能駕駛系統(tǒng)里程數(shù)就已超過48億公里;百度Apollo自動駕駛也已積累超5000萬公里測試?yán)锍蹋?023年4月,毫末智行發(fā)布的DriveGRT認(rèn)知模型使用了超過4000萬公里真實里程進(jìn)行訓(xùn)練;小鵬汽車的智能輔助駕駛行駛里程截至2022年8月超過1.74億公里,高速智能導(dǎo)航輔助駕駛(NGP)累計行駛里程超過2450萬公里。AI大模型應(yīng)用為時尚短,自動駕駛領(lǐng)域模型架構(gòu)仍在探索中。目前AI大模型主要應(yīng)用于自然語言處理(NLP)和計算機(jī)視覺(CV)領(lǐng)域,以Transformer架構(gòu)為主。Transformer架構(gòu)較卷積神經(jīng)網(wǎng)絡(luò)(CNN)在大規(guī)模數(shù)據(jù)的學(xué)習(xí)中表現(xiàn)更好,也有少量CNN架構(gòu)的大模型處于科研進(jìn)程中。目前,ChatGPT、DriveGPT等大模型均采用Transformer架構(gòu)+監(jiān)督學(xué)習(xí)(SL)預(yù)訓(xùn)練+人類反饋強(qiáng)化學(xué)習(xí)(RLHF)的模式。自動駕駛AI大模型的算力建設(shè)主要可分為以下3種模式:自建智算中心,獨立訓(xùn)練大模型。特斯拉等自動駕駛廠商已自建云端計算中心,用于自動駕駛模型訓(xùn)練和數(shù)據(jù)標(biāo)注。部分環(huán)節(jié)合作。百度、騰訊、火山引擎(字節(jié)子公司)等互聯(lián)網(wǎng)科技公司均推出toB全流程智能汽車云服務(wù),為主機(jī)廠提供數(shù)據(jù)中心用于模型訓(xùn)練。解決方案合作。百度文心、商湯日日新等大模型體系均開放了與車企的行業(yè)應(yīng)用合作渠道,針對汽車行業(yè)應(yīng)用場景進(jìn)行模型調(diào)優(yōu)。如吉利汽車與百度文心合作吉利-百度文心NLP大模型,2023年5月31日,首款搭載車型吉利銀河L7已經(jīng)上市。AI大模型訓(xùn)練過程算力要求高,智算中心成為關(guān)鍵。自動駕駛領(lǐng)域AI大模型訓(xùn)練數(shù)據(jù)規(guī)模在億公里級多模態(tài)傳感數(shù)據(jù),參數(shù)可高達(dá)幾百到幾千億,預(yù)訓(xùn)練階段算力要求非常高。特斯拉、吉利、小鵬、毫末智行等主要自動駕駛廠商采用不同模式建設(shè)云端計算中心用于模型訓(xùn)練??萍季揞^可為自動駕駛主機(jī)廠提供算力支持和AI大模型開發(fā)服務(wù)。百度、華為、騰訊、阿里等科技巨頭,具有較強(qiáng)的AI模型開發(fā)能力和充足的AI算力,可作為云計算服務(wù)商和云開發(fā)平臺為主機(jī)廠的AI大模型開發(fā)提供服務(wù)。相較主機(jī)廠投建智算中心和獨立AI模型開發(fā)平臺的方式,其成本和技術(shù)難度大幅降低,也為小型新創(chuàng)主機(jī)廠和傳統(tǒng)汽車廠提供了快速入局自動駕駛領(lǐng)域和追趕頭部自動駕駛廠商的機(jī)會。據(jù)IDC數(shù)據(jù),2022年百度Apollo自動駕駛云平臺和華為分別占據(jù)34.4%、29.7%的中國自動駕駛開放平臺市場規(guī)模,行業(yè)集中度較高;2022年中國自動駕駛平臺市場規(guī)模達(dá)到5.89億元,增速達(dá)106%,預(yù)計AI大模型應(yīng)用推廣帶來算力需求進(jìn)一步增長,IDC預(yù)計2023年將達(dá)7.9億元。合作并裝載互聯(lián)網(wǎng)企業(yè)已開發(fā)的BEV感知模型,可成為新入局主機(jī)廠的較優(yōu)選擇。AI感知決策大模型均需海量數(shù)據(jù)驅(qū)動,已宣布實現(xiàn)BEV感知模型落地的國內(nèi)廠商包括百度Apollo、小鵬汽車、華為、毫末智行、商湯等,均為已實現(xiàn)高速輔助駕駛量產(chǎn)并積累大量智能駕駛數(shù)據(jù)的主流自動駕駛主機(jī)廠或互聯(lián)網(wǎng)企業(yè)??紤]到數(shù)據(jù)收集、標(biāo)注和模型訓(xùn)練的復(fù)雜性,與百度、華為、商湯等互聯(lián)網(wǎng)企業(yè)合作,搭載其已開發(fā)的BEV感知模型可大大降低主機(jī)廠入局自動駕駛的成本。NLP大模型實現(xiàn)人車的更友好交互,推動座艙智能化進(jìn)程;CV大模型助力數(shù)據(jù)標(biāo)注、仿真和感知等;多模態(tài)AI大模型為城市場景輔助駕駛乃至高等級自動駕駛的規(guī)模量產(chǎn)拉開帷幕,同時也有望用于智能座艙中的人機(jī)交互,融合語音、視覺、手勢等多種交互方式,滿足用戶在不同場景下的不同使用習(xí)慣。2.2NLP大模型助力人車交互,加速座艙智能化NLP大模型的應(yīng)用可實現(xiàn)語言交互、擬人表達(dá)和決策建議。NLP大模型可突破性解決傳統(tǒng)人車交互場景中對話風(fēng)格固化、智能性差的問題,根據(jù)高工智能汽車研究院數(shù)據(jù),2022年中國智能座艙前裝搭載率為39.89%,其中搭載了語音交互功能的智能座艙占比已達(dá)到76.76%。NLP大模型的落地和普及,預(yù)期將帶來智能座艙的技術(shù)革新。NLP大模型提升操作系統(tǒng)交互性和功能豐富度。邏輯推理、策略規(guī)劃和知識問答等功能使車載操作系統(tǒng)功能全面升級;可實現(xiàn)自然對話式交互,使語音交互成為車載系統(tǒng)主要操作模式之一,帶動操作系統(tǒng)架構(gòu)的重新優(yōu)化調(diào)整。2023年3月,百度發(fā)布文心NLP大模型,其智能語音交互功能已搭載到Apollo智能座艙系統(tǒng)上;2023年5月,科大訊飛發(fā)布訊飛星火認(rèn)知大模型,宣布“大模型+智能座艙”為其四大行業(yè)應(yīng)用之一;商湯也提出了基于大模型體系的絕影智能車艙產(chǎn)品。2.3CV大模型助力數(shù)據(jù)標(biāo)注、仿真和感知數(shù)據(jù)標(biāo)注方面,大模型預(yù)標(biāo)注+車載小模型學(xué)習(xí)微調(diào)的方式具有應(yīng)用潛力。數(shù)據(jù)標(biāo)注從人工標(biāo)注轉(zhuǎn)為AI主導(dǎo)人工輔助,一方面大模型知識完備性好,精度高,泛化能力強(qiáng);另一方面,自動駕駛數(shù)據(jù)積累和標(biāo)注復(fù)雜度提高使數(shù)據(jù)標(biāo)注工作量快速增加,AI大模型的應(yīng)用有助于加速數(shù)據(jù)標(biāo)注并大幅降低數(shù)據(jù)生產(chǎn)成本。特斯拉從2018年以來不斷發(fā)展自動標(biāo)注技術(shù),從2D人工標(biāo)注轉(zhuǎn)為4D空間自動標(biāo)注,特斯拉人工標(biāo)注團(tuán)隊規(guī)模不斷縮小,2021年超過1000人,2022年裁員超過200人。小鵬汽車和毫末智行也相繼采用自動標(biāo)注工具,毫末智行表示,獲取車道線、交通參與者和紅綠燈信息,人工標(biāo)注成本約每張圖5元,而毫末DriveGPT的成本僅0.5元。場景構(gòu)建是能力仿真系統(tǒng)的核心之一,生成式AI較傳統(tǒng)建模渲染生成場景庫速度大大提升。仿真通過構(gòu)建虛擬交通場景測試和驗證自動駕駛系統(tǒng),可在一定程度上取代實車路測,從而降低自動駕駛系統(tǒng)開發(fā)測試成本?;谟邢薜穆凡蓴?shù)據(jù)智能化生成大量場景是仿真的關(guān)鍵,數(shù)據(jù)驅(qū)動的AI視覺仿真對自動駕駛系統(tǒng)開發(fā)落地具有重要價值。人工智能生成內(nèi)容(AIGC)技術(shù)在仿真、數(shù)據(jù)標(biāo)注、座艙交互等系統(tǒng)的部署日益廣泛。在仿真方面,AIGC技術(shù)可大量合成虛擬場景以用于模型訓(xùn)練和測試,從而提高自動駕駛技術(shù)精度和可靠性;在數(shù)據(jù)標(biāo)注方面,AIGC技術(shù)可自動標(biāo)注真實世界圖像數(shù)據(jù)以用于訓(xùn)練AI模型;在座艙交互方面,AIGC技術(shù)可讓車機(jī)系統(tǒng)與人的交互更自然,提高駕乘體驗?;贐EV+Transformer架構(gòu)的感知算法應(yīng)用帶來傳感器架構(gòu)改變,大模型的本地化部署對車載算力硬件提出要求。一方面,基于AI大模型的感知算法,使激光雷達(dá)傳感器的重要性下降,在主流的多雷達(dá)+多攝像頭的傳感器架構(gòu)之外,提出了純視覺傳感方案,基于多個攝像頭即可基本滿足復(fù)雜場景環(huán)境感知的需求。另一方面,大模型的本地化部署對邊緣算力、數(shù)據(jù)傳輸帶寬和速度都提出了新的要求,車載芯片需進(jìn)行相應(yīng)升級。2.4多模態(tài)大模型逐步在自動駕駛和智能座艙中應(yīng)用多模態(tài)大模型和純視覺大模型是感知算法的兩個方向。數(shù)據(jù)驅(qū)動的感知算法快速發(fā)展,在是否使用雷達(dá)數(shù)據(jù)方面存在技術(shù)分歧。目前主流自動駕駛車企的傳感器系統(tǒng)可分為純視覺傳感器和多模態(tài)傳感器兩類,純視覺系統(tǒng)以特斯拉FSD系統(tǒng)為代表,以多個攝像頭作為傳感器,以視覺圖像訓(xùn)練CV大模型;多模態(tài)系統(tǒng)同時采集攝像頭和高精度雷達(dá)的多模態(tài)數(shù)據(jù)并進(jìn)行融合,以訓(xùn)練多模態(tài)大模型。兩種傳感器系統(tǒng)在傳感器數(shù)據(jù)融合算法上存在架構(gòu)差異,但都使用Transformer模型進(jìn)行訓(xùn)練。純視覺大模型優(yōu)勢在于硬件成本低,圖像數(shù)據(jù)信息量高,模型訓(xùn)練優(yōu)化較快。特斯拉CEO馬斯克認(rèn)為,視覺具有更高的精度,隨著視覺處理能力的提高,攝像頭性能將會遠(yuǎn)遠(yuǎn)甩開雷達(dá)。多模態(tài)模型優(yōu)勢在于可充分發(fā)揮不同傳感器性能特點,全場景適用性更強(qiáng),安全性好。攝像頭、雷達(dá)等設(shè)備具有不同的數(shù)據(jù)形式和數(shù)據(jù)量,以往受算力和模型限制,不同類型數(shù)據(jù)多使用感知后融合方案,不同傳感器感知結(jié)果可能出現(xiàn)沖突,影響系統(tǒng)穩(wěn)定性,故被認(rèn)為不如純視覺方案穩(wěn)定。受益于算力的進(jìn)步和多模態(tài)大模型的開發(fā)與應(yīng)用,基于多模態(tài)模型的融合感知技術(shù)受到國內(nèi)外自動駕駛廠商的廣泛關(guān)注與研究。多模態(tài)AI大模型可通過單模型實現(xiàn)感知、決策、控制等自動駕駛過程,有望成為高等級自動駕駛汽車的主要操作系統(tǒng)。此外,多模態(tài)大模型也有望用于智能座艙中的人機(jī)交互,融合語音、視覺、手勢等多種交互方式,滿足用戶在不同場景下的不同使用習(xí)慣。長安、集度、吉利、嵐圖、紅旗、長城、東風(fēng)日產(chǎn)、零跑等多家車企已經(jīng)宣布將接入文心一言。長安逸達(dá)成為首搭文心一言的車型,將通過軟件升級的形式搭載到新車上。華為在5月宣布AITO問界M9將搭載AI大模型,小藝智慧助手將具有更好的車載AI體驗。訊飛“星火認(rèn)知”大模型也有汽車領(lǐng)域相關(guān)的產(chǎn)品,可以實現(xiàn)車內(nèi)跨業(yè)務(wù)、跨場景人車自由交流。三、AI大模型帶來感知層、決策層和人車交互的變化3.1自動駕駛感知層:大模型提升傳感硬件的復(fù)雜度和精度大模型的應(yīng)用有望降低自動駕駛傳感器硬件成本,加速自動駕駛普及。自動駕駛傳感器主要包括攝像頭、超聲波雷達(dá)、毫米波雷達(dá)、激光雷達(dá)、GPS等。超聲波雷達(dá)在0.1-3米間精度較高,但易受天氣和車速影響,主要應(yīng)用于智能泊車功能;攝像頭是實現(xiàn)眾多預(yù)警、識別類高級輔助駕駛功能的基礎(chǔ);毫米波雷達(dá)使用波長為1-10mm的電磁波,具有較強(qiáng)的穿透性,可全天候工作,不受極端天氣和夜晚影響,測距可達(dá)200m,但是分辨率有限,無法清晰辨別較小的物體。激光雷達(dá)精度高(角/速度/距離分辨率),響應(yīng)速度快,最遠(yuǎn)的探測距離高達(dá)500米,但目前成本高,且抗干擾能力弱。目前,傳感器路線尚無定論,主流自動駕駛廠商主要采取三種:純視覺方案:以特斯拉為代表。使用多顆攝像頭為傳感器,采用Transformer+BEV算法或Occupancy算法,成本較低,更接近人類駕駛;但較易受環(huán)境和天氣影響,需要路外數(shù)據(jù)補充缺乏的長尾場景。視覺+毫米波雷達(dá)方案:毫米波雷達(dá)的全天候識別能力可提升自動駕駛系統(tǒng)在極端天氣和幽暗環(huán)境下的安全性。值得注意的是,根據(jù)太平洋汽車等平臺,特斯拉最新自動駕駛系統(tǒng)HW4.0可能在車頭重新搭載了1顆前向4D毫米波雷達(dá)。視覺+毫米波雷達(dá)+激光雷達(dá)方案:是短期內(nèi)實現(xiàn)高等級自動駕駛的關(guān)鍵。根據(jù)小鵬汽車、哪吒汽車、智目科技、辰韜資本等公司發(fā)言人在第十屆全球新能源汽車大會(GNEV11)上的討論,短期內(nèi)(1-3年)激光雷達(dá)對自動駕駛都是必要的,可以加快推出自動駕駛系統(tǒng)的時間,并提高安全性。大模型的應(yīng)用有望降低自動駕駛傳感器硬件成本,降低自動駕駛普及門檻。根據(jù)毫末智行分析,自動駕駛1.0時期為硬件主導(dǎo),通過增加硬件投入增強(qiáng)感知能力;2.0時期為軟件驅(qū)動,基于規(guī)則的小模型逐漸應(yīng)用到自動駕駛系統(tǒng);而數(shù)據(jù)驅(qū)動的3.0時代已經(jīng)開啟,通過數(shù)據(jù)驅(qū)動算法模型快速迭代,可減少對傳感器硬件數(shù)量的依賴。例如華為2023年4月發(fā)布的最新自動駕駛ADS2.0系統(tǒng),較ADS1.0激光雷達(dá)減少2個,毫米波雷達(dá)減少3個,攝像頭數(shù)量減少2個,但依靠Transformer+BEV算法的提升,自動駕駛功能增強(qiáng),新增了城區(qū)車道巡航輔助增強(qiáng)和哨兵模式。多模態(tài)大模型提升自動駕駛安全性。盡管純視覺方案具有成本優(yōu)勢,激光雷達(dá)可為視覺方案提供感知冗余。弗洛斯特沙利文認(rèn)為,在未來幾年內(nèi)隨著雷達(dá)硬件成本下降和多模態(tài)大模型的發(fā)展,視覺+毫米波雷達(dá)+激光雷達(dá)方案憑借安全冗余的優(yōu)勢仍將在L2+高等級自動駕駛中受到廣泛選擇。AI算法復(fù)雜度和精度提升,主流傳感器算法從決策級融合算法逐漸向特征級融合算法過渡。決策級融合算法是將各傳感器數(shù)據(jù)分別進(jìn)行特征提取并進(jìn)行識別,最后融合感知信息以備決策。決策級融合算法對不同傳感器分別建立識別模型,其算法復(fù)雜度低、算力要求小,且便于進(jìn)行不同傳感器組合,是目前自動駕駛車企采取的主流方案;但是該方法精度有限,在城市道路等復(fù)雜場景下適用性較差。特征級融合算法是在多傳感器特征提取的基礎(chǔ)上進(jìn)行特征融合并識別,較決策級融合信息丟失更少,精度更高,同時所需算力有所提高但仍低于數(shù)據(jù)級融合算法。Transformer大模型的應(yīng)用使數(shù)據(jù)驅(qū)動的感知算法快速發(fā)展。特斯拉FSD系統(tǒng)目前采用純視覺傳感器,將多個攝像頭獲取的2D圖像在Occupancy網(wǎng)絡(luò)進(jìn)行特征融合,再使用Transformer模型進(jìn)行訓(xùn)練;毫末智行將攝像頭+雷達(dá)多模態(tài)傳感數(shù)據(jù)進(jìn)行前融合,并使用Transformer模型訓(xùn)練;小鵬汽車亦采用多攝像頭數(shù)據(jù)BEV空間+Transformers融合方案。在感知領(lǐng)域,現(xiàn)有自動駕駛廠商憑借實車數(shù)據(jù)積累占據(jù)大模型先機(jī)。主流廠商在城市領(lǐng)航輔助駕駛(NOA)中采用BEV算法,特斯拉率先應(yīng)用的BEV+Transformer感知大模型基于攝像頭硬件+CV大模型,可實現(xiàn)“重感知、輕地圖”乃至徹底“脫圖”。多家國內(nèi)主流自動駕駛車企已宣布開發(fā)和量產(chǎn)基于BEV+Transformer模型的感知架構(gòu)。百度于2022年11月推出ANP3.0系統(tǒng),預(yù)計將于2023年內(nèi)實現(xiàn)量產(chǎn),率先搭載該模型的集度ROBO-01車型預(yù)期于2023Q3交付;小鵬汽車宣布在中國率先量產(chǎn)了基于BEV+Transformer模型的XNET架構(gòu),自3月開始城市NGP將在廣深滬多城市多車型加速落地;23年下半年,基于XNET深度學(xué)習(xí)算法的XNGP將徹底脫高精地圖;華為ADS2.0架構(gòu)已于4月落地,預(yù)計Q2將無圖商用高階智能駕駛方案推廣到全國15城,Q4推廣到45城;毫末智行于2023年4月宣布DriveGPT認(rèn)知大模型系統(tǒng)將首先搭載在6月正式上市的新摩卡DHT-PHEV;商湯于2023年4月宣布BEV環(huán)視通用感知算法已進(jìn)入實車量產(chǎn)階段,其中廣汽埃安aionlxplus車型已于2023年1月上市;蔚來于2023年5月發(fā)布Banyan2.0.0系統(tǒng),正式實行BEV模型量產(chǎn)上車,將于6月OTA升級多款2022、2023款車型;地平線等廠商也紛紛宣布將在2023年內(nèi)實現(xiàn)BEV+Transformer模型架構(gòu)的落地。理想汽車將在很快向北京和上海的內(nèi)測用戶交付不依賴高精地圖的城市NOA功能,使用自研的類似BEV的神經(jīng)先驗NPN網(wǎng)絡(luò)(NeuralPriorNet),也在紅綠燈信號識別、通行規(guī)劃控制等方面引入大模型算法。理想也將在下半年開放通勤NOA功能,可以在1-2周內(nèi)完成上班通勤路線的激活。數(shù)據(jù)驅(qū)動的大模型落地推動傳感器硬件發(fā)展。攝像頭分辨率提升有助于感知模型精度提高,但同時也會帶來計算量的增加,提升算力和傳輸帶寬需求。特斯拉HW3.0系統(tǒng)使用8顆分辨率為1.2M(1280x960)攝像頭,總算力約為144TOPS;據(jù)媒體報道,HW4.0系統(tǒng)將使用12顆分辨率為5.4M(2896x1876)攝像頭,總算力約為500TOPS。國內(nèi)理想one,蔚來ET7,小鵬SUVG9,極氪001等自動駕駛高端車型紛紛實裝8M攝像頭,以達(dá)到更高的感知精度和更遠(yuǎn)的感知距離。4D毫米波雷達(dá)落地,毫米波雷達(dá)有望迭代。4D毫米波雷達(dá)在傳統(tǒng)毫米波雷達(dá)的距離、方位、速度三個維度基礎(chǔ)上增加了高度,從而具有更高分辨率和一定成像能力,有望取代3D毫米波雷達(dá)。據(jù)高工智能汽車研究院預(yù)計,2023年中國乘用車市場前裝4D毫米波雷達(dá)將突破百萬顆,到2025年4D成像雷達(dá)占全部前向毫米波雷達(dá)的比重有望超過40%。4D毫米波雷達(dá)可與純視覺方案結(jié)合,提高感知精度;也可部分替代激光雷達(dá),應(yīng)用于側(cè)向感知或低等級自動駕駛的前向感知中,提供兼具成本和精度的硬件解決方案。例如英特爾子公司Mobileye計劃2025年在側(cè)向感知中使用毫米波雷達(dá)代替激光雷達(dá)。高線束激光雷達(dá)在角分辨率和點云數(shù)量上較4D毫米波雷達(dá)仍具有優(yōu)勢。高線束(32線以上)激光雷達(dá)通過對周圍環(huán)境掃描能夠形成3D圖像模型,可在橫向120°視場范圍生成百萬/秒的點云量,滿足高級別自動駕駛的感知需求;而4D毫米波雷達(dá)雖具有一定成像能力,但目前生成點云僅可達(dá)到十萬/秒的數(shù)量級,角分辨率也遜于激光雷達(dá)。對于感知大模型來說,數(shù)據(jù)量至關(guān)重要,因此,短期內(nèi)對于多模態(tài)感知模型,高線束激光雷達(dá)仍無法完全被毫米波雷達(dá)取代。激光雷達(dá)技術(shù)從機(jī)械式向全固態(tài)升級,降本有望。MEMS、FLASH激光雷達(dá)已逐步走向市場,有望降低激光雷達(dá)成本并提高穩(wěn)定性,從而為激光雷達(dá)在自動駕駛領(lǐng)域的應(yīng)用創(chuàng)造更廣闊空間。超聲波雷達(dá)成本低廉,但工作距離很近,特斯拉、毫末智行等公司已采用視覺方案代替超聲波雷達(dá)。超聲波雷達(dá)主要應(yīng)用于泊車輔助系統(tǒng),進(jìn)行低速高精度下的距離測量,基于視覺的Occupancy網(wǎng)絡(luò)+Transformer模型有望替代超聲波雷達(dá)實現(xiàn)該功能。但對于L0-L2低級別輔助駕駛車輛,裝載超聲波雷達(dá)仍是更具成本性和安全性的選擇。綜合來講,視覺方案和視覺+激光雷達(dá)融合感知方案均可使用AI大模型以提高感知精度,但兩者對硬件有著不同的需求:純視覺方案中,攝像頭分辨率和成像質(zhì)量要求高,已有12M、15M車載攝像頭處于研發(fā)狀態(tài);4D毫米波雷達(dá)可作為視覺方案的輔助,提供前向和側(cè)向感知,提高感知精度和安全性。視覺+激光雷達(dá)融合感知方案中,攝像頭參數(shù)要求亦逐步提高,4D毫米波雷達(dá)可部分取代激光雷達(dá)應(yīng)用于側(cè)向感知,激光雷達(dá)仍作為前向感知的關(guān)鍵傳感器,車載激光雷達(dá)將從機(jī)械式向全固態(tài)升級。兩種技術(shù)路線均需要多個攝像頭進(jìn)行視覺傳感,兩者后續(xù)發(fā)展的關(guān)鍵在于:多模態(tài)大模型較純視覺模型的發(fā)展速度,激光雷達(dá)的降本趨勢等。3.2自動駕駛決策層:基于學(xué)習(xí)的決策規(guī)劃算法走向主流,AI認(rèn)知大模型上線相較于傳統(tǒng)基于規(guī)則的決策規(guī)劃算法,基于學(xué)習(xí)的決策算法具有更強(qiáng)的靈活性和智能性。基于學(xué)習(xí)的決策算法,即通過對環(huán)境樣本進(jìn)行自主學(xué)習(xí),由數(shù)據(jù)驅(qū)動建立行為規(guī)則庫,利用不同的學(xué)習(xí)方法與網(wǎng)絡(luò)結(jié)構(gòu),根據(jù)不同的環(huán)境信息直接進(jìn)行行為匹配。進(jìn)一步的,基于學(xué)習(xí)的決策算法可分為數(shù)據(jù)驅(qū)動型學(xué)習(xí)方法和強(qiáng)化學(xué)習(xí)方法。數(shù)據(jù)驅(qū)動型學(xué)習(xí)依靠自然駕駛數(shù)據(jù)直接擬合神經(jīng)網(wǎng)絡(luò)模型,以達(dá)到自動駕駛行為的高決策水平。其需要海量訓(xùn)練數(shù)據(jù),數(shù)據(jù)收集成本和耗時高,難以超越駕駛員水平。強(qiáng)化學(xué)習(xí)方法尚處摸索階段,有望進(jìn)一步提高車機(jī)行為決策智能水平。強(qiáng)化學(xué)習(xí)方法讓智能體作為行為決策主體,以試錯方式進(jìn)行環(huán)境交互,并基于每一步行動后的環(huán)境反饋調(diào)整智能體行為。通過試錯式學(xué)習(xí),智能體能夠在動態(tài)環(huán)境中自己做出一系列行為決策,達(dá)到優(yōu)異的自動駕駛能力。認(rèn)知決策AI大模型已開始落地。23年4月11日,毫末智行發(fā)布了自動駕駛大模型毫末DriveGPT雪湖·海若,相關(guān)車型新摩卡DHT-PHEV于6月1日正式上市,毫末DriveGPT參數(shù)規(guī)模1200億,預(yù)訓(xùn)練階段引入4000萬公里量產(chǎn)車駕駛數(shù)據(jù),優(yōu)化階段采用人類反饋強(qiáng)化學(xué)習(xí)(RLHF)技術(shù)引入5萬段人工精選的困難場景接管Clips數(shù)據(jù)。DriveGPT定義50萬個新的tokens,包括障礙物、車道線、行人等,作為一種全新的“自動駕駛語言”。其輸入是感知融合后的文本序列,輸出是自動駕駛場景文本序列。模型目標(biāo)為實現(xiàn)端到端駕駛,希望實現(xiàn)四大應(yīng)用能力,包括智能駕駛、駕駛場景識別、駕駛行為驗證、困難場景脫困。百度于2022年11月發(fā)布了預(yù)測決策多任務(wù)大模型和離線智能仿真系統(tǒng)研究進(jìn)展;商湯于2023年4月發(fā)布的日日新大模型體系中所包括的感知決策一體化大模型;理想CEO在致員工的內(nèi)部信中提出2023年底落地端到端城市輔助駕駛,預(yù)計屆時有可能實裝包括認(rèn)知決策能力的端到端、多模態(tài)AI大模型。3.3人車交互領(lǐng)域:語言大模型落地在即NLP語言大模型主要將應(yīng)用于智能座艙的語音交互系統(tǒng)。通用型NLP模型以車載語音助手或集成化車機(jī)操作系統(tǒng)的形式搭載在智能座艙,主要功能包括對話式交互、邏輯推理、策略規(guī)劃和知識問答。四、投資分析4.1韋爾股份:車載CIS積累深厚,汽車電子領(lǐng)域收入增長迅速韋爾股份是全球排名前列的中國半導(dǎo)體設(shè)計公司。韋爾股份在車用圖像傳感器領(lǐng)域有著多年的研發(fā)經(jīng)驗,近年來,韋爾股份在原有的歐美系主流汽車品牌合作基礎(chǔ)上,也大量的導(dǎo)入國內(nèi)傳統(tǒng)汽車品牌及造車新勢力的方案中。2022年,韋爾股份汽車電子領(lǐng)域?qū)崿F(xiàn)收入36.3億元,較2021年增長57%。AI感知大模型的應(yīng)用成為實現(xiàn)L2+自動駕駛的關(guān)鍵,隨著自動駕駛技術(shù)的發(fā)展和應(yīng)用場景的復(fù)雜化,車用圖像傳感器在數(shù)量和單顆價值量將有望上漲,預(yù)期韋爾股份將在AI感知大模型的應(yīng)用過程中受益,汽車電子領(lǐng)域收入增長。4.2舜宇光學(xué)科技:車載鏡頭行業(yè)龍頭地位穩(wěn)固,激光雷達(dá)等新產(chǎn)品加大研發(fā)投入舜宇光學(xué)科技是中國領(lǐng)先的光學(xué)產(chǎn)品制造企業(yè)。2022年,隨著高級駕駛輔助系統(tǒng)搭載率的進(jìn)一步提升以及自動駕駛等級的不斷提高,舜宇光學(xué)車載鏡頭的全球市占率持續(xù)提升,進(jìn)一步鞏固了行業(yè)龍頭地位。2022年年報顯示,舜宇光學(xué)科技的車載鏡頭出貨量接近1000萬件,較2021年增長約16%,全球范圍內(nèi)市場占有率仍居于首位。舜宇光學(xué)車載模塊獲得了多個海內(nèi)外知名客戶的定點項目,市場開拓持續(xù)取得突破。與此同時,舜宇光學(xué)2022年內(nèi)加大了對激光雷達(dá)、抬頭顯示及智能車燈等新產(chǎn)品研發(fā)和市場推廣的投入,為搶占市場先機(jī)奠定了良好基礎(chǔ)。激光雷達(dá)方面,舜宇光學(xué)專注于光學(xué)組件和模塊業(yè)務(wù),新獲得的定點項目數(shù)量快速增加,并作為全球首家企業(yè)量產(chǎn)玻璃材質(zhì)的多邊旋轉(zhuǎn)棱鏡,持續(xù)為激光雷達(dá)廠商賦能。隨著AI感知大模型的應(yīng)用,車載鏡頭需求和激光雷達(dá)需求都將有所增長。預(yù)期舜宇光學(xué)將在AI感知大模型的應(yīng)用過程中受益。4.3晶晨股份:智能座艙芯片公司的汽車電子芯片包括車載信息娛樂系統(tǒng)芯片和智能座艙芯片。座艙智能化、網(wǎng)聯(lián)化的趨勢帶動芯片計算和數(shù)據(jù)處理能力、圖像和視頻處理能力、可靠性等需求提升,為公司帶來新的發(fā)展契機(jī)。公司汽車電子芯片已進(jìn)入國內(nèi)外多個車企,并成功商用,如寶馬、林肯、Jeep、極氪、創(chuàng)維。該系列芯片采用先進(jìn)制程工藝,內(nèi)置最高5Tops神經(jīng)網(wǎng)絡(luò)處理器,支持多系統(tǒng)多屏幕顯示,功能覆蓋影音娛樂、導(dǎo)航、360全景、個性化體驗、人機(jī)交互、個人助理、DMS(DriverMonitorSystem,駕駛員監(jiān)測系統(tǒng))等,符合車規(guī)級要求,部分產(chǎn)品已通過車規(guī)認(rèn)證。公司把汽車電子做為長期戰(zhàn)略,將持續(xù)投入研發(fā),充分發(fā)揮既有優(yōu)勢(系統(tǒng)級平臺、智能化SoC),不斷擴(kuò)充新技術(shù)、推出新產(chǎn)品。4.4其他公司思特威:22年思特威的汽車業(yè)務(wù)收入增長155%至2.26億元,占主營收入的比例超過9%。公司在22年構(gòu)建了覆蓋汽車電子全應(yīng)用場景的CIS產(chǎn)品布局,包括360度全景影像、行車記錄儀、艙內(nèi)監(jiān)控、流媒體/電子外后視鏡、ADAS/AD等。據(jù)TSR統(tǒng)計,公司在2021年首次進(jìn)入了“全球CIS車載市場出貨量Top10廠商”排行榜,位列全球第4名。裕太微:公司是境內(nèi)為數(shù)不多可以大規(guī)模供應(yīng)千兆高端以太網(wǎng)物理層芯片的企業(yè),已開發(fā)了系列千兆物理層芯片,產(chǎn)品性能和技術(shù)指標(biāo)上基本實現(xiàn)對博通、美滿電子和瑞昱同類產(chǎn)品的替代,成功打入國內(nèi)眾多知名客戶供應(yīng)鏈體系。公司自主研發(fā)的車載百兆以太網(wǎng)物理層芯片已通過AECQ100Grade1車規(guī)認(rèn)證,并通過德國C&S實驗室的互聯(lián)互通兼容性測試,陸續(xù)進(jìn)入德賽西威等國內(nèi)知名汽車配套設(shè)施供應(yīng)商進(jìn)行測試并已實現(xiàn)銷售。公司自主研發(fā)的車載千兆以太網(wǎng)物理層芯片已工程流片。北京君正:公司存儲、模擬芯片業(yè)務(wù)在汽車應(yīng)用上實現(xiàn)穩(wěn)定供貨,全球大部分知名的Tier1廠商均為公司客戶,產(chǎn)品面向整個汽車市場的各類車型,隨著汽車智能化程度提升也將更有利于公司業(yè)務(wù)拓展。聯(lián)創(chuàng)電子:車載光學(xué)高速發(fā)展,全面切入汽車產(chǎn)業(yè)供應(yīng)鏈。公司重點發(fā)展光學(xué)鏡頭及影像模組、觸控顯示器件等新型光學(xué)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論