




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
汽車產業目前處于多項變革同時發生的時期,科技進步推動變革產生,新變革催生新的需求。智能座艙作為汽車市場下個階段的競爭焦點,各主機廠正試圖通過產品差異化來占據市場優勢。用戶對汽車座艙功能的需求維度也在不斷拓展,智能座艙開始成為消費者日常生活的一個延伸,一個可移動的生活空間。未來的智能座艙將更多地兼顧“內容”、“服務”甚至是“主動智能”的升級。那么,對于即將在未來投入應用的前沿技術,以及那些已經在實踐中得到應用的技術成果,智能座艙領域又有著怎樣的期待和展望呢?一、虛擬現實
虛擬現實(VR)和增強現實(AR)技術,一度非常火爆。VR技術給用戶提供一個交互式的虛擬三維空間,通過感知單元提供視覺,觸覺,聽覺等感官的模擬,讓人們進入虛擬世界。VR需要用戶使用特定的頭盔形成一個密閉的虛擬空間。AR技術則不然,它是以現實世界為主體,通過全息投影鏡片把顯示內容與現實世界疊加。戴上AR眼鏡,用戶將可以接收與真實世界相關的數據化信息。虛擬現實技術將為智能座艙提供更強大的沉浸式體驗。為了支持虛擬現實和增強現實技術,智能座艙需要滿足如下的電子技術要求。1.出色的圖形渲染能力
虛擬現實和增強現實技術是通過人的眼睛,營造一個通過視覺而感知的虛擬世界。因此,出色的圖形渲染能力必然是VR和AR技術的首選要求。對于人眼的感知能力而言,當顯示屏幕的像素密度達到60PPD(PixelPerDegree,即每度視場角包含的像素數目)時,人眼便無法分辨出單個的像素顆粒,這種狀態通常被稱為“視網膜屏”效果。若一個VR/AR眼鏡的視場角(FOV)達到100°,那么為了在這個視場范圍內都達到視網膜屏的效果,單眼的水平方向就需要至少6000個像素(這里假設視場是水平方向的,且PPD均勻分布)。另一方面,所謂的4K屏幕,其分辨率為3840*2160(UHD,超高清分辨率),雙眼就要求達到2*3840*2160的分辨率。因此,分辨率越高,用戶觀看VR/AR的體驗效果就越好。
同時,由于VR/AR的顯示屏距離眼球太近,為了避免用戶產生眩暈不適,我們需要調節鏡片與眼部的瞳距,并提升刷新率。針對VR/AR眼鏡的顯示幀率,最好是能達到120幀/秒。這個圖形渲染的要求已經超過了當前手機SoC芯片的顯示分辨率。因此,智能座艙芯片要想能使VR和AR的體驗效果達到最佳,就要提升CPU、GPU、VPU、DPU以及DDR帶寬和顯示接口的能力。一般SoC芯片采用的MIPIDSI接口無法滿足要求,需要考慮使用DP或者HDMI接口。2.多元的交互能力
VR/AR技術為用戶構建了一個沉浸式的虛擬世界,而為了實現真正的交互和沉浸感,用戶與系統的交互方式顯得尤為重要。簡單的信息接收已不能滿足現代VR/AR體驗的需求,用戶期望能夠更自然地與系統溝通。目前,手部交互和語音交互是兩種主流的人機溝通方式。用戶可以通過VR手柄、游戲搖桿等傳統設備與系統互動,這種方式雖然經典但稍顯局限。為了更貼近真實世界的交互體驗,穿戴式設備如手套、指環等逐漸受到青睞,它們為用戶提供了更為直觀和自然的操作方式。而手勢識別技術的興起,更是為VR/AR交互帶來了新的革命。借助艙內攝像頭,用戶的手部動作被精準捕捉,進而實現3D手勢識別。這種交互方式無需額外的物理設備,讓用戶能夠更自由地與系統溝通,大大增強了沉浸感和真實感。
當然,未來的交互方式還有巨大的探索空間。隨著腦機接口等前沿科學研究的深入,我們或許可以期待一種更為直接和高效的交互方式的出現。那時,用戶只需通過意念即可與系統溝通,這將為VR/AR技術帶來前所未有的變革。3.超強的感知能力
座艙內的虛擬現實技術,與普通VR/AR眼鏡相比,具有得天獨厚的優勢,因為它能充分整合和利用車載傳感器的強大感知能力。舉例來說,架構師可以巧妙地將車外攝像頭捕捉到的沿途美麗風景實時投射到VR/AR眼鏡中,使用戶能夠在享受虛擬世界的同時,也不錯過旅途中的任何一處迷人景致,從而實現旅行拍攝和記錄的獨特功能。更有趣的是,用戶在虛擬世界中的刺激冒險也能被投射到車載屏幕上,讓家人和朋友一起分享游戲的歡樂和緊張刺激。這種互動不僅增強了用戶與家人之間的情感聯系,也讓虛擬現實的體驗更加豐富多彩。而為了進一步提升沉浸感,汽車的空氣懸掛系統、座椅的通風和按摩功能、空調和香氛的控制系統,以及支持環繞立體聲的音頻系統,都被巧妙地融入到虛擬現實體驗中。這些智能系統的聯動,讓用戶在虛擬世界中遨游時,能夠感受到更為真實和震撼的視聽觸感,從而獲得前所未有的沉浸式體驗。4.強大的計算能力
智能座艙在VR/AR應用中的計算能力是其核心優勢之一。為了減少用戶戴上VR/AR設備后可能出現的眩暈感,智能座艙的計算單元會進行一系列精密的計算和補償操作。例如,智能座艙的計算單元能夠通過攝像頭追蹤用戶的眼球注視焦點,然后計算并渲染針對用戶的顯示區域。這一功能對于調整VR/AR內容的呈現方式至關重要,可以確保用戶所看到的內容始終與其視線方向保持一致,從而減少視覺上的不適感。
為了提供更加自然的虛擬現實體驗,智能座艙需要實時計算VR/AR設備的6Dof(6DegreesofFreedom,六個自由度)空間自由度。這意味著設備可以在X-Y-Z三個軸方向上轉動,具體分為YAW(繞Y軸)、Pitch(繞X軸)、Roll(繞Z軸)的旋轉,再疊加空間運動的定位信息(在三個軸方向上的移動),從而實現6個自由度的精確控制。通過這種計算,智能座艙能夠精確地知道設備在空間中的位置和朝向,進而對顯示屏投射進行運動補償,以消除因設備移動或用戶頭部運動導致的畫面抖動或錯位,從而大大減少用戶的不適感覺。圖1所展示的是一個面向未來的AR眼鏡應用場景,其中,AR眼鏡被用于顯示導航信息。圖1AR眼鏡顯示導航信息二、車載游戲
第一個車載游戲的具體時間已經難以考證,但據資料顯示,早在上個世紀80年代,一些汽車品牌如豐田和本田就開始嘗試在車載娛樂系統中加入簡單的電子游戲功能。這些游戲通常比較簡單,例如“貪吃蛇”、“俄羅斯方塊”等,目的是為了在長途旅行中給乘客帶來一些娛樂。然而,這些早期的車載游戲功能并沒有得到廣泛普及,因為當時的電子游戲技術還比較初級,而且車載娛樂系統的硬件和軟件也相對簡單。隨著智能座艙的普及,車載游戲開始與座艙的智能化技術相結合,產生了更加多樣化的游戲形式和體驗。
在車載游戲領域,“3A大作”這一詞匯近來備受矚目。所謂“3A大作”,即指那些成本高、規模大且品質卓越的單機游戲。它們以絢麗的畫面、充實的游戲內容及深層次的體驗吸引著無數玩家。特斯拉曾經在ModelS車型上演示了3A游戲,例如《賽博朋克2077》、《巫師3:狂獵》、和《刺客信條:奧德賽》。在這些游戲中,玩家可以進行角色扮演,探索廣闊的世界并完成任務。然而,引入這些游戲必須要考慮到軟硬件的生態問題。例如,這些游戲運行在與SteamDeck(一個掌上游戲發行平臺)相同的Linux版本之上,其運行硬件平臺是AMD公司的x86CPU和RDNAGPU(獨立顯卡)。一般基于ARM的SoC還不能運行類似的游戲。1.車載3A游戲技術路線
在座艙中引入3A游戲大作,可以考慮如下3條技術路線:使用x86架構的芯片構建座艙SoC使用x86芯片平臺構建座艙SoC是一種可行的方式。相比移動端的ARM架構,x86芯片平臺具有強大的計算能力,可以滿足3A游戲大作的高性能需求。x86平臺搭配運行的操作系統是Linux系統,這意味著基于Steam(一個電子游戲數字發行平臺)的大量游戲可以直接在這個系統上運行。其龐大的游戲庫和持續的更新都為座艙提供了持續的游戲內容。因此,x86的生態系統已經滿足了許多3A游戲大作的要求,為游戲開發者提供了便利。運行Android手機類游Android手機類游戲的崛起不容忽視。以《原神》為例,這款游戲憑借其精致的畫面、豐富的世界觀和深入的角色定制贏得了全球玩家的喜愛。它的受歡迎程度不僅僅在于游戲本身的品質,更在于Android平臺為其提供了廣泛的用戶基礎和便捷的更新機制。與其他平臺相比,《原神》在Android上的表現更加出色,其優化后的版本可以充分利用ARM平臺CPU和GPU的性能,為用戶提供流暢的游戲體驗。
當前,新能源車智能座艙采用ARM架構和Android操作系統的比例很高。將手機上的3A游戲移植到座艙上,成本較低,花費較少,具有廣泛的用戶基礎,是一條可行的道路。采用游戲機投屏方式還有一種可行的方式是采用游戲機投屏方式。這種方式可以利用已有的游戲機和游戲資源,不需要進行大量的開發和移植工作。例如任天堂公司發布的Switch、索尼公司的PS5和微軟公司的Xbox等(以上三者都是流行的游戲機硬件設備)。這些主流游戲機都支持投屏功能。通過HDMI線纜或者DP線纜,這些機器可以將游戲畫面投屏到座艙內部的中控大屏上。用戶可以在座艙內享受到與家庭游戲機相似的體驗。這些游戲機已經擁有龐大的游戲庫,且持續更新,確保了游戲的多樣性和新鮮感。同時,由于是直接從游戲機投屏,所以在畫面質量和流暢度上都有很好的保障。2.智能座艙SoC能力要求
為了直接通過座艙的計算平臺運行3A游戲,智能座艙SoC需要滿足如下一些條件:出色的GPU渲染能力如果我們希望通過座艙SoC直接運行3A級游戲,那么不論是選用x86平臺還是ARM平臺,高性能的GPU都是不可或缺的。通常情況下,在ARM平臺上,SoC內部會直接集成嵌入式的GPUIP核;而x86平臺則往往會采用一塊獨立于SoC的GPU。x86平臺下的獨立GPU算力可以遠超ARM架構下的GPU,其從個人計算機環境繼承而來的桌面級GPU的圖形渲染管線更能為游戲場景增添驚艷的光影效果。然而,采用更強大的GPU也會帶來空間布局和散熱等更為復雜的挑戰。因此,在設計座艙域控制器時,必須全面權衡高性能GPU所帶來的利弊。有時會需要采用主動降溫方式,但這樣又增加了成本。
供電能力不同的座艙平臺在運行3A游戲時會消耗不同的電能。ARM架構通常配備嵌入式GPU,其供電功率一般約為十幾瓦。而x86架構的獨立GPU在運行游戲時,供電功率可能高達120瓦。對于外置式游戲機而言,三大游戲機的供電需求差異顯著。Switch作為一款掌上游戲機,可通過USBType-C線進行快速充電,其供電功率為33瓦。PS5和Xbox則屬于家用游戲機類別,體積更大,對電源功率的要求也更高。PS5需通過電源插座供電,其額定功率為350瓦。Xbox則分為兩個版本:XboxSeriesS的電源功率為165瓦,而XboxSeriesX的電源功率高達330瓦。因此,若智能座艙內需支持游戲機投屏功能,就必須考慮供電能力是否充足,以及是否配備了220V電源插座。這些因素將對車載供電能力的分配和座艙內部布局產生影響。豐富的車載接口將家用游戲機的畫面投屏到座艙內部大屏幕,這與將游戲機投屏到客廳的電視機或電腦顯示屏類似。Switch游戲機可以通過其殼體上的USBType-C接口直接輸出DP視頻信號,同時也可通過一個轉接底座,將DP信號轉換成HDMI信號輸出。而PS5和Xbox游戲機則都只支持HDMI視頻信號輸出。因此,座艙SOC需要配備DP或HDMI視頻輸入接口。這種有線投屏方式能夠實現10ms以內的視頻信號延遲,這對于動作交互類游戲的體驗至關重要。圖2展示了特斯拉汽車在智能座艙內支持3A游戲的場景。
圖2智能座艙支持3A游戲大作三、車手互聯最早的車機與手機互聯案例是利用藍牙技術撥打電話。由于相關法規禁止駕駛員在駕駛時使用手持電話進行通話,但駕駛員在行車過程中又有通話的需求,因此,將車載麥克風和音響通過藍牙技術與手機相連,便實現了非手持式通話功能。這種藍牙互聯的需求逐漸成為了剛性需求。隨后,車機和手機互聯的進一步實現案例是蘋果公司的CarPlay。CarPlay于2013年首次推出,通過與汽車制造商的合作,使用戶的蘋果手機能夠與汽車儀表盤和中控臺無縫連接,從而提供了多樣化的功能。例如,通過CarPlay,用戶可以輕松使用電話、短信、導航、音樂和其他應用程序,同時支持語音控制或觸控操作。除蘋果外,谷歌也推出了類似的系統——AndroidAuto,它可以將Android手機上的應用投屏到汽車中控臺上。對于蘋果公司的CarPlay技術而言,它提供了兩種將蘋果手機與座艙系統互聯的方式:一是通過USB數據線進行有線連接,二是利用藍牙和Wi-Fi技術進行無線連接。在連接建立后,iOS設備的操作界面和各種應用程序功能會投射到車載屏幕上,用戶便可通過車載屏幕和語音指令來操作iOS設備上的功能,例如導航、音樂播放和撥打電話等。CarPlay使用的互聯技術是一組包含iAP2(iOSAccessoryProtocol,version2)協議的協議族,這些協議共同負責建立和維護CarPlay會話(CarPlaySession)。從技術層面講,其無線連接的底層實現是基于Wi-FiP2P(點對點)協議的,這種協議使得兩個Wi-Fi設備無需通過接入點(如無線路由器)即可實現直接通信。
1.公有無線投屏協議
一般來說,車機與手機實現無線互聯的協議分為公有和私有兩大類。公有協議通常包括DLNA和Miracast兩種。DLNA(DigitalLivingNetworkAlliance,數字生活網絡聯盟)由索尼、英特爾、微軟等公司發起成立,旨在實現個人計算機、移動設備、消費電器之間的無線網絡和有線網絡的互聯互通。DLNA技術主要以實現內容分享功能為主,可以靈活地實現網絡文件鏈接和流媒體的推送,具有連接速度快、協議輕量的優點。由于它只提供內容分享功能,并不需要在發送端進行屏幕捕獲、編碼等工作,因此對發送端的處理能力要求較低。DLNA也被稱為“PushMode”,即推送模式。在這種模式下,手機與座艙系統連接到同一個Wi-Fi網絡。當需要互聯時,手機發送一個視頻資源的地址鏈接給座艙系統,后者通過該地址鏈接獲取視頻文件并開始在線播放。手機可以控制座艙系統的播放進度、音量等。圖3展示了基于DLNA的無線投屏系統框架。圖3DLNA無線投屏系統框架從圖3可以看到,DLNA技術的底層協議可以通過Wi-Fi路由器實現手機和座艙SoC的互聯。此時手機甚至可以不在座艙內部,可以遠程將手機上的音視頻文件推送給智能座艙系統進行播放。當然DLNA也可以采用Wi-FiP2P作為點對點直聯方式,實現車機和手機之間的互聯。
Miracast是另一種用于無線投屏的技術,由Wi-Fi聯盟發布,也被稱為Wi-FiDisplay。它基于Wi-FiP2P(PeertoPeer,點對點)技術,實現了音視頻數據的無線傳輸與播放。自2012年10月起,Google發布的Android4.2版本開始支持Miracast功能。由于它是一個開放的標準,并且得到了Android平臺的支持,市面上支持Miracast的設備開始大量出現。在Miracast的R1版本中,僅實現了屏幕分享功能,并不支持通過網絡鏈接方式傳輸音視頻流文件。無論發送端播放的文件是何種格式,Miracast都會將抓取的屏幕內容編碼為H.264格式后再進行傳輸。這樣,發送端與接收端都采用固定的格式進行編解碼,從而有效減少了兼容性問題。然而,屏幕的抓取與編碼過程需要消耗大量的計算資源,這不僅對發送端的性能和配置提出了較高要求,而且還需要發送端提供硬件編碼接口以提升編碼效率。在R2版本之后,Miracast開始支持“MirrorMode”和“PushMode”兩種模式。其中,“MirrorMode”,即鏡像模式,是直接抓取手機屏幕數據,編碼為H.264等流媒體格式后,再傳輸到座艙系統的投屏方式。圖4展示了基于Miracast的無線投屏系統框架。圖4Miracast無線投屏系統框架從圖4可以看到,Miracast技術的底層協議通過Wi-FiP2P協議實現車機和手機的互聯。它最重要的功能就是可以采用“MirrorMode”實現投屏。這樣的場景使用靈活性更高。
2.私有車手互聯協議
在進行車機和手機互聯時,一個主要的應用思路是將手機的計算能力擴展到座艙系統上。由于汽車電子的特性,座艙系統的算力平臺必須符合車規要求,這通常意味著座艙內的SoC芯片性能會弱于同時期的消費類電子芯片。例如,智能手機芯片的算力逐年提升,而座艙SoC芯片卻只能以三年或更長的周期進行更新換代。鑒于這種算力分享的需求,汽車主機廠提出了新的要求,即通過私有協議實現手機和座艙系統的互聯互通。這種連接不僅實現了Wi-Fi無線投屏的功能,還能將座艙的計算需求發送到手機端,利用手機芯片的資源進行計算,然后再將結果返回給座艙系統。這種私有協議的實施方式取決于各個廠家的具體實現途徑,但它能為用戶帶來更加優質的體驗效果。以蔚來汽車的“NIOLink”協議為例,其目標是構建以車輛為中心的全景移動互聯技術,該技術融合了車輛和手機的多端軟硬件能力,旨在連接用戶、產品、服務和社區,為用戶帶來全新的移動互聯體驗。具體來說,在蔚來設計的手機NIOPhone上,實現了一個實體按鍵,即“NIOLink”車控鍵。這個按鍵不僅能在車內控制車輛功能,如空調調節、音樂控制、氛圍燈切換等,還能在車外進行遠程控制,如遠程遙控空調、車輛召喚等功能。此外,NIOLink協議還支持天空視窗技術,該技術可以將手機屏幕的“第二畫面”投射到中控大屏上,從而實現手機和車機的雙應用并行運行,且可以左右靈活拖動。這種投屏技術適用于會議系統或手機游戲等場景,實現了手機資源與座艙資源的共享使用。四、多模態交互
人機交互模式在座艙內部的表現,一直以來都是評判智能座艙的核心標準。在非智能時代,用戶只能通過各類按鈕來操控車內功能。然而,隨著中控大屏的興起,大部分功能被整合到屏幕上,用戶開始通過觸摸屏來控制車輛功能。從觸覺的角度來看,觸摸屏與實體按鍵在操作感受上并無顯著區別。直到語音助手的誕生,座艙內部的人機交互方式才實現了質的飛躍。通過對話,車載智能語音助手能夠識別并執行人的指令,從而部分實現了對人類操作的替代。之所以說“部分”,是因為在實際使用中,車載智能語音助手有時難以精確理解人類的需求。例如,當用戶說出“打開空調通風功能”時,智能語音助手可能會錯誤地理解為打開車窗,而非啟動空調的通風模式。
此外,車載智能語音助手還無法識別對話的上下文,也無法與座艙內的多人同時展開對話。這種局限性使得語音助手顯得缺乏人性化。未來,智能座艙的演進方向將是能夠融入環境、像正常人一樣對話、并能協助乘客的智能機器人。如今,人們對座艙的人機交互模式提出了更高的要求,即實現多模態交互。最迫切的需求是將觸覺、聽覺和視覺相結合,以打造更加智能、精準的交互方式。目前多模交互已經鎖定了幾個研究的方向。1.面部情緒識別
情緒識別是一種新興的交互方式,可以通過識別駕駛員或者乘客的情緒來提供個性化的服務。研究方向包括情緒識別算法、生理信號分析等方面的技術,以提高情感識別的準確性和可靠性。情緒識別的原理主要是基于對人類情感的理解和情感特征的提取。人類的情感通常會伴隨著一些生理反應,如心率、呼吸、語音等的變化,這些生理反應可以被檢測和識別。同時,人類的情感也會表現在面部表情、肢體動作等方面,這些也可以被用來識別情感狀態。情感識別技術通過綜合分析這些特征,來判斷一個人的情感狀態。情緒識別的算法可以分為兩類:一類是基于規則的方法,另一類是基于機器學習的方法。基于規則的方法是通過分析人的語音、表情等特征,來判斷其情感狀態。這種方法需要事先定義好各種情感的特征,因此準確度有限。基于機器學習的方法則是通過訓練大量的情感數據來讓計算機自動識別情感狀態。這種方法需要大量的標注數據,但準確度較高。
隨著Transformer模型(一種基于自注意力機制的深度學習模型)在越來越多的領域得到應用,多模態識別可以采集人類面部圖像和語音數據,并使用Transformer模型來分析和識別人物的情感。舉一個例子,我們可以在智能座艙內部使用DMS和OMS攝像頭采集駕乘人員的面部圖像,使用車載麥克風采集語音對話數據。而后,使用適當的算法和模型從面部圖像中提取情感相關的特征,例如使用卷積神經網絡(CNN)進行特征提取。對于語音數據,可以使用梅爾頻率倒譜系數(MFCC)等特征進行提取。這些特征輸入到Transformer模型的Encoder(編碼器)部分進行進一步的處理和特征提取。在Decoder(解碼器)部分,可以使用情感分類任務的目標函數來訓練模型,使其能夠識別不同情感的特征。2.多人對話并發
在當前已投入使用的智能座艙語音助手中,存在一個顯著的痛點,即無法支持多人同時對話。每當座艙內有其他用戶提出問題時,他們總是需要先使用特定的喚醒詞來激活語音助手,然后才能進行對話。這種操作會打斷之前用戶的對話進程,給用戶帶來不連貫的體驗。為了解決這個問題,我們可以采用基于規則的對話管理和上下文管理策略來實現多人對話上下文的繼承。具體的實現途徑涵蓋以下幾個方面:上下文狀態跟蹤:我們需要構建一個對話的上下文狀態模型,這個模型會記錄對話的參與者、當前討論的話題以及歷史交流信息等。通過精細的對話管理,系統能夠追蹤每個參與者的交流意圖和需求,從而確保對話的流暢性和內容上的連貫性。
上下文信息共享:必須確保所有對話參與者都能訪問和共享統一的上下文信息。這可以通過采用共享內存或者云端存儲等技術手段來實現,以確保信息的準確無誤和一致性。上下文繼承機制:我們需要根據對話的上下文狀態來制定合理的上下文繼承策略。例如,在多輪次的對話過程中,系統可以繼承前一輪對話中的關鍵信息和指令,以便于在接下來的對話中繼續使用。同時,隨著對話的深入和用戶需求的變化,我們需要靈活地調整上下文繼承的方式和內容。自然語言理解:借助自然語言理解技術,我們可以對用戶輸入進行深度語義分析。這有助于系統更準確地把握用戶的意圖和需求,從而更好地維護對話的上下文狀態,并繼承相關信息。動態調整對話流程:系統應根據上下文狀態和繼承策略,實時調整對話的進程和交互模式。這可能包括基于歷史信息預測用戶的意圖,或根據話題的轉變來更新交互內容,從而提升對話的針對性和效率。總之,以上所提的處理方式只是上下文管理眾多可能性中的一種。這個領域的研究仍處于前沿探索階段,各種解決方案都在不斷地演進和優化中。3.3D手勢操控
3D手勢識別是智能座艙中新興的操控方式之一。以后排娛樂屏為例,在一些乘用車車型中,車頂的中央位置會配備一塊顯示屏幕,旨在為第二排和第三排的乘客提供優質的觀影體驗。然而,如何操控這塊屏幕卻成為了一個體驗上的挑戰。若采用觸摸屏方式,由于距離的限制,第三排乘客難以觸及;若采用語音控制,未經訓練的用戶可能會遇到下達指令的困難;而使用遙控器操控,則存在遺失設備的風險。針對上述各種不足,一種簡單方便的操控方式是采用3D手勢識別技術。
通過3D深度相機,我們可以采集用戶的手部動作數據。隨后,這些數據會經過預處理并被分割成獨立的手勢。利用深度學習算法,我們從這些手勢中提取特征,并進行持續的跟蹤和預測,從而準確地識別用戶的手勢動作并判斷其意圖。最終,用戶的動作會被轉化為具體的控制指令,例如隔空點擊屏幕的某個圖標或滑動屏幕進行切換等。這種操控方式不僅有效避免了上述方法的各種弊端,而且為用戶帶來了極為自然和流暢的體驗。4.多模融合
多模態交互是一個綜合性的技術,它融合了多種感知技術來提升人機交互的體驗。例如,動作識別、目光追蹤、語音識別、觸摸控制等,都是多模態交互的重要組成部分。這些技術分別對應了人類的五大感知:視覺、聽覺、觸覺、嗅覺和味覺。動作識別和目光追蹤與視覺:動作識別和目光追蹤技術可以捕捉和分析用戶的身體動作和眼球移動,從而實現更加自然和直觀的人機交互。這些技術類似于人類的視覺功能,能夠“看到”并理解用戶的動作和意圖。語音識別與聽覺:語音識別技術能夠識別和解析用戶的語音指令,為用戶提供了一種更加便捷和自然的交互方式。這與人類的聽覺功能相似,通過聲音來接收和理解信息。觸摸控制與觸覺:觸摸控制技術允許用戶通過觸摸屏幕或其他設備來進行操作,提供了一種直觀和易用的交互方式。這與人類的觸覺功能相呼應,通過觸摸來感知和操作物體。香氛系統與嗅覺:在座艙內部,有一個重要的與人類的嗅覺相關的系統,即香氛系統。雖然人類的嗅覺在人機交互中不直接對應某種操作,但香氛系統可以通過釋放不同的氣味來影響用戶的情緒和體驗,從而提升交互的舒適度。至于味覺,目前在多模態交互中的應用相對較少。或許在未來,當科技不斷發展,人工智能技術與腦機接口技術實現了融合之后,可以將人類的味覺引入到座艙的交互體系中來,這將為人機交互領域帶來新的可能性和創新點。
在多模態交互中,各種感知技術的融合為提升人機交互體驗帶來了巨大的潛力。手勢識別技術和視覺識別技術作為計算機視覺技術的一部分,在數據融合技術的支持下,能夠顯著提升交互的智能性和準確性。數據融合技術的關鍵作用在于,它能夠將來自不同傳感器的數據進行整合,利用AI算法對這些數據進行深度分析和處理。例如,通過融合視覺傳感器和音頻傳感器的數據,系統可以對人臉、動作、姿態、唇語、語音等多種信號進行綜合辨識,進而提高識別的準確度。這種跨模態的數據融合不僅增強了系統的感知能力,還使得交互更加自然和智能化。圖5展示了視覺和聽覺融合技術的一個范例。圖5音視頻多模識別后融合范例從圖5可以觀察到,在一段視頻剪輯的處理流程中,圖像數據與聲音數據被分別送入預處理模塊。它們隨后通過專門的視覺與聽覺神經網絡進行分類處理。這些神經網絡的預測結果被進一步進行后融合處理。在基于一定規則和權重的綜合推測下,多模系統最終輸出了該視頻的主題預測:森林。
五、大語言模型最早的車載語音助手功能相對簡單,只能識別人類語音,將其轉換為文本,并理解和執行一些基礎指令。由于車載計算機的計算能力受限,這些任務通常由云端的AI算法處理。然而,這種模式在響應的實時性和可靠性上存在明顯的限制。隨著ChatGPT(一款基于大語言模型的聊天機器人程序)的興起,公眾對車載語音助手的期待也隨之提升。人們期望車載語音助手能像ChatGPT一樣“智慧”,能進行自然而流暢的對話,幫助用戶正確使用汽車的各種功能,甚至能與用戶進行情感溝通,提供更加自然和溫馨的體驗。這正是大語言模型(LLM,LargeLanguageModel)的魅力之所在,它推動著車載語音助手不斷走向智能化,越來越貼合人類的期待。1.什么是大語言模型
在給出大語言模型的定義之前,我們首先來看一下表1,它總結了大語言模型的發展歷程。表1大語言模型的發展歷程事件意義NLP(自然語言處理)NLP是一種讓計算機理解和分析自然語言的技術,包括詞法分析、句法分析、語義理解等。通過這些技術,NLP可以將輸入的問題進行分詞、詞性標注、句法分析等處理,從而理解問題的含義和上下文。初期NLP的工作原理在Transformer模型提出之前,NLP(自然語言處理)領域主要使用基于規則的方法和統計機器學習方法進行分析和處理。基于規則的方法主要是指人類手工編寫規則和模板,用于對語言進行解析和生成。這些規則通常針對特定的語言現象或任務,需要語言學家和程序員共同協作。基于規則的方法雖然精度較高,但可擴展性和靈活性較差,且需要大量的人力物力。LLM出現隨著神經網絡模型的廣泛應用,NLP進入了LLM時代。LLM是指大規模的語言模型,通常使用大規模的文本數據對模型進行訓練,以學習語言的語法、語義和上下文信息。有多種類型的神經網絡模型都可以支持LLM,如遞歸神經網絡(RNN)、長短時記憶網絡(LSTM)和Transformer等。這些模型都能夠在大規模的文本數據上進行訓練,從而生成高質量的語言表示,并應用于各種NLP任務,如文本分類、情感分析、問答系統等。Transformer問世Transformer模型的出現,標志著NLP設計邁向了一個新的里程碑。它由Google公司提出,在NLP中使用Transformer模型來生成回答。Transformer模型是一種基于自注意力機制的深度學習模型,通過多層的自注意力機制和注意力權重來捕捉輸入文本的上下文信息,從而生成更加準確和相關的回答。在訓練過程中,Transformer會使用大量的語料庫進行訓練,通過優化目標函數來最小化預測結果與真實結果之間的差異,從而不斷提高回答的準確率和相關性。從此,大語言模型突破了參數和算力的限制,進入了參數越多,數據越大,效果越好的狀態。GPT的產生隨著Transformer模型的成功應用,OpenAI公司開始嘗試將其應用于更大規模的訓練數據,從而誕生了GPT(GenerativePre-trainedTransformer,生成式預訓練Transformer模型)。GPT-1和GPT-2模型在更大的數據集上進行訓練,并使用無監督學習進行預訓練,從而提高了模型的語言生成和理解能力。GPT-3模型進一步擴大了訓練規模,使用更復雜的架構和更大的數據集進行訓練,從而產生了更加豐富和準確的語言生成能力。GPT被設計成可以支持多輪對話的模型,能夠根據上下文信息生成更有針對性的回復。這種能力有助于提高對話系統的自然度和交互質量。承上啟下的InstructGPT隨著GPT模型的不斷發展,OpenAI公司在GPT-3的基礎上開發了InstructGPT模型。InstructGPT采用了與GPT-3相同的架構和參數數量,但在訓練過程中引入了人類專家指導,以提高模型的語言生成質量。這種訓練方式使得InstructGPT能夠生成更加準確、清晰和有邏輯性的語言輸出。GPT讀代碼代碼訓練能力的提升是GPT3到GPT3.5的重要迭代之一。在GPT3的基礎上,OpenAI增加了Codex模型,讓它閱讀大量的代碼,從而能夠理解和生成代碼。RLHF能力RLHF的全稱是reinforcementlearningfromhumanfeedback,通過構建人類反饋數據集,訓練一個reward(評估)模型,模仿人類偏好對結果打分,是GPT-3后時代LLM越來越像人類對話的核心技術。通過RLHF的訓練,ChatGPT得以橫空出世。ChatGPT風起云涌ChatGPT是OpenAI在GPT系列模型的基礎上開發的一種專門用于對話生成的模型。ChatGPT以InstructGPT和GPT3.5模型為基礎,在訓練過程中使用了大量的對話數據,以提高模型的語言生成和對話生成能力。同時,ChatGPT還針對對話生成任務進行了優化,能夠更好地捕捉上下文信息,生成更加自然和個性化的對話回復。表1深刻地總結了大語言模型的發展歷程。大語言模型(LLM)是一種能夠理解和生成自然語言文本的深度學習模型,具備強大的語言處理和生成能力。
從最初的自然語言處理(NLP)開始,人們就希望計算機能理解人類的語言,并能實現像人類一樣的對話。神經網絡模型的出現推動NLP技術進入了大語言模型時代,隨后Transformer模型與GPT系列的誕生,更是讓大語言模型演變成了我們今天所看到的“智能”機器人對話程序。綜合來看,ChatGPT的出現,使大多數人深刻認識到大語言模型將會改變人類社會和人類的生活方式。ChatGPT是一種革命性的AI應用,它為人類提供了一種全新的方式來調用算力和數據。在ChatGPT正常運行的背后,GPT-3.5是其不可或缺的支撐力量。GPT-3.5的本質是學習人類存放在互聯網上的知識,并將其整合成大型語言模型。只要模型足夠龐大,參數足夠豐富,它就能從中檢索出相關信息,并以此為基礎生成回答。2.大語言模型在車上的應用方式
在車載智能語音助手中應用大語言模型,有兩種不同的方式,一種是云端運行,另一種是車端運行。模型在云端運行智能座艙會采集人類的語音,并通過車載無線模塊將這些語音數據傳輸到云端。在云端,大語言模型會識別這些語音數據并生成相應的回答,然后再將這個回答傳回車內。只要數據傳輸速率足夠快,人們幾乎感覺不到對話中的任何延遲。這種實現方式相對簡單。汽車制造商可以選擇自建云端服務器,或者租用商業化的云服務。在云端部署大語言模型后,車載計算機系統就只需實現語音識別功能。這樣做可以減少車載系統的資源需求,進而降低車輛成本。然而,這種方法也存在一些明顯的缺點。
在網絡信號不佳或網絡帶寬受限的情況下,智能語音助手的性能會大幅下降,可能出現響應遲鈍或完全沒有回應的情況。同時,從個人隱私和數據安全的角度來看,云端處理用戶語音數據存在一定的風險,這會引起部分用戶的擔憂。此外,當在云端實現大型語言模型時,還需要考慮到多用戶并發訪問的性能和容量問題。如果不能及時擴展計算和網絡資源,就可能無法滿足日益增長的用戶需求和數據規模。模型在車端運行這種方法的構想是,利用車載中央計算平臺的算力,在智能座艙域的計算芯片上直接部署大型語言模型。在此方案中,智能座艙會通過語音識別或多模態交互來收集用戶的問題,并直接在車端通過大語言模型進行計算,從而生成回答。這種方法的主要優勢在于其減少了對網絡的需求。由于所有的計算都在車端進行,因此可以避免因網絡信號不足或帶寬受限而導致的響應延遲或無法回答的問題。此外,車端計算還能更有效地保護用戶隱私和數據安全,因為用戶的語音數據無需上傳到云端進行處理。然而,這種方法面臨的最大挑戰是對車載中央計算平臺的算力有較高要求。部署大語言模型需要強大的計算能力,這意味著需要高配置的計算芯片以及高效的算法優化。同時,為了維持大語言模型的性能和準確性,必須定期更新模型和算法,這無疑會增加額外的維護成本。人們也找到了一些方法來解決面臨的問題,例如,采用OTA技術進行模型的升級就是一種可行的方法。3.車端運行大語言模型可行性探討
下面,我們來探討在車端實現大語言模型的可行性。盡管ChatGPT-3.5和ChatGPT-4的表現令人印象深刻,但OpenAI公司并未將其開源,這導致我們難以對ChatGPT進行深入的量化分析。幸運的是,Meta公司(原Facebook公司)將他們的大語言模型LLaMA(LargeLanguageModelFamilyofMetaAI)進行了開源。這使得我們能夠根據模型的詳細信息和運行結果,來探討在智能座艙內部署LLaMA的可行性。
不論是ChatGPT還是LLaMA,大語言模型的基本處理流程都是相似的。假設我們向LLaMA模型提問:“床前明月光的下一句是什么?”我們來看看它是如何生成答案的。其推理過程和步驟詳見表2。表2
LLaMA模型的推理過程序列流程步驟說明1輸入數據LLM的輸入數據是一段文本,可以是一個句子或一段話。文本通常被表示成單詞或字符的序列。我們需要將問題轉化為機器可以處理的格式。這通常包括將文本分成一系列的詞(token)。在這個例子中,輸入數據將是“床前明月光的下一句是什么?”2分詞處理TokenizationTokenization
是一個在自然語言處理和文本分析中常用的術語,指的是將連續的文本(如句子、段落)拆分成一系列離散的詞素或標記的過程。這些詞素或標記被稱為“tokens”。它幫助將文本轉化為機器可以理解和處理的形式。在這個例子中,輸入數據被拆分成“床前”,“明月”,“光”,“的”,“下”,“一句”,“是”,“什么”。3Embedding
詞嵌入在Embedding過程中,每個Token(如“床前”)會被轉換為固定大小的向量。這個向量的具體值是由模型的訓練過程確定的,是模型學習到的語義信息的表示。每一個Token對應的嵌入向量,保存在模型的嵌入層權重文件中。這些權重文件通常在模型訓練過程中保存,并在推理時用于計算嵌入向量。4添加位置編碼PositionEncoding由于Transformer模型需要知道每個token在句子中的位置信息,因此需要在每個token的嵌入向量上添加位置編碼(PositionEncoding)。位置編碼告訴模型每個token在句子中的位置,幫助模型理解上下文信息。5Transformer推理接下來,將帶有位置編碼的嵌入向量輸入到LLaMA模型的Transformer結構中進行推理。LLaMA模型由多個自注意力層和跨注意力層組成。這些層會對輸入進行變換和更新,逐步生成輸出。6自回歸生成Autoregressive在Transformer模型中,每個token的生成依賴于之前的token。因此,我們使用自回歸的方式逐步生成輸出。這意味著我們先生成第一個token,然后使用這個token作為輸入來生成第二個token,以此類推,直到生成完整的答案。在這個例子中,我們從“床前明月光的下一句是”開始,然后逐步生成每個后續的詞,直到得到完整的詩句“疑是地上霜”。7輸出處理最后,我們需要對模型的輸出進行處理,以獲得最終的答案。這可能包括去除停用詞、將輸出轉換為文本格式等。在這個例子中,最終的答案將是“疑是地上霜”。從表2的推理過程可以看到,一個大語言模型的推理過程,需要查詢“token”的權重。這就引出了大語言模型的一個重要指標:參數大小。大語言模型的參數大小,指的是模型中用于學習和生成文本的權重參數的數量。參數大小是衡量模型復雜度及其所需存儲空間的關鍵指標。當我們提及大語言模型的參數大小為7B或13B時,“B”代表“Billion”,即十億。因此,7B意味著模型包含70億個參數,而13B則表示模型包含130億個參數。這些參數在訓練過程中被學習,旨在描繪語言的復雜模式和生成有意義的文本。參數大小對模型的表現和性能具有重要影響。通常來說,更大的參數規模使模型能夠捕捉更復雜的語言模式和語義信息,但同時也提升了模型的復雜性和訓練成本。在進行Transformer推理時,這些參數權重文件需加載到NPU的計算單元中。模型參數越多,其回答往往更為精確。然而,相應地,它對NPU計算資源和主存儲器(DDR)傳輸帶寬的要求也更高。(1)DDR帶寬需求
要計算DDR帶寬需求,首先需要了解不同參數規模的模型對DDR存儲空間的需求。表3總結了不同參數規模的LLaMA模型所需要的存儲空間。表3
LLaMA空間需求對照表參數大小(B)RAM空間需求
(fp32)RAM空間需求
(fp16)RAM空間需求
(int8)RAM空間需求
(int4)7B28GB14GB7GB3.5GB13B52GB26GB13GB6.5GB32.5B130GB65GB32.5GB16.25GB65.2B260.8GB130.4GB65.2GB32.6GB從表3可以看到,參數規模為7B的模型,假如參數精度為int4,那么每一個參數需要用到0.5字節來保存。70億*0.5=3.5GB。如果參數精度為fp32,那么每一個參數就需要使用4字節來保存,這時模型的大小就是70億*4=28GB。根據Transformer模型的自回歸機制,計算每個“Token”時,需要加載模型權重文件。由于NPU內部用于高速計算的片內隨機存取存儲器(RAM)空間有限,我們不可能將整個模型都完全加載到NPU的高速RAM空間中,而只能采用動態加載方式。比如說,我們如果采用7B模型,精度為int4,那么每次計算都需要分批從主存儲器讀取3.5GB大小的模型參數文件到NPU中進行計算。Token速率的計算公式為:在上述公式中,KVCache是NPU的片上緩沖區,它用于存儲在Transformer自注意力機制中計算得到的鍵-值對(key-value)。這些鍵-值對在自回歸解碼的后續時間步驟中被重復使用,這樣就避免了重復計算的開銷。與模型參數所占的空間比較,KVCache的數值相對較小。因此,在計算過程中我們可以忽略KVCache。在此前提下,再考慮到DDR的帶寬利用率通常設定為80%,其理論帶寬的計算公式為:假設我們希望做到每秒能計算30個Tokens,那么DDR理論帶寬就需要達到30(tokens/s)*3.5(GB)/0.8=131GB/s。如果將每秒Tokens降低到20,則DDR帶寬需求也就相應地降低到20(tokens/s)*3.5(GB)/0.8=87.5GB/s。(2)NPU的算力需求
除了DDR帶寬的需求之外,我們再來看看如何計算LLaMA模型所需要的算力資源。FLOPS(FloatingPointOperationsperSecond),即每秒浮點運算次數,是衡量計算速度的單位。它通常以MFLOPS(每秒一百萬次浮點運算,即10^6次)、GFLOPS(每秒十億次浮點運算,即10^9次)和TFLOPS(每秒一萬億次浮點運算,即10^12次)等單位來表示。
根據資料,推理Transformer和大語言模型時,所需算力(FLOPS)的計算公式為:其中,T代表Tokens數目,P代表模型的參數數量。以7B模型為例,假設需要達到30tokens/s的推理速度,那么FLOPS=6*30*7*10^9=1260*10^9。也就是1.26TFLOPS。根據以上計算可以得出結論:如果我們要在智能座艙端側進行大語言模型的推理,那么對SoC芯片的DDR帶寬和NPU算力都有一定的要求。這些要求與所采用的大語言模型的參數大小、參數精度以及推理速度需求都密切相關。相對而言,在車載環境中運行大語言模型時,對DDR帶寬的性能要求比對NPU算力的要求更高。六、艙駕一體化在智能座艙的演進過程中,艙駕一體化成為了一個極具現實意義的議題。眾多行業專家都認為,艙駕融合代表著未來的發展趨勢。以中央集中式區域控制的EEA架構為例,它在宏觀意義上已經實現了艙駕融合。在分布式域控制器的EEA架構中,智能座艙域控制器和自動駕駛域控制器被分別置于不同的“盒子”內,二者之間通過以太網相連,雖然可以傳輸一些控制信息,但基本上是在各自獨立運行。然而,在中央計算平臺的架構下,智能座艙SoC和自動駕駛SoC被整合在同一個盒子中,并通過高速總線(例如PCIe)相連,其帶寬可達數十GB每秒。這樣的技術環境使得智艙SoC和自駕SoC能夠實現一定程度的算力共享。簡而言之,它們可以相互配合,協同完成任務。這種做法不僅有效地實現了算力的共享,還能共享外部傳感器,從而推動了艙駕融合的實現。例如,車載前視攝像頭是自動駕駛域中用于視覺感知的關鍵傳感器,其采集的圖像被應用于自動駕駛系統。在智能座艙域中,同樣需要一個前視攝像頭來捕獲圖像,以實現行車記錄儀的功能。若能實現艙駕融合,自動駕駛SoC可先處理車載前視攝像頭的圖像信息,隨后通過PCIe總線將其傳遞給智能座艙SoC,從而實現資源的共享使用。對于智能座艙域而言,這不僅能節省一顆攝像頭的成本,還能減少ISP的開銷。類似這種算力共享的應用場景不勝枚舉,從成本降低的角度來看,艙駕融合具有顯著的實用價值和廣泛的客戶需求。
1.自動駕駛系統分級
在深入探討艙駕融合的功能之前,我們先來簡要回顧一下自動駕駛的功能及其所需的硬件架構。首先,我們需要明確一個概念:目前所謂的自動駕駛技術,實際上仍屬于高級輔助駕駛系統(ADAS,AdvancedDriverAssistanceSystems)的范疇,在自動駕駛等級中位于L3級別以下。根據ADAS功能的不同,業界各廠家通常將自己的產品定位為從L2級別到L2+++級別。對于自動駕駛等級的劃分,業界已達成一定的共識,具體如表4所示。表4自動駕駛等級劃分分級L0L1L2L3L4L5稱呼無自動化駕駛支持部分自動化有條件自動化高度自動化完全自動化定義人類駕駛員全權駕駛汽車,在行駛過程中可以得到警告通過駕駛環境對方向盤和加減速中的一項操作提供支持,其余由人類來做通過駕駛環境對方向盤和加減速中的多項操作提供支持,其余由人類來做由無人駕駛系統完成所有的操作,根據系統要求,人類提供適當的應答由無人駕駛系統完成所有的操作,根據系統要求,在限定道路和環境條件下,人類不一定提供適當的應答由無人駕駛系統完成所有的操作,不限定道路和環境條件,人類無需提供應答駕駛操作人類駕駛員人類駕駛員/系統系統周邊監控人類駕駛員系統支援人類駕駛員系統系統作用域無部分全部表4為我們討論自動駕駛提供了分級的參考依據。我們必須認識到,目前的自動駕駛系統仍處于L3級別以下,還無法保證完全實現有條件的自動駕駛目標。當討論L2+++級別的自動駕駛系統時,我們需要對其進行分解,以便更清楚地了解在哪些具體情況下可以實現艙駕一體化。參考表5,它對ADAS系統的功能進行了分解。表5
ADAS系統功能概述功能名稱說明分類L2NOPNOAACC自適應巡航控制這是一種通過車載傳感器感知前方車輛的距離和速度,自動調節車輛的巡航速度,與前車保持安全的距離的技術自動駕駛類
YYYLKA車道保持輔助這是一種通過車載攝像頭或雷達監測車輛的位置,并向駕駛員發出警告或主動糾正方向盤,確保車輛不偏離所在車道的系統YYYLCA車道變更輔助通過雷達和攝像頭等傳感器實時監測車輛周圍的環境和障礙物,在側方和后方安全范圍內為駕駛員提供提醒和警告,以輔助駕駛員進行安全變道YYALC自主變道通過車輛上的傳感器和高級算法,自動駕駛系統可以實時檢測周圍的交通狀況,并判斷是否可以安全地進行變道。如果條件允許,ALC系統會自動進行轉向操作,輔助車輛完成變道。YYTSR交通標志識別該系統通過攝像頭識別交通標志和限速標志,并發出提示信息YYTJA交通擁堵輔助一種在交通擁堵情況下自動控制車輛行駛的技術,包括加速、減速、轉向等操作。YYUDS城市道路駕駛輔助在城市道路上,UDS可以通過感知周圍環境,提供輔助駕駛功能,如自動避障、自動識別行人等。YDMS駕駛員狀態監控通過傳感器監測駕駛員的生理狀態,如疲勞、酒駕等,并在必要時發出警告安全監控類YYYFCW前方碰撞預警通過傳感器來時刻監測前方車輛,判斷本車與前車之間的距離、方位及相對速度,當存在潛在碰撞危險時對駕駛者進行警告。YYYBSD盲點監測該系統通過雷達或攝像頭檢測車輛盲區內的物體,并在側后視鏡上顯示警示標志或聲音警告YYLDW車道偏離預警LDW系統提供智能的車道偏離預警,在駕駛員無意識(未打轉向燈)偏離原車道時,發出警報YYYAEB自動緊急制動是基于環境感知傳感器,如毫米波雷達或攝像頭來感知前方可能與車輛、行人或其他交通參與者發生的碰撞風險,并通過系統自動實施制動的主動安全技術YYYAVM360環視監控一種典型的L2級別功能,它可以監測車輛四周的影像,并利用圖像畸變還原、視角轉化、圖像拼接、圖像增強等技術,形成全車周圍的一整套視頻圖像,讓駕駛員清楚查看車輛周邊是否存在行人、移動物體、非機動車、障礙物并了解其相對方位與距離。泊車類YYYAPA自動泊車輔助利用車載傳感器(一般為超聲波雷達或攝像頭)識別有效的泊車空間,并通過控制單元控制車輛進行泊車YYRPA遙控泊車輔助在APA自動泊車技術的基礎之上發展而來的,可以通過手機遙控實現泊車入位,它解決了停車位狹窄,難以打開車門的問題YYHPP記憶泊車輔助HPP通過車輛的傳感器來學習、記錄、儲存我們平常上下車的位置、停車的操作、停車行進路徑以及停車固定位置等,然后當我們再次駕車到達這些地點時,可以實現車輛自動泊入終點附近已被HPP系統記憶的車位YAVP代客泊車AVP代客泊車功能主要依賴于傳感器、通信技術等,通過這些技術,車輛可以在不需要駕駛員干預的情況下,自動尋找停車位,并進行泊車。當駕駛員需要取車時,只需要通過手機等設備發出指令,車輛就會自動從停車位駛出,并停到指定的位置。Y從表5可以看出,入門級的L2ADAS系統能滿足最基礎的輔助人類駕駛員操控汽車的任務。它的主要作用是緩解駕駛員的疲勞,并為駕駛員提供必要的警告信息,從而有助于減少事故和意外的發生。NOP(NavigateOnPilot)指的是在導航輔助的情況下,車輛可以根據導航路徑自動巡航行駛,這包括自動進出匝道、自動調整車速、智能變換車道等功能。NOP系統依賴于高精度地圖、導航系統以及各種車載傳感器來實現這些功能。NOA(NavigateonAutopilot)則更注重在整個駕駛過程中的自動化和智能化。與NOP相比,NOA在功能上可能更加全面和高級,它包括自動泊車、自動變道、自動超車、自動巡航等多種功能,并且能夠根據道路信息和交通狀況做出更加智能的駕駛決策。一般來說,NOA不依賴高精地圖,可以通過車載傳感器自主感知、決策和規劃,實現城區道路的自動駕駛,而NOP則通常只能在高速道路上應用。2.ADAS系統對硬件資源的依賴
根據入門級L2系統、NOP系統和NOA系統在功能上的不同劃分,它們對硬件資源的需求也各不相同。表6展示了這三類ADAS系統所依賴的硬件資源條件。需要注意的是,由于各廠商采用的自動駕駛算法不同,對ADAS系統的理解也有所差異,因此他們在硬件資源的選擇上也會有所不同。所以,這個表格中所列舉的情況并不能適用于所有廠商,僅作為參考。表6
ADAS系統硬件資源依賴傳感器用途入門級L2NOPNOA攝像頭
(V)前視攝像頭1個廣角1個廣角+1個長焦1個廣角+1個長焦環視攝像頭4個魚眼(前后左右)4個魚眼(前后左右)4個魚眼(前后左右)側視攝像頭1個左前+1個右前(可選)1個左前+1個右前
+1個左后+1個右后后視攝像頭1個廣角1個廣角毫米波雷達(R)前雷達1個1個1個前角雷達2個(可選)2個后角雷達1個左后+1個右后2個激光雷達(L)前視雷達1個4D毫米波雷達(I)前視雷達1個
(替換激光雷達)超聲波雷達(USS)前后環繞12個12個12個高精地圖用于高速道路需要需要不需要NPU算力(TOPS)20T100T以上200T以上總結5V1R(5個攝像頭+1個毫米波雷達)7V3R或者9V5R11V5R1L(11個攝像頭+5個毫米波雷達+1個激光雷達)從表6可以明顯看出,根據所需實現的目標不同,ADAS系統的硬件資源需求也會有所不同。若我們考慮實現艙駕一體化,那么就需要深入探究在不同目標下如何實現艙駕的有效融合。具體來說,各種目標對于NPU算力的需求、接入攝像頭的數量,以及是否需要激光雷達的支持等方面都存在顯著差異。而這些硬件需求上的差異,進一步導致了整個系統架構的多樣性。3.艙駕一體化架構探討
一般來說,艙駕一體化分為“One-Box”,“One-Board”,“One-Chip”這三種不同的架構,如圖6所示。圖6
艙駕一體化架構體系從圖6可以看到,在上述三種
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 嵌入式產品的市場定位研究試題及答案
- 醫院助理護士管理制度
- 固定資產維修管理制度
- 加強公園設施管理制度
- 公路檢測設備管理制度
- 合伙創業薪資管理制度
- 前廳餐具衛生管理制度
- 學生上網時間管理制度
- 幼兒園保管室管理制度
- 制衣車間紀律管理制度
- 請結合身邊實際談談全面建成小康社會的歷史意義是什么?(六)
- 中考詞匯完整版
- Photoshop圖像美化的實戰經驗與分享試題及答案
- 昆蟲生態學 第三章種群生態學課件
- 2025屆天津市和平區第二十中學數學八下期末復習檢測模擬試題含解析
- 政府委托經營協議書
- 江蘇省南通市通州區、如東縣2025屆九年級下學期中考一模化學試卷(含答案)
- (高清版)DG∕TJ 08-2243-2017 市屬高校建筑規劃面積標準
- 良渚文化課件
- 股權無償劃轉協議書
- 食品配送服務質量保障措施
評論
0/150
提交評論