具身智能行業深度:技術路線、市場機遇、產業鏈及相關公司深度梳理_第1頁
具身智能行業深度:技術路線、市場機遇、產業鏈及相關公司深度梳理_第2頁
具身智能行業深度:技術路線、市場機遇、產業鏈及相關公司深度梳理_第3頁
具身智能行業深度:技術路線、市場機遇、產業鏈及相關公司深度梳理_第4頁
具身智能行業深度:技術路線、市場機遇、產業鏈及相關公司深度梳理_第5頁
已閱讀5頁,還剩58頁未讀, 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

行業|深度|研究報告 行業研究報告慧博智能投研隨著人工智能技術的飛速發展,具身智能正逐漸成為科技領域的前沿熱點。具身智能融合了人工智能、機器人技術、機器學習、感知科學等多學科知識,通過物理載體與環境的交互,實現自主學習與智能決策,展現出巨大的應用潛力和商業價值。從工業自動化到家庭服務,從醫療康復到公共安全,具身智能的應用場景不斷拓展,推動著人類社會向更加智能化的方向邁進。本報告深入剖析了具身智能行業的全貌,報告從行業概述出發,詳細梳理了具身智能的定義、核心要素、發展歷程,進一步分析了推動其快速發展的關鍵驅動因素。同時,報告深入探討了具身智能的行業現狀、市場規模預測、技術路線選擇,以及產業鏈上下游的構成與發展趨勢。此外,報告還聚焦于具身智能領域的相關企業,分析其業務布局、技術優勢與市場表現,并探討了行業面臨的挑戰與未來技術趨勢。為讀者提供一份全面、深入的參考。一、行業概述 1二、驅動因素 6三、行業現狀及規模預測 8四、具身智能技術路線 11五、產業鏈分析 22六、市場機遇 28七、相關公司 35八、發展挑戰及技術趨勢 39九、參考研報 41具身智能(EmbodiedArtificialIntelligence,EAI)是指有物理載體的智能體,在與物理世界的交互過程中,通過感知、控制和自主學習來積累知識和技能,形成智能并影響物理世界的能力。具身智能的實現方式多種多樣,可以根據具體任務和環境需求選擇合適的智能實體形態,其中人形機器人作為具身智能的典型代表,被視為實現具身智能的最佳載體之一。1/42行業|深度|研究報告 具身智能由四個核心要素組成:本體、智能體、數據和學習進化框架。具身智能指的是那些能夠感知周圍環境、進行智能交流以及規劃行動的智能系統。從機器人的角度出發,具身智能在機器人上的應用體現可以劃分為三階段:感知、推理、執行。機器人需要具備環境感知能力,依據感知對象的不同,可以分為四類:物體感知、場景感知、行為感知、表達感知。具身感知的過程主要包括以下幾步:2/42行業|深度|研究報告 具身感知的過程主要包括以下幾步:任務規劃、導航、具身問答。任務規劃:任務規劃(TaskPlanning)是具身智能的核心任務之一,將抽象的非可執行人類指令轉換為具體的可執行技能。這一步驟的完成需要兩步:1)將人類指令分解為機器人可執行的技能,2)執行技結合大模型的任務規劃:大模型作為轉換器、大模型作為分解器。作為轉換器:LLM+P,用LLM將狀態信息描述成PDDL語言再進行規劃,取代以往需要人工針對實際問題書寫PDDL語言對任務進行建模;作為規劃器:可以zero-shot進行任務規劃。具身導航(EmbodiedNavigation):智能體在3D環境中移動完成導航目標。早期的具身導航,通過構建一系列基于規則的組件和算法,實現有效的環境感知、定位、路徑規劃和避障。而基于學習的導航則利用深度學習與強化學習技術,提高模型對復雜環境和新場景的泛化能力。不同于傳統算法依賴預定義的規則和手工設計的特征,基于學習的導航算法從大量數據中學習環境特征和導航策略,實現強自適應性和高靈活性。視覺導航:基于學習的導航的一個重要分支,它依靠計算機視覺來理解環境信息并做出導航決策。視覺語言導航:通過自然語言指令和視覺圖像進行導航的任務,其目標是開發一種能夠與人類進行自然語言交流并在現實3D環境中導航的具身智能體。1)大模型出現之前:主要通過RNN,LSTM,Transformer等網絡來提取命令中的語義信息;2)大模型出現后:利用大模型作為輔助來幫助規劃器輸出規劃或者大模型直接作為規劃器來輸出規劃。3/42具身問答:機器人需要主動探索環境,定位目標物體或位置獲取環境中的信息,然后基于獲取的信息回答問題。該任務可視為導航、VQA任務的結合。相比于VQA等已有問答任務,具身問答的特點在于機器人具有主動行動能力。具身執行,就是把任務具體執行出來,其中最重要的環節就是技能學習。技能學習:以技能描述、環境觀察為輸入,輸出完成技能所需的7Dof軌跡(主要指人手腕或者機械臂末端執行器的位置、朝向、末端狀態)。技能學習主要有兩類方法:模仿學習:收集專家演示數據,用神經網絡擬合。強化學習:設計獎勵函數,機器人通過交互學習行為策略。兩者的差別在于:模仿學習是從樣例中學習,機器人學習過程中不與環境進行交互;而強化學習從交互中學習,機器人學習過程中與環境進行交互。4/42行業|深度|研究報告 技能學習+大模型:通用執行模型結構:具身智能經歷5個發展階段,正步入應用階段;1950-1980年,為具身智能概念萌芽階段,圖靈在其論文中提出了人工智能可能的發展方向,為具身智能的概念奠定了基礎。1980-1990年,為早期探索與理論發展,羅德尼··普費弗等人的研究為具身智能提供了重要理論支撐。2000-2010年,為跨學科融合與技術突破階段,具身智能研究開始融合跨學科的方法和技術,如機構學、機器學習、機器人學等,形成了相對完整的學科分支。2011-2020年,深度學習技術的快速發展為其注入了新的發展動力。2021年至今,為產業應用階段。具身智能受到科技界和產業界的廣泛關注,眾多科技巨頭及高等學府紛紛投入相關研究。如今,具身智能作為人工智能的重要分支,正逐步走向產業應用,推動專用機器人向通用機器人發展。5/42行業|深度|研究報告 具身智能機器人是我國發展新質生產力的未來產業新賽道,集成了AI、先進制造、新材料等先進技術,將對社會產業變革和全球競爭格局產生顛覆性影響。無處不在的應用潛力預示著龐大的市場需求、國家與地方長期的政策規劃支持、核心零部件供應鏈完善形成集群效應、以及健康良好的人才和創業生態,多方面因素推動我國成為具身智能技術發展的沃土。當前,國內的高校院所、科技大廠、初創企業均在布局以AI大模型和人形機器人為代表的前沿領域,我國在具身智能領域已經走在國際前列。政府工作報告首提具身智能:2025年3月5日,十四屆人大三次會議開幕,國務院總理李強作政府工作報告。在《2025年政府工作報告》中提到,建立未來產業投入增長機制,培育生物制造、量子科技、具身智能、6G等未來產業。同時還提到,大力發展智能網聯新能源汽車、人工智能手機和電腦、智能機器人等新一代智能終端以及智能制造裝備。具身智能和智能機器人是首次出現在《政府工作報告》當6/42行業|深度|研究報告 2023年11月,工信部發布《人形機器人創新發展指導意見》,提出到2025年,人形機器人創新體系初步建立;到2027年,綜合實力達到世界先進水平,成為重要的經濟增長新引擎。2024年1月,《工業和信息化部等七部門關于推動未來產業創新發展的實施意見》中,提出要突破人形機器人等高端裝備產品。突破機器人高轉矩密度伺服電機、高動態運動規劃與控制、仿生感知與認知、智能靈巧手、電子皮膚等核心技術,重點推進智能制造、家庭服務、特殊環境作業等領域產品的研制及多地開始打造人形機器人產業創新中心,推動具身智能基礎模型、仿真應用等發展。具身智能是上海“模塑申城”方案五大關鍵領域之一。2024年5月,國家地方共建人形機器人創新中心落地上海。在不到一年的時間里,已發布了全球首臺全尺寸人形機器人公版機“青龍”,建立了OpenLoong人形機器人開源社區,聯合15家企業構建了“十八金剛”人形機器人陣列,圍繞人形機器人場景應用、具身智能分級分類等領域,制定了全國首批團體標準,開設了全國首個異構人形機器人訓練場。同時,上海正在實施“模塑申城”方案,重點在智能終端、科學智能、在線新經濟、自動駕駛、具身智能等五大關鍵領域,對制造、金融、教育、醫療、文旅、城市治理等六大重點行業開展供需聯合攻關,以超級場景牽引應用迭代。7/42全球主要經濟體均高度重視具身智能的發展,不斷提升細分領域關注度。具身智能技術不斷創新,國內外知名企業積極布局。具身智能在各大企業的推動下正快速發展,技術不斷創新,應用場景日益廣泛。從軟硬件解耦技術到人形機器人的研發與應用,再到與大模型的深度融合,具身智能正逐步成為人工智能領域的重要分支。特斯拉、谷歌、英偉達、Figureone、宇樹科技、智元、小米、優必選、華為、科大訊飛等國內外多家知名企業均在具身智能領域積極布局,并已取得顯著進展。8/42行業|深度|研究報告 國內數量眾多的創業公司們正將最前沿術研究與產品研發相結合,為具身智能市場釋放無限想象力。技術發展一脈相承,車企加速部署人形機器人。自動駕駛是具身智能的一個重要場景,都具備“感知-決策-規劃-控制”的算法架構,具身智能和自動駕駛在技術實現路徑上是一脈相承的,且算法與零部件可實現高度復用,這是Tesla給業界帶來的啟示。當下,智能輔助駕駛已經跑通商業化路徑,進入卷交付、卷規模、卷性價比的階段,這為具身智能未來的技術打磨路徑和商業化提供了一些參考。同時,汽車行業從主機廠到供應商,從投資人到創業者,都在從自動駕駛轉向追求更多場景的具身智能:主機廠或自研或投資具身智能公司,而人形機器人企業也在尋求機器人“進場打工”的機會。如果說OpenAI的ChatGPT引爆了2023年對大語言模型的投資熱潮,那么Tesla入局人形機器人和黃仁勛的“AI的下一個浪潮是具身智能”,則徹底帶火了具身智能與人形機器人領域的投資熱潮,成為2024年科技產業投資的最大熱點。9/42行業|深度|研究報告 從投資角度看,頭部人形機器人的本體研發集成廠商已經歷多輪融資,估值較高,行業整體投資熱點正從人形機器人本體向具身智能模型和其他上游零部件遷移。自動駕駛載具和機器人構成兩大主要載體,根據36氪測算,國內具身智能行業規模2027年有望突破1.25萬億元,2018-2027年CAGR達17.6%。10/42行業|深度|研究報告 四、具身智能技術路線具身智能系統通過“大腦”(感知、理解和規劃,基于大語言和視覺語言模型)、“小腦”(運動控制和動作生成,基于運動控制算法和反饋控制系統)和“身體”(動作執行,由機器人本體支持)三個層級協同工作。讓機器人“大腦”實現突破最核心的推動力是大模型實現涌現、成為真正的生產力。大模型的能力與機器人的需求十分契合,只需要告訴機器人它要做的任務是什么,機器人就會理解需要做的事情,拆分任務動作,生成應用層控制指令,并根據任務過程反饋修正動作,最終完成人類交給的任務,整個過程基本不需要或者僅需少量人類的介入和確認,基本實現了機器人自主化運行,無需掌握機器人專業操作知識的機器人應用工程師介入。11/42行業|深度|研究報告 目前,具身大模型可以分為兩大流派。一類是端到端大模型,一類是分層具身大模型。從人體“大腦-小腦-肢體”的架構來看,分層大模型通過不同層次模型協作,利用底層硬件層和中間響應快的小模型彌補上層大語言模型的不足,推動機器人在實際場景的應用,并越來越多地采用基于學習的控制方法。VLA等端到端模型能夠直接實現從人類指令到機械臂執行,即輸入圖像及文本指令,輸出夾爪末端動作。分層式路線一度是主流選擇,因為端到端路線受數據制約難以達到性能要求;機器人數據正在逐步積累,端到端路線在未來可能成為主流。端到端大模型可實現直接端到端地從人類指令到機械臂執行,即輸入是圖像及文本指令,輸出是夾爪末端動作。以谷歌的RT-1到RT-2的進化迭代為例:谷歌RT-1——關注泛化能力:2022年,谷歌機器人研究團隊歷時17個月基于13個機器人得到了130kepisodes以及超過700個任務的數據,在該數據集的基礎之上,基于模仿學習中行為克隆學習范式,把Transformer應用機器人的操縱任務上,提出了RT-1模型。RT-1的輸入由圖片序列、自然語言指令構成,輸出由機械臂運動的目標位姿(Toll,pitchgaw,gripperstαtus)、基座的運動、模式轉換指令構成。谷歌RT-2——獲得涌現能力:2023年,Google的DeepMind團隊基于互聯網上數據訓練視覺-語言模型(VLM),使其能夠學習到更多關于視覺和語言之間映射關系的知識后,在機器人操縱任務上微調,提出了RT-2。RT-2的目標是訓練一個學習機器人觀測到動作的端到端模型,且能夠利用大規模預訓練視覺語言模型的益處,經測評,這類學習方法產生的Vision-Language-Action(VLA)模型獲得了涌現能力。端到端大模型2.0階段:VLA。以谷歌RT-2發布為標志,VLA模型正式進入人們的視野中并快速發展。12/42行業|深度|研究報告 VLA模型是在視覺語言模型(VLM)的基礎上發展而來的。在VLM基礎上,它還利用了機器人或汽車運動軌跡的數據,進一步訓練這些現有的VLM,以輸出可用于機器人或汽車控制的動作序列。通過這種方式,VLA可以解釋復雜的指令并在物理世界中執行相應的動作。VLA大模型結合了視覺、語言和動作三種能力。端到端大模型的主要優缺點:優點(以VLA為例):1)端到端架構:VLA是一個端到端的大模型,這意味著它可以簡化傳統上需要多個獨立模塊才能完成的任務流程。這不僅可以提高系統的效率,還能增強其靈活性和適應性。2)泛化能力:VLA具有強大的泛化能力。以谷歌DeepMind推出的RT-2為例,該模型可以在新的物體、背景和環境中表現出顯著改善的性能。它可以理解并響應那些在訓練數據集中未曾出現過的命令,并基于底層語言模型提供的思路鏈進行推理,從而做出合理的決策。3)通用性:VLA具備高度的通用性。由于它是建立在一個通用的大規模預訓練基礎上,因此理論上幾乎所有的“智能機器設備”都可以使用這套算法。無論是汽車、飛行器還是其他類型的機器人,只需要經過適當的微調就能滿足特定應用場景的需求。13/42行業|深度|研究報告 缺點:1)數據來源非常有限:谷歌在MountainVillage(美國加州)辦公室的廚房里采集了17個月,得到13萬條數據,使得其機器人在谷歌的廚房里表現可以非常好。但一旦出了這個廚房,需要考察其環境泛化性,它的成功率就從97%驟降到30%左右。并且這種泛化是有選擇的泛化,不是將其直接放到施工工地、非常嘈雜的后廚等場景中。2)推理、響應速度仍有待提升:RT-2大模型中包含了谷歌上一代大模型PaLM-E,它的速度只能達到1~3Hz,對應機器人的反射弧長達0.3秒甚至1秒。分層決策模型通過將感知、規劃決策、控制和執行各模塊分解為多個層級,分別突破“大腦”和“小腦”,利用不同的神經網絡進行訓練,最終再整合起來。一個典型案例如Figure02。Figure02采用三層級方案:1)頂層集成了OpenAI的大模型,負責視覺推理和語言理解;2)中間層是神經網絡策略(NNP),負責快速、靈巧的操作,將視覺信息直接轉換為動作指令,并輸出這些指令;3)底層是全身控制器,負責提供穩定的基礎控制,在接收NNP的動作指令后,輸出各關節的扭矩指令。另一典例如銀河通用的三層級大模型方案。1)底層是硬件層,2)中間層是通過仿真合成數據不用任何真實世界數據訓練的泛化的技能,3)最上層是大模型,可以調度中間技能API,來實現完整的從任務的感知、規劃到執行的全流程。分層模型中,大模型為“大腦”。在分層端到端模型方案中,機器人的四大板塊(感知、規劃決策、控制和執行逐漸被類人化地劃分為負責解決高層次認知或決策問題(highlevel)的“大腦”,以及負責基礎層面的功能性問題(lowlevel)的“小腦”。兩大系統各司其職又互相合作,“大腦”負責解析任務需求,整合來自傳感器的信息,進行任務的細化和策略規劃;“小腦”則專注于精細的運動控制,確保在“大腦”制定的策略指導下,機器人能夠準確無誤地執行動作并進行必要的調整。目前較為普遍的方向是,機器人的“大腦”由大模型來擔任,“小腦”則依然為底層控制算法。大腦:負責highlevel的感知和規劃決策系統,是多模態大模型?;诙嗄B大模型,機器人能學習、理解、融合和對齊各傳感器采集而來的跨模態信息,實現對復雜環境的魯棒建模與更精準、通用的感知,并根據環境情況,自主拆解任務、規劃動作。目前基于大模型的“大腦”技術路線正處在并行探索階段,并逐漸向端到端的大模型演進。現階段主要是4條技術路線:1)LLM(大語言模型)+VFM(視覺基礎模型實現人機語言交互、任務理解、推理和規劃,目前最為成熟。主要代表是谷歌的SayCan模型。2)VLM(視覺-語言模型):彌合語言與視覺理解間的差距,實現更準確的任務規劃和決策,主要代表是清華大學的CoPa模型,利用嵌入在基礎模型(比如視覺語言模型的代表GPT-4V)中的常識知識為開放世界機器人操控生成一系列的自由度14/42行業|深度|研究報告 末端執行器姿勢,生成的操控任務分為任務導向抓取和感知運動規劃。3)VLA(視覺-語言-動作模型):在VLM基礎上增加運動控制,解決機器人運動軌跡決策問題。主要代表是谷歌RT-H模型,學習語言和運動,并使用視覺上下文,通過利用語言-視覺-動作結合的多任務數據集學習更強大和靈活的動作策略。4)多模態大模型:實現對物理世界環境的全面感知,是未來的主要研究方向。主要代表是麻省理工、IBM等共同研究的MultiPLY模型,將視覺、觸覺、語音等3D環境的各類特征作為輸入,以形成場景外觀的初步印象,并通過多視圖關聯將印象中的輸出融合到3D,最終得到以對象為中心的場景特征。“小腦”:加載人工智能技術,運動方式更加擬人?!靶∧X”的運動規劃與控制是人形機器人實現自然和流暢動作的關鍵。目前,“小腦”運動控制包括基于模型的控制方法和基于學習的控制方式兩個大類。傳統的基于模型的控制方法:通過建立機器人的運動學和動力學模型,進行運動軌跡規劃和平衡控制。這一類方法的特點是身體控制穩健,但步頻較慢,且整體開發較為復雜,成本高,不利于產品快速迭代?;谀P偷目刂品椒ň唧w包括ZMP判據及預觀控制、混雜零動態規劃方法、虛擬模型解耦控制、模型預測控制+全身控制(MPC+WBC)等?;趯W習的控制方法:使用端到端的人工智能技術,代替復雜的運動學模型,大幅度降低了“小腦”開發難度、提升了迭代速度,一般通過人類示教或自主學習建立運動執行策略,其中通過人類示教的方式也稱為模仿學習,效果依賴高質量示范數據;通過自主學習的方式也稱為強化學習(ReinforcementLearning,RL),指通過精心設計學習目標,機器人不斷在環境中探索逐漸發現最大化獎勵的方式學習到最優的執行策略,效果依賴于仿真環境。通往One-Model端到端大模型是個循序漸進的過程。根據智元機器人定義的路線圖,當前具身智能大腦已經具備認知、推理、規劃的能力,且而小腦層面機器人技能任務的訓練也是通過深度學習以驅動的。隨著場景、數據的增多,多個特定小模型會逐漸泛化為通用操作大模型,并最終實現與上層模型的融合。15/42行業|深度|研究報告 當前的具身智能是通過深度學習技術(模仿學習、強化學習等)從大量數據中學習并實現的,巨量的、優質的、多樣的數據,是具身智能機器人能夠實現各種各樣自主操作的基礎。數據采集方式呈現多元化,遠程操作、機器人自主探索、仿真合成數據等方式各有優劣,為具身智能訓練數據集添磚加瓦。自動駕駛的數據采集方式具備借鑒意義:在規模化部署以后,機器人在影子模式下自主探索,通過與環境互動收集多元數據,在云端形成數據閉環,再反哺模型的調整與訓練,這也是具身感知、學習的具體遠程操作,即由實驗人員操作機械手柄,遠程控制機器人做出相同動作,以此來積累數據。近期的研究通過多個操作員協作收集了大規模多樣化的數據集,結果表明,基于這些數據集訓練的機器人表現出色,甚至能夠在不同環境中泛化。然而,數據采集是這一方法更廣泛應用的主要瓶頸。在單臂機器人任務中,數據采集通常需要多個操作員、機器人以及數月的人力投入。針對類人機器人的數據采集則更具挑戰性,因為同時控制多只手臂和多指靈巧手的復雜性較高。為了實現類人機器人的實時遠程操作,研究人員開發了專門的遠程操作界面,但這些界面的成本高昂,難以實現規?;?。類人機器人的任務復雜性也更高,因此數據需求更大,但由于操作員需同時控制多臂和多指手,工作負擔大幅增加,數據采集也更加困難。所謂仿真,即通過海量算力進行模擬運算,計算得出海量機器人訓練數據集。仿真可能是目前最有可能做到規?;瘮祿傻穆窂剑贿^其背后需要巨大的算力支持。2024年11月,來自英偉達、UTAustin和UCSD的研究人員推出了一種大規模自動化數據生成系統——DexMimicGen。它可基于少量人類演示合成類人機器人的靈巧手運動軌跡,幫助實現在更少人工干預下擴大類人數據的采集。DexMimicGen的核心思想是利用一小組人類演示,并通過在物理仿真中進行演示轉換和重放,自動生成大量適用于雙手靈巧操作場景中模仿學習的訓練數據。例如,從僅5個源人類演示開始,DexMimicGen可以生成1000個雙手靈巧任務的演示。研究團隊從60個源人類演示中總共生成了21000個演示,涵蓋了9種不同的任務。研究團隊發現,相較僅依賴源演示,DexMimicGen16/42行業|深度|研究報告 大幅提升了策略成功率,所有任務中基于DexMimicGen數據集訓練的機器人表現明顯優于僅基于少量源數據訓練的機器人。且隨著DexMimicGen數據量的增加,策略的性能也隨之提升。在一項名為《ExplainableHuman-RobotTrainingandCooperationwithAugmentedReality》的研究中,研究人員通過AR(增強現實)技術讓人機交互過程具備更強的可解釋性,從而進行數據積累。2024年10月,斯坦福李飛飛團隊發表論文《ARCap:CollectingHigh-qualityHumanDemonstrationsforRobotLearningwithAugmentedRealityFeedback》,提出了ARCap系統。ARCap是一種便攜式數據收集系統,它通過增強現實(AR)和觸覺警告提供視覺反饋,以指導用戶收集高質量的演示。ARCap使新手用戶能夠收集與機器人運動學相匹配的機器人可執行數據,并避免與場景發生碰撞。利用從ARCap收集的數據,機器人可以執行具有挑戰性的任務,例如在雜亂的環境中進行操作和長視野跨具身操作。ARCap完全開源且易于標定;所有組件均由現成的產品構建。視頻學習,即通過多模態大模型,直接讓機器人通過視頻學習人類動作,從而積累訓練數據??紤]到直接學習人類操作、人類遠程操控等方式的示教成本較高,“從人類視頻中學習”已成為機器人的主流訓練方法之一,如直接通過YouTube視頻進行策略學習。但視頻學習同樣有自己難以解決的問題:1)控制上:不同于以往的示教方法(如遙操作示教及拖動示教),視頻示教沒有提供機器人本體的motion數據,agent需要僅根據演示視頻生成action。2)感知方面,讓機器人理解人類演示視頻也具有很大挑戰,機器人與人類的視角不同,并且人類演示視頻中,每一幀是人手臂的運動圖像,而機器人捕獲的圖像是機械臂的運動圖像,這些原因導致了演示視頻與機器人感知的圖像之間存在gap。17/42行業|深度|研究報告 2024年12月,宇樹開源了一系列數據采集工具和數據集。數據采集工具包括但不限于:1)針對開源機器人系統R(obot)OS推出的模擬包,包含宇樹系列機器人的質量、慣量、力矩等參數;2)使用蘋果VisionPro對G1進行遙操作控制的倉庫,可以用于數據采集;3)RLGYM,用于機器人仿真訓練,之前開源了英偉達IssacGym平臺上的訓練代碼,這次新增了對MuJoCo模擬仿真的支持。數據集:包含五種操作,使用配備有三指靈巧手的宇樹G1人形機器人收集,每張圖分辨率為640×480,每個手臂和靈巧手的狀態和動作維度為7,可使機器人完成擰瓶蓋倒水、疊放積木等操作。在數據采集環節,宇樹運用了蘋果VisionPro進行G1的遙操作控制,該數據集采用640x480分辨率的圖像,并記錄了機器人手臂和靈巧手的七維狀態和動作數據。特斯拉在AI系統訓練中采取的是以真實數據為驅動的策略。為訓練Optimus機器人執行類人動作,特斯拉大量招募“數據收集操作員”,要求其穿戴動作捕捉服、VR頭顯等設備,模擬機器人需完成的動作(如行走、搬運物品)。Optimus的核心亮點之一在于其利用動作捕捉技術,以及VR和AR技術的融合應用,以實現更為真實的人類動作模擬。18/42以波士頓動力的Atlas人形機器人為例,Atlas依靠其視覺系統進行任務排序的推理,低層控制器進行行動規劃。而不管是“大腦”視覺系統還是“小腦”控制系統,都離不開數據訓練。Atlas的訓練過程融合了多個數據來源,包括真實工廠部署數據、實驗室測試數據以及仿真環境中的模擬數據。通過對這些數據進行強化學習,不斷訓練、調優規控算法,Atlas能夠逐步掌握類似人類的精細操作技能。(4)FigureAIFigureAI創建于2022年,相較于國內外幾家知名機器人公司成立時間較晚,側重于研究具身人工智能FigureAI基于端到端運動控制算法,結合OpenAI的GPT,先于特斯拉公開展示了人形機器人在無需預設程序的情況下的高度自主性和智能化交互,形成模型訓練-云端設施-車廠落地的閉環。19/42行業|深度|研究報告 近期,結束與OpenAI的合作后,FigureAI實現將首個自研具身模型Helix裝入機器人Figure。預告中展示了通過通用的“視覺-語言-感知”(VLA)模型Helix訓練機器人,將感知、語言理解和學習控制統一起來,展示出較大的多機協作與強大的泛化功能。其原理包括雙系統建構、端到端訓練、解耦架構、優化推理部署。Helix是一個通用的“視覺-語言-感知”(VLA)模型,將感知、語言理解和學習控制統一起來,可以通過自然語言直接控制人形機器人整個上半身。Helix是首創的“系統1、系統2”VLA模型,用于對整個仿人上半身進行高速、靈巧的控制。之前的方法面臨著一個基本的權衡:VLM骨架通用但不快速,而機器人視覺運動策略快速但不通用。Helix通過兩個互補系統解決了這一問題,這兩個系統經過端對端訓練,可以進行通信:系統1:快速反應視覺運動策略,將系統2生成的潛在語義表征轉化為200Hz的精確連續機器人動作。系統2:經過互聯網訓練的板載VLM,工作頻率為7-9Hz,用于場景理解和語言理解,可廣泛應用于各種物體和環境。這種解耦架構允許每個系統以其最佳時間尺度運行,系統2可以“慢思考”高層次目標,而系統1則可以“快思考”實時執行和調整動作。在訓練效率方面,Helix以極少的資源實現了強大的對象泛化能力。研究團隊總共使用了約500小時的高質量監督數據對Helix進行訓練,其規模僅為之前收集的VLA數據集的一小部分(<5%),并且不依賴于多機器人-具身收集或多階段訓練。同時,Helix只需一個統一的模型,就能在不同任務中實現強大的性能。Helix的系統2參數量為7B,系統1則為8000萬。20/42行業|深度|研究報告 銀河通用機器人有限公司成立于2023年,專注于通用具身多模態大模型機器人研發,并與北京大學等多所高校成立了具身智能相關聯合實驗室。銀河通用研發的端到端具身抓取基礎大模型GraspVLA及基于仿真數據驅動的訓練范式,能夠顯著提升機器人在復雜環境下的操作精度與適應性,尤其在處理多變材質、動態工況等挑戰場景中展現出卓越優勢。GraspVLA的訓練包含預訓練和后訓練兩部分。其中預訓練完全基于合成大數據,訓練數據達到了十億幀“視覺-語言-動作”對,掌握泛化閉環抓取能力、達成基礎模型。而針對特別需求,后訓練僅需小樣本學習即可遷移基礎能力到特定場景,維持高泛化性的同時形成符合產品需求的專業技能。整個開發過程無需大規模真實數據、僅通過合成數據達到基礎模型,開創了VLA領域發展的全新范式。在優必選內部,人形機器人訓練的數據的收集有這樣一個“二八定律”:用于人形機器人訓練的20%的數據,由真實的機器人在實際場景中進行遙操作收集而來,80%的數據則是在仿真環境下生成而來。因此,優必選搭建了人形機器人智能仿真系統UNDERS2,可以低成本地為人形機器人模擬和生成多樣化的場同時,優必選通過與比亞迪、吉利、東風柳汽等車企合作,將人形機器人(如WalkerS系列)部署在總裝車間實訓,打造人形機器人與無人物流車等協同作業的工業場景解決方案。目前優必選正在人形機器人應用場景中驗證DeepSeek技術的有效性,如多模態人機交互、復雜環境中的指令理解、工業場景中的任務分解與規劃等,有望利用推理大模型的深度思考能力解決復雜任務中的21/42行業|深度|研究報告 GR-1:VR動作捕捉,實現Sim2Real。傅利葉研發團隊率先在安全可控、低成本的仿真環境中訓練GR-1,再將訓練好的模型遷移到現實世界(Sim2Real)。這種方式大幅提升了算法的迭代開發效率,降低了算法開發的總體成本。研發人員穿戴VR和動作捕捉設備,遙操控制GR-1完成各種任務,記錄動作數據,用于訓練和改進仿真模型,優化機器人運動控制策略,增強在現實中的表現,像人類一樣靈活決策,完成各種任務。利用NVIDIAIsaacGym開發人形機器人GR-2:傅利葉團隊采用了NVIDIAIsaacGym(現已棄用)進行強化學習,利用NVIDIAIsaacGym開發人形機器人GR-2,目前正在將其工作流遷移到NVIDIAIsaacLab。同時利用IsaacGym對抓取算法進行預訓練,在實際部署前,對成功率進行仿真測算。這種方法顯著減少了真實世界中的試錯,節省了時間和資源。GR-2支持VR遙操作控制、拖拽示教、上位機末端控制等多種上肢示教方式。具身智能產業是一個融合了先進技術、復雜系統集成和多元化應用場景的綜合性產業。其產業鏈結構可清晰劃分為上游、中游和下游三個部分。22/42行業|深度|研究報告 上游環節是具身智能產業的基礎,主要包括芯片、傳感器、控制器、電機(含伺服電機)、通信模組、能源管理等。這些核心組件是構建具身智能所必需的“硬件”基礎。其中,芯片作為具身智能的“心臟”,主要提供強大的計算能力,支持復雜的算法運行。傳感器則負責收集外部環境的多維數據,如視覺、聽覺、觸覺等,是實現具身智能感知功能的基礎??刂破鲗鞲衅魇占臄祿M行高效處理,并發出精確的控制指令,指導執行機構完成相應的任務動作。電機是將電能轉化為機械能的關鍵部件,驅動各種執行機構的運動,其中伺服電機作為核心部件,根據控制器指令實現對運動的精確控制,完成精準定位和操作。通信模組負責設備之間的數據傳輸和通信,確保系統各部分之間的協同工作,實現信息的無縫流轉。能源管理為整個系統提供穩定的能源供應,包括高性能電池、先進的電源管理系統等。上游環節是整個產業鏈的基礎,為中游和下游提供了必要的硬件支撐。這些基礎設施的質量、性能和可靠性直接影響到中游產品的整體性能和下游應用的實際效果。中游環節是產業鏈的技術核心,涉及AI算法、操作系統、云服務以及中間件的開發與集成。這一環節的工作是將上游的硬件組件“激活”,通過編程和系統集成,使其能夠執行復雜的智能任務。AI算法是具身智能的“大腦”,負責處理和分析數據,做出決策;操作系統為智能設備提供統一的軟件平臺,支持各種應用程序的運行和管理;云計算提供數據存儲、處理和分析能力,支持大規模的數據處理和智能應用;中間件則起到連接不同系統和組件的橋梁作用。中游環節是整個產業鏈的技術核心,不僅負責實現智能設備的各項功能,還為下游應用提供技術支持和解決方案,推動整個產業鏈的創新和發展。下游環節是產業鏈的最終輸出端,涵蓋了機器人、自動駕駛載具等主要產品,以及這些產品在工業制造、服務業、醫療康復、教育娛樂、交通出行、公共安全等領域的多元化應用場景。這一環節直接面向市場和消費者,是產業鏈價值實現的最終體現。23/42行業|深度|研究報告 具身智能的物理載體形態呈現多樣性,根據其移動特性或方式,可以分為固定底座機器人、輪式(履帶式》機器人、足式機器人、仿生機器人等,其中近期火爆的人形機器人屬雙足人形。具身智能具體形態的選擇上需要洞察場景實際的需求,并不存在“最佳形態”的單一解,但人形機器人具備多場景的“泛用性”,在具身智能的驗證、以及特定場景中的最終應用有既定優勢。在實際應用場景中,不同形態的機器人可以進行有機地組合以滿足具體的場景需求,如在輪式機器人上配備機械臂或靈巧手,配備輪式底座的機械臂既具備了輪式機器人移動迅速、能效高的特點,也兼備機械臂和靈巧手精細操作的優勢。AI助力機器人泛化性能提升,突破能力三角制約,進入更多場景。基于人工預先編程的自動化設備,機器人已經被廣泛用于工業制造領域并且已經相當成熟,但受限于預編程(或反復示教)的時間成本、機器人的智能化水平等原因的限制,機器人的應用仍然受限于“任務自主性”“任務復雜度”“變化適應性”組成的能力三角形。大模型技術的快速發展,為具身智能技術的進步與應用提供了歷史性的突破機遇,在提升機器人智能化水平的過程中,機器人將更全面、精準、敏捷的進行環境感知、任務理解和準確執行,不斷提升機器人在復雜環境中處理復雜任務的能力,泛化水平將不斷提升。24/42行業|深度|研究報告 從專用到通用,從ToB到ToC,具身智能機器人應用場景持續拓寬。作為人工智能與機器人技術的最前沿,具身智能的應用場景會極度多元化,極具想象空間。在工業制造場景,機器人的任務執行和流程和任務本身有高度規則性(可通過編程和訓練來高效完成重復性高和強度大的任務)。其中,人類不愿意做的臟活、累活、危險任務,機器人具備極高的勞動力替代性。而服務場景更加開放,相關任務更加多樣化,更加不可預測,需要機器人具備更強的自主決策能力與泛化適應性。工業制造是具身智能率先落地的場景。工業制造流程的特點使得該場景在具身智能技術落地應用方面占據先發優勢,如柔性生產需求迫切、工作環境結構化程度高、成本效益優勢突出等需求特點,刺激著工業制造場景客戶對工業具身智能的應用更加期待。從工業制造的確定性走向家庭服務的靈活性,具身智能價值極具想象力。機器人在C端的應用最具想象力,但短期來看,任務相對聚焦,對泛化能力要求不高工業制造場景下的任務正在更快進入商業化階段。在工業制造場景實現商業化落地之后,海量機器人的具身數據疊加算力技術的進步,機器人的能力將循序漸進逐步解鎖,并向商用服務、家庭服務等更開放的場景進行延伸。25/42行業|深度|研究報告 人形機器人方面:特斯拉optimus量產在即。Optimus已經在特斯拉工廠內承擔起了一些簡單的任務,例如無需人工干預地分類4680電池單元。2025年年初進行小批量生產,率先在特斯拉內部使用;當年年底,特斯拉工廠將應用數千臺Optimus;2026年,特斯拉將大幅度提高Optimus產量,并向外部出售。華為賦能產業鏈創新。2024年11月,華為(深圳)全球具身智能產業創新中心宣布正式運營,首批與樂聚機器人、兆威機電、深圳市大族機器人、墨影科技、拓斯達、自變量機器人、華龍訊達、中堅科技、埃夫特、北京創新樂知信息技術、北京中軟國際教育、浙江強腦科技、佛山奧卡機器人、禾川人形機器人等16家企業簽署合作備忘錄。26/42行業|深度|研究報告 四足機器人(機器狗):應用場景拓寬,出貨量有望高增。宇樹、云深處等頭部公司已在科研、教育、工廠等場景落地。2023年宇樹的高性能四足機器人占據全球銷售份額的69.75%。預計2025年宇樹出貨量有望實現50%以上增長。云深處自研的X30四足機器人和數字化技術,已經成功交付新加坡能源集團電力隧道巡檢解決方案。軍用場景持續拓展。2022年,軍用國產機器狗在珠海航展首次亮相,2024年珠海航展上,中國兵器裝備集團有限公司展出了自主研制的機器狼,未來四足機器人有望在軍用領域拓展更多品類和應用場景。預計隨著下游應用場景拓寬,機器狗產業鏈需求有望高增。具身智能產業未來發展重點有所改變,將推動人類社會進一步邁向智能化新時代。傳感器領域的發展,主要圍繞著提高精度展開,未來傳感器領域的重點將從追求高精度轉向追求高魯棒性發展。目前人工智能芯片的主要應用在云計算場景,未來人工智能芯片將被集成到機器人本體中,使其具備端側計算能力。算法研究主要圍繞著構建高質量的模型展開,未來數據收集和質量將成為重點,驅動模型向多模態融合方向發展。機器人的設計和制造通常采用垂直一體化的模式,未來模塊化設計將成為主流趨勢,實現產業分工和專業化發展,人機協作有望成為機器人設計的核心理念,進而提高其智能水平。當下工業機器人一直是機器人市場的主力軍,未來服務型機器人的市場規模有望超過工業機器人,迎來爆發式增長,并且隨著需求的多樣化,跨界融合正成為機器人應用的新趨勢。具身智能使信息域和物理世界深度融通,進一步拓展人工智能發展邊界,不斷提升機器人的智能和自主行動能使其更好地理解世界、自然化人機交互和高效執行任務。思維智能和行動智能的有機融合將推動人類社會進一步邁向智能化新時代,加速通用人工智能(AGI)的到來。27/42行業|深度|研究報告 軟件、算法是決定一臺符合消費者需求具身智能落地的必要條件,而量產后硬件是人形機器人滲透率提升的關鍵。然而,部分環節存在較高的技術壁壘,這對相關企業提出了嚴峻的挑戰。2025年,需密切關注那些有望突破技術壁壘、進入頭部主機廠供應鏈的國產廠商。力傳感器能夠測量智能體與環境的接觸力和力矩,六維力傳感器技術壁壘和價值量高。2020年全球力/力矩傳感器市場規模合計達到88.9億美元。根據MordorIntelligence數據,2020年力傳感器市場價值為21.6億美元,預計到2026年將達到28.4億美元,在2021-2026年預測期間的復合年增長率為4.68%;2020年全球力矩傳感器市場價值為67.3億美元,預計到2026年將達到116.3億美元,在2021-2026年預測期間的復合年增長率為9.68%。28/42行業|深度|研究報告 六維力傳感器當前市場規模較小,2026年后或出現爆發式增長。根據MIR睿工業數據,2023年我國六維力傳感器的出貨量及市場規模分別為9450臺和2.35億元,根據MIR預測,六維力傳感器的發展將分為兩個階段。2020-2026年:這一階段六維力傳感器應用場景少,價格昂貴。柔性化生產的需求是推動六維力傳感器出貨量提升的主要原因,出貨量和市場規模增速呈穩定增長狀態,期間復合增長率小于20%。2023年人形機器人概念的火熱催動更多廠商布局六維力傳感器,行業競爭逐漸激烈,廠商不斷開發新的應用2027-2030年:隨著人形機器人規?;慨a落地,六維力傳感器的出貨量和市場規模將快速增加,期間復合增長率超過100%。原材料成本的下降以及生產工藝的進步有望帶動傳感器價格的快速降低。29/42六維力傳感器市場集中度較高。根據MIR數據,2023年我國六維力傳感器市場集中度較高,TOP10用戶占據接近70%的份額,國內廠商宇立儀器、藍點觸控分居第二第四位,兩家公司在國內廠商中的合計市占率超過50%。行業整體目前仍以外資品牌為主,市占率前十其中有7家屬于外資品牌,外資品牌在產品和應用上占有較大先發優勢。隨著人形機器人技術不斷成熟,逐步實現批量化生產,頭部廠商有望占據優勢,憑借領先的產品性能率先獲得應用機會。隨著六維傳感器的應用深化,國產品牌的市場份額有望持續提升。根據MIR數據,2023年我國六維力傳感器市場內資出貨量占比為32.1%,長遠來看內資市場份額有望持續提升,2030年達到81.7%。從產品性能看,以宇立儀器、藍點觸控為代表的國產廠商不斷進行技術深耕,實現產品的選代更新,部分核心技術已趕超外資品牌;從性價比看,內資品牌能夠憑借供應鏈優勢進一步降低成本,保持性能的同時能提供價格更低的產品;從服務能力看,國產品牌普遍針對客戶的反饋服務效率更高,目前大多數外資品牌在中國只有辦事處或只依靠代理商,服務能力相對較差。國產廠商目前逐漸在縮小與外資品牌的差距,未來國產品牌的性價比將穩定優于外資品牌,國產品牌也將不斷探素應用場景,向外資品牌的應用場景滲透,助力市場份額持續提升。30/42行業|深度|研究報告 慣導系統是一種完全自主的導航方式。慣導系統的核心是慣性測量單元(Inertiameasurementunit,IMU),利用物體在慣性空間的線速度和角速度,進而解算出物體的姿態、位置、速度信息。IMU通常包含陀螺儀和加速度計,根據傳感器配置差異,可分為六軸(3軸加速度計+3軸陀螺儀)與九軸(增加3軸磁力計,即AHRS)兩類,后者融合磁場數據提升姿態角精度。機器人等消費類產品多采用MEMSIMU,具有體積小、成本低、功耗低、易于集成和智能化的特點,而航天、軍工等高精度領域多采用光纖、機械陀螺等制成的IMU。當前慣導已在消費電子、汽車、工業、國防場景中有了廣泛應用。具身智能對IMU的需求有望快速增長。根據Yole測算,2023年全球MEMSIMU市場中,消費電子、汽車、國防、工業場景的占比分別為47%、29%、19%、5%。隨著具身智能的發展,IMU有望迎來新的應用領域。在具身智能中,IMU單元同時起到了自主導航與姿態平衡的作用,助力具身智能更好地適應非平坦復雜路面,并增強抗干擾行走、跌倒檢測、動態平衡控制等能力。豐田Asimo、波士頓動力Atlas、AgilityDigit、優必選WalkerX等人形機器人產品均至少搭載了1個IMU單元,能夠認為IMU單元有望成為具身智能提高運動性能所必備的傳感器之一。31/42行業|深度|研究報告 據Yole數據,2022年全球出貨的MEMSIMU數量為15億個,市場規模19億美元,預計到2028年市場將增長至21億個,規模達26億美元,CAGR達5%,且在MEMS慣性傳感器市場中的占比逐步上行業集中度較高,海外廠商先發優勢明顯。海外廠商慣性技術積累深厚,產品系列更為齊全,掌握高端產品的自主研發與開發能力,在市場中占有主導地位。根據Yole統計,2023年全球高端慣性傳感器市場中,CR3(美國Honeywell、德國NorthropGrummanLitef、法國Safran)合計占有67%市場份額;聚焦MEMS慣性傳感器,2021年全球高端MEMS慣性傳感器市場CR3(美國Honeywell、美國ADI、32/42行業|深度|研究報告 德國NorthropGrummanLitef)占據55%市場份額。中國本土IMU廠商大多定位于消費級產品,技術水平整體與海外差距較大,僅少數企業掌握高端慣性傳感器設計工藝,國產化仍有長足的發展空間。靈巧手是人形機器人成本占比最高的零部件。不同人形機器人的方案不同,靈巧手的成本占比也有波動。目前靈巧手價格占人形機器人整機成本約20%-30%,是占比最高的零部件。當前階段,靈巧手存在較大的升級優化空間,是產業鏈瓶頸環節。當前靈巧手還只能完成人手的部分功能,軟硬件均有較大提升空間,是當前階段人形機器人硬件上的最大瓶頸。馬斯克也曾坦言,靈巧手的研發難度和工程量可能占到整機開發的一半。靈巧手對空間要求苛刻,一般使用微型電機。目前主流方案包括空心杯電機和無刷直流電機??招谋姍C屬于直流永磁電機,與普通有刷、無刷直流電機的主要區別是采用無鐵芯轉子,也叫空心杯型轉子。由于轉子結構變化,空心杯電機體積小巧,重量和轉動慣量大幅降低,具備了鐵芯電機所無法達到的控制和拖動特性。此外轉子結構徹底消除了因為鐵芯形成渦流而造成的電能損耗,具有突出的節空心杯電機也可以細分為無刷空心杯電機和有刷空心杯電機。兩者在轉向方式、轉子構成、壽命、轉速、抗干擾等方面性能存在差異。33/42行業|深度|研究報告 全球空心杯電機以海外企業為主導,市場集中度高??招谋姍C技術含量高、生產難度大,同時下游應用領域不斷擴大,對產品的性能存在差異,制造廠商需具備一定的定制化生產能力予以應對。此外,由于技術更新迭代迅速,空心杯電機廠商需及時對產品進行迭代及優化。目前來看,全球空心杯市場仍以海外廠商為主導,2023年國外制造商市占率為85.00%。由于海外頭部企業技術累積深厚,2022年全球空心杯電機市場CR5為67.00%,全球前五企業分別為Faulhaber、Portescap、AlliedMotionTechnologies、MaxonMotor、NidecCopalCorporation??招谋姍C:降本&國產替代關鍵在于繞線環節突破。繞線環節式空心杯電機生產的關鍵技術壁壘,也是降本以及國產化替代的核心。工藝方面,目前國產廠商普遍使用半自動化的卷繞生產,工藝繁瑣,耗時較長,良品率低且線圈直徑較小,限制其成本及性能,Maxon等海外領先廠商多使用高度自動化的一次成型生產,隨著國產廠商技術突破與改進,有望大幅提升生產效率,實現降本;設備方面,我國自主生產的空心杯電機繞線設備相對空缺,多為外采海外設備,固定成本較高。隨著中特科技、勤聯科技等國產設備廠商產品應用,有望降低空心杯電機廠商的生產成本。34/42行業|深度|研究報告 空心杯電機市場規模穩步增長,其中中國市場增速較快。根據中商產業研究院相關數據,2023年全球空心杯電機市場規模為8.1億美元,2024年全球市場規模達到8.7億美元,2028年將增至11.9億美元,CAGR為9.4%。國內市場方面,2023年中國空心杯電機市場規模為2.9億美元,2024年中國市場規模達到3.2億美元,2028年將增至4.7億美元,CAGR為12.4%。緊抓具身智能產業化浪潮,機器人、核心供應鏈、具身智能+應用場景值得關注。全球3D視覺感知龍頭,機器人突破有望帶動業績上漲。奧比中光主要產品包括3D視覺傳感器、消費級應用設備和工業級應用設備,已實現六大3D視覺感知技術全面布局,產品主要應用領域為生物識別、AIOT、消費電子、工業等。分產品看,公司主營業務收入主要來自于銷售3D視覺傳感器。公司已實施多期員工激勵計劃、確認大額股份支付費用,近五年研發費用率持續高于50%,導致凈利潤尚未轉正。當前公司在機器人領域中,產品持續放量,將有望拉動公司營收實現高速增長,帶動公司逐步扭虧。公司面向服務、工業、人形等多類型機器人領域,構建了覆蓋深度相機(單目結構光、雙目結構光、iToF)、激光雷達等全技術路線3D視覺傳感器體系。在人形機器人領域,公司3D視覺傳感器能夠為人形機器人與現實世界交互提供重要支撐,目前公司Femto系列iToF深度相機Gemini335/336等系列35/42行業|深度|研究報告 結構光深度相機等產品已與人形機器人客戶進行適配。此外,斯坦福大學李飛飛教授團隊使用了奧比中光深度相機FemtoBolt實現機器人動作優化和復雜交互。公司2024全年實現營業收入5.64億元,同比增速56.79%;實現歸母凈利潤實現-0.63億元,同比增速77.20%;實現扣非歸母凈利潤-1.12億元,同比增速65.35%。2025年1季度實現營業收入1.91億元,同比增速105.63%;實現歸母凈利潤0.24億元,同比增速184.48%;實現扣非歸母凈利潤0.03億元,同比108.38%;業績表現亮眼,未來趨勢向好。索辰科技成立于2006年,是一家專注于CAE軟件研發、銷售和服務的高新技術企業。公司目前已形成流體、結構、電磁、聲學、光學等多個學科方向的核心算法,并開發出多類型工程仿真軟件。可滿足航空航天、國防裝備、船舶海洋、重型機械、核工業、電子電器、地面交通等復雜產品或工程領域的仿真發布國產物理AI系列產品,賦能千行百業AI產品落地。2025年3月,公司基于CAE軟件開發在跨學科能力和工程經驗的積累發布物理AI系列產品:索辰物理AI應用開發平臺(天工?開物)及機器人設計訓練平臺、面向工業裝備的設計優化與物理AI訓練平臺等。其物理AI訓練平臺能夠使得大模型輸出兼具創新性與物理一致性,支持客戶輕松開發和部署應用,加速設計與制造,有助于推動機器人等應用場景快速落地。2024年以來,公司通過戰略并購不斷完善產業鏈布局。2024年12月,公司戰略投資8,800萬元并購麥思捷,借助麥思捷在大氣、海洋環境等領域的專家級經驗解決相關工程問題;2025年2月,公司籌劃并購力控科技,擬取得其51%股權,為物理AI實時孿生體提供環境感知、數據傳遞等技術,提高物理AI應用的準確性和可靠性。2024年,公司還投資了索辰仿真、焜原光電、富迪廣通等公司,通過整合優勢資源進一步提升公司競爭力。公司近日發布2024年年報和2025年第一季度報告,2024年公司實現營業收入3.79億元,YoY+18.24%;實現歸母凈利潤0.41億元,YoY-27.89%;毛利率71.86%,同比提升2.42pct。2025Q1公司實現營業收入0.39億元,YoY+21.73%;實現歸母凈利潤-0.16億元,YoY+26.51%;毛利率37.73%,同比降低6.03pct。收入端保持增長態勢。公司是全球領先的全棧式智能操作系統及端側智能產品和技術提供商,深耕智能操作系統領域16年。三大核心業務:智能軟件、智能汽車以及智能物聯網協同發展并駕齊驅。中科創達發布的整車操作系統“滴水OS”,滴水OS積極拓展全球生態合作,與Dirac、火山引擎、大眾旗下CARIAD等企業建立深度合作,共建聯合實驗室,賦能車端智能發展。盡管汽車業務增速暫時放緩,但隨著智能座艙業務持續發力,未來可期。同時,公司發力端側智能創新賽道,旗下創通聯達推出輕量化AI眼鏡SmartGlasses和混合現實MRHMDPro,搭載高通驍龍平臺,樹立行業標桿。此外,公司還為高通面向Windows的驍龍開發套件提供一站式服務,并推出四款AIMiniPC參考設計,助力AIPC市場發展,開辟新增長點。具身智能機器人實現突破。2023年9月,公司的機器人團隊-曉悟智能成立。目前,公司已發布了面向倉儲物流、生產制造場景的智能移動機器人,可完成自動化入庫、揀選、分撥以及自動生產設備的對接等,36/42行業|深度|研究報告 從而實現高效的柔性制造。自動駕駛汽車與機器人同為具身智能載體,公司在智能汽車視覺領域具備多年積累,Rubik大模型作為機器人“大腦”提供更高效的理解能力,核心技術有望在機器人感知、理解方面實現深度賦能。2024年,曉悟智能的子公司西安龍行智巡科技有限公司在西安正式揭牌成立。另外,公司多款智能機器人新品亮相CeMATASIA。公司的工業智能移動機器人產品在汽車及零部件、鋰電、3C、食品及飲料等行業形成落地應用。2024年年報。2024年,公司實現營業收入53.85億元,同比增長2.72%;實現歸母凈利潤4.07億元,同比下降12.60%;實現扣非歸母凈利潤1.75億元,同比下降48.49%。2024年,公司重點布局機器人等端側智能領域,研發費用同比增長8.16%。能科科技成立于2006年,2016年在滬市主板上市,是國內領先的智能制造與工業數字化轉型服務商,聚焦工業互聯網、數字孿生、AI算力底座等核心領域,深度服務國防軍工、汽車、半導體等高端制造業。企業聚焦工業軟件與智能制造領域,形成了以核心業務為基石、新興業務為增長引擎的多元化布局。核心業務方面,工業軟件與云服務是重要支柱,旗下“樂系列”產品(如樂倉生產力中臺、樂造企業應用等)表現亮眼,2024年云產品與服務收入達4.58億元,占總營收的30.34%,毛利率高達53.83%;智能制造系統集成業務則覆蓋了研發設計、生產制造全生命周期,2024年軟件系統與服務收入3.16億元,并成功服務中國商飛、中航工業等知名客戶。新興業務方面,企業積極擁抱前沿技術,AI算力與Agent應用業務爆發式增長,2024年收入2.73億元,同比激增1256%,推出的“靈系列”AIAgent產品已應用于機器人訓推、汽車工藝優化等場景,并中標1.24億、1.45億元大模型項目;具身智能與特種裝備領域,布局了機器狗、機器狼等智能設備,2024年已簽訂2.68億元特種行業合同。此外,該企業還緊密圍繞工業互聯網、AI算力、數字孿生、國產替代、軍工信息化等熱點概念進行戰略布局,未來發展潛力能科科技憑借領先的技術實力與創新能力,打造了極具競爭力的核心產品與解決方案。其核心產品包括樂倉生產力中臺和高壓變頻器系統。樂倉生產力中臺能夠適配華為云、西門子等主流生態,為企業數字化轉型提供強有力的支撐,預計2024年將服務超過3000家客戶;高壓變頻器系統則實現了重大突破,于2024年中標徐大堡核電站價值1.5億元的主泵變頻器項目,成功打破了外資在該領域的長期壟斷。在技術水平方面,擁有251項專利,并主導制定了5項國家標準,彰顯了其深厚的技術積淀。此外,公司還與華為合作開發了工業數字模型驅動引擎(iDME),并自研了適配昇騰芯片的AI大模型平臺,將該平臺的訓練效率提升了40%,同時獲得了GRS全球回收標準認證,進一步鞏固了其在行業內的技術領先地位。公司2024年全年實現營收15.10億元,同比增長7.47%,但凈利潤為1.92億元,同比下降15.17%。業績下滑的主要原因是研發投入增長導致費用率達到12.88%,以及傳統業務出現收縮。進入2025年,一季度營收為3.37億元,同比下降16.65%,凈利潤0.49億元,同比下降12.07%,主要受工業電氣產品交付節奏的影響。軟通動力是國內IT服務領軍企業,收購同方計算機后開啟“軟硬一體”戰略,在鴻蒙加速發展、信創政策落地、人形機器人訓練速度有望加快的背景下,軟通動力有望迎來較大發展機遇。37/42行業|深度|研究報告 公司在AllinAI的基礎上,發布軟硬全棧AI戰略,業務范圍涵蓋AI工作站、AI服務器、AIPC、具身智能機器人等多個新興領域,并持續深化華為生態合作?;A軟件領域,公司重點圍繞開源鴻蒙、鴻蒙操作系統、開源歐拉、開源高斯數據庫開展產品研發,有望受益鴻蒙生態繁榮發展。據上海證券報,截至2025年3月原生鴻蒙已上線2萬+應用,微信、抖音、支付寶等頭部應用超200萬次下載;據PConline太平洋科技數據,截至2025年2月全國已有數千個政企內部辦公應用完成對鴻蒙系統適配,覆蓋金融、能源、礦產等30余個關鍵行業。2025年4月,國務院新聞辦公室表示“推動更多APP上架鴻蒙應用商店”;2025年5月8日,鴻蒙PC正式發布,華為終端全面進入鴻蒙時代。投入布局機器人業務,打造通用場景機器人產品。2024年,公司成立人形機器人公司總部,同時與智元機器人達成戰略合作,打造通用場景人形機器人。能力打造上,公司自研星云具身智能計算平臺,并深度融合公司自研的天鶴操作系統及星云機器人智能操作系統;同時公司研發大小腦算法,深度集成已有的天璇大模型服務平臺,支持人形機器人擁有多模態感知、自主學習、規劃與決策等能力。具體機器人產品包括:1)軟通天擎AD01輪式機器人,定位工業柔性制造實現高危用工替代;2)軟通天擎LC01雙足人形機器人,聚焦展廳/博物館等交互場景和科研院校教育行業;3)軟通天擎LA01全尺寸雙足人形機器人,聚焦大型公共展廳專業講解與智能問答等交互場景;4)軟通天匯巡檢復合機器人,面向工農業領域中設備巡檢處置場景。2024年公司實現營收313.16億元,同比增長78.13%;實現歸母凈利潤1.80億元,同比下滑66.21%;實現扣非歸母凈利潤0.72億元,同比下滑84.31%。2025年Q1公司實現營收70.11億元,同比增長28.65%;歸母凈利潤虧損1.98億元,上年同期虧損2.77億元;扣非歸母凈利潤虧損2.16億元,上年同期虧損2.84億元。海外業務產品及營銷服體系持續完善,有望繼續保持穩健增長。公司業務已覆蓋180多個國家和地區,采取“一國一策,一品一策”的營銷戰略,基于國家業務發展階段的不同,因地制宜推進本地化營銷戰略的落地,持續提升海外產品的競爭力和適配度。在海外市場,公司以圖像技術、人工智能技術、多維感知技術為核心,不斷完善符合海外需求的AIoT產品家族,基于??涤^瀾大模型,公司首次推出面向海外的大模型產品,如DeepinView相機、DeepinMind后端產品,在周界防范等場景上極

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論