AI時代的石油 | 投研報告

東吳證券近日發佈具身智能數據行業研究報告:數據是推動具身智能技術快速突破和落地應用的關鍵。借鑑自動駕駛汽車發展的路徑,數據對於具身智能同樣至關重要。優質的數據集能夠驅動智能體感知與理解環境,能夠加速具身智能模型的訓練與部署,幫助機器人有效完成複雜任務。

以下爲研究報告摘要:

投資要點

數據是推動具身智能技術快速突破和落地應用的關鍵。借鑑自動駕駛汽車發展的路徑,數據對於具身智能同樣至關重要。優質的數據集能夠驅動智能體感知與理解環境,能夠加速具身智能模型的訓練與部署,幫助機器人有效完成複雜任務。不同於大語言模型可以使用互聯網海量信息作爲訓練數據,機器人所用的具身智能模型沒有現成數據可以使用,需要投入大量時間和資源進行機器人操作實踐或仿真模擬,以收集視覺、觸覺、力覺、運動軌跡以及機器人本體狀態等多源異構數據。符合通用標準、得到驗證的數據集成爲具身智能行業的剛需。當前具身智能本體形態多種多樣,應用場景千差萬別,對於具身智能訓練數據的需求也更爲多元。目前業內仍有部分數據集主要聚焦在特定機器人、特定場景和特定技能等方面,在整體通用性上有待提升。因此,構建高質量、多樣化的感知數據集是不可或缺的基礎工作,這些數據集不僅爲算法訓練提供了豐富的素材,也成爲了評估具身性能的基準參考標準。

具身智能數據按採集方式主要分爲真實數據和仿真數據兩大類。(1)真實數據:真實數據是智能體通過自身物理身體上的各類傳感器(如攝像頭、麥克風、觸覺傳感器等),在與真實物理環境進行交互過程中,實時採集獲取的數據。真實數據主要來源有:機器人遙操(通過人工遠程操控獲取真實場景下的操作數據)、動作捕捉(記錄人類在特定環境中的行爲模式)。(2)仿真數據:藉助計算機模擬技術,在虛擬環境中生成的、用於訓練具身智能的數據。通過構建虛擬場景、物體和智能體,模擬智能體與虛擬環境的交互過程來產生數據。即利用仿真環境生成訓練數據。真實數據和仿真數據兩者是互補關係,未來訓練將大量混合使用真實數據和高質量的合成數據。

當前具身智能數據多爲廠商自採集,存在豐富開源數據集。當前給人形機器人採集的高質量數據通常在現實世界中獲取,採集方式主要有直接接觸數據(真機數據)和間接接觸數據(人工控制數據)兩種。最理想的數據採集方式是通過人形機器人本體直接觸達物理世界,讓其準確理解真實環境。大規模真機數據的採集成本高昂,需要投入許多人力、物力和時間資源,數據標註和採集設備都存在門檻。目前市面上存在豐富的高質量具身智能開源數據集,如智元、谷歌、國地共建中心等均開源了豐富的具身智能數據集,具備豐富的演示數量、場景任務和動作技能等。

機器人仿真數據主要依賴虛擬場景,而場景的合成方案可拆解成兩個關鍵部分:場景生成(Gen)與模擬(Sim)。場景生成引擎(Gen)主要有兩種技術路徑:合成視頻+3D重建:基於像素流驅動,先生成視頻或圖像,再重建爲點雲或mesh等非結構化3D數據,最終轉爲結構化語義模型。如Hillbot、羣核科技、World labs(李飛飛)等。AIGC直接合成3D數據:利用圖神經網絡(GNN)、擴散模型(Diffusion)、注意力機制(Attention)等方法,直接合成結構化空間數據。如ATISS、LEGO-Net、DiffuScene、RoomFormer等代表模型,部分方案結合程序化生成技術,如Infinigen(CVPR2024)。

投資建議與相關標的:數據是推動具身智能技術快速突破和落地應用的關鍵,重點關注佈局具身智能數據集的企業,相關標的:均勝電子(數據場)、海天瑞聲(機器人數據集)、索辰科技(數據仿真)、華如科技(數據仿真)。

風險提示:相關政策不及預期、各類型企業IT預算不及預期、市場競爭加劇。(東吳證券 王紫敬)