天娛數科吳邦毅:具身智能突破關鍵在於構建通用AI Agent

3月30日消息,在第二屆中國具身智能大會(CEAI2025),天娛數科首席數據官吳邦毅圍繞“感知-決策-行動閉環,具身智能體的通用化之路”核心命題,系統闡釋了具身智能體通用化技術路徑的創新範式。

吳邦毅指出:“推動具身智能體從單一任務執行向通用智能進化,關鍵在於構建通用AI Agent”。

一、感知突破:給機器裝上"空間認知之眼"

吳邦毅直指行業痛點:“當前階段具身智能產業還有很多亟待突破的瓶頸,在數據獲取、算法開發、標準認證等方面仍存在諸多挑戰。比如在數據層面,3D數據匱乏且獲取成本高,嚴重製約了具身智能的深度訓練;算法層面,多數企業需從0到1獨立研發,導致資源浪費和效率低下;標準認證不統一,硬件接口、通信協議和數據格式等缺乏統一標準,具身智能難以跨本體應用等等。”

天娛數科將具身智能通用AI Agent列爲研發重點,以Behavision命名的AI Agent整合了‘算法+數據+算力’,致力於打造通用的大腦和小腦開發平臺。”Behavision通過雲邊端協同的創新架構,形成了形成完整的智能閉環。

吳邦毅表示:“通過自建的3D數據採集基地,集成高精度動捕系統與光場掃描技術,天娛數科已整合120萬組3D場景數據、50萬組多模態數據,覆蓋工業、家庭、醫療等不同場景,並藉助Sim2Real仿真數據智能泛化技術顯著提升數據訓練效率,實現多模態決策與世界模型構建。不止如此,吳邦毅還提到:“由天娛數科參股公司—專注空間計算及人工智能芯片及產品設計的高科技企業芯明開發的3D雙目立體算法芯片及深度視覺模組,單芯片集成實時3D立體視覺感知、AI人工智能、SLAM實時定位建圖等多項功能,具備1毫秒運動到顯示延時、3.5TOPS超低功耗、12nm先進製程等優勢,爲機器人在複雜環境下的穩定運行提供了強大的感知算力支持,爲機器人裝上了‘空間之眼’。”

二、決策進化:大模型驅動的認知涌現

當前,具身智能正經歷從“機械控制”到“認知涌現”的質變。早期機器人依賴預設程序執行單一動作(1.0階段),大模型時代通過模仿學習掌握技能(2.0階段),而真正的通用化必須跨越到3.0階段——讓機器建立對物理世界的因果推理能力。

據介紹,決策層是具身智能體的“大腦”,決策邏輯本質上是對人類經驗的統計學習,天娛數科提出“雲、邊、端”通用AIAgent架構,通過多模態大模型與擴散算法的融合,實現決策層的智能化升級。公司自研的天星基座大模型以及面向3D智能領域的“智者千問”行業大模型和智慧廣告大模型已通過中央網信辦備案,形成了協同互驅、優勢疊加的模型矩陣。這些模型結合先進的數據訓練策略,如Action Chunking with Transformers(ACT)算法,讓機器人能夠快速學習複雜的動作序列和操作邏輯。

吳邦毅表示:“基於大模型的模仿學習技術正引領人形機器人進入智能化新階段段。通過構建多模態感知系統,機器人可實時捕捉人類示範的運動軌跡、力量控制等關鍵參數,結合強化學習算法自主優化動作序列,實現從觀察到執行的端到端能力遷移。”

隨着多模態大模型與物理引擎的深度耦合,具身智能體將具備更高級別的決策能力,通過實時環境語義分割、動作意圖預測等技術,不僅能完成指定任務,更能根據場景變化自主調整策略在工業、醫療、家居等不同場景中展現出更強的環境適應力。這種認知能力的躍升,標誌着機器人正從單純的工具型設備向智能體形態加速演進。

三、行動閉環:雲邊端協同催生"智能涌現"

“真正的智能,是在行動閉環中涌現”。吳邦毅表示在演講中詳細解析了天娛數科創新構建的雲邊端協同架構,通過雲端百萬級3D數據集與多模態大模型的深度訓練,邊緣側集成SLAM算法與3D空間計算芯片的實時決策,以及終端深度視覺模組實現精準執行,形成三位一體的智能閉環。雲端依託Behavision通用具身智能AIAgent,實現複雜場景的全局規劃與數據迭代;邊緣端以單芯片毫秒級響應能力處理實時感知數據,完成常規任務的自主決策;終端通過毫米級3D掃描和多模態交互,實現虛實場景的無縫銜接。

吳邦毅表示:“通過感知-決策-行動三大模塊的閉環,天娛數科正在加速具身智能從實驗室走向實際應用的進程。”雲邊端協同模式不僅能大幅降低機器人決策延遲,還能通過數據雙向增強循環,推動具身智能在工業分揀、家庭服務等場景的快速落地,爲通用智能體的規模化應用奠定基礎。

最後,吳邦毅強調,具身智能的通用化發展是一個長期而艱鉅的任務,需要整個行業的共同努力。天娛數科將繼續加大在具身智能領域的研發投入,加強與行業內各方的合作,推動具身智能技術的創新與發展,爲實現具身智能在各領域的廣泛應用貢獻力量。