近期,具身智能公司「優(yōu)理奇機器人 UniX AI」完成數(shù)億元天使輪及天使+輪融資,中關村前沿基金,賽納資本及長安私人資本參與本輪融資。本輪融資將用于加速研發(fā)多模態(tài)具身智能大模型與通用機器人本體的同步演進,以及面向多個泛商業(yè)服務和C端場景落地與交付。
2025年,具身智能作為下一代通用智能的重要形態(tài),正處于從技術驗證向商業(yè)落地的關鍵轉(zhuǎn)折點。人形機器人領域的快速發(fā)展,集成了人工智能、先進制造、材料工程等多學科技術突破,也成為科技資本高度關注的戰(zhàn)略高地。
從技術演進角度來看,產(chǎn)業(yè)核心正在圍繞三大關鍵突破展開重構:
具身智能泛化能力:通過大模型技術提升機器人對復雜環(huán)境的適應性,顯著降低場景遷移成本;
機電一體化本體硬件:核心部件成本下降與軟硬協(xié)同設計推動產(chǎn)品在性能與成本之間取得最佳平衡;
多模態(tài)感知融合:打通視覺、觸覺與語言通道,使機器人從任務執(zhí)行工具進化為智能協(xié)作伙伴。
在這三項能力上,優(yōu)理奇展現(xiàn)出明顯的技術特點:
具身智能泛化架構
區(qū)別于傳統(tǒng)端到端訓練,優(yōu)理奇構建了算法支撐的泛化體系,具備更強的學習效率與任務規(guī)劃能力:
UniFlex:高效模仿學習框架,基于關鍵點視覺模仿技術,在少量示教下即可完成復雜操作,顯著降低訓練門檻與數(shù)據(jù)依賴;
UniTouch:支持機器人以視覺預判觸覺反饋,讓機器人在學到一個動作之后,基于模型的調(diào)用與決策,以觸覺為核心進行決策判斷,減少因物體顏色與形態(tài)變化帶來的視覺干擾;同時無需依賴高成本觸覺傳感器采集大量數(shù)據(jù),顯著降低訓練成本,在多變場景中實現(xiàn)高效、低成本的物體場景操作的抗干擾泛化。
長序列任務規(guī)劃模型:可自動將復雜目標拆解為可執(zhí)行子任務,生成優(yōu)化執(zhí)行流程,適用于現(xiàn)實環(huán)境下的多步驟任務執(zhí)行。
全棧式硬件自研能力
優(yōu)理奇深度自研至機器人關節(jié)模組、減速器等核心部件,結(jié)合蘇州本地工程制造優(yōu)勢,掌控從設計到生產(chǎn)的全流程。
公司量產(chǎn)了全球首款配備 8 自由度等身機械臂的人形機器人,支持包含肩胛骨的完整上肢運動自由度;在負載、速度、精度、續(xù)航和魯棒性等關鍵參數(shù)上均達到領先水平,確保性能與穩(wěn)定性;
軟硬一體的全棧能力助力產(chǎn)品快速迭代,并實現(xiàn)成本下降,為大規(guī)模部署創(chuàng)造了技術與經(jīng)濟基礎。
多模態(tài)感知
優(yōu)理奇00后創(chuàng)始人兼CEO楊豐瑜博士,畢業(yè)于耶魯大學,是全球首個融合觸覺的多模態(tài)大模型 UniTouch 的第一作者,同時也是全球最大視觸覺數(shù)據(jù)集 Touch and Go 的第一作者。在多模態(tài)感知方面可通過視覺生成觸覺的方式實現(xiàn)夾豆腐,捏雞蛋等精細任務。
CEO 楊豐瑜表示:
“優(yōu)理奇自創(chuàng)立以來一直堅信具身智能有且只有通過軟硬結(jié)合的全棧式落地,以真實場景數(shù)據(jù)為基礎,實現(xiàn)產(chǎn)品,供應鏈以及數(shù)據(jù)的三重飛輪,從而加速具身智能普惠點的到來。通過過去一年優(yōu)理奇全體同仁的拼搏,結(jié)合我們高效的可泛化模仿學習框架,我們已在諸多場景中實現(xiàn)長序列泛化任務的落地交付,并獲得標桿客戶的認可。同時,通過核心零部件自研,實現(xiàn)了指數(shù)級降本以及數(shù)倍于同行的產(chǎn)品迭代效率。我們將秉承加速具身智能普惠點到來的愿景砥礪前行,也希望有更多的同仁和伙伴能和我們一同見證?!?/span>