2月17日,具身智能创业公司自变量机器人(X Square Robot)宣布完成数亿元Pre-A++轮融资,本轮融资由光速光合与君联资本领投,北京机器人产业基金、神骐资本跟投,融资将用于下一代统一具身智能通用大模型的训练与场景落地。此前,联想之星曾投资其天使轮。
自变量机器人成立于2023年12月,致力于通过研发具身智能通用大模型,实现通用机器人。2024年11月,公司宣布完成亿元级Pre-A与Pre-A+轮融资。
通用机器人的终极目标是像人一样通过交互、感知和行动自主执行任务,拥有高效的泛化和迁移能力。而实现这一目标的核心,就在于机器人通用具身智能大模型。在海外,包括Skild AI、谷歌DeepMind、PhysicalIntelligence(PI)等科技公司都在该领域进行积极布局。
具身智能主要分为大脑(认知与决策)和小脑(运动控制)。目前国内企业在探索不同发展路径:部分专注于大脑,提升机器人语言理解与规划能力;部分聚焦小脑,优化行走、抓取动作等运动控制。也有企业选择大小脑统一的端到端路线,这一路线也是国外头部科技公司如Physical Intelligence(PI)、Skild AI等的选择。
自变量从成立之初就选择了“大小脑统一的端到端大模型”路线。
公司创始人兼CEO王潜表示,真正的具身智能大模型,应当由一个模型覆盖从感知信号输入到动作输出的完整过程,而不进行人为地分层或模块划分。这才是实现通用具身智能的真正解法。“传统的分层架构虽能在特定任务上实现优化,但难以适应复杂环境的动态变化。而端到端方案,使机器人能够从感知直接映射到运动,形成高效的反馈闭环,从而在多任务、多场景中具备更强的自主学习与适应能力。”
而在国内,选择端到端模型的厂商中,技术路线也有所分化:部分厂商选择优先训练特定任务或单一场景的小模型;自变量则从一开始采用多任务、大量场景训练,以提升模型的通用性和适应能力。
王潜表示,目前业内对于明显超过单一操作的复杂任务,所有较好的实现结果几乎都是由具身智能大模型完成的。小模型为每个任务设计特定的模型结构,往往只能执行最基本的单一操作,无法实现泛化。
与之相反,大模型则重视如何通过工程化方式实现模型的scaling-up,直至达到完全通用。二者技术栈完全不同,依赖小模型的积累并不能有效迁移实现大模型。
去年11月,自变量机器人宣布实现了全球目前最大参数规模的具身智能通用操作大模型——Great Wall系列(GW)的WALL-A模型。该模型在通用性、泛化性上可以做到用较少的样本,完成各种物理环境变量、动作模式的泛化和迁移,同时在长序列复杂操作上具有优势。
王潜介绍,经过最近数月的迭代,WALL-A模型的能力已经与Skild AI、Physical Intelligence处于同一水平线上,部分能力甚至强于国外竞争对手。
从任务复杂度层面来看,WALL-A能够完成例如拉拉链、整理衣物等精细操作,展现出在随机环境中对复杂拓扑结构、复杂物理交互的适应性。从复杂任务的准确率来看,在叠衣服、晾衣服等复杂柔性操作中表现出色,数分钟级别的任务成功率达到90%以上。
此外,自变量机器人的通用具身智能大模型,还能够实现无需地图和深度输入的语义导航,并能基于视频进行即时决策和实时指令跟随,也具备自主环境探索能力。
团队方面,自变量机器人的核心团队成员位于深圳,软件算法团队具有RoboticsLearning(机器人学习)和大模型的双重背景。硬件方面,公司汇集了一批来自头部硬件公司的核心技术骨干及高管,拥有成熟的工程能力和量产经验。
创始人兼CEO王潜本硕毕业于清华大学,是全球最早在神经网络中提出注意力机制的研究人员之一,博士期间曾在美国顶级机器人实验室参与了多项Robotics Learning的研究,研究经历涵盖机器人操作和家庭服务机器人相关的几乎所有领域。联合创始人兼CTO王昊是北大计算物理博士,曾在粤港澳大湾区数字经济研究院(IDEA研究院)担任封神榜大模型团队算法负责人,领导了国内第一个百亿级大模型和最早一批千亿级大模型之一Ziya的研发。
恭喜自变量机器人完成新一轮融资。联想之星自2010年起即系统布局前沿科技领域,已投资150多家相关企业,投资策略以突破性底层原创技术为主,兼具重点应用行业“根据地”式布局,从三大生物识别技术到光电感知芯片,从无人驾驶、安防、物流到教育、金融、军工航天。在机器人方向,联想之星围绕各类To B效率提升的需求场景,投资布局了多种机器人/智能机器设备,包括海柔创新、松灵机器人、AMP Robotics、Abundant Robotics、捷象灵越、自变量机器人、优宝特机器人等。