会员动态 > 正文
聚焦通用机器人“大小脑”核心能力
宇泛智能发布业界领先的端到端纯视觉导航技术
01-16   宇泛UNIUBI      关键字:宇泛智能 发布 端到端 纯视觉 导航技术      浏览量:
继2025年7月发布空间认知大模型 Manas之后,宇泛智能进一步完善通用机器人“大小脑”能力体系,正式发布端到端纯视觉导航技术 SIDP,标志着机器人从“可被控制”迈向“可自主行动”的关键一步
  继2025年7月发布空间认知大模型 Manas之后,宇泛智能进一步完善通用机器人“大小脑”能力体系,正式发布端到端纯视觉导航技术 SIDP,标志着机器人从“可被控制”迈向“可自主行动”的关键一步。
  在具身智能系统中,机器人的移动、操作与任务执行能力并非孤立存在,而是由“大小脑”整体能力共同决定。自主导航作为机器人理解空间、建立环境模型并作出行动决策的基础能力,是“大脑”能力闭环中的核心入口。
  当导航能力从依赖规则、地图与遥控,升级为稳定的自主决策,机器人才能真正成为可被“使用”的智能体,而非需要持续干预的自动化设备。
端到端纯视觉导航
  传统机器人导航,往往要靠多个模块一步步配合:先感知环境,再建图定位,接着规划路径,最后控制运动。整个流程又复杂、各模块耦合度又高,只要有一个环节出问题,整体表现就可能受影响。
  而端到端纯视觉导航走的是更“直接”的路子:从摄像头采集的视觉信息出发,直接生成机器人的行走轨迹。不用依赖激光雷达,不用提前建图,也不用设计复杂的规则——就像人一样,靠“看”就能判断该怎么走。
  业界已有的工作一般使用模仿学习来训练策略。纯模仿学习的扩散策略靠学习大量示例轨迹,让模型模仿“教师走法”来生成导航路径,结构上也能实现“输入视觉、输出轨迹”的端到端模式。但落到实际应用中,这种方案总有两个绕不开的问题:一是模型学来的行为太依赖示例数据——数据质量好不好、覆盖场景全不全,直接影响效果,一旦环境变了,或者遇到示例里没出现过的场景,导航表现就容易拉胯。二是模型会把示例里“好的走法”和“不太好的走法”一起学进去,推理时得反复生成多条候选路径再筛选,严重影响实时响应速度,特别是在端侧设备上。
SIDP
更稳定、更可靠,鲁棒性更高
  我们这次发布的SIDP技术,在保留扩散策略强大轨迹建模能力的基础上,巧妙引入了自我学习与持续优化机制。它不只是简单模仿已有的示例,更关键的是能在自己的导航过程中,不断强化更优的行为经验,减小不安全、低效率的决策倾向,实现决策与策略更新的过程闭环——这样生成的路径,表现得更稳定、更可靠,鲁棒性更高。
  除了走得稳,走得快也很关键。对移动机器人来说,算力和功耗都有限制,导航系统的效率直接决定了它能不能真正落地用起来。而SIDP在训练阶段就已经学会了“少走弯路、直接输出最优路线”,实际运行时不用反复生成大量候选路径筛选,能快速给出可执行的高质量轨迹。哪怕是在嵌入式、边缘设备上,也能实现低延迟、实时响应的导航,为长时间稳定运行打下基础。
从实验室到真实场景
经得住考验的实力
  我们把SIDP和目前行业内表现较好的几款模型做了对比测试,包括上海人工智能实验室的NavDP、苏黎世联邦理工学院(ETH Zurich)的ViPlanner和iPlanner,测试结果如下表所示,SIDP在各种场景都表现出了领先的成功率指标,表明我们提出的策略持续自我进化的闭环机制对自主导航产生了显著的作用。
▲Benchmark成功率指标
▲速度指标(硬件为Orin Nano)
  目前,这项技术已经在多种机器人平台、多个真实场景中完成了验证,覆盖办公区、走廊、复杂障碍区域等不同场景。不管是环境结构复杂,还是有动态干扰,系统都能稳定、安全、高效地完成导航。
▲真实场景、跨本体验证
总结
让机器人更好地走进真实世界
  这次发布的端到端纯视觉导航技术 SIDP,不仅减少了机器人对外部传感器和复杂规则的依赖,更在鲁棒性和推理效率上实现了突破——这也为机器人在服务、巡检、物流等场景的大规模应用,给出了更优的解法。
  宇泛智能将持续推进具身智能技术从算法突破走向工程化与产品化落地,并以“自主进化”的技术闭环为核心,将感知、决策与操作能力沉淀为通用的具身操作范式,率先在真实生产环境中完成规模验证,打造具备持续进化能力的一流通用移动、操作机器人。

微信扫描二维码,关注公众号。