文汇 2小时前
人形机器人马拉松从遥控走向自主,“具身时空大脑”成幕后英雄
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

在刚刚落幕的 2026 北京亦庄人形机器人半程马拉松上,近四成参赛队伍摆脱遥控器,实现自主奔跑。这一变化背后,千寻位置的时空智能技术成为关键支撑。

日前,千寻位置正式发布 " 具身时空大脑(SpatiXBot)" 产品集,它基于千寻位置时空智能全链路技术底座,融合通用大模型、自研专业模型的能力,构建起覆盖室内外的自主行走、环境感知与群体协同能力,助力机器人完成从遥控到自主、从表演到实战、从单体作业到群体智能的关键跨越,加速机器人实现在巡检、安防、应急救援等场景中的规模化落地。

" 具身时空大脑 " 推出关键感知器件—— " 时空之眼 " 多源融合终端,它可实现机器人在室内外环境中的精准定位与无缝衔接。在室外环境中,千寻位置自研的高精度 GNSS 模组为机器人提供厘米级的 " 方向感 ";进入室内,借助端侧高算力支持的双目 V-SLAM(视觉同步定位与地图构建)与视觉重定位技术," 时空之眼 " 能够实时修正机器人在行进过程中的累积误差,即便在复杂场景下也能保持厘米级定位精度,确保运动轨迹连续稳定。

据悉,在室外开阔环境或室内有预先建好地图的场景下," 时空之眼 " 能够实现水平误差不超过 5 厘米,高程误差不超过 10 厘米的定位精度;在信号遮挡、环境复杂或现有地图缺失的情况下," 时空之眼 " 的递推精度(连续移动定位的累计误差占据移动距离的比例)可以控制在 0.75% 以内。

此外," 具身时空大脑 " 还提供高精度地图和路径规划,支持泛机器人的自主导航行动,这使得机器人在园区巡检、城市安防、复杂地形巡查等场景中,真正具备持续稳定运行的能力。

  解决 " 看得准、走得稳 " 问题之后,真正能干活的机器人还需要 " 看得懂、会判断 "。

为此,千寻位置 " 具身时空大脑 " 还构建了面向具身智能的 " 训推一体 " 平台,将模型训练与推理部署打通,形成完整的数据与算法闭环。

平台将通义千问等多模态大模型的通用能力与视觉小模型的专用能力相结合,通过统一框架实现数据标注、模型训练、模型优化与实时推理的一体化流程。在实际应用中,大模型负责提供零样本识别与校验的能力,小模型则通过持续训练提升特定场景下的推理效率与识别精度。

据介绍," 具身时空大脑 " 主要面向机器人本体厂商及具身智能行业应用客户,覆盖人形机器人、机器狗、无人机、无人车、割草机等多类具身形态,旨在为各类设备提供统一的时空底座。

千寻位置 CEO 陈金培表示:" ‘具身时空大脑’是一套帮助机器人理解环境、做出决策、执行任务的神经中枢。我们既为机器人提供多源融合的时空感知能力,也在具体场景应用中提供训练推理与场景技能支持,让机器人从‘能看会走’迈向‘看得懂、会判断’,加速在真实世界中的规模化落地。"

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

机器人 马拉松 数据标注 无人车 机器狗
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论