CMU和ETH Zurich团队合作开发了名为"敏捷但安全"(ABS)的新框架,为四足机器人在复杂环境中实现高速运动提供了解决方案。该框架不仅在避免碰撞方面表现出高效能力,而且实现了前所未有的3.1毫秒极速运动。这一创新为足式机器人领域带来了新的进展。
在高速机器人运动领域,同时保持速度和安全性一直是一个巨大的挑战。然而,卡内基梅隆大学(CMU)和苏黎世联邦理工学院(ETH)的研究团队最近取得了突破性进展。他们开发的全新四足机器人算法不仅能够快速移动于复杂环境中,还能巧妙地避开障碍物,真正实现了“敏捷且安全”的目标。这项算法的创新之处在于它能够快速地识别和分析周围环境,并根据实时数据做出智能决策。通过使用先进的传感器和强大的计算能力,机器人能够准确地感知周围的障碍物,并通过调整步态和轨迹来避开它们。这项技术的成功应用将极大地推动高速机器人的发展
论文地址: https://arxiv.org/pdf/2401.17583.pdf
在 ABS 的加持下,机器狗在各种场景下都展现出了惊艳的高速避障能力:
障碍重重的狭窄走廊:
凌乱的室内场景:
无论是草地还是户外,静态或动态障碍,机器狗都从容应对:
遇见婴儿车,机器狗灵巧躲闪开:
警告牌、箱子、椅子也都不在话下:
对于突然出现的垫子和人脚,也能轻松绕过:
机器狗甚至还可以玩老鹰捉小鸡:
ABS 突破性技术:
RL+ Learning model-free Reach-Avoid value
ABS 采用了一种双策略(Dual Policy)设置,包括一个「敏捷策略」(Agile Policy)和一个「恢复策略」(Recovery Policy)。敏捷策略让机器人在障碍环境中快速移动,而一旦 Reach-Avoid Value Estimation 检测到潜在危险(比如突然出现的婴儿车),恢复策略就会介入,确保机器人安全。
下图展示了针对特定障碍物集合学习到的 RA(达防)值。随着机器人速度的变化,RA 值的分布景观也相应变化。RA 值的符号合理地指示了敏捷策略的安全性。换句话说,这张图通过不同的 RA 值展示了机器人在不同速度下,面对特定障碍物时的安全风险程度。RA 值的高低变化反映了机器人在不同状态下执行敏捷策略时可能遇到的安全风险。
恢复策略的创新之处在于,它能使四足机器人快速追踪线速度和角速度指令,作为一种备用保护策略。与敏捷策略不同,恢复策略的观测空间专注于追踪线速度和角速度命令,不需要外部感知信息。恢复策略的任务奖励专注于线性速度追踪、角速度追踪、保持存活和保持姿势,以便平滑切换回敏捷策略。这种策略的训练同样在仿真环境中进行,但有特定的域随机化和课程设置,以更好地适应可能触发恢复策略的状态。这种方法为四足机器人提供了在高速运动中快速应对潜在失败的能力。
下图展示了当恢复策略在两个特定情况(I 和 II)下被触发时,RA(达防)值景观的可视化展示。这些可视化展示是在 vx(沿 x 轴的速度)与 ωz(绕 z 轴的角速度)平面以及 vx 与 vy(沿 y 轴的速度)平面上进行的。图中显示了搜索前的初始旋转状态(即机器人基座当前的旋转状态)和通过搜索得到的命令。简单来说,这些图表展示了在特定条件下,通过恢复策略搜索得到的最佳运动指令,以及这些指令如何影响 RA 值,从而反映机器人在不同运动状态下的安全性。
以上是CMUÐ实现突破:机器狗点满敏捷值天赋,超高速穿越障碍,速度与安全兼备!的详细内容。更多信息请关注PHP中文网其他相关文章!