说起机器人爬楼梯,不少人可能会想起波士顿动力那只黄色的 SpotMini 机器人。
如果你觉得 SpotMini 能透过视觉分析路况已经很棒,那 MIT 的 Cheetah 3 肯定让你更惊艳,因为它不仅可爬楼梯可跳跃,且一切都不依赖视觉完成。
要是它踩到一些镜头看不到的东西,那该怎么办?我们不想过于依赖视觉。
一位参与 Cheetah 3 项目的工程师 Sangbae Kim 说。不靠视觉或任何感测器,机器人又是如何了解路况?
就和漆黑环境行进的人类一样,Cheetah 靠的也是“摸黑前行”(blind locomotion)。具体来说,Cheetah 主要依赖两套新算法:1. 接触感应算法;2. 模型预测控制算法。
简单来说,接触感应算法可帮 Cheetah 判断某只机械腿接触到的平面是否可“踏下去”,以及下一步又怎样反应。
▲“摸黑”爬楼梯。
碰了一下后,算法得快速判断机器人脚下是脆弱的树枝,还是踏实的路面,它能否踏下去?如果不可踏,算法会结合回馈资料决定,接下来机械腿是赶紧抬起来,还是摇摆以保持整体平衡。
至于模型预测控制算法,主要帮助机器人判断,每踏出一步,到底需要用多少力,才能帮助机器人人保持平衡。
除了“踏好每一步”,算法另一个工作在于帮助机器人遇到意外阻力时,要怎样恢复平衡。
譬如说,有人在旁边踢了机器人一脚。算法就会想,“我刚在左边遭遇一次意外速度,我要怎么控制每只脚的用力状态,才能保持平衡?如果我在相反方向施 100 牛顿的力,半秒后会发生什么事?”
Kim 解释。这个算法可帮助机器人对付研究人员突然拉扯和推力。
▲“推什么!”
视觉判断可能会面对干扰因素、不准确或情况不适用等问题。所以说,如果你的机器人过于依赖视觉,它对空间的判断必须非常准确,这会使它反应变很慢。
因此,我们希望它可更依赖触觉资讯,这样一来,快速行动时仍可应付意外障碍物。
Kim 补充。此外,这个功能也是出于对 Cheetah 作用定位的考虑。
和旨在进入办公室和家庭的 SpotMini 不同,Cheetah 的使命在于去人类不能到的地方,深入譬如坍塌大楼的废墟、受核辐射影响地区等地方,进行救援等工作。这也意味它得面对更复杂的路况、光线更暗的环境。
不过,Kim 表示,他们还是会为 Cheetah 安装视觉系统,但“不想将视觉当成控制第一位”。
除了“摸黑”系统,Cheetah 3 和上一代相比,灵活度也提升不少。
▲ 可逆膝关节系统,真‧机器人舞。
▲ 灵活摆动。
▲ 弓背弹跳,后面的研究人员也太高兴了吧。
会开门的黄色 SpotMini 和 Cheetah 3,你比较喜欢哪个呢?
- “Blind” Cheetah 3 robot can climb stairs littered with obstacles
(本文由 爱范儿 授权转载;首图来源:MIT News)
延伸阅读:
- 随处乱跑闲晃不求人!波士顿动力机器人 Atlas、SpotMini 又出新招
- 波士顿动力宣布 SpotMini 机器狗明年上市