技术发展至今,机器人能够自主检查核电厂,处理海洋中的石油泄漏事件,协助战斗机进行空战,或是探索火星表面,但对它们来说,有些能力还是无法与人类比拟。
其中一项人所特有的,就是辨识 3D 物体的能力,尽管机器人能轻易透过相机、感测器来“查看”物体,但它们还是难以像人类一样,能从短暂一瞥中解读出看到的东西。
即使是世界上最复杂的机器人,也都无法做到这项多数孩子都能自动做到的事,但杜克大学的研究生 Ben Burchfiel 和他的论文顾问 George Konidaris,已经快要找到这个问题的解决方案。
R&D Magazine 报导,为了使机器用更人性化的方式解读 3D 物体,Burchfiel 两人开发了一项新技术,让机器人成功达成在混乱的桌面上分辨不同尺寸、形状碗盘的任务。
或许你不曾注意过自己的这项能力,但人类辨识 3D 物体的能力十分出色,不论从何种角度,物体颠倒与否,看见全貌或部分被遮蔽,人们都可以从短暂一瞥中大致分辨出看到的新物体,大脑会在想像中自动填补看不到的地方。
研究团队也希望赋予机器人这项能力,透过设计的感知算法让机器人也能不用从多角度看见新物体,而学会猜测新物体的面貌和用途,“想像”出任何不在视野中的部分。
一旦机器人具备这项技术,就不需要从每个角度观察茶壶,也可以知道这个物体可能有把手、盖子和出水口,也可以分辨它是否适用于何种炉子。
Burchfiel 指出,比起实验室或工厂车间,现实世界并非可控制的环境,事物也并非总是有序或可预测,对于要在日常与人类一起运作的机器人来说,这是相当重要的一步。
12 日在剑桥举办的机器人科学与系统大会上,研究团队表示,他们目前已经让机器人在有限数量的训练下,成功辨识新看见的 3D 物体,速度较以往最好的情况还要再快上 3 倍。
(Source:Ben Burchfiel 个人网站)
据了解,研究人员先用近 4,000 笔普通家庭物品的完整 3D 扫描数据训练机器人的算法,包含床、桌椅、梳妆台、监视器等,每个扫描再转换为成千上万的小立方块,像乐高一样堆叠在一起,让系统更好处理。
之所以这么做,Burchfiel 解释,是因为团队认为,替每个可能的特定物体设定详细的 3D 模型非常不切实际。
透过分析这些扫描数据的范例,算法开始学会使用称为“概率主成分分析”(Probabilistic PCA)的技术,了解范例数据中的变与不变。
运用这个算法,机器人发现新物品时不再需要观察全貌,就能基于从前的知识,像人们一样概括分辨出两个物体的不同,同时又能理解其中相同的部分,让这两个物体都同样属于特定类型的家具。
为了测试这个方法的实用性,研究人员挑选了 10 种新的家庭用品,提供机器近千张从顶部拍摄的 3D 范例,让机器从单一角度猜测对象是什么,完整 3D 形状又该是如何。
结果发现包含隐藏部分,机器大概可以猜中物体 3D 形状的 75%,较过去最好情况下猜中 50% 的比率大幅提升,不仅如此,它也能辨识各种方式旋转的物体,这是过去其他算法无法做到的。
但在目前的情况中,算法仍旧容易被物体在特定角度的形状所迷惑,像是从上方看到一张桌子,而将其误认为一个梳妆台,但研究团队认为整体来说,这还是很大的进步,只是还不到能在实际生活运用的程度。
尽管如此,研究团队已成功让机器人辨识一些 3D 物体,并透过“想像”填补视野中的盲点、重建未知的部分,Burchfiel 表示,“这在许多机器人应用中可能是无价的。”
- Helping Robots Learn to See in 3D
- Bayesian Eigenobjects: A Unified Framework for 3D Robot Perception
(首图来源:shutterstock)