工程师们常被抱怨设计出来的东西不能真正满足用户的需求,但是一个设计的改良需要一个循序渐进的过程,其实工程师也想要贴心,也想越来越懂你。
不然为什么要给这个机械手装上眼睛?
不要小看这个眼睛的作用,在长眼睛之前,机器手需要你告诉它每样东西该怎么抓,否则它就胡乱抓。想像一下你闭着眼睛找东西的样子,大概就是这样。
机器手是本来就有的,镜头和图像辨识技术也是本来就有的,但是把这 3 样已知技术结合在一起,就解决了假手“瞎抓”的问题。这是英国新堡大学生物医学研究人员想出来的主意:把一个可以进行图像辨识的镜头搭在一个假手原型上。
使用已经开发好的电脑视觉技术,研究人员透过深度学习训练这个镜头辨识 500 个物体。比如当使用者想要拿起一个杯子,不需要向假手输入任何讯号,在你把手伸向杯子的过程中,假手的镜头会对眼前的物体拍照,由后台辨识,然后根据深度学习训练的结果判断这个物体应该怎么抓,然后把手型调整到相应的抓握形状(比如拿起一支笔需要夹持的动作,拿起一杯水需要握住杯柄垂直移动),最后一步根据用户的肌电讯号确认抓地力。
新堡大学生物医学讲师 Kianoush Nazarpour 博士说,“使用电脑视觉,我们开发出一种能够自动响应的仿生手,实际上就像一只真正的手,用户可以快速使用正确方法去拿一杯水或一块饼干。”
“这个系统的优势在于它更灵活,能够拾取新鲜的物体。这是至关重要的,因为在日常生活中,人们需要毫不费力地拿起他们从未见过的各种物品。”
目前已有的假手,通常需要使用者用各种方式传达一些讯号才能做出相应的动作反馈,也就是不管透过什么方式,你需要告诉你的假手你要拿什么。
比如在肩部或断肢位置接入电极阵列用来读取肌肉活动,在感知皮层植入电极阵列用于感知用户的想法,随后透过感测器发出手势讯号,告诉假手该怎么行动。这种把测量神经讯号的感测器植入肌肉内部,应该是目前最先进、最昂贵的假手了。
美国国防高等研究计划署(DARPA)在 2016 年底推出售卖的名为 LUKE 就是这样的假手。DARPA 希望 LUKE 是那种佩戴之后你可以用大脑控制的假手,只要脑子里想做出什么动作,机械手就会相应完成,目前已知 LUKE 已经可以完成吃汉堡、拿钥匙开门、刷牙梳头、吃汉堡,甚至是拉拉链这种很细节的动作。
这的确是一种理想生物手的代替,但是这样的高级手并不是每一个需要假手的人都负担得起。之前有传言称一个 LUKE 的价格大概在 10 万美元。
给机械手装上眼睛让它自己去看,相对来说就便宜多了。
根据新堡大学研究人员的说法,安装眼睛的假手,反应速度要比市场上大多数假手快 10 倍左右,而且也很便宜,这个假手的眼睛使用的仅是一个普通罗技(Logitech)镜头,用于图像辨识训练的 AI 模型也可说很廉价。
最重要的是,使用者可能不太需要动脑子跟假手对话和沟通,一切交给假手自己解决。
不过也不是说它就是完美的,首先用于辨识的神经网络不能做到完全准确,目前只有大约 80%~90% 的准确率;其次如果真的实现大规模应用的话,除了长眼睛之外,这只手最好还要长脑子,能做到记忆和自主学习,不仅是依赖程序员不断喂标签数据。
世界这么大,需要把握的东西太多,一个迟钝的机械手也许还是会错失一些机遇和幸运。知道怎么捡起掉到地上的钱包,却不知道怎么捡起刚飘落的一朵花,也是一件挺遗憾的事。
(本文由 PingWest 授权转载;首图来源:新堡大学)