人工智能还有很长的路要走。它需要明白在树上爬的动物不一定是松鼠,也可能是猫咪;尖头长柱状物体也不一定是灯塔,有可能是风铃;在鲜艳物体上的小生物不一定是蜜蜂,也可能是蜗牛。
虽然人工智能飞速进步,但还没有我们想像的强大。它也会犯错,有些错误在我们看来甚至有些“低级”。
Natural Adversarial Examples are real-world and unmodified examples which cause classifiers to be consistently confused. The new dataset has 7,500 images, which we personally labeled over several months. Paper: https://t.co/L5YMIHZGbz Dataset and code: https://t.co/4UzQWC4TjG pic.twitter.com/pd75CyK54T
— Dan Hendrycks (@DanHendrycks) 2019年7月17日
加州大学柏克莱分校的博士生介绍了一些真实案例,展示的 7,500 张图片案例,AI 基本都在“自然对抗性案例”败下阵来,精准度下降 90%,准确度也只有 2% 左右。
虽然这些图像在人类眼里都非常好分辨,但 AI 的算法下,蘑菇会认成椒盐卷饼,绿色蜻蜓认成人孔盖,呆萌的松鼠也认成体积大数倍的海狮。
A dragonfly mislabeled as a manhole cover? What about a squirrel confused for a sea lion? These images are challenging algorithms to be more resilient to attacks. https://t.co/GfmhjoRfE9
— MIT Technology Review (@techreview) 2019年6月22日
不只辨识图片出现大错误,想好好“调教”AI,将它引回正确道路也不容易。实验案例证明了 AI 辨识目前分类器有深层缺陷,会过分依赖颜色、纹理和背景提示,同时,博士发现提高强健性的流行训练技术也收效甚微。
这个数据库是 ImageNet 的一个子集,它由不断欺骗人工智能的图像组成,包含超过 1,400 万幅手工标记的图像用于训练 AI。如果你想让 AI 看到猫时就能认出这是猫,你只需要把它指向猫的类别,然后让 AI 辨识就可以了。
虽然故意让 AI 犯错似乎是件无聊且琐碎的事,但这都有意义。AI 如果实际运用出现错误,那可能会造成无法弥补的严重后果。比如自驾车将行人误认为红绿灯,就可能引发交通事故。
网络也需要 AI 的辨识功能帮忙鉴别图像内容。Facebook 就曾披露如何使用 AI 工具做内容审核。Facebook 的自动化 AI 工具主要表现在裸露、暴力、恐怖内容、仇恨言论、垃圾信件、虚假账号和自杀预防七方面。
如果社交网络裸露和暴力图片能成功被 AI 技术检测,AI 就能标记图片敏感元素,进行高效处理和提示。这些图片如果交给人工审核,不仅效率低,也会为审核人员带来更多工作量和精神压力。
祖克柏也说过,“建立可检测乳头的人工智能系统,要比确定什么是令人不适的语言要容易”。
AI 辨识图像就像人读点字,图像元素是一个个资讯点,最终要透过资讯点做最合理的猜测,这也像管道系统,不同管道连接最终形成系统。这种方法让 AI 在特定图像视觉处理能轻易超过人类。比如说在动植物物种辨识,AI 就比人类更专业。
但部分成功还不能让人对 AI 图像辨识充满信心,约克大学研究员 Amir Rosenfeld 就表示,“有各种各样奇怪的事情发生,告诉我们目前的物体检测系统是多脆弱。”
Our new work shows how self-supervised learning can surpass supervised learning for out-of-distribution detection, and that it can improve adversarial, common corruption, and label poisoning robustness: https://t.co/eTjineQKJW pic.twitter.com/KouzVtOE3W
— Dan Hendrycks (@DanHendrycks) 2019年7月2日
这些“自然对抗性案例”的存在显示现有的 AI 还没那么智慧,它们的“深度学习”也需要更长时间、更多训练。
(本文由 爱范儿 授权转载;首图来源:shutterstock)