欢迎光临GGAMen游戏资讯




美团队 3D 打印出的这只玩具乌龟,对 Google AI 来说怎么看都是把步枪

2024-11-24 210

从自驾车到智慧监控系统,社会正在慢慢学习如何相信人工智能(AI)。不会感到疲倦、总能保持警觉的机器视觉系统可说是保障人们安全的最佳帮手,但它们真的够可靠吗?

麻省理工(MIT)研究团队 Labsix 最近进行的一项研究认为,从目前看来,机器视觉距离可靠还有很长一段距离得走。

许多人都曾在网络看过会导致错视效果的图片,圆圈自主性的转动、黑点跳来跳去、看似长度不同的线条却一样长,这类型的图片会运用颜色、光暗令人眼产生视觉错觉,但对电脑并不会有相同的效果。

虽然可能难以想像,但对电脑来说,其实也有会导致“错觉”的图片。研究人员将这类型机器视觉误判的图片称之为“对抗式影像”(adversarial image)。

影片中是 Labsix 运用 3D 打印制造出来的一只玩具乌龟。从人的角度来看,相信应该怎么看都是一只乌龟,但对 Google 长期训练辨识日常物品的 AI 来说,这不是一只乌龟,而是一把步枪。

这个玩具乌龟正是对抗式影像的一个例子。随着人工智能发展,人们设计出一种方式来欺骗机器视觉,让 AI 系统无法像人类一般判读图片的正确内容。

你只需要在图片加入一点误导算法的对抗模式,或是近乎透明的图层,对常人看来是熊猫的图片,AI 看来可能就变成一台小货车。

随着 AI 技术持续发展,防范类似对抗式攻击的研究也在持续进行,许多研究认为,虽然这些攻击对 AI 非常有效,但它们并不太完美。在过去,你只需要稍微旋转、放大对抗式图片,电脑视觉就能摆脱错觉,正确辨识图片。

但 Labsix 这只 3D 打印的玩具乌龟却带来一个重要的隐忧:这些对抗式攻击运用 3D 物体也能起作用,而且无论从哪个角度看,它都能欺骗电脑视觉。

除了制造出一只 AI 会误认为步枪的乌龟,Labsix 还制造了一个会被看作是浓缩咖啡的棒球。Labsix 认为,随着神经网络(neural networks)的应用普遍化,对抗式攻击的问题会越来越实际,因为这些攻击将导致危险。

“具体来说,这意味着人们可建造一个路边标志,人类司机看来完全正常,但对自驾车来说可能是突然看到一个行人出现在街旁。”

这些对抗式攻击测试主要是在 Google 开发的图片分类器 Inception-v3 进行,Google 似乎打算在未来让这款分类器商业化,但目前来说所有研究人员都可以免费使用。

虽然 Labsix 还未测试其他机器视觉软件,但根据了解,目前还没有软件提出针对类似“对抗式影像”的改善及解决办法。

Google 对这项研究并没有提出评论,但发言人向 The Verge 透露,他们认为 Labsix 的结论有些错误。

首先,Labsix 的结论谈到 3D 对抗式攻击从各个角度皆能误导 AI,但从 Labsix 自己公布的影片看来,顶多能说是大多数,而非所有角度。

其次,要做到误导 AI 视觉,Labsix 必须先接触到机器视觉算法,才能发现弱点并加以利用,对那些想欺骗自驾车搭载的商业视觉系统的人来说,这会是一个非常大的障碍。

虽然是否对自驾车造成危险还有些争议,但在其他应用,AI 视觉也证实会被类似的对抗性攻击误导,Labsix 团队打算未来持续针对这个问题深入研究。

▲ 过去对抗式攻击只需要微调图片,就能让机器视觉摆脱错觉。

从目前情况来说,对抗性攻击有效,但仅限于有限的情况下,所以对大众来说还不具非常大的危险。

但随着 AI 和机器视觉在生活中更普遍应用,这些“有限”的范围也会随之扩大,如果不找出方法解决,类似的 AI 系统弱点可能会成为生活中的新隐忧。

  • Google’s AI thinks this turtle looks like a gun, which is a problem
  • Fooling Neural Networks in the Physical World with 3D Adversarial Objects

(图片来源:Labsix)

2019-03-17 01:31:00

标签:   游戏头条 资讯头条 ggamen科技资讯 ggamen科技 ggamen科技资讯头条 科技资讯头条 ggamen游戏财经 新闻网 科技新闻网 科技新闻 ggamen ggamen游戏新闻网 科技新闻网 新闻网 科技资讯头条 ggamen科技资讯头条 ggamen科技 ggamen科技资讯 资讯头条 游戏头条 ggamen ggamen游戏新闻网 科技新闻 科技新闻网 新闻网 科技资讯头条 ggamen科技 ggamen科技资讯 资讯头条 游戏头条
0