欢迎光临GGAMen游戏资讯




在进入社会实际应用前,Google 要让 AI 向人类学习如何“看”图片

2024-11-23 205

“图片左边是一只猫,右边是一只狗。”如果你只是稍微瞥过,很可能会产生这样的误解,但只要看久一些,自然而然便会察觉其中的突兀之处:左右两边其实是相同的图片,只是稍微修改过。

确实,为了让人们被图片混淆,研究人员修改了一些细节.之所以这么做,是因为 Google 团队正在设法弄清楚为什么人类会对某些形式的图像处理产生抵触,或者更该这么说:用一张图片去欺骗人们到底需要什么。

透过理解这些简单攻击与意外的原理,团队希望让人工智能(AI)变得比现在更聪明,或说,更具备与人类相同的常识去辨识图片。

“如果我们确切地搞懂人类大脑中存在可以抵制某种对抗性类型的例子,这将为机器学习有类似的安全机制提供证据。”

过去一年在国外许多团队的尝试下,我们经常看到 AI“出错”,不论是海龟误认成步枪,还是将迷幻贴纸误认为吐司机,这些错误在身为人类的我们看来都非常有趣,因为这是即使四、五岁的小孩都不会犯的错误。

▲ 在有意图的些微改动照片后,AI 便会将熊猫看成长臂猿、猫咪看成电脑、香蕉看成吐司机。

而这些错误并不在于 Google 的 AI 系统有什么问题,而是一个机器普遍存在的简单缺陷:缺乏眼睛。由于机器无法“看到”世界,只能“处理”图片,这让人们很容易操纵一般人不会看到的图片来欺骗它们。

而这也是为什么 Google 要同时研究人类大脑和神经网络的原因。

截至目前为止,神经科学(neuroscience)已经提供 AI 领域许多帮助,像是对 AI 应用发展非常重要的人工神经网络(ANN)便是其中一环,但研究人员希望能从中获取更多灵感,目标其实非常简单:那些骗不了人类的内容也应该骗不了 AI。

身为 Google 研究小组成员之一,Ian Goodfellow 过去曾发表过深度学习相关书籍,他近日再度公布了一份白皮书──“能同时欺骗人类与电脑视觉的对抗式案例”(Adversarial Examples that Fool both Human and Computer Vision),提及一些欺骗 AI 的案例并不适用人类大脑,Goodfellow 认为这些资讯应该能用来制造更弹性的神经网络。

以目前的情况来看,人类在图像辨识还是毫无疑问的冠军,而 AI 的错误确实能当作茶余饭后的话题,但如果人们未来得生活在 AI 环绕的世界(目前看来确实正持续朝这个目标迈进),为了避免 AI“看错”照片造成的麻烦──像是自驾车被迷幻贴纸搞混标示造成的车祸,这些问题势必得解决。

  • Google teaches AI to fool humans so it can learn from our mistakes

(图片来源:Google Adversarial Patch 研究资料)

延伸阅读:

  • 美团队 3D 打印出的这只玩具乌龟,对 Google AI 来说怎么看都是把步枪
  • 由人训练的 AI 视觉就像多数人一样,都认为这是一场演唱会的照片
  • Google 研究员用一张简单贴纸,成功吸走图像辨识系统的所有目光
2019-03-15 05:31:00

标签:   游戏头条 资讯头条 ggamen科技资讯 ggamen科技 ggamen科技资讯头条 科技资讯头条 ggamen游戏财经 新闻网 科技新闻网 科技新闻 ggamen 科技新闻 科技新闻网 新闻网 ggamen游戏财经 科技资讯头条 ggamen科技资讯头条 ggamen科技资讯 资讯头条 游戏头条 ggamen ggamen游戏新闻网 科技新闻 新闻网 ggamen游戏财经 ggamen科技资讯头条 ggamen科技 ggamen科技资讯 资讯头条 游戏头条
0