认图片、辨声音、下围棋、玩德州扑克、开卡车……似乎越来越多人能玩的事情 AI 也能玩,而且玩得比人还强。但暂时有一部分人还是自我感觉良好──程序员的工作 AI 还是很难胜任对吧?毕竟这需要逻辑思考、需要框架和流程设计,哪里是 AI 能一下子做到的事呢,但 Google 等公司认为,AI 现在可以开始学习一些 AI 专家做的事了,那就是写 AI 程式。
Google Brain 人工智能研究小组的研究人员最近就进行了这样的尝试。他们在一次试验中让软件设计了一套机器学习系统,然后对这套系统进行语言测试,结果该系统的表现超过了人类设计的软件。
Google Brain 团队首先用递回神经网络生成神经网络的说明,然后利用强化学习对该 RNN 进行训练。其方法可以让 AI 从零开始设计出一个新颖的神经网络架构,再利用 CIFAR-10 资料集(含 6 万张 32×32 的彩图,涉及 10 类对象,每一类各 6,000 张。其中 5 万张为训练影像,1 万张为测试图像)进行影像辨识测试时,其精确度甚至比人类设计的最好架构还高,错误率仅 3.84%,与目前最先进的神经网络模型相比,其错误率仅低 0.1 个百分点,但速度快了 1.2 倍。而在用于自然语言处理的 Penn Treebank 资料集上,其模型构造出来的一种递回神经单元,也超越了广泛使用的 LSTM 神经单元等最新基准指标,在复杂度方面比后者好 3.6 倍。
类似地,Google 的另一个 AI 团队 DeepMind 最近也发表了一篇名为《学会强化学习》的论文。其研究同样针对的是深度学习所需的训练资料量大且抓取成本高的缺点。他们提出了一种名为 deep meta-reinforcement learning 的强化学习方法,利用递回神经网络可在完全监督的背景下支援学习的特点,把它应用到强化学习上,用一个强化学习算法训练出来的神经网络部署到任意环境上,使 AI 在训练资料量很少的情况下具备应用多种场景的学习能力。用 DeepMind 团队的话来说,叫做“学会学习”的能力,或者叫做能解决类似相关问题的归纳能力。
自学能力有了突破
Google Brain 团队的负责人 Jeff Dean 最近在回顾 AI 进展情况时,就曾经表态说机器学习专家的部分工作其实应该由软件来负责。他把这种技术叫做“自动化机器学习”,并认为这是最有前途的 AI 研究方向之一,因为这将大大降低 AI 应用的门槛。
当然,建立学会学习软件这个想法由来已久,蒙特利尔大学的 Yoshua Bengio 早在 1990 年代就提出这个想法。但之前的试验结果并不理想,因为 AI 做出来的东西还是比不上人类想出来的模型。但近年来随着计算能力不断增强,以及深度学习的出现,AI 学习的能力终于取得突破。
尽管 AI 的自学能力取得突破,但在近期内还无法大范围推广。因为这种能力需要庞大的计算资源。比方说 Google Brain 设计出辨识率超过人类所开发系统的影像辨识 AI 就需要 800 个 GPU。
但这种情况将来可能会发生变化。最近 MIT Media Lab 也开发出设计深度学习系统的学习软件,其对象辨识率也超过了人类设计的系统。MIT Media Lab 计划将来开放这套 AI,让大家继续这方面的探索。
除了 Google 和 MIT,据报导最近几个月有好几个小组也在让 AI 软件学习编写 AI 软件方面取得进展。其中包括非营利的 AI 研究组织 OpenAI(其他非营利 AI 组织可参见这里)、MIT、加州大学、柏克莱分校等。
一旦这类自启动式的 AI 技术具备实用性,机器学习软件在各工业应用的节奏无疑将大大加快。因为目前机器学习专家极为短缺,各企业组织都需要高薪供养这批人。
- NEURAL ARCHITECTURE SEARCH WITH REINFORCEMENT LEARNING
(本文由 36Kr 授权转载,首图来源:shutterstock)
延伸阅读:
- 用侠盗猎车手来训练 AI 开车成真
- “如果可以的话,你会攻击人类吗?”两个 AI 在 Twitch 上进行了一段哲学对话
- Facebook 图片标签外挂看 AI 的判断对不对
- Master 就是 AlphaGo 升级版!60 连胜背后看专家怎么说
- 玩德州扑克的“AlphaGo”来了,击败它可以拿走 20 万美元