随着技术发展,人工智能(AI)已应用在做一些简单决定,应用领域与复杂度也在持续拓展中,未来 AI 可能会在自驾车上做出攸关生命的抉择,但 AI 工程师面临一个问题:他们通常不知道自己的创作在想什么。
机器的神经网络
华尔街日报报导,AI 难以被定义,之所以会有这样的现象,和神经网络的使用有关。
当研究人员开始透过“学习”训练机器,将经验转化为模拟神经网络的系统,产生出的结果不是代码,而是由不可读、数百万甚至数十亿的人造神经元,给出 AI 工程师赋予任务的答案。
多数研究人员都同意,认识 AI 是一项迫切的挑战。如果我们不知道人造思维如何运作,又该如何确定它抱持偏见或预测错误的结果?
我们不会知道 AI 是否有“种族歧视”,或是无法预期的思维让自驾车可能发生事故,或许有机会能辨别 AI 对事物是否抱持着偏见,那可能会是 AI 做出无数个决定之后的事了。
去理解 AI 什么时候可能会失败或出现意外行为,是非常重要的,毕竟我们都不希望关键时刻出现任何意外,或是听到“很抱歉,但我恐怕不能这么做”。
AI 不带偏见?
Pinterest 的软件工程师 Tracy Chou,在公司内专门负责机器学习项目,他认为 AI 发展中很大的问题在于,多数人都把 AI 或机器学习想得过于“中立”。
“多数人都不了解的是,是人类设计了这些 AI 模型,也是人类选择要用什么数据来训练机器。”
华尔街日报试着用一个最简单的例子来解释:Google 翻译。当你在 Google 翻译上输入“医生”,要求翻译成葡萄牙语时,总是会得到阳性名词 médico,而非阴性名词的 médica;输入“护士”时,则会得到阴性的 enfermeira,而非阳性的 enfermeiro。
听起来有些阴谋论,但这其实只是用来训练翻译系统的文学体系,旧有的偏见所导致的自然结果。类似的事情其实经常发生,在研究人员并未注意到的情况下,AI 很有可能在无意中成为偏见的代理人。
和人类不同的是,我们不能直接询问机器“为什么这么做?”尽管 AI 在限定的环境条件下能表现十分出色,但谈到内省(introspection)的能力,AI 的程度可能与蟑螂差不多。
如何解读 AI 的思考
▲ 研究人员还未完全弄懂 AI 的思考模式。
应该如何解读人工智能?这是一个困难的问题,就连美国国防高级研究计划署(DARPA)都在提供资金给相关研究人员,希望能够解决这个问题。
在机器学习中,工程师先是编写了类似原始大脑的神经网络,再透过给予大量数据来进行训练,机器则从中学习辨别与理解,就像大脑运作的方式一样,也因为如此,AI“思考”的方式人无法理解。
这个困境工程师称之为“可解释性”问题,而神经网络则称为“黑盒子”──你可以刺激并观察,但无法理解内在。
身为现今最知名 AI“AlphaGo”的开发者,Alphabet 的子公司 DeepMind 研究团队也希望解决这个问题,因此决定用一个全新方式来了解 AI:就像对待人类的孩子。
这并不是一个比喻,DeepMind 的研究科学家 David Barrett 表示,团队正在使用和心理学家用在孩子身上的认知心理学技术及测试,来试图了解 AI 的想法。
Barrett 认为,认知科学对人脑的研究已有数十年,如果应用到机器的过程顺利,将能理解 AI 的思考模式,并为它的决定负责。
在研究中,DeepMind 至少已理解了 AI 的一种学习模式:一次性学习思考。这个设计原先是用来让 AI 看过一次项目后,就学习单字的意思,DeepMind 意外发现,AI 解决这项问题的方式和人类相同,是透过形状来辨别物体。
研究人员发现,即使没有着指导,也存在着许多方法来识别随机对象,像是颜色、质感及行为模式,AI 却是选择像人类一样用形状来识别物体,这样的行为模式是以前未曾察觉的。
机器人心理学
类似这样对 AI 思考的理解只是开始,就像人类心理学一样,机器人心理学未来也可能发展出一种“治疗”行为──也就是去改变 AI 的心态。
工程师在创造 AI 时,经常会选择创造多种版本,以便于从中找出最好的来使用,Barrett 认为,透过认知心理学的应用,工程师可能会更容易创造出“想法”符合人类需求的 AI。
又或者,我们也可能从中发现,AI 的思考模式与人类有所不同,人们或许能从中学习到一些新的东西,像是该如何解决一些问题。
在用人工智能取代人类决策者时,我们总是希望机器做得更好,犯更少错误并承担责任。当 AI 的产出能被衡量,人们或许就能够追踪它们做决定背后的过程。
在现今法庭中,我们总是由人来解决商业问题上的争执,如果改由机器取代人力,我们或许就能够观察到“决策者”在过程中的心态转变,与所有可能出现的偏见。
- Career of the Future: Robot Psychologist
(图片来源:shutterstock)