过去几年中,Google 翻译等程式解读语言的能力大大提高,Google 甚至正在开发算法程式化思想,希望 10 年内可使电脑有“常识”。
这得益于大量可用的线上文字资料和新的机器学习技术。在 AlphaGo 接连斩落棋坛大神的今天,人们欣喜地看到这些年来人工智能飞跃式的进步。
▲ AlphaGo 和李世乭的比赛。
然而,让我们感到担忧的是,随着机器学习越来越有类似人类的语言能力,它们也吸收了人类语言使用形态中根深蒂固的偏见和歧视。
日前,普林斯顿大学电脑科学家 Arvind Narayanan 在《Science》杂志上发表题为《Semantics derived automatically from language corpora contain human-like biases》(语料程式库自动导出的语义中包含人类偏见)论文,认为人工智能已经正在从文字学习中取得人类潜在的种族和性别偏见。
这篇文章重点介绍一种称为“词语内嵌”的机器学习工具,它已在改变电脑解释语言和文字的方式。
根据 Arvind Narayanan 的解释,他们选择学习“辞汇内嵌”的一个主要原因,是这项技术过去几年里在帮助电脑理解语言方面取得惊人的成功。
“词语内嵌”将词义分解为一系列资料(称为“单词向量”),透过分析词语出现的频率及构建的数学模型来进行深度学习。
然而,令人惊讶的是,这种纯粹的统计学方法似乎捕捉到辞汇背后丰富的文化和社会背景。
例如,在数学模型构建的“语言空间”中,“花朵”的词意与“愉悦”相关,而“昆虫”更接近不愉快的词语相关。这更像人类对两个词意的主观情绪在 AI 上的反映。
Arvind Narayanan 这篇文章还表明,心理学实验中一些更令人不安的隐藏式偏见也很容易被算法学到。譬如说,“女性”这个词大多与艺术、人文职业及家庭关系密切,“男性”这个词更接近数学和工程专业范畴。
更让人惊讶的是, AI 系统更可能将欧洲与美国人的名字和如“礼物”或“快乐”等积极愉快的辞汇关联,而非裔美国人的名字更常与不愉快的话语相连。
机器算法的偏见歧视并不是一个新问题。早在 1970、1980 年代,英国的圣乔治医学院就使用计算机程序对申请人资料进行初步筛选。
该计划模拟了过去录取人员的选择形态,结果被拒绝的约 60 名申请人大多是妇女或拥有非欧洲人的名字。
英国的种族平等委员会最终决断,圣乔治医学院在这场招生过程中有种族和性别歧视。
这既不是算法的疏忽大衣,更不是程序员的恶意,而是人类心底根深蒂固的“偏见”无法抹除,而计算机程序加剧了这个问题,并给它看似客观的糖衣。
这正如文章的联合作者、巴斯大学的电脑科学家 Joanna Bryson 所说:
很多人都说这个实验的结果表明 AI 有偏见。不,这正显示出我们是有偏见的,而 AI 正在学习它。
Bryson 还警告说,AI 的学习能力会潜在加强现有的偏见。与人类大脑不同,算法本身可能无法有意识地抵销偏见。
谈及如何修正 AI 的偏见,文章另一位联合作者 Caliskan 提出,解决方案并不一定要改变 AI 学习的算法。AI 只是客观透过算法捕捉我们生活的世界,但我们的世界充满歧视与偏见。改变算法的方式只会使其效果更差。
相反,我们可以从另一端入手,修正 AI 算法学习之后的成果,让它在二次学习后不断习得人类的道德观念。
例如,在使用 Google 翻译时,你可以调整它,改善 AI 翻译的品质:如果你看到“医生”总是翻译成“他”,而“护士”总是翻译成“她”,你可以身体力行去改变。
(本文由 36Kr 授权转载;首图来源:pixabay)