欢迎光临GGAMen游戏资讯




当 AI 也开始戴起有色眼镜──有偏见的 AI 是如何产生,又会造成什么影响?

2024-11-02 216

大家对人工智能(AI)的普遍印象,可能是理性、客观,或不近人情。之所以会有这些印象,除了 AI“冷静思考下决定征服全人类”的电影层出不穷之外,还有很大的原因来自 AI 做出决定的凭据:数据(data)。当人们要求眼见为凭的“有图有真相”,AI 只相信“数字会说话”。冷冰冰却比千言万语更接近事实的数据,是 AI 的行动原则,也是我们大多时候相信 AI 能做出不带偏见的决定的原因。毕竟,还有什么能比数据更客观呢?

然而,近期专家发现,AI 其实也会带着有色眼镜看人。如果我们一味相信带有偏见的 AI 提供给我们的资讯,可能会不知不觉间成为种族歧视和性别歧视的帮凶。事实上,Google 的 AI 研究业务负责人约翰‧詹南德雷亚(John Giannandrea)即表示,比起 AI 淘汰人类,他比较担心有偏见的 AI 带来的社会隐忧。

在探讨不客观的 AI 是不是严重威胁前,我们先来看看 AI 的有色眼镜到底从何而来。

AI 有偏见是因为上梁不正下梁歪?

AI 不是一开始就有歧视,而是学习而来的。

现今的 AI 大多采用监督式学习(supervised learning)。也就是说,它会依照工程师提供给它的训练资料(training data)推断出规律,再把规律套用在未知的资料上。打个比方,将红底黑斑的蛇标示有毒,红底无斑的蛇标示无毒,绿底黑斑的蛇标示有毒,然后把这笔资料给 AI,则 AI 可能会将从未看过的黄底黑斑的蛇判为有毒。

这套算法的原则是由 AI 自行进行学习,乍看之下很有效率,不过一旦提供的资料不够全面,或工程师没有想方设法避免歧视,AI 推导出的结果便很容易带有偏见。

其中一种因为训练资料有所偏颇,导致 AI 带有歧视的程式是脸部辨识系统。麻省理工学院(MIT)的研究员乔伊‧布奥拉姆维尼(Joy Buolamwini)指出,由于提供给 AI 训练资料不够多样化,有 3 家著名科技公司的脸部辨识系统在分辨深肤色女性时,都有 20% 以上的出错率。相反的,可能因为 AI 一开始训练时即得到大量相关资料,该 3 家系统在辨别浅肤色男性时只有 0.8% 的出错率。另一个著名的例子是在 2015 年,Google 的影像辨识系统将非裔网友标示为“大猩猩”,随后为此道歉。很明显的,两个例子里辨识系统皆难以辨别出深肤色的人种,使得 AI 的推断结果带有种族歧视。

然而,即便想办法提供多样化的资料给 AI,人类文化里无形的歧视,一样会培育出有偏见的 AI。电脑科学家乔安娜‧布莱森(Joanna Bryson)和同事研究发现,即便他们没有特别在提供的训练资料(以文字为主)上标示关联性,AI 会自动判定白人名字和爱情、微笑等正面字汇有关,有色人种的名字则和癌症、失败等负面词汇有关──明显是受到人类呈现在文字里有意无意的歧视影响。

除此之外,冷冰冰的数据也会让 AI 带有歧视。布莱森表示,由于现实社会中牙医助理和图书馆员由女性担任的比例较高,她们发现 AI 会自然而然的判定这两种职业和女性的关联性较强,形成无形的性别歧视。波士顿大学(Boston University)和微软的科学家也提到,现实生活中的性别歧视和职业上的性别不平等,导致 AI 判定拥有男性化名字的人比拥有女性化名字的人更会写程式。

如此看来,AI 也不是那么理性客观,甚至可以说非常容易就“学会”对人不对事。但是,仅仅是有偏见的 AI,能对我们生活造成什么影响呢?答案是:处处有影响。

有偏见的 AI 会让你找不到工作?

AI 早在不知不觉间渗入人们生活的各个层面。除了社群网络、服务业、交通等为人所知的领域外,如今公司征才、金融业、司法机构的背后也可能有 AI 介入。公司用有偏见的 AI 决定不要雇用女性当程序员,银行用有种族歧视的 AI 决定不要贷款给有色人种,监狱用不客观的 AI 决定不要给囚犯假释等情况皆有可能发生、或是正在进行。事实上,非营利网络新闻媒体 ProPublic 即报导美国司法机关使用名为 COMPAS 的 AI 来预测犯人的再犯率,并依结果来判定要不要假释囚犯。ProPublic 指出,由于该 AI 对少数族群带有偏见,可能使司法机关在无意间迫害弱势族群囚犯。

由此可知,有偏见的 AI 不但影响了我们的日常大小事,还很有在我们毫无察觉的情况下经由使用该 AI,或被该 AI 擅自贴标签,而使他人和自身受到不平等的对待。

消弭 AI 偏见之路

既然有偏见的 AI 是个隐忧,专家们自然想要排除它的歧见。有的人去除资料里不必要的元素(如让 AI 筛选履历书时,去掉性别和种族等个人资料),有的人在 AI 的判定结果上添加条件(如让 AI 过滤应聘者时,能遵守性别配额),还有人致力于推动训练资料的透明化,让他人来审视该资料是否有造成 AI 偏见的可能。

然而,即便不知道种族或性别,AI 还是可以借着其他因素(譬如姓名、住处)辨别男女和人种。如果让 AI 保障女性或有色人种的录取率,则可能会引发对男性不平等的争议。训练资料的透明化更由于各家 AI 开发公司不想外泄商业机密而难以执行,即便公开,也可能因为程式太难被外人理解,无法发挥监督的作用。

在消除 AI 歧视的路上,可说是困难重重。即使如此,我们还是应该不吝于支持、推动创造毫无偏见的 AI,才能真正保障我们的权益。

  • Artificial intelligence is the future—but it’s not immune to human bias
  • Biased algorithms are everywhere, and no one seems to care
  • Even artificial intelligence can acquire biases against race and gender
  • Forget killer robots—bias is the real AI danger
  • Researchers combat gender and racial bias in artificial intelligence
  • Study finds gender and skin-type bias in commercial artificial-intelligence systems

(首图来源:pixabay)

延伸阅读:

  • 机器学习闹出不好笑的种族笑话,Google 为将黑人标成大猩猩道歉
  • AI 算法为什么会有性别歧视?Google 有解释了
  • AI 有性别歧视?其实都是人类惹的祸
  • 乡民太可怕!微软新人工智能机器人 Tay 竟被教成种族歧视
2019-03-13 16:31:00

标签:   游戏头条 资讯头条 ggamen科技资讯 ggamen科技 ggamen科技资讯头条 科技资讯头条 ggamen游戏财经 新闻网 科技新闻网 科技新闻 ggamen ggamen游戏新闻网 科技新闻网 新闻网 ggamen游戏财经 科技资讯头条 ggamen科技资讯头条 ggamen科技 资讯头条 游戏头条 ggamen ggamen游戏新闻网 科技新闻 新闻网 ggamen游戏财经 科技资讯头条 ggamen科技资讯头条 ggamen科技 资讯头条 游戏头条
0