人工智能利用深度学习获得分析能力,虽然本身并没有偏见和歧视,但训练用的数据库还是难免有人类偏见。最近麻省理工学院(MIT)为提供的 Tiny Images 数据库致歉,因被指有偏见,训练出来的人工智能恐有同样问题。
MIT 的 Tiny Images 公开数据库,是训练人工智能图像辨识系统常用的工具,数据量非常庞大,有多达 8 千张图片和相关词汇,不过内容其实相当参差,例如会将黑人和亚洲人与负面词语连结,也有性别歧视内容。因此当开发人员不清楚详细情况就使用,训练出来的图像辨识系统就有偏见和歧视,特别执法机关挪作监控之用时就更有问题。
MIT 衷心为此数据库道歉,并已移除 Tiny Images 不再公开,更要求研究人员和开发者停止使用此数据库训练人工智能,且删除相关资料,避免以后再被人误用。负责人受访时承认应该人工筛选内容,此数据库内容都是网络自动取得,因此含冒犯性和充满偏见。
- MIT apologizes, permanently pulls offline huge dataset that taught AI systems to use racist, misogynistic slurs
(本文由 Unwire Pro 授权转载;首图来源:shutterstock)