许多社群平台变成有各种族裔共处的地方,也就难免有攻击与侮辱的言论,因此用 AI 来找出潜在的仇恨言论,成为火红的策略。然而依据研究者发现,AI 反倒强化既有的社会偏见,黑人的言论有更高的可能被标示为仇恨言论。
两项新研究不约而同的指出训练 AI 找出仇恨言论强化既有的社会偏见,华盛顿大学 (University of Washington) 的研究指出,黑人的 Twitter 贴文比其他族裔多 1.5 倍,被 AI 侦测为仇恨言论,而另一项由康乃尔大学领军的研究指出,用算法标示美国黑人英语也有同样社会偏见倾向,相当容易标示为仇恨言论,达到 2.2 倍的情形。
由于 AI 算法难以理解人类语言背后的社会情境设定,有些脏话在其他情境下,像是黑人自己用黑鬼用词,或是酷儿自嘲用酷儿用语,并不会有太大问题,但 AI 没办法读出字词背后的情境。
两篇论文都在计算语言学的大会发表,自然语言处理并非万灵丹,也有与人类一样的盲点,两篇论文也证明训练素材就是有偏差了,标示者没有依据说话情境判断,已经从一开始就出问题。
延伸出来的问题,就会是 Google、Facebook、Twitter 使用的内容审查工具,是否像上述研究指出的问题,可能从训练素材出问题影响到算法。由于科技公司的 AI 技术,往往需要与学界的技术交流,如果研究者发现研究用的算法都出问题,大概也能推论出商业公司用的算法也得好好检验了。
尽管社群平台视 AI 为救世主,能够解决棘手的内容审核问题,但看来有相当大的执行疑点,而且如果一开始的训练素材出问题,后面训练出来的算法将会问题多,变成充满偏见的 AI。
- The algorithms that detect hate speech online are biased against black people
- Boffins bleat Google speech detection algorithm is showing racial bias
(首图来源:pixabay)