欢迎光临GGAMen游戏资讯




研究指出用 AI 找出仇恨言论,黑人言论被针对状况多 1.5 倍

2024-11-24 207


许多社群平台变成有各种族裔共处的地方,也就难免有攻击与侮辱的言论,因此用 AI 来找出潜在的仇恨言论,成为火红的策略。然而依据研究者发现,AI 反倒强化既有的社会偏见,黑人的言论有更高的可能被标示为仇恨言论。

两项新研究不约而同的指出训练 AI 找出仇恨言论强化既有的社会偏见,华盛顿大学 (University of Washington) 的研究指出,黑人的 Twitter 贴文比其他族裔多 1.5 倍,被 AI 侦测为仇恨言论,而另一项由康乃尔大学领军的研究指出,用算法标示美国黑人英语也有同样社会偏见倾向,相当容易标示为仇恨言论,达到 2.2 倍的情形。

由于 AI 算法难以理解人类语言背后的社会情境设定,有些脏话在其他情境下,像是黑人自己用黑鬼用词,或是酷儿自嘲用酷儿用语,并不会有太大问题,但 AI 没办法读出字词背后的情境。

两篇论文都在计算语言学的大会发表,自然语言处理并非万灵丹,也有与人类一样的盲点,两篇论文也证明训练素材就是有偏差了,标示者没有依据说话情境判断,已经从一开始就出问题。

延伸出来的问题,就会是 Google、Facebook、Twitter 使用的内容审查工具,是否像上述研究指出的问题,可能从训练素材出问题影响到算法。由于科技公司的 AI 技术,往往需要与学界的技术交流,如果研究者发现研究用的算法都出问题,大概也能推论出商业公司用的算法也得好好检验了。

尽管社群平台视 AI 为救世主,能够解决棘手的内容审核问题,但看来有相当大的执行疑点,而且如果一开始的训练素材出问题,后面训练出来的算法将会问题多,变成充满偏见的 AI。

  • The algorithms that detect hate speech online are biased against black people
  • Boffins bleat Google speech detection algorithm is showing racial bias

(首图来源:pixabay)

2019-08-17 06:59:00

标签:   游戏头条 资讯头条 ggamen科技资讯 ggamen科技 ggamen科技资讯头条 科技资讯头条 ggamen游戏财经 新闻网 科技新闻网 科技新闻 ggamen ggamen游戏新闻网 科技新闻 新闻网 ggamen游戏财经 科技资讯头条 ggamen科技 ggamen科技资讯 资讯头条 游戏头条 ggamen ggamen游戏新闻网 科技新闻 新闻网 科技资讯头条 ggamen科技资讯头条 ggamen科技 ggamen科技资讯 资讯头条 游戏头条
0