微信(Wechat) AI 翻译因自动翻译不当而陷入种族主义歧视风波。虽然事后,微信公开道歉:“我们非常抱歉不当的翻译,在收到用户的反馈后,我们马上解决了这个问题。”但是还是给微信带来负面影响。
据悉,一位黑人戏剧总监 Ann James 在向同事传微信说“她迟到了”,当同事用中文回答的时候,微信自动将信息翻译成了“The nigger is still late.(黑鬼还是迟到)”。
传媒测试发现,“黑老外”本身在微信的翻译是“Black foreigners”(外国黑人),这词还不算冒犯,但如果当文中带有“懒惰”、“迟到”、“盗贼”等字眼时,微信会自动把“黑老外”翻译成有冒犯意味的“nigger”。
微信指出,平台使用的是人工智能翻译软件,AI是在经过大量文本训练后给出翻译结果,并且至关重要的是,翻译软件会充分考虑其上下文,这很有可能会引发诽谤嫌疑(也果真够知能)。目前AI虽然可以进行学习,但是却受制于使用者们对AI提供的信息,所以如何让AI良性成长也是开发者们一直头痛的事情。
其实业内AI聊天软件出现问题也是屡见不鲜。微软此前推出“Tay”的推特线上聊天机器人,也因频繁爆粗口,内容不乏种族歧视、侮辱女性以及污秽不堪的词句,而被迫下线,微软公开道歉。包括 Google 翻译也曾被种族歧视、翻译错误等类似问题困扰。这样看来,未来AI机器会比人类更强大,但不会比人类更明智。