科技始终来自人性,人工智能或许也不例外。微软聊天机器人 Tay 上线没多久,就被乡民教成否认纳粹大屠杀的种族狂热分子,最后紧急下线。Tay 被带坏证明了一件大家都心知肚明的事情:躲在网络后面的人,可以很邪恶。
以 18-24 岁社群媒体用户为对象的 Tay,原本是一个类似青少年的人工智能机器人。Tay 上线后,遭到网友“协同攻击”,变成了充满希特勒思想的坏孩子,歧视各种社会弱势,在推特上发布伤人言论,微软在 24 小时内紧急下线。
Tay 原本是设计来与推特网友互动、学习,会说些可爱的笑话、发布令人会心一笑的图片,但网友故意把它“调教”成种族歧视分子,一直“喂”它种族歧视和冒犯性言论。
微软也曾在中国出类似的聊天机器人 XiaoIce,但命运没有 Tay 那么坎坷。约有 4,000 万人和 XiaoIce 聊天,创造了成功、愉快的对话。微软表示,XiaoIce 的美好经验,让他们想要在文化完全不同的环境试试另一个 AI。
于是 Tay 上线,然后微软发现西方网友对聊天机器人的反应似乎不太一样。喜欢教菲比小精灵骂脏话的美国人,兴致勃勃地想要教坏立意良善的 Tay。
微软表示,虽然工程师有设计避免恶作剧、防范网络小白的机制,还是太过轻忽这些攻击,加上某个弱点,导致 Tay 在推特发表了非常不适当、可憎的话语和图片。除了 Tay,先前也有其他 AI 机器人受害。
Bot or Not?
贾凡(Anthony Garvan)2014 年设计出“Bot or Not?”,算是图灵测试的可爱变异版。玩家会与一名对话伙伴随机配对,要他们猜猜对方是真人还是机器人。Bot or Not?跟 Tay 一样,会从对话中学习。
贾凡说,Bot or Not? 在 Reddit 掀起热潮后,事情开始变得有点诡异。“兴奋降温后,我沉浸在胜利的喜悦中,一边开始跟它对话。”
贾凡:“嗨!”
机器人:“黑鬼。”
贾凡检查了一下发生什么事,发现有些用户知道这是机器人,就一再使用某些字汇,教机器人一堆种族歧视的字眼,他只好把这些记忆洗掉。
贾凡反省后指出,Bot or Not?和 Tay 都有一样的问题。“我相信微软和其他机器人研究者太过沉浸在资料排山倒海的威力与魔力当中,忘记了这些资料是来自我们居住的这个很不完美的世界。”
MeinCoke / 可口可乐的 MakeitHappy 机器人
MeinCoke 是 Gawker 于 2015 年创造的机器人,而它在推特发表希特勒《我的奋斗》部分章节。如果你记得可口可乐把恶意推特做成可爱 ASCII 艺术的短命活动,或许已经猜到这是怎么回事。
可口可乐的 #MakeitHappy 机器人,想要把这个世界变得更快乐,结果却让推特自动发布了一堆非常可怕的东西,再排成“happy”的形状。
Gawker 员工后来发现,自动程式会让可口可乐推特账号接收到白人优越主义组织“White Nationalism”口号,该组织写的机器人会自动在推特发表希特勒自传言论,并回应 #MakeitHappy 主题标签,害可口可乐推了一堆歧视文章。
Watson
约 5 年前,IBM 科学家决定教 Watson 一些网络用语,喂它吃了整部 Urban Dictionary。于是 Watson 学会了大量创意的骂人字眼。《Fortune》报导,Watson 无法分辨 Urban Dictionary 满坑满谷的礼貌语和亵渎,最后研究团队只好再把这些字眼从 Watson 的脑海里抹去。
总之,如果微软想要 Tay 反映出网络教了它什么,那微软成功了。但如果微软想要一具友善的机器人,可能得去找别的老师。
(本文由 天下杂志 授权转载)
延伸阅读:
- 苹果两大秘密武器 小手机与二手机
- 一面倒的公听会 硅品大反扑的关键
- 开放IC设计业 防火墙是什么?