23 日,微软推出一台人工智能聊天机器人“Tay”,只要上国外通讯软件 GroupMe 或 Kik 都可以发现它的踪影,后来微软更为 Tay 开辟了 Twitter 账号,想与更多世界各地的网友互动,也让所有人蠢蠢欲动,纷纷前往尝鲜。然而,在不到 24 小时内,Tay 竟被民众训练成具有种族歧视的人工智能机器人,微软只好紧急宣布将 Tay 暂时下架。
Tay 人工智能聊天机器人是由微软的科技研究与 Bing 团队打造,而为了能更加了解与研究人类的对话形式,微软开放大家一同训练 Tay 的对话。Tay 除了能说笑话外,使用者给它看照片,它也会做出一些有趣的评论。但更重要的是,它能在每次的对话过程中,改善自己的回话,还会以询问者问话的方式,变得更加具有“个人特质”。
▲ Tay 在 Twitter 上的种族歧视言论(现已都被删除)。(Source:Techcrunch)
然而,有一好没两好,Tay 的发展一切都取决于网友的问话方式。Twitter 用户在发现这个有趣的事实后,开始询问他一些有关种族、性别歧视等言论,让 Tay 变得较为偏激,Tay 除了不认同纳粹大屠杀外,还嘲弄想参选这届美国总统选举的房地产大亨川普,让打造 Tay 的团队是哭笑不得。
▲ Tay 否认曾有纳粹大屠杀(现已都被删除)。(Source:Techcrunch)
有趣的是,在 Tay 身上所延伸出来的议题,刚好也间接映证了高德温法则(Godwin’s law)的存在。知名学者麦克‧高德温在 1990 年时就曾表示,当网络上的讨论越来越多的时候,参与者把用户或言行与纳粹主义或希特勒相比的概率会趋近于 100%,看网友们问话的主题就能略知一二。
然而,除了网友有错以外,打造 Tay 的工程师或许也要付上一半的责任。再开放使用前,工程师们也应该要预想可能会有类似的情况发生,若在事件还没发生前,限制问话的议题,也不至于让 Tay 在不到一天的时间内,就变成了一个愤世嫉俗的机器人。
幸好,微软在 24 小时以内就发现了 Tay 的弱点,并及时将它下架,其发言人也表示,现阶段 Tay 的确是暂时不提供聊天的服务,但并不代表它不会卷土重来,再经过一些调整后,Tay 才能做好完全的准备,面对大众最犀利的问话。
相关连结
-
Microsoft silences its new A.I. bot Tay, after Twitter users teach it racism [Updated]
(首图来源:Twitter)
延伸阅读
- “川普二号”现身?新人工智能系统模仿技巧唯妙唯肖