随着人工智能(AI)技术持续提升,许多人都开始出现对于 AI 的焦虑,如果未来真的出现“行为偏差”的 AI 该如何是好?对此,堪萨斯州立大学(KSU)研究人员提出一个有趣的理论:如果精神病理学在人类身上能取得成效,那么稍微调整后运用在 AI 是否也可行呢?
虽然听起来有些奇怪,但这并不是一个玩笑。堪萨斯大学团队在论文指出,人类认知具有的适应机制提供了快速适应动态环境的独特技能,但也造成人们容易罹患 PTSD、忧郁症等相关精神疾病,而研究者也正希望在通用人工智能(AGI)实现类似的认知机制,可想见未来 AGI 也可能出现类似的认知障碍。
举例来说,AI 不顾一切追求奖励最大化的“wireheading”行为便与妄想和上瘾行为相似,而在基于强化学习(RL)的 AI 探索/开发轨迹中,如果设定了非常负面的惩罚和压力,AI 则可能会出现类似忧郁症和 PTSD 的行为障碍。
目前关于 AI 安全的研究多半着重于安全意识设计和缓解技术(mitigation techniques),但 AGI 的复杂性,将会使得分析这些与生物智慧相当的问题变得更困难。考虑到诊断和治疗的目的,团队认为要修复 AI 的行为偏差,或许也可以从人类的精神病理学(Psychopathology)研究获益。
团队相信,透过运用类似的框架来思考 AI、替 AI 的“精神障碍”建立模型并进行验证,未来我们将能诊断出 AI 不当行为,同时找出系统性的治疗方法来解决问题。
这篇论文只是一个起点,但它提出了一些相当有趣的看法:毕竟当能够代替人力执行任务的 AI 代理人(AI agent)“生病”时,处理方式可不像是电脑重开机或重灌系统这么简单。
虽然坐在沙发上和 AI 谈论佛洛伊德可能没什么用,但至少可以庆幸,一些在人类起作用的诊断与治疗效果,或许也会对 AI 有用。
- Will AI need therapy in the future?
(首图来源:shutterstock)
延伸阅读:
- 灌输黑暗素材,麻省理工首创精神变态 AI
- DeepMind 让 AI 学会像动物一样导航,开启 AI 研究新目标:协助探索大脑功能