如果你在一段影片中,看到一名政治人物讲他从没说过的话,或是一名好莱坞巨星出现在一部廉价成人电影,请不要切换电视频道,因为你可能正在目睹“假新闻”的未来。
法新社报导,由于人工智能的进步,操纵事实的“深伪”(Deepfake)影片变得越来越精致,创造新型态错误讯息的可能性,带来破坏力极大后果。
随着科技进步,各界越来越担心,骇客或任一国家以不正当目的使用深伪影片。
研究这个主题的美国德州大学法学教授薛士尼(Robert Chesney)告诉法新社:“虽然我们尚未到达深伪影片武器化阶段,但那一刻即将到来。”
薛士尼认为,深伪影片可能会加剧当今虚假讯息和影响性行动带来的混乱。
薛士尼和马里兰大学(University of Maryland)教授席特隆(Danielle Citron)在美国智库外交关系协会(CFR)一则部落格贴文说:“一段适时且精心策划的深伪影片或一连串深伪影片,可能会左右一场选举结果,在一座充满混乱城市激起暴力事件、支持叛乱分子有关敌人残暴行为的说词,或是夸大社会中的政治分歧。”
新美国安全中心(Center for a New American Security)高级研究员谢瑞(Paul Scharre)表示,在未来选举中,使用深伪影片几乎是不可避免的事。新美国安全中心是专门研究人工智能和安全议题的智库。
谢瑞表示,可以使用假影片来抹黑候选人,或是让人们否认真实影片捕捉到的真实事件。
他并说,随着容易让人相信的假影片在外流通,“人们可以选择相信他们想要的任何版本或描述,那才是真正值得担心的”。
(译者:叶俐纬;首图来源:pixabay)
延伸阅读:
- AI 伪造色情影片流窜,女星 Scarlett Johansson 坦言无能为力
- 换脸换花换云都行,Recycle-GAN 让影像转换更简单真实
- Google 的超强 AI 工具,怎么会被拿来做换脸 A 片?
- 除了一键生成明星色情片,“AI 换脸”的应用场景还有很多