这个时代假新闻满天飞,我们通常会说“没图没真相”来当作区辨是否真实的原则,然而连照片、影片也是假的话,那该怎么办?尤其现在又有 AI 人工智能技术,方便、全自动的修图更是能制造出大量假照片、假影片。相应这个趋势,知名影像处理软件开发公司 Adobe 提出了抓出假照片的技术方案。
▲ 知名假照片,伊朗政府在 2008 年发表。(Source:WIRED)
Adobe 最近在 CVPR 计算机视觉会议上,展示了以机器学习自动辨识出影像是否经过变造的技术,并且一并发表论文。该研究论文并不代表该领域的突破,也还不是商业产品,但很有趣的是,Adobe 这个公司几乎就是变造影像的代名词,却对这种工作有兴趣。
该公司发言人表示,这个研究专案仍然在早期阶段,但在未来,该公司希望在“开发有助于监控和验证数位媒体真实性的技术”方面发挥贡献。Adobe 过去从未发表过用于辨识假照片的软件,这意味着什么还不是很明确。不过呢,该公司指出已经帮助过执法单位,以数位鉴识技术寻找并且成功找到失踪儿童,这似乎意谓著该公司对其影像处理技术负起负责的态度。
这份崭新的研究论文展示了机器学习如何用于辨识出 3 种常见的影像处理型态:
- 拼接(splicing):将不同图片的两部分组合在一起。
- 复制与移动(copy-move):图片内的区块被复制和贴到别的部分去。
- 删除(revomal)
▲ 3 种常见的变造手法。(Source:论文截图)
为了发掘图片是否被篡改过,数位鉴识专家通常会在图片的隐藏图层寻找线索。当编辑图片时,会留下数位人工产物,例如图像感测器随机产生的颜色和亮度变化(也称为图像噪讯)的不一致性。例如将两个不同的图像拼接在一起,或者将图像一部分区块复制起来贴到另一部分,其背景噪讯会不相容,就好像墙壁上略微不同颜色的污渍。
▲ Adobe 的训练资料。(Source:论文截图)
与许多其他机器学习系统一样,Adobe 也使用含有大量变造过图片的资料集来训练人工智能,从中发现变造图片的常见模式。这套系统在某些测试中得分高于其他团队制造的类似系统,但还没达到遥遥领先的地步。然而,这项研究并未直接应用于以 Deepfake 产生的假影片(Deepfake 是以人工智能移花接木产生假影片的软件,之前许多人用来把女明星合成到色情影片演员身上 )。
▲ Adobe 的鉴识系统辨识出图片被变造的地方。(Source:论文截图)
数位鉴识专家 Hany Farid 表示:“这些新的机器学习方法的好处是有可能发现不明显且以前未知的伪造影像;然而这些方法的缺点是,目前受限于喂给类神经网络的训练资料,目前还不太可能学习到区辨出阴影、反射几何形状的不一致那样更高级的伪造手法。”
尽管如此,毕竟是有人在进行更多研究帮助我们发掘假图,正如许多专家提醒,我们正走向某种“后真相”(post-truth,注)的世界,连我们看到的影片、照片都不一定可信,我们真的需要新工具来帮助我们明辨真假,水能覆舟亦能载舟。人工智能让伪造相片更容易了,但也可望更能辨识出假照片。
注:关于“后真相”,牛津辞典对 post-truth 的解释是“反应客观事实对民意的影响力,比不上情绪及个人信念的情形”,后真相的世界也就是用假新闻、假照片、假影片来“带风向”的世界。
- Adobe is using machine learning to make it easier to spot Photoshopped images
(首图来源:影片截图)
延伸阅读:
- 照片盗用伪造泛滥?Truepic 想打造一个影像真实验证平台
- Google 的超强 AI 工具,怎么会被拿来做换脸 A 片?
- 除了一键生成明星色情片,“AI 换脸”的应用场景还有很多
- AI 制作超像真人讲话,假新闻必无可避?
- 用 AI 拍色情片?神力女超人盖儿·加朵的脸被移植到 AV 女优身上