8 月 24 日,是缔造苹果传奇的史蒂夫·乔布斯卸任 CEO,将大权交给提姆·库克十周年的日子。
十年过去,苹果财务表现无比优秀,多年保持世界最高市值公司纪录。然而名气和财气背后,这几年苹果风评越来越差,就连经常吹捧的隐私保护,苹果种种表现越来越令人难相信:这居然是苹果做的好事?
8 月初苹果被业界人士爆料(官方很快承认)争议性极高的新举动:审核用户手机保存的照片,以及经过 iMessage 发表上传到 iCloud 的图片,以辨识儿童色情和虐待(CSAM),打击传播此类内容。
这可是苹果,号称最注重用户个人隐私的苹果。现在苹果堂而皇之摇身一变,成了随时随地都在“偷看”用户照片的公司。自新政宣布,不利苹果的新闻接连发生,使 CSAM 扫描事件不断升级,已达称为“丑闻”的程度了。
算法漏洞浮现
快速前情提要:
8 月 5 日,约翰霍普金斯大学加密学教授 Matthew Green 曝光苹果将推出检测 CSAM 的技术,名为 NeuralHash,就是在用户手机和 iCloud/苹果服务器云端,用算法比对用户图片和第三方 CSAM 数据库的杂凑值(hash values、hashes)。若比对成功,苹果就会隐藏这张照片,且不排除报警或通知青少年家长等。
这技术应用层面的问题主要有两点:
- 只打击 CSAM 的技术,无法限制只针对 CSAM,因:
- 此类工具技术已攻破,两张完全不同的照片也能杂凑碰撞(即拥有相同杂凑值)。
之后 CSAM 技术又爆出新状况,丑闻再升级。
机器学习研究者 Asuhariet Ygvar 发现,NeuralHash 算法早在 iOS 14.3 就植入 iPhone 系统,且苹果还混淆 API 命名。之前苹果 CSAM 技术页面宣称,这项技术是新的,计划 iOS 15 和 macOS Monterey 正式版推出时才启动。
Ygvar 透过逆向工程,成功导出 NeuralHash 算法并重新打包为 Python 可执行,还在 GitHub 提供导出方法,让其他人可更深入探索研究。但 Ygvar 没有提供导出后算法,显然是为了避免遭苹果提告,这点之后再述。
Ygvar 早期测试显示,NeuralHash 算法对图片尺寸和压缩调整抗性较好,但如果图片经切割或旋转,NeuralHash 就不好用了。这表明 NeuralHash 算法用于 CSAM 检测效果可能会打折。
不出意外,很快就有人做到 NeuralHash 算法杂凑值碰撞。波特兰安全研究员 Cory Cornelius 上传比特犬照片和灰色乱码图,两张毫无关联的图片,透过 NeuralHash 算法杂凑值居然一模一样。
接着 Ygvar 也重现碰撞:
GitHub 留言下有人指出,Cornelius 的结果比碰撞更严重,已属于原像攻击 (pre-image)。杂凑碰撞就是找到两张杂凑值相同的随机照片,原像攻击可理解为“刻意碰撞”,也就是先指定一张照片,然后生出另一张杂凑值相同但内容不同的照片。
更多开发者也用同一张照片做到更多碰撞:
甚至有人在 ImageNet(备受机器学习界欢迎,适用范围超级广的标注图片数据库)都找到天然 NeuralHash“双胞胎”。ImageNet 一张钉子照和一张滑雪板照片,NeuralHash 算出杂凑值相同。另一张斧头照和线虫图,也是天然的 NeuralHash 杂凑值双胞胎。
NeuralHash 算法原像攻击,以及天然杂凑值双胞胎表明:苹果打算大规模推广的 CSAM 辨识算法,有远比人们想像更严重的滥用缺陷。
你在网络跟某人结仇,他想报复你,于是去找一张 CSAM 照片,然后生成几张看来人畜无害,但跟原始照片杂凑值相同的图片发来。你的手机自动辨识为 CSAM 照片,你被举报,员警上门,某人得逞。
没错,我们完全不需“设身处地”成可能传播色情内容的人。每个普通人完全有可能成为技术滥用或错误使用的受害者。如果今天滥用的是 NeuralHash,对象碰巧是你,名誉马上不堪一击。
研究者 Brad Dwyer 表示,尽管有漏洞,目前早期测试似乎表明,杂凑碰撞发生率和苹果宣称的误报率类似。Dwyer 强调,苹果目前全球拥有超过 15 亿使用者,代表 NeuralHash 若有误报,会对大量使用者造成负面影响。
瞒天过海、封口威胁
Epic Games 和苹果因“苹果税”、应用商城政策等问题结下梁子。这是 Epic Games 挑起针对苹果的持久反垄断战,攻击方面也完全不设限。证据采集阶段,Epic Games 律师搜集大量跟案件有关或无关的资料,很多都是苹果高度机密资料。
就在 8 月 26 日,诉讼再爆出和苹果 CSAM 扫描有关的猛料:
苹果反欺诈技术部门 FEAR(Fraud Engineering Algorithms and Risk)老大 Eric Friedman 2020 年和同事 iMessage 聊天时说:“我们(苹果)是全世界最大的儿童色情内容平台。”
这当然只是反讽,Friedman 想说的是,由于苹果隐私安全设计,更多不法分子选择苹果通讯产品传播这些内容。表面看,这句话似乎是这位工作内容包括打击儿童色情的苹果高层用挖苦证明苹果为什么要做这件事。
但结合 CSAM,令人细思极恐:苹果又怎么知道自家平台有如此多儿童色情,以致 2020 年就如此断言?难道苹果以前就开始扫描用户设备和 iCloud 账户了?
一些人开始猜测,苹果早就在扫描用户隐私了。
这条证据经诉讼公开后,苹果发言人回应 9to5Mac 询问时表示:我们从 2019 年就开始扫描使用者 iCloud 账户。这时间比包含 NeuralHash 算法的 iOS 14.3 发表时间整整早了一年。苹果扫描使用者 iCloud Mail,也即用户注册 iCloud 账户时的 @iCloud.com 电子信箱。
苹果还表示也有扫描“其他数据”,但拒绝透露是哪些。苹果宣称从未扫描使用者 iCloud Photos(云端相片存储,iOS 预设开启的功能)。
(Source:9to5Mac)
更令人费解的是,苹果号称将用户数据隐私置于最高位,不时用这套说辞攻击其他对手如 Facebook,却从未清楚告知使用者也有扫描使用者隐私资料。苹果称珍惜用户的信任,所以重视使用者的隐私,但现在“保护用户隐私”更像宣传用语。
苹果当然想瞒天过海,但再也瞒不住时,也会不惜透过各种手段封口,阻挠第三方揭露问题,这点没人比 Corellium 更了解。
常规管道销售的 iPhone 有非常复杂的用户协定,如果资安人士要深度分析破解(且未获得苹果许可),就算违反协定。Corellium 公司提供“虚拟化 ARM 架构设备”服务,包括 iOS 和 Android 设备,让研究员可用电脑研究 ARM 架构的系统和软件安全性,无需购买实体手机。
于是 2019 年苹果以违反数位千年版权法状告 Corellium。一开始外界担心以苹果强大的法务团队,这案子最终可能会对资安业不利。好在去年 12 月,主审案子的法官下达初步裁决,确定 Corellium 的商业行为并不构成侵犯版权。
8 月 10 日,原定开庭日期前一星期,苹果和 Corellium 突然达成庭外和解。和解还有微妙的细节:发生在苹果宣布 CSAM 扫描,并引发科技业史无前例巨大争议的几天后。
很明显,苹果不希望在尴尬的时间点,让这桩悬而未决且对自己不利的案子被当成与资安界对抗的证据。毕竟苹果 CSAM 介绍页面也提到,苹果也和第三方安全专家就 NeuralHash 的有效性和安全性有合作。苹果软件 SVP Craig Federighi 接受采访时也表示,欢迎安全专家来测验 CSAM / NeuralHash。
不过刚与苹果和解,几天后 Corellium 又出招。
8 月 17 日,Corellium 公司四周年这天,发起“开放安全计划”招募研究员,给最优秀的三组申请者每组 5,000 美元,以及长达一年的 Corellium 技术工具免费使用权。
(Source:Corellium)
计划主题是“验证设备厂商的安全宣传”。这厂商是谁也不用猜了。
(Source:Corellium)
“我们赞赏苹果的承诺,允许第三方研究人员问责,也相信我们的平台非常适合研究者实现目标。”Corellium 官网如此写。不意外这再次激怒苹果,但可能太生气了,这次苹果法务团队不按牌理出牌。Corellium 宣布计划的第二天,苹果就撕毁和解协议,对去年 12 月法院“Coreelium 行为不构成侵犯版权”裁决提出上诉。
现在读者应能理解逆向工程 NeuralHash 的开发者只提供破解法,没有直接公开算法。毕竟,这世界可能没多少人想跟苹果打官司。
(本文由 品玩 授权转载;首图来源:苹果)
延伸阅读:
- 不仅使用者担心,苹果员工对儿童色情审查机制也感忧心
- 苹果拟让 iPhone 侦测儿童色情照片,新软件保护还是侵害隐私?