苹果(Apple)在上个月时,宣布了一项儿童保护(Child Safety)政策,将在使用者 iOS 与 iPadOS 加入图片审查机制,自动侦测用户 iPhone 与 iCloud 是否有儿童色情影像,打击儿童相关性犯罪问题。
只不过,在新政策宣布之后,反弹的声浪不断地打向苹果,因为许多使用者都认为,苹果可能会透过这项审持机制侵犯自己的隐私;甚至也有安全研究人员认为,某些威权国家-还可能会要求苹果透过这项机制,来替他们审查人民思想。
对于苹果原先计划的政策当中,功能包括了会侦测用户的 iCloud 图库当中,查看是否暗藏着儿童性虐待照片(CSAM)照片;此外,也将侦测儿童使用者是否接收到不明的色情图片,会适时地以模糊影像处理,并向儿童与其父母通知。
此外,按照原先的计划,苹果也预计让苹果 Siri 与 Spotlight 搜寻功能未来也将身兼“色情守门员”角色,防止孩童在不知情或不安全情况下,接收到不恰当的色情资讯。
但是由于这项新政策的在各国反弹声浪太大,因此苹果稍早更新官网页面,并表示“根据用户、倡导团体、研究人员和其他人的反馈,苹果决定在未来几个月内花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能。”
也就是说,苹果在受到各方的压力后,决定推迟这项政策的推出;至于这项政策将在何时推出,又或者会不会突然取消,这就要端看苹果是否能找出政策的平衡点而定了。
- Apple Delays Rollout of Controversial Child Safety Features to Make Improvements
(首图来源:Unsplash)