近日,脸部辨识技术又遇到“突发事件”。15 日,由 90 个倡议团体组成的小组写了一封信给三巨头 AAM(亚马逊、Google、微软),要求 3 家公司承诺不出售脸部辨识技术给政府。团体包括美国公民自由联盟 ACLU、难民移民教育和法律服务中心 RAICES、电子前廊基金会 EFF 等重要组织。
这封信一公开,给了三巨头非常大的社会舆论压力。3 家公司都是脸部辨识技术系统领域的佼佼者,倾注了大量精力与努力。加州公民自由联盟 ACLU 主任 Nicole Ozer 说:“我们正用人脸辨识技术监控交通路口,这些公司现在的选择,将决定下一代时时生活在政府的监控下。比如,是否参加游行抗议活动,监控礼拜场所,甚至日常生活。”
18 日稍早,据彭博社消息,亚马逊公司激进派股东就亚马逊向政府机构兜售脸部辨识软件提交决议,建议停止销售行为,直到该技术认定不会对公民权益产生威胁。该项决议将在 2019 年稍晚于亚马逊年度大会表决。非营利机构 Open MIC 董事 Michael Connor 表示,亚马逊向政府出售 Rekognition,将自身和股东置于风险中。ACLU 则认为,脸部辨识技术很容易误判深色皮肤人种。
十字路口
这绝不是 ACLU 等团体“小题大做”。2018 年 12 月,美国特勤局公布关于白宫周围部署脸部辨识监控测试系统计划,目的在于确定可能对总统构成威胁的“目标嫌疑人”。文件于 2018 年 11 月底公布,显示脸部辨识系统将对白宫公用区域录下的闭路影片与影像数据库比对,以监控、追踪员工。
测试已于 2018 年 11 月 19 日启动,于 2019 年 8 月 30 日结束。系统执行时,脸部符合的影像将会储存,然后由审核人员确认并移除。文件承认对不知情的访客,执行脸部辨识技术时可能具侵略性。整个白宫已成为“高度监控化的区域”,平民可选择回避。当时 ACLU 公开表示,虽然白宫区域监控看似范围狭窄,但开启了潘多拉的盒子,即在公用场所对普通平民进行毫无理由的审查,跨越了隐私保护的边界。
美国国土安全部门(美国特勤局有参与)已将脸部辨识技术用于扫描国内、国际航班乘客,计划可能未来几年推广到美国更多机场。与此同时,美国一部分公安机构利用亚马逊脸部辨识工具 Rekognition,即时扫描影片。例如,华盛顿警务室,奥兰多市为试点,近期有进行 Rekognition 第二次测试。
3 日,Nextgov 披露美国联邦调查局正在试用亚马逊脸部辨识软件 Rekognition,用于反恐调查。有消息称,2018 年夏天,亚马逊就提供移民和海关执法人员 Rekognition 软件。亚马逊现为美国政府最重要的云端技术 AWS 提供商,美国中情局、国防部都是客户。但其脸部辨识软件在政府及社会公用部门使用的详细情况并不被外界所知。
脸部辨识技术受到民间团体、社会舆论,以及监管、立法机构的激烈反应,美国立法委员多次致信亚马逊,要求提供关于亚马逊 Rekognition 的更多资讯。信中提到,“非常担忧,该产品有严重的准确性问题,给有色人种带来打破平衡的精神负担,并扼杀美国人在公众场合行使第一修正法案的权利。”一方面,脸部辨识技术巨头加快布局、侵入社会各领域的应用、机构;另一方面,巨头内部、巨头之间对脸部辨识技术的态度,也颇为犹豫、暧昧,矛盾重重。
近期 Google、微软承认涉及脸部辨识服务的风险,以及被别有用心者滥用和监视的可能性。去年 12 月,Google 宣布在漏洞无法有效制止前,不会出售 Vision API。微软总裁 Brad Smith 提出一些保护性措施,以防止滥用。包括国会通过法律限制技术滥用,具体而言,例如减少偏见,必须通过法院允许才可追踪个人。
去年底,Brad Smith 在布鲁金斯学会的演讲表示担忧:
我们认为,2019 年政府必须开始透过法律来规范这项技术。脸部辨识技术已从充满邪恶的盒子里出现。除非我们采取行动,否则 5 年之后,当我们觉醒,将会发现脸部辨识加剧社会负面问题传递,到那时,这些挑战会更困难。
我们并不认为企业可透过商业竞争服务世界。科技公司被迫在社会责任与市场成功之间选择。防止恶性竞争的唯一方法是建立有效健康的市场责任制平台。坚实地要求企业确保该项技术开发和使用受法律约束。
相比之下,微软 CEO Satya Nadella 更直接,“一些技术一旦遭滥用,将对社会造成很大的危害,政府应该监管”、“脸部辨识技术太可怕了,绝对是一场彻头彻尾的不良竞争”、“以竞争的名义,做任何没有界限的交易,对产业或整个社会都不会带来好结果。”这番话语既指向自身,也暗指竞争对手亚马逊,表达对 Rekognition 强烈的不满。
事出有因
脸部辨识为何引起如此大的争议?首先,涉及准确率的问题,脸部辨识系统可能出现重大错误。去年的测试中,系统错误地将 28 名国会议员与数据库的抢劫犯比对成功。尽管后期人工纠正,但当工具范围扩大,在一定程度上,会导致一些人短期被当作通缉犯。
特别是辨别有色人种时,容易产生较大误差。原因在于不同人种的资料模型、算法不同,需要分开部署。《纽约时报》曾报导,麻省理工学院媒体实验室对微软、IBM、旷视科技人脸辨识系统的试验研究。结果显示有色人种中,三者辨别非白种人的错误率高达 20%~30%,很可能加剧社会种族歧视和偏见等问题。
其次,从隐私角度看,脸部辨识技术涉嫌侵犯个人隐私权。这种技术的危害在于,很容易在未经许可的情况下,广泛滥用而不被一般人察觉,个人隐私无所遁形。更重要的是,一旦脸部辨识技术用于军事,将带给社会毁灭性的打击。
2018 年 4 月,Google 与军方合作的 Maven 杀人机器人计划持续发酵,3 千多名 Google 员工抗议,数十名员工请辞。国际机器人武器控制委员会 ICRAC 向 Google CEO Sundar Pichai、总裁 Lawrence Edward Page、Diane Greene、李飞飞呼吁停止专案,要求 Google 承诺不把该技术用于军事武器。
2017 年,网络流传一段关于微型杀人机器人的影片,机器人只有手掌一半大,可轻易逃避人类捕捉。透过视觉系统定位目标,发射弹药或有毒化学物质,杀害无辜的平民。基于人工智能的脸部辨识技术,同时整合快速定位、无人智慧集群技术、灵敏感测器、资讯网络等多种高阶科技技术。当时这段“模拟”影片已成为现实,早在 2016 年美国就将机器人用于警方制服犯罪分子,而俄罗斯也传出一直秘密研发杀人机器人,用于监控和侦测,并整合爆炸系统用以军事防御。
除了以上技术、伦理、政治正确等原因,脸部辨识技术在 GDPR 下,如何保证有效的数据库增进技术,也将成为脸部辨识公司的巨大挑战。有趣的是,相同的事物在不同地区,受到截然不同的对待。近年,中国一直努力推行复杂的脸部辨识技术,相关技术在安防、金融、日常 C 端产品大量使用。相关资料显示,中国目前监控镜头装载数量已突破 2 亿,是美国 4 倍之多。
(本文由 雷锋网 授权转载;首图来源:shutterstock)
延伸阅读:
- Google 不作恶,亚马逊员工公开信请愿:我们也不要
- 员工施压生效?Google 承诺不再与美国国防部续签无人机军事合作
- 脸部辨识不当使用后果严重,微软总裁建议政府严格监管