脸部辨识技术虽然有不少应用场景,但普及时也引起愈来愈多争议,特别是用以执法时的偏见问题。最近美国-委托公营机构研究,确认此技术确实会有偏见问题。
美国-委托国家标准暨技术研究院研究了脸部辨识技术,主要针对执法机构在刑事调查时会用到的“单对单”配对应用,结果发现辨识非裔和亚裔容貌时的误判率,是辨识白人容貌的 10~100 倍。其中非裔女性误判率最高,如果用做执法,可能会导致这些族群的人备受困扰。
NIST 测试来自 99 个开发者的 189 个算法,得出的结果自然引起关注。报告中有含中国商汤科技的算法,被点名批评误判率在所有配对中相当高,例如判断索马里人的时候误判超过 10%。不过商汤科技坚持这是个别案例,问题已经修复,测试无法反应产品表现。
算法正义联盟(Algorithmic Justice League)创办人 Joy Buolamwini 表示,这次报告是对坚持人工智能没有偏见之人的全面反击,认为需要正视这个问题。
- U.S. government study finds racial bias in facial recognition tools
(本文由 Unwire Pro 授权转载;首图来源:shutterstock)