虽然科技公司已有各种算法自动辨认色情和暴力的影像,但有时候仍需要员工把关。不过要一个血肉之驱天天看这些图片显然不是好事,最近有两名 Microsoft 员工因天天审查“重口味”图片而得了创伤后心理压力紧张症候群,他们的家属也因此控告 Microsoft。
审视数以千张血腥暴力照 得创伤症候群无法接触儿子
两个得病员工 Henry Soto 和 Greg Blauert 隶属 Microsoft“网络安全组”,软件会事先辨析色情和暴力影像,然后再交给他们审查和汇报至美国有关政府部门。然而这些工作使他们患上创伤症候群,家属决定控告 Microsoft 要求赔偿。
案情指他们审视的照片涉及严重血腥暴力、儿童色情和性侵犯,他们已观看了数以千次,又指外界根本无法想像他们要看的是什么,因为图片太恐怖和不人道。现在他们因患创伤症候群,看到电脑和刀便会刺激病情,更无法在小孩身边停留;Soto 则连自己的儿子也没有能力接触。
案情又指,Microsoft 并未事先向他们提示“网络安全组”的工作性质;即使公司内有辅导服务但仍不够,无法助他们了解病情。其中一个员工 Blauert 被建议玩电脑游戏抒缓情绪,但在员工评估反被指沉迷电脑游戏。
Microsoft:已减低图片“真实程度”
Microsoft 则指,从事这类艰苦工作的员工的健康是他们最为重视的,会为每个人提供强制的心理辅导以及限制员工的工作时数。此外,公司也已利用程式减低该类图片的“真实程度”,图片会模糊处理、减低分辨率和变成黑白,员工看到的是缩图而非原图。
近期有不少有关人工智能取代人类导致职位减少的新闻出现,但如果人工智能可从事这类厌恶工作,相信很多人都非常欢迎吧,不过现在算法仍会误判图片,好像之前 Facebook 把一张越战经典历史照片误当儿童色情照片,人手把关在这一刻仍是免不得。
- Moderators who had to view child abuse content sue Microsoft, claiming PTSD
- Microsoft staff ‘suffering from PTSD’
(本文由 Unwire Pro 授权转载;首图来源:Microsoft)