英国-委派的一份调查报告指出,59% 的 AI 相关工作人员,担心自己开发的产品可能对社会造成不良影响,并且每 6 个 AI 工程师就有一个为了道德因素而离职。
人工智能将会改变人类的未来,这个潘朵拉的盒子已经无法再盖上,当我们享用着 AI 从方方面面带给我们的好处时,许多人更担心的是 AI 可能带来的坏处,更令人惊讶的是,这些不是其他人,而是催生人工智能持续进化的开发者们。
英国-的调查报告指出,在 1,010 位科技领域员工里,AI 开发者中,高达 59% 认为他们正在开发的产品,可能会对社会有害,在其他科技业工作者中,这个比率只有 28%。并且在交叉分析后得知,有 16% 的 AI 工作者,因为良心不安而离职。
在受访者的回应中,最主要的忧虑包括:
- 对于人群过度的监控
- 缺乏安全机制
- 太着重科技而忽略人与人的沟通
- 自动化造成的失业冲击
- 这项科技会让社会更加分裂
- 商业与财务考量远胜于道德争议
有趣的是,当这些高科技工作者碰到潜在有争议性的问题时,39% 是依据自己内心的道德标准,38% 会上网搜寻相关问题,35% 选择与同事讨论,会参考公司政策与产业规范的,都不到三成。
这一部分可归因于产品非常前端,公司政策与业界标准尚未跟上,然而更大的可能是,公司政策完全没有在相关议题上,提出明确立场。因此有高达 78% 的工作者期望能够有一套相关的行为准则,甚至愿意参加工作坊来帮助他们面对这些问题,同时也期待有一套关于创新科技的框架,让他们参考。
对于所有科技公司而言,最值得注意的是,在因为担心不良后果而离职的员工中,有半数认为,公司政策与行为规范是最能够帮助他们面对这些潜在问题的解方。
换句话说,想要留住这些顶尖人才的其中一个重点,是公司自身要对创新科技的价值、行为规范提出一套明确的说法,让开发者在面临道德困境时,有所依靠。
科技工作者如同一般劳工,他们当然在意薪资、工时与工作环境,然而当 AI 与更多创新科技足以对社会产生巨大影响时,这些开发者绝不希望自己成为科幻电影中的大反派,或至少不要成帮凶。
科技公司或许可以透过树立完整的道德政策,来阐述理念并以此吸引人才,各国-也是一样。加拿大-已经提出一套“算法冲击评估准则”( Algorithmic Impact Assessment, AIA),让企业、工程师与社会大众能够用来评估一项新的 AI 的可能影响。其中包含一系列问题,例如:
- 对于机器做出的决策,是否有人为监控机制?
- 当产生争议时,是否有修正方案?
- 在产生决策的过程中是否有可能产生任何类型的歧视?
- 这套系统是否会用到个人资料?
- 谁负责管理所有数据?
- 系统是否使用非结构化的数据来产出决策?
在完成所有问题后,这套系统将会获得一个风险评估分数,让-单位、企业内部与社会大众都能够快速了解这项新科技可能产生的社会冲击有多大。尽管这项评估没有任何法律效力,然而却是企图在人工智能人才争夺战中,各国-与企业可以借镜的一项准则。
目前包括欧盟、美国、新加坡,都已经针对“Trusable AI”(可信任的人工智能)提出框架,并成立相关权责机构推动监管与立法,台湾目前只有国家发展委员会委托进行了一份调查报告,-部门还在喊著 AI 发大财的“愿景”;中国则是发布了一项“人工智能北京共识”,提出了 AI 开发的方针与规范,然而当此大战之际,按照中国-一贯的思维,肯定不会在这时候提出太过强硬的监管方案,而是继续野蛮成长,究竟这对于全球 AI 人才的争夺是好是坏,只能让开发者们用脚投票来揭晓胜负了。
(首图来源:Unsplash)
延伸阅读:
- 全球 AI 顶级人才近半数在美国,中国居次占 1 成
- 亚马逊:脸部辨识技术本身中性,道德争议须寻求社会共识
- Facebook 携手德国大学成立 AI 伦理研究所,探讨相关技术应用的道德准则