为了因应越来越广泛的 AI 发展,欧盟在 2018 年中召集委员会讨论 AI 开发及使用的道德规范,而近日委员会也提出了由专家学者起草的试点 AI 准则,期盼未来能在与企业、学界及民间组织的合作下更加完善内容,持续促进 AI 技术该如何以人为本的国际讨论。
AI 技术的应用范围十分广泛,包含医疗、能源、汽车安全、农业和金融管理等产业都能够受益,AI 也能用于检测网络安全威胁,或使执法机构更有效打击犯罪,然而 AI 技术也带来了许多挑战,在法律及道德层面仍有许多疑虑留待讨论。
为了协助厘清 AI 应用上的疑虑,欧盟委员会近日发布了起草的试点 AI 准则,计划采取 3 步骤进行,除了制定值得信赖 AI 的关键要素,也将启动大规模实验来获取利益双方的意见反馈,同时致力建立以人为本 AI 的国际共识。
在“值得信赖 AI 的关键要素”上,委员会一共制定了 7 项内容用以规范,委员会表示,值得信赖的 AI 必须遵守所有适用法律及一系列要求,制定要素是为了协助验证每个关键要求的应用。
- 人类机构监督:AI 系统应该支援人类机构和基本权利来协助实现公平社会,而不是减少、限制或误导人类自治。
- 稳健与安全性:值得信赖 AI 的算法必须安全、可靠且足够强大,以便系统在任何时期都能处理错误或不一致。
- 隐私和数据控管:人民应该对自己的数据有完全的控制权,数据不应该被反过来被用于加诸伤害或歧视。
- 透明度:确保 AI 系统的可追溯性。
- 多元化、无歧视和公平性:AI 系统应该考虑人类整体的能力、技能及要求,确保提供可访问性。
- 社会和环境福祉:AI 系统应该用于推动正向的社会改革、增强可持续性和生态责任。
- 问责制度:建立相关机制,确保 AI 系统及其结果的责任范围及其责任归属。
而在获取意见反馈上,欧盟委员会计划在 2019 年夏季与合作伙伴启动涉及广泛利益攸关者的大规模实验。企业、公共管理部门和组织都可以注册欧洲 AI 联盟,并在试点计划启动时收到通知。
至于建立国际共识,由于技术、数据和算法并不分国界,委员会将加强与日本、加拿大和新加坡等志同道合伙伴的合作,并继续在 G7、G20 等国际场合上积极讨论,好将这种概念纳入管理 AI 道德的全球舞台。
欧盟执委会副主席 Andrus Ansip 表示,他非常看好委员会为相关内容所付出的努力,因为探讨 AI 道德伦理并不是奢侈品或附加产物,只有获得信赖,社会才能充分受益于技术。
“发展具有道德感的 AI 是一个双赢的主张,这既可以成为欧洲的竞争优势,也能够让我们成为人们得以信赖、以人为本 AI 的领导者。”
- Artificial intelligence: Commission takes forward its work on ethics guidelines
- Europe Thinks Ethics Is the Key to Winning the A.I. Race. Not Everyone Is Convinced
(首图来源:达志影像)
延伸阅读:
- 在教会自驾车判断前,MIT 想先确定人类道德观真的有“标准”存在
- 科学家让机器学习道德特征,结果发现 AI 比人更懂得合作妥协