有效的人工智能运算固然高效率,不过对我们而言,很难理解到底它们是怎样做决定。MIT 最近的研究,让人工智能用人类可以理解的方式,描述运算思考过程,使大众对人工智能系统有更多信任。
最近由 MIT 林肯实验室情报和决策技术小组发表的学术报告《设计透明度:缩小视觉推理中效能与可解释性之间的差距》(Transparency by Design: Closing the Gap Between Performance and Interpretability in Visual Reasoning),研究人员描述一视觉分析系统,可像人类解释计算出答案的推理步骤,运算过程更透明。神经网络 TbD-net 透过热力图进行视觉分析,分析人类语言的问题后,拆分为不同的分析工作。当它分析一张照片,会在有特征的部分加上颜色标记,代表哪部分有模组输出进行特定工作,集合各区域的运算结果,组合成最终的答案。
系统虽然提供人类可理解的运算过程显示,效能仍然相当优异。研究输入 85,000 张图像和 850,000 条问题之后,TbD-net 的准确度达 98.7%,比其他神经网络运算方式更佳。
透过让运算过程变透明,研究人员相信可让大众更信任系统,避免人工智能给人黑箱作业感,特别在军事和政府监控相关系统更重要。IBM Research AI 部门主管 Aleksandra Mojsilovic 表示,大型人工智能系统有庞大的潜力改变我们的生活,因此透明度问题一定要先解决,才可让人类信任。
- MIT Lincoln Laboratory develops AI that shows its decision-making process
(本文由 Unwire Pro 授权转载;首图来源:MIT News)