研究提出能够自我解释的 AI 算法

发布时间:2017-01-17

      加利福尼亚大学伯克利分校和马克斯普朗克信息学研究所的研究提出了一种能够自我解释的算法,有助于让人类理解机器学习的决策过程。这种被称为"指向和对齐"的系统可以指向用于做出决策的数据,并证成为什么使用这种方法。随着机器学习应用增多,黑箱问题也愈发严峻,这项研究提升了机器自我解释能力,也为更加可靠的应用打下了基础。

      这种AI算法以两种方式分析数据:一种方式回答原始问题,另一个识别用于回答问题的数据,并可以把数据翻译成正常英语。这个方案不是从事后追溯为什么发生了事情,而是记录了一路上的过程。

      根据在ArXiv 上发表的未经审查的研究论文,该算法目前唯一能做到的是识别图片中的人类行为,如打棒球或骑自行车。它对两组信息进行训练,一组用于确定图片中发生了什么,另一组用于回答"为什么"。

论文题名:Attentive Explanations: Justifying Decisions and Pointing to the Evidence

全文链接 :https://arxiv.org/pdf/1612.04757v1.pdf

发布日期:14,12,2016

来源 :新智元