炼数成金 门户 商业智能 深度学习 查看内容

Facebook AI新研究:可解释神经元或许会阻碍DNN的学习

2020-11-2 11:10| 发布者: 炼数成金_小数| 查看: 19292| 评论: 0|来自: 新智元

摘要: 人工智能模型到底「理解」了什么内容,又是如何「理解」的呢?回答这个问题对于改进人工智能系统来说至关重要。而不幸的是,计算机科学家解释深层神经网络(DNN)的能力远远落后于我们用它们实现有用结果的能力。一种 ...
人工智能模型到底「理解」了什么内容,又是如何「理解」的呢?

回答这个问题对于改进人工智能系统来说至关重要。而不幸的是,计算机科学家解释深层神经网络(DNN)的能力远远落后于我们用它们实现有用结果的能力。

一种常见的理解DNN的方法集中在单个神经元的属性上,例如,寻找出一个单独的神经元,这个神经元可以激活猫的图像,但不能激活其他类型的图像。

Facebook研究人员将这种对特定图像类型的偏好称为「类选择性」(class selectivity)。

「类选择性」之所以被广泛使用,一部分原因是因为它是直观的、易于理解的人类术语(也就是说,这些神经元是网络的「猫」部分)。

事实上,这些可解释的神经元,会自然而然地出现在经过各种不同训练的神经网络中。

例如,经过训练可以对许多不同类型的图像进行分类的DNN含有的某些神经元,这些神经元对拉布拉多寻回犬的激励更为强烈,也就是说,神经元是有选择性的。


研究人员发现强有力的证据表明「即使神经元在很大程度上不具有类选择性,DNN 也能很好地发挥作用」。事实上,易于解释的神经元会损害 DNN 功能,甚至使网络更容易受到随机畸变输入的影响。

Facebook 发现可以通过开发一种新技术,直接控制 DNN 的神经元的类选择性。如果这些方法没有经过严格的测试和验证,那么过分依赖于基于直觉的方法来理解DNN可能会产生误导性。为了完全理解人工智能系统,我们必须努力寻找不仅是直观的而且是经验性的方法。

「类选择性」:深度神经网络可解释性的工具
研究人员最近开始研究是否易于解释的神经元对 DNN 功能实际上是重要的,但不同的研究报告的结果有时是相互矛盾的。

为了解决这个问题,我们采用了一种新的方法来操纵类的选择性: 当训练一个网络来分类图像时,我们不仅指示该网络提高其分类图像的能力,我们还增加了一个动机来减少(或增加)其神经元的类选择性。
  

上图展示了操纵 DNN 中神经元的类选择性会如何影响 DNN 正确分类图像的能力(在 Tiny ImageNet 上训练的 ResNet18)。

每个点代表一个 DNN。点的颜色代表了 DNN 神经元中「类选择性」被使用或禁止的程度。X 轴显示 DNN 神经元之间的平均类选择性,Y 轴显示 DNN 对图像分类的准确程度。

灰点是中性的,既不使用也不禁止类选择性,代表了这种类型 DNN 中自然出现的类别选择性水平,用它作为比较分类准确性的基准。

通过阻止类别选择(蓝点) ,可以提高测试的准确性超过2% 。相比之下,鼓励类选择性(红点)对 DNN 的图像分类能力造成迅速的负面影响。通过放大数据的一个子集,以更好地说明减少和增加类选择性的影响。

通过在损失函数中添加一个类选择性来做到这一点。研究人员用一个参数来控制类选择性对网络的重要性。改变这个参数会改变我们是使用还是阻止易于解释的神经元,以及改变到什么程度。
   
通过调节参数,可以实现「类选择性」跨越所有网络层。实验结果如下:
1.当降低DNN的类选择性时,我们发现它对性能几乎没有影响,在某些情况下甚至提高了性能。这些结果表明,尽管 DNN 在任务和模型中普遍存在,但类选择性并不是 DNN 功能的一部分,有时甚至会对 DNN 功能产生负面影响。

2.当提高DNN的类选择性时,我们发现对网络性能有显著的负面影响。第二个结果表明,类选择性的存在并不能保证 DNN 正常工作。

走出实验室,生产环境中数据更复杂

与研究环境相比,部署在工业环境中的DNN通常需要处理更为嘈杂和更为扭曲的数据。

例如,一个研究用DNN可以从维基百科上看到非常清晰的猫的图像,而在工业中,DNN 需要处理一个黑暗的、模糊的猫逃跑的图像。


研究人员实验发现,类选择性的降低使DNN对模糊和噪声等自然失真更具有鲁棒性。而有趣的是,类别选择性的降低也使 DNN 更容易受到有针对性的攻击,在这种攻击中,图像被有意操纵以欺骗 DNN。

这个结果出人意料有两个原因: 第一,因为类选择性已经被广泛用于理解 DNN 函数; 第二,因为类选择性在大多数 DNN 中自然存在。

研究结果还表明,在缺乏类选择性的情况下,DNN自然地学习尽可能多的类选择性,而不会对性能产生负面影响。

所有这些工作都是 Facebook 进一步解释人工智能的一部分,包括为机器学习开发人员提供开源解释工具,以及与平台建立伙伴关系。

最终,这项工作将帮助研究人员更好地理解复杂的人工智能系统是如何工作的,并研发出更健壮、可靠和有用的模型。

参考链接:
https://ai.facebook.com/blog/easy-to-interpret-neurons-may-hinder-learning-in-deep-neural-networks

声明:文章收集于网络,版权归原作者所有,为传播信息而发,如有侵权,请联系小编删除,谢谢!

欢迎加入本站公开兴趣群
商业智能与数据分析群
兴趣范围包括:各种让数据产生价值的办法,实际应用案例分享与讨论,分析工具,ETL工具,数据仓库,数据挖掘工具,报表系统等全方位知识
QQ群:81035754

鲜花

握手

雷人

路过

鸡蛋

相关阅读

最新评论

热门频道

  • 大数据
  • 商业智能
  • 量化投资
  • 科学探索
  • 创业

 

GMT+8, 2020-12-5 12:47 , Processed in 0.170213 second(s), 25 queries .