当前位置: 首页 > news >正文

263企业邮箱登录邮箱seo基础入门

263企业邮箱登录邮箱,seo基础入门,wordpress 上传到七牛,庆网站制作公司机器学习的可解释性 人工智能技术与咨询 来源#xff1a;《计算机研究与发展》#xff0c;作者陈珂锐等 摘 要 近年来#xff0c;机器学习发展迅速#xff0c;尤其是深度学习在图像、声音、自然语言处理等领域取得卓越成效.机器学习算法的表示能力大幅度提高#xff0c…机器学习的可解释性 人工智能技术与咨询  来源《计算机研究与发展》作者陈珂锐等 摘 要 近年来机器学习发展迅速尤其是深度学习在图像、声音、自然语言处理等领域取得卓越成效.机器学习算法的表示能力大幅度提高但是伴随着模型复杂度的增加机器学习算法的可解释性越差至今机器学习的可解释性依旧是个难题.通过算法训练出的模型被看作成黑盒子严重阻碍了机器学习在某些特定领域的使用譬如医学、金融等领域.目前针对机器学习的可解释性综述性的工作极少因此将现有的可解释方法进行归类描述和分析比较一方面对可解释性的定义、度量进行阐述另一方面针对可解释对象的不同从模型的解释、预测结果的解释和模仿者模型的解释3个方面总结和分析各种机器学习可解释技术并讨论了机器学习可解释方法面临的挑战和机遇以及未来的可能发展方向. 关键词 机器学习可解释性神经网络黑盒子模仿者模型 纵观机器学习的历史发展进程其最初的目标是从一系列数据中寻找出可以解释的知识因而在追求算法性能的同时也很注重算法的可解释性.典型的代表譬如线性感知机、决策树、k近邻算法等.进入20世纪80年代之后伴随神经网络的复苏机器学习算法在设计时开始放弃可解释性这一要求强调提高算法泛化的性能.神经网络的激活函数的选择不再局限于线性函数而采用非线性的譬如SigmoidtanhSoftmaxRelu等函数一方面其表示能力大幅度提高另一方面随着其模型复杂度的增加算法的可解释性就更差. 然而机器学习解释技术具有巨大的潜在应用空间.譬如科学家在知识发现的过程中可解释的机器学习系统可以帮助他们更好地理解输出的知识并寻找各种因素之间的相关性对于一些复杂任务的端到端系统几乎无法完全测试也无法创建系统可能失败的完整场景列表人类无法枚举出所有可能出现的计算上或者逻辑上的不可行输出系统的可解释性对于系统的理解则至关重要需要防范可能产生某些歧视的场景即使我们有意识将某些特定的受保护类编码到系统中也仍然存在考虑欠缺的先验偏见譬如种族歧视[1-3]、性别歧视等. 对机器学习的可解释性需求不仅仅来源于上述的需求同时还来源于法律法规.欧盟于2018年5月生效的GDPR(General Data Protection Regulation)中有条例明确规定当机器针对某个个体作出决定时该决定必须符合一定要求的可解释性. NIPS2017的工作组曾针对“可解释性在机器学习中是否必要”这一问题展开激烈的讨论[4].并非所有的机器学习系统都需要可解释性譬如邮政编码分类、航空器防撞系统等都是在没有人类干预的情况下运行不需要解释.但是在医疗保健、金融等行业而言模型的可解释性不仅重要而且非常必要.譬如在医疗保健方面护理人员、医生和临床专家都依赖于新的医疗技术来帮助他们监控和决策患者护理一个良好的可解释性模型被证明可以提高临床工作人员的解决问题的能力从而提高患者护理质量[5-7].通常对于系统出现不可接受的结果且无法造成重大后果的情况下或者在实际应用中人们已经充分地研究和验证出现的问题即使系统表现不太完美人们也愿意相信系统的决定.在类似的场景下对可解释性是没有需求的. 近几年来针对机器学习的可解释性综述性的工作陆续出现每个学者从不同的研究角度和侧重点进行概述说明. Miller[8]从哲学、心理学和认知科学的角度对解释的定义、生成、选择、评估和呈现给予说明展现人们在研究机器学习可解释过程中的某种认知偏见和社会期望.Zhou等人[9]认为机器学习缺乏解释既是实际问题也是道德问题根据解释的概念和黑盒子系统的类型不同对目前的解释技术进行了分类总结. Gilpin等人[10]重点描述了可解释技术在人机交互领域(human computer interaction, HCI)、黑盒模型和其他领域的应用说明.Carvalho等人[11]阐述可解释性问题的重要性并粗粒度地给出3种体系的分类归纳Pre-Model VS In-Model VS Post-Model、内在(intrinsic)VS Hoc以及特异性模型(model-specific)VS不可知模型(model-agnostic).Brian等人[12]提出可解释地预测与可解释模型之间的区别前者侧重于解释模型预测的结果通常以个体特征的贡献角度来诠释而后者从模型本身出发进行解释.还有部分的研究者关注特定研究领域的可解释性.譬如Zhang等人[13]聚焦卷积神经网络(convolutional neural networks CNNs)的可解释研究工作.Tjoa等人[14]则关注医疗领域的可解释性工作.纪守领等人[15]侧重可解释技术的应用和安全领域的研究工作. 本文立足于机器学习的可解释技术借鉴和扩展Brian[12]提出的分类框架对可解释技术的最新研究进展进行综述.一方面对可解释性的定义、度量进行阐述另一方面针对可解释对象的不同从模型的解释、预测结果的解释和模仿者模型3个方面总结和分析各种机器学习可解释技术. 1 基础知识 1.1 可解释定义 目前关于机器学习的可解释性没有明确的定义Liu等人[16]给出定义为“解释是指解释给人听的过程”.Doshi-Velez等人[17]也提出类似的定义.解释意味着提供可理解的术语来说明一些概念.这些定义隐含地假设解释是由一些可理解的术语表达概念来构成这些概念是自包含的不需要进一步解释. 目前文献中用于描述可解释性的英文单词有解释(interpretation)、解释(explanation)和理解(under-standing).Montavon等人[18]给出了区别定义Interpretation表示将抽象概念(例如预测类)映射到人类可以理解的领域中Explanation是一个可解释域的特征集合用于解释给定实例的决策(譬如分类、回归等)处理过程Understanding指对模型的功能性解释. 1.2 形式化描述 令D{x1,x2,…,xm}表示包含m个示例的数据集(xi,yi)表示第i个样例yi∈y是示例xi的标记y表示输出空间.给定一个数据集D{(x1,y1),(x2,y2),…,(xm,ym)}和一个预测器p. 1) 模型解释 模型解释的任务是从数据集D和预测器p中建立映射f:(xm→y)×(xn×m×yn)→(xm→y)解释函数fE:(xm→y)→εε表示人类能理解的逻辑值. 2) 预测结果解释 预测结果解释的任务是从数据集D和预测器 p中建立映射f:(xm→y)×(xn×m×yn)→(xm→y)解释函数fE:(xm→y)×xm→ε解释过程中使用数据记录xm的特征值. 3) 模仿者模型解释 模仿者模型解释的任务是从数据集D和预测器p中建立映射f:xm→y解释模型函数fE:(xm→y)→ε且ε≈y. 2 主要研究方向和可解释研究框架 2.1 主要研究方向 解释技术最早出现在基于上下文规则的专家系统中早在20世纪70年代Shortliffe等人[19]就讨论了解释专家系统决策过程的必要性. 目前可解释技术的研究方向主要由表1所示包括解释理论和机器学习的可解释.解释理论的研究最早可以追溯到20世纪90年代Chajewska等人[20]在通用的概率系统中提出解释的正式定义.最近则是2017年Doshi-Velez等人[21]提出的分别以应用为基础、以人类为基础、以功能为基础的3种方法的分类从而评估机器学习的人类可解释性.其理论的发展伴随应用场景的变化而发生改变. Table 1 The Main Research Directions of Interpretation and Understanding Technology 表1 解释技术的主要研究方向 Fig. 1 The framework of interpretation and understanding in machine leaning 图1 机器学习的可解释研究框架 对于机器学习的可解释技术发展而言早期主要关注传统统计机器学习的方法譬如基于规则的浅层模型的解释、决策树等.现阶段大部分的研究聚焦于深度学习的可解释性无论是学界还是业界越来越多的学者注意到深度模型可解释的重要性和急迫性未来在此方向将出现更多的研究思路和解决方案. 2.2 机器学习的可解释研究框架 人类认知科学中人类会根据详细的逻辑推理来做决定于是可以通过一步一步地展示推理过程来清楚地解释决策是如何做出.在这种情况下决策模型是透明的.另外人类也会先做出直觉决策然后寻求对决策的解释这属于事后解释法.依据这2种建模哲学构建机器学习的可解释技术研究框架如图1所示机器学习处理流程通常将数据集划分为训练集和测试集训练数据集经过训练模型得到预测模型测试数据流入到预测模型最终给出预测结果.围绕机器学习的处理流程可解释工作主要围绕在模型和结果解释(result interpretation)两个环节上对于模型的解释又分为模型解释(model understanding)和模仿者模型解释(mimic model understanding)两种方式因此本文将现存在的可解释技术按照上述的框架进行研究和总结分析. 3 机器学习模型的解释技术 3.1 基于规则的解释 基于规则的解释通常使用容易被人类理解的规则模型譬如决策树和决策列表.Bastani等人[26]提出一种学习决策树的模型提取算法该算法对新输入的数据主动采样并利用复杂模型对其进行标记生成新的训练数据集最后使用决策树作为全局解释.该学习决策树是非参数的又高度的结构化因此是可解释的.Andrews等人[27]概括总结各种基于解释规则的方式提供对复杂模型的理解. 除了树模型的规则解释之外还有针对神经网络的规则提取.Bondarenko等人[28]总结基于神经网络规则提取的分解法(decompositional rule extraction method)为网络中每一个隐藏单元都映射一条规则最终形成复合规则库并用于整个复杂网络的解释. 3.2 激活值最大化 激活值最大化思想主要是寻找能使一个给定的隐层单元的激活函数值最大的输入模式即理解哪些输入会产生最大的模型响应. Dumitru等人[29]将激活值最大化技术应用于受限玻尔兹曼机(restricted Boltzmann machinesRBMs)进行叠加和自编码器去噪后所得到的网络中通过研究网络中单个单元的响应更好地深入理解该网络的体系结构和表示. 激活值最大化可看作一个优化问题假设θ表示神经网络的参数(权重或者偏置)hij(θ,x)是给定层j对给定单元i的激活函数x表示输入样本ε是用于解释的输入特征值激活最大化的目标变为 εarg max hij(θ,x). (1) 式(1)问题通常是非凸优化问题也就是该问题存在诸多个局部最大值.目前最简单易行的方法是通过梯度下降法(gradient descent)来寻找一个局部最大值.最终模型解释借助于一个或者多个最大值进行描述解释. 将上述的激活值最大化应用到深度置信网络(deep belief network, DBN)中可转化为寻找 P(hij1|x)的问题.进而推广到深度神经网络(deep neural network, DNN)框架下假定DNN分类器映射一系列数据x到一组类ωc中则转化为求解maxx该问题在优化的过程中有诸多的优化策略可以采取类似于L2范数正则化或者Gaussian RBM的专家策略或者进行特定抽样然后在decoding函数下映射到原始输入域.Simonyan等人[30]将该方法推广到卷积神经网络上构造了一个深度卷积网络ConvNets采取L2正则化进行优化. 激活值最大化方法相比于基于规则的解释其解释结果更准确.但是该方法只适用于连续型数据无法适用于自然语言处理模型. 3.3 隐层神经元分析 隐层神经元分析方法的主要思想是借助分析与可视化神经网络模型中隐层神经元的局部特征从而解释深度神经网络的预测行为.该方法常见于图像处理领域. 对于隐层神经元的分析工作最初见于AlexNetKrizhevsky直接可视化了神经网络的第1个卷积层的卷积核其重构出的图像基本是关于边缘、条纹及颜色的信息因此该方法局限于可视卷积核的1层卷积层[43]. Zeiler等人[31]利用反卷积的方法对隐藏层的特征进行可视化反卷积操作可看作卷积网络的逆操作.该方法以各隐藏层得到的特征图为输入进行反卷积操作最终得到的结果再去验证各个隐藏层提取到的特征图.实验结果表明经过CNN网络的学习各个卷积层学习到的特征是有辨别性的.对于图像领域而言隐藏层的最初几层主要学习到背景信息而随着层数的提高其学到的特征更加抽象.Zeiler的工作真正可以可视化多层卷积层. 上述2种方法都属于无参数化的可视技术.提出的方法旨在可视化和理解具有最大池化和校正线性单元的卷积神经网络的特征从而形成一个可视化的解释模式. Yosinski等人[32]在之前的可视化技术基础之上提出2种解释工具第1种可视化实时卷积激活可看出用户输入后如何实时地影响卷积层的工作第2种利用图像空间中正则化优化技术从而展示DNN每层的特征.Yosinski在数据集ImageNet上进行训练首先对所有的输入训练样本减去ImageNet中每个像素的均值得到网络的输入数据x看作以0为中心的输入.然后构建一个目标函数 (2) 其中,ε是可视化的结果ai(x)是激活函数而Rθ(x)是正则项.为了便于求解出结果借助于公式 (3) 进行更新.经过正则项来更新xYosinski等人[32]给出4种正则化方法L2衰变、高斯模糊、小范式裁剪像素(clipping pixels with small norm)和小贡献裁剪像素(clipping pixels with small contribution). Yosinski等人[32]提出的第2种工具属于参数化的可视工具需要简单的配置安装即可对CNN模型的隐层神经元进行可视化. 除此之外隐层神经元分析解释的方法还可以借助重构图像的方法来实现并取得较好的效果. Dosovitskiy等人[44]针对传统的计算机视觉图像特征HOG(histograms of oriented gradient)[45],SIFT(scale invariant feature transform)[46],LBP(local binary patterns)[47]和AlexNet网络的每层特征2种类型进行图像重建. 类似的工作还有Mahendran等人[48]给定一个输入图片x∈RC×H×W,其中C表示颜色通道H表示图片高度W表示图片的宽度表征函数Φ:RC×H×W→Rd,特征值Φ0Φ(x0),则重构图像ε即可表示为如下的目标函数 (4) 其中,正则项优化主要采用α范式和总变差(total variation TV)该方法主要优化了特征向量间的误差并且需要借助人工设置的先验知识比较而言Dosovitskiy等人 [44]的工作更多地考虑图像重建误差再者是根据隐型的方式学习了图像中的先验知识. 区别于前面几种图像领域的隐层神经元分析方法侯博建和周志华[33]对递归神经网络(recursive neural network RNN)进行解释其基于如下的观察如果RNN的每个隐藏层表示为一个向量或者一个点向RNN中输入多个序列后将出现积累大量的隐藏状态点并且还倾向于构成集群的现象.这个观察假设在最小门控单元(minimal gated unitMGU)、简版RNN(simple RNN SRN)、门控循环单元(gated recurrent unit GRU)和长短期记忆网络(long short-term memory LSTM)上通过实验都得以验证.于是他们提出在训练数据集上训练RNN然后将验证数据集中所有隐藏层标注为一个点并执行聚类最终学习到一个验证数据集上的有限状态机(finite state automaton FSA)并用FSA对RNN做出解释阐述RNN的性能如何受到门控数量的影响以及数值隐藏状态转换背后的语义含义.该方法借用FSA对RNN内部机制进行透视. 虽然隐层神经元分析的方法提供了每个隐藏神经元的定性分析然而该做法并不能对每个神经网络的整体机制提供太多可操作和定量的分析. 3.4 分离式表征 Zhou等人[34-35]认为对于大型的深度神经网络而言人类可理解的概念常常成为这些深度网络中的个体潜在变量而这些网络可以自发学习分离式表征(disentangled representation)因而提出一种网路分割(network dissection)的方法来评估隐藏层和一系列语义概念之间的契合度从而对深度网络做出解释.该方法处理如图2所示 Fig. 2 The processing of disentangled representation 图2 分离式表征处理流程 分离式表征解释方法大致可以分成3步 Step1. 人工创建一个视觉语义概念数据集Broden其中包含的每张图片都富含像素(pixel-wise)标签(颜色、纹理、场景、物体等)即对于每种语义概念都有一张标记映射(label map)图2中Broden数据集中每张图片标记成猫、自行车和塔等 Step2. 对于一个训练好的模型S输入Broden所有的图片收集神经网络中某个隐藏单元在Broden所有图片上的响应图这些响应较大的区域即是该隐藏层的语义表征将得到一个二值的mask值 Step3. 利用IoU量化隐层的语义表征mask和概念对标记映射之间的匹配程度从而利用标记映射(label map)解释神经网络的某隐藏层所表示的含义. 分离式表征的方法和3.3节中介绍的隐层神经元分析是一个相反的过程前者是利用给隐藏单元计算匹配度并打标签的方式来正向解释隐藏层学习的特征而后者是通过反向机制重构各隐藏层的提取特征.分离式表征的解释方法效率较高但是其准确度受限于语义概念数据集的大小以及其描述能力. 3.5 注意力机制 注意力机制(attention mechanism)[49]主要是在Encoder Decoder模型框架下提出的解决了该框架下输入数据中的各个部分具有相同权重的问题为模型赋于区分辨别关键重要信息的能力. 目前广泛应用于图像处理[50-53]、自然语言处理[54]、语音识别[55]等领域并取得较好的结果.在这些应用中依据对齐算法为每个部分赋予不同的权重注意力机制可以很好地解释输入与输出之间的对齐关系解释说明模型学到的内容可以为我们打开机器学习模型的黑箱提供了一种可视方法. Xu等人[53]提出确定性软注意力(deterministic “soft” attention)和随机硬注意力(stochastic “hard” attention)两种机制.确定性软注意力是参数化的可被嵌入到模型中直接训练.而随机硬注意力不会选择整个Encoder的输出为其输入以概率采样的形式选择Encoder端输出的部分数据来进行计算为了实现梯度的反向传播通常需要采用蒙特卡洛采样的方法来估计模块的梯度.2种注意力机制各有利弊因为前者可直接求导进行梯度反向传播因此目前更多的研究和应用倾向于使用确定性软注意力. 注意力模型中采用多种对齐函数[56] (5) 其中 (6) 其中f(mt,ms)表示源端到目标端的对齐程度常见有点乘(dot)、权值网络映射(general)和concat映射3种方式. 目前注意力机制被用于解释各类任务的预测.Xu等人[53]对于给定输入数据为图像而输出数据为该图像的英文描述的任务使用注意力机制来解释输出的英文描述中某个词语与图片中某个区域的高度依赖关系. Chorowski等人[55]采用基于混合注意力机制的新型端到端可训练语音识别方法应用于基于注意力的递归序列生成器(attention-based recurrent sequence generator ARSG)之上借助内容和位置信息选择输入系列中下一个位置用于解码并很好地解释输入端的声音片段和输出序列的音素之间的对应关系.Bahdanau等人[57]利用注意力机制表示输出序列中每个单词与输入序列中的某个特定单词的关联程度从而解释法语到英语单词之间的对应关系. Rocktäschel等人[58]应用长短期记忆网络LSTM的神经模型可1次读取2个句子来确定它们之间的蕴含关系而非传统地将每个句子独立映射到一个语义空间方式.该模型利用逐词(word-by-word)的注意力机制解释了前提和假设中词和词之间的对应关系. Rush等人[59]设计了基于注意力机制的神经网络用于摘要抽取工作注意力机制解释了输入句子和输出摘要之间的单词对应关系. 根据注意力的2种机制和对齐函数的分类标准将各种神经网络的注意力机制整理成表2所示 Table 2 The Summary of Attention Mechanism Explanation Methods 表2 注意力机制解释方法总结 注意力机制能否用于模型解释目前仍存在一些争议.Jain等人[61]认为基于梯度的机制下注意力机制学习到的注意力权重值不总能够正确地解释特征的重要性同时不同的注意力分布可能也会得到相同的预测结果因此认为注意力机制不能作为模型解释的一种手段.部分学者认为其实验设计有诸多不妥例如基准的注意力权重值是随意设置的本应该由模型的其他图层参数共同决定模型预测结果的变化和注意力得分变化之间缺乏可比性等.本文认为注意力机制是可以被用来解释模型决策但是该方法缺乏解释的一致性相似的2个数据点其解释的注意力分布和注意力权重值可能会有变化. 4 预测结果和解释技术 4.1 敏感度分析 敏感度分析[62]是研究如何将模型输出不确定地分配给不同的模型输入.该方法应用在预测结果的解释上多数是建立在模型的局部梯度估计或者其他的一些局部变量测量的基础之上[63-65].该方法的理论基础来源于Sundararajan等人[66]认为深度学习模型具有2个基本公理敏感性和实现不变性. 敏感度分析常使用如下的公式来定义相关性分数 (7) 其梯度的值在数据点x处估计最终输出那些最相关的输入特征也即是最敏感的特征.该方法并不能解释函数f(x)本身仅能解释函数f(x)的变化. Cortez等人[63-65]使用梯度和变量等因素来衡量敏感度的程度.另外Baehrens等人[67]引入解释向量来解释分类器分类的行为其定义贝叶斯分类器为 (8) 而解释向量定义为 fE(x0) (9) 其中fE(x0)和x0维度相同都是d分类器g*(x)将数据空间Rd至多划分成C份g*是常量.解 释向量fE(x0)在每个部分上都定义了1个向量场该向量场表征是远离相应类的流向从而具有最大值的fE(x0)中的实体突出显示了影响x0的类标签决策特征然后使用高亮技术可视化高度影响决策结果的那些特征从而很好地解释决策结果. 为了更好地量化类似梯度、变量等因素的影响Datta等人[68]设计一套定量输入影响(quantitative input influence QII)用于衡量模型的输入因素对预测输出结果的影响. 4.2 泰勒分解 采用泰勒分解的方法来解释预测结果主要依靠分解函数值f(x)为相关分数之和[69].简单的泰勒分解通过识别函数在某个根点 处的一阶泰勒展开式的项得到相关度的得分该根点是满足的点则一阶泰勒展开式为 (10) 其中Ri(x)为相关度分数d是输入数据的尺寸大小b表示二阶或者更高阶的多项式.对于多数的线性模型譬如ReLU函数其二阶或者更高阶的多项式趋向为0因此可以将式(10)简化为 Li等人[70]在泰勒展开式基础上还利用表示绘图方法对自然语言处理(natural language processNLP)领域中的文本进行解释.Montavon等人[71]将其扩展为深度泰勒展开式重新分配当前层和其下一层之间的相关度值.深度泰勒展开式为 (11) 其中 表示当前层的所有神经元表示更低一层的神经元.通过将解释从输出层反向传播到输入层有效地利用了网络结构.该方法借助空间响应图[72]来观察神经网络输出同时在像素空间中滑动神经网络来构建热图.根据泰勒展开式的拟合特性深度泰勒分解[71]准确度明显高于简单的泰勒分解[69]但前者比后者的计算量和复杂度更高.泰勒分解的方法适合神经网络下的各种简单或者复杂网络. 4.3 相关度传播 Bach等人[36]提出的分层优化的相关度传播(layer-wise relevance propagation LRP)从模型的输出开始反向移动直到到达模型输入为止重新分配预测的分数或者相关度值该方法常用于神经网络的预测结果解释. 1) 传播定义 假设1个DNN网络中具有2个神经元j和kj和k所在的隐藏层是连续的Rk表示较高层的神经元k的相关度得分Rj←k表示神经元k到神经元j分享的相关度得分则相关度的分配满足 (12) Fig. 3 The sample diagram of LRP propagation mechanism 图3 LRP传播机制示例图 具体传递流程如图3所示.w13表示正向传播神经元节点1到神经元节点3的权重 表示神经元节点3到神经元节点1在1,2层之间传播的相关得分.神经元之间的传递只能是连续层不可跨层传递即不可能出现类似的情况.从传递机制可以看出 (13) (14) (15) (16) 2) 传播规则 针对DNN网络使用α β原则实现相邻层之间的相关度传递. 假设DNN网络的神经元激活函数为 (17) 其中ak表示神经元k的激活值j表示神经元k所在隐藏层的前一层的所有神经元之一wjk表示权重bk为偏置项. 则α β原则定义为 (18) 其中表示正例-表示负例α和β满足α-β1β≥0 约束.从而不同的α β组合解释预测结果的不同行为. 不同的任务、不同的网络以及不同的数据上各种α β原则组合表现出不同的效果.Montavon等人[73]给出多种α β组合譬如α2β1,α1β0等以及α β组合选取的原则并且在实验中将敏感度分析、简单泰勒分解以及相关度传播的方法进行比较明显看出其预测结果解释的准确度由大到小的排序为相关度传播的方法、简单泰勒展开式、敏感度分析. 5 模仿者模型解释技术 模仿者模型解释方法的基本思想是通过训练一个可解释的模仿者模型M来解释复杂的原模型S.相同的输入x1,x2,…,xN模仿者模型M和复杂的原模型S具有相似的输出即 5.1 线性分类器拟合 局部解释法的主要思想是在一系列输入实例中采样获得一组近邻实例然后训练出一个线性模型来拟合神经网络模型在该近邻实例上的决策输出最后使用训练好的线性模型来解释复杂的神经网络模型.该方法典型的代表是LIME[37]训练出的模型可用于本地局部解释预测结果该方法适用于任何分类器的预测解释作者还通过文本处理的随机森林模型和图像分类应用的神经网络数据集为例证明其方法的灵活性. 此类方法其优点在于模型设计训练过程简单但由于近邻实例的抽样极具随机性训练出的线性解释模型是不稳定的极易造成对于相似的输入实例解释不一致的问题以及对同一输入实例的多次解释不一致的问题同时近邻实例的选择也极大地影响解释结果的准确度. Chu等人[38]研究了激活函数为分段线性函数的分段线性神经网络(piecewise linear neural network PLNN)的解释问题提出OpenBox的解释模型. 以激活函数为PReLU的深度神经网络为例其激活单元可分为0和1 这2种情况因为PReLU激活函数的线性性质则可推导出无论神经元处于何种激活状态其输入和输出始终保持线性关系. 解释模型OpenBox的处理流程如下所示 给定一个输入实例x将隐藏层中所有神经元的激活状态按逐层顺序排列成一个向量conf(x)该向量的每一个元素为0或1,也称为PLNN网中输入实例x的配置. 那么对于单个输入实例的解释使用PLNN网络中输入实例x的配置conf(x).当conf(x)的元素排列值不变时PLNN中所有隐藏层的计算等价于一个简单的线性运算Wxb即可构造F(x)Softmax(Wxb)的线性分类器. 为了解决解释一致性的问题为PLNN的每个隐层神经元的输入z加上一组线性不等式约束r因为输入x和每个隐层神经元输入z是线性关系则等价于对每个输入实例x加上一组线性不等式约束.因而所有满足r中线性不等式约束的实例x都具有相同的conf(x)这些实例共享着相同的线性分类器. 对于总体的决策行为解释依靠一个线性分类器组来解释不同的隐层神经元激活状态对应不同的conf(x)因此具有多个不同的线性分类器这个分类器组可作为PLNN的解释模型. 该方法时间复杂度为线性的具有较好的解释性能但是局限性太强仅能解释PLNN类的网络结构对于其他复杂的网络显得无能为力. 5.2 模型压缩 采取模型压缩的方式模拟深度网络训练出一个层数较少的浅层网络这个新的浅层网络可以达到深度模型一样的效果实验表明浅层神经网络能够学习与深度神经网络相同的功能[74-75].基于上述思想研究出一系列的模仿者模型用于解释复杂的模型. 从原复杂的深度模型S到模仿者模型M多数是通过模型压缩途径获取.模型压缩技术的研究动机主要是为了引入机器学习到移动终端但是设备处理能力有限因而设计各种算法减少隐藏层的节点数量和模型层数.Lei等人[76]通过减少隐藏层中节点的数量和输出层中多元音素(senone)方式压缩模型最终在移动设备上安装 CD-DNN-HMM(context-dependent deep neural network hidden Markov model).Li等人[77]利用最小化模型S和模型M输出分布之间的KL(Kullback-Leibler)偏差进行层次压缩使用对数模型和高斯模型之间的等价关系对多元音素进行压缩.多数学者利用压缩模型简单易解释特性用于复杂模型的可解释性工作. 5.3 知识蒸馏 知识蒸馏也称为模型蒸馏或模型模拟学习方法属于模型压缩方法的一种.其基本思想是从预先训练好的大模型蒸馏学习出性能较好的小模型.该方法有效地减小模型大小和计算资源. Hinton等人[39]提供一种高效的知识蒸馏的方法蒸馏主要通过软性的Softmax概率来实现.对于Softmax的输入z而言其对于每个子类的输出概率为 (19) 其中当T1时即为普通的Softmax变换当T≻1时即得到软化的Softmax的概率分布.通过式(19)生成软标签然后结合硬标签同时用于新网络的学习. 最后用KL散度来约束模仿者模型M和原模型S的概率分布较为相似即 (20) 其中,pMpS分别表示模仿者模型M和原模型S的概率分布Ak表示一组模仿者模型q表示原模型S和模仿者模型M所包含所有类别的最小子集的概率分布. Frosst等人[40]在Hinton提出的知识蒸馏方法的基础之上提出利用软决策树来模拟和解释复杂的原深度神经网络. Balan等人[41]利用蒙特卡洛算法实现从教师模型S中蒸馏出学生模型M并使M近似S的贝叶斯预测分布.该方法可简化问题的复杂性但是大量的抽样将导致计算量较大. Xu等人[78]设计了DarkSight解释方法利用蒸馏知识压缩黑盒分类器成简单可解释的低维分类器并借助可视化技术对提取的暗知识进行呈现. 5.4 其他方法 Che等人[42]利用梯度提升树(gradient boosting trees)来学习深度模型中的可解释特征并构造出GBTmimic model 对模型进行解释.其基本处理流程如图4所示 Fig. 4 The processing of GBTmimic model 图4 GBTmimic模型处理流程 给定输入特征x和目标y输入特征x进入原模型S后输出xnn和ynn.原模型S可能是多层降噪自动编码机(stacked denoising autoencoder SDAE)或者LSTM都具有几个隐藏层和一个预测层xnn是选择从最高隐藏层的激活函数中提出的特征ynn是从预测层获得软预测分数.接下来目标y和xnn同时进入ClassifierClassifier选择Logistics回归在相同的分类任务上xnn进入分类器获得软预测分值yc.最后选择yc或ynn以及特征x作为模仿者模型M的输入通过最小均方差得到最终输出 模仿者模型即梯度提升回归树(gradient boosting regression trees). Wu等人[79]提出树规则化的方法使用二分类决策树模拟深度时间序列模型的预测该模型比深度神经网络更容易解释但是构造二分类决策树开销较大. 然而由于模拟模型的模型复杂度降低将无法保证具有超大维度的深神经网络可以被更简单的浅模型成功模拟因此模仿者模型不适合超深层的神经网路.同时由于学习到一个更加简单的神经网络模型解释模型的复杂度则达到某种程度的降低而效果是以牺牲部分模型的准确度为代价而取得. 6 性能评估 对于可解释的评估因为任务的不同、解释模型的不同等诸多因素造成目前无法使用普适的方法.多数的方法都采用热力图[2931-32]、错误率、准确率或者AUC[42]等方法进行评估.为了考虑到可用性Zhou等人[934]引入人类评估作为基线.本文试图从可解释研究框架的角度给出如下的评估标准 给定数据集D{X,Y}对于任意的x∈X得到原预测模型S的值 其解释模型M的预测值是 6.1 解释的一致性 一致性是指对于2个相似的数据点x和x′其预测解释M(x)和M(x′)也应该是接近相等的.解释的一致性可表示为 (21) 6.2 解释的选择性 Bach等人 [36]和Samek等人[80]提出解释的选择性可由相关度最高的特征移除时激活函数f(x)降低的速度来评价.该方法也称为像素翻转(pixel-flipping)不仅适合图像同样适用于文本数据. 其执行过程循环的执行步骤为 Step1. 计算f(x)当前的值 Step2. 找到最高相关度特征Ri(x) Step3. 从特征集合中移除该特征x←x-{xi}. 6.3 解释的准确性 准确性是指预测模型的准确度可使用准确度值、F1指数等来衡量构造一个可解释性模型该模型自身的准确度依旧需要保持高精度可解释模型的准确度为 6.4 解释的保真度 解释的保真度主要描述解释模型在何种程度上准确模仿原模型.针对黑盒子结果而言利用其准确度、F1指数进行评价.保真度即是评估 此外除上述几个与可解释性严格相关的指标外机器学习的模型具有其他的重要因素例如可靠性、鲁棒性、因果关系、可扩展性和通用性等从而意味着模型能够独立于参数或者输入数据保持一定的性能(可靠性与鲁棒性)输入的变化影响模型行为的变化(因果关系)此外要求能够将模型扩展到更大的输入空间(可扩展性).最后在不同的应用场景中人们会使用相同的模型和不同的数据因此需要能够通用的解释模型而非定制的受限的这也将为性能评估方法提出巨大的挑战. 7 总结与展望 本文从机器学习模型的解释技术、预测结果的解释技术和模仿者模型技术3个方法总结了现有的关于机器学习的可解释技术并总结其相关信息如表3所示. 7.1 可解释技术的内部问题 纵观当前机器学习的可解释技术仍然面临着3个方面的挑战. 1) 准确性和解释性的均衡.伴随着模型的愈加复杂提高最后预测的准确性然后要求其预测的可解释性必将意味着模型的复杂度受到一定程度的制约预测模型需要牺牲部分准确度来满足可解释性预测精度的损失是一个令人担忧的问题因此这一工作领域的中心重点是在保持可解释性的同时将精度损失最小化. 2) 解释一致性问题.输入一系列数据经过预测模型其解释机制给出一个解释.当下次再次输入相同或者类似的数据解释机制是否能给出相同或者一致的解释是至关重要的否则很难取得用户的信任并将其真正地应用于实际项目中. 3) 评估问题.如何评估机器学习的解释质量的评价标准对于持续提升系统至关重要因为只有这样才能更明确地有针对性地设计技术方案进行改进.机器学习的评估指标除了第6节中提到的之外还有待于深入研究. Doshi-Velez等人[17]提出如何考虑评估机器学习模型的人类可解释性方法.他们提出3种类型的方法以应用为基础以帮助人类完成实际任务的程度来判断解释效果以人类为基础以人类偏好或根据解释对模型进行推理的能力来判断解释以功能为基础以无人类输入的情况下来判断代理模型的解释效果.对于这3种方法皆假设结果数据的矩阵因子法有利于识别出解释性的常见潜在因素. Mohseni等人[81]尝试将机器学习的可解释任务根据目标用户分为数据新手(data novices)、数据专家、机器学习专家3类在每个类别下分别给出用户心智模型、用户-机器任务性能、用户解释的满意度、用户信任和信赖度和计算性能4个维度的评估.Mohseni认为机器学习的可解释性评估需要跨学科学者的共同努力并充分考虑到人力和计算等要素. 7.2 安全和隐私性的问题 对模型研究得越透彻意味着更大的风险便于攻击者的攻击.无论是从数据上还是从模型上模型的可解释性和安全存在某种程度的相冲突.譬如模型训练阶段的数据投毒攻击[82]可造成模型的预测和解释失败推理阶段根据解释技术中的激活值最大化和隐层神经元分析的方法攻击者可以依据模型的解释机制而发起模型完整性攻击的模型推测攻击(model inversion attack)[83-85]和模型窃取攻击(model extraction attack)[86]. Table 3 The Summary of Interpretation and Understanding Methods 表3 可解释技术方法汇总表 目前越来越多的人开始关注深度学习的隐私保护问题该问题的目标是保护训练数据集和训练参数.主流的做法是Shokri等人[87]提出的分布式训练方法将噪声注入到参数的梯度中进行训练以保护神经网络中的隐私.在该方法中注入噪声的大小和隐私预算与共享参数的数量都将成比例地累积.因此它可能消耗不必要的大部分隐私预算多方之间的训练时期的参数数量和共享参数的数量通常很大可用性较差. 机器学习的可解释方法是否可以提高深度学习的差分隐私的可用性Phan等人[88]设计自适应拉普拉斯扰动机制尝试将“更多噪声”注入到模型输出“不太相关”的特征中.预测结果的解释技术中的分层优化的相关度传播LRP算法是不错的解决方案实验表明在MNIST和CIFAR-10数据集上都取得不错的效果.Papernot等人[89]提出的PATE(private aggregation of teacher ensembles)模型借鉴了模仿者模型解释技术中的蒸馏知识技术包含敏感信息的教师模型不能直接被访问蒸馏出的学生模型可以被查询访问从而有效地保护模型和数据的隐私.综上所述将机器学习的可解释技术和深度学习的隐私保护技术相结合同时有效地解决机器学习的隐私和可解释性2个问题成为一种可能. 7.3 研究视角的拓展 当前机器学习的可解释框架主要从模型和结果2个角度进行解释具有一定的局限性.DeepMind 团队的 Rabinowitz 等人[90]试图以心智理论的视角来研究机器学习的可解释性问题,其研究目标是让观察者在有限的数据集的基础之上自动学习如何应对新的智能体建模区别于以往的模仿算法将学习如何像人理解人一样来预测另一个智能体的行为.其团队提出ToMnet模型改变以往尝试设计能表述内在状态的系统的做法利用中转系统、人机接口缩小原系统的行为空间大小从而以人类更好理解的形式转述.同时从训练数据分析的视角来解释机器学习的预测结果也越来越被研究者所关注.譬如Papernot等人[91] 提出的深度k近邻(deep k-nearest neighbors DkNN) 混合分类器将k近邻算法与DNN各层学习数据的表示形式相结合有效地解决数据投毒攻击和模型可解释性2个问题. 目前机器学习技术已渗入到数据库、图像识别、自然语言处理等多个研究领域而机器学习的可解释技术必将影响着这些领域产品由实验室实验阶段走向工业实际应用的进程. 在数据库领域将机器学习融入到数据库管理的索引结构[92]、缓冲区管理[93]和查询优化[94-95]等多个环节中出现一种机器学习化的数据库系统趋势.一方面可提高数据库的处理速度另一方面数据库系统可智能自动调配数据库系统模块.然而机器学习的其可解释性较差的缺点日趋凸显再者机器学习化的数据库中重要的组成模块事务处理要求事务处理过程具有可追溯性和可解释性[96].因此将可解释性引入到机器学习化的数据库中可有效地帮助数据库设计者和使用者更快、更好地设计和使用数据库. 在自然语言理解领域如何更好地利用知识和常识成为一个重要的研究课题.很多情况下只有具备一定常识的情况下才便于对机器做出更深入的解释和理解.在人机交互系统中需要相关领域知识从而能更加准确地完成用户查询理解、对话管理和回复生成等任务受益于类似人机交互系统通常需要相关的领域知识这一特点提高了基于知识和常识的可解释性NLP的可能性. 多数学者将领域知识引入到机器学习中主要出于处理小数据场景或者提高性能的考虑极少考虑到领域知识也可看作解释技术的重要组成部分.Rueden等人[97]首次提出知情机器学习(informed ML)对知识的类型、知识表示、知识转换以及知识与机器学习的方法的融合做出详细的分类说明.譬如知识类型可分为自然科学、处理流程、世界知识和专家直觉.在该框架指导下用户可以逐步选择合适的知识类型、知识表示和融合算法实现对机器学习模型的可解释和预测结果的可解释. 除此之外知识图谱具有海量规模、结构良好、语义丰富等优点使其成为机器学习理解语言的重要背景知识成为可能.肖仰华团队针对词袋[98]、概念[99]、实体集[100]和链接实体[101]做出一系列的解释工作探索性地帮助机器理解和解释概念.然而大规模的常识获取以及将符号化知识植入到数值化表示的神经网路都缺乏有效手段这些问题将得到普遍的关注和研究. 再者不同的应用场景对于机器学习的可解释性的要求不同如果仅是作为技术安全审查而用专业的解释即可;如果当机器解释成为人机交互的一部分时其解释必须通俗易懂.总之机器学习的可解释性解决方案源于实用性的需求. 我们的服务类型 公开课程 人工智能、大数据、嵌入式                     内训课程 普通内训、定制内训                          项目咨询 技术路线设计、算法设计与实现图像处理、自然语言处理、语音识别
http://www.sadfv.cn/news/340870/

相关文章:

  • 怎么建个人网站化妆品网站优势
  • 公司建立网站的作用有一个企业网站的建设流程
  • wordpress海外建站西安网站制作优化
  • 西安网站建设推荐苏州艺术家网站建设
  • 淘宝客论坛响应式php网站下载wordpress用户注册收不到邮件
  • 聊城建设网站西安公司网站开发
  • 桂林企业网站建设产品展示小程序
  • 安徽盛绿建设网站旅游网站营销
  • google play官网谷歌aso优化
  • 做催收的网站建立网站的目标
  • 甘肃省住房和城乡建设厅网站国外网站建设的发展
  • 网业qq福建seo快速排名优化
  • 服务好的网站建设平台云商城是什么
  • 2018年做网站赚钱深圳微信开发
  • 山西制作网站生活中优秀的产品设计
  • 广州网站设计开发公司软文代发代理
  • 企业如何做网站外包多少钱西安博威建设工程有限公司招聘网站
  • 响应式和非响应式网站站长工具在线
  • 网站建设不能在淘宝发布wordpress添加标签后哪里显示
  • 好的建设网站网站建设好评语
  • 网站设计三把火360免费wifi
  • 东莞seo网络营销东莞外贸优化公司
  • 驻马店网站建设维护wordpress 文章列表目录颜色
  • 网站开发公司tahmwlkj网站添加谷歌地图
  • 有哪些做ppt用图片的网站上海大都会app官网下载
  • 岳阳市网站建设网站建设设计价格
  • 服装公司网站背景图自媒体科技资讯wordpress主题
  • 临沂做网站优化淮南网官方网站
  • 网站制度建设情况sns有哪些著名的网站有哪些
  • 做培训的网站个人做网站 用什么语言