一、科学目标基于深度学习的人工智能方法在许多场景取得了重要突破,但仍然存在模型可解释性差、对抗样本鲁棒性差、数据与算力需求大、理论基础薄弱等问题。基于以上问题,本重大研究计划旨在建立规则和学习的有效融合机制,打破现有深度学习“黑箱算法”的现状,建立一套可适用于不同领域、不同场景(语音、图像、视频等)的通用方法体系。二、科学问题通过规则与学习结合的方式,建立高精度、可解释、可通用且不依赖大量标注数据
在这里学习的,在此简要做了些笔记。壹、可解释性概述1. 可解释性是什么人类对模型决策/预测结果的理解程度。 对于深度学习而言,可解释性面临两个问题:①为甚会得到该结果?(过程)②为甚结果应该是这个?(结果) 理想状态:通过溯因推理,计算出输出结果,可是实现较好的模型解释性。 衡量一个解释是否合理,需要考虑【可解释性:通过人类可以理解的方式描述系统的内部结构】和【完整性:通过精确的方式描述系统的各个
1、问题观看了李宏毅老师的机器学习进化课程之可解释的机器学习,课程中对主要是针对黑盒模型进行白盒模型转化的技巧和方法进行了简单介绍,详细细节可以参考《Interpretable Machine Learning》。像一些线性模型、树形模型可解释的ML model,但是,深度学习一直被称为“黑盒子”,是end-to-end模型,即忽略内部计算,只关心输入端和输出端。然后就有不少人想要知道深度学习模
  本篇博客介绍另一种事后可解释性方法:SHAP(SHapley Additive exPlanation)方法。1. Shapley值理论  Shapley值是博弈论中的一个概念,通过衡量联盟中各成员对联盟总目标的贡献程度,从而根据贡献程度来进行联盟成员的利益分配,避免了分配的平均主义。   当Shapley理论用于解释机器学习模型的时候,将输入特征视为参与成员,模型输出的概率分布视为联盟总目标
目录引言Additive Feature Attribution Methods加性特征归因法LIMEDeepLIFTLayer-Wise Relevance PropagationClassic Shapley Value Estimation简单属性唯一地决定了可加性特征属性SHAP valuesShapley值SHAP值其他概念预测值的可视化SHAP特征重要度SHAP摘要图SHAP依赖图
1.SHAP介绍SHAP(SHapley Additive exPlanations),是Python开发的一个“模型解释”包,它可以解释任何机器学习模型的输出。所有的特征都被视为“贡献者”。对于每个预测样本,模型都产生一个预测值,SHAP value就是该样本中每个特征所分配到的数值。SHAP值从预测中把每一个特征的影响分解出来,可应用于如下场景中:模型认为银行不应该给某人放贷,但是法律上需要银
本书向你介绍了如何使 (监督) 机器学习模型可解释。虽然本书中包含⼀些数学公式,但是即
可解释的机器学习(一):可解释性机器学习是基于数据做出和改进预测或行为的一套方法。方法:数据采集-将这新信息输入机器学习算法-将新数据输入模型。黑盒模型是一个不揭示其内部机制的系统。在机器学习中,“黑盒模型”或称“黑匣子”描述了通过查看参数(例如深度神经网络的参数)却无法理解的模型。黑盒的对立面有时被称为白盒,即为可解释模型模型无关的解释方法将机器学习模型是为黑盒。可解释的机器学习是指机器学习系
论文题目:ility《Why Should I
原创 2022-09-16 13:49:39
239阅读
一元回归模型回归分析和相关分析之间的差别相关分析研究的是变量之间的线性相关性,而回归分析要研究的是解释变量和被解释变量之间的平均关系。相关分析中,变量都是随机变量;而回归分析中,解释变量是确定的,被解释变量是随机变量。1.简单的一元线性回归模型其中 代表我们的因变量,表示我们的解释变量,表示随机扰动项其中是我们设定的解释的变量,还有一部分没有解释的信息在随机扰动项当中,但是我们是无法测得的,这也
深度学习模型可解释性初探
原创 2022-09-20 22:10:27
377阅读
本书向你介绍了如何使 (监督) 机器学习模型可解释。虽然本书中包含⼀些数学公式,但是
因果图法的定义因果图法是一种利用图解法分析输入的各种组合情况,从而设计测试用例的方法,它适合于检查程序输入条件的各种组合情况特点:(1)考虑输入条件的相互制约及组合关系(2)考虑输出条件对输入条件的依赖关系因果图的核心因果图法比较适合输入条件比较多的情况,测试所有的输入条件的排列组合。所谓的原因就是输入,所谓的结果就是输出。因果图的“因”—输入条件因果图的“果”—输出结果因果图法要注意考虑:所有输
“计算机视觉研究院”计算机视觉研究院专栏作者:Edison_G在机器学习领域,人们始终对模型可解释性存在担忧。我们有没有办法写出可解释模型,建立起人对于机器的信任?​微信公众号 : 计算机视觉研究院受益于深度学习技术的突破,图像分类、物体检测等传统计算机视觉任务的精度也得到了大幅度的提升。但是由于深度学习模型的复杂性,目前关于深度学习的理论并不完善,这就导致了两大问题:第一,模型的工
转载 2022-10-10 12:51:41
107阅读
在这篇笔记中分享前段时间我对于LIME算法的调研。一、算法简介LIME算法是Marco Tulio Ribeiro2016年发表的论文《“Why Should I Trust You?” Explaining the Predictions of Any Classifier》中介绍的局部可解释模型算法。该算法主要是用在文本类与图像类的模型中。1.算法主要用途在算法建模过程中,我们一般会用测试集的
摘要深度视觉模型在高风险领域有着广泛的应用。因此它们的黑匣子性质目前吸引了研究界的极大兴趣。论文在《可解释的人工智能》中进行了第一次调查,重点是解释深度视觉模型的方法和指标。涵盖了最新技术的里程碑式贡献,论文不仅提供了现有技术的分类组织,还挖掘了一系列评估指标,并将其作为模型解释的不同特性的衡量标准进行整理。在深入讨论当前趋势的同时,论文还讨论了这一研究方向的挑战和未来途径。 总结来说,本文的主
文章目录【用Shapely解释机器学习模型】1. 用Shapely解释线性模型1.1 传统特征系数计算1.2 部分特征依赖图(partial dependence plots)1.3 瀑布图(waterfall plot)2. 用Shapely解释加法回归模型2.1 基础解释图(局部依赖、依赖关系散点图、瀑布图)2.2 蜂群图(beeswarm)3. 用Shapely解释非加法性质的提升树模型3
主流深度学习模型总结   深度学习是解决问题的一系列模型与方法。主流的深度学习模型有CNN、RNN(LSTM)、transformer、VAE、GAN等。但深度学习模型不是深度学习领域中唯一的研究方向,且不一定是最重要的研究方向。除了模型之外,比较重要的还有优化算法、损失函数、采样方法等。CNN 卷积神经网络基本原理卷积层 – 主要作用是保留图片的特征池
‍‍今天要给大家介绍的书是《可解释机器学习:模型、方法与实践》,涵盖了可解释机器学习前沿的研究成果及行业成功应用经
原创 2022-10-12 20:16:32
186阅读
  • 1
  • 2
  • 3
  • 4
  • 5