You are on page 1of 7

解释性案例研究是一种研究方法,旨在通过详细地描述一个特定的现象或事件来解

释其原因和影响。它是一种深入的研究方法,可以帮助我们更好地理解复杂的现实
世界问题。
如果您正在寻找一种有效的方法来解释一个复杂的问题或现象,那么解释性案例研
究是一个不错的选择。它可以帮助您深入了解问题的背景、原因和影响,从而为您提
供更全面的解决方案。
为什么选择HelpWriting.net进行解释性案例研究?
在HelpWriting.net,我们有一支经验丰富的团队,可以为您提供高质量的解释性案例
研究。我们的作家具有丰富的研究经验,可以帮助您深入了解您感兴趣的问题。
我们的作家不仅具有出色的写作技巧,还具备广泛的知识和专业知识。他们可以为
您提供深入的研究和分析,从而为您提供最佳的解决方案。
我们的服务
除了解释性案例研究,我们还提供各种其他类型的研究服务,包括实证研究、文献综
述和调查研究。无论您需要哪种类型的研究,我们都可以为您提供最专业的帮助。
我们的服务不仅仅局限于研究,我们还提供编辑和校对服务,以确保您的研究文档
没有任何语法或拼写错误。我们还提供快速的交付时间,以满足您的紧急需求。
如何开始
想要开始您的解释性案例研究吗?访问HelpWriting.net并填写我们的订单表格。在订单
表格中,您可以提供您的研究需求和截止日期,我们的团队将尽快与您联系。
我们保证为您提供高质量的研究作品,并确保您的隐私和安全。如果您对我们的服
务有任何疑问,请随时与我们的客服团队联系,我们将竭诚为您解决问题。
现在就访问HelpWriting.net,开始您的解释性案例研究之旅吧!
ISBN 10: 7510219221 ISBN 13: 9787510219221 多案例研究的第一步是进行理论构建,理论
框架需要申明在哪些条件下某一特定的现象有可能出现( 逐项复制), 或者在哪些情况
下某一特定现象不可能出现( 差别复制), 每一个案例都是一个完整的案例,如果某一结
论成立,那就要再进行一次复制的过程,对上一个案例进行检验。对于每一个单独的
案例,都要撰写研究报告,研究报告中要解释原理论假设成立与否的理由。所有的案例
合在一起,需要再次撰写多案例分析报告,报告中要阐明复制的逻辑,并解释为什么有
些案例的实证结果与其理论假设相符合,而有些案例的实证结果与其理论假设不
符合。 对于深度学习中RNN网络的可解释化,提出了新的见解,对于深度学习RNN的
学习不可多得的参考文献该书暂缺 系统监测到您的网络环境存在异常风险,为保证
您的正常访问,请输入验证码进行验证。 尽管Miles 认为定性研究不够科学,但其在论文
的结尾指出,这种不足可以通过增加调研的数量来消除。这种通过“量”来减少误差的
统计思维常被运用到案例研究中来,认为案例研究中应当尽可能多地去选取案例,以
提高归纳结论的说服力。需要说明的是,统计思维本身并没有问题,但是其合理与否取
决于应用的范畴。把统计性归纳当做案例研究的归纳方法,是案例研究的致命性
错误。所选案例并不是“样本”, 不能以统计归纳作为基础,案例研究要求的归纳是“分
析性归纳”,“ 案例”与“样本”的根本区别在于,前者强调的是“质”的概念,而后者强调的
是“量”的概念。在分析性归纳中,事先提出的理论被视为“模版”, 实证结果要与这一模版
相对照,由此可见,案例研究要求案例与观点的相关性,对量并无严格要求。当然,案例
越多越好的认识并非完全错误,多案例可以提高研究的外部效度,但前提是要确保案
例为好故事。因此,案例研究中多案例研究与单案例研究是并存的,在不同的条件下,
如理论前提的差异,两种方法都有各自的合理性配准思路可以看下图。和上面叙述得
差不多,创新的部分一是把弱监督给结合了起来,二是融入了微分同胚机制从而自
己设计了一个神经网络,开启了深度学习配准领域又一热点高端研究方向。 上图是
SAE网络,蓝色的部分就是我们想要的特征向量。我们训练该网络希望该网络的输
出ym与网络输入xm 尽量相似。 本文来自于我在Trustworthy ML课上的笔记。内容与slide
中的顺序稍微调整了一下。 其中测试数据 x_{test} ,模型参数 \theta ,训练数据
集 X_{train} 都对这个输出Y有影响。所以我们可以去分别解释这3种因素是如何对Y产
生影响的: 人们喜欢从无数个原因中选择几个重要的来解释,而且因果链往往太
长了,很多人反而听不懂,所以通常会挑重点去解释。 与其他可解释性方法相
比,Google Brain团队进行了多次实验来评估TCAV的效率。在一项最引人注目的测
试中,该团队使用了一个显着图,试图预测标题或图像的相关性,以了解出租车的
概念。显着性图的输出如下所示:生成器输入的是待配准的图像对的patch,输出的是
局部形变场以及扭曲后的图像;判别器判别的就是扭曲后图像与参考图像,我认为关
键就在与参考图像的设计,这里的参考图像设计的是固定图像与浮动图像的加权
求和,训练初期固定图像的权重为0.8,后期为0.9。 舆论监督(Public opinion supervision)
是指社会公众运用新闻媒介对党和政府机关、官员的错误决策、腐败行为、不良之风
以及不当言论的揭露、批评,同时也包括对有碍社会公德的社会行为的揭露、批评。
其监督对象主要是政府和政府的公职人员,是一种自下对上的行为。舆论监督具有权
威性、典型性、紧迫性和重视社会效果的特点,其功能包括监测功能、约束功能、警示
功能和反馈功能。 惯常的做法是通过FCN全卷积网络生成形变场,再通过STN (Spatial
transformer networks)得到扭曲后的图像,目标函数为扭曲后图像与固定图像的灰度相
似性测度和形变场的正则项。 本书从解释性和批判性的角度研究美国批判教育学,
进而建构美国批判教育解释学的理论概念和分析框架。分析了解释、教育解释、教育
模式的转向路由;探索了美国批判教育学的范式转换、典型形态、发展脉络及理论局
限;阐述了美国批判教育解释学的理论基础、针对性、原则及兴趣等问题。 它的网
络分为编码网络和回归网络两部分。编码网络采用了DenseNet的模块来搭建,并采用了
权值共享的方法来获得参考图像与浮动图像匹配的特征,同时减少参数数量。我们可
以看到它的编码网络网络深度还挺深的,有70层(输入图像30*320*320),作者并没有提
到如何选择网络的深度,但我个人认为可能是较浅的网络无法提取出复杂的特征用
于回归。另外,这个回归网络层数也较深,一层一层神经元数量逐步减少,最终回归
出12个参数,而不是从8192个神经元直接回归出12个。 第二章进入案例正文,约占
篇幅的25%.此部分可通过案例背景(包括行业背景、企业背景等)、案例具体情况、存在
问题(需解决的问题)等几个方面分别展开。值得注意的是,其中存在问题(需解决的
问题)这一方面为案例的主体内容,撰写可按照时间顺序进行,即分析案例的过去、
现在与未来,也可按照所要分析问题的构成要素来撰写。一、深度学习的可解释性研
究概述随着深度学习模型在人们日常生活中的许多场景下扮演着越来越重要的
角色,模型的「可解释性」成为了决定用户是否能够「信任」这些模型的关键因素(尤其
是当我们需要机器为... (2)对各种因果变量的关联强度提出理论假设,即提出某种社会
现象的主要原因(或后果)和次要原因(或后果);但是不可否认的是,可解释性始终
是一个非常好的性质,如果我们能兼顾效率、准确度、说人话这三个方面,具备可解
释性模型将在很多应用场景中具有不可替代的优势。 影像医师尤其儿科影像医师缺
口大,个体工作负荷重,从机械、繁重的骨龄影像读片中解放出来的愿望强烈。儿童
医院骨龄检测需求非常巨大,如果仅靠医生,需要1到2小时才能算出一张骨龄片;如
果借助计算机软件进行部分辅助,耗时也需要15分钟到30分钟每张。人工智能技术的
引入,可以用秒级的速度,通过机器完成TW3法中的所有步骤,自动找到X光片中的骨
骺,进行评级,然后代入公式,用数值比出骨龄。 (3)描述性研究中资料的收集主要
采用以封闭式问题为主,以自填、邮寄或结构式访问等方式进行的问卷调查; and
computer-assisted intervention. 基于单调性的方法:在很多机器学习问题中,有一些输入
和输出之间存在正相关/负相关关系,如果在模型训练中我们可以找出这种单调性的
关系就可以让模型具有更高的可解释性。比如医生对患特定疾病的概率的估计主要
由一些跟该疾病相关联的高风险因素决定,找出单调性关系就可以帮助我们识别这
些高风险因素。 不可解释同样也意味着危险,事实上很多领域对深度学习模型应用
的顾虑除了模型本身无法给出足够的信息之外,也有或多或少关于安全性的考虑。
比如,下面一个非常经典的关于对抗样本的例子,对于一个 CNN 模型,在熊猫的图
片中添加了一些噪声之后却以99.3% 的概率被判定为长臂猿。 medical images using
neural networks. arXiv preprint arXiv:1810.02583 目前已有数家企业进军骨龄AI领域并发布
相关产品,但产品高度成熟、真正落地并且能够实现快速迭代的企业较少。骨龄AI的
难点主要集中在骨龄判读标准及训练数据集的选择,以及计算机视觉技术、NLP
技术、深度学习算法等AI技术综合实力。临床医师不仅希望能够借助AI产品实现骨龄
的快速精准判读,同时也希望能够基于骨龄进行生长发育评估,更为精准的反应个体
生长发育水平,辅助疾病诊断,进行疗效评估,为临床提供更加丰富的辅助功能,解
决临床工作中骨龄判读不够精确、耗时较长、生长发育评估报告撰写繁琐等实际问题。
基于单调性的方法:在很多机器学习问题中,有一些输入和输出之间存在正相关/ 负
相关关系,如果在模型训练中我们可以找出这种单调性的关系就可以让模型具有更
高的可解释性。比如医生对患特定疾病的概率的估计主要由一些跟该疾病相关联的
高风险因素决定,找出单调性关系就可以帮助我们识别这些高风险因素。 基于《组织
与管理研究的实证方法》第2版中涉及的大量经验总结,从科学研究的目的和过程
展开,主要分享了管理学的研究方法和管理学研究中的测量统计方法。 调查性报道
(Investigation Report)又称“揭丑”报道,是深度报道的一种,指通过新闻工作者的原创
工作,亲自调查逼近真相,揭示事实的整体状况和背后的新闻,致力于查明并披露与
公众利益密切相关,却由于各种复杂原因而被掩盖的深层事实真相。它起源于20世纪
六七十年代美国的淘粪运动,是西方国家报刊上的一种特殊报道形式,专门用来揭露
社会阴暗面、政府黑幕等等,尼克松政府的《水门事件》与里根政府的《伊朗门事件》都
是调查性报道的作品。调查性报道的暴露属性会使记者在采访和调查过程中处于一
定的压力、制约甚至威胁之下,其写作原则和报道方法要求记者必须不断地质疑与
求证、不能忽视任何线索和细节、具有百折不挠的精神以及高度的警惕和防范意识,
同时不能触犯法律。 XAI总结了一些可解释性的方法。例如比较著名的可视化[2]方
法,这种方法在计算机视觉上使用较多。又例如模仿模型[3],这种方法比较简单,例
如用一些可解释性的模型去模仿深层黑盒模型,从模仿者的结构来来研究可解
释性。有例如特征相关,这些是研究显著性特征的方向,区分特征的重要性来提供可
解释性,但是这种解释一般比较弱。还有很多的方法,我在上一篇文章的神经网络的
可解释性综述 讨论比较多,欢迎大家可以参考我的这篇文章或者其他的资料。 这个
工作很有意思。不仅给出图像heat-map,还生成对应于视觉特征的病理诊断报告。
Intrinsic:ML模型本身就很好解释,不需要另外使用可解释性方法。 目前结直肠AI
产品,主要利用图像识别、深度学习等AI技术,与消化内镜结合,辅助临床医师实时
发现结直肠息肉,并实时鉴别息肉性质,以每秒分析10张图像的速度,为临床医师提
供非腺瘤息肉、腺瘤息肉、腺癌等状态的实时提醒,辅助临床医师更准确、更高效地
诊断结直肠肿瘤。AI应用在前列腺中,可以从影像上全自动分割前列腺,检测病灶
位置,并同时进行感兴趣区域的分析;产品应用则多集中在针对前列腺病理图片的
诊断,大部分产品都可以达到较好的整体诊断准确率。宫颈癌AI产品也主要集中在
病理切片的分析,针对子宫颈抹片的智能分析系统,能对宫颈癌及癌变前进行诊断,
评估和预测恶性程度及疾病的发展趋向。 对于XAI 来说,我们问的问题是:为什么这
个勃猫猫图被分类为“猫”而不是“ 狗”?或者:如果图像被修改了,它仍会被分类为“猫”
吗? 使用 MMD-critic 从 Imagenet 数据集中学到的代表性样本和非代表性样本(以两种
狗为例) 并不是所有的研究项目中都需要专门进行探索性研究,但在研究者初次进
行的研究领域中,一般需要进行专门探索性研究。 上图是SAE网络,蓝色的部分就
是我们想要的特征向量。我们训练该网络希望该网络的输出ym与网络输入xm 尽量
相似。 (1)描述有关群体的特证。例如,给出某些名牌商店的“重型使用者”(经常购物
者)的轮廓。 研究的目的维度分为三类:探索性、描述性、解释性。探索性案例研究目
的在于定义将要研究的问题或假设,或判断预定研究方案的可行性;描述性案例研究
提供了对现象及其情景的完整描述;解释性案例研究提供因果关系的信息,解释事情
是如何发生的。 当系统是个黑盒子,会产生无法预料的输出的时候(比如深度学习系
统),才需要可解释性?当系统产生无法预料的输出也没啥重大损失的时候(比如邮
政编码排序系统);或者即便系统不完美,但问题已经被研究得很透彻、被检验过无
数次以至于我们很相信这个系统的时候(比如飞机的空中防撞系统),不需要可解
释性。 liu xing Shipping: US$ 15.00 案例的层级维度分为两类:整体性( 单层次分析)和嵌入
性(多层次分析)。一个案例研究可能包含一个以上的分析单位,当需要对一个或多个
层级的分析单位进行研究时,就会出现一个研究中同时并存多个分析单位的现象,对
亚单位(次级分析单位)的研究就称为嵌入性案例研究,以揭示案例的整体属性为目的
不进行次级单位分析的案例为整体性案例研究。大部分可解释性算法满足的都是
这个,比如常见的saliency map: 10.Fan, J., Cao, X., Yap, P.-T., and Shen, D. (2018b). Birnet:
Brain image (4)把单一的、孤立的新闻事件与其他事件联系起来,揭示其发展的方向、
趋势、意义; 多案例研究的第一步是进行理论构建,理论框架需要申明在哪些条件下
某一特定的现象有可能出现( 逐项复制),或者在哪些情况下某一特定现象不可能出现(
差别复制),每一个案例都是一个完整的案例,如果某一结论成立,那就要再进行一次复
制的过程,对上一个案例进行检验。对于每一个单独的案例,都要撰写研究报告,研究
报告中要解释原理论假设成立与否的理由。所有的案例合在一起,需要再次撰写多案
例分析报告,报告中要阐明复制的逻辑,并解释为什么有些案例的实证结果与其理论
假设相符合,而有些案例的实证结果与其理论假设不符合。 现在市面上大家看到的绝
大部分 AI 资料都是追求严谨的“理工科天书”,这个世界不缺少严谨真确晦涩难懂的
AI 资料,但是很缺容易理解的内容。解释性研究要在描述性研究的基础上对变量之
间的关系进行分析,以确定它们之间是否存在相关,并进而判断它们之间是否存在
因果关系。总而言之,解释性研究需要比描述性。 上图是二维切片做三维姿态估计
的网络架构。作者尝试了VGG16,ResNet18,DenseNet,发现ResNet18 效果最好。回归部分
分为两个部分,上面的支路回归出三维旋转变换的3个参数,其中pi tanh是用来限制旋
转参数范围在[-pi,pi]。下面的支路回归出一个标量,代表位置。Loss采用的MSE。 此外,
认为案例研究方法不够严谨也可能是因为混淆了案例研究与教学案例的区别。在教
学案例中,材料是精心处理的,以便有效地突出某一关键之处,而在案例研究中,这种行
为是被严格禁止的。每一个从事案例研究的学者,都必须尽最大的努力,真实客观地记
录观察到的资料。 The requested URL /21437.html was not found on this server. ZUI GAO REN
MIN JIAN CHA YUAN FA LV ZHENG CE YAN JIU SHI BIAN在大血管疾病方面,目前AI
可以较好地协助医师准确、快速的实现病灶区的识别、分割工作,减轻放射科医师工
作强度,降低漏诊、误诊概率;并且可以通过自动对主动脉及其分支进行分割,确认
破口位置,根据专家系统为临床医师提供具有参考价值的手术实施方案,并实现患
者术后风险预测分析及病程管理工作。
作者从对反事实样本期望具有的特性的角度进行分析,逐个对应建模,完善优化
目标。个人感觉,给出了清晰地问题拆解和建模思路,可以借鉴到其他问题中。 3. Kim
B, Rudin C, Shah J. The Bayesian Case Model: A Generative Approach for Case-Based Reasoning
and Prototype Classification[J]. Computer Science, 2015, 3:1952-1960. 刚刚提到的最早的那
篇论文是用深度学习来学习特征描述子。关键点的匹配,形变模型的插值等方法依
然是传统的方法。 The requested URL /21437.html was not found on this server. 人们不会问:“
为什么事件P会发生?”,他们问的是:“为什么事件P会发生而不是事件Q?”。即使表面
上的格式是 "为什么是A?",它通常意味着 "为什么是A而不是B?" 为了能够进行可微
分的优化,可以将上述目标转化为无约束的形式,具体公式如下图所示。优化问题的
定义要求反事实解释本身改动是最小的(距离最小化),满足了上述期望的第一个
性质。如上述示例图所示,红色的点和绿色的点都满足”得到期望的分类“这个目标,
但是相比绿色点,红色的点是最小改动。 上述案例描述了反事实解释的许多被期望
具有的特性, - 给出足以改变模型决策的定量的最小改动。例如,增加$10K的收入就足
够了,即便$50K更好。 - 希望调整的项目比较少,而不是改变许多特征。例如,让Alice
改变1项特征比较容易,超过10则很困难且一般没有实际意义。 - 希望改动的内容是切
实可行的,而不是改变固有的性质。例如,不要让Alice改变性别和年龄等。 (4)探索性
研究一般也不用来检验某种理论假设,而是为提出理论假设提供初步的根据和其他
相应的信息。 配准思路可以看下图。和上面叙述得差不多,创新的部分一是把弱监督
给结合了起来,二是融入了微分同胚机制从而自己设计了一个神经网络,开启了深
度学习配准领域又一热点高端研究方向。基于单个特征的方法主要是一些非常经典
的线性模型,比如线性回归、逻辑回归、广义线性回归、广义加性模型等,这类模型可
以说是现在可解释性最高的方法,可能学习机器学习或计算机相关专业的朋友会认
为线性回归是最基本最低级的模型,但如果大家学过计量经济学,就会发现大半本
书都在讨论线性模型,包括经济学及相关领域的论文其实大多数也都是使用线性回
归作为方法来进行研究。这种非常经典的模型全世界每秒都会被用到大概800 多万
次。为什么大家这么青睐这个模型呢?除了模型的结构比较简单之外,更重要的是
线性回归模型及其一些变种拥有非常 solid 的统计学基础,统计学可以说是最看重可解
释性的一门学科了,上百年来无数数学家统计学家探讨了在各种不同情况下的模型
的参数估计、参数修正、假设检验、边界条件等等问题,目的就是为了使得在各种不
同情况下都能使模型具有有非常好的可解释性,如果大家有时间有兴趣的话,除了学
习机器学习深度模型模型之外还可以尽量多了解一些统计学的知识,可能对一些问
题会获得完全不一样的思考和理解。 实际应用中,这个因素考虑得更多。因为这类特
点将客户的需求考虑进来了,所以就不能只给客户一个类似上面的图。比如有时候需
要给一个具体的文字解释,有时候需提升客户使用你AI产品的信心等等。 解释性研
究是解释教育现象、问题和事实“为什么” 的一种研究。(运用分析、综合、归纳、演绎
等方法)对教育现象、问题、和事实“之所以是”的原因做进一步解释的研究。解释性研
究也能说明社会现象发生的原因,预测事物的发展后果,探讨社会现象之间的因果
联系。 (1)了解哪些变量是起因(独立变量或自变量),哪些变量是结果(因变量或响应
)。 案例研究常常与定性研究混为一谈。案例研究有时也需要使用定量证据,不能根
据证据资料是定性的还是定量的来判断选取何种研究方法,如果仅仅是因为要进行
定量分析而放弃了案例研究方法,实际就是对案例研究产生了这种误解。案例研究可
以基于定性材料,也可以基于定量材料,或者采用定性材料与定量材料相结合。事
实上,案例研究和定性或定量研究强调的并非同一层面的问题,两者可以是相互包含
的关系,当确定采用案例研究方法以后,可以再进一步选择是用定性还是用定量方法; 同
样,当确定使用定性或定量方法后也可以对采用案例研究或其他方法进行进一步
选择。 近日,腾讯研究院发布了《可解释ai发展报告2022》,报告由可解释ai概述、可解
释AI发展趋势、可解释AI的行业实践、对可解释AI未来发展的几点看法和结论五部分
组成。从不同角度解释了可解释AI的概念,并从当前可解释AI的行业实践及现状,对
可解释AI的未来发展趋势作出预测,结合腾讯研究院自身对可解释ai未来发展的几
点看法,预测ai可行性解释路径。 实验的基本事实是图像概念比标题概念更相关。然
而,当观察显着性图时,人们认为标题概念更重要(具有0%噪声的模型),或者没有
辨别出差异(具有100%噪声的模型)。相比之下,TCAV结果正确地表明图像概念更重
要。 (1)描述有关群体的特证。例如,给出某些名牌商店的“重型使用者” (经常购物者)
的轮廓。 当系统是个黑盒子,会产生无法预料的输出的时候(比如深度学习系统),才
需要可解释性?当系统产生无法预料的输出也没啥重大损失的时候(比如邮政编码
排序系统);或者即便系统不完美,但问题已经被研究得很透彻、被检验过无数次以
至于我们很相信这个系统的时候(比如飞机的空中防撞系统),不需要可解释性。 (5)
既要有独立负责的精神,又要自觉接受党委领导,积极争取各级党组织的支持和帮
助; 数据可视化方法就是一类非常重要的建模前可解释性方法。很多对数据挖掘稍
微有些了解的人可能会认为数据可视化是数据挖掘工作的最后一步,大概就是通过
设计一些好看又唬人的图表或来展示你的分析挖掘成果。但大多数时候,我们在真
正要研究一个数据问题之前,通过建立一系列方方面面的可视化方法来建立我们对
数据的直观理解是非常必须的,特别是当数据量非常大或者数据维度非常高的时候,
比如一些时空高维数据,如果可以建立一些一些交互式的可视化方法将会极大地帮
助我们从各个层次角度理解数据的分布,在这个方面我们实验室也做过一些非常不
错的工作。 三种类型的研究设计并不是绝对互相独立进行的。有些调研项目需要涉
及一种以上研究类型的方案设计。如何将不同类型的方案相结合完全取决于调研问
题的性质。选择方案设计的一般原则有如下几点: 解释性研究是指通过种种方法和
手段对调查搜集来的各种资料进行整理分析,以阐明所了解到的社会现象发生
原因,并预测其变化趋势的社会实践活动。许多调查研究不但描述社会现象,而且力
求解释社会现象,即阐述社会现象是为何发生和如何发生的。解释性研究的目的,一
是回答已经发生的社会现象为什么会发生和如何发生的问题,二是对已经发生的社
会现象在何种条件下将导致另一社会现象发生的可能性进行预测。 [1] 解释性研究的
理论假设一般是一种因果模型,它一般包括以下几个层次的方式: Top Search Results
from the AbeBooks Marketplace 1 2020数据治理议题全景2020年,数据治理领域展现了更
多的具体行动方案。在百年未有之大变局下,为抓住历史性发展机遇,各方主动提出
规则方案,数据治理从混沌走向秩序重建。在规则的激荡与碰撞中,中国以开放
心态,积极参与全球治理,对重大国际问题提出中国方案,并以其包容性为数字治理
提供了新的选项。人类社会共同迈向数 上述反事实解释的期望特性中还有一条,是
希望尽可能只改动少数特征,即希望变动的特征具有稀疏性。[3]表示人类更容易理
解简短的解释,因此可以为上述优化目标再加入 L_0/L_1 之类的稀疏正则项,优化目标
进一步转换为如下图所示的公式,其中 g(\cdot) 表示稀疏正则。 对于XAI 来说,我们问
的问题是:为什么这个勃猫猫图被分类为“ 猫”而不是“狗”?或者:如果图像被修改了,
它仍会被分类为“猫”吗?

You might also like