SHAP 和 LIME 解释模型

2023-11-08 08:04
文章标签 模型 解释 shap lime

本文主要是介绍SHAP 和 LIME 解释模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

内容大纲

  • 1、SHAP 解释器
    • 1.1 案例:用于预测患者肺癌
    • 1.2 案例中使用的shap解释器
    • 1.3 举例说明:SHAP工作原理
  • 2、LIME 解释器
    • 2.1 案例:判断法律案件胜诉可能性
    • 2.2 LIME解释器工作原理
    • 2.3 本地解释模型的训练过程
    • 2.4 举例说明1:新闻分类
    • 2.4 举例说明2:电影评论判断

1、SHAP 解释器

1.1 案例:用于预测患者肺癌

该案例使用肺癌数据集,使用随机森林分类器训练模型,并预测测试集标签。最后使用SHAP解释器解释模型预测的依据,如哪些特征对预测影响较大,此外也可以添加其他指标评估模型质量。

1.2 案例中使用的shap解释器

  • SHAP基于 shapely 值理论,它源于博弈论,用于衡量个体特征对模型预测结果的贡献。
  • 对于每一个样本,SHAP通过计算该样本所有可能子集中,特征存在与不存在时模型输出的差异。
  • 这些边际贡献根据公式计算出代表该特征对该实例预测结果贡献的shapley值。
  • 由于shapley值具有加性性质,可以计算出每一个特征在该实例中的绝对影响程度。
  • SHAP解释器会对每一次预测计算所有特征的shapley值。
  • 这些shapley值既可以用来解释单个预测,也可以汇总 stationed 的 shapley值对所有样本进行可视化。
  • 例如平均按特征 shapley值排序可以看出影响程度最大的特征。
  • SHAP值也可以利用依赖图等方式展示特征间相互影响。

1.3 举例说明:SHAP工作原理

假设我们有一个分类模型,输入有3个特征A,B,C,输出一个标签0或1。

现在有一个样本,其特征值为:

  • A = 1
  • B = 0
  • C = 1
    模型给出的预测标签是1

1、SHAP解释器会计算:

  • 当只有A时,模型预测值。
  • 当只有B时,模型预测值。
  • 当只有C时,模型预测值。
  • 当A,B共存时,模型预测值。
  • 当A,C共存时,模型预测值。
  • 当B,C共存时,模型预测值。
  • 当A,B,C全存在时,模型预测值。

2、它通过对比不同子集中模型输出的差异,来计算每个特征的边际效应
3、然后根据shapley值公式,得到每个特征A,B,C对预测结果的独立贡献,也就是它们的SHAP值。
4、通过这样的分析,我们就可以看到每个特征对预测结果的影响程度,这就是SHAP解释器工作的基本套路。

SHAP解释器计算每个特征的边际效应是基于下面这个思路:
对于样本X上的模型预测f(X),它有m个特征。
对于每个特征xi, SHAP会考虑该特征在所有可能的子集S中的取值:

  • 当xi在S中时,模型输出为f(X|S)
  • 当xi不在S中时,模型输出为f(X|-xi)

那么这个特征xi在子集S中的边际效应定义为: 边际效应 = f(X|S) - f(X|-xi)
也就是说,这个特征加入或去除子集S时,模型输出的变化。

5、SHAP会计算样本X上每个可能的子集S,然后对每个特征xi统计他在所有子集S中的边际效应。

6、最后根据shapley值的定义,通过加权平均计算出特征xi对整体模型输出f(X)的贡献大小。

这个贡献量就是我们常说的这个特征的SHAP值,就代表了它对预测结果的独立影响程度。

所以通过不断采样不同子集,SHAP可以详细解剖每个特征的边际影响,从而给出它们对结果的解释。

2、LIME 解释器

2.1 案例:判断法律案件胜诉可能性

该案例加载法律案件数据,训练RF分类模型预测胜诉可能性,并使用LIME解释单例预测依据,可以辅助法律工作。

2.2 LIME解释器工作原理

LIME(Local Interpretable Model-agnostic Explanations) 的工作原理:

  • 对预测的每个样本,LIME都会训练一个"本地解释模型"来近似实际模型在这个样本附近的行为。
  • 本地解释模型一般使用线性模型或者决策树这类易解释模型。
  • LIME通过对样本附近数据点进行扰动,并询问实际模型得到这些点的预测,来训练本地模型。
  • 本地模型可以解释实际模型对这个样本的预测是如何受不同特征值影响的。

所以LIME可以解释模型预测一个单独样本的原因,指出影响程度最大的特征,这对法律工作很有意义。它的优点是模型无关,仍适用于黑箱模型,这就是LIME受到欢迎的原因。

2.3 本地解释模型的训练过程

LIME训练本地解释模型的过程包括以下步骤:

  1. LIME周围采样许多实例,如更改、删除单个词等。这构成了一个新数据集。
  2. 对新数据集每个实例,询问原始模型给出的预测结果。这为新数据集加入预测标签。
  3. LIME对新数据集中的每个实例计算其相对于原始实例的距离作为新特征。
  4. LIME利用新数据集训练一个线性回归模型,取各个特征项的系数作为“影响程度”。
  5. 被训练的线性模型直接优化的是对原始模型在周围实例表现的模拟goodness。
  6. 其中的特征系数量化了不同特征值改变对原始模型输出影响的程度。
  7. 系数值越大,表示该特征对原始模型输出贡献越大,可以视为关键影响特征。

通过这一训练过程,LIME得到的线性模型仅在原始样本附近有效,但能反映原始模型在这里的线性表现,从而提供本地解释。

2.4 举例说明1:新闻分类

假设我们有一个文本分类模型,用于判断新闻文章是否为政治类。

给定一个测试样本:
文本内容: “政府宣布将提高税率。”
模型预测: 政治类

LIME会做如下工作:

  1. 创建样本的变异实例,如删改单个单词:
  • “政府宣布税率。”
  • “将提高税率。”
  • “政府将提高。”
  1. 询问原模型这些实例的预测结果。

  2. 求每个实例与原样本的距离,做为新特征。

  3. 用这些新数据训练线性模型fitting原模型表现。

  4. 得到的线性模型公式为:
    y = 1.0*“政府” + 0.8*“税率” + 0.1*“将提高”

所以关键词为"政府"和"税率",它们最大影响预测结果。

通过这个例子可以清楚看到LIME是如何在本地近似原始模型,并解释单个预测结果的。它利用了简单且易解释的线性模型。

2.4 举例说明2:电影评论判断

假设我们有一个模型来判断是否是正面评论,输入是一个短评文本:

评论文本: “电影很好看,主演演技饱满”
模型预测: 正面评论

LIME会做以下工作:

  1. 根据输入文本生成多种扰动样本,如删除个别单词
  2. 检查样本:“电影很演技饱满”
    模型预测:负面评论
  3. 样本:“主演演技饱满”
    模型预测:中性评论
  4. 将样本和预测作为新数据集训练线性模型
  5. 得到线性模型:
    正面=1.0*“电影很好看”+0.6*“主演演技饱满”
  6. 所以"电影很好看"对正面判断贡献最大

通过对原始样本进行简单删除操作,LIME找到主要影响项"电影很好看",表明它是模型判断的关键依据。

————————————————
原文链接:https://blog.csdn.net/weixin_71458119/article/details/132460672

这篇关于SHAP 和 LIME 解释模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/368725

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

wolfSSL参数设置或配置项解释

1. wolfCrypt Only 解释:wolfCrypt是一个开源的、轻量级的、可移植的加密库,支持多种加密算法和协议。选择“wolfCrypt Only”意味着系统或应用将仅使用wolfCrypt库进行加密操作,而不依赖其他加密库。 2. DTLS Support 解释:DTLS(Datagram Transport Layer Security)是一种基于UDP的安全协议,提供类似于

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

AI Toolkit + H100 GPU,一小时内微调最新热门文生图模型 FLUX

上个月,FLUX 席卷了互联网,这并非没有原因。他们声称优于 DALLE 3、Ideogram 和 Stable Diffusion 3 等模型,而这一点已被证明是有依据的。随着越来越多的流行图像生成工具(如 Stable Diffusion Web UI Forge 和 ComyUI)开始支持这些模型,FLUX 在 Stable Diffusion 领域的扩展将会持续下去。 自 FLU

SWAP作物生长模型安装教程、数据制备、敏感性分析、气候变化影响、R模型敏感性分析与贝叶斯优化、Fortran源代码分析、气候数据降尺度与变化影响分析

查看原文>>>全流程SWAP农业模型数据制备、敏感性分析及气候变化影响实践技术应用 SWAP模型是由荷兰瓦赫宁根大学开发的先进农作物模型,它综合考虑了土壤-水分-大气以及植被间的相互作用;是一种描述作物生长过程的一种机理性作物生长模型。它不但运用Richard方程,使其能够精确的模拟土壤中水分的运动,而且耦合了WOFOST作物模型使作物的生长描述更为科学。 本文让更多的科研人员和农业工作者