【Python实战因果推断】73_图因果模型8

2024-08-31 17:04

本文主要是介绍【Python实战因果推断】73_图因果模型8,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

Adjusting for Selection Bias

Conditioning on a Mediator


Adjusting for Selection Bias

不幸的是,纠正选择偏倚绝非易事。在我们一直在讨论的例子中,即使有随机对照试验,ATE也无法识别,仅仅是因为你无法在对那些回应了调查的人进行条件化后,关闭新功能与客户满意度之间的非因果关联流。为了取得一些进展,你需要做出进一步的假设,而这正是图形模型开始发挥作用的地方。它使你能够对这些假设非常明确和透明。

例如,你需要假设结果不会导致选择。在我们的例子中,这意味着客户满意度不会导致客户更可能或更不可能回答调查。相反,你将有一些其他可观察变量(或变量集合),它们既导致选择又影响结果。例如,唯一导致客户回应调查的因素可能是他们在应用程序中花费的时间和新功能。在这种情况下,治疗组和对照组之间的非因果关联通过在应用程序中花费的时间流动:

只有专家知识才能告诉你这是一个多么强烈的假设。但如果它是正确的,一旦你控制了在应用程序中花费的时间,新功能对满意度的影响就变得可识别了。

再一次,你在这里应用了调整公式。你只是将数据分割成由X定义的组,以便在这些组内,治疗组和对照组变得可比。然后,你可以简单地计算治疗组和对照组内部比较的加权平均值,使用每个组的大小作为权重。只是现在,你这样做时,同时对选择变量进行了条件化:

ATE=\sum_{x}\left\{(E[Y|T=1,R=1,X]-E[Y|T=0,R=1,X])P(X|R=1)\right\}

总的来说,为了调整选择偏倚,你必须调整导致选择的所有因素,同时还要假设结果或治疗既不直接导致选择,也不与选择共享隐藏的共同原因。例如,在以下图中,由于对S进行条件化打开了T和Y之间的非因果关联路径,存在选择偏倚:

你可以通过调整解释选择的可测量变量X3、X4和X5来关闭其中两条路径。然而,有两条路径你无法关闭(用虚线表示):Y->S<-T和T->S<-U->Y。这是因为治疗直接导致选择,而结果与选择共享一个隐藏的共同原因。你可以通过进一步对X2和X1进行条件化来减轻这条路径带来的偏倚,因为它们解释了U的一些变化,但这不会完全消除偏倚。这个图反映了在选择偏倚问题中你更可能遇到的更现实情况,就像我们刚刚作为例子使用的选择偏差。在这些情况下,你能做的最好的事情是对解释选择的变量进行条件化。这将减少偏倚,但不会完全消除它,因为如你所见,1)有导致选择的因素是你不知道或无法测量的,2)结果或治疗可能直接导致选择。

我也并不想给你错误的印象,以为仅仅控制导致选择的一切因素是一个好主意。在以下图中,对X进行条件化会打开一条非因果路径,Y->X<-T:

Conditioning on a Mediator

目前为止所讨论的选择偏倚是由不可避免地进入某个群体的选择引起的(你被迫对响应者群体进行条件化),但你也可以不经意间造成选择偏倚。例如,假设你从事人力资源工作,你想要查明是否存在性别歧视,即同等资质的男性和女性是否薪酬不同。为了进行这项分析,你可能会考虑控制资历等级;毕竟,你想要比较的是资质相同的员工,而资历似乎是一个很好的代理指标。换句话说,你认为如果同一职位的男性和女性薪资不同,你将有证据证明公司存在性别薪酬差距。

这种分析的问题在于,因果图可能看起来像这样:

资历等级是治疗(女性)与薪资之间的路径中的中介变量。直观上,女性和男性之间的薪资差异有一个直接原因(直接路径:女性->薪资)和一个间接原因,通过资历流动(间接路径:女性->资历->薪资)。这张图告诉你,女性遭受歧视的一种方式是她们升迁至更高资历的概率较低男性和女性之间的薪资差异部分是同一资历级别下的薪资差异,但也是资历级别的差异。简而言之,女性->资历->薪资路径也是治疗与结果之间的因果路径,你不应在分析中关闭它。如果你在控制资历的情况下比较男性和女性的薪资,你只会识别出直接歧视,即女性->薪资。

值得一提的是,对中介节点的后代进行条件化也会引起偏倚。这种选择并没有完全关闭因果路径,但部分阻塞了它:

这篇关于【Python实战因果推断】73_图因果模型8的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1124475

相关文章

网页解析 lxml 库--实战

lxml库使用流程 lxml 是 Python 的第三方解析库,完全使用 Python 语言编写,它对 XPath表达式提供了良好的支 持,因此能够了高效地解析 HTML/XML 文档。本节讲解如何通过 lxml 库解析 HTML 文档。 pip install lxml lxm| 库提供了一个 etree 模块,该模块专门用来解析 HTML/XML 文档,下面来介绍一下 lxml 库

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

C#实战|大乐透选号器[6]:实现实时显示已选择的红蓝球数量

哈喽,你好啊,我是雷工。 关于大乐透选号器在前面已经记录了5篇笔记,这是第6篇; 接下来实现实时显示当前选中红球数量,蓝球数量; 以下为练习笔记。 01 效果演示 当选择和取消选择红球或蓝球时,在对应的位置显示实时已选择的红球、蓝球的数量; 02 标签名称 分别设置Label标签名称为:lblRedCount、lblBlueCount

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验