本文主要是介绍似然概率、先验概率、后验概率和边缘概率,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
似然概率、先验概率、后验概率和边缘概率是概率论和统计学中的几个重要概念,它们各自具有不同的定义和应用场景。
似然概率
似然概率(Likelihood Probability)或似然函数在统计学中是一种关于统计模型参数的函数。给定输出x时,关于参数θ的似然函数L(θ|x)(在数值上)等于给定参数θ后变量X的概率,即L(θ|x)=P(X=x|θ)。简单来说,似然概率就是当我们有一组数据x时,选择某个参数θ使得模型产生这组数据的概率最大。这常用于参数估计,特别是最大似然估计方法中。
先验概率
先验概率(Prior Probability)是指根据以往经验和分析得到的概率。在贝叶斯统计推断中,不确定数量的先验概率分布是在考虑一些因素之前表达对这一数量的置信程度的概率分布。例如,先验概率分布可能代表在将来的选举中投票给特定政治家的选民相对比例的概率分布。先验概率可以是客观的,基于历史数据或统计规律;也可以是主观的,基于专家意见或直觉判断。
后验概率
后验概率(Posterior Probability)是指通过调查或其它方式获取新的附加信息后,利用贝叶斯公式对先验概率进行修正后得到的概率。后验概率反映了在获得新信息后,对某一事件发生的概率的重新评估。在贝叶斯统计中,后验概率是推断的核心,它结合了先验概率和似然概率(或称为证据)来更新对某一事件的信念。
边缘概率
边缘概率(Marginal Probability)是某个事件发生的概率,而与其它事件无关。在多维随机变量的情况下,边缘概率是指某一维随机变量的概率分布,而不考虑其他维的随机变量。例如,在二维随机变量(X,Y)的联合分布中,X的边缘概率分布就是仅考虑X时的概率分布,即P(X=x),而不考虑Y的取值。
总结
概率类型 | 定义 | 应用场景 |
---|---|---|
似然概率 | 给定输出时,关于参数的似然函数 | 参数估计,特别是最大似然估计 |
先验概率 | 根据以往经验和分析得到的概率 | 贝叶斯统计推断中的初始信念 |
后验概率 | 通过新信息修正后的先验概率 | 贝叶斯统计推断中的更新信念 |
边缘概率 | 某个事件发生的概率,与其它事件无关 | 多维随机变量的概率分析中,仅考虑某一维的概率分布 |
这些概念在概率论、统计学和机器学习中都有着广泛的应用。
在统计学和贝叶斯统计中,似然概率(Likelihood)、先验概率(Prior Probability)、后验概率(Posterior Probability)和边缘概率(Marginal Probability)是核心概念。下面我将用公式和例子来逐一解释这些概念。
1. 似然概率(Likelihood)
似然概率是指在给定参数值下,观测数据出现的概率。它通常表示为 P ( D ∣ θ ) P(D|\theta) P(D∣θ),其中 D D D 是观测数据, θ \theta θ 是模型参数。
例子:假设我们有一个抛硬币的实验,其中硬币是不均匀的,正面朝上的概率为 θ \theta θ。我们进行了10次实验,观察到7次正面。那么,在给定 θ \theta θ 的情况下,观测到7次正面的似然概率为:
P ( D ∣ θ ) = ( 10 7 ) θ 7 ( 1 − θ ) 3 P(D|\theta) = \binom{10}{7} \theta^7 (1-\theta)^3 P(D∣θ)=(710)θ7(1−θ)3
2. 先验概率(Prior Probability)
先验概率是在进行任何观测或实验之前,对某个事件或参数的概率估计。它表示为 P ( θ ) P(\theta) P(θ)。
例子:在抛硬币的例子中,如果我们没有任何关于硬币的信息,我们可以假设 θ \theta θ(硬币正面朝上的概率)的先验分布是均匀的,即 P ( θ ) = 1 P(\theta) = 1 P(θ)=1(在 [ 0 , 1 ] [0, 1] [0,1] 区间内均匀分布,但这里为了简化,我们假设它是一个单点分布的近似)。
3. 后验概率(Posterior Probability)
后验概率是在给定观测数据后,对某个事件或参数的概率估计。它使用贝叶斯公式计算,表示为 P ( θ ∣ D ) P(\theta|D) P(θ∣D)。
例子:继续使用抛硬币的例子,如果我们观测到7次正面,我们可以使用贝叶斯公式来计算 θ \theta θ 的后验概率:
P ( θ ∣ D ) = P ( D ∣ θ ) P ( θ ) P ( D ) P(\theta|D) = \frac{P(D|\theta) P(\theta)}{P(D)} P(θ∣D)=P(D)P(D∣θ)P(θ)
其中 P ( D ) P(D) P(D) 是边缘概率(见下文),但在实际计算中,我们通常会忽略 P ( D ) P(D) P(D)(因为它是一个常数,不影响 θ \theta θ 的后验分布的形状),而只关注 P ( D ∣ θ ) P ( θ ) P(D|\theta) P(\theta) P(D∣θ)P(θ) 的乘积。
4. 边缘概率(Marginal Probability)
边缘概率是指某个事件或变量的概率,不考虑与之相关的其他变量。它可以通过对联合概率分布中其他变量求和或积分来得到。
例子:在抛硬币的例子中,如果我们有两个变量,一个是硬币正面朝上的次数 X X X,另一个是抛掷的总次数 N N N,那么 X X X 的边缘概率 P ( X ) P(X) P(X) 可以通过对所有可能的 N N N 求和 P ( X , N ) P(X, N) P(X,N) 来得到。但在我们的简单例子中,我们只关心 θ \theta θ 和观测数据 D D D,所以 P ( D ) P(D) P(D)(即观测到7次正面的概率,不考虑 θ \theta θ 的具体值)就是边缘概率的一个例子。它可以通过对 P ( D ∣ θ ) P ( θ ) P(D|\theta) P(\theta) P(D∣θ)P(θ) 在所有可能的 θ \theta θ 上积分(或求和,如果 θ \theta θ 是离散的)来得到。
注意:在实际应用中,由于 P ( D ) P(D) P(D) 是一个常数(对于固定的观测数据 D D D),我们通常在计算后验概率时忽略它,而只关注 P ( D ∣ θ ) P ( θ ) P(D|\theta) P(\theta) P(D∣θ)P(θ) 的相对大小。
这篇关于似然概率、先验概率、后验概率和边缘概率的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!