##1. 贝叶斯定理 假设随机事件 A A A发生的概率是 P ( A ) P(A) P(A),随机事件 B B B发生的概率为 P ( B ) P(B) P(B),则在已知事件 A A A发生的条件下,事件 B B B发生的概率为: P ( B ∣ A ) = P ( A ∣ B ) P ( B ) P ( A ) P(B|A) = \frac {P(A|B)P(B)}{P(A)} P(B∣A
2.1 条件概率,全概率公式,Bayes公式 1.条件概率 对概率的讨论总是限制在一组固定条件下进行。以前的讨论总是假设除此以外再无其余信息可供使用。然而,我们有时却需要考虑:已知某一事件 B B B 已经发生,要求在该情况下另一事件 A A A 发生的概率这样的情况。我们所需要计算的概率实际上是“在已知事件 B B B 发生的条件下,事件 A A A 发生的概率”,我们记这个概率为:
0、朴素贝叶斯法 朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入输出的联合概率分布,然后基于此模型,对给定的输入 x x x,利用贝叶斯定理求出后验概率最大的输出 y y y。 朴素贝叶斯分类是贝叶斯分类中最简单,也是常见的一种分类方法。 从数学角度,定义分类问题如下: 已知集合 C = y 1 , y 2 , . . . ,
朴素贝叶斯法(naive Bayes)是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入输出的联合概率分布;然后基于此模型,对给定的输入 x x x,利用贝叶斯定理求出后验概率最大的输出 y y y。 基本方法: 设输入空间 X ⊆ R n X\subseteq R^n X⊆Rn为 n n n维向量的集合,输出空间为类标记集合 Y = { c