本文主要是介绍机器学习基础--最大似然估计,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
昨天作报告,讲到机器学习中的基础知识,最大似然估计,老师提了一个问题,就是为什么会写成那个样子,为什么是求
argmax
,无法回答,于是还是看看概率论吧
机器学习领域,最常用的参数估计准则就是最大似然估计,而且他和我们代价函数最常用的最小均方误差有直接的联系。它的主要思想就是像一位网友说的“眼见为实”。
先说说一个网上的例子,有一个黑箱子里面有100个球,只有黑白两个颜色,一个颜色90个,另一10个,现在我们从黑盒子里任意抽一个,发现是黑球,那么哪个颜色的球是90个?
我们都知道概率越大,事件越有可能发生,反过来,也就是最大似然估计的原理和思想:事件出现发生,它的概率即应该是较大的那个。那么上述例子,按照最大似然估计的思想来推导出发现黑色球有90个,白色10个。
数学表述
假设一次试验,有n个可能结果 A1,A2,...An ,假如其中 Ai 发生了,则认为 Ai 在这n个结果中的概率最大。
最大似然估计就是一次抽样过程中,得到一组观测值 x1,x2,...,xn ,取 θ^(x1,x2,...,xn) 为 θ 的参数估计,则有 θ=θ^ 时, x1,x2,...,xn 出现概率最大。
最大似然函数估计
从似然函数讲起:以离散型变量为例,连续型类似;
首先假定总体 X 属于离散型,其分布律
到这里似然函数就定义为样本值 x1,,x2,...,xn 出现的概率,即:
机器学习相关
然后给出机器学习中涉及的最大似然估计:
考虑一组含有m个样本的数据集 X={x(1),x(2),...,x(m)} ,独立的由未知的真实数据分布 pdata(x) 生成。
令 pmodel(x;θ) 是一族
由 θ 确定在相同空间的概率分布,换言之给定x映射到实数来估计真实概率 pdata(x) ;
那么对于参数 θ 的最大似然估计被定义为:
求和形式是:
这篇关于机器学习基础--最大似然估计的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!