【知识串联】概率论中的值和量(随机变量/数字特征/参数估计)【考研向】【按概率论学习章节总结】(最大似然估计量和最大似然估计值的区别)

本文主要是介绍【知识串联】概率论中的值和量(随机变量/数字特征/参数估计)【考研向】【按概率论学习章节总结】(最大似然估计量和最大似然估计值的区别),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

就我的概率论学习经验来看,这两个概念极易混淆,并且极为重点,然而,在概率论的前几章学习中,如果只是计算,对这方面的辨析不清并没有问题。然而,到了后面的参数估计部分,却可能出现问题,而这些问题是比较隐晦而且难以发现的,并且鲜有老师强调。因此,就这方面希望能够帮助同样对概率论的这部分内容有疑惑的同学。

随机变量

首先,在学习概率最开始的时候,我们接触了随机变量X,它是一种,就是说它是变化的(这是我的理解方式)。对于这个随机变量X,我们怎么样才能让它定下来呢?通过抽样的方式。

举个例子,随机变量X(我其实感觉这个地方和最开始的事件容易混淆,我姑且把事件和随机变量混为一谈了(这个部分博友有更好的说法恳请指正))我可以说是抛硬币了,那么我只有抛了,才能知道这个值是多少,否则单论这个量(抛硬币),我是不能得出任何有用的信息的,我们只有通过抛硬币,才能发现X,X是抽象的,是被我们观察了无数次的实验结果所定义的(我姑且这么阐释了)。

当硬币抛出后,我们有了第一个样本x1,这个不一样了,我们叫它样本值x1,它是一个。是有确切的大小的。至此,我们的前三章的值和量解决完毕。

数字特征

在第四章,我们接触到了新的东西,叫做数字特征,比如期望EX,方差DX,它们是确切的,我想也是显而易见的。

对于一个随机变量X,假设它是服从标准正态分布的,显然它的期望是0,方差是1,是确定的值。

至此,我们的第四章的值和量解决完毕。

参数估计

在后面的几章中,我们接触了比较多的值和量,极大似然估计量,无偏估计量,样本均值,等等。在这里我们抽取两组进行说明,(样本均值,样本方差)和(期望,方差),极大似然估计值和极大似然估计量。

样本均值和样本方差,他们是量(这个地方是很容易混淆的)。
期望和方差,他们是值

可以这么理解,样本均值是X拔,是n分之1乘以X的求和,既然X是量,那么X拔当然也是量(见补充),同理可得样本方差。

对于极大似然估计值和极大似然估计量,有了前面的铺垫,我们可以比较清晰的解决了。

极大似然估计值是θ,是值。
极大似然估计量是θ尖,是量。

在求解极大似然估计的时候,我们发现,最开始求解极大似然估计值的时候,我们都是用的x。因为值要和值对应,(极大似然估计值和样本值相对应)。

在求解极大似然估计量的时候,我们发现,在最后一步往往是,我们转换成了θ尖,这个时候,对应的x变成了X,这是因为,量要和量对应(随机变量和极大似然估计量对应)。

这个应该怎么理解呢?这里给出一个我个人的看法。

虽然样本均值和样本方差都是值,但是就像在随机变量中,我们可以通过抽样x来观察X的性质一样,在样本均值和样本方差的观察中,我们也是通过抽样样本来估计样本均值和方差。

于是,在极大似然估计的时候,我们往往可以看到,前一步θ对应x,后一步就跳到θ尖对应X了,或者可以说,我们无法得到量,即便是样本的量我们也无法得到,但是我们可以用样本值去估计样本的量,因此,通过同步替换,可以达到用样本值代替(估计)量的效果。有了这个样本的估计量,我们再用样本的估计量去估计随机变量的数字特征(值)

样本的观测值 --------> 样本的估计量 --------> 随机变量的数字特征

第一步中,我们用样本的观测值代替样本的估计量,是因为我们假设我们经过足够多的观测后,我们可以得到随机变量的性质(基于大数定律),然而在现实生活中,我们不可能进行无穷无尽的观测,因此,就用有限次观测值来近似量

在第二步中,我们用样本的估计量来计算随机变量的数字特征就是我们在第一步的假设的延拓(比如套个D或者E,本质上就是等价变形?基于第一步的假设?)(这部分差不多可能是车轱辘话了?我暂且做个不清晰的叙述了,欢迎博友进行补充)

再举一个例子,通过样本方差S方去估计随机变量的方差,我们也是通过在S方上套一个D,就可以将其变为值,就可以进行估计了(上述的第二步)

至此,我们概率论所有重要的值和量解析完毕。

补充

X是随机变量g(X)当然也是随机变量,x是样本值,g(x)当然也是值(似乎没这么考过。。)。

这篇关于【知识串联】概率论中的值和量(随机变量/数字特征/参数估计)【考研向】【按概率论学习章节总结】(最大似然估计量和最大似然估计值的区别)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/291038

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

Java架构师知识体认识

源码分析 常用设计模式 Proxy代理模式Factory工厂模式Singleton单例模式Delegate委派模式Strategy策略模式Prototype原型模式Template模板模式 Spring5 beans 接口实例化代理Bean操作 Context Ioc容器设计原理及高级特性Aop设计原理Factorybean与Beanfactory Transaction 声明式事物

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

从去中心化到智能化:Web3如何与AI共同塑造数字生态

在数字时代的演进中,Web3和人工智能(AI)正成为塑造未来互联网的两大核心力量。Web3的去中心化理念与AI的智能化技术,正相互交织,共同推动数字生态的变革。本文将探讨Web3与AI的融合如何改变数字世界,并展望这一新兴组合如何重塑我们的在线体验。 Web3的去中心化愿景 Web3代表了互联网的第三代发展,它基于去中心化的区块链技术,旨在创建一个开放、透明且用户主导的数字生态。不同于传统

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

sqlite3 相关知识

WAL 模式 VS 回滚模式 特性WAL 模式回滚模式(Rollback Journal)定义使用写前日志来记录变更。使用回滚日志来记录事务的所有修改。特点更高的并发性和性能;支持多读者和单写者。支持安全的事务回滚,但并发性较低。性能写入性能更好,尤其是读多写少的场景。写操作会造成较大的性能开销,尤其是在事务开始时。写入流程数据首先写入 WAL 文件,然后才从 WAL 刷新到主数据库。数据在开始

usaco 1.2 Name That Number(数字字母转化)

巧妙的利用code[b[0]-'A'] 将字符ABC...Z转换为数字 需要注意的是重新开一个数组 c [ ] 存储字符串 应人为的在末尾附上 ‘ \ 0 ’ 详见代码: /*ID: who jayLANG: C++TASK: namenum*/#include<stdio.h>#include<string.h>int main(){FILE *fin = fopen (

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss