概率图系列之隐马尔可夫模型(HMM)

2024-02-13 05:58

本文主要是介绍概率图系列之隐马尔可夫模型(HMM),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 概率图模型
  • 隐马尔可夫模型(HMM)
  • 观测序列的生成
  • HMM的三个基本问题及解法
    • 概率问题
      • 直接计算
      • 前向算法
      • 后向算法
      • 概率和期望
    • 学习问题
      • 监督学习
      • Baum-Welch 算法
    • 预测问题
      • 近似算法
      • 维特比算法(Viterbi)
  • 结语

概率图模型

概率图模型是一类用图来表达变量相关关系的概率模型。常见的是用一个节点表示一个或一组随机变量,节点之间的边表示变量之间的概率相关关系,如下图:
在这里插入图片描述
概率图根据边的性质,可以划分为两种:

  • 有向图无环图——有向图模型或贝叶斯网
  • 无向图——无向图图或马尔可夫网

隐马尔可夫模型(HMM)

性质:结构最简单的动态贝叶斯网——有向无环图
描述:由一个隐藏的马尔可夫链生成不可观测的状态随机序列,再由各个状态生成一个可观测而产生观测随机序列的过程。
在这里插入图片描述
上图的箭头表示依赖关系,HMM做了两个基本假设:

  • 齐次马尔可夫假设:隐藏的马尔可夫链在任一时刻 t t t的状态只依赖于上一个时刻 t − 1 t-1 t1的状态
    p ( y t ∣ y 1 , x 1 , y 2 , x 2 . . . , y t − 1 , x t − 1 ) = p ( y t ∣ y t − 1 ) p(y_t|y_1,x_1,y_2,x_2...,y_{t-1},x_{t-1})=p(y_t|y_{t-1}) p(yty1,x1,y2,x2...,yt1,xt1)=p(ytyt1)
  • 观测独立性假设:任意时刻的观测只依赖于该时刻的马尔可夫链的状态,与其他观测即状态无关
    p ( x t ∣ y 1 , x 1 , y 2 , x 2 . . . , y t − 1 , x t − 1 , y t ) = p ( x t ∣ y t ) p(x_t|y_1,x_1,y_2,x_2...,y_{t-1},x_{t-1},y_t)=p(x_t|y_t) p(xty1,x1,y2,x2...,yt1,xt1,yt)=p(xtyt)
    在这里插入图片描述

基于如上的两个假设,可以获取所有变量的联合概率分布为:
p ( x 1 , y 1 , x 2 , y 2 , . . . , x t , y t ) = p ( y 1 ) p ( x 1 ∣ y 1 ) ∏ i = 2 t p ( y i ∣ y i − 1 ) p ( x i ∣ y i ) p(x_1,y_1,x_2,y_2,...,x_t,y_t)=p(y_1)p(x_1|y_1)\prod_{i=2}^tp(y_i|y_{i-1})p(x_i|y_i) p(x1,y1,x2,y2,...,xt,yt)=p(y1)p(x1y1)i=2tp(yiyi1)p(xiyi)
其中 y ∈ { s 1 , s 2 , . . . , s N } y \in \{s_1,s_2,...,s_N\} y{s1,s2,...,sN},表示有N种状态, x ∈ { o 1 , o 2 , . . . , o M } x \in \{ o_1,o_2,...,o_M\} x{o1,o2,...,oM},表示有M种观测值。
除了结构信息,根据联合概率分布可得,如果要确定一个HMM,需要以下三组参数:

  • 初始状态概率:模型在初始时刻各状态出现的概率,即 p ( y ) p(y) p(y),通常记为 π = ( π 1 , π 2 , . . . , π N ) \mathbf{\pi}=(\pi_1,\pi_2,...,\pi_N) π=(π1,π2,...,πN) N N N为状态的种类,其中
    π i = p ( y = s i ) , 1 ⩽ i ⩽ N \pi_i=p(y=s_i),1 \leqslant i \leqslant N πi=p(y=si),1iN
  • 状态转移概率:模型在各个状态间转换的概率,通常记为 A = [ a i j ] N × M \mathbf{A}=[a_{ij}]_{N\times M} A=[aij]N×M
    a i j = p ( y t + 1 = s j ∣ y t = s i ) a_{ij}=p(y_{t+1}=s_j|y_t=s_i) aij=p(yt+1=sjyt=si)
  • 输出观测概率:模型根据当前状态获得各个观测值得概率,通常记为 B = [ b i j ] N × M \mathbf{B}=[b_{ij}]_{N \times M} B=[bij]N×M,状态 s i s_i si下观测值为 o j o_j oj的概率
    b i j = p ( x t = o j ∣ y t = s i ) b_{ij}=p(x_t=o_j|y_t=s_i) bij=

这篇关于概率图系列之隐马尔可夫模型(HMM)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/704656

相关文章

Golang的CSP模型简介(最新推荐)

《Golang的CSP模型简介(最新推荐)》Golang采用了CSP(CommunicatingSequentialProcesses,通信顺序进程)并发模型,通过goroutine和channe... 目录前言一、介绍1. 什么是 CSP 模型2. Goroutine3. Channel4. Channe

Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)

《Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)》:本文主要介绍Python基于火山引擎豆包大模型搭建QQ机器人详细的相关资料,包括开通模型、配置APIKEY鉴权和SD... 目录豆包大模型概述开通模型付费安装 SDK 环境配置 API KEY 鉴权Ark 模型接口Prompt

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

hdu4865(概率DP)

题意:已知前一天和今天的天气概率,某天的天气概率和叶子的潮湿程度的概率,n天叶子的湿度,求n天最有可能的天气情况。 思路:概率DP,dp[i][j]表示第i天天气为j的概率,状态转移如下:dp[i][j] = max(dp[i][j, dp[i-1][k]*table2[k][j]*table1[j][col] )  代码如下: #include <stdio.h>#include

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}