本文主要是介绍通过hmmlearn学习使用GaussianHMM高斯隐马尔科夫模型模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
HMM主要解决的三个问题。
假设隐藏状态序列和观测状态序列分别使用Z和X表示,则解决的3个问题可表示为:
1.解码问题:已知模型参数和X,估计最可能的Z;维特比算法
2.概率问题:已知模型参数和X,估计X出现的概率;向前-向后算法
3.学习问题:仅给出X和隐藏层个数,估计模型参数。 B-W算法,通常是经过一定数量的训练以后,得到模型,然后解决问题1和2。
小贴士:
使用隐马尔可夫如何实现分类或者聚类?
设置一个得分阈值T,例如T属于(-1000,0),步长为100,然后迭代计算准确率和召回率,取出现准确率和召回率最好情况的阈值T作为分类,聚类判定点。
下面代码使用GaussianHMM,解决问题3的例子:
#coding=utf-8
'''
Created on 2018-1-22@author: 10205025
'''
import numpy as np
from hmmlearn import hmm# 这里假设隐藏层数量为5个
model = hmm.GaussianHMM(n_components=5, n_iter=1000, tol=0.01,covariance_type="full")X1 = np.array([[2], [1],[0]])
X2 = np.array([[2], [1],[0],[2]])
X3 = np.array([[2], [1],[1]])
X4 = np.array([[2], [1],[0]])
X5 = np.array([[1], [2],[0]])X = np.vstack((X1,X2,X3,X4,X5))
print X
# [[2]
# [1]
# [0]
# [2]
# [1]
# [0]
# [2]
# [2]
# [1]
# [1]
# [2]
# [1]
# [0]
# [1]
# [2]
# [0]]# 这里分别为X1,X2,X3,X4,X5的长度
X_lens = [3,4,3,3,3]
model.fit(X,X_lens)# 转换矩阵
print model.transmat_
# [[ 4.90994062e-267 8.00000000e-001 1.00000000e-001 1.00000000e-001
# 4.90994062e-267]
# [ 1.00000000e-001 2.00000000e-001 3.00000000e-001 3.00000000e-001
# 1.00000000e-001]
# [ 5.00000000e-001 3.59090699e-133 2.80458184e-133 2.80458184e-133
# 5.00000000e-001]
# [ 5.00000000e-001 3.59090699e-133 2.80458184e-133 2.80458184e-133
# 5.00000000e-001]
# [ 4.90994062e-267 8.00000000e-001 1.00000000e-001 1.00000000e-001
# 4.90994062e-267]]# 正常的序列
test1 = np.array([[2, 1,0,2,1,0]]).T
print test1
# [[2]
# [1]
# [0]
# [2]
# [1]
# [0]]
score = model.score(test1)
print score
# 10.1943163957# 不正常的序列
test2 = np.array([[2, 1,0,2,1,0,3]]).T
print test2
# [[2]
# [1]
# [0]
# [2]
# [1]
# [0]
# [3]]
score = model.score(test2)
print score
# -137.8727309
这篇关于通过hmmlearn学习使用GaussianHMM高斯隐马尔科夫模型模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!