本文主要是介绍在pcDuino使用开源的语音识别Sphinx,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
CMU Sphinx 是用C 语言和Java 语言写的先进的语音识别系统。它是通过卡内基梅隆大学Sphinx 组,Sun 微系统实验室、三菱电器研究实验室、惠普等联合完成的,同时美国加州大学圣克鲁斯分校和麻省理工学院也对其有贡献。安装
sudo apt-get install libasound2-devlibgstreamer0.10-dev libgstreamer-plugins-base0.10-devgstreamer0.10-plugins-base bison
wgethttp://softlayer-dal.dl.sourcefo ... hinxbase-0.8.tar.gz
tar xvf sphinxbase-0.8.tar.gz
cd sphinxbase-0.8
./configure
make
sudo make install
wgethttp://softlayer-dal.dl.sourcefo ... etsphinx-0.8.tar.gz
tar xvf pocketsphinx-0.8.tar.gz
cd pocketsphinx-0.8
./configure
make
sudo make install
sudo ldconfig
插上USB声卡
sudo reboot
运行 pocketsphinx 进行语音识别需要指定三个文件:声学模型、语言模型和字典文件。
以网上下载的这三个文件为例子说明如何使用他们进行语音识别。
声学模型:zh_broadcastnews_16k_ptm256_8000.tar.bz2
$wget http://citylan.dl.sourceforge.net/project/cmusphinx/Acoustic%20and%20Language%20Models/Mandarin%20Broadcast%20News%20acoustic%20models/zh_broadcastnews_16k_ptm256_8000.tar.bz2 |
语言模型:zh_broadcastnews_64000_utf8.DMP ( 这个文件大概大约208M !)
$wget http://citylan.dl.sourceforge.net/project/cmusphinx/Acoustic%20and%20Language%20Models/Mandarin%20Language%20Model/zh_broadcastnews_64000_utf8.DMP |
字典文件:zh_broadcastnews_utf8.dic
$wget http://citylan.dl.sourceforge.net/project/cmusphinx/Acoustic%20and%20Language%20Models/Mandarin%20Language%20Model/zh_broadcastnews_utf8.dic |
先把以上三个文件放在同一个目录下,再把声学模型解压:
$tar -xjfzh_broadcastnews_16k_ptm256_8000.tar.bz2 |
解压后目录包含八个文件夹。
zh_broadcastnews_ptm256_8000/
├── feat.params //HMM 模型的特征参数
├── mdef // 模型定义文件(为每个即将进行训练的HMM 的每一状态定义一个独特的数字标识)
├── means // 混合高斯模型的均值
├── mixture_weights // 混合权重
├── noisedict // 噪声也就是非语音字典
├── sendump // 用来从声学模型中获取mixture_weights 文件的目录
├── transition_matrices //HMM 模型的状态转移矩阵
└── variances // 混合高斯模型的方差
然后我们执行:
pocketsphinx_continuous -hmmzh_broadcastnews_ptm256_8000/ -lm zh_broadcastnews_64000_utf8.DMP -dictzh_broadcastnews_utf8.dic |
-hmm 选项指定声学模型活页夹 –lm 选项指定语言模型 –dict 选项指定字典文件;
pocketsphinx 会分析你传入的文件取得模型和识别的参数,然后显示出来,再有很多信息,等到显示:
Warning: Could not find Mic element
READY….
到这里你就可以喊话让它识别了。对着麦克风讲话结束后在屏幕上以文字形式显示识别结果。在麦克风输入时,两者的最长语音时间为5 秒,前者是通过说话人的正常语句停顿作为断句的分割点,并将停顿之前的语音信号作为一个处理段。
这篇关于在pcDuino使用开源的语音识别Sphinx的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!