Python3 通过轮询方式使用腾讯云语音识别接口实现录音文件转写

本文主要是介绍Python3 通过轮询方式使用腾讯云语音识别接口实现录音文件转写,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

腾讯云最先是只支持使用回调的方式获取录音识别的结果的,当时我也针对回调的方式写过一篇博客https://blog.csdn.net/TomorrowAndTuture/article/details/100100430。但 9月5号左右有一次更新,腾讯针对录音文件的识别变成可支持轮询的方式获取识别结果,详细修改情况请查看腾讯云GitHub的Python源码,https://github.com/tencentcloud/tencentcloud-sdk-python:

原来的回调方式获取结果需要自己搭建一个服务,专门接收腾讯识别结果的POST请求,但是,如果用户没有官网可访问的IP或者域名的话,搭建好接收腾讯回调POST请求的地址并不算简单。现在支持通过TaskId获取识别结果的话,自然是再好不过的了,而且只要在一定期限之内,通过TaskId还可以重复获取识别结果。

首先,安装 tencentcloud-sdk-python 的包,你可以通过pip或者其他方式进行安装:

然后的话,我也不绕弯子了,直接上代码,先是根据需要上传录音文件url和相应的参数:

"""
@file: recognition_request.py
@author: Looking
@email: 2392863668@qq.com
"""from tencentcloud.common import credential
from tencentcloud.common.profile.client_profile import ClientProfile
from tencentcloud.common.profile.http_profile import HttpProfile
from tencentcloud.common.exception.tencent_cloud_sdk_exception import TencentCloudSDKException
from tencentcloud.asr.v20190614 import asr_client, modelstry:cred = credential.Credential("your SECRETID", "your SECRET_KEY")httpProfile = HttpProfile()httpProfile.endpoint = "asr.tencentcloudapi.com"clientProfile = ClientProfile()clientProfile.httpProfile = httpProfileclient = asr_client.AsrClient(cred, "ap-guangzhou", clientProfile)req = models.CreateRecTaskRequest()# 下面这个参数你自己根据需要进行设置params = '{"EngineModelType":"8k_6","ChannelNum":1,"ResTextFormat":0,"SourceType":0,"Url":"http://audio.c.---.wav"}'req.from_json_string(params)resp = client.CreateRecTask(req)print(resp.to_json_string())except TencentCloudSDKException as err:print(err)

然后运行可以得到类似如下的结果:

"D:\Program Files\Python36\python3.exe" D:/MyProject/Python/Voice_SDK/python_record_asr_sdk/src/request_recognition.py
{"Data": {"TaskId": 537731632}, "RequestId": "4d83b186-98fc-4d51-ba09-da65fe7b891e"}Process finished with exit code 0

这样的话,你就可以获取这通录音识别的 TaskId 了,接着通过 TaskId 获取录音识别结果,我这儿添加了部分对录音识别结果进行解析的代码:

"""
@file: recognition_result.py
@author: Looking
@email: 2392863668@qq.com
"""
from tencentcloud.common import credential
from tencentcloud.common.profile.client_profile import ClientProfile
from tencentcloud.common.profile.http_profile import HttpProfile
from tencentcloud.common.exception.tencent_cloud_sdk_exception import TencentCloudSDKException
from tencentcloud.asr.v20190614 import asr_client, models
try:cred = credential.Credential("your SECRETID", "your SECRET_KEY")httpProfile = HttpProfile()httpProfile.endpoint = "asr.tencentcloudapi.com"clientProfile = ClientProfile()clientProfile.httpProfile = httpProfileclient = asr_client.AsrClient(cred, "ap-guangzhou", clientProfile)req = models.DescribeTaskStatusRequest()params = '{"TaskId":537731632}'req.from_json_string(params)resp = client.DescribeTaskStatus(req)# print(resp.to_json_string())recognition_text = resp.to_json_string()# print(eval(recognition_text)['Data'])recognition_text = eval(recognition_text)['Data']['Result']doc = open('result.txt', 'w', encoding='utf-8')sentence_list = recognition_text.split('\n')[0:-1]  # 列表最后一个元素是空字符串for sentence in sentence_list:content = sentence.split('  ')[1]  # 获取单句通话内容begin_time = sentence.split('  ')[0].split(',')[0][1:]  # 获取每句话的开始时间begin_time = str(int(begin_time.split(":")[0]) * 60000 + int(begin_time.split(":")[1].replace(".", "")))end_time = sentence.split('  ')[0].split(',')[1]  # 获取每句话的结束时间end_time = str(int(end_time.split(":")[0]) * 60000 + int(end_time.split(":")[1].replace(".", "")))speaker = sentence.split('  ')[0].split(',')[-1][:-1]  # 获取说话人print(speaker + "\t" + content + '\t' + begin_time + '\t' + end_time)print(speaker + "\t" + content + '\t' + begin_time + '\t' + end_time, file=doc)doc.close()except TencentCloudSDKException as err:print(err)

然后对返回的字符串结果进行解析,获取完整录音识别结果:

还有一点,识别结果返回是以string的形式返回的,记得用 eval 函数转换成 Python 中的字典再进行解析。(还是用json.loads() 吧,返回语句 return resp.to_json_string() 返回的反正是json串,用 eval 可能会有 bug。)

这篇关于Python3 通过轮询方式使用腾讯云语音识别接口实现录音文件转写的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/580045

相关文章

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

阿里开源语音识别SenseVoiceWindows环境部署

SenseVoice介绍 SenseVoice 专注于高精度多语言语音识别、情感辨识和音频事件检测多语言识别: 采用超过 40 万小时数据训练,支持超过 50 种语言,识别效果上优于 Whisper 模型。富文本识别:具备优秀的情感识别,能够在测试数据上达到和超过目前最佳情感识别模型的效果。支持声音事件检测能力,支持音乐、掌声、笑声、哭声、咳嗽、喷嚏等多种常见人机交互事件进行检测。高效推

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

让树莓派智能语音助手实现定时提醒功能

最初的时候是想直接在rasa 的chatbot上实现,因为rasa本身是带有remindschedule模块的。不过经过一番折腾后,忽然发现,chatbot上实现的定时,语音助手不一定会有响应。因为,我目前语音助手的代码设置了长时间无应答会结束对话,这样一来,chatbot定时提醒的触发就不会被语音助手获悉。那怎么让语音助手也具有定时提醒功能呢? 我最后选择的方法是用threading.Time