Windows使用ffmpeg获取麦克风数据

2024-09-04 02:44

本文主要是介绍Windows使用ffmpeg获取麦克风数据,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录

  • 前言
  • 一、安装MSYS2
  • 二、开始配置
  • 三、测试代码
  • 四、缺陷
  • 总结


前言

最近突发奇想,既然ffmpeg那么好用,为什么不能拿到Windows上来用呢?由于ffmpeg官方提供的是二进制文件,不是开发库。之前尝试过很多次移植都失败了,当我准备放弃的时候,突然一次意外发现让我重燃希望。所以ffmpeg在windows上到底好不好用呢?让我们拭目以待吧。

OS:WIndows11
ffmpeg:7.0


一、安装MSYS2

今天说的这个方法可以说依赖这个环境,而环境的安装我已经在另一篇文章中说过了,这里就不再赘述了。

Windows上MSYS2的安装和使用

二、开始配置

这种方法需要安装ffmpeg,使用mingw64环境。

pacman -S mingw-w64-x86_64-ffmpeg

三、测试代码

绝大多数代码都可以和Linux通用,只有细节部分必须分开来。我们在Linux上可以使用alsapulse来获取声音系统;在Windows上可以使用dshow来获取声音系统,windows系统上貌似ffmpeg只支持dshow这一种方式。

ffmpeg_windows.cpp

#include <iostream>
#include <cstdio>extern "C" {
#include <libavformat/avformat.h>
#include <libavdevice/avdevice.h>
}/*** @author arnold* @brief use alsa and default device* */
void read_microphone() {
//    av_version_info();
//    av_register_all();//ffmpeg 3.x versionavdevice_register_all();AVFormatContext *fmt_ctx = nullptr;auto *input_fmt = const_cast<AVInputFormat *>(av_find_input_format("dshow")); // 音频设备的输入格式,如alsa、pulse等const char *dev_name = R"(audio=麦克风阵列 (英特尔® 智音技术))"; // microphone device nameAVDictionary *format_opts = nullptr;//set stream format options
//    av_dict_set(&format_opts, "sample_rate", "16000", 0);//set audio sample
//    av_dict_set(&format_opts, "sample_size", "16", 0);//set audio sample
//    av_dict_set(&format_opts, "channels", "1", 0);//set audio channel
//    av_dict_set(&format_opts, "fragment_size", "256", 0);//set audio fragment size// open audio deviceif (avformat_open_input(&fmt_ctx, dev_name, input_fmt, &format_opts) != 0) {printf("can't open input device!\n");if (format_opts)av_dict_free(&format_opts);return;}if (format_opts)av_dict_free(&format_opts);//Output Info---printf("---------------- File Information ---------------\n");av_dump_format(fmt_ctx, 0, dev_name, 0);printf("-------------------------------------------------\n");// find audio stream infoif (avformat_find_stream_info(fmt_ctx, nullptr) < 0) {printf("can't get audio stream info!\n");return;}int audio_stream_idx = -1;// find audio stream indexfor (int i = 0; i < fmt_ctx->nb_streams; i++) {if (fmt_ctx->streams[i]->codecpar->codec_type == AVMEDIA_TYPE_AUDIO) {audio_stream_idx = i;break;}}if (audio_stream_idx == -1) {printf("can't find audio stream index!\n");return;}AVPacket packet;while (av_read_frame(fmt_ctx, &packet) >= 0) {if (packet.stream_index == audio_stream_idx) {std::cout << "packet size: " << packet.size << std::endl;std::cout << "packet duration: " << packet.duration << std::endl;}av_packet_unref(&packet);}avformat_close_input(&fmt_ctx);
}int main() {read_microphone();return 0;
}

CmakeLists.txt

cmake_minimum_required(VERSION 3.10)
project(read_microphone)set(CMAKE_CXX_STANDARD 11)if (UNIX)message(STATUS "OS is UNiX")find_package(PkgConfig REQUIRED)pkg_check_modules(ffmpeg_lib REQUIRED IMPORTED_TARGET libavformat libavutil libavdevice libavcodec)add_executable(ffmpeg_unix ffmpeg_unix.cpp)target_link_libraries(ffmpeg_unix PkgConfig::ffmpeg_lib)pkg_check_modules(alsa_lib REQUIRED IMPORTED_TARGET alsa)add_executable(alsa_bin alsa_lib.cpp)target_link_libraries(alsa_bin PkgConfig::alsa_lib)add_executable(pcm_2_wav pcm_2_wav.cpp)target_link_libraries(pcm_2_wav PkgConfig::alsa_lib PkgConfig::ffmpeg_lib)
elseif (WIN32)message(STATUS "OS is Windows")find_package(PkgConfig REQUIRED)pkg_check_modules(ffmpeg_lib REQUIRED IMPORTED_TARGET libavformat libavutil libavdevice)add_executable(ffmpeg_windows ffmpeg_windows.cpp)target_link_libraries(ffmpeg_windows PkgConfig::ffmpeg_lib)
endif ()

这种模式下Cmake不需要进行任何更改,和Linux上是一模一样的。唯二的差别就是input_format必须选dshowdevice必须是确切的名字才行。这一点和Linux不一样,Linux上可以选default,就是你勾选的默认麦克风,这一点差别还蛮大的。

至于怎么查看Windows上的麦克风设备,请执行以下的命令:

ffmpeg -f dshow -list_devices true -i dummy[dshow @ 000001765c475840] "HP HD Camera" (video)
[dshow @ 000001765c475840]   Alternative name "@device_pnp_\\?\usb#vid_30c9&pid_0009&mi_00#6&23fdf108&1&0000#{65e8773d-8f56-11d0-a3b9-00a0c9223196}\global"
[dshow @ 000001765c475840] "麦克风阵列 (英特尔® 智音技术)" (audio)
[dshow @ 000001765c475840]   Alternative name "@device_cm_{33D9A762-90C8-11D0-BD43-00A0C911CE86}\wave_{8730737C-26AF-44E6-A535-1A478CFB2509}"
[dshow @ 000001765c475840] "麦克风 (ToDesk Virtual Audio)" (audio)
[dshow @ 000001765c475840]   Alternative name "@device_cm_{33D9A762-90C8-11D0-BD43-00A0C911CE86}\wave_{C8461EAB-1635-4144-BE61-6BDC555C9B16}"

括号里带(audio)都是麦克风设备,带(video)的都是摄像头设备。

命令行测试麦克风:

ffmpeg -f dshow -i audio="麦克风阵列 (英特尔® 智音技术)" -f null -#或
ffmpeg -f dshow -i audio="@device_cm_{33D9A762-90C8-11D0-BD43-00A0C911CE86}\wave_{8730737C-26AF-44E6-A535-1A478CFB2509}" -f null -

同样的代码里填这两种名字都行,就是不能用default

四、缺陷

感觉也不算缺陷,但是它就是不支持,看我代码里注释掉的代码。sample_rate可以设置但是不能随便设置,比如32000HZ44100HZ48000HZ都是可以的,但是有些需要的16000HZ就不行。

下面的命令报错:

ffmpeg -sample_rate 16000 -f dshow -i audio="@device_cm_{33D9A762-90C8-11D0-BD43-00A0C911CE86}\wave_{8730737C-26AF-44E6-A535-1A478CFB2509}" -f null -

下面的命令可以:

ffmpeg -sample_rate 32000-f dshow -i audio="@device_cm_{33D9A762-90C8-11D0-BD43-00A0C911CE86}\wave_{8730737C-26AF-44E6-A535-1A478CFB2509}" -f null -

实际上WIndows原生的获取麦克风声音的方法也不是都支持随便设置采样率的,感兴趣的可以试试。

问题是同样的硬件alsa和pulse都支持设置16000的采样率,会给出警告但不会报错。虽说,16000的采样率绝大多数场景用不到,但是有些声音识别的算法就用16000的采样率,真的是头疼。如果你知道方法,麻烦你在回复里告诉我,我感激不尽。

当然,也可以通过后期处理来转化解决。毕竟转换声音没有转换图像那么消耗性能。


总结

1、美中不足,但是对于快速开发足够了,毕竟我觉得ffmpeg还是比自带的好用一些,不知道是不是错觉。

这篇关于Windows使用ffmpeg获取麦克风数据的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1134776

相关文章

使用Docker构建Python Flask程序的详细教程

《使用Docker构建PythonFlask程序的详细教程》在当今的软件开发领域,容器化技术正变得越来越流行,而Docker无疑是其中的佼佼者,本文我们就来聊聊如何使用Docker构建一个简单的Py... 目录引言一、准备工作二、创建 Flask 应用程序三、创建 dockerfile四、构建 Docker

Python使用vllm处理多模态数据的预处理技巧

《Python使用vllm处理多模态数据的预处理技巧》本文深入探讨了在Python环境下使用vLLM处理多模态数据的预处理技巧,我们将从基础概念出发,详细讲解文本、图像、音频等多模态数据的预处理方法,... 目录1. 背景介绍1.1 目的和范围1.2 预期读者1.3 文档结构概述1.4 术语表1.4.1 核

Python使用pip工具实现包自动更新的多种方法

《Python使用pip工具实现包自动更新的多种方法》本文深入探讨了使用Python的pip工具实现包自动更新的各种方法和技术,我们将从基础概念开始,逐步介绍手动更新方法、自动化脚本编写、结合CI/C... 目录1. 背景介绍1.1 目的和范围1.2 预期读者1.3 文档结构概述1.4 术语表1.4.1 核

Conda与Python venv虚拟环境的区别与使用方法详解

《Conda与Pythonvenv虚拟环境的区别与使用方法详解》随着Python社区的成长,虚拟环境的概念和技术也在不断发展,:本文主要介绍Conda与Pythonvenv虚拟环境的区别与使用... 目录前言一、Conda 与 python venv 的核心区别1. Conda 的特点2. Python v

Spring Boot中WebSocket常用使用方法详解

《SpringBoot中WebSocket常用使用方法详解》本文从WebSocket的基础概念出发,详细介绍了SpringBoot集成WebSocket的步骤,并重点讲解了常用的使用方法,包括简单消... 目录一、WebSocket基础概念1.1 什么是WebSocket1.2 WebSocket与HTTP

C#中Guid类使用小结

《C#中Guid类使用小结》本文主要介绍了C#中Guid类用于生成和操作128位的唯一标识符,用于数据库主键及分布式系统,支持通过NewGuid、Parse等方法生成,感兴趣的可以了解一下... 目录前言一、什么是 Guid二、生成 Guid1. 使用 Guid.NewGuid() 方法2. 从字符串创建

Python使用python-can实现合并BLF文件

《Python使用python-can实现合并BLF文件》python-can库是Python生态中专注于CAN总线通信与数据处理的强大工具,本文将使用python-can为BLF文件合并提供高效灵活... 目录一、python-can 库:CAN 数据处理的利器二、BLF 文件合并核心代码解析1. 基础合

Python使用OpenCV实现获取视频时长的小工具

《Python使用OpenCV实现获取视频时长的小工具》在处理视频数据时,获取视频的时长是一项常见且基础的需求,本文将详细介绍如何使用Python和OpenCV获取视频时长,并对每一行代码进行深入解析... 目录一、代码实现二、代码解析1. 导入 OpenCV 库2. 定义获取视频时长的函数3. 打开视频文

Spring IoC 容器的使用详解(最新整理)

《SpringIoC容器的使用详解(最新整理)》文章介绍了Spring框架中的应用分层思想与IoC容器原理,通过分层解耦业务逻辑、数据访问等模块,IoC容器利用@Component注解管理Bean... 目录1. 应用分层2. IoC 的介绍3. IoC 容器的使用3.1. bean 的存储3.2. 方法注

MySQL 删除数据详解(最新整理)

《MySQL删除数据详解(最新整理)》:本文主要介绍MySQL删除数据的相关知识,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录一、前言二、mysql 中的三种删除方式1.DELETE语句✅ 基本语法: 示例:2.TRUNCATE语句✅ 基本语