ue4 播放程序化生成的声音

2024-05-13 06:18

本文主要是介绍ue4 播放程序化生成的声音,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

首先了解音频有几个重要的概念:

采样频率每秒钟采样次数,采样率越高,数字波形的形状越接近原始模拟波形,通常的采用频率有22050,44100,48000,96000

采样位数采样声波时,为每个采样指定最接近原始声波振幅的振幅值。 采样位数提高可提供更多可能的振幅值,产生更大的动态范围、更低的噪声基准和更高的保真度。通常的采样位数有8bit,16bit,24bit,32bit。

通道数声音的通道的数目。常有单声道和立体声之分,单声道的声音只能使用一个喇叭发声(有的也处理成两个喇叭输出同一个声道的声音),立体声可以使两个喇叭都发声(一般左右声道有分工) ,更能感受到空间效果,当然还有更多的通道数。

 

 

PCM :PCM(Pulse Code Modulation----脉码调制录音)。所谓PCM录音就是将声音等模拟信号变成符号化的脉冲列,再予以记录。PCM信号是由[1]、[0]等符号构成的数字信号,而未经过任何编码和压缩处理。与模拟信号比,它不易受传送系统的杂波及失真的影响。动态范围宽,可得到音质相当好的影响效果。

 

WAV:wav是一种无损的音频文件格式,WAV符合 PIFF(Resource Interchange File Format)规范。所有的WAV都有一个文件头,这个文件头音频流的编码参数。WAV对音频流的编码没有硬性规定,除了PCM之外,还有几乎所有支持ACM规范的编码都可以为WAV的音频流进行编码。

WAV和PCM的关系

WAV可以使用多种音频编码来压缩其音频流,不过我们常见的都是音频流被PCM编码处理的WAV,但这不表示WAV只能使用PCM编码,MP3编码同样也可以运用在WAV中,和AVI一样,只要安装好了相应的Decode,就可以欣赏这些WAV了。在Windows平台下,基于PCM编码的WAV是被支持得最好的音频格式,所有音频软件都能完美支持,由于本身可以达到较高的音质的要求,因此,WAV也是音乐编辑创作的首选格式,适合保存音乐素材。因此,基于PCM编码的WAV被作为了一种中介的格式,常常使用在其他编码的相互转换之中,例如MP3转换成WMA。

简单来说:pcm是无损wav文件中音频数据的一种编码方式,但wav还可以用其它方式编码。

 

网上很多资料都是移除wav文件的头部44个字节后,获取的就是pcm。但这样不能用于全部情况,具体请看这里

http://www-mmsp.ece.mcgill.ca/Documents/AudioFormats/WAVE/WAVE.html。

 

UE中要播放动态生成的声音,可以使用USoundWaveProcedural 派生类生成波形资源,也可以使用USynthComponent

派生新的组件输出动态声音。 主要是 通过USoundWave的函数GeneratePCMData,在该函数中获取需要播放的声音数据。

 

UCLASS(hidecategories=Object, editinlinenew, BlueprintType)

class ENGINE_API USoundWave : public USoundBase

{

       /**

        * This is only used for DTYPE_Procedural audio. It's recommended to use USynthComponent base class

        * for procedurally generated sound vs overriding this function. If a new component is not feasible,

        * consider using USoundWaveProcedural base class vs USoundWave base class since as it implements

        * GeneratePCMData for you and you only need to return PCM data.

        */

        virtual int32 GeneratePCMData(uint8* PCMData, const int32 SamplesNeeded) { ensure(false); return 0; }

       /**

       * Return the format of the generated PCM data type. Used in audio mixer to allow generating float buffers and avoid unnecessary format conversions.

       * This feature is only supported in audio mixer. If your procedural sound wave needs to be used in both audio mixer and old audio engine,

       * it's best to generate int16 data as old audio engine only supports int16 formats. Or check at runtime if the audio mixer is enabled.

       * Audio mixer will convert from int16 to float internally.

       */

        virtual Audio::EAudioMixerStreamDataFormat::Type GetGeneratedPCMDataFormat() const { return Audio::EAudioMixerStreamDataFormat::Int16; }

}

需要模块的build.cs 中加入依赖库 "AudioMixer"

PublicDependencyModuleNames.AddRange(new string[] { "Core", "CoreUObject", "Engine", "InputCore", "AudioMixer"});

 

第一种:使用USynthComponent派生组件进行声音的输出:

 

class MOTIONMOCAP_API UMocapAudioComponent : public USynthComponent

{

       GENERATED_BODY()

       // Called when synth is created

       virtual bool Init(int32& SampleRate) override;

       // Called to generate more audio

       virtual int32 OnGenerateAudio(float* OutAudio, int32 NumSamples) override;

protected:

       UPROPERTY(BlueprintReadOnly, EditAnywhere, meta = (ClampMin = "8000 ", ClampMax = "192000"))

       int32 ResSampleRate = 44100;

       UPROPERTY(BlueprintReadOnly, EditAnywhere, meta = (ClampMin = "1", ClampMax = "2"))

       int32 ResNumChannels = 2;

};

 

// Fill out your copyright notice in the Description page of Project Settings.

#include "MocapAudioComponent.h"

#include "AudioReceiveThread.h"

bool UMocapAudioComponent::Init(int32& SampleRate)

{

       SampleRate = ResSampleRate;

       NumChannels = ResNumChannels;

       return true;

}

 

int32 UMocapAudioComponent::OnGenerateAudio(float* OutAudio, int32 NumSamples)

{

         for(int i=0; i < NumSamples/NumChannels; i++){

            for(int j = 0; j <NumChannels; j++ ){

                   //获取每个信道的采样数据,这里仅是简单展示数据关系

                OutAudio[i*NumChannels + j]= FMath::RandRange(-1.0f, 1.0f);

            }

         }

       return NumSamples;

}

 

 

bool UMocapAudioComponent::Init(int32& SampleRate)

{

       // Initialize the DSP objects

       SampleRate = ResSampleRate;

       NumChannels = ResNumChannels;

       return true;

}

 

在该组件中的Init函数中,我们需要设置SampleRateNumChannels。该设置决定了输出音频的采样率和音频的通道数量。

 

int32 UMocapAudioComponent::OnGenerateAudio(float* OutAudio, int32 NumSamples)

{

         for(int i=0; i < NumSamples/NumChannels; i++){

            for(int j = 0; j <NumChannels; j++ ){

                   //获取每个信道的采样数据

                OutAudio[i*NumChannels + j]= FMath::RandRange(-1.0f, 1.0f);

            }

         }

       return NumSamples;

}

 

在OnGenerateAudio中,我们根据NumSamples 获取指定数量的声音数据,该值是每个声道需要的采样数*声道数。  OutAudio是存放输出数据的地址。返回值返回的是实际获得的数据长度。声音的振幅为-1到1. 这里的 OnGenerateAudio 并不是主线程中调用的,我们在使用时需要注意。

第二种:使用USoundWaveProcedural派生类生成波形资源,然后使用AudioComponent输出:

 

#include "CoreMinimal.h"

#include "Sound/SoundWaveProcedural.h"

#include "DSP/Osc.h"

#include "NewSoundWaveProcedural.generated.h"

/**

 *

 */

UCLASS()

class DEMOPROJECT_API UNewSoundWaveProcedural : public USoundWaveProcedural

{

       GENERATED_BODY()

public:

       UNewSoundWaveProcedural(const FObjectInitializer& ObjectInitializer);

       virtual int32 OnGeneratePCMAudio(TArray<uint8>& OutAudio, int32 NumSamples) override;

       virtual Audio::EAudioMixerStreamDataFormat::Type GetGeneratedPCMDataFormat() const override;

protected:

       Audio::FOsc Osc;

};

 

UNewSoundWaveProcedural::UNewSoundWaveProcedural(const FObjectInitializer& ObjectInitializer)

       :Super(ObjectInitializer)

{

       NumChannels = 2;

       SampleRate = 44100;

         //下面的是简单的测试声音生成设置。

       Osc.Init(SampleRate);

       Osc.SetFrequency(440.0f);

       Osc.Start();

}

int32 UNewSoundWaveProcedural::OnGeneratePCMAudio(TArray<uint8>& OutAudio, int32 NumSamples)

{

       OutAudio.Reset();

       OutAudio.AddZeroed(NumSamples * sizeof(int16));

       int16* OutAudioBuffer = (int16*)OutAudio.GetData();

       for (int32 i = 0; i < NumSamples; ++i)

       {

              OutAudioBuffer[i] = (int16)(32767.0f * FMath::Clamp(Osc.Generate(), -1.0f, 1.0f));

       }

       return NumSamples;

}

Audio::EAudioMixerStreamDataFormat::Type UNewSoundWaveProcedural::GetGeneratedPCMDataFormat() const

{

       return Super::GetGeneratedPCMDataFormat();

}

 

需要指定波形文件的NumChannels和SampleRate。 然后OnGeneratePCMAudio 中获取输出的声音数据。NumSamples同样是每个声道需要的采样数*声道数。 OutAudio中,需要存储的数据是与GetGeneratedPCMDataFormat有关的。 默认是Audio::EAudioMixerStreamDataFormat::Int16。从上面的代码我们可以看到OutAudio最终获取的数据长度其实是NumSamples*sizeof(int16)。默认OnGeneratePCMAudio是在主线程中的。如果设置了bCanProcessAsync = true; 则OnGeneratePCMAudio 将运行于线程池。

这篇关于ue4 播放程序化生成的声音的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/984907

相关文章

详解Java中如何使用JFreeChart生成甘特图

《详解Java中如何使用JFreeChart生成甘特图》甘特图是一种流行的项目管理工具,用于显示项目的进度和任务分配,在Java开发中,JFreeChart是一个强大的开源图表库,能够生成各种类型的图... 目录引言一、JFreeChart简介二、准备工作三、创建甘特图1. 定义数据集2. 创建甘特图3.

流媒体平台/视频监控/安防视频汇聚EasyCVR播放暂停后视频画面黑屏是什么原因?

视频智能分析/视频监控/安防监控综合管理系统EasyCVR视频汇聚融合平台,是TSINGSEE青犀视频垂直深耕音视频流媒体技术、AI智能技术领域的杰出成果。该平台以其强大的视频处理、汇聚与融合能力,在构建全栈视频监控系统中展现出了独特的优势。视频监控管理系统EasyCVR平台内置了强大的视频解码、转码、压缩等技术,能够处理多种视频流格式,并以多种格式(RTMP、RTSP、HTTP-FLV、WebS

AI一键生成 PPT

AI一键生成 PPT 操作步骤 作为一名打工人,是不是经常需要制作各种PPT来分享我的生活和想法。但是,你们知道,有时候灵感来了,时间却不够用了!😩直到我发现了Kimi AI——一个能够自动生成PPT的神奇助手!🌟 什么是Kimi? 一款月之暗面科技有限公司开发的AI办公工具,帮助用户快速生成高质量的演示文稿。 无论你是职场人士、学生还是教师,Kimi都能够为你的办公文

pdfmake生成pdf的使用

实际项目中有时会有根据填写的表单数据或者其他格式的数据,将数据自动填充到pdf文件中根据固定模板生成pdf文件的需求 文章目录 利用pdfmake生成pdf文件1.下载安装pdfmake第三方包2.封装生成pdf文件的共用配置3.生成pdf文件的文件模板内容4.调用方法生成pdf 利用pdfmake生成pdf文件 1.下载安装pdfmake第三方包 npm i pdfma

Android平台播放RTSP流的几种方案探究(VLC VS ExoPlayer VS SmartPlayer)

技术背景 好多开发者需要遴选Android平台RTSP直播播放器的时候,不知道如何选的好,本文针对常用的方案,做个大概的说明: 1. 使用VLC for Android VLC Media Player(VLC多媒体播放器),最初命名为VideoLAN客户端,是VideoLAN品牌产品,是VideoLAN计划的多媒体播放器。它支持众多音频与视频解码器及文件格式,并支持DVD影音光盘,VCD影

poj 1258 Agri-Net(最小生成树模板代码)

感觉用这题来当模板更适合。 题意就是给你邻接矩阵求最小生成树啦。~ prim代码:效率很高。172k...0ms。 #include<stdio.h>#include<algorithm>using namespace std;const int MaxN = 101;const int INF = 0x3f3f3f3f;int g[MaxN][MaxN];int n

poj 1287 Networking(prim or kruscal最小生成树)

题意给你点与点间距离,求最小生成树。 注意点是,两点之间可能有不同的路,输入的时候选择最小的,和之前有道最短路WA的题目类似。 prim代码: #include<stdio.h>const int MaxN = 51;const int INF = 0x3f3f3f3f;int g[MaxN][MaxN];int P;int prim(){bool vis[MaxN];

poj 2349 Arctic Network uva 10369(prim or kruscal最小生成树)

题目很麻烦,因为不熟悉最小生成树的算法调试了好久。 感觉网上的题目解释都没说得很清楚,不适合新手。自己写一个。 题意:给你点的坐标,然后两点间可以有两种方式来通信:第一种是卫星通信,第二种是无线电通信。 卫星通信:任何两个有卫星频道的点间都可以直接建立连接,与点间的距离无关; 无线电通信:两个点之间的距离不能超过D,无线电收发器的功率越大,D越大,越昂贵。 计算无线电收发器D

hdu 1102 uva 10397(最小生成树prim)

hdu 1102: 题意: 给一个邻接矩阵,给一些村庄间已经修的路,问最小生成树。 解析: 把已经修的路的权值改为0,套个prim()。 注意prim 最外层循坏为n-1。 代码: #include <iostream>#include <cstdio>#include <cstdlib>#include <algorithm>#include <cstri

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言