本文主要是介绍java调用科大讯飞离线语音合成SDK --内附完整项目,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
科大讯飞语音开放平台基础环境搭建
1.用户注册
注册科大讯飞开放平台账号
2.注册好后先创建一个自己的应用
创建完成后进入应用选择离线语音合成(普通版)可以看到我们开发需要的SDK,选择windows MSC点击下载。
3.选择你刚刚创建的应用,选择windows系统,选择离线语言合成(普通版)点击SDK下载。
导入pom依赖
<!-- 科大讯飞依赖--><dependency><groupId>ws.schild</groupId><artifactId>jave-all-deps</artifactId><version>3.3.1</version></dependency><!-- jna依赖--><!-- https://mvnrepository.com/artifact/net.java.dev.jna/jna --><dependency><groupId>net.java.dev.jna</groupId><artifactId>jna</artifactId><version>5.5.0</version></dependency>
语言合成实现代码
我们主要使用到是XunFeiSpeech这个类。
1.替换几个参数,换成你下载的SDK的存储路径。
换成你的appid
生成音频需要设置音频的header
/*** 合成音频的header*/
public class WaveHeader {/*** @param totalAudioLen 音频数据总大小* @param sampleRate 采样率* @param byteRate 位元(组)率(每秒的数据量 单位 字节/秒) 采样率(44100之类的) * 通道数(1,或者2)*每次采样得到的样本位数(16或者8) / 8;* @param nChannels 声道数量* @param weikuan 位宽*/public static byte[] getWavHeader(int totalAudioLen, int sampleRate, int byteRate, int nChannels, int weikuan) {long totalDataLen = totalAudioLen + 36;byte[] header = new byte[44];header[0] = 'R'; // RIFF/WAVE headerheader[1] = 'I';header[2] = 'F';header[3] = 'F';header[4] = (byte) (totalDataLen & 0xff);header[5] = (byte) ((totalDataLen >> 8) & 0xff);header[6] = (byte) ((totalDataLen >> 16) & 0xff);header[7] = (byte) ((totalDataLen >> 24) & 0xff);header[8] = 'W';header[9] = 'A';header[10] = 'V';header[11] = 'E';header[12] = 'f'; // 'fmt ' chunkheader[13] = 'm';header[14] = 't';header[15] = ' ';header[16] = 16; // 4 bytes: size of 'fmt ' chunkheader[17] = 0;header[18] = 0;header[19] = 0;header[20] = 1; // format = 1header[21] = 0;header[22] = (byte) (nChannels & 0xff);header[23] = (byte) ((nChannels >> 8) & 0xff);header[24] = (byte) (sampleRate & 0xff);//采样率header[25] = (byte) ((sampleRate >> 8) & 0xff);header[26] = (byte) ((sampleRate >> 16) & 0xff);header[27] = (byte) ((sampleRate >> 24) & 0xff);header[28] = (byte) (byteRate & 0xff);//取八位header[29] = (byte) ((byteRate >> 8) & 0xff);header[30] = (byte) ((byteRate >> 16) & 0xff);header[31] = (byte) ((byteRate >> 24) & 0xff);int b = weikuan * nChannels / 8;//每次采样的大小header[32] = (byte) (b & 0xff); // block alignheader[33] = (byte) ((b >> 8) & 0xff);header[34] = (byte) (weikuan & 0xff);//位宽header[35] = (byte) ((weikuan >> 8) & 0xff);header[36] = 'd';//dataheader[37] = 'a';header[38] = 't';header[39] = 'a';header[40] = (byte) (totalAudioLen & 0xff);header[41] = (byte) ((totalAudioLen >> 8) & 0xff);header[42] = (byte) ((totalAudioLen >> 16) & 0xff);header[43] = (byte) ((totalAudioLen >> 24) & 0xff);return header;}
}
附上格式转换工具类
因为合成的音频是wav的格式,如果需要mp3格式,需要在进行格式的转换。
转换工具类:
import ws.schild.jave.*;
import ws.schild.jave.encode.AudioAttributes;
import ws.schild.jave.encode.EncodingAttributes;
import java.io.File;/*** 音频工具类*/
public class AudioConversionUtils {/*** wav转mp3*/public static Boolean audioToMp3(String oldPath, String newFilePath) {AudioAttributes audio = new AudioAttributes();/** 它设置将用于音频流转码的编解码器的名称。您必须从当前Encoder实例的getAudioEncoders()方法返回的列表中选择一个值。否则,* 您可以传递AudioAttributes.DIRECT_STREAM_COPY特殊值,该值需要源文件中原始音频流的副本。*/audio.setCodec("libmp3lame");/** 它设置新重新编码的音频流的比特率值。如果未设置比特率值,编码器将选择默认值。该值应以每秒位数表示。例如,如果你想要128 kb /* s比特率,你应该调用setBitRate(new Integer(128000))。*/audio.setBitRate(128000);/* 它设置将在重新编码的音频流中使用的音频通道的数量(1 =单声道,2 =立体声)。如果未设置通道值,编码器将选择默认值。 */audio.setChannels(1);/** 它设置新重新编码的音频流的采样率。如果未设置采样率值,编码器将选择默认值。该值应以赫兹表示。例如,如果您想要类似CD的44100* Hz采样率,则应调用setSamplingRate(new Integer(44100))。*/audio.setSamplingRate(44100);/* 可以调用此方法来改变音频流的音量。值256表示没有音量变化。因此,小于256的值是音量减小,而大于256的值将增加音频流的音量。 */audio.setVolume(256);// Encoding attributes/编码属性EncodingAttributes attrs = new EncodingAttributes();/** 它设置将用于新编码文件的流容器的格式。给定参数表示格式名称。* 编码格式名称有效且仅在它出现在正在使用的Encoder实例的getSupportedEncodingFormats()方法返回的列表中时才受支持。*/attrs.setOutputFormat("mp3");/* 它设置音频编码属性。如果从未调用过新的EncodingAttributes实例,或者给定参数为null,则编码文件中不会包含任何音频流 */attrs.setAudioAttributes(audio);/** 它为转码操作设置偏移量。源文件将从其开始的偏移秒开始重新编码。例如,如果您想剪切源文件的前五秒,* 则应在传递给编码器的EncodingAttributes对象上调用setOffset(5)。*/// attrs.setOffset(5F);/** 它设置转码操作的持续时间。只有源的持续时间秒才会在目标文件中重新编码。例如,如果您想从源中提取和转码30秒的一部分,* 则应在传递给编码器的EncodingAttributes对象上调用setDuration(30)*/// attrs.setDuration(30F);// Encode/编码Encoder encoder = new Encoder();try {encoder.encode(new MultimediaObject(new File(oldPath)), new File(newFilePath), attrs);return true;} catch (EncoderException e) {e.printStackTrace();}return false;}public static void main(String[] args) {Boolean result = audioToMp3("D:\\ceshiyinyue\\2024-05-31-11-40-16.wav", "D:\\ceshiyinyue\\2024-05-31-11-40-16.mp3");if (result){System.out.println("wav转mp3成功!");}}}
测试类的代码如下:
public static void main(String[] args) {String text = "标题:赤子之心,爱国之魂。在这片古老而又年轻的土地上,每一缕风都承载着历史的厚重,每一片叶都记录着时代的变迁。中国,这个拥有五千年灿烂文明的国家,正以前所未有的速度和活力,向着未来阔步前行。作为这个时代的见证者和参与者,我们每个人的心中都怀揣着对祖国的深厚感情——那是一份赤子之心,一颗爱国之魂。";String filename = XunFeiSpeech.wordSpeech(text, "D:/ceshiyinyue/");//调用科大讯飞离线SDK后生成的语言文件名称System.out.println("生成的文件名称:" + filename);}
接口测试类代码如下:
/*** 语言合成接口*/
@RestController
@RequestMapping("/test")
public class speechController {/**** @param text 需要合成语言的文本* @param path 合成语言的存储路径* @return 返回合成的音频文件名称*/@RequestMapping("/start")public String audioConversion(@RequestParam("text") String text,@RequestParam("path") String path){String fileName = XunFeiSpeech.wordSpeech(text, path);return fileName;}
}
完整代码已经上传到CSDN,0积分下载,有需要的朋友自行下载。
Java调用科大讯飞离线语音合成SDK --完整代码
感谢大家的阅读,觉得有所帮助的朋友点点关注点点赞!
这篇关于java调用科大讯飞离线语音合成SDK --内附完整项目的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!