本文主要是介绍语音分离speech separation数据准备,开源,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
Speech separation 现在大热的一个方向,西雅图的腾讯一直在作者方面的研究,chime6上俞老师讲了一个多小时的他们的工作就能证明该方向有多火, 当前有很多深度学习的方法如deep-clustering, PIT, utterance-PIT, conv-tasnet, dual-rnn, 效果都不错,时频单元到时域单元。
但会发现很多论文或者网上有的开源的代码都需要WSJ0数据来做, 这个数据集是要钱的,很贵。 并且原有的数据准备脚本是骂matlab的,很难集成在一个项目里面去,有些人没有matlab更无法用。 所以我自己做了一个python的separation数据准备的脚本,并且开源出来给大家,给社区做做贡献。
此代码可以对所有数据集进行separation的数据准备工作, 比如很容易获取到的timit, aishell。 要求只有你的数据集中包括了train和test两个子目录即可, 你用了该数据准备库之后再去自己参考github上大多数的开源separation模型或者自己实现的separation模型都可以run的。当然你可以阅读我里面的代码进行修改,代码都很简单,除了有一个函数比较复杂你可能看不懂。
如果觉得好,请去github给个star,此博文点个赞。 谢谢各位
该数据准备代码的链接,我的github:
speech separation数据准备
这个代码过几天等我有空会有更新,之前的有点问题,并且太慢了,还有一些边界没设置好。
接下去的版本会对训练数据开放一个接口去选择是否新增噪声和混响,并且能直接嵌入模型训练的dataloader, 尽情期待。
顺便说说,目前单通道分离在真实条件下会有很大的问题,所以各位最好是混点噪声和混响去训练,特征工程以及mask也可以响应的换一些比较新的方法比如crn啥的,
训练数据相对应的label也需要依据混响来进行对齐或者混了同一个混响之后取直达声
这篇关于语音分离speech separation数据准备,开源的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!