«上一篇
文章快速检索     高级检索
下一篇»
  智能系统学报  2018, Vol. 13 Issue (4): 610-618  DOI: 10.11992/tis.201703008
0

引用本文  

黄鸿铿, 李应. 用Bark频谱投影识别低信噪比动物声音[J]. 智能系统学报, 2018, 13(4): 610-618. DOI: 10.11992/tis.201703008.
HUANG Hongkeng, LI Ying. Identifying low-SNR animal sounds based on Bark spectral projection[J]. CAAI Transactions on Intelligent Systems, 2018, 13(4): 610-618. DOI: 10.11992/tis.201703008.

基金项目

国家自然科学基金项目(61075022);福建省自然科学基金项目(2018J01793).

通信作者

李应. E-mail:fj_liying@fzu.edu.cn

作者简介

黄鸿铿,男,1993年生,硕士研究生,主要研究方向为声音事件检测、信息安全;
李应,男,1964年生,教授,博士,主要研究方向为多媒体数据检索、声音事件检测、信息安全。获授权发明专利10项。发表学术论文20余篇

文章历史

收稿日期:2017-03-08
网络出版日期:2017-07-04
用Bark频谱投影识别低信噪比动物声音
黄鸿铿, 李应    
福州大学 数学与计算机科学学院,福建 福州 350116
摘要:复杂环境声影响低信噪比动物声音的自动识别。为解决这一问题,本文提出一种不同声场景下低信噪比动物声音识别的方法。该方法把声音信号进行Bark尺度的小波包分解,再使用分解系数生成重构信号的频谱,并对频谱进行投影生成Bark频谱投影特征,通过随机森林分类器实现低信噪比动物声音的识别。该文分别在流水声环境、公路环境、风声环境和嘈杂说话声环境下,以不同的信噪比,对40种动物声音进行识别实验。结果表明,结合短时谱估计法、Bark频谱投影特征和随机森林的方法对不同信噪比的各种环境声音中动物声音的平均识别率可以达到80.5%,且在–10 dB的情况下依然保持平均60%以上的识别率。
关键词声音信号    自动识别    小波包变换    随机森林    环境声音    
Identifying low-SNR animal sounds based on Bark spectral projection
HUANG Hongkeng, LI Ying    
College of Mathematics and Computer Science, Fuzhou University, Fuzhou 350116, China
Abstract: In this paper, we consider the influence of complex background environments on the automatic recognition of animal sounds with low signal-to-noise ratios (SNRs). We propose a method for identifying low-SNR animal sounds in various background environments. In this method, the sound signal is decomposed by a Bark scale wavelet packet, and the decomposition coefficient is used to generate a spectrogram of the reconstructed signal, which is projected onto a spectrogram to generate a Bark spectral projection (BSP) feature. Random forests (RF) are then used to identify animal sounds with low SNRs. We classified 40 common animal sounds with different SNRs in noise environments such as flowing water, highway, wind, and loud speech. The experimental results show that by combining the proposed methods of short-time spectrum estimation, BSP, and RF in various background environments with different SNRs, the mean identification rate for animal noises can reach 80.5%. In addition, a recognition rate above 60% can be maintained even at –10 dB.
Key words: sound signal    automatic recognition    wavelet packet transform    random forests    environment sound    

动物声音自动识别,对于动物物种、种群及数量研究,生态环境分析具有重要意义。目前,对动物声音识别方法的研究有基于时间序列特征的动物声音识别[1],通过各个音节延续的隐马尔可夫模型的鸟类识别[2],通过声音模式对鸟类分类[3]。此外,还有借助于经典的基于文本数据库查询方法,采用基于索引的动物声音检索[4]以及在连续和真实的现场录音中,识别特定的鸟类声音[5]。我们也在近年的工作[6-7]中,通过自适应能量检测进行鸟类声音检测;对声谱图提取灰度共生矩阵特征,并结合随机森林(random forests, RF)[8]识别鸟类声音。然而,对于自然环境下的各种低信噪比动物声音的识别,还缺乏有效的方法。

关于低信噪比声音信号的分析、分类和识别,近期的研究包括小波包过滤的低信噪比声音事件识别[9];利用匹配追踪(matching pursuit,MP)算法从Gabor字典中选择重要的原子,用主成分分析和线性判别分析确定声音事件的特征,最后采用支持向量机(supported vector machine, SVM)分类器进行分类识别[10]。以声谱图及其相关的特征为基础,Dennis等[11]提出基于声谱图进行伪着色并提取相关图像特征的声音事件识别方法。尤其,Dennis等[12]提出的子带功率分布(subband power distribution, SPD)特征,在谱图中将可靠的声音事件与噪声分开并去除不可靠区域,最后用最近邻居分类器(k-nearest neighbor, kNN)对特征进行识别。这种方法能在信噪比低至0时,可以识别相关的声音事件。然而,由于环境声的多变性,对于自然环境中0以下各种低信噪比动物声音及声音事件,目前却没有更为有效的识别方法。

针对低信噪比动物声音及声音事件的识别,以声谱图投影特征结合RF的动物声音识别方法[13]为基础,该文提出一种Bark尺度的小波包分解系数重构的频谱投影(Bark scale Wavelet packet decomposition coefficient reconstructed spectral projection, BSP)特征。并通过结合短时谱估计、BSP特征和RF的方法识别各种声音场景下的动物声音。

1 基于BSP的动物声音识别方法 1.1 动物声音识别架构

基于BSP特征结合随机森林(RF)的动物声音识别的整体架构,如图1所示。具体流程包括:首先,对动物声音进行声音增强;然后将增强后声音信号进行Bark尺度的小波包分解并重构分解系数,把这些重构通过短时傅里叶变换生成重构信号频谱;并对频谱进行主成分分析,提取投影特征,即各个Bark频率群的BSP;最后使用RF识别各个Bark频率群的BSP。

Download:
图 1 动物声音识别的流程 Fig. 1 The process of animal sound recognition
1.2 Bark尺度小波包分解

Bark是一种模拟人耳听觉感知特性的非线性频率尺度。小波包分析对信号的低频和高频部分同时进行分解,具有更强的频带划分能力[14]。Bark尺度小波包分解是基于人耳Bark域频率感知特性的小波包分解结构。

人耳的Bark域在20 Hz~16 kHz的频率范围内分为24个Bark频率群[15]。Bark域频率z和赫兹(Herz)域频率f的转换关系为

$z = \left\{ \begin{array}{l}0.01f,\quad 0 < f < 500\\0.007f + 1.5,\quad 500 \leqslant f < 1 \,\, 220\\6\ln f - 32.6,\quad f \geqslant 1 \,\, 220\end{array} \right.$ (1)

式中:Bark频率群的带宽在500 Hz以下时增加速度恒定,约100 Hz增加一个带宽;在500~1 220 Hz带宽呈线性增加;1 220 Hz以上,带宽呈对数增加。根据小波包分析的特性,可以用小波包分析来逼近人耳的Bark谱。对于8 kHz采样、频率在4 kHz以下的大部分的动物声音事件,用常规方法模拟1~17号Bark,可以得到图2,每个子带的中心频率相差约为1 Bark的小波包分解结构。对动物声音识别的第一步,将按这个分解结构,对声音信号进行小波包分解。并把这个小波包分解的17组系数用于下一步的投影特征提取。

Download:
图 2 声音信号的Bark尺度小波包分解结构 Fig. 2 Wavelet packet decomposition of sound signal based on Bark scale
1.3 BSP特征

声音信号经过小波包分解后,再对其相应的小波包分解系数重构的频谱进行主成分分析,得到BSP特征。对分解系数重构的频谱投影,即提取BSP特征的过程如下。

1)计算规范化的频谱矩阵X。对小波包分解系数进行重构,并把重构的信号进行短时傅里叶变换,得到重构信号的频谱 $S(t,f)$ 。其中, $t$ 代表帧索引, $t = 0,1, \cdots ,M - 1$ $f$ 代表频率索引, $f = 0,1, \cdots ,$ $N - 1$ 。将 $S$ $t$ ${\bar {{S}}_t} = {[S(t,0)\,\, S(t,1)\,\, \cdots \,\,S(t,N - 1)]^{\rm{T}}}$ ,转化为规范化的帧:

${{{S}}_t} = \frac{{{{\bar {{S}}}_t}}}{{||{{S}}||}}$ (2)
${{X}} = {[{{{S}}_1}\,\, \cdots \,\,{{{S}}_t}\,\, \cdots \,\,{{{S}}_M}]^{\rm{T}}},{{X}} \in {R^{M \times N}}$ (3)

2)对频谱矩阵X进行特征值分解。 ${{C}} = {{{X}}^{\rm{T}}}{{X}}$ ${{C}} = {{U}}\Lambda {{{U}}^{\rm{T}}}$ ,即

$\begin{array}{c}{{C}} = \left[ {{{{u}}_1} , {{{u}}_2} , \cdots , {{{u}}_N}} \right]\left[ {\begin{array}{*{20}{c}}{{\lambda _1}} & \cdots & 0\\ \vdots & & \vdots \\0 & \cdots & {{\lambda _N}}\end{array}} \right]\left[ \begin{array}{c}{{u}}_1'\\ \vdots \\{{u}}_N'\end{array} \right] = \\\;\;\;\;{\lambda _1}{{{u}}_1}{{u}}_1'{\rm{ + }}{\lambda _2}{{{u}}_2}{{u}}_2'{\rm{ + }} \cdots {\rm{ + }}{\lambda _N}{{{u}}_N}{{u}}_N'\end{array}$ (4)

式中特征值从大到小递减 ${\lambda _1} \geqslant {\lambda _2} \geqslant \cdots \geqslant {\lambda _N}$

3)前K个特征值的确定。特征值 ${\lambda _i}$ $i = 1,$ $2, \cdots ,N$ ,代表了特征向量所携带的信息量,特征值越大说明对应的特征向量所携带的信息量越大。取前K个特征值对应的特征向量可以近似地构造出C,即

${{C}} \approx {\lambda _1}{{{u}}_1}{{u}}_1' + {\lambda _2}{{{u}}_2}{{u}}_2' + \cdots + {\lambda _K}{{{u}}_K}{{u}}_K',K \ll N$ (5)

式中K值可以通过式(6)确定:

${\eta _K} = \sum\limits_{i = 1}^K {{\lambda _i}/\sum\limits_{j = 1}^N {{\lambda _j}} } $ (6)

计算前K个特征值之和占全部特征值之和的比重来衡量。

4)计算频谱投影。选取矩阵 ${{U}}$ 中前K个成分,组成特征向量 ${{{U}}_K} = ({{{\mu }}_1},{{{\mu }}_2}, \cdots ,{{{\mu }}_K})$ ${{{U}}_K} \in {R^{N \times K}}$ 。计算频谱投影,即投影矩阵

${{{X}}_K} = {{X}}{{{U}}_K}$ (7)

${{{X}}_K}$ 即为当前小波包分解系数重构的频谱投影特征。

我们对样本声音进行如图2所示的Bark尺度的小波包分解,并得到为17个分解系数重构的频谱投影,即BSP特征,将作为RF训练与识别的特征。

1.4 随机森林(RF)识别

RF是一种利用多棵决策树分类器来对数据进行判别的集成分类器算法[8],其输出结果是由决策树输出的类标签的数量而定。这里,将各个小波包结点分解生成的BSP特征结合RF分类器,对动物声音样本进行训练和识别。其过程如图3所示,通过自助重采样技术,从训练样本第 $i(i \!=\! 1,2, \cdots ,17)$ 个结点的BSP特征集 ${{{W}}_i} \!=\! \left\{ {{{X}}_k^1,{{X}}_k^2, \cdots ,} \right.$ ${{X}}_k^Q$ }中自助重采样,生成新的 $s$ 个训练样本集。然后这 $s$ 个训练样本集,按照决策树的构建方法生长成 $s$ 颗决策树,并组合在一起形成第 $i$ 个森林。由这 $s$ 棵决策树构造出第 $i$ 个RF与第 $i$ 个结点的BSP特征集相对应。每个BSP特征集都要生成一个RF,因此一共生成17个RF。

RF对测试样本的识别过程如下。首先,把测试样本各个Bark频率群生成的BSP特征 ${{{X}}_k}$ 分别放在相应RF的 $s$ 棵决策树的根节点。根据决策树判别规则向下传递直到决策树的叶子节点。叶子节点对应的类标签就是这棵决策树对特征 ${{{X}}_k}$ 所属类别所做的投票。根据17个子频带生成的RF中每棵决策树的投票结果,统计17个RF中所有投票总和,其中获得投票数最多的类标签就是测试样本对应类标签 $l$

Download:
图 3 随机森林(RF)训练与识别过程 Fig. 3 The train and recognition process of random forests
2 声音样本与参数设置 2.1 声音样本集

表1所示,实验使用的40种纯净动物叫声来自Freesound[16]声音数据库,分成鸟类和哺乳类;4种环境声音,为录音棒录制的环境背景声音。每种声音有30个样本,实验中随机选取20个样本作为训练样本,其余10个样本作为测试样本。对声音文件统一处理,将其都转换成:采样率为8 kHz,量化精度为16 bits,单声道,且长度为2 s左右wav格式的声音片段。实验对所有的声音样本归一化处理并采用Hamming窗进行分帧。

表 1 声音样本集 Tab.1 Sound sample set
2.2 实验参数设置

1) 帧

在短时傅里叶变换过程中,每帧帧长为32 ms,帧移为帧长一半。

2) 特征

小波包分解采用db2基函数,频谱投影参数K通过实验确定。在对比实验中,声谱图投影特征[17-18]的投影参数K取5;梅尔频率倒谱系数(mel frequency cepstrum coefficient, MFCC),采用24阶三角滤波器组,提取12维离散余弦变换系数;幂归一化倒谱系数(power normalized cepstrum coefficients, PNCC),采用32阶的Gammatone滤波器,提取12维离散余弦变换系数。

3) 随机森林(RF)分类器

其主要参数有两个,一个是决策树中非叶节点分裂时预选特征成分的数量 $m$ ,另一个是RF中决策树的个数 $k$ 。综合考虑该文实验样本数量和实验结果,设定 $k = 500,m = 5$ 。利用RF进行3次识别,然后取均值作为最终结果。

3 实验及结果 3.1 BSP中K的选取

通过纯净声音的BSP结合随机森林(RF)训练和测试,确定BSP参数K。在实验中,我们在没有背景声音的条件下确定BSP特征中K的选取,K代表投影矩阵 ${{{X}}_K}$ 中选取的前K个特征向量。如图4所示,当 $K \leqslant 5$ 时,随着K的增加,测试样本的识别率迅速增加,当 $K \geqslant 5$ 时,随着K的增加,测试样本的识别率并无明显提升。出于计算代价和性能表现的权衡,在下面实验中,K取5。

Download:
图 4 参数K与识别率 Fig. 4 Parameter K and its recognition rate
3.2 声音信号增强

使用维纳滤波[19]、多频带谱减法[20]和短时谱估计法[21]对声音进行增强处理,然后提取BSP特征,分别进行RF的识别率测试,并选出最有效的声音增强算法。

为了减少同一声音事件在不同信噪比及不同噪声环境下,因增强处理带来信号失真的差异,实验中我们对纯净的训练声音样本也都分别进行维纳滤波、多频带谱减法和短时谱估计法的增强处理。对测试样本,在分别添加信噪比为–10 dB、–5 dB、0 dB、5 dB和10 dB的4种环境声后,再进行相应3种增强方法处理。在随后的实验中也采取这种方法。

实验结果如图5所示。结果表明,在信噪比为10 dB时,BSP结合RF具有80%以上的平均识别率。但在不同环境不同信噪比下,不做声音增强处理的识别率,整体上低于3种声音增强处理的识别率。说明3种声音增强算法一定程度上都能消除背景声音的影响。尤其,在低于0 dB的情况下,特别是低于–5 dB,3种声音增强算法消除噪声的作用最为明显。从图5 可以看出,嘈杂说话声环境和流水声环境在–5 dB以上信噪比时、风声环境在5 dB及以上信噪比时,维纳滤波的识别率逐渐低于不增强处理时的识别率。多频带谱减法和短时谱估计法,对4种环境各种信噪比下,则都保持较高的识别率。在不同环境声不同信噪比的条件下,短时谱估计法有最佳的识别性能,因此在之后的实验中采用短时谱估计增强方法对声音信号进行加强。

Download:
图 5 4种不同噪声环境下不同增强处理方法的识别效果 Fig. 5 Results of different enhancement process in four kinds of noisy environments
3.3 BSP与常用特征比较

把BSP特征与SPD[12]、声谱图投影[17-18]、PNCC和MFCC等4种常用特征进行RF的训练与识别实验比较。

首先,无噪声条件下的实验,结果如表2所示。BSP、SPD、声谱图投影、PNCC和MFCC等5种特征对动物声音的识别率都达到90%以上,其中,目前对声音事件识别最有效的SPD,识别效果略好于该文的BSP。

表 2 无噪声条件下不同方法的比较 Tab.2 Comparing different method in non-noise condition                 %
表 3 在不同噪声环境下的平均识别率 Tab.3 Average accuracy in different noisy environments %
Download:
图 6 4种噪声环境下不同信噪比的识别率 Fig. 6 Recognition rate of four kinds of features in four kinds of noisy environments

其次,在不同噪声环境不同信噪比条件下的5种特征的平均识别率实验结果如表3所示。利用流水声、风声、公路声和嘈杂说话声,模拟真实复杂环境噪声。取信噪比–10 dB、–5 dB、0 dB、5 dB、10 dB和15 dB,分别与4种噪声环境进行混合,用于RF训练并测试5种不同特征提取的平均识别率。不同噪声环境下的平均识别率如表3所示。从表3中可以看到,在不同环境不同信噪比条件下,BSP的平均识别率达到80.5%,比SPD、声谱图投影、PNCC和MFCC等4种特征分别高出11.4%、9.6%、17.1%和50.5%。

由于MFCC在低信噪比的识别率明显低于其他4种特征,随后,我们只比较其他4种特征的识别效果。图6表示BSP、SPD、声谱图投影和PNCC等4种特征,在4种噪声环境下,信噪比为–10 dB、–5 dB、0 dB和5 dB时的识别率。从图中可以看出,在信噪比小于0 dB时,BSP特征的识别率明显高于其他3种特征。

3.4 与现有方法及分类器的比较

把该文提出BSP-RF与MP-SVM[10]、PC-SVM[11]和SPD-KNN[12]等声音事件检测识别的3种方法进行比较,结果如表4所示。从表4中可以看出,本文方法BSP-RF在低信噪比情况下的识别率,与文献[10-12]中的方法相比有较大提高。BSP-RF在–10 dB的情况下,依然能够保持平均60%以上的识别率,效果尤为明显。其次,我们进行BSP结合SVM,BSP结合KNN的实验。结果表明,对于BSP特征而言,采用RF对各种环境下不同信噪比动物声音的识别效果优于SVM与KNN。

表 4 6种方法的平均识别率 Tab.4 Average recognition rate of six kinds of methods %
4 讨论 4.1 RF、SVM与KNN对BSP识别性能的分析

表4可以看出,RF的平均识别率高于KNN和SVM。特别是在–10 dB的情况下,分别比KNN和SVM高出20.9%、10.3%,说明RF比KNN、SVM更适用于BSP特征的分类识别。由于BSP特征把声音信号分解成17个频带,每个频带只包含部分的声音信息,用这些不完整的信息进行KNN分类会造成识别率的下降。KNN是基于距离的分类方法,某个特征维度之间的差异值过大可能很大程度上影响其他特征维度,同时KNN不能给出决策树那样的分类规则,所以BSP特征在KNN的分类效果低于RF。SVM适用于高维度、分类数目少、小样本的分类识别,BSP的特征维度相对较小且实验中包含40类动物声音,所以文中方法不适合采用SVM进行分类。RF是基于决策树的分类规则挖掘不同特征维度之间的关系,同时结合不同频带之间投票结果,可以提高BSP特征的分类精度,所以RF比KNN以及SVM更适用于BSP特征的分类。

4.2 环境声音对动物声音的影响

为了分析环境声音对动物声音在各个Bark频率群的影响,我们给出纯净的翠鸟声音和加入信噪比为–10 dB背景声音后各个Bark频率群的能量分布。从图7中可以看出各个Bark频率群的能量的变化以及背景声音对翠鸟声音在各个Bark频率群的影响。

图7(a)(b)是翠鸟声音经过声音增强前后的各个Bark频率群的能量分布。从图中可以看出背景声音对Bark频率群1~4,即低频部分的影响比较大,对于高频部分的影响相对比较小。经过短时谱估计法声音增强后,可以消除大部分背景声音的影响,但影响依然存在。该文结合经过Bark尺度小波包结构,把声音信号分解成17个投影特征。这样,可以有效地平衡背景声音对部分Bark频率群的影响,有利于识别率的提高。

Download:
图 7 翠鸟的各个Bark频率群的能量分布 Fig. 7 The energy distribution of kingfisher in each Bark-frequency group
4.3 动物及环境声音与重构频谱投影

1) Bark尺度的小波包分解的本质

Bark尺度的小波包分解的本质,就是把声音信号按人类听觉敏感程度,对声音信号进行频带划分,再进行不同尺度的小波分析。动物声音,即便在各种环境中,受到不同信噪比的环境声音的干扰,只要人类听觉能感知到,就意味着它存在不同于环境声音的Bark频率群。而本文提出的Bark尺度的小波包分解系数重构频谱投影,就是分离出这些相关频率群频谱的关键成分。这些Bark频率群的频谱,必然为每一种动物声音的特色或独有。用这些频谱的投影,进行随机森林(RF)的投票,必定是高分。而与那些与背影声音同频率群的成分,虽然在投票中难获高分,但多个频率群共同投票后,仍然能保持较高的得分优势。

2) 错误检测的分析

表5给出加入–5 dB风声后,16类容易出现错误检测的情况(另外24类基本上能够正确识别,限于空间,表5中未列出)。从表5可以看出,在–5 dB风声下,第10类的测试样本全部被错误检测,其中有9个测试样本错分到第19类中;第24、28、38、39这4类测试样本也都全部被错误检测成第19类。同时,发现大部分被错误检测的样本,都被检测成第19类。

表 5 加入–5 dB风声噪声测试样本错分情况 Tab.5 Wrong test samples’ condition in –5 dB wind noise

观察图8(a) 10类(鹈鹕)、(b) 19类(黄喉地莺)和(c) 38类(绵羊)声音分别在–5dB风声下的声谱图,可以发现它们的相似之处。其中,低频部分,即0~800 Hz部分相似度较高;3张声谱图在0.5 s之后,高低频部分都很相近。也就是说,这3张频谱图,高低频部分有80%左右是相近的。这就可能造成大部分Bark频率群频谱投影的相近或相等,从而造成了测试样本的错误检测。

从实验结果进一步观察到,在加入风声噪声的情况下,大部分错分的样本被错分到第19类;在加入嘈杂说话声时则大部分的样本被错分到第2类;在加入公路噪声时则大部分的样本被错分到第39类。这说明测试样本错分的原因和加入噪声的类型有关。

Download:
图 8 3种不同动物在-5 dB风声下的频谱 Fig. 8 Spectrums of three kinds of animal in -5 dB wind noise

但是,它们作为不同的动物的声音,自然环境下,能被人类听觉感知到,必然有区别于环境声音的成分存在,即有不同于背景声音的Bark频率群存在。因此,根据该文方法的原理,这种差别可以通过小波包分解结构及随机森林投票策略的适当调整来识别。进而,本文提出的方法可以在各种背景声音中,识别各种不同信噪比的动物声音。

3) 更深层次的识别

对于非平稳的环境及动物声音,如在特定的背景声音环境下,各种动物声音混在一起,时强时弱等情况,有可能影响RF投票结果。对于这种情况,我们可以考虑帧一级的RF投票。如,声音信号按32 ms分帧,只要动物声音不是在32 ms内同时发生,我们依然可以通过RF投票确定每一帧可能的动物声音,并进一步来判断出可能的多种的动物声。这种情况下,这种方法甚至可以识别出人类很难识别的非平稳及混合的各种动物声音。

5 结论

实验表明,在–10 dB以上信噪比环境下,在未对声音信号进行增强处理的情况下,该文提出的方法对于动物声音识别有较好的效果。而短时谱估计声音增强结合BSP特征与随机森林的方法,不论是低信噪比还是高信噪比声音环境,对各种环境中的动物声音检测都有较好的效果。

提出的方法能胜任于自然环境下各种低信噪比动物声音识别的原因如下:1) 采用短时谱估计声音增强算法,一定程度上抑制了环境声音的影响。2) Bark尺度的小波包分解是基于人耳基底膜的工作原理,环境声音对于不同Bark频率群的影响是不一样的,因此结合各个Bark频率群的特征信息作为决策依据,一定程度上能够提高识别率。3) 采用多随机森林决策的方法有效地消除了环境声音对部分Bark频率群特征的影响。

在后续的工作中,将结合深度学习相关方法,围绕如何在多个声音重叠的情况下实现各个声音事件的检测与识别做进一步的研究。

参考文献
[1] MITROVIC D, ZEPPELZAUER M, BREITENEDER C. Discrimination and retrieval of animal sounds[C]//Proceedings of the 12th International Multi-Media Modelling Conference Proceedings. Beijing, China: IEEE, 2006: 339–343 (0)
[2] JANČOVIC P, KÖKÜER M, ZAKERI M, et al. Bird species recognition using HMM-based unsupervised modelling of individual syllables with incorporated duration modelling[C]//Proceedings of 2016 IEEE International Conference on Acoustics, Speech and Signal Processing. Shanghai, China: IEEE, 2016: 559–563. (0)
[3] RAGHURAM M A, CHAVAN N R, BELUR R, et al. Bird classification based on their sound patterns[J]. International journal of speech technology, 2016, 19(4): 791-804. (0)
[4] BARDELI R. Similarity search in animal sound databases[J]. IEEE transactions on multimedia, 2009, 11(1): 68-76. DOI:10.1109/TMM.2008.2008920 (0)
[5] POTAMITIS I, NTALAMPIRAS S, JAHN O, et al. Automatic bird sound detection in long real-field recordings: applications and tools[J]. Applied acoustics, 2014, 80: 1-9. DOI:10.1016/j.apacoust.2014.01.001 (0)
[6] ZHANG Xiaoxia, LI Ying. Adaptive energy detection for bird sound detection in complex environments[J]. Neurocomputing, 2015, 155: 108-116. DOI:10.1016/j.neucom.2014.12.042 (0)
[7] 魏静明, 李应. 利用抗噪纹理特征的快速鸟鸣声识别[J]. 电子学报, 2015, 43(1): 185-190.
WEI Jingming, LI Ying. Rapid bird sound recognition using anti-noise texture features[J]. Acta electronica sinica, 2015, 43(1): 185-190. (0)
[8] BREIMAN L. Random forests[J]. Machine learning, 2001, 45(1): 5-32. DOI:10.1023/A:1010933404324 (0)
[9] FENG Zuren, ZHOU Qing, ZHANG Jun, et al. A target guided subband filter for acoustic event detection in noisy environments using wavelet packets[J]. IEEE/ACM transactions on audio, speech, and language processing, 2015, 23(2): 361-372. DOI:10.1109/TASLP.2014.2381871 (0)
[10] WANG Jiacheng, LIN Changhong, CHEN Bowei, et al. Gabor-based nonuniform scale-frequency map for environmental sound classification in home automation[J]. IEEE transactions on automation science and engineering, 2014, 11(2): 607-613. DOI:10.1109/TASE.2013.2285131 (0)
[11] DENNIS J, TRAN H D, LI Haizhou. Spectrogram image feature for sound event classification in mismatched conditions[J]. IEEE signal processing letters, 2011, 18(2): 130-133. DOI:10.1109/LSP.2010.2100380 (0)
[12] DENNIS J, TRAN H D, CHNG E S. Image feature representation of the subband power distribution for robust sound event classification[J]. IEEE transactions on audio, speech, and language processing, 2013, 21(2): 367-377. DOI:10.1109/TASL.2012.2226160 (0)
[13] LI Ying, WU Zhibin. Animal sound recognition based on double feature of spectrogram in real environment[C]//Proceedings of 2015 IEEE International Conference on Wireless Communications and Signal Processing. Nanjing, China: IEEE, 2015: 1–5. (0)
[14] LAINE A, FAN J. Texture classification by wavelet packet signatures[J]. IEEE Transactions on pattern analysis and machine intelligence, 1993, 15(11): 1186-1191. DOI:10.1109/34.244679 (0)
[15] KARMAKAR A, KUMAR A, PATNEY R K. Design of optimal wavelet packet trees based on auditory perception criterion[J]. IEEE signal processing letters, 2007, 14(4): 240-243. DOI:10.1109/LSP.2006.884129 (0)
[16] Universitat Pompeu Fabra. Repository of sound under the creative commons license, Freesound.org[DB/OL]. [2018-03-13]. http://www.freesound.org. (0)
[17] KIM H G, MOREAU N, SIKORA T. Audio classification based on mpeg-7 spectral basis representations[J]. IEEE transactions on circuits and systems for video technology, 2004, 14(5): 716-725. DOI:10.1109/TCSVT.2004.826766 (0)
[18] DENG Shiwen, HAN Jiqing, ZHANG Chaozhu, et al. Robust minimum statistics project coefficients feature for acoustic environment recognition[C]//Proceedings of 2014 IEEE International Conference on Acoustics, Speech and Signal Processing. Florence, Italy: IEEE, 2015: 8232–8236. (0)
[19] CHANG Kangming, LIU S H. Gaussian noise filtering from ECG by Wiener filter and ensemble empirical mode decomposition[J]. Journal of signal processing systems, 2011, 64(2): 249-264. DOI:10.1007/s11265-009-0447-z (0)
[20] PALIWAL K, WÓJCICKI K, SCHWERIN B. Single-channel speech enhancement using spectral subtraction in the short-time modulation domain[J]. Speech communication, 2010, 52(5): 450-475. DOI:10.1016/j.specom.2010.02.004 (0)
[21] 刘翔, 高勇. 一种引入延迟的语音增强算法[J]. 现代电子技术, 2011, 34(5): 85-88.
LIU Xiang, GAO Yong. Speech enhancement algorithm with leading-in delay[J]. Modern electronics technique, 2011, 34(5): 85-88. (0)