郑州大学学报(理学版)  2022, Vol. 54 Issue (4): 42-48  DOI: 10.13705/j.issn.1671-6841.2021295

引用本文  

彭涛, 郑传锟, 张自力, 等. 基于时空特征融合的语音情感识别[J]. 郑州大学学报(理学版), 2022, 54(4): 42-48.
PENG Tao, ZHENG Chuankun, ZHANG Zili, et al. Speech Emotion Recognition Based on Spatio-temporal Feature Fusion[J]. Journal of Zhengzhou University(Natural Science Edition), 2022, 54(4): 42-48.

基金项目

湖北省教育厅青年项目(Q201316);湖北省教育厅科研计划重点项目(D20191708)

通信作者

张自力(1981—),男,讲师,主要从事计算机视觉、图像处理研究,E-mail: zlzhang@wtu.edu.cn

作者简介

彭涛(1981—),男,副教授,主要从事机器学习、人工智能研究,E-mail: pt@wtu.edu.cn

文章历史

收稿日期:2021-07-14
基于时空特征融合的语音情感识别
彭涛1,2,3, 郑传锟2,3, 张自力2,3, 刘军平2,3, 胡新荣2,3, 何儒汉1,3    
1. 纺织服装智能化湖北省工程研究中心 湖北 武汉 430200;
2. 湖北省服装信息化工程技术 研究中心 湖北 武汉 430200;
3. 武汉纺织大学 计算机与人工智能学院 湖北 武汉 430200
摘要:语音情感识别在人机交互中有重要的作用。在语音情感识别领域中,通常使用迁移学习解决语音情感数据难获取的问题,但忽略了语音数据的时序信息和空间信息。考虑到AlexNet网络中的参数来自图像数据集,不能完全表现语音数据的空间信息,并且不包含时序信息,因此提出通过膨胀卷积网络提取语音频谱图的空间信息,添加双向长短期记忆神经网络提取时序信息,并进行时空特征融合;针对语音中含有大量与情感无关的特征,通过将对数梅尔频谱图的三个通道作为输入,减少情感无关因素的影响,并添加注意力机制,选取情感权重大的时域信号。用公开数据集实验证明了方法的有效性,在WARUAR上都有提升。
关键词语音情感识别    膨胀卷积网络    长短期记忆神经网络    注意力机制    
Speech Emotion Recognition Based on Spatio-temporal Feature Fusion
PENG Tao1,2,3, ZHENG Chuankun2,3, ZHANG Zili2,3, LIU Junping2,3, HU Xinrong2,3, HE Ruhan1,3    
1. Hubei Provincial Engineering Research Center for Intelligent Textile and Fashion, Wuhan 430200, China;
2. Engineering Research Center of Hubei Province for Clothing Information, Wuhan 430200, China;
3. School of Computer Science and Artificial Intelligence, Wuhan Textile University, Wuhan 430200, China
Abstract: Speech emotion recognition plays an important role in human-computer interaction. In the field of SER, transfer learning was usually used to solve the problem of obtaining the speech emotion data, and the time sequence and spatial information of speech data were ignored. Considered that the parameters in the AlexNet network were from the image dataset, which could not describe the spatial information of the voice data and could not contain the timing information, so a schema was proposed to extract the spatial information of the voice spectrogram through the dilated convolutional network, and the bi-directional long short-term memory neural network was added to extract series information, at the same time, spatio-temporal feature fusion was used to express the speech emotion information. Considering that the speech might contain a large number of features that were irrelevant to emotions, the three channels of the Log-Mel spectrogram were used as input to reduce the influence of irrelevant factors, and an attention mechanism was added to select time-domain signals with significant emotional weight. The experiment on the public dataset proved the effectiveness of this method, and the WAR and UAR could be improved.
Key words: emotion recognition    dilated convolutional network    long and short-term memory neural network    attention mechanism    
0 引言

语音是人机交互的主要方式之一,语音系统要实现与人类的自然交流,就必须能有效地处理潜在的情感信息[1]。因此,在开发语音系统(语音识别、说话人识别、语种识别和语音合成)的同时,应利用语音情感知识,将语音情感识别嵌入到现有的语音系统中,使其更加自然、有效。语音情感识别是一项具有挑战性的任务,主要有以下三个原因:1) 人类情感是抽象的,这使得情感难以区分;2) 人类情感只能在说话过程的某些特定时刻被察觉;3) 带有情感标签的语音数据样本通常是有限的[2]

近年来,依赖于海量的训练数据与强大的大数据处理系统,使得深度学习在复杂的高维数据处理领域取得了突破性的进展。随着深度神经网络的引入,语音情感识别的性能有了显著提升。在语音情感识别领域中,代表性的深度学习方法有:卷积神经网络(convolutional neural network,CNN);循环神经网络(recurrent neural network, RNN)以及深度置信网络(deep belief network, DBN)等。越来越多的研究人员尝试将深度学习运用到语音情感识别中,以提高语音情感识别系统的性能。王杰等[3]将神经预测器引入隐马尔科夫模型计算状态观察概率,同时又利用状态累计概率输入径向基神经网络分类,避免特征向量时间规整的麻烦。Xu等[4]提出了使用多尺度区域注意来处理不同粒度的情感特征,并且通过实验证明其识别率高于传统的语音情感识别方法。Atmaja等[5]将低水平特征作为双向长短期记忆神经网络(bi-directional long-short term memory neural network, BLSTM)的输入,证明了BLSTM网络和注意力机制可以学习与情绪相关的帧级声学特征,同时证明了帧级特征作为输入优于段级特征。彭玉青等[6]针对深度学习模型在对小样本进行训练时会出现过拟合现象, 提出随机退出优化方法和随机下降连接优化方法,缓解过拟合现象。Li等[7]提出了一种基于一维卷积网络的语音情感识别模型,将Mels频谱图和Log-Mels频谱图作为互补特征输入模型,实验证明该方法在语音情感识别领域有效。Zhang等[8]提出深度卷积网络的方法,通过微调图像数据集训练的CNN网络获得特征后进行分类。沈克琳等[9]利用CNN模型计算篇章中所含英文单词的平均情感极性作为篇章情感、倾向的量化分值。Aldeneh等[10]证明了卷积神经网络可以直接应用于时域低级声学特征来识别情绪显著区域。

1 面向SER的3D-DACRNN模型

虽然深度神经网络在语音情感识别领域中取得了很大的成功,但是由于受人们说话方式、说话内容和所处环境的影响,直接特征不足以表达说话人的情感。因此,受到梅尔频率倒谱系数在语音情感识别(speech emotion recognition,SER)领域中使用一阶差分(delta)和二阶差分(delta-delta)积极效果的启发,通过计算频谱图的一阶差分和二阶差分反映情感的变化过程,保留有效的情感信息,同时减少了情感无关因素的影响,并且将原始话语生成的三维对数频谱图作为CNN输入,此输入类似于RGB图像,也适用于迁移学习。目前的研究大多是基于具有公信力的数据集[11],训练样本和测试样本来自同一个语料库,与实际应用场景不符,并且海量语音数据的情感标注也是一项具有挑战性的任务[12],因此可以使用在ImageNet数据集上预先训练的AlexNet网络来提取语音数据的情感特征[2],利用迁移学习来解决跨语料库识别和语音数据难以获取的难题。此外,大多数语音情感数据集的情感标签是在一段语音上标注的,而一段语音通常包含许多类似沉默等与情感无关的信息,在大多数情况下情感仅与少量内容相关,所以为SER选择与情感相关的时频区域尤为重要[13],因此提出将迁移学习、卷积循环神经网络(convolutional recurrent neural network,CRNN)和注意力机制相结合来进行语音情感识别, 以提升语音情感识别任务的准确性和鲁棒性。

提出的基于迁移学习的注意力卷积神经网络(dilated-attention CRNN, D-ACRNN)结构如图 1所示,模型包括6个部分:1) 从语音信号提取3D-LogMels频谱图(静态,一阶差分和二阶差分)作为模型的输入;2) 用卷积神经网络(CNN)提取3D-LogMels频谱图局部不变的空间特征;3) 双向长短期记忆神经网络(BLSTM)用于提取包含上、下文信息的时间特征,并将空间特征和时间特征融合为时空特征;4) 注意力层用来自动关注情感有关部分;5) 时间金字塔(DTPM)用于将帧级特征融合为话语级特征;6) 将话语级特征输入到支持向量机(support vector machine, SVM)中进行分类。

图 1 基于迁移学习的3D-Dilated-ACRNN网络结构 Fig. 1 3D-Dilated-ACRNN network structure based on transfer learning
1.1 3D-LogMels频谱图的生成

近年来,Abdel-Hamid等[14]使用对数梅尔频谱图作为CNN输入。但是,对数梅尔频谱图是直接特征,无法体现情感变化的过程,考虑到3D-LogMels频谱图中的一阶差分和二阶差分能反映情绪变化的过程,因此提出使用3D-LogMels频谱图作为D-ACRNN的输入。

将给定的语音信号使用离散傅立叶变换计算每帧的功率谱。将功率谱输入梅尔滤波器组i中产生输出pi。LogMels的静态特征mi、一阶差分特征mid、二阶差分特征midd计算公式分别为

$ \boldsymbol{m}_{i}=\log \left(\boldsymbol{p}_{i}\right), $ (1)
$ \boldsymbol{m}_{i}^{d}=\left(\sum\limits_{n=1}^{N} n\left(\boldsymbol{m}_{i}+n-\boldsymbol{m}_{i}-n\right)\right) /\left(2 \sum\limits_{n=1}^{N} n^{2}\right), $ (2)
$ \boldsymbol{m}_{i}^{d d}=\left(\sum\limits_{n=1}^{N} n\left(\boldsymbol{m}_{i+n}^{d}-\boldsymbol{m}_{i}^{d}-n\right)\right) /\left(2 \sum\limits_{n=1}^{N} n^{2}\right)。$ (3)

在计算了具有一阶差分和二阶差分的3D-LogMels频谱图之后,可以将获得的3D特征XRt×f×c作为CNN的输入,其中:t表示时间(帧)长度;f表示梅尔滤波器组的数量;c表示特征通道数。在此任务中,AlexNet网络要求输入高宽比为1∶1,目前研究者已经证明在语音情感识别中,重叠长度应大于250 ms,并且梅尔滤波器组的数量f设置为64时效果最好[8],因此将f设置为64,tf一样设置为64。将给定的语音信号分成汉明窗大小为25 ms,偏移为10 ms的短帧,t为64时,语言信号重叠长度为10 ms×63+25 ms=655 ms,是建议的250 ms的2.6倍,因此可以为情感识别提供足够的线索。c的值设置为3,分别代表静态、一阶差分和二阶差分。

1.2 基于迁移学习的Dilated-ACRNN网络

目前许多研究者在使用迁移学习时忽略了语音数据的时序信息和空间信息,因此提出了基于迁移学习的Dilated-ACRNN网络。首先,将3D-LogMels频谱图输入CNN提取帧级空间特征;然后,使用BLSTM提取包含上、下文信息的时间特征,并将空间特征和时间特征融合为时空特征,同时注意力机制会使模型专注于频谱图的特定时频区域。

1.2.1 语音信号空间特征提取

对于给定的3D-LogMels频谱图,使用CNN提取频谱图的空间特征。CNN部分由五个卷积层、一个膨胀卷积层、三个池化层和三个全连接层构成,具体结构如图 2所示。

图 2 Dilated-ACRNN网络中CNN部分具体实现 Fig. 2 The specific implementation of the CNN part in the Dilated-ACRNN network

卷积层名称含义为Conv层数[卷积核尺寸]-步长-卷积核个数,最大池化层名称定义为Maxpool[内核尺寸]-步长。为了简化图 2,将归一化层和Dropout层省略。可以看出,该结构与AlexNet网络的结构相似。AlexNet网络在大型ImageNet数据集上进行训练,并利用图像识别任务和语音情感识别任务的相似性,将图像领域学习到的模型应用到语音情感识别领域中[15],解决了跨语料库识别和带有情感标签的语音数据难获取等难题。因此直接从AlexNet网络中复制模型的初始参数,微调三个全连接层,使模型适用于语音情感识别任务。但是AlexNet网络中的参数是从图像数据集中训练得到的,虽然语音频谱图和图像数据有相似性,但也有不同之处,图像数据集训练的参数并不能完全表现语音数据的空间信息。因此添加膨胀卷积层来提取频谱图的空间特征,膨胀卷积未使用池化增大感受野,不会丢失信息[16],有利于提高语音情感识别任务模型的准确率。

1.2.2 语音信号时空特征提取

长短期记忆(long-short term memory,LSTM)神经网络属于RNN的变种。依赖于其独特的机制,LSTM能处理间隔距离长的文本特征信息,在自然语言处理和语音情感识别中有着广泛的应用。双向长短期记忆神经网络(BLSTM)结合了长短期记忆网络和双向循环神经网络的优点,能够学习语音数据的时间上下、文信息[17]

AlexNet网络是在大型ImageNet数据集上进行的训练,主要用于图像分类任务,此类任务大多仅包含空间信息,不需要时序信息,这也是图像分类任务与语音情感识别任务的区别。因此在AlexNet网络的基础上加入BLSTM网络来提取时序信息,将CNN部分获取的空间特征输入BLSTM中,以获得此帧语音的时序信息,并将空间特征和时间特征融合为时空特征。具体结构如图 3所示,将CNN网络输出的4 096个序列输入BLSTM层中,其中BLSTM层具有4 096个细胞,正、反两个方向各2 048个,因此通过LSTM层可以获得一系列4 096维的高级特征表示。

图 3 时空特征融合模型 Fig. 3 Spatiotemporal feature fusion model
1.2.3 注意力模型

作为对BLSTM的附加处理,引用了注意力模型。在语音情感识别任务中,一段语音中并非所有的时频单位都对整个话语的情感状态同样重要,因此引入注意力机制来提取对整个话语情感重要的元素。具体实现方式为

$ e_{i}=\boldsymbol{u}^{\mathrm{T}} \tanh \left(\boldsymbol{W}_{\boldsymbol{a}_{i}}+b\right), $ (4)
$ \boldsymbol{\alpha}_{i}=\left(\exp \left(\lambda e_{i}\right)\right) /\left(\sum\limits_{k=1}^{L} \exp \left(\lambda e_{i}\right)\right), $ (5)
$ \boldsymbol{c}=\sum\limits_{i=1}^{L} \boldsymbol{\alpha}_{i} {\boldsymbol{a}_{i}}。$ (6)

用公式(4)通过多层感知器(MLP),以tanh作为非线性激活函数来获得输入序列ai的新表示ei。公式(5)将注意力得分ei通过Softmax函数规整为0~1之间的注意力权值αi。公式(6)利用获得的注意力权值αi对输入的L帧特征中的特征向量ai加权,最终得到加权后的特征表示c

2 实验 2.1 数据集

EMODB数据集是由柏林工业大学录制的德语情感语音库[18], 由10位演员(5男5女)对10个语句(5长5短)进行7种情感(中性/nertral、生气/anger、害怕/fear、高兴/joy、悲伤/sadness、厌恶/disgust、无聊/boredom)的模拟得到, 共包含800句语料, 经过听辨测试后保留男性情感语句233句,女性情感语句302句,共535句。其中语句内容包含日常生活用语的5个短句和5个长句,具有较高情感自由度,不包含某一特定情感倾向。数据集采用16 kHz采样,16 bit量化,并以WAV格式保存文件。

eNTERFACE05是一个公开的英文视听数据集[19]。包含生气、厌恶、害怕、高兴、悲伤和惊奇6种情感。eNTERFACE05数据集共计包含1 166个视频,其中264个女性录音(23%)和902个男性录音(77%)。采用无压缩立体声16位格式,音频采样率为48 kHz。

交互式情绪二元运动捕捉(IEMOCAP)数据库是一个动作、多模式和多峰值的数据库[20],由南加州大学的Sail实验室收集。它包含大约12 h的视听数据,包括视频、语音、面部运动捕捉、文本转录。IEMOCAP数据库由多个注释员注释成类别标签,如愤怒、快乐、悲伤、中立,以及维度标签,如Arousal和Valence等。详细的动作捕捉信息、激发真实情感的互动设置,以及数据库的大小,使该语料库成为现有数据库的重要补充。

2.2 实验设置

由于数据集中仅包含有限数量的样本,并且语音数据有瞬时不变的特点,因此在实验中将话语划分为一定数量的重叠片段。根据文献[21]中建议,在语音情感识别中重叠长度应大于250 ms。因此,将重叠长度设置为64帧,大约为655 ms。对于EMODB数据集,从535个语音片段增加到11 842个。对于eNTERFACE数据集,从1 293个语音片段增加到26 587个。由于IEMOCAP数据集中数据分布不均匀,一些情感的数据量太少,因此实验中仅采用标签为happy,anger,neutral和sad的四种数据。通过上述重叠的方法,将2 280个语音片段增加到31 934个。实验设置最小批量为30,随机梯度下降的动量为0.5,学习率为0.000 1,迭代次数为300。

实验中同时采用加权平均召回率(WAR)和未加权平均召回率(UAR)作为度量标准。加权精度为测试集所有发音的整体精度,未加权精度为所有类别准确度的平均值。

实验采用留一法交叉验证(leave-one-out cross-validation),将数据集分为n个部分,其中一部分作为验证集,其余部分作为训练集。这种方法得出的结果与训练整个测试集的期望值最为接近。

2.3 实验对比基线

将与以下几个基准进行比较。

1) 深度卷积神经网络(deep convolutional neural network, DCNN):使用5层CNN网络来提取帧级空间特征,然后使用判别时间金字塔匹配,将帧级特征组合成段级特征,并将其输入SVM中以进行分类。

2) 卷积循环全局神经网络(convolutional recurrent global neural network,CRGNN):提取频谱图特征后,使用全局最大池化策略来选择最显著的特征。

3) 1-D D-ACRNN:使用与3-D D-ACRNN网络相同的网络模型,但是输入的不是3D-LogMels频谱图,而是一维静态的LogMels频谱图,将其称为“1-D D-ACRNN”。

4) CRNN:使用CRNN提取频谱图的特征,不使用图像数据的参数,用以研究迁移学习在语音情感识别任务中的作用。

2.4 实验结果分析

使用不同网络层数的消融实验结果如表 1所示,可以观察到在EMODB数据集上,一层膨胀卷积和一层BLSTM达到最佳性能(黑体数据性能最佳),结果表明深度学习中不是网络层数越多效果越好,主要取决于训练数据的类型和大小。

表 1 不同网络层数在EMODB数据集上的WARUAR Tab. 1 WAR and UAR of different network layers on EMODB data set  

表 2展示了不同模型对比实验的结果,主要从UARWAR两方面对比(黑体数据表示性能最佳)。首先,在EMODB和IEMOCAP数据集上与CRGNN方法进行比较,在WAR上分别提升了2.7%和7.38%。结果表明了Dilated-ACRNN的有效性。然后,在EMODB和eNTERFACE两个数据集上与DCNN方法进行比较,通过实验结果可以看到3D-DACRNN优于DCNN,并且在两个数据集上的WAR分别提升了2.82%和2.47%;UAR分别提升了4.66%和3.32%,证明了添加时空信息对于语音情感识别任务的有效性。接下来,研究了将3D-LogMels频谱图作为输入的有效性,将3D-LogMels频谱图作为输入的3D-DACRNN,在三个数据集上的WARUAR都略高于与将静态频谱图作为输入的1D-DACRNN,这表明计算LogMels频谱图的一阶差分和二阶差分可以保留有效的情感信息,提升语音情感识别的准确性。最后,在EMODB和eNTERFACE两个数据集上与CRNN方法进行比较,通过实验可以看到DACRNN优于CRNN,并且在两个数据集上的WAR分别提升了4.14%和7.77%,证明迁移学习能够提高语音情感识别任务的准确性。

表 2 不同方法在EMODB、eNTERFACE、IMOCAP数据集上的WARUAR Tab. 2 WAR and UAR of different methods on EMODB、eNTERFACE、IMOCAP data sets

然后使用混淆矩阵进一步分析3D-D-ACRNN的性能。图 4~6分别为EMODB,eNTERFACE,IEMOCAP数据集的混淆矩阵。如图 4所示,在EMODB数据集中,boredom、sadness、neutral都获得了较高的识别率,而happiness和disgust识别率较低, 其中20%的fear被归类为happiness,20.75%的boredom被归类为disgust。如图 5所示,在eNTERFACE数据集中,anger的识别率较高,而disgust识别率较低,其中18.18%的fear被归类为disgust。造成以上误识别的原因是以上几种情感在情感空间的坐标太接近,因此需要使用能提取更加细致特征的特征提取模型。如图 6所示,在IEMOCAP数据集中,anger、sad获得了较高的识别率,而happy识别率较低,其中42%的neutral被归类为happy,在IEMOCAP数据集造成happy识别率较低的原因可能是在IEMOCAP数据集中happy样本的数量较少,可以利用重叠等手段增加数据集中处于临界值的样本数量。

图 4 EMODB数据集的混淆矩阵 Fig. 4 Confusion matrix of EMODB dataset

图 5 eNTERFACE数据集的混淆矩阵 Fig. 5 Confusion matrix of eNTERFACE dataset

图 6 IEMOCAP数据集的混淆矩阵 Fig. 6 Confusion matrix of IEMOCAP dataset
3 结论

在本文中,为SER提出了一种基于迁移学习的三维注意力卷积循环神经网络(3D-D-ACRNN)。首先从语音信号中提取3D-LogMels(静态,一阶差分和二阶差分)作为CNN输入;其次,使用迁移学习的方法解决数据量不足的缺点;然后,使用膨胀卷积和BLSTM分别提取语音数据的空间特征和包含上、下文信息的时间特征,并将空间特征和时间特征融合为时空特征;最后,将注意力层用于关注语音情感相关的部分。在EMO-DB,eNTERFACE、IEMOCAP三个数据集上进行的实验表明,提出的方法具有一定的优越性。

参考文献
[1]
李海峰, 陈婧, 马琳, 等. 维度语音情感识别研究综述[J]. 软件学报, 2020, 31(8): 2465-2491.
LI H F, CHEN J, MA L, et al. Dimensional speech emotion recognition review[J]. Journal of software, 2020, 31(8): 2465-2491. (0)
[2]
ZHANG Y Y, DU J, WANG Z R, et al. Attention based fully convolutional network for speech emotion recognition[C]//2018 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC). Honolulu: IEEE Press, 2018: 1771-1775. (0)
[3]
王杰, 耿丽红, 朱晓东. 一种改进的HMM/RBF情感语音识别方法[J]. 郑州大学学报(理学版), 2012, 44(4): 68-72.
WANG J, GENG L H, ZHU X D. An improved HMM/RBF method for speech emotion recognition[J]. Journal of Zhengzhou university (natural science edition), 2012, 44(4): 68-72. (0)
[4]
XU M K, ZHANG F, CUI X D, et al. Speech emotion recognition with multiscale area attention and data augmentation[C]//ICASSP 2021-2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Toronto: IEEE Press, 2021: 6319-6323. (0)
[5]
ATMAJA B T, AKAGI M. Speech emotion recognition based on speech segment using LSTM with attention model[C]//2019 IEEE International Conference on Signals and Systems (ICSigSys). Bandung: IEEE Press, 2019: 40-44. (0)
[6]
彭玉青, 刘帆, 高晴晴, 等. 基于微调优化的深度学习在语音识别中的应用[J]. 郑州大学学报(理学版), 2016, 48(4): 30-35.
PENG Y Q, LIU F, GAO Q Q, et al. Application of deep learning model in speech recognition based on fine-tuning optimization method[J]. Journal of Zhengzhou university (natural science edition), 2016, 48(4): 30-35. (0)
[7]
LI Y L, BAIDOO C, CAI T, et al. Speech emotion recognition using 1D CNN with No attention[C]//2019 23rd International Computer Science and Engineering Conference (ICSEC). Phuket: IEEE Press, 2019: 351-356. (0)
[8]
ZHANG S Q, ZHANG S L, HUANG T J, et al. Speech emotion recognition using deep convolutional neural network and discriminant temporal pyramid matching[J]. IEEE transactions on multimedia, 2018, 20(6): 1576-1590. DOI:10.1109/TMM.2017.2766843 (0)
[9]
沈克琳, 吉秉彧, 李然. 基于卷积神经网络的英文篇章情感化方法[J]. 信阳师范学院学报(自然科学版), 2021, 34(1): 130-137.
SHEN K L, JI B Y, LI R. Sentiment quantization of english texts based on convolutional neural networks[J]. Journal Xinyang normal university (natural science edition), 2021, 34(1): 130-137. DOI:10.3969/j.issn.1003-0972.2021.01.022 (0)
[10]
ALDENEH Z, PROVOST E M. Using regional saliency for speech emotion recognition[C]//2017 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). New Orleans: IEEE Press, 2017: 2741-2745. (0)
[11]
ZHANG J C, JIANG L, ZONG Y, et al. Cross-corpus speech emotion recognition using joint distribution adaptive regression[C]//ICASSP 2021-2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Toronto: IEEE Press, 2021: 3790-3794. (0)
[12]
HAN Z J, ZHAO H J, WANG R C. Transfer learning for speech emotion recognition[C]//2019 IEEE 5th Intl Conference on Big Data Security on Cloud (BigDataSecurity), IEEE Intl Conference on High Performance and Smart Computing (HPSC) and IEEE Intl Conference on Intelligent Data and Security (IDS). Washington: IEEE Press, 2019: 96-99. (0)
[13]
YOON S, DEY S, LEE H, et al. Attentive modality hopping mechanism for speech emotion recognition[C]//ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Barcelon: IEEE Press, 2020: 3362-3366. (0)
[14]
ABDEL-HAMID O, MOHAMED A R, JIANG H, et al. Convolutional neural networks for speech recognition[J]. IEEE/ACM transactions on audio, speech, and language processing, 2014, 22(10): 1533-1545. DOI:10.1109/TASLP.2014.2339736 (0)
[15]
STOLAR M N, LECH M, BOLIA R S, et al. Real time speech emotion recognition using RGB image classification and transfer learning[C]//2017 11th International Conference on Signal Processing and Communication Systems (ICSPCS). Surfers Paradise: IEEE Press, 2017: 1-8. (0)
[16]
YU F, KOLTUN V. Multi-scale context aggregation by dilated convolutions[EB/OL]. (2016-04-30)[2021-01-20]. https://arxiv.org/abs/1511.07122v3. (0)
[17]
XIE Y, LIANG R Y, LIANG Z L, et al. Speech emotion classification using attention-based LSTM[J]. IEEE/ACM transactions on audio, speech, and language processing, 2019, 27(11): 1675-1685. DOI:10.1109/TASLP.2019.2925934 (0)
[18]
BURKHARDT F, PAESCHKE A, ROLFES M, et al. A database of German emotional speech[C]//Interspeech 2005. Lisbon: ISCA Press, 2005: 1517-1520. (0)
[19]
MARTIN O, KOTSIA I, MACQ B, et al. The eNTERFACE′ 05 audio-visual emotion database[C]//22nd International Conference on Data Engineering Workshops (ICDEW′06). Atlanta: IEEE Press, 2006: 8. (0)
[20]
BUSSO C, BULUT M, LEE C C, et al. IEMOCAP: interactive emotional dyadic motion capture database[J]. Language resources and evaluation, 2008, 42(4): 335-359. DOI:10.1007/s10579-008-9076-6 (0)
[21]
WÖLLMER M, KAISER M, EYBEN F, et al. LSTM-modeling of continuous emotions in an audiovisual affect recognition framework[J]. Image and vision computing, 2013, 31(2): 153-163. DOI:10.1016/j.imavis.2012.03.001 (0)
[22]
ZAYENE B, JLASSI C, AROUS N. 3D convolutional recurrent global neural network for speech emotion recognition[C]//2020 5th International Conference on Advanced Technologies for Signal and Image Processing (ATSIP). Sousse: IEEE Press, 2020: 1-5. (0)