2. 湖北工业大学 计算机学院, 武汉 430068
2. School of Computer, Hubei University of Technology, Wuhan 430068, China
为使计算机更顺畅和谐地与人交流,作为情感计算重要分支的语音情感识别正被作为人工智能热门研究课题之一[1].目前常用描述情感状态的方法分为离散情感描述模型和维度情感描述模型,前者将情感状态划分为人们日常交互中常见的几种基本情感,研究者多数采用美国心理学家Ekman提出的6类(高兴、悲伤、生气、厌恶、恐惧、惊讶)情感划分方法[2];后者将情感描述为连续情感空间中的不同坐标点,情感空间中不同维度代表不同心理学属性.由于人们日常生活中的情感体验丰富多彩,离散模型包含的情感种类较少,难以传达沮丧、低沉、欣喜若狂等非基本情感状态,因此研究人员开始基于维度模型展开情感计算相关工作,本文选择当前常用二维情感空间Valence-Arousal(效价度-唤醒度)进行维度语音情感识别研究.
针对孤立情感语句的语音情感识别已取得不错成果,但日常生活中人们说话时前后语句存在一定联系,情感表达是连续流畅的,因此基于上下文的语音情感识别方法受到越来越多研究者的关注[3],分析当前情感语句的前后一句或若干句情感信息能有效提升连续语句的语音情感识别效果.当前基于上下文的语音情感识别方法能够学习情感语音序列的时间上下文信息[4],但一般简单地将上下文多帧特征直接作为输入而忽略了每帧各自的特点,并且多局限于特征层上下文[5].Sariyanidi等[6]通过在时间窗口内进行特征提取利用特征序列的上下文信息,讨论了多种采用这种方式进行特征处理以学习特征层上下文信息的识别方法.Shao L等[7]发现从语音数据中提取的语音情感特征和语音所蕴含的情感状态有较大差异.例如在自然型语音数据库中,语音情感特征可能变化十分迅速,而说话人的情感状态却变化缓慢[8],这种差异性可能来自于录制情感语音时说话人受到了与情感无关因素的影响,从而导致语音内容变化剧烈,在语音情感识别中必须考虑这种差异性.受上述工作启发,本文首先计算各帧特征注意力权值用于对特征序列加权,然后将加权后的特征序列输入BLSTM网络进行特征层上下文学习,最后在上述输出基础上增加标签层上下文学习,综合考虑两层级间差异性加强模型鲁棒性,进一步提升语音情感识别准确率.
1 BLSTM语音情感识别模型随着深度学习的不断发展,神经网络结构逐渐变得复杂,与过去简单前馈神经网络相比,循环神经网络的关键在于其隐层之间既有前馈连接,又有内部反馈连接.BLSTM网络结合了长短时记忆(LSTM)网络和双向循环神经网络(BRNN)的优点,能学习语音序列数据的时间上下文信息[9-13].LSTM网络将传统循环神经网络(RNN)中的节点替换为LSTM节点,解决了RNN输出误差逐渐消失导致记忆衰退的问题;BRNN的网络结构使其能充分利用过去和未来时间信息,BLSTM网络将BRNN网络中两个方向上的神经元节点都替换为LSTM节点[14-15],因此BLSTM可以更好地学习前后时刻的时间上下文信息.本文基线模型使用基于BLSTM的语音情感识别模型,BLSTM网络包含输入层、BLSTM层和输出层,按时间展开示意图如图 1所示.
![]() |
图 1 BLSTM网络示意 Fig. 1 BLSTM network diagram |
图中xt表示时刻t的输入数据,yt表示时刻t的目标输出数据.其中由若干记忆模块构成的BLSTM层中每个模块包含一个或多个自连接的记忆单元以及控制信息流动的输入门、输出门和遗忘门,本文使用的记忆模块结构如图 2所示.
![]() |
图 2 LSTM记忆模块结构 Fig. 2 LSTM unit structure diagram |
将特征序列表示为X=(x1, x2, x3, …, xT-1, xT),其中T表示序列时间索引值,BLSTM层按照时刻t=1~T依次计算3个门和记忆单元的激活值,t时刻的计算公式如下.
输入门:
$ {\mathit{\boldsymbol{i}}_1} = \sigma \left( {{\mathit{\boldsymbol{W}}_{{\rm{xi}}}}{\mathit{\boldsymbol{x}}_{\rm{t}}} + {\mathit{\boldsymbol{W}}_{{\rm{hi}}}}{\mathit{\boldsymbol{h}}_{{\rm{t}} - 1}} + {\mathit{\boldsymbol{b}}_{\rm{i}}}} \right). $ | (1) |
遗忘门:
$ {\mathit{\boldsymbol{f}}_{\rm{t}}} = \sigma \left( {{\mathit{\boldsymbol{W}}_{\rm{x}}}{\mathit{\boldsymbol{x}}_{\rm{t}}} + {\mathit{\boldsymbol{W}}_{{\rm{hf}}}}{\mathit{\boldsymbol{h}}_{{\rm{t}} - 1}} + {\mathit{\boldsymbol{b}}_{\rm{f}}}} \right). $ | (2) |
记忆单元:
$ {\mathit{\boldsymbol{c}}_{\rm{t}}} = {\mathit{\boldsymbol{f}}_{\rm{t}}} * {\mathit{\boldsymbol{c}}_{{\rm{t}} - 1}} + {\mathit{\boldsymbol{i}}_{\rm{t}}} * \tanh \left( {{\mathit{\boldsymbol{W}}_{{\rm{xc}}}}{\mathit{\boldsymbol{x}}_{\rm{t}}} + {\mathit{\boldsymbol{W}}_{{\rm{hc}}}}{\mathit{\boldsymbol{h}}_{{\rm{t}} - 1}} + {\mathit{\boldsymbol{b}}_{\rm{c}}}} \right). $ | (3) |
输出门:
$ {\mathit{\boldsymbol{o}}_{\rm{t}}} = \mathit{\boldsymbol{\sigma }}\left( {{\mathit{\boldsymbol{W}}_{{\rm{xo}}}}{\mathit{\boldsymbol{x}}_{\rm{t}}} + {\mathit{\boldsymbol{W}}_{{\rm{ho}}}}{\mathit{\boldsymbol{h}}_{{\rm{t}} - 1}} + {\mathit{\boldsymbol{b}}_{\rm{o}}}} \right) $ | (4) |
隐层输出:
$ {\mathit{\boldsymbol{h}}_{\rm{t}}} = {\mathit{\boldsymbol{o}}_{\rm{t}}} * \tanh \left( {{\mathit{\boldsymbol{c}}_{\rm{t}}}} \right). $ | (5) |
式中:Wx#(代表Wxi,Wxf,Wxc,Wxo)是输入xt与记忆模块间连接矩阵,Wh#(代表Whi,Whf,Whc,Who)为隐含层上一时刻输出ht-1与记忆模块间连接矩阵,b#(代表bi,bf,bc,bo)为偏置向量,σ是sigmoid函数,tanh是双曲正切函数,*为向量间逐个元素相乘计算符号,当前时刻隐含层输出ht将作为下一时刻输入.
2 嵌入注意力机制并结合层级上下文的语音情感识别上述基于BLSTM的语音情感识别基线模型忽略了特征序列中各帧的特点,并存在仅局限于特征层上下文而导致标签层上下文细节丢失的缺点,因此本文提出嵌入注意力机制并结合层级上下文的语音情感识别模型,如图 3所示.
![]() |
图 3 嵌入注意力机制并结合层级上下文的语音情感识别模型 Fig. 3 BLSTM model based on hierarchical context and attention mechanism |
该模型识别过程主要包括语音情感特征注意力加权和层级上下文学习2个步骤.注意力加权对来自不同时刻的帧特征给予不同关注度;层级上下文学习包括特征层上下文学习和标签层上下文学习,主要学习语音数据的时间上下文信息并据此做情感识别.识别前需对语音情感特征全集进行特征降维,获取最优特征子集.
2.1 子集层特征选择由于本文改进主要针对语音情感识别建模过程,不涉及找到影响识别效果的最佳特征全集,因此语音情感特征提取参考“The Interspeech 2009 Emotion Challenge”竞赛中的基准特征集[16],包含过零率、能量、基频、谐波噪声比、1~12阶梅尔频率倒谱系数等16个低层语音情感特征,在这些低层特征基础上应用最大值、最小值、均值、标准差等12个全局统计函数共得到384维语音情感特征,如表 1所示.本文利用开源软件OpenSMILE提取这些语音特征参数并进行归一化.
![]() |
表 1 声学特征及统计特征 Tab. 1 Acoustic features and statistical features |
在特征全集上使用SVM-RFE特征选择算法进行子集层特征选择,SVM-RFE算法根据支持向量机建模过程中的特征权重不断迭代淘汰排名靠后的特征从而实现特征排序,算法流程如图 4所示,其中k代表特征维数.
![]() |
图 4 SVM-RFE算法流程图 Fig. 4 SVM-RFE algorithm flow chart |
SVM分类器常用排序系数是各特征对目标函数具有的判别信息量,即特征权重向量w对分类面y=w·x+b的贡献值,权重wi越大表明该特征含有判别信息越多,对决策函数影响越大.因此每次迭代剔除一个‖w‖2最小的特征,同时更新特征排序表进行递归训练直至得到特征全集最终排序结果.
其中SVM目标函数为
$ \left\{ {\begin{array}{*{20}{l}} {J = \min \frac{1}{2}{{\left\| \mathit{\boldsymbol{w}} \right\|}^2}}\\ {{\rm{s}}{\rm{. t}}{\rm{. }}{\mathit{\boldsymbol{y}}_i}\left( {\mathit{\boldsymbol{w}} \cdot {\mathit{\boldsymbol{x}}_i} + b} \right) \ge 1,i = 1,2, \cdots ,k.} \end{array}} \right. $ | (6) |
当剔除第i个特征后J的变化为
$ \Delta J(i) = \frac{{\partial J}}{{\partial {w_i}}}\Delta {w_i} + \frac{{{\partial ^2}J}}{{\partial w_i^2}}{\left( {\Delta {w_i}} \right)^2}. $ | (7) |
式中wi为第i个特征的权值.求J的最优解得
$ \Delta J(i) \approx {\left( {\Delta {w_i}} \right)^2}. $ | (8) |
其中:Δwi=wi,因此SVM-RFE以‖w‖2为排序准则可以保证特征排序过程中优先保留信息量大的特征子集,从而实现特征降维减小后续识别计算复杂度.
2.2 注意力机制注意力机制是一种思想,不同任务中它的实现方式可以完全不同[17],本文针对BLSTM网络模型输入——语音情感特征,实现注意力机制,使模型学习调整对来自不同时刻的帧特征给予不同的关注度.
传统基于特征层上下文学习的语音情感识别模型在t时刻的输入xt由P帧语音情感上下文特征扩展而成,经过若干网络层计算最终输出语音情感某一维度预测值.由于每帧特征对当前时刻情感预测贡献并不一定相同,因此上述做法存在输入P帧语音情感特征内部时间信息被忽略的缺点.注意力机制通过神经网络计算输入特征xt的注意力权值αt对P帧特征分别加权,加权后的特征x′t替换xt作为BLSTM网络的输入.具体实现如式(9)~(12).
$ {\mathit{\boldsymbol{e}}_{\rm{t}}} = {\rm{Attend}}\left( {{\mathit{\boldsymbol{x}}_{\rm{t}}},{\mathit{\boldsymbol{s}}_{{\rm{t}} - 1}},{\mathit{\boldsymbol{\alpha }}_{{\rm{t}} - 1}}} \right). $ | (9) |
式中Attend(·)为计算注意力得分et的神经网络,由上式可知注意力得分取决于当前时刻输入xt、上一时刻预测值st-1以及上一时刻注意力权值αt-1.
$ {a_{{\rm{tp}}}} = \frac{{\exp \left( {{e_{{\rm{tp}}}}} \right)}}{{\sum\limits_{p = 1}^P {\exp } \left( {{e_{{\rm{tp}}}}} \right)}}. $ | (10) |
式中etp为第p帧注意力得分,上式表明注意力权值atp通过注意力得分经Softmax函数归一化至0~1之间.
$ \mathit{\boldsymbol{x}}_{{\rm{tp}}}^\prime = {a_{{\rm{tp}}}}{x_{{\rm{tp}}}}. $ | (11) |
式中xtp为第p帧特征向量,上式利用第p帧注意力权值atp对xtp加权得到考虑P帧特征各自贡献程度信息后的第p帧特征表示x′tp.
$ {\mathit{\boldsymbol{y}}_{\rm{t}}} = {\rm{BLSTM}}\left( {\mathit{\boldsymbol{x}}_{\rm{t}}^\prime } \right). $ | (12) |
x′t送入式(12)BLSTM网络模型即可得到语音情感最初预测值yt.
2.3 层级上下文学习过程在BLSTM网络模型部分已阐述其结构和计算过程,本文使用的多层BLSTM网络计算方法.假设BLSTM网络一共有N层,第一层是输入层,第二层到第N-1层是BLSTM层,第N层是输出层,特征层上下文学习阶段计算公式如下.
$ \left( {\mathit{\boldsymbol{\vec h}}_{\rm{t}}^n,\mathit{\boldsymbol{\vec c}}_{\rm{t}}^n} \right) = {\vec H^n}\left( {\mathit{\boldsymbol{\vec h}}_{\rm{t}}^{n - 1},\mathit{\boldsymbol{\vec h}}_{{\rm{t}} - 1}^n,\mathit{\boldsymbol{\vec c}}_{{\rm{t}} - 1}^n} \right), $ | (13) |
$ \left( {\mathit{\boldsymbol{\mathord{\buildrel{\lower3pt\hbox{$\scriptscriptstyle\leftarrow$}} \over h} }}_{\rm{t}}^{\rm{n}},\mathit{\boldsymbol{\mathord{\buildrel{\lower3pt\hbox{$\scriptscriptstyle\leftarrow$}} \over c} }}_{\rm{t}}^{\rm{n}}} \right) = {\mathord{\buildrel{\lower3pt\hbox{$\scriptscriptstyle\leftarrow$}} \over H} ^{\rm{n}}}\left( {\mathit{\boldsymbol{\mathord{\buildrel{\lower3pt\hbox{$\scriptscriptstyle\leftarrow$}} \over h} }}_{\rm{t}}^{{\rm{n}} - 1},\mathit{\boldsymbol{\mathord{\buildrel{\lower3pt\hbox{$\scriptscriptstyle\leftarrow$}} \over h} }}_{{\rm{t}} - 1}^{\rm{n}},\mathit{\boldsymbol{\mathord{\buildrel{\lower3pt\hbox{$\scriptscriptstyle\leftarrow$}} \over c} }}_{{\rm{t}} - 1}^{\rm{n}}} \right), $ | (14) |
$ \mathit{\boldsymbol{y}}_t^\prime = {\mathit{\boldsymbol{W}}_{\vec h_{\rm{i}}^{{\rm{N}} - {1_y}}}}\mathit{\boldsymbol{\vec h}}_t^{{\rm{N}} - 1} + {{\bf{W}}_{\mathit{\boldsymbol{\mathord{\buildrel{\lower3pt\hbox{$\scriptscriptstyle\leftarrow$}} \over h} }}_{\rm{i}}^{{\rm{N}} - {1_y}}}}\mathord{\buildrel{\lower3pt\hbox{$\scriptscriptstyle\leftarrow$}} \over h} _t^{{\rm{N}} - 1} + {\mathit{\boldsymbol{b}}_{\rm{y}}}. $ | (15) |
式中:1≤t≤T,2≤n≤N-1,
用于特征层上下文学习的BLSTM1与用于标签层上下文学习的BLSTM2网络参数训练均采用BPTT算法.设t时刻网络输入层向量为x(t),隐层向量为h(t),输出层向量为o(t),输入层与隐层间连接矩阵为V,隐层与隐层间连接矩阵为U,隐层与输出层间连接矩阵为W,隐层与输出层的偏置分别为b和a.hp(t)和op(t)分别为第p帧在t时刻的隐层变量和输出变量,δp(vp(t))和δp(up(t))分别为第p帧在t时刻输出层误差反向信号变量和隐层误差反向信号向量,LP为模型总损失,
首先随机初始化所有权值和偏置,初始化
$ {h^{\rm{p}}}(t) = f\left( {{u^{\rm{p}}}(t)} \right) = f\left( {\mathit{\boldsymbol{V}}{x^{\rm{p}}}(t) + \mathit{\boldsymbol{U}}{h^{\rm{p}}}(t - 1) + b} \right), $ | (16) |
$ {o^{\rm{p}}}(t) = g\left( {{v^{\rm{p}}}(t)} \right) = f\left( {\mathit{\boldsymbol{W}}{h^{\rm{p}}}(t) + a} \right). $ | (17) |
随着时间从t=T到1反向传播,计算第p帧在t时刻输出层和隐层的误差反向信号变量:
$ {\delta ^{\rm{p}}}\left( {{v^{\rm{p}}}(t)} \right) = {o^{\rm{p}}}(t) - {y^{\rm{p}}}(t) \cdot {g^\prime }\left( {{v^{\rm{p}}}(t)} \right), $ | (18) |
$ {\delta ^{\rm{p}}}\left( {{u^{\rm{p}}}(t)} \right) = \left[ {{\mathit{\boldsymbol{W}}^{\rm{T}}}{\delta ^{\rm{p}}}\left( {{v^{\rm{p}}}(t)} \right)} \right] \cdot {f^\prime }\left( {{u^{\rm{p}}}(t)} \right). $ | (19) |
更新权值W、V、U和偏置a和b的偏导:
$ \frac{{\partial {L_{\rm{p}}}}}{{\partial \mathit{\boldsymbol{W}}}} = \frac{{\partial {L_{\rm{p}}}}}{{\partial \mathit{\boldsymbol{W}}}} + \sum\limits_{p = 1}^P {{\delta ^{\rm{p}}}} \left( {{v^{\rm{P}}}(t)} \right){\left( {{h^{\rm{p}}}(t)} \right)^{\rm{T}}}, $ | (20) |
$ \frac{{\partial {L_{\rm{P}}}}}{{\partial \mathit{\boldsymbol{V}}}} = \frac{{\partial {L_{\rm{P}}}}}{{\partial \mathit{\boldsymbol{V}}}} + \sum\limits_{p = 1}^P {{\delta ^{\rm{p}}}} \left( {{u^{\rm{p}}}(t)} \right){\left( {{x^{\rm{p}}}(t)} \right)^{\rm{T}}}, $ | (21) |
$ \frac{{\partial {L_{\rm{P}}}}}{{\partial \mathit{\boldsymbol{U}}}} = \frac{{\partial {L_{\rm{p}}}}}{{\partial \mathit{\boldsymbol{U}}}} + \sum\limits_{p = 1}^P {{\delta ^{\rm{p}}}} \left( {{u^{\rm{p}}}(t)} \right){\left( {{x^{\rm{p}}}(t)} \right)^{\rm{T}}}, $ | (22) |
$ \frac{{\partial {L_{\rm{P}}}}}{{\partial a}} = \frac{{\partial {L_{\rm{P}}}}}{{\partial a}} + \sum\limits_{p = 1}^P {{\delta ^{\rm{p}}}} \left( {{v^{\rm{p}}}(t)} \right), $ | (23) |
$ \frac{{\partial {L_{\rm{P}}}}}{{\partial b}} = \frac{{\partial {L_{\rm{P}}}}}{{\partial b}} + \sum\limits_{p = 1}^P {{\delta ^{\rm{p}}}} \left( {{u^{\rm{p}}}(t)} \right). $ | (24) |
特征层上下文学习阶段将注意力加权后的特征序列x′t(x′1, x′2, x′3, …, x′T-1, x′T)输入BLSTM1,计算输出与标签序列(y1, y2, y3, …, yT-1, yT)之间的均方根误差(RMSE)作为训练时的损失函数,计算方法如式(25)所示.
$ {R_{{\rm{RMSE}}}} = \sqrt {\frac{1}{T}\sum\nolimits_1^{\rm{T}} {{{\left( {{\mathit{\boldsymbol{y}}_{\rm{t}}} - \mathit{\boldsymbol{y}}_{\rm{t}}^\prime } \right)}^2}} } . $ | (25) |
由于语音情感特征与语音情感状态之间存在差异,因此需增加标签层上下文学习更好地利用标签序列的上下文信息,使最终识别结果更趋近标签值,从而达到提升识别准确率的目的.标签层上下文学习阶段将标签序列(y1, y2, y3, …, yT-1, yT)输入BLSTM2,计算输出与标签序列之间的RMSE值作为损失函数.
(y′1, y′2, y′3, …, y′T-1, yT′)为BLSTM1输出所得初步识别结果,将其作为训练好的BLSTM2的输入即可获得最终识别结果(
本文在SEMAINE和RECOLA数据库上评估所提方法有效性.SEMAINE可供研究者无偿使用(http://semaine-db.eu/),音频采样率为48 kHz,量化精度为24 bit,数据时长约为7小时[18-19].RECOLA录制过程中参与者通过视频会议完成指定任务,记录视频会议内容得到音频、视频、心电图和皮肤电活动4种模态数据[20].实验过程中,将语音数据库中语料随机划分成三等份,其中两份作为训练集,一份用作测试集.
3.2 评价指标本文采用RMSE和一致性相关系数(CCC)作为模型性能评估指标,RMSE计算方法在式(25)中已经给出,可看出RMSE值越小性能越好.CCC计算方法为
$ {C_{{\rm{CCC}}}} = \frac{{2\rho {\delta _{\rm{y}}}{\delta _{{{\rm{y}}^\prime }}}}}{{\delta _{\rm{y}}^2 + \delta _{{{\rm{y}}^\prime }}^2 + {{\left( {{\mu _{\rm{y}}} - {\mu _{{{\rm{y}}^\prime }}}} \right)}^2}}}. $ | (26) |
式中:y为维度情感标注值序列数据,y′为模型实际输出序列数据,ρ是两个序列数据的Pearson相关系数,μy和μy′分别代表两个序列数据的均值,δy和δy分别表示两个序列数据的方差.从计算公式可以看出CCC值越大模型性能越好.
3.3 参数选择本文使用SVM-RFE算法进行子集层特征选择,SVM采用线性核函数,依照SVM-RFE算法得到特征排序表后,从1~100对特征维数取值,实验结果表明选择前72维特征子集的性能最优.在开始特征层和标签层上下文信息学习之前,首先在训练集上进行网络层数和隐层节点数两个重要网络结构参数的选定,利用性能较好的参数作为测试集最终参数.确定模型所用BLSTM网络层数时固定隐层节点数,通过从1~5设置层数比较相应模型性能寻找合适网络层数.同理根据选定的网络层数,以步长0.25×M在[0.25×M, 1.25×M](M是特征维度)范围内选择不同隐层节点数,比较各情况下模型性能,最终确定特征层上下文信息学习阶段BLSTM网络层数为3,节点数为(64, 64, 64);标签层上下文信息学习阶段BLSTM网络层数为1,节点数为1.输入层节点数为输入数据的大小,特征层和标签层上下文信息学习阶段都采用线性回归作为输出层,输出层节点数为1.训练最大迭代次数为200次,采用early-stop方式,当模型在训练集上一致性相关系数值连续10次都不再提高时停止训练,将训练集上情感识别效果最好的模型权重作为测试用最终权重,权重的更新方法参考Adadelta方法[21].
训练时对语音数据所提取的特征序列按确定帧数作为一个时序长度进行切分构成若干时序段,然后将每一个时序段作为一个样本进行BLSTM网络训练.实验过程中发现随着时序长度的改变,BLSTM网络的收敛程度呈现明显差别,图 5展示了SEMAINE数据库中序列ID为13的情感语音Valence维度CCC值随时序段长度的变化规律.
![]() |
图 5 不同时序段长度性能对比 Fig. 5 Comparison of performance of different time segments |
图中横坐标表示一个时序段包含的帧数,纵坐标表示识别结果在Valence维度的CCC值,总体来看在一定区间内时序长度越长,BLSTM网络收敛效果越好,这是因为更长的时序长度包含更多的时序变化信息,能为语音情感预测任务提供更大信息量.数据库中语音长度各不相同,折中选择30帧为一个时序长度,可使绝大多数语音数据包含至少3个时序段,同时能令BLSTM保持较好收敛效果.
3.4 实验结果分析为检验本文改进效果,将特征层上下文学习阶段的最初识别结果与增加标签层上下文学习阶段的最终识别结果以及同时引入标签层上下文学习、注意力机制的识别结果进行比较,对比数据如表 2、表 3所示.
![]() |
表 2 SEMAINE数据库改进前后结果比较 Tab. 2 Comparison of results on SEMAINE database |
![]() |
表 3 RECOLA数据库改进前后结果比较 Tab. 3 Comparison of results on RECOLA database |
表 2显示,SEMAINE数据库中Valence维度RMSE值在增加标签层上下文学习后减小3.36%,嵌入注意力机制相较上述结果上再获得0.34%的缩小值,同时其CCC值在逐步改进过程中依次提高25.06%和28.04%.表 3表明RECOLA数据库中两个维度RMSE值平均约减小4.6%,CCC值平均约增大27%.更好的模型对应更低的RMSE和更高的CCC,以上数据说明同时引入标签层上下文学习以及注意力机制优于增加标签层的BLSTM网络模型,更优于仅基于特征层上下文学习的语音情感识别模型,其在2个数据集上与基线特征层上下文学习模型相比均取得了性能提升效果.
为更清晰地对比分析各模型执行效率,将3组模型分别在2个数据集上进行多次实验并记录其平均运行时间,具体结果如表 4所示.
![]() |
表 4 模型训练时间对比 Tab. 4 Comparison of model training time |
由表 4可知,数据集越大模型训练时间越长.由于特征层上下文学习网络BLSTM1与标签层上下文学习网络BLSTM2相互独立,且BLSTM2输入数据维度远小于BLSTM1的输入,故增加标签层上下文学习过程在提升识别准确率的同时对模型执行效率并未造成较大影响.而嵌入注意力机制后相对于基线特征层上下文学习模型训练时间平均减少了1 h 15 min,表明注意力机制能聚焦于对当前任务更关键的信息,降低对其他信息关注度甚至过滤无关信息,从而较大程度加快模型训练速度,提高模型执行效率.
进一步地,对SEMAINE数据库中序列ID为13的语音数据Valence维度预测结果进行可视化如图 6所示.
![]() |
图 6 本文模型与基线模型Valence维度预测结果比较 Fig. 6 Comparison of the Valence dimension prediction results between the model and the baseline model |
图 6提供了本文模型与基线模型在Valence维度情感预测结果的比较.黑色曲线代表数据库提供的情感标注值,红色曲线代表本文模型预测结果,蓝色曲线代表基线模型预测结果.从图中可以看出前后帧变化不大的各帧两个预测结果比较相似,但是前后帧Valence维度值变化大的一帧例如第150帧,黑色曲线与灰色曲线的吻合程度明显优于蓝色曲线.分别计算模型改进前后预测结果的RMSE值见表 5,对比结果显示本文模型在Valence维度的RMSE值相较基线模型降低了12%,说明引入标签层上下文学习和注意力机制的预测结果更贴近情感标注值.
![]() |
表 5 RMSE值对比 Tab. 5 RMSE value comparison |
最后将本文模型与现有模型方法进行对比.
模型一:Valstar M等[22]介绍的AVEC 2016中用于音频与视频情感识别的机器学习方法.
模型二:张雪英等[23]提出的一种基于SVR的语音维度情感预测模型.
模型三:Ehab A. Albadawy等[24]提出的集合和端到端的联合建模方法.
模型四:本文改进前仅进行特征层上下文学习的BLSTM网络模型.
模型五:本文设计的基于层级上下文和注意力机制的BLSTM网络模型.
表中R代表RMSE值,C代表CCC值.由表可知,模型5的RMSE值相较模型1、2、4在Valence、Activation、Power、Expectation、Intensity这五个维度上均有不同程度减小,平均降低1.5%,CCC值平均提高15.1%.通过与现有其他模型对比,本文所提方法具有更好的情感分辨力,在不同语音情感数据库也拥有更好的稳定性.
![]() |
表 6 与现有其他模型方法对比 Tab. 6 Compared with other existing model methods |
本文针对语音情感识别提出基于层级上下文和注意力机制的BLSTM模型,首先原始特征全集经过特征选择得到最优特征子集,消除高维数低层次特征的冗余性和不稳定性;然后对特征子集进行注意力加权,充分考虑输入各帧特征中的时间信息,使模型对输入层中每帧特征给予不同关注度;其次学习加权后的特征序列上下文信息得到初步情感预测结果,最后在上述初步结果基础上增加标签层上下文学习做最终识别.该方法抓住语音情感在表达过程中的连续性特点,利用BLSTM网络学习语音情感特征序列以及语音情感标签值序列两层级的上下文信息,综合考虑其差异性,实验结果表明,与基线模型相比本文模型提升了对情感语音信号的建模能力,并有效提高了语音情感识别准确率.本文采用的BLSTM模型虽然在上下文学习方面表现优秀,但是结构复杂不易训练,因此后续将对优化BLSTM进行研究进一步提升识别性能.
[1] |
Björn W., Schuller. Speech emotion recognition: Two decades in a nutshell, benchmarks, and ongoing trends[J]. Communications of the Acm, 2018, 61(5): 90. DOI:10.1145/3129340 |
[2] |
JING Shaoling, MAO Xia, CHEN Lijiang. Prominence features: Effective emotional features for speech emotion recognition[J]. Digital Signal Processing, 2018, 72: 216. DOI:10.1016/j.dsp.2017.10.016 |
[3] |
Swain M, Routray A, Kabisatpathy P. Databases, features and classifiers for speech emotion recognition: A review[J]. International Journal of Speech Technology, 2018, 21(1): 93. DOI:10.1007/s10772-018-9491-z |
[4] |
Tzinis E, Potamianos A. Segment-based speech emotion recognition using recurrent neural networks[C]// Seventh International Conference on Affective Computing & Intelligent Interaction. 2018. DOI: 10.1109/ACII.2017.8273599
|
[5] |
Mustafa M B, Yusoof M A M, Don Z M, et al. Speech emotion recognition research: An analysis of research focus[J]. International Journal of Speech Technology, 2018, 21(1): 137. DOI:10.1007/s10772-018-9493-x |
[6] |
Sariyanidi E, Gunes H, Cavallaro A. Automatic analysis of facial affect: A survey of registration, representation, and recognition[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2015, 37(6): 1113. DOI:10.1109/TPAMI.2014.2366127 |
[7] |
SHAO Ling, ZHEN Xiantong, TAO Dacheng, et al. Spatio-temporal laplacian pyramid coding for action recognition[J]. IEEE Transactions on Cybernetics, 2014, 44(6): 817. DOI:10.1109/TCYB.2013.2273174 |
[8] |
Meng H, Bianchiberthouze N. Affective state level recognition in naturalistic facial and vocal expressions[J]. IEEE Transactions on Cybernetics, 2013, 44(3): 315. DOI:10.1109/tcyb.2013.2253768 |
[9] |
Rodriguez P, Cucurull G, Gonalez J, et al. Deep pain: Exploiting long short-term memory metworks for facial expression classification[J]. IEEE Transactions on Cybernetics, 2017. DOI:10.1109/TCYB.2017.2662199 |
[10] |
Ringeval F, Eyben F, Kroupi E, et al. Prediction of asynchronous dimensional emotion ratings from audiovisual and physiological data[J]. Pattern Recognition Letters, 2014: S0167865514003572. DOI: 10.1016/j.patrec.2014.11.007
|
[11] |
Nicolaou M A, Gunes H, Pantic M. Audio-visual classification and fusion of spontaneous affective data in likelihood space[C]//International Conference on Pattern Recognition. IEEE, 2010. DOI: 10.1109/ICPR.2010.900
|
[12] |
Ringeval F, Valstar M, Jaiswal S, et al. AV+EC 2015-The first affect recognition challenge bridging across audio, video, and physiological data[C]//5th International Workshop on Audio/Visual Emotion Challenge (AVEC). ACM, 2015. DOI: 10.1145/2808196.2811642
|
[13] |
Metallinou A, Martin Wöllmer, Katsamanis A, et al. Context-sensitive learning for enhanced audio visual emotion classification[J]. IEEE Transactions on Affective Computing, 2012, 3(2): 184. DOI:10.1109/T-AFFC.2011.40 |
[14] |
HE Lang, JIANG Dongmei, YANG Le, et al. Multimodal Affective dimension prediction using deep bidirectional long short-term memory recurrent neural networks[C]//International Workshop on Audio/visual Emotion Challenge. ACM, 2015. DOI: 10.1145/2808196.2811641
|
[15] |
Khorrami P, Le Paine T, Brady K, et al. How deep neural networks can improve emotion recognition on video data[J]. IEEE International Conference on Image Processing (ICIP), 2016, 619. |
[16] |
Tzinis E, Potamianos A. Segment-based speech emotion recognition using recurrent neural networks[C]//Seventh International Conference on Affective Computing & Intelligent Interaction. IEEE, 2018. DOI: 10.1109/ACII.2017.8273599
|
[17] |
张宇, 张鹏远, 颜永红. 基于注意力LSTM和多任务学习的远场语音识别[J]. 清华大学学报(自然科学版), 2018(3). ZHANG Yu, ZHANG Pengyuan, YAN Yonghong. Long short-term memory with attention and multitask learning for distant speech recognition[J]. Journal of Tsinghua University(Science and Technology), 2018. |
[18] |
Mckeown G, Valstar M, Cowie R, et al. The SEMAINE database: Annotated multimodal records of emotionally colored conversations between a person and a limited agent[J]. IEEE Transactions on Affective Computing, 2012, 3(1): 5. DOI:10.1109/t-affc.2011.20 |
[19] |
Mckeown G, Valstar M F, Cowie R, et al. The SEMAINE corpus of emotionally coloured character interactions[C]//IEEE International Conference on Multimedia & Expo. 2010. DOI: 10.1109/ICME.2010.5583006
|
[20] |
Ringeval F, Sonderegger A, Sauer J, et al. Introducing the RECOLA multimodal corpus of remote collaborative and affective interactions[C]//IEEE International Conference & Workshops on Automatic Face & Gesture Recognition. 2013. DOI: 10.1109/FG.2013.6553805
|
[21] |
Zeiler M D. ADADELTA: An adaptive learning rate method[J]. Computer Science, 2012. |
[22] |
Valstar M, Gratch J, Schuller B, et al. AVEC 2016-depression, mood, and emotion recognition workshop and challenge[J]. 2016. DOI: 10.1145/2988257.2988258
|
[23] |
张雪英, 张婷, 孙颖, 等. 基于PAD模型的级联分类情感语音识别[J]. 太原理工大学学报, 2018, 49(5). ZHANG Xueying, ZHANG Ting, SUN Ying, et al. Cascaded classification emotional speech recognition base on PAD model[J]. Taiyuan University of Technology, 2018, 49(5). DOI:10.16355/j.cnki.issn1007-9432tyut.2018.05.013 |
[24] |
Ehab A. Albadawy, Yelin Kim (2018). Joint discrete and continuous emotion prediction using ensemble and end-to-end approaches. 366. 10.1145/3242969.3242972
|