传统语音情感识别主要基于单一情感数据库进行训练与测试.而实际情况中,训练语句和测试语句往往来源于不同的数据库,识别率将显著下降.为了解决这一问题,提出了一种基于子空间学习和特征选择融合的语音情感识别方法.通过采用回归方法来学习特征的子空间表示;同时,引入l2,1-范数用于特征的选择;并引入最大均值差异(Maximum mean discrepancy,MMD)来减少不同情感数据库间的特征差异,对它们进行联合优化求解从而提取较为鲁棒的情感特征表示.在EMO-DB和eNTERFACE两个公开情感数据库上进行实验评价,结果表明:所提出的方法在跨库条件下具有较好的性能,相比其它经典的迁移学习方法更加鲁棒高效.
展开▼