首页> 外文期刊>電子情報通信学会技術研究報告. 音声. Speech >Kinectによる顔特徴量を利用した合成音声の感情表現·発話様式の直観的制御の検討
【24h】

Kinectによる顔特徴量を利用した合成音声の感情表現·発話様式の直観的制御の検討

机译:通过Kinect的面部特征检查合成语音的情感表达和言语风格的直观控制

获取原文
获取原文并翻译 | 示例
           

摘要

本稿では,テキスト音声合成においてユーザが容易に合成音声の感情表現·発話様式(スタイル)を変更できる手法として,Kinectによる顔特徴量を利用した重回帰隠れマルコフモデル(HSMM)に基づくスタイル制御法を提案する.提案法では,学習データに含まれるスタイルとその表出度合をユーザの顔特徴量であるAnimation Unit (AU)を説明変数とした重回帰により表現する.具体的にはHSMMの各分布の平均パラメータがAUパラメータによる重回帰で表されると仮定する.この際,元のAUパラメータ間の相関が問題となるため,主成分分析により直交化および次元削減を行う.合成時には顔の表情を所望のスタイルに応じて変化させることで,それに応じた合成音声を生成することができる.本稿では,適切なAUパラメータの次元数やユーザの違いによる性能の違いについて評価を行った結果を報告する.
机译:在本文中,作为一种允许用户在文本语音合成中轻松更改合成语音的情感表达和语音样式(样式)的方法,使用了Kinect基于面部特征的基于多元回归隐马尔可夫模型(HSMM)的样式控制方法。建议。在所提出的方法中,训练数据中包括的样式及其表达程度是通过使用动画单元(AU)作为用户解释变量通过多元回归来表示的,该动画单元是用户的面部特征量。具体地,假设HSMM的每个分布的平均参数由AU参数的多元回归表示。此时,由于原始AU参数之间的相关性成为问题,因此通过主成分分析执行正交化和尺寸减小。通过在构图时根据期望的风格改变面部表情,可以产生与期望的风格相对应的合成声音。在本文中,我们报告了由于适当的AU参数的维数和用户差异而导致的性能差异评估结果。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号