講演抄録/キーワード |
講演名 |
2019-12-06 13:55
[ポスター講演]ラベリング作業を必要としないsequence-to-sequence音響特徴量推定手法の有効性 ○栗原 清・清山信正・熊野 正(NHK) SP2019-37 |
抄録 |
(和) |
End-to-end音声合成におけるsequence-to-sequence音響特徴量推定の入力として,読み仮名と韻律記号を用いる方式を提案してきた.sequence-to-sequence音響特徴量推定は言語特徴量と音響特徴量の対応づけを自動的に行うため,コストのかかる音素セグメンテーション作業を必要としない.本稿では,漢字仮名交じり文から自動で読み仮名と韻律記号を生成し,音声合成を実現する方式を提案する.オープンソースの日本語音声合成システムOpen JTalkのフロントエンド部を活用して,漢字仮名交じり文からフルコンテキストラベルを取得し,フルコンテキストラベルから読み仮名と韻律記号に自動変換する.フロントエンドからsequence-to-sequence音響特徴量推定までの学習部を自動化することにより,コストをかけずに漢字仮名交じり文と音声データのみで高品質の音声合成の学習を実現できる.提案方式によれば,漢字仮名交じり文を自動変換して得られる読み仮名と韻律記号を用いて一定品質の音声合成を実現できるため,新たな収録音声から音声合成を実現する際にコストメリットを享受できる. |
(英) |
We have proposed a method that uses yomigana (Japanese character readings) and prosodic symbols as input for sequence-to-sequence acoustic modeling in end-to-end speech synthesis. Sequence-to-sequence acoustic modeling can associate language features with acoustic features automatically, making it unnecessary to perform expensive phoneme segmentation work. In this paper, we propose a method for generating synthesized speech by automatically generating yomigana and prosodic symbols from sentences containing a mixture of kanji and kana characters. This method uses the front-end of Open JTalk (an open-source Japanese speech synthesis system) to obtain full-context labels from a kanji-kana mixed sentence, and then automatically converts these full-context labels into yomigana and prosodic symbols. By automating the learning units from the front-end to the sequence-to-sequence acoustic modeling , we can achieve high-quality speech synthesis learning from kanji-kana mixed sentences and speech files without incurring any additional cost. In subjective evaluation tests, we were able to confirm the efficacy of the proposed method. With our proposed method, it is possible to achieve speech synthesis of consistent quality based on yomigana and prosodic symbols obtained by automatically converting kanji-kana mixed text. This results in a considerable cost merit when implementing speech synthesis from newly recorded speech. |
キーワード |
(和) |
統計的パラメトリック音声合成 / end-to-end音声合成 / 韻律記号 / sequence-to-sequenceモデ / / / / |
(英) |
Statistical parametric speech synthesis / End-to-end speech synthesis / Prosodic symbols / Sequence-to-sequence model / / / / |
文献情報 |
信学技報, vol. 119, no. 321, SP2019-37, pp. 49-54, 2019年12月. |
資料番号 |
SP2019-37 |
発行日 |
2019-11-29 (SP) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
査読に ついて |
本技術報告は査読を経ていない技術報告であり,推敲を加えられていずれかの場に発表されることがあります. |
PDFダウンロード |
SP2019-37 |
研究会情報 |
研究会 |
NLC IPSJ-NL SP IPSJ-SLP |
開催期間 |
2019-12-04 - 2019-12-06 |
開催地(和) |
NHK放送技術研究所 |
開催地(英) |
NHK Science & Technology Research Labs. |
テーマ(和) |
第6回自然言語処理シンポジウム & 第21回音声言語シンポジウム |
テーマ(英) |
The 6th Natural Language Processing Symposium & The 21th Spoken Language Symposium |
講演論文情報の詳細 |
申込み研究会 |
SP |
会議コード |
2019-12-NLC-NL-SP-SLP |
本文の言語 |
日本語 |
タイトル(和) |
ラベリング作業を必要としないsequence-to-sequence音響特徴量推定手法の有効性 |
サブタイトル(和) |
|
タイトル(英) |
Effectiveness of sequence-to-sequence acoustic modeling by using automatic generated labels |
サブタイトル(英) |
|
キーワード(1)(和/英) |
統計的パラメトリック音声合成 / Statistical parametric speech synthesis |
キーワード(2)(和/英) |
end-to-end音声合成 / End-to-end speech synthesis |
キーワード(3)(和/英) |
韻律記号 / Prosodic symbols |
キーワード(4)(和/英) |
sequence-to-sequenceモデ / Sequence-to-sequence model |
キーワード(5)(和/英) |
/ |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
栗原 清 / Kiyoshi Kurihara / クリハラ キヨシ |
第1著者 所属(和/英) |
NHK 技研 (略称: NHK)
NHK STRL (略称: NHK) |
第2著者 氏名(和/英/ヨミ) |
清山 信正 / Nobumasa Seiyama / ノブマサ セイヤマ |
第2著者 所属(和/英) |
NHK 技研 (略称: NHK)
NHK STRL (略称: NHK) |
第3著者 氏名(和/英/ヨミ) |
熊野 正 / Tadashi Kumano / クマノ タダシ |
第3著者 所属(和/英) |
NHK 技研 (略称: NHK)
NHK STRL (略称: NHK) |
第4著者 氏名(和/英/ヨミ) |
/ / |
第4著者 所属(和/英) |
(略称: )
(略称: ) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
第21著者 氏名(和/英/ヨミ) |
/ / |
第21著者 所属(和/英) |
(略称: )
(略称: ) |
第22著者 氏名(和/英/ヨミ) |
/ / |
第22著者 所属(和/英) |
(略称: )
(略称: ) |
第23著者 氏名(和/英/ヨミ) |
/ / |
第23著者 所属(和/英) |
(略称: )
(略称: ) |
第24著者 氏名(和/英/ヨミ) |
/ / |
第24著者 所属(和/英) |
(略称: )
(略称: ) |
第25著者 氏名(和/英/ヨミ) |
/ / |
第25著者 所属(和/英) |
(略称: )
(略称: ) |
第26著者 氏名(和/英/ヨミ) |
/ / |
第26著者 所属(和/英) |
(略称: )
(略称: ) |
第27著者 氏名(和/英/ヨミ) |
/ / |
第27著者 所属(和/英) |
(略称: )
(略称: ) |
第28著者 氏名(和/英/ヨミ) |
/ / |
第28著者 所属(和/英) |
(略称: )
(略称: ) |
第29著者 氏名(和/英/ヨミ) |
/ / |
第29著者 所属(和/英) |
(略称: )
(略称: ) |
第30著者 氏名(和/英/ヨミ) |
/ / |
第30著者 所属(和/英) |
(略称: )
(略称: ) |
第31著者 氏名(和/英/ヨミ) |
/ / |
第31著者 所属(和/英) |
(略称: )
(略称: ) |
第32著者 氏名(和/英/ヨミ) |
/ / |
第32著者 所属(和/英) |
(略称: )
(略称: ) |
第33著者 氏名(和/英/ヨミ) |
/ / |
第33著者 所属(和/英) |
(略称: )
(略称: ) |
第34著者 氏名(和/英/ヨミ) |
/ / |
第34著者 所属(和/英) |
(略称: )
(略称: ) |
第35著者 氏名(和/英/ヨミ) |
/ / |
第35著者 所属(和/英) |
(略称: )
(略称: ) |
第36著者 氏名(和/英/ヨミ) |
/ / |
第36著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2019-12-06 13:55:00 |
発表時間 |
90分 |
申込先研究会 |
SP |
資料番号 |
SP2019-37 |
巻番号(vol) |
vol.119 |
号番号(no) |
no.321 |
ページ範囲 |
pp.49-54 |
ページ数 |
6 |
発行日 |
2019-11-29 (SP) |