講演抄録/キーワード |
講演名 |
2017-03-02 09:00
[ポスター講演]利用環境変動に頑健な分岐選択型DNN音響モデルの検討 ○森谷崇史・浅見太一・山口義和・青野裕司(NTT) EA2016-131 SIP2016-186 SP2016-126 |
抄録 |
(和) |
近年 Deep Neural Network(DNN)の応用により,音声認識技術が様々な場面で利用されている.しかしながら音声認識システムにおいて高精度な認識結果を得るためには利用する環境ごとに対応した音響モデルを用意しなければならない.また,各音響モデルの学習にはそれぞれの利用環境に応じた大量の学習データと計算時間を必要とするため非常にコストがかかる.そこで本研究では利用する環境の違いに頑健な音響モデルの学習方法を提案する. 具体的には,DNNの入力層を利用環境の数だけ分岐させ,出力層あるいは中間層で分岐を結合することで,各分岐が利用環境ごとに学習できるような DNN音響モデルを構築する.この音響モデルを用いることで,分岐しない DNNと比べて文字正解精度の相対誤り改善率は 9.6%となり,提案する DNN音響モデルの有効性を示した. |
(英) |
The performance of speech recognition tasks can be significantly improved by the use of deep neural networks (DNN). Speech recognition system is demanded to high recognition performance with the increase in use scene of itself. However, it needs to prepare acoustic models corresponding to each environment to obtain the best recognition results. Also, to train and make each acoustic model takes a lot of costs that contain preparation of a large amount of training data and computational time for training. The goal of this paper is to obtain an acoustic model that can adapt each environmental speech data and output high recognition results. We propose DNN architecture that is diverged and converged at input, and hidden or output layer respectively. The each pass of diverged DNN architecture is trained by using each environmental speech data, so it has a role for robustness to environmental variation. Compared to no diverged DNN architecture, our proposed DNN architecture improves character accuracy. Its relative error rate is 9.6%. |
キーワード |
(和) |
音声認識 / 音響モデル / 耐雑音性 / Deep Neural Network / / / / |
(英) |
Speech Recognition / Acoustic Model / Noise Robustness / Deep Neural Network / / / / |
文献情報 |
信学技報, vol. 116, no. 477, SP2016-126, pp. 277-282, 2017年3月. |
資料番号 |
SP2016-126 |
発行日 |
2017-02-22 (EA, SIP, SP) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
EA2016-131 SIP2016-186 SP2016-126 |
|