講演抄録/キーワード |
講演名 |
2019-03-14 13:30
[ポスター講演]Gated CNNを用いた劣悪な雑音環境下における音声区間検出 ○李 莉・越野ゆき・松本光雄・牧野昭二(筑波大) EA2018-102 SIP2018-108 SP2018-64 |
抄録 |
(和) |
音声区間検出は音声処理技術において重要な役割を果たす基盤技術であり,様々な環境での高精度な検出が求められている.しかし,従来の音声区間検出手法では非定常雑音かつ低信号対雑音比の環境下において性能が劣化する傾向があり,災害現場や走行中の車のような非常に劣悪な実雑音環境での検出精度はまだ十分とは言えない.一方,最近の深層学習の発展に伴い,数多くの識別タスクにおいて大幅な性能向上が実現されている.そこで本稿では,深層学習の一種であるゲート付き畳み込みニューラルネットワークを用いた音声区間検出手法を提案する.更に,災害現場に対応するために開発された柔軟索状ロボットを用いて収録したロボットの自己雑音環境下において提案手法の性能評価を行う. |
(英) |
This paper deals with voice activity detection (VAD) tasks under high-level noise environments where signal-to-noise ratios (SNRs) are lower than -5 dB. Many VAD approaches have been developed during recent decades and shown to be efficient and effective. However, these approaches tend to fail the detection when SNRs become critically low in real situations, such as rescue robots in a disaster or navigation in a high-speed moving car. On the other hand, the deep learning techniques have achieved state-of-art results in many difficult classification tasks and shown the high potential to be able to solve the difficult VAD tasks. To achieve accurate VAD results under high-level noise environments, this paper proposes a gated convolutional neural network-based approach that is able to capture long- and short-term dependencies in time series as cues for detection. Experimental evaluations using high-level ego-noise of a hose-shaped rescue robot revealed that the proposed method was able to averagely achieve accurate VAD results in environments with SNR in the range of -30 dB to -5 dB. |
キーワード |
(和) |
音声区間検出 / 低SNR環境 / 深層学習 / 畳み込みニューラルネットワーク / 平滑化 / / / |
(英) |
Voice activity detection / high-level noise environments / deep learning / convolutional neural networks / smoothing / / / |
文献情報 |
信学技報, vol. 118, no. 495, EA2018-102, pp. 19-24, 2019年3月. |
資料番号 |
EA2018-102 |
発行日 |
2019-03-07 (EA, SIP, SP) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
EA2018-102 SIP2018-108 SP2018-64 |
研究会情報 |
研究会 |
EA SIP SP |
開催期間 |
2019-03-14 - 2019-03-15 |
開催地(和) |
アイランド ナガサキ(長崎市) |
開催地(英) |
i+Land nagasaki (Nagasaki-shi) |
テーマ(和) |
応用/電気音響,信号処理,音声,一般 |
テーマ(英) |
Engineering/Electro Acoustics, Signal Processing, Speech, and Related Topics |
講演論文情報の詳細 |
申込み研究会 |
EA |
会議コード |
2019-03-EA-SIP-SP |
本文の言語 |
日本語 |
タイトル(和) |
Gated CNNを用いた劣悪な雑音環境下における音声区間検出 |
サブタイトル(和) |
|
タイトル(英) |
Voice activity detection under high levels of noise using gated convolutional neural networks |
サブタイトル(英) |
|
キーワード(1)(和/英) |
音声区間検出 / Voice activity detection |
キーワード(2)(和/英) |
低SNR環境 / high-level noise environments |
キーワード(3)(和/英) |
深層学習 / deep learning |
キーワード(4)(和/英) |
畳み込みニューラルネットワーク / convolutional neural networks |
キーワード(5)(和/英) |
平滑化 / smoothing |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
李 莉 / Li Li / リィ リィ |
第1著者 所属(和/英) |
筑波大学 (略称: 筑波大)
University of Tsukuba (略称: Univ. Tsukuba) |
第2著者 氏名(和/英/ヨミ) |
越野 ゆき / Koshino Yuki / コシノ ユキ |
第2著者 所属(和/英) |
筑波大学 (略称: 筑波大)
University of Tsukuba (略称: Univ. Tsukuba) |
第3著者 氏名(和/英/ヨミ) |
松本 光雄 / Matsumoto Mitsuo / マツモト ミツオ |
第3著者 所属(和/英) |
筑波大学 (略称: 筑波大)
University of Tsukuba (略称: Univ. Tsukuba) |
第4著者 氏名(和/英/ヨミ) |
牧野 昭二 / Makino Shoji / マキノ ショウジ |
第4著者 所属(和/英) |
筑波大学 (略称: 筑波大)
University of Tsukuba (略称: Univ. Tsukuba) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
第21著者 氏名(和/英/ヨミ) |
/ / |
第21著者 所属(和/英) |
(略称: )
(略称: ) |
第22著者 氏名(和/英/ヨミ) |
/ / |
第22著者 所属(和/英) |
(略称: )
(略称: ) |
第23著者 氏名(和/英/ヨミ) |
/ / |
第23著者 所属(和/英) |
(略称: )
(略称: ) |
第24著者 氏名(和/英/ヨミ) |
/ / |
第24著者 所属(和/英) |
(略称: )
(略称: ) |
第25著者 氏名(和/英/ヨミ) |
/ / |
第25著者 所属(和/英) |
(略称: )
(略称: ) |
第26著者 氏名(和/英/ヨミ) |
/ / |
第26著者 所属(和/英) |
(略称: )
(略称: ) |
第27著者 氏名(和/英/ヨミ) |
/ / |
第27著者 所属(和/英) |
(略称: )
(略称: ) |
第28著者 氏名(和/英/ヨミ) |
/ / |
第28著者 所属(和/英) |
(略称: )
(略称: ) |
第29著者 氏名(和/英/ヨミ) |
/ / |
第29著者 所属(和/英) |
(略称: )
(略称: ) |
第30著者 氏名(和/英/ヨミ) |
/ / |
第30著者 所属(和/英) |
(略称: )
(略称: ) |
第31著者 氏名(和/英/ヨミ) |
/ / |
第31著者 所属(和/英) |
(略称: )
(略称: ) |
第32著者 氏名(和/英/ヨミ) |
/ / |
第32著者 所属(和/英) |
(略称: )
(略称: ) |
第33著者 氏名(和/英/ヨミ) |
/ / |
第33著者 所属(和/英) |
(略称: )
(略称: ) |
第34著者 氏名(和/英/ヨミ) |
/ / |
第34著者 所属(和/英) |
(略称: )
(略称: ) |
第35著者 氏名(和/英/ヨミ) |
/ / |
第35著者 所属(和/英) |
(略称: )
(略称: ) |
第36著者 氏名(和/英/ヨミ) |
/ / |
第36著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2019-03-14 13:30:00 |
発表時間 |
90分 |
申込先研究会 |
EA |
資料番号 |
EA2018-102, SIP2018-108, SP2018-64 |
巻番号(vol) |
vol.118 |
号番号(no) |
no.495(EA), no.496(SIP), no.497(SP) |
ページ範囲 |
pp.19-24 |
ページ数 |
6 |
発行日 |
2019-03-07 (EA, SIP, SP) |
|