講演抄録/キーワード |
講演名 |
2006-10-19 13:30
[特別講演]人・ロボット音声インタラクションのための情報統合に向けて ○中臺一博(ホンダ・リサーチ・インスティチュート・ジャパン/東工大) |
抄録 |
(和) |
自然な人・ロボット音声インタラクションを実現する上で聴覚機能を通じ,ロ
ボット周囲の環境を把握する「実環境音環境理解」,ロボットがユーザに対し
て適切でわかりやすく情報を伝達する「表出」は重要な機能であろう.こうし
た機能をロバストに実現する上で,筆者が鍵となると考えている「情報統合」
アプローチについて述べる.また,このアプローチに基づく研究例として,実
環境音環境理解に関しては,ミッシングフィーチャ理論による音源分離と音声
認識の統合,マイクロホンアレイ統合による音源追跡のロバスト性の向上につ
いて,表出に関しては,韻律情報と頭部色を用いたマルチモーダル表出,指向
性スピーカを用いた新しい発話機能の導入に関して紹介する. |
(英) |
To realize natural human-robot interaction, we consider that a robot
should have at least two functions, that is, real-world auditory
scene analysis by a robot to understand the surrounding environments,
and robot expression to send information to users intelligibly and
naturally. These functions should be highly-robust against
environmental changes because the robot has to work in
dynamically-changing noisy environments. This paper addresses
information integration to improve robustness of these functions
since we believe that such a integration approach improves robustness,
and describes four research topics based on the integration approach
-- integration of sound source separation and automatic speech
recognition based on missing feature theory, sound source tracking by
integration of two types of microphone arrays, multimodal expression by
using prosodic information and head colors, and new speech function
using a directional speaker. |
キーワード |
(和) |
人ロボットインタラクション / 情報統合 / ロボット聴覚 / 実環境音環境理解 / ロボット表出 / / / |
(英) |
human-robot interaction / information integration / robot audition / real-world auditory scene analysis / robot expression / / / |
文献情報 |
信学技報, vol. 106, no. 298, NLC2006-17, pp. 19-26, 2006年10月. |
資料番号 |
NLC2006-17 |
発行日 |
2006-10-12 (TL, NLC, PRMU) |
ISSN |
Print edition: ISSN 0913-5685 |
PDFダウンロード |
|
研究会情報 |
研究会 |
PRMU NLC TL |
開催期間 |
2006-10-19 - 2006-10-20 |
開催地(和) |
NHK技研 |
開催地(英) |
|
テーマ(和) |
(1) ヒューマンインタラクションとパターン認識・メディア理解・言語理解 (2) 深い言語処理のためのフレームワーク |
テーマ(英) |
|
講演論文情報の詳細 |
申込み研究会 |
NLC |
会議コード |
2006-10-PRMU-NLC-TL |
本文の言語 |
日本語 |
タイトル(和) |
人・ロボット音声インタラクションのための情報統合に向けて |
サブタイトル(和) |
|
タイトル(英) |
* |
サブタイトル(英) |
|
キーワード(1)(和/英) |
人ロボットインタラクション / human-robot interaction |
キーワード(2)(和/英) |
情報統合 / information integration |
キーワード(3)(和/英) |
ロボット聴覚 / robot audition |
キーワード(4)(和/英) |
実環境音環境理解 / real-world auditory scene analysis |
キーワード(5)(和/英) |
ロボット表出 / robot expression |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
中臺 一博 / Kazuhiro Nakadai / ナカダイ カズヒロ |
第1著者 所属(和/英) |
(株)ホンダ・リサーチ・インスティチュート・ジャパン/東京工業大学 (略称: ホンダ・リサーチ・インスティチュート・ジャパン/東工大)
Honda Research Institute Japan Co., Ltd (略称: HRI-JP) |
第2著者 氏名(和/英/ヨミ) |
/ / |
第2著者 所属(和/英) |
(略称: )
(略称: ) |
第3著者 氏名(和/英/ヨミ) |
/ / |
第3著者 所属(和/英) |
(略称: )
(略称: ) |
第4著者 氏名(和/英/ヨミ) |
/ / |
第4著者 所属(和/英) |
(略称: )
(略称: ) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2006-10-19 13:30:00 |
発表時間 |
60分 |
申込先研究会 |
NLC |
資料番号 |
TL2006-21, NLC2006-17, PRMU2006-98 |
巻番号(vol) |
vol.106 |
号番号(no) |
no.296(TL), no.298(NLC), no.300(PRMU) |
ページ範囲 |
pp.19-26(TL), pp.19-26(NLC), pp.37-44(PRMU) |
ページ数 |
8 |
発行日 |
2006-10-12 (TL, NLC, PRMU) |
|