講演抄録/キーワード |
講演名 |
2022-03-02 13:25
[ポスター講演]頭蓋内脳波からのTransformerモデルによるテキストデコーディング ○古明地秀治・重見 開(東京農工大)・三橋 匠・飯村康司・鈴木皓晴・菅野秀宣(順天堂大)・篠田浩一(東工大)・田中聡久(東京農工大) EA2021-87 SIP2021-114 SP2021-72 |
抄録 |
(和) |
侵襲的brain–machine interface (BMI) は,人間の脳から直接脳波を取得することで,音声コミュニケーションを実現する技術として期待されている.本稿では,Transformerエンコーダを取り入れたsequence-to-sequence(Seq2seq)モデル(Transformer Seq2seq)により,文発声時の頭蓋内脳波からテキストをデコードする.Transformerは,自然言語処理や音声認識の分野で実績のあるニューラルネットモデルであり,入出力系列間の長期的な依存関係を学習する.てんかん治療のため頭蓋内に電極を留置した7名による文発声時における頭蓋内脳波を計測し,TransformerSeq2seqモデルにより発声テキストのデコーディングを試みた.その結果,実験参加者の中で最も高い文節誤り率は16.4%を達成した.また,このモデルによると全参加者の文節誤り率の中央値(±標準偏差)は31.3(±10.0%)であった.このことは,頭蓋内脳波からのテキストデコーディングに,Transformerが有効であることを示している. |
(英) |
Invasive brain-machine interfaces (BMIs) are a promising neurotechnology for achieving direct speech communication from a human brain but face many challenges. This paper measured the invasive electrocorticogram (ECoG) signals from seven participating epilepsy patients as they spoke a sentence consisting of multiple phrases. A Transformer encoder was incorporated into a “sequence-to-sequence” model (Transformer Seq2seq) to decode spoken sentences from the ECoG. A Transformer is a successful neural network model for natural language processing and automatic speech recognition. The decoding test revealed that the use of the Transformer model achieved a minimum phrase error rate of 16.4% for one best participant; moreover, the median (±standard deviation) of PER for the Transformer Seq2seq across seven participants was31.3% (±10.0%). This result showed that the Transformer Seq2seq effectively decoded from ECoG. |
キーワード |
(和) |
頭蓋内脳波 / Brain--machine interface / Transformer エンコーダ / sequence to sequence / / / / |
(英) |
Electrocorticography / Brain--machine interface / Transformer encoder / Sequence to sequence / / / / |
文献情報 |
信学技報, vol. 121, no. 384, SIP2021-114, pp. 146-151, 2022年3月. |
資料番号 |
SIP2021-114 |
発行日 |
2022-02-22 (EA, SIP, SP) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
EA2021-87 SIP2021-114 SP2021-72 |