講演抄録/キーワード |
講演名 |
2022-06-09 15:45
スパイキングニューラルネットワークとreward-modulated STDPによるリザバーコンピューティング ○鶴海杭之・田中剛平(東大) NLP2022-7 CCS2022-7 |
抄録 |
(和) |
先行研究にて,リザバーコンピューティングの代表的なモデルであるecho state network(ESN)の学習則としてreward-modulated Hebbian learning (RMHL)を用いて,非線形性やワーキングメモリを必要とするタスクが遂行できることが確かめられている.また,ESNより生物学的妥当性の高い,スパイキングニューラルネットワーク(SNN)を用いたリザバーコンピューティングの代表的なモデルであるliquid state machine(LSM)を,強化学習に使った研究はあるが,RMHLに類似したSNNの学習則であるreward-modulated STDP(RM-STDP)が学習則として用いられたことはなかった.本発表では,リザバーにSNNを用い,RM-STDPによって学習するリザバーコンピューティングを,線形分離不可能なXOR問題に適用した実験について発表する. |
(英) |
In a previous study, it was verified that tasks requiring nonlinearity and working memory can be performed using reward-modulated Hebbian learning (RMHL) as a learning rule for echo state networks (ESN), which is a representative model for reservoir computing. Also, some studies have used liquid state machines (LSM) for reinforcement learning, which is a more biologically relevant model for reservoir computing based on spiking neural networks (SNN) than the ESNs. However, reward-modulated STDP (RM-STDP), which is a learning rule for SNN similar to RMHL, has not been used as a learning rule in those studies. In this presentation, we will show an experiment in which a reservoir computing model based on an SNN reservoir and RM-STDP, is applied to the linearly inseparable XOR problem. |
キーワード |
(和) |
スパイキングニューラルネットワーク / reward-modulated STDP / リザバーコンピューティング / 強化学習 / / / / |
(英) |
spiking neural network / reward-modulated STDP / reservoir computing / reinforcement learning / / / / |
文献情報 |
信学技報, vol. 122, no. 65, NLP2022-7, pp. 31-35, 2022年6月. |
資料番号 |
NLP2022-7 |
発行日 |
2022-06-02 (NLP, CCS) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
NLP2022-7 CCS2022-7 |
研究会情報 |
研究会 |
CCS NLP |
開催期間 |
2022-06-09 - 2022-06-10 |
開催地(和) |
大阪大学 豊中キャンパス シグマホール |
開催地(英) |
|
テーマ(和) |
一般 |
テーマ(英) |
|
講演論文情報の詳細 |
申込み研究会 |
NLP |
会議コード |
2022-06-CCS-NLP |
本文の言語 |
日本語 |
タイトル(和) |
スパイキングニューラルネットワークとreward-modulated STDPによるリザバーコンピューティング |
サブタイトル(和) |
|
タイトル(英) |
Reservoir computing with spiking neural networks and reward-modulated STDP |
サブタイトル(英) |
|
キーワード(1)(和/英) |
スパイキングニューラルネットワーク / spiking neural network |
キーワード(2)(和/英) |
reward-modulated STDP / reward-modulated STDP |
キーワード(3)(和/英) |
リザバーコンピューティング / reservoir computing |
キーワード(4)(和/英) |
強化学習 / reinforcement learning |
キーワード(5)(和/英) |
/ |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
鶴海 杭之 / Takayuki Tsurumi / ツルミ タカユキ |
第1著者 所属(和/英) |
東京大学 (略称: 東大)
The University of Tokyo (略称: UTokyo) |
第2著者 氏名(和/英/ヨミ) |
田中 剛平 / Gouhei Tanaka / タナカ ゴウヘイ |
第2著者 所属(和/英) |
東京大学 (略称: 東大)
The University of Tokyo (略称: UTokyo) |
第3著者 氏名(和/英/ヨミ) |
/ / |
第3著者 所属(和/英) |
(略称: )
(略称: ) |
第4著者 氏名(和/英/ヨミ) |
/ / |
第4著者 所属(和/英) |
(略称: )
(略称: ) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2022-06-09 15:45:00 |
発表時間 |
25分 |
申込先研究会 |
NLP |
資料番号 |
NLP2022-7, CCS2022-7 |
巻番号(vol) |
vol.122 |
号番号(no) |
no.65(NLP), no.66(CCS) |
ページ範囲 |
pp.31-35 |
ページ数 |
5 |
発行日 |
2022-06-02 (NLP, CCS) |
|