お知らせ 2023年度・2024年度 学生員 会費割引キャンペーン実施中です
お知らせ 技術研究報告と和文論文誌Cの同時投稿施策(掲載料1割引き)について
お知らせ 電子情報通信学会における研究会開催について
お知らせ NEW 参加費の返金について
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2015-10-05 11:10
スパース化による動的バイナリーニューラルネットの学習
佐藤龍直斎藤利通法政大CAS2015-23 NLP2015-84
抄録 (和) 動的バイナリーニューラルネットワーク(DBNN)の学習と動作解析について考察する.本ネットワークは様々な2値周期軌道を生成することができる.この学習のねらいは所望の周期軌道の記憶や,生成された周期軌道の安定性をはかることにある.学習のため,相関学習に基づく簡素な学習法を導入する.この学習法で所望の周期軌道の記憶ができない場合,スパースに基づくアルゴリズムを導入する.安定性の強化のため,ネットワークを簡素なアルゴリズムによってスパース化する方法を導入する.ネットワークのふるまいを見るために,定常状態と過渡現象に関連する2つの特徴量を導入する.この特徴量で構成される平面によって,学習課程を視覚化することができる.簡素な例題による数値実験によって,学習法の効果を調べる. 
(英) This paper studies learning of the dynamic binary neural network that can generate various binary periodic orbits. The learning aims at storage of a desired periodic orbit and stabilization of the stored periodic orbits. For the storage, we have a simple correlation-based learning method. The sparsification based algorithm is applied also to storage of a desired memory that cannot be stored by the correlation based method. For the stabilization, we have a simple algorithm that sparsifies the connect matrix. In order to evaluate the network behavior, we introduce two feature quantities of steady states and transient phenomena. Using the two feature quantities, a feature quantity plane is constructed and the learning process can be visualized. Performing numerical experiments using a basic example, we investigate the effectiveness of learning algorithm.
キーワード (和) バイナリーニューラルネット / 相関学習 / スパース化 / 特徴量 / / / /  
(英) Binary Neural Networks / Correlation Learning / Sparsification / Quantities / / / /  
文献情報 信学技報, vol. 115, no. 240, NLP2015-84, pp. 15-20, 2015年10月.
資料番号 NLP2015-84 
発行日 2015-09-28 (CAS, NLP) 
ISSN Print edition: ISSN 0913-5685    Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
PDFダウンロード CAS2015-23 NLP2015-84

研究会情報
研究会 NLP CAS  
開催期間 2015-10-05 - 2015-10-06 
開催地(和) アステールプラザ(広島市) 
開催地(英) Aster Plaza 
テーマ(和) 一般 
テーマ(英)  
講演論文情報の詳細
申込み研究会 NLP 
会議コード 2015-10-NLP-CAS 
本文の言語 日本語 
タイトル(和) スパース化による動的バイナリーニューラルネットの学習 
サブタイトル(和)  
タイトル(英) Learning of Dynamic Binary Neural Networks by Sparsification 
サブタイトル(英)  
キーワード(1)(和/英) バイナリーニューラルネット / Binary Neural Networks  
キーワード(2)(和/英) 相関学習 / Correlation Learning  
キーワード(3)(和/英) スパース化 / Sparsification  
キーワード(4)(和/英) 特徴量 / Quantities  
キーワード(5)(和/英) /  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 佐藤 龍直 / Ryuji Sato / サトウ リュウジ
第1著者 所属(和/英) 法政大学 (略称: 法政大)
Hosei University (略称: HU)
第2著者 氏名(和/英/ヨミ) 斎藤 利通 / Toshimichi Saito / サイトウ トシミチ
第2著者 所属(和/英) 法政大学 (略称: 法政大)
Hosei University (略称: HU)
第3著者 氏名(和/英/ヨミ) / /
第3著者 所属(和/英) (略称: )
(略称: )
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 2015-10-05 11:10:00 
発表時間 25分 
申込先研究会 NLP 
資料番号 CAS2015-23, NLP2015-84 
巻番号(vol) vol.115 
号番号(no) no.239(CAS), no.240(NLP) 
ページ範囲 pp.15-20 
ページ数
発行日 2015-09-28 (CAS, NLP) 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会