お知らせ 2023年度・2024年度 学生員 会費割引キャンペーン実施中です
お知らせ 技術研究報告と和文論文誌Cの同時投稿施策(掲載料1割引き)について
お知らせ 参加費の返金について
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2019-03-06 10:00
Batch-normalizationがResNetのフィッシャー情報行列に与える影響の理論解析
古庄泰隆池田和司奈良先端大IBISML2018-110
抄録 (和) ResNetを学習する際に様々なテクニックが使われている.
Batch-normalization(BN)はその1つであり,ResNetの勾配降下法による学習の収束速度を向上することが実験的に知られている.
本研究ではこのメカニズムを解明するために,BNがランダムな重みを持つResNetの損失関数の形状,特にフィッシャー情報行列(FIM)にどのような影響を与えるのかを解析し,次の結果を発見した.
ResNetのFIMの固有値は層の数に指数的に増加するため,勾配降下法に利用する学習率は小さく設定
する必要がある.
BNはこの固有値の増加をsub-linearに抑え大きな学習率を利用でき学習の収束速度を向上する. 
(英) ResNet have intensively been studied and many techniques have been used for better performance.
Batch-normalization (BN) is one of these techniques, which accelerates convergence of training ResNet.
To clear its acceleration mechanism, we analyzed how BN affects the loss landscape, in particular, the eigenvalues of the Fisher information matrix of ResNet.
Our results show that the ResNet has eigenvalues that grow exponentially with its depth,
and that the ResNet with BN has eigenvalues that grow sub-linear with its depth.
These imply that BN allows the ResNet to use larger learning rate and hence converges faster than the vanilla ResNet.
キーワード (和) ニューラルネットワーク / ResNet / Batch-normalization / フィッシャー情報行列 / / / /  
(英) Neural networks / ResNet / Batch-normalization / Fisher information matrix / / / /  
文献情報 信学技報, vol. 118, no. 472, IBISML2018-110, pp. 39-44, 2019年3月.
資料番号 IBISML2018-110 
発行日 2019-02-26 (IBISML) 
ISSN Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
PDFダウンロード IBISML2018-110

研究会情報
研究会 IBISML  
開催期間 2019-03-05 - 2019-03-06 
開催地(和) 理研AIP 
開催地(英) RIKEN AIP 
テーマ(和) 機械学習一般 
テーマ(英) Machine learning, etc. 
講演論文情報の詳細
申込み研究会 IBISML 
会議コード 2019-03-IBISML 
本文の言語 日本語 
タイトル(和) Batch-normalizationがResNetのフィッシャー情報行列に与える影響の理論解析 
サブタイトル(和)  
タイトル(英) Effects of Batch-normalization on Fisher Information Matrix of ResNet 
サブタイトル(英)  
キーワード(1)(和/英) ニューラルネットワーク / Neural networks  
キーワード(2)(和/英) ResNet / ResNet  
キーワード(3)(和/英) Batch-normalization / Batch-normalization  
キーワード(4)(和/英) フィッシャー情報行列 / Fisher information matrix  
キーワード(5)(和/英) /  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 古庄 泰隆 / Yasutaka Furusho / フルショウ ヤスタカ
第1著者 所属(和/英) 奈良先端科学技術大学院大学 (略称: 奈良先端大)
Nara Institute of Science and Technology (略称: NAIST)
第2著者 氏名(和/英/ヨミ) 池田 和司 / Kazushi Ikeda / イケダ カズシ
第2著者 所属(和/英) 奈良先端科学技術大学院大学 (略称: 奈良先端大)
Nara Institute of Science and Technology (略称: NAIST)
第3著者 氏名(和/英/ヨミ) / /
第3著者 所属(和/英) (略称: )
(略称: )
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 2019-03-06 10:00:00 
発表時間 30分 
申込先研究会 IBISML 
資料番号 IBISML2018-110 
巻番号(vol) vol.118 
号番号(no) no.472 
ページ範囲 pp.39-44 
ページ数
発行日 2019-02-26 (IBISML) 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会