講演抄録/キーワード |
講演名 |
2019-03-06 10:00
Batch-normalizationがResNetのフィッシャー情報行列に与える影響の理論解析 ○古庄泰隆・池田和司(奈良先端大) IBISML2018-110 |
抄録 |
(和) |
ResNetを学習する際に様々なテクニックが使われている.
Batch-normalization(BN)はその1つであり,ResNetの勾配降下法による学習の収束速度を向上することが実験的に知られている.
本研究ではこのメカニズムを解明するために,BNがランダムな重みを持つResNetの損失関数の形状,特にフィッシャー情報行列(FIM)にどのような影響を与えるのかを解析し,次の結果を発見した.
ResNetのFIMの固有値は層の数に指数的に増加するため,勾配降下法に利用する学習率は小さく設定
する必要がある.
BNはこの固有値の増加をsub-linearに抑え大きな学習率を利用でき学習の収束速度を向上する. |
(英) |
ResNet have intensively been studied and many techniques have been used for better performance.
Batch-normalization (BN) is one of these techniques, which accelerates convergence of training ResNet.
To clear its acceleration mechanism, we analyzed how BN affects the loss landscape, in particular, the eigenvalues of the Fisher information matrix of ResNet.
Our results show that the ResNet has eigenvalues that grow exponentially with its depth,
and that the ResNet with BN has eigenvalues that grow sub-linear with its depth.
These imply that BN allows the ResNet to use larger learning rate and hence converges faster than the vanilla ResNet. |
キーワード |
(和) |
ニューラルネットワーク / ResNet / Batch-normalization / フィッシャー情報行列 / / / / |
(英) |
Neural networks / ResNet / Batch-normalization / Fisher information matrix / / / / |
文献情報 |
信学技報, vol. 118, no. 472, IBISML2018-110, pp. 39-44, 2019年3月. |
資料番号 |
IBISML2018-110 |
発行日 |
2019-02-26 (IBISML) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
IBISML2018-110 |