講演抄録/キーワード |
講演名 |
2017-06-23 16:25
選択的不感化ニューラルネットの追加学習能力の解析 ○市場知樹・丹野智博・堀江和正・井澤 淳・染野翔一・森田昌彦(筑波大) NC2017-9 |
抄録 |
(和) |
大域的な汎化が可能な従来のニューラルネットワーク(NN)で追加学習を行うと,学習済みの入出力関係が壊れるという問題がある.
選択的不感化ニューラルネット(SDNN)はこの問題が発生しないことが応用研究より示唆されているがその理由は不明である.
そこで本研究では,2変数関数近似の追加学習課題における数値実験により,SDNNと従来のNNの性質の違いを解析し,追加学習におけるSDNNの能力とその要因を解明する.
結果,SDNNは従来のNNと異なり,追加学習時個々の学習サンプルの学習の影響は小さいが,学習サンプルを増やしていくと軸平行線上において学習の影響が大きく広がるという性質を持つことが分かった.
そのためSDNNは大域への汎化が可能でありながら学習済みの入出力関係を壊さずに追加学習を行うこともできると考えられる. |
(英) |
A conventional neural network with high generalization ability is known to entirely forget the previously learned information by sequential learning.
Recent applied researches have showed that selective desensitization neural network (SDNN) does not have this problem, but its factors are unclear.
The present study clarifies the capability and its factors of SDNN on sequential learning by analyzing the difference in characteristics of SDNN and conventional neural networks through numerical experiments of sequential learning on two-dimensional function approximation tasks.
As a result, SDNN was able to not only locally fit to each of the new data but also affect widely to complement between samples when several similar data gathered near.
These characteristics of SDNN contribute to its high capability to both preserve the previous model and effectively fit to the new data while keeping high generalization ability. |
キーワード |
(和) |
関数近似 / ニューラルネットワーク / 選択的不感化ニューラルネット / 追加学習 / 大域的汎化 / / / |
(英) |
Function approximation / Neural network / Selective Desensitization Neural Network / Sequential learning / Global generalization / / / |
文献情報 |
信学技報, vol. 117, no. 109, NC2017-9, pp. 27-32, 2017年6月. |
資料番号 |
NC2017-9 |
発行日 |
2017-06-16 (NC) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
NC2017-9 |