講演抄録/キーワード |
講演名 |
2017-03-06 16:30
積分表現とKernel HerdingによるNeural Networkの学習 ○松原拓央・園田 翔・村田 昇(早大) IBISML2016-103 |
抄録 |
(和) |
Neural Networkによる関数近似問題において, 近似誤差がパラメータ数$ n $に対して$ mathcal{O}(frac{1}{n}) $で収束する学習アルゴリズムを提案する.
まず, Neural Networkの積分表現を再生核理論の観点で再定式化し, 再生核積分表現を導入する.
そして, 再生核積分表現にkernel herdingを適用することで, Neural Networkの学習法を提案する.
Kernel herding と組み合わせることで, これまで得られていた収束レート $ mathcal{O}(frac{1}{sqrt{n}}) $よりも速い収束レート $ mathcal{O}(frac{1}{n}) $が達成される. |
(英) |
A new learning algorithm for neural networks that converges at $mathcal{O}(frac{1}{n})$ with respect to model complexity $n$ is proposed.
First, we derive an RKHS (reproducing kernel Hilbert space) version of the integral representation of neural networks.
Then, combined with kernel herding, we propose a new learning algorithm for neural networks.
Numerical experiments supported the theoretical analysis that our method converges at $mathcal{O}(frac{1}{n})$, which is faster than known rate, $mathcal{O}(frac{1}{sqrt{n}})$. |
キーワード |
(和) |
Neural Network / 積分表現 / 再生核ヒルベルト空間 / Kernel Herding / 収束レート / / / |
(英) |
Neural Network / Integral Representation / RKHS / Kernel Herding / Convergence rate / / / |
文献情報 |
信学技報, vol. 116, no. 500, IBISML2016-103, pp. 25-31, 2017年3月. |
資料番号 |
IBISML2016-103 |
発行日 |
2017-02-27 (IBISML) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
IBISML2016-103 |
研究会情報 |
研究会 |
IBISML |
開催期間 |
2017-03-06 - 2017-03-07 |
開催地(和) |
東京工業大学 |
開催地(英) |
Tokyo Institute of Technology |
テーマ(和) |
統計数理,機械学習,データマイニング,一般 |
テーマ(英) |
Statistical Mathematics, Machine Learning, Data Mining, etc. |
講演論文情報の詳細 |
申込み研究会 |
IBISML |
会議コード |
2017-03-IBISML |
本文の言語 |
日本語 |
タイトル(和) |
積分表現とKernel HerdingによるNeural Networkの学習 |
サブタイトル(和) |
|
タイトル(英) |
New Lerning Algorythm of Neural Network using Integral Representation and Kernel Herding |
サブタイトル(英) |
|
キーワード(1)(和/英) |
Neural Network / Neural Network |
キーワード(2)(和/英) |
積分表現 / Integral Representation |
キーワード(3)(和/英) |
再生核ヒルベルト空間 / RKHS |
キーワード(4)(和/英) |
Kernel Herding / Kernel Herding |
キーワード(5)(和/英) |
収束レート / Convergence rate |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
松原 拓央 / Takuo Matsubara / マツバラ タクオ |
第1著者 所属(和/英) |
早稲田大学 (略称: 早大)
Waseda University (略称: Waseda Univ.) |
第2著者 氏名(和/英/ヨミ) |
園田 翔 / Sho Sonoda / ソノダ ショウ |
第2著者 所属(和/英) |
早稲田大学 (略称: 早大)
Waseda University (略称: Waseda Univ.) |
第3著者 氏名(和/英/ヨミ) |
村田 昇 / Noboru Murata / ムラタ ノボル |
第3著者 所属(和/英) |
早稲田大学 (略称: 早大)
Waseda University (略称: Waseda Univ.) |
第4著者 氏名(和/英/ヨミ) |
/ / |
第4著者 所属(和/英) |
(略称: )
(略称: ) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2017-03-06 16:30:00 |
発表時間 |
30分 |
申込先研究会 |
IBISML |
資料番号 |
IBISML2016-103 |
巻番号(vol) |
vol.116 |
号番号(no) |
no.500 |
ページ範囲 |
pp.25-31 |
ページ数 |
7 |
発行日 |
2017-02-27 (IBISML) |
|