講演抄録/キーワード |
講演名 |
2011-03-29 16:30
エラスティックネット型正則化を用いたマルチプルカーネル学習の速い収束レート ○鈴木大慈・冨岡亮太(東大)・杉山 将(東工大) IBISML2010-126 |
抄録 |
(和) |
本報告では,エラスティックネット型正則化を用いたマルチプルカーネル学習 (Multiple Kernel Leaning (MKL)) の
汎化誤差について考察する.ここでエラスティックネット型正則化とはスパース性を生み出す$\ell_1$項と推定量のスムーズさを
制御する$\ell_2$項の和で表わされる正則化手法である.
真の関数がスパースな表現を持つ場合を考え,エラスティックネット型MKLが$\ell_2$-混合ノルムで特徴づけられる球の上で
mini-maxレートを達成することを示す.
導出されたレートは真の関数が滑らかであればあるほど速く,これまで示されてきたレートよりもタイトである. |
(英) |
We investigate the learning rate of multiple kernel leaning (MKL)
with elastic-net regularization,
which consists of an $\ell_1$-regularizer for inducing the sparsity
and an $\ell_2$-regularizer for controlling the smoothness.
We focus on a sparse setting where the total number of kernels is large
but the number of non-zero components of the ground truth is relatively small,
and prove that elastic-net MKL achieves the minimax learning rate
on the $\ell_2$-mixed-norm ball.
Our bound is sharper than the convergence rates ever shown,
and has a property that the smoother the truth is,
the faster the convergence rate is. |
キーワード |
(和) |
マルチプルカーネル学習 / 収束レート / スパース学習 / エラスティックネット / 汎化誤差 / / / |
(英) |
Multiple Kernel Learning / Fast Convergence Rate / Sparse Learning / Elastic-Net / Generalization Error / / / |
文献情報 |
信学技報, vol. 110, no. 476, IBISML2010-126, pp. 153-160, 2011年3月. |
資料番号 |
IBISML2010-126 |
発行日 |
2011-03-21 (IBISML) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
IBISML2010-126 |