講演抄録/キーワード |
講演名 |
2013-11-13 15:45
[ポスター講演]逐次学習のためのスクリーニングルール ○鈴木良規・奥村翔太・小川晃平・竹内一郎(名工大) IBISML2013-64 |
抄録 |
(和) |
オンライン学習などでは逐次的にデータが得られるたびにモデルの最適化を繰り返す必要があるので効率的なアルゴリズムが必要である. 本論文ではサポートベクトルマシン(SVM) を例としてスパースモデルの逐次学習を効率的に行う方法を提案する. 逐次学習では, モデルを更新する前後で大きな変化がないと考えられるため, 更新前のモデルで非サポートベクトル(SV) であったものは更新後でも非SV となっている可能性が高い. 従来法の多くでは, この考えに基づき, 更新前に非SV となったデータをあらかじめ削除して最適化が行われる. しかしながら, このようなヒューリスティクスは最適性の保証がない. 本研究では, 最適性を保証しつつ, 非SV をスクリーニングする(削除する) 方法を提案する. 数値実験を通して提案法の有効性を検証する. |
(英) |
Efficient optimization algorithm is required in online learning or other incremental learning scenario since the model must be repeatedly updated each time new data is available. In this paper, we propose an efficient algorithm for incremental sparse model learning with main focus on support vector machine (SVM). Since the difference between the two models before and after an incremental operation should be reasonably small, non-SVs in the former model tend to be non-SVs also in the latter model. Actually, many existing algorithm exploit this conjecture and use a heuristic for removing a portion of non-SVs in their incremental updating operation. In this paper, we introduce a screening algorithm that can safely remove a subset of non-SVs that are guaranteed to remained to be non-SVs after the incremental updating operation. We illustrate the effectiveness of our approach through numerical experiments. |
キーワード |
(和) |
サポートベクトルマシン / スクリーニングルール / 逐次学習 / / / / / |
(英) |
Support Vector Machine / Screening Rule / Incremental Learning / / / / / |
文献情報 |
信学技報, vol. 113, no. 286, IBISML2013-64, pp. 213-218, 2013年11月. |
資料番号 |
IBISML2013-64 |
発行日 |
2013-11-05 (IBISML) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
IBISML2013-64 |