講演抄録/キーワード |
講演名 |
2009-11-27 15:40
事前知識を用いたNon-negative Matrix Factorization ○安倍 満・吉田悠一(デンソーアイティーラボラトリ) PRMU2009-130 |
抄録 |
(和) |
Divergence は情報理論の観点から定義された距離尺度であり,ヒストグラムや確率密度分布同士の距離尺度として有用である.本論文では,Divergence を最小化するNMF を教示付き学習に拡張する.入力データに関する事前知識を類似度行列の形式で表現し,Divergence NMF のコスト関数を修正する.そして,修正したコスト関数を最小化するための更新則を導く.提案手法では部分空間が教示に従って構築されるため,入力信号の本質的な特徴を記述できるようになる.これを立証するため,13 Natural Scene Categories [1] の画像をVisual Word によるヒストグラム表現に変換し,異なる様々な種類のNMF を適用して部分空間に射影した.そして,部分空間における特徴ベクトルに対してk-NN 法を適用し,認識率を評価した.その結果,Divergence NMF に事前知識を導入した提案手法が最も高い性能を示すことが確認できた. |
(英) |
Divergence metric is sutable for histogram features and probability density distribution, because the divergence metric is defined from the perspective of information theory. In this paper, non-negative matrix factorization with the divergence is extended to supervised subspace learning. Prior knowledge of input data is expressed as similarity matrix and incorporated into cost function of the divergence NMF as a penalty term. This enforces constructed subspace to be more discriminative for the input data. We propose multiplicative update rule for optimizing the modified cost function. In our experiments, the datasets of 13 Natural Scene Categories [1] were encoded into the histogram of visual words and tested for classification tasks using several variations of NMF and k-NN method. The experimental results revealed that the NMF with divergence metric outperformed the NMF with Frobenius norm under the condition both with and without prior knowledge. |
キーワード |
(和) |
Non-negative Matrix Factorization / 事前知識 / 部分空間 / / / / / |
(英) |
Non-negative matrix factorization / Prior knowledge / Sub space / / / / / |
文献情報 |
信学技報, vol. 109, no. 306, PRMU2009-130, pp. 265-270, 2009年11月. |
資料番号 |
PRMU2009-130 |
発行日 |
2009-11-19 (PRMU) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
PRMU2009-130 |