講演抄録/キーワード |
講演名 |
2010-05-14 14:15
競合学習を用いたエントロピー最小基準クラスタリング法 ○内山俊郎・江田毅晴・別所克人・内山 匡・田邊勝義(NTT) IE2010-39 PRMU2010-27 MI2010-27 |
抄録 |
(和) |
本稿では,クラスタの平均エントロピーを最小化する基準(エントロピー最小基
準と呼ぶ)のクラスタリングにおいて,競合学習を用いる方法(アルゴリズム)
を提案する.競合学習は,一般に各繰り返しにおいて入力データに対する勝者ク
ラスタを決定し,勝者のモデルを更新する.そしてエントロピー最小基準におい
ては,勝者を決定するときに各モデルによるクロスエントロピーの計算が必要と
なる.しかし,競合学習は逐次モデルを更新するため,ゼロ頻度問題を回避しな
がらモデルの確率値を適切に保つことは容易でない.そこで,本稿では勝者決定
と更新の順番を入れ替えて,悪影響なしにこの問題を回避する方法を示す.また,
文書分類精度を向上させるために,このクラスタリング技術を適用する新手法を
提案する.実験により,これら提案手法の有効性を示す. |
(英) |
We propose a novel method (algorithm), which uses competitive
learning, for clustering based on
minimizing average entropy in clusters (Minimum entropy
criterion). In each iteration, competitive learning usually
decides the winner of models for an input data and then
updates the model of the winner.
When deciding the winner, minimum entropy criterion requires
calculation of the cross-entropy against the models.
However, it is not easy to manage values of stochastic variables in
models with avoiding zero frequency problem, because competitive
learning updates models so many times. Therefore, we present the idea,
which updates models before deciding a winner, to avoid the zero
frequency problem without any bad influence. We also propose a new
method to apply the clustering technique for improving text
classification accuracy. The effectiveness of our methods is shown by
experiments. |
キーワード |
(和) |
クラスタリング / KLダイバージェンス / エントロピー最小基準 / 競合学習 / ナイーブベイズ分類器 / / / |
(英) |
Clustering / KL-divergence / Minimum entropy criterion / Competitive learning / Naive Bayes classifier / / / |
文献情報 |
信学技報, vol. 110, no. 27, PRMU2010-27, pp. 139-144, 2010年5月. |
資料番号 |
PRMU2010-27 |
発行日 |
2010-05-06 (IE, PRMU, MI) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
IE2010-39 PRMU2010-27 MI2010-27 |
|