講演抄録/キーワード |
講演名 |
2022-01-17 11:20
特定クラスのリコール改善のための加法的角度マージン損失による分類器学習 ○西山大輝(筑波大)・福地一斗・秋本洋平・佐久間 淳(筑波大/理研) IBISML2021-22 |
抄録 |
(和) |
多クラス分類モデルの実世界応用では誤判定が重大な損失に繋がるクラスのRecallをより高くしたいニーズがある。本研究ではCross-Entropy Lossを用いた場合と比較して、Accuracyを保ちつつ重要クラスのRecallを改善できる損失関数を提案する。既存研究では最後の全結合層の重みと特徴ベクトルのなす角度の大きさに基づいて損失を与えることで良い成果が出ている。提案法ではこれに加え、この角度に対して重要クラスの特徴を学習する場合に限りペナルティを与える。提案法は重要クラスの特徴と重みのなす角度の分散を、他のクラスと比較して相対的に低下させることに効果があることを実験により示した。CIFAR-10、GTSRB、AwA2からの合計9クラスを対象にした実験で、提案法はCross-Entropy Lossに対して最大約9%のRecall改善をAccuracyを損なうことなく達成できることを確認した。 |
(英) |
In real-world applications of multiclass classification models, there is a need to increase the recall of classes where misjudgments lead to serious losses. In this paper, we propose a loss function that can improve the recall of an important class while maintaining accuracy compared to the case using Cross-Entropy Loss. Existing studies have shown good results by giving the loss based on the magnitude of the angle between the weights of the last all-connected layer and the feature vector. In the proposed method, in addition to this, we add a penalty only when we learn important class features for that angle. Experiments showed that the proposed method effectively reduced the variance of the angles between the features and weights of the important classes relative to the other classes. Experiments on a total of 9 classes from CIFAR-10, GTSRB, and AwA2 showed that the proposed method could achieve up to about 9% recall improvement on Cross-Entropy Loss without sacrificing accuracy. |
キーワード |
(和) |
機械学習 / CNN / 多クラス分類問題 / 損失関数 / 実世界問題 / ArcFace / コスト考慮型学習 / |
(英) |
Machine Learning / CNN / Multiclass Classification / Loss Function / Real-World / ArcFace / Cost-Sensitive Learning / |
文献情報 |
信学技報, vol. 121, no. 321, IBISML2021-22, pp. 29-36, 2022年1月. |
資料番号 |
IBISML2021-22 |
発行日 |
2022-01-10 (IBISML) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
IBISML2021-22 |