講演抄録/キーワード |
講演名 |
2019-03-18 10:30
CNN特徴量を用いた制約相互部分空間法に基づく歩容認証 ○酒井亮勢・枌 尚弥・福井和広(筑波大) BioX2018-50 PRMU2018-154 |
抄録 |
(和) |
歩容認証は,カメラから離れた場所からでも動作を測定可能であるため,認識対象の協力を必要とせず識別を実行できる.そのため,歩容認証に基づくシステムは,街中の監視や犯罪捜査など実問題に対して有効に機能することが期待されている.従来の歩容認証手法の多くは,歩行シーケンスを集約したGEIと呼ばれる特徴量を利用している.GEIは,人物の歩容特徴をコンパクトに表現できる一方,シーケンスの細密な構造情報を表現できない可能性がある.これに対し,相互部分空間法(MSM)に基づく手法では,歩行シーケンスの構造情報をコンパクトかつ高精度に表現可能であることが知られている.本論文では,MSMに基づく手法を強化するために,次の2つの機能を導入する:1)一般化差分部分空間(GDS)への射影によるクラス部分空間の準直交化,2)畳み込みニューラルネットワーク(CNN)を用いた各入力画像からの特徴抽出.GDSへの射影を導入した手法は,制約相互部分空間法(CMSM)と呼ばれ,画像セットに基づく識別に有効な手法として広く知られている.提案法は,大規模公開データベースであるOU-ISIR Large Population Databaseを用いた1000人規模の評価実験において,98.3%の精度を示した. |
(英) |
In this paper, we propose a high performance gait recognition framework. In recent years, the gait recognition has attracted as a biometric recognition system that can be applied to surveillance and criminal investigation. Mutual Subspace Method(MSM) is known as a robust method to the walking speed. We enhance the MSM to realize a high performance gait recognition. Specifically, projection of subspace in MSM to the generalized difference subspace, and CNN features are introduced to the framework. Evaluation experiments showed the effectiveness of the proposed method. |
キーワード |
(和) |
歩容認証 / 深層学習 / 畳み込みニューラルネットワーク / 相互部分空間法 / 制約相互部分空間法 / / / |
(英) |
Gait Recognition / Deep Learning / CNN / Mutual Subspace Method / Constraint Mutual Subspace Method / / / |
文献情報 |
信学技報, vol. 118, no. 513, PRMU2018-154, pp. 125-130, 2019年3月. |
資料番号 |
PRMU2018-154 |
発行日 |
2019-03-10 (BioX, PRMU) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
BioX2018-50 PRMU2018-154 |
研究会情報 |
研究会 |
PRMU BioX |
開催期間 |
2019-03-17 - 2019-03-18 |
開催地(和) |
電気通信大学 |
開催地(英) |
|
テーマ(和) |
社会と産業における安全・安心を支える認識・認証技術 |
テーマ(英) |
|
講演論文情報の詳細 |
申込み研究会 |
PRMU |
会議コード |
2019-03-PRMU-BioX |
本文の言語 |
日本語 |
タイトル(和) |
CNN特徴量を用いた制約相互部分空間法に基づく歩容認証 |
サブタイトル(和) |
|
タイトル(英) |
Gait Recognition Based on Constraint Mutual Subspace Method with CNN Features |
サブタイトル(英) |
|
キーワード(1)(和/英) |
歩容認証 / Gait Recognition |
キーワード(2)(和/英) |
深層学習 / Deep Learning |
キーワード(3)(和/英) |
畳み込みニューラルネットワーク / CNN |
キーワード(4)(和/英) |
相互部分空間法 / Mutual Subspace Method |
キーワード(5)(和/英) |
制約相互部分空間法 / Constraint Mutual Subspace Method |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
酒井 亮勢 / Akinari Sakai / サカイ アキナリ |
第1著者 所属(和/英) |
筑波大学 (略称: 筑波大)
University of Tsukuba (略称: University of Tsukuba) |
第2著者 氏名(和/英/ヨミ) |
枌 尚弥 / Naoya Sogi / ソギ ナオヤ |
第2著者 所属(和/英) |
筑波大学 (略称: 筑波大)
University of Tsukuba (略称: University of Tsukuba) |
第3著者 氏名(和/英/ヨミ) |
福井 和広 / Kazuhiro Fukui / フクイ カズヒロ |
第3著者 所属(和/英) |
筑波大学 (略称: 筑波大)
University of Tsukuba (略称: University of Tsukuba) |
第4著者 氏名(和/英/ヨミ) |
/ / |
第4著者 所属(和/英) |
(略称: )
(略称: ) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2019-03-18 10:30:00 |
発表時間 |
15分 |
申込先研究会 |
PRMU |
資料番号 |
BioX2018-50, PRMU2018-154 |
巻番号(vol) |
vol.118 |
号番号(no) |
no.512(BioX), no.513(PRMU) |
ページ範囲 |
pp.125-130 |
ページ数 |
6 |
発行日 |
2019-03-10 (BioX, PRMU) |