講演抄録/キーワード |
講演名 |
2015-08-20 13:25
[招待講演]TRECVID物体検索タスクの紹介とNIIでの取り組み ○佐藤真一(NII) SIP2015-60 |
抄録 |
(和) |
画像・映像中の物体検索、特に特定物体検索は、商品、ロゴマーク、建造物(ランドマーク)等を検索する技術であり、商品等の当該物体に関する関連情報の調査、データベース中の当該物体の検出並びに計数、更にはランドマーク物体の検出による入力画像の撮像場所の推定等、様々な応用が考えられる。コンピュータビジョン分野においても、建造物、商品、ロゴマーク等を対象としたベンチマークデータセットが構築され、様々な手法が検討されている。映像解析・検索の国際共同研究ワークショップであるTRECVIDにおいても、インスタンスサーチと称して、映像中の特定物体の検索に関するタスクが設けられており、検討されている。TRECVIDインスタンスサーチでは、そのデータ収集並びに問い合わせ作成の方法から、他のベンチマークデータに比べてより挑戦的な特定物体検索タスクとなっていると考えられる。本講演では、TRECVIDインスタンスサーチについて概要を紹介し、なぜ他のベンチマークデータより挑戦的なのか、どのような点が課題となっているのか等について概観する。また、NIIチームにおける近年のインスタンスサーチの取り組みについても紹介する。 |
(英) |
Object retrieval in images and videos, especially instance search, is intended to retrieve specific objects such as commercial products, logo marks, or buildings (e.g., landmarks), and thus has many applications including inspection of related information of the target objects, specific object detection and enumeration in databases, and location estimation by identifying landmark objects. In computer vision field, instance search is intensively studied and related benchmark datasets have been designed such as buildings, products, and logo marks. In TRECVID, which is international collaborative research workshop of video analysis and retrieval, instance search task has been intensively studied. TRECVID instance search task is known to be more challenging than other well-known benchmark datasets mainly because of the uniqueness in data acquisition and query formulation. In this talk, TRECVID instance search is briefly introduced to reveal why its more challenging than other benchmark datasets and to discuss what are the current research topics. Recent approaches of NII team are also introduced. |
キーワード |
(和) |
TRECVID / 特定物体検索 / インスタンスサーチ / / / / / |
(英) |
TRECVID / Instance Search / / / / / / |
文献情報 |
信学技報, vol. 115, no. 182, SIP2015-60, pp. 49-49, 2015年8月. |
資料番号 |
SIP2015-60 |
発行日 |
2015-08-12 (SIP) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
SIP2015-60 |
研究会情報 |
研究会 |
SIP |
開催期間 |
2015-08-19 - 2015-08-20 |
開催地(和) |
国立情報学研究所 |
開催地(英) |
National Institute of informatics |
テーマ(和) |
数理,学習,信号処理一般(画像・音声音響・通信・実現システム・基礎等) |
テーマ(英) |
|
講演論文情報の詳細 |
申込み研究会 |
SIP |
会議コード |
2015-08-SIP |
本文の言語 |
日本語 |
タイトル(和) |
TRECVID物体検索タスクの紹介とNIIでの取り組み |
サブタイトル(和) |
|
タイトル(英) |
Introduction of TRECVID Instance Search Task and NII Approach |
サブタイトル(英) |
|
キーワード(1)(和/英) |
TRECVID / TRECVID |
キーワード(2)(和/英) |
特定物体検索 / Instance Search |
キーワード(3)(和/英) |
インスタンスサーチ / |
キーワード(4)(和/英) |
/ |
キーワード(5)(和/英) |
/ |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
佐藤 真一 / Shin'ichi Satoh / サトウ シンイチ |
第1著者 所属(和/英) |
国立情報学研究所 (略称: NII)
National Institute of Informatics (略称: NII) |
第2著者 氏名(和/英/ヨミ) |
/ / |
第2著者 所属(和/英) |
(略称: )
(略称: ) |
第3著者 氏名(和/英/ヨミ) |
/ / |
第3著者 所属(和/英) |
(略称: )
(略称: ) |
第4著者 氏名(和/英/ヨミ) |
/ / |
第4著者 所属(和/英) |
(略称: )
(略称: ) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2015-08-20 13:25:00 |
発表時間 |
60分 |
申込先研究会 |
SIP |
資料番号 |
SIP2015-60 |
巻番号(vol) |
vol.115 |
号番号(no) |
no.182 |
ページ範囲 |
p.49 |
ページ数 |
1 |
発行日 |
2015-08-12 (SIP) |
|