講演抄録/キーワード |
講演名 |
2022-06-10 13:00
[チュートリアル講演]高精度・高効率なロボットビジョンの構築法:深層学習用データセット生成法とハードウェア実装の両面より ○田向 権(九工大) SIS2022-10 |
抄録 |
(和) |
本チュートリアル講演では,高精度かつ高効率なロボットビジョンの構築法として,独自データセットの半自動生成法と,深層ニューラルネットワーク(DNN: Deep Neural Network)のField Programmable Gate Array(FPGA)の簡便な実装例を示す.独自データセットの半自動生成法においては,人手では膨大な時間がかかるアノテーション作業を完全に削減することで,約2時間程度で実用に耐えうる深層学習用のデータセットが生成できることを示す.RoboCupやWorld Robot Summitといった競技会を通した実環境下での評価結果を示す.また,DNNのFPGA実装においては,YOLO v3 tiny を題材にその実例を示す.本講演を通し,人工知能のエッジ応用において大きな障壁となる,データセット作成と電力問題に関して解決策の一例を示す. |
(英) |
This tutorial lecture explains a construction method for high-precision and efficient robot vision that includes a semi-automatic dataset generation method and an implementation method of deep neural networks (DNNs) on field-programmable gate arrays (FPGAs). The proposed dataset generation method ultimately reduces the time-consuming manual annotation process, and a generated dataset for DNNs can be prepared in about two hours. I show the evaluation results for a DNN trained by the generated dataset under real-world conditions through robot competitions such as RoboCup and World Robot Summit. We also show an example of FPGA implementation of YOLO v3 tiny. Through this presentation, I show examples of solutions for dataset preparation and power-consumption issues, which are significant barriers to edge applications of artificial intelligence. |
キーワード |
(和) |
深層学習 / DNN / データセット / FPGA / ロボットビジョン / RoboCup / World Robot Summit / |
(英) |
Deep Learning / DNN / Dataset / FPGA / Robot Vision / RoboCup / World Robot Summit / |
文献情報 |
信学技報, vol. 122, no. 62, SIS2022-10, pp. 45-48, 2022年6月. |
資料番号 |
SIS2022-10 |
発行日 |
2022-06-02 (SIS) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
SIS2022-10 |
研究会情報 |
研究会 |
SIS IPSJ-AVM |
開催期間 |
2022-06-09 - 2022-06-10 |
開催地(和) |
九州工業大学(若松) |
開催地(英) |
KIT(Wakamatsu Campus) |
テーマ(和) |
知的マルチメディアシステム, 組込み応用システム, 立体映像技術, 一般 |
テーマ(英) |
Intelligent Multimedia Systems, Applied Embedded Systems, Three-Dimensional Image Technology (3DIT), etc. |
講演論文情報の詳細 |
申込み研究会 |
SIS |
会議コード |
2022-06-SIS-AVM |
本文の言語 |
日本語 |
タイトル(和) |
高精度・高効率なロボットビジョンの構築法:深層学習用データセット生成法とハードウェア実装の両面より |
サブタイトル(和) |
|
タイトル(英) |
How to build a High-Precision and Efficient Robot Vision: Dataset Generation and Hardware Implementation for Deep Learning |
サブタイトル(英) |
|
キーワード(1)(和/英) |
深層学習 / Deep Learning |
キーワード(2)(和/英) |
DNN / DNN |
キーワード(3)(和/英) |
データセット / Dataset |
キーワード(4)(和/英) |
FPGA / FPGA |
キーワード(5)(和/英) |
ロボットビジョン / Robot Vision |
キーワード(6)(和/英) |
RoboCup / RoboCup |
キーワード(7)(和/英) |
World Robot Summit / World Robot Summit |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
田向 権 / Hakaru Tamukoh / タムコウ ハカル |
第1著者 所属(和/英) |
九州工業大学 (略称: 九工大)
Kyushu Institute of Technology (略称: Kyutech) |
第2著者 氏名(和/英/ヨミ) |
/ / |
第2著者 所属(和/英) |
(略称: )
(略称: ) |
第3著者 氏名(和/英/ヨミ) |
/ / |
第3著者 所属(和/英) |
(略称: )
(略称: ) |
第4著者 氏名(和/英/ヨミ) |
/ / |
第4著者 所属(和/英) |
(略称: )
(略称: ) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2022-06-10 13:00:00 |
発表時間 |
40分 |
申込先研究会 |
SIS |
資料番号 |
SIS2022-10 |
巻番号(vol) |
vol.122 |
号番号(no) |
no.62 |
ページ範囲 |
pp.45-48 |
ページ数 |
4 |
発行日 |
2022-06-02 (SIS) |
|