お知らせ 研究会の開催と会場に参加される皆様へのお願い(2022年6月開催~)
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2020-01-22 17:45
畳み込みニューラルネットワークを用いた単眼深度推定のFPGA実装について
佐田悠生下田将之佐藤真平中原啓貴東工大VLD2019-66 CPSY2019-64 RECONF2019-56
抄録 (和) 深度推定は3次元のシーン解析に不可欠であり,ロボティクスや自動運転,ドローンなどで活用されている.
近年の畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)の著しい発展により,
様々な画像認識アプリケーションにおいて高い認識精度を達成している.
単眼深度推定はCNNを用いた画像認識アプリケーションの一つで,
単眼カメラからのRGB画像からピクセル単位での深度を推定する.
単眼深度推定は,LiDARやステレオカメラなどの高価な深度センサを必要とせず,
安価な単眼カメラで実現できるため低コストである.
本研究では,単眼深度推定を安価なFPGAに実装することで軽量かつ電力効率に優れたシステムを構築する.
MobileNetV1ベースのCNNを量子化と枝刈りによって最適化を行った.
提案アーキテクチャはDepthwise畳み込みやPointwise畳み込み,疎なPointwise畳み込みなど様々な畳み込み計算を単一の回路で行う.
Intel社のOpenCL 17.1を用いてOpenVINO Starter Kitに実装し,
52FPS(Frames Per Second)を達成した. 
(英) Among a lot of image recognition applications, Convolutional Neural Network (CNN) has gained high accuracy and increasing interest. It is rapidly required to implement a real-time and energy-efficient depth estimation in embedded systems. Because depth estimation is important to understand the scene and it is required on many applications such as robotics, 3D modeling and driving automation systems. The monocular depth estimation estimates the depth from a single RGB image. And it is paid attention due to the reliability of a monocular RGB camera, low cost and its small requirement of hardware resource. Moreover, there is the possibility to replace an expensive depth sensor such as a LiDAR or a stereo camera into the general RGB camera.
We choose the CNN-based monocular depth estimation since CNN schemes are able to realize accurate and dense estimation. However, CNN schemes require a massive amount of multiplications and it makes difficult to implement an accurate system under limited device resources. To handle this, we adopt 8-bit quantization and weight pruning in order to implement an FPGA with high inference speed. Then, our CNN-based estimation is demonstrated on OpenVINO Starter Kit due to real-time requirements and energy-efficiency. Because GPUs consume too much of power and CPUs are too slow due to the numerous operations in the CNN, FPGA system is better performance per power using a custom design for the depth estimation.
キーワード (和) 畳み込みニューラルネットワーク / FPGA / 単眼深度推定 / 量子化 / 枝刈り / / /  
(英) Convolutional Neural Network / FPGA / Monocular Depth Estimation / Quantization / Pruning / / /  
文献情報 信学技報, vol. 119, no. 373, RECONF2019-56, pp. 73-78, 2020年1月.
資料番号 RECONF2019-56 
発行日 2020-01-15 (VLD, CPSY, RECONF) 
ISSN Print edition: ISSN 0913-5685  Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
PDFダウンロード VLD2019-66 CPSY2019-64 RECONF2019-56

研究会情報
研究会 IPSJ-SLDM RECONF VLD CPSY IPSJ-ARC  
開催期間 2020-01-22 - 2020-01-24 
開催地(和) 慶応義塾大学 日吉キャンパス 来往舎 
開催地(英) Raiosha, Hiyoshi Campus, Keio University 
テーマ(和) FPGA応用および一般 
テーマ(英) FPGA Applications, etc. 
講演論文情報の詳細
申込み研究会 RECONF 
会議コード 2020-01-SLDM-RECONF-VLD-CPSY-ARC 
本文の言語 日本語 
タイトル(和) 畳み込みニューラルネットワークを用いた単眼深度推定のFPGA実装について 
サブタイトル(和)  
タイトル(英) An FPGA Implementation of Monocular Depth Estimation 
サブタイトル(英)  
キーワード(1)(和/英) 畳み込みニューラルネットワーク / Convolutional Neural Network  
キーワード(2)(和/英) FPGA / FPGA  
キーワード(3)(和/英) 単眼深度推定 / Monocular Depth Estimation  
キーワード(4)(和/英) 量子化 / Quantization  
キーワード(5)(和/英) 枝刈り / Pruning  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 佐田 悠生 / Youki Sada / サダ ユウキ
第1著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: titech)
第2著者 氏名(和/英/ヨミ) 下田 将之 / Masayuki Shimoda / シモダ マサユキ
第2著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: titech)
第3著者 氏名(和/英/ヨミ) 佐藤 真平 / Shimpei Sato / サトウ シンペイ
第3著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: titech)
第4著者 氏名(和/英/ヨミ) 中原 啓貴 / Hiroki Nakahara / ナカハラ ヒロキ
第4著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: titech)
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 2020-01-22 17:45:00 
発表時間 25分 
申込先研究会 RECONF 
資料番号 VLD2019-66, CPSY2019-64, RECONF2019-56 
巻番号(vol) vol.119 
号番号(no) no.371(VLD), no.372(CPSY), no.373(RECONF) 
ページ範囲 pp.73-78 
ページ数
発行日 2020-01-15 (VLD, CPSY, RECONF) 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会