講演抄録/キーワード |
講演名 |
2020-01-22 17:20
アンサンブル学習を用いたスパースCNNのFPGA実装に関して ○倉持亮佑・佐田悠生・下田将之・佐藤真平・中原啓貴(東工大) VLD2019-65 CPSY2019-63 RECONF2019-55 |
抄録 |
(和) |
畳み込みニューラルネットワーク (CNN) は主に画像を対象としたタスクに広く用いられており,従来の 手法と比較して非常に高い精度が得られている.
しかし,CNN の演算には多くの積和演算が必要であるため消費電力 が高く,また,近年ではより高い認識精度が求められている.
これらに対し,本研究では CNN にスパース化を行う ことで弱学習器を生成し,それらのアンサンブルモデルを構築する手法を提案する.
アンサンブルモデルの認識精度 と推論速度にはトレードオフの関係があり,スパース率 (重みの値が 0 の割合) を適切に調節することにより,認識精度を向上させると共に,CNN 実行を高速化した.
また,本研究では様々な畳み込み演算を実現するための汎用畳み 込みコアを提案し,汎用畳み込みコアを多数用いてデータフローパイプラインアーキテクチャを実現することで,スパースな重みを持つ CNN のアンサンブルモデルを効率的に実行することを可能とした.
Xilinx Kintex UltraScale+ FPGA上に汎用畳み込みコアを実装し,スパース CNN のアンサンブルモデルを実行した際の認識精度と推論速度を測定した.
デスクトップ GPU による実行と比べて 3.09 倍高速に動作し,4.20倍消費電力が低く,電力効率が 13.33倍高いという結果が得られた. |
(英) |
A convolutional neural network (CNN) is one of the most successful neural networks and widely used for computer vision tasks.
However, it requires a massive number of multiplication and accumulation (MAC) computa- tions with high-power consumption, and higher recognition accuracy is desired for modern tasks.
In the paper, we apply a sparseness technique to generate a weak classifier to build an ensemble CNN.
We control sparse (zero weight) ratio to make an excellent performance and better recognition accuracy. We propose a universal convolution core to realize variations of modern convolutional operations, and extend it to many cores with pipelining architecture to achieve high-throughput operation.
By setting the sparsity ratio and the number of predictors appropriately, high-speed architectures are realized on the many universal convolution cores while the recognition accuracy is improved compared to the conventional single CNN realization.
We implemented the prototype of many universal convolution cores on the Xilinx Kintex UltraScale+ FPGA, and compared with the desktop GPU realization, it is 3.09 times faster, 4.20 times lower power, and 13.33 times better as for the performance per power. |
キーワード |
(和) |
Deep Learning / CNN / FPGA / アンサンブル学習 / / / / |
(英) |
Deep Learning / CNN / FPGA / Ensemble Learning / / / / |
文献情報 |
信学技報, vol. 119, no. 373, RECONF2019-55, pp. 67-72, 2020年1月. |
資料番号 |
RECONF2019-55 |
発行日 |
2020-01-15 (VLD, CPSY, RECONF) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
VLD2019-65 CPSY2019-63 RECONF2019-55 |
研究会情報 |
研究会 |
IPSJ-SLDM RECONF VLD CPSY IPSJ-ARC |
開催期間 |
2020-01-22 - 2020-01-24 |
開催地(和) |
慶応義塾大学 日吉キャンパス 来往舎 |
開催地(英) |
Raiosha, Hiyoshi Campus, Keio University |
テーマ(和) |
FPGA応用および一般 |
テーマ(英) |
FPGA Applications, etc. |
講演論文情報の詳細 |
申込み研究会 |
RECONF |
会議コード |
2020-01-SLDM-RECONF-VLD-CPSY-ARC |
本文の言語 |
日本語 |
タイトル(和) |
アンサンブル学習を用いたスパースCNNのFPGA実装に関して |
サブタイトル(和) |
|
タイトル(英) |
Many Universal Convolution Cores for Ensemble Sparse Convolutional Neural Networks |
サブタイトル(英) |
|
キーワード(1)(和/英) |
Deep Learning / Deep Learning |
キーワード(2)(和/英) |
CNN / CNN |
キーワード(3)(和/英) |
FPGA / FPGA |
キーワード(4)(和/英) |
アンサンブル学習 / Ensemble Learning |
キーワード(5)(和/英) |
/ |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
倉持 亮佑 / Ryosuke Kuramochi / クラモチ リョウスケ |
第1著者 所属(和/英) |
東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Titech) |
第2著者 氏名(和/英/ヨミ) |
佐田 悠生 / Youki Sada / サダ ユウキ |
第2著者 所属(和/英) |
東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Titech) |
第3著者 氏名(和/英/ヨミ) |
下田 将之 / Masayuki Shimoda / シモダ マサユキ |
第3著者 所属(和/英) |
東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Titech) |
第4著者 氏名(和/英/ヨミ) |
佐藤 真平 / Shimpei Sato / サトウ シンペイ |
第4著者 所属(和/英) |
東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Titech) |
第5著者 氏名(和/英/ヨミ) |
中原 啓貴 / Hiroki Nakahara / ナカハラ ヒロキ |
第5著者 所属(和/英) |
東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Titech) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
第21著者 氏名(和/英/ヨミ) |
/ / |
第21著者 所属(和/英) |
(略称: )
(略称: ) |
第22著者 氏名(和/英/ヨミ) |
/ / |
第22著者 所属(和/英) |
(略称: )
(略称: ) |
第23著者 氏名(和/英/ヨミ) |
/ / |
第23著者 所属(和/英) |
(略称: )
(略称: ) |
第24著者 氏名(和/英/ヨミ) |
/ / |
第24著者 所属(和/英) |
(略称: )
(略称: ) |
第25著者 氏名(和/英/ヨミ) |
/ / |
第25著者 所属(和/英) |
(略称: )
(略称: ) |
第26著者 氏名(和/英/ヨミ) |
/ / |
第26著者 所属(和/英) |
(略称: )
(略称: ) |
第27著者 氏名(和/英/ヨミ) |
/ / |
第27著者 所属(和/英) |
(略称: )
(略称: ) |
第28著者 氏名(和/英/ヨミ) |
/ / |
第28著者 所属(和/英) |
(略称: )
(略称: ) |
第29著者 氏名(和/英/ヨミ) |
/ / |
第29著者 所属(和/英) |
(略称: )
(略称: ) |
第30著者 氏名(和/英/ヨミ) |
/ / |
第30著者 所属(和/英) |
(略称: )
(略称: ) |
第31著者 氏名(和/英/ヨミ) |
/ / |
第31著者 所属(和/英) |
(略称: )
(略称: ) |
第32著者 氏名(和/英/ヨミ) |
/ / |
第32著者 所属(和/英) |
(略称: )
(略称: ) |
第33著者 氏名(和/英/ヨミ) |
/ / |
第33著者 所属(和/英) |
(略称: )
(略称: ) |
第34著者 氏名(和/英/ヨミ) |
/ / |
第34著者 所属(和/英) |
(略称: )
(略称: ) |
第35著者 氏名(和/英/ヨミ) |
/ / |
第35著者 所属(和/英) |
(略称: )
(略称: ) |
第36著者 氏名(和/英/ヨミ) |
/ / |
第36著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2020-01-22 17:20:00 |
発表時間 |
25分 |
申込先研究会 |
RECONF |
資料番号 |
VLD2019-65, CPSY2019-63, RECONF2019-55 |
巻番号(vol) |
vol.119 |
号番号(no) |
no.371(VLD), no.372(CPSY), no.373(RECONF) |
ページ範囲 |
pp.67-72 |
ページ数 |
6 |
発行日 |
2020-01-15 (VLD, CPSY, RECONF) |
|