お知らせ 研究会の開催と会場に参加される皆様へのお願い(2022年6月開催~)
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2020-01-22 17:20
アンサンブル学習を用いたスパースCNNのFPGA実装に関して
倉持亮佑佐田悠生下田将之佐藤真平中原啓貴東工大VLD2019-65 CPSY2019-63 RECONF2019-55
抄録 (和) 畳み込みニューラルネットワーク (CNN) は主に画像を対象としたタスクに広く用いられており,従来の 手法と比較して非常に高い精度が得られている.
しかし,CNN の演算には多くの積和演算が必要であるため消費電力 が高く,また,近年ではより高い認識精度が求められている.
これらに対し,本研究では CNN にスパース化を行う ことで弱学習器を生成し,それらのアンサンブルモデルを構築する手法を提案する.
アンサンブルモデルの認識精度 と推論速度にはトレードオフの関係があり,スパース率 (重みの値が 0 の割合) を適切に調節することにより,認識精度を向上させると共に,CNN 実行を高速化した.
また,本研究では様々な畳み込み演算を実現するための汎用畳み 込みコアを提案し,汎用畳み込みコアを多数用いてデータフローパイプラインアーキテクチャを実現することで,スパースな重みを持つ CNN のアンサンブルモデルを効率的に実行することを可能とした.
Xilinx Kintex UltraScale+ FPGA上に汎用畳み込みコアを実装し,スパース CNN のアンサンブルモデルを実行した際の認識精度と推論速度を測定した.
デスクトップ GPU による実行と比べて 3.09 倍高速に動作し,4.20倍消費電力が低く,電力効率が 13.33倍高いという結果が得られた. 
(英) A convolutional neural network (CNN) is one of the most successful neural networks and widely used for computer vision tasks.
However, it requires a massive number of multiplication and accumulation (MAC) computa- tions with high-power consumption, and higher recognition accuracy is desired for modern tasks.
In the paper, we apply a sparseness technique to generate a weak classifier to build an ensemble CNN.
We control sparse (zero weight) ratio to make an excellent performance and better recognition accuracy. We propose a universal convolution core to realize variations of modern convolutional operations, and extend it to many cores with pipelining architecture to achieve high-throughput operation.
By setting the sparsity ratio and the number of predictors appropriately, high-speed architectures are realized on the many universal convolution cores while the recognition accuracy is improved compared to the conventional single CNN realization.
We implemented the prototype of many universal convolution cores on the Xilinx Kintex UltraScale+ FPGA, and compared with the desktop GPU realization, it is 3.09 times faster, 4.20 times lower power, and 13.33 times better as for the performance per power.
キーワード (和) Deep Learning / CNN / FPGA / アンサンブル学習 / / / /  
(英) Deep Learning / CNN / FPGA / Ensemble Learning / / / /  
文献情報 信学技報, vol. 119, no. 373, RECONF2019-55, pp. 67-72, 2020年1月.
資料番号 RECONF2019-55 
発行日 2020-01-15 (VLD, CPSY, RECONF) 
ISSN Print edition: ISSN 0913-5685  Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
PDFダウンロード VLD2019-65 CPSY2019-63 RECONF2019-55

研究会情報
研究会 IPSJ-SLDM RECONF VLD CPSY IPSJ-ARC  
開催期間 2020-01-22 - 2020-01-24 
開催地(和) 慶応義塾大学 日吉キャンパス 来往舎 
開催地(英) Raiosha, Hiyoshi Campus, Keio University 
テーマ(和) FPGA応用および一般 
テーマ(英) FPGA Applications, etc. 
講演論文情報の詳細
申込み研究会 RECONF 
会議コード 2020-01-SLDM-RECONF-VLD-CPSY-ARC 
本文の言語 日本語 
タイトル(和) アンサンブル学習を用いたスパースCNNのFPGA実装に関して 
サブタイトル(和)  
タイトル(英) Many Universal Convolution Cores for Ensemble Sparse Convolutional Neural Networks 
サブタイトル(英)  
キーワード(1)(和/英) Deep Learning / Deep Learning  
キーワード(2)(和/英) CNN / CNN  
キーワード(3)(和/英) FPGA / FPGA  
キーワード(4)(和/英) アンサンブル学習 / Ensemble Learning  
キーワード(5)(和/英) /  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 倉持 亮佑 / Ryosuke Kuramochi / クラモチ リョウスケ
第1著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Titech)
第2著者 氏名(和/英/ヨミ) 佐田 悠生 / Youki Sada / サダ ユウキ
第2著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Titech)
第3著者 氏名(和/英/ヨミ) 下田 将之 / Masayuki Shimoda / シモダ マサユキ
第3著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Titech)
第4著者 氏名(和/英/ヨミ) 佐藤 真平 / Shimpei Sato / サトウ シンペイ
第4著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Titech)
第5著者 氏名(和/英/ヨミ) 中原 啓貴 / Hiroki Nakahara / ナカハラ ヒロキ
第5著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Titech)
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 2020-01-22 17:20:00 
発表時間 25分 
申込先研究会 RECONF 
資料番号 VLD2019-65, CPSY2019-63, RECONF2019-55 
巻番号(vol) vol.119 
号番号(no) no.371(VLD), no.372(CPSY), no.373(RECONF) 
ページ範囲 pp.67-72 
ページ数
発行日 2020-01-15 (VLD, CPSY, RECONF) 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会