講演抄録/キーワード |
講演名 |
2019-11-14 09:40
Wide-SIMDを用いたISAベースのスパースCNNのFPGA実装 ○神宮司明良・佐藤真平・中原啓貴(東工大) RECONF2019-37 |
抄録 |
(和) |
畳み込みニューラルネットワーク (Convolutional Neural Network : CNN) は画像認識で高い認識性能を達成することから, 自動車や防犯カメラなどの組み込みシステムにおける応用が期待されている.
組み込みシステムは安価なデバイスで実現されること, 電力性能に優れていることが求められる.
画像認識においてCNNは既存手法を大きく上回る識別精度を達成するが, CPUではリアルタイムな処理が実現できず, GPUでは消費電力が大きすぎる. FPGAによる実現は電力性能に優れるが,行列計算などの密な計算能力はGPUに劣る.
CNNの高速化手法として重みスパース化がある.
重みスパース化されたCNNでは, パラメータのほとんどがゼロになり, ゼロを含む積和演算が大部分を占める.
重みスパース化されたCNNを高速に計算するためには, ゼロを含む積和演算をスキップする必要があるが, ゼロ計算をスキップするためにはメモリへのランダムアクセスが必要となる.
一般にシーケンシャルアクセスと比べランダムアクセスは遅い.
特にGPUはランダムアクセスが遅いため, ゼロスキッピングはCNNの計算においてボトルネックとなる.
本論文では, Wide-SIMDを用いたゼロスキッピングを効率的に行うCNN計算のFPGA実装手法を提案する.
SIMD方式の演算アレイを提案し, オンチップメモリを広帯域なバッファとして用いることで, CNNの推論を高速に行う.
Xilinx社Vivado HLSを用いて回路の設計を行い, Digilent社PYNQ-Z1に実装した.
実験の結果, VGGベースのYOLOv2で86 image/sの速度が達成された. |
(英) |
Convolutional Neural Network (CNN) achieves high recognition performance in image recognition, and is expected to be applied in embedded systems such as automobiles and security cameras.
Embedded systems are required to be realized with inexpensive devices and to have excellent power performance.
In image recognition, CNN achieves a discrimination accuracy much higher than that of existing methods, but the CPU cannot realize real-time processing and the GPU consumes too much power. Computational power is inferior to GPU.
There is weight sparseness as a method for speeding up CNN.
In weighted sparse CNN, most of the parameters are zero, and the product-sum operation including zero accounts for the majority.
In order to calculate the weighted sparse CNN at high speed, it is necessary to skip the multiply-add operation including zero, but to skip zero calculation, random access to the memory is required.
Random access is generally slower than sequential access.
In particular, because GPUs have slow random access, zero skipping is a bottleneck in CNN calculations.
In this paper, we propose an FPGA implementation method of CNN calculation that efficiently performs zero skipping using Wide-SIMD.
We think that CNN inference can be performed at high speed by using a SIMD-type arithmetic array and on-chip memory as a wide-band buffer.
The circuit was designed using Xilinx Vivado HLS and implemented on Digilent PYNQ-Z1.
As a result of the experiment, a speed of 86 image/s was achieved with VGG-based YOLOv2. |
キーワード |
(和) |
CNN / FPGA / / / / / / |
(英) |
CNN / FPGA / / / / / / |
文献情報 |
信学技報, vol. 119, no. 287, RECONF2019-37, pp. 9-14, 2019年11月. |
資料番号 |
RECONF2019-37 |
発行日 |
2019-11-07 (RECONF) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
RECONF2019-37 |
研究会情報 |
研究会 |
VLD DC CPSY RECONF ICD IE IPSJ-SLDM IPSJ-EMB |
開催期間 |
2019-11-13 - 2019-11-15 |
開催地(和) |
愛媛県男女共同参画センター |
開催地(英) |
Ehime Prefecture Gender Equality Center |
テーマ(和) |
デザインガイア2019 -VLSI設計の新しい大地- |
テーマ(英) |
Design Gaia 2019 -New Field of VLSI Design- |
講演論文情報の詳細 |
申込み研究会 |
RECONF |
会議コード |
2019-11-VLD-DC-CPSY-RECONF-ICD-IE-SLDM-EMB-ARC |
本文の言語 |
日本語 |
タイトル(和) |
Wide-SIMDを用いたISAベースのスパースCNNのFPGA実装 |
サブタイトル(和) |
|
タイトル(英) |
FPGA implementation of ISA-based sparse CNN using Wide-SIMD |
サブタイトル(英) |
|
キーワード(1)(和/英) |
CNN / CNN |
キーワード(2)(和/英) |
FPGA / FPGA |
キーワード(3)(和/英) |
/ |
キーワード(4)(和/英) |
/ |
キーワード(5)(和/英) |
/ |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
神宮司 明良 / Akira Jinguji / ジングウジ アキラ |
第1著者 所属(和/英) |
東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Titech) |
第2著者 氏名(和/英/ヨミ) |
佐藤 真平 / Shimpei Sato / サトウ シンペイ |
第2著者 所属(和/英) |
東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Titech) |
第3著者 氏名(和/英/ヨミ) |
中原 啓貴 / Hiroki Nakahara / ナカハラ ヒロキ |
第3著者 所属(和/英) |
東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Titech) |
第4著者 氏名(和/英/ヨミ) |
/ / |
第4著者 所属(和/英) |
(略称: )
(略称: ) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2019-11-14 09:40:00 |
発表時間 |
25分 |
申込先研究会 |
RECONF |
資料番号 |
RECONF2019-37 |
巻番号(vol) |
vol.119 |
号番号(no) |
no.287 |
ページ範囲 |
pp.9-14 |
ページ数 |
6 |
発行日 |
2019-11-07 (RECONF) |
|