講演抄録/キーワード |
講演名 |
2019-03-17 16:10
組込みプロセッサ用AI処理向けベクトルユニットの設計 ○井出陽介・鈴木宏海・森 祐樹・山﨑信行(慶大) CPSY2018-107 DC2018-89 |
抄録 |
(和) |
近年, AI アプリケーションが幅広い分野で用いられるようになり,その学習や認識に用いられるニューラルネットワーク (NN) の高速化手法が盛んに研究されている. High-Performance Computing(HPC) 向けの研究では GPU や FPGA ,特定 NN 特化の ASIC を用いた手法等が提案されている.しかしながら,これらの手法は電力消費や面積の観点から組込み向けに適用するのは難しい.一方で組込みプロセッサの中にはマルチメディア処理向けにベクトルユニットを備えているものがある.本研究では組込みプロセッサである Responsive Multithreaded Processor(RMTP) のベクトルユニットを拡張し,畳み込みニューラルネットワークで頻繁に実行される畳み込み演算の性能向上を図った.ベクトル演算は長いベクトルに対する性能向上の効果が大きい一方で,二次元状でサイズの小さいカーネルを用いる畳み込み演算に対しては非効率となってしまう.そこで,ロード時に一次元のベクトルになるようデータ整形を行うことによって畳み込み演算の効率向上を図った.さらに,ベクトルユニットに低精度な演算を用いた SIMD 演算を導入し,複数のカーネルに対する畳み込み演算を並列に行うことで,計算精度とトレードオフに処理の高速化を行った. |
(英) |
In recent years, AI is applied in wide range of fields. Its learning and recognition are based on Neural Network (NN), which are actively studied. Although for High-Performance Computing (HPC), GPU, FPGA or ASIC specialized to certain NN is proposed, it is not easy to apply them to embedded applications because of power consumption and area constraints. On the other hand, some embedded processors adopt vector units for multimedia application. In this study, extended vector load function and lower precision SIMD operation are added to vector units to accelerate convolution, which is executed in Convolutional Neural Network. |
キーワード |
(和) |
組込みプロセッサ / ベクトルユニット / 畳み込みニューラルネットワーク / AI / / / / |
(英) |
Embedded Processor / Vector Unit / Convolutionanl Neural Network / AI / / / / |
文献情報 |
信学技報, vol. 118, no. 514, CPSY2018-107, pp. 167-172, 2019年3月. |
資料番号 |
CPSY2018-107 |
発行日 |
2019-03-10 (CPSY, DC) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
CPSY2018-107 DC2018-89 |
|