講演抄録/キーワード |
講演名 |
2023-03-02 11:25
Vision Transformerの係数付き1bit化 ○佐藤 駿・澤田 隼・大村英史・桂田浩一(東京理科大) PRMU2022-83 IBISML2022-90 |
抄録 |
(和) |
1bit化とはニューラルネットワークのモデルの数値表現を1bit化することで,大幅な計算速度の向上と省メモリ化を実現する最適化手法である.1bit化は画像処理で幅広く用いられる畳み込みニューラルネットワーク(CNN)を対象に盛んに研究されているものの,画像分類モデルとして近年優れた性能を示しているVision Transformer(ViT)を対象とするものは活発に検討されていない.そこで本研究ではViTを対象に1bit化を検討する.ViTは多層パーセプトロン(MLP)とMulti-Head Self Attention(MHSA)の繰り返しが主な構造となっている.本研究ではこの繰り返し構造において,1bit化の適用箇所や1bit化の手法の違いによってどのように精度が変化するかについて実験を行った.その結果,浮動小数点の係数を使った畳み込み層の1bit化手法がViTにおいても有効なことを確認した.さらにMLP部のみの1bit化,あるいはMHSA部のみの1bit化を行うことによって性能が大きく改善されることも明らかにした. |
(英) |
1bit neural network optimization is an optimization technique that achieves a significant increase in computational speed and memory savings by converting the numerical representation of the model to 1bit. Although binarization has been actively studied on convolutional neural network (CNN) few studies have conducted on Vision Transformer (ViT) that has attracted attention as a new image classification model. In this report, we investigate effectiveness of binarization on ViT. The main components of ViT are multi-layer perceptron (MLP) and multi-head self-attention (MHSA), which are repeatedly appeared in the basic blocks of ViT. In the experiment, we examined how the performance of ViT changes according to the components where binarization is applied and the variations of binarization. As a result, we confirmed that binarization with floating-point scaling factor for the convolutional layer is effective. Experimental results also revealed that the performances are improved even if the binarization is applied only to the MLP or the MHSA component. |
キーワード |
(和) |
畳み込みニューラルネットワーク / Vision Transformer / 最適化 / 1bit 化 / / / / |
(英) |
Convolutional Neural Network / Vision Transformer / Optimization / Binarization / / / / |
文献情報 |
信学技報, vol. 122, no. 405, IBISML2022-90, pp. 134-139, 2023年3月. |
資料番号 |
IBISML2022-90 |
発行日 |
2023-02-23 (PRMU, IBISML) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
PRMU2022-83 IBISML2022-90 |