講演抄録/キーワード |
講演名 |
2022-11-30 16:40
敵対的サンプル攻撃対策をVitis-AIで実現するためのモデル量子化手法の実装と評価 ○福田悠太・吉田康太・藤野 毅(立命館大) VLD2022-51 ICD2022-68 DC2022-67 RECONF2022-74 |
抄録 |
(和) |
深層ニューラルネットワーク(DNN)では,敵対的サンプル(Adversarial examples, AEs)生成攻撃がセキュリティ脅威となっており,その対策の一つとしてAdversarial training(AT)がある. ATでは,DNNの学習にAEsを用いることで,AEsに対して堅牢なDNNモデルを構築する. 一方,FPGA等のエッジデバイスでDNNを動作させるためにはモデルパラメータを一般的に用いられている32bitから8bitに量子化する必要があるが,ATモデルの量子化手順によってはAEs生成攻撃に対する耐性が低下することが報告されている. 我々は以前,量子化手順にATを導入することでATの効果を維持しつつDNNの量子化を行うQuantization aware adversarial training (QAAT)を提案した. 本稿ではXilinx 社が提供するVitis-AIにQAATを実装し,FPGA上で評価を行う. 実験ではZynq UltraScale+が搭載されている評価用ボードZCU104上でQAATモデルを動作させ,ATモデルと同等のAEs生成攻撃に対するロバスト性が得られたことを報告する. |
(英) |
Adversarial examples (AEs) are security threats in deep neural networks (DNNs). One of the countermeasures is adversarial training (AT), and it trains DNNs by using a training dataset containing AEs to achieve robustness against AEs. On the other hand, it has been reported that the robustness of AT is lost when it quantizes AT-trained model parameters from the commonly used 32-bit floating point to 8-bit integer number to run DNN on edge devices such as FPGA. In a previous study, we pointed out that the cause is in a fine-tuning process in the quantization method that uses natural samples to deal with quantization errors. We have proposed quantization-aware adversarial training (QAAT) to address the problem, which optimizes DNNs by conducting AT in quantization flow. In this paper, we construct a QAAT model using Vitis-AI provided by Xilinx. We actually run on the evaluation board ZCU104, which is equipped with Zynq UltraScale+, and we evaluate the robustness of a QAAT-trained model against AEs. |
キーワード |
(和) |
敵対的サンプル生成攻撃 / Adversarial training / Vitis-AI / FPGA / / / / |
(英) |
Adversarial examples / Adversarial training / Vitis-AI / FPGA / / / / |
文献情報 |
信学技報, vol. 122, no. 286, RECONF2022-74, pp. 182-187, 2022年11月. |
資料番号 |
RECONF2022-74 |
発行日 |
2022-11-21 (VLD, ICD, DC, RECONF) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
VLD2022-51 ICD2022-68 DC2022-67 RECONF2022-74 |
研究会情報 |
研究会 |
VLD DC RECONF ICD IPSJ-SLDM |
開催期間 |
2022-11-28 - 2022-11-30 |
開催地(和) |
金沢市文化ホール |
開催地(英) |
|
テーマ(和) |
デザインガイア2022 -VLSI設計の新しい大地- |
テーマ(英) |
Design Gaia 2022 -New Field of VLSI Design- |
講演論文情報の詳細 |
申込み研究会 |
RECONF |
会議コード |
2022-11-VLD-DC-RECONF-ICD-SLDM |
本文の言語 |
日本語 |
タイトル(和) |
敵対的サンプル攻撃対策をVitis-AIで実現するためのモデル量子化手法の実装と評価 |
サブタイトル(和) |
|
タイトル(英) |
Evaluation of Model Quantization Method on Vitis-AI for Mitigating Adversarial Examples |
サブタイトル(英) |
|
キーワード(1)(和/英) |
敵対的サンプル生成攻撃 / Adversarial examples |
キーワード(2)(和/英) |
Adversarial training / Adversarial training |
キーワード(3)(和/英) |
Vitis-AI / Vitis-AI |
キーワード(4)(和/英) |
FPGA / FPGA |
キーワード(5)(和/英) |
/ |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
福田 悠太 / Yuta Fukuda / フクダ ユウタ |
第1著者 所属(和/英) |
立命館大学 (略称: 立命館大)
Ritsumeikan University (略称: Ritsumeikan Univ.) |
第2著者 氏名(和/英/ヨミ) |
吉田 康太 / Kota Yoshida / ヨシダ コウタ |
第2著者 所属(和/英) |
立命館大学 (略称: 立命館大)
Ritsumeikan University (略称: Ritsumeikan Univ.) |
第3著者 氏名(和/英/ヨミ) |
藤野 毅 / Takeshi Fujino / フジノ タケシ |
第3著者 所属(和/英) |
立命館大学 (略称: 立命館大)
Ritsumeikan University (略称: Ritsumeikan Univ.) |
第4著者 氏名(和/英/ヨミ) |
/ / |
第4著者 所属(和/英) |
(略称: )
(略称: ) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2022-11-30 16:40:00 |
発表時間 |
25分 |
申込先研究会 |
RECONF |
資料番号 |
VLD2022-51, ICD2022-68, DC2022-67, RECONF2022-74 |
巻番号(vol) |
vol.122 |
号番号(no) |
no.283(VLD), no.284(ICD), no.285(DC), no.286(RECONF) |
ページ範囲 |
pp.182-187 |
ページ数 |
6 |
発行日 |
2022-11-21 (VLD, ICD, DC, RECONF) |
|