講演抄録/キーワード |
講演名 |
2022-08-26 14:26
説明可能AIを用いたAdversarial Examplesの生成手法およびその評価 ○熊谷 瞭・竹本 修・野崎佑典・吉川雅弥(名城大) SIP2022-72 |
抄録 |
(和) |
AI技術の進歩により,AIの決定に対する説明責任がより重要になっている.説明可能AI(XAI)は,説明責任を果たすための重要な技術である.さらに,AIシステムが普及する中で,その脆弱性が指摘されている.その1つに,入力に僅かな摂動を加えることでAIに対し誤判断を誘発させる敵対的サンプル(adversarial examples, AE)がある.したがって,システムを安全に利用するにはAEに対する調査が必要である.そこで本研究では,XAIを利用し摂動を加える範囲を制限したAEの生成方法を提案する.実験により,提案手法によるAEは従来手法より少ない摂動で攻撃を成功させることが可能であることが示された. |
(英) |
With the advancement of AI technology, AI can be applied to various fields. Therefore the accountability for the decision by AI has become more important. The explainable AI (XAI) is a key technology to fulfill the accountability. While AI is spreading , the vulnerability of AI system is pointed out. The adversarial examples (AE), which causes wrong decisions by AI, is one of the terrible attacks for AI. Thus thorough investigation for AEs is mandatory required to use AI safely. This paper propose the generating method for adversarial examples which is based on XAI. Experiments prove the proposed method is superior to previous AEs. |
キーワード |
(和) |
深層ニューラルネットワーク / セキュリティ / 敵対的サンプル / 説明可能AI / / / / |
(英) |
deep neural networks / security / adversarial examples / explainable AI / / / / |
文献情報 |
信学技報, vol. 122, no. 165, SIP2022-72, pp. 115-120, 2022年8月. |
資料番号 |
SIP2022-72 |
発行日 |
2022-08-18 (SIP) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
SIP2022-72 |