お知らせ 研究会の開催と会場に参加される皆様へのお願い(2022年6月開催~)
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2022-06-27 14:25
ニューラルアーキテクチャ探索におけるガウス過程回帰の精度向上のためのバギング手法
羽田遼音置田真生伊野文彦阪大NC2022-2 IBISML2022-2
抄録 (和) 本研究の目的は,ガウス過程回帰によるベイズ最適化を用いたNAS(Neural Architecture Search)における,
ニューラルネットワークアーキテクチャに対する性能推定の向上である.
その実現のために,本報告は,過学習を抑制することでガウス過程回帰の精度を高めることのできるバギング手法を提案する.
提案手法は,ガウス過程回帰の推定誤差を軽減するために,既存のNAS手法におけるベイズ最適化の獲得関数を拡張する.
この獲得関数は異なる教師データセットを用いて候補アーキテクチャの推論精度を繰り返し推定し,その中央値を返す.
さらに,提案手法は既存手法と同様に,実際に訓練するアーキテクチャを,ベイズ最適化によって精度が高いと推定されたアーキテクチャのみに限定することで,効率的にアーキテクチャを探索する.
実験の結果,提案手法は,100個のアーキテクチャの推論精度に関する推定順位と真の順位とのスピアマンの順位相関係数を,0.772から0.829に向上した.
したがって,提案手法はニューラルアーキテクチャの推論精度を高い精度で推定するために有用であると考える. 
(英) The goal of this study is to improve performance estimation for neural network architectures in neural architecture search (NAS), which leverages Bayesian optimization with Gaussian process regression.
To achieve this goal, we propose a bagging method to boost the accuracy of Gaussian process regression by controlling over-fitting.
Aiming to reduce the estimation error with Gaussian process regression, the proposed method extends the acquire function for Bayesian optimization in an existing NAS method: the extended acquire function iteratively estimates the inference accuracy of the target architecture with different supervised datasets and returns the median accuracy.
For the rest, as with the existing method, the proposed method searches neural architectures efficiently by limiting the architectures to be actually trained only to those estimated to show high inference accuracy by Bayesian optimization.
Experimental results show that the proposed method increased Spearman's rank correlation coefficient between an estimated ranking and the true ranking of inference accuracy for 100 neural architectures from 0.772 to 0.829.
This indicates that the proposed method is useful for precisely estimating the inference accuracy of neural architectures.
キーワード (和) NAS(neural architecture search) / 代理モデル / ベイズ最適化 / ガウス過程回帰 / 過学習 / バギング(bootstrap aggregating) / /  
(英) NAS (neural architecture search) / surrogate model / Bayesian optimization / Gaussian process regression / overfitting / bagging (bootstrap aggregating) / /  
文献情報 信学技報, vol. 122, no. 90, IBISML2022-2, pp. 6-13, 2022年6月.
資料番号 IBISML2022-2 
発行日 2022-06-20 (NC, IBISML) 
ISSN Print edition: ISSN 0913-5685  Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
PDFダウンロード NC2022-2 IBISML2022-2

研究会情報
研究会 NC IBISML IPSJ-BIO IPSJ-MPS  
開催期間 2022-06-27 - 2022-06-29 
開催地(和) 琉球大学50周年記念館 
開催地(英)  
テーマ(和) 機械学習によるバイオデータマイニング、一般 
テーマ(英)  
講演論文情報の詳細
申込み研究会 IBISML 
会議コード 2022-06-NC-IBISML-BIO-MPS 
本文の言語 日本語 
タイトル(和) ニューラルアーキテクチャ探索におけるガウス過程回帰の精度向上のためのバギング手法 
サブタイトル(和)  
タイトル(英) A Bagging Method to Improve the Accuracy of Gaussian Process Regression for Neural Architecture Search 
サブタイトル(英)  
キーワード(1)(和/英) NAS(neural architecture search) / NAS (neural architecture search)  
キーワード(2)(和/英) 代理モデル / surrogate model  
キーワード(3)(和/英) ベイズ最適化 / Bayesian optimization  
キーワード(4)(和/英) ガウス過程回帰 / Gaussian process regression  
キーワード(5)(和/英) 過学習 / overfitting  
キーワード(6)(和/英) バギング(bootstrap aggregating) / bagging (bootstrap aggregating)  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 羽田 遼音 / Rion Hada / ハダ リオン
第1著者 所属(和/英) 大阪大学 (略称: 阪大)
Osaka University (略称: Osaka Univ.)
第2著者 氏名(和/英/ヨミ) 置田 真生 / Masao Okita / オキタ マサオ
第2著者 所属(和/英) 大阪大学 (略称: 阪大)
Osaka University (略称: Osaka Univ.)
第3著者 氏名(和/英/ヨミ) 伊野 文彦 / Fumihiko Ino / イノ フミヒコ
第3著者 所属(和/英) 大阪大学 (略称: 阪大)
Osaka University (略称: Osaka Univ.)
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 2022-06-27 14:25:00 
発表時間 25分 
申込先研究会 IBISML 
資料番号 NC2022-2, IBISML2022-2 
巻番号(vol) vol.122 
号番号(no) no.89(NC), no.90(IBISML) 
ページ範囲 pp.6-13 
ページ数
発行日 2022-06-20 (NC, IBISML) 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会