講演抄録/キーワード |
講演名 |
2023-01-19 14:00
[ショートペーパー]分散機械学習推論に向けたスプリットコンピューティングモデルの連合機械学習 ○堀川裕太郎・西尾理志(東工大) SeMI2022-76 |
抄録 |
(和) |
SC (Split computing) は, 計算能力の低いモバイル端末と計算能力の高いサーバとでニューラルネットワー クを分割して分散処理することで, 負荷分散と推論時間短縮する手法である. モバイル端末側とサーバ側で実行する モデルはそれぞれ Head Network と Tail Network と呼ばれるが, モバイル端末の計算および通信性能に応じた適切な パラメータ数のモデルを, 精度低下させることなく訓練する必要がある. 本稿では, SC に向けた Head Network 訓練 手法を提案する. 特に, モバイル端末のもつ non-IID かつ少量のラベルなしデータとパラメータ数の多い訓練済みモ デルを用いて, 計算負荷が小さく通信量の少ない Head Network を訓練する手法を提案する. 提案手法では, 知識蒸留 (Knowledge distillation) を用いて Head Network を訓練する手法と連合機械学習 (Federated Learning) を統合し た新たな訓練手法により, Head Network のデータ効率的な学習を実現する. 提案手法により学習済みモデルからの精 度低下を抑制しつつ, 計算負荷および通信量の少ない Head Network モデルが訓練できることを示した. |
(英) |
SC (Split computing) is a distributed inference method for load balancing and latency reduction, which splits a neural network and deploys them to a mobile device with low computing power and a server with high computing power. The models executed on the mobile device and the server are called Head Network and Tail Network, respectively. The model size of the Head Network is necessary to be small according to the computing and communication performance of the mobile device without degrading its accuracy. In this paper, we propose a data-efficient Head Network training method for SC. The proposed method can train a Head Network with low computational load and low communication traffic using a small amount of non-IID and unlabeled data from mobile devices and a pre-trained model with a large number of parameters. The proposed method achieves data-efficient training of the Head Network by integrating a method that trains Head Network using knowledge distillation and Federated learning. The experimental evaluation shows that the proposed method can train Head Network models with low computational load and low communication cost while suppressing the accuracy degradation from the pre-trained model. |
キーワード |
(和) |
連合機械学習 / 分散機械学習推論 / スプリットコンピューティング / 知識蒸留 / non-IIDデータ / パーソナライゼーション / / |
(英) |
Federated learning / Distributed inference / Split computing / Knowledge distillation / non-IID data / Personalization / / |
文献情報 |
信学技報, vol. 122, no. 341, SeMI2022-76, pp. 25-27, 2023年1月. |
資料番号 |
SeMI2022-76 |
発行日 |
2023-01-12 (SeMI) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
SeMI2022-76 |
研究会情報 |
研究会 |
SeMI SeMI |
開催期間 |
2023-01-19 - 2023-01-20 |
開催地(和) |
鳴門グランドホテル海月 |
開催地(英) |
Naruto grand hotel |
テーマ(和) |
センシング,モビリティ,モバイル・ユビキタスコンピューティング,センサ・アドホック・モバイルネットワーク,アプリケーション,一般 |
テーマ(英) |
|
講演論文情報の詳細 |
申込み研究会 |
SeMI |
会議コード |
2023-01-SeMI-SeMI |
本文の言語 |
日本語 |
タイトル(和) |
分散機械学習推論に向けたスプリットコンピューティングモデルの連合機械学習 |
サブタイトル(和) |
|
タイトル(英) |
A Study of Model Training Method based on Federated Learning for Distributed Inference with Split Computing |
サブタイトル(英) |
|
キーワード(1)(和/英) |
連合機械学習 / Federated learning |
キーワード(2)(和/英) |
分散機械学習推論 / Distributed inference |
キーワード(3)(和/英) |
スプリットコンピューティング / Split computing |
キーワード(4)(和/英) |
知識蒸留 / Knowledge distillation |
キーワード(5)(和/英) |
non-IIDデータ / non-IID data |
キーワード(6)(和/英) |
パーソナライゼーション / Personalization |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
堀川 裕太郎 / Yutaro Horikawa / ホリカワ ユウタロウ |
第1著者 所属(和/英) |
東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Tokyo Tech) |
第2著者 氏名(和/英/ヨミ) |
西尾 理志 / Takayuki Nishio / ニシオ タカユキ |
第2著者 所属(和/英) |
東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Tokyo Tech) |
第3著者 氏名(和/英/ヨミ) |
/ / |
第3著者 所属(和/英) |
(略称: )
(略称: ) |
第4著者 氏名(和/英/ヨミ) |
/ / |
第4著者 所属(和/英) |
(略称: )
(略称: ) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
第21著者 氏名(和/英/ヨミ) |
/ / |
第21著者 所属(和/英) |
(略称: )
(略称: ) |
第22著者 氏名(和/英/ヨミ) |
/ / |
第22著者 所属(和/英) |
(略称: )
(略称: ) |
第23著者 氏名(和/英/ヨミ) |
/ / |
第23著者 所属(和/英) |
(略称: )
(略称: ) |
第24著者 氏名(和/英/ヨミ) |
/ / |
第24著者 所属(和/英) |
(略称: )
(略称: ) |
第25著者 氏名(和/英/ヨミ) |
/ / |
第25著者 所属(和/英) |
(略称: )
(略称: ) |
第26著者 氏名(和/英/ヨミ) |
/ / |
第26著者 所属(和/英) |
(略称: )
(略称: ) |
第27著者 氏名(和/英/ヨミ) |
/ / |
第27著者 所属(和/英) |
(略称: )
(略称: ) |
第28著者 氏名(和/英/ヨミ) |
/ / |
第28著者 所属(和/英) |
(略称: )
(略称: ) |
第29著者 氏名(和/英/ヨミ) |
/ / |
第29著者 所属(和/英) |
(略称: )
(略称: ) |
第30著者 氏名(和/英/ヨミ) |
/ / |
第30著者 所属(和/英) |
(略称: )
(略称: ) |
第31著者 氏名(和/英/ヨミ) |
/ / |
第31著者 所属(和/英) |
(略称: )
(略称: ) |
第32著者 氏名(和/英/ヨミ) |
/ / |
第32著者 所属(和/英) |
(略称: )
(略称: ) |
第33著者 氏名(和/英/ヨミ) |
/ / |
第33著者 所属(和/英) |
(略称: )
(略称: ) |
第34著者 氏名(和/英/ヨミ) |
/ / |
第34著者 所属(和/英) |
(略称: )
(略称: ) |
第35著者 氏名(和/英/ヨミ) |
/ / |
第35著者 所属(和/英) |
(略称: )
(略称: ) |
第36著者 氏名(和/英/ヨミ) |
/ / |
第36著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2023-01-19 14:00:00 |
発表時間 |
10分 |
申込先研究会 |
SeMI |
資料番号 |
SeMI2022-76 |
巻番号(vol) |
vol.122 |
号番号(no) |
no.341 |
ページ範囲 |
pp.25-27 |
ページ数 |
3 |
発行日 |
2023-01-12 (SeMI) |