お知らせ 技術研究報告と和文論文誌Cの同時投稿施策(掲載料1割引き)について
お知らせ 【重要】研究会・各種料金のお支払い方法変更について
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2023-01-19 14:00
[ショートペーパー]分散機械学習推論に向けたスプリットコンピューティングモデルの連合機械学習
堀川裕太郎西尾理志東工大SeMI2022-76
抄録 (和) SC (Split computing) は, 計算能力の低いモバイル端末と計算能力の高いサーバとでニューラルネットワー クを分割して分散処理することで, 負荷分散と推論時間短縮する手法である. モバイル端末側とサーバ側で実行する モデルはそれぞれ Head Network と Tail Network と呼ばれるが, モバイル端末の計算および通信性能に応じた適切な パラメータ数のモデルを, 精度低下させることなく訓練する必要がある. 本稿では, SC に向けた Head Network 訓練 手法を提案する. 特に, モバイル端末のもつ non-IID かつ少量のラベルなしデータとパラメータ数の多い訓練済みモ デルを用いて, 計算負荷が小さく通信量の少ない Head Network を訓練する手法を提案する. 提案手法では, 知識蒸留 (Knowledge distillation) を用いて Head Network を訓練する手法と連合機械学習 (Federated Learning) を統合し た新たな訓練手法により, Head Network のデータ効率的な学習を実現する. 提案手法により学習済みモデルからの精 度低下を抑制しつつ, 計算負荷および通信量の少ない Head Network モデルが訓練できることを示した. 
(英) SC (Split computing) is a distributed inference method for load balancing and latency reduction, which splits a neural network and deploys them to a mobile device with low computing power and a server with high computing power. The models executed on the mobile device and the server are called Head Network and Tail Network, respectively. The model size of the Head Network is necessary to be small according to the computing and communication performance of the mobile device without degrading its accuracy. In this paper, we propose a data-efficient Head Network training method for SC. The proposed method can train a Head Network with low computational load and low communication traffic using a small amount of non-IID and unlabeled data from mobile devices and a pre-trained model with a large number of parameters. The proposed method achieves data-efficient training of the Head Network by integrating a method that trains Head Network using knowledge distillation and Federated learning. The experimental evaluation shows that the proposed method can train Head Network models with low computational load and low communication cost while suppressing the accuracy degradation from the pre-trained model.
キーワード (和) 連合機械学習 / 分散機械学習推論 / スプリットコンピューティング / 知識蒸留 / non-IIDデータ / パーソナライゼーション / /  
(英) Federated learning / Distributed inference / Split computing / Knowledge distillation / non-IID data / Personalization / /  
文献情報 信学技報, vol. 122, no. 341, SeMI2022-76, pp. 25-27, 2023年1月.
資料番号 SeMI2022-76 
発行日 2023-01-12 (SeMI) 
ISSN Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
PDFダウンロード SeMI2022-76

研究会情報
研究会 SeMI SeMI  
開催期間 2023-01-19 - 2023-01-20 
開催地(和) 鳴門グランドホテル海月 
開催地(英) Naruto grand hotel 
テーマ(和) センシング,モビリティ,モバイル・ユビキタスコンピューティング,センサ・アドホック・モバイルネットワーク,アプリケーション,一般 
テーマ(英)  
講演論文情報の詳細
申込み研究会 SeMI 
会議コード 2023-01-SeMI-SeMI 
本文の言語 日本語 
タイトル(和) 分散機械学習推論に向けたスプリットコンピューティングモデルの連合機械学習 
サブタイトル(和)  
タイトル(英) A Study of Model Training Method based on Federated Learning for Distributed Inference with Split Computing 
サブタイトル(英)  
キーワード(1)(和/英) 連合機械学習 / Federated learning  
キーワード(2)(和/英) 分散機械学習推論 / Distributed inference  
キーワード(3)(和/英) スプリットコンピューティング / Split computing  
キーワード(4)(和/英) 知識蒸留 / Knowledge distillation  
キーワード(5)(和/英) non-IIDデータ / non-IID data  
キーワード(6)(和/英) パーソナライゼーション / Personalization  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 堀川 裕太郎 / Yutaro Horikawa / ホリカワ ユウタロウ
第1著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Tokyo Tech)
第2著者 氏名(和/英/ヨミ) 西尾 理志 / Takayuki Nishio / ニシオ タカユキ
第2著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Tokyo Tech)
第3著者 氏名(和/英/ヨミ) / /
第3著者 所属(和/英) (略称: )
(略称: )
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
第21著者 氏名(和/英/ヨミ) / /
第21著者 所属(和/英) (略称: )
(略称: )
第22著者 氏名(和/英/ヨミ) / /
第22著者 所属(和/英) (略称: )
(略称: )
第23著者 氏名(和/英/ヨミ) / /
第23著者 所属(和/英) (略称: )
(略称: )
第24著者 氏名(和/英/ヨミ) / /
第24著者 所属(和/英) (略称: )
(略称: )
第25著者 氏名(和/英/ヨミ) / /
第25著者 所属(和/英) (略称: )
(略称: )
第26著者 氏名(和/英/ヨミ) / /
第26著者 所属(和/英) (略称: )
(略称: )
第27著者 氏名(和/英/ヨミ) / /
第27著者 所属(和/英) (略称: )
(略称: )
第28著者 氏名(和/英/ヨミ) / /
第28著者 所属(和/英) (略称: )
(略称: )
第29著者 氏名(和/英/ヨミ) / /
第29著者 所属(和/英) (略称: )
(略称: )
第30著者 氏名(和/英/ヨミ) / /
第30著者 所属(和/英) (略称: )
(略称: )
第31著者 氏名(和/英/ヨミ) / /
第31著者 所属(和/英) (略称: )
(略称: )
第32著者 氏名(和/英/ヨミ) / /
第32著者 所属(和/英) (略称: )
(略称: )
第33著者 氏名(和/英/ヨミ) / /
第33著者 所属(和/英) (略称: )
(略称: )
第34著者 氏名(和/英/ヨミ) / /
第34著者 所属(和/英) (略称: )
(略称: )
第35著者 氏名(和/英/ヨミ) / /
第35著者 所属(和/英) (略称: )
(略称: )
第36著者 氏名(和/英/ヨミ) / /
第36著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 2023-01-19 14:00:00 
発表時間 10分 
申込先研究会 SeMI 
資料番号 SeMI2022-76 
巻番号(vol) vol.122 
号番号(no) no.341 
ページ範囲 pp.25-27 
ページ数
発行日 2023-01-12 (SeMI) 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会