講演抄録/キーワード |
講演名 |
2021-10-07 10:05
Federated Learningにおける蒸留を用いたデバイス処理軽減手法の検討 ○矢島大路(芝浦工大)・小野翔多(東大)・三好 匠・山崎 託・シルバーストン トーマス(芝浦工大) |
抄録 |
(和) |
近年,機械学習は大量のデータからパターンやルールなどを見つけ出す場面で多く利用されている.しかしデータの急激な増加により,サーバですべての処理を行うような集中形の機械学習は困難となっている.Federated Learning のような分散機械学習が注目されているが,機械学習処理における膨大な計算量により,Federated Learning の処理を小さなデバイスで実現するのは難しい.本稿では,蒸留を用いることでFederated Learning におけるデバイス処理を軽減する手法について検討する. |
(英) |
In recent years, machine learning technology has been used in many cases to discover common and hidden patterns and rules from a large amount of data. Due to the drastic increase in the data for machine learning, however, it was difficult to calculate on a single server in the conventional machine learning. Hence, distributed machine learning such as federated learning has been attracting attention. Nevertheless, since the process of machine learning needs a huge amount of computational complexity, it is difficult to perform federated learning process on small devices. This paper proposes a method to reduce device processing cost in federated learning using distillation. |
キーワード |
(和) |
Federated Learning / 蒸留 / 機械学習 / / / / / |
(英) |
Federated Learning / Distillation / Machine Learning / / / / / |
文献情報 |
信学技報 |
資料番号 |
|
発行日 |
|
ISSN |
|
PDFダウンロード |
|
研究会情報 |
研究会 |
NS |
開催期間 |
2021-10-06 - 2021-10-08 |
開催地(和) |
オンライン開催 |
開催地(英) |
Online |
テーマ(和) |
ネットワークアーキテクチャ(オーバレイ、P2P、ユビキタスNW、スケールフリーNW、アクティブNW、NGN・新世代NW、IoT、エッジコンピューティング)、次世代パケットトランスポート(高速Ethernet、IP over WDM、マルチサービスパケット技術、MPLS)、グリッド、一般 |
テーマ(英) |
Network architecture (Overlay, P2P, Ubiquitous network, Scale-free network, Active network, NGN/NwGN, IoT, Edge computing, Next generation packet transport (High speed Ethernet, IP over WDM, Multi-service package technology, MPLS), Grid, etc. |
講演論文情報の詳細 |
申込み研究会 |
NS |
会議コード |
2021-10-NS |
本文の言語 |
日本語 |
タイトル(和) |
Federated Learningにおける蒸留を用いたデバイス処理軽減手法の検討 |
サブタイトル(和) |
|
タイトル(英) |
Improving Device Processing Cost by Distillation in Federated Learning |
サブタイトル(英) |
|
キーワード(1)(和/英) |
Federated Learning / Federated Learning |
キーワード(2)(和/英) |
蒸留 / Distillation |
キーワード(3)(和/英) |
機械学習 / Machine Learning |
キーワード(4)(和/英) |
/ |
キーワード(5)(和/英) |
/ |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
矢島 大路 / Hiromichi Yajima / ヤジマ ヒロミチ |
第1著者 所属(和/英) |
芝浦工業大学 (略称: 芝浦工大)
Shibaura Institute of Technology (略称: Shibaura Inst. Tech) |
第2著者 氏名(和/英/ヨミ) |
小野 翔多 / Shota Ono / オノ ショウタ |
第2著者 所属(和/英) |
東京大学 (略称: 東大)
The University of Tokyo (略称: The Univ. of Tokyo) |
第3著者 氏名(和/英/ヨミ) |
三好 匠 / Takumi Miyoshi / ミヨシ タクミ |
第3著者 所属(和/英) |
芝浦工業大学 (略称: 芝浦工大)
Shibaura Institute of Technology (略称: Shibaura Inst. Tech) |
第4著者 氏名(和/英/ヨミ) |
山崎 託 / Taku Yamazaki / ヤマザキ タク |
第4著者 所属(和/英) |
芝浦工業大学 (略称: 芝浦工大)
Shibaura Institute of Technology (略称: Shibaura Inst. Tech) |
第5著者 氏名(和/英/ヨミ) |
シルバーストン トーマス / Thomas Silverston / シルバーストン トーマス |
第5著者 所属(和/英) |
芝浦工業大学 (略称: 芝浦工大)
Shibaura Institute of Technology (略称: Shibaura Inst. Tech) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2021-10-07 10:05:00 |
発表時間 |
25分 |
申込先研究会 |
NS |
資料番号 |
|
巻番号(vol) |
vol.121 |
号番号(no) |
no.185 |
ページ範囲 |
|
ページ数 |
|
発行日 |
|