お知らせ 2023年度・2024年度 学生員 会費割引キャンペーン実施中です
お知らせ 技術研究報告と和文論文誌Cの同時投稿施策(掲載料1割引き)について
お知らせ 電子情報通信学会における研究会開催について
お知らせ NEW 参加費の返金について
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2008-03-14 13:20
ガウス過程を用いた能動サンプリングに基づく強化学習法
竹田和博森 健奈良先端大)・石井 信京大NC2007-192
抄録 (和) 強化学習では一般に、良い方策を獲得するために多くのサンプルを生成する必
要がある。このことは、実
ロボットなどの制御を学習する場合、故障や手間などの問題を引き起
こす。

強化学習で多くのサンプルが必要になる原因の一つとして、学習エージェント
が従う方策から受動的にサンプルを生成しなければならないという制約がある。
この制約を回避して、学習に有利なサンプルを能動的にサンプリングする強化学習法が望まれ
るが、現在のところシステマティックな手法は提案されていない。本報告では、
方策の収束を保証するための条件を与えた下で、ガウ
ス過程に基づいて能動サンプリングを行う新しい強化学習法を提案する。また、
少ないサンプル数で良い方策が獲得できることを計算機実験により示す。 
(英) In reinforcement learning (RL), many samples are necessary in
every policy improvement, which requires the robot actually to act many
times and hence may make the robot be broken down. One cause of the necessity of
many samples in the RL is that the agent must passively produce samples
according to it's current policy. Therefore, efficient sampling methods
such as active sampling are desired. In this report, we propose a novel
RL method with active sampling based on Gaussian process, which reduces
the number of samples necessary for policy convergence. Computer experiments show that the policy gradient
could be estimated efficiently with fewer sampling times.
キーワード (和) 強化学習 / 能動サンプリング / ガウス過程 / 方策勾配法 / ベイズ推定 / / /  
(英) Reinforcement learning / Active sampling / Gaussian process / Policy gradient / Bayesian inference / / /  
文献情報 信学技報, vol. 107, no. 542, NC2007-192, pp. 473-478, 2008年3月.
資料番号 NC2007-192 
発行日 2008-03-05 (NC) 
ISSN Print edition: ISSN 0913-5685    Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
PDFダウンロード NC2007-192

研究会情報
研究会 NC MBE  
開催期間 2008-03-12 - 2008-03-14 
開催地(和) 玉川大学 
開催地(英) Tamagawa Univ 
テーマ(和) 一般 
テーマ(英)  
講演論文情報の詳細
申込み研究会 NC 
会議コード 2008-03-NC-MBE 
本文の言語 日本語 
タイトル(和) ガウス過程を用いた能動サンプリングに基づく強化学習法 
サブタイトル(和)  
タイトル(英) Active sampling based on Gaussian Process for reinforcement learning 
サブタイトル(英)  
キーワード(1)(和/英) 強化学習 / Reinforcement learning  
キーワード(2)(和/英) 能動サンプリング / Active sampling  
キーワード(3)(和/英) ガウス過程 / Gaussian process  
キーワード(4)(和/英) 方策勾配法 / Policy gradient  
キーワード(5)(和/英) ベイズ推定 / Bayesian inference  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 竹田 和博 / Kazuhiro Takeda / タケダ カズヒロ
第1著者 所属(和/英) 奈良先端科学技術大学院大学 (略称: 奈良先端大)
Nara Institute of Science and Technology (略称: NAIST)
第2著者 氏名(和/英/ヨミ) 森 健 / Takeshi Mori / モリ タケシ
第2著者 所属(和/英) 奈良先端科学技術大学院大学 (略称: 奈良先端大)
Nara Institute of Science and Technology (略称: NAIST)
第3著者 氏名(和/英/ヨミ) 石井 信 / Shin Ishii / イシイ シン
第3著者 所属(和/英) 京都大学 (略称: 京大)
Kyoto University (略称: Kyoto Univ.)
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 2008-03-14 13:20:00 
発表時間 20分 
申込先研究会 NC 
資料番号 NC2007-192 
巻番号(vol) vol.107 
号番号(no) no.542 
ページ範囲 pp.473-478 
ページ数
発行日 2008-03-05 (NC) 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会