講演抄録/キーワード |
講演名 |
2013-01-24 10:10
逆強化学習による医療臨床データの分析 ○麻生英樹・城 真範・神嶌敏弘・赤穂昭太郎(産総研)・興梠貴英(東大医学部附属病院) NLP2012-106 NC2012-96 |
抄録 |
(和) |
近年電子的に蓄積されるようになっている大量の医療臨床情報を活用し,治療過程の質の向上につなげることは重要な課題である.我々は,診療過程を医師と患者の間のインタラクションと見なす立場から,循環器内科における診療記録データをマルコフ決定過程でモデル化し,患者の予後のシミュレーションや医師の措置の価値評価を行うことを試みている.医師の措置の価値を評価するためには,なんらかの報酬情報が必要であるが,診療記録データにはその情報は含まれていない.こうした問題に対処するため,エキスパートの観測・行動系列から,エキスパートが想定している報酬情報を推定する逆強化学習の枠組みが提案され,様々なアルゴリズムが提案されている.本発表では,その中からベイズ的逆強化学習のアルゴリズムを紹介し,医療臨床データに適用した結果について述べる. |
(英) |
It is an important issue to utilize large amount of medical records which are accumulated on medical information systems. Medical treatment processes can be considered as interaction processes between doctors and a patients. From the viewpoint, we are modeling medical treatment records by Markov decision processes. By the method, we can simulate future states of patients and evaluate the value of medical treatments. In order to evaluate the value of treatment, reward function which doctors are using is necessary. However, treatment records do not include the reward information. To cope with such problem, the problem of inverse reinforcement learning (IRL) has been formalized and various algorithms to solve the problem are proposed. IRL estimates experts' reward function from experts' observation and action data. In this presentation, we introduce IRL and report on the applicability of the Bayesian IRL to the medical records of heart disease patients. |
キーワード |
(和) |
逆強化学習 / マルコフ決定過程 / データマイニング / 医療臨床データ / / / / |
(英) |
Inverse Reinforcement Learning / Markov Decision Process / Data Mining / Medical Records / / / / |
文献情報 |
信学技報, vol. 112, no. 390, NC2012-96, pp. 13-17, 2013年1月. |
資料番号 |
NC2012-96 |
発行日 |
2013-01-17 (NLP, NC) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
NLP2012-106 NC2012-96 |