講演抄録/キーワード |
講演名 |
2021-03-04 10:45
[ショートペーパー]階層化Neural Processを用いた高解像度の部分画像補完 ○宮原雅人・佐藤大佑・福田匡人・松村成宗・西川嘉樹(NTT) PRMU2020-74 |
抄録 |
(和) |
Neural Process(NP)は,予測の不確実性を考慮可能な深層生成モデルである.
形状未知の関数に従う既知の入出力データを学習データとし,元の関数の確率的な表現を潜在変数として学習することで未知の出力の推定を行う.
一方,NPは潜在変数が従う分布としてガウス分布を仮定するため,潜在変数が非ガウスの複雑な分布で表現される関数に従うデータに適応するのが困難である.
本研究では,NPの潜在変数を階層化した階層化NPを提案する.
NPの階層化に加え,上位層の潜在変数の学習を効率化すべく,スキップパスの導入と双方向の潜在変数の導入した.
一次関数の合成関数を用いた比較実験の結果,シンプルな条件設定では提案手法の予測性能は既存手法よりも劣ることが示された. |
(英) |
Neural Process (NP) is a deep generation model which can consider the uncertainty of prediction.
The unknown output is estimated by learning the stochastic expression of the original function as a latent variable using the known input/output data following the shape unknown function as learning data.
On the other hand, NP assumes Gaussian distribution as a distribution followed by latent variables, so it is difficult to adapt to data following a function represented by a complex distribution with non-Gaussian latent variables.
In this paper, we propose a hierarchical NP which is a hierarchical representation of the latent variables of NPs.
In addition to the hierarchy of NPs, we introduce skip paths and bidirectional latent variables in order to improve the learning efficiency of latent variables in upper layers.
As a result of the comparison experiment using the composite function of the linear function, it was shown that the prediction performance of the proposed method was inferior to the existing method in the simple condition setting. |
キーワード |
(和) |
Neural Process / 階層化 / 画像補完 / メタ学習 / 深層学習 / / / |
(英) |
Neural Process / Hierarchization / Image Complementation / Meta Learning / Deep Learning / / / |
文献情報 |
信学技報, vol. 120, no. 409, PRMU2020-74, pp. 31-34, 2021年3月. |
資料番号 |
PRMU2020-74 |
発行日 |
2021-02-25 (PRMU) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
PRMU2020-74 |