講演抄録/キーワード |
講演名 |
2014-11-17 17:00
[ポスター講演]文脈自由文法に基づいた復元的ニューラルネット ○濱口拓男・新保 仁・松本裕治(奈良先端大) IBISML2014-48 |
抄録 |
(和) |
Neural Networkを用いた言語モデルには,文字列からベクトルを獲得するEncodeとしての側面と,ベクトルから文字列を獲得するDecodeとしての側面が存在する.Recurrent Neural Network (Recurrent NN)はDecodeモデルの一種であり,ベクトル表現された状態からの予測と遷移を時系列に沿って繰り返すモデルである.しかし自然言語としては,時系列的な関係ではなく,文脈自由文法のような木構造を仮定する方が自然である.そこで本稿では,木構造のDecodeモデルであるReconstructive Neural Network (Reconstructive NN)を提案する.我々はモデルの性質を調べるために,以下の4つの実験を行った.Recurrent NNとの比較,データを構成する文字列の長さの分布と精度の関係,ベクトルの次元と文字列の長さの関係,Reconstrucitve NNが言語の情報を反映しているかについてである. |
(英) |
There are two aspects about Neural Language Model,one aspect, `Encode', obtains a vector from a sequence and the other aspect, `Decode', obtains a sequence from a vector.Recurrent Neural Network (Recurrent NN) is a kind of `Decode' model which repeats prediction and transition from vector-represented state through time.However, a tree structure based model such as Context Free Grammar is more natural for natural languate tha a time-series structure based model.This paper proposes new tree structure `Decode' Model called Reconstrucitve Neural Network (Reconstructive NN).We conduct the following four experiemtns to show this model's ability:comparision of Recurrent NN and Reconstructive NN,relationship between the accuracy and the Distribution of word length included training data,relationship between the vector dimension and the words length,and the ability of Reconstructive NN comes from natural language. |
キーワード |
(和) |
深層学習 / 分散表現 / リカレントニューラルネットワーク / リカーシブニューラルネットワーク / / / / |
(英) |
Deep Learning / Distributed Representation / Recurrent Neural Network / Recursive Nerural Network / / / / |
文献情報 |
信学技報, vol. 114, no. 306, IBISML2014-48, pp. 103-110, 2014年11月. |
資料番号 |
IBISML2014-48 |
発行日 |
2014-11-10 (IBISML) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
IBISML2014-48 |