お知らせ 2023年度・2024年度 学生員 会費割引キャンペーン実施中です
お知らせ 技術研究報告と和文論文誌Cの同時投稿施策(掲載料1割引き)について
お知らせ 電子情報通信学会における研究会開催について
お知らせ NEW 参加費の返金について
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2019-09-28 16:00
日本語Pretrained BERTモデルの比較
芝山直希曹 鋭白 静馬 ブン新納浩幸茨城大NLC2019-24
抄録 (和) BERT は有益な言語の事前学習モデルである。英語に対しては BERT 論文で利用された学習済みモデルが公開され、利用されている。
日本語に対しては現在、字句区切りに SentencePiece を用いたもの、JUMAN++ とBPE を用いたもの及び MeCab と NEologd を用いたものの 3 種の日本語のみで訓練したモデルが公開されている。本論文では感情分析タスクを題材にこちら 3 つのモデルを比較した。 
(英) BERT is useful pre-training method for neural languages. There are pre-trained models for English which was used in a paper of BERT. Now, There are 3 Japanese pre-trained models which uses SentencePiece, Juman++ with BPE, or MeCab with NEologd to separate input texts by lexical. In this paper, we compared these 3 models with a sentiment analysis task as a subject.
キーワード (和) 機械学習 / BERT / 事前学習モデル / 自然言語処理 / / / /  
(英) machine learning / BERT / pre-trained model / natural language processing / / / /  
文献情報 信学技報, vol. 119, no. 212, NLC2019-24, pp. 89-92, 2019年9月.
資料番号 NLC2019-24 
発行日 2019-09-20 (NLC) 
ISSN Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
PDFダウンロード NLC2019-24

研究会情報
研究会 NLC IPSJ-DC  
開催期間 2019-09-27 - 2019-09-28 
開催地(和) フューチャー株式会社 
開催地(英) Future Corporation 
テーマ(和) 第15回 テキストアナリティクス・シンポジウム 
テーマ(英) The Thirteenth Text Analytics Symposium 
講演論文情報の詳細
申込み研究会 NLC 
会議コード 2019-09-NLC-DC 
本文の言語 日本語 
タイトル(和) 日本語Pretrained BERTモデルの比較 
サブタイトル(和)  
タイトル(英) A comparison of Japanese pretrained BERT models 
サブタイトル(英)  
キーワード(1)(和/英) 機械学習 / machine learning  
キーワード(2)(和/英) BERT / BERT  
キーワード(3)(和/英) 事前学習モデル / pre-trained model  
キーワード(4)(和/英) 自然言語処理 / natural language processing  
キーワード(5)(和/英) /  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 芝山 直希 / Naoki Shibayama / シバヤマ ナオキ
第1著者 所属(和/英) 茨城大学 (略称: 茨城大)
Ibaraki University (略称: Ibaraki Univ.)
第2著者 氏名(和/英/ヨミ) 曹 鋭 / Rui Cao / ソウ ルイ
第2著者 所属(和/英) 茨城大学 (略称: 茨城大)
Ibaraki University (略称: Ibaraki Univ.)
第3著者 氏名(和/英/ヨミ) 白 静 / Jing Bai / バイ ジン
第3著者 所属(和/英) 茨城大学 (略称: 茨城大)
Ibaraki University (略称: Ibaraki Univ.)
第4著者 氏名(和/英/ヨミ) 馬 ブン / Wen Ma / マ ブン
第4著者 所属(和/英) 茨城大学 (略称: 茨城大)
Ibaraki University (略称: Ibaraki Univ.)
第5著者 氏名(和/英/ヨミ) 新納 浩幸 / Hiroyuki Shinnou / シンノウ ヒロユキ
第5著者 所属(和/英) 茨城大学 (略称: 茨城大)
Ibaraki University (略称: Ibaraki Univ.)
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 2019-09-28 16:00:00 
発表時間 25分 
申込先研究会 NLC 
資料番号 NLC2019-24 
巻番号(vol) vol.119 
号番号(no) no.212 
ページ範囲 pp.89-92 
ページ数
発行日 2019-09-20 (NLC) 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会