お知らせ 研究会の開催と会場に参加される皆様へのお願い(2022年6月開催~)
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2022-07-09 13:35
Retrieval of Similar Questions from QAbot Data based on Transformer Language Model
Zihao ChenHisashi HandaKimiaki ShirahamaKindai Univ.ET2022-9
抄録 (和) It has recently become possible to collect a large amount of question-answer pairs that arose in certain educational courses. However, one of the biggest difficulties to utilize such data is the lack of a retrieval system that helps a student efficiently find answers to his/her own question. This paper presents our system that takes advantage of a transformer language model which keeps breaking the state-of-the-art in various natural language processing tasks. In particular, our system uses Sentence-BERT to extract a useful feature of a question, so that questions semantically similar to the user’s one can be accurately identified through their feature matching. In addition, an important prerequisite for objective performance evaluation is a large-scale dataset containing many question-answer pairs. For this, a bot is developed on Slack to collect 1142 question-answer pairs that are individually annotated with the relevance to each of 20 queries. The experimental results on this dataset validate the effectiveness of our system based on Sentence-BERT. 
(英) It has recently become possible to collect a large amount of question-answer pairs that arose in certain educational courses. However, one of the biggest difficulties to utilize such data is the lack of a retrieval system that helps a student efficiently find answers to his/her own question. This paper presents our system that takes advantage of a transformer language model which keeps breaking the state-of-the-art in various natural language processing tasks. In particular, our system uses Sentence-BERT to extract a useful feature of a question, so that questions semantically similar to the user’s one can be accurately identified through their feature matching. In addition, an important prerequisite for objective performance evaluation is a large-scale dataset containing many question-answer pairs. For this, a bot is developed on Slack to collect 1142 question-answer pairs that are individually annotated with the relevance to each of 20 queries. The experimental results on this dataset validate the effectiveness of our system based on Sentence-BERT.
キーワード (和) Question answering / Information retrieval / Transformer / Sentence-BERT / QAbot / / /  
(英) Question answering / Information retrieval / Transformer / Sentence-BERT / QAbot / / /  
文献情報 信学技報, vol. 122, no. 102, ET2022-9, pp. 5-11, 2022年7月.
資料番号 ET2022-9 
発行日 2022-07-02 (ET) 
ISSN Print edition: ISSN 0913-5685  Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
PDFダウンロード ET2022-9

研究会情報
研究会 ET  
開催期間 2022-07-09 - 2022-07-09 
開催地(和) オンライン開催 
開催地(英) Online 
テーマ(和) 学習履歴データの蓄積・分析と実践応用/一般 
テーマ(英) Data Accumulation, Analysis and Practice Application of Learning History Data, etc. 
講演論文情報の詳細
申込み研究会 ET 
会議コード 2022-07-ET 
本文の言語 英語 
タイトル(和)  
サブタイトル(和)  
タイトル(英) Retrieval of Similar Questions from QAbot Data based on Transformer Language Model 
サブタイトル(英)  
キーワード(1)(和/英) Question answering / Question answering  
キーワード(2)(和/英) Information retrieval / Information retrieval  
キーワード(3)(和/英) Transformer / Transformer  
キーワード(4)(和/英) Sentence-BERT / Sentence-BERT  
キーワード(5)(和/英) QAbot / QAbot  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 陳 梓豪 / Zihao Chen / チン シゴウ
第1著者 所属(和/英) 近畿大学 (略称: 近畿大)
Kindai University (略称: Kindai Univ.)
第2著者 氏名(和/英/ヨミ) 半田 久志 / Hisashi Handa / ヒサシ ハンダ
第2著者 所属(和/英) 近畿大学 (略称: 近畿大)
Kindai University (略称: Kindai Univ.)
第3著者 氏名(和/英/ヨミ) 白浜 公章 / Kimiaki Shirahama / シラハマ キミアキ
第3著者 所属(和/英) 近畿大学 (略称: 近畿大)
Kindai University (略称: Kindai Univ.)
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 2022-07-09 13:35:00 
発表時間 25分 
申込先研究会 ET 
資料番号 ET2022-9 
巻番号(vol) vol.122 
号番号(no) no.102 
ページ範囲 pp.5-11 
ページ数
発行日 2022-07-02 (ET) 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会