講演抄録/キーワード |
講演名 |
2019-10-18 15:05
環境モニタリングロボットのためのRGBカメラ及び深度センサを用いた路面状況認識 ~ SegNet-BasicとENetの比較および高さと曲率特徴の比較 ~ ○林 拓哉・金子丈朗・森本純矢(早大)・大和淳司(工学院大)・石井裕之・大谷 淳・高西淳夫(早大) PRMU2019-39 |
抄録 |
(和) |
本稿では,近年災害や獣害被害により期待が増しているロボットによる環境モニタリングの実現に必要な自律的探索機能を実現するため,画像情報を利用する路面状況の認識手法を検討する.RGB画像からCNN(畳み込みニューラルネットワーク)により障害物クラスおよび路面クラスのラベル(属性)情報を初期推定後,三次元点群情報(高さ,曲率情報)を用いて障害物もしくは路面クラスかを決定することで推定ラベル画像を生成する.本稿では,SegNet-BasicおよびENetのCNNモデルを用いて比較検討を行い,評価の際には実際の自然環境を対象に収集したデータを用いて評価した.その結果,ENetのネットワークモデルおよび点群情報から得られる高さ情報を用いた路面状況認識による自律探索のための行動決定の有効性の見通しが得られた. |
(英) |
An environmental monitoring robot that moves safely and autonomously needs a function to recognize the state of the ground area. This paper presents a novel two-stage approach for recognizing road surface condition from RGBD image sensed using Kinect v2. The first stage, based on convolutional neural network (CNN) classifier, lists the candidates for the obstruction class and road surface class label (attribute) information for each pixel from the RGB information. The second stage, a determinator using 3-D point clouds information (height or surface curvature features), generates an estimated label image by determining whether it is an obstacle or a road surface class. In this paper, we evaluated SegNet-Basic and ENet as a comparison of the CNN models used in the approach. In the evaluation, we used data collected for the actual natural environment. Experimental results show the effectiveness of the action determination for autonomous search based on road surface recognition using ENet network model and height information obtained from point cloud information. |
キーワード |
(和) |
深層学習 / SegNet-basic / ENet / 3D点群 / 路面認識 / / / |
(英) |
Deep Neural Network / SegNet-basic / ENet / 3-D Point Clouds / Recognizing Road Surface Conditions / / / |
文献情報 |
信学技報, vol. 119, no. 235, PRMU2019-39, pp. 41-46, 2019年10月. |
資料番号 |
PRMU2019-39 |
発行日 |
2019-10-11 (PRMU) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
PRMU2019-39 |