SEARCH
MENU

日本のロボット研究の歩みHistory of Robotics Research and Development of Japan2013Sensing〈センシング〉大規模な3次元環境地図とRGB-Dカメラを用いた移動ロボットの広域位置同定


倉爪 亮九州大学
鄭 龍振九州大学
岩下 友美九州大学
長谷川 勉九州大学

この論文は、ロボット研究開発アーカイブ「日本のロボット研究開発の歩み」掲載論文です。

2次元レーザレンジファインダや超音波センサなどの距離センサをロボットに搭載し,計測された距離データとあらかじめ与えられた2次元地図との比較から位置を同定する手法が多く提案されている.しかし,近年,3次元レーザスキャナの普及により,高精度な3次元環境地図がロボット用途としても利用可能になりつつある.一方,Kinect (Microsoft)やXtion(ASUSTek),SR4000 (Swiss Ranger)などRGB-Dカメラと呼ばれる低価格の距離センサが相次いで発売され,リアルタイムで面状の3次元距離データが手軽に得られるようになった.
そこで,本研究では,事前にレーザ計測により得られた大規模な3次元環境地図を用いた,RGB-Dカメラを搭載したロボットによる大域的位置同定および局所的位置追跡手法を開発した.従来,このような3次元情報を用いた位置同定は,環境地図と観測データに含まれる点群を用いたICP(Iterative Closest Point)法や,観測データ内の点群やボクセルと環境地図内の面やボクセルの分布を比較する手法などが提案されている.しかしこれらの手法は一般に計算量が多く,特に位置に関する事前知識が利用できない大域的位置同定においては,大規模な地図に直接適用するには問題がある.この問題に対し,本手法では,まず点群データで表された3次元環境地図にNDT(Normal Distributions Transformation)を適用し,点の分布を3次元正規分布で表現したNDボクセル(Normal Distributions Voxels)を生成,地図データとして登録する.また位置同定時には,RGB-Dカメラにより得られる点群から同様にNDボクセルを生成し,地図データと計測データの一致度を基に,パーティクルフィルタにより移動ロボットの自己位置を同定する.

2014年 第28回日本ロボット学会論文賞受賞
T.J.Tarn Best Paper in Robotics, 2010 IEEE International Conference on Robotics and Biomimetics (ROBIO 2010).

大規模な3次元環境地図とRGB-Dカメラを用いた移動ロボットの広域位置同定
大規模な3次元環境地図とRGB-Dカメラを用いた移動ロボットの広域位置同定