2021年9月8日から11日にかけてオンラインで開催された日本ロボット学会第39回学術講演会のセッション参加レポートをお届けします.
今回レポートするのは,セッション1日目,9月9日の午前に開かれた「自己位置推定・SLAM (1/2)」です.
このセッションでは,移動ロボットの自己位置推定やSLAM技術に関する研究について5件の講演が行われました.簡単にそれぞれの発表を紹介します.
1件目は,芝浦工業大学と西武建設(株)のグループによる「3D LiDAR を簡易設置した車両による高効率な広域3次元環境地図の構築と精度の検討」[1]です.人手不足が問題となっている建設現場で,より簡便に広域環境地図を生成する手法を提案されていました.
2件目は,筑波大学のグループによる「カメラ付きアームの能動的な姿勢変更による3次元地図生成のための未知環境探索」[2]です.掃除ロボットにカメラ付きのアームを取り付け,より効率的に地図生成する手法を提案されていました.
3件目は,東京電機大学のグループによる「建築物構造を利用した地図作成による自己位置認識の精度向上」[3]です.建築物の内部構造に基づく特徴点を用いることで,特徴点の少ない環境でも高精度なVisual-SLAMの実現に取り組んでおられました.
4件目は,岐阜大学のグループによる「AMR自律移動のための設計図面入力によるPCDマップ作成システム」[4]です.設計図面の画像からPCDマップを作成することで,従来の地図生成にかかる手間の削減に取り組んでおられました.
5件目は,筑波大学のグループによる「移動ロボットのための遠方のランドマークを重視した画像ベース自己位置推定」[5]です.ビルや街灯といった動くことのない遠方物体に着目し,近辺の動的物体に影響されにくい自己位置推定手法を提案されていました.
ここでは,これら5件の発表の中で私が特に関心をもった「カメラ付きアームの能動的な姿勢変更による3次元地図生成のための未知環境探索」と「移動ロボットのための遠方のランドマークを重視した画像ベース自己位置推定」について詳しく紹介します.
カメラ付きアームの能動的な姿勢変更による3次元地図生成のための未知環境探索
現在,様々な家庭用掃除ロボットが発売されていますが,それらのロボットは概して背が低く,周辺環境の認識が難しいこともあります.この問題の解決として,筑波大学のグループではロボットにカメラ付きアームを取り付けた環境を俯瞰的にセンシングできる掃除ロボット(図1)を提案しています.今回の発表では,この掃除ロボットの未知環境探索をより短い移動距離と探索時間で行える手法の提案・検証をされていました.提案手法では走行できる領域と未知領域の境目であるフロンティアを地図上から観測し,移動と同時にカメラの向きをフロンティアの方へ適宜向ける手法と,現在の向きに近いフロンティアから探索していく手法の2つを従来手法に取り入れていました.そして,これらの手法を取り入れたシミュレーション実験を行い,移動距離・探索時間の双方が短縮されたことを確認していました.掃除ロボットという移動ロボットの中でも社会に根付いているものを対象としており,今後の展開が非常に楽しみな発表でした.私は掃除があまり得意な方ではないので,これらの手法が製品に導入されて利便性がより高まってくれることを期待しております.
図1 ロボットのハードウェア構成(予稿原稿[2]より転載)
移動ロボットのための遠方のランドマークを重視した画像ベース自己位置推定
移動ロボットの自律走行技術の中で自己位置推定は最重要課題といえます.しかし,実環境では人混みや車の往来といった動的物体が数多く存在し,絶えず環境が変化しているため自己位置推定が難しいという問題があります.筑波大学のグループでは,ビルや街灯といった動くことのない遠方物体に着目し,周辺の動的物体に影響されにくい自己位置推定手法を提案されていました.図2に示すように,カメラから得た画像に対しエッジ検出を行い,エッジの高さ位置や画素値の変化方向などで分別することで多種のランドマークを得ていました.そして,これらのランドマークを位置推定に利用することで,遠方物体を重視した自己位置推定を実現していました.実機実験ではランドマークが少ない環境では自己位置のずれが大きくなるようでしたが,ランドマークが十分ある環境では既存手法と変わらない精度で位置推定していました.遠方物体を目印にすることは,通勤ラッシュの駅構内などで人間も日常的に行っているため,人間に近しい面白い自己位置推定手法だと感じました.今後,移動ロボットの活動範囲が広がるにつれ,ロボットと人との距離はますます近くなると予想されますので,実環境で動くことを想定したこの研究は非常に有用性があるように感じました.
図2 エッジの検出例(予稿原稿[5]より転載)
以上,「自己位置推定・SLAM (1/2)」セッションのレポートを終わります.この他にも,「確率ロボティクスとデータ工学ロボティクス~認識・行動学習・記号創発~(5/5)」のセッションについてもレポートしていますので,そちらもぜひご覧ください.
参考文献
- 石井,長谷川,油田,市原,松井,金野,須長:“3D LiDAR を簡易設置した車両による高効率な広域3次元環境地図の構築と精度の検討”,日本ロボット学会第 39 回学術講演会予稿集,1H1-01, 2021.
- 魚躬,萬,大矢:“カメラ付きアームの能動的な姿勢変更による3次元地図生成のための未知環境探索”,日本ロボット学会第 39 回学術講演会予稿集,1H1-02, 2021.
- 木村,日高:“建築物構造を利用した地図作成による自己位置認識の精度向上”,日本ロボット学会第 39 回学術講演会予稿集,1H1-03, 2021.
- 金子,森田,伊藤:“AMR自律移動のための設計図面入力によるPCDマップ作成システム”,日本ロボット学会第 39 回学術講演会予稿集,1H1-04, 2021.
- 鈴木,萬,大矢:“移動ロボットのための遠方のランドマークを重視した画像ベース自己位置推定”,日本ロボット学会第 39 回学術講演会予稿集,1H1-05, 2021.
大毛雄人 (Yuto Oge)
2022年千葉大学大学院融合理工学府基幹工学専攻機械工学コース博士前期課程在学.移動ロボットの研究に従事.