SEARCH
MENU

学生編集委員会企画:第39回日本ロボット学会学術講演会レポート(一般セッション:ディープラーニング(2/2))


 2021年9月8日から11日にかけてオンラインで開催された日本ロボット学会第39回学術講演会のセッション参加レポートをお届けします.今回レポートするのは,セッション2日目,9月10日の午後に開かれた「ディープラーニング (2/2)」になります.


 このセッションでは,AIを設計するための一つ手法であるディープラーニングの研究について,6件の講演が行われました.ディープラーニングと一口に言っても様々な例が挙げられており,非常に興味深く聞かせていただきました.
 以降,順にプログラムを紹介します.

 

 1件目は,明治大学のグループによる「動的障害物の存在を考慮した深層強化学習に基づく自律移動ロボットナビゲーション」です.移動ロボットにカメラを搭載し,①カメラで捉えた前方90°の深度情報,②物体認識による動的障害物の判定とその障害物の深度情報,③目標位置(Goal)との相対位置関係,の三つを入力とし,ロボットの速度を出力とした深層強化学習を行ったそうです.そして,得られた出力を用いて移動ロボットを制御し,Goalへ到達させるというナビゲーションシステムを提案されていました.深層強化学習は二次元の簡易シミュレーション環境上(図1)で行い,動的障害物を認識しない(②を行わない)パターンで学習したモデルに比べて,提案手法のモデル(①,②,③を全て行う)では動的障害物への衝突率が減少したことを示されました.学習にはカリキュラム学習を採用しており,学習期間の短縮やモデルの高精度化にも取り組んでいらっしゃいました

 


図1 テスト走行のシミュレーション環境 [1]

 

 2件目は,九州大学のグループによる「同一人物間の歩容特徴交換によるデータ拡張を用いた歩容認証 第2報 生成画像の品質評価実験」です.人の歩く様子から人物を識別する”歩容認証”という手法において,対象人物の映像から「歩き方などを含む姿勢特徴」と「持ち物や服装といった外観特徴」とを分離する研究をなされていました(図2).そして分離後,抽出された特徴と,同じ人物の他の映像から得られた特徴と,を入れ替えて新たな歩容映像を生成し,生成画像の品質および特徴分離の性能が先行研究よりも高いことを示されました.先行研究では,実データから分離された姿勢特徴のみを用いて識別学習をしていたそうですが,生成画像から抽出された姿勢特徴に対しても学習を行うことで性能の向上につながったそうです.私は歩容認証という言葉を初めて聞いたのですが,近い未来には皆が当たり前に使う言葉となっているかもしれませんね.

 


図2 提案手法の概要図(深層学習のモデル)[2]

 

 3件目は,早稲田大学のグループによる「深層学習を用いたロボット動作生成におけるアクションラベルの活用」です.本講演では,人間が主観的に定めたロボットの動き(物体を持ち上げる,手を下げる,物体を移動させる etc..)をアクションラベルとして付与し,深層学習を用いてロボットの動作生成を行う手法についてお話しされていました(図3).結果として,付与するアクションラベルは人間の手で作成したものをそのままニューラルネットワークに入力するのではなく,視覚運動情報からロボット自身にアクションラベルを推測させる,という工程を踏むことで,より誤差の少ない動作生成に成功したそうです.いよいよ人間が直感的にロボットへ動作を教える時代が迫っているのかもしれないと思うと,非常に楽しみに思いました.

 


図3 動作生成システム[3]

 

 4件目は,香川県産業技術センターのグループによる「時系列データを用いたDeepQ学習による力制御コントローラの検討」 です.ロボットの力制御に関して,深層強化学習にLSTM(時系列を扱うニューラルネットワーク)を用いた力制御コントローラの構築および評価を行っておられました(図4).その結果,先行研究で発生していた手先を対象物に押し付けた際に生じる振動を抑制することができたそうです.指を対象物に押し付けるという,人間からすると簡単に見える動作もロボットでは難しいものなのか,と改めてロボット制御の難しさを感じました.

 


図4 突き当て装置[4]


 5件目は,宇都宮大学のグループによる「中間知覚とLSTMによるロボットの動的障害物回避動作計画」 です.まず,著者らの従来研究についてお話します.移動ロボットの回避動作の手法には様々ありますが,著者らはロボット搭載のカメラでロボット前方を撮影し,ニューラルネットワークへ画像内の障害物を教示するとともに,障害物に対する回避の動作を人間の手で教える深層学習(模倣学習)を行っていらっしゃいました.その際,得られたカメラ画像をそのままロボットに入力するのではなく,画像中の障害物部分のみを一定色で塗りつぶした画像を入力することで,模倣学習時に教示された障害物以外の静的物体の回避に成功されたそうです(図5).そして,本講演では,著者らの従来研究にLSTMという時系列を扱うことのできるニューラルネットワークを追加し,静的障害物だけでなく動的障害物の回避にも成功していらっしゃいました(図6,図7).全く別の手法にも中間知覚というアイディアを活かせるのではないかと予感し,拝見することができて嬉しく思っています.

 


図5 中間知覚を経たニューラルネットワークへの入力画像(静止障害物)[5]

 


図6 中間知覚を経たニューラルネットワークへの入力画像(動的障害物)[5]

 


図7 ロボットの回避動作の比較 [5](左:従来手法の失敗例,右:提案手法の成功例)

 

 6件目は,宇都宮大学のグループによる「BMIを介したパーソナルモビリティロボットの操作支援」です.パーソナルモビリティ(一人乗りの移動支援機器,図8)の操作にはコントローラやハンドルなどがよく用いられていますが,一方で,著者らは搭乗者から読み取った脳波を用いて制御指令を出力し,パーソナルモビリティを操作する,といった研究をなされているそうです.そして,本講演では,従来研究にて生じていた制御指令の誤分類(5%ほど)に対して,モビリティに搭載したカメラ画像を入力としたニューラルネットワークを追加することで解決する,という手法を紹介していらっしゃいました(図9).カメラから得られたRGB画像から深度画像を作り出すエンコーダ-デコーダを構築することで,ニューラルネットワークに画像中の奥行き距離を考慮させ,誤分類ゆえに生じた路肩への逸脱回避を防止できる可能性を示されました.質疑応答にて問答されていたことなのですが,カメラで得られた深度画像をそのままニューラルネットワークに入力するのではなく,あえてRGB画像から深度画像を推測させる工程を踏むと性能が向上した,というのは非常に興味深く感じました.私自身,研究において得られたデータをそのまま使用することが果たして良いことなのか,考え直すきっかけになりました.

 

図8 実験環境とパーソナルモビリティ [6]

 


図9 提案手法 [6]

 

 以上,「ディープラーニング (2/2)」のセッションレポートでした.私はこのほかにも「生物模倣ロボット」のセッションレポートも担当しています.ぜひそちらも一読ください.

 

参考文献

[1] 土屋,森岡:“動的障害物の存在を考慮した深層強化学習に基づく自律移動ロボットナビゲーション”,日本ロボット学会第 39 回学術講演会予稿集DVD-ROM,2I4-01, 2021.
[2] 吉野,中嶋,岩下,倉爪:“同一人物間の歩容特徴交換によるデータ拡張を用いた歩容認証 第2報 生成画像の品質評価実験”,日本ロボット学会第 39 回学術講演会予稿集DVD-ROM,2I4-02, 2021.
[3] 内海,加瀬,尾形:“深層学習を用いたロボット動作生成におけるアクションラベルの活用”,日本ロボット学会第 39 回学術講演会予稿集DVD-ROM,2I4-03, 2021.
[4] 神内,福本:“時系列データを用いたDeepQ学習による力制御コントローラの検討”,日本ロボット学会第 39 回学術講演会予稿集DVD-ROM,2I4-04, 2021.
[5] 星野,吉田:“中間知覚とLSTMによるロボットの動的障害物回避動作計画”,日本ロボット学会第 39 回学術講演会予稿集DVD-ROM,2I4-05, 2021.
[6] 田上,星野:“BMIを介したパーソナルモビリティロボットの操作支援”,日本ロボット学会第 39 回学術講演会予稿集DVD-ROM,2I4-06, 2021.

 

山中幸季 (Koki Yamanaka)

2022年千葉大学大学院融合理工学府基幹工学専攻機械工学コース博士前期課程在学中. 移動ロボットの研究に従事.

 

 

日本ロボット学会誌40巻4号に掲載