SEARCH
MENU

学生編集委員会企画:第40回日本ロボット学術講演会レポート(一般セッション:視覚・触覚に基づくロボットマニピュレーション(1/2))


1.はじめに

 2022年9月5日から9日にかけて東京大学で開催された第40回日本ロボット学会学術講演会のセッション参加レポートをお届けします.


2.セッションレポート

 今回レポートするのは,セッション2日目,9月6日の午後に開かれた「視覚・触覚に基づくロボットマニピュレーション (1/2)」になります.このセッションでは,触覚を用いたマニピュレーションに関して,ハンドの提案から制御,タスクの評価法に至るまで幅広い発表が合計7件行われました.


 まずは発表の概要について紹介します.


 1件目は東北大学・(株)FingerVision の研究者による「視触覚センサ FingerVision を搭載した高機能ロボットハンド」[1] です.この発表では,FingerVision という視覚を利用した触覚センサを用いた専用の高機能ハンドの開発と評価を行っています.


 2件目は大阪大学の研究グループによる「高速・高精度近接覚センサと RCC 機構を用いたビジョンセンサレスばら積みピッキング」[2] です.この発表では,アームとグリッパをフローティング構造にして,グリッパにつながった平板を近接覚センサでセンシングすることにより,グリッパをフィードバック制御して,バラ積みピッキングを手探りで行う手法を提案しています.


 3件目は立命館大学・金沢大学の研究グループによる「Reflectance Estimation based on Neural Network Re- gression for Proximity-based Pre-contact Gripper Set- ting」[3] です.この発表では,反射光を利用した近接覚センサの使用において,対象物の反射率が距離測定に影響を与えるため,ニューラルネットワークを利用して RGB 画像から反射率を推定する方法を提案しています.


 4件目は富山高専の研究グループによる「動作模倣型マニピュレータによる狭隘空間作業のための近接覚フィードバックデバイスの開発」[4] です.この発表では,近接覚フィードバックを有するマスタースレーブマニピュレータシステムにおいて,近接覚フィードバックを3段階から4段階により高精度化することで,狭隘空間における作業精度が高くなることを報告しています.


 5件目は立命館大学の研究グループによる「不確定物体把持のための近接覚センサを用いた物体重心推定制御の実験的検討」[5] です.この発表では,把持物体に対する事前情報なしで,ロボットとの接触による物体の運動から把持に必要な情報として物体重心を得る方法を提案しています.


 6件目は金沢大学の研究者による「把持対象物体表面の接触圧分布計測による把持性能評価に関する検討」[6] です.この発表では,実際の把持タスクにおいて把持対象物を接触厚分布センサで被覆し,そこから得られた情報から把持性能を評価する手法について提案しています.


 7件目は早稲田大学の研究グループによる「触覚センサを搭載した多指ハンドの繰り返し把持動作による物体の特性抽出」[7] です.多指ハンドの複雑な制御に使用するための把持物体の特性情報を,実際の多指ハンドの触覚情報から学習する方法について提案しています.


 これらの中から,私が特に興味を持った1件目の「視触覚センサ FingerVision を搭載した高機能ロボットハンド」と2件目の「高速・高精度近接覚センサと RCC 機構を用いたビジョンセンサレスばら積みピッキング」,6件目の「持対象物体表面の接触圧分布計測による把持性能評価に関する検討」について詳しくレポートします.


 まず「視触覚センサ FingerVision を搭載した高機能ロボットハンド」[1] についてです.この研究は,FingerVisionという視覚(カメラ) に基づく触覚センサを全リンクに組み込んだハンドの開発を目的としています.触覚センサにはいくつか種類がありますが,その中でも FingerVision とは,皮膚を透明な構成にすることで,3軸の力分布のみではなく,滑り情報や対象物の表面画像を得ることができるマルチモーダルなセンサです.一方で,物理的・光学的な厚みの制約が存在し,カメラによらない触覚センサのように既存のハンドの全リンクに FingerVision を搭載するというのは難しいという状況がありました.

 この研究では,FingerVision を活かしたマニピュレーション用のロボットハンドの基本設計と機能の検証を行っています.開発したロボットハンドは2指4自由度で,土台に設置されたアクチュエータでリンクを通して指を動かすようにしています.リンクは中空になっており,そこに専用に開発した FingerVision を搭載できるようになっています.評価実験では,FingerVision で計測できる要素のうち滑り情報を利用して把持適応制御を行っています.具体的には,このハンドではリンク数が5であり,指にあたるリンクで滑りがある場合は対応する関節角を動かし,ベースリンク(手のひら部分) で滑りが検知された場合には全体の関節角を動かすような制御を行っています.これにより指先でのみ滑りが観測される場合にはつまむような把持が,手のひらで滑りが観測される場合には包み込むような把持が確認されました.


 今回の発表では,既存のセンサよりも得られる情報が多くなっていった場合に,制御にそれをどう生かすのかも課題の一つとして挙げられていました.情報は得られれば得られるだけ良いと思っていたので,自由度に対して多い情報をどのように処理していくのかというのは考えたことがなく新鮮でした.


 次に「高速・高精度近接覚センサと RCC 機構を用いたビジョンセンサレスばら積みピッキング」[2] についてです.この研究は高精度の近接覚センサを応用したグリッパを使って,視覚情報に頼らずにばら積みピッキングを行うことを目的としています.


 この研究では RCC 機構を,ばねを用いて平板を適当な中間姿勢に維持するための機構として使用しており,平板と機構の基部との相対的な距離と傾きを近接覚センサにより測ることで平板の状態を把握します.この近接覚センサを含めた機構を二つ使用し,ぞれぞれの機構の平板に指を接続することで柔軟な二本指のグリッパとして運用します (図1).

 

図1: ビジョンセンサレスばら積みピッキングシステム [2]


 この研究におけるロボットの具体的な把持戦略は1) ランダムな初期アプローチ位置決定と,2) 手探りでのアーム手先位置・姿勢調整(近接覚センサフィードバック制御),3) リグラスプ判定(近接覚センサの閾値判定)で構成されています.これにより,視覚センサに頼らない把持平行面での把持対象物の探索と,リグラスプ判定によるロバストな把持が可能になります.


 実験は,100個の M6ネジを対象として行われ,搬送中にボルトを滑り落したことが2回ほどあったものの,平均搬送時間 (初期位置からボルトピッキング,ボルトを搬送先に搬送完了するまでの時間) は7.03秒を達成しました.近接覚センサの利用法として,把持対象物との距離認識 や,ロボットアームと障害物の衝突回避というのが一般的だと思っていたので,グリッパの一部として利用するという本研究は新規性が高いと感じました.また,発表ではグリッパの初期開き幅である程度把持対象物を選別することが可能というお話もあったので,さらなる高性能化に向けた研究に期待したいと思います.


 最後に「把持対象物体表面の接触圧分布計測による把持性能評価に関する検討」[6] です.この研究は一般的に困難であるとされている実際の把持タスクにおける接触の評価を行うことを目的としています.


 把持タスクに使用するロボットの性能評価法は多岐にわたりますが,実際の把持タスク中にリアルタイムで接触の情報を詳細に得るのは困難です.例えば,現状最も理想に近い方法として多数のロードセルを用いた触覚センシングがありますが,ロードセルの大きさなどの都合上,得られる情報は特定の点での情報に限られることになります.それ以外の方法でも,リアルタイムで接触の情報を得るには限界があります.


 この研究では,シート状の電気抵抗式の接触圧センサで把持対象物を被覆することで,リアルタイムでの接触圧・接触位置の計測を行うという手法を提案しています.センサの都合上複雑な形状の物体は再現できませんが,基本的な形状である直方体・球・円筒の把持対象物を作ることができ,実際にマニピュレーション中にリアルタイムで接触位置と接触圧を計測することに成功しています (図2).

 

図2: 接触圧分布センサを搭載した把持対象物の例 [6]


 私自身,接触力分布の計測に関する研究を行っていて,その評価手法をどうするか考えていたので,とても興味深い提案でした.


 以上でセッション「視覚・触覚に基づくロボットマニピュレーション (1/2)」の紹介を終わります.今回のセッションでは,視覚・触覚に基づくマニピュレーションが多く提案され,人間に近いマニピュレーションが実現する未来を想像させるような内容でした.

 

参考文献

[1] 山口明彦, “視触覚センサ FingerVision を搭載した高機能ロボットハンド,” 日本ロボット学会第40回学術講演会予稿集,2F2-01,2022.
[2] 小山佳祐, 万偉偉, 原田研介, “高速・高精度近接覚センサと RCC 機構を用いたビジョンセンサレスばら積みピッキング,” 日本ロボット学会第40回学術講演会予稿集,2F2-02,2022.
[3] Z. Yue, G. A. Garcia Ricardez, Y. Suzuki, and T. Taniguchi, “Reflectance Estimation based on Neural Network Regression for Proximity-based Pre-contact Gripper Setting,” 日本ロボット学会第40回学術講演会予稿集,2F2-03,2022.
[4] 佐藤圭祐, 神田皆人, 李知祐, 宮本杏樹, “動作模倣型マニピュレータによる狭隘空間作業のための近接覚フィードバックデバイスの開発,”日本ロボット学会第40回学術講演会予稿集,2F2-04,2022.
[5] 辻川翔大, 有田輝, 植村充典, “不確定物体把持のための近接覚センサを用いた物体重心推定制御の実験的検討,” 日本ロボット学会第40回
学術講演会予稿集,2F2-05,2022.
[6] 鈴木陽介, “把持対象物体表面の接触圧分布計測による把持性能評価に関する検討,” 日本ロボット学会第40回学術講演会予稿集,2F2-06,2022.
[7] 平本温夢, 船橋賢, Alexander Schmitz, 尾形哲也, “触覚センサを搭載した多指ハンドの繰り返し把持動作による物体の特性抽出,” 日本ロボット学会第40回学術講演会予稿集,2F2-07,2022.

 

田原芳基(Yoshiki Tahara)

2021年横浜国立大学理工学部機械・材料・海洋系学科卒業.現在同大学大学院先進実践学環修士課程在学中.(日本ロボット学会学生会員)