SEARCH
MENU

学生編集委員会企画:第40回日本ロボット学会学術講演会レポート(オーガナイズドセッション:視覚・触覚に基づくロボットマニピュレーション(2/2))


1 はじめに

2022年9月5日から9日にかけて東京大学で開催された第40回日本ロボット学会学術講演会のセッション参加レポートをお届けします.今回レポートするのは,セッション4日目,9月8日の午後に開かれた「視覚・触覚に基づくロボットマニピュレーション(1/2)」になります.


2 セッションレポート

1件目は,東北大学のグループによる「液体スキルシミュレータ:道具と柔軟な容器の導入」です[1].本発表では,ロボットの行動学習に用いるための液体のシミュレーションを行っていました.ロボットにとって液体が入った容器の操作は非常に難しいタスクです.本発表では,液体を小さな剛体球の集まりで表現し,それらの摩擦係数,反発係数を調整したり,仮想的な引力を発生させたりすることで,液体の粘性や流動性を表現していました(図1).容器を「傾ける」,「振る」,「絞る」の3つの注ぎ出しスキルに対してシミュレートし,現実に近い液体の特性を表現できていました.仮想的な引力を剛体球間に発生させるという工夫が非常に面白かったです.

 


Figure 1: シミュレーションの様子[1]


2件目は,電気通信大学のグループによる「双腕ロボットによるハサミを用いた袋のスムーズな切断開梱作業」です[2].図2のように,右手に金切りばさみ,左手に押さえる用のペンチを備えた双腕ロボットを用いて,袋の切断を行っていました.この際,右手と左手の位置関係等,様々に条件を変えながら実験を行い,条件の良し悪しを評価していました.今後は,力覚センサを取り付け,袋にはさみが詰まった場合も対応していくとのことで,これからの展開が非常に楽しみです.本発表のようにヒューリスティクス的なアプローチを取り,イレギュラーな状況にはセンサフィードバックで対応していくという手法は,特に柔軟物のようなモデル化が難しいものが相手の場合に非常に有効だと感じました.

 


Figure 2: ロボットの全体図[2]

 


Figure 3: 指の動作[3]

 


Figure 4: 紙束とロボットハンドの配置[3]


3件目は,広島大学のグループによる「ロボットハンドによる摩擦差を利用した用紙分離」です[3].二指ロボットハンドで紙束を囲い込み,片方のハンドで手前の紙を擦り出す動作を,他方のハンドで,擦り出された紙が2枚以上の場合,紙が1枚のみ残るまで紙束へ戻すという動作をそれぞれ行うことで紙の分離を実現していました(図3,図4).擦り出された紙の枚数検知には,画像処理を用いていました.発表内のデモ動画では,1秒に3枚程度の分離を実現しており,非常にスピーディーで驚きました.


4件目は,立命館大学のグループによる「物体画像からの摩擦係数推定に関する検討 ~マルチモーダル情報活用による把持安定性評価に向けて~」です[4].従来のロボットによる把持安定性の評価では,物体によらない一定の摩擦係数が通常,設定されていました.そこで,本発表ではCNNを用いて物体画像から摩擦係数を推定し,把持安定性の評価をより正確にすることに取り組んでいました.学習では,物体のテクスチャ情報のみで摩擦係数を推定するのでは不十分とし,まず物体のクラス分類を行い,その上で摩擦係数を推定していました.物体クラスと摩擦係数の共起性を考えている点が非常に興味深かったです.


5件目は,立命館大学のグループによる「物体クラス情報を陽に活用したCNNによる物体把持点推定」です[5].物体の画像情報とクラス分類情報の2つを入力としてCNNで学習させ,出力として物体の把持点を得ていました.類似研究との違いは,クラス分類情報も学習に用いていることと,把持位置の教師データに実際にロボットで把持可能だった把持点を与えていることの2点です.前者により,未学習の物体に対しても,クラスに応じた把持可能性の高い把持点に誘導することができており,後者により,従来研究のような人間の主観によるアノテーションによるものより優れた結果が得られていました.物体の画像情報とクラス分類情報という性質が異なるものを同じモデルで学習している点を興味深く思いました.

 


Figure 5: 動作のイメージ図[6]

 


Figure 6: スティックの姿勢制御動作(目標角度150°)[6]


6件目は,広島大学のグループによる「高速ロボットハンドによる振り上げ動作を用いたインハンドマニピュレーション」です[6].本発表では,ロボットハンドでスティックをつかみ,目標の角度まで振り上げ,静止させていました.イメージとして人間の手で行ったものは図5のようになっています.具体的な操作としては,ロボットハンドとスティックの相対位置が固定されるように把持した状態から,ロボットハンドを振り上げ,同時に把持を少し緩めてスティックが慣性力により上方向に回転できるようにします.スティックの動きは高速度カメラにより検出しており,目標角度へ到達したとき,把持を強めることで位置決めしていました.結果は図6のようになっており,目標からの誤差は10 ^∘以内に収まっていました.ロボットによるマニピュレーションは把持のような静的な安定性を維持した状態を遷移させていくもの,というような先入観があり,本発表のようなダイナミックなマニピュレーションは初めて見たので,非常に印象的でした.


以上で,「視覚・触覚に基づくロボットマニピュレーション(2/2)」のセッションレポートを終わります.各タスクに応じて,適したロボットシステム,適したアルゴリズムで解決を試みている点が非常に興味深かったです.

 

References

[1] 八島,山口,橋本:“液体スキルシミュレータ:道具と柔軟な容器の導入”,日本ロボット学会第40回学術講演会予稿集,4F1-01,2022.
[2] 小栗,滝澤,木村,末廣,工藤:“双腕ロボットによるハサミを用いた袋のスムーズな切断開梱作業”,日本ロボット学会第40回学術講演会予稿集,4F1-02,2022.
[3] 山名,妹尾,石井:“ロボットハンドによる摩擦差を利用した用紙分離”,日本ロボット学会第40回学術講演会予稿集,4F1-03,2022.
[4] 大西,GUSTAVO,谷口,鈴木:“物体画像からの摩擦係数推定に関する検討 ~マルチモーダル情報活用による把持安定性評価に向けて~”,日本ロボット学会第40回学術講演会予稿集,4F1-04,2022.
[5] 伊藤,GUSTAVO,谷口:“物体クラス情報を陽に活用したCNNによる物体把持点推定”,日本ロボット学会第40回学術講演会予稿集,4F1-05,2022.
[6] 大坪,妹尾,石井:“高速ロボットハンドによる振り上げ動作を用いたインハンドマニピュレーション”,日本ロボット学会第40回学術講演会予稿集,4F1-06,2022.

 

中西佑太 (Yuta Nakanishi)

2021年横浜国立大学理工学部機械・材料・海洋系学科卒業.現在同大学大学院理工学府機械・材料・海洋系工学専攻博士前期課程在学中.