SEARCH
MENU

学生編集委員会企画:第40回日本ロボット学会学術講演会レポート(一般セッション:マニピュレーション(1/2))


1 はじめに

2022年9月5日から9日にかけて東京大学で開催された第40回日本ロボット学会学術講演会のセッション参加レポートをお届けします.今回レポートするのは,セッション2日目,9月8日の午後に開かれた「マニピュレーション(1/2)」になります.


2 セッションレポート

1件目は,立命館大学のグループによる「光学式近接覚センサの投光量制御を利用した位置制御可能範囲の拡張」です[1].光学式近接覚センサは近傍にある物体との距離や相対角度等の情報を取得するセンサです.焦点が存在するため最小検出距離は0ではなく,一般的に最小検出距離が小さいセンサは最大検出距離も小さいという特徴があります.本発表では,センサ付近に光源を追加し,この光源の投光量を制御することで,最小検出距離を保ちつつ,最大検出距離を約13倍拡張していました.大きなデメリットなく,13倍という大改善を得ており,非常に優れた工夫だと感じました.


2件目は,和歌山大学のグループによる「爪と部品の干渉および不安定姿勢でのリリース動作を許容した平行グリッパによる部品の姿勢遷移」です[2].図1のように平行グリッパで物体を持ちあげ,図1(e)のように不安定な姿勢状態からグリッパを引き抜き,目標の姿勢へ遷移させるというようなタスクに取り組まれていました.ここで図1(e)のリリース時の物体角度については,ポテンシャルエネルギーを利用しており,目標姿勢以外の他の姿勢に遷移することのないような物体角度範囲を算出した上で,決定していました.複雑な制御を必要としておらず,コスト面も配慮されている点から有用なマニピュレーション手法だと感じました.

 

Figure 1: Proposed reorientation strategy [2]


3件目は,早稲田大学のグループによる「GCNと分布型触覚センサを用いた様々な物体に対する多指ロボットハンドによる操り動作の実現」です[3].本発表では,図2のような触覚センサが搭載された多指ハンドを用い,この触覚情報を元にグラフ畳み込みネットワーク (GCN)で学習し,物体把持に成功していました.GCNの入力は,ロボットの関節角度,触覚情報,そして物体特性ラベル(軽い・重い・硬い・柔らかい・滑りにくい・滑りやすい)で,出力は次のロボット関節角度となっていました.ここで学習データは,人間がロボットを操作し,物体を把持させることで収集していました.物体特性ラベルを与えることで対象物体に応じた操作ができており,例えば柔らかい物体を押しつぶさずに把持するといったことが実現されていました.またロバスト性も高く,操り中に物体を下や横に引っ張った場合も,目標の把持姿勢に到達できることを確認していました.触覚情報をもとに関節角度を調整する,外乱が発生しても対応するというのは人間の手による把持に似ており,非常に興味深く感じました.

 


Figure 2: 多指ハンドと触覚センサ分布 [3]


4件目は,青山学院大学のグループによる「シャーレ内液面振動と溢流を抑制する高速ロボットマニピュレーション」です[4].本発表では,マニピュレータのエンドエフェクタに液体の入ったシャーレを把持させ,水平方向の移動だけでなく鉛直方向も考慮し,三次元的に搬送していました.液面の振動は,搬送時の加速度の周波数成分の内,液面振動の固有角周波数付近の成分によって励起されます.そこで,液面振動の1次モードをノッチフィルタで,高次モードをローパスフィルタで除去することで,制振していました.ここで鉛直方向も考慮しているため,液面振動固有角周波数が時変となり,これに応じてノッチフィルタのパラメータも時変となるため,搬送到達位置に誤差が生じます.この問題に対しては位置フィードバックによるPID制御系を構築することで解決していました.発表時に紹介していただいた資料で,本制御手法で液面の揺れが明らかに抑えられている様子が印象的でした.


5件目は,静岡大学と住友重機械工業のグループによる「触覚情報による柔軟対象物の開口位置推定のための接触動作選択」です[5].図3のように,ビニル製の袋上をロボットアームでなぞり,袋の口の部分で引っかかるときの接触情報を取得します.この操作を3回繰り返し,MPF (Manifold Particle Filter)を用いて袋の開口位置を推定していました.MPFは複数のパーティクルと呼ばれる重みをもった離散値により確率分布を表現するParticle Filterを応用し,推定対象となる分布が多様体上に拘束される場合に機能するように拡張したものです.また,3回目の動作には,パーティクルの分布の乱雑さを表すエントロピーの減少量が最小となるような動作を選択することで,高い精度を実現できていました.

 


Figure 3: 触覚情報取得の様子[5]


6件目は,青山学院大学と豊橋技術科学大学のグループによる「ロボットマッサージにおける力覚情報に基づくエキスパート技能の解析と模倣」です[6].厚生労働省の調査によると,腰痛,肩こりの有訴者率が1位,2位であり,本グループはこれを踏まえて,ロボットマッサージシステムを開発していました (図4).2名のエキスパート施術者のマッサージの様子 をモーションキャプチャと圧力センサを用いて解析し(図5),同じ加圧力,同じ加圧周期となるようロボットアームで再現していました.しかし,被施術者の呼吸等による胴体の動きにより,エキスパートのように加圧がかからない場合がありました.これに対し,繰り返し制御を用い,加圧を呼吸に合わせて追従させることを試み,追従性能が大幅に向上されることを確認していました.呼吸と指圧の周期が似通っていることに注目し,繰り返し制御により偏差を埋めるという工夫が非常に興味深かったです.筆者も学生ながら,腰痛に悩まされることがあるので,是非試してみたいと思いました.

 


Figure 4: ロボットマッサージシステムの概略図[6]

 


Figure 5: エキスパート施術の様子[6]


7件目は,関西大学のグループによる「深度カメラによる物体重心の認識と双腕ホームロボットによる把持作業」です[7].把持対象物体を深度カメラによってカラー画像と点群情報から物体重心を計算し,重心座標をもとにロボットアームで把持を行っていました.具体的には,カラー画像からYOLOを用いて物体種類を認識し,対応する寸法データを事前に準備してあるデータベースから取得し,各々の点群座標と寸法データから重心座標を計算していました.物体がペットボトルの場合は,単腕ロボットアームで図6のように,ティッシュケースのように単腕ロボットアームで把持できない場合は,図7のように双腕ロボットアームで挟むように把持していました.重心が推定できていれば,本発表で紹介のあったような挟む把持に加え,落下しないようにロボットアームで下から支えるといった操作も簡単な力のつり合い式で計算できるように思い,重心推定の有用性の高さを感じました.

 


Figure 6: ペットボトルの把持結果[7]

 


Figure 7: ティッシュケースの把持結果[7]


8件目は,株式会社日立ハイテクのグループによる「モーションキャプチャを用いたロボット作業教示システムの試作評価」です[8].本グループは,プログラミングの知識・技術を持たない作業者でも容易にロボット教示を行えるシステム,Copy Me Direct を開発しています(図8).これは,作業対象物(ピペットや試験管など)にマーカを取り付けた状態で人間が作業を行い,作業対象物の位置・姿勢の動作データを取得した後,ロボットでこの動作通りに動かすための各関節の軌道データを生成するというものです.本発表ではこの機能に加え,実際にロボットで実行した時にロボットの動きをカメラで計測し,手作業との誤差を補正する教示データ補正機能や,音声入力によりロボットの位置決め,ツールの操作(ピペットの吸引・吐出ボタンのプッシュなど)や物体認識といったコマンドを教示中に埋め込むことができる音声認識機能を開発していました.教示にかかる時間はダイレクトティーチに比べ,約1/20に短縮できており,ロボットの普及を大いに後押しする成果だと感じました.

 

Figure 8: Copy Me Direct のコンセプト[8]


以上で,「マニピュレーション(1/2)」のセッションレポートを終わります.どの発表も楽しく聞かせて頂いたと同時に様々なことを勉強をさせていただきました.「学習」を用いた発表が多かったように感じ,有用な手法として当たり前に浸透してきている印象を受けました.

 

References

[1] 北川,植村,有田:“光学式近接覚センサの投光量制御を利用した位置制御可能範囲の拡張”,日本ロボット学会第40回学術講演会予稿集,4B2-01,2022.
[2] 齋藤,土橋:“爪と部品の干渉および不安定姿勢でのリリース動作を許容した平行グリッパによる部品の姿勢遷移”,日本ロボット学会第40回学術講演会予稿集,4B2-02,2022.
[3] 船橋,磯部,F. Hongyi, 平本,A. Schmitz, 菅野,尾形:“GCNと分布型触覚センサを用いた様々な物体に対する多指ロボットハンドによる操り動作の実現”,日本ロボット学会第40回学術講演会予稿集,4B2-03,2022.
[4] 中川,山下,田崎:“シャーレ内液面振動と溢流を抑制する高速ロボットマニピュレーション”,日本ロボット学会第40回学術講演会予稿集,4B2-04,2022.
[5] 加藤,八木,小林,宮澤,原,臼井:“触覚情報による柔軟対象物の開口位置推定のための接触動作選択”,日本ロボット学会第40回学術講演会予稿集,4B2-05,2022.
[6] 原田,秋月,北崎,田崎:“ロボットマッサージにおける力覚情報に基づくエキスパート技能の解析と模倣”,日本ロボット学会第40回学術講演会予稿集,4B2-06,2022.
[7] 辻本,向,高橋,鈴木,前,新井,青柳:“深度カメラによる物体重心の認識と双腕ホームロボットによる把持作業”,日本ロボット学会第40回学術講演会予稿集,4B2-07,2022.
[8] 石川,小山,三枝,井上,小山:“モーションキャプチャを用いたロボット作業教示システムの試作評価”,日本ロボット学会第40回学術講演会予稿集,4B2-08,2022.

 

中西佑太 (Yuta Nakanishi)

2021年横浜国立大学理工学部機械・材料・海洋系学科卒業.現在同大学大学院理工学府機械・材料・海洋系工学専攻博士前期課程在学中.