本記事はrobot digest 2022年12月19日掲載記事を転載しております。
名古屋工業大学の田中由浩教授は、「アバターロボット」と呼ばれる遠隔操作ロボットを複数人で動かして協調作業をする研究に力を入れている。複数人が意思疎通を図りながら円滑に作業を進める上で、自身の専門分野である触覚のセンシング技術を活用する。「1人ではできない作業も、複数人の能力を融合すれば可能になる」と言う。今後も研究を進め、将来は技能伝承や多様性のある社会の実現に貢献したい考えだ。研究室内にはデモ機も設置されており、記者も実際に体験させてもらった。
1人ではできない作業も複数なら
田中教授が他者と触覚を共有するために開発した専用装置(提供)
田中教授の主な研究テーマは触覚。触覚は人の運動や身体認識と密接に関わっており、その感じ方も個人差がある。田中教授は他者とは比較ができない触覚に興味を抱き、「どうしたら触覚を他者と共有できるか」との視点でセンシング技術などの研究に努める。
田中教授は2050年を見据えた政府主導の大型研究プログラム「ムーンショット型研究開発制度」において、科学技術振興機構(JST)が実施する研究プロジェクト「身体的共創を生み出すサイバネティック・アバター技術と社会基盤の開発」に参画しており、身体や脳、空間、時間などの制約を超越する「サイバネティック・アバター技術」の社会実装に向けた研究にも力を入れている。
サイバネティック・アバター技術関連の数あるプロジェクトのうち、田中教授は「技能融合研究グループ」のグループ長を務める。現在は技能融合に関する基礎研究の一環で、アバターロボットを複数人で操作する実験に精を出す。「1人ではできない作業も、複数人の能力を融合すれば可能になる」と述べる。
2人で役割分担してロボットアームを操作する様子(提供)
ロボットアームを2人で操作すれば、片方が「位置」、もう片方が「姿勢」といった形で役割分担したり、2人の動きを足し合わせたりすることも可能だ。1人だけだと作業内容的に無理な姿勢を取らなければならない場合でも、2人ならそれぞれの役割だけに集中できたり、相手の動きに対する微調整もできる。1人当たりの作業負担を軽減できる上、作業精度も向上するという。
しかし、2人以上で協調作業をするには意思疎通が欠かせない。では、どうやって息を合わせるのか――?
そこで登場するのが触覚だ。田中教授の研究では、ロボットアームを操作するときの運動を、触覚を通じて作業者全員にフィードバックすることで共有できるという。「触覚なら目では見えない場合でも感じ取ることができるため、触覚を用いればロボットアームの状態や相手の動き方を直感的に把握できる。もちろん『どんな作業をするのか』という目的は事前にすり合わせなければならないが、アバターロボットの細かな軌跡まで調整する必要はない」と語る。
現在は2人で1台のロボットアームを操作するだけにとどまらず、3人で協調して2台のロボットアームを動かす実験にも取り組む。
記者だけの時より滑らかに
記者1人だけでデモ②に挑戦。途中で干渉してロボットアームが停止してしまった
「せっかくなので桑崎(=記者)さんも協調作業のデモを体験してください」――。
田中教授からの誘いを受け、記者も「百聞は一見にしかず」ということでアバターロボットに触れてみた。
記者が体験したのは①垂直多関節ロボットを2人で操作して木製ブロックを積み上げるデモ②左右にある2台の垂直多関節ロボットを3人で操作し、スポンジを左右のロボットで受け渡して所定の位置まで搬送するデモ――など。手の甲にはロボット操作機能や運動検知用の振動提示機能が付いたセンサーを、指先にはロボットハンドをつかむためのグリッパーをそれぞれ取り付け、まずは記者1人でそれぞれの作業に挑戦した。
ロボットアームは手の甲のセンサーや指先のグリッパーと連動して動き、記者が手の甲を前方に突き出せばロボットハンドも前に進み、指先のグリッパーを閉じればロボットハンドも閉じる仕組みだ。ユーフォーキャッチャーの要領でロボットアームを動かして①や②のデモにトライしたが、しょせんは素人。ぎこちない動きを繰り返し、挙げ句の果てにはロボットハンドが干渉して(ぶつかって)ロボットの動きが停止した。
実験で使用したセンサーやグリッパー
センサーやグリッパーと連動してロボットアームも動く
素人1人だと散々な結果になった2つのデモについて、今度は田中研究室の学生らと一緒に挑んだ。学生と記者の手の甲と指先にセンサーとグリッパーを取り付け、まずは2人で①のデモを実施した。
結論から言えば、記者1人だけでやった時よりも滑らかに作業ができた。一緒にロボットを操作するパートナーの動きが振動を通じて手の甲に装着したセンサーにフィードバックされるため、初対面の学生と言葉を交わさなくても、相手の様子や次にするべき作業内容などが「何となく」把握できた。前ページで紹介した田中教授の「触覚を用いればロボットアームの状態や相手の動き方を直感的に把握できる。もちろん『どんな作業をするのか』という目的は事前にすり合わせなければならないが、アバターロボットの細かな軌跡まで調整する必要はない」との言葉の意味を体感できた瞬間だった。
ちなみに、②のデモも記者1人だと干渉してしまったが、3人だと「右のロボット担当」「左のロボット担当」「ロボット操作兼グリッパー担当」といった具合に役割分担ができ、比較的スムーズに一連の作業を実施できた。
ベテランの学生と2人でデモ①に挑戦
今度は3人でデモ②に。役割分担が明確になり、比較的スムーズに作業ができた
技能伝承にも生かせる
「人の創造性をサポートする機械システムの開発を目指す」と話す田中由浩教授
田中教授は、協調作業の研究について「熟練者と初心者でペアを組んで作業すれば技能伝承にもつながる」と説明する。
ロボットを複数人で操作する際に、誰がどれぐらいの割合でロボットを扱うかという分担比率をあらかじめ設定できる。そのため、熟練者と初心者で協調作業をする際に、最初のうちは熟練者の分担比率を高めれば、初心者は触覚を通じて熟練者の動作をダイレクトに体感できる。熟練者と共に作業回数を重ねることで、自然と熟練者の動きの勘所を取得できる。
田中教授が、JSTのムーンショット研究開発事業の一環で取り組む協調作業の研究は、技能伝承だけではなく将来的には多様性のある社会の実現にも貢献するという。「ロボットで完全無人化する方向性も重要だが、私はこれまで培ってきた触覚の知見を生かし、人の創造性をサポートする機械システムを開発したい。あくまで人が持つスキルを生かすツールの一つとして、ロボットを活用していく」と田中教授は話す。
(ロボットダイジェスト編集部 桑崎厚史)
田中由浩(たなか・よしひろ)
2001年東北大学工学部を飛び級で卒業。06年同大学工学研究科バイオロボティクス専攻博士課程修了。同年から名古屋工業大学助手、特任助教などを経て21年教授、現在に至る。これまでにJSTさきがけ研究者やユトレヒト大学客員助教、藤田医科大学医学部客員准教授などを兼任。触知覚メカニズムの解明と触覚の情報化・活用の研究に従事。埼玉県出身。1980年生まれの42歳。