SEARCH
MENU

[気鋭のロボット研究者vol.10]「測る」なくして「ロボ」はない【後編】/静岡理工科大学 飛田和輝准教授


本記事はrobot digest 2020年1月21日掲載記事を転載しております。

 

「人の生活と作業を支援するメカトロニクスシステム」をテーマに、センサーで周囲を認識して動く支援ロボットの開発を手掛ける飛田和輝准教授。後編では「センサーで測る」からもう一歩踏み込み、ロボットが人の行動を認識し、次の動作を予測して先回りして動く技術の研究を取り上げる。人とロボットが「あうん」の呼吸で連携する協調作業を目指す。


人とロボとのアンサンブルへ

 

車いすを自動で目的地まで誘導する装置

 

 周囲を認識してロボットの動きに反映するシステムを開発し、福祉向けの車いす誘導ロボットや視覚障害者の支援ロボットを開発する飛田准教授。これまでよりもう一段階踏み込んだ研究が、人の動きを察して動けるロボットの開発だ。
 「センサーで周囲を認識するだけでなく、次はどう動くのかを予測し、それに合わせて動けるようにしたい」と強調する。

 協働ロボットの登場で、人とロボットが同じスペース、同じ工程で一緒に作業する機会は増える。そうした時の、よりスムーズな協調を目指すという。
 人の動きに合わせてロボットを動かすには、どんな方法がいいのか――。飛田准教授は、自身の趣味であるトロンボーンの演奏から着想を得た。「ロボットに人と合奏(アンサンブル)させる」(飛田准教授)。


カメラで撮影した演奏風景にロボットが合わせるように設定

 

 合奏には指揮者や演奏者の動きや呼吸を感じ取り、自身の持つ楽器を操作する必要がある。つまり周囲の状況や動作に合わせなければならない。


トロンボーンの演奏をカメラで撮影する

 

 まずはトロンボーンの演奏に合わせ、弦楽器の弓を引く装置の開発に取り組む。
 カメラで演奏者の動きを撮影して動きと音のデータを取る。そのデータを蓄積しロボットに学習させ、相手の動きや音に合わせて最適な音を出す。
 
 「まだ始めたばかりだが、高度な協調が実現できれば、人とロボットが『あうん』の呼吸で作業する時代がくる」と飛田准教授は意気込む。


――終わり
(ロボットダイジェスト編集部 渡部隆寛)

 

飛田和輝(とびた・かずてる)
静岡理工科大学 理工学部機械工学科 准教授
2002年電気通信大学大学院電気通信学研究科機械制御工学専攻博士後期課程修了、同大学サテライトベンチャービジネスラボラトリ研究員。04年日本精工。12年電気通信大学非常勤講師、15年自治医科大学客員研究員。18年から現職。1997年日本機械学会畠山賞、2004年精密工学会高城賞受賞。1975年生まれ44歳。東京都出身。中学からトロンボーンを演奏し、現在でも年に1回ほどの演奏会に参加する。