SEARCH
MENU

学生編集委員会企画:第39回日本ロボット学会学術講演会レポート(ジェネラルセッション:ヒューマンインタラクション)


2021年9月9日から11日にかけてオンライン開催された第39回日本ロボット学会学術講演会(RSJ2021)のセッション参加レポートをお届けします.今年も新型コロナウイルスは終息せず,現地で参加できなかったのは残念ですが,各セッション見逃し配信(YouTube Streaming)によって,後から色んなセッションを見ることができたのはありがたかったです.


今回レポートするのは, 2日目の9月10日の午後に開かれた「ヒューマンインタラクシ」というセッションです.ロボットやアバターとヒトとの対話に関する研究発表が6件行われました.


発表順にプログラムを紹介します.


1件目の大阪市立大学のグループによる「ターンテイキング予測に基づき発話者優先的に会話可能な音声対話システム」です.医療・介護の人材不足を補うため,高齢者に対応できるコミュニケーションロボットの導入が期待されています.しかし,従来のルールベース型音声対話システムでは,利用者の話を遮ってしまい,興味を失うことがあるそうです.そこで,このグループは,ターンテイキング予測と発話停止機能を用いることで,発話者の発言を優先して会話を行うシステムの開発を行ったそうです(図1).

 

図1 提案システムの概要図


2件目は大阪大学と京都大学のグループによる「複数ロボットによる対話継続効果検証のための商業施設でのフィールド実験」です.このグループでは,ロボットと対話をする際に,ロボットの台数の違いによる対話継続意欲への影響を調査したそうです.これにより,複数のロボットを用いることで,会話時間が増加することが示唆されたそうです.


3件目は名古屋大学と岐阜大学とJSTさきがけのグループによる「力覚フィードバックを伴う実時間3次元画像呈示微細操作システム」です.晩婚化の影響により,妊娠を手助けする生命補助医療への需要が高まっており,成功率の高い顕微授精という手法が着目されています.しかし,この医療を行える生殖補助医療胚培養士やその管理者の数は日本において非常に少なく,地域差も大きいらしいです.また,顕微授精のための従来システムでは,奥行き感がわかりにくく操作性が悪いため,熟練するために時間がかかります.そこで,このグループは,操作性を向上させるため,力覚フィードバックと三次元画像を用いたシステムを開発したそうです(図2).このような研究により,人々が生命補助医療に気軽にアクセスできるようになると嬉しいですね.

 

図2 提案システムの構成


4件目は関西大学のグループによる「心の動きを表現するための涙目ロボットを用いた落涙提示手法」です.ペットロボットのようなソーシャルロボットには,ユーザの感情を推定する技術が導入されており,コミュニケーションを通じて人と同様の感覚を共有する仕組みが求められているそうです.また,ヒトはロボットにも情動的共感を覚えるそうで,涙目のロボットにより,ヒトの情動的側面が刺激される可能性が確認されています.そこで,このグループは,女性の顔を模したロボットに涙を流させた場合と涙目にさせた場合とを主観評価により比較し,落涙表現が認知性や感情の強さを強化することを明らかにし,涙による情動伝染効果を確認したそうです(図3).ロボットが登場するアニメや映画で感動したことがあるので,確かに,このような表現は効果的だろうと思いました.

 

図3 涙目ロボットの外観


5件目は大阪大学のグループによる「非言語応答の半自律生成機能を持つ社会的複数CGアバター対話システムの評価」です.ビデオ会議システムで会話を行うにあたり,視線の不一致によるモチベーション低下・非言語情報量の減少・自己像の表示による対話不安などが問題視されています.このグループは,アバターを用いることで,対話へのモチベーションを維持し,対話相手に非言語情報が伝達する遠隔対話システム「CommUTalk」を開発し,対話不安を優位に減少させることができたそうです(図4).確かにオンライン飲み会等において自身の顔が常に見える状態は不安になるので,このようなシステムがあったら活用してみたいと思いました.

 

図4 半自律社会的CG アバタ―ルーム「CommUTalk」


6件目は創価大学のグループによる「人追従走行ロボットにおける深層強化学習を用いた適用モデルの簡易化」です.人追従走行は宅配・倉庫整理・買い物支援などに応用されているそうです.しかし,従来手法では,処理の複雑さから人追従性能が著しく低下することがあるそうです.そこで,このグループでは,深層学習を用いて処理を簡易化した手法を提案しました.追従走行してくれるロボットがあったら重たいものを自分で持たなくてよく,便利そうだと思いました.


以上で「ヒューマンインタラクション」のセッションレポートを終わります.この他にも,「ヒューマン・マシン・インタフェース(1/2)」「視覚・触覚に基づくロボットマニピュレーション(1/3)」のセッションについてもレポートしていますので,そちらも是非御覧ください.

 

参考文献
  1. 稲石,榎,野口:ターンテイキング予測に基づき発話者優先的に会話可能な音声対話システム,日本ロボット学会第39回学術講演会予稿集,2B4-01, 2021.
  2. 酒井,吉川,井上,河原,石黒:複数ロボットによる対話継続効果検証のための商業施設でのフィールド実験,日本ロボット学会第39回学術講演会予稿集,2B4-02, 2021.
  3. 藤城,青山,杷野,高須,竹内,長谷川:力覚フィードバックを伴う実時間3次元画像呈示微細操作システム,日本ロボット学会第39回学術講演会予稿集,2B4-03, 2021.
  4. 瀬島:心の動きを表現するための涙目ロボットを用いた落涙提示手法,日本ロボット学会第39回学術講演会予稿集,2B4-04, 2021.
  5. 上原,酒井,吉川,石黒:非言語応答の半自律生成機能を持つ社会的複数CGアバター対話システムの評価,日本ロボット学会第39回学術講演会予稿集,2B4-05, 2021.
  6. 池田,高橋,崔:人追従走行ロボットにおける深層強化学習を用いた適用モデルの簡易化,日本ロボット学会第39回学術講演会予稿集,2B4-06, 2021.

 

小嶋 麻由佳(Mayuka Kojima)

2020年東京大学工学部精密工学科卒業.現在は東京大学大学院新領域創成科学研究科人間環境学専攻,博士課程在籍.硬軟感知覚や触覚刺激を用いた疑似力覚提示に関する研究に従事.