1. はじめに
本記事は日本ロボット学会と人工知能学会の共同企画として,2022年9月5日から8日まで開催された日本ロボット学会学術講演会のセッションに参加した様子を報告する.
現在,ロボットは家庭や工場,施設などにおいて様々な活躍をしている.しかし多くの場合,ロボットは人間と関係を築き使用される.このとき,必ず人間とのインタラクションが行われる.人間とロボットの関係性に関する調査によって,ロボットがより社会に浸透しやすくなり,人々から道具以上の価値を見出されるだろう.
本セッションは計8件の発表があったため,各々の発表の焦点について個別に報告する.
2. 本文
本記事では2022年9月6日の午後に開かれたセッションである『ヒューマンインタラクション』について報告する.はじめに,本セッションではセッションの題目の通り,ヒューマンインタラクション分野に関心がある人にとって魅力的な発表の数々であった.ここでは簡単にすべての発表について報告する.
一件目は大阪大学のグループによる『対話ロボットのモータ音がロボットの生命感に及ぼす影響についての調査』である[1].対話ロボットの持つ感情や印象の違いに対してモータ音の有無が人に与える印象を調査するため,モータ音の有無と発話における感情表現の有無の2つを要因とした評価実験を行った.
人とかかわりを持つロボットの多くはモータを動かすことで身振り手振りなどのジェスチャーを用いたコミュニケーションを行うためノイズが発生する.このノイズによってロボット感が増すことで生命感が低くなっている仮説を立てて実験を行った.モータ音あり・なしと感情表現あり・なしの二要因分散分析を用いて分析しており,モータ音要因に関しては参加者内要因であった.
結果として,二要因の交互作用は有意傾向ではあったが,事後検定においては感情あり条件においてモータ音あり・なしで統計的に有意が認められた.この結果は,人間のように感情を表現した発話を行うロボットにとって,モータ音があると生命感を損なうことになる、という仮説を支持する結果であった.
モータ音による生命感の印象を調査する本研究はロボットが動作する際に発生する機械音が生命感とは異なる要素として人間の印象に影響を与えていることを示唆した.
二件目は電気通信大学のグループによる『後方の操縦者の位置に基づいた移動ロボットの操縦の実現』である[2].周囲の状況に注意を払う必要のある機体の操縦や工事現場内で何らかの作業を行うロボットを操縦の場合は,機体が操縦者の視界の範囲内にあることが望ましく,追従による操縦は不適切であるため,人物と機体の位置関係に基づき,コントローラーを使用せずにロボットを後ろから操縦する,新たな操縦方法の実現を行なった.
提案手法では,二輪駆動ロボットを並進速度と旋回角速度によって制御することを想定し,任意の認識手法による推定された人物位置要素をもとに機体の並進速度,旋回角速度を決定した.実験は,幅 15 cm のマーカーが貼られたプレートを首から下げた操縦者の認識を行ない,接近した場合もプレートのマーカーを認識できるようにカメラの設置位置をマーカーと同位置にした.
実機検証によって,小型の二輪駆動における最小直角通路幅の検証を行い,位置情報に基づいた操縦が可能であることが示された.しかし,本論文で提案した操縦モデルが,正確な操縦や直感的な操縦といった観点からどの程度適切かは十分な検討がなされたとはいえない.
移動ロボットの新たな操作方法の提案から操縦モデルの実機検証を行うことで、検討するべき点はあるが提案手法の実現を達成している.移動ロボットに関心のある方には詳細を読んでいただきたい.
三件目は名城大学のグループによる『平面を移動する小型モーションプラットフォームを活用した立体的な体感に関する研究』である[3].映像と連動して動く乗り物 (MP:Motion Platform)の開発が進んでいる中で,平面移動の小型 MP である電動車椅子を活用して,必要面積を削減し,どのような条件下で立体的な体感である上昇感・落下感・旋回感を得ることができるのか検証を行った.
各実験において,Unity で作成したフライトシミュレータの映像を用いた.基礎実験として3種類の実験を行っており,離着陸における加速度による衝撃の付与に関する実験・MP の動作条件の違いに関する実験・回転移動を用いた旋回に関する実験から統合した実験の予想を立てた.統合実験では立体感や省スペース化の有効性を確認できた.
立体的な体感を得る条件として,上昇感や落下感の場合,VR 空間内の離着陸のタイミングで MP に加速度による衝撃を付与し,旋回感の場合,MP に回転動作や前進動作を行うことであった.また,省スペース化をする為にVR空間内の体感が変化するタイミングで,MP に前後動作や回転動作を取り入れることで,違和感を大幅に悪化させることなく効果を得られる.
フライトシミュレータを利用したVR空間内での体感の調査は今後のVR環境での人間の体感の調査にとって参考になる.実機よりも省スペースで有効な効果を得られるのであれば,多くの分野での応用も検討できるだろう.
四件目は関西大学のグループによる『Web 会議画面からの複数人の遠隔心拍数推定』である[4].Web 会議画面の画像から人の肌部分の RGB 成分の時間変化から心拍数を計測するため,顔の検出と追跡,肌領域の抽出,肌領域からの心拍数推定を行った.Web 会議画面に複数人いる場合,画面配置に合わせて画像範囲を分割して処理する.
Web カメラやノート PC の内蔵カメラから 0.5m 程度の距離で撮影された顔が映った Web 会議画面から人の心拍数を推定する.Web 会議画面から心拍数推定する人数により,画像上の顔の大きさや検出する顔の数が異なるため,これらの影響を実験により確認する.Web 会議画面から推定した心拍数と心拍計で計測した心拍数を比較する.
近年,オンライン会議の頻度も増加した中,複数人の心拍数を推定できるようになることは,オンライン上の懸念点であった相手の存在感の低下に良い影響をもたらす可能性がある.
五件目は理化学研究所GRPのグループによる『対話中のユーザ間同調動作のニューラルネットワークを用いた特徴抽出に関する検討』である[5].自己教師あり学習を利用した, 人-人インタラクションにおける時刻的な同調に基づくモデリングの研究をしてきた. ここでは, 2 人の被験者の 1 対 1 の対話を対象とする.
提案手法では,一方の被験者から得た特徴量と時刻シフトした他方の被験者から得た特徴量を組み合わせる「ラグ操作」を行う.実験では,1 対 1 の対話映像を収集し,顔の動きとFacial Action Unit (FAU) および音声の特徴を抽出する.収集した会話データに対して自己教師あり学習を適用し表現空間を得る.得られた表現空間から特徴的な領域を抽出し,頷きなどの同調行動を持つデータが含まれるか検証をする.
本実験では 14 セッションのデータを収集し特徴量化した.1 セッションは10−20分程度で,合計約4時間のデータを得た.全 14 セッションのデータのうち,13 セッションを学習データセットとし,1 セッションをテストデータとした.テストデータを学習済みモデルに入力し得られる表現を抽出する.
ラグ操作量をラベルとした学習を行うことで,各ラグ操作量の領域に分離するデータと分離しないデータが存在した.ラグ操作なしかつ分離している領域のデータを抽出すると,ターンテイキングや首の動きなど,対話における“やりとりを含む”データが得られた.分離していない領域のデータを抽出すると,一方の被験者のみが発話,そして首はほぼ静止しているといったやりとりのないデータが抽出された.すなわち,対話において反応のタイミングが適切である場合や頷き,ターンテイキング,アイコンタクトなどのイベントが適切な順序で表出された場合,分離データとして得られると期待できる.
対話中の動作を教師あり学習を利用して特徴抽出を行うことで,人の動きと会話内容の関係性を調査した本研究は,今後ロボットや擬人化エージェントに導入することで人間らしい同調行動を再現できるかもしれない.
六件目は大阪大学とマサチューセッツ工科大学のグループによる『VR 環境下における人間機械系の機械動特性の変化に伴う人間の適応的運動制御- 課題難易度に応じて変化する運動戦略の位相面解析 -』である[6].VR 環境下の補償トラッキング課題を対象に,異なる機械動特性を有した人間機械系への人間の運動適応を位相面法により解析した.
若年健常男性 3 名が実験に参加した.被験者には予め実験の趣旨と内容を説明し,参加の同意を得た.被験者は市販の 3 次元映像装置を頭部に装着し,VR 空間内を揺動しながら接近する標的に一定時間の照準を定めて迎撃する補償トラッキング課題を 2日間練習した.
被験者が操縦する照準器には,レバー操作量に比例して照準位置が変化する0次積分器(P0),照準速度が変化する1次積分器(P1),照準加速度が変化する2次積分器(P2)の3種類があり,被験者は全ての照準器でそれぞれ課題を練習した.
照準動特性 P0 及び P1 の照準器を使用した場合,被験者は練習 1 日目序盤から高い運動性能を示したが,照準動特性 P2 の照準器を使いこなすには十分な練習を要した.
VR環境での課題難易度で発生する人間の運動適応を調査することで,VRの社会への浸透による様々なタスクに習熟度によって人間が適応可能である可能性を示した.
七件目は神奈川工科大学と明治大学と(株)オリィ研究所のグループによる『分身ロボットによるマルチモーダルインタラクションのための柔軟ロボットハンド』である[7].これまでの視聴覚コミュニケーション機能に触覚を加えたマルチモーダルなインタラクションを実現するため,分身ロボットための身体接触を伴う体験を共有する機能として,人肌に近い柔らかさを持つ柔軟ロボットハンドを提案した.
触覚インタラクションとして握手に着目し,OriHime-D による握手機能に必要な要件を人に近い握手が可能な構造と触感を有し,半自動化された握手操作を可能にするロボットハンドシステムとして提案した.
実験手順として,初めにパイロットが自宅から握手の操作をする.次に握手相手はパイロットによるOriHime-D の握手に応じる.握手の際の握り返しは,柔軟ロボットハンドが自動で反応する.最後にパイロットおよび握手相手の両名に聞き取り調査を実施する.聞き取りの結果,握手相手からはハンドを握った際に自身の手の暖かさがハンドから返ってくるため人に近い手と感じたとの感想を得た.パイロットからは,握手している感覚がパイロットに実際に伝わるようなシステムが欲しいといった意見を得た.
分身ロボットによって他者とのインタラクションが困難な場合でも人の暖かさを感じられる可能性を示した.一方でロボットの操作側には握手の感覚が伝わりにくかったが,双方で握手の感覚を得られるロボット開発は遠方の相手との距離感を縮める意味でも重要な課題だろう.
八件目は名古屋大学のグループによる『細胞の変形度を想起させる面状力触覚提示が可能な微細操作インタフェース』である[8].細胞の変形度合いに応じた面状力触覚提示を行う微細操作インタフェースを開発し,顕微授精(ICSI)における伸展度合いの判断の精度を向上させることを目的とする.
提案システムでは,インジェクションピペットを穿刺する際の細胞の変形速度をオプティカルフローにより求め,積分することで変形量を算出した.提案システムの力触覚提示の有効性を検証するために,ブタ胚を使用した穿刺実験を行った.被験者の回答の正答数を指標とし,力触覚提示の有効性を検証する.実験は力触覚提示なし,力触覚提示ありの2条件で行い,各条件10回行う.被験者は微細操作の初学者6名とし,各実験条件で6名ずつ行った.
2つの実験条件の組み合わせでt検定を行った結果,p 値が0.05 以下で有意に力触覚フィードバックがある場合に正答数が増加した.結果から,提案システムによる力触覚提示は細胞の伸展度合いの判断が容易になることが示唆された.また,ピペットが細胞質を貫通した際に胚の形状が戻らず,視覚情報のみではピペットが貫通したか判断することが困難な場面がある.その際,視覚情報のみだけでなく力触覚提示を追加することで,貫通の判断が容易になるとの意見があり,伸展度合の把握に加えて,ピペットの貫通判断や接触判定も容易にすることが期待できる.
本研究は,発表を聴講した中でヒューマンインタラクションの分野が他分野を繋ぐ可能性を強く感じた.非常に繊細な作業が必要な場面において,システムの利用によって人間の負担を減らすことができるため,作業の精度を向上させる以上に価値のある研究だと感じた.
3. まとめ
ヒューマンインタラクションは本セッションの発表からも他分野の様々なアプローチがあり,これからさらに研究が進展する分野になるだろう.本記事で紹介している8件の発表について詳しく知りたい場合は参考文献をご一読いただきたい.本記事をきっかけに年代を問わず多くの方々がヒューマンインタラクションの分野に参入し発展していくことを期待したい.
参考文献
[1] 似田優太,Mahzoon Hamed,吉川雄一郎,石黒浩:“対話ロボットのモータ音がロボットの生命感に及ぼす影響についての調査”,日本ロボット学会第40回学術講演会予稿集,2D2-01,2022.
[2] 小林怜史,滝澤優,木村航平,末廣尚士,工藤俊亮:“後方の操縦者の位置に基づいた移動ロボットの操縦の実現”,日本ロボット学会第40回学術講演会予稿集,2D2-02,2022.
[3] 今井孝成,岡田純弥,目黒淳一:“平面を移動する小型モーションプラットフォームを活用した立体的な体感に関する研究”,日本ロボット学会第40回学術講演会予稿集,2D2-03,2022.
[4] 川﨑祐征,前泰志:“Web会議画面からの複数人の遠隔心拍数推定”,日本ロボット学会第40回学術講演会予稿集,2D2-04,2022.
[5] 岡留有哉,中村泰:“対話中のユーザ間同調動作のニューラルネットワークを用いた特徴抽出に関する検討”,日本ロボット学会第40回学術講演会予稿集,2D2-05,2022.
[6] 日野匠太朗,平井宏明,淡媛美子,山根駿,松居和寛, 西川敦,Hermano Igo Krebs:“VR環境下における人間機械系の機械動特性の変化に伴う人間の適応的運動制御”,日本ロボット学会第40回学術講演会予稿集,2D2-06,2022.
[7] 山田月都,新山龍馬,武内一晃,加藤寛聡,山崎洋一:“分身ロボットによるマルチモーダルインタラクションのための柔軟ロボットハンド”,日本ロボット学会第40回学術講演会予稿集,2D2-07,2022.
[8] 齋藤澄和,青山忠義,舟洞佑記,竹内大,長谷川泰久:“細胞の変形度を想起させる面状力触覚提示が可能な微細操作インタフェース”,日本ロボット学会第40回学術講演会予稿集,2D2-08,2022.
津村賢宏 (Takahiro Tsumura)
1996 年神奈川県生まれ,大阪府育ち.総合研究大学院大学複合科学研究科情報学専攻.博士課程在学中.国立情報学研究所所属.SOKENDAI 特別研究員.人間と擬人化エージェント間の共感について研究.AI社会哲学者,人工知能学会学生編集委員.