1 はじめに
2024年9月3日から6日にかけて大阪工業大学梅田キャンパスにて開催された第42回日本ロボット学会学術講演会のセッションをレポートする. 本レポートでは,講演会3日目に開催された一般セッション,生活支援ロボット2番目のセッション,計8件の発表を取り上げる.本セッションでは,医療や介護の場面で日常生活を支援するロボットを中心に,ロボットの研究開発,有用性の検証結果につい発表された.
2 発表内容
2.1 外骨格型歩行支援機器装着者のための操作インタフェースの改善[1]
歩行リハビリテーションのための動力付き外骨格型歩行支援機器の安全性と使用性を向上させるための操作インタフェースに焦点を当てた発表である.動作モードの誤選択を防止するため,動作モード選択時に確認動作を加える方法が提案された.通常のインタフェースは送りボタンにより動作モードを選択したのちトーン音と振動で動作モード通知後動作が開始される.試作機は,個別セレクトスイッチにより動作を選択し,その都度現在のモードが音声で通知され,中央のセレクトスイッチを押した後カウントダウンが行われ動作が開始される.また,試作機の非常停止機能は当初ボタン長押しであったが使用者から,押しにくいというフィードバックを受け,左側に独立して設ける形となった.今後は介助者の負担軽減に向けたさらなるインタフェースの改良に取り組むとのことである.
2.2 介護環境中生活支援ロボットにおける安全と効率を両立する運動制御法と Isaac Sim を用いたシミュレーターの開発[2]
Isaac Simを用いた生活支援ロボットシミュレータ構築と,ROS2によるロボット制御を通じたフォトリアリスティックな仮想環境でのAIベースロボット開発・テスト環境構築へ向けた発表である.著者らは特に人材不足が深刻な介護現場に着目し,安全性と効率化のトレードオフについて解明すると述べた.ロボットの移動速度と安全性にトレードオフの関係がある可能性を提唱した.
2.3 拘縮の遠隔触診のための動作誘導に関する基礎検討[3]
関節の動きが制限される拘縮の触診の遠隔実施は,関節駆動を伴うため困難とされているが,その実現のため,遠隔地からの光により腕を動かす方向を誘導する方法が提案された.提案システムは理学療法士の触診動作を計測するモーションキャプチャと,触診動作の誘導を行うマイコンとLEDから構成される.映像のみで触診動作を伝える方法,映像と提案システムを組み合わせて動作を伝える方法が比較され,提案システムが触診動作の方向識別に有効である可能性が示された.
2.4 強化学習による電動車いす向け段差検出用センサの有効性評価[4]
電動車いすの運転者や自動運転システムに段差の踏破可能性を通知するシステムに用いるための,電動車いす前方にLiDARを垂直方向に設置し,段差を検出し踏破性能を判断するための検証が行われた.著者らは電動車いすの物理シミュレーションを行い,段差の高さをランダムに変化させ,UnityのML-Agentsパッケージを用いて強化学習により段差の踏破可能性を学習させ,LiDARを前方左右に設置する手法が有用であることを確かめた.しかし,シミュレータ上のLiDARの特性が,実際のLiDARと異なる点や誤差モデルがまだ不十分である点が課題として挙げられた.今後は凹型の段差やより複雑な形状の段差での検証や深度カメラとの比較を実施するとのことである.
2.5 仰臥位から側臥位への体位変換動作における人体モデルを用いた被介護者の軌跡推定[5]
介護現場への人型ロボット導入による生活支援を目指し,おむつ交換を実現するための体位変換を行うための軌道計画法についての発表である.Azure Kinectにより推定した骨格をもとに人体をモデル化し,特に左肩と左肘の体位変換時の軌道の変換式を求めた.この軌道と実際の介助時の軌道の誤差を計算し,それぞれの誤差の平均が32.0±6.2 [mm],39.5±12.8 [mm]であることを確かめた.この値はロボットハンドの半径約50 [mm]より小さいため,ハンドの中心を計算軌道に添わせることで,ハンド上に関節が移動でき,体位変換の実現が期待できるとのことである.今後はロボットハンドを動作させ,提案手法の有効性検証に取り組むとのことである.
2.6 視覚障害者向け移動支援ロボットのための音声ガイダンス情報地図の設計[6]
発表者らが所属する清水建設では,一般社団法人次世代移動支援技術開発コンソーシアムが開発を進める「AIスーツケース」をもとに,シミズ版AIスーツケースを独自開発している.コンソーシアム版のAIスーツケースへ2D LiDARや力覚センサ等を搭載し検証を進めており,本発表では展示物の音声ガイダンスをロボット用地図上で管理するためのソフトウェアの開発について報告された.ロボットにかかわる人物を開発者,運用者,使用者に分類し,特にロボット開発についての詳しい知識を有さない,ロボット運用者へ向けたインタフェースを開発している.目的地や移動中の案内情報 (Point of Interest: POI) をROSの可視化ツールRvizのプラグインとして導入し,GUIによる地図の編集機能を提供した.地図を作成することも運用者の役割に含まれる場合があり,GUIによる地図作成機能を導入することが今後の課題とのことである.
2.7 視覚障害者向け移動支援ロボットを用いた展示空間における実証実験[7]
6番目のセッションと同様,シミズ版AIスーツケースについての発表であり,展示空間でのニーズ調査やロボット操作性についてのヒアリングの結果が発表された.POIの半径1.5 [m] に近づくと音声ガイダンスが再生される仕組みを提案し,視覚に障がいのある人へ向けた検証が実施された.スーツケースの持ち手に取り付けられたボタンを押し込んでいる間ロボットは自律的に移動し,POIを順にめぐり利用者を展示場所へ案内しその展示物の説明を行う.アンケート結果より,展示空間とナビゲーションロボットの親和性が高いことが提示された.今後は,利用者から得られたフィードバックをもとに,速度変更のインタフェースをさらに改善するとのことである.
2.8 安心感を与える動物ロボットー共感を用いた安心感の生成方法ー[8]
癒しをもたらすペットとしてふるまう,遊ぶ・鳴くという行動ではなく,そばに近づく・無防備な姿を見せる,触感に着目した鳥ロボットによる安静状態の再現がもたらす効果について発表された.著者らは動物の安心している姿を人間が認知することで,その人も安心感を得ることができるという仮説を立てた.鳥が枝をつかむ機構を取り入れることで,皮膚を掴まれる感覚を再現した.また,ロボットはフェルトや羊毛で覆われている.体温を表現するため,腹部と足に当たる部分を温めた状態でロボットを体験者に渡し,安心感が得られるかの実験が行われた.ロボットの動きから,飼育していた鳥に関する記憶や感情が想起され,ロボットが自分になついていると感じた被験者もいたと報告された.安静な状態を再現したロボットに触れることで安心感やリラックスの感情を得られる可能性が示され,セラピーロボットにおいて対話や見た目ではなく,触感の重要性の高さにも注目すべきであると述べられた.
3 おわりに
一般セッション:生活支援ロボット2番目のセッションをレポートした.2,4件目はシミュレータを利用してロボットの安全性を高めるための研究についての発表,1,7件目はロボットを使用する人の使い勝手に関する発表であり,ロボットを安全に利用するための工夫について報告された.特に自律移動ロボットについて,センサ等を駆使して安全なロボットシステムを作ることはもちろん,そのシステムを使用する利用者の立場での検証も重要である.また,6件目の発表ではロボットの運用者へ向けたシステムが提案された.商業施設においては利用者が不特定多数であり,運用者もロボットのシステムについて熟知していない可能性もあり,「使いやすさ」の追求は重要であると感じた.3件目の遠隔医療を支援するためのデバイスは医療現場のみならず,遠隔地へのオペレータへ指示を与える必要がある点検作業等の場面でも活用できる可能性があると感じた.5件目の発表は体位変換を行うための試みであり,今後のロボット実装と検証が期待される.8件目のロボットは安心感を与えることを目的としており,温度や感触が人間へ与える影響の考察が興味深く,人に触れる可能性があるロボット開発において,安心感を与えることができるハードウェアを設計することも重要であると考えた.
参考文献
[1] 池田 博康,小山 秀紀: “外骨格型歩行支援機器装着者のための操作インタフェースの改善”, 第42回日本ロボット学会学術講演会予稿集, 3B4-01, 2024.
[2] 楊 光,王 碩玉,楊 俊友,石 碰: “介護環境中生活支援ロボットにおける安全と効率を両立する 運動制御法とIsaac Simを用いたシミュレーターの開発”, 第42回日本ロボット学会学術講演会予稿集, 3B4-02, 2024.
[3] 鈴木 大勢,齊藤 貴文,田中 由浩: “拘縮の遠隔触診のための動作誘導に関する基礎検討”, 第42回日本ロボット学会学術講演会予稿集, 3B4-03, 2024.
[4] 岸野 航,蜂屋 孝太郎: “強化学習による電動車いす向け段差検出用センサの有効性評価”, 第42回日本ロボット学会学術講演会予稿集, 3B4-04, 2024.
[5] 松村 実紗,崔 佑赫,箕浦 有希也,陳 家禾,原 一晃,中川 桂一,正宗 賢,桑名 健太,小林 英津子: “仰臥位から側臥位への体位変換動作における人体モデルを用いた被介護者の軌跡推定”, 第42回日本ロボット学会学術講演会予稿集, 3B4-05, 2024.
[6] 木村 駿介,中西 伶奈,内藤 拡也,樽谷 葵: “視覚障害者向け移動支援ロボットのための音声ガイダンス情報地図の設計”, 第42回日本ロボット学会学術講演会予稿集, 3B4-06, 2024.
[7] 中西 伶奈,内藤 拡也,木村 駿介,樽谷 葵: “視覚障害者向け移動支援ロボットを用いた展示空間における実証実験”, 第42回日本ロボット学会学術講演会予稿集, 3B4-07, 2024.
[8] 松本 紗佳,萩田 紀博,安藤 英由樹: “安心感を与える動物ロボットー共感を用いた安心感の生成方法ー”, 第42回日本ロボット学会学術講演会予稿集, 3B4-08, 2024.
水谷 彰伸(Akinobu Mizutani)
2023年九州工業大学大学院生命体工学研究科博士前期課程修了.修士(工学).現在,同研究科博士後期課程在学中.ホームサービスロボットの記憶を取り扱う,脳の機能を模倣した人工知能の研究に従事.電子情報通信学会学生員,IEEE学生会員,RoboCup @Home Technical Committee Member.