■ はじめに
下田
お忙しい中お集まりいただき大変ありがとうございます。
本日は、「触覚」・「疼痛」(とうつう)についての、議論を深めるためにお集まりいただきました。しかし、単に感覚としての、触覚・疼痛の話をしたいわけではありません。近年、NEDO(国立研究開発法人 新エネルギー・産業技術統合開発機構)やAMED(国立研究開発法人日本医療研究開発機構)、ムーンショットのプロジェクトで、触覚や疼痛を扱うものが数多く採択されています。それらのプロジェクトでは、触覚や疼痛を処理するために、無意識下の制御系が重要な役割を果たしていますが、その部分をいまだ我々が十分に理解できていないことが、問題となっているように感じられます。そこで、今回の座談会では、触覚や疼痛をテーマとしているプロジェクトの代表の方を中心に集まっていただき、理解を深めるとともに、プロジェクト間の連携、さらには今後ロボティクスや情報工学において触覚や疼痛をどのように扱っていくべきか、について議論できればと思います。議論をリードしていただくため、人間情報学の分野を長年リードしてこられた板生先生をモデレーターにお迎えし、座談会を進めていきたいと思います。よろしくお願いいたします。
下田 真吾氏 (理化学研究所)
板生
最近ちょうど「人間情報学」という書籍を執筆しまして、個人的には人間情報にはとても興味があります。その反面、人間そのものにはまだ解っていないことが多いために、従来の科学技術研究では「人間はこうであろう」と想定して、なんとなく技術を曖昧にあてはめてごまかしてきました。医療ではそうはいきません。今回の座談会では、今まで曖昧にしてきた部分にメスを入れて、無意識のうちに行っている触覚・疼痛を科学していきたいと思います。平田先生、そもそも疼痛とは「感覚」なのでしょうか。
モデレーター:板生清氏 (東京大学名誉教授)
■ 疼痛は感覚ではなく、脳の情報処理の結果
平田
疼痛は感覚ではなく、脳の情報処理の結果と受け止めています。
私はAMEDでは、無意識の脳を考えるのに重要な「複合性局所疼痛症候群」の研究をしています。これは疼痛科学(痛みの科学)が発達するきっかけになった疾患です。
南北戦争で大量の破壊兵器が接近戦で使われた結果「神経損傷」の戦傷兵が多く発生しました。そこでは麻痺が軽いのに非常に強い痛みを感じ、局所的に自律神経の制御が乱れるという事象が多く見られました。例えば”右手が汗だくなのに左手は乾いている”などです。現在の日本でも打撲や捻挫で同様の状況が起こっています。
痛みは生存していくための非常に重要なシステムで、脳は末梢神経から疼痛の入力があった場合、その原因を学習して次からは危険を回避する役割があります。一方で、人間は痛みを抑制するしくみがあります。戦場では銃で撃たれた兵士がすぐには痛がらず、早く安全な場所に逃げることを優先します。きっと痛みのアラームよりも逃げることを脳が優先するためですよね。歯科医では歯科ドリルの音を聞くだけで痛いと感じた経験がある人もいるでしょう。必要に応じて痛みを抑制したり、増幅したりするシステムがあると考えられます。
これらを勘案すれば、疼痛を感覚だと思ってはいけません。疼痛は私達の体験から脳が情報処理した結果です。
平田 仁氏 (名古屋大学)
板生
触覚や疼痛が脳の情報処理の結果だとして、「触覚は完全にデジタル化できるのか」という疑問があります。人間が持っている感覚を完全にデジタル化できるとは思えないので、どう折り合いを付けるのでしょうか。
南澤
疼痛だけでなく、多くの「触覚」が脳の情報処理の結果であると私も考えます。感覚は脳内モデルで生成されたバーチャルなもので、学習してきた外界に対する認知行動のモデルに対して働きかけをすれば、実は単純な刺激でもリアルな存在感や物体感を得られることがわかっています。
南澤 孝太氏 (慶應大学)
南澤
触覚を伝えるときにすべての物理情報を伝えるのは複雑すぎます。私達が指や手などが環境と接して得られる触覚データそのものではなく、そこで得られた必要な情報のみ伝えれば、少ない情報量で遠隔に触覚を伝達することが効率的にできるのではないかと考えています。
「触覚」が他の感覚と大きく異なるのは「触れることによって対象も大きく変化する」という点です。常に双方向性を持った感覚であり、触ったり握ったりすることで相手も変化します。その変化も含めてひとつの感覚を生み出しています。指の力だけではなく、振動や温度、痛みなど、複数の触覚があって、すべて双方向性までの再現をしようとすると、やはり膨大な情報量になってしまいます。
私の基本的なアプローチは、極力リアルタイム伝送に近い状態を作ることです。遠隔で動作していることをこちら側で即時再現することによって、その対象の変化そのものも表現する、あるいはコンピュータの中で生み出す、その状況の少なくとも「触覚」というものが伝わります。シミュレーション技術でモデル化して再現することも重要です。
■ 触覚伝送デバイスの登場、身体性メディアとしての触覚とは
南澤
私は、バーチャルリアリティやテレイグジスタンスの研究がきっかけで、遠隔からテレイグジスタンスロボットの感覚を届ける触覚伝送の研究もしています。最近は、人間の身体で得られる様々な経験をデジタルネットワークに繋いで、遠くの人に送ったり、コンピュータの中で体験したり、私達が普段、生身で感じる感覚を拡張する「身体性メディア」(Embodied Media)と呼んでいます。
また、豊田合成の触覚伝送デバイスの開発にも携わっています。
藤原
豊田合成は2018年に触覚伝送デバイスとして次世代ゴム素材「e-Rubber」(イー・ラバー)を開発しました。水を入れた風船を使って触覚伝送のデモ(指先に触覚伝送のゴム器材を付けて、一方の人が水を入れた風船を持つ。その風船を指で揺らすと風船の中の水の動きをもう一方の人が指先に感じる)を様々な国で披露し、国際的な学会でも実施しました。その結果、どの国でデモをしても体験した人は触覚が伝送されていることを実感し、その技術の面白さに笑みがこぼれます。これは「触覚が実際にリアルに伝送できて、人の情動に大きく左右する」という証拠だと思います。
藤原 武史氏 (豊田合成)
板生
この座談会の前に、私も藤原さんに風船を使った触覚伝送のデモを体験させてもらいました。なるほど、とても面白いと感じました。リモート、遠隔操作というテーマは非常に重要で、遠隔診療でも脈拍が伝わるなどは期待されている技術です。問題は触覚伝送がどんなところで使われ、どのレベルまで要求されるのかということですよね。
電話が普及して遠くにいても声が伝わるようになりました。声は非常に大きな情報量を持っていると思います。それに比べると「触覚」は重要な技術ではあるものの、現状では社会を変革するものにはなっていない。ロボットとAIのジャーナリストとして活動している神崎さんはどう見ていますか。
神崎
声の情報伝達と言えば「発話」や「会話」ということになりますが、2014年にPepperがセンセーショナルに登場し、その後の数年間はコミュニケーションロボットが次々と登場しました。しかし、今ではその熱狂的なブームは去っています。
日本はコミュニケーションロボットで失敗しました。会話の技術が十分でないにも関わらず、ロボットという身体性を与え、未成熟な発話機能を持たせてしまいました。そのため、ユーザーはロボットの容姿に過度の期待を抱き、その結果がっかりさせてしまった。質問の答えが満足に得られない、雑談もできないとして、今では失敗の烙印を押されています。
欧米の動きを見れば、日本が順序を間違えてしまったことは明白です。米国のアプローチは「Alexa」や「Googleアシスタント」「Siri」等、音声エージェントのコミュニケーション能力の育成を行い、AIによって会話能力を向上することを優先しています。
AIの社会実装の現場では、機械の異音をAIが検出して故障を予測したり、検品作業で小さな傷をAIカメラがみつけています。店頭では体温をはかってマスク着用の有無をチェックしています。聴覚や視覚などセンサーとAIを組み合わせた作業の自動化は着実に進んでいます。ロボットでいうと、視覚とセンサーを使ったAI配膳ロボット、自動搬送ロボット、遠隔操作ロボットなどが市場では注目されています。
そして、次の挑戦に「触覚」が加わると思っています。今年の国際ロボット展でもアバターロボットは数多く見られました。分身として遠隔で働くロボットの状況を操作する人間がリアルに感じとりたいのは視覚と聴覚、そして「触覚」です。最近ではコロナ禍で中止になっていたアイドルとの握手会をロボットハンドで代替できないかというイベントが出てきました。直接握手はできないけれど、アイドルとファンがハプティクスのロボットハンドを通してお互いの存在を感じ合うのです。「触覚」は伸びしろのあるまだ途上の技術であり、社会実装にはいろいろなアイデアが溢れている。とても期待しています。
板生
日本には、ロボットに対して「鉄腕アトム」など、とてもなじみ深い文化がありますね。それもあって、日本のロボットは機械技術を中心にメカトロ的な話が多く、筋肉労働を代替することに軸足を置いてきたがために、知的な技術の開発は欧米に後れをとっている部分もあると感じています。これは今日のテーマのひとつでもあります。
外村
私はNEDO ロボットAI部で「人工知能活用による革新的リモート技術開発」プロジェクトを担当しています。ここでは「リモート」が大きなキーワードとなっています。コロナ禍や働き方改革によって様々な業務がリモート化されましたが、一方で問題点として「リモートではニュアンスが伝わらない」という意見を聞きます。
10年後、20年後は労働生産人口が減少し、その対策として少ない人手でも生産性を飛躍的に向上させる技術革新が期待されています。解決策は「現場での自律性を上げる」ことと、専門家や熟練者が、遠隔からひとつひとつの現場をリモートで見て、改善や新しい発見のためのアドバイスすることです。
遠隔医療やリモートでの触診を例にすると、患者と医師の間で何を伝えなければならないのか? 何を伝えれば遠隔医療でも患者と医師の信頼関係がリアルな医療現場以上に築けていくのか。そのためのリモートやAIの組合せによって登場する次世代デバイスの開発にも期待しています。
外村 雅治氏 (NEDO)
■ 遠隔触覚は触覚伝送により脳内処理を助けるもの
下田
私は触覚伝送デバイスを医療に活かす研究「遠隔触診のプロジェクト」に取り組んでいます。当初私は、「触診」とは触って熱い、冷たい、硬いなど、感覚で知るものと理解していました。しかし、平田先生から「いや、それは違う」とご指摘を頂きました。「触覚は、感覚そのものにはあまり意味はなく”動きと感覚が一致して初めて意味のあるもの”になる」ということです。ということは環境を含んだフィードバック制御の中で使うことが重要だと。
平田
触診は子細にいたる情報を集めようとしているわけではありません。例えば、皮膚の下に腫瘍ができているとして、医師は触った時に、硬さとか、表面の手触りなどを確認しますが、なによりも重要なのは医師が「過去に同様の経験をしているか」ということです。南澤先生の指摘どおり、感覚というのは「内部モデルの構成が必要なもの」です。私たちは医療の経験を通じて「こういう感じのものは、中を開けたらこういう状態だろう」というのを理解しています。ですので、触ったときの感触そのものより、触って動かすことで感触から頭の中に映像のように入ってきて診断に繋げているのです。これが触診というものです。触診というのはあくまで、私たちの中に蓄積された疾患のモデルと、私たちの指先に伝わる情報をつなぎあわせるという作業です。
南澤先生の「すべての感覚は推定して作りだされていて、それを私たちは受け取りながら過ごす」というのは同感です。触覚のいいところは、リアルの接点になるため、そこが確認できることです。例を申し上げます。私はフランスのストラスブールで手術支援ロボットを初めて操作した時に実感しました。
手術は「10ミクロンくらいの糸で1mmくらいの血管を縫う」もので、余分な力を加えるとすぐに糸が切れてしまうのですが、私はハプティックセンシングが搭載されていない手術支援ロボットなのに、非常に簡単に縫合することができました。ロボットから送られて来る映像を見るだけで、糸が緊張する感覚も、針を持っている感覚も手に取るように感じたのです。視覚の映像が過去の経験や記憶を引き出してくれるのです。感覚は実際の情報ではなく、脳が作りだしたものとすると納得がいきます。
一方でそれは同時に課題でもあります。医師の過去の記憶で感覚が補われることを前提に機器が開発されてしまうと、医師の手による手術を徹底的にやっていない人(感覚を十分に経験していない人)は、手術支援ロボットを使いこなすことができないからです。将来的には手術支援ロボットにハプティックセンシング技術機構を搭載しなければならないと感じたのです。こういう部分は、工学や医学の分野ともに勘違いをしている開発者や先生はたくさんいるのではないでしょうか。
南澤
その話で腑に落ちました。私も以前、手術支援ロボット「ダヴィンチ」の操作を試したときがあって、「どうしてこのシステムに触覚機構を入れないのですか?」と開発企業に聞いたら、医師たちに要らないと言われたと返事が返ってきました。まさに先ほどのお話の通り、視覚からの映像があるので困っていないということだったのです。
今、メタバースやリモート社会が普及していく中で、もしもそちら側がネイティブになっていく医師が増えていった場合、リアルな手術の経験がない環境からはロボット支援手術のプロフェッショナルが生まれなくなるということですね。リモート社会の将来を考えれば、やはり触覚は手術支援ロボットにも必要だったのだなと考えを新たにしました。
板生
ありがとうございます、本質的な話をお伺いできたと思います。まさにおっしゃる通り、感覚というのはデジタルで記述できるものではないし、アナログ的なわけでもありません。触覚を技術としてどのようにまとめ、実際問題として再現できるのかということになります。人間というのは巧妙にできているので、解明するというのは難しい問題だなと思います。
下田
まさに今、平田先生のお話の通り、動きとのループを作っていくことが重要です。そしてそのループを作るのに「AI」がもっと進化する必要があります。ここでいう「AI」というのは現時点でのAIとは一味も二味も違うものなければではいけないのではと考えています。
---つづく
日本ロボット学会誌40巻8号特集「触覚と疼痛、意識と無意識、知覚と認知-遠隔触診の実現を通して探る新たな知性-」も併せてご覧ください.
参加メンバー
モデレーター:
- 板生清先生 (東京大学名誉教授 特定非営利活動法人「ウェアラブル環境情報ネット推進機構」理事長)
パネリスト:
- 下田 真吾先生 (国立研究開発法人理化学研究所 トヨタ連携センター 知能行動制御連携ユニット ユニットリーダー)
- 平田 仁先生 (名古屋大学予防早期医療創成センター 教授、名古屋大学大学院医学系研究科 機能構築医学専攻 人間拡張・手の外科学講座 教授、医学博士)
- 南澤 孝太先生 (慶應義塾大学 大学院メディアデザイン研究科 教授・博士(情報理工学))
- 藤原 武史氏 (豊田合成株式会社 ライフソリューション事業本部 主監(e-Rubber・ヘルスケア))
- 外村 雅治氏 (NEDO 「人工知能活用による革新的リモート技術開発」 プロジェクトマネージャー)
- 駒澤 真人氏 (WINフロンティア株式会社 取締役)
- 神崎 洋治氏 (ロボットスタート株式会社 ロボスタ編集部)
執筆・編集:神崎洋治
1985年法政大学卒。OA機器メーカー、パソコン周辺機器メーカーを経て、1996年に起業、渡米してシリコンバレーでパソコンとインターネット業界の最新情報を取材し、日本のメディアや新聞等に寄稿。著書多数。ロボカップ公式ページのライターやWRSの審査員をつとめる。ロボスタの責任者。
ロボスタ: https://robotstart.info/