■ 無意識と意識の知性
外村
先日、国際ロボット展のホンダ(本田技研工業)展示ブースで実演されていた遠隔操作のロボットシステムが面白いと思いました。ロボットが物を掴むデモで、操作者がある物の近くまでロボットと手を移動すると、そこからはロボットが自律して物を掴みます。つまり、操作者は手を伸ばして物の近くに動かすことでシステムに「つかみたい」という意思を伝えると、そこから先は無意識の動き「自律」に切り替わって柔らかいものや割れやすい物も自動で判断して掴んでくれるのです。意識と無意識を組み合わせています。
平田
それについては、「ホンダの開発者は間違えたな」と私は感じています。なぜかというと、私たちの動作には意識して動かす部分と無意識の部分があって、複合してひとつの動作を行っていることは間違いないのですが、物を取る時どこに「意識」を使うかが重要です。私は指先です。例えば、コップをとる時、重心がずれないように指先に意識を集中させて取ります。
物を取るために目的の場所に手をリーチさせるという非常に難しいはずの作業も行っていますが、これはほぼ「無意識」で、指先を動かすところに「意識」を集中していることが自然なのです。そのため、遠隔操作ロボットの手をコップにリーチするところを意識的にして、指を動かす部分を「自律」(無意識)にしてしまうと、人間の行動に合わなくなります。
脳の制御では、機械と人間が融合して作業を行う場合、機械が人間より先に動作することに人は違和感を持ちます。人間の意思に機械が従って欲しいと感じるので、自分のやりたいと意識したことに対してシステムがその通り動いて欲しいと感じます。だからロボットの遠隔操作と自律動作を考えた時に、その行動の中で操作する人が意識する部分と自律を合わせることが重要です。だからこそロボットの指先を自律で動かすことは間違っていると感じるのです。
南澤
意識と無意識の切り替えのスイッチを気づかないようにしていくことが次のステップではないでしょうか。私の身近で行われた面白い研究結果に「自分の意図にそった動きが行われていれば、たとえ自分でやっていなくても"自分がやった"と本人は認識する」という結果があります。以前は、大阪大学の前田先生が「つもり制御」と呼んでいたものです。最近は、筋肉を直接作動させるようなEMS(Electrical Muscle Stimulation)やAIなどを加えて新しい研究領域になりはじめています。
■ アバターロボットの意識と無意識の科学
平田
もうひとつ面白い話があります。ロボットを使った遠隔手術というのは実は以前から試されてきました。最初に行われたのは、米ニューヨークから仏ストラスブールの遠隔手術です。専用線で繋いだものの伝送遅れがありました。確認できたのは、400msくらいまでなら視覚情報は遅れが気にならないということでしたが、触覚を入れると10ms以上の遅れで違和感があって使いづらいと感じるのです。見ている情報と触っている感覚がずれてしまうと人間はその時に動けなくなってしまうのです。私たちは触覚情報を与えられていますが、返ってくるもので補正しています。もしも、これがズレると「あっ間違った」と感じてモデルを変えるプロセスを脳の中で行おうとしますが、意識が違う脳のシステムを動かそうとするため「体を動かしている場合ではない」と感じて身体がフリーズしてしまうのです。
一般の人々は、脳が外の世界をあたかも「映像」で見ていると思っていますがそれは間違いです。網膜のところまでは光ですが、そこからは電気信号に切り替わり、神経の中を通っているのは、活動電位の波です。音もそうです、鼓膜は空気の振動を拾っていますが、その先は同じく電位の波です。触覚のセンサーも、センシングするものが温度であったり、刺激だったりで異なるものの、神経の中ではデジタルの波です。脳は頭蓋骨に囲まれていて外を見ることができないので、それら電位の波からどういう状況かを推定しなくてはいけないという役割を持っています。そこで、音と触覚と視覚の情報がズレるというのは違和感であり、大きなリスクになります。
体内では、視覚情報にあたる神経系の処理速度は非常に遅いのです。指先の物を感じてから理解(解釈)ができるのに概ね300msくらいかかると考えられています。しかし、例えばピアニストはもっと速い速度で指を動かしていて、本人は確実に感じているつもりで演奏しているわけですから、どうやっているの?ということになります。この例を見ると、視覚の情報に合わせた情報をどんどん出していって、それが実際に起こった動きと一致していることを、遅れてやってくる情報で確認して、誤差を補正するというプロセスが行われていることは間違いないのです。
南澤
平田先生が視覚神経系の処理速度は300msかかるとおっしゃっていましたが、私たちはそれをバイパスするような取り組みを行なっています。被験者が目で物を認識して掴む実験に、コンピュータビジョンとEMSを加えて、人間がそれをみつけて掴もうとするよりも早く、ビジョンが人より先に認識して電気信号とEMSで筋肉を刺激すると本来の人の動きより先に掴めてしまいます。つまり、人間単体なら絶対つかめない様なスピードで物を掴めるようになります。
その時、被験者本人に「どうでしたか?」と聞くと、ほとんどの人が「私が掴めました」と答えます。システムを切ると掴めず、入れると掴めるので、人間の筋肉そのものを直接バイパスして刺激しているから掴めているのは明らかなのですが、本人は「私は掴めた」という「結果に対する事後的な意識による解釈」が成立しています。アバターロボットの自律性も、操作者には気づかせないような状態で、それが回っている状態、というレベルまで来つつあるのではと思っています。
平田
生体はもちろん意識と無意識をすごく上手く使っています。重たい物を持とうと思ったらエネルギー消費がいるので、事前に血流が上がります。血流の量もジャストでないといけない。自律神経系の制御が目的に合わせて先に動く。私達はこれを考えずに「無意識」にやっています。
そして、私たちが考えていることは「指先のこの動きで何を起こしたいか」ということであり、次に起こるイベントの変化が期待に合っているのか、ということです。そこに意識を使っているので、これが見なくてもできる時は「意識すらせずにできる」ということです。怒られながら携帯で文字をうっている子どもの意識は指先にあります(一同笑)。
だからこそ、遠隔ロボットの操作と自律を考える時に、行動のどこに意識を使うかが重要であり、指先を自律で動かすことは間違っていると先ほど言ったのです。そしておそらく下田先生が研究している「暗黙知」的な意識の研究の非常に重要なところ、無意識の運動だけではなくて、与える感覚だとか、自律神経の制御だとかを合わせたセットになっていて、タイミングをずらさないように巧みにやっているのが、身体制御だと思っています。
板生
話が異なるフェーズへ一気に進行している気がしますが、南澤先生、アバターロボットをおいては、現状では意識と無意識はどのような段階にありますか? また、どのような成功例や問題点があるのか、教えていただけますか?
南澤
遠隔手術が代表例ですが、遠隔で精密な作業を行うというテーマは、アバター分野全般で取り組みが進んでいます。そしてひとつのトレンドがAIとの半融合です。われわれ人間が自分の体をコントロールする時はほとんど無意識にやっています。何も考えなくても物を掴めますし、歩くときも何も考えなくても前にちゃんと進んでいけます。しかし、現在のテレイグジスタンスや遠隔操作システムだと、多くが意識してやらなければならず、システム側から見ても感覚情報を一回処理した上で行動に反映する必要があり、無意識のループが機能しづらいという現状があります。そろそろこの状況を打開しなくてはいけないと感じます。人間がアバターロボットに接続して何か作業するときに、我々が本来持っている無意識の身体制御のループに相当するものは、アバター自身が基本機能として持っていないと、操作者の負荷や、操作しているんだという意識がものすごく高くなってしまい、本来の目的に集中できなくなってなくなってしまいます。「操作すること」に集中してしまえば、アバターはもうひとつの身体ではなく、操作する存在になってしまいます。
われわれのムーンショットのコンセプトは、ロボットアバターをナチュラルな自分の体として使い、その先の本来の目的であるコミュニケーションやインタラクションなどの作業が、何も考えずにできる「もう一つの身体をつくる」ということを実現することです。そのためには、アバターがある程度の無意識のループを持ち、新しい身体と自分との間にデジタルの神経網ができる、と考えています。
自分の意識の大半を向けずにアバターを動かせるようになれば、30%~40%を自分の身体に意識して、10%や20%の意識を、2つのアバターで本来やりたい作業を同時に行う(自分も含めて3ヶ所で同時に行動する)ことも実現できます。それには2つの触覚が必要だと思っています。無意識の身体制御を成立させる触覚と、操作者の次の行動を変化させる判断のための触覚です。これらは情報伝送とか感覚伝送とは違うレイヤーでの議論が必要なのではないかと考えています。
■ 触覚・疼痛、遠隔操作に必要な次世代AIとは
下田
これからは一味も二味も違うAIが必要になるだろうと言いましたが、では「どんなAIが必要になってくるのか?」ということについて議論したいと思います。
遠隔操作を考えたときに「環境との詳細なインタラクションはシステムに任せる」という手法は正しいと思います。例えば「あのコップを取る」など、大きな目的は遠隔ロボットシステムに与え、その際「どのくらいの力でどこをどうやってコップを握るのか」という詳細情報を送り合うというのは無駄だと考えます。環境のフィードバック・ループの中で「環境に合わせる」ことは、自律でやるべきでしょう。
それを私たちは「タシット(暗黙知)ラーニング」と呼んでいます。暗黙知は「無」から学ぶ必要はなく、我々がすでに学習している動きを環境に合わせて微調整することで習得できると考えます。例えば、右から押されれば、左に動いていくといった物理的なルールは存在していますが、どのくらいの力がかかるとどれだけ動くのかが解らない。これは環境の未知として考えられる。そういう部分にイネイトなものを調整するという形で合わせると非常に素早く環境に合っていく「AI」が求められていると思います。
南澤
このテーマは私たちが作るロボットのポリシーに関わってくると思います。目的を達成することを目指すのであれば、先ほどの例にあがったホンダのアバターロボットのアプローチは間違ってはいないと思います。人間の意識や操作の負荷を小さく、目的は達成する。例えば、遠隔操作が初心者の人であっても正しく物が掴めるロボットとしては正しい。しかし、その操作者はおそらく成長しない。平田先生がご指摘されたのは、テレオペレーションを含めて人間の経験値として成長につながるか、という観点だと思います。結果だけ返すということをすると、目的は達成できるが、人間の認知行動システムの成長が促されない、そしてこれはロボットの「ポリシー」に関わってくる大切な部分だなと思いました。
では、我々が目指そうとしているロボットは、目的の達成を優先するのか、それを操作する人たちの成長そのものも考慮して作っていくのか、ということですが、そもそもこの二つが二項対立なのかというのは疑問ですが、それをうまくやる必要があります。
板生
触覚に関してのAIをどう考えているのでしょうか?
藤原
昨日、ちょうど下田先生と「触覚とAI」について議論しました。伝送システムで触覚を導入する上で最初の課題となるのが時間差で、視覚、聴覚、触覚を完全に同期化して本人に伝えることです。また、触覚だけを先行して伝送して、先ほどの「私がやった感」を演出するエフェクター機能を持ったAIの開発も可能と考えています。
また、先ほど下田先生から説明があった、基本的にこういう力が加わればこう動くだろうというという予測は、どちらかというと物理法則に近いものなので、本人に対してモデルを持たせてあげれば良いと考えています。そのモデルを持たせるための力覚感、視覚感、聴覚感を与えておき、人間の中にある一種のイリュージョンをずっと見せ続けることが大切になるのではと考えます。ただし、実際の環境に合わせるとどれくらいなのかというのは個々に異なるので、下田先生の言う「タシットラーニング」、未知の環境に対応できるAIというのを組み合わせないと成立しないと考えています。
■ 身体拡張と無意識の知性とAI
神崎
「今、議論しているこれからのAI」と、現在のAIとの違い、ポイントはどこにあるのでしょうか?
下田
私の見解では「正解が明示できるのかどうか」ということが大きな違いだと思います。例えばロボットがコップを握る時に、どう握ろうがいい、うまく握れたかどうか、が正解で良いのであれば、今のAIのままで達成できます。しかし、その時に「こう握りたい」「力はこうではなくこうだ」という領域になると、今のAIのように正解/不正解だけでやることは間違いだと思います。
どう握ったってよいのだから「こう握った方が効率がいい」とか、正解というだけでなく反射系の組み合わせでたまたまこうなったというところで収束を見せる、そういうAIが必要になってくるのではと思います。
南澤
我々が欲しい技術は、そもそも「インテリジェンス」なのではなくて「オートノミー」な気がします。「アーティフィシャル・インテリジェンス(AI)」が作りたいのか「アーティフィシャル・オートノミー」「オルタネート・オートノミー」(Alternate Autonomy)みたいなものではないでしょうか。
神崎
それは失敗を繰り返しながら学習する、人間が学習していくプロセスとは異なるものなのでしょうか。
下田
私たちは適応性を持たなければ生きていけません。失敗してから修正していくのでは間に合わないケースもあります。そういう意味で生まれ持っている「既学習のフィードバック・ループを修正」しながら合わせていく技術が求められます。
平田
南澤先生の言ったことは非常に正しいと思います。例えば、自動で動く工場のシステムを動かすのであれば、今のAIでいいと思うのですが、私たち人間の能力を拡張する、リモート・ネイティブを作るという話になって、世界が広がったとしたら、私たちが全部制御を意識でやるのは大変なことです。これはオートノミーでやって欲しい。
実は私たちは既にそれを体験しています。車の運転がそうです。おそらく大昔の車を運転するにはいろいろなところに気配りが必要で、今より大変だったと思います。しかし今は、マイコンが搭載され、勝手にいろいろなことを自動で制御してくれています。ドライバーはそれを意識していません。ただし、走っている時にどういう路面を走っているとか、前後を走っているクルマとどういう位置関係にあるのか、風切音が何を意味しているのかなどを知り、常に気を配ることは今も変わりません。こういうこともAIが理解して制御して欲しいと思います。
医療の言葉で言うと「ホメオスタシス」(正常な状態を維持する能力)ではなく「アロスタシス」(外部環境に対する身体内部の反応)と呼びます。環境がどんどん変化する中でも、生体の恒常性を常に維持しているシステムです。極寒の地に行ったり、風の強い日に歩いたり、アロスタシスがオートノマスなシステムとして働いていないと、我々は生きていけません。
これを身体拡張で考えれば、脳の能力の拡張として考えるべきだと思います。
南澤
「人の身体の延長」としてのアバターだったり、テレオペレーションを考えると、人の制御系とスムーズにリンクしたり、入り込めることが重要です。もともと身体の中で回っているループが伸びていく感覚でオートノミーが働くといいのではと思っています。もしもそこに勝手に別の人格が入ってきたり、別の判断をしてしまうとここでバッティングが起こる。ホンダのデモはそう言う意味で、その境目にいると思っていて、このあと彼らがどの方向に開発していくかに注目したいです。
身体の延長としての機能として見ると「AI」という言葉じゃない別の何かになるかもしれないなとも思います。
---つづく
日本ロボット学会誌40巻8号特集「触覚と疼痛、意識と無意識、知覚と認知-遠隔触診の実現を通して探る新たな知性-」も併せてご覧ください.
参加メンバー
モデレーター:
- 板生清先生 (東京大学名誉教授 特定非営利活動法人「ウェアラブル環境情報ネット推進機構」理事長)
パネリスト:
- 下田 真吾先生 (国立研究開発法人理化学研究所 トヨタ連携センター 知能行動制御連携ユニット ユニットリーダー)
- 平田 仁先生 (名古屋大学予防早期医療創成センター 教授、名古屋大学大学院医学系研究科 機能構築医学専攻 人間拡張・手の外科学講座 教授、医学博士)
- 南澤 孝太先生 (慶應義塾大学 大学院メディアデザイン研究科 教授・博士(情報理工学))
- 藤原 武史氏 (豊田合成株式会社 ライフソリューション事業本部 主監(e-Rubber・ヘルスケア))
- 外村 雅治氏 (NEDO 「人工知能活用による革新的リモート技術開発」 プロジェクトマネージャー)
- 駒澤 真人氏 (WINフロンティア株式会社 取締役)
- 神崎 洋治氏 (ロボットスタート株式会社 ロボスタ編集部)
執筆・編集:神崎洋治
1985年法政大学卒。OA機器メーカー、パソコン周辺機器メーカーを経て、1996年に起業、渡米してシリコンバレーでパソコンとインターネット業界の最新情報を取材し、日本のメディアや新聞等に寄稿。著書多数。ロボカップ公式ページのライターやWRSの審査員をつとめる。ロボスタの責任者。
ロボスタ: https://robotstart.info/