SEARCH
MENU

日本のロボット研究の歩みHistory of Robotics Research and Development of Japan1987Integration, Intelligence, etc.〈インテグレーション・知能ほか〉視覚誘導型移動ロボットの研究


森 英雄山梨大学工学部
小谷 信司山梨大学工学部

この論文は、ロボット研究開発アーカイブ「日本のロボット研究開発の歩み」掲載論文です。

1. 研究経過

筆者はパターン認識の研究を志ざし,1965年から手書き文字認識に取り組んだが成果を得られないうちにワープロが出現し研究を断念した。このころパターン認識の原理を見つけるという目的で心理学会に入会し,HubelとWieselの大脳特徴抽出セルの発見に触発され,特徴抽出に関する心理法則を見つけようとバックワードマスキングによる文字の特徴抽出の心理実験を続けたが,さしたる成果は得られなかった。次に胃X線写真のコンピュータ診断を研究したが,診断できたのは胃潰瘍や胃がんの症状が進み形態が著しく変形した胃で,早期癌の発見にはほど遠いものであった。指導していた修士の学生を胃がんで亡くし,工学者が人の生死にかかわる研究をすることの難しさを痛感しこの研究を止めた。

このころ人は網膜に映った像をそのままに見るのではなく,対象として知覚する部分(図,Figure)と背景として知覚されない部分(地,Ground)があるいうゲシュタルトの学説を知った[1]。人と同じような画像理解システムを工学的に実現するためには,ビデオカメラの映像の中から対象と背景を分けるシステムを作らなければならない。しかしその原理・法則がわかっていない。ここでパターン認識の研究は頓挫した。心理学の講演会で人間は2つの視覚系,すなわち網膜から外側膝状体を経て大脳視覚領野に行く第一視覚系と,網膜から上丘を経て中脳に行く第二視覚系があることを聞いた[2]。

第一視覚系は,網膜に映った対象が何であるかを認識する機能を分担し,その作用は意識に上る。第二視覚系は,眼を注視対象に向ける眼球運動や首や手足の運動制御を司り,その作用は意識には上らない。歩行は第一視覚系がなくても第二視覚系で可能であるという。この説によればパターン認識は第一視覚系の機能の一つであるが歩行には直接は関係しない。自律移動ロボットは第二視覚系の機能があれば実現できる筈である。第二視覚系の機能ならば実現できるかも知れない。そこで1980年から視覚誘導型移動ロボットの研究を開始することにした。

基礎心理学会の講演で,下等動物の視覚は第二視覚系で,第一視覚系の機能は高等動物になって初めて現れるということを知った。動物行動学の本を調べているうちに,ニコラス・ティンバーゲンの“本能の研究”(1951年)に出会った[3]。トゲ魚のオスは縄張りに侵入した敵のオスに反応して闘争行動を惹起する。トゲ魚は敵のオスを形態で認知するのではなくて,眼と腹部の赤斑という部分的特徴で認知する。ティンバーゲンはそれをサイン刺激と名付けた。闘争行動は,“睨み合い”,“威嚇”,“咬つき”,“追跡”という4種類の行動の連鎖からなる。それらの行動のパターンは固定しており定型行動と呼ぶ。定型行動は通常では休眠状態であるが,サイン刺激が出現すると対応する定型行動が活性化する。この仕組みをティンバーゲンは次のように説明した。トゲ魚の行動は階層構造をなしている。 上位層は“保育”,“求愛”,“営巣”,“闘争”の定型行動からなり,夫々の定型行動は中間層の定型行動からなる。そして定型行動はサイン刺激で惹起するが,内部のホルモンでも惹起する。

ティンバーゲンのサイン刺激と定型行動は,コンピュータのイベント駆動マルチタスキングシステムの考え方と同じで,この学説が60年前に上梓された本にあることに驚かされる。行動がいかに複雑であろうともその行動パターンが固定しているならば工学的実現は可能である。また,環境全体を理解するのでなくサイン刺激,すなわち,一部の特徴にのみ反応するのであれば,工学的実現は可能である。そこでサイン刺激をサインパターンと工学用語に改名し,サインパターンと定型行動を原理とする視覚誘導型移動ロボット“晴信”を開発することにした[4]。“晴信”の道路環境走行を研究しているうちに,ロボットが人間社会と共生するためには,動物の視覚行動を実現するだけでは不十分で,人間社会の規則や慣習を行動に取り入れなければならないことに気付いた。そこで交通規則を遵守して交差点を渡る研究を行った。

ティンバーゲンの流れを組む現代の動物行動学者は,動物にも意識がありその行動はサイン刺激による定型行動の解発では説明がつかないことを発見した。トゲ魚の例で説明する[5]。巣を作り,求愛の定型行動をしているオスを花婿と呼ぶことにする。彼と少し離れたところからじっと待っているオスがおり,メスが巣に入った瞬間に飛び出し花婿に挑みかかり,闘争の末に花婿を追い払って巣に入り精子を放出する。このオスをスニーカーと呼ぶ。スニーカーは花婿の行動を見てじっと待っている時点では存在しない事象(メスが巣に入る)について経験・記憶から予期していることになる。予期して待機しているのだからスニーカーには意識があることになる。メスが巣に入るか否かはオスの巣の出来具合に大きく影響されるという。巣作りの下手なオスは求愛に失敗ばかりして,自分はモテナイという内省があり,スニーカーになるのだという。このように下等動物においても意識や内省があって行動している。意識や内省を排したロボットは自律性の面では下等動物には及ばない。ロボットは人の意識によって動く環境適応機械を目指すべきであると考えた。

2. モビリティ,オリエンテーション,ナビゲーション

視覚障害者の歩行を研究している心理学者は,歩行には,モビリティ,オリエンテーション,ナビゲーションの機能が要ると言う[6]。モビリティとは,手足を交互に動かし姿勢のバランスをとりつまづかずに歩く機能を言う。よちよち歩きの乳幼児はこの機能が未発達である。モビリティには視覚が重要な役割をしている。中途失明者は単独では杖を使っても立って歩けない場合が多い。オリエンテーションとは,歩行する方向を見定める機能である。登山者が霧の深い時に道に迷うのは,このオリエンテーションの機能が働かないからである。ナビゲーションとは今どこにいるか,すなわち現地点を知り,交差点等でどちらに進かを知る機能である。ナビゲーションには道とランドマーク,目的地を記述した地図が必要である。

視覚誘導型移動ロボットは,道路や廊下,広場やホールを移動するものとし,オフロード(荒地)は移動しないとする。移動ロボットのモビリティは車体の走行制御システムで実現する。車体に加速度センサやジャイロスコープを付け路面の傾斜(縦方向と横方向)によるズレを補正して走行するシステムを作る。また,バンパーセンサーや超音波距離センサを車体につけ,ロボットが何かに当たったとき,あるいは前方に穴があるとき反射的に停止するようにする。次ぎにオリエンテーションについて考える。ロボットが道路や廊下を移動するときは,路面上で道路や廊下の方向に伸びている視覚的手掛かりを検出し,それに沿って移動する。この移動を沿目標移動という。広場を移動するときは建物の入口や通路の入口を目標に移動する。この移動を向目標移動という。沿目標移動の場合も向目標移動の場合も,その進行方向における走行可能空間の検出を同時に行う。ナビゲーションには地図データベースが必要である。車のナビゲーション用データベースとの類似点は道路のネットワークで,相違点は道路ではなくてロボットが走行する左右の歩道と横断歩道およびロボットが検出可能なランドマークや視覚的手掛かりをデータベースに記録することである。

3. サインパターン,ランドマーク

ここで視覚誘導型移動ロボットにおけるサインパターンとランドマークを工学的に定義する。サインパターンとは,ある特定の環境下で対象を他のものと区別する視覚的手掛かりで,センサーで容易に検出できるものをいう。サインパターンの中でロボットの現在位置を知るために利用するサインパターンをランドマークと名づける。

3.1 歩行者のサインパターン

平坦な路面という環境下で,歩行者のサインパターンは足の歩行リズムである[7]。ロボットが停止していれば,フレーム間差分画像を2値化すれば移動体領域を検出できる。図1(a)はこの移動体領域の連続写真である。移動体領域を人のサイズの領域にグルーピングし図1(b)のように領域下部1/5の部分に足元ウインドウW3を設け,その中心座標と移動体領域の面積を計測する。図1(e)は二人の歩行者M1、M2の連続写真で,図1(c)の上半分はW3の移M1,M2の移動体領域の時系列データで,下半分はそのパワースペクトラムである。2秒の周期にピークがあることがわかる。これは片方の足の周期である。図1(d)は,画像処理で検出したM1,M2の移動軌跡である。精度良く検出していることがわかる。足の歩行リズムを歩行者のサインパターンとすると,画像処理で容易に検出でき,天候,距離,歩行者の衣服に影響されないという長所があり,ソリッドモデルやスケルトンモデルによる歩行者検出より実用的である。歩行の周期は頭部,手や脚に現れるが,足が最も顕著である。

図1 歩行者のサインパターン
図1 歩行者のサインパターン

3.2 自動車のサインパターン

自動車の真下は,直射日光はむろんのこと空の散乱光も届かず僅かに斜めから周囲の光が届くのみである。この真下の陰の部分はビデオ信号で見れば殆どノイズレベルで画像においては暗黒領域をつくる。それに反し樹木や建物の陰の領域は空の散乱光があたるので曇天でも真下の陰領域よりも明るい。図2は路面に設定した横長のウインドウを自動車の下部が通過したときの明度ヒストグラムである。自動車の真下の明度が急激に下がっていることがわかる。画面上で道路に沿って移動する暗黒領域の幅が車両のそれとほぼ同じ大きさであれば,自動車のサインパターンとする[8]。このサインパターンは天候に依存せず観測点が1m近辺の高さで有効であるという点で自律移動ロボット向きである。

図2 自動車のサインパターン
図2 自動車のサインパターン

3.3 歩道のサインパターン

歩道のサインパターンはアスファルト舗装歩道の縁石や点字ブロック,タイル貼り歩道の模様等である。タイル模様の存在の有無は障害物の有無の判定にも用いることが出来る。晴天時には歩道に周囲の建造物や街路樹の蔭が出来て,サインパターンの検出が一時的に困難になる場合がある。しかし,ロボットのモビリティをしっかり作っておけば,サインパターンによるオリエンテーションの補正は数メートルおきにすれば良く問題にならない場合が多い。

3.4 廊下やホールのサインパターン

病院や施設の廊下やホールの床面には色のついたテープが貼ってある場合が多い。また,床面と壁の境目は縁取りしてある場合が多い。これらをサインパターンにして沿目標移動する。廊下やホールのサインパターンは屋外道路環境のそれより種類が少なくシンプルである。しかし,視覚誘導は屋外よりも屋内の方が格段に難しい。理由は照明にある。屋外環境の場合,太陽が朝夕の低い位置なある場合を除いて,ビデオカメラには路面で反射した散乱光が入り,路面の模様が画像に写る。これに対して屋内環境の場合,廊下の突き当たりがガラス戸になっていてそこから光が入る場合が多い。この光は床面にほぼ平行に入射して鏡面反射してビデオカメラに入る。画像にはガラス戸から入った光の反射光が写り,床面の模様は写らない。そのためサインパターンは検出できない。

3.5 ランドマーク

ロボットが現在位置を知るために利用する視覚的手掛かりをランドマークと名づける。ランドマークの条件は(1)道路や廊下の近くにあって固定していること,(2)周囲の事物と明度,色彩,大きさ,形において容易に区別できること,(3)障害物によって遮蔽されることが少ないことである。この条件を満たすものとして,交差点における横断歩道マーク,目立つ看板がある。看板の文字の認識は字体の不統一,斜めから見たときの変形の解決が難しく現在では用いることが出来ない。

4. 定型行動

オリエンテーションとナビゲーションは定型行動で実現する。歩道や廊下の走行はサインパターンに沿っての移動で実現できる。これを沿目標移動(Move-Along)という。沿目標移動はコースを表す線分とサインパターンの種類とサインパターンとコースの間隔で表される。短い線分や小さな円弧からなるコースは推測航法による直線走行(Line)または円弧走行(Circle)で走行する。広場を移動するときは,コースの間に中間ランドマークを設け,中間ランドマークで位置合わせをしながら目標地点に移動する。これを向目標移動(Moving-Toward)という。LMによる位置合わせをLM観測(LM-Orientation)という。向目標移動は推測航法とLM観測の連鎖で実現できる。定型行動を下記のように定式化する。

沿目標移動: Move-Along(X0,Y0,X1,Y1,SPkind,SPdistance)
直線走行: Line (X0,Y0,X1,Y1)
円弧走行: Circle (X0,Y0,X1,Y1,R)
LM観測: LM-Orientation (XLM,YLM,LMkind,Lmparemeters)


ただし,位置を表す世界座標系XYは任意に設定する。X0,Y0とX1,Y1は直線または円弧からなるコースの始端と終端,Rは円弧の半径である。SPkindとSPdistanceはサインパターンの種類とそれとコースの間隔である。XLM,YLM とLMkindはLM観測点の位置とLMの種類である。LMparametersはロボットの位置合わせに用いるパラメータで,ランドマークの種類によって異なる。

5. 経路データのティーチング

サインパターン,ランドマーク,定型行動からなる経路データベースを作成する方法は3通り考えられる。一番目の方法は電子地図または紙地図を基に作る方法である。しかし市販の地図にはサインパターンやランドマークの記述がない。また,県や市町村の作る道路地図には道路の詳しいデータが記録されているが公開されておらず,形式も統一されていない。そのためこの方法は適さない。二番目の方法は,土木測量機でサインパターンやランドマーク,走行コースを計測する方法である。この方法はランドマーク一点の計測に少なくとも10分程度の時間を要すること,および土木測量機で計測しても画像処理で計測できるとは限らないこと等を考えると実用的でない。三番目の方法は,コースをロボットが実際に走行してコースの始端終端の座標,サインパターンとランドマークを検出してその種類とパラメータを記録する方法である。ロボットはオペレータが手操作で操縦し,サインパタ-ンとランドマークもオペレータが選択する。上記の操作を経路データのティーチングという。このティーチングが終わった後で,経路データを編集して道路ネットワークにリンクする。視覚誘導型移動ロボットでは三番目の方法を採用した。

5.1 XML記述経路データベース

経路データはWEBを通して管理センターとロボット間で交換することを考え,XMLで記述することにする[9]。XMLを選んだのは(1)階層構造の記述が可能である,(2)データの意味を表すタグを任意に設定できる,(3)記述形式がコンピュータの機種に依存しない,等の特長があるからである。その一般型を次ぎにしめす。

      XML記述経路データ   コメント            経路データの始まり
       ファイルのヘッダの始まり      ・・・・      (作成日,バージョン)     
       ファイルのヘッダの終わり
                       ランドマークのデータの始まり
      ・・・・       (名前,種類,位置,検出パラメータ)
                           ランドマークのデータの終わり
                          パスデータの始まり
          ・・・・              (パスの始端,終端,定型行動の種類,道路情報等)
                     サインパターンのデータの始まり
            ・・・・     (種類,間隔,検出パラメータ)
                   サインパターンのデータの終わり
               パスデータの終わり
      ・・・・      (ランドマークのデータとパスデータの繰り返し)
                   経路データの終わり


6. 交通規則

道路を安全にかつ迅速に走行するためには交通規則を遵守し慣習に従わなければならない。交通法規によると,歩道を移動しても良い車は乳母車と車椅子で,突起物がなく移動時速は6km以下でなければならないとある。視覚誘導型移動ロボットに関する法規はないが,車椅子に順ずるものとして研究開発をする。最も危険なのは交差点の移動である。大きな交差点は歩道の幅が広く青信号時間も長いので,青信号を検出し横断歩道からはみ出ないように移動すれば良く解決すべき技術課題は少ない。交差点の規模が小さくなるほど安全確保が難しくなる。横断歩道上に車両が停止していたり,青信号時間も短くなるからである。

特に難しいのは住宅街の交通信号のないT字路の移動である。このような場所ではロボットは横断歩道の手前で停止し,左右の道路から近づいて来る車両の位置と速度を検出し,ロボットのいる地点に到達する時間を予測して横断歩道を渡ってよいか否かを判定する[10]。図3は車両の危険度判定の一例である。図3(a)は自動車の交差点における交通規則で自動車の走行方向によって“SAFE","RISKY","ALARM"の状態が決まる。図3(b)はその実験例である。

図3 危険度判定の例
図3 危険度判定の例

7. 障害物回避

歩道で近づいてくる歩行者や自転車等とすれ違うときは,ロボットは停止し移動体が回避行動をとるのを原則とする。しかし歩行者が障害者や幼児のときは回避行動を期待できない。ロボットの正面にソナーをつけ移動体がロボットの前方1m以内に近づいたら停止するようにする。

8. 視覚障害者を道案内する歩行ガイドロボットへの応用

視覚誘導型移動ロボットを視覚障害者を道案内するロボットに応用した[11]。歩行ガイドロボットの概念図を図4に,その写真を図5示す。ロボットには視覚障害者が行きたい複数の目的地とそこに至る経路をティーチングしておく。障害者はハンドルのボタンを押してロボットを呼出し,音声で現在地と目的地を入力する。ロボットは目的地までの経路と所要時間,交差点数などを合成音声で知らせてから移動を開始する。視覚障害者はハンドルにつかまって歩く。ロボットが曲がるときは左右のバイブレータで合図する。ビデオカメラで縁石や横断歩道,点字ブロック等を検出しそれをガイドに走行する。交通信号を検出し安全なときに横断歩道を誘導し,ときには押しボタン式交通信号機の位置まで障害者を誘導する。また,看板等のランドマークを認識して障害者に知らせ,経路の正しさを確認させる。ステレオカメラシステムで自転車やバイク,ごみ袋等のモデル化しにくい障害物の位置とカテゴリーを認識して,カテゴリーに応じた障害物回避を行う。歩行ガイドロボットの故障診断とサービスのため管理センターを設ける。管理センターと歩行ガイドロボットはインターネット(WEB)を通して結ばれ,ロボットが故障したり,道に迷ったときに対処する。

図4 歩行ガイドロボットの概念図
図4 歩行ガイドロボットの概念図
図5 歩行ガイドロボットの写真
図5 歩行ガイドロボットの写真

9. まとめ

下等動物のサイン刺激と定型行動を真似た視覚誘導型移動ロボットの研究開発に着手したが,人間社会との共生を考慮して交通信号等の知識を利用するようになった。また,ロボットが安全に通れる経路をオペレータがティーチングする戦略を採用し,経路データをXMLで記述してWEBを通して流布するようにした。視覚誘導型移動ロボットの応用として,視覚障害者を道案内する歩行ガイドロボットを開発している。

動画


対応論文


森 英雄:構内道路を走行する自律移動ロボット, (PDF, 2.0MB)

日本ロボット学会誌,Vol.5, No.5, 1987.

関連論文


[1] メッツガー(盛永四郎訳),“視覚の法則”,岩波書店,1968.

[2] 河内十郎,“第8章 見えない視覚”,鳥居修晃編 現代基礎心理学3知覚II,1982.

[3] N. Tinbergen,"The Study of Instinct", The Clarendon Press Oxford, 1951(永野訳,“本能の研究”,三共出版,1975).

[4] 森英雄,小谷信司,石黒浩,安富敏,茅野之雄,“構内道路を走行する自律移動ロボット(移動ロボットの一戦略‐晴信4号機)”,日本ロボット学会誌,Vol.5,No.5、pp.361-373,1987.

[5] Seiichi Mori, "Factors Associated with and Fitness Effects of Nest-Raiding in the Three-Spined Sticleback, Gasterosteus Aculeatus, in a natural Situation," Behaviour 132, pp.1012-1023, 1995.

[6] G. Jansson, "Non-Visual guidance of Walking" Ed. R.Warren, Perception and Control of Self-Motion, Lawrence Erbaum Associates Pub. 1990.

[7] 安富敏,森英雄,他,“歩行のリズムに基づく歩行者検出の一手法”,電子情報通信学会論文誌,D-II, Vol.J78-D-II No.4, pp.608-617, 1995.

[8] H. Mori, N. M. Charkari & T. Matsushita, "On-Line Vehicle and Pedestrian Detection Based on Sign Pattern", IEEE Trans. On Industrial Electronics, Vol.41, No.4, 1994.

[9] 中村雄一,小谷信司,森英雄,“歩行ガイドロボットの走行環境のティーチング”,ロボティクス・メカトロニクス講演会'00講演論文集,2P1-65-114, 2000.

[10] S.kotani, H. Mori & N.M.Charkari, "danger estimation of the Robotic Travel Aid(RoTA) at Intersection," Robotics and Automation systems 18, pp.235-232,1996.

[11] 森英雄,“マッチングファンドによるプロジェクト「歩行ガイドロボット実用化のための研究開発」について",ロボティクス・メカトロニクス講演会'01講演論文集,1P1-J6, 2001.