SEARCH
MENU

日本のロボット研究の歩みHistory of Robotics Research and Development of Japan2000Integration, Intelligence, etc.〈インテグレーション・知能ほか〉ロボット聴覚の提案,および,その現状と課題


中臺 一博科学技術振興事業団
ティノ ローレンス科学技術振興事業団
奥乃 博京都大学
北野 宏明ソニーCSL/科学技術振興事業団
日台 健一科学技術振興事業団

この論文は、ロボット研究開発アーカイブ「日本のロボット研究開発の歩み」掲載論文です。

ロボットの聴覚処理は,これまで,視覚処理と比較し,あまり統合的な議論がされていなかった. 人工知能の国際学会 AAAI-2000 で,発表した "Active Audition for Humanoid" の中で,初めて,ロボットの聴覚処理の重要性を訴え「ロボット聴覚」という新たな研究領域の提案を行った.この研究領域の確立に向け,下記の点について,研究課題の提案・議論を行った. ・ ヒューマノイドの体が音響環境に及ぼす影響 ・ ヒューマノイドの動きが音響環境に及ぼす影響 ・ 音声や楽音といった特定の音に特化しない一般の音の知覚・認識機構 ・ 未知の音響環境での音の知覚・認識機構 ・ 自分の体を動かして音響, 画像, その他の情報を得る機能 特に,従来のロボットは,音を入力情報として使用する場合, 従来は立ち止まっ て聞くという stop-perceive-act 原理に基づくものが多く, 実環境に適用する 上での制約となっていた.  これを解決し,聴覚による実環境を理解,つまり音 環境理解を実現するためには,知覚したいものへ体を向けるといった能動的な知覚 (active perception) が必要である点に注目して,自分が動いていても外界の 音を聞き分けるアクティブオーディションを提案した.  アクティブオーディショ ンは,マイクロホンの位置, マイクロホンを搭載したロボットの体の回転, マ イクロホンの指向特性といったパラメータを能動的に制御して, よりよく聴く ための枠組である.一方で, アクティブオーディションでは, 能動的な動作に より雑音が発生してしまい,本来の入力音が妨害されるという矛盾を抱えてい る (内部音が小さくても, マイクロフォンに発生源が近ければ相対的には大き な音であることに注意). そこで,ロボットの外装によって,ロボットの内外を区別 (ロボットの音響的身体性)することによって, ロボット内部の雑音を抑圧する手法, および,頭部伝達関数を用いず,音源方向を推定する聴覚エピポーラ幾何法 を提案し,これらの有効性を上半身のロボットSIGを用いて示した. International Conference on Information Society in the 21st Century: Emerging Technologies and New Challenges (IS2000) Best Paper Award in 2000. International Conference on Industrial and Engineering Applications of Artificial Intelligence and Expert Systems (IEA/AIE-2001) Best Paper Award in2001. IEEE/RSJ IROS 2001 Best Paper Award Finalist in 2002. 2003年 船井情報科学振興財団船井情報科学振興賞
ヒューマノイドロボットSIG
ヒューマノイドロボットSIG
ロボット内外を分ける2組のマイクロホン
ロボット内外を分ける2組のマイクロホン
SIG内部構成
SIG内部構成

動画


対応論文


K. Nakadai, T. Lourens, H. G. Okuno, and H. Kitano:Active Audition for Humanoid

Proc. of the Seventeenth National Conference on Artificial Intelligence (AAAI-2000), pp.832-839, 2000.

H. G. Okuno, K. Nakadai, Ken-ichi Hidai, H. Mizoguchi, H. Kitano:Human-Robot Non-Verbal Interaction Empowered by Real-Time Auditory and Visual Multiple-Talker Tracking

Advanced Robotics, Vol. 17, No. 2, pp. 115-130, 2003.

中臺 一博, 日台 健一, 溝口 博, 奥乃 博, 北野 宏明:ヒューマノイドを対象にした視聴覚統合による実時間人物追跡  - アクティブオーディ ションと顔認識の統合 -

日本ロボット学会誌, vol.21, no.5, pp. 57-65, 2003.

中臺 一博, 奥乃 博, 北野 宏明:ヒューマノイド聴覚機能のためのアクティブオーディションの提案

日本ロボット学会学術講演会, 1C31, 草津, Sep. 2000

中臺 一博, 奥乃 博, 北野 宏明:ロボットの外装の音響効果を利用したアクティブオーディションシステム

日本ロボット学会学術講演会, 1C32, 草津, Sep. 2000.

中臺 一博, 日台 健一, 奥乃 博, 北野 宏明:視聴覚のストリームベース統合による実時間人物追跡システム

日本ロボット学会学術講演会, Sep. 2001

関連論文


[1] Kazuhiro Nakadai, Tino Lourens, Hiroshi G. Okuno, Hiroaki Kitano: Humanoid Active Audition System Improved by The Cover Acoustics. In Mizoguchi, R. and Slaney, J. (eds) PRICAI-2000 Topics in Artificial Intelligence (Sixth Pacific Rim International Conference on Artificial Intelligence), 544-554, Lecture Notes in Artificial Intelligence No. 1886, Springer-Verlag, Melborne, Aug. 2000.
[2] Kazuhiro Nakadai, Hiroshi G. Okuno, Tino Lourens, Hiroaki Kitano. Humanoid Active Audition System. Proc. of First IEEE-RAS International Conference on Humanoid Robots (Humanoids2000), Cambridge, Sep. 2000.
[3] Kazuhiro Nakadai, Tatsuya Matsui, Hiroshi G. Okuno, Hiroaki Kitano: Active Audition System and Humanoid Exterior Design. Proc. of IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS-2000), 1453-1461, Takamatsu, Nov. 2000.
[4] Hiroshi G. Okuno, Kazuhiro Nakadai, Tino Lourens, Hiroaki Kitano: Sound and Visual Tracking for Humanoid, Proc. of 2000 International Conference on Information Society in the 21st Century: Emerging Technologies and New Challenges (IS2000), 254-261, Aizu-Wakamatsu, Nov. 2000. (BEST PAPER AWARD)
[5] Hiroshi G. Okuno, Kazuhiro Nakadai, Lourens, Tino, Hiroaki Kitano: Sound and Visual Tracking for Humanoid Robot. Proc. of 17th International Conference on Industrial and Engineering Applications of Artificial Intelligence and Expert Systems (IEA/AIE-2001), Lecture Notes in Artificial Intelligence, No. 2070, Springer-Verlag. Budapest, Hungary, June 2001. (BEST PAPER AWARD)
[6] Kazuhiro Nakadai, Ken-ichi Hidai, Hiroshi Mizoguchi, Hiroshi G. Okuno, Hiroaki Kitano: Real-Time Auditory and Visual Multiple-Object Tracking for Robots. Proc. of 17th International Joint Conference on Artificial Intelligence (IJCAI-01), 1425-1432, Seattle, Aug. 2001. (電気通信普及財団奨励賞受賞)
[7] Hiroshi G. Okuno, Kazuhiro Nakadai, Tino Lourens, Hiroaki Kitano: Human-Robot Interaction Through Real-Time Auditory and Visual Multiple-Talker Tracking Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS-2001), IEEE, Maui, Hawaii, Oct. 2001. (BEST PAPER Nomination Finalist)
[8] 中臺 一博, 奥乃 博, 北野 宏明: ヒューマノイドにおける聴覚機能の課題とアクティブオーディションによる音源定位, 人工知能学会論文誌, Vol. 18, No. 2-F, pp.104-113, Mar. 2003.
[9] K. Nakadai, D. Matsuura, H. G. Okuno, H. Tsujino: Improvement of Recognition of Simultaneous Speech Signals Using AV Integration and Scattering Theory for Humanoid Robots, Speech Communication, Vol.44, pp. 97-112, Elsevier, Oct. 2004.