SEARCH
MENU

活動報告2021:ロボットの法及び倫理に関する研究専門委員会


「第39回 日本ロボット学会学術講演会 OS3 『ロボット倫理の最前線とその社会化に向けて』」の紹介

 ロボットの法と倫理研究専門委員会では、昨年度に引き続き、今年度もロボット学会学術講演会において、OSを主催した。本年度は、海外における本格的なロボット倫理研究に関する紹介及び検討が我が国において十分になされていないという旨の、専門委員会会合において松浦委員(東洋大学)からなされた提題に基づき、気鋭の倫理学者4名による海外動向の紹介・検討を中心に、2名のロボット工学者からのELSIに関わる問題提起がなされた。いずれも質の高い議論であり、本委員会の活動内容の成果として共有していただく価値が高いと思われるため、以下に各報告の概要を紹介する。


 第一報告者の伊多波氏(京都外国語大学)からは、道徳・政治領域に算術的発想を適用する18世紀末以降の動向とロボット倫理との親和性に基づき、自由意志概念を主軸としない道徳・政治思想、特にベンサムを祖として発展してきた功利主義の議論をロボット倫理に応用した場合の可能性と課題とが語られた。同報告は、しばしばロボットの道徳的行為主体性の要件として挙げられてきた自由意志による意思決定能力については、人間に関する場合でも、近代以降の法制度設計においてあまりにも自由意志概念へと議論が偏重してきたことや、功利主義的なロボット倫理への拒絶が、功利主義自体への拒絶として表れていることなどを踏まえ、功利主義的な立場から人間理性を再検討することが、現在の議論状況を相対化する意味を持つことを強調する。その上で、功利主義における道徳計算が念頭に置いている技術的に反復可能な行為の延長として、例えば家庭内に置かれた、特段の社会的行為を行うわけではないロボットに関する倫理を述べることは十分に可能であるという。その反面、新奇性が全面に出るような技術については、道徳計算の問題というよりも、情動の問題として抵抗感が大きいために、障害に直面することになるだろうと指摘している。


 第二報告者の相松慎也氏(東京大学)は、従来ほとんど議論されてこなかった、道徳的配慮に値するロボット、すなわち道徳的被行為者性 Moral Patiencyをめぐる海外の動向についての紹介・検討がなされた。歴史的に道徳的被行為者性は、道徳的行為者性と同一視されることも多かったが、動物倫理の発展と共に、それとは異なる概念として独自の問題領域を構成するようになったという。ロボットに即していえば、ロボットに対する道徳的な配慮を要求する特徴とは何かが、例えば、自律性、知能、欲求、感情・感覚などは、そうした特徴に当たるかが議論されているのである。もっとも、現代倫理学における主要な3つの立場である、義務論、功利主義、徳倫理のそれぞれが、道徳的被行為者性として考えているものは全く異なっているため、道徳的被行為者性の内実はより流動的なものとして理解し、既存の道徳的な直観や常識に縛られることなく、ロボットの実態をそれとして捉えて、道徳判断の根本的基準を改定していく覚悟が必要であるという。


 第三報告者の植原亮氏(関西大学)からは、ロボットの道徳的行為者性と責任をめぐる議論の紹介と検討がなされた。同報告によれば、古典的な行為者概念と個人主義的責任観の原型は、アリストテレスの『ニコマコス倫理学』に見出すことができるという。そこでは、行為者が意思決定を行う能力を行使し、その行為が外部ではなく自分自身のうちに起源があるという意味で自発的なものであるとき、行為者にはその行為の道徳的責任がある(「制御の条件」)とされ、さらに、責任ある行為者は、自分のしている行為が何であり、それが帰結を生み出すかを認識していなければならない(「認識的条件」)とされていた。現在のロボット倫理でも、多くの立場がこうした議論を下敷きに、ロボットに「制御の条件」や「認識の条件」が認められるかを議論しているものの、現在の人間の行為者性や責任の実態は、既にこのような立場で説明できるものではないため、こうした議論の仕方には問題があるという。すなわち、行為の産出に寄与する認知プロセスの多くが意識の及ばない領域で生じていることや、実際の人間の行為性が個人の外部に存在する事物によって支えられていること、人間の認識が個人の内部に閉じない共同的な事業として営まれていることなどに鑑みると、個人主義的・内在主義的な道徳的行為者性や責任理論は放棄されるべきであるというのである。それゆえ、人間の行為者性や道徳的責任が集団的・共同的な営為によって成立すること(「外在主義」)を踏まえ、企業や法人の責任を問うことがフィクションではなく、真正の責任を帰属させることであるように、ロボットの道徳的行為者性や責任を論じるべきであるとする。すなわち、制御の条件に縛られることなく、外在主義に着目し、多種多様な人工物や社会制度を含む外的足場に支えられた人間の集団的・共同的営為にロボットが参画することで、全体として認識的条件を満たすような一体的システムが成立する場合には、そのシステムが行為者性を発揮し、また道徳的責任を負う真正の単位となる可能性を真剣に検討するべきであると主張する。


 第四報告者の野村智清氏(秀明大学)は、ロボットと権利をめぐる海外の議論状況を紹介・検討するものである。同報告においては、「人間でないという性質」を持つ存在者が付与された権利を考察することにより、ロボットの権利についての限界点を見極め、新たな領域を探ることが目指され、「自然の権利」や「動物の権利」をめぐる議論が紹介された。その上で、ロボットの権利を論じる上で重要な視点として、「自然の権利」論者は全体論的な土地倫理に基づいて、人間の権利を「動物の権利」に拡張しようとする論者を、「人間中心主義」という観点から批判し、反対に「動物の権利」論者は「自然の権利」論者を「環境ファシズム」という観点から批判するという、両アプローチ間の緊張関係の存在が指摘された。論者によれば、この緊張関係は、相補的な性質を持つ生産的な関係でもあるため、ロボットの権利を論じる上でもより意識されるべきであるという。


 第五報告者の橋本智己氏(埼玉工業大学)は、ロボット倫理学に基づいた意思決定方法という、応用倫理学的問題についての報告を行なった。ロボットが主体的に道徳的行為者として倫理・道徳を持つものと仮定し、功利主義の二層理論に基づくロボット倫理学を応用して、その意思決定方法についての提案がなされた。すなわち、実験では、人間1名とコミュニケーションロボット1大とが対話し、ロボットが場の状態や社会的影響に応じて、協調(幸福の表情と発話)、保留(その時点での感情に基づく表情と発話)、非協調(悲しみの表情と発話)のどれか1つを選択するものとし、それがどの程度自然であるかについてのアンケートがなされた。ロボットの意思決定手順としては、第一フェーズで人間の音声と抑揚とを認識し、第二フェーズで人間・ロボット・場・社会の幸福量と不幸量とを推測し、第三フェーズで一単位後の幸福量と不幸量を予測し、第四フェーズでロボットは意思決定し、人間に対して協調、保留、非協調のどれかの表情と発話をするというものである。この仕組みにおいては、ロボットの内部状態としての感情と人間へ伝えるメッセージとしての表情とが異なる可能性があるため、この仕組みを用いない場合に比較して、社会的に不適切な発話に対して諌めるなどの行動を取る結果、対話者がロボットからより自然な印象を受けるとの結果が報告された。


 第六報告者の辻田哲平氏(防衛大学校)からは、国際人道法に沿った歩哨ロボット運用規制のフレームワークの検討に関する報告がなされた。この報告は、国際人道法に基づく犠牲者保護について、ロボット技術によって貢献することを目指すというものであり、アーキテクチャによる法の実現という側面を持っていると考えられる。報告では、外見上文民の格好をした攻撃者が、交戦相手国の文民もしくは軍事要員に対して、衣服の下に隠した爆発物によって自爆攻撃しようとしている状況を想定し、ロボット技術によって国際人道法の理念に従った対応ができないかが検討された。まず、国際人道法の解釈により、対象者に対して正当な攻撃を行うためには、「危険の敷居」・「直接的因果関係」・「交戦者とのつながり」という要件が満たされ、対象者が「保護を喪失」する必要があるところ、この状況においては、爆発物の威力を正確に評価するとともに、対象者が自国を支援し、交戦相手国を明確に害する明確な意図を持っていることを明らかにする必要があるとされた。その上で、歩哨ロボットシステムに各種センサを搭載することによって、戦闘員の目視判断に比較して、より高い制度で敵対行為に直接参加する文民を識別できる可能性がある反面、ロボット運用システムが国際人道法に沿った行動を保証できない可能性やセンサへの攻撃によって誤判断をする危険性などを踏まえ、歩哨ロボットの有用性と危険性とを明らかにする必要性が指摘された。なお、同報告の実証研究においては、判断と行動の最終責任を歩哨ロボットのオペレーターが負う形式が採用されている。つまり、各種センサ情報と共に背景や運用計画などを入力すると、オペレーターに合法か違法かのアドバイスがなされ、オペレーターがこのアドバイスを元に最終的な判断を下す。そのため、このシステムは、特定通常兵器使用禁止制限条約自律致死兵器システムに関する政府専門家会合の指針にも合致しているものである。以上の識別問題に加え、同報告においてはさらに、攻撃の正当化に関わる「比例制原則」や「予防原則」についての適合性もシステムが判断し、必要があればオペレーターに攻撃中止を指示するシステムの検討もなされている。全体として、専門的な国際人道法の各種文言解釈を、定量的に評価可能な指標へと変換することで、ロボットによる国際人道法の実現可能性を検討されていた。


 以上のように、本年度のOSにおける各報告は、いずれもロボットの法と倫理についての基礎から応用まで多岐にわたる重要なものばかりであり、本研究領域の進展に寄与するものであったと思われる。

 

京都大学 稲谷龍彦