【広島大学 笠木雅史氏】ドイツ哲学から分析哲学、そして自動運転の倫理学へ(1)

インタビュー

「AJ出張版」は、株式会社アカリクが発行する「大学院生・研究者のためのキャリアマガジン Acaric Journal」の過去の掲載記事や、WEB限定の新鮮な記事をお送りするカテゴリです。今回はvol.3の掲載記事をお届けします。

トロリー問題は、自動運転車の倫理について考える際の重要な問題の1つです。自動運転車の事故が避けられない状況に陥った場合、どのような判断を行うアルゴリズムを作れば良いのでしょうか。「適切な判断」とは、何なのでしょうか。今回は、自動運転の倫理学の研究を推進されている笠木氏にお話を伺いました。

ー 現在までどのようなご研究をなさってこられて、どのような経緯で人工知能や自動運転に興味を持たれたのですか

 日本の大学院時代はドイツ哲学を勉強していました。しかし、その頃に指導された勉強方法は古典を読むことが多く、それだけでは現代の問題を扱うことができないと思い、徐々に現代の問題を扱う分析哲学に関心が移りました。ただ、分析哲学は英米圏で盛んなのですが、本格的に勉強しようとすると、2000年代初頭の当時は日本で学ぶことが難しいという状況でした。そのため、海外に行くことを決意し、カナダで博士課程を一からやり直しました。

 カナダでは認識論と呼ばれる分野を研究しました。人間は様々な認識活動を行いますが、例えば、知識を求める活動と理解を求める活動、単に合理的な考え方を求める活動などの様々な種類があります。認識論とは、例えば「知識」と「理解」の機能の違いや、どのような区別があるのか、といった、なかなかパッとわからないものごとを理論化する分野です。このような分野で研究を続けていたのですが、その頃から哲学の方法に深刻な問題があると指摘されることが増えてきました。

 哲学者の探求の出発点は素朴な直観であることが多いのですが、その直観が一般の人々と共有可能なのかどうかデータを取る必要がある、と特定の哲学者グループが声をあげたのです。その動きは徐々に広まり、様々な地域で実験が行われました。このような運動は今では「実験哲学」と呼ばれる分野になっています。実験の結果として、素朴な直観がある程度一致している場合もあるのですが、文化や居住地域によっても異なったり、哲学者と一般の人でも違いがあったりすることがわかり、その点が強調されました。

 2010年頃、これまで自身の直観に頼っていた哲学者たちの間には、今後どうすればいいのかという議論が吹き荒れていました。私は認識論の専門家として、哲学の方法論や学問の方法論にも興味がありました。学問の方法論とは、知識をどのように積み上げていくかという点に関わりますので、認識論と関心を共有する分野です。哲学の方法論に関して、哲学ではこれまで哲学者の直観を出発点としていると言われていましたが、本当にそれが正しいのか、あるいは直観に依拠しつつもより良い方法があるのかといった点を検討し始めました。

 それまでロボットに関する研究は全く行っていませんでした。しかし、その後大阪大学の石黒浩先生(石黒  浩 氏 大阪大学先導的学際研究機構 共生知能研究センター センター長/大阪大学 栄誉教授。)というアンドロイドで非常に有名な先生が統括されていたGCOEの「認知脳理解に基づく未来工学創成」というプロジェクトにお誘いいただきました。これは、工学系だけでなく医療系や心理系の方々などもいらっしゃる学際的なプロジェクトで、ロボットと人間のインタラクションについて多方面から考えることを目的にしていました。哲学者を雇用したのは、学際的な研究の方法論を考えるという意図がもともとあったようなのですが、現場に入るとロボット工学の研究に役に立つような研究もしたほうが良いということになり、様々な試みを行いました。失敗したプロジェクトもいくつもあります。特に日本のロボット工学者と関心を共有できるような問題を見つけるのには苦労しました。例えば、海外のロボット倫理学の1番の問題は、「自動ロボット兵器の問題」で、賛否両論を含めて研究されています。ロボット兵器の開発が進んでいるので当然ですが、日本ではロボット兵器の研究はそもそも行われていません。そこで、日本で研究がさかんなソーシャルロボットやコンパニオンロボットを対象にしたプロジェクトを考えるようになりました。

 その中で2つ、今も継続しているプロジェクトがあります。1つ目は、信頼をテーマにしています。信頼は、哲学だけでなく、心理学・医学・経済学・教育学など多数の分野が扱う大きな分野です。その中の1つには、ロボットへの信頼を対象にした研究分野もあります。ただし、各分野でそれぞれの研究がなされていますが、相互に交流がほとんどないのです。そこで、ほかの人達と一緒に、多数の分野の信頼研究の知見を持ち寄って、活かせるところをお互いに活かすプロジェクトを考えました。そのプロジェクトで私が担当したのは、ロボットへの信頼に関する現在の研究をまとめることでした。ロボットに対する信頼は人に対する信頼と異なる点もあります。

 人間に対する信頼性は、付き合いながら徐々に上がったり下がったりしますが、一般ユーザーがロボットを相手にした場合は、最初は信頼が高いのですが、1回でも失敗すると極端に下がってしまうことがあります。このように、人間に対する信頼のパターンとロボットに対する信頼のパターンは異なることが指摘されています。このように、ロボットのより良い設計を考えるためにも、ロボットに対する信頼をどのように築くのかを研究するという分野が徐々にできています。

 もう1つは、ソーシャルロボットやコンパニオンロボットについての倫理的な問題を考えるというプロジェクトです。中でも、自動運転車は最も大きなコンパニオンロボットですので、自動運転に関する倫理的問題は考える必要があると思い、研究を始めました。

ー 自動運転技術の倫理問題として話題になることの多い、「トロリー問題」について教えていただけますか

 トロリー問題は、「暴走するトロリーの路線上には追突必死の作業員5人がいる。運転手がその5人を救うために、1人の作業員のいる路線へとトロリーを車線変更すれば、5人の生命は助かるが、1人の生命は失われる」などといった、道徳的なジレンマ状況に関する問題です。トロリー問題を初めて提唱したのは Foot(1967)ですが、哲学の歴史とともに、様々な哲学者達がバリエーションを増やしていき、数多くの例題があります。現在では、このトロリー問題は自動運転車の倫理を考える際の重要な問題の1つとして認知されています。例えば、ドイツ連邦交通・デジタルインフラ省が2017年に発行したガイドライン自動運転技術の開発、実装、使用ガイドラインでは、明確にトロリー問題に言及しており、自動運転技術が克服すべき課題として認識されています。

 「衝突が避けられない状況に遭遇した場合、どのような判断をするのが適切なのか」という問題は、「どのような判断基準を持つように自動運転車を設計すべきなのか」という議論を提起します。自動運転の倫理学という分野はすでに学際的になっていて、工学者は工学の興味で自動運転の倫理を考えていますし、政策担当者や法学者なども関与しますので、様々な知見が混在しています。これまでもトロリー問題は倫理学分野だけでなく様々な分野で論じられてきましたが、その分野の関心や事情を反映しているため、相違を持つ複数の問題を扱っていることが多いです。実は、哲学者の中でも、それがどのような問題かについては異なる見解があります。詳しくは、(笠木, 2021)でまとめました。

 普遍的な答えが期待されているかもしれませんが、人種や文化、利害関係や責任、保障の義務などの状況によって、自動運転車の行動についての判断は異なることが「モラル・マシーン・プロジェクト」(Awad et al. 2018)と呼ばれる、世界各国の人々を対象に行われた実験プロジェクトを通して明らかになっています。例えば、欧米のような個人主義的文化圏の人の方が、アジア・オセアニアなどの共同体主義的文化圏の参加者よりも、より多くの生命を助け、特に若者を助ける選択肢を選ぶ傾向性が強いと報告されています。また、経済指標や法の支配指標が高い国の参加者ほど、法律を守らずに横断している人を助けない選択肢を選ぶ傾向性が強いとも報告されています。さらに、女性を助けると判断する傾向性はほとんどの国で強いですが、女性の出生率と平均寿命が男性より高い国の参加者ほど、その傾向性は強いという結果も出ています。

 自動運転のトロリー問題への関心は、倫理的な判断を自動運転技術に組み込むため、人工知能のアルゴリズムをどう設定するのかという問題として理解されるのですが、大きく3つの考えがこれまでに検討されています

 1つ目は、「損害の総量がもっとも少なくする功利主義的なアルゴリズム」(Awad et al. 2018)です。このアルゴリズムでは、自動運転車の事故に関わる全ての関係者が被る損害の「総量」が少なくなるような判断を出力することを想定しています。自動運転車の事故によって、多くの関係者が大小の損害を被りますが、特定の人物に対する損害を重要視することはできず、またどの人物の視点を採用するかによって判断も変化するため、損害を定量化し、その総量が最少となるアルゴリズムを作るべきであるという考え方になります。

 2つ目は、「マキシミン・ルールに基づく社会契約主義的な自動運転のアルゴリズム」(Leben 2017)です。このアルゴリズムでは、事故によって発生する身体的な損害の少なさ、つまり生存確率を最悪の損害とした上で、マキシミン・ルール(ゲーム理論で用いられる用語。 行為者にいくつかの選択肢があるとき、 それぞれの選択によって最悪でも得られる利益に着目し、 最悪の場合の利益が最大になるものを選ぶ戦略。)を自動運転に適用します。各選択肢においてもっとも生存確率が低い人物や集団の生存確率を比較し、犠牲となってしまう人がなるべく少なくなるような選択肢を出力するアルゴリズムが最善であると提案しています。

 3つ目は、非常にシンプルなアルゴリズムとして「ハンドルをきらずブレーキだけをかける」(Davnall 2020)という挙動を提案しています。自動運転車がセンサーから得る情報は限定的であり、路面や交通状況も予想できないか、予想できても適切な操作ができないようなものであることも多いです。このため、最善の選択肢がブレーキをかけながらのハンドル操作を含むならば、予想できない損害が生まれやすいため、一旦ブレーキだけをかけて停止した方が良い、という考え方です。

 トロリー運転を中心に自動運転の倫理を考えることには批判もあります。例えば、自動運転には予測システムがあり、トロリー問題のように犠牲が止むを得ない状態に陥っている時点では、既にシステムが誤作動を起こしている可能性が高いです。問題が起こるような状況に陥った後で自動運転を用いること自体が実はおかしなことで、普通に予測プログラムが動いていればそのような状況は事前に回避されるはずです。最も大切なのは、トロリー問題が起こる状況に陥らないためのシステム設計ではないでしょうか。

【参考文献】
Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., … & Rahwan, I.(2018). “The moral machine experiment.” Nature, 563(7729): 59-64.
Davnall, R.(2020). “Solving the single-vehicle self-driving car trolley problem using risk theory and vehicle dynamics.” Science and Engineering Ethics, 26(1): 431-449.
Foot, P.(1967). “The problem of abortion and the doctrine of double effect.” Oxford Review, 5: 5-15.
笠木雅史(2021). 自動運転の応用倫理学の現状と課題:自動運転車とトロリー問題. 日本ロボット学会誌, Vol.39, No.1, pp.22-27.
Leben, D.(2017). “A Rawlsian algorithm for autonomous vehicles.” Ethics and Information Technology, 19(2): 107-115, 2017.

プロフィール(インタビュー当時)

笠木  雅史 氏

広島大学人間社会科学研究科・総合科学部准教授。1976年三重県生まれ。2010年University of Calgary, PhD Program修了。PhD (Philosophy)。University of British Columbiaポスドク研究員、大阪大学特任助教、日本学術振興会特別研究員PD(京都大学)、名古屋大学特任准教授を経て、2021年より現職。専門は分析哲学、実験哲学、ライティング教育。

アカリクを利用するメリット

17万人以上の大学院生・理系学生の就活をサポート
してきたアカリクならではのサポートが充実!

  • 理系・院生特化のスカウト

    研究内容の登録だけでスカウトが届くため、忙しい研究の中でも効率的に就活を進められます。あなたに魅力を感じた思いがけない企業との出会いも!

  • 分野別の特別イベント

    メーカー、IT、コンサル業界を中心に、大学院生を求める優良企業と出会えるイベントを多数開催!オンライン開催のため、忙しい研究のスキマ時間にも気軽に参加できます。

  • プロに就活相談

    大学院出身のアドバイザーがあなたの就活を徹底サポート!マッチする企業や、推薦応募可能な企業をご紹介。個別のES添削や面接対策も行っており、選考対策もバッチリ!

インタビュー企業インタビュー
お役立ちコンテンツ|アカリク
タイトルとURLをコピーしました