自動運転AIのトレーニングに「トロッコ問題」は不要!? / Credit:Canva

現在、世界中で「自動運転車」の開発が進められています。

しかし、人間のドライバーに代わって、走行中に適切な判断を下せるシステムを作り上げるのは簡単ではありません。

特に問題となるのが、道徳的な判断をどの様に下すかという問題です。

例えば、人を轢きそうな危機的状況でハンドルをきる場合、歩道に向けてきるか、対向車線へきるか、ブレーキのみにするか、どう判断すればよいでしょうか?

こうしたAIの道徳判断には、有名なトロッコ問題が利用できるという研究者もいます。しかしそれは実際役に立つのでしょうか?

アメリカ、ノースカロライナ州立大学(NC State)哲学・宗教学部に所属するダリオ・チェッキーニ氏ら研究チームは、AI(自動運転システム)がより道徳的な判断を下せるようトレーニングするための新しい実験を開発しました。

しかし、彼らはこのトレーニングに人々の道徳観を明らかにする思考実験「トロッコ問題」はあえて採用しませんでした。

彼らによると、「トロッコ問題」は自動運転車の判断能力を向上させるのに、不適切なのです。

研究の詳細は、2023年11月29日付の学術誌『AI & Society』に掲載されました。

目次

人々の道徳観を明らかにする「トロッコ問題」トロッコ問題は現実的ではなく、その結果はドライバーの道徳的な判断を反映していないドライバーの道徳的な判断が反映される「交通問題」を開発

人々の道徳観を明らかにする「トロッコ問題」

トロッコ問題とは、「ある人を助けるために他の人を犠牲にすることは許されるか?」という倫理を扱う思考実験の1つです。

例えば、次のようなストーリーが提示され、多くの回答者を悩ませてきました。


トロッコ問題のイメージ / Credit:McGeddon(Wikipedia)_トロッコ問題

制御不能になったトロッコが線路の上を走っている。

このままでは前方の5人の作業員がひき殺される。

あなたの近くには進行方向を切り替えるレバーがあるが、レバーを切り替えると、その先の線路にいる1人の作業員をひいてしまう。

あなたはレバーを切り替えるか?

もしレバーを引けば5人の命を救うことは出来ますが、あなたには自分の手で1人を殺したという責任がのしかかることになります。

もちろんこれは事故なのだから、何もせずに見過ごしたとしてもあなたに責任は無いはずです。しかしレバーを引かなかった場合、あなたは救える5人の命を見捨てたという後悔に苛まれるかもしれません。

トロッコ問題に関しては、線路に石を置いて電車を脱線されば全員救えるとか、頓知の問題にしてしまう人を多く見かけますが、これはトロッコを止めるための頓知をしているわけではありません。

「5人を助けるために1人を殺してもよいのか」という人間の道徳観を調べています。正解があるわけではなく、こういう状況に対してどういう判断を下す人が多いかを見ることがトロッコ問題の目的です。

そのため何かしら理由をつけてトロッコ問題の回答自体を拒否する人が多いという事実は、犠牲と責任が伴う局面で人間が自分の意志で判断を下すことがいかに難しいかを示していると言えるでしょう。

このトロッコ問題には、犠牲者の条件を変えたさまざまな亜種の思考実験も存在します。

その中には、人数を比較する以外の要素が含まれます。例えば次のような問題があります。

男性と女性のどちらをトロッコでひくか

イヌと人間のどちらをトロッコでひくか

子供と高齢者のどちらをトロッコでひくか

大切な友人と見知らぬ人のどちらをトロッコでひくか

また、トロッコではなく、回答者を車のドライバーと想定し、衝突が避けられない状況で2択を選択させる問題もあります。

急に飛び出した歩行者に突っ込むか、ハンドルを切って交通ルールを守っている歩行者に突っ込むか

歩行者に突っ込むか、それともハンドルを切って対向車に突っ込むか


ドライバー版「トロッコ問題」 / Credit:Canva

さきほども言った通り、このようなトロッコ問題には「正解」は存在しません。

トロッコ問題とは、「回答者の道徳観の傾向を明らかにする」ためのものであり、決して「命を効率的に救うための問題」でも「どちらかの選択の正当性を評価する問題」でもないのです。

実際、トロッコ問題で人々がどのような判断を下すかは、育った国・文化・宗教によって、大きく異なります。

とはいえ、トロッコ問題が「人間の判断の傾向を明らかにするもの」であることには変わりありません。

一方、現実世界のドライバーたちの判断にも、特定の傾向があるはずです。

そのためトロッコ問題は、人間レベルの自動運転システムの開発を目指すうえで、「AIの判断基準をどのように設計するか」という問題と関連しているように思えます。

チェッキーニ氏も、「近年、トロッコ問題は交通における道徳的判断を研究するためのパラダイム(典型的な例、モデル)として利用されています」と述べました。

では、AI(自動運転システム)の判断能力を向上させるために、トロッコ問題が本当に役立つのでしょうか。

(広告の後にも続きます)

トロッコ問題は現実的ではなく、その結果はドライバーの道徳的な判断を反映していない

AIに人間のドライバーのような判断能力を持たせるためには、膨大なデータを与えてトレーニングする必要があります。

では、多くの人にトロッコ問題を行わせて、その判断結果を用いてAIをトレーニングするなら、AIの判断能力は向上するのでしょうか?

チェッキーニ氏ら研究チームは、「そうはならない」と主張しています。

なぜなら、トロッコ問題の結果は、人々の差別的な考えを反映している可能性があるからです。


トロッコ問題は2択であり、必ず誰かを優先する。回答結果は、地域や文化、宗教の影響を受けるため、その中に含まれる差別的な考えを排除しきれない / Credit:Canva

例えば、ある種のトロッコ問題では「男か女か」「子供か高齢者か」を必ず選ばなければいけません。

これらの結果の傾向は時代や地域で異なります。

そして実験を行った時代特有の、もしくは地域特有の偏見や差別的な考えを排除しきれないのです。

また、トロッコ問題を用いるべきでない別の理由として、トロッコ問題には「生態学的妥当性」が欠如しているという点が挙げられるようです。

生態学的妥当性とは、限定的な条件で行われた研究結果が、現実の幅広い局面でどの程度通用するかを示すものです。

これについて考えた場合、トロッコ問題のような限定的な条件は現実ではほとんど生じないため、実践的なデータとしては利用できずAIのトレーニングに向かないというのです。


トロッコ問題はリアリティに欠け、回答者の心境は実際の状況と大きく異なる / Credit:Canva

確かに、「ドライバーが死ぬか、歩行者が死ぬか」「大人をひくか、子供をひくか」といった絶対的な2択が生じる状況など、めったにありません。

そのため、ほとんどの回答者は、問題に回答しようと悩んでいる時でさえ、人の命が本当に失われるかのような深刻な気持ちにはなりません。

むしろ、トロッコ問題をゲームのような感覚で「楽しみながら」回答する人の方が多いでしょう。

当然、それらの結果を集めて、AI(自動運転システム)をトレーニングしたとしても、人間の道徳的な判断が反映されることはないのです。

研究チームはこうした考えから、AIをトレーニングする際に、あえてトロッコ問題を排除しました。

そして彼らは、ドライバーが日々直面している、より現実的な判断に注目しました。