0

ハンドルを切ったのは誰なのか?

人工知能社会での「倫理」を問う──英国発・AIシンクタンクの挑戦

社会に浸透しつつある人工知能(AI)が事故を起こしたときに、果たしてその責任は誰に問えばいいのだろうか? 英国に誕生した「Leverhulme Centre for the Future of Intelligence」は、そうした倫理問題に取り組み、AIの未来を議論するために専門家たちが集うシンクタンクである。

人工知能が事故を起こしたとき、その責任は誰に問えばいいのか。

自動運転が次第に身近なものになりつつある中、よく見かける問いである。人工知能に人格を認めるのかどうか。認めない場合、ドライバーが責任を負うのか、それともそのアルゴリズムを提供した自動車会社(あるいはプログラマー)なのか。

判断するのは簡単ではない。そんな気がしてくる。

しかし、この問いはさらにややこしい問題を含んでいる。「なぜ、私たちは他者に責任を問うことができるのか?」__こういう問いだ。別の視点から見れば、人間の倫理や、道徳はどのように機能しているのか、という話でもある。

近頃の脳神経学では、「人間には自由意志などない」と主張する声がある。デイヴィッド・イーグルマンの『あなたの知らない脳』(早川書房)は、まさにそんな本だ。

あなたの知らない脳 意識は傍観者である (ハヤカワ文庫NF)
デイヴィッド・イーグルマン [早川書房 2016]

この本では、人間の行動の決定権は意志なんぞが持っているわけではなく、脳のネットワーク的状況で決定してしまうので、犯罪を犯すような人は「ほかの行動は取り得なかった」ものとして扱われるべきだ、と説く。だから、犯罪は非難の対象ではない、と。

ここでAIの自動運転について考えてみよう。その自動運転アルゴリズムは、間近に迫っている衝突事故を予測し、車に乗っている人間の命4つと、脇道を歩いている人間の命1つを、functionLifeBalance()か何かに投入し、結果的にハンドルを切ることを選択したとしよう。今、選択と言ったが、そのアルゴリズムには実際には「選択の余地」はなかった。放り込まれる変数は決まっていたのだから、出てくる答えも決まっている。よって、そのアルゴリズムは何も選択していない。自由意志はどこにもない。

だから、そのアルゴリズムに責任は問えない。

そしてもし、人間には自由意志などなく、そのアルゴリズムを組んだプログラマも他の選択の余地がなかったのだとして、そのプログラマに指示を与えた経営者も他の選択肢がなかったのだとしたら、さて、責任の所在はどこにあるのだろうか。一つ納得いく答えは、責任など存在しない、というものだ。

はたして、それで良いのだろうか。

私たちが車のハンドルを握って運転し、その自動運転アルゴリズムと同じ状況に遭遇したとき、ハンドルを切る(あるいは切らない)という判断はどのように生まれているのだろうか。それは単なる反射的行為なのだろうか。自由意志や道徳的判断や責任についての考慮は、そこには一切入っていないのだろうか。

車には自分一人しか乗っておらず、道路脇に四人がいたときはどうだろうか。そのときハンドルを切るのは、「緊急避難」として認められるだろうか。あるいは心神の喪失を主張できるだろうか。できないとき、彼は何をしたと言えるのだろうか。

あるいは、そのときハンドルを切らない判断をしたドライバー(アルゴリズム)は、英雄的行為を行ったのだろうか。それとも、それは単なる反射であって、称賛に値するものは何も存在しないのだろうか。

人工知能の「倫理」を問うことは、翻って私たちの「倫理」を問うことでもある。もう少し言えば、倫理を守る行為、道徳的行為について思索することだ。それがどのように生まれ、どのように機能しているのか。

一方脳神経学の知見も、同様の問いを迫ってくる。私は何をどのように捉え、そこからどんな行動を導いているのか。そこに意志は介在できるのか。

今、私たちという存在は、まったく別の側面から「人間的行為」「人間とは何か」について攻撃されている。そして、その問いに答えなくても、間に合わせの技術だけはひたすら進歩していくのだ。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です