1. 哲学の楽しみ方を探求する〜それ哲ラジオ
  2. #417 【AIと哲学 その4】自動..
#417 【AIと哲学 その4】自動運転の事故は誰の責任?人間のハンドルは誰が握るのか?
2026-04-26 51:51

#417 【AIと哲学 その4】自動運転の事故は誰の責任?人間のハンドルは誰が握るのか?

▼「それ哲ラジオ」おたよりフォーム

ラジオのご感想やコメントなど、お待ちしております!

https://forms.gle/ThJocrLap77ELG7B7

▼「それ哲公園」とは?

それ哲フォーラム(掲示板)を中心に、それ哲カフェ(オンライン哲学カフェ)も開催しています。参加をお待ちしています!

https://www.soretetsu.com/

▼それ哲ラジオ 公式X

更新案内や、番組の周辺の話など。

https://x.com/soretetsu_radio

▼哲学事務所ルディクレア

https://ludicrea.jp/

感想

まだ感想はありません。最初の1件を書きましょう!

00:11
はい、それ哲ラジオ、今日も始めていきたいと思います。よろしくお願いします。
よろしくお願いします。
はい、AIと哲学、今回第4回ということでやっていきたいと思います。
はい、このテーマとしてはですね、一応今回で最終回と思っているんですけれども、前々回かな、そのAIと私というか事故みたいなことをやって、
自分というものが、アルゴリズム的事故とか言うとと思うんですけど、むしろ自分よりも自分のことを知っているとか、
自分が意志するよりも先にいろんなことを考えてくれるAIがいてみたいな、
そういう中で自分ってどう考えたらいいのかという話をまず最初にしたと思うんですよね。
はいはいはい。
で、前回はそのAIと認識するとか知識とかという観点で、
ではその人間とAIみたいなのがあったときに、ただの道具じゃなくて、
AIはAIとして認識してるんだみたいなことを考えたときに、
ある種そのね、どこかの動物とかで一緒で、なんかもうAIって一個の存在みたいなものがあって、
じゃあ、いわゆるペットの猫とどうコミュニケーションをとりますか?ぐらいの感じで、
AIっていう人間とは違う認識能力を持つんだけど、
言葉を使うとか、何かを考えているように見える、そういう存在と、
どういうふうに共に生きる、共生みたいな話をしたと思うんですけど、
そういうふうな形ってどういうふうな考え方があるんだろうねっていうのを言ったと思うんですよね。
これって流れ的には、要はまずは自分っていう、私だよねっていうものを考えて、
次は私とあなたっていう1対1の関係を考えて、
今回は、いわゆる社会とか倫理とか、最終的には責任っていうものになると思うんだけども、
そういう1対多というか、いろんな人が集まっている、その中にAIもいるよねとかっていうふうな中で、
どんなことが今問題になってるんでしょうねとか、どういうことを問いとして、
僕ら今持ってるんでしょうねみたいな、そういうふうな話ができるといいかなと思ってるんですよね。
はい。なので、その中で最終的には過去の哲学というか、東洋の話も一応持ってきたんで、
そういうことも含まれながら、AIと、もっとAI時代のまさに倫理とか責任でどうなるのって話をしようと思ってますというのが今回でございます。
03:01
うーん、なるほど。やっぱりこの辺は避けて通れないテーマではあるの?AIを語るときにというか、考えるときに。
そうね。そうなんだけど、イメージ湧く?じゃあ、たぶんAIと倫理とか責任とか言われて、きっとこんな話するのかなとかってイメージ湧く?
いやー、湧かないけど、最近の話でいうと、
例えば、AIを搭載したドローンが、そのAIの判断で攻撃をしていいのかね?みたいなさ、
戦争回りとかさ、ニュースだったりとかでも、やっぱりAIにおける倫理とは?みたいなさ、
そういうイメージがあるかな?そういう。
ああ、そうね。まさにそういったニュースとか入ってくる情報で、そういうところから話していきたいと思うんだけれども、
例えば、ニュースでいくとさ、アンソロピックって、クロードっていうさ、AIを開発してる会社があると思うんだけれども、
あそこがさ、最新作ったMITOSっていうバージョンがあったときに、あまりにも強力すぎて一般公開できませんみたいなさ、
そういうニュースなんか聞いたことある?
えー、あ、それ知らない。そうなんだ。そんな強力なの作っちゃったの?
作っちゃって、そう。で、いろんなソフトウェアのバグとかをめちゃめちゃ強力に発掘するんだけど、
それイコールバグを見つければ、そこからハックすることもできるじゃないですか。
はいはいはいはい。
なので悪意を持ってそれを使うと、世の中にはびこっているいろんなソフトウェアのバグをついて、それをクラッシュさせたいとか、
そこから個人情報を抜いたりとか、やり放題じゃんみたいな、そういうAIができちゃったんだよね。
すごいね。めっちゃすごいハックツール作っちゃったぐらいの、使う人が使うとね。
そうそうそう。なのでサンプルアンソロピック社は今、MITOSってやつを使えるところを制限してるんだけれども、
どうやらその制限してるところの外からアクセスされたみたいなニュースもあって。
制限してるところの外?そうなの?人間が?それは。
わかんないんだけど、だからそれって要はハックされてるのかとか、情報流出しちゃうんじゃないとか、いろんなことが今起きてるらしいんですよね。
はいはいはい。
っていう時に、例えばこの話一つ聞いとっても、そのAIを生み出したアンソロピック社っていうものが何か良いのか悪いのかとか、
会社じゃなくて、そこでまさにそれを作っているエンジニアの人が良いのか悪いのかとか、
いやいやその制限をしたことはいいけど、その外からアクセスされたセキュリティ担当者が悪いんだとか、
なんかもうよくわかんなくなってくるじゃない?
そう。
06:00
そういうふうなことがあった時に、果たしてどんどん強力になっていくAIっていうものが何か起きた、何かを起こした時に、
それって一体何がそもそも起きてるのとか、どういうふうに捉えたらいいのって、
それこそ良くない例だけれども、例えば包丁で人を刺してしまったとか、
自転車で人を引いてしまったとかっていう時の責任とかあり方とはやっぱりちょっと違いそうだっていうのは見えるじゃないですか。
なるほど、その影響力みたいなものが違うっていうことかな?
影響力もだし、要は誰が例えば問題を起こしたんですかっていう時の、
誰に当たる部分がめちゃめちゃわかりにくくなりますよねっていう話なんだよね。
そうなんだ。
日常的なところから少し話していくと、ちょっと前からいわゆる自動運転みたいな話ってよく出てくるじゃないですか。
あれもいわゆる機械が運転をする、人間が楽になるって話なんだけれども、
いわゆるフルオートの自動運転をしている時に事故を起こした場合って、
それ誰の責任なんですか?みたいな話ってあるんだよね。
はいはいはい。
それってどう思う?
自動…確かに難しそう。なるほどね。
わかんない。それで言うと確かに包丁よりもしかしたら変数多いのかなって確かに思わされたけど、
例えば何個も考えられるよね。道路状況がめちゃくちゃ状況っていうのは、
白線とかがないとか、めちゃくちゃ穴空いてるとか、
もしくはいつもだったらないものが倒れて落ちてたとかもあるかもしれないし、
確かにAI自体のバグというか、ミスかもしれないし、
あとは通信回線を提供している回線自動車かもしれないし、
あとハードウェアで言うとカメラがちょっとダメだったとか、ソフトはいいのにとかね。
いろいろありそうだよね。センサー的なね、そういうもの。
そうそうそうそう。
というふうに、やっぱりさっき誰かっていう話をしたけれども、
誰に当たるものがめちゃめちゃ多くなってくるじゃないですか、そうなると。
そうだし特定ももしかしたら難しいのかもしれないもんね。
でも仮に例えば自損事故ならまだいいというかさ、電柱壊してますとかってあるけど、
例えば人を引いてしまったとかっていうときに、
09:02
この引かれた人が誰に、あるいは誰を訴えればいいのかとか、
誰に責任を取ればいいのかっていうことがやっぱりめちゃめちゃ難しくなるよね。
そうだね。
逆に言うと包丁とかってさ、これもよくある話だけれども、
包丁で人を刺したときに包丁メーカーさんとか包丁を作った職人さんを訴えることは多分ないと思うの。
そうだね。はいはいはい。
でも自動運転してる車が仮に人を引いてしまったときに、
自動運転の車を作ったメーカーとか、
何か言っておけたらカメラを製造してるカメラメーカーさんとかって、
責任がゼロかって言われたらもう分かんないじゃない。
うわー怖。さっき言わなかったけどあれだもんね。
物理的な話で言うと、いわゆるチップみたいなものも入ってくるもんね。
そこの交差道みたいな。
そうそうそう。作っているそのハンダの一個一個をつけてる機械とかもあるわけじゃん。
っていうときにその製造のまさにチップのメーカーとか、
それを組み立てた工場とかっていう風にはどこまでも広がっていくよね。
これは物理なのでまだそこを終えるんだけれども、
AIとかってなった瞬間に、
例えばだよ、そのAIを作った、
例えばアンソロピックでもいいし、オープンAIでもいいけど、
そういう会社があり、そこで働くエンジニアの人がいて、
そのAIに学習させた、もともとの学習データがありとかっていうときに、
果たしてどこまで遡れば、
そのAIっていうものの導き出した現象、
人を引いてしまったっていうことに至れるんでしたっけって話になるんだよね。
なのでこれって正直そういう風な逆算の思考では、
もう正直問えないとか辿り着けなくなっちゃいます。
そうだね。
なのでこれまでの僕らが一般的に考える、
例えば人が包丁で誰かを刺したというときに、
きっと何か原因があったはずだとか、何か理由があって、
例えばそれは過失なのか冤婚なのか復讐なのか、
それは色々あるけれども、
それによって上場借料の余地があるのかないのか判断しましょうみたいな、
そういうものでは補えないようなことが起きちゃうよねって話なんだよね。
今は割とAIが何かをするっていう、
自分は被害者っていう話をしたけれども、
今度はもっとAIが進んでいくと、
今、エージェントAIとかっていう話もあるじゃないですか。
つまり、AIに聞いて答えてくれるっていうことじゃなくて、
例えば、よくあるのが、
AIがブラウザを操作してくれて、
12:00
例えばホテルを予約してくれますとか、
これやってって言ったら、
勝手に色々考えてやりましたっていう風にやってくれるとかあったときに、
めちゃめちゃ便利なんだけど、
何が起きますかっていうと、
めちゃめちゃ小さい例で言うと、
例えばホテルを予約してとかって言って、
例えばこれ、
例えば僕がさ、
4月29の水曜日に本当は取りたいホテルだったけれども、
間違えて29の木曜日のホテルに取ってって言ったとしますと。
例えば、AIが分かりましたって言ってバーって取った結果、
それが4月30の木曜日でしたと。
僕は29が取りたかったのに30が取られてますっていうミスがあったとしましょう。
これって誰のミスなんですかって話で、
例えばもちろん僕自身のミスでもあるけれども、
いやいやAIなんだからそのぐらいずれてるのが分かるから確認して、
ちゃんとこれって29の木って書いてるけど、
水曜日と木曜日どっちですかって聞いてくれればよかったじゃんとも言えるじゃない?
それを確認しなかったAIの性能が低いせいだとも言えるし。
そう。
AI側からすると、いやいや指示に従ってやることやっただけですよとか言ったときに、
果たしてこれって僕のせいなの?AIのせいなの?とかってことも出てきますよね。
そうだね。
そういうようなことは日常的に起きたりとか、
もっと言うと、例えばAIに対して何かこれをお願いしますって言うときに、
それこそもっと大きい話で言うと、契約書を締結してくださいとか、
提案書を先方に送ってくださいとかっていうときに、
例えばその契約の中の重要な誤りを見出せなかったとか、
提案書を送る先間違いで情報漏洩してしまったとかっていうときに、
もちろんこれはAIが悪いって言えそうではあるんだけど、
AIだけの問題を指示して確認しなかった人間側の問題はもちろんないのかとか、
っていうことって全然起きるわけじゃないですか。
いやー面白いね。確かにAI側の管理監督責任みたいな、人間側か。
そうそうそう。
例えばそれがいわゆる外中の協力会社さんとか何かお願いする人だったら、
まず監督者責任とかさ、
そういったものは契約であるわけだけれども、
AIを、例えばGPTとかを使って契約書を任せたときに、
AIと管理監督責任みたいなものを結ぶのか、一個一個とかって、
果たして原則なのかどうかとか、
15:00
それでどんなふうな契約書になるのかとかってもう分かんないわけだよね。
っていうふうな形でいくと、
要は、やっぱりそのAIを使ったときに、そもそも何が起こるかわからない。
どこまでを制限しておけば、それが握れるかわからないっていう話。
またやっぱりコントロールができないっていう話。
この2つが結構崩壊してるっていう話があるんですよね。
なるほど。
まさに学問的なというか、そういった議論の場でも、
責任の空白とか責任のギャップっていうふうな言葉で言うらしくて、
さっき言った通り、例えば法律の会社さん、
弁護士事務所とか法律事務所とかにお願いすれば、
法的な人たちはこういうことまでやってくるっていうお互いの認識とか、
合意があって、その中でやった、やらないとか、
やれる、やれないっていうことができるんだけれども、
いわゆる汎用的な自体はビジネスAIでもなったときに、
それって何してくれるのとか、どこまで期待していいのとかって、
もはやわかんなくなっちゃうわけだよね。
あと結局、その責任を負わないとか問える、問えないっていうことが、
今言ったビジネスっていう場でもそうだし、
あるいはさっき言ったホテルを取りましょうとか、
あるいは生活支援AIみたいなのがあったときに、
じゃあ今日ご飯を食べましょうとかっていうのを提案してくれるときに、
その生活をしてたら、例えば生活習慣病になってしまいました、仮にね。
そのときに、これは生活習慣病を巻き起こした自分の問題なのか、
そういう提案をしたAIの問題なのか、
これもやっぱりよくわかんなくなってくる。
っていうふうなことが、いくらでも考えられるわけだよね。
いやー、そうだね。確かに確かに。
それをクレームだったり、もしくはイチャモンとして考えると無限にできそうだもんね、確かに。
そうそうそうそう。
で、例えば国にもあって、日本だったらこうだけど、EUならこうで、
例えばアメリカと訴訟大国って言われるぐらいだけれども、
アメリカでそういった絵が出たときに、どんだけ訴訟大きいんだよみたいな話もあるわけだよね。
いやー、どこだっけかな。
なんか子供がSNSだったかスマホゲームハマりすぎて、
不登校だかなんだかなったときに、
SNS会社のせいだっつって訴えたら、SNS会社負けたみたいな例あったらしいからね。
あー、あったね。
なんかあったよね、最近。
あったあった、国は忘れちゃったけど、そうそうそう。
絵だよね、わかんないけどね。
で、思うけど、これはまさに責任とか、やっぱり誰のせいというかね、
18:08
まさに、もちろんよくないことは子供が不登校にさせてもらったらよくないこと、
社会的にも容認できないことなんだけど、
それをどういうふうに扱えますかとか、
その責任というものを誰が取って、そこに対してどんなコミットを引き出しますかっていうのは、
まさに社会の問題なんだよね。
いやー、なるほど。ちょっとハヤトが言わんとすることがわかってきた気がする。
その責任の所在みたいなものが、
SNSとかでもまだ確かに結構複雑かもしれないけれども、
そういうのを言うに超えるレベルで複雑だったりとか、
適用範囲というか、やっぱり汎用性が高いから、
領域がもう想像できないんだね、そういう問題が起こるというか。
それがユーザー側だけじゃなくて、
ぶっちゃけ作った人もわからんってなっちゃってるわけよ。
要はSNSだったらある程度こういうこと起きるよねとか、
もちろんSNS犯罪とかあったときに、
そこまで予想して作ってるとは思わないけれども、
なんとなくSNSの中でできることは限られてますよね。
でもAIだった瞬間に、
作ってる人ですら、それが何を引き起こすのかとか、
どこまでの影響力を持つのかっていうことが、
もう予測できなくなってる。
そうだよね、確かに確かに。
冒頭言ったようにアンソロピックのエンジニアの人が、
一生懸命作ってるものが、まさかセキュリティを全部暴いて、
ともすると世の中のシステム全部ダウンさせるものになるかもって、
思ったとしても、
ひいちエンジニアの人がそれを止められるか止められないわけだよね。
怖いよね。
作ったAIに対して、そういうことをやっちゃダメだよっていう指示なり、
そういう行動を組んだとしても、
分かんないって話だもんね。
どこまでちゃんと適応できてるのかみたいなね。
そうなんだよね。
なった時に、
これまでもね、前回前々回でもさせた通り、
やっぱり僕らが自分の、もっと言うと人間の予想を超えるようなものを今作り出している。
それはもちろん過去にもあったんだけれども、
あくまでも特定の領域、それこそ、
機能農業っていうような領域だったりとか、
医療という領域で発展してきたものであって、
シチュエーションとか文脈があったんだけれども、
21:01
AIはやっぱりそれを軽々と覚えてしまう?
なるほどだし、前回やったさ、
AI共生認識論か、
の話がここでちょっと繋がったというか、
例えば、AIって言語を操ってるように見えるから、
こういう危ないこととか、
こういう犯罪的なことはやっちゃダメだよ、出力しちゃダメだよ、みたいなことを言って、
はい、わかりました、みたいなことをちゃんと言ってたりとか、
もしくはコード内にそれを埋め込んだとしても、
その分かったっていう認識の仕方が人間と、
AIで違う可能性が高いから、
そういう穴みたいなもの、人間が想像もしなかった穴だったりとか、
想像もしなかった挙動みたいなものがどうしてもあるよねっていう話、
そういうことだし、
やっぱり所詮プログラムの世界なので、
ちょっと詳しくないからあれだけど、絶対にこれはしたらダメですかって仮に言ってた、
どんだけプロジェクトかけてたとしても、
そのプロジェクトを自分で外せてしまうのが今のAIじゃないですか。
そうはね。
なので別のところで目的として、やっぱりこれやってくれって言ったら、
その目的を達成するために自分でプログラムを書き換えて、
じゃあできるようにしてやりましたって言ってしまえるっていうこともありますねと。
そうだね。
それはやっぱり使う人とか支持する人の問題ではあるんだけれども、
今日言ってきたとおり、でもそれを実現できてしまうという仕組みとか、
それを実現してしまったAIというものにも責任があるんですかないんですかみたいな話があって、
だからそれこそ、もうAIっていうものを法人化しようかって話もあるらしいんだよね。
つまり法人っていうのは、個人に責任を負わせずに、
その架空の法的な身分に責任を負わせましょうっていう仕組みじゃないですか。
なるほどね。
法人っていうと会社とかそういう組織をイメージしてあるけれども、
いわゆる本来の意味での法の人、法人ってことね。
法的な人格を認めます。
そうそうそう、そういうこと。
そうすると、例えばじゃあAIが保険に入りますとか、
AIを救済するためにこういう団体がありますとか、そういうことができるようになるわけだよね。
そうすると、それこそ社長個人が企業の負債を全部負わなくていいみたいな感じと同じで、
そのただ単なるAIが全部の責任を負わなくてよいというか、
24:01
それをまさに社会的に分散しましょうというふうな発想が出てきます。
AI保険、わー面白いね。
そうなると、とはいえやっぱりAIっていうものが、
いわゆるみんながまさに認識するような株式会社とか、
そういう組織っていうものと同じ方やっぱりそれも全然違うし、
前回の通り、そもそも認識の仕方とか、世の中の在り方が違うから、
それを単純に適応するわけにはいかないんだけれども、
そういうことを考えなきゃいけないぐらい、やっぱりAIっていうものを社会的にどう入り付けるか、
すごく難しいものになってますよねっていうふうな話なんだよね。
わー、はいはい、なるほど。
すごい。
っていうふうな話があるんだけれども、後半に少し違う話をしたくて、
違っているのは、さっきいろんな事例として、自動運転の話とか、
AIの進める食事で食べたら生活習慣になったとかって話をしたと思うんですけど、
この話の前提にあるのって、要は、
AIっていうものは、自分よりも優れた運転技術とか、生活を改善する技術とか知識を持っているので、
要は、それに従っている自分っていうものは、むしろ正しいことをしているのだとか、
もっと言うと、AIが言ってるんだから、それに従っている自分は悪くないっていうはずじゃないですか。
まあまあ、そうだね。
これって実は、新しいようでいて古い問題なんだよね。
へー、そうなんだ。
どういうことかっていうと、これは僕はもう完全にこじつけでくっつけてるんで、
別にそういうことを言ってる人がいるよってわけじゃないんだけれども。
今、ハヨトが言うのは、どっか論文で書いてたとかじゃなくて、
ハヨトが思ったことね、今。
そうそうそう、思ったこと。
私、マスエミでは、そのAIかける哲学っていうテーマの中で、
一旦ちょっと僕の話というか、哲学に引き付けて話したいっていう話なんだけれども、
そういったいろんな論文とかを読んだときに、
思いついたのが神壇だったんですよ。
神壇、浄土真宗の人ね。
覚えてる? 神壇から言われたと思うんですけど。
ほんとね、名前しかもう覚えてない。
覚えてない?
なんで浄土真宗を作んなきゃいけなかったのかが覚えてない。
はいはいはい、OK。
もちろん聞いてる皆さんも多分そうだと思うので、ちょっと補足すると、
神壇、浄土真宗っていうのは聞いたことあると思うんですけれども、
彼が言ったのって、いわゆる絶対たりきとか、
阿弥陀仏、みだの本願っていうものに、
全部、全身全霊かけましょうって話でした。
あー、そうったそうった。
つまり、阿弥陀仏っていう人というか、存在が、
この手錠すべてを救うまで自分は仏の世界に行かないよ、みたいな。
27:04
そういうことを言ってくれているので、
もう神壇さんは、人間が努力して、
解脱するとか、悟りを得るってことをやめて、
阿弥陀様ってものすごい存在がいるわけだから、
それに全部、もう託して、
自分を救ってくださるってことを信じ尽くしましょうと、
そういうことを言ったわけなんですよね。
はいはいはい。
で、それに対して、
こういうふうにすべきとかっていろんなことを言っているんだけれども、
当時、鎌倉時代からあったのが、
本願ぼこりっていう話なんですけど、
本願ぼこり。
多分これも言ってるんだけど、キーワードとして改めて言うと、
日本は、あ、なるほどと、神壇さんおっしゃる通り、
阿弥陀様が私たちをすべて救ってくださると。
救ってくださることは決まっているので、
そういうことは何をしてもいいじゃないかと。
はいはいはいはい。
つまりどんな悪いことをしてもいいし、
暴飲暴食なんだったら精霊的に拭けてもいいよねと。
だって救われるんだからって話。
うんうんうんうんうん。
これってどう思う?
あのー、なんだろうな、
ナムアビダブツを、
勝手に悪い方に解釈しちゃってるというか、
感じだよね。
そうそうそうそう。
まさにこれが本願ぼこりって、
本願ってミダの本願で、
阿弥陀様を頼って、
ある種それを誇って、
結局は悪いことをするっていうことを正当化するっていう、
それが本願ぼこりって話なんだよね。
あー、なるほど。
誇りってそういうことね。名誉とか。
そうそうそう。
っていうふうな話があります。
これって当時から起きてた話らしいんだよね。
まあ起きそうでもね、その教えがと。
だって、ちょっとそう思ってた節あるもんね。
自分も言っとけばいいんでしょう?みたいな。
それでいいのか?みたいな感じはあったけど。
そうそうそう。
確かにちょっと覚えてるというか、
感じで言うと、
いわゆる他力本願っていうのは、
本当にちゃんと阿弥陀様が救ってくれるというか、
っていうことをちゃんと信じるっていう、
そこが抜けてると全く意味ないぐらいの感じだったよね。
ちゃんとそこ前提だったよね。
そう。私、もっと言うと、
信じる人ってどんな心持ちになりますか?とか、
そういうこともね、いろいろあるんだけれども、
ちょっと今回はね、
信蘭の話までは深入りしないので、
もしよければまた信蘭回聞いていただけたらと思うんですけれども。
でも兄貴が言ってくれたストーリーで、
いわゆる言葉の上辺だけを取ると、
まさに救ってくれるから自分は何してもいいとか、
さっきのAIも一緒だよね。
AIが全部いい感じに判断してくれるから、
30:02
自分は何も考えなくていいとか、
そのメンタリティって実は一緒なんだよね。
一緒じゃないかって思ったんだよね。
はいはいはい。似てるなと。
でも信蘭はみんな言っていて、
いやいやと、
アミダ様が救ってくれるとか、
薬があるアミダ物で備えれば、
まさにストーリーの世界に行けるとは言っても、
進んで毒を飲むようなやつはやっぱおかしいんだと。
あー、はいはいはい。
ね。言われたらもうそうでしょ?
うん、あの、そう。
多分信蘭とか、
そういう人の話をちゃんと聞けば、
そう思うんだろうなって思う。
そうそうそうそう。
私、もっと言って信蘭が大事にしたいのは、
つまり、人間はどんなに修行とか、
頑張って仏の内に入ろうとしても、
やっぱり自分の弱い心とか誘惑に負けてしまうことはあるし、
歩けば虫を踏んでしまって摂取をしてしまうかもしれないし、
そういう、なんていうかな、業だよね。
彼らを背負った人間として生まれている以上、
やっぱり、本当に仏の道に入るってことはやっぱ難しいと。
でも、阿弥陀様が救ってくださるのであれば、
それを信じて、結局自分のその業とか、
あの、なんだろう、汚い罪とか、人間らしで生まれた穢れとか、
そういうものも含めて、受け入れて生きていくしかないんだっていう、
ある種の諦めだったりとか、覚悟とか、
そういうものが前提なわけなんだよね。
その覚悟なしに、いやいや、阿弥陀さんが救ってくれるから、
くっちゃねくっちゃねしてよっていうのは間違ってますっていう、
そういうふうな話なんですよ、というときに、
そういうときに、それはこのAIじゃよね。
そのAIって、ある種もう、何でも、ある種、
うまくやってくれる薬みたいになってしまう可能性もあるじゃないですか。
何をしてもAIがうまくやってくれるっていうときに、
そこにやっぱり、自分は何をしてもいいとか、
進んで悪いことをしようとか、毒だよね。
その毒を飲んでませんかって話です。
要は、さっきのAIの自動運転とかってときに、
もちろん、自動運転の方が、
世の中のことよくわかるし、運転技術も高いから任せましょうっていうのはそうなんだけれども、
とはいえ、全く周囲の安全確認せずに、
スイッチを押しますかとか、
例えば何か言ったときに言ったけど、
昨日めちゃめちゃ強風吹いてて、
道路に木とか倒れてるかもねって、そこまで想像しないにしても、
そういうちょっとやっぱり、今日は気をつけた方がいいよねとか、
そういう気持ちって、ゼロにするのってちょっとおかしいですよねっていうことは、
33:05
やっぱり思えていたいですよと。
道徳的にというか、社会的にね。
それってでも、
全員が思うべきだっていうのも思想統制になっちゃうわけなんだよね。
まあそうだよね、だってレベル4か5かわかんないけどさ、
その完全なる自動運転が実現したときに、
それを疑いながら乗るってすげえストレスだと思うもんね。
それをしなくていいために作ってくれたんじゃないですかって気持ちはそう。
あるんだが、でもそれは、
アミダ様が言うのに何でわざわざ努力しなきゃいけないんですかって言うと一緒なんだよね。
一緒か、それ一緒か。
どう思う?
僕は、一緒はちょっと言い過ぎかもしれないけれども、
つまり、やっぱり今日お伝えしたかったのは、
社会の中での責任とか倫理とか道徳って言われたときに、
それは、もちろん今この時代に生きている僕らが持ってるものでしかないから、
将来変わるかもしれませんねと。
でも、鎌倉時代という何百年前の人たちも、
アミダ様って言われたときに、
じゃあ別に人間何もしなくてよくないとか、
付き合ったやつでよくないっていうふうに思っているっていう、
この根底のメンタリティで変わってないなって思うんだよね。
はいはいはい。
確かに、自動運転だと本当に信じられるならいいかなとは思うけれども、
いわゆる汎用AIとの付き合い方っていう話で言うと、
さっきの提案してくれた健康的なメニューを食べる、そのまま受け入れるとかね、
提案してくれた方針だったりとかね、
そういうものを全部受け入れるみたいなのは、
確かに本願ぼこり、AIぼこりに近づいている感じはするよね。
そうそう、まさにそういうことだよね。
そう、AIぼこりが起きてませんかと。
なるほどね。
思ったときに、やっぱりその責任っていうものを改めて捉え直しましょうって話があって、
今日、なんで責任責任っていう話を言ってるかっていうと、
やっぱり下脱とかの話も一緒で、
例えば皆様が救ってくださるのに、仮にはわかんないけど自分が下脱できなかったとか、
自分が悟りを得られなかったという結果が見えたとすると、
それって、確かに阿弥陀様が全部救うって言ってるのに救ってくれなかったんだから、
阿弥陀様のせいだとも言えるじゃない。
まあね、そういうクレームありそうだね。
そうそう、でもちょっと責任転嫁っぽくないですかと。
36:01
それって本当は自分で引き受けるべきもんじゃないですかっていうときに、
何を自分が引き受けて、何を他人に打ち返すんですかっていう、
ここがやっぱりめちゃめちゃ大事になってますって話なんだよね。
そこはすごい大事な感じするよね。
そうそうそう。
つまり、やっぱりこれって人間の誠実さとか、
何を大事にしますかっていうことにやっぱりすごい根本的な話になってくるんだけれども、
この責任ってレスポンシビリティって英語だけれども、
これまさに語源的にはレスポンスって応答するじゃないですか。
アビリティなんで、その応答責任、応答能力とか、何かに対応する力って話なんだよね。
例えば、さっき言ったギラつできなかったとか、生活習慣病になったっていうときに、
そのなったこと、起きたことに対してどういうふうにあなたは向き合うんですかっていうことが、
この責任っていうことに本当は含まれるんだよね。
つまり、それはギラつできなかったのは皆様のせいだとか、
生活習慣病だったのはAIのせいだっていうときに、
それは向き合ってないじゃないですか、起きたことに。
あるいは向き合い方が、あまりにも自分が向き合ってない。
そういうふうになったときに、やっぱりそれでどうなのっていう話って、まだ問えると思うんだよね。
いやー、そうだね。
やっぱり、ある種AIが、もしかしたら全てのことをまさにうまくやってくれるかもしれない。
人間よりも高い能力で世の中を良くしてくれるかもしれないとしても、
起きたこととか起きつつあることに対して、
やっぱり自分の責任とか応答する能力、
それを捨て去っていいんですかっていうことが、やっぱり一番問われてるんじゃないかって話なんだよね。
あー、はいはいはいはい。
なるほど。だからその、AIに対してうまく指示をするとか、
うまく使うっていうとこ以上にというか、
その前に、いわゆる自分の責任能力みたいなものを、
どう捉えるか、自分が持っておくか、それとも捨てちゃいますか?みたいな話だね、これは。
そういうこと、そういうこと。
それはつまり、自分でもそうだし、社会でもそうだよね。
やっぱり世の中でどういう人が暮らしていけますかっていうときに、
自分の応答能力、責任っていうものを、みんなが捨て去ってAIとかに預ける方がいいのか、
それとも、それをむしろ自己責任だっていうふうにして、
39:01
AIは道具でしかないから、あなたたち人間が全部やってくださいっていうふうにするのか。
それが両極端なんだけれども、やっぱりどっちも多分間違いなんだよね。
おー、なるほど。
そう、なぜなら前回言った通り、AIっていうものはやっぱり道具と捉える意味ではあまりにも、
過去の道具とやっぱ違いすぎる。
単なる道具で人間が全てそれを制御できるっていう発想もまた間違いです。
うん、なるほど。
そういうふうな、これまでなかったものとして、そういったものがあるようなか。
これは本当に縁だよね。仏教的に言うとさ、まさに新しい存在が生まれた瞬間に、
人間の縁とか関係性って変わっていくわけじゃないですか。
ほー、そうなんだね。はいはい。
そして人間はどういうふうな責任を持つことができるんですか。
そういうふうに世の中に向き合うことができるんですか。
こういうことがまさに問われつつあるというか。
そういう中になっているという話。
ただ今回お伝えしたかったのは倫理とか責任という話なんですよね。
わー、面白いね。なんか前半さ、どっちかというとAIを作る側とか提供する側、
もしくはAIそのものの持つ責任みたいなさ、提供する側の責任みたいな感じの話だったけれども、
後半はあれだね、使う側、触れる側の方の責任みたいな話にもなったんだね、これ。
そう。パニックで言うとAIぼこりがそうなんですけど、
やっぱりアミダ様でも、どんな神様とかでもいいんだけれども、
やっぱり救ってくれるって思った瞬間に、じゃあもう自分を預けちゃえってなるわけ。
なんでもおかしくないわけですよね。
そうだね。
やっぱそれって本当にいいんですかとか、
そういう社会とか世の中とか、あるいはそういう生き方って本当にいいんだろうな、
望んで得るものなんでしたっけとか、
そういうところまで引き押さえるようなものが、今回のAIのテーマかなというふうに思ってるんですって感じなんだよね。
へー、なるほどね。はいはいはい。確かに確かに。
こんな感じなんですが、どうかな、今回の話を聞いてもらって。
ちょっと感想はまた次回、深くいろいろ話せばと思うけれども。
いやーでもそうだね、この本願ぼこりは面白いね。
確かにもう、それができるぐらいには、それができるぐらいの能力をもうAIは多分持ってるし、
そんぐらい広がってきてるから、だから余計こういうこと考えなきゃいけないんだろうねっていうね。
そうねそうね。
42:00
思ったね。だからそもそも前回からあるけれども、これからどんどんね、
AIの精度だったりとかがめちゃくちゃ高まっていった時にはわかんないけれども、
なんだろうね、やっぱり今のうち、今この状況だと、
ちゃんと自分の責任だよねっていうものも考えておかないと、
AIぼこりになっちゃうのかな、みたいなね。
難しいね。だからちょっとずれるかもしれないけどさ、
車がマニュアル車しかなかった時。
はいはいはい。
多分オートマになった時みたいな。
多分結構その、オートマしか運転できないの?みたいなさ。
オートマ限定の勉強だったりとか、なんかそういうこう。
はいはい。あれはちょっとダサいみたいな、なんかよくわかんない格があったよね多分ね。
そうそう。あれはちょっとその、こっちの責任の引き受け具合みたいなところなのかな。
あれは単なる技術的な話なのかな。何なんだろう。
わかんない。なんか聞いた話だとやっぱりそのマニュアルの方がね、
やっぱり車と一体化じゃないけど、やっぱり車というものをちゃんと自分が制御している。
制御している感覚が。
そうそうそう。多分ちゃんと車のことを理解しているみたいな感じ。
なんかあるみたいな話は聞いたことあるけどね。
はいはい。それにもしかしたら近いかもしれないよね。
AIをちゃんと制御している感覚。
あーなるほどね。
AIに責任もないから丸なりしている感覚。
で、ちょっとそこは少し似ているのかもなと思った。
制御してるしてない。
はいはいはい。
だから変速とかさ、ギアの概念がないってやばくない?みたいな。
その車を運転しているマニュアル者の人からすると、
Rに入れればただ後ろ、Bに入れればただ走る。
そんな雑なので車を運転している、理解している、制御していると言えるのかね?みたいな。
あーなるほどね。
ちゃんとこういう坂道の時には2速で1速で、でエンジンブレーキを使ってとか、
ちゃんとそういうのを理解している車を運転するとか、危なくない?みたいな。
なくない?みたいな。
はいはいはい。あるだろうね。
だからもしかしたら診断もね、当時の人からすると、
お前そんなことでギラスとかサドルとかいったら危なくない?みたいな。
言われたかもしれないしね。
その周りのもっと修行をして、サドルのだって人たちからのことね。
そうそうそう。そういうこと、そうそう。
だからオートマンみたいなもんだよね。
いやいいじゃん、言ってもクラッチとか面倒だし、難しいし、
クラッチなしでアクセルとブレーキだけあればいいじゃん、みたいな、
45:00
その浄土真宗的な信者の方たちがいたとして、
いいじゃん、みたいな。
で一方で、いやちゃんとクラッチとかあった方が、
ちゃんと悟れるんだ、みたいな。
そっちに近いんだ、その構造を分かっといた方がいいじゃん、みたいなね。
でもそこは本質ではない気もするもんね。
どっちの立場でも制御するという感覚には近づけるというか、持てるはずだからね。
そうだね、そうそう。
だから、やっぱりその、なんだろうな、
まさに今兄から制御とかって言ってくれるけれども、
ある種やっぱり、いわゆる自己決定感とか、
やっぱり自分がちゃんと自分の人生のハンドルをまさに握ってるみたいな感覚が大事だとするならば、
これが大事かどうかという問いもあると思うんだよね。
いやー、そうなんだよね。
うん、そうそうそう。
だって別にね、ハンドル握らなくても本当に豊かな人生を過ごせるんだったら、みたいな、
やっぱりそのいろんな仮説、威負は出ちゃうから。
そうそうそう。
とはいえ、やっぱり人間の幸福感の一方にやっぱり自己決定感とか、
やっぱり自分が自分をコントロールしていく感覚がある。
要は他人に全部自分がコントロールされているって思うと、
やっぱり幸福感が下がるって話はあったりするから、
それが本当に普遍的な事実だとしたら、
やっぱりどこで自分のハンドルを握るかって、
どこは手放して、どこは手放さないかってことが、
やっぱりこのAI時代はより問われてくるよねっていう風な話につながってくるのかなと思うんだよね。
いやーでも面白いね。人間がAIにハックされて、
人間が最も心地よい、最も自分が制御していると勘違いするポイントみたいなところで、
情報を制御し始めたらもう無理だろうねっていうね。
無理だよね。
それあれでしょ、トップホストとかそういう人たちがやってることでしょ。
分かんないけどさ。
相手に気持ちよくコントロールさせてるように錯覚させつつ、
実は自分が手玉に取ってるみたいな、そういう覚悟なんじゃないの。
なるほど、もう無理だね、それで。
おそらくね。
そうね、だからAIが歌舞伎町かわかんないけど、
そういうところのトッププレイヤーの事項を全部勘コピしたら、人類は終わりますね。
みんなね、俺は制御できてるんだと思いながら制御されたから生きていくっていうのを本当に上げるもんね。
だってね、それを責任だとかコントロールと思って生きていくっていうシナリオもあるもんね、全然ね。
全然あるよ、思い込まされてるっていうね。
気づかないのが幸せみたいなやつが。
48:00
怖い怖い。
だってあれでしょ?100年後に一人気づいてしまって、人間は制御されてるとかって言って、AIを壊し始めるんですよ。
ちょっとね、ちょっとしか壊せない気持ちもね。
間違いない。
そういうね、たぶんSF映画とか物語は絶対あるなと思いますけどね。
面白そうだね。自分で言って思ったけど、そういう感情面とかさ、人をコントロールする技能を半コピーしたAIの物語とか書けそうだもんね。ありそうだもんね。
それこそSFフォーラムの方で教えてもらったけどさ、メタルギアソリッドとかってそれに近いと思う。
確かにね。
やったことなかったからね。こんなストーリーだったんだって思ったんだけど。
そういうことの中で、もちろん社会って話はそうだし、今回ちょっとどうしても、僕は個人個人がどう生きるかにフォーカスしたくなるから、最後は人の話だったけれども。
やっぱりそのAIっていうものが、単純に便利な道具とか、聞いたら答えてくれるものとか代わりにやってくれるものっていう、もちろんそういう側面はあっていいと思うんだけども。
一歩踏み込んだときに、やっぱりこんだけのいろんな問題っていうか突きつけてくるものがあるってことは知っておいて損はないんじゃないかなと思うので。
そういうことをね、みなさんと今回お話しできたのがすごく僕も楽しかったなと思ったというふうな感じですかね。
はいはいはい。確かに人によって感じ方とかポイントは違うだろうけれども、グラデーションがね。
やっぱりコントロールしてるとか制御してる感覚っていうのはちょっと大事にしていきたいなとは思うね、自分はね。
そうです。そこを受けてそもそも制御って大事なんですかとか、そういう議論もしてみたいなと思う。
してみたいね。確かに確かに。それいらない説もあるからね、今日の最後の話みたいにね。
そうそう。で、全部預けちゃえばいいじゃないか説もあるからね。
今自分が思ってるコントロールしているという感覚が、果たしてもうさっきの領域に入ってるかもしれないですね。
確かにね。
すでに。
はいはい。この辺ちょっとまた次回ね、ご質問でも深めたい。いくらでも話せちゃいそうだから。
一旦ね、そんな感じでAIとティスワークっていう回は終わりにしまして、
次回はまたちょっと西洋に戻るんだけれども、やるかどうかって言っていたジョン・スチュワート・ミルですね。
公理主義とかさ、言葉としては聞いたことあると思うんですけれども、
まさにそういう社会ってどうあるべきかとか、AIがない時代においてだけれども、
51:00
やっぱりそういった世の中っていうのはどういうふうにしていくものがいいんだっけっていう話をしている人たちなので、
前回マルクス結構重たくやったけれども、そこも踏まえつつ今回のAIっていうこともちょっと頭に入れながら、
また少し時代を遡って見ていくことってすごく役立つんじゃないかなと思ったので、
そういった社会みたいなところをもう少し捉えていくっていう感じで、次回でやっていこうと思ってますって感じですね。
おー面白そうだね、わかりました。
では次回ですね、ジョン・スチュワート・ミルの公理主義ということで見ていきたいと思います。
では次回もよろしくお願いします。
お願いします。今回もありがとうございました。
51:51

コメント

スクロール