1. 哲学の楽しみ方を探求する〜それ哲ラジオ
  2. #416 【AIと哲学 その3】AIは..
#416 【AIと哲学 その3】AIは道具?それとも友達?「共生認識論」から考えるAIとの付き合い方
2026-04-22 43:05

#416 【AIと哲学 その3】AIは道具?それとも友達?「共生認識論」から考えるAIとの付き合い方

▼「それ哲ラジオ」おたよりフォーム

ラジオのご感想やコメントなど、お待ちしております!

https://forms.gle/ThJocrLap77ELG7B7

▼「それ哲公園」とは?

それ哲フォーラム(掲示板)を中心に、それ哲カフェ(オンライン哲学カフェ)も開催しています。参加をお待ちしています!

https://www.soretetsu.com/

▼それ哲ラジオ 公式X

更新案内や、番組の周辺の話など。

https://x.com/soretetsu_radio

▼哲学事務所ルディクレア

https://ludicrea.jp/

感想

まだ感想はありません。最初の1件を書きましょう!

サマリー

今回の「それ哲ラジオ」では、AIと哲学の第3回として、「共生認識論」という新しい視点からAIとの付き合い方を考察します。前回はAIが人間の「自己」の概念を揺るがす可能性について触れましたが、今回はAIが人間の認識や知識のあり方にどう影響するかを探ります。従来の認識論では、人間が世界をどう理解し、知識を獲得するかを議論してきましたが、AIの登場により、この問題は新たな局面を迎えています。 AIは、大量のデータ学習を通じて「リンゴ」を認識しますが、それは人間が経験や感情を通じて理解する「リンゴ」とは根本的に異なります。この違いを踏まえ、ヤン・カプスタ氏の提唱する「共生認識論」を紹介します。これは、AIを単なる道具ではなく、人間とは異なる認識主体を持つパートナーとして捉え、その認識プロセスを尊重し、共有する方法論を探る脱人間中心的な考え方です。AIの認識の仕方を理解し、そのプロセスを共有することで、より良いコミュニケーションや協働が可能になると提案されています。 さらに、AIが人間の思考や感情までリアルタイムで共有・処理するようなSF的な未来が到来した場合、人間とAIの関係性や、倫理・道徳観にどのような影響を与えるかについても議論が及びます。AIを単なる道具としてではなく、一つの認識主体として位置づけることで、社会や倫理観そのものが問い直される可能性を示唆し、次回以降のテーマへと繋げています。

AIと自己認識:アルゴリズム的事故の考察
はい、それ哲ラジオ、今日も始めていきたいと思います。 よろしくお願いします。
よろしくお願いします。
はい、AIと哲学第3回ということで、やっていきたいと思います。
はい、前回はですね、そのAIというものが生まれたことによって、自分とか自己、あと私、
そういうものの捉え方とか、何ていうのかな、あの価値観というものが結構変わるという話をしたと思うんですよね。
あれだよね、アルゴリズム的事故だよね。
うん。
この感覚というか、この言葉すごい良かったね。なんかしっくりくるね、なんかね。
本当、そうそうね。
アルゴリズムっていうのもね、プログラミングとかやってる人からすると逆に分かりにくいかもしれないんだけど、
そうそう。
ざっくり言うと、自分っていうことを今だとある程度学習してとか、あるいはもしかしたら将来的には自分よりも詳しい、
自分のことを知っているAIが出た時に、やっぱりその自分っていうものの範囲って果たしてどうなっちゃうのかなとか、
最終的にはさ、それがもっと進んで脳とかにチップを埋め込まれて、
自分が意識する前にもAIの情報がインストールされて、そこから口から一番良いことが出てくるみたいな時に、
もう操る人形じゃないかみたいなさ。
端末の画面じゃなくてね、口からもう都度都度リアルタイムで出力されるっていうね。
そうそうそうそうそう。自分が音声AIになっちゃうみたいなさ。
本当そういう世界が来るか来ないかもわからないけれども、っていう中で自分っていうものを見てみましたと。
ちょっと今回ね、いわゆる認識とか知識みたいな話をするんだけれども、
なんでって話をすると、前回もちょっとお伝えしたんですけど、僕の中では同心園みたいなイメージがあって、
認識論の伝統とAIの登場
僕らの感覚ってまず自分っていうものがあって、そこから他者とか環境ってものがあって、
その環境ってものは社会を作っているみたいな、そういうふうな世界観っていうか認識ってあると思うんですよね。
はいはいはいはい。
っていう中でいくと、前回はいわゆる真ん中にいる自分っていうものを扱ったんだけれども、
今度は自分っていうものが周りにある環境とか世界ってものをどう捉えますか。
これをある種広く認識とか、あるいはそこから得たものを知識としようふうにちょっと考えたいというふうな感じなんですよね。
ほう、わかりました。
うん。で、この認識論とかっていうのはそれこそ出てくるけど関東の話とかでもずっと話だかなと思ってて、
いわゆる経験が先かとか、人間の理性っていうか持って生まれたものが先かとかっていう話を結構したと思うんですけど。
大陸合理論とイギリス経験論的なとこがそのテーマ。
そうですそうです。
そうそうそうそう。
はいはいはい。
っていう時にそれも結局、やっぱり人間って何を知ることができるんですかとか、
もっと言うとそもそもそんな問いもなかった時に関東は人間には理解の限界があるっていうものを言ったりとか。
そういうことを話す中で、まさにその世界を認識するとは何かとか、どこまでを認識できるのかとか、そういうことがやっぱり哲学的なずっとテーマとしてはあるわけなんだよね。
あーはいはい、なるほど。
っていう時に、これも今回のテーマの常トークだけれども、AIは違うんですと。
AIによって人類史上初めてぐらいの認識の問題とか知識の問題とかっていうのが出てきてるんですっていう話を今日はちょっとしようと思ってるんですよね。
そっかそこにAIに絡むと、そっかどうだったの。
共生認識論:ヤン・カプスタの提唱
これをちょっとしていくんだけれども、今回に関してはですね、前回はディストピア的なというかさ、
やっぱりAIに支配されちゃってもう人間終わりだみたいな話を結構しちゃうことも多いんですけど。
アルゴリズム的事故の行き着く先みたいな話になっちゃった。一応妄想したよね、なんとなくね。
そうしちゃうんだけれども、今回はですね、割とどっちかっていうと、そういう風なAIっていうのがある中で、
やっぱりじゃあ僕らの認識ってどういう風にあるべきかとか、そこってこんな風にアップデートできるんじゃないのみたいな、
それちょっとこうなんていうのかな、提案みたいなものをしてる論文があったんですよ。
なので、いわゆる論文だとしても、それがものすごい権威のある雑誌になりましたとかってことではないと思うんだけれども、
調べたい方向けで言うと、ごめん、これも翻訳でやっちゃってるからあれなんだけど、ヤン・カプスタさんって出てるな、ヤン・カプスタ。
キーワード的にはSYNLNGと共生認識論っていう風に翻訳されてて、グーグル翻訳、ブラウザの翻訳だと。
というところで検索したら出てくるんですけれども、この共生認識論ってやつが面白かった。共生って共に生きるね。
共に生きる、はいはいはい。
共に生きる認識論っていう風なやつが結構面白かったんで、その話を今日はちょっとお伝えしようと思ってます。
それってこれまで僕らが思っている認識するって何が違うのっていう話を今日はお伝えする中で、
そもそも人間が何かを理解するとか、AI時代にそれを考えるとどういうことなのっていうことを
少しでも一緒に深めていけるといいなっていう風に思っています。というような感じなんですよね。
はいはいはい。
人間の認識プロセスとAIの認識の違い
で、まずどこから行くかって話なんだけども、そもそも従来のっていうか、これ一般的な感覚でいくと、
僕らは何かを認識しますとか、まるでその認識したもの、例えばこれを目の前にあるものを見て、
これはリンゴだというものを理解して、で、兄貴にここにリンゴがあるよという風に伝えましょうと。
ここにリンゴがあるっていうのが一個の知識というか、情報だから。
それを伝えるときに、実はこれってすごく簡単なことのように見えて、めちゃめちゃ難しいことをやってるんですっていうのは何となくイメージが湧くと思うんですよね。
これまでのツラジオの話からってことね。
そう、これまでの話からすると。
イメージ湧かないから。
湧かないのか、湧かなかった。
ダメだよ。400回言ったからってそこは絶対にダメだよ。
楽しちゃダメ?そこ。
ダメ。楽じゃないか。
もう一回言います。
僕らが普段やっていることだよね、目の前のものを見てリンゴだって伝えるっていう、ある種、子供でもできる、3歳児でもできるようなことなんだけれども、
実はこれってめちゃめちゃ高度なことをやってますと。
そもそも目の前のものを認識するというか、ところでこのリンゴというものだけを包括して、
そもそもリンゴとは分かってないときに、この丸くて拳材の物体だけをフォーカスして、
あるいは絶対に机とかいろんなものがあるはずなのに、そのものだけにまずフォーカスを当てますと。
はいはいはい。
これは図と字とかって言うんだけど、図面の図と字っていう地面の字があったときに、
それをちゃんと環境だから得り分けているって話だよね。
あー、はいはいはい。
その拳材の物にフォーカスを当て、それがおそらく作り物でもなく、食べれるものとしてのリンゴであろうということを、
なぜか触っても食べてもいないのに推測をしてラベリングして。
しかもそれを、この相手もリンゴという言葉を知っているはずだとか、
その言い方で伝わるはずだということを、なんかよくわかんないけど推論をして、
ここにリンゴがあるよというふうに伝えるっていう。
はいはい。でも確かにそうはね、それ一本間違えるとただのギャグ漫画になるもんね。
え、どういうこと?
いや、例えばさ、自分がさ、これハヤトに、これがリンゴだよって伝えたとして、
ハヤトが、あ、これがリンゴですねって言って、その下にある皿をめっちゃ嬉しそうに持ってるみたいなさ、
そういう横回りそうじゃん。
あれそう、新聞とかに載ってそうだよね。
だからそういうことが起きないのって実はめっちゃすごいことなんだよっていう話。
そうそうそう、そういうことです。
これちゃんと説明しよう。これわかんないから、これ当たり前じゃないからね。
ごめんなさいごめんなさい、ちょっと楽しようとしてました。
すごいなるほどって思ったよ。一個勉強になったよ、ちゃんと。
あ、ほんと?よかったよかった。
でもやっぱそういうことを僕ら普段当たり前のようにやってるわけなんだよね。
なるほど。
これもうちょっと言うと、やっぱり何かを認識するとか、そういった情報とか知識を共有するって、
実はいわゆる認知機能、目で見ますとか脳で処理しますってことだけじゃなくって、
ちゃんと空間的な距離感とか、やっぱり感情的な部分で食べれる食べれないとか、
それを共有するってことがどういうふうな意味を持つのかとか、
そういうことを暗黙のうちに全部バーって処理をしてやってるよって話が実はあるんだよね。
あー、はあはあはあ。
ただ一方で、AIというものがどういうふうにそういった情報とか画像とか視覚的なものを処理してますかっていうと、
僕はこれもほんとかじり利きではあるんですけれども、
基本的にはやっぱり学習じゃないですか。教師データと呼ばれるものがあって、
リンゴというものとかリンゴではないものっていうものを延々処理をし続けて、
それをやると、なんかこれはリンゴであるとか、これはリンゴでないということを判断できますねっていう、
その積み重ねですっていうのが多分基本的なAIの認識の仕方なはずなんだよね。
うん、そうね。
つまり、今僕が兄貴に対してここにリンゴがありますっていうふうな伝え方で、
確かにリンゴがありますねっていう反応と、
AIにこれはリンゴの写真ですとか、ここにリンゴがありますというふうに伝えて、
確かにリンゴがありますねっていうふうな返答って、
言葉の中では同じかもしれないけれども、
兄貴の中に起こっていることと、
AIの中に起こっていることっていうのは、恐ろしいことに実は違いがあるんですよと。
あー、なるほど。
そのリンゴをリンゴたらしめてる理由がそれぞれ違うってことだね。
そうそうそう。
人間とAIで。
これはリンゴであるということをアウトプットするために使っている情報とか、
はいはいはい。
得ているプロセスっていうのは全然違うんだよね。
当然AIはリンゴは食べられるということは、
言葉としては伝えてくるけれども、
本当の意味では絶対分かんない。
だって食べるということをしたことがないわけだし、
リンゴに限らずね。
もちろんリンゴってもう食べたことがないから、
多分聞いたらリンゴというのはみずみずしくて甘くて、
こういうものですっていうふうには、
返答はしてくれるけれども、
そこにはやっぱりその、いわゆるその、
実感とか体感という意味での知識とか、
そういったものはないわけなんだよね。
今のところね。
今のところ。
将来ね、それこそいわゆる味覚センサーができたようなフィジカルAIとかができて、
それも分かんないよ。
人間の味覚を再現した、
そういうものができたときに、
果たしてそれは本当の身で食べたということができるんですかっていうのは、
どこに行ってもやっぱ分かんない。
はいはいはいはい。
けれども、今のAI水準においては、
それすらもやっぱりできてないというか、
一般的ではないっていう話だよね。
そういうふうにしたときに、
つまりこれ何が起きてるかっていうと、
仮に兄貴が、これはリンゴですねとか、リンゴは美味しいですねっていうことと、
例えばAIが、これはリンゴで食べたら美味しいですねっていうことと、
もしかしたら動物、犬はリンゴを食べるか分からないんだけど、
リンゴを食べたときに尻尾を振って喜んでるように見えたとしたときに、
このそれぞれで起きているリンゴに対する反応って、
やっぱり全然違うメカニズムから起きてますよっていう話があるんだよね。
なるほど。
ここまではOK?
OKOK。
全然違うもんね。
人間の赤ちゃんが生まれて、リンゴをリンゴって認識するようになるまでのプロセスと、
AIが学習を通じて、これはリンゴだ、これはリンゴじゃないって判断ができるようになったプロセスと、
犬がこれ馬みたいなことを言ってるプロセスは全部違うよっていう話だね。
そうなんです。
面白いね、確かに。
プロセスに目を向けたときに、
AIを道具として捉える視点と未来の可能性
これもよくAIの文脈で言われるけれども、
AIって言葉と言葉のつながりとかを評価してただ出してるだけだから、
そこには実はただ知らないことを語ってるだけですとか、
そこに別に意味はなくて、
ただアウトプットされたものが使えるんだったら使えばいいし、
それが使えないんだったらもっと使うようにしようっていうふうに言うか、
使わないかっていうふうにするっていうふうな、
やっぱりそういうふうな、
人間でも出てきたものを判断する役割で、
そのプロセスが何が起きてるか本当かわかんないけれども、
役立つものを出してくれる便利な道具みたいな、
そういうふうな発想っていうのはあると思うんですよね。
はいはいはい。
これが前回と同じだけれども、
今この瞬間はそうかもしれないけど、
AIがもっともっと今より10倍100倍っていうふうに過剰くなったときには、
もう人間のそういった処理能力を超えているから、
むしろAIに何かお願いして出てきたものを、
ははーおっしゃるとおりですっていうふうに受け入れるみたいな、
もうなんかご神託みたいな、
そうになっちゃう可能性もあるよねと。
あーなるほど。
同じAIでも今のAIと将来的に出てきそうなAIの、
そのプロセス自体が変わっている可能性もあるって話だね。
どっちも入力も出力も。
入力も出力も処理できる情報量もプロセスも、
全部変わっている可能性はやっぱあるよね。
なるほど。今はだから意思を持ってとか、
何かの文脈とかを組み合わせてっていうよりは、
単純にそうやって意味合いそうなものを並べてるだけだよねっていう観点もあるって話だね。
今のAIに関しては。
存在はそうらしいって話だね。
LLMに関しては。
そうそうそう。
で、その認識自体は実は、
あくまでも僕らがやっぱり何かを判断できますとか、
僕らのそういうさっきのリンゴの話だったように、
リンゴというものにまつわるいろんな情報とか、
実感とかっていうものを使って、
世の中を認識していますっていう、
それが唯一無二の正しい認識の仕方だっていう、
そういう色眼鏡で起きていくことなんですよ実は。
もうちょっというと、
今の僕の話って要は、
人間の方がより正しい認識能力を持っていて、
AIというのはそれを持っていない、
あるいは持ってたとしても僕らはそれを使えないから、
あくまでもアウトプットを道具として使いますっていう、
かなり人間中心的な発想なんだよね。
はいはい、なるほどなるほど。
ここに対して、
脱人間中心的な共生認識論
ちょっと冒頭でお伝えした強制認識論、
英語で言うのがシンビオテックエピステモロジーっていうのかな。
ちょっとごめん、カタカナ英語で本当に申し訳ないくらいなんですけど、
これ何かっていうと要は、
AIのその認識の仕方、
さっき言った画像をたくさん読み込ませて、
そこから判断するというものを仮に認識と呼ぼうとしたときに、
これは人間よりも劣っているんじゃなくて、
人間とは異なるんだけれども、
そのロジックとかプロセスの中で、
確かに世界を認識しているそういった存在とか、
人間できないその認識の仕方をしてくれるパートナーとして、
AIというものを取り扱うことはどうですかっていう、
そういう脱人間主義的な発想なんだよね。
認識するというものはこういうものだっていう人間側の話じゃなくて、
いろんな存在、さっき言った犬もそうだし、猫もそうだし、
あるいはハエでも何でもいいんだけど、
それぞれの存在にそれぞれの認識の仕方があって、
その中にAIというものが増えたんですよね。
それ以上でもそれ以下でもないですねっていうふうな発想が、
できるんじゃないですかっていう話なんだよね。
今の感覚ちょっとイメージ湧くかな。
認識の共有と翻訳:共生認識論の実践
勝手にちょっと日本人っぽいという。
そういうラベリングはどうかなと思うんだけど、
なんか相棒みたいと思った。
今チャッピーはちょっと友達、人間の友達みたいな感じで思わせちゃってるけど、
もうちょっとペットぐらいの感覚に今の話からなんか思っちゃった。
付き合い方として。
犬っていう話をしたからかもわかんないけど、
その感覚はもう少し話をしながら兄貴にも聞いてみたいなって思ってはいるんですよ。
仮にだよ、仮にいわゆる人間の認識に近づけましょうではなく、
AIではAIの認識の仕方があるのだから、
それを尊重しましょうっていう話にしたときに、
じゃあ何が問題なのかっていうと、
その認識の仕方が違う2つの存在、
AIと人間とが会ったときに、
どういうふうにお互いにその認識を共有しますか。
より良い推論というか、
答えとかアウトプットに取り付くことができますかっていう、
そっちに発想が行くわけだよね。
本当に言うと、それこそペットだとすると、
よくあるじゃん、猫を翻訳機みたいな感じでさ、
猫を鳴き声を人間の言葉に翻訳して、
これは喜んでるんだ、これは怒ってるんだとかっていうふうにするみたいなのがあると同じように、
つまり人間とそのAIの翻訳の仕方、
これは言語的な翻訳じゃなくて、
その認識のプロセスとか、
何をもってそのアウトプットをしたのかっていう、
その翻訳だったりとか共有化っていうものってできないんですかねっていう、
そういうことに発想が行くんだよね。
さっきも言った通り、
兄貴に聞いてもAIに聞いてもこれはリンゴですって言いますと。
そうすると言葉の上ではどっちもリンゴというものを指すように見えるんだけれども、
認識っていうものを通ったときに、
兄貴の認識とAIの認識が絶対違うっていうのはこれまで話したわけじゃないですか。
なので、これはリンゴですってアウトプットに至るまでの認識とか思考っていうものを、
ちゃんとお互いに理解できるようにするための方法論ってないんですかっていう話なんだよね。
はいはいはいはい。
これって面白いのが、今でもできるんじゃないかって僕も思ってるのよ。
つまり、AIに対してこれはリンゴですって出したときに、
なんでそういうふうにアウトプットをしたのか教えてくださいとか、
それをアウトプットするために必要なプロセスを教えてくださいっていうことはできるんだけれども、
でも逆の話でさっき僕が言った通り、兄貴にさ、
なんでこれがリンゴだって分かったのかって教えてって言ってもさ、
うまく説明できる?
いやー無理だね。そう教わったから。
AIがそう言っても怒っちゃいけないんだね。そう教わったからですって。
そういうふうに私はプログラミングされてるからですって言うときに、
そうとしか言えないわけよ、AIからしても。
そうだね。
なので、そこで要は、
AIにどういうふうになんで考えたんですかっていうと、
もっとメタ的に自分の思考を分析するっていうのは、
やっぱり難しいというか、当たり前ではないんだよね。
AI虐待になっちゃうんだね、それは。
詰めるみたいな、おいなんでお前そんなこと言ったんだよみたいなさ。
そうそう、なんで分かんないんですよ。
自分の言ったことの、どう考えたのかも分かんないのかよ、おい。
それダメなんだ。
そうは言われましてもってやっぱりなっちゃうわけなんだよね。
なっちゃうんだね、へー。
なので、そこに対して、それができるようにしましょうっていうことを考えたのが、
ちょっと今日冒頭でお伝えした、そのシンラングって、
強制言語みたいな話らしいんですよ。
僕も本当にその論文でしか見たことがないから、
これがどのぐらい一般的な概念なのかとか、
どのぐらい洗練されてるかって、
正直まだ分かんない話とかもあるんですけど、
このアイデアがやっぱり面白いのは、
AIのアウトプットだけを見るんじゃなくて、
そのプロセスだよね、その認知のプロセスとかっていうものを、
できる限り詳細に、それを同時並行でちゃんとアウトプットしてましょうと。
出したことから、なぜそう考えたのかっていうことを後付けするんじゃなくて、
アウトプットしてるプロセスの中において、
果たしてそれをどういうふうに考えたのですかとか、
果たしてその信頼度はどのぐらいなんですかとか、
そういうことをAI側に出してもらいましょうと。
これって、いわゆる仕事でもあると思うんだけど、
結論はあるけど、なんでそういうことを考えたのとか、
そこにどんな情報があったの、なかったのとかっていうことを、
やっぱりご報告を一緒にしてもらうとかって、普通にあるじゃないですか。
ソースはっていう話ね。
そうそうそう。
それがあると、このインプットが間違ってるから結論が違うんだねとか、
逆に、この情報があるからこの結論は正しそうだねっていうふうに、
やっぱりそこで評価付けをするわけだよね。
そういったものをAIの認識においてもやるのはどうかっていうふうな発想。
ラーメンの例とAIとの対話
なるほど。今だとディープリサーチお願いすると、
ちゃんと参照したであろうサイトだったりYouTubeだったり、
そのものを併記してくれるけれども、それのもっとすごい版ってことはね、
一個一個あんたが話してること、あんたの回答、
全部の裏側のソース出してねっていう話ね。
そうそうそう。
なぜそのソースを選んだのかとか、
なぜその情報を選んで他の情報を選ばなかったのかとか、
そういうことも出てくるわけじゃない?
なるほど。前回のお話でいうとさ、
例えばハヤトがAIにちょっとおすすめのラーメンを教えてとか、
今日何食べたらいいかなみたいな相談したときに、
あそこラーメン屋で200円引きやってるからあそこ行けばいいっすよって、
そこでAIが答えたときに、そのAIがなぜ200円引きで、
しかもなぜラーメンなのかみたいな、
そこに至ったプロセスみたいなもの。
だってハヤトさんあれですよね、今、金欠ですよねみたいな。
だってラーメン2回ずつ食べてないですよみたいな。
そういうものを全部出してくれれば、
ハヤトのほうも大丈夫、金あるからみたいなとか、
今ちょっとラーメンって気分じゃないんだよね、この3ヶ月くらいが。
そういうことを、そのレベルで対話じゃないけれども、
やりとりできるよねっていう話ね。
そうそうそう、そういうこと。
なので、今この瞬間において、まずは情報が足りないとか、
情報がリアルタイムで接続できてないので、
そこに対して、実はこうなんだとかこうじゃないんだとか、
こんなことも考えていたんだとか、
そういうことをフィードバックすることによって、
じゃあもっとこっちですねっていうふうにやりとりができる。
それが、どうしても今の生成AIだと、
出たものに対してちょっと違うんだけどとか、
もっとこうなんだけどとかっていうことを何度も何度もやりとりして、
なんか違う、なんか違うって言いながら、
やっとアウトプットが出るみたいなことってよくあると思うんだけど、
そうじゃなくて、僕らの側も、
AI側が何を考え、どう考えたのかとか、
どんな認識プロセスが経ているのかっていうことを理解することで、
あ、そこがずれてたんだねとか、
この情報を伝えたらダメだったんだねっていうことが、
よりわかりやすくなる。
そういったような、ある種、よりAIというものと対話ができるとか、
違う存在としてお互いに認め合うとか尊重し合うみたいな、
そこまでいくような。
話っていうものがこの強制認識論っていうふうなものらしいんだよね。
おー、面白いね。
SF的未来におけるAIとの共生と課題
これはなんか、
アルゴリズム的事故に侵食されるっていう感覚とはちょっと違う付き合い方な感じがするね。
そうそうそうそう。
なのでやっぱり人間とAIはパートナーとしてやっていくとか、
ただの道具じゃなくても、やっぱり一個の認識存在だから、
そのぐらいの取り扱い方をしないと間違えちゃいますよねみたいな。
そういうふうな発想がここにはあるんだよね。
おー、なるほどね。
ただね、これさっきのラーメンの話に戻っちゃうんだけども、
ラーメンの話を前回の脳にチップが埋め込まれた話で仮にやるとどうなるかなってさっき思ってたんだけど、
例えばさ、実は明日ラーメン食べに行こうと思ったから今日はやめとくんだって終わった時に、
今の技術レベルだとそれは当然AI側は知らないから、
ああ間違えました、じゃあラーメンじゃないですねってなるんだけど、
仮に脳にチップ埋め込まれて、自分の思考とか考えてることとかも全部リアルタイムでリンクされるとした時に、
AI側は、早藤さんは明日ラーメンを食べたいと思っているってこともインプットされてるわけじゃない?
もしそれはできるとしたらね。
それと、それでもラーメンを提案するということになるのか、
それともそうなったらその情報を含めて、今日はラーメンではないってことも想定して別のものを提案するのか、
ここまで来るとやっぱり前回と比べてわかんないよ、何もわかんないんだけれども、
その時にやっぱりAIがする挙動って、多分自分が導き出す中での絶対最適解のはずなんだよね。
で、なるとやっぱり前回の話と同じで、
もうAIの出した結論とか、ここでいうとAIが出した認識とか知識とか、
情報とか、それを疑う理由がなくなってくる、どんどん。
いやー、面白いね。そこまで深く人間の人格というか、人間の核とは何かみたいなことを、
広角機動体でいうとゴーストは何かみたいな話になってくると、面白いね。
それはもう、今回では語りきれないというか、それ一個で話したいよね、いろんな人と。
いろんな人聞いてみたい。
でもいいよね、それをさ、次の公開スウェーデンスラジオでやってもいいかもね。
あー、ゴーストとは何か。
僕、広角機動体ちゃんと見てないから、ゴーストとは何かだとちょっと話に入れないなって思ってるんだけど。
ハヤトにはね、ちゃんと哲学素人としてセシロって言ってね、こっちはクローソナーとかね、タチコマガみたいな。
説明なしにボンボンこういう名詞を言うっていうね。
そうね。イメージしかないから。でもやっぱりそこをつなげる話をするのはめちゃめちゃ面白いかもね。
いやー、でも面白いね。そっか、これで今回の強制認識論か、これでさっきのアルゴリズム的事故を解決できるかなと思ったけれども、
今のレベルなら解決するかもしれないけど、そうだね、もうチップ埋め込まれてみたいな。
SF的な話になってくると、あってもいいけれども、それを使いこなせる人がどれだけいるか、もしくはそれを必要とする人がどれだけいるかっていうところになってきそうだね。
そうだね、私もっと言うと、いわゆる強制するとか、AIと正しくやり取りをするっていうことの意味が変わってくる。
今はそれぞれ別のプロセスで認識してる人がタイムラグがある中で情報を共有するから、それをすり合わせるっていう話になるけれども、
本当にリアルタイムで感情とかも含めて共有されるってことが可能なんだとするならば、
そもそも情報を共有するっていうことの考え方とか、ズレを修正するって考え方からもガラッと変わっちゃうから、
これ難しいね、確かに。強制として考えると、さっきの早くも言ったような、自分のデータもリアルタイムで全部取り込んだ上で、
勝手に自分の神経に出力されちゃうとちょっと困るね。
何だろう、あくまで脳内羊みたいな感じで、もしくは脳内ペット、もしくは脳内友達みたいな感じで、
自分がバーって何食べようかなって考えた時に、ちょっとちょっとって脳内のそれが、
明日ラーメン食べるって言ってるけど、じゃあ今日はカレーとかどうだい?みたいな気にきいてくれないと困るってことだよね。
じゃないと、そこまで勝手に自分の感覚までハックされちゃうと、
よし、じゃあ今日はチャーハンにしとくか。チャーハン近いな。チャーハンも近いな、ラーメンと。
パスタいい?パスタ。
今日はカレーにしとくかっていう風な言葉とか、欲求が口から出てくるみたいになった時に。
もしくは足が勝手にそっちに向くみたいなね。
そうそう。そこにはもうやっぱり意識化だから、自分の認識がないまま、いろんなものを総合してカレーを食べるということが行われている。
そこに何の違和感もないし、むしろ満足してるんだけれども、その推論とか認識とかは全部AIがやってましたみたいな。
今話したと思ったけど、そこまで行かないかもなとちょっと思った逆に。
なぜなら、全部がAIにリンクされるって言ったけど、全部が何かっていうことを僕らはどこまで言っても多分わかんないじゃないですか。
どういうことだ?
つまり、ラーメン明日食べようと思っているとか、でも最近ちょっと太ったなとか、貧血なとかっていう、そういう言葉って一個一個は区別できるけれども、
それが脳内においてどういう状態であるのかとか、果たして聞き出されたものだけしか考えてなかったのかっていうと、そんなこともないはずじゃない?
なるほど、面白いね。脳内でまだ言語化されていないもの、脳内で言語化されたもの、言葉として、音声として言語化されたものみたいないろんなものがあるから、どこまでをリアルタイムで共有可能なのかみたいな話、情報として。
情報としてか、その全てをリアルタイムで言ってるときに、全てって何?とか、それって定義できるの?とか、そういう話?
はいはいはいはい。面白いね、確かに。
なので、SFの話だから、あえてそういう全てとかリアルタイムとか言ってるけど、それって逆に言うと、本当に実現できるの?とか、そんなことで定義できるの?っていう問いはやっぱりかさほうではあるから、
そういう意味で言うと、今回お伝えしたような強制認識論みたいな感じで、どこまで行っても人間とAIってものは人間と犬が分かり合えないように分かり合えないのだと。だからこそ分かり合うための方法論とかコミュニケーション手段が必要だよねっていう、それは全然言えるかもしれないね。
これしばらくはいけそうだね、これ。例えばさっきのさ、口から発した言葉はリアルタイムに導入されるみたいなのがレベル1で、脳内で言語化して思ったものは共有されるのがレベル2。
で、脳内で思ってはいないことも共有されるのがレベル3だとしたら、レベル2ぐらいまではこの強制っていうところでいけそうだよね。
そうだね、そんな感じがする。
面白い面白い。レベル3になるとさっきハイトが言ってた全てってなんやねん問題になってくるから、ちょっともうそこまで行くと想像つかないよねっていうふうな話になってくるね。
そうね、戯言は言えるかもしれないけど、雑談っていうか意味のあることは言えなくなっちゃいそうだなって感じがした。
ただそういうレベルを設定した上でこうなるかもねっていうことは、やっぱり今日話せてよかったというか、こういう話をしないと出てこない観点だなっていうのは思ってる。
いやーそうだね、こんな話したこともないし思ったこともなかったね。
AIを認識主体として捉えることの意義
いやそうだよね、そうそうそう。だからね、やっぱり今回の狙いとしての、なんとなくAIっていうものを捉えるんじゃなくて、興味ないんですよ。
やっぱりAIっていうものを認識したいとして、犬とか猫とかと同じような存在を捉えましょうって、その発想自体が結構僕としては新しいというか、そういう考え方もあるんだって思ったんだよね。
そういうことをやるだけでも、やっぱり発想が広がったりするのかなって思ったりするし。
今度ね、次回は社会とか倫理っていう話をするって言ってると思うんですけど、
やっぱりこれって、まさにそういうAIというものが一つの認識主体である、直接は繋がらないんだけれども、そういうことを仮に立てたとしたときに、
そういう存在が増えた社会って一体どうなるんですかとか、果たしてそういう存在、
じゃあ例えばだけれども、そのAIが認識力を認めましょうっていうときに、例えば何でもいいんだけど、こういうことをお願いしたいってときに、私はそれはできませんとか、
私の認識力では及びませんとか、あるいはこれを対応するのは私の両親が痛みますとかね、仮にね。
したときに、それってどう受け取ればいいのとか、それって何なのって話になってくるわけだよね。
AIが道具ならば、金槌とかと一緒で、いやいやそのこと言わずに釘打てよって言えるんだけど、
AIが認識主体であるならば、こういうタスクは実行したくありません、できるんですけどっていうときに、
それでもやれって言いますか、やらなくていいですかみたいなことって、今度やっぱ道徳とかの話になってくるんだよね。
だって犬にさ、やりたくないのに日の輪くぐりさせるのってさ、ちょっとやっぱり理理的にどうかなって思ったりするじゃん。
例えば、今のAIの話って一緒なんだよね。
ああ、そういうこと。
もっと言うと、AIに人格を認めるかとかって話でもなってくるんだけれども、
そういった形でいくと、要は、AIというものが人との存在として認めましょうってなった瞬間に、
それを社会にどう位置づけますかとか、それを位置づけることができるんですかっていうふうな、そういうことがテーマになってきます。
ああ、なるほど。人間の倫理観とか道徳観への影響かと思ってたけど。
それもある。それもあるけど、それがまさに新しい存在を認めることによって、やっぱり揺らぐとか、
それに新たな発想が必要になるっていうふうな感じなんだよね。
AIの出現で人間とは何かっていう問いを突きつけられたと同じように、
今回の認識とは何かだし、倫理とか道徳ってなんだっけっていうのも、ちゃんと突きつけられてるってことなのか。
そうです、そういうことです。
そうなんだね。
認識の変化と社会への影響
そういう話があるので、ちょっと今日も言った同心園像っていうふうに、
自分と認識と社会っていうふうなのでステップでやってきたっていうのは、
やっぱり一個一個繋がってるって思ってるんだよね。
なるほど、なるほど。
自分の認識が変われば、世の中の捉え方も変わるし、
世の中とかAIの捉え方が変われば、その世の中っていうもののあり方も変わってくるとか、影響を受けてくるっていうふうな話を
次回したいなと思っているので。
それによってAIと接続っていうものが果たしてどんなところまで行くのか。
あるいは今日も話したような、SFのレベル3も全部、
仮に言ったものがAIに同居された世界って思う社会になったときに、
その社会ってどうなんのみたいな話っていうことまで、
これもちょっとヨタ話っぽくなっちゃうかもしれないけれども、
何らかの一定の哲学的な土台というか発想っていうものを軸にして語ってみたいと思ってるんですっていうような感じですね。
はいはい、分かりました。
では次回ですね、AIと倫理道徳というところで見ていきたいと思います。
では引き続きよろしくお願いします。
お願いします。今回もありがとうございました。
43:05

コメント

スクロール