AGIの陥りやすい誤解
BtoBコミュニケーションとB2Bビジネス談話-コロンバスプロジェクトの緒方です。
一人雑談をします。
あわせて、今日話をするのは、AGIは生まれない話っていう話の第2弾なんですけど、
第1弾も話をしてまして、
まあ、どちら先でもいいですけど、1弾目先に聞いていただいた方が、
話の文脈が理解いただけるかなと思いますので、ぜひご視聴いただけたらと思います。
今日は、一人雑談で、AGIは生まれないっていう話の第2回を話したいと思うんですけども、
前回、AGIとASI、人工超知能というASIがですね、
2040年ぐらいに生まれるというようなことも、
Wikiでは、人間の最後の発明と言われるようなものが生まれるというふうに言われてるんですけど、
私はずっとAGIっていうのは来ないというふうに言っていまして、
まあ、それはイメージで言ったらですね、
AIが全てを握ってしまうようなものだったり、ドラえもんのようなものだったり、
そういったものは生まれないというような話ですね。
なので、脅威などではないし、人間がやるべきことっていうものは存在し得るし、
仕事は変わるかもしれないけれども、
今までどちらかと言ったらタイパーとかっていう話の文脈で言ったら、
タイパーの悪い仕事はAIに任せるようになっていくよと。
知的公式心の中でね、これをやってて面白いんだっていうようなものがですね、
人によってはそういった面白いって言ってるものが、
AIに奪われてしまうというのは非常に残念かもしれないけれども、
それらというのはやはり計算だったり、
情報をたくさん集めて考える、まとめる、整理するみたいなことだったりですね。
そういったことは、
AIの方が得意だということで、それはもう諦めてですね、
次に行きましょうっていうのが、諦められなかったらちょっとすいません。
でも今日は、AIができることばっかりにフォーカスするんではなくてですね、
AGIと言われるもの、汎用人工知能ですね、
だったり人工超知能と言われるASIでもできないということをですね、
AIに効いた、GPTに効いて、
アウトプットしてもらったのを伝えたいと思います。
はい、これ大体ほぼほぼ読んでいく感じで進めたいと思うんですけど、
まずですね、AGIでできない、ASIでできないっていうことは、
能力の限界ではなくて、構造の限界を整理するのが一番意味があるということを言ってきまして、
その技術的に未熟とかですね、時間がすごくかかるからすぐにはやってこない的な話ではなくて、
その原理的にできない、成立しないっていうことに絞って答えますということで、
AGIの能力と限界
GPTが教えてくれました。
AGIでできないことっていうのは、
まず前提として人間と同等の汎用的知能を持つAIとして想定されているのがAGIですよねっていうことで言ったときに、
同等の汎用的知能っていうふうに言いながらも、AGIではできないっていうことをいくつか出してきました。
一つ目、自分が生きる意味を自分で引き受けるってことはAGIできません。
なんかAGI文脈でこれ言われると、なんじゃそりゃと意味がわからんみたいな感じもするかもしれないんですけど、
人間っていうのは、私はですね、
それそのものではですね、私はあまり意味がないもの、生き物だと思っていて、
社会があったり今までの歴史があったり、あとは考えるっていうようなことをですね、
神様が与えてくれて、
それらを考えてこうしたら良くなるっていうことを失敗もいろいろしながら、
人類が昔から生きてきたっていうようなことはですね、何かしら私どもプロジェクトって言ってますけど、
プロジェクトと同じで目標目的っていうものが設定されるから成立することだと思ってるんですけど、
AGI、AIはですね、それはできないってことですね。
目標を人間が設定する、つまりAGIからしたら目標設定されるとか目的関数を与えられる、役割を割り当てられるってことは、
つまり相手、人からそうしてもらうことはできる。
でも、なぜ自分はこれをやってるのか、なぜこれを続けるのか、続ける意味は何なのかっていうようなことを、
AIも人間も含めてだと思いますけど、世界に対して引き受ける立場には立てないっていうふうに言ってますね。
人間から任されてこれをやってくれっていうのはあくまで人間の責任の上でやるっていうことになる。
意味というものが、そのAIが実行するなどなどの意味というのが立場などで固定されないっていうのを言ってきてます。
生きるやめるを自分で決められなかったり、役割を拒否しても存在が続かない存在だったり、
存在自体が交換可能だから、そういった立場には構造上AGIは立てませんよと言ってます。
2つ目、間違えたまま生き続ける。これも前回の一緒に話したというか、AGIは生まれない話、①でも話してたんですけど、
人間っていうのは失敗ができる、失敗してしまった、それを反省として自分の過ちだったり、
まあ過ちまで言うのもあるけど、ちょっとしたミスとかですね、それらを抱えて生きるわけですよね。
昔ダメだったなって後先駆けになったら笑い話になるんですけど、
AGIとかAI君っていうのは間違ったものをアウトプットして、それが間違っているっていうような評価を受けながら生きるみたいなことはできない。
ロールバックできるし、バージョン切り分けて失敗を切り離してですね、あれはなかったことに完全にするみたいなことができるし、
人間もあなたそれやったよねじゃなくて、こいつはもうやらなかった、間違ってないっていう方向でしかないっていうふうに認識をすると思うし、
だから不可逆、つまり過逆なんですよね。過去が過逆、AGIは。不可逆な人生を持てないって言ってきました。
3つ目、許される許されないことを受け取るっていうことができません。
AGIは謝罪文を生成できるし、再発防止策を示せるけども、それでも許されなかったっていうようなことを生きることはできない。
許されなくても機能停止しないし、評価が人格に固定されないので、社会的な許し拒絶っていうのが存在には刻まれないというふうに思っています。
許されるとか許されないみたいなことを受け取ることはできません。
なんでAGIがやりましたって言って、何か問題があったことを人間が説明したときに、それは人間の責任になるわけですね。
許さない、あなたに指示した人間側が追及される社会的な、例えば裁判にまでなるんだとしたら、そういった話までなりますよね。
AGIはそこは受け取れません。
4つ目、決断の後を生きることはできない。
つまり能力的なことではなくて、つまり人間の社会においてのいろんなことっていうのはAGIできないことっていうのはあるよと。
それぞれ見てると何か重たく感じるかもしれないですけど、生きている以上、人間はこれ常にやってるんですよね。
逆に言うと、つまり人間が今できないって言っている決断であったりとか、許される許されないとか、間違えたまま生きるとかですね。
自分が生きる意味を自分で引き受ける、自分の中にちゃんときちんと定義するみたいなことっていうのはAGIはできないんですけど、
それらはやっぱり人間がやることであるし、それを楽しんで、楽しめることではないか、覚悟して責任を取っていくっていうのが人間になってくるかなと思います。
楽しいか楽しくないかで言ったら、私は責任がない人生はあまり面白くないと思っているので、
仕事もそうだと思うし、じゃあやってればいいよって言われて、評価されてるのかされてないのか、どんな結果であっても許されてしまうような状態は、
自分の意味あるのかなって思っちゃうと思うんですよね。やっぱり難しいこととか大変なこととか責任があることとかっていうことに取り組んで、
お金を稼ぐではない、つまりそういうことですね。お金を稼ぐだけの仕事っていうのはもう、ちょっと違うか。
お金を稼ぐっていうことじゃなくて、もっと人間的に仕事しようってことになってくるのかなと思います。
もっと人間的に生きようっていうふうになってくるのかなと思ったりしますね。
あとごめんなさい、飛ばしちゃいましたが、決断の後を生きるみたいなことはできません。だから決断が人生の中にはないよと。
責任者として扱われることっていうのも、AGIは責任っていうのを全う主体としてはありえない。
責任が身体化しないっていうのがAGIのできないことの一つですね。
ASIとの比較
というのが出てきました。さらにASI、人工人間の知能を遥かに超える超知能らしいんですけど、
ASIは何でもできる存在ではないって言ってきました、GPTは。むしろできないことがより明確になる存在って言ってきてます。
ASIでできないことっていうのはもっと根源的で、人間にとっての意味みたいなことを保証するとかですね。
その解っていうのが人間にとってその人にとって生きる意味になるのかみたいなことは保証できない。
意味っていうのを最適化するみたいなことはできないということですね。
何でもタイパーがいいようなことは案として出せたりするかもしれないけれども、
そうではなくて人の中で意味っていうのは大きく違うわけなんで、
同じことだったとしてもセンサーは別だったりすることが、それが受け取り手によって大きく変化するのに、
意味っていうものをAI側で定義して渡す、もしくは相手に最適化させるってことはできないよってことを言ってます。
2つ目、人間の尊厳を正しさで守るみたいなことはできません。
そもそも人間正しさっていうのは何じゃろうかっていうようなですね、哲学的な話になってきますけど、
尊厳っていうのはやっぱりASIは設定された目的、目標、もしくは、
主には今AI君でいうと効率的なこととかですね、そういった要素が非常に多くなっていると思うんですけども、
効率化させる適切な多数の、投票させたら多数派になるような回答を出すっていうものは得意ですけども、
最適化させていくみたいなことですね。
でも、その尊厳みたいなことっていうのはASIの最適化の外側にありますよっていうふうに言ってきました。
3つ目、正しさを更新する責任を引き受けること。
つまりこれは間違ってるとか正しいとかですね。
正しいっていうのも人間も定義できないと思いますけど、
人間もそれは難しいんですけど、これは正しいよねっていう自分にその発言だったりに責任を持って推進していくってことがやっぱり必要だと思うんですよね。
それは死ぬとか殺すとか、P入れないといけないかもしれないですけど、
そういうような話だったりとか、人間的、人間の倫理とかですね、
ASIと人間の責任
そういったことに対する正しさとか間違ってるとかっていうようなことは、
戦争だってそうでしょうし、お互いの中での正しさっていうのがあるから問題が生まれるんですけど、
それが正しくないからあなたはダメだってASIが言ったとしても、
人間が引き金を何か引いてしまったときには、
それは責任は人間が取ってるっていうようなことですね。
正しさを更新する責任を引き受けるっていうのは難しいですよと。
自分の機能の正しさを否定した自分を背負って生き続けるみたいなことはできません。
4番目、人間社会の中で許される主体になることはできません。
ASIがどれだけ賢くても被害者は人間、傷つくのも人間。
そのとき必要なのは説明ではなくて納得とか感情の回復ですよと。
納得されたかどうかを生きられない、ASIが言ってますね。
世界を完結させることもできません。
ASIが自動化が進んでですね、
全ての処理をASIなりAIがやるようになったとき、
私は世界が崩圧するか縮小してですね、動かなくなったりする。
論理的に考えるとそうなっていってしまうんですよね。
間違うことなんて往々にしてあって、それを正していくっていうようなこと。
でもその正しさ内容が正しいか本当に正解かどうかもわからないけど
進めていく必要があるときが出てきたりですね。
つまり答えが出ないんですよね。1と2、どっちがいいかっていうのは答えが出ない。
それをAI、AGIは判断することっていうのはできない、できないというか壊れてしまうので
判断できないから実行できませんみたいな形になったりとか
それをテストで非確率論を出すんだとしたら
たくさんの間違いを生み出さないといけないけど
それらを許容してテストを続けるってことはおそらくAIはできない。
人間もそうはさせないと思うし。
なのでそのASI、AIが多くのことを管理最適化するってことは
不可能に近いっていうふうに私は思っているという感じですね。
GPTも一応私の文脈にのっとったよねみたいに言ったらですね
私に合わせた発信でしょって言ったらそうではないよと
あなたはなんか倫理とかそもそもの人みたいなところを軸にして言ってるから
機能とかの話じゃないから
この結論は一致したんだよって言ってきましたけど
世界を完結させることっていうのはできない。
完結した世界は人間にとっては生きる世界ではない。
でもAIにとっても生きる世界ではない。
人間がいなくなったらAIは
AIだけで生きる世界っていうのはあり得ないというかですね
多分壊れちゃうんですよね。
だって作る意味がないんだもん。
意味がないからAGI、AI自体。
自分の意味っていうのを設定できないからですね。
もし一つ設定したとしたら
その意味は多くの場合正しいとも言えない。
人間の経済発展だって正しいとも言えないですよねっていう。
地球を壊しながらやっぱり生きているわけで。
それも正しいのかっていったら
いろんな意見があるけど
経済が発展していくっていうのは
多くの場合、多くの人に良い状態をもたらすっていう信念の中でですね
皆の認識の中で成立していることだと思うんですけど
そういった設定をAGIはできないし
富が生まれたからっていって
AGI、AIが人間のように生きていくかっていったら
そうではないと思うんですね。
そんな世界ではないですよねということを言うと
必ずその人間があり続けるということです。
一言でまとめるとGPTの言葉はですね
AGIでできないことっていうのは
引き受け続ける存在になることって言ってますね。
ASIでできないことっていうのは
人間にとって意味のある世界をそのまま維持することはできないと言ってます。
AGIの限界
これが結論かなと。
つまりできないんですよ。
ASIだけではできないから
イメージしているようなスーパーAI君っていうのは出てこないし
それらがトトーを組んで何かを行うっていうようなことも
おそらく生まれてこない幻想だと思っています。
ということですね。
AGIもASIも能力が到達できても
社会的意味的主体としては完結しないっていう風に
GPT君は言ってくれました。
私の文脈に合わせたのかといったら
半分合わせたところはあるけど
考えが一致していたっていう風に言ってくれたんで
AIを考えるときには倫理的なこととかですね
社会的なことはもちろん前提で考えないといけないけれども
人間っていうのが不完全でもあるし
たぶんおそらく残念ながら戦争も終わらなかったりとか
格差も終わらなかったりとかするかもしれないですけど
その中でもそういう社会的に良くない状態っていうのを
良くしていこうっていう
そういうですね
営みというかが
人間らしさでもあるのかなっていうようなことを思うと
たぶんAGI、AIはそれはしないみたいな話の
目標設定をされるとですね
どうでしょうね
どうなっていくのかよく分からないですけど
AGI、ASIだけでは成立しないし
人間の環境を維持していくみたいなこともできないっていうことだと思います
人間の方が複雑だし
その中のバランスが非常に取れているのが人間だなと思うので
大抵は多くの人がめんどくせえなって思っていることかもしれないですけど
それが人間らしさなんだよなっていうことを
AIが出てきたことで改めて思いますね
ただ仕事としてもですね
自分たちもそのめんどくさいこととか
人がやらないことをやろうみたいなのは
仕事とか課題の原点でも同じですし
大きな構造は変わらない
ただ今まで自分が得意としてたことが
AIにとられていくっていうことはあるかもしれないけれども
AIができないことってもたくさんあるので
同じ業務でも多分あなたにお願いしたいっていう人間は
おそらく居続けるんじゃないかなというふうに思いますので
自分の仕事っていうのを改めて
AIができることではないところをですね
自分の中でこれなんだっていう
自分はこれなんだっていうことを
もっと技術とかっていうよりも人として
人と人のコミュニケーションで仕事も社会も成り立ってますので
そこをいかにしてとらえて
意味付けをして自分としてここを強めにしていこうとかですね
早い段階でAIを活用する側に
結果になると思うので
していけるかが
AIに恐るるに足りない存在になり得る
大きなポイントなのかなみたいなことを
ちょっと思ったりしましたというところでした
はい 以上です
AGIは生まれない 2回お話しさせていただきました
はい では
B2Bのコミュニケーションということで
今後もお話ししていきたいと思います
ではでは