AIメディア編集長のたつけです。 AIコンサルタントの平岡です。この番組は、AIメディアを運用する2人が、
AIを活用したい人、もっと学びたい人に向けて、AIの最新動向やその未来に関する情報を一緒に学ぶポッドキャスト番組です。
ということで、本日のトークテーマは何でしょうか?
はい、AGIは人類を滅ぼすのか?
滅ぼす! 滅ぼすかな、本当に。
まあね、滅ぼすということって大丈夫ですかね。
いやいやいや、結論付けないから。
なんでこれをちょっと喋りたいと思ったかっていうと、前々回の配信でね、AI祭の振り返りっていうのをやったけど、
このね、AI祭のトークセッションで、LLMに意識は宿るのかっていうトークテーマで話されてて、
前々回のうちらの振り返りでは、そこのトークテーマの奥の方まで2人でディスカッションするみたいなことまでは時間的にできなかったから、
そうだね、個人的にはそこのトークテーマの部分が、いろいろ俺なりに思うことがあって、ちょっと話したいなっていう感じ?
滅ぼすっていう文脈で言ったらね、いろんな要素が絡み合ってるもんね。
そうそうそうそう。最初に俺が一番話したかったことをお伝えするので、そこからちょっと2人で広げていこうかなっていうふうに思ってて、
最初俺がその話を聞いて思ったのは、人間って実はタスク特化型知能かもしれないっていうふうに思ったことがあって、
これどういうことかっていうと、AGIっていうのは、皆さん聞いてる方は知ってると思うけど、汎用人工知能っていうのが正式名称じゃん。
この汎用って部分がポイントだと思ってて、汎用型っていうのは一つのものを広くいろいろな方面で用いたりとか、一つのものでいろいろできるみたいなのが汎用型じゃん。
タスク特化型っていうのは、一つの目的を達成するためにそれに特化したもの。
今世の中にあるのはそのタスク特化型のAIだけど、それが一つのAIで何でも人間のようにできてしまう汎用型ができるかもしれないっていうのがAGIの文脈でよく言われてることじゃん。
AI祭で司会の尾崎園さんが言ってたのが、人間も三大欲求、食欲、睡眠欲、性欲っていうのがあって、
ある意味ではそういうタスクを与えられた知能みたいな考え方できるよねー的なニュアンスのことを言ってて、
その時に俺は確かになってすごい思ったわけよ。
人間ってやっぱり子孫繁栄というか子孫を増やすっていうのが本能的にめちゃくちゃ強く刻まれてるじゃん。
って思ってて、俺は個人的にね。もしかしたら人類っていうのは子孫を増やすっていうタスクを与えられたそれだけのための知能っていうの?
なるほどね。 そうそうそうそう。
なんじゃないかな。そういう考え方をすると、これは本当は今回のトークテーマの結論を先に言う形になっちゃうんだけど、
AGIっていうのはそのAGIを増やすっていうタスクを与えられたタスク特化型のAIなんじゃないかっていう結論に俺はなったわけよ。
AIさんの話を聞いて。
人間が子孫繁栄の特化型のタスクだとしたら、人間っていわゆるAGIみたいなものだから、じゃあAGIも同じ文脈になるんじゃないかっていうことか。
もし本当にそのタスクを与えられたAGIが登場したときに、人間がAGIを増やすことにおいて邪魔な存在だって認識されたら、やっぱ滅ぼしに来るんじゃないかなみたいなそういう感じじゃん。
なるほどね。ヒエラルキーっていうものは存在するからね。
そうそうそうそうそうそう。
まあ、滅ぼすまでいかなくても共存するために減らすみたいなことは考えられなくはないね、確かにね。
そうそうとか、あとはさ、今さ、人類もさ、その動物保護というかさ、その動物の今の環境をさ、残そうってしてるわけじゃん。
絶滅させなかったりとか増えすぎなかったりとか。
ってなるとやっぱり人類が増えすぎたら、ちょっとね、あの生態系変わっちゃうから人類ちょっとまびかなきゃなみたいな話をAGI側がしてきたりとか。
なるほどね。
そう、そういう感じをAGIが判断する可能性があってもおかしくないなっていうのを思って、この話をちょっとヒラとしたかった。
で、これさ、AIさんの時にヒラにこの話をしたら、ヒラはさ、いや俺は違うと思うんだよねって言っててさ。
そんなはっきり違うと思うんだよねとは言ってない気がするけど。
いやいや言ってた。俺はそうは思わないみたいなこと言ってて、でもなんかその場ではさらっとちょっと会話できずに終わっちゃったから。
まあね、講演してたからね。
そうそうそうそうそう。もうちょっと具体的に聞きたいなと思って。
あーそう、だから前提がLLMに意識は宿るのかっていうのがあって、その延長線でタスク特化形のなんじゃねっていう仮説が以降で出たんだっけ、確か。
そうそう、だから要は意識っていうのは、要はなんだろう、うちら人間が意識って定義してるだけであって、要はこのタスクをなんていうのかな、クリアしようと思って自発的に動いてるだけでいい。
それはYESとNOのただの判断でしかないから意識でもなんでもない。
人間もきっとそうなんじゃないか、みたいなことを確かその登壇してる誰かが言ったんだよね。
それで尾崎園さんが、確かに人間も三大欲求しか欲求ってないから、それを満たすためにただ自発的にYESとNOの判断で動いてるだけですもんね、みたいな感じのこと言ってて。
あーそうだそうだそうだ。
その前提をね、言うと、俺は違うと思うんだよねって言ったよね。
そうそうそう。
で、なんで違うかって思うと、人間には解釈というものが存在するからっていうのを俺言ったんで確か。
あ、そうなんだ。ようやく聞けたわ。
その本能だけで生きてるわけじゃないじゃん、人間って。
一つの物事に対しても捉え方って全然違うわけじゃん。人によって180度違うこともあるわけじゃない。
だから、そのYES、NOのただの電気信号で選択してるっていうのは事実かもしれないんだけど、その間に解釈というものが存在するから、違うような気がしてる。
なるほどね。
ってなるとじゃあ本当の意味でのAGIを完成させようと思うと、その解釈みたいなものをちゃんと取り込んだものを開発できないといけないっていうことなのかな、人間レベルのAGIになるとってことは。
意識って俺そういうことだと思うんだよね。与えられたことをこなせるだけのやつなんて別にロボットじゃん、ただの。
与えられたことと全然違うこととか、想像を下回るとか上回るとか、めちゃくちゃ変数が多いものが俺意識だと思うんだよね。
その前提が解釈だと思うんだよね、能力じゃなくて。
だから、そう思います。解釈というものをLLMに。どうなんだろうな。いわゆるそれが暗黙値ってことなんだろうな、でも。
だからあれだよね、佐々木さんだっけ、そのタイミングで記憶の積み上げの話してたんだよね、小澤玄さんに飛ばされちゃった時。
そうそう、バイアスの塊じゃん、人間ってって話でしょ。
そうそうそう、だから要はそういうyes,noの判断をどうするのかっていうのは過去の記憶とか経験の積み重ねによって判断が変わる。
平野由悠さん解釈みたいな部分がそこたぶん紐づいてるみたいなニュアンスなんだと思うけど、だからすごいそこ聞きたかったんだけどね、聞けなかったんだよね。
確かに確かに。
そうね、アンソロピックなのかオープンAIなのかみたいなね。
そうそうそうそう。だからやっぱ、必然的にAIエージェントっていうのはきっと出てくるよね、このタイミングで。
そうね。
第3フェーズ、2025年から2026年、来年から再来年にかけてだね。
これがAIのOS化。これはAIそのものがOSになる。
だからこれがネットが初めて登場した時みたいな同じレベルの変革が生まれるんじゃないかっていうふうに言われてるタイミング。
なるほど。
そう。で、2027年ここでAGIが誕生するっていうふうにこのザック・カース氏は未来予測してるんだけど。
まあでもこの人もともとオープンAIのGTM責任者をやってた人じゃん。
これってこの人の予測っていうかオープンAIで共有されてたスケジュールというかロードマップなんじゃないかなって俺個人的にちょっと思っててさ。
そうね、可能性はあるよね、全然ね。
そうそう、これを目標に向けて動いてるんじゃないかなみたいな。
かなり順調だよね。
かなり順調。エージェントは出てくるだろうね、間違いなくね。
これがね本当にオープンAIのスケジュールやロードマップに近いもので、かつ順調なんだったらやっぱ2027年あたりのAGIリリースみたいなのは全然ありえなくないんじゃないかなみたいな。
つまり2027年に人間は滅ばされると。
人間は滅ぼされる。
危ないね、あと3年。
だからあれだよね、AGIだったとしてもさ、要はハードがないから殺しに来れないじゃん。
まあね、オンラインに繋がっちゃうとちょっとわかんないけどね。
そうだね、確かに。
オンラインに繋がってる核兵器とか多分ないと思うけど。
そっかそっか、オンラインにさえ繋がってればいけないことはないのか。
別にハードはいくらでもありますからね、世界に。
確かに、そっかそっか、自動運転の車が突っ込んで来たりとかそういうこともありえるわけだもんね。
それで終わりだよね。
怖いな、じゃあやっぱ危ないね。
やっぱ危ないねじゃないよ。
やっぱ危ないね。
ただ不安を煽る回になっちゃうからこれ。
確かに。
AGIができる可能性がこれぐらいにあるよっていう話で。
さらに言うと最近いろんな人が同じようにAGIについて言及してて。
例えば4月8日にイーロン・マスクがXのスペース上で、
AGIを最も賢い人間よりさらに賢いAIというふうに定義するならば、
おそらく来年か2年以内になるっていうふうにイーロン・マスクが話してるんだよね。
イーロン・マスクは実際にXAIっていうAIの開発の会社もやってて。
だけど同時にAIが危険性があるっていうことで、
注意喚起みたいなのも一緒にしてるみたいな状況。
注意喚起のほうがめちゃくちゃ多いよね、世界的に見たら。
日本だけじゃない?こんなに議論されてないの。
ほんとそうだよね。
世界中ではめちゃくちゃAIの取扱いについて議論されてるからね。
マジで危ねえからあいつらみたいな。
でもそれが2027年に来たら何も整ってない状態で誕生しちゃうって考えると怖いよね。
理論上はできるわけじゃん、もうすでに。
あとは実際に作って、レギュレーションを整えてっていうことだよね。
そうね、やるかやらないかっていうところなんだろうね、結局は。
最後にですね、AGIの実現に向けてある重要な概念があるので、
それをちょっとご紹介しようかなと思いまして。
これはね、オープンAIの社員であるダニエル・ココダジロ氏とリチャード・ゴ氏が
2023年5月にAGIについてある予測を行っていて、
リチャード氏によるとこれはTAGIっていう考え方を提唱してます。
TAGI。
TAGI。
これは特定の時間、Tね、タイム。
特定の時間内に実行されるほとんどの認知タスクで、
各分野の専門家の大半を埋まわる能力を持つAGIを指す。
埋まわる。
埋まわる。
気づくなよ。
俺が噛んだことを気づくな。
そう、埋まわるAGI。
はい。
はい。
これ要するにどういうことかっていうと、1秒のAGIはその1秒のタスクを行うと、
専門家の大半を上回るっていうこと。
1秒?
そう、1秒だけ、だからウルトラマンみたいなもんだよね。
3分間だけウルトラマン最強じゃん。
みたいな感じで、1秒間だけめちゃくちゃ最強。
どんな、要は一瞬だけAGIになれるみたいな。
はいはいはい。
それがTAGI。
なるほどね、その時間、ウルトラマンバージョンのAGIってことね。
そうそうそう。
で、このリチャードさんが言うには、1.5年ごとに時間が10倍増えていくって予測してて、
で、2023年は1秒のAGIが、2026年には100秒のAGIになって、2032年には100万秒のAGIになる。
すごいね、指数関数的な。
そう。で、ここ田次郎氏は、同じこと言ってるんだけど、一定の増加じゃなくて、最初はゆっくり増加して、後に急増するって予測してるのよ。
はいはいはい。
で、2023年は5秒のAGI。
で、2026年は2000秒のAGI。
で、2027年は無限って言ってる。
無限!
インフィニティ。
ただ、ただここで面白いのが、2027年に無限って言ってるのよ。
あ、そうなの。
この2027年、どっかで聞いた年数ですね。
えっと、なんだっけ。
いやいやいや、今話した。
今話したっけ。
これはだからさっきのザック・カース氏が未来予測してた、AGIが誕生する第4フェーズが2027年。
じゃあ、AGIイコールインフィニティ、無限ってことですね。
そう、だからこのAGIっていう、T-AGIっていう1秒間のスーパーAIみたいなものを、今徐々に時間を伸ばしていって、
2027年にこれが無限になることによって、本当のAGIが完成するよ、みたいなことをここ田次郎氏は言ってる。
なるほどですね。
で、これ興味深いのが、どちらも2023年は1秒の認知タスクだったら専門家を上回るAGIレベルっていう見解で2人とも一致してるわけよ。
で、ジミー・アップル氏がさ、2023年にオープンAI既に内部にAGIを達成してるリーク情報があったわけじゃん。
これはどういうことかっていうと、もう2023年の時点で数秒間だったらAGIを使えてるっていうニュアンスなんじゃないかっていう。
全く同じことを考えました、私も。
本当に?
コナン君みたいな感じになったよ。たぶん聞いてくれてるリスナーの方も、今コナン君みたいになってるよ、たぶん。
推理してた。
つまりこれとこれとこれをこうしたら、数秒間はAGIもういるんじゃない?みたいな。
でもほんとそういうことよ。
なるよね。そういうふうな推察はできるよね。
そうそう。だからAGIが内部で使える状態になってる。でもAGIはまだない。っていうこの矛盾した状況ってこういうことなんじゃないかっていう。
いやーそうですね。TAGIはいると。何秒かは知らんけど。
そうそうそうそう。だからもうある。だからソラとかもAGIが作ったっていうのも穴がち間違いじゃないかもしれない。
例えば30秒間だけそこに依頼することによってものすごいものがピョンって出てきたみたいなことは全然あり得るじゃん。
しかも計算能力の高さとか考えたら数十秒でも相当なレベルのものが出てきちゃうかもしれない。
そうだね。
だからこれが2027年に本当に無限になるのかどうか。そこが無限になることによってインフィニティAGIが誕生するかもしれないという。
なんか中日っぽいんだよなインフィニティとか無限とか。
それは。
突然アニメなんだよマジで。いやすごいですねでもね。
じゃあ無限になってしまったら結局人間って滅ぼされるんですかねこれ。
そうだね。滅ぼされますね。
いややめろやめろ。否定してくれそこは。
意識とかちょっと本当に宿らせて解釈ができるようになったらマジで危険だなとは思う。
そうだよね。
相反することできちゃうわけじゃん。だって人間と人間が殺し合うわけじゃん。戦争をして。
あれって価値観の違いなわけじゃん。宗教とかいろんなね。
っていうことがAGI、AIvs人間みたいな構造になるわけだよね。
同じように解釈できるようになったら。構造的には成り上がっちゃうから。
意識とかそういう深い部分まで行っちゃうとね。
滅ぼされる可能性は上がっちゃいそうだなとは思いました。
そうなんだよね。だからそこはやっぱりいかにねリスクなくAGIをリリースできるのかっていうのは本当に注視したい部分だね。
そうだね。世界中でもすごく議論されているのでこの辺りの情報はキャッチアップして発信は続けたいなと思います。
めちゃくちゃ便利なものにはめちゃめちゃ危険なリスクもいると認識した上で使っていきたいですね。
そうですね。
はい、じゃあエンディングでございます。エンディングは好きなことをしゃべっていきたいなと思うんですけど。
今回の話はなかなかAIの最先端の情報のキャッチアップとかではなく、本質的で、最新で言ったら最新か、議論されてるもんね。世界中でね。
そうだね。今までは都市伝説とか前打つ場の話だったのがようやく科学的な視点でちゃんとしゃべれるようになってきたような、みたいなそういう感じかね。
確かにね。なんか中二感あったけど中二感じゃなくなってきたね。
本当に。
本当に真剣に話さなきゃいけないところ?
そういうフェーズになったなって感じるよね。これに関しては。
本当はもうちょっとしゃべりたいこといっぱいあってさ、それこそヒラもさ、一つの生物からブワーって子供増やした方がいいんじゃないみたいなさ。
そんな効率的なんて話してたけど、要は元々そういうふうに生物で増やしてきたわけじゃん。自分を複製してクローンのように。
そうすると要は一つのウイルスとかで全部さ死んじゃうじゃん。
多様性を求めるためにあえて性別の異なるものを作って男女っていうのを作ったみたいな。
あーなるほどね。
そうそうそうって考えたらじゃあAGIもその多様性を求めて様々なAGIをあえて作るような行動をするのかなとか。
でもなんかもうそういう話し始めるとなんかマジで人間とはっていうところを突き詰めないと答え出ないなと思ってやめたんだよね。
確かに。
その話、あえてこんなにめんどくさい形をとってるっていうことを考えるとタスク特化型が子孫繁栄?
子孫繁栄というタスク特化型が人間だっていう説は結構面白いかもね。
これが一番最適解なのかもしれないっていう実は。
あー実はね。
それ最初に話してくれよ。
これを話したほうがよかった。
エンディングじゃなくてこれ最初に話してくれよ。
これからじゃあオープニングということで。
ならないか。
もう一回しゃべる?じゃあ。
しゃべんねえよ。
いいですね。来週なんか決まってんの?
全然決まってない。
決まってないですか。
なんか話したいことあんの?
もし話したいことがあればねお便りとか欲しいなっていう。
あーそうだね。ぜひぜひ。
あのクリエイトXYZとかもね話したいよね。
あーそうだね。今めっちゃいじってるんでしょう?
めっちゃではないけど、でも昨日夜いじって一個作ってみたよ。
あー本当?聞きたいね。そのへの進捗とかは。
そうですね。最近の使ったAIツールの紹介とかね。
まあなんかこんなこと話してほしいとかあればね、ぜひお便りをください。
お願いします。
じゃあ最後にね、告知でございます。
お聞きのポッドキャストアプリでAI未来話の番組フォローとレビューをお待ちしています。
フォローすることで最新話が更新され通知がきます。
この番組はランキングに入る可能性が上がります。
お互いウイミンなのでぜひお願いいたします。
レビューをしていただくことで番組の改善やまだ聞いたことない人の聞くかどうかの判断指標になりますので、
ぜひ星5評価お待ちしております。
来週も木曜朝7時に更新されます。
通勤通学のともに聞いてくれると嬉しいです。
ということで本日もありがとうございました。
ありがとうございます。