1月何起きる、2月何起きるっていう流度で書かれている。そんな内容ですね。 こんなに細かく書けるかっていう感じもするけど、あれなんだよね。書いてる人が
元オープンAIのガバナンスの担当の人だっけ? そうですね。オープンAIを、AIの安全性とかそこらへんの懸念を理由に退職したっていうところで
そういう人なんだ。 そうなんですよね。
オープンAIがどこに向かうかみたいなところで、結構ニュースにも取り上げられている感じで、利益に向かうのかとかリスク大丈夫なのかとか
いろんなニュースが出てきますけど、その中でも安全性の懸念っていうところに少し 疑念があったのかっていうところで退職をして、それでもこの分野だと結構
低量的な予測っていうところにすごくこう 知見のある人で
だからまあこういう今回2027という論文を書いて、注目されているという感じですかね。 なるほどね。っていう人とあとは5人くらいで書いてて
もう一人セカンドオーサーだとアメリカの精神科医で、この人はかなりブロガーとしては有名な人 スコット・アレクサンダーっていう人ですけど
精神科医なの? 精神科医で、倫理とかそういう観点で、AIの危険性とかを今回は話しているというか書いているそういう人ですね
だから哲学とか医学っていうところのバックグラウンドがあるみたいで、だから結構哲学寄りの話というか
まあ思想も強めな論文だなというふうに自分は受け取りましたね 思想はまあ確かに強いよね、でもどうなんだろう
どっちかというとこういう心配をしながら進んでった方がいいよみたいな雰囲気な気もしたけどね
そうっすね、確かになんか不安を煽るとかそっちよりかはこういうAIの進化があるから
こう皆さんそれを知って備えましょうねみたいな
なんかそんな感じがした、変なバズりを狙ったような ネット記事っぽい感じではなくて
ちゃんとこう来る、でこの周りではこういうことが発展していくみたいな感じ
でちょっと具体的すぎるけど本当にそんなに起こるのかみたいな気持ちで読むものだったら
そうですよね、結局あれでしょ AI2027って言ってるぐらいだから言ってて最後は2027年にがっつりその
AGIみたいなものが来るよっていうだからもうあと2年だよみたいな
その非連続な成長というかが書かれている感じで聞いてくれればいいよね
そうですねじゃあもうちょっと早速中身ちょっと話していきたいんですけど
なんか論文のイントロに書いてあったところが自分は結構面白いなと思っていて
なんか論文の位置付けみたいなところをちゃんと書いてくれてるんですけど
こういわゆるAGIとかASIみたいな アーティフィシャルスーパーインテリジェンスですかね
スーパーヒューマンみたいなAIがなんかこう訪れて
まあそれがこういろんなオープンAIとかGoogleディープマインドとか
アンソロピックのCEO、CTOがそういうあと数年でASIが誕生するよみたいなところを言ってるけど
でもまだ人々は人々とか社会が全くその準備ができていないという現状に対して
リスクがあるよねっていうふうに著者たちは思っていて
実際に起こりうるシナリオと社会のギャップを埋めるっていうところを今回目的としていて
だからこういろいろな広い範囲の人たちにこういう未来が起こりうるから備えてくださいねっていう
なんかそういう位置付けですよっていうふうに書いていて
そこから始まってるんですよね論文の中身というか
でその先にこういろいろと時系列が書かれていて
実際にASI、AGIが登場して
でその先どうなるかっていうところが結論として2つシナリオが書かれている
はいはいはい
一つはスローダウン、もう一つはレイスっていう安全を重視するスローダウンなのか
もっともっと開発を進めていくレイス開発競争が起こるのかっていう
どちらかのシナリオが起こりうるでしょうみたいな着地をしている論文なんですよねこれは
マルチエンディングだ
そうなんですよ
だから人類の選択を左右するシナリオがあるから
どちらが起きてもおかしくないよねみたいな
でもさもうレイス一択なんじゃないのって思ったけどね
いやそう思いますよね自分もそう思ってました
この人の希望は多分スローダウン
ここが一番なんか本人の意思が乗ってるんじゃないのか最初のそのさ
この書いた人のバックグラウンドあんま知らなかったからあれだけどさ最初のタッチャンのその教えてくれた著者の人の情報を聞くと
なんか
もうちょっとスローペースにリスクも考慮しながら進んでった方がいいんじゃないみたいなが言いたいからまあスローダウンは入ってるけど
一社がずっと出してたらまあスローダウンっていう選択肢もあるけど
スローダウンって結局はなんかその開発してる会社の敗北みたいなとこに繋がりかねない
まあでもそっちを取った方が英談っていう可能性もあるよってことなのかな
いやでもねまだねこのシナリオ通りに読み進めていった時の実際に起こり得る状況を聞いた上でどっちが
実際に起こるかっていうのをちょっとね考えてみてほしいなと思っていて
自分は読んでいた時に確かに読む前はレースなんだろうなと思ったんだけど
読んでいくといやこれスローダウンしないと確かに危険だよなみたいな
ああなるほどね
感じたんでちょっと最後またこの議論をしてどっちがいいかってところはなんか自分たちの意見を持っておきたいなと思いましたね
ああオッケーオッケー
簡単に時系列に沿いながらピックアップしながらこういうことが起こるよみたいなところを言っていきたいんですけど
隣のデータ分析屋さん
この番組は隣の席に知らないことを気軽に聞けるデータ分析屋さんがいたらいいなぁを叶えるポッドキャストチャンネルです
論文だとですね2025年の4月のタイミングで何が起こるかところからも始まっていて
2025年の中期あたりはですねAIエージェントが世界で初めて人々が目にするというふうに書かれていて
確かに最近AIエージェントがサービスとして出てくるよねみたいなところがあるかなと思うんですけど
海外とかだともういわゆるパーソナルアシスタントという名前でドアダッシュとかいうサービスが具体例として書かれていて
もうAIエージェントにピザを注文したらドアダッシュのサービスが繋がっていて
ドアダッシュがこう 家まで運んでくれるみたいな
っていうところまで実現できているみたいなのでそういう意味だと少し日本よりかはアメリカとかの方が
AIエージェントを使っているのが生活に溶け込んでいるのかなというふうに思ったんですけど
そうだねドアダッシュmcpサーバーっていうのがいくつか出てくるねやっぱり
そうですよねでもドアダッシュとしても音声で注文してねみたいなところをサービスとして打ち出していて
こういう食事の注文とかスケジュール管理とか何かの買い物とかね
エージェントにお願いするっていう世界線が当たり前になってくるよねっていうのがここ直近の
あれですね2025年の中期初期から中期にかけてですね
まあ今そこはしっくりくるよね
そうですよねmcpの話題をこの間話して
何でもつなげれるよとかってなってパスがつながりまくっていく時代だから
まあそういうのもできるようになると
とはいえみんながみんなエージェントを使いこなすかっていうとそうじゃなくてまだまだ限定的で
どうしてもAIエージェントをゴリゴリ使うってなると専門的にコーディングしている人たちとか
データの分析をしているような我々みたいな職種の人たちが多くて
スラックとかTeams経由でエージェントにお願いをして行動を作るとか何か開発ソフトウェアを作るとかそういうところで
使っていく限定的な使われ方をしているよねっていう内容も書かれているんでまあこれも結構しっくりくるかなと
そう思いますねなんか今こうエージェントシステムみたいなのを作ろうとすると
まあ引き続きなんていうんだろうな特定のタスクをこなすための
ツールを作っていく感じそうですねまさに確かにでもそういう考え方になっちゃうのもわかる
AIの使い方としてAIエージェントとAIワークフローを切り分けて考えようみたいな話を以前しましたけど
まさにその内容も書かれていて企業とかは自社のワークフローにAIを組み込むみたいなところを試行錯誤するけど
まだまだ失敗もするし100%AIがやってくれるんじゃなくてAIエージェントの監視というか
まだまだしなきゃいけないよねみたいなところがまあ書かれていますねしっくりきますわなそうですねここはまあそうなるんだろうなここ数ヶ月
はどうやってAIエージェントを使えばいいんだろうっていうところを試行錯誤するというか模索する感じですね
でここからですよここから半年先とか2025年の後期あたりで
エージェントゼロが発表されますこれはですねチャットGPTみたいなGPT4とかのモデルがあったりすると思うんですけど
さらに一段階というかもうバージョンアップなのか全く別のサービスなのかわかんないけどいわゆるエージェントを我々が使えるような
形で世にリリースされていくエージェントゼロ っていうのが出てくるって話ですね
でこの論文だと具体の企業名が書かれているわけではなくてあくまでこう仮想のアメリカの AI 企業
オープンブレインという名前で出てくるんですけどまああの企業ですねきっと あの企業がエージェントゼロっていうのを発表してここからは2、3ヶ月のペースで
ゼロからワン、ツー、スリーっていう感じで リリースがどんどんされていくっていうふうに言われていて
GPT4のモデルの計算速度と比べると数千倍の速さで処理を行うことができる
エージェントモデルですね そうだねだからなんか10の25乗から10の27乗になるって書いてあるやつでしょ
あそうですそうですなんかこう論文だと時系列で出てますよねこのタイミングでこの スペックのモデルが出てくるって
えこれさちなみに俺読みながら思ってたんだけどさ みんなどのあれで読んでるんだろう
俺 AI2027.com のなんかインタラクティブなウェブページで読んでるんだけど pdf は
えっといや基本は えっと今言ってくれてる
2027.com の方ですね あーこのであれあれでいいの下にスライドしていくと右の図がむにゃむにゃ動いていく
やつでいいの あーそうですそう
多分そのページの一番上に pdf に 飛べるリンクが置いてあってそれを飛ぶとあの
現状の pdf ファイルが見れますね まあだからチャット gpt とかまあその他のクロードとかに投げる時は pdf を落としてきて投げるとか
なんかこのインタラクティブのページの url を送っても うまく認識してくれなくて
あーそうなんだ pdf を渡した方が確実かなと思います えっとですねこの右上のインタラクティブなページの右上のまとめとか研究
みたいなところを押すと アペンディクス的に技術的な観点だとこういうまとめ方してるよとか
でまぁ2025から26にかけてその中国企業がどんどんこう 集約されていって
26年の中期あたりには中国がその中央集約型の開発チームみたいなのを国家で作って そこに全研究員が集められる
で研究者のためにセキュリティガチガチのその居住スペースとガチガチの研究所と用意されるからもうそこで全開発を行っていく
っていうようなシナリオですね あり得るんだろうね
いやこれ面白いなと思ってでもやっぱそれでも研究者集めてもやっぱりアメリカにはまだ勝てなくて ここからはもう情報の戦いというかどういうふうに研究をしていけばいい
ai エージェントができるのかというところになっていて 結局 ai って学習がすべてなんで
学習の重みを中国は欲すんですね だから中国としてはスパイ活動的なこともまあ起こるでしょうねと
まあ逆もだろうけどねなんでその情報 セキュリティとか
そのセキュリティレベルの問題 も国は取り組まないといけないしまあアメリカとしては取り組まなきゃいけないし一方中国として
もいつそのスパイ活動を始めるのかによって 失敗したら一気にアメリカのセキュリティレベルが上がるんで
タイミングも見ていかないといけないから なんで冷戦的にこうお互いがこうに並み合うというか
っていう状態がまあ 続くのかなと
確かにそうだよねまぁ冷戦 冷戦の例えが一番いいんだろうね
そうですね宇宙開発で宇宙にどっちが人を連れていくかをソ連と競い合ってた時に 爆発的に宇宙開発の技術が上がっていったって言う
で多分向こうが向こうがどういう計画で行こうとしているのかっていうのを 掴み合って
で
でアメリカは1回出し抜かれるわけだからね ソ連に宇宙に人間が初めて行ったのは
ロシアだから 確かにそうか
これはでも知らない人も多いんじゃね そうなのかな
自分もそういえばそうかと今思いましたよ そうそう
で軍人集めまくって ユニット作りまくってとにかく宇宙行くぞってやってそしたらロシアに先行されてみたいな
ロケットを宇宙に届けたのもロシアが先?
月に行ったのはアメリカだけどってこと?宇宙に行ったのはロシアが先なんだ そうそうそうそうそう
ほーなるほど ちょっとね先にロケットがどっちだったかちょっと忘れちゃったな
なんかそこの攻め気合があって最後多分月で 終止符みたいな
うーん なるほどね
だから多分その月が今回で言う そのAGIなんだとしてそこまでに必要な
だんだんジェネラルになっていくところのどこをどっちが抑えていくかみたいな 最後AGI取れた方が勝ちだから
まあ最悪そこまで こう劣勢になっても義理しょうがないみたいな
ことになるのか まあでも多分そんなこと言ってらんないぐらい過劣な争いになるのか
でもこれ 宇宙開発と一個違うのはいかに
こう 賢いAIをどっちが早く作るか
もう少し言うといかに人間のこの知識レベルを超えた AIを先に作るかっていう勝負かなと思っていて
それが実現すると人間の制御を超えて AIがAIを作るくらいのレベルまで達すると一気にこの知能というか知能レベル
ってしまうし数関数的にガンと上がってしまうから もう他が追いつけなくなってしまうっていうAIがAIを賢くしていくフェーズになるから
だからそのレベルまでにどっちが早く到達するかの勝負なのかなと思っていて 確かにね
この論文だと知識爆発知能爆発という言葉で インテリジェンスエクスプロージョンって言うんですけど
知能が爆発的にこの上がるみたいなところが どこが早くそれを実現できるんだっけみたいな
っていうふうに書かれているから 6ヶ月のこの中国の遅れっていうのは相当
危ないというか だから結局その出来上がった出来上がったやつの賢さの中にもさ
なんだろうそのAGI同士の偏差値みたいなのがさ きっとあるじゃん人間と一緒でさ
でその偏差値が超えられちゃったら別になんか 1、2年
いくら半年遅れようと1、2年後には巻いてるみたいな感じなのか そのAGIっていうのはもうそもそももう偏差値とかないのかな
面白いですね もう人間と比べたらそれはもうさ もう今の時点でさこの間
オープンエイ出したモデルだともう 140超えた云々みたいななんかさ
なんかIQとしては出てたけど それがもうなんか人間基準でいくともう振り切れちゃうから
完走するから一体話として AIのIQみたいなのもきっと優劣もあるし
AGIとはいえ得意不得意もきっとあるだろうからわかんない それがそもそも古い考え方なのかもしれないけど
モノとしてねなんかに取り組むってことは何かしらのルールを自分で見つけてるわけ だから
その見つけ方のセンスみたいなのは全AIが同じではないはずだよね 統計的に攻めるだけだとしても同じものが
結局は人間都合の比較になってしまうのかなとは思っていて 確かに知能レベルだと人間のなんか理解を超えたところまで行っちゃうから
比較できるのかっていうのは確かにそうで 一方なんか人間がこう今回このエージェント作るにあたって人間が定めたルールみたいな
ところを守ってねみたいな なんかスペックっていう言葉で書かれてるんですけど
いわゆる人間の作っている法律破んないでねとか ユーザーを助けてね基本的にはみたいな抽象的な目標をもとに学習している
っていう話と あとは具体的に爆弾の製造は絶対に予測として出さないでね
アウトプットしないでねとか殺すって言葉はこのポッドキャスト言うのはどうかと思う けどそういうちょっと
ネガティブな言葉を使っての発言はやめてねとかっていう 具体的にこういう言葉は使っちゃダメだよっていう風に学習されたりとか