はい。
まずDevDay 2025要点を紹介しますと、主に分けて大きく4つの発表がありまして、
SORA2を含む新規APIの公開と、Agent Builder Codecsの正式公開、
Apps Inside Chat GPTという4つの大きいニュースがありました。
はい。
まず、新規API公開なんですけども、APIというのは外部のサービスからチャットGPTとかを利用するための仕組みなんですけど、
それがいろんな使えるモデル、使えないモデルがある中で、
新しくGPT 5 Proとか、リアルタイムミリとかオーディオミリとか、いろんなやつが新しくモデルが新規で公開されたので、
API経由で利用できるようになりましたよっていうのが今回のニュースなわけですよ。
だから、開発者からすると、自分のサービスにこれらを組み込めるようになったよっていうことですね。
そうです。
で、その中でもやっぱりインパクトが大きそうなのが、SORA2とSORA2 ProがAPI経由で利用できるようになったっていうところなんですね。
GPT 5 ProもAPI公開されたよね。
そう、GPT 5 ProもAPI公開された。これも確かに大きい部分だね。
なので、開発者はこういった最先端のモデルをAPI経由で使えるようになるわけなんですけども、
にわかにちょっと騒がしているのは、API経由でSORA2を使って生成すると、スカシのウォーターマークがなく作れる。
で、商用利用が可能になるっていうのがちょっと話題になっている部分があって。
そうですね。ちょっとAPIの料金はお高めですよね、その分。
そうですね。お高めではありますけど。
これができるようになると、例えば商品販売とかで、LPの制作と同時に広告動画が作れるようなサービスが新たに生まれたりとか、
あとは採用系のサービスで、そのまま動画まで出しますよみたいな、そういうパッケージになったようなサービスとかが作れるようになるっていう意味では、
ありがたいAPIの公開ではあるんだけど。
だからね、今後SNSとかでもそのスカシのない、本物かフェイクかわからない動画が増えるリスクっていうのはかなりあるかなっていう。
それこそね、先週僕のSORA2の回で、フェイク動画増えるんじゃない?みたいな話をしたときに、
たつけは、むしろこの切り分けがうまくできれば、そういうのはもうむしろなくなっていくんじゃない?みたいな話をしたと思うんですけど。
ほんとね、浅はかなのがよくわかりますね。
行った瞬間、全然そんなことないのが出てきてしまうっていうね。
そうですね、ウォートマークなし、所有料可ということで。
まあ料金確かどのくらいでしたっけ?
このSORA2の料金なんですけど、1秒あたり0.1ドルで生成が可能。
1秒あたり0.1ドルってことは、10秒あたり1ドル。
そうですね。
だから10秒生成するのに150円。
結構高いね、そう考えるとね。
かなり高めだよね。
しかもこれは通常のSORA2のほうなんで、上位版のSORA2 PROになると1秒あたり0.3ドル。
で、高解像度版だと1秒あたり0.5ドルまで上がるので。
結構だね。
そう、だから多分この商用利用で本当にサービスに組み込むってなると、
PROのほうの高解像度版が多分本番環境で出てくるようなイメージになるので、
そうすると結構な金額がかかるようなイメージになる。
だから、なかなか組み込みたくても組み込めないっていうのは実情としてあるかもしれないね。
そうね。10秒で5ドルってことでしょ?
そういうことだね。
だから700円とか、そんなもんだと思うんですけど。
もう10秒700円とかもう一瞬で溶けるね。
お金が溶けていくような速度で多分消えていく動画ガンガンガンガン生成しちゃったらね。
そうですね。
だから、そこまでのお金かけてフェイク動画作るメリットないよねっていうところで言うと、
そこまでまだお勘はしないかなって感じはしますけど。
ただ、やろうと思えばできる状況にはなっているので、
そういうのは危惧はしておいたほうがいいかなっていうところはあるよね。
そうですね。どうせその地価が崩壊しますからね。
やっぱりソラのやつがSNSのアプリとして出てるからさ、
そのSNSを遊び場のようにしてショールームみたいな感じでさ、
そこで盛り上げておいて利益はしっかり企業からAPIで取るっていうのが、
おそらくソラのスタイルなんじゃないかなっていうのは感じるね。
次の発表がですね、エージェントビルダーなんですけども、
これはですね、厳密にはエージェントキットっていう、
エージェントを構築、展開、最適化するための包括的なツールセットの発表があったんですけど、
これに関しては本当にエンジニア向けなのでちょっと難しくて、
その中の一機能としてエージェントビルダーが組み込まれてるみたいな位置付け。
これあれだよね、DeFiとかワークフローツールみたいな感じのやつだっけ?
そうそう、まさしくDeFiとかN8nと同じようなノーコードでワークフローが作れますよっていうようなツール。
Googleからもね、そういうの最近出たよね。
出てる、だから結構この辺は今、すごいいろんなところ各社がやってきてるところではあるんだけど、
ただオープンAIのやつはやっぱり使えるモデルがオープンAI系のGPTモデルしか選べないとかっていうところがあるので、
いろんなモデルとか、あとつなげる外部サービスとかの数とかで考えると、
まだやっぱDeFiとかN8nの方が有利かなってところはあるけども、
オープンAI系で完全に完結するよみたいなエージェント開発だったら、
エージェントビルダーでいけんじゃないかみたいな、そういった見られ方されてる感じ。
確かにね。今のところその強みはワークフロー単体で見るとあんまり感じられないけど、
これがGPTで呼び出せるようになるとかなってくると話変わってくるよね。
そうだね。それはかなり変わってくるね。
ワークフローを作っておきます。それをチャットGP上で呼び出したら何でもできちゃうみたいな感じ。
かなり強いなって。
そうね。でもそれだとね、DeFiとかN8nは難しいけど、
やっぱここはシームレスなつながりっていうのは絶対やってくる可能性高いから、
そうなると相当便利になる。
きっとこれから先だよね。もうちょっとしたら進化を発揮してくるような気がするよね。
そうだね。まさしく。
No Codeって言っても非エンジニアの人が使うっていうよりかは、
おそらくエンジニアの方が使う文脈のほうが強いんじゃないかっていう見方もあって、
これはDeFiの導入支援をやってる会社の方がXで投稿したのを見て、確かになって思ったんだけど、
考え方的にはほとんどコードでエンジニアが簡単にロジックを構築したりとか、
プロトタイプするものとして捉えたほうがいいんじゃないかみたいに言ってて。
最終的にはタイプスクリプトのコードが出力できるって機能がついてるから、完全にエンジニア向け。
それはそうだね。エンジニア向けだね。
そう。だからこれは多分エンジニアのあり方が変わってくるみたいな話に近いのかなと思ってて、
今までは言語を覚えていることがエンジニアみたいなところがあったじゃん。
何々の言語を使えますみたいな。
今後はデータの持ち方だったり繋ぎ方みたいな、そのロジックのところをいかに把握しているかどうかが、
エンジニアのニュアンスになってくるのかなみたいに思って。
なるほどね。
そうそうそう。だから言語の文法を早く正確に書ける人よりも、
データをどういうふうに使うのかみたいな、設計できる人のほうが価値が上がっていくみたいな道に、
このノーコードツールからスタートしているようなイメージなんじゃないかなっていうふうに個人的には思ったね。
なるほどね。確かにそうかもしれない、それは。
そう。で、次がコーデックスの正式公開ですね。
はい。
もともとGPT-5コーデックスってのはもうリリースされてて、実際に利用ができるようになってた状態なんですけども、
それがですね、だいたい数えて40兆トークン以上も処理をしていたっていうのが、今回のDevDevで発表されたんですよ。
40兆ってすごいですね。
そう。なので最も早く成長しているモデルだっていうふうに言ってて、そんなコーデックスが正式版としてようやく公開されたっていうお話。
これごめん、コーデックスって僕も正式に公開されてると思ってたんですけど、ベータ版だったってこと?
そう、ベータ版だったってこと。
あれでベータ版だったんだ。
そう、全然もう正式だと思ってたわ、俺は。
なので、この流れが加速すると、AIネイティブOS化っていうのがどんどん進んでいくんじゃないかっていうふうに思ったわけですよ。
AIネイティブOS化って何ですか。
AIがOSそのものになるっていうことなんですけど、これチャットGPT研究所の石川さんもXで投稿してて確かになっていうふうに思ったんですけど、
オープンウェアってもともとGPTsやってたじゃん。
あれはチャットGPT経由で何かアプリを動かすみたいなことをしたくて、多分GPTsをリリースしたんだけど、
なかなかあんまり流行らなかったというか、一斉風靡することはなかったじゃん。
だからそれを今回新たにこのApps InsideチャットGPTはGPTsの強化版みたいな形で、
チャットGPTからいろんなアプリを操作する、アプリを動かすみたいなことがやりたいんじゃないかっていうふうに考察されてて、
これこそまさしくAIネイティブOSっていう形だなっていうふうに思うんだけど、
要はスマホOSのようにアプリを起動して操作するっていうのをスマホの画面上でスマホのOSでやるじゃん。
それをAI上でやるっていうのがAIネイティブOSっていうイメージ。
なるほどね。
分かりやすく言うと、今まで各アプリがあってその中にAIが入ってるっていう構図じゃん。
だけどこれがAIがあってその中に、実際には中じゃないんだけどね、その中に各アプリが入ってるみたいな構図になるイメージ。
これが今後加速すると、要はその会話をするじゃん。
チャットGPUと会話をして、その会話の流れで文脈とかを理解した上で、じゃあこのアプリみたいな形でアプリが開かれるじゃん。
だから今後のOSっていうのは会話なんじゃないかなって思うわけですよ。
会話なんですか。
そう、会話そのものがOSの操作みたいなイメージ。
テキストじゃあダメなんですか。
テキストでもいいけど、結局そのテキストで会話をすることに意味があるわけじゃん。
なるほど、それで会話ってことなんだ。
そうそうそう。だから今後アプリはそういった会話を意識した作りにする必要があるんじゃないかなって思うわけですよ。
なるほどね。
そう。
会話っていうものがコンテキストとして溜まっていって、そのコンテキスト上からアプリが動いていくからその会話がOSになるっていうことだ。
そうそうそうそうそういうこと。今後これは加速するんじゃないかなっていうふうに僕は思ってまして、
オープンAだけじゃなくて、AIネイティブなOSにしていこうっていう動きは各社結構活発なわけですよ。
例えばAI系のガジェットとかスマホを出してるNASINGっていう会社さんがあるんですけど、ここが先週ですね、エッセンシャルっていう新しいAIプラットフォームを発表したんですよ。
どういうやつなんですか。
これはですね、プラットフォーム上にこういうものっていうふうに説明をすると、そのアプリが生まれるっていうもので、
例えばレシートを毎週金曜にPDF化して提出書にまとめてっていうふうに話すと、
エッセンシャルアプリがこのタスク専用の小さなアプリを自動生成してホーム画面に追加できるみたいな機能。
へえ、すごいね。
そのアプリをさらにプレイグラウンドで共有編集できるように今後していきたい、みたいな。
ユーザーの個性に合わせて変化するOSを目指すっていうふうに言ってて。
これも発想の起点がホーム画面じゃなくて会話内容にあるじゃん。
そうだね、確かに。
そう、だからチャットGPってこのAppsinsideチャットGPTと発想は結構同じかなって思ってて。
たださらに言うと、オープンAIが失敗したGPTsにちょっと近い発想かなっていう気もしてて。
なんか頼らないで終わりそうだなっていう気がしてる。
要はなんていうのか、自作のちっちゃなアプリが作られるっていう意味で言うとGPTsと一緒じゃん。
そうね、自動生成はされないにしてもそうだね。
そうそうそう、でも今回このAppsinsideチャットGPTにすることによってやっぱりそのSpotifyとか著名なサービスのアプリが使えるっていうところが結構大きいと思うわけよ。
まあそうね。
そうそう、だからそこが同じ流れにならないかどうかっていうのは若干心配してるけども、こういう流れはあることはあるよね、実際。
会話ベースで生み出されていくっていうことですよね。
そう、でGoogleも同じでプロジェクトアストラとか発表されてさ、会話アシスタントとか掲げてるじゃん。
でジェミニライブとかもそうだし。
で他にも9月23日から3日間開催されたイベントがあるんですけど、ここでGoogleがですね、2026年に新たなOSを出すと発表してるわけですよ。
でGoogleとしてはこのパソコンで使えるChrome OSとスマホ向けのAndroidがあるんですけど、この2つを統合する方向性を模索してるらしくて。
この統合する主な目的はAIサービスのジェミニにあるわけですよ。
でユーザーこういろんなことをジェミニに語りかけるじゃん。
それによっていろんなものを動かすっていうOSを構想してるっていうことで、まさしくAIネイティブなOSにするためにこれを統合しようとしてるわけよ。
なるほど、ジェミニが大元になる。
そう、ジェミニが大元になる。まずジェミニに話しかけることによってジェミニがいろんなエージェントとかアプリを動かすみたいなOS。
なるほど、やっぱじゃあ起点はそういうLLMなわけですよね。
そう、に対する会話、コミュニケーション、キャッチボールからまず生まれるっていうところ。
そう、当然ね、ちょっと出だしはあんまり良くないけどAppleのApple Intelligenceとかもそうだし、マイクロソフトのCopilotプラスPCとか、
やっぱそういう既存のOSを持ってってそこにAI機能を組み込んでいくっていう流れももちろんあるし、
オープンAIとかナッシングのようにAI機能をそもそもOS化させていくっていう流れもあるっていうのが今の状況かなっていう感じ。
なるほどね。
そう、やっぱそこを狙ってってるわけだ、みんな。みんな狙ってってるわけ。
今年の1月1日に配信した年始特別回、2025年AIはOSになる未来予測と信念の抱負という回を配信してるんですけども。
ああ、したね。
はい、私はですね、この中で2025年のAIの大きな波は当然AIエージェントだと、これはもう当たり前だと。
もっとピンポイントな予測として、2025年はAIが本格的にOSそのものになりますって話をしてるわけですよ。
確かに。
ちょっとね、時代を先取りしすぎた感はありますか。
多分ここで発表からの2026年の流れなんで、若干ちょっと早すぎる感じはしますけども、
やっぱり予想通りこの流れに向かって動いているなっていうのは感じますね。
確か僕はAIに喋りかけるのが当たり前になるみたいなことを言いましたよね。
ああ、言ってたね。ある意味それも間違いじゃない流れになってるね。
そうだよね。
うん。僕なんかも結構もう今、チャットGPTはもう音声入力でやることが結構多いんで。
うんうん。
だからある意味ではそれも当たってはいる。
なんかやっぱこの会話が規定になってどんどん広がっていくっていう文脈においてはね。
そうそうそう。割かし近しいよね。当たってるよね。
割かし近しい。そう。
まあ二人の意見がこうガチャってなってるようなイメージかもしれないね。
そんな感じね。
うん。
まあでも今回のそのApps Inside Chat GPTはなんかその流れに乗る最初の一歩というか、
このApps Inside Chat GPTが活発になってみんながチャットGPT経由でいろんなアプリを使うっていうのが本当にこう流行ったらというか、
そういう活用が本当に流れとしてムーブメントとして起きたら、この流れは結構加速するなっていうふうに思ってますね。
なるほど。じゃあ我々も作らないといけないですね。これは。
我々も作らないといけないですね。これは本当に。
8億人にリーチしましょう。
8億人にリーチ。でもすごいよ。8億人にリーチできるってなかなかないからね。
ね。なんかその文脈を想像して呼び出されるようなアプリを作ってあげるってことでしょ。
そうそうそう。でちゃんとその会話の文脈を加味した何かサービスが提供できるようなものにしてあげるっていうイメージだね。
そう思うとさ、8億人もいるからかなりニッチなものでも使われる可能性って増えそうだよね。これ。
確かに増えそう。
今までってさ、自分から探しに行かないといけなかったじゃん。アプリって。
で、やっぱその探すっていう点においては、今のプラットフォームってあんまり適切じゃないというか。
アルゴリズムにさ、ハックされちゃってるからさ。
そうだね。見るとしてもやっぱランキングとかオススメとかなっちゃうもんね。
そうそうそう。だから自分に合った最適なアプリを探すってなかなか難しかったけど、
それをGPTが勝手にやってくれるってことを考えたら、これまでよりももっとニッチなアプリを作っても使われる可能性っていうのは
増えていくかもしれないね。
そうかもしれないね。そうそう。
まあそもそもこのAppsInstallChatGPTが全然使われなくてアプリが全然増えないみたいな未来ももちろんあるから、
ちょっとわかんないけど、そこが活発になればそういう未来は全然ある。
だからまあ、結論としては今後はアプリとかサービスっていうのはやっぱ会話を前提に設計するのが大切なんじゃないかっていう風に思ったっていうところだね。
確かにね。
そうなると、やっぱり最後デバイス大切だよねって話になるじゃん。
まあそこになりますよね。
なるのよやっぱり結局。だからそれこそ例版メタだとさ、カメラと音声が常時使える前提で見て聞いて、
それをそのまま答えるみたいなのをデバイスに落とし込んだ形なわけじゃん。
だからもうあれな会話で完結する設計がまさしくさ、AIネイティブOSに近づいている感じするし。
確かに。
最近だとGoogleホームスピーカーのジェミニ対応モデルが来年発売しますってニュースも出たけど、
あれなんかもねホームスピーカーと会話をする中でそのままジェミニが何かをするみたいな形になる可能性も全然あるわけじゃん。
だからやっぱ会話前提ってなるとやっぱりスマホ中心のUIが新しい形になっていくのは必然な気はする。
なるほどね。
で今回のこのDevDayでジョニーアイブ対談最後あったんですけども、
ああそうなんだ。
新しいデバイスについての話は全くされないという。残念だ。
何を喋ったの対談では。
要はデザインについてどういう信念でとかやっぱこの今の時代にAIがもたらすものはどうなのかとか、
やっぱりそのスマホに対してまだまだ僕は納得してないよみたいなこととか、そういう新時代のデザインに関する話みたいなイメージかな。
なるほどね。
そしたらまあ報道された情報によると複数のAI搭載ハードウェアを構想中らしくて、
結構15とか20に及ぶ製品アイデアがあるとかないとか、そんなような話は一応報道では出ているので、
もしかしたらいくつか出るのかもしれないし、まあちょっとこれは楽しみですね。
ただ結構やっぱどっちにしても会話ベースのデバイスになるのは結構予想できるかなっていう気はしてます。
そうだよね。それに特化されたデザインのデバイスかもしれないと。
うん。かもしれない。そう。
まあでもそういう意味でメタのサングラスレイバンディスプレイがさ、結構その話す聞く見るものを自動的にキャッチして、
それをねAIで処理して出力してくれてっていう意味で、比較的デバイスとしては結構完成されてるんじゃないかなみたいな気もしちゃうけど。
たださ、みんながレイバンとかああいうメガネ型のデバイスをつけてたらさ、ちょっとキモくない?
まあそうだね。なんかあれ最近みんな目悪いのかなみたいな感じになるよね。
そう、みんなのコロナの時にマスクしてるみたいな感じで。
ああ確かに。
みんなメガネつけてるってちょっと異様な光景じゃない?
そうだね。だから多分それが嫌でメガネ型はつけたくないみたいな人も絶対出てくるもんね。
そうそうそうそう絶対あると思う。僕はね、あのメガネつけてるからずっとメガネでいいんですけど、
全世界がメガネになってくるとちょっと怖いなって感じしますから。
確かに。
そうではないやっぱデバイス。かつスマホでもないっていうところで、やっぱバッジ型とか。
バッジ型ね。ずっと押してるよねあのバッジ型。
ネックレス型とか。ちょっとわかりませんけども。
そうだね。
その例をつけてるだけで、自身のコンテキストを自動で収集してくれて、勝手にチャットGPTに行って、勝手にアプリ呼び出して、
完全に秘書として機能するような、多分そういう未来を考えてるんじゃないかなと思うので。
そうだね。
そういうものを作ってほしいな期待をしているって感じだよね。
そうね。そうなった時にやっぱり受け皿となる各アプリケーションがそこの会話を想定して作られてなかったら、
あんまりシームレスなつながりだったりとか、いい出力結果って生まないわけだから、
そこを加味して遠征の方たちには頑張っていただきたいし、
我々ビジネス層に関しても、そういう商品設計とかサービス設計をしていく必要があるよねっていう話ですね。
そうですね。
じゃあデータはこういう風に戻るかとか、じゃあこういう風にしようかみたいな感じで、
もうめちゃめちゃ高度なことをやる人間が意識って判断をする。
もうそこの最後の砦しかないから、そこを鍛えるために今やってるみたいな感じだよね。
そういった意味でコーデックスがどんどん進化していくと、
より自分もレベルアップしていかないといけないなっていうところもありますね。
なるほどね。確かに今回はエンジニア向けの発表イベントなんで、
今回の回としてはOS化みたいなところをフューチャーしたけど、
本当のエンジニアの方からするとこの辺のコーデックスの部分だったりとか、
あとはエージェントキットとかそういうところの方がやっぱ話題性としては大きかったよねきっと。
そうか。ちなみにさGPT5 Proって料金いくらぐらいだった?
100万トークンあたり15ドル入力。出力が100万トークンあたり120ドル。
おお、高い。えげつない料金だよね。
120ドル?高。まあまあしますね。
ね。
15,000円ぐらいか100万トークンで。ソラツーもそうだけどさ、GPT5 Proもさ、API組み込めるってなるとさ、
いよいよエージェントとしてしっかり動くようになるなと思って。
まあそうだね。
あと余談だけど、GPT5 Proを使って最近ね、数学者が解けなかったような問題が毎日解けるようになってきてるの。GPT5 Proを使って。
へえ、そうなんだ。
だから今この数学的な進歩ってとてつもなくて、いわゆる今まで見つけられなかった範例見つけてきたりとか、
いわゆる科学的進歩っていうのがAIを使ってどんどん進んでいくよみたいな話ってさ、これまでされてきたけど、もうちょっと先かなーみたいな感覚だったじゃん。
ああ、まあそうだね。近い未来みたいな感じだったよね。
そうそうそう。あ、もうすでに起きてんだみたいな感じになってて。
ああ、なるほどね。
もう毎日起きてんだって。
そうなんだ。まあ確かにGPT5 Proはそのレベルな感じはちょっとあるよね。
そうで、かつオープンAIはさ、そのGPT5 Proよりも性能のいいAIを所有してるわけじゃない。
だからこの科学的進歩ってもう起きてて、で、よりもっと加速度的に起きていくって考えると、もう余裕で人間を超えてきてるなって感じするよね。
そうだね。
だからこういう発表ではすごいとかなるけど、なんか裏ではもっととんでもなくすごいこと起きてるんだなってなんか想像できない。