1. AI未来話
  2. #3-6 OpenAI DevDay 2025まと..
2025-10-16 32:57

#3-6 OpenAI DevDay 2025まとめ!これからのOSは会話?

spotify apple_podcasts

今回のEPは【初級者向け】に解説しています!

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
毎週木曜朝7時、AIメディアを運営する共同経営者の2人が生成AIのメガトレンドユースケースAIによる社会への影響を30分で解説。AIの未来を「ながら聞き」でキャッチできるPodcastです。

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

✉️ 番組への感想、意見、お便りはこちら!

→ ⁠https://forms.gle/j8sJ1v1hH5JSaZm97⁠

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

🦆 公式X

→ AI未来話⁠https://x.com/ai_miraitalk⁠)

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

◾️AIメディア MiraLab AI

⁠⁠→ https://miralab.co.jp/media/

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

◾️おすすめAIガジェット #PR

最強ガジェット「PLAUD NotePin」

↓↓詳しくはこちら↓↓

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

◾️Podcastリンク

Spotify

⁠https://open.spotify.com/show/4YQI4JvX83mURM6xywKn5w?si=34b96be128584bad⁠

Apple

https://podcasts.apple.com/jp/podcast/ai未来話/id1733462439?uo=2⁠

LISTEN

⁠https://listen.style/p/aifuturetalk⁠

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

サマリー

OpenAI DevDay 2025では、新しいOSの形が会話になる可能性について議論されています。特に、SORA2やGPT 5 Proを含む新規APIの公開、エージェントビルダーの発表、コーデックスの正式公開などが重要なトピックとして紹介されています。また、新しいアプリ機能やAIネイティブOSの進化に関する重要な情報も発表されています。特に、Apps Inside Chat GPTの導入により、会話を通じてさまざまなアプリが操作できる未来のOS像が探求されています。2025年のAI DevDayでは、ジェミニを中心にした会話型OSの進化や、AIエージェントがOSとして本格化する未来についても紹介されています。会話を前提にしたデバイスやアプリの設計が重要視されており、AIを活用した新しいツールや流れが期待されています。さらに、GPT5 Proの導入やCodexの進化に関する議論があり、特にAIが日常生活や科学的進歩に与える影響が強調されています。今後のAI開発がどのように進展し、人間を超える可能性についても探求されています。

OpenAI DevDayの概要
AIメディア、MiraLab AIのたつけです。
同じくMiraLab AIの平岡です。
この番組は、AIメディアを運営する2人が、
AIの未来を考察するポッドキャスト番組です。
番組フォローとSpotifyユーザーは、概要欄の下にある投票、コメントもお待ちしています。
それでは、本日のトークデーマーお願いします。
OpenAI DevDay 2025まとめ、これからのOSは会話?
DevDayすごかったね。
そうですね。DevDay、年に1回の開発者向けの発表イベントということですね。
先日ですね、OpenAIのこのDevDayを見ていて、
私は一つのことに気づいてしまったんですけども、
もうホーム画面はいらないかもしれないと。
会話そのものが、今後のOSの姿になるのではないかと思ってしまったわけですよ。
そんな議論もね、たくさんされてますよね。
はい。なので、今回はこのDevDayで発表された内容を、
ざっくりと概要を振り返りながら、
その先にOpenAIが見つめる新しいOSの形について考察をしていこうかなというふうに思います。
新規APIとその影響
はい。
まずDevDay 2025要点を紹介しますと、主に分けて大きく4つの発表がありまして、
SORA2を含む新規APIの公開と、Agent Builder Codecsの正式公開、
Apps Inside Chat GPTという4つの大きいニュースがありました。
はい。
まず、新規API公開なんですけども、APIというのは外部のサービスからチャットGPTとかを利用するための仕組みなんですけど、
それがいろんな使えるモデル、使えないモデルがある中で、
新しくGPT 5 Proとか、リアルタイムミリとかオーディオミリとか、いろんなやつが新しくモデルが新規で公開されたので、
API経由で利用できるようになりましたよっていうのが今回のニュースなわけですよ。
だから、開発者からすると、自分のサービスにこれらを組み込めるようになったよっていうことですね。
そうです。
で、その中でもやっぱりインパクトが大きそうなのが、SORA2とSORA2 ProがAPI経由で利用できるようになったっていうところなんですね。
GPT 5 ProもAPI公開されたよね。
そう、GPT 5 ProもAPI公開された。これも確かに大きい部分だね。
なので、開発者はこういった最先端のモデルをAPI経由で使えるようになるわけなんですけども、
にわかにちょっと騒がしているのは、API経由でSORA2を使って生成すると、スカシのウォーターマークがなく作れる。
で、商用利用が可能になるっていうのがちょっと話題になっている部分があって。
そうですね。ちょっとAPIの料金はお高めですよね、その分。
そうですね。お高めではありますけど。
これができるようになると、例えば商品販売とかで、LPの制作と同時に広告動画が作れるようなサービスが新たに生まれたりとか、
あとは採用系のサービスで、そのまま動画まで出しますよみたいな、そういうパッケージになったようなサービスとかが作れるようになるっていう意味では、
ありがたいAPIの公開ではあるんだけど。
だからね、今後SNSとかでもそのスカシのない、本物かフェイクかわからない動画が増えるリスクっていうのはかなりあるかなっていう。
それこそね、先週僕のSORA2の回で、フェイク動画増えるんじゃない?みたいな話をしたときに、
たつけは、むしろこの切り分けがうまくできれば、そういうのはもうむしろなくなっていくんじゃない?みたいな話をしたと思うんですけど。
ほんとね、浅はかなのがよくわかりますね。
行った瞬間、全然そんなことないのが出てきてしまうっていうね。
そうですね、ウォートマークなし、所有料可ということで。
まあ料金確かどのくらいでしたっけ?
このSORA2の料金なんですけど、1秒あたり0.1ドルで生成が可能。
1秒あたり0.1ドルってことは、10秒あたり1ドル。
そうですね。
だから10秒生成するのに150円。
結構高いね、そう考えるとね。
かなり高めだよね。
しかもこれは通常のSORA2のほうなんで、上位版のSORA2 PROになると1秒あたり0.3ドル。
で、高解像度版だと1秒あたり0.5ドルまで上がるので。
結構だね。
そう、だから多分この商用利用で本当にサービスに組み込むってなると、
PROのほうの高解像度版が多分本番環境で出てくるようなイメージになるので、
そうすると結構な金額がかかるようなイメージになる。
だから、なかなか組み込みたくても組み込めないっていうのは実情としてあるかもしれないね。
そうね。10秒で5ドルってことでしょ?
そういうことだね。
だから700円とか、そんなもんだと思うんですけど。
もう10秒700円とかもう一瞬で溶けるね。
お金が溶けていくような速度で多分消えていく動画ガンガンガンガン生成しちゃったらね。
そうですね。
だから、そこまでのお金かけてフェイク動画作るメリットないよねっていうところで言うと、
そこまでまだお勘はしないかなって感じはしますけど。
ただ、やろうと思えばできる状況にはなっているので、
そういうのは危惧はしておいたほうがいいかなっていうところはあるよね。
そうですね。どうせその地価が崩壊しますからね。
やっぱりソラのやつがSNSのアプリとして出てるからさ、
そのSNSを遊び場のようにしてショールームみたいな感じでさ、
そこで盛り上げておいて利益はしっかり企業からAPIで取るっていうのが、
おそらくソラのスタイルなんじゃないかなっていうのは感じるね。
エージェントビルダーとコーデックス
次の発表がですね、エージェントビルダーなんですけども、
これはですね、厳密にはエージェントキットっていう、
エージェントを構築、展開、最適化するための包括的なツールセットの発表があったんですけど、
これに関しては本当にエンジニア向けなのでちょっと難しくて、
その中の一機能としてエージェントビルダーが組み込まれてるみたいな位置付け。
これあれだよね、DeFiとかワークフローツールみたいな感じのやつだっけ?
そうそう、まさしくDeFiとかN8nと同じようなノーコードでワークフローが作れますよっていうようなツール。
Googleからもね、そういうの最近出たよね。
出てる、だから結構この辺は今、すごいいろんなところ各社がやってきてるところではあるんだけど、
ただオープンAIのやつはやっぱり使えるモデルがオープンAI系のGPTモデルしか選べないとかっていうところがあるので、
いろんなモデルとか、あとつなげる外部サービスとかの数とかで考えると、
まだやっぱDeFiとかN8nの方が有利かなってところはあるけども、
オープンAI系で完全に完結するよみたいなエージェント開発だったら、
エージェントビルダーでいけんじゃないかみたいな、そういった見られ方されてる感じ。
確かにね。今のところその強みはワークフロー単体で見るとあんまり感じられないけど、
これがGPTで呼び出せるようになるとかなってくると話変わってくるよね。
そうだね。それはかなり変わってくるね。
ワークフローを作っておきます。それをチャットGP上で呼び出したら何でもできちゃうみたいな感じ。
かなり強いなって。
そうね。でもそれだとね、DeFiとかN8nは難しいけど、
やっぱここはシームレスなつながりっていうのは絶対やってくる可能性高いから、
そうなると相当便利になる。
きっとこれから先だよね。もうちょっとしたら進化を発揮してくるような気がするよね。
そうだね。まさしく。
No Codeって言っても非エンジニアの人が使うっていうよりかは、
おそらくエンジニアの方が使う文脈のほうが強いんじゃないかっていう見方もあって、
これはDeFiの導入支援をやってる会社の方がXで投稿したのを見て、確かになって思ったんだけど、
考え方的にはほとんどコードでエンジニアが簡単にロジックを構築したりとか、
プロトタイプするものとして捉えたほうがいいんじゃないかみたいに言ってて。
最終的にはタイプスクリプトのコードが出力できるって機能がついてるから、完全にエンジニア向け。
それはそうだね。エンジニア向けだね。
そう。だからこれは多分エンジニアのあり方が変わってくるみたいな話に近いのかなと思ってて、
今までは言語を覚えていることがエンジニアみたいなところがあったじゃん。
何々の言語を使えますみたいな。
今後はデータの持ち方だったり繋ぎ方みたいな、そのロジックのところをいかに把握しているかどうかが、
エンジニアのニュアンスになってくるのかなみたいに思って。
なるほどね。
そうそうそう。だから言語の文法を早く正確に書ける人よりも、
データをどういうふうに使うのかみたいな、設計できる人のほうが価値が上がっていくみたいな道に、
このノーコードツールからスタートしているようなイメージなんじゃないかなっていうふうに個人的には思ったね。
なるほどね。確かにそうかもしれない、それは。
そう。で、次がコーデックスの正式公開ですね。
はい。
もともとGPT-5コーデックスってのはもうリリースされてて、実際に利用ができるようになってた状態なんですけども、
それがですね、だいたい数えて40兆トークン以上も処理をしていたっていうのが、今回のDevDevで発表されたんですよ。
40兆ってすごいですね。
そう。なので最も早く成長しているモデルだっていうふうに言ってて、そんなコーデックスが正式版としてようやく公開されたっていうお話。
これごめん、コーデックスって僕も正式に公開されてると思ってたんですけど、ベータ版だったってこと?
そう、ベータ版だったってこと。
あれでベータ版だったんだ。
そう、全然もう正式だと思ってたわ、俺は。
DevDay 2025の重要発表
うん、僕もそう思ってた。
正式じゃないんだって思った。
そう、だからこれ聞いて、正式公開?え?ってなったもんね。
ね、そうなんですよ。
ただそれに合わせて、スラックの統合だったりとか、コーデックス SDK が発表されたりとか、エンタープライズ対応とかが発表されたんですけども、
このコーデックスに関しては、これこそ本当にエンジニア向けって感じなので、これは使われる方とか興味ある方はちょっと絞られるかなっていう印象ですね。
僕、コーデックスをメインで今使ってるんですけど、もともとクロードコードを使ってて、そこからコーデックスいいやっていう流れに全世界的になったんだよね。
そうだね。
そこからやっぱりコーデックス使ってゴリゴリにやってるんですけど、スラック統合とかもできるってことは、デビンみたいな感じでスラックから指示を出してコーディングするみたいなこともできるってこと?
おっしゃる通りで、もうデビンと同じようなことができるっていうことですね。
すごいね。
そう。これはチャンネルとかセレットで、アットコーデックスで呼び出すと、会話の文脈を理解してタスクを実行してくれると。
完了したタスクはコーデックスクラウドにリンクされて、ローカル作業にも引き付けるっていうような形ですね。
すごいね。
だからさっきのそのノーコードもさ、N8Nとかディファインのようなところだし、これもデビンのようなだったけど、結局そのいろんなところがやってるようなやつをさ、やっぱ大元がやっちゃうと強いよねっていうのを本当に感じるよね、これはね。
もうね、なんかオープンAIがさ、最初に出たとき、風刺牙みたいなやつ覚えてる?なんか死神みたいな鎌を持ったやつがさ。
あったね、そんなの。
あのドアを叩いていくっていう。
まさしくあれがね、起こってるよね、今もずっと。
確かに起こってるって感じするね。
本当にだからさ、我々もよく話すけどさ、AI周りのプロダクトとかさ、何かサービスをいろいろ考えて作ろうとしても、全てやられてくるよね。
そうなんだよね、本当に。
そうそう、しかもクオリティが高いっていうのがまたね、
すごいんですよ、これがね。
ね、そうなんだよね。
そう。
このコーディックスに関してはかなりエンジニア向けなので、興味がある方はですね、ちょっと調べていただいてという形で。
Apps Inside Chat GPTの機能
はい。
で、私が一番気になったのがですね、こちらのApps Inside Chat GPTという機能ですね。
はい、これは何ですか?
これはですね、チャットGPTとの会話中に提案をされたり、あるいは明示的に指定することでアプリを呼び出すことができるっていう機能。
アプリを呼び出せる、どういうアプリ?
で、これがですね、Apps SDKっていうのを使って開発すると呼び出すことができるよっていう開発者向けの今回の発表ではあったんだけど、
現時点ではBooking.comとかCanva、Coursera、Figmaとかが連携するアプリに登録されているので、
それをチャットGPT上から呼び出すことができるっていうことですね。
我々の配信プラットフォームのSpotifyも入ってるじゃないですか。
そうなんですよ。
だからこれね、Spotifyにプレイリスト作ってとかって指示すると、実際にSpotifyがそれをやってくれるっていうのをチャットGPT上から会話形式で指示ができるっていうことですね。
すごいね。
これ一応英語圏ではExpediaとかも入ってるんだけど。
旅行予約サイトの。
そうそう、ただ日本で今、僕が実際に自分の環境でやってみるとBooking.comとCanva、Coursera、Figmaぐらいしか使えなくて、
しかもCanvaに関してはいろんな指示出しても、日本語はダメですみたいな感じで動かないっていう状況だった。
まともに使うのはFigmaぐらいかな。Figmaは実際に指示出したら、そういうのをちょっと作ってくれたりとかしてくれたんで、実際には使える。
で、チャットGPT今回のこのDevDayの発表でですね、週間アクティブユーザー数が8億人を超えたっていう発表があったわけですよ。
すごいね。
8億人ってやばいよね。
増え方が尋常じゃないね。
で、そんなチャットGPTにこのApps SDKっていうのを使ってアプリを開発すれば、この8億人にリーチすることができますよっていうのが一応、ほんちゃんの発表内容なわけですよ。
そういうことですか。
そう、だからエンジニア的なApps SDKをどうやって使うのかみたいな話なんだけど。
AIネイティブOSの進化
なので、この流れが加速すると、AIネイティブOS化っていうのがどんどん進んでいくんじゃないかっていうふうに思ったわけですよ。
AIネイティブOS化って何ですか。
AIがOSそのものになるっていうことなんですけど、これチャットGPT研究所の石川さんもXで投稿してて確かになっていうふうに思ったんですけど、
オープンウェアってもともとGPTsやってたじゃん。
あれはチャットGPT経由で何かアプリを動かすみたいなことをしたくて、多分GPTsをリリースしたんだけど、
なかなかあんまり流行らなかったというか、一斉風靡することはなかったじゃん。
だからそれを今回新たにこのApps InsideチャットGPTはGPTsの強化版みたいな形で、
チャットGPTからいろんなアプリを操作する、アプリを動かすみたいなことがやりたいんじゃないかっていうふうに考察されてて、
これこそまさしくAIネイティブOSっていう形だなっていうふうに思うんだけど、
要はスマホOSのようにアプリを起動して操作するっていうのをスマホの画面上でスマホのOSでやるじゃん。
それをAI上でやるっていうのがAIネイティブOSっていうイメージ。
なるほどね。
分かりやすく言うと、今まで各アプリがあってその中にAIが入ってるっていう構図じゃん。
だけどこれがAIがあってその中に、実際には中じゃないんだけどね、その中に各アプリが入ってるみたいな構図になるイメージ。
これが今後加速すると、要はその会話をするじゃん。
チャットGPUと会話をして、その会話の流れで文脈とかを理解した上で、じゃあこのアプリみたいな形でアプリが開かれるじゃん。
だから今後のOSっていうのは会話なんじゃないかなって思うわけですよ。
会話なんですか。
そう、会話そのものがOSの操作みたいなイメージ。
テキストじゃあダメなんですか。
テキストでもいいけど、結局そのテキストで会話をすることに意味があるわけじゃん。
なるほど、それで会話ってことなんだ。
そうそうそう。だから今後アプリはそういった会話を意識した作りにする必要があるんじゃないかなって思うわけですよ。
なるほどね。
そう。
会話っていうものがコンテキストとして溜まっていって、そのコンテキスト上からアプリが動いていくからその会話がOSになるっていうことだ。
そうそうそうそうそういうこと。今後これは加速するんじゃないかなっていうふうに僕は思ってまして、
オープンAだけじゃなくて、AIネイティブなOSにしていこうっていう動きは各社結構活発なわけですよ。
例えばAI系のガジェットとかスマホを出してるNASINGっていう会社さんがあるんですけど、ここが先週ですね、エッセンシャルっていう新しいAIプラットフォームを発表したんですよ。
どういうやつなんですか。
これはですね、プラットフォーム上にこういうものっていうふうに説明をすると、そのアプリが生まれるっていうもので、
例えばレシートを毎週金曜にPDF化して提出書にまとめてっていうふうに話すと、
エッセンシャルアプリがこのタスク専用の小さなアプリを自動生成してホーム画面に追加できるみたいな機能。
へえ、すごいね。
そのアプリをさらにプレイグラウンドで共有編集できるように今後していきたい、みたいな。
ユーザーの個性に合わせて変化するOSを目指すっていうふうに言ってて。
これも発想の起点がホーム画面じゃなくて会話内容にあるじゃん。
そうだね、確かに。
そう、だからチャットGPってこのAppsinsideチャットGPTと発想は結構同じかなって思ってて。
たださらに言うと、オープンAIが失敗したGPTsにちょっと近い発想かなっていう気もしてて。
なんか頼らないで終わりそうだなっていう気がしてる。
要はなんていうのか、自作のちっちゃなアプリが作られるっていう意味で言うとGPTsと一緒じゃん。
そうね、自動生成はされないにしてもそうだね。
そうそうそう、でも今回このAppsinsideチャットGPTにすることによってやっぱりそのSpotifyとか著名なサービスのアプリが使えるっていうところが結構大きいと思うわけよ。
まあそうね。
そうそう、だからそこが同じ流れにならないかどうかっていうのは若干心配してるけども、こういう流れはあることはあるよね、実際。
会話ベースで生み出されていくっていうことですよね。
そう、でGoogleも同じでプロジェクトアストラとか発表されてさ、会話アシスタントとか掲げてるじゃん。
でジェミニライブとかもそうだし。
で他にも9月23日から3日間開催されたイベントがあるんですけど、ここでGoogleがですね、2026年に新たなOSを出すと発表してるわけですよ。
でGoogleとしてはこのパソコンで使えるChrome OSとスマホ向けのAndroidがあるんですけど、この2つを統合する方向性を模索してるらしくて。
この統合する主な目的はAIサービスのジェミニにあるわけですよ。
でユーザーこういろんなことをジェミニに語りかけるじゃん。
新たなOSの概念
それによっていろんなものを動かすっていうOSを構想してるっていうことで、まさしくAIネイティブなOSにするためにこれを統合しようとしてるわけよ。
なるほど、ジェミニが大元になる。
そう、ジェミニが大元になる。まずジェミニに話しかけることによってジェミニがいろんなエージェントとかアプリを動かすみたいなOS。
なるほど、やっぱじゃあ起点はそういうLLMなわけですよね。
そう、に対する会話、コミュニケーション、キャッチボールからまず生まれるっていうところ。
そう、当然ね、ちょっと出だしはあんまり良くないけどAppleのApple Intelligenceとかもそうだし、マイクロソフトのCopilotプラスPCとか、
やっぱそういう既存のOSを持ってってそこにAI機能を組み込んでいくっていう流れももちろんあるし、
オープンAIとかナッシングのようにAI機能をそもそもOS化させていくっていう流れもあるっていうのが今の状況かなっていう感じ。
なるほどね。
そう、やっぱそこを狙ってってるわけだ、みんな。みんな狙ってってるわけ。
今年の1月1日に配信した年始特別回、2025年AIはOSになる未来予測と信念の抱負という回を配信してるんですけども。
ああ、したね。
はい、私はですね、この中で2025年のAIの大きな波は当然AIエージェントだと、これはもう当たり前だと。
もっとピンポイントな予測として、2025年はAIが本格的にOSそのものになりますって話をしてるわけですよ。
確かに。
ちょっとね、時代を先取りしすぎた感はありますか。
多分ここで発表からの2026年の流れなんで、若干ちょっと早すぎる感じはしますけども、
やっぱり予想通りこの流れに向かって動いているなっていうのは感じますね。
確か僕はAIに喋りかけるのが当たり前になるみたいなことを言いましたよね。
ああ、言ってたね。ある意味それも間違いじゃない流れになってるね。
そうだよね。
うん。僕なんかも結構もう今、チャットGPTはもう音声入力でやることが結構多いんで。
うんうん。
だからある意味ではそれも当たってはいる。
なんかやっぱこの会話が規定になってどんどん広がっていくっていう文脈においてはね。
そうそうそう。割かし近しいよね。当たってるよね。
割かし近しい。そう。
まあ二人の意見がこうガチャってなってるようなイメージかもしれないね。
そんな感じね。
うん。
まあでも今回のそのApps Inside Chat GPTはなんかその流れに乗る最初の一歩というか、
このApps Inside Chat GPTが活発になってみんながチャットGPT経由でいろんなアプリを使うっていうのが本当にこう流行ったらというか、
そういう活用が本当に流れとしてムーブメントとして起きたら、この流れは結構加速するなっていうふうに思ってますね。
なるほど。じゃあ我々も作らないといけないですね。これは。
我々も作らないといけないですね。これは本当に。
8億人にリーチしましょう。
8億人にリーチ。でもすごいよ。8億人にリーチできるってなかなかないからね。
ね。なんかその文脈を想像して呼び出されるようなアプリを作ってあげるってことでしょ。
そうそうそう。でちゃんとその会話の文脈を加味した何かサービスが提供できるようなものにしてあげるっていうイメージだね。
そう思うとさ、8億人もいるからかなりニッチなものでも使われる可能性って増えそうだよね。これ。
確かに増えそう。
今までってさ、自分から探しに行かないといけなかったじゃん。アプリって。
で、やっぱその探すっていう点においては、今のプラットフォームってあんまり適切じゃないというか。
アルゴリズムにさ、ハックされちゃってるからさ。
そうだね。見るとしてもやっぱランキングとかオススメとかなっちゃうもんね。
そうそうそう。だから自分に合った最適なアプリを探すってなかなか難しかったけど、
それをGPTが勝手にやってくれるってことを考えたら、これまでよりももっとニッチなアプリを作っても使われる可能性っていうのは
増えていくかもしれないね。
そうかもしれないね。そうそう。
まあそもそもこのAppsInstallChatGPTが全然使われなくてアプリが全然増えないみたいな未来ももちろんあるから、
ちょっとわかんないけど、そこが活発になればそういう未来は全然ある。
だからまあ、結論としては今後はアプリとかサービスっていうのはやっぱ会話を前提に設計するのが大切なんじゃないかっていう風に思ったっていうところだね。
確かにね。
そうなると、やっぱり最後デバイス大切だよねって話になるじゃん。
まあそこになりますよね。
なるのよやっぱり結局。だからそれこそ例版メタだとさ、カメラと音声が常時使える前提で見て聞いて、
それをそのまま答えるみたいなのをデバイスに落とし込んだ形なわけじゃん。
だからもうあれな会話で完結する設計がまさしくさ、AIネイティブOSに近づいている感じするし。
会話型デバイスの未来
確かに。
最近だとGoogleホームスピーカーのジェミニ対応モデルが来年発売しますってニュースも出たけど、
あれなんかもねホームスピーカーと会話をする中でそのままジェミニが何かをするみたいな形になる可能性も全然あるわけじゃん。
だからやっぱ会話前提ってなるとやっぱりスマホ中心のUIが新しい形になっていくのは必然な気はする。
なるほどね。
で今回のこのDevDayでジョニーアイブ対談最後あったんですけども、
ああそうなんだ。
新しいデバイスについての話は全くされないという。残念だ。
何を喋ったの対談では。
要はデザインについてどういう信念でとかやっぱこの今の時代にAIがもたらすものはどうなのかとか、
やっぱりそのスマホに対してまだまだ僕は納得してないよみたいなこととか、そういう新時代のデザインに関する話みたいなイメージかな。
なるほどね。
そしたらまあ報道された情報によると複数のAI搭載ハードウェアを構想中らしくて、
結構15とか20に及ぶ製品アイデアがあるとかないとか、そんなような話は一応報道では出ているので、
もしかしたらいくつか出るのかもしれないし、まあちょっとこれは楽しみですね。
ただ結構やっぱどっちにしても会話ベースのデバイスになるのは結構予想できるかなっていう気はしてます。
そうだよね。それに特化されたデザインのデバイスかもしれないと。
うん。かもしれない。そう。
まあでもそういう意味でメタのサングラスレイバンディスプレイがさ、結構その話す聞く見るものを自動的にキャッチして、
それをねAIで処理して出力してくれてっていう意味で、比較的デバイスとしては結構完成されてるんじゃないかなみたいな気もしちゃうけど。
たださ、みんながレイバンとかああいうメガネ型のデバイスをつけてたらさ、ちょっとキモくない?
まあそうだね。なんかあれ最近みんな目悪いのかなみたいな感じになるよね。
そう、みんなのコロナの時にマスクしてるみたいな感じで。
ああ確かに。
みんなメガネつけてるってちょっと異様な光景じゃない?
そうだね。だから多分それが嫌でメガネ型はつけたくないみたいな人も絶対出てくるもんね。
そうそうそうそう絶対あると思う。僕はね、あのメガネつけてるからずっとメガネでいいんですけど、
全世界がメガネになってくるとちょっと怖いなって感じしますから。
確かに。
そうではないやっぱデバイス。かつスマホでもないっていうところで、やっぱバッジ型とか。
バッジ型ね。ずっと押してるよねあのバッジ型。
ネックレス型とか。ちょっとわかりませんけども。
そうだね。
その例をつけてるだけで、自身のコンテキストを自動で収集してくれて、勝手にチャットGPTに行って、勝手にアプリ呼び出して、
完全に秘書として機能するような、多分そういう未来を考えてるんじゃないかなと思うので。
そうだね。
そういうものを作ってほしいな期待をしているって感じだよね。
そうね。そうなった時にやっぱり受け皿となる各アプリケーションがそこの会話を想定して作られてなかったら、
あんまりシームレスなつながりだったりとか、いい出力結果って生まないわけだから、
そこを加味して遠征の方たちには頑張っていただきたいし、
我々ビジネス層に関しても、そういう商品設計とかサービス設計をしていく必要があるよねっていう話ですね。
そうですね。
Codexの進化
はい。
はい、エンディングでございます。
やはりね、どういうデバイスになるのかっていう話になってくるね。
そうなんだよね。そこにやっぱりちょっとね、比較しちゃうところは若干あるけども、一応今日のテーマはAIのOSかっていうところですんでね。
そうですね。
デブデイまとめでいうと、地味にCodexの正式公開っていうのは僕の中で大きいですね。
あ、そうなんだ。
やっぱスラック統合とか、CodexのSDK、いわゆるエージェントツールキットが発表されたりとか、
コーデックスの性能ってすごくいいから、どんどんコーデックスよくなっていくんだよね。
そういった意味では、本当に僕今エンジニア2年目ぐらいな感じですけども、ほとんどコードを書かないから、
そのかし読む、リーディングっていうところはめっちゃ頑張らないといけない。正確な指示を出すために。
とかGitの使い方ちゃんとやらないといけないとかいろいろありますけど、
やっぱこのAIがコードを書いて、AIがレビューしてみたいな風に今なってきてるから、
最終的にそれを見て判断してどうするかっていうところがもう人間の最後の砦みたいな感じになってるから。
デブデイ そうだね。
GPT5 ProとCodexの進化
じゃあデータはこういう風に戻るかとか、じゃあこういう風にしようかみたいな感じで、
もうめちゃめちゃ高度なことをやる人間が意識って判断をする。
もうそこの最後の砦しかないから、そこを鍛えるために今やってるみたいな感じだよね。
そういった意味でコーデックスがどんどん進化していくと、
より自分もレベルアップしていかないといけないなっていうところもありますね。
なるほどね。確かに今回はエンジニア向けの発表イベントなんで、
今回の回としてはOS化みたいなところをフューチャーしたけど、
本当のエンジニアの方からするとこの辺のコーデックスの部分だったりとか、
あとはエージェントキットとかそういうところの方がやっぱ話題性としては大きかったよねきっと。
そうか。ちなみにさGPT5 Proって料金いくらぐらいだった?
100万トークンあたり15ドル入力。出力が100万トークンあたり120ドル。
おお、高い。えげつない料金だよね。
120ドル?高。まあまあしますね。
ね。
15,000円ぐらいか100万トークンで。ソラツーもそうだけどさ、GPT5 Proもさ、API組み込めるってなるとさ、
いよいよエージェントとしてしっかり動くようになるなと思って。
まあそうだね。
あと余談だけど、GPT5 Proを使って最近ね、数学者が解けなかったような問題が毎日解けるようになってきてるの。GPT5 Proを使って。
へえ、そうなんだ。
だから今この数学的な進歩ってとてつもなくて、いわゆる今まで見つけられなかった範例見つけてきたりとか、
いわゆる科学的進歩っていうのがAIを使ってどんどん進んでいくよみたいな話ってさ、これまでされてきたけど、もうちょっと先かなーみたいな感覚だったじゃん。
ああ、まあそうだね。近い未来みたいな感じだったよね。
そうそうそう。あ、もうすでに起きてんだみたいな感じになってて。
ああ、なるほどね。
もう毎日起きてんだって。
そうなんだ。まあ確かにGPT5 Proはそのレベルな感じはちょっとあるよね。
そうで、かつオープンAIはさ、そのGPT5 Proよりも性能のいいAIを所有してるわけじゃない。
だからこの科学的進歩ってもう起きてて、で、よりもっと加速度的に起きていくって考えると、もう余裕で人間を超えてきてるなって感じするよね。
そうだね。
だからこういう発表ではすごいとかなるけど、なんか裏ではもっととんでもなくすごいこと起きてるんだなってなんか想像できない。
AIの影響と未来の展望
確かに。そのGPT5 ProがAPIで開発されたらすごいだけで、やっぱそれを使って何をするのかとか何が成し遂げられてるのかの方がある意味こう注目すべきポイントだったりするよね。
そうそうなんですよね。だからやっぱさ、AIのキャッチアップ疲れちゃうって人もいっぱいいると思うんだよね。
そうなってくると日常に戻るじゃん。日常に戻るとさ、最近AIってどんな感じなんだろうみたいな感じになると思うんだけど、
これはさ、今こんなこと起きてんだぜみたいなことに注目して発信したらさ、なんかもっと、え、なんかAI今やっぱもっとすごいんだって感じてさ。
なるほどね。こんなモデルが出ましたじゃなくて、こんなモデルを使ってこんなことが起きましたよの方にフューチャーする感じね。
の方がみんな面白いし興味持ってくれるかなってまた思わない。
確かに。
ちょっとそれいいかもしれない。だからそういう発信をね、ちょっとしていきたいなって最近思うんですよ。
なるほどね。
特にね、今なんてもう結構新しいモデルが出ました。すごいですって言われても、もうなんだろうね、今までさ40が100とかになったらすごい。
40が1000になったらすごいってなるけどさ、なんか9000が9999になりましたみたいな。何がするのかわかんないみたいなさ。
そうね。
なんかそういう状況まで来てるじゃん。
で、何?みたいな感じになっちゃうから。
そうそう確かにね。
それこそCodex使ってさ、90%はもうレビュー、コード書き上げてますよって言ってるしオープンAIとかも。
人間も本当にコード書いてないんだとか、レビューもAIなんだとか、今そんな感じなんだっていうのをさ、そっちの方に注目してね、もっと発信できたらいいよね。
確かに。
という感じで、今回のDevDayは結構大きな発表がたくさんあり、これからオープンAIがどういうとこを取りに行こうとしてるのか。
オープンAI周りのAIの会社はみんなそうだろうけど、そういった戦略とかがちょっと見えてきたようなDevDayでしたね。
そうですね。
それでは番組の感想をお待ちしています。感想はXでハッシュタグ、AI未来話でぜひ投稿してください。
Spotifyのコメント機能や概要欄に記載のお便りフォームからもお待ちしています。
またお聞きのPodcastアプリでAI未来話の番組フォローとレビューもお待ちしています。
それでは来週も木曜朝7時1分にお届けします。
通勤通学の30分にAIの未来をキャッチアップしていきましょう。
それでは本日もありがとうございました。
ありがとうございました。
32:57

コメント

スクロール