1. となりのデータ分析屋さん
  2. 99. o1 proやばい!OpenAIが12..
2025-01-16 34:29

99. o1 proやばい!OpenAIが12日かけて新機能を連続で発表!その内容がAI未来すぎた【12 days of OpenAI】【シンギュラリティー目前】

りょっちの初単著「やっぱり宇宙はすごい(SB新書)」本日発売!宇宙×データサイエンスについても描いてるから、コワーカー諸君も必ず手に取ってくれたまえ。


番組の感想や、質問はXから「⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠#となりの分析屋⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠」もしくは、以下おたよりフォームからお寄せください! ⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠https://forms.gle/1Qq3cfqYgVXgs5Qr6⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠


=========================

▼書籍の購入はこちらから 超入門 はじめてのAI・データサイエンス(培風館)⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠https://amzn.to/3R3aI9g⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠


=========================

▼りょっち 第3回Japan Podcast Awards受賞Podcast「⁠⁠⁠⁠⁠佐々木亮の宇宙ばなし⁠⁠⁠⁠⁠」はこちら! X (⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠@_ryo_astro⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠) Instagram (⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠@ryo_astro⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠)

▼たっちゃん X (⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠@⁠⁠⁠⁠⁠tatsuki_2022⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠)

サマリー

OpenAIが発表した新機能について、各機能の詳細や影響が深く考察されています。特にO3モデルやO1プロの進化に注目が集まり、AIの能力がシンギュラリティに近づいていると議論されています。OpenAIは新機能を発表し、特にプロジェクト機能がチャットの整理やファイル管理を効率化します。また、新たなファインチューニング機能によってAIの学習方法が革新され、さらにソラやSiriとの統合で利便性が向上しています。OpenAIが新機能を連続で発表し、AIの未来に対する期待が高まっています。このエピソードでは、仕様や生成AIに関連する新たなサービス展開について討論されています。

AIの恐怖と可能性
ああ、AIに殺される。AIが反逆してくる。もう終わりだ。人類は終わりです。
そんな話じゃないですよ。もっとハッピーな話でしたよ。
いやでももうこれぐらいの恐怖が来てもおかしくないぐらいのところでは来てると思うよ、AIの進化も。
今回はOpenAIの12日間で、12月の末にそんな発表があったからどんなのあったかっていう話をたっちゃにまとめてしてもらったんだけど、
いくつか俺は見逃してたのがあったり、改めて説明してもらって非常に助かりました。
はい、12個総座です。
いやーおもろかったなー。世界変わりますね。
でもこれ、ほら、この番組でAIの話をどんどん導入してたときに言ってたみたいに、
そろそろAIにちゃんとお礼言っとかないと、まずい事態になってきますよ。
AIでお礼。ほら言ったじゃん。ガストの猫型ロボットにお礼言ってますかって。
お礼を言う人間としての記憶をAIの中に残し続けてるかどうかが、
AIがこのスピードで発展していって、AIが人間に反逆し始めたときに、
良い人間と悪い人間、それはお礼が言える人かどうかになってきますよ。
SFだなー。
でも穴勝ちよ。今日の話してたやつの記憶のチェーンみたいなやつが、
全チェーンの中に、やっぱりありがとうって最後言ったかどうかっていうチェーンが残り続けるわけだよ。記憶の。
それがオープンAIのモデルが進化していったときに、ありがとうチェーンを持ってるかどうかで、
あなたの未来は変わります。言っていきましょう。それは言っていこう。
そんな感じで、今の話がどういうことなのかもきっと中聞いてくれれば分かると思うので、
オープンAI年末、2024年年末にかけてどういう追い込みかけてきたのか、ぜひ最後まで楽しんで聞いてください。どうぞ。
O3のインパクト
隣のデータ分析屋さん。
この番組は、隣の席に知らないことを気軽に聞けるデータ分析屋さんがいたらいいなぁを叶えるポッドキャストチャンネルです。
データアナリストのりょっちです。
データサイエンティストのたっちゃんです。
オープンAI暴れまわってたじゃないですか。
オープンAIが2024年12月ですね。もうこのエピソード開始してから1ヶ月前くらいになっちゃいますけど、
12個の新しい機能、新しいサービスをリリースしたっていうところを今日はおさらいしていこうってそんな時間にしています。
12個俺多分ね全部カバーできてないわ。
これなかなかカバーできる人いないんじゃないですか。
インパクトの大きかったいくつかはちゃんと覚えてるけど、そうですよね。けどまぁ、一個一個振り返らせてもらえるなら助かります。
一番大きかったのはやっぱO3でしょ。
まぁさすがにね最終日だしね。
そう、うちらが今収録してるこの12月の末。
O3が出た翌日ぐらい今。
翌日に撮ってるね。
そうか。
やばいよ。
インパクトがでかすぎる。
O3はさ、こう一般的にこれがすげえって言ったら一言で言ったらもう何シンギュラリティ近づいてきたよねって話。
AGIが近づいたシンギュラリティまでもうそこっていう。いつまでもうそこっていうのかわかんないけど。
でもそうだよね。あとちょっとでAGIやでっていう。
そのレベルなんじゃないですか。だからまぁ人間が作ったこのAIの能力検定レベルみたいなのがあって、
例えば国際数学オリンピックの問題がどれくらいの精度で解けるのかとか。
あとAGIの指標みたいなの作ってそれが1個前のO1モデルからO3何パーセント上がったのかとかそういういろんな評価をして
圧倒的な能力の進化が見えたっていうのが今回の発表っすよね。
いやーすごすぎるよね。
しかもさ、もう多分もしかしたら次話そうと思ってたかもしれないけど、
O1、だからO1プロが発表されたのが2日目とかだったじゃん。
O1が確かね、デイワンですね。
デイワンか。
そうそう、O1、O1プロ、デイワンで。
デイワンで出て、月額3万。
そうだね、200ドルで無制限アクセス。
そう、っていう風になって、うわーってなって、みんなO1使わなきゃマジやべーじゃんって言ってたら、
最終日、2週間後?1週間半後に、もう遅いよみたいな。
O1で満足してるよ、じゃあ、俺らには追いつけないぜ、みたいな感じのを出してきたのが最終日。
12日目?13日目?
12ですね、全部で12個のデイワンからデイ12まであったんで、最後の12でO3。
2ないんだってね。
あ、そうね、2はどっかのサービスと被るから、それを避けるためにO3って言ってましたね。
新機能の査定
あーそうなんだ、そういうこと?O2は何その酸素っぽいからってこと?
O2っていう名前の会社があるのか、サービスがもうすでにあるのかってところで、そこの紛らわしさを避けるためにっていう話ですね。
えー、じゃあ今のうちにO5ぐらい商標登録しとく?
この間、ほら、この間Xのドメインを買ったやつ多分大金持ちになったよなって話したじゃん、確か番組で。
あの、あれの先取りバージョン。もうO100ぐらいまで全部取られてんじゃない?すでに。
いや、多分O2が日本だとあれだけど、多分海外、アメリカとかだとよく名乗せられたサービスだから避けたって話だと思いますよ。
どうでもいい実際サービスがO4、O5あっても、無視無視。
分かんない、無視できないぐらいデカくするっていう。それまでに。
間に合わんて、デイ1からデイ12で、そんなO1からO3への大幅なアップデートがありますって話ではあるんですけど、
その間にも結構細かく、しかも自分たちが使うってなったら、あ、意外と便利じゃんっていうサービスが出てきてるんで。
それをね。
いくつも出てきてたよね。すごいよね、本当に。
そうなんですよ。
でもこのO1の凄さっていうところが1個、ちゃんと触れておきたいなって思っていたのが、
まだ我々一般のユーザーってO1ってこれまで触れてなかったというか、プレビューバージョンで課金したら触れてたけどっていう人もいると思うんですけど。
そうだね、俺ずっともうO1だって。
あ、そうなんすか。
基本的に毎回利用上限まで使ってたな。
やっぱりあそこの推論能力ってすごいよねっていうのは実感してました。
いやー、してた。もう途中から無理だったもん。4Oの回答気持ち悪く感じてた。
あ、そうなんすね。だからそこの推論の能力というか、思考の深さっすよね。
本当にそう。
あれがね、やっぱりすごいし、これがようやくみんな誰でも触れるよねっていう正式リリースってなったところで、
その凄さを実感してほしいなっていうのが、すごい期待値高まってますね、自分の中でね。
いやそうね。なんか俺ね、その3万に手出すかのところで悩んだ結果、
O1のプレビューとミニで、ある程度まだ身の回りのことが事足りてるから、
まあいいかなっていう。月3万って重いじゃん結構。
いや、重い重い。
けど、まだ悩んでるぐらいのラインだな。
でもこれで爆速に仕事が進むとか、もうこのO1の3万円を使ってビジネスやってるって人にとっては安いもんかもしれないっすよね。
いや全然でしょ。なんか普通に他のサブスクとかいくつか辞めて、
まあプラスアルファぐらいだったら全然払ってもいいな。もうちょっと困ったら契約しよっかなって思ってた。
はいはいはい。
なんでまあ一定は使うんじゃないですかね、このO1。
MatchaとGPT Proっていうこのサービスですね。
マジね、いいよ。なんだろうなあ。
すげえ抽象的なことを言うと、やっぱ回答の気持ち良さは段違いなんだよね。
うんうん。
推論が入ると。こっちに寄せてきてくれる感じというか。
あとは多分コードの提案とかもディスカッションして、
欲しい回答に寄せてった後にコードに落とすっていうところも精度高い気がする。
まさにそのコーディングとかのところで実力発揮するって言われてますよね。
ただね、いくらでも話せるんだけど、この推論の良さみたいなのは。
ただ俺一個あんまりしっくりきてない部分はあって、もしかしたらこれがプロになったら直るんだったら結構契約度合い変わるんだけど。
結構ガチガチに推論でその答えまで寄せた後に、
そのコードのテイストが若干違うとか、こっちに寄せたいってなった時の、
修正の触れ幅が前の方がでかかった気がする。
前っていうのは?
4.0とかでやってた時の方が、これ違うからこうしてくれって言った時に、
答えが違うから別の回をガンって用意するけど、
言ってることをがっつり変えてくれない時がたまにある気がするんだよね。使ってて。
そういうことか。
で、それってわかんない。推論だからさ、ずっと。
推論だから、ここまでで推論してここにたどり着いたっていう、いわゆる局所解みたいなところにあるから、
それをガラッと変えようとした時に、どうしてもそこの考えが捨てられないとかっていう話なのかなとかを勝手に想像しながら使う。
なるほど。その推論してる過程をどこまで保持してるのかとか。
そうそうそうそう。機械がすでに認知バイアスを持ってる可能性っていうのをちょっと懸念してる。
なるほどね。いいところに気づいてるというか、今回このO1がやってるのが、いわゆるチェーンオブソートっていう思考の連鎖を積み重ねていって、
この思考をどんどん深くしていくっていう、そんな仕組みを取っていて、
そこの思考の連鎖をどこまで保つかっていうところは、これちゃんとはっきりはしてないんですけど、
1回の回答でその思考の連鎖を捨てちゃうというか、っていうタイミングがあるらしいんですよ。
へー。
なので、今のジョッチの話だと、一定多分保ちつつ、最後の連鎖をさらに深めるっていうことをするのであれば、
同じような回答がもう1回出てくる。一気にガラッと回答の量が変わらないっていうこともあるし、
そうね。
以前はその連鎖を全部捨てて、また新しくゼロから考え直すってことをしてたっていう風な、
あーそうなのかもね。
違いがある。
そうかも。
のが原因かなと思いますね。
まあ人間の認知バイアスの底だしね。結局は今まで生きてきた全てのチェーンで繋がった記憶の中で、
物事を判断するから偏見が生まれるわけじゃん。
そうですね。
だからまあまあまあ、機械、逆にめちゃめちゃ進化したからそうなったんだよねっていう話ではあると思う。
いやそう思います。よりなんか人間的というか。
だから俺別スレッド立てるもん、そういう時。もう抜け出せないから。
あーなるほどね。
いいこと言ってくれました。そこに関連して、これちょっと時間長くなっちゃうから、関連していくトピックいくつか挙げていくんですけど、
Day4で出てきたChat GPT Canvasっていう機能合わせ1個ありますと。
あープレビューリリースされてたよね。俺GPT Plusユーザーだからさ。
あーそうかそうか。
Canvas使ってたよ。
そうですね。なんでこれが正式リリースになったってことで、
さっき言ってた例えばコードを作るとかっていう時に、左側にチャットを置いて、右側にCanvasっていうコーディングのテキストの何て言うんですかね、エディターみたいなのを置いて、
そこを見ながらチャットに修正案を提示して、最終的な成果物を作っていくっていう使い方ができるってやつですね。
あれいい。
これがあるとあれですよね。1から例えばドキュメントを作るときに修正案出したらゼロから作り直すってことをせずとも、一部のところだけ修正が依頼ができるっていう。
そうねそうね。
そんな使い方ですよね。
あとコードの修正案出すとDiffがわかりやすく更新される感じもあった。
うんうん。
あとカーソルとかが必要ないなってなった。使い心地は別なんだけど、カーソルってコーディングサポートしてくれるAIあったけど、
CanvasあるんだったらGPTで完結してくれて全然いいかなっていう気持ちの方が強くなってくるかな、俺はって感じ。
でもそうですね、チャットGPTのこのプラットフォームの中だけで完結して、1個成果物が作れるっていうのはすごくいい機能だよなと思うのと、
あとさっき言ってたフォルダー、新しくスレッド立てるみたいな話してたんですけど、今回はそのプロジェクト、プロジェクト、プロジェクト。
あ、ほんとだ。
まあいいや。
俺これ知らなかった。
プロジェクト機能の強化
そう、プロジェクトっていう一つの機能ができて、なんかチャットの整理とかファイルの管理とかが、そのチャットGPTのあのUIの中でできるようになったからスレッドをまとめたりができる。
これ欲しかったんだよ。
いいですね、いいリアクション。
今知った今知った。欲しかったマジで俺、過去のスレッドってこれどれだっけなーみたいな、このポッドキャスト用に使ってるあれとトークと、仕事のコーディングで使ってるトークとをいつもなんか過去から掘り起こして。
はいはいはい。
ちょっとタイトル変えて置いといてみたりしたけど、結局わかんなくなるみたいな。
だからもうこれがあると一気に仕事が図るというか、同じ話題は一つのプロジェクトの中でまとめてできるし、ファイルとか動画とかテキストってアップロードできるんで、それも一つのプロジェクトの中に入れておくことで、なんかその中で完結して情報が整理できるよねっていうやつ。
あ、そうなんだ。
うん。
なんかこうナレッジとして蓄えられるわけだ。
そうですね。そのファイルに応じた質問をGPTの方に投げるとか。
ラグっぽく使えるわけだね。
そうですね。
えー。便利です。ありがとうございます。教えてくれて。
はい。ここら辺で最初言ってたなんか課題感が一気に解決されるよねっていうところと、あとはさっきのチェーンオブソートっていう推論がすごいよねっていうところから、
デイツーに出たそれをどう実現してるかっていうところの少し中身の話なんだけど、AIの強化学習を使ってのファインチューニングっていう機能。
ファインチューニングの進化
あー、はいはい。なんかチラッと聞いた。そんなようなの。
そうですね。これがまたなんか自分的には面白いなと思ったところで。
はいはい。
なんかこれまでってすでにあるAIモデルをなんかファインチューニングするときって、テキストとその答え、質問と答えを用意して、それに応じて各、何て言うんだろうな、ドメインの知識を学習させるみたいなファインチューニングの仕方をしてたんだけど、
これからは強化学習っていう何個前かに取ったエピソードあると思うんですけど、AIに試行錯誤をさせるというか、っていうところによるファインチューニングの仕方をするよっていう話で、
ちょっとこれ難しいから簡単に言うと、これまでは丸暗記させてた。それで賢くしてたんだけど、これからはいろんな試してみて、やってみてうまくいったうまくいかないを繰り返しながらAIが賢くなるっていう、そんな学習の方法を変えていく。
あーなるほどね。その探索の幅もAIが調整してくれるってこと?
データをそこまで用意しなくてよくなるというか、ファインチューニングするってなったときの学習データを大量に用意しなくても少ないデータで、あくまでどういう問題っていうところとどういう風な結果が出たら何点のスコアをつけるかっていうルールを決めておけば、よりAIが勝手に賢くなるっていう、カスタムモデルを作るときにかなり使いやすい。
面白いね。世の中の機械的なものっていうのは、サンプルがたくさんないと正確な判断ができないみたいな話でずっと来てて、けど人間の目で見たらなんとなくこっちっていうのはわかってるけど機械にとっては不十分だったからできなかったみたいな、そういったラインまで落としに来れるみたいなイメージだよね。
そういうイメージ。
いやそれいいね。
これだからね、面白くて。
O1に実装されてるのそれが?
これを使えるように、このファインチューニングの仕組みを提供してきますよっていう。
えー、あーそうなんだ。
ここで言われてるのは、その提供していくための研究プログラムを発足するからぜひみなさん参加してねっていう、そういう呼びかけなんですけど。
適宜な発信ではあったし発表であったんですけど。
頑張った。
結構これはあの、O3の次O4、O5とかにつながっていくような重要な発表と言いますか、そういう考え方で学習していけば賢くなるよね、確かになっていう。
っていうのがね、これがDay2に出てくるから、なかなかなんか面白い発表するなと思ってましたね。
はいはいはいはい。
まあちょっと難しい話ではありましたね。
確かに。けどまあ、刺さる人はいるんじゃない?
そうですね。
これを聞いてる人に、それだよなって思ってるやつはいるかもしれない。
うんうんうん。
まああとは、まあいくつか言っていくとDay3で、まあソラが正式リリースされましたよねってやつですね。
あー。
待ったぜソラの、ソラのアカウント全然解説できねえの。結局2日後ぐらいできたの。
あー本当ですか。
いやそう、だからソラはまあAIの動画生成ツールっていうので、テキストを与えたら動画が生まれたりとか、画像を動画に変換したりとかっていうところが正式に出てきましたね。
あれ面白かったわ。結構触った。
ネットワークの仕事してるから、俺らのやってる仕事ってこれだぜっていう動画、5秒の動画作って共通のチャンネルに流しておいたわ。
あ、いいっすね。
いやそうなんか。
仕事のプロモーション動画みたいなの作っといたわ。
はいはいはいはい。いろんな使い方できますよね。なんか自分の飼ってるペットを動かしてみたとかやってる人もいたりとか。
今度から資料の表紙これこの動画差し込んでおいてくださいっつって。
うんうん。
だからもうすごい動画が当たり前になってくるというか、なんかこれからもプレゼン資料が動いていくとかもありえそうっすよね。
すげえ、あれはマジすげえ。
いや自分ハリーポッター感あるなって勝手に思ってたんですよね。
あーいやでもそうじゃない。
分かります?あの額縁に入った偉人が動くみたいな。
あーそっちねそっちね。確かにそれもそうだね。
これは一つのエピソードで語れるくらい盛りだくさんだなと思うんで。
あとね面白いなと思ったのはオープンAIとAppleがちゃんと提携していくつかのサービスがリリースしますよっていうので、
一つはSiriがChatGPTを利用して回答するよっていうところだったり、
ソラとSiriの統合
あとはMacの中で一つのアプリケーションとしてChatGPTが利用できるよってやつ。
これがDay5とDay11、11ですね。
マイクロソフトのパソコンだったらコパイロット標準装備だよみたいなのに近い感じだよね。
ああそうですね。まさにまさにコパイロットPCみたいな。
GoogleのスマホだったらGemini標準搭載だよみたいなのが、
MacはもともとSiriだったけどそれがオープンAIの技術が入るから、
まあもうそこに並んだぐらいになるんじゃないっていう。
そうですね。
でそこと合わせて、あとはAdvanced Voiced Modeっていう。
あーそうだあったあったあった。
ボイスモードですね。
スマホカメラに画像を見せながらそれを音声で会話する。
音声マジいいんだよな。
音声画像の融合ですね。
音声マジいい。音声入力ちょくちょく使うから。
俺音声入力結構昔から好きだからやってますね。
カップラーメンの時3分後にアラームってね。
意外とみんなSiri使わないんだなって思ってたぐらい。
俺結構Siriユーザーだからさ。音声は嬉しい。
そうですね。
それで言うとそれと合わせてさらにDay7で出た8か、
8日目に出た検索っていうところの機能追加で、
JAT GPTがウェブ検索をちゃんと利用できるようになりましたよってやつで。
あれもともとできてたよね。
これもともとできてました?
できてたよ。直近は結構できてた。
普通に検索に使う時はPowerPlexityにしてたけど、
ちょっと前から少なくともGPTプラスの方ではウェブ検索できるようになってたから。
じゃあプレビュー版とかプラスとかだったらできてたのかな。
そういうことね。それがもっとちゃんとジェネラルバージョンとして出たよみたいなことか。
ですかね。
いいよ。めっちゃいい。
そうなると音声とつなげながら、
今日の天気何とか、電車いつ来るのとかっていうのをクイックに会話しながら、
裏では検索して情報引っ張ってくるっていうのができるから。
確かに。
iPhoneに入ったら最強ですよね。Siri呼び出してGPT使って音声で全部聞いて、
レスポンス返ってくる。
確かにね。なんかほらAirPodsってウェアラブル端末だみたいな言ってたけどさ、
単なるイヤホンじゃないみたいな言ってたけど、
あと2年ぐらいしたらマジでAirPods最強になる可能性はあるよね。
いやなりますよね。
別に他のイヤホンでできるんだったらいいんだけどさ。AirPods高いからさ。
まだAirPods手出してないぜだから俺一回も。
そうだね。
いやだからAppleとオープンAIの提携っていうのはかなり強いんじゃないかな。
特に日本人は嬉しいこと多いっすねきっと。iPhoneユーザー多いんでね。
あと2つ3つくらいで、これ面白いなと思ったんですよ。
電話機からChatGPT呼び出すっていう。
え。
これまだアメリカでしか提供されてないんですけど、
なんかChatGPT専用のフリーダイヤル番号があって、
そこに電話かけるとChatGPTと会話できるんですよ。
へー。
でこれ何嬉しいかって。
寂しい時?
いや違う。
古い電話の人とかね、スマホ持ってないようなおじいちゃんおばあちゃんでも、
ダイヤル式の電話から黒電話みたいなやつですよ。
あーそういうことか。
そこからかけられるんですよ。
え、公衆電話からChatGPT使ったらちょっとエモくない?
でもそういうことですよ。
野郎。
いやそう、だからね、例えばスマホ使えなくなっちゃったとか、
なんか電波悪かったよねとか、
どんなユースケースがあるかわかんないですけど、
なんか救われる人はいるんじゃないかなって人と、
あとは一気にChatGPTに触れられる。
なんか式以下下がる。
確かにね。
すげー。
っていうのはちょっと面白いなと思いましたね。
世界変わるなー。
そんなところかな。
あとはちょっとデベロッパー向けの新機能として、
O1のモデルへのAPI利用ができるようになったよねってやつ。
あーなったなったね。
あれ全然申請通らないんだよね。
心配してたんですよね。
オープンAIのAPIの書籍書いてるから影響ないのかなっていう。
いやなくはない。
なくはないけど、
まあでもなんか、
まあそれは推論してくれたらいいけど、
問題の把握の仕方とプロンプトの仕方?
結局推論って言ったところで、
プロンプト、実務で使うプロンプトだったら
推論でも普通にO4に頼むやつも、
まだそんな変わんない感覚ではあるから、
別にそのモデルのところを入れ替えてくれたら
内容変えられるよねみたいな話ではあるから、
まあなんとかなる。
けど上手く使えるタイミングまで言ってたら、
多分入れると思うよ書籍に。
本当ですか?
マージに残してんのよ。
こういうこともあると思ってて。
一章分というかコラムで何ページか書けるように、
最悪こんぐらい増やしますって言って作ってるから。
なるほどね。
じゃあまあぜひ入れられるといいですね。
ワンチャン。
あとはそうですね、GoとかJavaのSDKで
提供しますよっていうのもあったんで、
Pythonだけじゃなくていろんな言語から
アクセスができるようになるとかそういうのもあって。
まあ確かにね、そこも結構ネックだったよね。
そういう嬉しさもありつつ、
まあだからいろいろ言ってきましたけど、
盛りだくさんですよ。
やばいよね。
いやー面白い。
年末に。
よくあれだよね、外国人、
特にほらアメリカ人とか作ってるわけじゃん。
うん。
よくこの時期にこんなやる気出せたよね。
あの人たちもサンクスギビングからさ、
割とお休みモードだからさ。
まあそうですね。
この時期になんでこんな働くんよってなってるかもしれない。
OpenAIの新機能発表
いやこのクオリティで発表してるってことはもう10月とか、
9月とか、
秋ぐらいにはできていて、
あと発表する準備なんじゃないですか。
まあそうだろうね。
これで多分綺麗に休みに入ってる。
そうですね、1月からのリリースですからね。
さすがにあれぐらいのテカコーンだったら、
休み関係なく働きてってやつもいっぱいいるか。
まあ面白かったですね。
いいね、世界変わってくるね。
一個一個話してきましたけど、
それぞれの機能の組み合わせとかで、
使える幅が一気に広がるから。
広がるね。
他がオープンAIを出し抜いてた機能を、
全部かっさらった感じもあるよね。
そうなんすよね。
それこそ検索パワープレキシティ。
いやいや、O1でいいじゃんとか。
そうそうそうそう。
ありますからね。
動画音声。
ダリー、もうちょっと、
ダリーの日あると思ってた俺。
オープンAIのさ、画像生成ってさ、
見劣りするじゃん、他の画像生成に比べると。
ああ、はあはあはあ。
あれの3みたいな、モデル3、モデル4か。
うん。
みたいなの出んのかな。
まあそういう日も一個あるんだろうなと思ったら、
なかったわ。
まあ動画いったからいっかって感じなんだろうね。
まあしばらくアップデートなかったですからね、動画周りは。
ね。
そらなんてだって1年ぶりじゃない?
じゃないっすか?
去年の末にあの動画出てるはずなんだよね。
日本の雪景色みたいなやつ。
あ、そうなんだ。
確かに。
あれ1年ぐらい前か。
いや、確かにあるかもな。
うんうん。
ただまあ全体通してこれ思ったのも、
その今の動画の生成についてもそうですけど、
ちゃんとリリースするってなった時に、
プライバシーとか、なんて言うんだろう、
こんな結果出していいの?みたいな。
人権とか。
ああ、まあ確かにありそうだよね。
そういう倫理感とか、
そういうなんか、
それ以外の周りのサービスとしての心地よさとか、
っていうところの、
確かに。
チェックがかなり、
ちゃんとできたから正式版リリースだよねって言われていて、
O3とか発表をしますよって言ってますけど、
ちゃんと完全版の正式版リリースはこれからで、
あくまでまだ今は検証フェーズですって言われていて、
うん。
なんかそこら辺のチェックというか、
アウトプットのチェックっていうのは、
丁寧にやってるんじゃないかなと思っていて、
なるほどね。
なんでまあ動画とかの生成はなおさら、
かなり細かくチェックしちゃうんじゃないかなっていうのは、
ちょっと想像できますよね。
確かに確かに確かに。
Googleとか一旦それでかなりブレーキかかったもんね。
あ、そうっすね。
ゴリラの話とかありましたもんね。
あったね、有名な話だよね。
まあだからそういうのもあるから、
そっか、大変なんだな。
まあそうっすね。
これで思ったのはもうやっぱ、
AI系のサービスみたいな、
生成AIでサービス提供するみたいなとこって、
大なり小なりやっぱでかいとこにまくられてくんだなっていう感じはするから、
はいはい。
もうここで起業しようみたいなのはやっぱむずいよね、
一時期に比べると。
ああやっぱそうですね。
一気にひっくり返されますもんね。
投資家もわかるでしょ、さすがに。
次の機能でだいたいカバーされん、それみたいな。
そうですね。
だから新しい01作るというかは、
既にあるものをいかにローカライズしていくかというか。
そうね。
結局それが多分、
すごい汎用的に答えられるものが出てきて、
AIエージェントみたいな、
何個か前のエピソードで話したみたいなのになってて、
業務に寄り添ってくれるみたいなのになるから、
まあそういう世界だろうね。
だからそういうのの実装ができるみたいな、
今の時代でいうクラウドのアーキテクチャを考えられる人みたいな、
感じのAI扱う人のスキル要求みたいなのが出てくるんじゃないかなっていう感じだよね。
はいはい。
どう使うかっていうところですよね。
そうそう。
なんか業務にめっちゃこうフィットするような、
AIエージェントを組む方針を立てられる人がいるね。
方針さえ決まったら、
AIが自分でチューニングしてくれる世界になるだろうから。
そうですね。
そうっていう感じなんだろうなみたいな。
うんうん。
だからなおさらどういうサービスなのか、
今後のAIの方向性
どういう仕様なのかっていうところを追っていくのは重要なんじゃないですかね。
そうね。
うん。
まあだからいいよ、
このポッドギャスト聞いててくれりゃいいよみんなは。
あんまりこういう最新の機能紹介ってあんまりしなかったですけど。
触った上でだったね。
ノートブックLMとかもそうだけど。
そうですね。
今度俺、ジェミニープロをいつか語ってあげますよ。
あら。
いろいろ使ってるんですね。
ジェミニープロをゴリゴリに使い倒す習慣っていうのが近いうち来るんですよ。
私。
へー。
予定してて。
はいはい。
1個もう切りないからさ。
1個1個やってこうっていう。
あれだから。
ジェミニーのエンタープライズとかプロとかでカバーできる範囲は、
多分結構前話したAIエージェントの範囲がかなり色濃く見えてきそう。
うーん、なるほど。
あのー、やっぱ強みはね、
ドキュメントとかあれが全部クラウド上にあって、
あれを全部オンラインで触ってるっていう状態が長かったからこそ、
あそこをシームレスに繋いだり、
あの上でチャットしながら文章を勝手に書けたりとか、
あれは多分他じゃ出せない味わいがありそうだなっていう。
なるほど、Googleならではの強みですね。
そう。
そうね、近いうち年度内には喋れるんじゃないかな。
おー。
いいっすね。
オープンAIから次はGoogleの方で。
そう。
いやー面白さあるでしょ。
とりあえずやっぱ使いこなしてる状態でいれば、
いいんじゃないかなっていう感覚だからね。
そうですね。
あだ手堅く仕事していきましょう。
そうしましょう。
今日はオープンAIのお話でした。
はい。
じゃあエピソード99ですよ。
次回は?
100。
100。
さすがに振り返りでもしますか。
そうしましょうか。
100。
1年の時にしたけど、1年記念エピソードでさ、
方針変えるぜみたいなこと言ってやってきて、結構好調じゃん。
そうですね。
あそこの方針転換かなりいい方針転換だったなという肌感が強いから。
うん。
まあそこも含めちょっとこれからどうしていくか、
AI時代どう生きていきましょうかみたいな話でもしますか。
しましょうか。また方針転換をするのかどうなのか。
どうなのか。
101回目に向けてやっていきましょう。
そうしましょう。
隣のデータ分析屋さん今回も面白いと思ったらフォロー・レビューよろしくお願いします。
番組の感想や質問はハッシュタグ隣の分析屋、隣のがひらがなで分析屋は漢字でお願いします。
また概要欄に貼ってあるお手紙ホームからコメントを寄せてください。
ではまた。
バイバイ。
34:29

コメント

スクロール