あーそうなんだ、そういうこと?O2は何その酸素っぽいからってこと?
O2っていう名前の会社があるのか、サービスがもうすでにあるのかってところで、そこの紛らわしさを避けるためにっていう話ですね。
えー、じゃあ今のうちにO5ぐらい商標登録しとく?
この間、ほら、この間Xのドメインを買ったやつ多分大金持ちになったよなって話したじゃん、確か番組で。
あの、あれの先取りバージョン。もうO100ぐらいまで全部取られてんじゃない?すでに。
いや、多分O2が日本だとあれだけど、多分海外、アメリカとかだとよく名乗せられたサービスだから避けたって話だと思いますよ。
どうでもいい実際サービスがO4、O5あっても、無視無視。
分かんない、無視できないぐらいデカくするっていう。それまでに。
間に合わんて、デイ1からデイ12で、そんなO1からO3への大幅なアップデートがありますって話ではあるんですけど、
その間にも結構細かく、しかも自分たちが使うってなったら、あ、意外と便利じゃんっていうサービスが出てきてるんで。
それをね。
いくつも出てきてたよね。すごいよね、本当に。
そうなんですよ。
でもこのO1の凄さっていうところが1個、ちゃんと触れておきたいなって思っていたのが、
まだ我々一般のユーザーってO1ってこれまで触れてなかったというか、プレビューバージョンで課金したら触れてたけどっていう人もいると思うんですけど。
そうだね、俺ずっともうO1だって。
あ、そうなんすか。
基本的に毎回利用上限まで使ってたな。
やっぱりあそこの推論能力ってすごいよねっていうのは実感してました。
いやー、してた。もう途中から無理だったもん。4Oの回答気持ち悪く感じてた。
あ、そうなんすね。だからそこの推論の能力というか、思考の深さっすよね。
本当にそう。
あれがね、やっぱりすごいし、これがようやくみんな誰でも触れるよねっていう正式リリースってなったところで、
その凄さを実感してほしいなっていうのが、すごい期待値高まってますね、自分の中でね。
いやそうね。なんか俺ね、その3万に手出すかのところで悩んだ結果、
O1のプレビューとミニで、ある程度まだ身の回りのことが事足りてるから、
まあいいかなっていう。月3万って重いじゃん結構。
いや、重い重い。
けど、まだ悩んでるぐらいのラインだな。
でもこれで爆速に仕事が進むとか、もうこのO1の3万円を使ってビジネスやってるって人にとっては安いもんかもしれないっすよね。
いや全然でしょ。なんか普通に他のサブスクとかいくつか辞めて、
まあプラスアルファぐらいだったら全然払ってもいいな。もうちょっと困ったら契約しよっかなって思ってた。
はいはいはい。
なんでまあ一定は使うんじゃないですかね、このO1。
MatchaとGPT Proっていうこのサービスですね。
マジね、いいよ。なんだろうなあ。
すげえ抽象的なことを言うと、やっぱ回答の気持ち良さは段違いなんだよね。
うんうん。
推論が入ると。こっちに寄せてきてくれる感じというか。
あとは多分コードの提案とかもディスカッションして、
欲しい回答に寄せてった後にコードに落とすっていうところも精度高い気がする。
まさにそのコーディングとかのところで実力発揮するって言われてますよね。
ただね、いくらでも話せるんだけど、この推論の良さみたいなのは。
ただ俺一個あんまりしっくりきてない部分はあって、もしかしたらこれがプロになったら直るんだったら結構契約度合い変わるんだけど。
結構ガチガチに推論でその答えまで寄せた後に、
そのコードのテイストが若干違うとか、こっちに寄せたいってなった時の、
修正の触れ幅が前の方がでかかった気がする。
前っていうのは?
4.0とかでやってた時の方が、これ違うからこうしてくれって言った時に、
答えが違うから別の回をガンって用意するけど、
言ってることをがっつり変えてくれない時がたまにある気がするんだよね。使ってて。
そういうことか。
で、それってわかんない。推論だからさ、ずっと。
推論だから、ここまでで推論してここにたどり着いたっていう、いわゆる局所解みたいなところにあるから、
それをガラッと変えようとした時に、どうしてもそこの考えが捨てられないとかっていう話なのかなとかを勝手に想像しながら使う。
なるほど。その推論してる過程をどこまで保持してるのかとか。
そうそうそうそう。機械がすでに認知バイアスを持ってる可能性っていうのをちょっと懸念してる。
なるほどね。いいところに気づいてるというか、今回このO1がやってるのが、いわゆるチェーンオブソートっていう思考の連鎖を積み重ねていって、
この思考をどんどん深くしていくっていう、そんな仕組みを取っていて、
そこの思考の連鎖をどこまで保つかっていうところは、これちゃんとはっきりはしてないんですけど、
1回の回答でその思考の連鎖を捨てちゃうというか、っていうタイミングがあるらしいんですよ。
へー。
なので、今のジョッチの話だと、一定多分保ちつつ、最後の連鎖をさらに深めるっていうことをするのであれば、
同じような回答がもう1回出てくる。一気にガラッと回答の量が変わらないっていうこともあるし、
そうね。
以前はその連鎖を全部捨てて、また新しくゼロから考え直すってことをしてたっていう風な、
あーそうなのかもね。
違いがある。
そうかも。
のが原因かなと思いますね。
まあ人間の認知バイアスの底だしね。結局は今まで生きてきた全てのチェーンで繋がった記憶の中で、
物事を判断するから偏見が生まれるわけじゃん。
そうですね。
だからまあまあまあ、機械、逆にめちゃめちゃ進化したからそうなったんだよねっていう話ではあると思う。
いやそう思います。よりなんか人間的というか。
だから俺別スレッド立てるもん、そういう時。もう抜け出せないから。
あーなるほどね。
いいこと言ってくれました。そこに関連して、これちょっと時間長くなっちゃうから、関連していくトピックいくつか挙げていくんですけど、
Day4で出てきたChat GPT Canvasっていう機能合わせ1個ありますと。
あープレビューリリースされてたよね。俺GPT Plusユーザーだからさ。
あーそうかそうか。
Canvas使ってたよ。
そうですね。なんでこれが正式リリースになったってことで、
さっき言ってた例えばコードを作るとかっていう時に、左側にチャットを置いて、右側にCanvasっていうコーディングのテキストの何て言うんですかね、エディターみたいなのを置いて、
そこを見ながらチャットに修正案を提示して、最終的な成果物を作っていくっていう使い方ができるってやつですね。
あれいい。
これがあるとあれですよね。1から例えばドキュメントを作るときに修正案出したらゼロから作り直すってことをせずとも、一部のところだけ修正が依頼ができるっていう。
そうねそうね。
そんな使い方ですよね。
あとコードの修正案出すとDiffがわかりやすく更新される感じもあった。
うんうん。
あとカーソルとかが必要ないなってなった。使い心地は別なんだけど、カーソルってコーディングサポートしてくれるAIあったけど、
CanvasあるんだったらGPTで完結してくれて全然いいかなっていう気持ちの方が強くなってくるかな、俺はって感じ。
でもそうですね、チャットGPTのこのプラットフォームの中だけで完結して、1個成果物が作れるっていうのはすごくいい機能だよなと思うのと、
あとさっき言ってたフォルダー、新しくスレッド立てるみたいな話してたんですけど、今回はそのプロジェクト、プロジェクト、プロジェクト。
あ、ほんとだ。
まあいいや。
俺これ知らなかった。
あー、はいはい。なんかチラッと聞いた。そんなようなの。
そうですね。これがまたなんか自分的には面白いなと思ったところで。
はいはい。
なんかこれまでってすでにあるAIモデルをなんかファインチューニングするときって、テキストとその答え、質問と答えを用意して、それに応じて各、何て言うんだろうな、ドメインの知識を学習させるみたいなファインチューニングの仕方をしてたんだけど、
これからは強化学習っていう何個前かに取ったエピソードあると思うんですけど、AIに試行錯誤をさせるというか、っていうところによるファインチューニングの仕方をするよっていう話で、
ちょっとこれ難しいから簡単に言うと、これまでは丸暗記させてた。それで賢くしてたんだけど、これからはいろんな試してみて、やってみてうまくいったうまくいかないを繰り返しながらAIが賢くなるっていう、そんな学習の方法を変えていく。
あーなるほどね。その探索の幅もAIが調整してくれるってこと?
データをそこまで用意しなくてよくなるというか、ファインチューニングするってなったときの学習データを大量に用意しなくても少ないデータで、あくまでどういう問題っていうところとどういう風な結果が出たら何点のスコアをつけるかっていうルールを決めておけば、よりAIが勝手に賢くなるっていう、カスタムモデルを作るときにかなり使いやすい。
面白いね。世の中の機械的なものっていうのは、サンプルがたくさんないと正確な判断ができないみたいな話でずっと来てて、けど人間の目で見たらなんとなくこっちっていうのはわかってるけど機械にとっては不十分だったからできなかったみたいな、そういったラインまで落としに来れるみたいなイメージだよね。
そういうイメージ。
いやそれいいね。
これだからね、面白くて。
O1に実装されてるのそれが?
これを使えるように、このファインチューニングの仕組みを提供してきますよっていう。
えー、あーそうなんだ。
ここで言われてるのは、その提供していくための研究プログラムを発足するからぜひみなさん参加してねっていう、そういう呼びかけなんですけど。
適宜な発信ではあったし発表であったんですけど。
頑張った。
結構これはあの、O3の次O4、O5とかにつながっていくような重要な発表と言いますか、そういう考え方で学習していけば賢くなるよね、確かになっていう。
っていうのがね、これがDay2に出てくるから、なかなかなんか面白い発表するなと思ってましたね。
はいはいはいはい。
まあちょっと難しい話ではありましたね。
確かに。けどまあ、刺さる人はいるんじゃない?
そうですね。
これを聞いてる人に、それだよなって思ってるやつはいるかもしれない。
うんうんうん。
まああとは、まあいくつか言っていくとDay3で、まあソラが正式リリースされましたよねってやつですね。
あー。
待ったぜソラの、ソラのアカウント全然解説できねえの。結局2日後ぐらいできたの。
あー本当ですか。
いやそう、だからソラはまあAIの動画生成ツールっていうので、テキストを与えたら動画が生まれたりとか、画像を動画に変換したりとかっていうところが正式に出てきましたね。
あれ面白かったわ。結構触った。
ネットワークの仕事してるから、俺らのやってる仕事ってこれだぜっていう動画、5秒の動画作って共通のチャンネルに流しておいたわ。
あ、いいっすね。
いやそうなんか。
仕事のプロモーション動画みたいなの作っといたわ。
はいはいはいはい。いろんな使い方できますよね。なんか自分の飼ってるペットを動かしてみたとかやってる人もいたりとか。
今度から資料の表紙これこの動画差し込んでおいてくださいっつって。
うんうん。
だからもうすごい動画が当たり前になってくるというか、なんかこれからもプレゼン資料が動いていくとかもありえそうっすよね。
すげえ、あれはマジすげえ。
いや自分ハリーポッター感あるなって勝手に思ってたんですよね。
あーいやでもそうじゃない。
分かります?あの額縁に入った偉人が動くみたいな。
あーそっちねそっちね。確かにそれもそうだね。
これは一つのエピソードで語れるくらい盛りだくさんだなと思うんで。
あとね面白いなと思ったのはオープンAIとAppleがちゃんと提携していくつかのサービスがリリースしますよっていうので、
一つはSiriがChatGPTを利用して回答するよっていうところだったり、
あとはMacの中で一つのアプリケーションとしてChatGPTが利用できるよってやつ。
これがDay5とDay11、11ですね。
マイクロソフトのパソコンだったらコパイロット標準装備だよみたいなのに近い感じだよね。
ああそうですね。まさにまさにコパイロットPCみたいな。
GoogleのスマホだったらGemini標準搭載だよみたいなのが、
MacはもともとSiriだったけどそれがオープンAIの技術が入るから、
まあもうそこに並んだぐらいになるんじゃないっていう。
そうですね。
でそこと合わせて、あとはAdvanced Voiced Modeっていう。
あーそうだあったあったあった。
ボイスモードですね。
スマホカメラに画像を見せながらそれを音声で会話する。
音声マジいいんだよな。
音声画像の融合ですね。
音声マジいい。音声入力ちょくちょく使うから。
俺音声入力結構昔から好きだからやってますね。
カップラーメンの時3分後にアラームってね。
意外とみんなSiri使わないんだなって思ってたぐらい。
俺結構Siriユーザーだからさ。音声は嬉しい。
そうですね。
それで言うとそれと合わせてさらにDay7で出た8か、
8日目に出た検索っていうところの機能追加で、
JAT GPTがウェブ検索をちゃんと利用できるようになりましたよってやつで。
あれもともとできてたよね。
これもともとできてました?
できてたよ。直近は結構できてた。
普通に検索に使う時はPowerPlexityにしてたけど、
ちょっと前から少なくともGPTプラスの方ではウェブ検索できるようになってたから。
じゃあプレビュー版とかプラスとかだったらできてたのかな。
そういうことね。それがもっとちゃんとジェネラルバージョンとして出たよみたいなことか。
ですかね。
いいよ。めっちゃいい。
そうなると音声とつなげながら、
今日の天気何とか、電車いつ来るのとかっていうのをクイックに会話しながら、
裏では検索して情報引っ張ってくるっていうのができるから。
確かに。
iPhoneに入ったら最強ですよね。Siri呼び出してGPT使って音声で全部聞いて、
レスポンス返ってくる。
確かにね。なんかほらAirPodsってウェアラブル端末だみたいな言ってたけどさ、
単なるイヤホンじゃないみたいな言ってたけど、
あと2年ぐらいしたらマジでAirPods最強になる可能性はあるよね。
いやなりますよね。
別に他のイヤホンでできるんだったらいいんだけどさ。AirPods高いからさ。
まだAirPods手出してないぜだから俺一回も。
そうだね。
いやだからAppleとオープンAIの提携っていうのはかなり強いんじゃないかな。
特に日本人は嬉しいこと多いっすねきっと。iPhoneユーザー多いんでね。
あと2つ3つくらいで、これ面白いなと思ったんですよ。
電話機からChatGPT呼び出すっていう。
え。
これまだアメリカでしか提供されてないんですけど、
なんかChatGPT専用のフリーダイヤル番号があって、
そこに電話かけるとChatGPTと会話できるんですよ。
へー。
でこれ何嬉しいかって。
寂しい時?
いや違う。
古い電話の人とかね、スマホ持ってないようなおじいちゃんおばあちゃんでも、
ダイヤル式の電話から黒電話みたいなやつですよ。
あーそういうことか。
そこからかけられるんですよ。
え、公衆電話からChatGPT使ったらちょっとエモくない?
でもそういうことですよ。
野郎。
いやそう、だからね、例えばスマホ使えなくなっちゃったとか、
なんか電波悪かったよねとか、
どんなユースケースがあるかわかんないですけど、
なんか救われる人はいるんじゃないかなって人と、
あとは一気にChatGPTに触れられる。
なんか式以下下がる。
確かにね。
すげー。
っていうのはちょっと面白いなと思いましたね。
世界変わるなー。
そんなところかな。
あとはちょっとデベロッパー向けの新機能として、
O1のモデルへのAPI利用ができるようになったよねってやつ。
あーなったなったね。
あれ全然申請通らないんだよね。
心配してたんですよね。
オープンAIのAPIの書籍書いてるから影響ないのかなっていう。
いやなくはない。
なくはないけど、
まあでもなんか、
まあそれは推論してくれたらいいけど、
問題の把握の仕方とプロンプトの仕方?
結局推論って言ったところで、
プロンプト、実務で使うプロンプトだったら
推論でも普通にO4に頼むやつも、
まだそんな変わんない感覚ではあるから、
別にそのモデルのところを入れ替えてくれたら
内容変えられるよねみたいな話ではあるから、
まあなんとかなる。
けど上手く使えるタイミングまで言ってたら、
多分入れると思うよ書籍に。
本当ですか?
マージに残してんのよ。
こういうこともあると思ってて。
一章分というかコラムで何ページか書けるように、
最悪こんぐらい増やしますって言って作ってるから。
なるほどね。
じゃあまあぜひ入れられるといいですね。
ワンチャン。
あとはそうですね、GoとかJavaのSDKで
提供しますよっていうのもあったんで、
Pythonだけじゃなくていろんな言語から
アクセスができるようになるとかそういうのもあって。
まあ確かにね、そこも結構ネックだったよね。
そういう嬉しさもありつつ、
まあだからいろいろ言ってきましたけど、
盛りだくさんですよ。
やばいよね。
いやー面白い。
年末に。
よくあれだよね、外国人、
特にほらアメリカ人とか作ってるわけじゃん。
うん。
よくこの時期にこんなやる気出せたよね。
あの人たちもサンクスギビングからさ、
割とお休みモードだからさ。
まあそうですね。
この時期になんでこんな働くんよってなってるかもしれない。