1. AI未来話
  2. #13 OpenAIのGPT-4oが登場!映..
2024-05-16 39:56

#13 OpenAIのGPT-4oが登場!映画「her」の世界が本当にやってくる

spotify apple_podcasts

[エピソードで紹介したもの]

GPT-4oはこちらから!
https://openai.com/index/hello-gpt-4o/

視覚障害者の課題を解決できるイノベーション映像
https://x.com/dicamp_hiraoka/status/1790274348580049272

発表で隠されたGPT-4oの裏機能10選
https://x.com/SuguruKun_ai/status/1790286932305641533

[今回のタイムスタンプ]

() 音声対話性能の向上と応答速度の改善
() AIの感情理解
() APIのコスト削減と無料プラン提供
() OCR機能の強化について
() GPT'sも無料で使えるようになる
() デスクトップアプリがゲームチェンジャー
() ビジネスへの影響範囲は?
() 生き残っていく会社
() 今回の発表は期待とは違というった声も多い?
() エンディング
() Googleの話をちょい出し
() コンテキストの重要性と希少性

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

⋱お便りはこちら!⋰
https://forms.gle/j8sJ1v1hH5JSaZm97
 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

[AI未来話//各種リンク]

note - ⁠https://note.com/aimiraitalk

Spotify - https://open.spotify.com/show/4YQI4JvX83mURM6xywKn5w?si=34b96be128584bad

Apple - https://podcasts.apple.com/jp/podcast/ai未来話/id1733462439?uo=2

LISTEN - https://listen.style/p/aifuturetalk


[更新スケジュール]

毎週木曜日の朝7時に更新


[パーソナリティプロフィール]

田附(タツケ):AIメディア編集長の30代男性

平岡(ヒラオカ):AIコンサルタントの30代男性

https://twitter.com/dicamp_hiraoka

サマリー

OpenAIはGPT-40を発表しました。GPT-40はテキスト、音声、画像の理解力が大幅に向上しており、音声による対話性能の向上に重点を置いています。AIの発展による犯罪や法律的な懸念が指摘されており、生成AIの競争とそれに伴う情報戦が注目されています。Offtopicsの最新エピソードでコンテキストの重要性について話題になりました。美術館に置かれている絵画と世界遺産の壁画の背景のコンテキストの違いに言及し、プロダクト開発において過去の文脈を知ることの重要性を強調しています。

00:00
AIメディア編集長のたつけです。 AIコンサルタントの平岡です。この番組は、AIメディアを運用する2人が、AIを活用したい人、もっと学びたい人に向けて、AIの最新動向やその未来に関する情報を一緒に学ぶポッドキャスト番組です。
ということで、本日のトークテーマをお願いします。 はい。
GPT-4oの発表
OpenAIがGPT-4oを発表して、映画「her」の世界が本当にやってくる。
今回トークテーマ長いですね。 長いですね。なんか俺今、早口言葉やらされてるのかなと思ったけど。
いや、すごいですね。発表ありましたね。 はい。とうとう出てきましたね。新しい。新しいのかな?4oだから。マイナーチェンジなのかな?
そうだね。まあでも、新しいシステムもたくさん入ってね。
ちょっとじゃあそのGPT-4o、どんなものなのかっていうのをちょっと紹介していこうかなと思います。
OpenAIが現地時間の5月13日に発表したのがGPT-4oという新しいGPTモデルでして、
GPT-4oはGPT-4 Turboの同等の性能を持ちながら、より高速化され、テキスト、音声、画像の理解力も大幅に向上したモデルということで。
なんかAppleみたいな発表の感じでしたよね。
そうだね。何ていうの?リファレンスみたいな。
深夜2時にやりますよって言って。
界隈の方はね、みんな正座してずっと待ってたわけですよ。夜中2時。
なんかこの昔のAppleを彷彿させるような発表だったなっていう。
なるほどね。確かに確かに。みんなが発表をワクワク楽しみに待ってたみたいな。
こんな感じの空気があったなと思って。
確かにね。オープンAIもそういう立ち位置になってきたわけだね。
そうだね。このテキスト、音声、画像の理解力が大幅に向上したっていうのは、GPT-4oに意味があるんだよね。
そうそうそう。これがね、オムニっていうところから取ったo。
で、そのオムニっていうのが全てを意味する接続詞から由来している。
だからテキスト、音声、画像とかあらゆる組み合わせを入力として受け入れて、
あらゆる組み合わせで出力できるみたいな。
全方向でね、できるようになったという感じですね。
そうだね。前々回、なんかどっかの配信で、
チャットボットアリーナに突如現れたGPT-2が話題みたいな話をちょっとしたと思うんだけど、
めちゃくちゃ高性能なやつが突然出てきたぞみたいな話ね。
そうそうそう。やっぱりこいつがこのGPT-4oの試運転みたいな感じだったらしいっていうのが後で分かってるよね。
ね、らしいですね。
やっぱお前だったかっていう。
でも実際に使った人の話を聞くと、GPT-2ほどの賢さは感じないって言ってる人がほとんどで。
ちょっと違うのかね、微妙に。
結構違う。ちょっとじゃない。
なんで同じやつ出さないんだろうね。なんかちょっとこう、若干制御かけて出してくるよね。
そう、制御かけて出してきてるけど、まあ戦略だと思うよ、シンプルに。
ってことなのかね。
もういきなりさ、大富豪でさ、革命出すバカいないじゃん。
手札があと3と4と5しかありませんみたいな。
これはいいか、革命でいったら。
そうだね。
革命出して手札があと2と1とキングしかないみたいな状態になっちゃうと、もう切れるカードなくなっちゃうから。
上手に出してるんだと思うよ、競合もたくさんいるからね。
なんだろうね。
で、今回は?
で、今回はOpenAIが一番推してる部分としては、やっぱり音声による対話性能の向上っていう部分をかなり推してるようで。
従来のチャットGPTでも音声モード可能だったけど、これ待ち時間にやっぱり課題があって。
待ち時間、平均でGPT3.5だと2.8秒。
で、GPT4でも5.4秒。
結構ラグあるよね。
ラグあるね。
ただこれがGPT4.0だと、なんと平均0.32秒という。
やばいよね。
ほぼ同時というかリアルタイム会話って感じだよね。
ほぼリアルタイムに近づきましたね。
マジで人と喋ってるのと変わんないんじゃないかなっていうぐらいの。
そうそうそう。
この平均0.32秒っていうのは、大体人間との会話における応答時間と同じぐらいって言われてるらしいから。
もうまさしく人との会話みたいな感じになるよね。
だから冒頭で話したように本当に映画派のようにAIと自然と人間と喋ってるみたいな。
そういうレベルになったって感じだね応答速度は。
そうね。
GPT-4oの能力向上
ただ応答速度だけじゃないっていうのがまた今回すごくて。
感情の理解だったり表現力みたいなのがめちゃくちゃ向上してんだよね。
感情理解が相当すげえなって思ったこれは。
なんせ喋り方すごい流暢だもんね。
英語だからね。
でもだと英語だったから実際にどのくらい流暢だったのかってわかんないんだけど。
すごく流暢そうだったよね。
そうだね。流暢そうだ。なんで流暢だと思ったかっていうと感情のところだと思うんだよね。
こっちのアクションに対して向こうが笑ったりとか。
なんか親父ギャグ言って笑ってるみたいなそういう光景とかあったもんね。
なんかジョークみたいなもんね。
そうそうそう。あとなんかちょっと褒めてあげたら恥ずかしそうにそんなこと言わないでよって恥ずかしそうにしたりとか。
英語がわかんなくてもそのやり取りの感じがなんかすごい流暢に感じるよね。
そうだね。
あとなんか激しい息遣いとかそういうなんか非言語的な音声みたいなのも意味を理解できるみたいだから。
だからもう単なるその音声の文字起こしっていうわけじゃないみたいな状態になってるっていう。
なんか今までの思考だと話してもらったものを文字起こししてその文字起こししたものを解釈して返していくっていうフローだったんだけどそういうことではなく、
背景だったりその文脈とか様々なものを解釈して返していくって形になるから本当にただの文字起こしではなくて。
ではなくなるってことだよね。
感情理解ができるようになったAI。もう本当に人間に近しくなってきたって感じですね。
だからやっぱり感情の部分もそうだし反応速度もそうだしそこを含めると本当に人間と話しているようなチャットボットがとうとう出てきてしまったっていう感じだよね。
そうですね。一応このデモ映像は概要欄に載せておくのでまだ見てないよって人はもうぜひ見てください。
もうこれは本当にイノベーションだと思うので。
映像を見る限りはスマホでスピーカー機能にして人と電話してるような感じだよね。
そうだね。実際にカメラを映して今何が映ってるのって問いかけると今この建物が映っててこんな感じになってます。
今は橋が降りてる状況、上がってる状況とか聞くと今は橋が下がって車が通ってますとか。
あとタクシーのあれすげえなと思った。
タクシー来てるの教えてくれるやつ?
音声対話性能とその他の機能
そのどのタイミングで手を上げたらタクシーが止まってくれるのかっていうのも理解してて
カメラをかざしながらタクシーが来たら手を上げるタイミングを教えてってやってるデモの人って盲目の人だから分かんないわけじゃん。
どのタイミングで手を上げたらいいか。
でもこのGPT-4を使って今手を上げてくださいって手を上げたらタクシーが止まってくれるっていうね。
あのタクシーももちろん桜だと思うんですけど。
桜って言い方よくないな。
でも実際に手を上げるタイミングはそんなに遅くなかったなっていう感じもあって。
本当にリアルタイムで世界を認識して指示を出してくれるっていうのは盲目の人にとっても相当なイノベーションだなって思うよね。
いや本当そうだよね。
もう解除者っていうのかな。
そういう一緒にサポートしてくれる人がいらなくてもある程度できるようになったりとかっていう世界があるわけだもんね。
そうそうそうそう。
これがね結局ロボットに入るわけだから。
ロボットが全員そんな感じになるってなるともう本当にアンドロイドの誕生だよね。
本当そうだね。
ちなみに音声は映画ハーの女優さん?
恋のモデルになったスカーレットヨハンソンさんを使ってるっぽいよ。
え、そうなんだ?
めちゃくちゃ似てるのよ、声の質が。
これってやっぱり意識してるのかな?
でもねサムちゃんがそもそも私の好きな映画はハーですって言ってるぐらいだから。
あ、そうなんだ。
サムちゃんって友達だったっけ?
友達友達、俺もハー好きだったしね。
ハー繋がりか。
ハー繋がりだし俺めちゃくちゃマトリックス好きでさ知ってると思うけど中学生の時に好きすぎ10回ぐらい見てたじゃん。
サムちゃんもマトリックス大好きだし。
あ、そうなんだ。
見てる機械戦が近くて嬉しいなみたいな。
気が合いそうだねサムちゃんと。
多分気が合う英語喋れれば。
確かに。
でもねこのGPT-4Oがあればそういった英語とかもリアルタイム翻訳とかの機能もあるわけだからさ。
そうなんですよね。
これあれでしょ?
同時翻訳ができるようになったっていうデモもあったよね?
あったあった。
すごいよね。
だからもうサムちゃんともそういうハーについての会話とかも普通にできるかもしれないから。
そうだねできるようになるよねこれもね。
大丈夫ね。
あとなんか他にも細かい機能いっぱいあったんだけどなんかその中でも面白そうだなと思ったのはテキストから3Dモデルを生成する機能とか。
これはなかなかすごかったよね。
もともと3Dモデルを作るっていう栄えがあるぐらいだけどあれも駆逐されちゃうだろうなって感じはするよね。
確かにね。
あとは書き手の感情を指定しながらリアルな手書き風AI画像を生成してくれる。
これもねちょっと概要欄に載せておくんで見てほしいんですけど、本当に書いたかのような画像を生成してくれるみたいな感じですね。
しかもそれをね感情を理解する感じの絵にしてくれるんだよね。
そうそうそうただ書いたじゃなくてちょっと人間が書いたっぽい感じの画像を出してくれたりとかね。
すごいよね。
俺個人的には次紹介するやつがやっぱすごいなと思って。
これがね音声データから話者識別話してる人を識別した上で文字起こしをしてくれる。
普通にめっちゃすごくないこれ。
もうまさしく議事録っていうのかなもうなんだろう完璧なる文字起こしっていう感じなのかな。
完璧なる文字起こしだから僕とたつけが喋ってるのをちゃんと分離して文字に起こしてくれるっていう感じでしょ。
で元々ねこのポッドキャストの音声を文字起こししてくれるサービスとかもちろんいっぱいあるんですけど、
それもすごい精度いいのよ。
いいんだけど話者識別まではやってくれないんですよね。
でもこれもできるようになるとGPTでええやんって感じになってきちゃうよね正直。
だって文字起こしの外部のサービスは有料だよね。
そう一部有料って感じ無料で使えるのもあるけど。
それ考えたらねこれ十分だもんね。
十分になるししかもあれズームとかにも入ってくれるらしいよ。
そうなんだ。
もうじゃあそれでいいじゃん。
そうだから今回の発表で何がやっぱすごいのって音声のこの認識音声認識能力とそれを感情分析して返す能力っていうのがもう半端じゃないから、
それに伴ったサービスっていうのは全て駆逐されるだろうなって感じ。
そうね全部これで済んじゃう感あるよね。
全部これで済んじゃう。
しかもこれが高くて使えないんだよねとか大手企業しか導入できないんだよねって言うんだったらまだわかるんだけど、
GPT-4oのリリースとAPIの料金体系
なんとねこれAPIのコストが今までの約半分になるっていうことで。
そうなんですよね。
安くなる害っていう。
そう普通は性能上げましたでも料金もちょっと上がりますって言うんだけど違うんですよね。
半分も安くなるっていうね。
意味わかんないよね。
意味がわかんない。
これでもAPIのねAPIの利用料金が安くなるっていう意味ですね。
そうそうそう。
じゃあ普通に使った場合はどうなのかっていうところなんですけど、
これがねなんと無料ユーザーに解放されるっていう。
意味がわかんないよね。
意味わかんない。
謎なんだよね。
そうそうそう。
一応有料プランもまだもちろん残ってて、
使える機能と使えない機能っていうのはあるんですけど、
ほとんどの8割型の機能は無料でも使えるようになります。
そうね。
有料じゃないとできないのはGPT図を作ったり、
そうだね。
画像生成したりとか、
あとはさっき言ったその音声のやつすごいって言ってたけど、
あの音声会話は無料ユーザー、有料ユーザーしか使えないんだよね。
そうですね。
だよね。
逆に言うとそれ以外は全部いけるってことだよな。
そうそれ以外は全部いけるけど、
1時間に入力できるプロンプトの数が少なくなるように制限されてるっていう話らしいね。
でも結構無料のチャットGPT使ってる人ってさ、
使ってるんだけど、
本当にちょっとした瞬間に使うだけの人って結構多いと思うよね。
そうだね。
1日に2,3回ちょっと面倒な作業の時だけちょっと使ってますみたいな人いるじゃん。
そういう人から考えたら、これで無料で全部使えたら結構それで事足りちゃうかあるよね。
全然事足りると思うよ。
だってウェブ検索もできるし、データの分析もできるし、チャートの作成もできるし、
あらゆる機能が使える。
メモリー機能も使えるでしょ普通に。
無料でさメモリー機能使えるのやばいよね。
やばいよ結構。
すごいよな。
だからね今回の発表って本当にオープンに世界にAIを普及させていくっていう、
そういう意図がめちゃくちゃ感じられるなと思って。
本当に映画の母の世界を作りたいみたいな、そういうのをもう感じるよね。
本当にすげーなって思う。
GPT-40のデスクトップアプリリリースとその機能
あと機能として結構すごいなってみんなが騒いでて注目してる部分としては、
OCRの機能がかなり強化されてるみたい。
これはね半端じゃなく良くなってましたね。
相当正確だねこれ。
ね、あのカオスマップとかあるじゃん。
あのカオスマップに記載されてる人間でも見るの大変だよみたいな、
あの会社のリスト。
ああいうのを全部吐き出してくれて文字起こししてくれたりとか。
あ、そんなちっちゃいとこまで適量になったんだみたいな感じ。
すごいよね。
しかもこれもなんと無料という。
そう無料なんですよ。
OCRで言ったらやっぱクロードさんがめちゃくちゃ良かったんですけど、
それを超えちゃってしかも無料で使えるって結構やばいんじゃないかなって思うこれは。
なんかね、前の配信でヒラがさOCR機能がさクロードに入ったことによってさ、
これで食ってる奴ら全部駆逐されちゃうよみたいな話してたじゃん。
したねしたね。
なんかねもう使い放題みたいな感じになっちゃったね今度は。
そうだね。
本当に駆逐されちゃう。
無料で使い放題はもうちょっとすごすぎるよね。
そうまあ法人ならあれしも普通に考えて月3000円って結構高いじゃん一般的な感覚からすると。
そうね、ヘビーユーザーじゃないとってとこあるよね。
だってNetflixで1500円とかなわけじゃない。
それで解約されたりされなかったりってやっぱり維持するのが大変じゃん1500円ですら。
でその中でやっぱ3000円ってやっぱ使う人しか使わないよねって感じになってたものが無料になってこれだけの機能が入ってるもの。
で仕事が超はかだるようになるよとか仕事以外でもプライベートのこういう部分で超役に立つよっていうのがたくさんあるから。
しかもGPTsも使えるわけじゃん。
GPTs使えるのもすごいよね。
GPTs使えるって結構やばいなって思う。
そう、やばいよね。
作成するのは有料ユーザーだけで。
そうだね作って提供するのは有料なんだけど有料ユーザーじゃないと使えないけど。
使う分には無料のユーザーでもいけるんだよね。
そうなんですそうなんです。
いや結構さすげーGPTsがもう今結構出てきてんじゃん。
それ無料で使わせてもらえるんだったらだいぶ助かっちゃうね。
めちゃくちゃすごいなーって思うねこれは。
だから使う人たくさん増えるだろうねこれから。
他にもなんかリリースだったよね。
そうこれも非常に楽しみなやつでデスクトップアプリがリリースされるという。
今まではweb版ブラウザーだけだったのがアプリとして使えるっていうことだよね。
これがね何がすごいかって。
デスクトップアプリとして置いておくじゃんGPTさんを。
その横でコードとか例えば書いてますと。
それをね今回OCR機能が超強くなったから認識できるわけですよGPTさんがしっかりと。
音声も感情分析して指示ができるようになったわけじゃない。
だから横に秘書を置いとけるみたいな感じで。
このコードのフィードバック頂戴って言ったらここはこうでこうした方がいいよっていうのがすぐ返ってくるわけよ音声で。
じゃあここはこうしようかみたいな感じで。
プロの人が横に常に立ってて常にフィードバックしながら教えてくれるみたいな状態になるわけだよね。
GPT-40がもたらすビジネスへの影響
手取り足取りすごいねそれも。
本当にだからAI家庭教師みたいな感じで。
これができるとマジで実現する。
結構秘書危ういかもしれないねそう考えると。
秘書もそうだし家庭教師系とかもそうだしマジでいらないと思う。
本当にGPTだけで良くなると思う。
確かに。
これさじゃあどうせハルシネーションが起きるんでしょうとかさ。
性能云々とかよく言われるじゃないですか。
確かにまだハルシネーションちょっとあったりとか全然間違った返答されたりとかっていうのはプロンプト次第では全然あるんだけど。
今回のリリースでラグがめちゃくちゃゲームチェンジャーになったって言ってるんですよ。
ラグっていうのはデータベース。
データを格納しておいてそこを参照して返答してくれるっていう機能なんですけど。
この精度が超上がったらしいんですよね。
だからそのハルシネーション云々の問題ってこのラグで解決できるから。
AI家庭教師っていうサービスを作ってる人が東大で受かるための方法とかそういった内容を全部データベースにぶち込んでおけば
マジで東大を合格させるためのAIみたいのが出てきても全然問題ない。
問題ないというか普通に高精度なものが出てくるって感じ。
すごいね。
デスクトップアプリのリリースって言われるとはてってなるけど超インパクトあるからねこれ本当。
しかもそれがさっきのああいう音声のスムーズなやり取りとかでできるかもしれないんだもんね。
できるようになります。
すごいよね。
メイビーではなくてできます。
確実にできますね。
確実にできるようになります。
しかも他言語対応なんでね。
日本語もおそらく対応できると。
ただリリースはねまだしてなくてMacが近日中。
そうだね。
でWindows版が今年の後半ぐらい。
後半ぐらいらしいね。
さらに言うとGPT-40自体は一応モデルの提供はしてて
で普通にテキストでのやり取りとかは今もできるんだよね。
できるできる。
でそのさっき言った音声のリアルタイムの会話だったりとかそういうのがまだリリースされてないという状況で。
そう数週間後にリリースされるんじゃないかなっていう感じらしいね。
楽しみだね。
これは楽しみだね。
超やりたい。
早くやりたい。
ぜひリスナーの皆さんも出たらすぐねちょっと試してみていただければなと思いますね。
そうですね。
じゃあ次はねGPT-40がもたらす世界みたいなのを話していきたいですね。
そうね。
どんな社会になっていくのかっていうところで。
まあやっぱり今までの文脈からしてもそうだけどやっぱり映画派みたいな世界になるよね。
まあそうだね。何度もこの派の話して申し訳ないんですけど。
うん。
本当にこう映画見たことある?たつけ。
いや俺ないんだよね。
あーもう終わってますね。
俺あんま映画見ない人だからさ。
でもなんかこんだけ言われるとなんか見とかないといけないなっていう気はちょっとしてる。
そうだね。発信者として派見てないやつマジ喋んなってなるから。
そんなレベルなの?
そんなレベルですよ。
あ、そう。
サム・アルトマンが派が好きで影響を受けてこういうのやってます。
こういうのやってますまで言ってないけど好きですって言ってて。
マトリックス見たことないような人がメタバーズの範囲すんなよって思っちゃうし。
あーまあ確かにね。
それはやっぱり元となっているやつあるわけじゃん。攻殻機動隊とかもそうだし。
サイコパスなんかもあるし。
うん。
だからねぜひ見てほしいですね、派は。
うん。確かにじゃあ見るわ。
はい。
まあそれでもねそういう世界っていうか結構最終的じゃないけどかなりまあ先の話じゃん。
うん。
まあ近々のところで言うとやっぱビジネス的なところへの影響がやっぱ大きいなと思ってて。
うん。
やっぱねオープンAIってさその基礎モデルの開発を全力にやってきましたと。
でAPI提供してでまあ無造無造の生成AIスタートアップたちがそれをアプリケーション化するっていう流れで基本やってきたわけじゃん。
うん。
でもこんだけさこう技術で上がってくるとさ今そのアプリケーション領域にオープンAIが足を踏み入れてるみたいな状態になってるわけじゃん。
そうだね。
そうそう。
だからそれこそさ前オープンAIジャパンが設立された時もさこういう話したけどさこういうGPT-4Oみたいな高性能モデルが出るたびにさスタートアップのこう開発成果みたいなのが一瞬で陳腐化しちゃうよねみたいな。
うんうんうん。
もう無きものになるさっきのOCRの話もそうだけどさこのサービスのためにずっと頑張ってきたのにもう全部それが移送されるみたいなさ。
そうだね。
そう現状がやっぱ起きるよね。
だからプログラムで言うとウォーターフォール型で作ってたような事業企画を立てて資金調達して人を雇ってよし作ろうできましたって言った頃には全て持ってかれてるみたいな状況になっちゃう。
本当にね。
やっぱね日本のSIRも危機を迎えてるっていうところもあってB2B向けにねほぼ裏でGPTが動いてるみたいなものをアプリ化してでこうフィーを得るみたいなそういうことをやってるところも多いわけじゃん。
そうだね。
そこにもう存在価値がなくなってっちゃうみたいなのがあるよね。
そうだね。
APIたたえるときはOKみたいな感じだからね今。
GPT-40の発表による株価の影響
実際はGPTの方直接やればいいじゃんっていう感じになっちゃうからね。
なっちゃうよね。
実際にそういった感じののはオープンAIが出たことによる事業への懸念みたいなのって現実問題として動いてる部分で結構あって、
GPT-40の機能でさっき言ったリアルタイム翻訳とかがあるんだけどこの発表で語学学習事業のDuoリンゴの株価が急落するっていう。
落ちてたね。
実際に起きてる。
実はねこれ去年の段階からもう学習事業系の会社で株価影響出ててDuoリンゴも前々から全然落ちてる状態だったんだけど、
最近盛り返してきてた株価。
何とか何とか戻ってきたって思った時にGPT-40の発表でまたゾーンと落ちるみたいな。
もう多分一生盛り返せないんじゃないかみたいなね。
つらいね。
つらい。
そういうのでやっぱり事業の影響出ちゃうとこ絶対あるよね。
そうだね。
サービスにもよるかもしれないね。
俺英語学習今やってるんだけど、
スピークっていうアプリでやっていて、
それこそ裏でGPT動いてるんだけど、
実際に音声のフィードバックみたいなのをしてくれるアプリで、
これ今回のGPT-40ですごい精度上がると思うんだよね。
GPT-40を利用した音声フィードバックのサービスへの期待
そうだね。
逆にこれは株価が上がるんじゃないかな。
株とかあんのかな、わかんないけど。
上昇してなかったら大したことないから。
でも今話した文脈だと、
要はそういうアプリをもう使う必要がなくなっちゃうよねみたいなニュアンスだよね。
でもそうでもないと思うんですよね、これに関してはまだ。
じゃあまだまだこういう流れにはなるかもしれないけど、
やっぱりまだそれをアプリケーションとして作ることに価値のある領域っていうのはまだある。
全然あると思うし、
結局どこで差別化できるかってラグの部分になってくるから、
データだと思うんですよね。
どれだけ有益で表に出てないデータを持っているかどうかっていうのが差別化につながると思うんだよね。
AIの発展による犯罪と法律的な懸念
だから特化したサービスとかっていうのはいくらでもまだ残っていくと思う。
なるほどね。
逆にたくさん人抱えてて、
かなり抽象度の高いサービスを展開してる。
それこそ語学学者全般やってますみたいなところはかなりしんどいと思う。
なるほど。
コスト下げられるのに下げられないみたいな、そういうもどかしい状態になっちゃうと思うんだよね。
だから超少数精鋭で、
エクエイティもデッドもしてなくて、
もう最小限で立ち上げをバンバンやってるところは生き残っていくと思う。
もうあれか、やろうってなったらパパってGPTとか使ってサービス作ってリリースしてみたいな。
ダメだったらまたパパって作り直して新しいのリリースしてみたいな。
もうその速度感できるかつコストを抱えていないっていう状況。
ダメだったら次へみたいなね。
確かにそういうとこ強いよね。
じゃあないとむしろ生き残れないんじゃないかなって感じはするよね、この速さ。
本当に速いもんね。
もう信じられないくらい速いです。
あとはやっぱ懸念すべき点としては犯罪とか法律的な部分とかそういうところかなって思ってて、
これ今日水曜日5月15日の収録なんだけど、
今日の朝出てきたニュースでさ、
早稲田大学の入学試験でスマートグラスで問題用紙を撮影して、
でSNSにそれを流すことで回答をもらってやるみたいなカンニングの事件があった。
そうなんだ。
だから今コメントとかあれとか見ててもレックスが見てても技術の発展すごいなとか、
今スマートグラスでこんなにいけちゃうんだみたいな。
確かに。
いやでも俺からそのスマートグラスにGPT-40みたいなのが入ったらさ、
SNSに流して答え聞くとかじゃなくてさ、
もうピッてやればピッて答えてくれるじゃん。
そうだね。
防げない。
防げないじゃん。
これをさ何だろうね、入試の時はさ、
メガネ検査みたいなのが発生するとかそういう世界になってくるのかなみたいな。
無駄なコース増えそうだね。
無駄なコース増えそうだよね。
だからあとは何だろうね、AI禁止器みたいなのができるのかね、
AI的なものを身にまとってたら反応するとかさ。
そんなのは無理だろう。
でしょ?ってなるとやっぱ結構AIでさ、
そういうのこっそり何かやってるみたいなのを防げない世界がちょっとしばらくは来そうな気がするよね。
そうだね、だからそこは人間の手が入るんじゃないですか。
ね。
検査っていうね。
目視でね、そのメガネ大丈夫ですかみたいな。
あとまあロボットが今後はやるんじゃないですか、そういうのを。
あーそうね、確かに。
あとロボットだね、やっぱハード進化が待たれるって感じだね。
そうだね。
なんかXでさ、このGPT-40が出た時に、
やっぱもうホワイトカラーの仕事はもうどんどんどんどん駆逐されていくみたいな。
だからもうブルーカラーの仕事選んどいてよかったみたいな投稿見たんだけど、
いやもうロボットできた瞬間全部終わるぞみたいな。
そうだね。
時間の問題だぞみたいな。
全然、ロボットすげえから今本当に。
ね。むしろさ、ホワイトカラーの仕事はさ、上級の仕事は残る可能性はあるわけじゃん。
全然残ると思うよ。
ね。むしろハードできた瞬間に駆逐されるのはブルーカラーだからさ。
そうだね。
だからブルーカラーは残るところないよね、きっと。
まあブルーカラーもだから上流は残るんじゃないですか、支持をするだったり。
ああ、支持する人ね、確かに確かに。
だからどの業界も上流は残るけど、いわゆる下流のところに関してはもうAIで何とかなっちゃうよね。
うん、そうね。
だったらもうまず寿司作る人とか、人間じゃないと付加価値出せないような領域に行かないと結構危ないと思うよね。
うん、そうね、確かに。
この人がやってるからとかね、そういうところにもう価値がないと厳しいよね。
そうそうそう。
でもなんか今回こうやってGPT-40出てきてはすげえみたいな感じになってはいるけどさ、やっぱりこういつまでもGPT-5が出ないこととかさ、
あとこのGPT-40って言ったらGPT-4ターボと同じぐらいの性能なのに高速化してるとか、そういう音声部分が飛躍的には上昇してるみたいな。
でもよく考えるとGPT-4ターボと同じぐらいなんだみたいなさ。
っていうところからさ、なんかちょっとこうあれ思ってたよりってやっぱ思ってる人もいると思うんだよね。
ね、結構多いよね。
多いよね。結構それでなんかもう生成AIが結構上限きてんのかなみたいな説唱えてる人とかも出てきてるよね。
はいはいはい。一応ね、来週はGoogleさんの話をしようと思うんですけど、
Googleの今回の発表でGPTさん、オープンAIを全然食える余地あるんじゃないかって言ってる人もいて、
だから俺なんか戦争を見てるような感じなんだよね。
あー。
情報戦じゃん。
情報戦だね、確かにね。
お互いどれくらいのカードを持っててどのくらい切るかによって選挙がすごく変わるから、
そういった意味ではお互い同じくらいの技術力を傾向してきたっていうのは結構事実な気がするよね。
そうね、それこそGoogleもそうだけど前話したメタもそうだし、結構どこももう水準としては同じくらい。
前までね、オープンエア頭一つ飛び抜けてたけどさ、
そうだね。
今なんかそんな感じじゃない雰囲気にはちょっとなってきてる感はあるじゃん。
Googleさんがね、思った以上に追いついてきてるっていうね。
ね、そうね。
クロードもそうだしね、アンソロピックも。
そうそうそう、だからそういうところで、逆に言うと結構もうその生成AIとしてはもう結構この辺が上限値なんじゃないかみたいなさ。
まあね、どのくらいあとカード持ってるかによりますよね。
うーん、ね。
だからどこが勝つのかっていうのも楽しみではあるけど、
まあその辺はね、ちょっと次回GoogleとオープンAIのところの対決みたいな感じでちょっとしゃべっていけたら面白いよね。
そうだね、Google特集みたいなね。
結局ね、どの生成AIがどの分野においていいんですかみたいなのがみんな気になると思うんで、
そういうところを話していきたいですよね。
うん、そうだね。
はい、それではエンディングでございます。
エンディングは好きなことをしゃべって締めくくろうと思うんですけども、
何か話したいないことあります?
そうね、話したいないっていうよりかは、
これがリリースされたらそれに合わせて次こっちがリリースしてみたいな被せてくるじゃん。
さっきの情報戦の話じゃないけどさ。
発信者としてはちょっと被らせるのやめときたいんだよね。
マジで迷惑なんだけど。
情報のキャッチアップもさ、一撃でくるから追いつかないのよ。
確かにね。
そうそう。
なんかさ、Googleのどうのこうの例みたいな、いやもうGPT-4のことばっかやってたからそっち全然見てないわみたいなさ。
はいはいはい。
怒るじゃん、そういうのが。
ぶっちゃけね、今回の台本作る時も、
タズキなんでこんなこと知らないの?みたいなこととか、
逆にタズキが知ってること、あれそれ知らないわみたいなことがあって、
キャッチアップする量が多すぎるっていうのは結構あるよね。
そうなんだよ、追いつかないから。
なんか順番に出してくれれば順番に勉強できんのにみたいな。
だからこそ教えることに対して価値は出てるよね、今。
だからこそうちらがそこは頑張ってしっかり学んで情報発信していきたいなっていうところではあるよね。
情報発信に価値がある瞬間だよね、これだけ情報が多いと。
確かに確かに、言われてみればそうだね。
俺たちの価値だからフィルターだよね、それこそ。
確かに。
ここで喋ってないことは、もしかしたらわざわざ知らなくてもいいような情報を削ぎ落としてるっていうことだもんね。
そのノイズが大事になったりすることもあるんだけど、最低限ここはちゃんと押さえておけば、
世の中にはついていけるぜっていう内容をフィルターかけて発信していくっていうのが結構役割じゃないけど、
価値になるんじゃないかなと思うよね。
そうね、確かに。
Googleの話したいっすね、やっぱすごかったね、あれ。
うん、すごかった。だめだよ、今喋ったら来週の時喋るから無くなっちゃう。
ちょい出しちょい出し。
ちょい出し?
でもやっぱり、最初このポッドキャストの第一弾が空についてから始まってるじゃん。
オープンAIの動画生成、空。
その空を追ってる身からすると、やっぱGoogleのベオは、「お?」っていうふうには思ったよね。
ベオってるよね、あれは。
ベオってるね。あれはすごい喋りたい。
そうだね。
結構いろんなところがしのぎを削って出し合ってる中でも、やっぱ得意領域、不得意領域みたいなのがちょっと見えてきたからね。
これだから、どれが発揮を取るかっていうよりかは、きっとそれぞれの領域でうまいこと使いこなしていく人が勝つ感じがするよね。
あとは最終的に好みじゃないけどさ、今も例えばマイクロソフト系だったらワードエクセルあってワンドライブがあって、それで一つで完結できるじゃん。
逆にGoogleもGoogleでGoogleドライブがあって、スプレッドシートがあって、それで完結できるじゃん。
みたいな感じで、多分一つのサービスで完結させる、でどれをメインで使うのか好みによって違うみたいな。
個人ではオープンエイなんだけど、会社行くとGoogle使わさせられるんだよね。
そうね、それはあるね。
結局そんな感じのところで落ち着きそうだなみたいな。
確かにね。
Meets使ってるけどZoomの方がいいみたいなパターンもあるしね。
そうそうそうそう。使い勝手はちょっとニーズ変わってくるもんね。
好き好みになるのかどうなのか。
同じ路線をたどっていってるよね、そういった意味では。
コンテキストの重要性
その話でいくと、僕が好きなポッドキャストでOfftopicsっていうのがあるんですけど、
Offtopicsの先週の配信がコンテキストの大事さ、それが起承になってるって話で、コンテキストって文脈のことですね。
すごい軽くだけしゃべると、絵画が美術館に置いてあるっていう状況ってコンテキストないよねっていう状態なのよ。
じゃなくて、世界遺産のとこに描かれている壁画、壁に描かれている絵とかがコンテキストあるよねみたいな状況。
それがどういう背景でどういうふうに作られたのかっていうのが言語化されて残っていかないから、その情報ってものすごく貴重性があるよねみたいな話があったんですよ。
例えばサービスのプロダクトを作るときにUIをベンチマークして真似ようとするじゃん。
それは今最新のFacebookのUIじゃなくて、初期のときのUIを参考にした方がいいみたいな話があるのよ。
それはユーザーを獲得するために初期が一番適してたから。
今の場合はユーザーがたくさんいる状態で最適化されたUIだから、っていうこの文脈を知らないとサービスの作り方間違えちゃうよねみたいな。
っていうことは、今の好き好みで変わってくるよねって話も、過去の文脈を知っておかないとどういうふうに未来が変わっていくのかっていうのがちょっと見えてこなくなるよねって思ったの。
なんで人はOneDriveもGoogleドライブもあるのにOneDriveを使うのかとか。
それは会社で使ってるっていう文脈があって、会社がどういうふうにそれを採用したのかっていう過去の文脈を知っておくことが、今後プロダクトを開発していく上ですごく大事になると思うんだよねっていう意味でのコンテキストって超大事だよねっていう話をしたかったんです。
そこまで汲み取ってプロダクト作ってる人ってあんまりいない気がするんだよね。
ユーザーの課題を課題をって考えてて。
課題はもちろん大事なんだけど、その背景にあるコンテキストのほうがもっと大事で。
っていうのが言語化しづらい部分だからここにすごく価値を持つと思ったよね。
だから意識してこのPodcastではそういうとこも話していきたいなと思ってるみたいな話です。
なるほどね。
オフトピックスめっちゃ面白いんでぜひ聞いてください。
なんで宣伝してんの。
面白いんですよマジで。
ということで最後告示だけして終わりたいと思います。
お聞きのPodcastアプリでAI未来話の番組フォローとレビューをお待ちしています。
フォローすることで最新話が更新され通知がきます。
この番組はランキングに入る可能性が上がります。
ランキングはちょっと下がって65位ぐらいになってました。
1位を目指してるんでぜひよろしくお願いいたします。
来週も木曜朝7時に更新されますので通勤通学のお供に聞いてくれると嬉しいです。
お便りもお待ちしておりますのでよろしくお願いいたします。
よろしくお願いします。
それでは本日もありがとうございました。
ありがとうございました。
39:56

コメント

スクロール