1. 耳で学ぶAI、ロボシンク
  2. #19 新しく発表されたGPT-4oを..
2024-05-22 21:56

#19 新しく発表されたGPT-4oをレビュー!何が変わった?🤔

GPT-4oが発表 / GPT-4o何がすごい? / 無料ユーザーに解放された機能 / ChatGPTのデスクトップアプリ / 音声機能の凄さ


「耳で学ぶAI、ロボシンク」ではChatGPTなどのAIを初心者向けに分かりやすく解説します。


【内容】

先日のアップデートで発表されたChatGPTの各種変更点を紹介。新モデルのGPT-4oや無料ユーザー向けに機能が解放されました。

今回のアップデートでは特に「音声」の強化がスゴかったですね。デモで公開された音声機能についても触れます。


【リソース】

◎AIによる朗読のデモ動画

https://www.youtube.com/live/DQacCB9tDaw?si=wehEL1FoX7PJJ13u&t=741


◎AIによる同時通訳のデモ動画

https://www.youtube.com/live/DQacCB9tDaw?si=4JK6xPu9rjdalF1Y&t=1364


◎タクシー停車のデモ動画

https://www.youtube.com/watch?v=KwNUJ69RbwY


◎OpenAI公式ブログ

https://openai.com/index/hello-gpt-4o/


-----

◎番組の感想や要望はこちら

https://forms.gle/VMyVYWzHSNKZFu787


◎ロボシンク公式サイト

https://bit.ly/3xlLcW0


◎Xアカウント

https://bit.ly/3Tx6maM


◎Youtube

https://bit.ly/4agZS78

00:08
みなさんこんにちは、ロボシンクの矢野です。このポッドキャストは、耳で学ぶAIをコンセプトに、初心者向けにAIを分かりやすく解説する番組です。
今回のテーマは、新しく発表されたGPT-4oをレビュー、何が変わった、について話していきます。
はい、ということで今日は、先日アップデートされたChatGPTのGPT-4oについて話していきます。
皆さん、GPT-4oを使ってみましたでしょうか。 先日ですね、5月の15日、OpenAAがアップデートを発表しました。
そこでGPT-4oというものがですね、新しく発表されたわけですね。 今日のエピソードでは、この新しく発表されたGPT-4oについて話していきたいと思います。
今日のポイントは主に3つです。 新しく公開されたモデルのGPT-4oとは、GPT-4oでできること、そしてアップデートで何が変わったのか、これらをですね、重点的に解説したいと思います。
はい、ということで早速話していきたいと思うんですけども、先日ですね、OpenAIのアップデートが発表されました。
SNSでも結構盛り上がっていたので、いろいろとですね、耳にした人も多いのではないのでしょうか。
アップデートで色々な部分が変わりました。 いろいろ変わった部分はあるんですけども、結論言うとですね、2つの変更点が個人的にインパクトが大きかったです。
一つは新しいモデルのGPT-4oが公開されたこと。 そしてもう一つは、これが個人的に大きかったんですけども、無料ユーザーにですね、GPT-4oをはじめとする各種機能が開放されたことですね。
一つずつこれから解説していきたいと思います。 まずはGPT-4oについてですね。
今までですね、OpenAIの最新モデルというのは GPT-4 Turboというモデルでした。
このモデルというのは、ChatGPTにおけるエンジンのようなものですね。 性能が良いものが回答結果も良いと。
新しくGPT-4oというモデルが公開されました。 このoというのはですね、OMNIの意味になります。
O-M-N-Iと書いてOMNIですね。 これの頭文字をとってGPT-4oというわけですね。
OMNIはラテン語で全体の、全てのという意味を指します。 OpenAIの公式サイトに書かれているGPT-4oの説明をちょっと読んでみますね。
03:07
GPT-4oは当社の最先端モデルです。 マルチモーダルであり、GPT-4 Turboと同じ高い知能を持っていますが、はるかに効率的です。
さらにGPT-4oは英語以外の言語においても、我々のモデルの中で最高のビジョンとパフォーマンスを発揮します。
と公式サイトに書かれているわけですね。 このマルチモーダルっていうのはですね、テキスト以外の入力を受け付け、回答を生成すると。
テキスト以外に画像であったりとかですね、音声、そういったものも認識をして返すというわけですね。
例えば今までのチャットGPTなどの生成AIというのは基本的にテキストのみの受付になりましたね。
人間からテキストの指示を受けてそれに対する回答を行うと。 ただGPT-4oをはじめとするですね、マルチモーダルな言語モデルはテキスト以外にも画像や音声、動画などを認識するというわけですね。
このGPT-4oはですね、速度やコスト面でも改善が見られています。 例えばですね、用意どんで回答をですねGPT-4 TurboとGPT-4oを同時に生成させた場合
圧倒的にですねGPT-4oの方が回答速度が速いんですね。 ここから個人的に驚いた点なんですけど、このGPT-4oですね
性能も良くて回答速度も速いというものですね。 これは無料ユーザーでも使うことができます。
無料ユーザーでも使うことができるんですね。 今まで最新モデルのGPT-4ですね、これは有料ユーザーのみの利用だったんですね。
月額20ドルですね。だいたい今のレートで言うと3,000円超えるぐらいの金額がかかっていました。
無料ユーザーはGPT-3.5という一つ前のですねモデルだったわけですね。 GPT-3.5とGPT-4はですね
ケースによって性能が変わってくるので私も有料プランに課金しています。 GPT-4の方がですね性能がいいんですね。
やっぱりこう帰ってくる回答の精度なんかもGPT-3.5に比べると非常に良いと。 そういうわけで月額3,000円以上のお金を払って加入をしていたわけなんですけども
ここに来てのGPT-4の無料開放ですね。 これですねGPT-4並みのモデルが無料で使えるっていうのは結構衝撃ですね。
例えばですね今までこうチャットGPTを使ったことがある人で無料版のですねGPT-3.5を使って回答の精度がちょっとイマイチ物足りないなと感じていた人には朗報良いニュースだと思います。
06:08
GPT-4ターボと同じくらいの高い知能を誇るモデルが無料で使えるわけですね。 ただですねGPT-4を無限に使えるわけではありません。
えっとですね3時間あたり16メッセージまでという制限がつきます。 ちなみにですね有料ユーザーになると5倍の80メッセージまでOKです。
3時間あたり80メッセージまでOKですね。 とはいえですね3時間あたり16メッセージ無料でGPT-4を使えると
これは全然問題ない数字だと思います。 でこのように今回の発表では無料ユーザーのできることっていうのが増えたんですね。
でそのもう一つがGPT-sを使えるようになるという発表ですね。 これもですね大きな変更点だと思います。
あのGPT-sについて補足するとこれはですね 簡単に言うとチャットボットを自作共有できる仕組みになります。
例えばですね日常的にチャットGPTを業務で使う場合 毎回同じプロンプトを入力するというケースが出てきますよね。
でAIへの指示を毎回入力するのって結構手間になってくるんですよね。 業務の効率もあまり良いとは言えないんですね。
でこうした時にですねGPT-sを使うと解決できると。 具体的にはGPT-sではあるタスクに特化したチャットボットというのを作成できます。
例えばですね私の場合で言うと日常的に海外のニュース情報とか そういったものを情報収集しているんですね。
で私が作っているGPT-sになると海外のニュース記事を翻訳、 要約、そして記事にするようなチャットボットっていうのを作ってます。
これがもしGPT-sがない場合っていうのはどこかにですね プロンプトをメモしておいて毎回使うたびにプロンプトをですね
コピペして使わないといけないんですね。 GPT-sであればよく使うプロンプトをですね
チャットボット化してそれを呼び出すだけで使えるようになるわけですね。 例えば他にもですね
シーンや言語を伝えると歌詞を生成してくれるチャットボットなんかも使っています。 これは数のAIなどの音楽生成AIと組み合わせて利用しています。
このGPT-sというのは非公開もできるし公開もできるんですね 例えば自分だけで使う場合であれば非公開にする
そういった使い方ができます ただですね誰かに使ってほしいケースや会社の業務で社員にも使ってもらう
こうしたケースではGPT-sを公開してシェアすることができるんですね ただですね無料ユーザーはこのGPT-sを使うことはできなかったんですね
09:07
なので例えば私がですね制作した英語学習に特化したチャットボット GPT-sですね これをあのリスナーの方に今このロボシンクを聞いている
リスナーの方にシェアをしたとしてもですね 無料ユーザーは使えなかったわけなんですね
ですが今回の変更で無料ユーザーでもGPT-sを使えるようになるというわけですね こうなってくるとですね一気にできることっていうのは広がってきますよね
ちなみにですね誰かが作ったGPT-s これは使うことはできます
ただ無料ユーザーの場合は自分でGPT-sを作ることはできません こういった違いがあります
自分でGPT-sを作りたい場合は有料プランに加入する必要があるというわけですね このGPT-sはですねゆくゆくは報酬プログラムを導入すると言われています
GPT-sの利用に応じて製作者に報酬が支払われるという仕組みですね でまぁ今回あの無料ユーザーにGPT-sの利用が開放されたことでよりGPT-sっていうのは利用されてくると思うんですね
そして製作者にこう報酬が還元されるというわけですね そういった仕組みが導入されるのも近いと思います
例えばですね iPhoneやAndroidのスマホアプリの開発で収入を得ている方っていますよね でもしかするとGPT-sの開発でも収入を得ることができる
まあそういったこともあるかもしれません GPT-sの開発がですね副業です
まあそういった人もこれから出てくる可能性もあります で話をGPT-4.0に戻すと50カ国後の品質と速度向上したというふうに発表されています
つまりですねより広い言語でChatGPTが使えるようになったと 例えばですねChatGPTっていうのは英語が一番パフォーマンスがいいんですね
なぜなら英語の学習データを一番学習しているからですね で今回そういった英語以外の言語にも裾野が広がったと
日本語でもですねさらに使いやすくなったというふうに発表されています これは私たち日本人にとっても朗報ですよね
今年に入ってですねオープンAIがアジア初の拠点として日本に支社を設立したんですね その時に日本語の性能も今後アップしていきますというふうに言っていました
個人的にはですね引き続き日本語の性能アップもしてもらえれば嬉しいと思っています あとはですね今回の発表でデスクトップのアプリも公開されました
今までChatGPTを使うにはこういった使い方をしていたと思います まずブラウザを立ち上げると
12:01
そしてChatGPTのサイトにアクセスをする それからAIとの会話をスタートするこういった流れですね
でこれからはデスクトップのアプリからでもChatGPTが使えるようになります これですねちょっと私も実際に触ってみたんですけど
作業効率が結構改善されると思います というのもですねショートカットのコマンドがあるんですね
でこのショートカットのコマンドを使えば一発でですね チャットのウィンドウがどの画面からでも呼び出せるんですね
例えば私がブラウザを立ち上げてですね調べ物をしている時とか まあそれこそこの今ポッドキャストの収録をやってるんですけども
そういった時でもショートカットコマンドを使えば一発でChatGPTを呼び出せると
どんな作業をしていてもすぐにChatGPTにアクセスできると これはですね作業効率がかなり上がってくると思います
ただですねこのデスクトップのアプリなんですけど リリースしたこともあってちょっと挙動が安定してないなぁと感じる部分もあります
例えばいきなりアプリが落ちたりとかですね ただこの点は今後改善されていくと思います
ちなみにですねデスクトップアプリは現状Macユーザーのみとなります えっとですねWindows版はアナウンスでは今年の後半にリリースする予定だそうです
一旦まとめるとGPT-4並みに高性能なGPT-4Oが公開されたということですね
そして無料ユーザーでできることが増えたと 具体的にはGPT-4OやGPTsを無料で利用できるようになるというわけですね
今回の発表で注目するポイントはもう一つありました それはですね対話機能の強化になります
もともとChatGPTのスマホアプリはAIと会話をするようにですね やり取りができるんですね
実際に使ってみたことがある人も多いと思います でその機能が強化されたというわけですね
ただですね実際に対話機能を使ったことがある人はこう感じていた人も多いと思います レスポンスが遅いと
で今回このレスポンスが改善されたというわけですね えっとですね具体的には応答速度が0.3秒まで改善されたというわけですね
でこの0.3秒という数字はですね 人間が実際に人と人で会話をしますよね
その時とほぼ同じ応答速度と言われています つまりですねもう人間と会話するくらいのスピードで
ChatGPTと会話をできるようになったというわけですね あとはですねChatGPTと会話をしている時に割り込むこともできるようになりました
今まではですねChatGPTが話し終わるのを待ってからじゃないと 入力を受け付けてくれなかったんですね
15:06
ただ今回のアップデートで会話の割り込みもできるようになったというわけですね これは対人間で考えるとですね
会話に割り込むのはあまり行儀が良いことではないわけですけども まあの今回からのアップデートでそういった会話の割り込みもできるようになる
というわけですね これも結構ですね使い勝手が良くなるので個人的には良いアップデートだと思いました
この新しい対話機能なんですけども これはですね発表はされたけどまだ実装はされていないというような状態になります
公式のブログを見るとですね こうしたあのボイスモードの新バージョンはこれから実装予定というふうに記載がありました
あとはですねチャットGPTプラス つまり有料ユーザー向けに提供するというふうに記載がありました
で今回の発表ではこういろいろとですね GPT-40が発表されたり あとは無料ユーザーにですね GPT-40やGPTsが無料開放されたり
まあこういった話題もあったんですけども 全体を通してみるとですね音声による対話機能
これにあの重点を置かれていた発表のように思います GPT-40はオムニですね
つまりチャットGPTはマルチモーダルに舵を切ったというわけですね テキスト以外にも画像や音声の認識をAIがよりできるようになったと
オープンAIのデモでGPT-40の面白い使い方があったので ちょっとですね音声で聞いてみたいと思います
でこの今から聞く音声ですね 何をしているかというとGPT-40に物語を作らせてその物語を朗読するように指示しているんですね
えっとですね男性の声が人間ですね で女性の声がAI、チャットGPTのAI音声ですね
ちょっと聞いてみましょうか
はいいかがだったでしょうか これあの人間の指示に合わせてAIが声のトーンを変えたりしているんですね
今までもですねAIに喋らせるようなことはチャットGPTはできたんですね ただ今回のアップデートで今までよりもこう
より人間と自然に会話をできるそういった機能が強化されたように思います ただですねオープンAIのデモで公開されたものになるのでその点はですね
18:08
考慮して考える必要があると思います まあそれを差し引いてもですねすごいですよね
であとですねこんなデモもありました 女性スタッフと男性スタッフがいるんですね
で2人の間にスマホを置いてチャットGPTを起動させると で男性がですねこのように指示をしたんですね
今から私は英語で話しますとでそれをイタリア語に翻訳してくださいと そして相方ですねまぁ今回女性の方ですね
女性の方がイタリア語で話したらそれを英語に翻訳してくださいと つまりですね英語を話す人とイタリア語を話す人がいてその2人の翻訳
同時通訳をチャットGPTがやってみますよというデモだったんですね 結果としてはですねリアルタイムに2人の会話をチャットGPTが同時通訳を
したんですね これはちょっと驚きましたねあの海外旅行行った時とかにぜひ使ってみたいですね
ビジネスでの活用も面白いと感じました でこれ今でこれなんですね今の現時点でこういったことができるわけですね
これ10年後とかどうなっているんですかねっていうふうに正直思いましたね もしかするとですね
言語の壁っていうのはなくなるかもしれないですよね あらゆる言語はAIが精通していれば ok と
でこのAIをハブにあらゆる人種とかですね あらゆる国の人たちがコミュニケーションを取れる
そんな未来がもしかすると来るかもしれないですね であとはですねちょっと音声でポッドキャストで伝えるのが難しいんですけど
画像をリアルタイムで読み込んで回答するデモというのもありました 具体的にはですね紙とペンを用意してそこにスタッフの人が一時
方程式を書いたんですね でそれをスマホをかざして画像を取り込んでですね
AIに解かせると このデモもすごかったですね
画像のリアルタイムの認識という点ではこういったデモもありました えっとですね
ある盲目の方がいるんですねちょっと目があの見えない方 杖をついて外を外出している方ですね
でその方は片手にスマホを持ってチャットGPTを起動しているんですね でチャットGPTにですねこうスマホを立ち上げて周りの景色を認識させて
説明させるとそういったことをしているわけですね でするとチャットGPTがですね
あタクシー来ましたよ手を挙げてくださいってこうチャットGPTが言うんですね でこの方が手を挙げてタクシーを停車させるというデモがあるわけですね
21:00
でこれはまああくまでこうデモ動画プロモーション動画なんですけども あこうした使い方もあるんだなぁと感じました
デモではですねスマホを片手に操作をしていたんですけども これが例えばですねスマートグラスで使えるようになると面白いですよね
AIが埋め込まれているスマートグラス これでリアルタイムに周囲の風景を認識して
AIが音声で案内をするとそんな未来も実現できそうですよね ここまで紹介したオープンAAのデモ動画のリンク
これはですね概要欄に貼っておきますので気になる方はぜひチェックしてみてください はい今日はこの辺ということで本日も聞いていただきありがとうございました
番組ではAIの情報を毎週発信していますぜひフォローお願いします お相手はロボシンクのヤノでしたまた次の配信でお会いしましょう
21:56

コメント

スクロール