1. じゅりんHACK|ラジオ館
  2. #番外編 Open AIの新モデル「G..
2024-05-14 19:42

#番外編 Open AIの新モデル「GPT-4o」は、よりドラえもんに近づいた!

spotify

日本時間の5月14日深夜2時くらいに発表されたOpenAIの新モデル「GPT-4o」について、できるだけわかりやすく話してみました。

性能的な面の向上というよりも、より人間に寄り添えるようになった…つまりドラえもんになったようなイメージのモデルです。

無料でも使えるようになる(制限あり)のも嬉しいところですね!!

 

GPT-4oの紹介動画

 

図形の問題を理解して、子どもの理解を会話でサポートする動画

00:00
こんにちは、じゅりんです。じゅりんHACK|ラジオ館を始めていきたいと思います。
今回は、本当につい先ほど発表されたChatGPTを開発しているOpen AI社が、新発表をしたということです。
ちょっとそれについて話をしていきたいと思います。
今回のイベントの発表の大きな目玉というのが、まず何かというと、
それがGPT-4oと呼ばれる新しいAIのモデルが発表されましたよ。
これから使えるようになりますよというところなんですね。
このGPT-4oというものは何なのかというところから、少し説明をしていきたいと思います。
このGPT-4oというのは何かというと、
これは今までChatGPT-4ってあったじゃないですか。
このGPT-4oもいわゆるChatGPT-4oなんですけど、
基本的にそんなに大きな違いは実はないんです。
賢さ的なところで言うと、ちょっと良くなったらしいんですけど、賢くはなっているみたいなんですけど、
そこまで大きな違いというのはなくて、
ただ、このGPT-4oの最大のポイントというのは何かというと、
これがまるで人間とコミュニケーションが取れるような、
ドラえもんとしゃべるような、そういう世の中が一歩近づいたかなみたいな、
そういうところだったりします。
ここのところをもう少し分かりやすく、いくつかポイントに分けて話をしていきたいと思います。
まず、このGPT-4oですね。
これ何なのかというと、このGPT-4oの「o」って何なの?みたいな感じなんですけど、
これは「Omni」という、ラテン語かな?何かの略で、頭文字を取ったOで、
Oというのは「全ての」とか、そういう意味合いがあるそうなんですよ。
だから、このGPT-4oというのは全ての、要するにGPT-4oが全ての世の中の情報を見ることができますよ、
聞くことができますよみたいな、そんなイメージになっているのかなと。
その名前の通りに、何ができるようになっているか、どこが中心になっているかというと、
まず一つ目が何かというと、会話がめちゃめちゃ滑らかになっているということなんですね。
反応速度が、応答速度がめちゃくちゃ良くなっていますよということなんです。
これどういうことかというと、今までChatGPTってスマホ版で会話ができましたよね。
ChatGPTでテキストカタカタカタって打つだけじゃなくて、音声入力でですね。
音声入力じゃなくて、音声でChatGPTに話しかけたら、 音声でChatGPTから答えが返ってくるみたいな、
そういったいわゆる会話ができたんですよ、 カンバセーションモードというんですけど、これができましたと。
ただ、今までのこのカンバセーションモードって、 すごくタイムラグがあったんですよね。
03:02
向こうが理解して回答してくれるまでに、 2秒とか4秒とか待たなきゃいけなかったんですよ。
だから、こんにちはって言ったら、2秒ぐらい待って、
こんにちは、何かご用ですか?みたいな形で返ってくる。
間があると、ちょっとなんか、あれ?なんかこう、 人間と会話してる感じが薄れるなみたいな、そんな感じでした。
でもですね、これがめちゃくちゃですね、 応答速度が速くなったんです、このGPT4.0になって。
こんにちはって言ったら、こんにちは、こんにちは、 何かご用でしょうか?
何でも仕事を与えてくださいね、みたいな感じで、 すぐに返してくれるみたいな形です。
本当に簡単なこと、今のはこんにちはっていうのに対しての 回答なので、簡単な回答で早かったんじゃないの?みたいな感じなんですけど、
そうではなく、かなりしっかりした コミュニケーションの会話をしたとしても、
全然待たされることなく、もう即座に 答えが返ってくるみたいな形で、
むしろ人間より早いんじゃないかな? ぐらいの勢いでですね、
ちょっと会話が成立するみたいな形なんですね。
なので、そこのところの人間とのやり取りみたいな感じの 感覚っていうのはですね、
かなり今まで以上に強くなっているというところがですね、 まず一つ目が言えます。
それからですね、二つ目に今度は表現力の向上っていうのが すごいあるんですよね。表現力の向上。
この表現力って、もともとこのChatGPTの このConversationモードっていう会話モードにすると、
今までのね、例えばiPhoneだったらSiriとか、 それからAmazonだったらAlexaとかですね、
もっと機械的な音声だったじゃないですか。 AIらしいと言ったらそうなのかもしれないんですけど、
機械っぽい音声ですね。
人間の声だけどなんかちょっと違うよね、 感情がこもってないよね、みたいな形だったんですが、
それがね、もともとChatGPTのこの会話モードでは、 そこそこ人間らしい表現力が結構できてるなと思ってはいたんですけど、
さらにそれをより人間らしく表現力が上がって 回答してくれるというですね、そんな感じになっています。
これ英語なので、デモンストレーションが どうしても英語だったので、
もう日本語だとどれくらいのものなのかなっていうのは 正直わからないんですけど、
ただ聞いてる限りではすごいね、本当に自然な感じで 回答してくれてるんじゃないかなって感じるぐらいにはですね、
表現力上がっているように感じました。
さらに、さらにですよ。 この先がすごく面白いなと思ったんですけど、
はい、それが何かっていうとですね、 表現力を向上させたのと同時にですね、
感情表現をさらにより豊かにすることが できるようになったっていうのが、
このGPT-4oのさらにですね、 もう一つの大きな特徴だったりするんです。
これはですね、いわゆる表現力からさらに一歩進んで、 情緒豊かに感情を込めて話をしてみたいな形で指示を出すと、
06:09
そうすると、心を込めたというか、 感情表現をかなり強く出した話し方っていうのができるようになるわけですよ。
例えば、桃太郎の話をちょっとしてみて みたいな感じで言ったとするなら、
例えば普通の今までのChatGPTだったら、 昔々あるところにおじいさんとおばあさんがみたいな感じで、
比較的淡々と話をするような感じだったのが、 このGPT-4oになると、
普通に聞いたときに桃太郎の話をしてって言ったら、 昔々おじいさんとおばあさんがみたいな形で、
今最初のやつとそんなに変わってないかな ぐらいな感じだったんですけど、
ぼく人間ですからね、そこまで逆にできないんですけど、 こんな感じでちょっと表現力が上がると。
じゃあさらに、その桃太郎をもっともっと感情を込めて 情緒豊かに話をしてみたいな感じで言うと、
昔々あるところにおじいさんとおばあさんがみたいな感じで、 抑揚をがっつりつけて感情表現をですね、
全面に出して話をしてくれるようになるんですよ。
これもデモンストレーションが英語だったので、 日本語版だとどうなるかまだはっきりわからないんですけど、
英語で聞いている限りでもかなり物語みたいなところの 表現力っていうのがグッと上がってるなっていう風に感じました。
なのでここのところの表現力、それから感情の込め方、 応答速度の反応速度がめちゃくちゃ上がったっていうところを
総合して考えると、すごく人間と対話してるっていうかですね、
どっちかっていうと人間というよりももしかしたらドラえもんとかね、鉄腕アトムとかね、
そういうロボットかな、AIというか、そういうアニメの世界というか、 今まで夢のような世界だったところっていうのが、
どんどんロボットと会話をする、友達になるみたいな、 アシスタントとしてとかっていうところが、
本当にこれから現実になっていくのかなみたいな、そんな印象がしました。
AIと話してるっていうよりも本当に友達と話してるとか、 すごい優秀な部下と話してるとかですね、
そんな感じになっていくのかなっていうですね、 そういう風なイメージが湧きました。
ここのところでもとにかく会話の力っていうのが めちゃくちゃ上がりましたよっていうところですね。
これがGPT-4oの一つの大きなポイントになります。
それからですね、二つ目の大きなポイントとして、 このGPT-4oはですね、
映像をですね、会話の中で直接映像を把握してもらって、 話をする、会話をすることができますよっていうところもですね、
09:08
ポイントになります。
これは実際のデモンストレーションの話をした方が ちょっと早いのかなと思うんですけど、
例えば今までもChatGPTって映像をね、 画像とか送ればそれを判断して回答してくれたりしたんですけど、
それはどっちかというとあくまでテキストで 質問したりとかっていう風なところ、
会話とその映像は同時には扱えなかったんですよね。
でもこれが同時に扱えるようになったことでですね、
例えばですね、実際のデモンストレーションの例で言うと、
なんか親子がですね、登場して親子がいてですね、 そして目の前にタブレット、多分iPadがあって、
そのiPadでChatGPTが動いてるんですけど、 その隣にですね、数学の問題があるんですよ。
しかも数学の問題、文章題じゃなくて図形なんですよね、図形問題。
この図形問題を表示しながらですね、ChatGPTが動いてて、
これChatGPTはこの図形の問題を同じ画面上に表示されているこの映像を 理解しながら会話ができるっていう状態になってるんですね。
その時にお父さんがですね、ChatGPTに今からこの数学の問題っていうのを 息子がちゃんと理解できているかどうか、
ちょっと一つ一つステップバイステップで確認してあげて、みたいな形で。
回答を教えるとかじゃなくて、 彼が理解しているかどうかの確認してね、みたいな形で言うんですよ。
息子は今からしゃべるから、みたいな形で息子に交代するんですね。
そしたらChatGPTが分かりました、みたいな形で。
この図形の問題の、この三角形の一番重要なポイントっていうのは まずどこだと考えますか、みたいな感じで聞いてくるわけですよ。
そしたら息子が、これは多分ABとかが大事なんじゃないかな、みたいな感じで答えると、
いいですね、そうです、そこです、みたいな形で。
そこが分かった上で、次に角度としてポイント、重要なところはどこでしょう、みたいな形で。
一個一個ちゃんとその映像を確認しながら、図形問題を確認しながら、
ChatGPTと息子さんが会話をやりとりしていって、
そしてその息子さんが本当にその問題を理解できているかどうかっていうのをやっていく、みたいな形だったんですね。
これすごいなと思って、映像を確認できるっていうところももちろんそうなんですけど、
これなんかもう本当にちょっと並の家庭教師じゃ立ち打ちできないんじゃないかなと思うぐらいのすごいことになってきてるなと思いました。
本当に回答を教えてくださいとかじゃなくて、理解を助けてくださいとか、
12:03
一緒に回答を教えずに、例えばヒントを教えてあげてくださいとか、
そういうふうなやり方っていうのがこれからもどんどんできていくし、
それを会話でやりとりができるし、さらに今までだったら文章題みたいなのが中心だったのが、
図形の問題とかでも全然普通に会話の中でやりとりして、
ChatGPTと一緒に学びとか勉強だったりとか、また仕事とかっていうのを先に進めていくっていうことができるようになるという形で、
本当に優秀なアシスタントの理解できる範囲っていうのが今まで以上にグッと広がった。
そしてそこがさらにキーボードで打ち込むではなく、会話っていう形で、自然な会話の形でやりとりができてというふうな形なんですよね。
なので、このいわゆるChatGPTそのものの頭の良さみたいな賢さみたいなところっていうのは、
実は今までとそこまで大きな違いっていうのはないわけですよ、このGPT-4oっていうのはですね。
でもその扱える範囲とか、それから用途、それから応用力っていうのがグンと広がったことで、
今まで以上にすごく便利になったし、身近になるし、活用の場面が広がるようなそういうAIになったんだなっていうのがですね、
今回の新発表の大きなポイントになるところなのかなと思います。
さらに補足として、この映像を理解するっていうところをもう少し広げて話があったんですけど、
さっきみたいにいわゆる図形の問題みたいな形でパソコン上の画面とかiPad上の画面っていうのも認識してくれるんですが、
実はこれカメラから映る映像も認識してくれるらしいんですよ。
だからスマホとかでインカメで自分の顔を映しながらChatGPTと会話をするみたいな、
昔じゃないな、LINEのテレビ通話、ビデオ通話みたいなことをAIとやるみたいなことができるようになって、
その場合、要するにAIは映している人間の姿を判断して、その表情から感情を読み取ったりですね、
こんな表情してませんかってことは、もしかしてあなた今すごい喜んでますみたいなことをね、
こっちが言ってなくても自分の感情が何ですって言わなくてもそれを推測してくれたりとか、
それからどんな服を着ていてそのコーディネートはどうですねとか、いいですねと褒めてくれたりとか、
または自分のこのコーディネート、今日のコーディネートどうですかみたいに聞けばおそらくそれに対して、
例えば今からすごい大事なお得意さんのところに商談に行くんですけど、
このコーディネートでおかしくないかなみたいな形で自分を映しながらChatGPTと話をすると、
そのコーディネートだともしかしたらちょっと派手すぎるかもしれないから、
15:00
例えばネクタイをこういう色に変えるといいかもしれないですねみたいなことも、
おそらくこれから言ってくれるようなそういう本当に何でもかんでもアシストしてくれるような機能っていうのもですね、
もう普通に使えるようになるっていうことだと思います。
すごい面白いですよね。
なのでもうAIを使うっていうよりも本当にアシスタントを一人雇うみたいなそんな感覚にどんどんどんどんなってくるんだろうなと思いました。
他にもいろんな発表っていうのがちょっとマニアックな機能とか話とかもあったんですけど、
そこのあたりはややこしくなるのでまたちょっと割愛して、
もう一つ重要な情報として、じゃあこのGPT-4oなんですけど、
これ誰でも使えるの?みたいな話なんですね。
有料版の人しかでも使えないんでしょ?みたいな思われるかもしれないんですけど、
ここがすごく大きなところで、
実はこのGPT-4o、なんと無料版の人から使えるようになるらしいんですよ。
なるらしいじゃなくて、なるんですよ。
無料版の人もこのGPT-4oを使えるようになります。
ただし、やっぱり有料版の人と差をつけなくちゃいけないので、
そこの使える制限っていうのはあります。
GPT-4の有料版ですね、今ChatGPTの有料版を使っている人の方が、
より多くの回数なのか時間なのか文字数なのか、
そのあたりはっきりわからないんですけど、
よりたくさんGPT-4oを使うことができますよと。
でも無料版の人でもある程度の制限はおそらくあるんですけど、
その制限の中で無料版の人でもGPT-4oを使うことができますと。
応答の反応速度のすごくいいコミュニケーションが取れるようになるし、
頭もすごくいいし、映像とかも認識できるし、みたいなことっていうのを
無料版の人も使えるようになるということで、
これは本当にAIが広がっていくすごく大きな
ターニングポイントになるんじゃないのかなと思います。
やっぱり今までもいろんなAIが出てきてるんですけど、
基本的には有料版の人しか最高性能の機能は使えなかったんですよ。
やっぱり広がりきってないというか、
AIってまだまだ特別な人たちのもの、
そういうことが好きな人たちの世界だみたいに思われてるところもあったんですけど、
そこが無料の人にも使えるようになったということで、
AIってこんなことまでできるようになってるの?っていうのが、
今まで無料版で使っていた人たちにもより実感してもらいやすくなるんじゃないのかなと思います。
すごくこれがAIっていうのが、
本当に人ごととか遠い世界の話じゃなくて、
すごく目の前の自分の仕事とか生活とか勉強とか、
18:01
そういったことに直結してめっちゃ便利になるよっていう、
そこにつながっていくんじゃないのかなっていう風に、
そんな風に感じる発表でした。
ということで、すごいこのOpenAIの今回の発表っていうのは、
面白い発表だったなと思います。
最後ちょっとまとめのところになるんですけど、
なんか性能面的なところであれがすごい性能が上がりましたとか、
数字的なことをあれこれ言われるよりも、
より人間とのコミュニケーションを取れるようになりました。
自然な形でより友達になれるようになりましたとか、
より親しみのある同僚とか部下とかになれるようにAIが進化しましたみたいな、
そんな感じの発表だったのがぼく的にはすごく嬉しくて、
これからまた面白くなっていくなっていう、
そんなちょっとワクワク感が高まる発表でした。
ということで、今回のOpenAIの新発表というところを、
できるだけ分かりやすく話をできればなと思ったんですけど、
分かりましたか?大丈夫でしたか?
こういうことなんだなってちょっとでも思っていただけたら嬉しいです。
ということで、また新しい情報なんか出てきたら、
このラジオを通してお話ししていきたいと思いますので、
よかったらまた繰り返し聞いてください。
ということで、今回はこの辺りで終了したいと思います。
最後までお聞きいただきありがとうございます。
それでは今日も良い一日を。
19:42

コメント

スクロール