1. みるみる積もる!積読術
  2. [News Check] GPT-4o miniにつ..
2024-07-19 06:55

[News Check] GPT-4o miniについての所感

GPT-4o mini: advancing cost-efficient intelligence

https://openai.com/index/gpt-4o-mini-advancing-cost-efficient-intelligence/



●【X @mossan_hoshi】 https://twitter.com/mossan_hoshi ●【Youtube @mossanhoshi7158】 https://www.youtube.com/@mossanhoshi7158 ●【Zenn @mossan_hoshi】 https://zenn.dev/mossan_hoshi


#OpenAI #LLM #

サマリー

GPT-4o miniはAPIで利用可能です。

GPT-4o miniの性能と特徴
今日は7月19日の金曜日です。
今日気になったニュースとしては、
GPT-4oのminiがAPIで使えるようになりました。
ここら辺を話したいと思います。
GPT-4oは、GPT-4の一番新しいモデルです。
GPT-4o miniは、従来のGPT-3ターボあたりの代わりになるモデルです。
GPT-4o miniは、従来のGPT-3ターボと同じような感じで、安くて精度良いモデルです。
正直それぐらいなので、あまり話すところはないです。
性能で言うと、よくあるモデルです。
GPT-4o miniの性能としては、
従来のGPT-3ターボより良いモデルです。
企画されているのは、クロードさんの小竹梅の一番安いフラッシュです。
ジェミニも一番安いフラッシュです。
そこらへんと比較しています。
それらと比べた時に、各種ベンチマークで、どうでもいい感じの性能を出しています。
ただ、数学Vistaにおいては、まだジェミニとかのほうが良いようなものがあります。
ただ、大体の家族においては、ほぼ同等、もしくはちょっと良いような性能が出ています。
ここらへんは、実際に使ってみないと悪いです。
GPT-4o miniの利用用途と価格
特徴としては、コンデキサーウィンドウが128Kあるので、大分嬉しいです。
長めの入力を入れて、簡単なタスクをさせるようなモデルです。
このGPT-4o miniのモデルであれば、コストについては話しますが、
実際にサービスにおいて、デカめの生データを扱う用途だったら、結構使えると思います。
価格で言うと、入力トークンで言うと、1メガで15セントくらい、
出力の方に関しては1メガで60セントなので、だいぶ安い方かなと思います。
価格はそこまで最適化しなくても、結構いろんな用途で使えるんじゃないかなぁと。
当然、3.5Kにちファインで、0.7も結構早いですよというところで、
バンバンリクエストして使うってところで、エージェントとかの用途でも結構使えるかなーってのをお伝えできますね。
結構エージェントってやっぱりリクエスト増えるんで、プロダクトで使うのはちょっとためらうところがあるんですが、
まぁこんぐらい安く、性能も上がってきたという風なところをちょっとまだ評価してないんであれですが、
想定すれば結構ガチで、実際のサービスとかプロダクトにエージェントでこのGBT4を使ってっていうのは、
組み合わせとしては結構アリなんじゃないかなーって気がしてきてますね。
で、あと、当然、APIも対応してますよというところですね。
なので、普通にベタに売ってもいいですし、ラングジェンとかでも使えますよといいですね。
で、一応トークンですが、先ほど入力のトークンは128系って言いましたが、出力はまぁ5パンバンなんか半端なステのないと思うんですが、
まぁ16系ぐらいはいけますよというところですね。
あとこれあれですね。
なんかトークナイザーが運用してるらしくて、英語以外でのテキストの処理がコスト効率よくなりましたよってところで、
従来だと日本語だと1文字あたり1トークンみたいな感じで、一方で英語だと1単語あたり1トークンっていうところで、
まぁ英語の方がトークン数的にはお得だよねっていうところで、
まぁこのテクニックとして、言語に関係なく使えるようなところだと、英語でプロンプト書いておくみたいなのはテクニックとしてあったんですけども、
まぁそこら辺を比較的意識せずに、日本語でバッとプロンプト書いて使うっていうのもできるのかな。
まぁここら辺どの程度効率が良くなったのかわかんないですけれども、
まぁそういう意味では嬉しい。変更もありそうですね。
あとは、ロングコンテキストパフォーマンス向上。
まぁコンテキスト自体増えてますし、まぁそこら辺も性能が上がっていくっていうところで、
まぁその従来GPD 3.5とかって、まぁコンテキスト一応、入力のコンテキストウィンドウの量の中であっても、
やっぱり出力してる途中で、まぁこれまでのことを忘れて、同じことを繰り返したりだとか、
まぁ全然書けないといったりだとかってのはマジであったんで、
まぁそこら辺を向上しているようで歌っているのは少し期待できそうかなって気がします。
で、あと、これ良くなったよっていうのを強調しているところに関しては、
あ、あれですね。
えーと、マルチモーダルという画像とかに対応してるっぽいですね。
これめちゃくちゃ嬉しいですね。
結構画像系でなんか気軽に使えるモデルってあんまりなかったりするんで、
まぁそれこそなんだろうな、
シンプルにこの画像の中に人間が映ってますか?みたいなやつだとか、
リッチな処理じゃなくて、まぁシンプルな処理に、
もうちょっと画像に対してやりたいみたいなニーズはあっても、
従来ちょっとそこら辺GPD 4を使うのは、なんかレイヤートゥーマッチなところがあったりとしては、
まぁ私のこれまでのトレーバーがありますけれども、
意外とこの3.5Kでマルチモーダルいけるのが嬉しいですね。
まぁちょっと0.4がだいぶ落ちる気はしますけれども、
どうしてもこのLLM以外の処理がマルチモーダルだと書いてくるんで、
まぁそこは結構手になる気はしますが、
なんとならスマートフォンのそういうのがこれまでできなかったんで、
できるようになったってところがちょっと嬉しいかなっていうところですね。
で、あとはその数学だとかコーディング系の能力が上がりましたよ。
あーちょっとこの3.5Kというかミニで、
そういった数学的だとかコーディング的なものを任せるっていうのは、
ちょっとあまり実用的では、
まぁそれこそGitHubコパイロットぐらいの、
なんかここまで書いたコードで、
次ちょっと1行だけ書いてくらいの、
そういうシンプルなところだったらまだいいんですけれども、
まぁ雑に何か目的のコード全部書かせるみたいな用途を多分持ってないんで、
まぁここはまぁそういうもんだねぐらいの感じで、
ちょっと見てればいいかなと思いますね。
やっぱりマルチモーダルですね、気になるところとしては、
ちょっと大学気になるモテルですね。
うん、あとは、
まぁアン先生とかについて答えてますが、
あまり目当たらしそうはないかな。
そんなところですかね。
うん、まぁかなりちょっと簡易的なタスクを任せるのに、
ちょっと使えそうな雰囲気があるんで、
まぁちょっとおいおいしたいなったら使ってみていきたいですね。
はい、以上気になるニュースでした。
えーこのポッドキャストでは、
日々思いついたことをエンジニアのモスさんが話します。
YouTubeとかZENとかでも発信をしているので、
まぁ気になったら見てください。
では。
06:55

コメント

スクロール