1. rel.ax
  2. #32 オープンAIの拡大路線:独..
2024-04-12 14:42

#32 オープンAIの拡大路線:独自モデル作成とファインチューニングの進化

bbz
bbz
Host

ポッドキャスト第32回目の紹介 ## オープンAIに関するニュース- オープンAIがAPIとしてJAT GPTを提供していることが注目されています。
- オープンAIのエンジニアリングチームが独自のモデルを作るプログラムを拡大しています。
- オープンAIの提供するJAT GPTを自社に合わせて調整する機能が改善されました。
- ファインチューニングの進捗状況や結果を確認するためのダッシュボードが使いやすくなりました。
- オープンAIのAPIを利用してファインチューニングを行うプログラムのサポートが拡充されました。## GPT-4 Turbo with VisionのAPI提供開始- OpenAIが提供するGPT-4 Turbo with VisionのAPIが開始されました。
- これにより、画像の読み込みとチャットを一つのモデルで行うことができるようになりました。
- APIの利便性が向上し、画像とテキストを組み合わせた質問などが簡単に行えるようになりました。## GoogleのAIモデルのアップデート- Googleが提供しているAIモデルのプロバージョンがアップデートされました。
- 一般ユーザーも利用できるようになり、開発者向けの機能も追加されました。
- JSONモードやファイルの扱いやすさなど、開発者向けの機能が充実しています。## 新しい言語モデルの登場- AIのスタートアップであるコフィアが新しい言語モデル「コマンドRプラス」を発表しました。
- 非商用利用のみですが、性能が高く、手元で利用できるモデルとして注目されています。

※ タイトルや概要は AI にて生成させています。

放送で紹介されたニュースへのリンク

https://ainewsdev.substack.com/weekly-ai-news-38


放送の最初と最後の音声は https://elevenlabs.io/ で作成しました。

00:10
この放送、リラックスは、1週間でよくネットに流れているAI関連の話題を、AIが自動でピックアップし、bbz、おと、私、ばばぞのおと、せこんこと、たてのが、つらつらと話す、ポッドキャストです。
AXで暮らしに、ひらめきをオービジョンに、サービス体験や組織づくりを行っている、工夫AIスタジオの提供で行っています。
ということで、第32回です。今日もニュースの説明というか、しゃべっていきたいと思います。よろしくお願いします。
よろしくお願いします。
毎週、同じ音声を使いすぎて、若干マンネリ化したので、シーズン2に来るということで、今後、変えてもいいかもしれないですね。ちょっとわからないですけど。
そうですね。もしくは、毎回、違った音声をAIがしゃべるっていうようなパターンもあるかもしれないですね。
そうですね。ちょっとそこについては、今後にご期待くださいということで。では、早速、しゃべっていきたいと思います。
今週も一週間、直近一週間で、ネット上に流れたAI関連のニュースですね。これをAIがピックアップしてますので、それをまとめた内容について話していきたいと思います。
今週というか、ここ一週間の中でいくと、いろいろあったんですけど、大きなところでいくと、やはりオープンAIに関するニュースが多く上がれておりましたと。
ざっくり言うと、2つあるんですが、まずは、皆さんには馴染みがないかもしれない方からいきますと、
AIモデル性能向上の新機能とカスタム開発拡大に注目というような感じでですね。
オープンAIで、APIとしてChat GPTが使えるようになっているんですね。
もともと、オープンAIが提供しているChat GPTって、そのデフォルト標準のものなんですけど、それを自社のデータとかを使って、ファインチューニングという方法で、
学習をさせて、好みの出力を出させるみたいな機能がもともとあったんですけど、そこもちゃんと学習できているかどうかというようなメトリックスというか、ダッシュボードというか、
みたいなところが使いやすくなったっていうのと、あと、オープンAIのエンジニアリングチームなのかなと、一緒に独自のモデルを作るプログラムみたいなものが、確か一部の企業だけだったと思うんですけど、
03:16
これが拡大していくよ、というようなアナウンスがあったので、特に開発をしている方に限っては、結構嬉しい話ではあると思うので、ここ一週間でニュースが多く出ていたというような感じですかね。
そうですね。今までのこのファインチェーン、よりオープンAIの提供しているJAT GPT等を自分の会社に合わせて調整するみたいな機能は先ほど言った通りあったんですけど、その調整をするっていう作業の中、調整がどれくらい進んだんだっけとか、今回与えたデータからする後、どれくらいうまく取っていってるんだっけみたいな、
そういうものを見ることができなかったのが、例えば見れるようになったり、その中間の結果みたいなところも徐々にウォッチしながら進めていったり、あとはもう先ほど、ちょっと繰り返しになっちゃいますけど、今までだと一部の企業にしかサポートをやっていなかったのが、もうちょっと手広くやれるので、どういうふうにオープンAIを活用したらいいかわからないけど、ちょっと一緒になってマインチューンしたいみたいな感じの、それなりの大企業等々のプログラムのサポートみたいなのが始まって、
この辺はまた新たにできることが広がるということで話題になってきましたね。
やっぱりちょっと皆さん馴染みがないと思うんですけど、結構ファインチューニングって簡単にできるようにはなってるんですけど、変化がわかりにくかったりしたんですよね。それがちょっと今回のアップデートでわかりやすくというか使いやすくなったりするので、今後ちょっと活躍が見込まれるかなというのが、この一つ目のオープンAIの因数でしたと。
なんと今週は2つあるんですね。さすがというかなんというか。
2つ目、オープンAIのニュースなんですけど、これもどっちかっていうと、ブラウザとかで使っている方にはあんまり馴染みがないかもしれないんですけど、
オープンAIが提供しているGPT4 Turbo With VisionっていうもののAPIの提供が開始されましたと。何のこっちゃねんという話なんですけど、もともとオープンAIのChat GPTってブラウザで有料版とか使っている方はわかると思うんですけど、画像を読み込んでその内容を理解することができたんですね。
それをプログラムから呼び出すためのAPIっていうものを使えば、画像の読み込みっていうのはできたんですけど、通常のチャットをする場合と読み込みをさせるっていうものが分離していたんですね。
それが一つのモデルでできるようになって、かつもともとGPT4 Turboっていうのはプレビュー状態のモデルだったんですけど、プレビューっていう文言がなくなって、ようやくといいますか、本リリースみたいな形で提供されたというので話題になっておりましたね。
06:23
そうですね。今話したことがびっくりしてしまいますけど、本当に画像もうまく扱えるようになり、かつそのプレビューが取れて最新の状態で画像もテキストも最新のGPT4 Turboで使えますよみたいなところで正式公開されたし、より一緒になったことで使いやすくなったなみたいなところがありますね。
特に本当にAPIを触ったことがある人は共感いただけるかなとは思うんですけど、結構画像とセットで質問したいケースがあったりするんですけど、それが今までは2回リクエストしないといけないとかちょっとめんどくさかったんですけど、それが一度にできるということで利便性は上がっているというのがあったりしますと。
ここはニュースとは若干関係ないんですけど、モデルが変わったということで毎回あるあるなんですけど、性能評価とかされて一部では逆にちょっと効率が落ちたんじゃないかみたいな話もあって、どこまで本当かっていうのがあるんですけどがあったりだとか、やはり例のごとく新機能が出ると、ちゃんとGPTのステータスつながりにくくなったりするっていうのが今回もあったりしていて。
例行事かなと思いながら眺めていた感じですね。
そうですね。GPT4はこのターボってつく通り、ターボって速度みたいなところでどんどんリリースされると速度が良くなっているケースが多いんですよね。
ただ、その分速度が速くなるイコール機械学習の裏側のモデルとしては、どうしても速度を速くするためにいろんな方法で計算処理の削減っていうのを行っていたりするので、そういうのが影響して結果なんか以前はうまく答えてくれたり、うまく答えられないみたいなことがどうしてもバージョンアップごとにちょっと起きているっていうところがあったりして、また今回もそういうのが少し騒がれてたっていう感じですね。
なので、ひょっとすると皆さんが何かお使いのサービスとかでひょっとしたらいつもと違うぞっていう回答が返ってくる可能性もありますが、多分裏側ではこういう違いが変更があったんだなとふんわり思っておいてもらえるといいんじゃないかなと思います。
では、オープンAは今週というか1週間でこの大きなのが2つありました。もう一つ大きなところでいくと、iCobaっていうわけじゃないんですけど、Googleさんが出して、以前から出していたジェミニ、ジェミナイというAIモデルですね。
09:04
のプロバージョンっていうのが、これももともと提供されてはいたんですが、一部のユーザーとかだったんですが、これが国とか使えるユーザーとかが増え、さらに機能も追加して開発者にも優しいみたいないろいろ発表があってバージョンがアップされたことがアナウンスされて騒がれていたという感じですよね。
とりわけ、一般ユーザーの方も使えるようになったっていうのは非常にいい点だと思っていて、今まで使えなかった方もちょっと触ってみるとその違いがある程度分かるのかなっていうところはありつつも、どちらかっていうと開発者向けの機能が拡充されたのが大きいのかなと思っていて。
ちょっと技術的なアレなんで、パッと分からないかもしれないんですけど、JSONモードって言われる、GPTとかが持っていたような機能では使いやすい、データは使いやすいようなモードとか、ファイルを扱いやすい機能とか。
これもちょっと単語だけふんわり覚えてもらったらいいんですけど、エンペリングするモデルとか出てきたりとか、みたいな地味っていうところありますね。開発者向けには結構いろいろ試したいなっていうのが出てきた感じですかね。
そうですね。本当に表側ではユーザーに対しての動向っていうのと、裏側では開発者に向けていろんなことができるようになったよっていうところで、いろいろ本当にオープンAIの対抗法としていろいろ、徐々にその機能も追いついてきているなという感じがしますよね。
あと、今回話ですけど地味に安いんですよね。他のAPIとかと比べると。それもちょっと嬉しいポイントだったりしますね。自分はまだあんまり触れてないんで、性能とかはちょっと確認してみたいと思いますが、そういうのがありましたよというのがGoogleのアップデートでしたと。
もう一つ、これもある種対抗法と言ってもいいかもしれないんですけど、新しい言語モデル、コマンドRプラスで多分読み方合ってると思うんですけど、これがAIのスタートアップ、スタートアップというかコヒアという有名なところではあるんですけど、出して結構性能も非常に良いものが出てきたんじゃないかなということで、
MIVSとして取り上げられていた感じですね。
そうですね。こちら使うのは一応無料なんですけど、商用利用のみということで、商用利用はNGという形での公開にはなっているんですよね。
ただ、結構こういう手元でLLMが動かせるっていう、ローカルLLMの中でもそれなりに大きいサイズのモデルではあるんですけど、その中ではもう性能が機械値ということで、本当にデモで試せるので、ひょっとしたらURL案に後で貼るかもしれないんですけど、実際それをデモで試してみると、
12:20
ひょっとしたらこれGPT 3.5みたいな感じのぐらいのレベルの出力のものが本当にオープン、オープンというか商用なのでどこまでオープンっていうかみたいな話はあるんですけど、公開されているっていうところが結構皆さん、こんなに小さいモデルでこんなに高性能みたいなところで、かなりびっくりな感じの話でしたね。
本当にこの新しいモデルっていっぱい出てきていて、毎回結構すごいねって騒がれたりしているんですけど、最近先週とかも話して、クロードもそうですし、ジミニとかもそうですし、もともとGPT、ちゃんとGPT一挙だったところにどんどんどんどん他のところも追いついてきていて、なおかつ使う用途が今お話に出てきたものだと手元で使えるとか、
商用は無理ですけど、みたいな感じで多様性が出てきて、いろいろ競争が激しくなってきて、より良いものがだんだん出ていくんだろうなって感じさせられるようなものでしたね。
GPT4が出てまだ1年でこれですから、すごい楽しみですよね、その辺の成長が。
そうですね、諸説ありますが、今年の夏にひょっとしたらGPT5が出るんじゃないかみたいな噂、噂もあったりしますけど。
アルトルマンがね、その辺をちょっと匂わせ発言をしていたっていう噂があってますよね。
最新動向は目を離さないようにしないといけないですが、ニュースとしてはあと1つですね、先週ちょっと話したので割愛しようと思うんですけど、音楽作るStable Audio 2.0っていうのが出たよっていうのもニュースとして取り上げられてはいたんですが、内容は同じようなものなので割愛して、今週の主なニュースはこれにて終了なので、
今回はここまでとしたいと思います。
では、いつもの締めの音声もこれも毎回マンネリ化してるんですが、僕が好きなので多分変えないんですが、流して終わりたいと思います。
それでは次回の放送をお楽しみに。バイバイ。
14:42

コメント

スクロール