この放送リラックスは、1週間でよくネットに流れているAI関連の話題を
AIが自動でピックアップし、bbzこと私、ババゾノートセコンことタテノが
つらつらと話すポッドキャストです。AXで暮らしに、ひらめきをオービジョンに
サービス体験や組織作りを行っている、工夫AIスタジオの提供で行っています。
はい、ということで、今回は第14回ですね。
今週、AIがピックアップした内容を先にまとめてしまうと、日本語向けの
大規模言語モデルの公開と進化です。新しいオープンソースツール
NightShadyが登場し、アーティストがAIモデルのトレーニングに
Docを収入することができます。Stable Diffusion Web UI TensorRTという
新機能も登場し、ディプラーニング モデルの高速化が可能です。さらに
AWSとの練習により、生成AIサービスが強化され、アレクサも活用されます。
ですね。では、セコンさん、やっていきましょうか。
はい、ということで、例のごとくまたAIに喋らせてから入っていくんですけど、
セコンさん、よろしくお願いします。
よろしくお願いします。今回もなかなか最初1分間ぐらいずっとAIがひたすら
喋るというところで、早く僕と和田さんも親子ごめんになりたいですね。
リアルな方が。
そうですね。それがいいのかどうかは別問題ですけど。ということで、今回も1週間分の
Aがネット上からよく投稿されているものをピックアップして、トレンドを追っていきましょう
という内容なので、1週間分見ていきたいと思います。
今回、割とちょっと技術よりの話が多いかなという気がするんですが、
なるべく分かりやすくお話しできればなと思います。
まず1つはですね、日本語向けの大規模言語モデル、いわゆるLLMですね。
のモデルが公開進化、いろいろされましたよというのが大きなところですね。
今回公開されたのが3つかな。LLMJPというのと、あとはJapanese Stable LMというものと、
あとはStock Martさんが出しているモデルの3つがあります。
それぞれ特徴が違うんですけど、いったようなタイミングでポコポコと出てきたなというところですね。
そうですね。この辺のところ、やっぱりLLMって最近こういう日本語言語モデル学習させたぞというところは
各社、いろいろ自社の技術アピールも含めてやっているんですけど、
なかなか告知文にもどんどん特色が出てきたなみたいなところがあって、
結構そのLLMJPさんが公開しているU3Bモデルとかって、結果プレイスリリース読んでも全然わからないですね。
これって結構、やっぱり表現の仕方とかっていうのがいろいろわかりやすい表現を心がけているとか、
何が自分たちのLLMが得意としているところなのかみたいなところがきっちり書かれていないと、
なかなかやってみたのに徐々になってきてしまっているなー感はすごく感じられていて、
Stability AIさんとかだと結構中に、なぜこのモデルを使ってどんなことが違うのかみたいなところとか書いていたり、
もちろん自分たちが考えるベンチマーク手法とその結果どうなったかみたいなのがシフトで公開されているので、
非常にわかりやすかったりするんですけど、そういうわかりやすいものに関しては結果、
どのサービス普通にLLMに限らないと思うんですけど、使ってみたいなみたいに思ったりするんですけど、
作ってみましたみたいなものっていうのはやっぱり、なかなかじゃあ使ってみようかみたいなところにならない、
もしくはそれを使ってみたときのイメージみたいなところが非常にわからないよなーみたいに思いながら、
今回この3つのところが出したというところで、フリースリリース等々を呼んで思った感想ですね。
そうですね、打ち出し方が全然違うなーって、それぞれ3つ出てるんですけど、それぞれが特徴がありますよっていうところで、
さっき千尋さん言ってたみたいに、ちゃんと書かれてないとわかんないなーっていうのはあったりするんですけど、
一方はちゃんと書かれていたりとか。さっきの話の中でちょっと触れられてなかったですけど、
特にストックマークさんが出したやつは、性能的なところというか、モデル的な特徴としては、
ドメインに特化した話というかモデルになったりしていて、そこがちょっと面白いなーと僕は読んでて思っていた感じですね。
特許文等々の一部のところのデータセットを非常に与えているので、
そこら辺の部分のタスクに対してすごく知見を持っているみたいなところとか、
いろいろビジネス関連の知識を入れたりみたいなところっていうのはすごく面白いよなーと見て取れますよね。
今だと割と何でもかんでも答えられるよっていう、そういうモデルが作られがちというか、
そういうのが欲しいから実際作ってると思うんですけど、
特定のドメインに特化して、そこまで大きくないんだけれども、
十分その領域においては他の性能を強化するっていうのが、
多分今後出てくるのかなーっていうところでちょっと注目していたという感じですね。
そうですね。またStability AIさんで話しているのは、
その7Bっていう他のLAMに比べたら少なめの大きさのモデルなんですけど、
ミストラで7Bっていう、結構9月ぐらいに非常に話題になった小さいんですけど、
非常に頭がいいモデルっていうところに追加学習という方法で学習させることによって、
その知識を引き継ぎながら、結構その小さいモデルで賢さをある程度担保しているみたいなところも、
かなり面白いモデルだよなーと思って見てた感じですね。
そうですね。ちょっと細かい話になってくるとなかなか分かりにくいと思うんですが、
いろいろと開発が進んできていて、日本語のモデルっていうのも今後出てくるんだなーというところで、
次に移りたいと思います。
次がちょっと面白い内容で、オープンソースのツールが出てきました。
これは何かというと、画像の中にこの表現を使うならば、
毒を注入するものができて、それがNightshadeというツールですよというものですね。
これちょっとパッと記事読んで分かりにくいと思うので、ざくっと言うと、
このツールを使って、加工という言い方が正しいんですかね。
編集というかした画像に関して、その画像を無断でAIの学習に使うと、
出力結果が何かめちゃくちゃになる毒を注入することができるものですという感じですね。
この辺のところっていうのは、今回オープンソースでこのツールが出てきたっていう、
以前から、昔から敵対的なみたいなところだったり、そのモデルをどう壊すかっていう研究ってすごいされてきてまして、
いわゆる例えば今回の場合、画像に特定の情報、特定のノイズみたいなものを入れることによって、
AIが間違ってこの画像を認識して学習してしまうみたいな感じがありまして、
そうするとこのリンク先で書かれているような、実の中だと犬って表現したのに、
なぜかAIが猫の絵を生成してしまうみたいなところに結びついていくっていうところがあって、
これはずっと昔から研究し続けられてきた分野が、今回の取り分け生成AIのブームで、
こういうことをやると、AIって学習ミスるよねみたいなところの部分が分かりやすく出てきたものなのかなと思ってまして、
この辺の技術は正直なところ、いたちごっこみたいなところがあったり、
そのデータをどう見分けて、どう学習データに含めないかみたいなところもずっとやられてきたところなので、
今回は結構そういうオープンソースでツールが公開されて、
生成AIがすごく目立っているからっていうところで取り上げられたのかなとは思いつつも、
引き続きそういうのっていうのはずっと続いてきましたし、
この辺のは結構AIのセキュリティみたいなところにも関わってくるところで、
何か間違えて認識してしまうと重大な事故につながる、
重大な何か情報が出てしまうということにつながるみたいなところでもあったりするので、
この辺のところの技術っていうのは、どんなものが最新で使われていて、
どんなことが結果起きるんだっけみたいなところのトレンドとかを掴んでいくのは非常に大切なことなのかなと思ってました。
特に先ほども出てきましたけど、こういうセキュリティっていうのかな、
対策っていうのは本当に日進月歩なので、
対策してたけどちょっと進化したモデルだと効かないとかあったりするので、
特にその画像とか自分で生成するような方は注目して、
こういった技術も見ているといいのではないかなというようなところですね。
じゃあ次、ザコッといきたいと思うんですけど、
これも割とテクニカルな話なのであれなんですけれども、
Stable Diffusion Web UI TensorRTという、
ザコッと言うと画像生成を早くする機能が出たよっていう話ですね。
正確にはNVIDIAのドライバーレベルで対応を行って、
それを使うStable Diffusionのものも公開されたというか、
Stable Diffusion Web UIって簡単に生成できるものがセットで公開されたので、
お手軽に高速に画像生成ができるようになりましたみたいな感じの内容ですね。
これ単体で見るとStable Diffusionの画像の速度が速くなっただけみたいに思うかもしれないんですけど、
この辺のTensorRT拡張みたいなのが出て大手のフレームワークに当たり前に取り入れられていくと、
どんどんそれがStable Diffusionの一部のことをやらないと高速化されないっていうところから、
汎用的にどんどん広がっていくのかなという気もしていて、
そうすると何もせずに自分たちは速度アップの恩恵を受けられるみたいなところも期待されているので、
非常にありがたいなみたいに思っていますね。
ちなみに自分はあんまり画像を作ることはないんですけど、
Stable Diffusionってもちろん実行するマシンの環境によるとは思うんですけど、
まま時間かかるものなんですかね。
僕の場合は今使っているGPUがRTX4090っていうデスクトップ向けでは一番速いGPUなんですけど、
それを使っている限りだとかなりもうサクサクと画像生成できるようになっていますね。
なのですごく遅いっていうよりかは、結構速い速度でどんどん作れています。
それは割といい暖房器具と言われるものを持っているかもしれないですが、
もうちょっとミドルスペックぐらいのものだったら、
割と恩恵を実感できるかもしれないなというところですかね。
そうですね。早いものを使っていても1秒が0.5秒になったら、
それはそれで全然嬉しかったりするので、そういうところはありますね。
気になる方はリンクが置いているので、画像生成楽しむ方は見てみてくださいというところですね。