1. おちつきAIラジオ
  2. AI驚き屋もスルーする地味なス..
AI驚き屋もスルーする地味なスゴさ!SLMの魅力と、量子化・プルーニングなどの軽量化技術(ep.55)
2026-03-27 1:07:51

AI驚き屋もスルーする地味なスゴさ!SLMの魅力と、量子化・プルーニングなどの軽量化技術(ep.55)

spotify apple_podcasts

今回のテーマは、これから確実にトレンドとなる「SLM(小規模言語モデル)」です。最近よく聞く巨大なLLM(大規模言語モデル)と何が違い、なぜ今注目されているのでしょうか?AIエンジニアのしぶちょーとAI素人のかねりんが、ニューラルネットワークの「パラメータ」の仕組みから、モデルを軽量化する魔法のような技術(知識蒸留・量子化・プルーニング)まで分かりやすく解説します。さらに、Metaの「Llama」やAlibabaの「Qwen」といった代表的モデルも紹介。後半では、あなたのパソコンで今すぐネット不要のAIを動かせる神ツール「LM Studio」の使い方を伝授。F1カーでコンビニに行くようなLLMの無駄を省き、用途に特化したエコで速いSLMの世界。このエピソードを聞いて、次世代のAIニュースに正しく驚ける体質を作りましょう!


【目次】

() オープニング:今回のテーマ「ちっちゃい言語モデルSLMで驚こう」

() 驚き屋もスルー?LLMでできていたことを小さく実現するSLMの地味なすごさ

() LLMとSLMの違いとは?パラメータ数とニューラルネットワークの仕組み

() F1カーでコンビニに行く?LLMのオーバースペック問題とSLMが注目される理由

() モデルを小さくする魔法の技術:知識蒸留、量子化、プルーニングとは

() 覚えておくべき代表的なSLM:Metaの「Llama」とAlibabaの「Qwen」

() あなたのPCでAIが動く!超簡単ローカル環境構築ツール「LM Studio」

() 今日の行動変容:ネット不要のローカルAIを体験して、ニュースに驚ける体質を作ろう

() ややこしい用語解説:ローカルLLMとSLMの違いって何?

() エンディング〜おまけトーク:二人の隙間時間運動とガチ花粉症対策


【今回の放送回に関連するリンク】

LM Studio

https://lmstudio.ai/


【今回の要チェックキーワード】

SLM(Small Language Model): 数千億〜数兆のパラメータを持つLLMに対し、数億〜数百億(主に10B以下)に規模を抑えた小規模言語モデル。特定のタスクに特化させることで、巨大モデルに匹敵する「驚きのコスパ」を実現する。

パラメータ(Parameter): AIの「脳のシナプス」の数に相当する数値。この数が多いほど複雑な知識を持てるが、SLMはあえてこれを絞ることで、スマホなどの端末上で動く「コンパクトな脳」を実現している。

知識蒸留(Knowledge Distillation): 巨大な「教師モデル」の判断のクセや迷い方までを「生徒モデル(SLM)」が効率よく学ぶ手法。ベテランの職人芸を横で見て盗むように、短期間で賢い小型モデルが作れる。

量子化(Quantization): パラメータの数値の精度をあえて粗くし(32ビット→4ビット等)、情報の劣化を最小限に抑えつつデータサイズを劇的に軽くする手法。RAW画像をJPEGに圧縮して扱いやすくするイメージ。

プルーニング(Pruning): 学習後のモデルから「あまり仕事をしていない」接続を切り落とす「剪定」技術。人間の成長過程で起きるシナプスの刈り込みと同様、不要な枝を払うことで処理を効率化する。

Llama(ラマ): Metaが公開している「エコシステム王者」のモデルシリーズ。利用者が圧倒的に多く、ツールや情報が充実しているため、ローカルLLMを始める際の第一候補となる。

Qwen(クウェン): 中国Alibabaが開発する「性能番長」のモデル。特に小型モデルの性能が極めて高く、最新のQwen3ではわずか数B(数十億)のサイズで前世代の巨大モデルに匹敵する知能を見せる。

ローカルLLM: クラウド(外部サーバー)を使わず、自分のPCやスマホの内部でAIを動かすこと。データが外に漏れず、ネット環境も不要な究極のプライベートAI。

LM Studio: 自分のPC上でChatGPTのような環境を簡単に作れる、ローカルLLM界の「アプリストア兼プレイヤー」。難しい設定抜きで、数多くのSLMをワンクリックで試せる。

—----------------------------


【番組の概要】

日々のAIトピックを、現役のAIエンジニアがやさしく解説する対談番組。AIニュースに驚き疲れたあなたに、おちつきを提供します。AIニュースの、驚くポイント、驚かなくても良いポイントがわかります。

★ご感想やコメントは、番組公式ハッシュタグをつけてX(旧Twitter)でポストしていただけるとありがたいです。

【番組公式Webサイト】※お便りはこちらから

https://ochituki-ai.com/

【公式ツール】

・おちつきAI RAG

https://ochitsuki-airag.com/

【番組公式ハッシュタグ】

#おちつきAI

【番組公式X】

https://x.com/ochitsuki_AI

【パーソナリティ(MC)】

▼しぶちょー

・AIエンジニア

・技術士(機械部門) 

「大手機械メーカーでAI開発の最前線を担う現役エンジニア。AI(ディープラーニング)の実装スキルを証明する「E資格」を保有。機械(ハードウェア)への高度な知見も有し、双方の専門性を掛け合わせ『AIの社会実装』に貢献する。情報発信活動にも精力的に取り組み、ブログ・音声配信(Podcast/Voicy)・SNSなどで幅広く活躍。単なる技術解説でなく、行動変容を伴う情報発信を信条とする。その姿勢が評価され、2025年UJA科学広報賞 審査員特別賞を受賞。著書に『集まれ設計1年生 はじめての締結設計』(日刊工業新聞社)。岐阜県テクノプラザものづくり支援センター広報大使、生成AI EXPO in 東海 共同代表も務める。」

https://x.com/sibucho_labo

https://voicy.jp/channel/3963

▼かねりん(金田勇太)

・KANERIN Podcast Studios 代表

・一般社団法人 地方WEB3連携協会 理事

「刑事司法実務の最前線で多数の犯罪捜査を指揮。2017年から暗号資産業界へ参入。数々のグローバルプロジェクトに参画しコンサルティング、情報分析・アドバイザリー業務を提供。コンサートライブ配信業、音声配信業、テックメディア創業等を経て、ポッドキャストレーベル兼プロダクション「KANERIN Podcast Studios」を創業。多様なパートナーと共に、未来へつなぐ声の原典を共創している。」

https://x.com/kanerinx

https://voicy.jp/channel/2534

【プロデューサー】

かねりん https://x.com/kanerinx

【サウンド・アーキテクト】

Aviv Haruta https://x.com/oji_pal

【カバーアートデザイン】

UTA https://x.com/uta_dib

【制作/著作】

KANERIN Podcast Studios

--------------------------------------------------

※画像引用元:

【各種ポッドキャストスタンドへのリンク】

Spotify

https://open.spotify.com/show/6iGk39bSta5KZ1QD7jvK2o

Apple Podcast

https://podcasts.apple.com/us/podcast/id1841316430

Amazon Music

https://music.amazon.co.jp/podcasts/aba8e9a4-aefb-404a-b366-4b7a11b3f7cb/

YouTube

https://www.youtube.com/playlist?list=PLNQiF7XIko7QOIlyFMiI_aDdk1eJzNiCD

LISTEN

https://listen.style/p/ochitsukiai

感想

まだ感想はありません。最初の1件を書きましょう!

00:01
おちつきAI
AIエンジニアのしぶちょーです。
AI素人のかねりんです。この番組は、日々のAIニュースで驚き疲れたあなたに、ゆっくりゆっくり、AIを学んで、落ち着いていただく番組です。
はい、ということで始まりました。おちつきAIラジオ、今週もやっていきたいと思います。
はい、早速ですけども、本題に行きたいと思います。今回のAIトピックはこちら。
ちっちゃい言語モデル、SLMで驚こうという回でございます。
オッケーオッケーオッケー。
来たなと思って。前ちょっと話題出たよね。
そう、ちょっとね、実はちらっと話題に出したんですけども、SLMというものね。スモールランゲージモデルというものがあるんですけど、今日はそれをちょっとテーマにして話していこうかなと思います。
これは結構ホットトピックなのこれ。
今後来るんじゃないかなというか、こういう方向にAIってシフトしていきますよねっていう可能性の一つなんですよ。
それの基本的なところを今日は皆さんに理解してもらうという回でございまして。
常識?これ。
いや、それがですね。
ちょっとコア。
そんなにやっぱ話題に上げづらいというか。
だってLLMじゃん、基本。ラージランゲージモデルでしょ。
いつもみんな驚いてんの。
そう。
SLMがすごいなんてあんまり見ないよね。
ここね、いいとこ着くね早速。
マジ?
これ本当なんですよ。
あのね、SLMってAI驚き屋さんは驚けないんですよ、あんまり。
なんでなんで?難しい?
インパクトがあまりないっていうのがあるね。
地味ってこと?
地味。だってさ、LLMってとりあえず大きい言語モデルだからできることいっぱいあるよねと。
そうじゃん。
そうね。
今度はこんなことができるようになりましたとか、こんなタスクまでとかね、こんな問題が解けますっていうのは驚きやすいよね。
そうだよね。
SLMっていうのはさ、基本的にそれをちっちゃくしたモデルだから、LLMにできてたこと以上のことはできないわけ。
なんだけどちっちゃいから、ちっちゃいこんなモデルでもこんなことできましたよっていう話になるわけ。
だからそれって正しい知識がないと驚けないですね。
そうだよね。そのちっちゃさでこれができるのがすごいっていうのは伝わりにくいしね。
伝わりにくいしインパクト低いじゃない。
ないよね。なんか新しいことじゃないっぽいもんね、だってね。
そう、できること自体は今できてたことなんだよ。
03:02
LLMでね。
そう、LLMでできてたことがちっちゃくてもできましたよっていうところがポイントなんだけど、これなかなか驚けないので。
そうだね。
今日はこれに対してちゃんと驚けるようになる知識をつけましょうねみたいな回です。
驚けるの?それ。
驚けるかどうかは。
ツーだよねここで驚けたらっていうことでしょ。
そう、ツーなんだけど、ちゃんとどういうことをしましょうねっていうアクションにまで落とし込んでますから今日の話は。
知るだけじゃないです。
僕らのこの番組のなんだっけ。
行動変容ね。
行動変容ね。
私がずっと言ってるんですけど、毎回これ聞いたらこれやりましょうねとかこれ触りましょうねみたいな話をしてるんですけど、ちゃんとSLMに関してもそういうものがあるんで。
なるほどね。
今日はですね、ちゃんとそこまでつなげますんでついてきてください。
ちょっと話取れるんだけど、驚き屋さんが驚けないものって割とあるのよ。
そうなんだ。
その代表格と言っていいものがクロードコードだったのね。
はいはい、あのコマンドラインのね。
そう、今でこそクロードコードクロードコードもうクロードコード使えないとダメですよみたいなぐらいの。
猫もシャクシもクロードコード。
猫もシャクシ、ほんとそうよ。
うちの親父もクロードコード言ってきたよ、こないだ。
ええな、そうなの。
どうやって使うんだ、どうのこうのって言って。
だから俺使ってないじゃんねって言ったら、お前あんだけ落ち着け屋でクロードコードクロードと支部長が言っとんのにお前使っとらせんのかって。
怒られた。
それはそうだって、クロードコード深掘り解でさ、説明してるわけだから。
そうだね。
確かに。
なんでやってないんだって、すげえ。
使っとらせんのかって。
怒られた。
でも仕方がない。
ほんとに。
そんだけクロードコード言われてるけど。
そう。
最初出始めた時って、全然話題にならなかったのよ。
あ、そうなんだ。なんで?
だってコマンドラインで動くっていうことが、何なのかよくわからないって人が多くて。
つまり、で、何?みたいな。
そう。
これが何なの?みたいな。
コマンドラインって何なの?みたいな人がやっぱ驚き屋さんの中でも多くて。
エンジニアじゃないから。
で、エンジニアはこれいいやんみたいな。
めっちゃ使えるやんっていうのが気がついたんだけど。
驚き屋さんは全く反応しなかったのね。クロードコードに対して。
なるほどね。面白いねそれ。
だから驚き屋さんはクロードコード驚けないみたいなことが揶揄されてたんだけど。
ていうかさ、エンジニアの驚き屋さんはいないの?
いるよ。
そういう人は理解できるわけだよね?
そういう人は理解できる。
でも少ないわけだね。
そんなに多くない。
いるんだ。
やっぱね、エンジニアって真面目だから。
いるんだね。
いる、いる、いる。
どこにでもいる。
どこにでもいる。
まあ、抗議の意味ではね、俺も驚き屋さんに含まれるのかもしれないですね。
マジで?
エンジニア界隈ではね、そんな深いことをまだ言ってないからさ。
06:02
なるほどね。
物作りの話もね、これ面白いよっていう話をひたすらSNSで発信してるわけだから。
そういう意味ではね、技術系の驚き屋さんなのかもしれないけど。
メタ認知できてるね、ちゃんとね。
そうそう。まあそういうわかりやすいトピックを一般に向けて発信しようと思ったら、そういう風なフォーマットにはなるんだけど。
はいはい。
まあエンジニアにも当然いると。
過剰にやりすぎる人はやっぱ嫌われるよねって話はある。
なんだけど、やっぱその、よりこうAIってさ、トピックとして強いから。
そこをね、さらに尖らせた人たちが、まあよく俗に言う驚き屋さんで。
そういうエンジニアじゃない人たちは、やっぱなかなかクロードコードで驚けなかったよっていうのがあるんですけど。
で、なんでそういう話をしたかっていうと、SLAもほぼほぼ一緒の構造を持ってると。
何を驚けばいいんやみたいなところが一応わからない。
そうだよね、そうだよね。
で、結果驚き屋さんが取り上げないと、意外とそれが広がっていかないっていうなんかものもあるんだよね。
驚き屋さんも結構役割果たしてんの?
不安にさせてる部分はあるけど、これがなんか今海外で騒がれてるなっていうトピックを作り出すのはうまいよね。
知られないぐらいだったらちょっとミスリードあってもいいって感じ?必要悪。
いやいやそれはね、微妙なところだけど。
微妙か。
彼らのそういう発信を利用し、我々が是正し、正しい知識とするっていうところがやっぱ一番いいんじゃない?
美味しいね。
美味しいところなんじゃないの?
共生者だよこれ。同じ穴ですよ僕たち。
岐阜のり。
岐阜のりね。岐阜のりなのかこれは。
岐阜のりなのかな?わかんないけど。
岐阜って岐阜なのかな?いいねいいね。
まあとにかくSLMってインパクトというわけで驚き自在なんだけど。
香ばしい番組になってきたな。
めっちゃ大事なんで。今回はその話をしていきますと。
やった。
いうところでございます。
いいね。こういうなんかちょっとマニアックなのいいな。
いやでもねマニアックっていうけど、結局これからの時代SLM来るんじゃないかっていう風にはすごく言われてると。
いや何?割とSLMすごいよね発言発信してる人多いの?あんまいない?
過剰にやってる人はいた。
逆の驚き屋さんみたいな。
逆の驚き屋さん。そうだね。驚き屋さんとかそれはご情報だろうぐらいの勢いの人はいたけど。
言い過ぎの。
言い過ぎだよねみたいな人はいたけど。まあまあでもやっぱ最近性能上がってきていると。
それぐらい言わないとでも身向きもされないんだろうな。
なかなかどこで使っていいかもみんなわかんないからね。
ちょっと嘘混ぜるぐらいじゃないと。
いやでもまあまあね。嘘を混ぜちゃいけないけど。
なんか聞いたことあるな?があるから他の発信聞いてくれるかもしれない。
まあそれはあるよ。ちょっとね。よしあしはあると思う。
なんか真面目に全てを厳密に解説していても正直それに興味を持ってもらえないっていうのはあるから。
09:00
そうね。
ある意味で強制関係みたいな感じであるかもしれないね。
手を組みましょう。
手をね。光があって闇があるみたいなね。我々自分を光とは言わんけども。
握手して。
ああねそうね。
表でプロレスっていう。
それが一番いいかもしれません。
いいね。
ちょっとSLMの話をしていくんだけど。
SLMスモールランゲージモデルというものでございます。
でもう一個対象としてあるのがよく言うLLMね。ラージランゲージモデルと。
でラージスモールと。でっかいちっちゃいねっていうのは前からわかると思うんだけど。
何がでっかい?何がちっちゃい?と。
何がでっかい?確かに。
何が一体でっかいんだと。
パラメーター数。
さすがでございますね。この話先週したもんね確かね。
本当?
本当覚えてないな。
なんか頭に残ってた。パラメーター数っていったもののパラメーターってなんだろうはよくわかってないけど。
今日はねそれもちょっと解説しようかなと思ってます。
なんとかビリオンって書いてあるやつでしょ?
そう。とにかくパラメーター数っていうものが数兆個とかめっちゃいっぱいあるよねっていうのがラージランゲージモデルね。
数兆個。
今厳密にもうパラメーター数いくらですよみたいなことは言ってないんだけど。
もう言ってたね。
それぐらいあるだろうと言われてると。
途中で言うのやめたんだよね。
途中で言うのやめた。
一方でそれが数百万から数十億ぐらいの範囲のものをスモールランゲージモデルSALMと呼ぶんだけど、厳密な定義はないのね。
どこまでいったら小さいとかないんだけど。
果てしない数だけどね。数十億とかね。
そう果てしないと思う。すごい多いんだけど。
それでもスモールなんだ。
それでも小さいと言われてると思う。
じゃあその大きいちっちゃきのパラメーターって何なんだっていう話なんだけど。
結局ニューラルネットワークとかって話なんだけど、AIのモチーフとして脳の神経回路が使われてるよねみたいな話はよく聞くと思うのよ。
シナプスみたいなやつね。
そうまさにそれ。
脳ってニューロンっていう神経細胞があり、ニューロンとニューロンっていう点がシナプスっていうところで接続されてると。
ニューロンが刺激を受けると、何らかの発火信号をもとに次の隣のニューロンにピシュッとシナプスが繋がるよみたいな。
で、脳っていうのがそういう電気信号がやり取りする中で色々試行したりとか判断したりしてるよねっていうのがざっくり言う脳の仕組みなんだけど、
それを真似して作ったのがニューラルネットワークっていう仕組みなのね。
数理的なモデルにしてパソコンの中に落とし込みましたみたいな。
12:01
で、そのシナプス、ニューロンあります。神経細胞があります。神経細胞を繋ぐニューロンがありますっていう仕組みになってるんだけど、
パラメーターってどこのことを言ってるかっていうと、このニューロンのことを言ってるのね。
シナプスとシナプスがある信号を受けてどのぐらいの以上の信号の強さになると繋ぎますよみたいな。
っていうのがこのニューロンなんだけど、どれぐらいの強さで繋ぐんですかっていう、そのシナプスの強さ。これがパラメーターです。
シナプスの強さ。
シナプスがどのぐらいで信号を伝えるかっていうその数値だね。
その専門用語で重みって言うんだけど、それがいわゆるパラメーターです。
だからいっぱいシナプスにニューロンがあって、ニューロンに対していろんなところにシナプスが繋がってるわけで。
そこにその1シナプスに対してだいたいこの道はこのぐらいの数字が入るよねみたいな。
このぐらいの刺激で電気信号飛ぶよねみたいなのですが、全部のところに設定されてるのね。
四季一致みたいな。
四季一致、そう。いいことを言った。
それさ、そもそもなんだけどさ、そのニューロンは何?点は何なの?何が入ってるのその点に。
点には刺激が来るみたいな。
あ、その脳みそのあれはね。
そう。
AIの話でしょ今、このノードかこの点。何が入ってるのここに。
そこにも数字が入ってる。
数字?
うん。
なんか情報が入ってるの?
情報が入ってくる。
こう与えられた信号を元に情報が入ってきて、その情報がまたシナプスによって発火するしないみたいなのが決まって止まったりとか繋がったりするのね。
そうすると、こっから来た信号とこっから来た信号が融合して、ここのまたその神経細胞に行きます。
その時にこことここの数字が足されますみたいな。
はいはい、足し算になるんだ。
で、ここの数字が決まります。
次またこのニューロン通っていきますみたいな感じでどんどんどんどん繋がっていくのよ。
で、そうやってどんどんどんどん繋がっていくと最終的にいろんなことが判断できたりとか、その繋がりの中でいろんなことを試行したりするわけ。
これが例えば150超えたらこのAの道に行くぜみたいなのが、今言っとるパラメーターってこと?
そう。
っていうその1個1個の繋がりの数が数十億とか超あるわけね。
道の数分ね、あるんだ。
そう、道の数分のパラメーターの1個1個に数字が決まってるわけ。
はいはいはいはい。
ここはここですよねみたいな。
はいはいはいはい。
で、その数字を学習して更新していくのね。
15:01
学習して更新。学習という言葉は結構重いですよ。
そうね、学習という言葉は重いです。
それがまさにどういうことをやってるかというと、まずこういう問題があります。
で、問題を解かせます。で、答えがあるじゃない。
答えに対して、合ってた間違ってたっていうのによって、間違ってたら、じゃあ間違えた分だけですね、バックプロパリエーションってそのパラメーターを正しい答えを出せるように更新しろっていう信号がバーって走るのね。
はいはいはい。
で、数字多くあるパラメーターがこうちょっとずつ更新されていくと。
数字が微調整されると。
微調整されると。それが正しく答えれるように。
150が145になるみたいな。
そうそうそうそう。
はあ。
っていうのをもう何十回、何十回の単位じゃないね。もう何回も何回もそれを繰り返す。
計算を繰り返すことでだんだんだんだんパラメーターの値が何十億とかあるパラメーターの値が更新されていって、
正しい答えを出せるようになるっていうのがいわゆるディープラーニングの学習なのね、すごくざっくり言うと。
なるほどね。
じゃあその数字が調整されて正解が出せるものに近づいていってるってことか。
そう。
その点の数自体は増えとらんの?
点の数自体は増えとらん。
あ、そうなの?
増えとらんのだけど。
点は何?猫ちゃんの画像とかがあんのここに。点?
そう、点。
点ってなんすか?
うん。
点ってなんすか?
パラメーターはさ、点から点への道のあれでしょ?道しるべでしょ?そもそも点は何なの?点は。
一番最初に何か入力するものがある。例えば言語だったら言語自体が入力して点に入ってくるわけね。
その入り口があって、ニューラルネットワークとかディープラーニング自体をちゃんと説明するっていう回を丸々やらないとイメージがつかないと思うんだけど。
なるほどね。
それがまたシナプスを通って次の点に繋がるのよ。なんだけどその点の数って別に増やしてもいいし減らしてもいいわけね。
それ自体は関係ない。
次の横のね、点が。
これは何か情報なのかなっていうイメージなんだよ。違うの?
情報だと思う。情報情報。
何なんですか?点。犬の画像とかあるの?点に。
例えば犬の画像を入れたときにどんどんこの点を横に繋げてくのよ。
で、まずじゃあ点5個あります。その次の点が10個あります。20個ありますって広がったりとか、逆に1個になりますみたいな縮めたりしたりして、
どんどんそのシナプスを繋げて横に広がっていくのね。っていうこの層がいっぱいあるのがディープラーニングっていうものなんだけど、
点1個1個はじゃあここが何の意味を持ってるかっていう感じではなくて、
じゃないの?
点の繋がりとかによってその層によって捉える特徴が変わってくるのね。ちょっと難しいよね。
18:09
だから例えば犬の画像を入れます。犬の画像を入れたところでさ、
いきなり犬、これ犬ですって判断しないのよ。入ってきた画像、入ってきました。じゃあまず色見ましょうねとか、テクスチャー見ましょうねとか、
形の輪郭見ましょうねみたいなものが層ごとに分かれていくわけ。
で、統合してこういうテクスチャーでこういう輪郭を持っていて、こういう色でこういう質感で、こういう形のものは犬っすね。
みたいな最終的な答えが出ると。層ごとにこの意味を持っていて、
そうなんだ。層って何?点じゃなくて。
点っていうか、まあ点だけど、点の並びが層状になってるのよ。
ミルフィーユ。
そう、ミルフィーユみたいな感じ。ミルフィーユ、そうだね。
そうそう、そんな感じで層になってて。そういう層ごとに色んな役割があってさ。
役割を設計してるとか役割を自然と持つんだけど、学習していくことによって。
っていうことなんだ。一個一個の意味があるというよりは、並んでいてこう流れていくっていう中で、
ここってこういう役割を持ってるよねっていうのを自然とパラメータを更新する中で作られていくのね。
っていうのがいわゆるニューロンとかニューラルネットワークの仕組みなんだよ。
分かったよな、分かんないよな、分からんの。
脳もさ、結局じゃあカネリンの意識ってどこにあんのって言われると、
意識を司る脳の部分ってないのよね、実際。ないと言われている。
この部分とかじゃないんだ。
ここに意識があるじゃなくて、全体のそのつながり、ニューロンのつながりの中に意識という仕組みがあるよねっていうことが言われてるわけ。
大脳のここにあるとかここにあるとかじゃない。
つながりっていうその中で意識っていうのが醸成されてるよねっていう話があるんだけど、ニューラルネットワークまさにそうで。
ここの部分、この点に意味があるというよりは、そのつながり全体に対して何かしらの機能とかを持ってるよみたいなイメージでいてくれるといいかなと思います。
なるほど、全体ね、全体。
ちょっとね、これはね、ニューラルネットワークの話をそもそも根本的にしてないっていうのがあるので。
そもそもG検定レベルの話が分からないと解像度が低いすか。
そうね、しかもニューラルネットワークの話をしようと思った時に絶対図必要なのよ。
図ね。
図あったほうがいいのよ。
確かに。
口で言うのむずいの。
確かにむずい。
今は脳の点がいっぱいあって、それが線でつながれていて、その線の指揮位置っていうのがパラメーターと思ってもらえればいいかな。
21:05
はいはい、一旦OKです。
OKでございますが、ありがとうございます。
で、そのパラメーターがいっぱいあればあるほど、できることが多いのよ。
できることが多い。
細かく調整できることが多いというイメージかな。
イメージで例えるんだったら、画素数みたいなもんだと思ってもらえばいい。
はいはい、解像度。
解像度ね、そう。画素数がいっぱいあったらさ。
道の数ってことだよね、パラメーター数って。
そう、道の数。
いっぱいある。
いっぱいある。
細かく道があるんだ。
そう、細かくあるから、いろんなことにその道が使えるよねっていうので、写真でいうとこの画素数が多ければ解像度が高くなるように、
パラメーター数が多いほど、いろんなことの解像度、言語の解像度も上がるよねというふうに言われておりますと。
はいはい。
当然ね、画素数だけじゃいい写真撮れないよって話があるのと同じように、パラメーター数だけで単純に性能が決まるわけではないんだけども、それでもやっぱ多ければ多いほどいいよねというのがずっと言われてきておりましたと。
パラメーター数、さっきちょっと公開されてないっていう話はしたんだけど、
公開されてるところまでいくと、2023年のChatGPT4で、
だいぶゴミの時代だね。
いや4よかった、よかったけどね、それなりに。
それなりに今振り返るとだけど。
振り返るとね。
ChatGPT4、2023年4だと約1.8兆パラメーターありますと。
すごいね。
すごく多いと。で、今ChatGPT5どのくらいなってるかと言われてるかというと、いろいろこう言われてはいるんだけど、数十兆なんじゃないかと。
そんなにか。
言われてると。
えー。
もともとChatGPT1、2018年ぐらいの時はパラメーター数って1億個とかだったのね。
だいぶ少ないね。
2になって15億ぐらい。
桁が変わっていくね。
3になって175億。
桁が変わった。
とにかくパラメーターが多ければ多いほど、スケーリング則って言うんだけど、どんどん頭良くなるよねってことで、どんどん増えてきたと。
これが今までの変遷ですね。
なるほどなるほど。
LLMと呼ばれるもの。
ただ最近じゃあSLMがなぜ注目されてるのかと。
それを。
言うとですね、今まではずっと言ってるけど、札束で殴り合う戦いをしてきたわけ。
とにかく出かければ性能上がるよねってことで。
電気でね。
もう電気でずっとやってきたんだけど、
24:02
ここにきてやっぱりモデルの巨大化っていうのは、消費電力とか環境負荷もそうだし、コストの面でだいぶ運用で限界見えてくるよねっていうのが、ちょっとずつ分かってきたと。
電気代使いすぎってこと?要は。
そう、電気代使いすぎだし無駄あるよねって感じ。
ガン回しで無駄なことをやっとったら、もたんよねってことかな。環境的にもコスト的にも。
コスト的にももたんし、この大きさ本当に必要か?っていう議論にすごくなっていると。
F1カーでスーパーに行くみたいな話?
そう、まさにそう。前回そういう例えをしましたけど。
自分が例えたみたいな感じでちょっと言わないでもらっていいですか?
僕の例えなんて。
そういうことだっけ。
俺の頭の中で今生まれてきたかなと思ったけどね。
違います、それ前回僕が言ってます。
そうかそうか。そんな感じで。
まさにF1カーでコンビニ行きますよみたいな感じで、それ無駄。それ無駄じゃない?みたいな。
鶏を捌くにいずくんぞ牛刀持ちいんやだけ。
何それ。
鶏捌くのに牛刀使わないでしょって同じことだね。今の例えと。
そういうことわざがあるの?
ことわざね。これ僕のニューラルネットワークにあるんで。
あった?カネリンシナプツ。
お名を返上させていただきました。
まさにそう、牛刀もそうだしレースカーもそう。なんか本当に必要ないんじゃないみたいな。
なるほどね。
前回も紹介したんだけどね、今のやらせてることってノーベル賞を受賞した科学者にデータ入力させてますよみたいな。
そのぐらいの無駄が発生してるよねということが実際あります。
だからレースカーじゃなくてその用途に合わせたエコカーみたいなやつを作っていかないといけないよねと。
用途別の。
そう。
それこそ包丁みたいな感じなんかな。捌くときは魚はこれ、肉はこれみたいな。
あ、そうそうそうそう。まさにそんな感じ。
果物これみたいな。
そのもう汎用というより専門に特化していった方がいいよねと。
いいっていうのは何がいいの?環境にいいって話?
コストが。
安くなるよねってことか。
そう、安くなる。明らかにもう安いし。
例えばなんか今の同じようなことが月5千円じゃなくて500円でできるようになるみたいなこと?
そう。
我々にとってすれば。
てかもう世界的に見てそうかな。
チャットGPGとかジミーとか大きいモデルあるんだけど、あれは今後どんどんどんどんパラメータを増やしていって、高性能にしてみんな使おうってなったとしても、もう明らかにさ、コスト過大なのは見えてるわけよ。
AIを使うことによってすごくお金がかかってしまうよねっていう世界になる。だからそれがコスト下がることはもうないわけ。でかすぎて。
27:02
あとはもうじゃあ原子力発電所作りましょうとか、データセンターもっと大きいの作りましょうみたいな、パワーで解決するしかないみたいな。
力技でね。
力技で。
現実問題、じゃあみんながどういうことに使ってるかとか、そのタスクを見てくると、そんな大きいモデルにやらせる必要ないよねみたいなことがほぼほぼ90%以上がそうだという話になってるわけ。
おはようとかね。
おはようもそうだね。
おはよう専用モデルでやらせとけと。
そう。
なるほど。
だからもうそういうコストが莫大にかかりすぎるから、明らかに負担になるし、今後各企業がその負担に耐えられなくなると。
でSLMを使えばですね、同じ処理が遥かに安く早くこなせると。
全ての用途にLLMが必要かというともうそうではないという現実が既にあるから。
安いし早いってこと?
安いし早い。
それでちょっとそういうところに特化していきましょうねという動きが結構出てきていると。
性能下がらんならいいこと、いいことだけ?これ。
性能が下がらないであればすごくいいこと。
安いし早いし性能が一緒。
一緒。
いいよね。
ただじゃあ使わない手はないよねって話だね。
あともう一つSLMのいいところは、そのエッジ端末で動かしたいよねとかスマホの中で動かすとか、
ネットを介さずにクラウドを接続せずにローガルの環境で使いたいよねってなった時に、
軽ければ軽いほどですね、そういうちっちゃいデバイスの中でも動くから。
そういう用途もあるよねと。
時計の中とかね。
そう。
っていうのがやっぱりありますね。だからコストの問題もあるし、
エッジで動かしたいっていう需要もあるし、
SLMはそもそもオーバースペックだよねと。
だから専門に特化したモデルでその専門のタスクをこなさせてあげるっていう方が、
今後精度もコストパフォーマンスも上回る可能性が高いと。
だからそのジュットクダイフみたいに何でも使える工具よりも専用の道具があった方が当然使いやすいよねと。
専用のところには専用の道具使ってあげましょうねっていう考え方でございますね。
なるほどなるほど。
なんとなくわかりますよ。
なんとなくわかります。それでSLMが注目されていますよと。
でまぁSLMも色々技術的な取り組みがあるんですけど、
あんまり深く説明するとまた込み入った話になってしまうんで、
トピックだけ紹介すると知識上流ね。
この間も出たね。
大きいモデルを先生として小さいモデルにその知識を転移させるというそういう技がありますと。
なるほどね。
これによって大きいモデルの能力を小さいモデルにそのまま移させることができるから小さくなるよねと。
30:06
とかまた量子化っていう方法もあって。
量子化。
これはねパラメーターの。
量子コンピューターの量子?
そうだね。量子コンピューターの量子だね。
ほいほい。難しいね。
まぁでもこれは簡単よ。やってること自体は。
パラメーターの数字のビットを下げてあげるって感じ。
ビット。
パラメーターの数字を持ってるのよ。パラメーターはこの値ですよみたいな。
それで桁数を落としてあげるみたいな感じかな。
敷地変更?
敷地を変更する。
すごいいっぱい桁数があるのをキュッと小さい数字にしてあげる。
小さい数字にしてあげると精度は当然ちょっと劣化するんだけど、情報自体は。
情報は劣化以上に軽くなる。
結果すごく軽いモデルになるよねみたいなのが量子化っていう方法。
ちょっと犠牲にしつつってことね。
そう。があったりとか、あとプルーニングって言って
そもそもいっぱいシナプスがあるんだけど、ここほぼ使ってないやんみたいなところってやっぱあるだけ。
脳もさそうじゃん。100%使ってるわけじゃなくて、めったに使ってないとこあるよねと。
そういうとこもいらなくねっていうことで切り落としちゃうみたいな。
脳みそ切り落としちゃう。
ここ使ってないからもういいやって。人間の脳みそは大きさ決まってるから。
切り落としたらね、しても頭ちっちゃくなることないけど。
AIはね、ほらそれで頭ちっちゃくできるからさ。
すごくこの刈り込みっていうのが大事なわけ。
AIってじゃあさ、都合のいいとこだけ使うことができないわけなんだね。
大きいモデルだと大きいモデル全部。
大きいモデルだともう莫大すぎて。
全体動かさなきゃいけないから電気代かかるってこと?
そう。で、使ってないとこ使ってるとこあるんだけど、
数兆個あるようなものを人間がいちいち確認して、
ここあれだよね、ここいらないよねってことを判断できないよね。
なるほどね。
だけどちっちゃいモデルであれば、
ここら辺使ってないよねみたいなものを見つけ出して、
こう策定することができると。
よりちっちゃくなるよねと。
いうところでプルーニングというものを活かしてると。
人間の脳も実際ね、幼少期にバーッとシナプスが増えるんですよ。
その中で成長していく過程で、これ使わないよねってものはどんどん削除されていくっていう、
そういうトータの工程があるらしくて。
使わない回路は死んでいくってやつ。
そうそう。
で、それをうまく利用したような方法みたいね、プルーニングっていうのは。
33:07
逆にあれだけどね、あえてそこを潰しちゃって学習させるって方法もあるんだけどね。
後から復活させるみたいな。
なにそれ。
そういう学習方法もある。
あえて潰して復活?
うん。
いつも使ってない部分を使うっていう。
あえて途中のところにドロップアウトしてあげて、こっから先の神経ちょっと一旦麻痺させておきますみたいな。
で、その状態で学習させてってやると、いつもと違う学習ができて、より精度が上がるみたいな。
そういうAIの学習方法もあったりするんだけど。
それ何のためにやるのそれ。
それは精度を上げるため。
精度上がるんだ。
そう。
その選択肢潰したパターンを学習するってことだよね。
そこのニューロンを潰しておいて、学習させると繁華性能が上がるんだよね。
繁華性能?
また新しい単語出しちゃった。
話長いこれ。
G検定の話では絶対出てくる単語だから。
来ました。予習で。
予習で。
だからいろんなタスクに使えますよねと。
汎用性みたいな。
汎用性だね。
汎用性が高いよねと。
この問題に特化しちゃってるよっていうのが科学習。
科学習。
科学習っていうのは、いわゆるじゃあ、
カネリンがテスト勉強しますよって時に、
ドリルみたいなやつをやるとするじゃん。テスト勉強のために。
それやりすぎると何が起こるかっていうと、答え暗記するよね。
答え覚えちゃう。
1ページ目の、1問目の答えはこれですみたいな。
そのドリルは爆速で解けるようになるんだけど、
じゃあ違う問題を解いた時に、分かんなくなっちゃうみたいな。
あるある。
これ科学習っていう状態。
じゃなくて、AIに持たせたい機能っていうのは、
ちゃんと計算をして、理解して計算するってことじゃない。
だからその同じテキストばっかバーって学習してると、
その繁華性能が落ちちゃうのね。
他の問題に適応できなくなってしまうという問題があるから、
こういうものを解決したいよねってことでいろんな方法があるんだけど、
人間の場合はね、違う問題をやりましょうってなんだけど、
AIの場合は脳の一部をちょっとこの封じた状態でもう一回それを学習させることによって、
違うところで学習するから繁華性能上がるよねみたいな。
そういう方法が取れるわけよ。
それはドロップアウトって言うんだけど、例のものもありますよって話ね。
ちょっと話取れたんですけど、そういう学習方法とかもいろいろありますと。
とにかくそうやってちっちゃいモデルいっぱい作っていきますよねっていうお話なんですが、
じゃあそういう意味でいろんなモデルがあるんだけど、
代表的なSLAMのモデルって大体もう決まってて、
これだけちょっと覚えておけばいいよねっていうのがあるので、
多少ちょっと何個か紹介するんですけど、
36:02
大体聞いたことあると思うんだけど、
Metaのラマシリーズ。
ラマシリーズ聞いたことあるわ。
Meta社が公開してるですね。
一応これ大規模ゲーム語モデルのファミリー名になるんですけど、
ラマっていう系統のものが大体SLAMとしてよく使われるものです。
これ商用利用ができたりとか、非常にいろいろと使い勝手が良くて、
オープンソースで公開されたりするものになります。
なんでいきなりSLAMになったらMetaなんかが出てくるんだろうって、
いつも不思議なんだけどね。
なんでGoogleとかチャットGPTじゃないんだろうっていう。
Googleもあるよ。
ある?
GoogleもGammaっていうモデルを出してます。
なんかやたらでもMetaが名前挙がるような。
やっぱね、ラマはね、
使いやすいというか最も使われているメジャーなモデルなのね。
なんでよ。
やっぱね、なんだろうね。
Metaって全然AIのイメージないんだけど。
AIのイメージそんなにないんだけど、
このオープンソースみたいなもの、
研究ベースのものではよく使われていて、
ハギングフェイスっていう。
なんでなんで、そんなMetaしたAIすごいの?
すごいというかちゃんと公開してるんだよね。
オープンAIよりもある意味オープンなんだよね。
なんか日本ではさ、広告詐欺問題でどえらい印象悪いじゃん。
印象悪い。
Meta社なんて。
なんかしれっとAIでいっつもラマとか名前挙がってくるから、
その割には別にMeta社のAIサービスってないし、
何それって感じなのよ。
ラマはすごく使われるね。
研究ベースとかファインチューニングしましたみたいな。
そういうものですごく定着していて、
なんで定着したのかよくわかんないんだけど、
研究ベースで、
例えばそのラマのSLMをチューニングしてこういうタスクをこなしましたみたいなやつがすごく多くて、
情報もめちゃくちゃ多いのね。
その情報が多いがゆえにより使われるようになるみたいな。
なるほどなるほど。あるあるだよね、そういうのね。
そうそうそうそう。
そういうのの代表格として最も使われているのがラマになるかな。
で、もう一つあるのがアリババのクエン。
アリババのクエン。
中国。
中国。
使いたくないわ。
クエンはね、SLM単体では最も性能がいいという風に言われているモデルで。
ラマより?
ラマより。
で、サイズも10ビリオン以下。
ちっちゃい?
1ビリオンが10億かな。だから100億パラメーター以下のモデルが結構多くて。
39:05
なんですけど、その中でもやっぱりすごく性能がいいよねっていうので突き抜けてると。
基本的にはラマとクエンを押さえておけばええかなって。
この2つ。
オープンAIもね、去年GBTOSSっていうのの120ビリオンと20ビリオンっていうのを出してるんだけど。
これは中身のパラメーターとか公開してないんだよね確かね。
オープンでないってこと?
オープンであることは大事なの?
オープンであることは大事。
結局SLMって何したいかっていうとチューニングしたいのよ自分で。
あーそうなんだ。
そのまま使うんじゃなくてファインチューニングって言って
データセット持ってきてそのタスクに特化させたいわけ。
LLMってデカすぎて、ちょっと全然ファインチューニングしたところで
なんか夜景シーンに満ちたんだけど。
これデカいってさ、サイズ的にファイルサイズ的にどれくらいなの?
いや分からん。
SLMはどれくらいなの?100ギガとかそれくらい?
そんなないよ。
もっとちっちゃい?
ソフトビリオンで6ギガとか7ギガくらい。
そんなちっちゃいの?スマホに入ってもらおうかね。
量々的にはスマホに入るんだけど、
それ展開できるかどうかっていうのはCPUのメモリーによって決まるから。
なるほどね。でもファイルサイズそんなちっちゃいんだ。
そのくらいだと思うよ多分。
逆にLLMとかもう何千テラみたいな話なのか。
モデル自体は結局シナプスのつながりと各パラメータの数字だから、
それ自体が数字の数が多いから量々としては多いんだけど、
情報量として画像レベルで重たいっていう感じではないんだよね。
じゃあ意外と分かるけど100ギガとかそれくらいかもしれないってこと?
それくらいかもしれない。どうなるんだろうな。
でもそういうもんだと思うよ多分。
結局数字の並列だからね。
それが展開できないからってことかCPUのパワーで。
そうCPUの中にそもそも展開しなきゃいけないから。
サイズは意外とちっちゃいな。
ローカルでSLAも展開しようと思ったらメモリーも大事だし、
そのメモリーに展開したネットワークを計算するためにはGPUも大事だし。
でもその容量自体がどのコンロじゃないんだね。
重さは単純にパラメーターの数による数字の情報だけだから。
なるほど。
重さというよりはマシンスペックかなっていう感じ。
当然重さも大きいと大きくなるんだけど、
それがもうべらぼうに何億テラみたいな感じになるってわけではない。
なるほどなるほど。
っていうイメージを持ってもらうといいかなと思います。
はいはいはいイメージ。
あれだね、いろいろ喋ってたらもう40分なっちゃったけど。
42:03
40分なった?もう終わり?今日。
いやちょっとこっから、こっからこっから。
こっからです。
こっからなんだね今日は。
今さ、あーお勉強ですねと。
あーいろいろSLAもあるんだねふーんってなるじゃない。
そうね。
ちょうど今CPUの話とかしたんだけど、
SLMっていうのは何がいいかって言ったら、ちっちゃいからローカルで動かせるわけ。
はいはいはい。
自分のパソコンの中で動かすことができるから、
パソコン。
そう。だからさっき言ったようにファインチューニングもできるし、ちっちゃいからね。
あとそのオンプレで動くからさ、自分の環境の中だけで動くから、
オンプレ。
じゃあ機密情報とかバンバン入れても全然問題ないよねと。
オンプレミス。
オンプレミス。
なんだっけそれ。
自分のその閉じた環境ってことね。
自分の環境の中で動く。
ネットに繋がないってこと?
そうネットに繋がないから情報が漏えいすることも絶対ないと。
はいはいはい。
っていう環境があるからこそ、医療とか金融とかでも使えますよねと。
というところですごく注目されているのがSLMの強みだよね。
だから自分のパソコンで動かしたいじゃない。
そうね。
でも自分のパソコンでSLM動かすの難しいでしょって思うじゃん。
思うわ。
難しくないんですよ。
そうなの?
そう。
今日はね、その動かし方を教えます。
これ自分でできちゃうシリーズこれ。
できちゃいます実は。
やば。
ノートパソコン。
だから今日のポイントはそこなのよ。
驚きましょうっていうことは、自分で使いましょうって話。
そうですか。
そういうことです。
そこまでいっちゃう?
そう。
でめっちゃ、当然ある程度のパソコンはいる。
そのなんか超ちっちゃいさ、劇場版ノートパソコンでは限界はあるんだけど。
最近のMacBookぐらいだったらいける?
いやいやいや。
えー。
で、何を使うかっていうと、おすすめなのがLM Studioっていう。
また新しい。
そういうソフトです。
LM Studio。
LM Studio。
メモしました。
これリンクをこの回の概要欄に貼っとくんですけど。
やった。
これはですね、どういうツールかというと、
自分のパソコン上にSLM動くような関係を構築できますよと。
そういうツールでございます。
なるほどね。
なんか仮想マシンソフトみたいなもん。
いや仮想ではないね。もはや言語モデルを動かすためのソフト。
これがありゃ動かせるってことね。
そう。
これがすごく秀逸でさ、超楽なのよ。
インストールすればいい。
インストールしたら終わり?
インストールするじゃん。
そうするとLM Studioが入るんだけど、
これさ、LM Studioすごい作りが良くて、
45:00
LM Studio上で使いたいSLMのモデルを、
ストアみたいなとこから選んでダウンロードできるのね。
クエンが使いたいなと思ったらクエンあったってダウンロードっていうと、
5GBくらいのクエンのモデルをダウンロードして、
あとはクエンを動かしたいなと思ったらクエンって選んで、
質問すればもうそれで動くと。
それは自分のパソコンのローカルのリソースを使って動かしてるみたいな。
何ができるの?そんなでもちっちゃいやつ。
っていうのを是非とも自分のパソコンで試してくださいって話ですよ。
試せって話か。
当然だけど、それなりにPCリソースは使いますと。
最低限、SLMこんな感じかっていうのを理解する上で、
このぐらいのメモリ積んどいてほしいなっていうのは16GBくらいね。
8GBじゃあきつい。
8GBはね、ちょっときついかも。
最近のやつだいたい16。
最近のやつだいたい16じゃん。
16ないとズームしながら作業できなかったりするじゃん。
MacBookの罠だもんね。8GBのやつやるとベンチマーク下がるもんね。
下がる。基本16から12が16じゃん。
16であればそれなりに乗るのよ。
だいたい14ビリオンぐらいのモデルは乗るっていう風には言われてるから。
14ビリオンって言うと一般的な。
140億パラメーターぐらい。
そこそこでかいやつが乗るので動かせます。
メモリの問題はCPUとかGPUはいらんの?
これはメモリもそうだしCPUもGPUもいるんだけど、
まずモデルを乗せれるかどうかはメモリの問題。
その後にどういうぐらいの推論の速度が出るか。
質問します、回答出てきますっていう。
その回答のトークンの速度は乗ってるGPUとかCPUの性能によって変わってくる。
爆速でとにかくパーって回答をさせたいっていうわけではなければ、
別にGPUは必ずしも必須ではないっていう感じかな。
画像生成とかできるの?何をすんの?チャット?
チャット。
こんにちはって。
こんにちはこんにちはって。
これ教えてあれ教えてみたいな。
チャットか。
コード書いてとかね。
なんかでもLLMの最近の性能に慣れてる人は、
なんやこのゴミってなるんでしょうたぶん。
そう、最近の性能に慣れてしまうと、
ん?っていう風にはなるんだが、
なるんだが、限られたタスクであったら実は使えるじゃんみたいなこともある。
そうなの?
でLLM Studio何がいいかっていうと、
単にお試しでローカルで言語モデル動かせるよっていうだけじゃなくて、
48:02
一応これを動かしとくと、ちょっと開発者向けなんだけど、
APIを叩けるのね。
はいはい。
だから自分が適当に他のツールを作った場合、
自分のパソコンのローカルモデルにアクセスすることができるわけ。
自分のね。
本当はインターネットで経由で、
自分のさ、チャットGPとかのAPI叩きに行かなきゃいけないところを、
自分のローカル環境を叩くってことができるから、
完全にクローズドでAIの仕組みを動かすことができるようになるわけ。
もうちょっと性能は劣るけども。
それが性能が劣るかどうかっていうのも、やっぱりSLMの進化によって、
結構いけるじゃんみたいな、特にクエンとかはかなり性能がいいので。
ネット経由でってことだよね?
いや違うよ。
あ、え?
自分のパソコン。
あ、ローカルで?
うん。
あーそうか。本来、
今LMスタジオ入れてます。
クロードとかのAPIを叩きに行くところを、
自分のマシンのSLMを叩けばいいと。
叩きに行けばいい。
それが同じような企画でAPIをLMスタジオの中で公開できるので、
できるんだ。
そこに叩きに行けば、
インターネットを繋がらなくても、
自分が作ったLMというか、言語モデルを使った仕組みを動かせたりできる。ローカルで。
またこれあれだ。お得情報だ。
そう。
節約だこれ。
節約だし、ようやくさせたいとか、
めちゃくちゃ大量のタスクをこなしたいみたいな時って、
そのAPI叩きに行かなくても、実はローカルでこなせるよねみたいな。
自分たちのパソコンの中だけで電気使えば、
いろんなことが実はできますと。
なるほど。
しかもそれがLMスタジオってめっちゃ簡単な状態で実は実装できるよっていう仕組みが、
もう既に公開されてるよということなんですね。
俺さ、結構余らかしとるさ、昔のWindowsのPCとかあるんだけどさ、
メモリも128GB積んどるしさ、
結構ミドルランゲージモデルぐらい積めるんじゃないの?
メモリをなんて言った?
128。
メモリ?ストレージの話じゃなくて?
LAMが64×2積んでるから。
なんでそんな、あそっか、Web3のマイニングとかしてたパソコン?
マイニングでも使ってるけどマイニング用じゃないけどね。
スペックオタクだったからさ、カスタムしまくってさ。
逆に動くそれ?まともに。
動くよ動くよ。
動くんだ。
動くけどさ。
そのくらいあったら結構デカいやつ入ると思うよ。
割とデカめ入っちゃうよね。
デカめ入っちゃう。
51:00
いいじゃん、じゃあ節約じゃん。
それでガンガン動かすよってことが、
それだったら120、あれじゃない?
ChatGPTのGPT OSSの120ビリオンぐらい動くんじゃない?
メモリ依存なんだね。
分かんないけど。
結構120ビリオン動かすのムズいよねっていう話が出てたんだけど。
メモリが良くてあとCPUがレイってことだよね。
GPUもね。
GPUも3090だし。
3090か。
ちょっと古い?
405?40か。
GPUがガンガン使うの?
GPUはね計算の速度に影響する。
CPUはあんま?
CPU推論もできるけど。
GPUなんだ。
落ちると思う。すごく速度は落ちる。
っていうのがあるんだが、
まあまあとりあえずLM Studio入れてやってみるといいよねっていう話今日は。
ちょっとやってみますわとりあえずね。
SLMってあんまり、
あーSLMねーって終わるんだけど、
実は簡単にローカルで動かす仕組みがもう世の中にあって、
誰でもできるんや。
ボタン一つでインストールできますよっていう話。
意外だったなそれ。
よりねソフトウェア的に使おうと思ったら、
Pythonで動かしたりとか、
ファインチューニングをそこでさせたりっていうのがあるんだけど、
それこそ今年の年始にやった大喜利AIみたいな話。
あれはPythonの環境でファインチューニングしてるんだけど、
ファインチューニング行ってたね。
あれはSLMよ。7ビリオンくらいだったんじゃないかな。
ちっちゃいね。
でもファインチューニングをするのはちょっとむずいの?
そんなに難しくはない。
また別の回だね。
難しくはないけど、結局データセットの設計によるかな。
何を学習させるかっていうデータセットをいっぱい用意するのがめっちゃ大変。
ファインチューニングを走らせる自体は別にそんなに難しくないんだけど、
正しく学べたかも評価するのも難しいし、
相当なデータ量がないとファインチューニングって結構効果があまりなくて、
半端にちょこちょこって学ばせるだけだと逆効果になったりもするから。
なるほどね。
っていうことですね。
だから今日の結論に近づくとですね。
近づくね。
SLMを体験しましょうと。
体験。
自分の環境で動かせるようになれば、
自分の指標ができるじゃない。こういうくらいだねとか。
そうすると新しいモデルが公開されたときに驚けるわけ。
おいおいおいおい。俺のパソコンでこんなモデルが動くようになっちゃったよみたいな。
なるほどなるほど。
これをやってないと、
ビデオがよくわかんないねみたいな感じになるから。
性能がわかんないもんな。
そう。
このLM Studioって本当に簡単に普通のソフトとして入るから、
54:07
最初多分LM Studioを入れて、
そこにチャットで聞いてみるってやってもインパクトはないと思う正直。
それはだってLLMでできることだから。
そうだね。
なんだけど、そうやって自分のパソコンで実はインターネット繋がずに、
それ面白いのがインターネット繋がなくていいから、別にLANケーブル抜いてもそれは動くんだわ。
なるほど。
ローカルで動いてるから。
そういうものを自分の環境に構築できますよ簡単にっていうことを。
まず落ち着きポイントとして知るっていうのが大事かなって感じだね。
まず構築してみといてよと一回ね。
で、余裕があったりとかちょっとね、地味にとか来ることに相談できる人は、
LM StudioからAPI経由で自分のオリジナルツール作ってみたりとかね。
ローカルでね。
あ、え、どういうこと?
APIをLM Studio経由でAPIを叩く方法を聞き、
それを設定したら、別にインターネット繋がずに、
LM使ったような、LMというかSLMか、使ったような仕組みを作れるわけだから。
え、それちょっとどういうこと?
LM Studioで何?
LM Studioを入れとけば、
自分のパソコンのローカル環境で言語モデルが動きます。
動くね。
その動いた言語モデルを使って、なんか自分の作ったソフトウェアに組み込めると。
その組み込み方を、そのチャットGPじゃないクロードに聞けば、
オリジナルアプリとか作るから、例えばさ、めっちゃ要約したいとか、
なんかもう大量のテキストを処理したいよみたいな。
時があったら、そういうツールを処理させる上でも、
自分のローカル環境のSLMを使うことができるから。
あー、ソフト作った時にか。
そうそうそう。
それはクロードとかジェミニとか使って作るってこと?そのツール自体は。
そのツール自体は、自分でコーディングできる人はね、自分でコーディングしてもいいと思うけど。
でもちょっとすると、そういうツール作るコーディング、
バイブコーディング自体もローカルのSLMでできるようになってきちゃうよってことだね、でもこれ。
まあそれもまあ、今でもできるんじゃないかな。
ちょうど洗脳が劣るけど。
クエン相当再現出たやついいって言ってたからな。
へー。
驚き屋さんがすごく言っとった。
クエン。
クエン。
ちょっと語弊があるだろっていう言い方なんだけど、
だいぶ語弊はあるんだけど、
ローカルでクロードコードが作れますみたいな。
はあ。
っていうのは、クロードコードの中で動くモデルね。
57:02
もうクロードではなくて、自分のローカルにあるクエンに切り替えるってこともできるわけ。
はい。
あといちいちそのAPI制限とかさ、クロード経由でAPI制限かからなくても、そこでクエンがローカルのやつが動いてくれるから、
エージェントとしてずっと動き続けられるよねみたいな。
なるほど。
無料でクロードコードを無限に使いたい放題ですみたいな。
クロードコードがローカルで動かせますよみたいな。
うんうんうん。
ことがすごく言われてたんだけど。
なるほどね。
クエンじゃんって思ったんだけどね。
中身はね。
性能はだいぶ違うよね。
クロードコードじゃねえじゃんみたいなね。
うんうんうん。
そこでそのぐらい動くぐらい、クロードほどのレベルではないにしろ、そこそこ性能いいよねみたいな。
ことが言われておるので。
そうなんだ。
うん。
ちょっと入れてみます。
はい。
今日はLMスタジオを使って、
まず、SLMの衝撃に備えようみたいな、驚けるような環境を作りましょうという回でございました。
ちょっと小難しい話もいっぱいしましたけども。
まず一歩。
まず一歩、これを入れていきましょう。
ここやっとけば来るべき驚きニュース多分今後出てきて、
村瀬やってますねと。
そう。
この言語モデル使ってくださいっていう。
そう。
なんかSLMでクエンなんとかが出たらしいよ。
ちょっとLMスタジオでインストールしてみようかなみたいなことができるようになるわけ。
インストール楽勝なんでしょポチポチって。
ボタン一つよ本当に。
へえ。
Apple Storeみたい。
へえ。
Apple Storeみたいにいろんな言語モデルバーって並んでて、これ使おうって言うと、
じゃあ6ギガですって言って6ギガダウンロードしましたみたいな。
じゃあ使いますよみたいな感じになるから。
へえ。
インストールはそんな難しくないので。
やんないとおじいちゃん扱いされるなこれ。
そうまあね。
おじいちゃん今スマホでアプリってのあるんだけどさみたいなレベルの話になってくるわけよねこれ。
そうそうそうそう。
これをこう押してこうやるとこのアイコンができるじゃない。
これでおじいちゃんLINEっていうのができるから。
ちょっともう宛先設定しとくからね。
これでこうやって送れば電話できるから。
やばいそうやって老人ってものが出てくんだね。
俺たちも老人になってきつつあるということだこれ。
これどこ押せばいいんやね。
分からん。
なんかちっちゃくて分からんわみたいな。
何言っとんだジジイって戻ったもんね。
いやいやここ押して。
もう2回押すだけだよおじいちゃんって。
うーん。
もうなんか覚えてられんわみたいな。
そうだよな。
それが今。
でも長押ししすぎてどっか行っちゃったわみたいなね。
起きてんじゃんよ同じこと。
あーちょっとねこれ長押しするとピュピュって行っちゃうからみたいな。
うーん。
ていう感じ?
危ない危ないやらんと危ない。
そうこういうのはねちゃんと知っとくといいと思うよ。
節約のためにね。
まあ節約もあるし今後はやっぱそういう小っちゃいモデルを使っていきましょうねっていう流れになってくるから絶対SLAM使いましょうみたいな。
1:00:10
先取りできるわ。
その時にSLAMっていうものがどういうものかっていう感覚を持ってるか持ってないかでだいぶ差がつくと思うのよ。
なるほどね。全部素通りしちゃうねニュースがね。
どのくらいのパソコンで動くかとかさ。
いいねいいねいいね。
すごい先取り落ち着きだこれ。
先取り落ち着きです。だからSLAMのニュースで驚けるような気持ちとか態勢を作っておきましょうという回ですよ。
ありがとうございます。
ちなみにごめん最後にちょっとだけややこしい話をさせて欲しいんだけど。
はい。
ローカルLLMとSLAMって言葉が2つあるのね。
うんうん。
でこれで同じです。
同じなの?
同じちょっと違うんだけどちょっと混同されるんだけどちょっと軸が違うだけで概念は基本的には一緒に近い。
そう?
うん。SLAMをローカルで動かしたらローカルLLMとも言うし。
うん。
とにかくローカルLLMっていうのは自分のパソコンの中で動かす言語モデルのことをそういう風に言ったりするね。
ローカル環境で。
うん。
つまりスモールってことだね。
そう。つまりスモールそれはスモールだよねって感じなんだけど。
ただ別にローカル環境っていうのはさ自分のパソコンがじゃあスーパーコンピューターぐらいすげえやつがあったらでっかいモデルも動かせるから。
はいはいはい。
とにかくローカルで動かせれる言語モデルはローカルLLMと。
うん。
それはでっかいもちっちゃいもあるよっていうとこでローカルSLMって言う方あんまりしなくて。
ああそう。
うん。
まあ言う人もいるだろうけど結構ローカルLLMとも言われる。
あ、ローカルLLMか。
そう。ローカルLLM。
イコールほぼイコールSML。
そう。SLMにもなり得るかなっていう感じ。
うん。
なんだけどもう一個SLMって今回言ってきたんだけど。
うん。
SLM自体が必ずローカルとは限らないわけよ。
ああそう。
うん。SLMはちっちゃい言語モデルだから。
ネットで動いてるのもある。
それをAPI経由で使う、ネット経由で使うってこともあるし。
はいはいはい。
なんかこのローカル、SLMだから必ずローカルだよっていう話でもないんで。
なるほどなるほど。
ローカルLLMとSLMっていうのはちょっと区分けがあるから。
区分けがあるというか意味合い、文脈が違って使われるからちょっと混同してくるとややこしくなるけど。
ローカルLLMじゃないの?
ローカルLLMだね。
ラージがついてんの?
ラージがついてる必ず。
うーん。
なんか言葉としては。
でもLM、本当はローカルLLMが正しいと思うね。
だよね。
うん。
なんだけど、なんかそういう言葉として使われるから。
とにかくローカルで動かす言語モデルですよぐらいの感覚で捉えておくといいと思います。
はいはい。分かりました。
私もちょっと今日の話の中で何回かちょっと言い間違えてますけど。
1:03:00
ご愛嬌で。
はいご愛嬌でございます。
ということで、今回ちょっとね、あまりあれだったけど、ダーって話しちゃったけど。
未来先取りできた感じがするなこれ。
そう。とにかく言いたいのは、今日の行動編用はこちらですね。LLM Studio入れましょうというとこです。
いや入れるわ。
入れて入れて。
うんうん。
あまらかしとるパソコンで。
そんな使わないと思うけど。
うん。
動かしたという実績が何かためになるはずだから。
なるほどね。別に何かそれで作るとかじゃなくてね。
動いてるんだ。
うん。
で、ちょっとインターネットとかはもう切ってやりましょう。
あでも動くやん。
切ってね。動いた動いたって。
そうそれを感じてください。
ケーブル切って。
あなたのパソコンの中だけで。
うん。
今意思疎通してますそいつは。
うーん。
そこに驚きを感じましょう。
ちょい一回やってみるわこれ。
うん。かなりだってMacBook Proでしょ。全然余裕で入るよ。
MacBook ProだしそのWindowsのやつに入れようかな。
あそう入れてみて。
うん。
なんかいろんなモデル試してみるといいと思います。
分かりました。
はい。
よっしゃ。
はいということであのーまあ今日も1時間超え。
なんかまあいいぐらいの時間に終わったね1時間ちょっとね。
そうだねうん。そうね。
はいちょっとごめんなさい小難しい話が多かったですが。
はいはいどうでしたかね。
こんな感じではい今日はですね紹介させていただきました。
はいよ。
じゃあそろそろおしまいですねまた次回お会いしましょう。
番組公式ハッシュタグはシャープ落ち着きAIひらがなで落ち着きアラバイトでAIです。
番組の感想はXなどSNSでハッシュタグをつけて書き込んでください。
今回の話良かったな落ち着いたなという人は☆5レビューで応援してください。
はい。
番組のお便りはねあのー概要欄にも入ってますけど。
公式ホームページの方にお便りこちらってボタンがあるので。
はい。
そちらから是非Googleフォームとなっておりますのでお寄せ下さい。
よろしくお願いします。
落ち着きAIラグっていうのもね稼働してるんで。
はい。
そちらではラフに質問してもらえるとお便りとしてこちらにも届きますと。
そうですね。
番組のネタの参考にさせてもらいます。
はい。
それではまた一週間落ち着いて過ごしていきましょう。
さよなら。
終わりました。
はい。お疲れ様でございました。
最近さもうずっと座ってるもんね腰痛なってまってさこれ。
歩かなきゃ。
動かんと。
渋ちょも忙しいもんで運動なんてできせんでしょ。
1:06:01
運動はしてるよ。
してる?してんの?
うん。駅まで走る。
駅まで走るか。結構遠いのそれ。
900メートルくらい。
会社の最寄り駅から駅まで回るし、家の最寄り駅から駅まで回るから2回走るチャンスがあって。
ああそうか。そこで走るんだ。
そこで使ってます。
とかあとは最近だと毎日配信してるからさ音声配信。
歩きながら収録するとかね。
いいねいいねいいねそれいいね。
やってるやってる。
あえて最寄りの駅から遠いところ降りて3,4キロ歩きながら喋ってるみたいな。
偉いもんだね。
一応ね隙間時間をうまく使って。
隙間を無理矢理作って。
無理矢理作って。
作らんと運動もんできんわな。
そう。
花粉症だもんでさもう外出たくないわもう。
それはねある。
余計に、あれやりゃ渋ちょもあの防塵ゴーグルとN95医療用マスクで外出とるで俺さ。
なにそれ。
花粉対策目と口鼻。
口そのマスクどういうマスクだそれ。ペストマスクみたいなこれ。
あのなんかこれ。こういうかこういうやつ。こうやってこうやって。
あーあーあーおー。
ちゃんとベンといとるやつこうやって。
えそれあれじゃん手術の時のマスクじゃん。
そう手術手術。
ちゃんと医療グレードで。
あ、へーでもそれは確実だね。
ガチ対策。
ガチ対策。いや大事大事。
ぜひ参考にしてください。
はい参考にしてください。
いやでもそのマスクいいね。
そのマスクいいよ結構。
ガチじゃん。
ガチです。
はいでは。
はい。
お疲れちゃん。
あほんまに収録してんのか。
収録。
はい。
ありがとう。
はいさよならー。
01:07:51

コメント

スクロール