00:00
はい、どうもこんばんは、孤独部です。お久しぶりでございます。前回が、どうやら1月年明けに1回撮っているようでございまして、それから今5月の頭なので、
2、3、4、5、4ヶ月ぶりにスタンドエフェクトに投稿してみようかなと思って急に撮り始めました。
最近の近況報告をちょっとしようかなと思うんですけど、1月にMac miniを買いまして、それから割とこの4ヶ月間、結構パソコンずっと触っていることが多かったなというふうに振り返ると思うんですけども、
AIが流行ってるじゃないですか、巷でね。自分もそれで興味を持っていろいろ触っているんですけど、せっかく新しくMac mini、最近あれですね、Mac miniが売り切れたとか、
半導体需要とか、いろいろな関係で売り切れたりとかで、また売り出したみたいなんですけど、今度値上がるんじゃないかとかね、いろんなものが値上がってるとか、いろんなニュースがありますけども、
いいタイミングで買ったなと思って触ってるんですけど、それでAIの話になるんですけど、最近ずっといわゆるローカルLLMっていう、たぶん普段みんなが触ってるようなChatGPTとかGemini、Googleのやつですね、
最近話題になったクラウドっていうやつとか、いろいろあるんですけど、ああいうのはいわゆるオンラインでクラウドのAIでめちゃめちゃ賢いっていうやつじゃないですか。そうじゃなくて、ローカルのパソコンの中で、いわゆるオフラインでも動くようなAIっていうのがありまして、
最近はそういうのもどんどん進化してて、本当に僕の持ってるMac miniはメモリが一番ちっちゃい16GBのやつなんですけど、それでも全然動く。何ならもっとちっちゃい、ちょっと前に発売されたMacBook Neoでしたっけ、10万切ってるノートパソコンMacのやつは8GB、メモリが8GBなんですけど、
それでも動くのがあるぐらい、どんどん軽量化かつそれなりに賢いというような方向で進化していっているローカルLLMというのがあるんですけど、最近そういうのを無料で触れるんで、どんなもんだと思って年始からちまちまたずっと触っておりますね。
いつだったかな。1ヶ月ぐらい前かな、たぶん。クエンっていう中国のアリババかな、たぶん。アリババが作ってるAIがクエンっていうのがあるんですけど、それが3から3.5っていうのが新しく出て、それからちょっとしたタイミングで、今度ジェンマっていう、これはGoogleかな、たぶん。
03:05
ジェンマっていうのがあるんですけど、ジェンマの新しい4っていうやつが出て、そのクエンってやつとジェンマってやつの最新版がすごく賢いっていう話題があって、これはローカルLLMでいろいろやれちゃうんじゃないかみたいな話が結構インターネット上で見かけられて、どんなもんなんだろうと思ってね、興味持って触ってたりしましたね。
何に使ってるんだって言われると僕大したこと使えてないんですけど、本当に。パソコンに入れるだけ入れてちょっと喋ってみて、こんな風に動くんだって思って感心して終わるっていうぐらいしか正直使えてはいないんですけど。
一応やってることとしては、日々日記じゃないんですけど、日記か一応、デイリーノートっていって、Obsidianっていうノートアプリがあるんですけど、最近それを昨年終わりぐらいから使い始めてて、そこでデイリーノートっていう日記を書いてまして、その日記、別にインターネットとかに公開するものじゃなくて自分のための日記なんですけど、
それをローカルLMMに読ませて、それに対してコメントをくれる、アドバイスというかコメントをくれるっていうような機能を試しに自分で作ってみて、毎朝それを昨日書いた日記に対して、昨日はこんな1日でしたね、今日も頑張ってくださいっていうようなことを言ってくれるみたいな仕組みを作って遊んでたりしますね。
それ結構ね、日記を続けるやる気につながるなと思ってて、結構すぐやめちゃう三日坊主な僕ですけど、意外とそれはちゃんと続いてるなという感じがあるのは、そういう仕組みのおかげかなというのもありますね。
何がそんなに僕の中で、対して使いこなせてもないのに興味をそそるんだろうなと思って考えたんですけど、AIがどのように動いてるかっていうのを調べていくことで、人間の脳がどんな仕組みなのかを理解する一つの方法になるんじゃないかなっていうのをね、なんか思って。
それが僕の興味をそそっているんじゃないかなっていうのは最近思いますね。
すごく簡単に言うとですね、AIっていうのは予測変換ってあるじゃないですか、携帯とかで言葉を打ったときに予測変換出てくると思うんですけど、あれのめちゃめちゃ高度なやつみたいな仕組みらしくて、
要は自分の出した予測変換の言葉に対して多分それにさらに予測変換をしていくみたいなことを続けることによって文章を作っていっているみたいな、すごく安直な理解ではあるんですけど、実際もうちょっと複雑なことやってると思うんですけど、
すごい大雑把に言うとどうやらそういうすごい予測変換みたいなものらしくて、それ聞くと初戦機械だなみたいな印象になるかもしれないんですけど、じゃあ人間がこうやって喋ってるときにやってることって果たしてそれとどう違うのかって思ったときに、正直そんなに変わんないんじゃないかなって思うんですよね。
06:14
そのAIの話なんかだと、AIはいつ感情を持つのかっていうような、よく映画なんかでもロボットが感情を持つ話とかそういうのあると思うんですけど、感情を持つって何かっていうことを考えたときに、自分、僕だったら僕自身の感情ってものは僕はわかりますけど、
じゃあ僕から見たときに他の人の感情って、僕はその人の言葉だったりとか表情だったりとかコア色だったりとか、そういうものを通してしか受け取ってないじゃないですか。
それって、要は自分、感情ってものが本当にあるかどうかっていうのは、自分の感情以外、他人の感情っていうのは証明できないなと思ってて、それって、僕から見たときの他人っていうものとAIっていうものが、果たして違うのかっていうのって証明できないな。
つまり、AIはもしかしたらもうすでに感情を持ってるのかもしれないなっていうふうに捉えることもできるなみたいなことを、AIの仕組みを勉強したりしながら考えてますね。
その仕組みを一個ずつ見ていくと面白くて、さっき予測変換って言ったんですけど、もうちょっと細かい話をすると、ベクトルっていうものを扱って、データベースみたいなものがあるんですけど、そのデータベース内には言語とかっていう情報じゃなくて、ベクトルっていうものが収まってるらしいんですよ。
これは僕もよく理解してないんですけど、そのベクトルっていうもので重みが、例えば頭って言葉があったら、その頭って言葉にベクトルが似てる言葉みたいな、自分の持ってるデータベースの中から、その言葉の持ってるベクトルと似たような言葉を抽出してきて、それを組み立てて予測変換に使って一つの文章を組み立てるみたいな、ざっくり言うとそういう仕組みらしいんですよ。
人間の脳がどういうふうに動いてるかってよくわかんないですけど、もしかしたら同じようなものなのかもなーって思ったんですよね。
たぶんこうやって喋ってるときとか文字を書いてるときって、書いてるスピードとか喋ってるスピードよりも、ちょっと前の段階で自分の中にはこういうことを言おうみたいなのが発生するわけじゃないですか。
それって言葉になる前の言おうとしてることみたいなものがあって、その言おうとしてることみたいなぼやっとした状態のことが、もしかしたらそのAIで言うとこのベクトルなんじゃないかみたいなことを考えたりとかして、
09:07
おーなるほどねーみたいなことを考えていますね。そんなことをね、最近ぼやぼやっと考えていて、これを何かに、例えば作品とかの中に形として使えないかなーということを考えてるんですけどね、なかなかこう、
まだ上手い言葉が見つからないというか、上手い言葉が見つからないなーと思って喋ってみる機会として急に思い出して、スタンドヘムを録音してみたという感じでございますね。
ちょっとね、言葉をね、文章というかさっき言ったように日記とかで文章、言葉は書いてなくはないんですけど、喋っているときに果たして自分がどういうふうに言葉を出してるんだろうということをちょっと考えたいなーみたいなことを思っていますね。
言葉の方が、文章を書くよりも喋るときの方が言葉の速さとか、あと感じとかが結構違うんじゃないかなっていうのをちょっと思ったんですよねー。
はい。ちょっとまとまらない感じではあるんですけども、ちょっとまたこの話続きをもう一回撮ろうかなと思っておりますのでね、面白かったら聞いてもらえればなと思います。
では今日はこの辺で。ではまた。