2025-03-15 33:42

#36-2 自我と悟りの方程式:Ego = Neural Network(Experience, Weight)

spotify apple_podcasts youtube

生成AIについて考える(その2)です。Satori = NN(x, 0)


【今回の内容】

ディープラーニングの位置づけ/思考のガーデニング/複雑な生態系と中間層の配線/お笑い芸人の強化学習/庭の話/人間における3つの学習段階/仏教と自我/重要度と重みづけ/自由意志はない/悟りは全ての重みが0の状態/行って戻ってくる/反応しない練習/脳科学と仏教とAI/学びと重みづけ/重みとは何か/ベクトルとは何か/PPAP/入力と出力


◆思考のガーデニングの回

https://open.spotify.com/episode/0U8JjLsYrkcsyuo4gxFJqh


【パーソナリティ】

とよだ:日本のIT企業で働くビジネス哲学芸人。

ショーン:シリコンバレーのテック企業で働くデータの魔術師。


【番組へのお便りはコチラへどうぞ!】

https://forms.gle/zGGArQTnfGuKY6Pj9


※このラジオは、個人の見解に基づくものであり、所属組織を代表するものではございません。


#白米FM #哲学 #生成AI #ディープラーニング #仏教

サマリー

このエピソードでは、ディープラーニングとニューラルネットワークがどのように自我の理解に寄与するかを探求しています。特に、情報の重要度の偏りが個人の自我を形成する過程と、悟りに関する知識とそのプロセスに焦点を当てています。自我と悟りの関係をニューラルネットワークの観点から考察し、重みの調整が悟りにとって重要な要素であることが強調されています。仏教の教えと脳科学の関連性についても考察され、悟りの実践が生きやすさを向上させる方法について議論されています。また、ニューラルネットワークの視点から自我と悟りの関係を掘り下げており、特にChatGPTの動作原理に関連して、入力と出力の過程が詳しく説明されています。

ディープラーニングの基礎
今のさ、その教師ありとか教師なしとか強化学習はまあ学習、どうやって学習するか、学習させるかだったじゃないですか。
で、やっぱそのね、ディープラーニングっていうのは、今のでいうとどこに、どこにどういう位置づけで出てくるのかっていうのがね、ちょっとよくわかんないよね、まだ。
でも、どこにも入るって感じかな。
全部の下にある感じ、そのベースというか。
だからその学び方は3タイプあるけど、学び方を実現する手法の一つとしてディープラーニングが使える。
あーそういうことかそういうことか。
モデルのタイプって感じで一つ。
あーわかったわかった。
ニューラルネットワークっていう構造を使って、さっきの教師ありとか教師なしとか強化学習を繰り返して学ばせてるっていうことね。
わかった。
で、ここで思ったのがですね、僕がニューラルネットワーク、ディープラーニングのニューラルネットワークが3層構造になってて、
入力層、中間層、出力層と、その中間層をどれだけこうまあいい感じにできるかによっていい回答が出せるかが変わってくるっていう話があるじゃない。
これって僕が昔言ってた思考のガーデニングと一緒なのではないかって思ったんだよね。
そうね、うん。
その中間層の配線というかネットワークというか、それをどれだけこう複雑な生態系にできるかどうかみたいなところを僕は思考のガーデニングと呼んでいたんだが、
それのことなのではって思ったんだけど、どうですか。
複雑になることがいいことなのかな。
複雑、複雑、複雑なることだけじゃなくて、より自分がいいなと思える出力を出せるような中間層を作り上げるみたいなイメージ。
うん、そうね。そうだと思う。
これは…。
なんかしおくんはさ、そのとき思考のガーデニングを話したときに、
うん。
なんか自分はあんまりそういうのやってないんじゃないかみたいなことを言ってたじゃん。
あー、言ってない。
でも今の話で言うとさ、そんなことないんじゃないかって思ったんだけど。
うん。
その中間層をより望ましい感じにしようと動いてるのではないかと思ったんだが。
そうね。
なんかその、同じようなことが起きてるか、どうだろうね。
なんかその、ある話を聞いて、ガーデニングしてためるみたいな作業が起きてるか、起きてない可能性もあるかなと思って。
なんかそもそも目的がさ、とにかく中ではそういうアウトプットを良くできるようにしたい。
じゃあ、今現状はさ、そういう良くないアウトプットしか出てない。
ちょっと良いアウトプットが出せそうってなった時に、なんかガチャガチャっとシグナルが行って、
中間層の重みを変えようとか線の繋ぎ直しをするみたいなアクションが起きてるわけじゃん。
イベントが起きてるわけじゃん。
なんだけど僕の場合は、もしかしたらその感度みたいなのが低くて、
なんか同じものを見ても別にガチャガチャっと重みの付け直しっていうのかな、みたいなのが起きてないかもしれない。
同じ目的を持ってないかもしれないし、持ってる部分も多少あるかもしれない。
自我と悟りの関係
なんか今その話を聞いて、ちょっと思考のガーデニングとさっき言ったニューラルネットワークの話はちょっと違うかもしれないなと思い始めて、
なんか前回面白いトークの時に、お笑い芸人がいかに面白いことを言えるようにするかみたいなのを強化学習してるみたいな、
例えを出したじゃない?あれはいかに面白いことを言うかっていう望ましい回答みたいなのが明確にあって、
その望ましい答えをどう出すかみたいなところを学習してそこを研ぎ澄ましてるみたいな。
それがさっきの入力層、中間層、出力層の中間層をどうチューニングするかっていう話なのかなと思って、
俺がやってる思考のガーデニングはあんまりそういう特定の目的に何か出力を出すためにチューニングするというよりは、
あんまり目的とか特にそんなに決めずに、とりあえずなんかポンポン放り込んでおくと、
なんかいい感じで中間層の配線が複雑になって、複雑になればなるほど、なんかいい結果が出せるのではないかみたいな。
ちょっとイメージが違うなと思ったな。自分で言ってて。
なるほどね。
伝わるか。
なんかその、お笑い芸人のやつは強化学習。で、なんかお客さんからの反応が報酬みたいな感じで、それをいかに増やすかみたいな。
お客さんからの笑いみたいなのとか、反応。わーってこう笑ってもらえる。
で、とよだくんのやってるのは教師なし学習みたいな感じなのかなと思ったのね。
とにかくインプットを入れて、本読んだり人話聞いて、なんかあとは世の中の視覚的な情報っていうのかな。
あとは自分の中のワールドモデルみたいなのがインプットして入っていて、この中になんかパターンあるかなみたいな。
こういう区分けできる、きれいに整理できたっていうのが正解というか。
そうかもしれない。
1、2、3って見つかったとか、ガーデニングで言えばこの辺りにちょっと木がポンポンと池みたいなのを置いたらいいなとか、
一つの話を金魚鉢みたいなものに入れておくとそっとハマるとか、なんかそういうパターン認識をしてて、
それは教師なし学習みたいな感じがする。
確かに確かにそうだそうだ。
あー。だから僕がやってる思考のガーデニングは教師なし学習か。
さっきのお笑い芸人のは教師あり学習。
強化学習かなと思った。強化学習か。
報酬をもとになんか改善していってる感じ。
あーなるほどね。
でも多分どっちも大事なんだろうな。
そうね、いろんな学習をしてるよね。この我々の頭、教師ありなしとか強化学習。
さっきのそのChatGPTみたいなやつだって3つの学習方法を全部使っていい感じにしてるわけだから、やっぱり全部いるんだろうな。
うん。
だし、あとさっきその深層学習がどれにも使えるって言ったのとさ、
我々の脳が3つどれもやってるっていうのが繋がるような気がして、
我々の脳がディープラーニングだと思ってもらうと、どれもやってるよね、教師ありも教師なしも、強化学習も。
じゃあ、例えば僕がやってる思考のガーデニングみたいな教師なし学習で、
世界の構造みたいなパターンを、大量のデータからとりあえずパターンを何となくのパターンとか構造を導き出そうとする動きであり、
例えば受験勉強みたいな勉強っていうのは、教師あり学習なのかな、正解があるやつをいかに出すかみたいなやつを、それも多分大事なんだろうなと。
で、強化学習は自分が持ってきたい方向というかに、自分の行動をいかに動機づけして報酬を与えて、そっちの方向に向かっていくかみたいな感じなのかな。
全部いるんだよな、結局。
いるね。
そうか、学習その学びといっても一つじゃないと。
そうね、いろいろある。
なるほどね。
面白いな、このAIを見ることによって人間が見えてくるんだよな。
そうだね。
これは面白い。
もしくは人間を理解してそれをAIを作ることに応用してるから、そういうミラーみたいな状態が起こるのかもしれない。
面白いな。
あとね、これ俺思ったのが、前あの仏教の話をしたじゃないですか。
はい。反応するとかやつ?
そうそうそう。で、その反応するも後で話すんだけど、まず仏教における自我とは何かみたいな話をしたときに、
その人がある特定の物事に持ってる重要度の偏りが自我であるみたいなことを話したと思うんだよね。
僕は僕の身近にいる家族が大事なんだけど、
ブラジルのペドロさんは地球の反対側にいる人だからそんなに重要ではないと。
その重要度の偏りが人それぞれ違うのがその人の自我であり、個性というかその人ならではの特徴というかであると。
で、さっきのニューラルネットワークの中間層。
中間層が重みづけを何か調整するんだみたいなことを言っていて、
その重みづけとさっき言ったその重要度っていうのは同じことを言ってるのではないかと。
うん、だと思うね。同じだと思う。
だからその人間っていうのは生まれてからいろんな情報を入力して、
その経験の中でその中間層にあるニューラルネットワークをいろいろどこがどう繋がってるんだみたいな配線が出来上がって、
それが結局自我になり、その自我に基づいて行動したり発言したりしているということなのではないかと。
それで言うとやっぱり自由意志っていうのは僕はあんまないんだろうなって思ったんだよな。
その入力ってランダムじゃない?
ランダムに入力してきたものがたまたま何らかのきっかけによってそのニューラルネットワークが繋がって中間層が出来上がり、
その中間層に基づいて入ってきた刺激に対して反応してるだけなのではないかって思ったんだよね。
いやーそうですよね。でででで、まだここから続きがあって、で悟りとは何かって話したでしょ?
うん。
悟りって何でしたっけ?
悟り?なんかその何を話したかは覚えてないんだけど、今もっかい答えをすると、あ、違うかな。え?悟りって何だっけ?
前言ったのが、世界の全てが同じ重要度で見える状態が悟りであると。
いうふうに言ったんだけど、それはさっきの例で言うと、自分の中間層にあるニューラルネットワークがある程度もうこれまでの経験からもう出来ちゃってますと。
その配線を一旦リセットをして、世界を見る。
リセットをして世界を見て、かつ自分の望ましい出力を出すために、ある程度自由にそこをこう、配線を組み替える。
うん。
組み替える行為なのではないかと思ったんですけど。
なるほど。
どうですか?
その悟りにたどり着いたらさ、望ましい何かとかってあるんだっけ?
何もないのかなと思った。
ないね、ないね。だから、組み替えはしなくていいのかな?
悟りは多分、もう出来てしまったニューラルネットワークを一旦リセットすることまでが悟りなのかもしれないね。
うん。なんかそうするとでも、ただ本当にノイズって感じがするけどね。
ノイズが入ってきてノイズとして受け取ってそのまま流すみたいな。
うんうん。
何も反応しないって感じ。
悟りと現実の関係
本当に悟っちゃうとそうなるんじゃないかなと思って。
全部一緒だよね。
で、それだけだともうあっちの世界に行っちゃうので、
多分お釈迦様はそのさらに先で、悟りの世界にはいくんだけど、行って戻ってこなきゃいけないっていう話もしたよね。
戻ってこなきゃいけないって話だっけ?
その抽象度のレベルを上げ下げできることが悟りであるみたいな。
ああ、はいはい。
行ってくる、行くだけじゃダメで、行って戻ってこないといけないと。
その戻ってくるっていうことが、さっきの配線をもう一回組み直して、
目の前の現実に対して望ましいと思える出力を出すっていう風に配線を組み替えることなのではないかと。
現実問題でいうと。
じゃあ一回フラットに見てゼロベースで考えると。
で、その後重みづけを学習なしに、意のままに変えれる状態ってことか。
そうだね、そうだね。
いのままに重み調整をして最適なアウトプットを出せるようになるのが悟り。
そうでしょ。
確かに超人的な感じするねそれは。
それが自由自在にお釈迦様とかはできるんだけど、凡人には難しいので、
そういった構造を理解しておいて、極力それに近づけられるような風に意識してやればいいんじゃないかな。
なるほどね。
このでも重みを変えるっていう行為がさ、難しいんじゃないかなと思うんだよね。自分の脳の重み。
そうだね。
一個一個のニューロンの重みとかって認知できないというか。
それを多分瞑想とか修行をして操作できるようにするんじゃない。
ねえ、すごいね。
まあでも今の時代はそんなにね、昔ほどそんなに過酷な世界ではないんじゃないかなっていうから、
そこまでね極端な悟りまで至らなくてもいいんじゃないかなとは思うんだけど、
ちょっとね似たようなことができると生きやすくなるよねっていうことじゃん。
反応しない練習っていうのもあったじゃない。
反応してしまうっていうのは、さっきのニューラルネットワークでいうと、
入力層から入ってきた刺激が中間層もストレートに通過して出力層に出てしまうことが反応してしまうことなのではないかと。
反応しない練習っていうのはその入力層から入ってきた刺激を出力層に出る前に中間層で何らかの処理を施すことによって、
出力層にそのままストレートに出ないようにする練習のことであろうとっていう気づき。
なんかそのそのまま出るっていうのが、そのままではない気はするけど、アウトプットに繋がってしまうっていうか。
まあそうだねそうだね。
なんかしらの変換は行われているし、脳自体はさ、多層、深層っていう、なのは変わりなくて、
で、ばーっとこうシグナルを伝播するのは変わらないと。
なんだけど、とあるところでそのニューロンが発火しないようにできると、だんだんこうシグナルが弱くなったりとか、
弱くなくても行動には出ないとか、
あとはその不快になるみたいな、不快になる何かホルモンを出すニューロンに繋がるところは発火しないようになるとか、
あとは嫌な思いというかネガティブな思考プロセスを走らせてしまうニューロンが発火しなくなる。
なんかいろんなニューロンが発火しなくなることかなーって思った。
ニューラルネットワークと学び
なるほどねー、すごいなー。
すごいね、脳科学と仏教とAIの話がやっぱ繋がるというか、同じ構造をしているというか。
うんうんうん。
面白いな。
だからね、こういうことを俺は発見したいわけよ。
こことここ同じ構造じゃんとか、こことここって似てるよねーとか。
ここにやっぱ喜びを感じる、たぶんニューラルネットワークが俺の頭の中に出来上がってるんだろうなと。
なんか、そうここら辺僕もなんか話したいなと思っててさ、
なんか白米FMで学びがあるとかさ、学びについてとかさ、気づきについて話したりとかしてるじゃん。
これだから気づきとか学びって何なんだって、
このニューラルネットワークとか重みの文脈で言うとさ、
とよだくん的には何だと思う?
なんかね、新しい配線が出来てることなのかなと思ったけどね。
今まで繋がってなかったニューロンとニューロンが気づきによって、
あ、ここ繋げられるじゃんみたいな。
で、繋がることによって、より複雑というか、
より多層的な思考が出来るようになるみたいな感じ。
だから繋がるっていうと、今までゼロっていう重みだったんだけど、
そこが0.1とか1になるっていう。
そうだね。もしくは0.1とかしか繋がってなかったのが、
0.2とか0.3とかに増えるとかっていうことかな。
ちゃんと重要だったということを認識するとか、
存在をより意識するようになるみたいな。
あ、ここにあるみたいな。
そう、だから僕も学びがあったっていうとさ、
最後なんか行動が変わるとか言ってた気がするんだよね。
あとは見方が変わるって。
物語の考え方って言ったような気がするんだけど。
はい、言ったね。気付きの回で。
そうそうそう。だからやっぱそのニューラルネットワークの
重みのパラメータが何か変わるってことが学びなんだなって。
そうだねそうだね。
で、その重みが変わることによって行動が変わるとか、
今まで見方が変わるっていうのもある情報が入ってきて、
誰々さんがこう言ったとか、絵を見てこう思うとか、
なんだけど今まではそれをスルーっと全部流してしまって、
重みゼロにして流していったのが、
ちゃんとこの部分も見ようと思うようになるみたいな。
なんかちゃんと0.1、0.5残して、
これもちゃんと処理してあげないとと。
それ自体そういう風にすると、行動か見方が変わるんだなと。
僕にとってもここはあんまり結びつけてなかったけど、
重みが変わることがやっぱり学習なんだなって。
実際にディープラーニングの学習って重みの値を変えることなんだよね。
その重みって言ってるのも俺ちょっとよくわかってなくて、
なんだろう、重みって一体何を変えてるんだ?
でもすごいシンプルにニューラルネットワークって
三層の時あったりするじゃん。
数字だったらわかりやすいと思うんだよね、入力が。
入力の入り口が2個あって今。
1たす1みたいなのをしたくて、
答えは2でしょ?だから出力は2ですと。
だからこの1に何かをかけて、重み1をかけて、
2個目の入力、また1だったんだけどそれに
重み2っていうのをかけて、たす。
で、ちょっとあるんだけどその真ん中の層で。
でも最後2になってるかどうか。
で、答えが2なんだけど2に近いかどうかを見て、
もう全く一緒だから重み変える必要ないねってなるんだけど、
例えばこれで、ちょっと違うな、いい例じゃない気がしてきた。
でも重みって本当にその入力1に何かをかけるんだよね、重みを。
だから重み1ってことはそのまま入れる。
だし、重みが0.1ってことは入力に対して0.1かけて
10分の1の大きさにして通すって感じ。
重みってそっちか、その1から0の間なのか。
そうそう、0から1が、それ以上なったりするよ。
あり得るよ、そのマイナスとかもあり得ると思うけど、
その係数って感じで何かをかけてあげる。
あー、なるほどなるほど、そういうことか。
だから入力に対してどの項目にどれだけ重視するかみたいな。
そうそうそう、そういうこと。
そのパターンが多分いっぱいあって、
そのあるパターンだとこれは耳が尖がってて、
なんかフサフサでヒゲが生えてて、
可愛い顔をしてるから猫だ、みたいな。
いうふうに判別できるみたいな感じ。
その真ん中にいろいろ層があったりすると、
ある層のある部分はフサフサだとか耳だとか、
何かそういうところを表してるかもしれないところがあって、
その猫みたいなのが、画像みたいなのが入力に入ってくると、
まあいろいろそれまでの層をガラガラガラっとシグナルを通してあげると、
耳があるとかいうところがちょっとピョって大きくなったりして、
あ、違う違う、猫っていうのを見ると、
フサフサみたいなところとか、耳があるみたいなところの重みがちゃんと、
何て言うのかな。
そこが発火するってことか?
発火するように、重みが調整されてるって感じかな。
そこが発火したから、これは猫だっていうふうに判別できるわけだ。
猫っていう情報が入ってきたら発火するように重みづけがされてるから、
その部分が発火すれば、あ、これは猫だってわかるんだ。
なるほど、理解しました。
このね、生成AIの中でベクトルっていう言葉がよく出てくるんですよ。
このベクトルがね、俺よくわかんなくて。
いいね。
このベクトルって、さっきのこれまで話した流れで言うと、どういうふうに位置づけられるの?ベクトルっていうの。
ベクトルは、今言った入力も1個のベクトルだし、重みもベクトルだし、出力もベクトル。
どういうこと?
だから、入力の差、ベクトルが3次元だとすると、
1個目1、2個目2、3個目のベクトル要素が10。1、2、10みたいな並びがあって、それはベクトルだよね。
ベクトルって、数字の並びのセットみたいな感じの箱があって、
3次元ベクトルっていうと3つの箱があって、その中に数字が入ってますみたいな。
じゃあ、重みはどうかというと、入力1の重み、入力2の重み、入力3の重みが、それぞれ0.1、0.5、0.1みたいな感じで、
重みが決まってる。これもだからベクトルじゃん。3つの数字が並んでる。
はい。
で、じゃあ、入力に対して重みをかけてあげると、それぞれ重みをかけた後の数字みたいなのが出てくるじゃん。
出てくるね。はい。
ニューラルネットワークの基本概念
それもまた3次元でしょ。3つそれぞれかけたら。で、それもベクトルですと。
はい。
で、真ん中でそれをちょっとくしゃっとこう全部足したりするんだけど、
うん。
そうすると全部例えば足してあげると、最後結果がいくつになるのか、ちょっとちゃんと計算はしてないけど、
まあその足した後に何か1.2とか出てきた数じゃん。
はいはい。
それは出力はじゃあ1次元のベクトルみたいな。
え?最後には分からなかった。1次元のベクトル?
うんそうそう。最後3つの数字を足して1個数字が出てきたらそれは1次元のベクトルになるし、
うん。
もし中間層がもう1個あって、
うん。
で、その中間層2に対してももう1個別の重みが定義できるのね。
うん。
2番目の中間層に対しては入力1に対する重みは1。
うん。
で、2個目3個目は0だとすると、
うん。
入力1がそのまま通るっていうのが中間層2みたいな感じ。で、そこを通ってきたやつはじゃあ入力1がそのまま出てくると。
うん。
で、そうするとアウトプットは今2つになったじゃん。
うん。
で、そうすると2次元のアウトプットが出てくる。アウトプットもベクトル。
うーん、あ、うん、うん、うん、うんと。そうかそうか。
えっと、例えば生成AIで何らか言葉を入れて、
うん。
その言葉を何らかのベクトル、数字の並び、
うん。
のセットに変換をして、で、それをさっきの中間層の重みづけにかけて、
うん。
で、そうすると出力の時にその中間層の重みをかけた、
うん。
言葉が出てくるの?
そうね。
ベクトルベクトルまたベクトルが出てきてそのベクトルを言葉にまた戻すというか変換する。
あ、そうそうそうそう。まあ変換表みたいなのがあるイメージね。
うーん、はいはいはいはい。
うん。
うーん、あ、じゃあ、ん?入力の時と出力の時と2回そのニューラルネットワークを通っているのかな?
そのまず、例えば誰かがChatGPTに何かメッセージを送るでしょ?
うん。
そのメッセージがまず何て言ってるのかっていう理解をするときに1回ニューラルネットワークを通るのかね?
えっと、1回っていうのはどういうことだろう?
えっと。
違うのか。
アウトプットは何だと思う?
アウトプットが、あ、違うか。その中間層がそのChatGPTの頭の中みたいな感じになるのか。
誰か、例えば僕がこんにちはっていう風に入力したらその入力したのが入力層として入ってくるわけじゃん?
うんうんうん。
それが中間層のところに入ってて、で、何らかのChatGPTの頭の中では数字に変換されて、
じゃあこの人はこんにちはって言ってるんだねっていうことを理解して、
じゃあこんにちはっていう風に問われたら、じゃあこっちはこんにちはって返す、もしくはお元気ですかって返すとかいうのに変換されて、
ChatGPTの入力と出力
出力層としてお元気ですかって出てくるみたいな感じ?
うん。ちょっと待って。あんまり言葉が頭に入ってこなかったんだけど。
えっと、ChatGPTにとってはこんにちはっていう入力があって、
で、実際ちょっとひらがなというか日本語の場合どういう風に処理してるのかちょっとよくわかんないなということに気づいたけど、
英単語だとするとさ、単語ごとに一つのベクトルに変換してる。
はい。
だからそれごとに変換して、で、それが何単語入ってるかによって入力がさ、
いろんなベクトルに置き換えられて、それがChatGPTの中から通ってきますと。
で、その入力に対して、例えば5単語。
5単語。I have a penとかだったらちょっと、終わっちゃうなそうすると。
まあ、なんか、I have aって1,2,3,5あるとするじゃん。
その後、その3単語がこうChatGPTの中通っていったら、
次来るのは何かっていうのを予測したくて。
うん。
あ、そうかそうか。これは今トランスフォーマーの話してるよね。
だからちょっとChatGPTにするとややこしいかもしれない。
トランスフォーマーだったら次の単語を予測するだけだよね。
そうすると、じゃあ、I have aの後に来る、来そうな単語が何かっていうのが候補があって、
なんか1000個ぐらい候補があって、そのうちpenが一番確率高いですよとか、
apple、aって言ってるからappleじゃないってわかってるからappleはすごい確率が低いとかね。
で、バナナだったらまあ0.7ぐらいかなみたいな。
なんかそういうのがあって、じゃあ一番高いものを返してくるみたいなのがトランスフォーマーだよね。
だから1回通ってるっていうことなのかなと思うんだけど。
わかんないところあるか。
まあ、でも入力と出力がセットなのかなと思う。
まあいいや、まあいいや、なんとなくわかった。
次回へ続く。
33:42

コメント

スクロール