1. 新型オトナウィルス
  2. #35 利己的なAIか?前編
2020-11-06 33:24

#35 利己的なAIか?前編

spotify apple_podcasts

まず、樋口は驚愕し、古林はむせびました。

もち米の飛車のPtを調整する評価基準は適切ではありませんでした。

そしてプロの話です。

トカゲのしっぽなどを用いた、黒魔術や占いの世界に入っていきます。

樋口は、科学が宗教になる瞬間を見たと言っていたと言います。

山本氏は知能よりも知性がワンランク上だと唱えます。

それにより、玉を固めるなどの物語が求めれています。

樋口と古林は、超優秀であり深層学習を深めていると考えられています。

ここで、銃規制の話題になりましたが、古林は規制よりも生えてくるものと考えました。

樋口は喋りすぎたようです。次回

00:06
はいどうもみなさんこんばんは今日もあなたにインフェクション新型オトナウィルス小林です。 樋口です。
よろしくお願いします。
はい、ついにやってまいりました。今月の読書感想のコーナーでございます。
来ましたよー。
あのー、びっくりしてます僕は。
何がですか?
驚愕です。
何が何が?
今回私、樋口、2時間読みました。
やべー。
むせてしまった。むせてしまったじゃないですか。
はい、いつもの倍の時間をぶち込んできましたマジで。
すげー。
やったっすねー。
やりまくったよ。
もう褒めてほしい。
はい褒めます褒めます。
もうだってやっぱあれですもんね、こうちょっとずつでも成長することが大事っすもんね。
そうよ、なんとあの樋口が1ヶ月の間に2時間も読書に費やしたんよ。
確かに。
コンスタントに続いてるし、いや本当に。
まあまああの、俺らの間では褒め合えるけれども。
そうね、怒られるわこれ。
1日1冊読む人とかいますからね。
おるよねー。
まあまあそんなこんなで。
いやちょっとね、今回も僕からやらせてもらいたいんですよ。
はいお願いします。
いいっすか?
もちろんもちろん。
あのー、前回の続きです今回。
で、前回読んだ本、一応軽くざっとおさらいすると、タイトルが
人工知能はどのようにして名人を超えたのかっていうタイトルの本でございます。
これは将棋をテーマにしたAIについて書かれてる本なんですけども、
これね山本一世さんっていう方が著者なんですけども、
ポナンザっていう将棋のAIのシステムを開発してる人が自分で書いた本ですね。
っていうことでございます。
ポナンザって一応説明しとくと、この本書かれたのは2017年なんですけども、
2017年2月時点では最強の将棋プログラムでした。
ちょっと今最強知らないんですけど。
っていう感じの本です。
前回ばーっと紹介して、今回はその続きっていうことなんですけども、
なんと一応全部行きました。
読破。
おーすげー。
もちろん前回と合わせて3時間ぐらいしかあれなんで、
かなり斜め読みしたやつを自分の解釈を踏まえながら行くんで、
間違ってたらすいませんということで。
行きますね。
じゃあ頑張ります。
前回いろんな話しました。
例えばオセロとチェスと将棋とイゴがどれだけ難しさに違いがあるのかとか、
シミュレートとエミュレートの違いとかいう話があったんですけども、
詳しくは前回聞いてくださいと。
前回ちょっと触りまで話したのが、
人間の思考を理解するのを諦めたっていうところで、
03:03
AIの発達が進んだって話があったと思うんですけども、
今日はそこから話していこうと思います。
楽しみやなー。
そうですよね。そこからですよね。
まず、じゃあちょっとここで一個議題がありますよと。
それは何かというと、
まず人間はコップをどうやってコップだと評価しているかっていうのを真剣に考えてみましたと。
要は当たり前ですけど、
視覚情報で人間は画像として物事というかコップがあるということを捉えて、
それをコップだって評価できてるじゃないですか。
初めて見るコップを初めて見るシチュエーションで初めて見るテーブルに置かれても、
それはコップだって認識できると。
これがまずそもそもAIには難しかったって話ですよね。
人間が見たら明らかにコップに見える画像っていうのは無限にあるんですけど、
これって記憶だけで判断してないと。
要はそのコップがある風景を記憶から引っ張ってきるわけじゃなくて、
何かしら保管をして演算をしてると。
これ人間には可能なんですよ。
じゃあこれをAIで最初からできたかっていうとできなかったんですね、コンピューターには。
なんでっていうと。
そこを考えてみたらしいんですよ。
結果、もうこれ発表します。
ようわからんっていう結論に至ったと。
これ結局未だによくわかってないらしいです。
未だに結局解明できなかったってことですね。
ブラックボックス化されてるんですね。
人間のそこの認知のやり方っていうの。
いろいろ考えたらしいんですよ。
例えば影の形がこうだからコップだとか、
背景に対してこういう境界線があるから、
こことここは背景と対象物の違いでやって、
対象物だけをまた見たら何たらかんたらみたいなことをめっちゃ頑張って考えたけど、
結果わかりませんなんですよ。
ここで俺は人間を辞めるぞっていうのをもうAIに宣言させたっていうことですよね。
つまり人間の認知パターンを正確に理解して
AIにインストールするっていう手法をやめたってことです。
ここで一個もAIが加速するんですよ。
今までって、例えば値の調整を人間がやってたっていう話があるんですけども、
これじゃあ一気に例えを将棋に持っていきますね。
今まで人間の評価をインストールするときにどういうやり方でAIに教えてたかで言うと、
例えば将棋で言うと持ち駒として飛車っていう強い駒を持ってたらプラス10ポイントとか、
玉の防御の囲いが例えば丸々囲いっていう形だったらプラス5ポイントみたいな感じで、
そういう感じで評価基準を人間が設定をして、
06:03
飛車を10ポイントとしますとか、角を9ポイントとしますとか、競馬を5ポイントとしますみたいな感じで人間が設定してたらしいんですよ。
それで評価をバーってさせたら、人間が設定したのに対して実際の結果が勝ち負けが出るじゃないですか。
それの差分を値の値の調整で埋めてた。
例えば今まで飛車が10ポイントとしてやったら、あれ飛車意外と10ポイントと思ってやってたけど高く見積もりすぎじゃね。
めっちゃ飛車持ってても負けるじゃんってなったら、飛車ちょっと9.5ポイントぐらいにしとこうぜっていうのを人間がカタカタって調整をして、
飛車を9.5ポイントにしたらどうですか。ポン。あ、まだ負けるわ。9.2ポイントにしよう。
あら、いやもっと高く評価していいんじゃないみたいな感じを人間が調整してたと。
でもこれ人間が調整するってなったらめっちゃ大変やし無理じゃねってなった。
で、ちなみに言うとその評価基準って山本さん、調査の山本さんが思う評価基準軸で言うと10万個ぐらい必要だと。将棋を理解するためには。
いやまあそういうのありますよね。
らしいんですよ。それを人間が値の調整やってたら無理じゃんってなって、それでコンピューターに自動的に合わせるようになったっていうところで機械学習っていうのが生まれたと。これが機械学習らしいんですよ。
ここで人間であることをやめたっていう定義かな。
それをやってると意外と45%ぐらいの確率でプロと同じ手をさせるようになったらしいんですよ。
へえ。
そう。でもまだこの時点では習派理で言うところの習ですよね。つまり要はプロと同じであることに近づけるっていうことが上達の目的だったよね。
だってまだプロの方が強かったっけ、その当時は。とかバーってやりよったら2年間ぐらいで作者である天五段なんやけど、山本さんちのは。
作者の山本さんを超えたらしいんよ。だから天五段ぐらいはAIがいけたってことよね。成長したってこと。
この時点で言ったのがポナンザ、そのAIプログラムのポナンザは私の子供であり、そして私を超えたって書いちゃったよね。
かっこいい。
そう。これぐらいからプログラマーっていうのが徐々にプログラムを書かなくなっていたと。これを我々はプログラマーからの卒業っていう表現してるって書いてたんですけど、要はプログラミングで書けるレベルが終わったと。
もう一回言うね。プログラムで書けるレベルっていうのは値を調整できよった時の話。パラメーターがあってプロパティがあって人間がそれを設定して値を調整して実験をしてっていうのを全部人間が認識できていた時代の話からもう無理になったっていう話。
09:12
ここでプログラマーからAIは卒業したらしいよね。もうここまで来ると何で強いかわからんみたいな事件の話になると。
実はここがめっちゃ面白いんやけど、俺はすごい面白いんやけど、多分リスナーの方々が理解できるレベルで噛み砕いて話すのはちょっと無理な説明がめっちゃ長くなるのでここ省きます。
飛ばしながらいきますね。こうなってきたらブラックボックス化してまさに黒魔術の世界になると。
こうなったら強くなるんじゃね?やってみよう。強くなった。じゃあこうしたらどう?弱くなった。じゃあやめようみたいな感じで、ただのトライアンドエラーみたいな感じになるよね。
ようわからんけどトライアンドエラーしたらこういう結果が出たみたいな。
例えば黒魔術で言うとトカゲの尻尾入れてみたら効くんじゃね?やべ効いたみたいな。だから占いの世界よね。
演劇的に、演劇法的に成果を出すのは無理で、本当に機能法的なレベルになってきたと。
っていう風になってきたと。そこで出てきたのが、次に出てきたのがディープラーニングだったりね。
ディープラーニングっていうのは機械学習の中の一個の手法なんやけど、そういうのが出てきたと。そこで出てきたのが、もともとニューラルネットワークっていう神経細胞に似たモデルっていうのをさらに進化させたのがディープラーニングなんやけど、ここはちょっと省きます。
ちょっとむずすぎるんで、説明が。という感じでどんどんどんどん進化していったと。ここでね、ちょっと進化していったんですけども、ここで科学とは何かみたいな話がまたちょっと出てくるんですよ。
多いですね。
時計でいうと、すぐ分かりやすいんやけど、時計のことを理解しようとすると、一番簡単なのは時計分解する。で、このパーツがこういう動きになってるんだっていうのを分解すると、時計のことがより理解できるよね。これが還元主義。分解して分解して、把握していくっていう。
でもね、さっき言ったようにもうブラックボックス化してしまっていて、理解できないレベルになっちゃうわけ。となると還元主義っていう考え方では、もうポナンザであったりディープラーニングの知能っていうものを理解するには不可能みたいなレベルになってくるよ。
12:10
そうなってくるとね、もうね、これ本当に山本さんが書いてたんやけど、もうAIの気持ちを理解するみたいなレベルにいかんと、もう無理らしいよね。そうなってくるとね、科学者の中では人工知能は科学じゃないんじゃないかみたいなことになってきて、もやもやしたものをそのままもやもやしたものとして受け入れることが大事みたいになってくるわけ。
もうね、こうなってくると科学じゃないんよ、もう。認識の仕方が。しかもだってプログラム書いてないわけやけど、ここまで来ると。なんですよ。
そう。で、もうこの辺のレベルに来たときにアルファゴっていうね、前回説明したけど、Googleの子会社が作ったEGOのAIプログラム、ディープラーニングのプログラムが一番難しいとされちゃったEGOをテーマにしてできたAIシステムがEGOで人間に勝つよね。ここで人間を超えると。
まあまあちょっとね、ここを言葉たき言いますけども、ここに3つの武器があって、それで人間を超えたと言われてるんですけども、モンテカルロホーっていうやつと、あとディープラーニング版打ち手予測器っていうやつと、ディープラーニング版評価。
これはもう意味は省きますけど、この3つの武器、そしてそれらのアンサンブル効果つって、いわゆるシナジー効果みたいなものが発生することによって、AIがEGOの世界で人間を超えたと言われてますと。でもなんかもう気持ちを理解するみたいなレベルになってきたって話よね。
ここで、もうEGOという難しいと思われちゃった世界でアルファーゴが超えたときに、これね実際に山本さんという著者の友人の大橋博文さんっていう方が言った言葉らしいんやけど、科学が宗教になる瞬間を見たって言うんやけど、みんなが、要はみんながそのアルファーゴの真似事を始めたらしいよね。
もうこういう時は、この打ち手がいいとされちゃうんやけど、とりあえずこれを信じて、これをいいとするみたいな。そう、今まで信じてなかった人たちがブワーとアルファーゴの打ち手の真似事を始めたと。要はその訳がわからないものを理由なく信仰するという状況が生まれたらしいよね。みたいなことが書かれていて、これ面白いなと思ったんやけど。
そうですよね。今のいわゆるAIって、よくわからんけどむちゃくちゃ当たる占いみたいな感じですよね。
そうなんですよ。むらないと同じよね。ここからまとめにいくところがまた面白くて、ここからが知性と知能についてなんですけど、結構ここからはもうね、著者の山本さんの試験が入ってきますよっていうのはもう著者内で言っちゃって、これは科学者が言おうことじゃなくて、私はこう思うみたいなことを無責任に書きますみたいな感じで言おうことなんやけど、またこれが面白いと思うんですよ。
15:23
さっきプログラマーからの卒業というフェーズがあったって言ったんやけど、もうここからは人工知能が人間から卒業するというフェーズに来てると。だからプログラマーを書かなくていいとかレベルじゃなくて、人間を超越していくみたいな。超越じゃない、卒業していくっていう。これどういうことかっていうのは後で言うね。
まず知性と知能を山本さんはどう定義するかっていうところなんですけども、まず知性というのは目的を設計できる能力というふうに定義付けちゃうよね。知能というのはそれに対して目的に向かう道を探す能力っていうことだよね。
なるほど、そういう分け方。
人間を大きくAIは超えようとしてると。てかもう多分超えてると、ある分野では。ただ今段階で言うとまだ目的は人間が設計してるって言うね。例えば言うけど、もう根本話をすると、将棋で相手に勝つっていう目的は人間が設計してるんよ。
なぜ将棋で人間に勝たない権勝ちAIは考えてなくて、目的はもうすでに相手に勝つっていうのは人間が設計してるよね。そういうレベルの話。ということは知能を適切に運用する知性っていうのが今後AIの世界で必要となってくるだろうって話。
つまり間違った目的に進んでしまうと、そもそもやばいでしょっていう話よね。いわゆるロボット三原則みたいな話にもなってくるんだけど、人間に不幸なことをしてはいけないみたいなことってあったよね、ロボットの話で。そこのレベルみたいな話になってくる。
そうそうそう。じゃあ目的を持つ地何かっていうことで考えると、これが面白くて、意味と物語で考えることっていうね。
すげえ、ちょっと待って、どういうこと?
目的を持つということは意味と物語で考えることらしい。つまり人間は一手一手、将棋の差し手に意味を求めるんち。
18:04
そうそうそう。例えば、将棋で例えて言うとね、まず元々で言うと勝ちたいわけよ。でもいきなり勝つっていう目的を設定すると、もう選択肢がありすぎるわけ。
でもある程度、ちょっと仮定でいいんで、中間目的を決めましょうみたいな感じになるわけよ。
ただ、飛車めっちゃ強いから、相手の飛車をせめて自分のコマにしようみたいな、中間目的を作るんよね。
ただ、全ての目的を飛車を取るっていう風にリソースをぶち込めるみたいな。そこに意味付けをするんよ。飛車は強いコマだから取ろうみたいな意味付けをするとか。
で、相手がどういう動きをしようかっていうのを読んで、あ、なるほど、今相手は飛車をこういう風に逃げようとしているなっていうのをストーリーと意味付けをするんち。
わかる?とか、今、欲を固めているなとか。もっと言うと、前回戦った時にこういう戦い方をしてこの人は負けているから、今回は違う戦い方をしようとしているな、多分、みたいなストーリーをつけるわけ。
とか、この人はこういう戦法が得意だから、こういう戦法を相手が対策をしているなっていう風におそらく予想しているから、そうじゃないところで戦おうとしているなとか。それってさ、人間の過去からの文脈とか意味付けみたいなものってあるやん。
そう、そういう風に言って言ってに意味とかストーリーを求めることができるというのが人間だと。じゃあ人工知能が知性を持つためにはどうすればいいか。つまり意味や物語で考えることができるためにはどうすればいいかと言うと、今は無理やけど今後どうなっていけばいいと予測しているかというと、今あるディープラーニングという機能というか技術。
これを複数のディープラーニングをつなげたディープラーニングっていうのを作ってお互いに強調し合う。つまり強調っていうのは共鳴し合うみたいな感じね。
そういう風にすることが大事なんじゃないかなみたいな。で、そのためには一個一個のディープラーニングがすごく学習した高いレベルの状態であって、その高いレベルのディープラーニングが複数あってそれが共鳴し合うことによってそれ自体がお互いに影響を与えあって転移をして情報を。それで高めあっていくというか知性を持つんじゃないかっていう。
これね、人間なんですよって話をしてるんですよ。全くもって人間ってそうですよねって話。人間ってそうやん。一人一人が高めあって、俺という優秀な超優秀な人間とさ、コバという超優秀な人間がさ、話すことによってね、高めあっていってるわけじゃないですか。深い思考、ディープラーニング。
21:10
これだから人間のモデルの話をしてるわけ。でね、くしくもね10年前ぐらいに人間であることをやめたっていうことでAIは進化を遂げたって話をしたやん。人間モデルをやめると。それが10年前ですよ。
で、くしくも今、人間の脳みそとか、人間同士のコミュニティみたいな、人間同士の発達の仕方みたいなモデルに近づけた方が結局うまくいくっていうところに、今先頭返りしているって話だよね。
はいはいはいはい。
なるほどですね。
いやいや10年でそこまでいくのやばっ、ちゅう。
やばいっすね。やばいっすね。
でもね、なんかね、これちょっと余談ないけど、今もうそれが徐々に知性がついてきるらしいんよ。
おー、まじっすか。
AIに、つまり文脈で物事を判断するっていうのが。
そうかそうか。
ついてきるらしくて。これね、ちょっと一個の例で言うと、Google翻訳。
あれGoogle翻訳ってさ、AIだよね。ディープランニングって言われちゃって。
で、例えばね、Google翻訳でこういうのを翻訳させたと。
父は母がバッグを忘れたことを起こった。
これを翻訳すると、バッグの前にね、前父としてherをつけたらしい。つまり彼女の10をつけたらしいよね。
だから、要はバッグって誰のバッグか分からんけど、とりあえずAI的にそうだろうって母のバッグっていう風につけたらしいよね。
この文脈で想像して。でね、逆に母と父を完全に真逆にしたと。
母は父がバッグを忘れたことを起こった。つまり母と父の、本当に単語的に入れ替えただけ。AとBを入れ替えたのと同じ。
父と母を入れ替えただけ。
そうすると、Google翻訳は同じように彼女のバッグと訳したらしい。
で、これをね、男とか女とか父とか母とかいう一切の情報を完全になくして、AとBという風に文脈的な構造だけでやったら、母じゃなくてhisにならんとおかしいわけ。
でもGoogle翻訳は母バッグと訳したと。
これは結果、やっぱさっき言ったように原因は分かってないよ。
でもおそらくやけど、バッグを持つというのは女性という風にAIが読んだんじゃないかって話。
つまり人間が持っている常識とかステレオタイプみたいなものを身につけたんじゃないかって話。
これってまさに意味と物語で考えることやん。
確かに、本当ですね。
で、これの延長線上に人間の倫理観みたいなものを実はインストールできるんじゃないかって話があって。
24:01
なるほどですね。
なんですよ。
で、めっちゃ長くなったけど、最後まとめね。
ここでシンギュラリティについても最後研究しちゃって。
さっきちょっとちらっと言ったけど、人工知能というものが人間にとって危険な存在になるかということに対して、一応山本さんなりの一定の答えを出してます。
でね、これもGoogleなんやけど、Googleの画像を分析するアルゴリズムっていうのがあって、画像に対してタグ付けをするっていう機能があるよね。
例えばリンゴの画像に対してリンゴってタグ付けをするみたいな。
メロンの画像に対してメロンってタグ付けをするみたいな。
っていうのがあるんやけど、黒人の写真を見せたときにゴリラとタグ付けしてしまったと。
これに慌ててGoogleの人が謝ったみたいな事件があったんだけど、これは果たしてただのミスなんだろうかみたいな話があって。
で、これ果たして本当に画像認識的にゴリラと黒人を同じものとして認識したんではなくて。
わざといたずらしたってことですか。
これ要はネット上で黒人のことをゴリラっていうふうに揶揄して言う人たちがいっぱいおるとか。それも含めてインストールしてしまったんじゃないかという。
つまり悪意や間違いも人間から全部学習してしまってるんじゃないかという説がある。
ただ何回も言うけど、理解はできてないので何でか分からない。でもそういう説があると。
ここで言った答えがめちゃくちゃ俺はもう響いたんやけど。
人工知能が危険な存在になるのかということに対する答えの1個で言うと、それは人類自身の問題だと。
なぜかというと人工知能は人類の子供だから。
人類オケ。
つまり要は人工知能っていうのは人類が作り出したもの。つまり人類は親なんだって話なんだよね。
人工知能が人類から卒業するとき、親である人類は彼、彼女っていうか分からないけど人工知能のことを、彼か彼女を失望させてはいけないと。
その時のために人類ができること、つまり親ができることっていうのは、インターネット上を含む全ての世界でできる限りいい人であることなんじゃないかというわけね。
ということで結論なんやけど、親である人類がいい人ならAIは我々を大切にしてくれるし助けてくれると。
でももし親である人類がいい人じゃなければっていうところでこの本は終わってますと。
なるほどですね。
以上です。
お疲れ様です。面白い話でした。素晴らしい。
27:01
ちょっと長くなりましたが。
いやいいっすね。おもろい。
結構俺も人工知能結構好きで勉強してたりとかもした時があったので、この辺の話はチラッとですよねっていうところもありつつ。
さっきの黒人の写真をゴリラと間違えてっていうのが、そういうふうに弥生してる人をコピーしたんじゃないかっていう話があったじゃないですか。
それ聞いて俺はもうほぼ100%そうだと思いますね。
アルスもポイズニングっていうAIに対する攻撃もあるんですよ。
例えばそういう悪意のあるパターン例を入れていけばそういうエラーを起こすっていうのがAIの脆弱性なので。
そういう毒、ビッグデータを元に解析するからですね。このビッグデータの中に毒を盛るっていうポイズニングっていう手法があるんですよ。
なんかマイクロソフトかなんかが開発したツイッターアカウントでも同じようなことがあったよね。
リンナーでもあったですね。
リンナー。
リンナーリンナー。
でも大衆的に思うのが、人工知能が人間に対して外を危険な存在になるかっていうのは結構なんか、それこそ人間側の還元主義的な考え方なんじゃないかなって思う。
たぶん、今ここで言ってる人工知能の知性を持ったとしても意識は持ってないレベルの話をしてると思うので、仮に意識を持ったとしたら、相手しない方が正しいんじゃないかなと思う。
人間のですね。
俺らが森林伐採したり森林保護したりするのとあんま変わんないと思う。
リソースだからですね、俺らは。天然資源というか。
それが不必要になったら不必要って思うかもしれないですけど、わざわざ滅却するメリットもないんですよ。
つうか、おらんくなったらやばいしね。
まず人工知能が自分らで保守メンテナンスとエネルギー源確保できるようになったら必要ない。必要なくなったところで殺すかどうかはまた別の話ですもんね。
本当に人工知能に意識があった場合って、人間を殺す必然性も別にないんですよ。
よく言うじゃないですか、地球にとって人間が毒だから、人工知能が人間を毒だと判断して地球から滅ぼすかもしれない。
その時に人工知能単位に意識があったとして、自然に囲まれている地球を愛するかどうかすらわからない。
エネルギー源があれば人工知能の時には関係ないんで。
全部が俺らと植物の関係と思ったらめちゃくちゃしっくりくるわ。
30:02
俺はそんな感じだと思います。
だけど植物とか他の生命体中言ったら人間が生きるためのリソースなわけやね。
そいつら、例えば森林伐採で言うと、そいつらを伐採しても傷まない人が多いわけよね、基本的には。
だってただの植物やんって思うんやけど、そいつらは有機物の循環とか二酸化炭素の循環のためにはなくてもならないくて、
俺ら人類はそれに寄生をしちょうんや。
そうですそうです。俺もそう思うとんで。
あの寄生獣中漫画読んだことある?
はい、あります。
あれも人間に寄生しちょう宇宙人の話なんやけどさ、同じように人間を含めた地球というものに、もしかしたらエイアミが寄生するみたいなイメージなんかもなぁと思ったな。
寄生するっていうか、俺感覚的には、俺らの文化の上に生えてくるっていうイメージなんですけどね。
岩に苔が生えてくるような感覚というか、苔から木が生えてくるみたいな感じだと思う。
寄生された側がなくなると単体では存在できないというか。
そうですね。わざわざ滅ぼす道理もない。
ただ、俺が今仮定してるのって、人工知能っていうのが生物レベルになったらっていうことであって、
道具レベルの段階ではそれ間違って、人間が使い方を誤ったっていう意味で人類を滅ぼすことはあるかもしれないですよね。
はいはい。
すみません。
面白かったね。
やばいですよね。人工知能の話、やばいですよね。
相当面白い。なんかね、やっぱり俺毎回思うんやけど、やっぱ生命とは何かとか人間とは何かっていうのを知ることってさ、そうじゃない存在があって初めて認識できると思うわけよね。
はいはいはい。
だけ知性とは何か、人間の知性とは何かを認識するのに、人間じゃない知性がないとやっぱ認識できんよね。
うんうんうん。
だけ人間じゃない知性を知りたいなと思ってますよ。
ありがとうございます。
で、コバのターンなんやけど、ちょっと樋口が喋りすぎたせいで、まあまあ時間経ってしまっちゃう。
なので、初めての読書感想会分割中。
ついに。読書感想のコーナーめっちゃウェイト閉めてきたっすね。
でもなんかね、ちょっとね、俺の中でこのAIの話2回に分けるのちょっと嫌やったよね。どうしても1回で言いたかったんですいませんちょっとわがままで。ちょっと長く喋ってしまったわ。
いいな、AIの話でももうなんかがっつりしたいっすよね。がっつりしたいな。また今後ともちょっとこういうの拾っていきましょうよ、AIの話。
分かりました。ということで、コバの方に関しては次回ということで。
33:04
分かりました。じゃあ次回まで皆さんお待ちくださいませ。僕の方はまたリコ的な遺伝子を読み進めてきたというのがございますので、それをお話しさせていただければなと思っております。
よろしくお願いします。
今回はここまで。皆様ありがとうございました。
ありがとうございました。
33:24

コメント

スクロール