1. 研エンの仲
  2. #40 神経科学者はマイクロプロ..
2021-05-08 1:07:30

#40 神経科学者はマイクロプロセッサを理解できたのか?

マイクロプロセッサという人工物の仕組みを、神経科学者は理解できるのか?という論文を紹介しました。エンジニア・研究者2人の視点から解析手法にツッコミを入れながら、「実験によるデータの積み上げの向こうに果たして脳の理解はあるのか?」という提起に繋がる、このナイーブながら刺激的な問いについて議論しました。

Show notes

  • Could a Neuroscientist Understand a Microprocessor? PLOS 2017 ... 今回紹介した論文
  • MOS 6502 - 今回 "実験動物" となる、1975年に開発された8ビットCPU。
  • Deep Q Network (DQN) - 深層強化学習。DeepMind による DQN のオリジナルの論文 (2015) では、ブロック崩しや Pong など昔のビデオゲームがタスクとして用いられた。
  • コネクトーム - "コネクトームは神経系のすべての神経細胞が接続することでできた神経回路の全体を意味する。本来は、ある動物個体、あるいはある動物種の神経系において、全神経細胞の接続の総体を意味する概念である。しかしながら、神経系の一部で神経細胞が化学シナプスや電気シナプスで接続された局所的な接続ダイアグラム(Wiring diagram)に言及する場合にも、しばしば使われる。"(脳科学辞典) 今回2人は主に後者の意味でのコネクトームに触れています。
00:13
いや、なんか最近、ありがたいことにですね、
はい。
Apple Podcastのトップページに、理系ポッドキャストってコーナーができたの、見ました?
いや、見てないです。
そこにですね、まあ、そろそろたる他の理系ポッドキャストの中に、
研エンの仲、入れてもらえてですね、
はい、非常にありがたいですね。
はい、ありがとうございます。
ありがとうございます。
そんなに理系の話をしていない。
実はそんなに科学とかエンジニアの話をしてないんじゃないかっていう疑惑がありつつ、
もう、まあそれならしようってことで、
はい。
今回結構ね、研究に関する、まあ、初めてかな、たぶん。
2つの論文について紹介しつつ、それをネタに話すってことをしてみたいと思います。
そうですね。
はい。
なんか前、りょうへいさんに、ちょっと論文を読んでみたいんだけどみたいな感じでご相談されて、
まあ、研エンの仲っぽい論文紹介って何だろうなってことを考えてたんですけど。
なんか、研究者と、何だろう、まあ、神経科学とエンジニアリングのちょうどクロスオーバーした領域って何かな。
うんうん。
最初なんか機械学習とかかなと思ったんだけど、つまり、なんか、何だろう、
脳みたいな、まあ、知的な活動をエンジニアリングするっていうかこう、
でもなんかちょっと逆の、あの、論文をあげてくれましたよね。
あ、そうですね。私が今回、あ、これいいんじゃないって言ってサジェストしたのが、
その、神経科学者はマイクロプロセッサーを理解できるかっていう、2017年かな、の論文です。
で、えーと、まあ、これはコンピューターサイエンスというか、コンピューターのことを知ってる人と、
まあ、脳のことに興味がある人で話すと面白いんじゃないかなっていう感じで選びました。
まあ、私自身はこれ、2017年に出てから、何だろう、こう、
その時、ラボの先輩がジャーナルクラブで紹介してたのを聞いてたっていう感じで、
まあ、一通りその時知ってたんですけど、あまりちゃんと読んでなかったのもあって、
まあ、なんか、りょうへさんがすごい頑張って読んでくれたらしいんで。
そうですね。まあ、ざっくり。
いや、多分、今、私より詳しい。
この断片的な理解をもとに話します。話そうと思います。
で、まあ、これ、ざっくりどういう論文かっていうと、神経科学者とコンピューターサイエンスをやってる二人ですね。
まあ、ちょうど、懸念ですけど。
そうですね。まあ、セカンドオーサーの彼も、コーディングさんでいいかな、
コーディングさんも、まあ、かなりそのコンピューテーショナルニューロサイエンティストというか、
かなりコンピューター寄りのニューロサイエンティストです。ニューロサイエンティストの中でも。
03:02
コンピューターサイエンスをやってるわけじゃなくて?
ではなくて、まあ、あくまでもそのコンピューテーショナルのツールを開発して、神経科学者に使ってもらうというそういう、
まあ、ツール開発とか解析方法を作ったり、そういう数理モデルをいろいろ作ったりっていう、
コンピューテーショナルニューロサイエンティストっていうのが一番しっくりくるんじゃないかとは思います。
はい。まあ、この感じで突っ込みや補足を入れてもらいながら紹介しようと思うんですけど、
まあ、そういう二人が組んで、神経科学者の人たちはいろんなツールを使って、
脳は何をしているのかっていうのを理解しようと頑張っているんだけど、
脳ってのは複雑すぎて分かんないよねって。
じゃあ、仕組みが分かっている、既に分かっている、試行する機械、ここではマイクロプロセッサ、CPUを取ってきて、
じゃあ、お前たちの、よく分かんないシステムを理解するためのツールっていうのはこれに使えるんだと。
既に分かっているグラウンドツースが分かるものに適用して、
で、役に立たないんだったら、何のためにやってるか分かんないじゃんっていう、
まあ、ざっくり言うとそういう問題提起的なことをしている論文だと僕は理解しました。
結構、SF小説みたいな感じの読み味だなとは思いますね。
まあ、オピニオン論文っぽいですね、全体的に。
あまり、一応、原著論文という括りではありますが、やや。
結構ね、実際に頑張って解析というかはしているので、
ただ、言ってみたっていうだけじゃなくて、ちゃんとやってるのは偉いっていう感じではあるんですけど。
ちなみにタイトルは、Neuroscientists Understand a Microprocessor っていう、
どうすれば、神経科学者はマイクロプロセッサを理解できるのかっていうタイトルなんですけど、
なんかネットで見つけたのは、これは2004年にロシアの生物学者が書いた、
生物学者はラジオを直せるのかという論文のオマージュであるらしいですね。
そうですね。一部なんかその描写版で出てきますね。
そういう試行実験が、生物学者がラジオを生物学的に研究したら直せるのかっていう試行実験をした人がいて、
それとの違いは、彼らはちゃんと実際に壊したり、いろいろ解析したりして、
できるのかやってみたっていう感じの論文になっているということで、
多少の元ネタというかがあるっていう感じですね。
そうですね。
あと、やっぱりこのシミュレーションできるプロセッサを用いたっていうところも結構特徴的だなというふうには思いましたね。
実際にトランジスターをブチブチやらなくても、
全ての電気的な性質含め、全部それシミュレーションでできるんですよね。
それが、そんなもんあるんだってなって、私は結構そこにびっくりしました。
06:04
そうですね。
MOS、MOSって読むんですか?これ。
MOSテクノロジーっていう会社が開発したマイクロプロセッサーですね。
そうなんだ。
これを解析の対象として使いましたよと。
これは非常に有名というか、いろんなところで使われたCPUなんですね。
一番わかりやすいのは、ファミコンの中身はこのCPU元にちょっと改造して使われていますと。
あとはApple IIっていう、スティーブ・ジョブズが作った、
最初の。
最初ではないんだけど、パーソナルコンピューターとしてすごく売れたモデルもこのCPU使ってますよと。
有名なおかげで、結構それをもとにいろいろな研究したりしてるんですね。
これを分解して、顕微鏡で写真を撮ることで、
トランジスター同士の繋がりとかを再復元してみた。
それをトランジスターとかの挙動を再現するようなツール、シミュレーターですよね。
電気回路シミュレーターみたいなやつを含むと、
シミュレーターの中でコンピューターが動くと。
コンピューターの上で動いてる電気回路シミュレーターの上でCPUが動くっていう、
何やってるのかわからないことができると。
それはでもすごいことで、
トランジスターのこの部分はこのぐらいの電圧でっていう、
そのレベルまでシミュレートしてるので、
逆にこのプロセッサー、このトランジスターを取ったらとか足したらとか、
この辺りを平均するとどのぐらいの電圧だとかっていうのが、
できるようになるようなシミュレーターが、
現代であるからこそできた実験だし、
そのぐらい有名なCPUだからこそ、
こういう論文のネタにできたっていうところもあると思います。
なるほど。
ちなみにこのプロセッサーの速さは、
何ヘルツとかって言いますね、CPUの速さ。
こいつは1メガヘルツぐらいと言われていて、
僕たちの使ってるMacとかは1ギガなんで、
だいたいクロックだけで1000分の1。
1000倍遅いかつできることも非常に少ない。
例えばメモリの幅も今持ってるやつは64ビットだけど、
こいつは8ビット。
だから1回の命令で8ビット同士の計算しかできないとか、
メモリの空間も非常に狭いっていう意味で、
かなり限られたことしかできないと。
逆に言うとファミコンがその上で動いてるのは、
すごい工夫があったんだなとも思いますけど、
そのぐらい単純なマシンですと。
だからこそ、その上で多様なことができるからこそ、
この研究の対象として選んだというふうにも言いますね。
なるほど。
今回は3つのゲームをプレイするっていうところを、
行動として定義してると思うんですけど、
09:02
それがCPUの脳として捉えると、
脳ができる行動みたいなふうに、
ゲームをプレイできるってことをもって言ってるわけですけど、
それはその3つしかできないんですか?
このCPUの上で動くかってことですか?
いや、オリジナルのものはもっともっともちろん、
たくさんのゲームが動きます。
ただシミュレーターの上で安定して動いたのが、
4つぐらい試してこの3つを選んだっていうふうに言ってました。
実際シミュレーターといっても、
安定して動くとは限らないというか、
精度に限界があるのか。
実際ね、ファミコンもたまにバグるじゃないですか。
あれは電池的な経年劣化もあるし、静電気もあったりとかして、
それと同じような感覚で、
1個バグって動かなかった的なことを書いてあったと思います。
いやなんか、そもそもゲームが適切なのかなって思ったんですよ。
マイクロノーができることとして、
ゲームをするって何してるってことになるのっていう感じで、
ちょっとぶっちゃけわかんなかった。
そこがまず最初わかんなかったんですけど、
それ以外もシミュレーターでできるんですか?ゲーム以外。
それ以外もできると思います。
例えば、Apple2の上で動くExcelみたいな表計算ソフトとかも動くはずだし、
Apple2ってもう現代のPCのうち、アプリのストアみたいなのないけど、
フロッピーあったのかな?いろんな方法でプログラムを、
人が書いたプログラムを実行したりっていう仕組みがあって、
なのでいろんなことができます。
それこそ足し算したりとか、
そういうことでもよかったわけですよね、言っちゃえばね。
でも、やっぱ足し算ってちょっとプリミティブすぎるように、
多分彼らは感じていて、
で、もっと高度なってなった時に、
他の研究、例えばDQA、DQQネットワークとかでも、
結構ゲームを遊ぶとかって使われてますよね。
なんかそういうアナロジーで、
何だろう、取ってきたんじゃないかなとは思います。
なるほど、その辺はやっぱりここでゲームが出てきたっていう時点で、
これはアクションとしてゲームを想定するっていうのがちょっとよくわかんない。
ゲームはやっぱ主体じゃないですかね。
何かのアクションをする主体ではなくて、
むしろ自動的なもので、
かつ多分この実験の中ではどういう風なインプットをしたのかっていうのも、
なんか放っておいたのか、
固定のこういうキー操作を入れたのかわかんないですけど、
とにかく、何だろう、それは固定なんですね。
ある結果に合わせて何かインプットを入れるとかもしてないので、
そういう突っ込みどころはあったりはしますね。
じゃあこれって自発活動みたいなもんですかね、それと言うと。
12:02
そうですね、たしかに脳っぽい言葉で言うと。
脳っぽい言葉で言うと。
要するに、環境からの入力がないけど、
自動的に再生されるみたいな。
それは普段の脳研究でも一番難しい領域で、
まだほとんど何もわかってないことをやろうとしてる感じがややしますね。
たしかに、たしかに。
それはそうですね。
ゲームの場合は何もしてないと言っても、
キャラがどこにあるのかとか、
入力を待ち受けたりもしてるわけで、
もしプレイしてる状況のスナップショットを研究してる、
彼らが研究してるんだったら、
ジャンプしたからこのキャラが上に動くって、
みたいなことはやってるので、
そういう意味では、ゲームにとっての自発状態っていうのは、
どういうことなのかっていうのはちょっと。
私はなんとなく夢みたいな状態。
要するに、エクスターナルインプットが明確に、
なんていうか、本当はあるのかもしれないですけど、
あまり書かれてないです、その辺。
このコマンドを押したときの活動を見ました、
みたいな感じではないから、
その辺がもしかしたら、
シミュレーター上だと難しかったからなのかもしれないですけど。
それはあると思いますね。
実際、たぶんこれをシミュレーターで動かすだけでもかなり、
まず計算的にも大変だし、
その活動をすべて記録して、
そのデータをアウトプットすると、
確か1秒につき何ギガバイトとかのデータがどんどん出てくると。
それは神経でも実際そうなのかもしれないですけど、
ものによってはそんな感じですね。
なので、ちょっと今回そこまでの突っ込んだ研究はできなかったよと。
なるほど。
いろいろ突っ込みどころはあるけど、
とにかく試行実験の延長として実際にやってみたっていう、
色が強い論文だなとは思いましたね。
じゃあ何を実際神経科学の手法としてやったのかっていうのをずらっと挙げてみましょうか。
確か6つぐらいやっていて、
そのうち1つ1つは、
例えば神経科学を学ぶ大学院生とかが、
授業で必ずその実験の手法として学ぶものだよと。
すごくスタンダードな方法を使っているよというふうに主張はしています。
例えばコネクトミスクス解析とか、
損傷リージョンスタディとか、
あとはチューニングプロパティを調べたり、
機能的血道合法みたいなのを調べたり、
あるいはたくさん活動をとって次元削減したりとか、
そういったことですかね。
いろいろやっていることとしては。
このリストを見た時には、
彩香さん的には大体そんなもんかなっていう感じですか?
そうですね。
15:01
わりかしよくあるアプローチを使っているっていう感じはしました。
ただどれも1個1個すごい荒いんで。
実際ね、それ1個が本当に研究するんだったら1本の論文になるはずなのを、
一段落でやってるわけだなと。
そういう意味では仕方ないのかもしれないですけど、
でも1個1個めちゃ荒く手法を紹介するために、
データを無理に取ってきたみたいな感じになっちゃってるかもしれないですね。
一応じゃあ1つ取り出し紹介すると、
僕は一番面白くかつ一番突っ込みどころがあると思ったのは損傷研究。
そうですね。それが一番わかりやすくていいかなと。
神経科学における損傷研究っていうのは、
ある部位とか細胞の機能が損傷を受けた時にどういう…
行動とか脳機能にどんな障害が出るかっていうのを調べるような研究ですね。
なんか教科書で読んだっていう話で言うと、
鉄の棒が前頭炎を貫いちゃった。
で、ある部分だけは失われてでも生きてるっていう人がどういう変化が起こったのかっていう。
そうですね。その人は我慢強さがなくなったりとか、
なんかすぐ手が出ちゃうようになっちゃったとか、
性格が変わったっていうのが、それが前頭炎で起こったケースで、
例えばカイバが亡くなった人のケースは記憶がっていう話があったりとかして、
一番古典的ですよね。
ある脳部位がなくなったり、損傷をした時に、
実際どういう異常が起きるのかっていう。
その異常が起きたってことは、この乗り受けがおそらく必要だったんだろうなっていう、そういう感じのやつですね。
それは人でもあるし、人はなんか取っちゃったりとか倫理的にはできないけど、結果的に…
事故で起こったものに関して、動物だったらよくありますし、
特にこれは最近は、リージョンというか、実際取っちゃうとかいう乱暴なやつよりは、
リバースできるようにするようなケースが多くて、
例えば光遺伝学とかで特定の細胞を活動、活性化させたり逆に抑えたりして、
高度への影響を見るみたいな、そういう感じですかね。
神経科学ではそういうふうな基本的な研究のツールじゃないけど、パラダイムとして使われている損傷研究っていうのを、
トランジスターの上で動いてるゲームを対象にやってみたらどうなるんだろうっていうことを彼らはやったと言っていて、
何を実際やったかっていうと、いろいろなトランジスターを1個取っては壊すと、取り除く。
18:02
それでゲームの再生に影響があるかどうかっていうのを調べたわけですね。
ゲームがどう壊れたかっていうのを解析する余裕はなかったのかもしれないですけど、
とにかく再生できたかどうかに注目して、かつ3つのゲームがあるので、
3つのゲーム全てを壊すようなトランジスター。
そのトランジスター1個取っちゃうと、3つとも全てできなくなっちゃうのものと、
ドンキーコング、3つゲームあるんですけど、ドンキーコングだけ再生できなくなる。
それからインベーダーだけできなくなるっていうふうな、あるゲームだけを再生できなくするようなトランジスター。
っていうのに分類していったわけですね。
そのベンズみたいなの書いて、これは2つだけ壊す、これはこれだけ壊す、これは全然影響はない、
っていうふうなベンズを書いてみて、
じゃあこのドンキーコングだけ壊すようなものは、それを取り除いたらドンキーコングは再生できなくなるっていうことだから、
ドンキーコングのプレイに不可欠なトランジスターなんじゃないかっていうことは言えないよねっていうことを言ってるって感じでしたね。
そうですね。ただ、実際それを壊したらドンキーコングが再生できなくなるってことは、何かしらのロールは果たしてるってことは言えるっていうことですよね。
これはつまり、専修研究ではよくそういうふうな主張がされている。
例えば、ここが壊れたらこれができなくなったから、そのタスク、その機能とかに特化したコンポーネントなんじゃないかっていうことを言っているからこそ、
そうですね。そこは言い過ぎなんですよね。それはむしろ、神経科学者の方が言い過ぎちゃってるだけで、っていう感じはしますね。
ある意味、偽画的にというか、それは言い過ぎなんじゃないのっていうことを、コンピューターの世界で例えると、こんなに見当外れなことに聞こえかねないよって。
もし、例えば、将来本質がわかった時に過去の研究を振り返ったら、もしかしたらそういうことをしているかもしれないよっていうふうな主張として、こういうのが使われていると。
でも、やっぱり行動が微妙すぎて、それは何にもわかんないよねっていう、それはそうだよねって感じになっちゃうから、もう少し批判としてはいいのかもしれないんですけど、神経科学者が言い過ぎちゃうってことに関しての批判としてはいいのかもしれないけど、
でも、コンピューターのコンポーネントではあるわけじゃないですか。だから、もうちょっとビヘイビアとして定義しているゲームの内容が細かければ、例えばこれは、カーソルを動かすのには必要なコンポーネントを童貞するとか、もうちょっと個別のビヘイビアに対するコリレーションみたいなのが取れれば、
21:17
実際、このトランジスタは確かにこの計算とこの計算に役立ってるから、そういう意味でやっぱり必要ですよねみたいな結論も得られるので、やっぱりなんかタスクがしょぼいから全てしょぼくなるみたいな、そういう話な気もしちゃうな。
もう一つ思ったのは、トランジスタを1個つまんできて壊すっていうのが、たぶんシミュレーター的にやりやすかったからだとは思うんですけど、意図的にそれじゃ何もわからんだろうっていう壊し方をしているような気がしていて、なんかいろいろあるとは思うんですよね。
例えば、一番考えやすいとか、リアルのCPUを想像してあり得ると思うのは、例えば温度によってゲームを再生されるスピードとか安定さが変わったりしますよね、とか、反動体が製造不良になってたらちょっとだけ特性が違う、電圧に対する応答が違うようなCPUって現実にあり得るわけで、
脳の研究でも、その現実世界で一番あり得るような不具合、例えば脳の一部だけが取れちゃったりとか、すごい熱が出ちゃったりとかして結果的に脳全体が死んでしまったみたいなのがあったら、まずはそこから研究するのが自然かなと思うので、
なんかそういうものを積み重ねて、この脳の、このCPUのモデルを使わずに一個一個壊してみようっていうのが結構短絡的すぎるんじゃないかっていうか。
だからもうちょっとなんかモジュールとかで整理するってこともできたと思うんですよ。モジュールごとに壊していくみたいなこともできて、一個一個壊してってよくわからんですみたいなよりは、もうちょっとこう、ファンクショナルユニットみたいなのを決めた後にそこを丸ごと壊すみたいにやってた方が良かったのかなとも思いますね。
なんかちょっとメモリーを壊した方がいいんじゃないかみたいな話も。
あーそうですね、実はトランジスターだけを、結構コネクトンの時もそう思ったんですけど、なんかトランジスター同士の結合が全てを決めているという仮説に従ってこの人たちは研究していて、それもなんかこう主査的といえば主査的なのかもしれないというか、
神経科学者、僕はわかんないですけど、神経科学者の人がコネクトンっていう、コネクトンっていうのはニューロン同士の結合のグラフみたいな感じですか?
グラフというか、実際この細胞とこの細胞が結合していましたっていうのの膨大なデータベースを作ろうという。
24:04
なんかこう、CPUのこの人のやってる仮想的な実験の中では、トランジスター同士の結合で全てが説明できるみたいなモデルでやっているような気はしていて、
実際にはコンピューターって命令をどっか、ROMとかから読み込んできて、で、貯めておいて、それを一個一個解釈して実行して、その途中結果とかをメモリに書き込んだりとかもしているので、
例えばメモリの一部分を壊すとかってした方が全然面白い結果が出たと思うんですね。
出てきているドンキーコングのキャラクターの部分だけが消えるとかが出てきたら、ものすごく面白いわけじゃないですか。
でもそれはトランジスター一個壊したらできないけど、メモリの一部分を書き換えることでできるようになるかもしれない。
っていう意味では、多分僕がそういう科学者でCPUを解析するとしたら、いろいろ壊していくうちに自然に発見することだろうなと思うし、
そこをちょっと意図的にスキップしているような気はしました。
なるほど。その辺はやっぱりコンピューターのことをわかっているからならではの感想なのかなっていうふうには思って、
私はニューロンイコールトランジスターっていう感じでやってるんだろうなぐらいの感じでしか思ってなかったんですけど、
確かにメモリの方がより損傷実験とかやった時に面白そうだなっていうのを言われてみて、なるほどって思いましたね。
なんかワーキングメモリとかよく考えるとニューロンの中で起こっていることだと考えると、なんだろう。
うーん、こう…
脳としてパソコン、コンピューターを捉えるんだったらもうちょっとCPUというか…
CPUだけじゃなくて、CPUプラスメモリの役割も明らかに脳が果たしている。
それが脳の結合が果たしているんじゃなくて、脳の中の状態が果たしているわけで、
なんか単純なアナロジーはやっぱ結局はできないんですけど、
でもにしてもそのトランジスターだけを壊してわからなかったから、
まあこの方法はあんまり役に立たないよねっていうのは結構アンフェアめな評価なんじゃないかなっていうふうには素人なりに思いました。
いやまあ全体的にちょっとアンフェアなところはある。
まあだからそのオピニオン論文としてすごく面白いし、示唆的だとは思うんですけど、
でもなんかこう、やややってることが雑だなあっていう感じで、
まあ結論も結局こういう感じじゃ理解できないよねみたいな感じで、毎回それで終わってる感じ。
だからじゃあ何ができたら、何がわかったらトランジスターの機能がわかったって言えるのかっていうゴールがわかんないっていう。
で結局それは脳…ある意味通列な脳批判なのかもしれないけど、
脳が何をやったらわかるのかっていうのがわかんないものをやってるんじゃないですかって、
27:00
もしかしたらそういうメッセージも込められてるかもしれないけど、
まあちょっとあまりにもちょっと通列なところはあるかなとは思います。
なんかにしてももうちょっとせめてもうわかっているものがあるんだったら、
じゃあこういう機能がわかっていて、ここに関してはこのゲームに関してはここが大事だってことがわかってるから、
じゃあそれがこのニューロサイエンスの解説で出てきますかっていう、それぐらいせめて問いを明確にしてからじゃないと、
何がわかったのかわからんみたいな感じで終わってしまうっていうのはありますよね。
そうですね。
一応6つか7つぐらい手法が紹介されてるって言ったので、そのそれぞれについて軽くおさらいというかしておきましょうか。
1個は言ってくれたコネクトミックス?
はい、コネクトミックス解析ですね。
脳内の全てのニューロン同士の結合関係、シナプスがどこにあるかとかを調べて、マップを作るみたいな感じですけど、
CPUでそれをやると、こういうCPUのトランジスタの部品1個1個取り出す、
例えばアンドゲートとかランドゲートとかいろんな種類があるんですけど、それをマップを作ってこういうパターンがあるよねって示すんだけど、
でもこれ見てあなた脳わかりますか?って言って、わかんないですよねって言われたんですね。
それは別に神経科学者もわかってて、コネクトミックスができれば全て解決するとは多分みんな思ってないと思うので、
それは何というか批判には対しないっていう感じが正直しますね。
でも、あったらやっぱりすごく面白いし、解析してみて、
いや、実際私今モデル動物としてハエ使ってるんですけど、
ハエってほぼ全脳の、ヘミブレインって言って半分の脳ぐらいの全部のコネクトをもわかってるんですよね。
わかったんだ。
うん。
わかったっていうのは?
わかってるっていうか、それがデータベースになってるんですよ。
全部トレースしてあって、あるニューロンからある領域からある領域に投射しているニューロンに一個一個番号がついていて、
その番号を調べたから、そこに入力を送っている全ニューロンと、出力を送っている全ニューロンがわかるようになっている。
どのぐらいの強さで結合しているとか?
それも全部書いてあります。
ウェイト、何個シナプス作ってるかとかが主なウェイトの基準ですけど、ウェイトも全部書いてあるから、
全脳エミュレーションとかをコネクトオーム、ウェイトとかをそれだけを参考にして、
アナトミーだけを参考にして作ろうと思えば、できるようになってきてるんですけど、
リアルニューラルネットのオームができたと。
そうですね。
ただ、やっぱりそれだけを使って、モデルとかを作れるかとかコンピテーションがわかるかっていうと、それは結構難しいのかなという気がしていて、
30:02
それこそ、私も自分で研究してるんですけど、そういう実際の脳活動と照らし合わせつつ使っていくっていう、
そういう感じで、必要だとは思うけど、それだけでわかるとは多分誰も思ってないんじゃないかなと思いますね。
ざっくり言うと、何が難しいんですか?
なんか例えばエンジニアのすごくナイーブな直感からすると、全部のウェイトがわかったらニューラルネットみたいなものを作って、
で、適当な触地を与えて、ドーンってシミュレーターを走らせると、なんかハエがバタバタ。
そうはならないわけですね。
そうですね。それは、適切な入力をまず入れてっていう、物理的な入力を入れたときに、まず最初センソリの部分がどう反応するかっていうのがあって、
モーターからのどう、フィードバックが。だから、実際多分運動系まで含めて、感覚系運動系含めたシミュレーターみたいなのまで作れればいいのかな。
それは、なんか個体差とかもあるわけじゃないですか。それはどうなんですか?
実際これ、Nイコール1のハエ法ではあるんですけど、その点、モデル動物のいいところとしては、ほぼ遺伝子のバックグラウンドが揃ってるので、
揃っているものを使っている限りは、ある程度は当てはまる。もちろん、なんか微妙に、なんかこのニューロン3つあるはずだけど、このハエは、なんかたまたま4つあるみたいなことは、もしかしたらあるかもしれないですけど、
まあでも、あの、結構な確率で配線が一緒だから、そういう意味では使い勝手は非常にいいかなとは思います。
でも、ハエちゃんはいろいろ、なんか、生きる上で学習とかもしているわけですね。
はいはいはい。そうですね。それでウェイトとか絶対変わると思います。
まあだから、ある環境で育った、あるハエの、
ある時点でのスナップショットだけがわかっていて、それのだから、アップデーティングルールとかってあれもわかんない。
なるほど。どう変わっていくのかってわかんないし、まあ、もしシミュレーションするんだったら、そこも含めてやらなきゃいけないかもしれない。
そうなんです。そこがあるから、まあ難しいというのはあると思います。アップデートルールが全体的に全然わかってないまま、
ウェイトのスナップショットだけわかっても、結局ニューラルネットワークの学習はまあできないですね。
だからまあ、どこが難しいのっていうさっきの質問にショートアンサーするならそれかなと思います。
まあなんか、入出力もできないし、そういう変化もわかんないし、ということですね。そうですね。
一つ目の手法はコネクトミックス解析でした。
で、まあ一応サクッと解説しておくと、損傷研究ってのがあって、チューニングプロパティの研究ってのもあって、チューニングプロパティってのは入出力特性みたいな感じですかね?
そうですね。なんか外部刺激に対する応答特性とか、その神経細胞がどんな情報を保持しているのかっていうのを調べるための解析みたいな感じですね。
33:04
これなんか、目外にいろいろ突っ込みどころがあったけど、ちょっと置いておきましょうか。
ディスプレイに出力したピクセルの…
なんか、明るさ?軌道?の平均ですかね?
えーと、発火頻度でいいのかな?スイッチングの回数の相関っていう…
トランジスタの出力のところにプローブ、電極当てて、オンオフオンオフみたいな活動を測ると、ニューロンでいう発火頻度みたいなのが取れるよねっていうアナロジーで、
じゃあその発火頻度と出てきた画像、ロンキング音符だったらロンキング音符の画面に表示される画像の、どこの軌道なのかわかんないけど、軌道と、じゃあ相関があるのかな?みたいなのを取った。
それ、軌道なの?ってなりますよね。
まあ、そうですね。
なんか、もうちょっと何かしらわかりやすい特徴量じゃないとよくわかんないんじゃない?っていうのはありますけど。
でも、実際たぶん、これをものすごく洗練された手法でやっても、ものすごい精密な理解が深まるかっていうと、そうじゃないよねっていうのを用途はしてるんだと思うけど、ちょっと不十分かなと僕は思いますね。
あとは、次がペアワイズコリレーションですか?
あるトランジスタとあるトランジスタの出力っていうのが、どのぐらい同期しているのかっていう全体のパターンを見たと。
で、いろんなパターンをランダムにかな、全部取ってきたのかわかんないですけど、取ってきて、それの2つのトランジスタの出力がどのぐらい相関しているのかなっていうのをプロットして、実際ほとんど相関してないよねっていうことを言ってると。
あとは、エリア同士もやってみようってことで。
ファンクショナルコネクタ?
そうですね。この辺りのトランジスタ、1つの機能が、同じ機能が同じ場所にあるかどうかもわかんないんだけど、それでもこのぐらいの場所にあるところだったら、この機能なんじゃない?
1つの機能を代表してるんじゃないかっていう信念のもと、だいたい年月を平均して、この辺りのエリアとこの辺りのエリアはどのぐらい相関があるのかなとか、この辺りの活動を平均してずっとプロットしたら、何か周期がないかなみたいなこととかもやってみたり。
ノウハウみたいなのが見れるかみたいなことですよね、ローカルフィールドポテンシャル。
ノウハウってまさに骨越しに細かいニューロンのスパイクはわかんないけど、でもだいたい平均するとこのぐらいの変化があって、それが何Hzぐらいで20Hzとか20Hzとかそのぐらいでリズムがあるよっていうふうなことですけど、
そのまさにCPU版をやってると、CPUのノウハウを取るっていうのをやってるんですけど、なんかもっと明確なスパイクがあると思ってたけど、全然ないねみたいなことを多いって。
36:08
そうですね、だからノウハウをプロデュースするには、ちょっとこれはね、何してると機能を見てたんでしょうね。
ちょっと短すぎるかなっていうのもありますよね。
そう、多分もうちょっと、なんだろう、いろんな、やっぱり落ちるところだけ言うと、ビヘビアがよくわからんから、よくわからんっていう感じになっちゃうのは仕方ないっていう話にまた戻る気がします。
でもまぁ、なんだろう、わかりやすく、CPU、神経学者がノウハウでやってるのは、CPUで例えるとこういうことなんですよってことをイラストにしたかったっていう、そういうモチベーションは理解できるとは思いますね。
なんか図が結構いちいちいい感じっていうか、なんて言ったらいいんだろう、ニューロサイエンスでこういうのをやりたいみたいな。
それはなんか、詳細は置いといて、ざっくり似た感じの図はよく出てくるんですか?
そうですね。
確かにこのスパイクが横に並んでるやつとか、なんか見たことあるな、遠目で見ると気づかないなみたいなのもありますよね、確かに。
で、最後は次元削減かな。
ディメンショナリリダクション、ちょっと勘違いましたけど。
で、善能の活動を解析するときに、大量のデータから情報を抽出するって時、一個一個を見るのは難しいので、それを次元圧縮して、
で、その次元圧縮した空間でのトラジェクトリみたいなのを見て、ここが例えば行動と相関してますよみたいな話っていうのは、
ダイナミカルアプローチとかって呼ばれて、割かし何年くらいかな、ちょっと流行った方法ではあるんですよ。
ダイナミカルってのは何がダイナミカルなんですか?
あ、その神経活動をなんて言ったらいいんですかね、その一個一個のベクトルとして最初からこういう仮説を持って、このバリアブルとコリレートするかって感じで調べるんじゃなくて、
大量にとったデータのダイナミクスですね、どうトラジェクトリが変わるかっていうところで持って、行動との相関を見たりする。
その次元圧縮した空間の中でくるくる回るのか、どっかに吸い込まれてまた戻ったりしてるのか、どっかに発散してどっか行っちゃうみたいなのかっていうのを、
あまりバイアスというか先入観なくやってみようと。
だから私一番これが相性いいんじゃないかとは思ったんですよ。
今まではそれは仮説なかったら何もわからんべみたいな感じだったんですけど、これに関してはまだ何かあるかなとは思ったんですけど、
主要な成分に次元圧縮して、行動との相関を調べたけど、全然相関しなかったみたいなことを言ってて、
39:06
でも結局この人たちが言ってる行動ってなんなんやってところに落ちてしまって、最後まで何もわからなかったみたいな感じになってましたね。
かなり短いですね、シミュレートできたフレーム数が。
そうなんですよ、それもあるんじゃないのかなっていうのはありますね。
だからやっぱり、ベイビアのパラダイムがとにかく大事っていう話に私は感じました、この全体的な教訓というか、
これって計算手法があればいいわけでも、データがあればいいわけでもなくて、
やっぱりちゃんと設計されたベイビアのパラダイムみたいなのが大事なんじゃないかっていうことをすごく思いましたね。
一応ディスカッションでも似たような感じのことは言ってはいるけど、
でもフィッシャーはやっぱりこの主張の中で一貫してそれを支えているのは、
脳を理解する良い方法を使えばコンピューターは当然簡単に理解できるはずだっていう信念があって、
それは本当なのかなっていうのをディスカッションを読みながら思ったところではありますね。
じゃあどうやったらコンピューターを理解するために別の方法を使った方がいいと思いますか?
そうですね、ここで言われているコンピューターは、明らかにメモリとCPUっていう2つの、
結構性質的に違うものが共同して動いているのに対して、脳っていうのはよりヘテロなというか、
ニューロンっていうものがいっぱいあって、それが1つのシステムになっているっていうのがかなり大きな違いなので、
まずはそこを調べるだろうなとは思いますし、
自分がCPUの反動体を前にして何をするかなっていろいろ考えたんですけど、
今CPUの動き方に対する気を全部消して、目の前にあったとして、例えばクロックっていうものがあるわけですよ、CPUには。
あるこのCPUだと1MHzだから、1マイクロ秒に一度パッて全部のトランジスタンの値が変わるわけですよね。
それですごい面白い現象だし、脳と全然関係ないから、
そのまずはクロックに注目して、クロックの前後で何が起こっているのかとか、
そのクロックは個体差あるのとかってなりますね、当然。
どういう条件で例えば温度を高くするとクロックってちょっと上がるんですよ、そういう音もきっと調べるだろうし、
42:03
それこそどこを壊したらまずはクロックが止まるのか、クロックが半分になる部位とかもあるだろうし、
それはまずは外側から電極をパッて当ててすぐ分かることじゃないですか、それこそノウハウと同じですよね。
全体の電位の変化っていうのを聞くと、なぜか1MHzでパキパキパキパキってパルスがあるってなったら、
まずはそこを中心に考えるし、その前後で電気的に変わっているところと、
つまりメモリみたいな中に保存されているっていうのは結構、
自分が僕がメモリが何か知っているから出てくるはず。
でも明らかにメモリとCPUっていうのは違うものだってことはだんだん気づくと思うんですよ。
で、その間に情報のやり取りがなされているっていうところから攻めていくとは思いますね。
なるほど、なるほど。
だからやっぱりある程度の細かく情報を積み重ねていってっていう感じにはなりますよね。
だいたいのやっぱパラダイムの理解があるって、やっとここで紹介されているツールを使って意味があることが出てくるのかなとは思いますね。
だからやっぱり先行研究のリスペクトとそこから導き出される仮説が大事みたいな話になるのかなと思います。
仮説が大事っていうことに関して、すでにブログを日本語で書かれている方々がいまして、
鈴木さんと丸山さんかな?っていう。
丸山隆一さんっていう方のブログを僕も見ながら結構参考にさせていただきました。
そうですね、はい。このすごくわかりやすくていい記事。
結構力作ですね。
はい、とてもいい記事だと思うので、ぜひ皆さん読んでいただきたいなと思うんですけど、
彼らの主張としてはやっぱり仮説が足りないんだっていうことをすごいおっしゃっていて、非常にアグリですね、これに関してはね。
もう一つ付け加えるとしたら、やっぱりビヘビアのパラダイムが大事。
これは仮説が大事ともすごく近い話だと思うんですけど、それは最近すごくニューロサイエンス界隈でもホットになっていて、
全能イメージングとかかなり流行ってきてるんですよ。
今もう大量のデータが取れるようになってきて、そういう技術開発とかってお金もいっぱい付くし、いいとこに論文出るし、いいことばっかりなんで、やっぱりみんなやる人多いんですよね。
で、やる人多いって言ったら変なのは、それはそれですごい大変なんで、まあ、ただまあ持ち上げられるというか、やっぱりいい雑誌に通る条件みたいになっちゃうんで。
そうですね、ニューロサイエンスというか、脳のデータがないとやっぱりいいところには通らないっていう経緯があって、
もっとでもちゃんとビヘビアやろうよっていうそのオピニオンペーパーみたいなのをイエール・ニブっていう教科学習で有名な研究者が書いていて、
45:08
なんかすごくそのオピニオンペーパーとかを思い出しましたね、私はこれを読んで。やっぱこれ、
こうビヘビアのパラダイム、何を解きたいのかっていうところをかなりクリアカットにするような、
そのうまい系を作って、入出力の条件を統制しないとやっぱりよくわかんないし、それは少なくともゲームの再生ではなかろうという。
まあ確かに。
まあコンピューターを理解する上でもおそらくそれではなかろうというところは思います。
で、さっきのりおやさんの話を聞いても改めてやっぱりそこじゃないよね、最初にやるとしたらっていう。
まあまあなんかこう、人間はやっぱりこう、入出力して学習したりとか、世界にいてこそなんか人間じゃんっていうのと同じようにコンピューターにとって自然な行動はゲームだったって主張はできるのかもしれないですけど、
まあなんか、じゃあそれをこう人間の理解する方法を適用してそれが何か正しいかって確かめるテストベッドにはなってないよねっていうのはありますね。
まあそこは彼らも微妙に言及していて、まあちょっともっとシンプルなタスクを使った方がいいとは思うんだけど、みたいなことはまあ一言言ってる。
まあでも、それこそ人間もそうやってリッチな環境下にいるわけだし、まあそういったものでもいいよねみたいなことは言ってはいるんですが、結局だからそれがゲームをするってことが脳にとって何なのかっていうところがよくわからないっていうところですかね。
まあ何らかの計算をしてるっていうことにはなるんでしょうけど。
やっぱりある程度パラメーターのナローダウンなり、こう見たい仮説、まあ結局何回も言ってる通りゴールがわからない。
何がわかったらわかったことになるのかっていうところが、そのコネクティビティに関しても、どれに対しても関しても、まあ目標がなかったっていうところが一番ネックになっているのかなとは思いますね。
ちょっとニューラルネットワークの話とかもしたいんですけど、この論文からどんどん離れていく前に、一応評価したいというか面白いなと思ったポイントとしては、ちゃんと回路シミュレーターとかを使って、
まあ現実にはそんなにCPUって、例えば漏れ電流があって、その漏れ電流は無視できるほどに小さいけど実は全体の影響に不可欠だったみたいな話はないわけですよ。
でもちゃんと電流のシミュレートしてるからこそ、もしそういうのがあったとしたらそれがわかるような、
それは単にこの回路はANDだから、これとこれがONだったらONみたいな、そのレベルじゃなくて回路としてシミュレートしてるから、それは割と偉いなというか、
48:02
それがあったからこそ、CPUのノウハウみたいな大胆なことも本当にやったのと同じぐらいの精度でできたっていうのは非常に頑張ったポイントであり、かつ意味のあることなんじゃないかなと。
いや、めちゃくちゃ頑張ってるとは思います。いろいろ、私はbehavior部分についてひたすら批判はしてましたが、
まあでも、やっぱりそれが一番可能なことだったんだろうなと思うし、
まあその一個一個のデータ取得とか解析に関してはある種お手本的な感じはしますよね。
これをもっとちゃんと一個一個目標を決めてやれば結構教材になるんじゃないかなと思います。
一個一個のコンピテーショナルメソッドで、これをやるとこういう結果が出てきますっていうのが一個一個ちゃんと対応する形でできるんだったら、
まあこれはきっといい教材になるし、そういうコンピテーショナルメソッドが新しく使えるかどうかっていうのをテストケースとして、
今って新しいそういうメソッドを使ったりすると、すでにパブリッシュされたデータを再解析したりとかっていう、
結局答えがわからないものを再解析するみたいな感じになることが多いと思うんですけど、
それをまあもうトランジスタでやるみたいな、そういうパラダイムはできてもいいし、そういう意味ではすごくなんだろうな。
まあオピニオン部分もそうですし、実際今後のそのコンピテーショナルニューロサイエンス教育に使えるとか、
そういうバリデーションに使えるみたいな、メソッド開発っていう意味ではすごい良い論文だと思います。
残念なのは回路シミュレーターを押しても結局、コンピューターってそこまでやっぱり面白いシステムではそういう意味ではないというか、
妙にちょろちょろって漏れてるここは実は大事だったんだみたいなのがないから、
普通に動かしてる分には普通に動いちゃってるっていうのは結構、もうちょっと面白い壊し方があったんじゃないかなと。
シミュレーターを作ったからこそできる壊し方みたいなの。
例えばその三導体の不純物を増やしつつとか温度を上げるとかっていうのもできるわけですね。
それとドンキーコングの青が赤になったら、すごくこう、それを研究している人としては多分面白く思うんだろうなと思うし、
だからそういうところをもっと放り下げても、せっかくね、頑張ってシミュレートしたし、いいんじゃないかなと思いますね。
同じくらいの労力で生きるはずですかね。ちょっとパラメータ変えるだけで。
確かに確かに。
はい、まあそんなところで。
そんなところでこれに関しては、いやでもそのさっきの話の続きで言うと、
なんかそれこそ、もうそのシステムがある意味ある程度ロバストで動いちゃうからとか、
まあその、なんだろうな、ある種単純なシステムだからっていう話をさっきちょっとされたと思うんですけど、
そういう意味でニューラルネットワークを使うっていうのもすごくいいんじゃないですかね、このアプローチを使う。
51:04
でも僕のディスカッションのところを最初に読んで初見の感想は、
いや、CPUでやらずになんかニューラルネットでやった方が絶対いいじゃん、
入力があって出力があって学習するんだからみたいな。
でもよく考えたら2017年って結構微妙な時期というか、
まあでももう出てきたからさすがに。
もう出てるし、全然多分そういう研究も始まって、
なんだろう、ニューラルネットワークである機能を実現して、
それがその農活動と相関が見られるとか、そういうのはもうすでにあったはず。
ただまあ、彼らが多分なんでニューラルネット使わないのかって言ったら、
結局ニューラルネットもブラックボックスでどのニューローがどの機能をしてるかっていう答えがないからなのかなっていう感じがややしわしますね。
一応最後まで言うと僕が思ってたのは、GPT-3とかそういう高度なタスクができるような、
学習するニューラルネットワークに対して同じようなことをすればいいんじゃないか。
いやそれ絶対誰かやってると思うんですけど、まだ見つけられてなくてまさにそれをやってるっていうのは、
そのなんだろう、GPT-2かな、2とその農活動の相関を見たりしてる論文を私ちょっと紹介したと思うんですけど、
そういう、何だろう、研究はありはするんですけどね。
そういうのはありはするけど、例えばこうもうちょっとリージョンスタディとか、
なんかこのGPT-3のここを壊したら、急にこれができなくなる、このタスクができなくなりましたとか、
そういうのはやってるのかな、やってる人いるんですかね、どうなんですかね。
なんかちょっと軽く探した限り出てこなくて。
まあちょっとそれは割となんだろう、こうバーチャルな話すぎて論文化してもSFとして面白くないっていうのはあるのかもしれないですね。
それはあるかもしれないですね。
いや個人的には一番いいのはDQNとかであたりができなくなるとかそういう話。
DQNっていうのはちなみに。
ディープ級ネットワークで、教科学習をそのディープニューラルネットワークにやらせるっていうやつなんですけど、
それでそのゲームが、ピンポンゲームとかができるようになりましたっていう、
画面だけから正しいプレイ方法を学べるようになりましたっていうのを。
ルールとかも教えてないし、
ただお前はこのスコア増やせって言って、あるゲームの与えられて、
そのゲームを繰り返し繰り返しプレイするわけですね。
どうやらこういう操作をすると、こういう点が増えるらしいっていうのを学んでるのか学んでないのか言えないとこだけど、
学習ができてスコアが上がるというのがDQNっていうことですね。
それと近いアルゴリズムで作られているのがアルファ5っていうのもありますよね。
54:05
アルファ5、アルファゼロの方じゃないですか?
ルールが分からなくてって。
そうだね、ルールが分からなくてっていうのはアルファゼロで、
アルファ5は5に特化して、そういうことで盤面を覚えて、
で、あるスコアを上げていこうっていう、そういうやつですね。
確かに。アルファ5に対して同じことをやったら、
こう、対局を司るレイヤーみたいなとか、ある領域みたいなのが本当に分かるのかっていうのは面白いし興味ありますよね。
だから、ここの素子を壊したら、ある程度こういう推論とかまではできるんだけど、
この手までは読めなくなっちゃうとか、その辺とか分かったら普通に面白いなとは興味としてはあるので、
やってるんじゃないかなと思いますけど。
AI研究の人たちは結構切実に説明可能なAIを作りたいとも思っていて、
で、やっぱりディープラーニングになって、一番難しくなったのは、
結局なんで動いてるのかとか、どうしてそういう判断したのかっていう説明の解釈が難しいと。
説明可能、解釈可能なAIっていうのは難しくて、
説明可能なぐらいまで単純化したAIにするっていうアプローチもあるけど、
でもあんまり上手くいってるように僕には感じられないんで、
ディープラーニングした結果のニューラルネットワークを頑張って説明、解釈しよう。
タスクのできることとか、複雑性は下げないまま説明できるようにしようっていうのは、
AIの人は頑張ってるけど、待てよとか、そこにプロがいるじゃないかっていう感じで、
ニューラルサイエンスと登場っていうのは結構面白い方向性かなと。
割り出し何人かやってる人はいるんですよ、既に。
ディープラーニングを、逆に能的な手法を使って理解しようみたいな方向もあるはあるんですけど、
でもやっぱり性能を上げていくことが、ある種機械学習業界全体の最適化パラメータになってるわけなんですよ。
メタな言い方をすると。
そうすると、何だろう、あんまりその中身を理解しようっていうことをやる暇人は、やっぱ神経科学者からしかいなくて、
意識学者は逆にそんなにディープニューラルネットワークの中身を知りたいというよりは、
脳を知りたくてそれを使うって形だから、どっちかというとだから、
脳でできるようなタスクをできるようなディープニューラルネットワークを作って、
例えばここを損傷したらこういうことが起きて、じゃあこの領域とこの領域っていうのはある種、
なんていうか、ユニットとして近いよねみたいな、そういうシミュレーティッドリージョンって呼ぶんですけど、
ニューラルネットワークを作ってあるタスクをさせる、人でこういうタスクができる、それぞれここがおそらく何とかっていう脳部位に対応するだろうみたいな、
57:10
ここがニューラルネットワークの、ニューラルネットワークを例えば2つとか連結させたりするわけですよね、
ここにリカレントニューラルネットワークがあって、ここにフィードフォワードがあって、こっちを壊した時にこういう異常が起きますと、
じゃあ人の脳とかでもここに異常がある人はこういう行動が起こりますよねみたいな感じで、
例えば自閉症の説明をするようなモデルがあったりとか、そういう研究っていうのはすでにあるんですよね、
やってることはやってるけど、本格的にこの論文ほど、細かくあらゆる方法を用いて、
DQNというかディープニューラルネットワークを理解しようっていう論文は私はまだ見たことなくて、
ぜひ聞いてる人で知っている人がいれば教えてください。
この1テーマに絞って、いろいろツッコミどころは多かれども、ここまでいろいろ試してみたっていうのは、
議論を投げかけるっていう意味でも非常に良い論文だなとは思いましたね。
おそらくこの著者じゃないかもしれないですけど、そのうちGPT-3に同じことをやってくれる人はいるんじゃないかなという期待。
あとは何だろう、極称的に正しくなかったりツッコミどころが多くても良い論文っていうのはあるんだなって。
そうですね、それはあると思います。
こういう良いかつふざけてるじゃないかの論は結構多いんですか、研修系科学のところで。
いやいや、そんなに多くない。
そんなチャランプランな業界ではないぞって。
そんなに多くないです。これは結構特殊な論文だと思いますね。
バズってたような気がする。
これはバズってましたね。
まあ、面白い論文だなというふうには思いますし、結構いろんなフィールド全体に投げかける質問としては良かったんじゃないかなとは思います。
まあ、こんな研究ばっかりでも仕方ないんだけど、でもたまにあるのはいいんじゃないですか。
非常に良い話ですね。
ちなみに、2番目の著者の人は結構他にもいろんな論文を書いてるっていうふうに、ちょっと昨日みたいな気がしたんですけど、グーグルスカラーで。
そうですね。
どんな人なんでしたっけ?コンラッド・ポール・コーディングさんかな?
彼はコンピューテーショナルニューロサイエンスのサマースクールとかも企画したりしていて、非常にフランクな人で、
私もなんかツイッターでやり取りしたことあるんですけど、彼が主催したサマースクールに参加しようかなと思ってて、
1:00:02
ちょっと質問があったから投げかけたら普通になんかいろいろ会話をしてくれて、
かなりオープンサイエンスでコンピューテーショナルニューロサイエンスをいろんな人に広めたいみたいな気持ちは熱い人だと思います。
結構ね、グーグルスカラーで見る限りでも、なんだろう、こう、バズりそうなというか、なんでしょうね、なんかちょっとこう、
いや、射程広く撮りすぎじゃない?大丈夫?みたいな。
タイトルをね、読むと特にそう感じるのがあるかもしれないです。なんか気になるのありました?
あー、いろいろある。一番なんか引用回数が多いな。
ベイジアン・インテグレーション・インセンス・リモーター・ラーニング。
なんか真面目な内容ですね。
単純な内容ですけど、そんな一言で言えるほど、こうやってるのかってすごいな。
いや、まあ、短いタイトルであればあるほどいいみたいなのもやっぱりあるから。
なるほど。
あと、ディシジョン・セオリー・ワッシュズ・ザ・ナーバス・システム・ドゥ。
ナーバス・システムって何なんだ?サイエンス。
ナーバス・システムっていうのは神経系ですね。
あー、そっか、ナーバスってなんだろう、心配症のっていう意味だけじゃなくて、普通に神経系の。
そうですね。
それは普通に英語として知らなかった。
まあ、確かにそれが語源というか関係あるんだろうな、神経。
あとなんか、モバイルフォン・センサーが
あ、そう、これ気になってるんでしょうね。
鬱の症状の深刻さと相関しているっていう。
モバイル、スマホの加速度データから鬱の状態がわかるっていうのを真面目にやってるのかな。
そう、この人結構、何だろう、出した、これもJMR、私も出したことある雑誌に出してるやつで、
さっきのコンピュテーショナル、プロスコンピュテーショナルバイオロジーかとかなんで、
結構、出してる雑誌が一部かぶってたりはするという、そういうなんとなくの親近感があるというか、
ここに出す、何だろう、チョイスが理解できます。
プロスコンピュテーショナルバイオロジーに出すのはすごく理解できる。
こういう論文は。
だし、これがJMRに出てるのもすごくわかるし、全体的にチョイスに納得感がありますね。
まあ、でもやっぱりタイトルが全体的にすごい、こう、ジェネラル。
こう、まあ、ちょっと話で聞いてみようか、みたいな。
突っ込みに行きたくなるっていうのは、論文のいいタイトルの条件なのかもしれないですね。
まあまあ、そこは、そういう、ある種戦略的にやってるじゃないですかね、おそらく。
まあ、このタイトルも結構、結果的には、こう、わかんない、ツビタイトルなのかもしれないけど、
実際、僕ら読んですごく議論しちゃったんで、非常にいい論文だったんじゃないかなと思いますね。
ちなみに、なんか、こう、SFに小説に近いなって言ったんですけど、実際結構ね、近い設定の小説を読んだこと変わって、
1:03:03
ちょっと紹介をしたと思うんですけど、テッド・チャンっていう人が書いた、
いぶきっていう、SFですね。
で、その表題作、まあこれは短編集なんですけど、いぶきっていう、すごく短い、20ページぐらいじゃないかな、短編があって、
それはまさに、まさにじゃないけど、ロボットが自分自身を医学する、神経科学するっていう、
で、どういう風な仕組みで動いてるかってことを研究するロボットが出てきて、
なんか、だんだん自分の思考が遅くなってるような気がするって気づくんですよね。
で、なんか、そのロボットはこう、空気圧を利用して動くんだけど、
まあ、その空気圧って動く、こう、なんだろう、金箔みたいなちっちゃい粉のピラピラが、
実際にはそれは神経の意識を作っているものだったっていう設定。
で、当然その空気圧がシューって、こう、なんだろう、板みたいなものを通るときに、
金箔をピラピラ動かすのが意識の源だってことなので、
空気圧がだんだん少なくなってくると、考える速度も遅くなってるし、
空気がなくなったらどうなるんだろうっていうことですね。
それと、なんで死んじゃった人は元に戻らないんだろうっていうのを考えるわけです。
非常になんかこうね、切ない良い話なので、ぜひ読んでみてください。金箔の人は。
もう一つそういうAIを医学するみたいなので言うと、
愛の遺伝子、AIの遺伝子っていう漫画があるんですけど、
その本は結構そういうヒューマノイドがいる世界で、
全て人の脳をシミュレートしたニューラルネットワークみたいなのが、電脳ですよね。
電脳が入ったヒューマノイドのお医者さんが主人公です。
で、いろんな患者さんが来て、実際、人と機械の間みたいなところに生まれるドラマを描いていくみたいな感じなんですけど、
それもちょっと思い出しましたね。
結構こういうのは面白いというか、
ニューラルネットワークにしろ、コンピューターにしろ、それらがもし将来的にそうやって生命体として生きていくとしたら、
それを理解しようとする人は必ず現れるはずで、治療したりしていこうっていう動きは絶対出てくるはずなので、
わりかしそれは面白いアプローチなんじゃないかなと思います。
これから増えてほしいですね、そういうニューラルネットワーク研究みたいな。
全体的にそういういろんな思考をインスパイアしてくれるいい話だったんじゃないかなと思います。
ということで今回は、神経科学者はマイクロプロセッサーを理解できるのかというタイトルの論文を紹介しつつ、
1:06:04
後半半分以上はヨタ話というかでしたけど、
非常にいい先のつまみ論文というかね。
いや、ほんとそうだと、私が初めてこの論文を聞いたときは、ラボの先輩がジャーナルクラブに紹介してくれたんですけど、
その人はもうノリノリで、多分普段とは違う楽しい感じでやってくれたんで、そういう論文ですね。
まあ、そんな感じでまた楽しい論文、もしくはまた違う感じの論文や研究が見つかったら、
こんな感じで報告しようかなと思いますので、またぜひ聞いてください。
そうですね、ちょっと初めての論文は、本の紹介とかはやってましたけど、論文紹介は初めてだから、
こんなんでいいのかなと思いながら。
まあでも我々は雑談してるだけじゃないんだぞということをたまに示さなければならない。
今回やったので、あと30回ぐらいは雑談しても大丈夫かな。
また科学ポッドキャストに入れてもらえるかなって。
はい、じゃあまた次回もぜひ聞いてください。
はい。 それではさよなら。 さよなら。
01:07:30

コメント

スクロール