1. 近藤淳也のアンノウンラジオ
  2. #54 AI技術は専門家にもわから..
2024-09-26 1:49:57

#54 AI技術は専門家にもわからないことが多い?「行動できない」個性を活かした進路|長瀬准平さん

spotify apple_podcasts

今回のゲストは電気通信大学で研究を行う長瀬准平さんです。数学やAIの研究を専門にされてきた長瀬さんに、最近のAIや長瀬さんの専門性についてお話いただきました。

また「考えるより先に行動するのが絶対に正しい」と断言されながらも、考える仕事をされている背景についても伺いました。


【ゲスト】

長瀬准平さん


【ホスト】

近藤淳也

株式会社OND代表取締役社長、株式会社はてな取締役、UNKNOWN KYOTO支配人、NPO法人滋賀一周トレイル代表理事。トレイルランナー。ときどきカメラマン。 2001年に「はてなブログ」「はてなブックマーク」などを運営する株式会社はてなを創業、2011年にマザーズにて上場。その後2017年に株式会社ONDを設立し、現在もITの第一線で働く。

⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠https://ond-inc.com/⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠


【UNKNOWN KYOTOについて】

築100年を超える元遊郭建築を改装し、仕事もできて暮らせる宿に。コワーキングやオフィスを併設することで、宿泊として来られる方と京都を拠点に働く方が交わる場所になっています。 1泊の観光目的の利用だけではなく、3泊〜1ヶ月以上の長期滞在される方にも好評いただいています。

⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠https://unknown.kyoto/⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠


【おたより募集中】

メッセージや質問などを募集しています。こちらからお送りください!

⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠https://forms.gle/rSjtTesStpe4s3BW8⁠⁠⁠

サマリー

このエピソードでは、数学とAIを研究する長瀬准平氏がゲストとして登場し、彼の研究とデータサイエンス教育について話します。特に、真相学習や機械学習に関する最新の進展や課題が取り上げられ、AI技術の理解の難しさについて考察します。AI技術の進展により、機械学習や深層学習が様々な分野で活用されているものの、その内部で何が起こっているのかは依然として多くの謎が残っています。深層学習モデルがどのように予測を行うのかの理解は難しく、結果とその過程の間にはギャップが存在します。AI技術の進化に伴い、専門家でもその仕組みや限界を完全に理解することが難しくなっています。このエピソードでは、生成系AIがどのように学習し、情報に基づいて答えを生成するのかに関して、長瀬准平氏が洞察を提供します。長瀬准平氏はAI技術の研究における数学の重要性や、ディープニューラルネットワークの構造について語ります。彼はAIが持つ無限のモデルの違いを理解することやネットワークの性質を整理する研究に取り組んでいます。 AI技術における専門性について議論し、Googleのページランクやネットワーク理論など、データ解析とその応用に関する観点が紹介されます。また、倫理的な問題を考慮した脳の研究やAIモデルの整理に関する現状にも触れられます。長瀬准平氏は、自身の進路を考える中で「行動できない」自分の個性を生かし、大学院での研究や博士号取得に至った経緯を語ります。行動の重要性や、考えすぎることが合理的ではないという視点も提供されます。 長瀬准平氏が自己のコミュニケーションスキルや個性を認識し、AI研究の意義について語ります。彼は行動できないことや自己理解の重要性を深く掘り下げ、暗黙知や未科学という分野に情熱を持っています。長瀬准平氏がAI技術の理解とその影響について考察し、行動を通じて得られる経験の重要性を語ります。また、AIベンチャーの現状や経済的側面についても触れ、行動し続けることの価値を強調します。AI技術には専門家でも理解しきれない複雑な側面があり、今後の進路選択にも影響を与える可能性があります。長瀬准平氏が自身の経験を交え、行動できない個性を生かす方法について語ります。

長瀬准平の自己紹介
スピーカー 2
近藤淳也のアンノウンラジオ。
こんにちは、アンノウンラジオです。
今日のゲストは、数学やAIを研究されているという長瀬さん、長瀬准平さんにお越しいただきました。
こんにちは。
スピーカー 1
こんにちは。
ようこそです。
スピーカー 2
ありがとうございます。
先ほどね、初めてお会いして、初めましてだったんで、ちょっと僕も初めましてっていう感じですけれども。
スピーカー 1
あんまりないですか、初めましては。
スピーカー 2
そうですね、アンノウンに滞在している方にお声掛けして、ちょっとどうですかみたいな事前の知り合う過程があることが多かったんで。
今日はね、ちょっと人のご紹介で、あなたたちちょっとラジオ撮ってみたらどうですか?
スピーカー 1
レアケースだったんですね。
スピーカー 2
感じだったんで、ちょっと本当に初めましてというか、いろいろ教えてくださいっていう気持ちで収録に臨んでおりますが。
アンノウンはもうでも何日か既に泊まっていただいている。
スピーカー 1
そうですね、多分4泊とかさせてもらいました。
はい。
周りの京都の街並みというか含め、なんか久しぶりにめっちゃ静かな、どこでゆっくりしたなって感じ。
普段はもう都内なんで。
スピーカー 2
はい。
スピーカー 1
なんか騒がしいなみたいな感じなんですけど、京都いいなと思って。
そうですか。
また普通に泊まりたいなと思いましたね。
スピーカー 2
よかったです。今回は学会で来られてるんですか?
スピーカー 1
そうですね、今回は学会で。
何学会ですか?
日本応用数理学会。
スピーカー 2
日本応用数理学会。
スピーカー 1
という学会の年会、毎年9月ぐらいにやってるんですけど、会場は毎年バラバラで、今年はたまたま京都だったんで、紹介いただいて、そういえば京都、泊まれるやんと思って、泊まらせてもらったって感じですね。
スピーカー 2
なるほど。大丈夫でしたか、滞在は。
スピーカー 1
そうですね、なんか久しぶりに、何て言うんですか、ちょっと言い方あるですけど、なんかおじいちゃんおばあちゃん家みたいな、昔ながらの家みたいな感じの感じで、そうですね、だいぶリラックスしてましたね。
スピーカー 2
よかったです。古い建物なんで。
スピーカー 1
これ余談なんですけど、たまたま僕の研究室の先生があの京都知ってて。
え?なんで?
なんか誘惑をリノベしたのと、1階にワーキングスペースがある場所みたいな感じで、先生も知ってて、近くに梅雨あるよねみたいな感じで。
来られたことあるってことですか?
スピーカー 1
取ろうと思ったけど、直前ではいっぱいあったから泊まらなかったけど、みたいな感じで、なんかめっちゃ知ってて。
スピーカー 2
結構先生ってことは上の方じゃないんですか?
スピーカー 1
そうですね、もう50代後半とかの先生なんですけど、結構サウナ好きだったり、いろんな近く施設とか好きな先生なんで、なんか話してたら、え、それ庵野の京都ですか?みたいな。
僕そこ泊まりますよみたいな感じで、結構先生にも知られているかもしれないです。
スピーカー 2
ああ、そうなんですね。それは光栄です。
じゃあちょっとね、そもそもどういう方なのかっていうことで、じゃあ軽くまず自己紹介からお願いしてもいいでしょうか。
スピーカー 1
名前も出るですよね。
長瀬潤平と言います。
出身は栃木県で、栃木と言いつつ一番南の方なんで、田んぼしかない、何もなくて、あんまり県民意識もないんですけど、
割とすぐ都内、栃木って言うと驚かれるんですけど、都内出やすいような一番近いところに住んでたんで、大学は柴原工業大学で大宮キャンパスなので、埼玉の大宮まで出てきていて、
柴原工大で4年間数学というか数理科学を学んで、そのまま都内出たりとかもしてたんですけど、基本埼玉、都内、栃木あたりを行き来してる生活で、
その後大学院に柴原工大で進学して、修士博士と5年間、数学だったりAIだったり、最近流行りの機械学習だったりっていうものをちょっと数学的に研究するみたいな学生生活を送り、
今は電気通信大学のデータ教育センターというところに去年の4月からですね、着任して今2年目になります。
なので社会人歴で言うと2年ぐらいなんですけど、ちょっと大学院時代にインターンとかで結構いろいろ企業の研究所行ったりとか、いろいろしてました。
データサイエンスの教育
スピーカー 2
なるほど。じゃあお年は?
スピーカー 1
今、20代ですね。
スピーカー 2
若いですね。
スピーカー 1
じゃあどうしようかな。どんなことをされてるかをまず聞きますか。
本業研究ですかね。
本業自体はデータ教育センターというところにいるので、データ分析の講座を作ったり教材を作ったりとか、
あとは最近全国的にデータサイエンス教育を普及しましょうみたいな話があって、そういうのを推進したりするっていうのが一応本部でやってます。
あとは実は電気通信大学、社会人向けのデータサイエンス講座みたいなのをやっていて、
めちゃくちゃ高校で電通大の宣伝してもあれなんですけど、そういう講座をやっていて、それの運営のお手伝いとかも自分の仕事としてやってるって感じです。
スピーカー 2
そうなんですか。データサイエンスっていうのは何ですか?情報工学とかとは違うんですか?
スピーカー 1
最近そうですね、たぶん2010何年ぐらいから結構流行ってるんですけど、結構統計とかは前々からあるんですけど、その統計のモダンな統計というか、
最近結構注目されて機械学習とか呼ばれるような分野とか回帰分析とか、そういうのをちょっと最近そういったものをまとめてデータ分析とかデータサイエンスとか呼んだりするんですけど、
データ集めて何か未来の情報を予測するとか、データ集めてその統計的な傾向から、
そうですね、何かを予測するとか分類するとかいうのが基本的な機械学習、データサイエンスのやることかなと思います。
よく例題でされるのだと、今日の温度は何度だからおそらくお弁当はいくつ売れるだろうみたいなのを予測してモデルを立てて、それに合わせてお弁当作るとか、
そういった分析をしたりマーケティングの分析をしたりとか、そういうのがデータサイエンスとかデータ分析とか呼ばれたりしますね。
ある種AIも何かかなり広い言葉ですけど、AIって言ったときに最近はかなりデータサイエンス的なことを指していることも多いのかなと思います。
スピーカー 2
なるほど、だいぶ産業に結びついてそうな印象ですね、そういう風に。
スピーカー 1
サイエンスって言葉ついてるんですけど、結構データ分析、あんまり必ずしも学術的な内容ではないかなっていう気はしますね。
何かデータサイエンスって言われて、ちょっと自分もデータサイエンスの歴史とか、データサイエンスの専門家じゃないのでデータサイエンスの歴史とかはわからないですけど、
データサイエンスとかデータサイエンティストと呼ばれるような仕事が最近もてはやされていて、それの社会人向けにこうやって機械学習のモデル作りますよとか、
こうするとデータをビジネス活用できますよとか、実際に社会でこういう事例がありますとか、
企業さんでこういったデータ分析のプロジェクトが立ち上がって、こんな風にビジネスにデータが使われてますみたいなそういった話を、
僕が全部やるわけじゃないんですけど、企業の人とか呼んだりして講座としてやってるって感じですね。
スピーカー 2
なるほど。確かに気温とかいろいろ駆使したらお弁当の売り上げがあれば、いろんなお店とかでいいだろうなと思うんで、
スピーカー 1
ビジネス側のニーズってのは大きそうだなと思いますけど、そこの解決法としては主にそういう真相学習みたいなことが手法として使われてるんですか。
そうですね。真相学習はめちゃくちゃ、なんだろう、データサイエンスの一分野でしかなくて、
データサイエンスって大きい分野があって、機械学習っていうちょっと統計的な、数学使ったり予測、いわゆる予測をしたりするっていう分野があって、
その中の一つに、ディープニューラルネットワークと呼ばれるものとか、真相ニューラルネットワークと呼ばれるようなモデルを使ったものが真相学習って呼ばれることが多いかなと思います。
真相学習の研究
スピーカー 1
自分は特任助教ということで、データ教育センターに特任で着任して人気があるんですけど、助教の先生は言ったらまだ一人前の先生ではないと。
博士を取ったので一人前の研究者ではあるけど、一人前の先生となる、ちょっとこれは僕の主観も入ってるんですけど、一人前の先生ではないから、授業は持たせてもらえないし、もちろん研究を頑張って、
自分の業績を上げて、人気のない教員に頑張って上がっていきましょうみたいなポジションだと思ってて、なので結構さっき言ったデータサイエンスの講座とかやるのと合わせて、
スピーカー 1
自分の研究も結構頑張ってくださいっていうふうに言われていて、僕はさっき言った機械学習の中の一部の真相学習っていう分野が最近すごい流行ってまして、
画像解析も流行ってるし、自然言語処理も流行ってるし、チャットGPTとか色々ありますけど、いわゆる最近AIって呼ばれてるものとか、すごい急に性能が上がったなって言われてるものの、
根底の技術には結構真相学習的なものがあって、2012年、2015年ぐらいからすごい急に発展してるんですけど、
それなかなか理論的なことが解析されてない、数学的なこととか理論的な仕組みみたいなのってかなりまだ分かってないギャップがありまして、
ちょっとそれ気になるなっていうことで、僕は学部ぐらいからなんで、2017年、8年ぐらいからわりとずっとその分野で研究してるっていう感じになりますね。
スピーカー 2
なるほど。じゃあ本当にそういう真相学習って言えばいいんですか?
はい、真相学習。
その辺りをずっと研究されているっていう。
スピーカー 1
ちょっとかっこよく言えば、真相学習の理論とか真相学習の原理解明、数学的な研究みたいになりますけど、
日本にはその分野で素晴らしい先生たちがいっぱいいるので、さすがに比べるのはおこがましいですけど、
分野的にはそこに属してて、もちろん数学の専門家の人もいれば機械学習の専門家の先生もいて、
それぞれがコラボレートしたり、あるいはそれぞれ独立にめちゃくちゃいい成果をあげてたりされるんですけど、
僕はどっちかっていうと、ずっと簡単な数学って言ったらあれなんですけど、
そんなに高度な数学は使わずにですね、できるだけ簡単な数学でもできるような仕事と言いますか、
ある真相学習のモデルとある真相学習のモデルは何が違うんだみたいなことを、そんなに難しい数学じゃないんですけど、
誰もやってないし、あんまり重視されてないと言ったらあれですが、あんまりかっこいい仕事じゃないんですけど、
そういう地道な仕事をコツコツ一応自分の研究としてはやっている形になります。
スピーカー 2
なるほど、ちょっと素人でもわかるようにって言うと大変かもしれないんですけど、軽くその真相学習とは何かっていうものをちょっと解説していただいてもいいですか。
スピーカー 1
どこから話してどのくらい時間かけるか悩むんですけど、すごいまず基本的なところとして機械学習っていうのがあります。
機械学習っていうのは何かっていうと、英語ではマシンラーニングとか言いますが、自動的に何か学習して決めたらいいわけですね。
ちょっと素人のレベルがいろいろあって難しいんですが、例えば一応小学生でもわかるようなところからいくと、
一時関数っていうのを習ったと思うんですね。YイコールAXプラスBっていう直線の方程式がありまして、線形の式がありまして、
この線形の式っていうのはAっていう値とBっていう値がいろいろ変わればいろんな線になりますね。
例えば傾きが急になってる線、Aが大きいと傾きが大きい線になりますし、Bが大きいとどんどん上の方に移動しますねっていうふうに、
Aっていう値とBっていう値によってその一時関数っていう関数がいろんな様子を示すと。
例えばそれこそ小学校中学校の時にやったのって、この2点を通る直線を求めなさいみたいなことをやったわけですね。
そうするとある2点っていうデータを使って、それを通るような線を探す。線を探すっていうことはつまり、
AっていうパラメーターとBっていうパラメーターを決める問題を解いているわけですね。
一時関数ぐらいだったらAとBしかないんで簡単なんですけど、中学校入ったり高校入ったりすると、
二次関数って言ってパラメーターが3個になってるやつとか、もっとパラメーターが多いやつとか、
多分高校生で数学3とかをやると3次関数が出てきたりとかしたりして、パラメーターが何個か増えたりするわけです。
2つ観点があるんですけど、1個はパラメーターを単純にいっぱい増やしたら良さそうっていう、
一時関数よりも二次関数の方がいろいろ表現できるものが多そうだし、じゃあパラメーター数が大きい方が単純に良さそうだねっていう観点でパラメーターを増やすことも考えられますし、
機械学習と非線形性の必要性
スピーカー 1
あとは線形性っていう観点で言うと、一時関数はただの直線なんで、直線で予測できるものってあんまりなさそうですよね。
例えば身長と体重の関係を線で表そうとした時に、もしその関係が正しければ身長がマイナスの人は体重マイナスとか、身長が300の人は体重めっちゃ大きいみたいなことがあって、
絶対現実じゃありえなくて、そこはちょっと工夫が必要になってくるので、そうすると非線形性が必要になってきて、
ただの直線じゃなくて、ちょっと途中から曲がっていくような線とかが使えると、色々予測、より高性能な予測ができるというような背景があって、
基本的には一時関数みたいに何かAXプラスBみたいなモデルを用意して、そのモデルのA、Bっていうパラメーターを何か決定するっていうのが機械学習なんですけど、
その決定する時にデータがいっぱい入ってきて、そのデータをうまく予測したりデータにうまく適合するようにうまくパラメーターを決めて線を引くっていうのが機械学習の問題で、
その時にパラメーターをすごいいっぱい増やそうとか、一時関数じゃなくてもっと複雑なものを使おうとか、直線じゃなくて波打っている非線形なものを使おうとかっていうのを、どんどん色々高度なモデルとかを使っていくのが機械学習になりまして、
これはまだ深層学習の手前の、その一個前の世代の機械学習で、とにかくパラメーターをたくさんやるっていう。
一時関数っていうのがパラメーター2個しかなくて、もうちょっと複雑なものになると入力の数に応じてパラメーターが増えたりとか色々するんですけど、
パラメーターの話はちょっとフライング気味に出しちゃったんですけど、要は色々な曲線とか複雑な線を使って、そういった予測とか分類をしましょうっていうのが機械学習の根底にありまして、
どんな関数使ったらどんなデータに対してうまくフィッティングして、うまくそういった線が引けるのか、予測する線でもいいですし、グループAとグループBを分けるような線を引くでもいいですし、
分類問題、回帰問題って言うんですけど、そういった数値を当てたりするようなものに機械学習が使われるんですが、
このモデルっていうのがどんなモデル、つまりどんな関数でパラメーターAとB以外にどんなパラメーターがあって、どんなものを使えばいいのかっていうと、色々なモデルが当然考えられますので、
サイン関数使ったりコセン関数使ったり色々めちゃくちゃありますけど、そこでディープニューラルネットワークっていうモデルを使ったものが最近の深層学習になります。
何がディープなのかっていうと、ニューラルネットワークって呼ばれるモデルをどんどんどんどん繰り返して、めちゃくちゃ繰り返しているのでディープニューラルネットワークって呼ばれますし、
ディープニューラルネットワークの特徴としては、パラメーターがもちろん場合にもよりますけど、さっき1時間数はAとBの2個でしたが、1万とか10万とか100万とか1000万とか、最近のものだとGPTとかそこら辺のでかいものであると10兆あるとか言われたりするんですけど、
10兆分ぐらいのそういった決めないといけない数値が、データから決めないといけない数値があって、そこに大量のビッグデータとかすごい計算機とかをいっぱい使って頑張って10兆ぐらいのパラメーターをバチって決めたら、うまくいったねみたいなのが深層学習のイメージにして。
もちろん10兆とか使わなくても深層学習って呼ばれるような技術はありますし、実際に最近だとAIカメラとか音声認識とかそういういろんなところにディープラーニング的な技術が使われてますし、そこに10兆のパラメーターが入っているとは思わないですけど、
ディープニューラルネットワークの特徴
スピーカー 1
結構今までの機械学習でやってきたものよりは、そのディープニューラルネットワークっていうモデルを使った機械学習、つまり深層学習がかなりいろんな分野で性能を上げているなっていう感じですね。
スピーカー 2
なるほど。皆さんお分かりになりましたかね。僕は松尾教授、松尾先生が結構初期に画像、猫ってわかるようになったみたいな頃に書かれた本、一般の方向けに書かれた本が出たと思うんですけど、それを1回読んだことがあって、僕の理解はその、
その時に書かれたのが、猫っていう抽象概念と、これは手だとかこれは目だとかこれは顔だとか、そういう書くレイヤーがあって、そういう抽象概念がディープと言われるいろんな層で把握されているみたいな印象、僕の記憶なんですけど、そういうもの。
スピーカー 1
あっているところもあると思いますし、完全に否定はできないんですけど、一応僕は完全な深層学習研究者AI研究者ではなくて、数学者的な一面を持っているので、ちょっとこうプリミティブというか、よりこう素朴な言い方をすると、
それはまだ分かってないところがいっぱいあると思うんで、当然数学者が言う分かるなんて証明しないと分かるにならないので、なかなか多くないんですけど、数学的には多分そういうことって分かってなくて、なんか、例えば猫を当てるってなった時に猫の写真をいっぱい入れて、
これは猫か猫じゃないかっていうものを一撃で当てに行くよりも、目っていう概念とか鼻っていう概念とかヒゲっていう概念を理解して、じゃあ目と鼻とヒゲがあって茶色いくて、なんか魚が好きそうだから猫でしょうみたいな、そういう段階を踏んだ推論の方が、
おそらく当たる確率ってなんか高そうですよね直感的には、人間の思考的にもおそらくそういうことをしてるんじゃないかと思うので、そういう観点からなんかディープラーニングは優れているんじゃないか、つまりちょっとディープラーニングの中身の話全然してないんであれなんですけど、
ちょっと詳しくは調べてもらえればすぐ神経回路網みたいなのが出てきて、なんか段階を追って何回も推論してるんだなみたいなことが多分わかると思うんですけど、そういう構造になってるので、一段階目である推論をして、もう一段階目である推論をして、もう一段階目である推論をして出力してるっていう構造はディープラーニングの構造としてあるんですけど、
そのじゃあ各層で何をしてるのかっていうのは全然わかってないですが、でも少なくとも層があるんで、ってことは一段階目で目とか髭とかの形を抽出してたり、二段階目でじゃあそれらを統合的に見てたり、もう一段階目でそれらの情報をさらに統合的に見て猫だっていうふうに推論するような構造になっているから、既存の機械学習みたいな、シャロー浅いって言われたりしますけど、
層が少ないモデルよりも猫の予測がうまくいってるんじゃないかっていう仮説、まあもちろん部分的にそれを示す実験結果とか出てるんですけど、そういう仮説が提案されていて、なので深層学習はそういう理由で多層化されているから良いんじゃないかっていうのは確かに一説としてあるんですが、
じゃあ一層でつまり深さを何回も減った推論じゃなくて、大量にとにかく猫の画像を入れまくって一層だけでそれができないかって言われると、できなくはないんですよ。別に深層学習と同じような構造をひたすら並列というか横にバーって伸ばして作っても全然予測できないことはない。
それは実験的にもそうですし、数学的にも必ずしもディープじゃなくても同じような出力が得られるみたいなことは結構示されたりするので、もちろん幅はその分広がったりするんですけど、結構統一的な答えというか、もちろんディープにした方がいいっていう結果もいっぱいありますが、ディープにしなければならないみたいな結果は必ずしも出てなくて、
もちろん分野、どういうデータでどういうのに使うかにもよるんですけど、結構そこはスタンダードの解は必ずしもないと思います。
スピーカー 2
ちなみにその浅いモデル、その層が浅いものが今までのマシンラーニングだったって思っていいですか?
AIの理解と正確性の課題
スピーカー 1
そうですね、言うならそういうふうに解釈することもできます。
なるほど。
スピーカー 2
そのじゃあ浅いやつでも同じ精度の猫の判別ができたとして、それは猫特化みたいなことになるってことなんですか?
スピーカー 1
すいません、それは一個ギャップというか説明があって、従来のやつが浅いと言ったんですけど、ディープニューラルネットワークは深いものから浅いものまであって、浅いディープニューラルネットワークでもそういうことができる。
なるほど。
従来の機械学習で猫がそんな綺麗に予測できるかというとかなり難しいんですけど、深いディープニューラルネットワークじゃなくて、めちゃくちゃ層が短い、従来の機械学習と同じぐらいの層の数しかないニューラルネットワークモデルでも予測ができる。
スピーカー 2
僕、松尾さんの本読んですごい驚いたのが、結局各層が学習したとして、その学習っていうのはどういう意味があるのかがよく分からないっていう、学習させてるのに何を学習したかがよく分からないんだっていうことにちょっと驚きを覚えたんですよ。
例えば機械学習だったらパラメーター調整していって、さっきの式のこの点とこの点を通る式はこういう形だったんだねっていう何か学習結果みたいなものが分かる、理解できるっていうのが普通だと思ってたんで、それがよく分からない。
今のご説明でも、結局中に何が起こってるかよく分からないみたいなところは未だにやっぱりそういうものなんです。
スピーカー 1
それはかなりあって、機械学習モデルの中にはよく使われるのと決定器って呼ばれるようなモデルとかがあって、ある入力データがある値以上だったら猫としましょう、猫じゃないとしましょうとかそういう判断をしていくようなものがあるんですね。
例えば毎月の餌の金額はいくらとかいろいろデータは考えられそうですけど、お金持ちの家に住んでるかどうかとかいろいろ大きさとかあると思うんですけど、そういうので段々分割していくような機械学習モデルだったらちょっと説明、理解しやすそうじゃないですか。
ある状況を満たしてるから猫ですっていうふうに言えたりするんでいいんですけど、最近の深層学習とかは全くそういうことに関心がないというか、もちろん分野的には関心があって説明性大事だとかセキュリティの問題とかがあって、いろいろ研究はされたり進んだり注目されたりは最近それをしてますが、
スピーカー 2
それこそ当時の2012年とか2015年ぐらいから出てる深層学習の分野っていうのは全くそういうことに要は興味がなくて、自分の理解なんですけどもともとは画像認識のコンペテーションで、これは猫ですかみたいなそういう大量の画像を当てられるものを作りましょうっていう、すごい工学的なというか、そういう発想から発展しつつ。
スピーカー 1
そういうところから発展してきた要素が大きいと思ってて、それも多分あると思うんですけど、そのせいで結構だいぶ性能先行で分野の研究が進んでいるんですね。
なので中身がどうなってるかとかはあんまり気にしないと言ったらあれですけど、とにかくいいものができたらいいっていうかなり産業的な観点で研究がガーッと進んでしまって、それをちょっと追従するように一部解析したりとか、一部説明性をつけたりとか、そういう研究が進んでて、
実際には中身がどうなってるかっていうのは結構ギャップがあったり全然わからなかったり、今でもなかなかいろんな研究者たちが頭を悩ませているところかなっていうふうに思います。
部分的にちょっとわかるとか、こういうことはわかるみたいなことはあるんですけど、じゃあ深層学習で予測したときに、例えばちょっと社会的な話をすれば、自動運転とかでピピって言われて止まったときに、
なぜ、もちろん人が移りましたって言って止まることはできるんですけど、どこをどう見て人だと判断したのかみたいなのまで解釈するのは、なかなか今の深層学習だけだと難しいと思います。
スピーカー 2
そこが面白いですよね。要は、なんか人間が作ったものなのに、中がどうなってるかよくわからないけど、とりあえず結果だけは出ているみたいな状態がいまだに続いている。
スピーカー 1
そうですね。結構よく勘違いされるがちなんですけど、AIっていうとあまり間違いがなくて正確な結果を出してきて、何回やってもミスしないみたいなそういうニュアンス結構持ったっていうと思うんですけど、
最近のAIって言ったときには、そういった深層学習とか機械学習的な統計的なものでビッグデータをベースにしたものがAIって呼ばれがちなんですね。
何をAIって呼んでるのかとかは結構注意が必要なんですけど、少なくとも最近話題のAIって言ったときには、そういった技術を指していることが多くて、
その場合って、今まで話してきた通り、必ずしも正確性が高いものではないし、曖昧なものも多かったりするんですよね。
それって何かっていうと、データいっぱい入れて、おそらくこうだろうとかなんとなくこうだろうっていうのをAIたちがやっているからであって、
AIの学習方法の理解
スピーカー 1
例えるなら、計算ドリルをひたすら当たるまでずっと解き続けて、うまく当たったからこれでいいんだって言って、計算の仕方を暗記するみたいなものに考え方に近いんですよね。
猫っていう写真集をいっぱい見せて、これは猫だ、これは猫じゃないっていうのをバーってずっと見て、1万枚とか100万枚とか猫と猫じゃない画像を見たら、
もちろん答えつきですよ、裏に単語カードみたいなのをバーってずっとめくって、単語カードを1万枚やったからだいたい猫っていうものがわかって、
おそらくこれ猫だろうって言ったら猫じゃなくてライオンだったみたいな、そういう思考をしていって、
猫科の動物とは何かとか、四足歩行とは何かとか、そういう背後にあるロジックみたいなものってあんまり考えない学習を今のAIは知ってると。
これは良くも悪くも曖昧で、人間の直感的な思考みたいなものに近いんですよ。
なので正解がないものとか、あんまり論理的じゃなくてもいいものとかって、人間だけの強みだみたいな感じがなってますけど、実際には最近のチャットGPTとかもそういう技術を背景にしてるんで、
平気で嘘ついたりするんですよ。数学の証明とかやらせるとめちゃくちゃ変なこと言ってきたり、さも当然合ってるかのようにドヤ顔でチャットGPT答えてくるんですけど、
いや合ってないよと、お前論理理解してないなっていうと、私はAIなので間違いませんみたいなことを言ってきて、
いやでも間違ってるよって言って手をすると、すみません間違ってましたみたいなことを言ってきたりするぐらいで、なんとなくそれっぽいことを返してくれるだけなんですよね。
なのでAIって言ったときに、昔のそれこそプログラミングとかでカッチリ作ってるものとか、ルールベースって呼ばれるものとかは間違いないっていうふうに作られてますけど、
最近のものは統計的なものをベースにしてるんで、意外と曖昧だなっていうところが。
スピーカー 2
なんかが同じ質問しても違う答えが出てくるんで、何か今までと違うものでやるっていうのは皆さんもだんだん気づいてると思いますけどね。
スピーカー 1
結構今のAIはそういうところがあって、なので難しいですね。ざっくりAIって一言で言ったときに、それがどういう技術が背景にあるのかによって、
めちゃくちゃカッチリしたものなのか、めちゃくちゃ曖昧なものなのかって、どっちの意味でもAIって取られてるんで、そこが結構今の闇であり面白いところかなって。
スピーカー 2
闇。どんどん細かい話になっちゃってるかもしれないですけど、ちょっと興味があるんで聞くんですけど、
画像を見てこれが猫か犬かとかわかるっていうのは、なんとなくたくさん画像を覚えさせて、それが正解かどうかっていうのを覚えさせた中で、なんとなく覚えていくっていうのがイメージができて、
しかもそれが、もしかすると人間の脳の構造に近かったりするから、いい結果が出てるのかなみたいなのも思うんですけど、
最近のチャットGPTみたいな、画像を見てこれは猫かとかっていうレベルではない言葉を、質問書いたら答えてくれちゃっているっていうものが、
あれがその同じ仕組みで動いているっていう理屈がよくわからないんですけど、どういうふうにああいうものができちゃうんですか。
スピーカー 1
いくつか考え方というか、いくつか手法とかはあると思うんですけど、自分もいわゆる生成系のAIって言われるものの専門家じゃないので、
飲みにされると困るところがあるんですが、すごいざっくり言うと、もともとのAIっていうのは計算ドリルをいっぱい解かせて、
答え合わせをして合ってるふうにパラメータを決めていくっていう問題なんで、過去もばっか解いてて神経功の問題には対応できないみたいなことが結構あったりされてきたんですけど、
最近のAIっていうのはもちろんそれをすごい頑張ってやらせて、例えばもうネット上のデータ全部取ってきて全部入れているから、
なんとなく次にある単語が予測できるとか、そういうレベルでうまく回答を返してくれるものもありますが、なかなか難しいと。
たとえるなら、言語がどういった確率で出てくるかみたいなのを当てにいくというか、つくる。
会話の応答の答えを当てるんじゃなくて、会話ってどういう確率で生成されてるんだろうみたいなのを当てにいくような学習をしているっていうほうが、
最近のそれこそチャットGPTに限らず画像を生成してるAIとかもいっぱいいますけど、そういうやつらもそういう仕組みを使ってるのかなと思ってて、
単に答えを当てるんじゃなくて、答えが出てくる箱みたいなものをつくる。
例えば猫の写真を描いてくださいって言ったら、猫っていう写真の入れ物というか猫っていう写真がいっぱい入ってる箱みたいなのをだんだんつくっていくみたいな感じに近いですね。
画像を一個見せている答え合わせをするんじゃなくて、その答え合わせをしながらだんだん猫っていうものを覚えていって、こういうものたちが猫なんだみたいななんとなくぼんやりとしたそういうイメージみたいなのを獲得して、
スピーカー 2
そこから一枚猫を取ってくるとか、こういった入力がされたらこういう応答をするべきだっていう言語に関する箱みたいなのを持って、それをポンって一個そこから答えを取ってくるみたいなことをしているのに近い。
たくさんの、じゃあその、チャットGPTが質問したら答えてくれるっていうのは、たくさんの文章を組ませて、そうするとこういう質問の後に続く会話はきっとこういうものであるだろうっていうものが自動で出てくる。
スピーカー 1
そうですね、だんだん形成しているので、なんかその結果一度も学習してないものとかに関しても、おそらくこれはこういうものだろうみたいなのを、なんとなく曖昧に返してはくれるようになってる。
スピーカー 2
そこがちょっとすごいことですよね。
そうですね。
人間の知能の探求
スピーカー 2
そんな理屈で本当にこんなものが出てきてるのかっていうのがちょっとにわかに信じがたいレベルになってきてると思うんですけど。
スピーカー 1
それは僕も思っていて、僕は言ってもAI研究者の顔をしてますけど、実際は数学者、実際はって言ったらちょっとあれですけど、数学も専門ですし、AIは数学的に研究したいと思っているので、ずっと紙とペンを使って研究してたら、なんか急に2020年くらいからチャットGPTが大盛り上がりして初めて、なんか窓を開けたらめっちゃ騒いでるみたいな、そういう感じなんですよね。
まさかこんな早く、そういう生成AIとかの技術が発展するとは思ってなくて。
そういう感覚なんですね。
そうですね。自分も最先端の情報を常にキャッチし続けてたかって言われるとそうじゃないんですけど、でも少なくとも専門家が思っているよりも早く進んでるんじゃないのかなっていうのがあって。
スピーカー 2
やっぱりそうなんですね。
スピーカー 1
すごいなっていうのがあります。
自分は仕組みとかが興味があるんで、仕組みが全然わかんないものとか、あとはさっきもありましたけど、計算ドリルみたいなものをひたすらやらせてるだけなんですよ。
僕はどっちかっていうと、数理モデルだったり、数学的な仕組みを作る方が興味があるので、この写真の猫らしさってどこなんだろうとか、猫度合いの数値化とか、あるいはヒゲがあることと目があることと耳がとんがっていることを猫の定義とするみたいな、
そういうことの方が僕はやりたいですし、AIとかでそういうので自動的に猫の定義みたいなものを抽出してくれて、猫の構造みたいなのを発見してくれて猫っていうふうに予測しているんだったらいいですし、
そうなってもらいたいんですけど、そうなってるかわかんないままうまくいっているし、
少なくともデータを学習させるときには教えてないんですよね。猫の定義を頑張って見つけてくださいとか、何が猫なのかを考えてくださいとか、AIには全く命令してなくて、
これが猫ですよ、これが猫じゃないですよっていうのを、それこそ赤ちゃんに食べていいものと食べちゃダメなものを教えるとか、犬にお手させたら餌あけるみたいな、
そういうレベルの知能の学習をさせてるだけなのに、猫のことを理解しているかのようにGDPTは回答してくるので、そのときに本当に背後で猫というか概念を理解しているのか論理を理解しているのかってわからないですし、
人間が本当に論理を理解しているのかっていうとわからない、それっぽい回答をしてるだけで僕もさも論理的に振る舞ってますけど、実際は論理っぽいものをこれが論理だというふうに申しにして振る舞っているだけなんじゃないかみたいな、
ちょっと怖い話というか思想的な話、哲学的な話もありますけど、割とそういうテーマに結構GDPTとかは踏み込んでいるというか切り込んでいるような気がして、面白くもあり怖くもありっていうところはありますね。
スピーカー 2
たしかに永瀬さんがおっしゃるように、分かったって気持ちになるのって、例えばね、物体の運動の運動方程式みたいなのが理解できて、だから物体はこうやって動いてるんだって分かった気になるみたいな、理屈が分かったときに初めて本当に分かったって気になるみたいな実感っていうのがあったりすると思うんで、
たしかにその、それを抜きにして、答えが出てるからいいじゃないかっていうのは、なんかこう、なんか踏み落ちないものがあるっていう気持ちもなんかなくはないけど、でもね、もう確かにその、じゃあ全部本当に分かってたのかお前はって言われると。
僕らは運動方程式を感じながら歩いたりしてるわけじゃないんで。 そうそうそう。あの車とあの車ぶつかりそうだなとか、まあ見てるだけで、思ってるだけみたいな。
スピーカー 1
僕は結構直感だったり、なんかなんとなくで推論してるところもあったりするんで、あの、なんかまあちょっと繰り返しになりますけど、僕はAIの研究者であって数学の研究者であってみたいなことを言ってますけど、やっぱ知能っていうものに結構関心、AIのアーティフィシャルインテリジェンスの部分に結構興味があるなっていうのは思っていて、
はい。 もちろんその僕は神経科学者とか認知科学者とかではないですけど、ずっとそういう認知、人間の認知機能とか知能のメカニズムみたいなものに興味があって、でもそれを数学的な、僕がたまたま使える道具というか好きな、できる分野が数学だったので、数学的なものを使ってそういう知能とか認知構造みたいなものを解明しようとしてるなみたいな気持ちがあります。
やっぱその、より良いものを作ろうとか、より良い性能で猫を予測しようとかには正直あんまり興味がなくて、かといってじゃあとにかく今のAIの仕組みを数学で解き明かすんだみたいなものをもちろんやりたいですけど、強いイメージがあるわけじゃなくて、どっちかっていうとじゃあ猫とは何だろうとか、人間は何を持って猫を、猫研究者ではないですけど、何を持って人間はそういう判断をしてるんだろうみたいなことに関心があって、ずっと研究をやってる。
気がしますね。
なるほど。
スピーカー 2
じゃあ結構その人間の脳みたいなものに、仕組みみたいなものに興味があるみたいなところもあるんですか。
スピーカー 1
結構そうですね。
しっかりと思います。
ただ脳の研究ってなかなか多分大変だし、お金もかかるし、僕はたまたま学部からずっとそういう分野ではなかったので、
今は自分の周りにあるものというか、自分が持っているもので脳の研究をするにはどうしたらいいかっていうと、データサイエンスが一番自分は近かったというかできた分野って感じですね。
スピーカー 2
なるほどね。そうするとAIの研究をしていると人間の不思議に迫れるみたいな部分もあるかもしれないですかね。
スピーカー 1
そうですね。特にちょっとだいぶ前のデータサイエンスの話に戻りますけど、人間が何が好きかとか、ある商品とある商品があったときにどっちを買うかとかってかなりそういう認知の問題だと思うんですよね。
例えば僕ちょっと一時期、造造研究所でファッションの研究をしてたんですけど、例えばどっちがより良いファッションかとかってかなりなんとなくだし、かなり理論化されてないし、数値化の余地があるんですよ。
でも、知りたいじゃないですか。ファッションの理論を知りたい。
スピーカー 2
何を作れば売れるかに直結しますからね。
スピーカー 1
もちろん。ビジネス的には何を作れば売れるかっていう観点重要ですし、僕個人の感覚として何をおしゃれとしているのかとかってわかんないですよね。
その人間の推論の仕組みとか、あるいは人間が作ったものを人間がどう判断して何を良しとしているのかみたいなのを持って結構いろいろ、
例えばこのホテルは良いホテルだったとかいう時に何を持って良いと判断しているのかとか、僕は結構そういうなんて言うんですかね。
AI技術の研究
スピーカー 1
なんとなく直感みたいなものをどこまで数学的にだったり論理的に突き詰められるかみたいなことに関心が結構ずっとあるので、今のチャットGPTとかとは戦わなければいけないですね。
スピーカー 2
戦うというかそっちの進化も横であるからこそ逆に分析できる対象も増えていくみたいなのもあるかもしれないですね。
スピーカー 1
逆に言うとチャットGPT、もうちょっと広く言うと深層学習がすごい広がって、機械学習がすごい発展していく、AI技術がすごい発展していくなどの時に、
僕が研究をしている理由でもあるんですけど、AIの中身を調べ尽くす数学が作れれば、AIが調べ尽くした猫の構造とか、AIが調べ尽くした言語の構造みたいなものを僕がAIの構造を把握すれば、じゃあ猫の構造も分かるし、言語の構造も分かるやんみたいな気持ちがあって、
スピーカー 2
ちょっとずるいですけど、AIにいろんなものをやらせて、そのAIを、AIさえ僕が理解できればいろんなものが分かるな、みたいなことが結構モチベーションというか研究の全体像かなって感じますね。
なるほど、面白い。今その永瀬さんの研究っていうのは、どういうところを対象とされていて、どういうことが分かってきているんですか。
スピーカー 1
僕は、すごいざっくり説明すると、さっきあのディープニューラルネットワークがどんなモデルかっていう話、多分全然できてなかったと思うんですけど、すごいざっくり言うと神経細胞とか神経回路網を数学的に模倣したりしているモデルなんですね。
それがニューラルっていうところですよね。
ニューロンをいっぱいつなぎ合わせたものというふうになるんですけど、ニューロンの決まったモデルってなくて、例えば軸作神経細胞があったときに、ある入力が入ってきて、ある入力が入ってきて、ある入力が入ってきてっていうふうに何個が入力が入ってきて、それがある値を超えたら発火するみたいになるわけですけど、
この時にも入力が何個入ってくるのかとか、どうやって入ってくるのかとか、どこに重きを置くかとか、あるいはどのくらいで発火するのかとか、あるいは発火の仕方とかもいっぱい、いくらでもそのモデリングの仕方ってあると思ってて、
ましてはそれがいっぱいくっついてるもの、それこそ10兆とかくっついてるものがニューラルネットワークになってる、ディープニューラルネットワークになってるんで、そうするとどうやってくっついてるかとか、例えば神経細胞1,2,3は並列につながってるけど、その後に4,5,6をつなげて、7,8,9はその横に置いといて、7,8,9と4,5,6をくっつけた先に神経細胞10があって、神経細胞10から神経細胞9にもう一回回路が戻っててとか、
そういうネットワークの構造って無限にあるじゃないですか、各ニューロンの種類もいろいろ変えたりしていいわけですし、こいつはナトリウムチャンネルの方が反応強いなとか、いくらでもそういうことが考えられて、ちょっと今のは生物学的な背景におりましたけど、工学的な観点からも、とにかくこういう接続をした方が性能が高いからこうしてやれとか、そういう流れもあるので、
要はいろんな方向からニューラルネットワークっていうモデルってめちゃくちゃいろんな種類考えられるわけで、言ったら無限種類のニューラルネットワークが存在するんですよ。
点が10丁もあれば、結び方なんてめちゃくちゃありますよねって話ですよね。
で結び方もですし、結ぶときに点線使うのか直線使うのか波線使うのかみたいなレベルでいろんなモデルって考えられるわけなんで、それってそもそも僕はAIの仕組みを研究したいのに、AIがいっぱいあったら困るわけですよ。
スピーカー 2
なるほど。
スピーカー 1
いろんなAIがいっぱいいたら、AIの統一的な解釈をしたいのに、AI自体がそもそもいっぱいあったら困るので、
すごいざっくり言うとさっき言った10丁通りの点をいろんな結び方をしてるって言ってるけど、ある結び方をしたときとある結び方をしたときで、
本質的に違いがあるのかとか、そういうのをネットワーク絡まっちゃってるんで綺麗に並べ直して、スタンダードな形に直すみたいなのが僕のメインの研究で。
スピーカー 2
スタンダードな形。
スピーカー 1
そうですね。一番シンプルなものは全部繋がってるやつ。例えば1点から始まって10丁後に全部並列に繋がってて、そのまま10丁後がもう1点に繋いで終わりみたいな。
全部並列にバーって並んでるやつとかが一番シンプルじゃないですか。
そうですね。
あとは全部同じ数で均等に並んでるとか、例えば1丁後並列に並んでるのが10個並んでるだけとか、ポンポンポンって並んで終わりみたいなのとかって多分綺麗じゃないですか。
じゃあそういう形とぐちゃぐちゃしてるやつって本当に違うんだっけとか、ぐちゃぐちゃしてるけどこれって綺麗に並べ直したら、
なんかもっと綺麗な正方形長方形みたいな、そういう形に並べ直せるんじゃないかみたいなことが結構メインの研究ですね。
数学的なところはだいぶ端折ってますけど、考え方としてはそういうことをやりたいですし、そういうことをして世の中にはびこっているいろんなディープニューラルネットワークを整理して、
ネットワークの構造整理
スピーカー 1
本質的にこことここは違うとか、これとこれは同じだみたいなのをひたすら整理をしてます。
スピーカー 2
なるほど。じゃあそのネットワークの形の分類みたいなことなんですかね。
スピーカー 1
大平 そうですね。形、あとはそのネットワークに使われているアーキテクチャっていうんですけど、何がネットワークに使われているかとかを考えてますね。
スピーカー 2
じゃあ例えばネットワークの形とか何が違うと、違っても同じ結果が出るかとか何が違うのかっていうのは、さっきの真相学習させたものの結果とかを見て評価するんですか。
スピーカー 1
大平 そうですね。出力、関数の出力、あくまで数学的には関数の出力でしかないので、きれいに整頓されて並んでいるネットワークの出力と、
すげえぐちゃぐちゃしているネットワークの出力がいつも同じになるんだったら、じゃあこれ一緒じゃんっていうところで、整理してもいいよねとか整理したらっていうのを提案するのが基本の研究ですね。
スピーカー 2
なるほど。なんかでも実際、例えばですけど、脳の中のニューロンのつながり方っていうのは立体じゃないですか。
3次元の空間の中にいろんな細胞がつながり合ってるわけですよね。それってそもそもぐちゃぐちゃしてそうですけど、そこまできれいなものに分類する方がいいんですか。
少なくとも脳の仕組みという意味では、結構ぐちゃぐちゃしてそうですけど。
スピーカー 1
なので、おそらく性能を上げるという意味ではぐちゃぐちゃしてる方がいいところがたぶんいっぱいあります。
なので実際の今のニューラルネットワークもたぶんすごいぐちゃぐちゃしているし、到底理解できないことになっているし、だから性能が上がってるっていうところはあると思います。
ただ一方で、じゃあその中身がどうなってるかとか、仕組みを知りたいみたいなときは必ずしもそうじゃないと思ってて、複雑でぐちゃぐちゃして猫の構造を完全に理解した脳みそができたときに、その脳みその神経細胞をきれいに並べ直して、
ってやったら、ここでちゃんと目を捉えているとか、そういうのが出てくる可能性はありますよね。
で、それってたぶん、ここが会話で、ここが思想株でみたいな脳のパーツを分類するのに近い話で、今のディープニューラルネットワークはもちろんアーキテクチャ分かれてて、
自称株っぽいのを作ろうみたいなモチベーションで作られてるアーキテクチャもあるんですけど、とはいえ全体で見るとぐちゃっとしてるところが多いので、そこをきれいにするとかがやってることかなっていう気がします。
あと、あくまで僕は性能向上にあんまり興味がないっていうところが大きいかもしれない。
リカレントモデルの重要性
スピーカー 2
性能落としてもいいから、ここの部分はこういう役割をしてたんだねみたいなことが分かるっていうことがやりたいっていう。
なんかまた細かい話ですけど、ちなみに今のさっきの一番単純な形だと入力から出力まで一方向だと思うんですけど、実際ぐるぐる回るんですかね。
スピーカー 1
それは大事な話で、実際の脳は多分ぐるぐる回りそうですよね。そういうのは、再起的な結合を持っているニューラルネットワークといって、リカレントニューラルネットワーク、RNNとかいったりするんですよ。
一方で猫の予測をするみたいなのとずっと真っ直ぐ進んで、純伝播していくネットワークっていうので、フィードフォワードネットワークってFFNLとかいうふうに呼ばれたりしてて、これはすごいざっくり言うと、
フィードフォワードネットワークって純伝播してるやつは、純伝播してるだけなんで、情報が戻ってくる必要がない。
逆に言うと、画像を見て、これは猫かどうかを判断するときに、わざわざ目を見た後、ひげを見た後に戻ってきて、やっぱりこれ目じゃないかもみたいな、そういうことをする必要はないんですよ。
だから、予測する分類するっていうときには、純伝播型のだけで全然いいんですけど、もちろんリカレント型のほうがうまくいくケースとか、フィットするケースとかって、すごいいっぱい問題によってはあって、
例えば、すごい雑な例ですけど、自然言語処理とかの分野で文章を当てるときに、先を読んでから前に戻ってきて文章の意味を保管するとかってあるじゃないですか、文脈を捉えるとか、あとは文章の穴埋め問題とか考えたらそうですけど、
そういう場合って必ずしも一方向に進んでないので、そういう場合は戻ってきて考えるとか、そういうことをさせる必要もあるので、そういうモデルのほうがいいんじゃないかとかは実際にあります。ただ、正直な話をすると、リカレント型のほうが圧倒的に解析が難しいので
スピーカー 2
影響がずっと無限にループしちゃいますもんね
スピーカー 1
大平 なので、僕は放置していて、フィードフォアなものの整理だけをまずはやっていくところがあります。ただ、リカレントは実際に使う上でも結構難しいところがあって、例えばリカレントなものを許すので、自由に接続を何でもやってくださいっていうと、本当に無限通りかつ一生ループが終わらないような接続が作れてしまうので、それって計算する上でも困るんですよ。
そうすると、結構最近流行ってるリカレントなものだと、もうほとんど固定してしまって、ループの部分は固定して、ループしてない部分だけを学習するとか、結構そういうリカレントなネットワークとかもあったりしていて、リザバーコンピューティングとか、いろいろ結構リカレントなものが自由すぎると学習が分からないから、ある程度制約を入れようみたいな話があったりして、
そうすると、じゃあ制約されてる部分だけを整理するとか、逆に制約されてない学習する部分だけを整理するとかできると思っていて、リカレントなものを一から全部やるのは大変だけど、今やってることが活かせたりすることはあるだろうなという気はします。
スピーカー 2
僕はポッドキャストの配信サービスのリストっていうのも作ってるんですけど、それで音声の編集とかたまにいじるんですけど、ノイズキャンセリングのフィルターでRNNのフィルターがあったりするんですけど、あれは言葉っぽいものかどうかみたいなのを後ろに戻してるんですかね。それでRNNって見るんですけど。
スピーカー 1
おだしょー 僕はノイズキャンセリングが詳しくないので間違ってたあれなんですが、基本的にそういう時系列情報っていうのは時間の発展を見ていかないといけないんで、1秒目に入力された情報と2秒目に入力された情報と3秒目に入力された情報っていうのに連続的な意味がありますよね。
たとえば今喋ってる連続的な意味があってた時の、れっていう言葉とんっていう言葉とぞっていう言葉は繋がっているわけですよ。なので、その後ろに続く言葉を予測できないと意味がないというか、時系列的な関係性を捉えるためにリカネントなものの方が都合がいい。
たとえば連続的なって言った時の連続的なまでの情報を持ってて、その後に来る単語は何ですかっていうふうに予測するんだったら全然違うんですけど、ずっとこう時系列的に次の情報を入力し続けるってなると、れっていうものが入ってきて、これはれだなっていうのを予測しながら次の情報は何かみたいなのをずっと再クリックに情報として持っておかないといけなかったり使わなかったりしないといけなくて、
そうするとヒードフォワードなニューロネットワークだけでそういう分析をするよりは順番に入ってきたものからガンガン処理するみたいな形のほうがデータとして多分フィットしている使いやすいモデルだったのでノイズキャンセリングとかの世界では、あと音声認識、自然言語処理とかそういう時系列性を持っているデータに関してはリカネントな構造が入っているほうが使いやすいし、
実際性能も上がりやすい。逆にヒードフォワードのものだけでやろうとすると、結構工夫がいるところが大きいのかなって思います。
AI技術とネットワーク理論
スピーカー 2
なるほどね。確かに人の話聞いている時も、そういうことねって戻って理解みたいなのがありますもんね。
最近でいうと、親しんでいるものとしては、Googleのページランクとかああいうのはインとアウトもないというか、ずっとお互いがお互いにリンクをたくさん集めているものほど価値が高く、価値が高いものからリンクされているものほどまた価値が高いみたいなリンク構造をぐるぐる回して、
一回実は僕はその仕組みを社内の人事評価に使おうとしたことがありまして、全員が全員に点をつけて、点が高い人の点ほどより重みがつけられるみたいなやつを作ったんですけど、
スピーカー 1
その時はグルグルグルグル最適的に計算をした上で、収束というか一定以上動かなくなったところで点を止めるみたいな感じで、確かに計算が終わらないというか感じがしたので、なんかそういう感じなんですかね。
これは面白い観点で、Googleのページランクとかは結構数学のアルゴリズムとかが使われていると思うんですよ。
で、あとさっきの点をつけて点が収束するまで回すっていうのは、まさにネットワーク理論とかグラフ上のモデルって言われるようになって、
例えばネットワークの川とかがバーって流れてる時に、上から水をバーって流してループとかもあるような川でバーって水を流して、最終的に水が落ち着いたところで評価するみたいな話になってて、
グラフの上の流れのダイナミクスみたいなふうに呼ばれたりするような観点に近いかなと思ってて、
うちの先生の専門だったりするんですけど、それはネットワーク上のモデルとか、また別の話になりますが、
それでいうと面白いのは、例えばネットワーク自体を入力データとしてネットワークを分析するようなディープニューラルネットワークとかがあったりするんです。
グラフニューラルネットワークとかいろいろあるんですけど、グラフデータを入力としてそれをまた別の機械学習モデルで予測して出力するみたいなものとかもあったりする。
なのでGoogleのページランクみたいな情報を入れて、Googleのページランクみたいな情報を返すとか、
例えば人のネットワーク図を入れたときに、こことここを繋いだら面白そうかもっていうのを予測するような問題とか、
そういうときにはネットワークを入力として出力を返す問題があるので、
そういうのはグラフネットワークとかグラフニューラルネットワークとか呼ばれるような分野であったりするなっていう話が一つと、
そうですね、さっき言ったようにネットワーク上のダイナミクスの研究をされてるなっていう、
本人さんがグラフ上のネットワークで人事評価のダイナミクスを研究されてるなっていう、
集促性まで検討するっていうのは結構大事な観点で、
一生終わらなかったら困るので、ある制約を入れて集促するようにして評価制度を作るみたいなのは、
脳の研究と倫理的側面
スピーカー 1
かなり応用数学者がやってそうな研究
スピーカー 2
一応近いものではあるってことですよね
スピーカー 1
そうですね、いうのがあったりしますね
スピーカー 2
じゃあ当たらずとも当たらずというか近い、
ちなみにそのネットワークの表現っていうのは、式としてはどうやって表現するんですか、式とかでいけるんですか
スピーカー 1
ディープニューラルネットワークですか
スピーカー 2
そうですね、ネットワーク自体を入力に使うっておっしゃったりする
スピーカー 1
ネットワーク自体を使う場合の話
スピーカー 2
されたと思うんですけど、ネットワークを何かで表現しなきゃいけないと思うんですけど、それってどうやって
スピーカー 1
一番やりやすいのは、ネットワークって行列というか二次元配列で表せるんですよね
例えば点が10兆個とかあったら困りますけど、5個しかなかったら1,2,3,4,5って振って1,2,3,4,5って振って
1から1にネットワークの線があれば、1に成分を1にすればネットワークって二次元配列とかで表現できて
スピーカー 2
何と何がつながってるかは点の数かける点の数の配列に入る
それはそうですね
スピーカー 1
っていうのを入れるケースもありますし、最近のディープニューラルネットワークはずるいので
もう画像データとして入れちゃうとか、結構何でもありだと思います
一番シンプルな方法は二次元配列として入れるのが一番きれいかなと思いますけど
スピーカー 2
何でもありですね、いろんなディープニューラルネットワークは
スピーカー 1
強いとか弱いとかもね、点線か実線かみたいな
そうですね、なので二次元配列の中に1、0で入れるんじゃなくて
1、0.5、0とかで入れればそういうのも一応表現できるということですよね
スピーカー 2
すみません、細かい話で興味のままに聞いても
あともう一個思うんですけどね
脳ってシナプスとか解剖してそもそも構造って調べられないものなんですか
スピーカー 1
倫理道徳的な問題を無視すれば多分できる
スピーカー 2
科学的にというか技術的にはできる
スピーカー 1
多分できるんですけど、最近はやってないですよね、世界的に
スピーカー 2
倫理的にやってない
スピーカー 1
多分やってないと思います
スピーカー 2
死体解剖とかでも無理なの?
スピーカー 1
死体とかだったらやってるかもしれないですが、死体だとある程度
僕は専門家じゃないんで間違ってたあれなんですけど
倫理道徳的に少なくともやってないはずで
やってるとしたら死体の解剖ですけど
死体の解剖だけだとやっぱりどうしても把握しきれないところが大きい
実際に電気が流れないから
死んだ死体の脳みそに電気流すかみたいになると結構
また倫理道徳問題か
思考が走ってしまって痛いとか思うかもみたいな
ちょっとそこら辺は難しい
スピーカー 2
でも例えば細かすぎて全くわからないとかじゃなくて
一応別にそこは調べられる
スピーカー 1
いろいろやってたのはあると思います
そうなんですね
人間じゃないので言うと
今何かそれも倫理道徳的にいいのかわからないですけど
よく分野で出てくる
応用数学の分野で出てくるのは
イカの神経軸鎖に電極ぶっ刺して電気流して
それの反応で微分方程式数理モデル作るみたいなのはやられていて
ある反応とある反応がこことここが反応してるから
この2つのタームが必要で
それと入力として別の出力があってっていうような倫理図方程式みたいなのを作って
それで神経細胞の活動電位のつまりニューロンのモデルを作ったりとか
そういうのは実際にやられたりするので
人間じゃないですけど全く不可能ではないかなと思いつつ
じゃあその活動電位を測れるっていうことと
脳解剖していくかどこが至高してるかとかを測るのはだいぶギャップがあるかな
スピーカー 2
分解能的に全然違いますよね
そうですね
でも長谷さんがやられてるのはそういう実際の絡み合ったネットワークをちょっとほぐして
これはこんな形してるねみたいなことをとにかく分かりたいみたいなことだっていう
スピーカー 1
なかなか人体ではできないので
スピーカー 2
そうですよね
なるほど
それは世界的には結構やられてる方いらっしゃるんですか他に
スピーカー 1
整理するってことですか
僕の知る限りはあんまいなくてっていうのも別のモチベーションで似たようなことやってる人はいるんですけど
例えば整理してちっちゃくすれば計算機に乗せやすいとかは結構あって
例えば10兆個パラメーターあったら計算できるとかないですけど
それをなんだかんだガチャガチャって整理していったら
実際に必要なパラメーター100個でいいやんとかなったら
ちっちゃい計算機とかにも乗せられる可能性があって
モデル圧縮性みたいな観点とかで似たようなことやられてる人とか
AIモデルの整理とその重要性
スピーカー 1
逆に本当は100個でいいのに10兆個のパラメーター必要なの何でとか
学習のときに何でいいのとか
モデルの冗長性みたいなものを研究するとか
似たような分野でやってることはあるんですけど
僕はただ整理したいがゴールで
スピーカー 2
特にね今だったらiPhoneにChat GPTの4なら乗るけどみたいな
スピーカー 1
そういうモチベーションの違いがあって結構
似たようなことやってる分野というか人は結構いるんですけど
なんか完全に一致して同じことやってる人っていうのは
多分全然いないかなっていう気がしますね
スピーカー 2
じゃあ世界の最先端
スピーカー 1
最先端なのか一人なのか分かんないですけど
一応そうですねそういうことをやってるのは僕だけ
スピーカー 2
素材としては全部ちゃんと公開されてるんですか
いろいろなモデルは今こういう仕組みで
仕組みっていうか構造してますみたいな情報って
入手できるものなんですか
スピーカー 1
できるものもいっぱいあると思います
大きすぎて分かんないものもありますけど
スピーカー 2
じゃあそれをいろいろ入手して分析されてる
スピーカー 1
それもありますが
基本的には数学的なレベルの話だったら
例えば2018年に出たあるAIの構造と
2019年に出たあるAIの構造とっていうときに
そのAIの本物を連れてこなくても
提案されてる中で使われてる接続の方式とか
いろいろ中身があるのでそこをやってることが多いですかね
実際にその実装されて学習が終わった
実際に使われてるものっていうよりは
それを使うのに使った土台みたいなものをちゃんと整理して
別にこっちじゃなくてこっちでもよかったじゃん
みたいなことを議論するほうが今メインでやってます
スピーカー 2
そういうものは大体公開されてるものなんですか
スピーカー 1
論文上でモデルのアーキテクチャがこうなってますよとか
ネットワークの接続こういうふうにしたモデルを使いましたとか
そういうのは話してますけど
確かにChat GPTの中のモデルが細かくどこまでとかはないかもしれないですね
スピーカー 2
じゃあその最近のオープンAIとかGoogleがやってるやつとかの
最新の構造の情報とかが常に公開されてるわけではない
スピーカー 1
そうですねその接続の情報とかは分かんないし
逆に分かってたら再現できちゃうと思うのでそこまではないですけど
こういう手法を使って学習しましたとか
こういうモデルをベースにして作りましたとかはあるので
じゃあそのモデルにしたAIっていっぱいあるやんってなって
そっちを整理してることが多いんですかね
スピーカー 2
それも面白いですよね
例えば昔だったら検索エンジンとかいろんな会社作ってたと思うんですけど
そんなに手法というかその中の理論を学会で発表してとかやってたんですかね
やってたのかちょっとは
スピーカー 1
当時はやったのかもしれないですね
なので結構思うんですけど
AIって結構できたばっかの技術感があって
やってることとかできることは別にそんな新しく何か革新的にできるようになったわけじゃないじゃないですか
すごい効率よく何かができるようになったとか
すごい性能が上がっただけで新しい何かが起きてるわけじゃないんですけど
技術としてはすごい新技術的なもの
なんかよく分かんないとかなんかうまくいってるとかそういうのがあって
それを頑張って理論化したり説得もされてたりして
結構新しい技術感
情報技術における新技術として
いろんな人が頑張っている感じがあるので
スピーカー 2
そうですね
スピーカー 1
結構そこに関われてるのは面白いなって
スピーカー 2
しかもタイミング的にね
ちょうど研究されてる時にそういうものが出てこなければ
少なくともそういうテーマっていうのは
10年前だとできなかったみたいなのがあったかもしれないですけど
スピーカー 1
ちょっと追いつくの大変なんですけど
スピーカー 2
確かにすごい勢いで進んでそうですもんね
そうですね
すいません具体的な話すごい聞いちゃったけど
だいたいこの番組は本当はライフヒストリーというか
なんでそうなったんですかみたいな
過去に戻って聞いていくんですけど
スピーカー 1
今やってることの深掘りがちょっと長すぎましたけど
スピーカー 2
ちょっと振り返っていただくと
どんなふうにここまで歩んでこられたんですか
スピーカー 1
過去の話ですか
過去の話も長くなっちゃうかもしれないですけど
そうですねどっからからとか
なんかそもそも僕は博士課程まで進学したので
結構珍しいというか変わってる
周りでも全然いなかったので進学したんですけど
ずっと進学したいと思ってたわけじゃなくて
大学院ぐらいまでは理系だと行く人も多いし
個性としての行動できない自分
スピーカー 1
あんまり働きたくなかったので
大学院までマスターまでは行こうかなと思って
修士2年間行ったんですけど
結構何て言うんですかね
いろいろ考えたりするのは好き
良くも悪くも考えたりするのは好きなので
いろいろどうやって生きていこうかなとか
何をやりたいんだろうな自分はみたいなことをずっと
うだうだ言ってたんですけど
そういううだうだ言うのには
なかなか18歳から24歳の6年間では足りないなと
学生で研究というか勉強しながら
なかなか過ごしてて
その6年間で自分のやりたいこととか
当然見つかるわけないので
もちろん見つかってる人もいますし
それで成功されてる方もいるんですけど
僕はビビリなので
レバーを倒してフルでコミットすることが
なかなかできない立ちだったので
6年間うだうだしてても決まらなかったわけですよ
何をしたいかとかどういうところに進もうとか
ちょっと覚悟決めて社会に出ようとかが決められなくて
かといってすごいやりたいことがあったりするわけでもなかったけど
じゃあやってみようみたいな行動力があるタイプではなかったので
じゃあ博士まで行って
博士になれば一応うだうだしてるなりの
称号が得られるじゃないですか
この人はちゃんと頭を使って
研究者として認められているんですっていう
称号が得られるので
そうすればうだうだ言っててもいいだろうと
言うことを思いまして
幸い終始ぐらいの時にも研究が
こんなこと言ったら先生に怒られるかもしれないですけど
このまま書いていけば博士号ぐらいまでは取れるかなっていう研究成果があったので
っていうのも誰もやってる人がいなかったので
同じようなことをちゃんとやって成果を出せば
博士号が取れるかなっていう気持ちがあったのと
3年間ぐらいちょっとうだうだしようかなと思って
俺はどうやっていきたいんだろうみたいなことを考えながら結構
博士の3年間20代後半っていうのを
実践哲学に系統する使うために博士人格しようと
かつそうすれば自分は頭を使うというキャリアを歩むことはできるな
割と自由な生活をしやすいなっていうふうに思ったんです
例えば24でマスター出て就職しちゃって
やっぱ博士に戻ってこようかなってなった時には結構時間が経っちゃってる可能性もあるし
一度社会に出ちゃうと少なくとも週5働いて
今も週5働いてますけど
一旦社会に出ちゃうと週5の間に
なかなかこう自分のことをうだうだ考える時間ってないですし
そうするとだんだん暴殺されて
まあいいやっていうふうにちょっと諦めて
人生そのまま送っちゃう可能性があって
僕はなんかそれがすごいなんだろう
怖くて
なった時にちょっとゆっくり時間が取れる間に
博士号も取れるし研究したいし
別に嫌いじゃなかったし
じっくり自分のことと向き合う時間として
博士の3年間を使おうと思って
もう9年間退学に
思って
じっくり自分のことを考えてどういうことしたいんだろうな
みたいなこととか
何のために生きてるんだろうなみたいなことを考える時間として
博士の3年間を使ったっていうのがあります
こういったあれですけど
さすがに27くらいまで生きてれば
だんだん落ち着いてくるっていったらあれですけど
自分はこういうものを持ってるなとか
自分はこういう能力があるなとか
だんだんそういうのに折り合いがついてきますし
こういうことをやりたいんだなとか
自分はこういうものをモチベーションに生きてるんだな
みたいなものが結構ある程度
あってくるところが
自分の場合はあったので
それでちょっと納得もしつつ
これだったら一旦社会に行ってもいいかなとか
そういう折り合いがついたぐらいのタイミングで
ちょうど博士号が取れて
ちょうど今のポストが話をいただいて
みたいなところがありますね
ちょっと直近のライフヒストリーですけど
っていうとそんな感じですね
でもすごい昔の話に戻れば
僕はずっとうだうだ考えた人間で
親がよく言うんですけど
幼稚園の時に
3、4歳ぐらいの時に
お外で遊ぶ時間があるんです
で、幼稚園の先生が
みんな遊んでおいでって言って
ワーって遊んでワーって遊ぶんですよ
で、僕途中でフラフラ返ってきて
あれ、じゅんぺい君どうしたの?って言われて
疲れた
飽きたって言ったらしくて
なかなか3、4歳の子って
外で遊ぶの飽きないんですよね
体を動かしてワーワー言うの
なかなか飽きないんですけど
僕は多分3、4歳ぐらいから
まだ分かんないですけど
ニューラルネットワークが多分
私じゃないか分かんないですけど
そっちに割と偏って
頭側
頭、頭脳を使う側の方に結構
傾いていて
そっから割とずっと
うだうだ考えながら過ごしてきた人生
幸い
博士まで
行くことができたという感じですかね
スピーカー 2
別に全然うだうだっていうよりは
博士がもとられてすごい有意義な研究もされてますし
全然社会に役に立ってる活動
結構頑張られてると思うんですけど
博士課程まで
学生をされていて
なんとなく自分の
考えすぎと行動の重要性
スピーカー 2
何のために生きてるかみたいなことも
見えてきたというか考えられたってことですけど
具体的にはそれはどういう内容だったんですか
スピーカー 1
そうですね
恥ずかしいんですけど
どこから話そうかな
うだうだ考えるっていう風に
ちょっと自虐的に言ってますが
裏返すと行動できない
行動的じゃないっていうのはあって
結構よく言われるのが
うだうだ考えてると
いいから考えずにやってみなよっていうのが
よくある言葉だと思ってて
実際僕はそれはかなり正しいと思うんですよ
悩まないで行動してみて
結果がついてくるとか言いますけど
リカレントにいろいろ結果がついてくると思いますけど
スピーカー 2
企業化教育みたいなのとか
まず行動しろみたいなのがよくありますよね
スピーカー 1
PDCAを回せとか
あえて強く言いますけど
絶対に正しいんですよ
スピーカー 2
絶対に正しいんですか
スピーカー 1
絶対に正しいんですよ
絶対に考えずに行動した方が正しいんです
それは早いし
行動してから失敗したらもう一回やり直した方が
絶対に効率的なんですよ
だから僕
すごい好きであり嫌いでもある考えがあるんですけど
合理的な判断っていうのは
合理的じゃないっていうのが結構好きで
好きなのかよく分からないですけど
結構重要な考えだと思ってて
合理的な判断を絶対にしようと思って行動することって
全然合理的じゃなくて
それは合理的
何が一番最適かとか何が一番合理的かとかを
考えている時間を考慮したら
圧倒的に遅れてるんですよ
つまり最適な戦略を取ろうとするための時間って
すごいもったいなくて
うだうだ考えてる時間って
絶対やめた方がいいんですよ
うだうだ考えてる暇があったら
行動して成果を出して
失敗したらもう一回戻って
改めて合理的な方に進む方が
絶対に早いし
たとえ失敗したとしてもそれは無駄にならないんで
絶対に行動した方が正しいんですよ
スピーカー 2
そこには全く疑いはないんですよね
スピーカー 1
全く疑いはないんですけど
なんでか僕はそれができない
やりたくないのか
好きじゃないのかなんか悔しいのか
なんか劣等感があるのかなんか分かんないですけど
僕は納得しないと行動ができないので
物理法則がさすがに物理法則分かなくても
歩けましたけど
さすがに運動方程式分かなくても
歩けましたけどでも
思うんですよ
歩き方って習ってない
歩くのって難しくねって最近すごい思うんですけど
スピーカー 2
そこに戻り始めてる
ちょっと考えずに歩いちゃったなみたいになっちゃってるんですけど
スピーカー 1
本当に歩くのってどうやるんだっけとか
声ってどうやって出すんだっけとか結構思うんですけど
それは置いといて
結構その
納得せずになんかするとか
行動に移すみたいなのって
僕はすごい苦手だった
だからもしかしたらそういう知能とかの研究を
やっているっていうところにつながるのかもしれないですけど
何かをなんとなく
受け入れる理解するみたいなところが
すごい
よくも悪くも苦手だし
やりたくないし
でも僕はそういうなんか
人間性に誇りを持っていて
それはいいところでもあるし
自分の個性だと思っているんですけど
それは絶対に良くないんですよ
絶対に行動した方がいいんですよ
ってなった時に行動できないまま
24、25、26、27くらいまで生きてしまった
自分
その要は行動すればいいのに行動しなかったっていうのを積み重ねてきた
自分が何か
得られるものというか
能力の進化と成長
スピーカー 1
それを生かして逆に
今まで行動しなかったこと
無断にうだうだ考えてきた時間を逆に何かに
生かせないかっていうのを思った時に
うだうだたくさん考えてきたことによって
いろいろ能力
そういう能力は身につくわけです
例えば
物を整理するって
すごいざっくり言ってますけど
真相学習モデルAと真相学習モデルBがあった時に
これの違いを整理しようっていう風に
まずモチベーションを抱く人がそもそも少なかったり
整理するってなった時に
実際にそれをできる人ってあんまりいなかったりすると
そういうのは実際に僕の能力が活かされてるなって思いますし
あとは
なんとなく受け入れるっていうことを
ずっと嫌がっていって
もっと言うとなんとなく歩くのも嫌だなって
最近思ってるくらいなんで
っていう風になってくるとですね
カッコつけていいですけど
だんだん能力が芽生えてきて
人の話してる話の流れの論理的ギャップを見分けるのが
すごい上手くなる
なったんですよ
ちょっと本当にただ能力者っぽい
食べ方をしてますけど
要はすごいざっくり言うと
文章を書くのが上手いっていうだけなんですけど
文章を見た時に
その文章がどのくらい
論理ギャップをはらんでるかとか
もちろん論文を書いてたのもあるんで
そういうなんかその
緻密な文章構成を精査するみたいな
結構能力が磨かれたと思います
こことここはなんとなくで埋めてるなとかが
数学やってたのもあるし論文書いてたのもあるんですけど
そういうのも相まって
すごい強くなっていると思っていて
こことこここの人文章ギャップあるなとか
そういうのをすごい見抜くのが上手いです
でなると
人の発言とかでも
こことここに論理ギャップがあるなとか
この人こことここがなんとなくで
埋め合わせて喋ってるなとかが
まあ分かるんですよ
それってその人の
なんか人間性だったり
その人が暗黙的に持っているものだったりするから
その人が大事にしているものとか
その人が
なんて言うんですかね
その人の価値観みたいなものとか
この人はこの神を信仰してるなとか
なんかこの人は
数学が全然興味ないんだなとか
いろいろそういう背景だったり
この人は食パンはうまいものだと当然思ってるなとか
そういうのが見えてきたりするわけですよ
論理ギャップから
っていうと
自己認識と個性の重要性
スピーカー 1
多分昔からそういうのを見るのが多分好きだったんですけど
コミュニケーションスキルっていう観点でも
結構変なものを僕は
急なものを持ってるかなっていうところがあって
そのドキュメンテーションと
コミュニケーションに関する
スキルが
あんまり似たような能力を
持ってる人はいないんじゃないかなっていう
ものが
自分の個性というか
パーソナリティと
かみ合わさって自分
持ってるなっていうことが
だんだん自覚できてきたので
よく言う自己肯定感とか
そういう観点では
そういうものを
それこそ整理して
自分は何を持っていて自分は何ができて
自分はどういうこと考えをしててみたいなのを整理して
それが出てきて
こういうものを持ってるんだったら確かに
俺らしいし
でも確かに27年間も悩んできたら
それは納得できるかとか
そういう観点で受け入れることが
納得することができたので
言ったら
なんとなくやることができなかったんで
自分自身も
なんとなく存在しているじゃないですか
スピーカー 2
気づいたら生きてましたからね
スピーカー 1
それに対して
一個回じゃないですけど
答えみたいなものを見つけることができたのは
その人の社会に出る上で
結構一個強い
契機だったし9年間ぐらい
悩んだことによって
俺ってこういう人間かっていうのを
納得するまで考えられたっていうのが
でかいですね
なので今は
AIとか知能で
なんとなくっていうのを研究する
いわゆる
暗黙地とか言われたりしますけど
暗黙地みたいなものを研究したり
よく僕が使ってるのは未科学
まだ科学になってない分野を研究するみたいなところに
モチベーションがありますし
それって結局僕の
やってきたこととやってることと
今後やっていくことがずっと繋がっていくんですけど
そういうなんとなくやる
みたいなとかなんとなくこうなってるみたいなのを
ひたすら戦う
みたいなことがやってきたことだし
やりたいことだし
ビジネスとしてもやるし
ビジネスとしてもやるし
っていうのが
そうですね
根底にあるなっていう気がします
AI研究と行動への挑戦
スピーカー 2
きょうお話ししてて
すごいお話も面白いですし
ものすごい面白い研究もされていて
そもそもそんなに悩んでいらっしゃった
っていうこと自体が
意外っていうか
めちゃくちゃ最先端の
すごい面白い分野を
しかも世界で第一人者みたいな感じされているのに
悩んでた?みたいな
そもそもそういう
こと言われてもピンとこないというか
すごい
キャリアとしても
輝かしいキャリアを
進まれてるように感じたんで別に
そんなに悩んでらっしゃったんだみたいな
印象ですけど
スピーカー 1
そこはコミュニケーションスキルを使って
スピーカー 2
なるほどなるほど
でもあれですよね
そういう形とさっきの
結果だけとにかく出そうとしている
真相学習モデルみたいなのと
似てますよね
もしかしたら
例えばAIとか
詳しかったらさっさと
そういうことを活用できる会社に入って
年収何千万円みたいな
ポストを得てお金を稼げば
結果だけは出るみたいなそういう意味での
結果っていうのもあるかもしれないですけど
スピーカー 1
だから
僕は最近すごい気づいたことがあって
真相学習の研究
つまり学習してなんとなく
の知見を獲得する
のが真相学習じゃないですか
僕はなんとなくの知見を
獲得して受け入れて行動できない
人なんでそれを研究している
よく言うのが
心理学者
心理学者の方が聞いてたら
心外に思ったら申し訳ないんですけど
心理学者の方は
人の心がわかんないから心理学を研究している
あとは
哲学者の方は哲学がわかんないから
哲学を研究しているとか
自分が理解できない
つまり理解しないと納得
できない
暗黙的に受け入れられなかったものを
研究しているっていうのは研究者によくある
パターンっていう話があって
行動と結果の関係
スピーカー 1
僕は
認知行動
なんとなく理解して受け入れる
っていうことができなかったので
なんとなく理解するっていうことを研究している
だなっていうのを
それを
ライフヒストリーというか
仕事にもしてますし
個人的な
パーソナリティとしても受け入れてますし
そういう生き方を
してますし
なのでキャリアだけ見ると
キラキラしてるように見えるんですけど
今でこそそうですけど
キラキラしてると
なんとなく自分が行動した結果キラキラ
しちゃってるんで
あまり受け入れがたいんですよ
そうすると表立っては
キラキラした経歴を見せるんですけど
こう言ったらすごい怪しい
言い方ですけど裏では
すごいしょうもないこととかを
やってバランスを取らないと
少なくとも自分が確立されるまでは
結構
悩んでいた時期が
あったりして
なんか
そうですねそれこそすまない話ですけど
女の子のお酒飲める
お店とか行って研究する
みたいな
そういう
変なことを
単純に単純ですけど
変なことをしてバランスを取って
表向きはキラキラしたキャリアが
残ってたっていうのは結構
ありますね行動できないんで
行動するんだったら
それを差し引いた分のバランスを取る
マイナスなこともしてやらないと
みたいなところが結構学生時代はありました
スピーカー 2
いやでも
その生き方と研究テーマが
すごい密接にリンクしてる
っていうかすごい似たものを感じるのが
面白いですね要するに
理屈はよく分からないけど走り続けている
AIっていうものを
ちゃんと
分かろうとしようとしてるっていうのと
行動だけしたら結果は出るのかもしれないけど
まず
認知っていうものを
深掘りしようとするっていう
生き方とっていうのがすごい
テーマがリンクしてる気がして
スピーカー 1
面白いですね 最近どうやって歩くか
めっちゃ難しくて
スピーカー 2
もう
それはね
でも息の仕方とかね
てかもう何なら意識せずに
やっちゃってることもいっぱいありますからね
血液の流し方とかどうやって習ったんですか
とか言われても
スピーカー 1
頭の中のことは
こう言ったらあれですけど結構分かってきて
自分はこういう考えをしてるなとか
こういう認知構造があるなとか
分かってきたんですけど
体は難しいんですよねまだ
勝手にやってますからね
体は3,4歳の頃から苦手だったんで
スピーカー 2
体は3,4歳から苦手
スピーカー 1
どういうことですか
無意識に動かすのが
疲れて飽きちゃって幼稚園の先生のとこに
帰ってきちゃうような子だったんで
だから今改めて
体ってどうやって使うのが
ないんだみたいなのを結構
趣味ですけど思ったりします
スピーカー 2
なるほどね
でもそうやって遡っていくとね
要は当たり前のようにやっちゃってることとか
遡っていくと最後の最後
遡れなくならないですか
スピーカー 1
つまり
スピーカー 2
例えば数学で言ったら
例えば1っていう
数字の存在を証明しろって言われたら
できない気がするんですよ
スピーカー 1
それは
スピーカー 2
岡清さんとかが
おっしゃってた話ですけど
そこはもうある
としないと進まない
みたいななんかその最後の最後
もう人間がそれはあると思ってる
気持ちみたいなものでしか支えられない
みたいな領域があるような
スピーカー 1
気がするんですけど
それは
僕は別に全然悪いことだと思ってなくて
逆に言うとそこまでいければいい
と思いますし
人間の体の作りつつってあるじゃないですか
指が5本ある
もちろん
ケストンとかそういう人もいますけど
指が5本あるという
過程において
じゃあどう物を掴むのが
優れているのかとか
それは議論できるんですよ
もし指がなかったらどうするみたいなところまで
遡る気は全然ない
ですが
4足歩行と
2足歩行の違いとかは面白いかもしれないですね
スピーカー 2
なるほどね
少なくとも
もうちょっと分かってもいいことなのに
何も考えずにやっちゃってる
みたいなことはいっぱいあるってことですよね
スピーカー 1
そうですね
スピーカー 2
確かに
スピーカー 1
それ言われたらそうですね
さすがにじゃあ水飲むのやめようとか
はならないんで
それは水は飲んだ方がいいだろう
みたいなのは分かるんでやるんですし
さっきも言いましたけど
結構属性的な
アホな部分もあるので
ラーメン食いたくなって食っちゃうとか
そういうのはどうしても止められないものなんで
そこはなんか
うまく
付き合わないですけど
なるほど
行かないといけないですね
スピーカー 2
ちなみに先ほど
基本行動した方が
うまくいくっておっしゃいましたけど
そのうまくって
スピーカー 1
どういう意味ですか
うまくか
えっと
スピーカー 2
実はそこが
本当はうまいって
スピーカー 1
そんな
2つ考え方があって
1個が
別にうまくいかなくても
いいんですよ
それは何でかっていうと
失敗しても
それが別にプラスになったりもしますし
失敗しなかったらそれでいいですし
ただ行動したってこと自体に
価値があって
それは別に切れ事とかじゃなくて
せいに何かをしたっていうことって
めちゃくちゃ大事なんで
実績という意味でも大事だし
自分の経験としても
大事だし
絶対に何かしら行動したことは
プラスになるんですよ
自分にとって
だったら
考えるのって
時間スケールが変で
100時間考えても何もプラスにならないことって
全然平気であると思ってて
もちろん頭が良くなったとか
思考が鍛えられたっていうことはあるんですけど
実際に何か行動を起こしてみて
得られる経験値と比べると
頭の中だけで
得られる経験値ってめちゃくちゃ少なくって
ってことを考えると
行動したほうが
圧倒的にプラスが大きい
と僕は思っているので
そういう意味での
行かなくても上手くいっても上手くいくっていう意味での
上手くいくっていう話が
一つともう一個は
人間って
あえて強く言いますけど
アホなので
何かやると
何か満足しちゃうんですよ
なので
本当はもっとやりたいことが
あったかもしれないけど
一旦これをやってみようってやったら
意外といいやんって言って
満足して受け入れて評価しちゃうんですよ
それって
上手くいってるじゃないですか
スピーカー 2
そうなんですけど
でも長瀬さんは
必ずしもそう思ってないというか
行動しないことの方が
上手い生き方って
スピーカー 1
思われてるんじゃないのかなって
行動の重要性
スピーカー 1
上手くはないと思います下手だと思います
スピーカー 2
そうですかね
それもだからその行動する
方だけが
行動して起きる一定のパターンってあると思うんですけど
そのパターン側が上手いのであって
その結果を
スピーカー 1
確かに
スピーカー 2
表現しないことが上手くないっていうこと自体が
実は
本当にそうなのかなっていうのは
スピーカー 1
例えるならですけど
中二病的な話になりますけど
行動すると
幸せには
なれると思います
どんな行動ってあっても
結果が得られてある程度の報酬が得られて
達成感があって
その空間が得られて
良かったなやっぱ行動して良かった何々をして良かった
やった方がいいっていう
豊富感は得られるので
多分行動し続けてる人の方が
満足度というか
自己肯定感というか
そういうのは高い
と思います
でも最強になれるかは
スピーカー 2
分かんない
スピーカー 1
最強
最高最強
最適界に到達できるかっていうと
分かんないそれは
全く真相学者の話と一緒で
機械学者でよくやるのが
山の頂上を目指しましょうっていう問題で
勾配法っていう方法を使って
だんだん山の勾配が高い方に向かっていくっていう
方法があるんですよそれ結構
根底にある基本的な考え方なんですけど
それを使うと
例えば山があったときに
どこの地点から始めても
山の勾配の高い方に向かっていけば
頂点にたどり着けるじゃないですかだから
最適界に行けたっていうのが
勾配法なんですけど
これ一個というかすごい大きな落とし穴があって
山が
二方星立ったときに
もう一個高い山があった場合に
とにかく勾配だけを
意識して登っていくと
小さい山の頂点で終わっちゃう可能性があるんですよ
これは
まさに行動してるだけで
到達できる頂点だと思ってて
もっと本当は高い山に
行けたかもしれないし
意味があったかもしれないけど
近くにあった
高い山までしか登れない可能性が
ありますもちろん行動し続けてたら
ずっと登って
ある日ここの頂点で
もっと高い山あるから今度一緒に登りに行こうよ
って教えてもらってよしって言って
登りに行くとかそういう経験は全然あるんで
絶対にこっちの山に登れないことはないと思うんですけど
間違えるかもしれないっていうのが
ある僕は
自分の登れる限り
一番高い山に登りたいので
そのダメだったら
小さい山とか
満足感とか
どうでもいいって言ったら
大事じゃないと
思ったので
そういう戦略を取って
行くという感じ
だから目の前に坂があるから
スピーカー 2
いきなり登るっていうよりは
一番高い山どこにあるんだろうって
まずじっくり考えてから
動こうとしてるみたいなとこですね
スピーカー 1
なのでそれは
効率的ではないですし
上手い方法かって言われると
上手くはないと思います
だし
えっと
なんて言うんですか
身近な幸せを
取り逃してたりする可能性は
あるんですけど
僕は今幸せなんでいいんですけど
AIベンチャーの現状
スピーカー 1
学生時代は
俺は幸せじゃないな
みたいな悩みとかも
ありましたけど
それは山の頂上に登る
ための
戦略という
理解認識ですね
スピーカー 2
ちなみに
お金は
どうですか
AIの
今研究とかされてると
多分お金になる方法は
いくらでもあるんじゃないかと
ちっちゃい山なのかもしれないですけど
結構な学の
オファーというか
そういうお仕事とかも
ちょっと探せば
ごのこ時世は
あるとは思いますし
実際もしかしたら研究されてる仲間の方とかで
そういう仕事につかれて
そこそこの練習で
みたいなこととか
よくあるんじゃないかなと想像するんですが
そういうなんか
お金ってどう思われてます
スピーカー 1
お金ってどう思われてます
スピーカー 2
あといつからね最近
AI系の企業を
IPOしてすごい
人財産築きましたみたいな方とかも結構いらっしゃるな
スピーカー 1
と思って
まずIPOの話を
先にすると
AI系のベンチャーって
めちゃくちゃ難しくて
さっきも言ったんですけど
AIって
すごい
AIってちょっと何がAIなのって感じですけど
生成系AIとか最近のAI技術の
進展新創学術技術の進展って
めちゃくちゃすごいんですけど
何か新しいことができるようになったわけではないと思ってて
すごい早く
できるようになったとか
すごいなんとなく高速にできるようになった
っていうだけであって
何かその革新的に新しいことができている
わけではないんですよ
絵描きがすごい早く誰でもできるようになった
から
何がじゃあできるのって言われると
かなり
サービスにとして
出すとかには結構ギャップがあると思ってて
例えるなら
すごい人件費が安くなったみたいな感覚に近いんですよ
それって
当然技術革新ではあるんですけど
何か発明ではない
発明と呼ばれるような技術ではない
スピーカー 2
物真似がちょっとできるようになったみたいな
スピーカー 1
そうです
それって全然
社会的に役に立つことは
いっぱいありますけど
でも何て言うんですかね
なかなか
その技術だけを持ってして
何か稼ぐってめっちゃ難しい
ですね
なぜなら人件費めっちゃ安くなりましたっていうのだけで
IPOできるかって言ったらめっちゃ難しいので
結構
AIベンチャーの会社って
何やってるかっていうと
その技術を使って何かサービスを作るとか
新しいものを作れないと
ベンチャーにならなくて
ただAIの技術力が高いとか
ただ猫の分類精度が高いだけでは
何もお金は稼げないので
会社っていう観点だと
じゃあそれで何やってるのっていうのは結構
難しいと思います
実際にあるのは
ちょっとラジオで
あんま言うことないかもしれないですけど
蓋を開けてみたら住宅めっちゃやってるとか
技術者がいっぱいあるから
コンサルめっちゃやってるとか
Ninkで働いたりするとかいうケース全然ありますし
サービス作るってなると
さっき言わないと本当に
技術者集団がいるんで
最先端のいろんな領域に
新しいAIを適用しまくって
人件費をどんどん削減しまくってるみたいな
そういうことをやってるだけみたいなケースがあったりして
それは会社として価値ありますけど
でもじゃあ新しい何か
発明したのかって言われると
結構
ギャップがあるんじゃないかなっていう風に僕は思っているので
経済的側面の考察
スピーカー 1
AIベンチャーは
すぐ流行ったんですけど
僕は今からやるつもりには
なれないですし
なかなか大変そうだなと思って
おだしょー 同じなんですね
そうですね
AIを使って新しい何かをしないと
結局
AIベンチャーには
成功はしないなっていう印象が
一つと
オファーとかの話に関して言えば
僕に直接
どのくらいあったかっていうのは
置いといて
実際周りとかには
いっぱいありますし
探せばあるんだろうなっていう気はします
ただ
僕は集合で働きがあまりないので
今働いてないわけじゃないんですけど
なんていうんですか
言ったら今日も学会終わりの
次の日で
振替休日と言えば振替休日に
できますし 研究をする日と言えば
研究をする日になりますので
なんていうんですか
裁量がすごい大きいわけですよ
それは僕にとっては
すごい大事なことで
オファーとかよりも全然
高い高額なオファーとかよりも全然
大事なことかな
と思います
ので
あんまり
なびく
気はしない
ですね
もう一つさっきの話と
つなげて言うと
高額な
オファーをもらって仕事を雇われて
するってかなり
さっきの
行動してみるとか
なんとなくやってみる
にかなり近い構造があって
すでにお金が
ある
あるいは
ブラックボックスを通して
お金が入ってくるっていう感じに近いんですよね
このお金
なぜ自分はじゃあ例えば
1000万のオファーがあるのか
この1000万は
どうやって生まれていて
どうやって発生して
ここに入ってきてるんだとなると
全然
悪気はないんですけど
そういう仕組みだと思っているので
仕方ないんですけどなかなか
サラリーマンの雇用形態って
インセンティブが発生しにくく
って
なんていうんですか
サボったほうが得
みたいな構造になりがち
だと思っていて僕も
絶対に年1000万のオファーが
来たらサボるんですよ
僕は絶対に約束するんですけど
僕は絶対
高額のオファーが来たらサボるんですよ
だってそのほうが得なんで
もちろん
出世してもっと大きなとこに
ステップアップしましょうみたいなのもあると思いますけど
ステップアップすることを
頑張るし転職することを頑張るわけであって
なんていうんですか
すごい悪いやつみたいですけど
サボったほうが得
っていう構造が出来上がってしまっているし
そうじゃないんだとしたら
なんでこの伊勢丸が生まれているの
なんとなく解明しないといけなくなっちゃうんで
お金の流れもネットワークですからね
スピーカー 2
そっちに興味が
どうやって流れてきたんだ
それが分からないと
スピーカー 1
僕は納得して受け取れない
納得して受け取れないか
サボるかしか僕にはないので
そうすると
自分でやったほうが早いんじゃない
みたいな気持ちはちょっとありますね
スピーカー 2
自分でやるは選択肢として
スピーカー 1
選択肢としてはあります
やっぱり
なんていうんですかね
理解したい
なんとなく何かをやるっていうのは嫌いなので
もちろん電通代はご縁があって
参画させてもらってるし
すごい仕事は楽しいし
自由にやらせてもらってるんでいいですし
組織もそんな大きくないので
かなり裁量性も高くて
いいですし
ちょっと
肩書きもかっこいいので
嬉しいんですけど
あとはあれですね
構造が単純なんで
国からお金が出ていて
大学があって大学からお金が出て
AI技術の複雑さ
スピーカー 1
プロジェクトで雇われてるって形なんで
流れが
ネットワークがシャローなんで
浅いネットワークなんで
説明性が高くていいんですけど
じゃあ
サラリーマンとかになると
全然話が変わってくるなと思ってて
そこには行けないですし
やった時にどうやってフィーを稼ぐの
自分で見えるような仕組みを作るとか
上から下まで見れれば
別にそれは全然
食うじゃないというか
なんとなくじゃなければいいようなので
ちゃんと自分でお金の流れを作って
受け取るみたいなのは
そうですね
結構
興味があるというか
今は
国立大学の
教員なので
もちろん
うちのセンターとかは実務科の先生とかも
多いんで
クロアポだったり結構大学と
会社兼業とか副業されてる先生も
いますけど
やっぱりどうしても国立大学という
手前上
すごくたくさん副業するというわけ
はいかないので
それはなかなかできないですが
でも
そうですね
国立大学の方が興味あるかな
面白そうかなという気はしますね
スピーカー 2
そうなんですね
スピーカー 1
そっちはあるかもしれないですね
スピーカー 2
そうですね
なるほど
いっぱい聞けましたけど
こんな感じでしますか
今後なんか
展望というか
スピーカー 1
こんなことしていきたいみたいなのって
そうですね
一応今のポストが
人気があるので
人気があるんですよね
人気があるので
うだうだ考えてたら
終わってしまうかもしれないので
そうですね
それいつまでなんですか
一応あと
1年半プラス2年延長できるみたいな
これ言っていいのか分かんないけど
そうですね
5年間ぐらいっていう風に言われているので
プロジェクトとかがちゃんと続けば
最大5年間入れるので
僕が30手前
進路選択の提案
スピーカー 1
30の前半ぐらい
までは一応大学教員
という肩書きを僕はもらっているんですけど
その後も
大学教員になるかビジネス側のほうに
行くかはまだ全然決めていなくて
サラリーマンは多分ないんですけど
大学の仕事も嫌いじゃないので
このラジオとか
大学の先生とか
参加されることあるんですかね
スピーカー 2
先生はいたかな
スピーカー 1
今まで
スピーカー 2
あんまりいなかったかも
スピーカー 1
もし興味の方が
いたら
応募があれば
全然応募
数学系でもAI系でも
全然いけますというところは
一つと
大学教員はなんだかんだ
嫌いじゃないので
続けられるかなと思いつつ
そこはどうしても巡り合わせというか
もあるので
行くところが
なくなったら
何かやるしかないな
って感じですね
スピーカー 2
何かと
何とでもなりそうな気がします
とか言うと
スピーカー 1
無責任かもしれないですけど
こう言ったらあれですけど
自分で
会社を作ってお金を稼ぐとか
ちゃんと収入を得る
っていうのは
難しさ的には歩き方
ぐらい難しいかなっていう
スピーカー 2
なるほどね
スピーカー 1
歩き方ぐらい難しいね
ちゃんと勉強して歩いたら
めっちゃ綺麗に歩けそうだし
スピーカー 2
何となくでもあれで歩けるかな
っていう気がしています
分かりました
今後のご活躍も期待しておりますし
何でどううまく動いてるのか
よく分からない
AIのことが
分かってきたら
どこかで
拝見できればと思っておりますので
今日は色々お話いただいてありがとうございました
スピーカー 1
永瀬さんでした
ありがとうございました
01:49:57

コメント

スクロール