AIメディア編集長のたつけです。 AIコンサルタントの平岡です。この番組は、AIの最新動向をもとに未来を考察するポッドキャスト番組です。
本日のトークテーマをお願いいたします。 AI研究がノーベル賞を取ったことで安全思考へシフトするのか?
危険思考。危険思考の方です。 反対を言ってみようかな。
先日、ノーベル賞が発表されまして、2024年ノーベル物理学賞にですね、ジョン・ホップフィールドさんとジェフェリー・ヒントンさんという2人の方が受賞されましたと。
はい、なんかすごく巷では大騒ぎでしたね、これね。 そうですね、AI界隈では。なぜかというと、このジェフェリー・ヒントンさんというのがAIの父と呼ばれている方でして、
この方が受賞したことでAI界隈が少しざわつきましたよと。 なんかついに取りましたみたいなね。
なので今回はこの辺をちょっとですね、どういう技術が受賞して、このジェフェリー・ヒントンさんがどういう方なのか軽く説明した後にですね、
このジェフェリー・ヒントンさんというのはAIの安全を謳っている方でもあるので、これを機にですね、そのAIが安全思考にシフトしていくのかどうかみたいなのを未来考察していこうかなというふうに思っています。
で、今回このノーベル物理学賞を受賞した研究の内容なんですけども、人工ニューラルネットワークによる機械学習を可能にした基礎的発見と発明に対する業績というものに対する受賞ですね。
なるほど。 わかってない。
機械学習の基礎的なものを。 そうそう、早い話が今のAI技術の本当の基礎となる部分が受賞されたみたいなことで、
人工ニューラルネットワークというのは何かというと、人間の脳の神経細胞、ニューロンの働きを模倣したコンピュータープログラムのこと。
もちろん知ってますよ。 そうですね。一応知らない方もいるかなと思って軽くね、解説で。
で、これはですね、すごいわかりやすいけど、例えば犬の画像とかを見せたときに人間の脳を真似してちゃんと犬って判断できるようにみたいなものでして、
で、機械学習。これはね、もうAIやってる方だったらわかるかもしれないですけど、コンピューターがデータから学んで自動的に改善する能力みたいなものが機械学習なので、
今までこうしてくれっていう指示に従ってたものを機械学習することによってコンピューターが自らパターンを選んで経験から学んでいくみたいなシステム。
だから人間の脳そっくりに作ってめちゃくちゃ学習経験させるっていう今やってるAIの方法あるじゃん。これの基礎というものを研究した方。
そうですね、むしろ今なんだって感じですね。 そうだね、だからようやく今になって認められたみたいなそういうニュアンスなのかね。
確かこの技術って2016年とか17年とかそれぐらいじゃなかったでしょうっけ。 多分2013年。
あ、もうちょっと前か。 うんもうちょっと前かな、基礎の部分でいくと。
その頃にね、日の目を浴びてもよかったけど、やっぱこれは最近のこのAIの盛り上がりっていうのが反映されているところなのかなっていうね。
なるほどですね、確かにすごい技術ですからね。 はい、このジェフェリーヒントンさんという方についてちょっと紹介すると、ロンドンのウィンブルドン生まれということでイギリスの方ですね。
で、バックプロパゲーションとか誤差逆電波法とかそういうものがあるんですけど、これを普及させた方ですね、一番最初のスタートで言うと。
これが要はそのニューラルネットワークの学習効率を大幅に向上させるアルコリズム。
なるほど、アルコリズムなんですね。 で、その後ボルツマンマシンとかオートエンコーダーとか制限付きボルツマンマシンとか。
この辺はね結構難しい本当の技術っていう感じなんであれですけど、要はこれが後のディープラーニングにつながっていくもの。
1900年代に出されたやつですよね、その辺の技術って。AI検定の勉強をしたときにその辺全部出てくるんですよ、テストに。
なるほどね。 そうそうそう。だからボルツマンマシンとかちょっと懐かしいなと思って。
でも結構そうかも、この後ちょっと紹介するところでもそうなんだけど、人とかもあの人がここでみたいな。
結構つながったりすることがあるところで。 そうですね、原始ですよね。
第二次AIブームとかの時に確かそのボルツマンマシンが出てきて、その後制限付きとか出てきて、
で今のニューラルネットワーク機械学習っていうのがさっきたつきが言った2013年頃に出てきたって感じでしたよね。
だからこれが本当にディープラーニングにつながっていく基礎ということで。
その後学生と共同設計したイメージネットでこれを用いた画像認識コンテストっていうのが開催されて、
イメージネットっていうのは物体認識のための画像のデータベースなんですけど、
この大会に自ら開発したアレックスネットっていうのを持ち込んで、初参加ながらめちゃくちゃ高得点で優勝したわけですよ。
これが結構そのディープラーニングの分野が注目されるきっかけになって、
巨大テック企業とかの大型投資が増えたりとかっていうきっかけになったのがこのコンテストだったりする。
当然その自然科学的な分野で重要だっていうふうになれば、より資金とかも。
今もすでに資金が入ってきてるけど、よりこれで資金が入る可能性も増えるし、ノーベル賞を取れるっていうことならってことでね、研究者とかの参入が増える可能性っていうのはある。
要は、真っ当な学問って言い方したらあれだけど、それこそ松尾さんの本読んだ時に書いてあったけど、やっぱ当時AIのことを研究してますとかって言うと、
AI研究者のオタクみたいな。そういう風潮がやっぱあったらしいんだよね、昔は。
なるほどね。
なんですかそれみたいな。
遊んでないでまともな研究したらどうですかみたいな。
なるほどね。
そうそうそう。っていうところから、ノーベル賞になったことで、まともな学問なんだねこれはみたいな公式に見られるきっかけになるのかもしれない。
最近はね、オープンエアとかGPTの影響でさ、遊んでるんですかみたいな思ってる人はだいぶ減ってると思うけど、それでもこれがお墨付きをもらったみたいな瞬間だよね。
なるほどね。
だからまあ今後ね、研究者の参入とかも増えるんじゃないかなっていう風には思うよね。
じゃあこれからの技術の発展に大きなきっかけになるかもしれないという感じですね。
そう。
なるほど。
で、これをきっかけに今後未来どうなっていくのか、どんどんどんどん技術が発展していくのかっていう風にも思えるんですけども、
まあ今回のテーマがですね、ノーベルショットということで安全指向にシフトするのかどうかというところで、
その辺がどうなっていくのかっていうのをちょっと後半話しようかなと思います。
で、個人的にはやっぱりジェフェリー・ヒントンさんが受賞したことで、AI開発に対する流れがちょっと安全性重視した方がいいんじゃないっていうのに変わる可能性は全然あるかなという風に思ってて、
で、ジェフェリー・ヒントンさん、2023年5月にGoogleを退社してるんですけど、
その理由っていうのが、AIの発達が自分自身の想定を超えており、
Googleを気にせずその危険性について話せるようにするためにGoogleを去ったという。
要はGoogleでAIの研究をしてて、Googleの看板を背負いながら、AIやばいっすよなんてとても言えないと。
だからGoogleを辞めて、AIについての危険性とかをちゃんと喋れるようにしたいみたいな。
で、この研究を始めた当初っていうのは、AIが人間に匹敵するとはもう考えてもいなかったらしいのよ。
なんだけど、やっぱチャットGPTの登場で見方が変わったらしくて、
もしかするとこのシステムが起きていることは、
人の脳で起きていることよりもずっと優れてるかもしれないって思うようになったらしくて、
それをきっかけにGoogleを辞めて、
辞めて最初の時は本当にAI系のテック企業とか各社を回って、
AIの危険性を喋って、とにかく安全を気をつけてくれみたいなことを言って回ってたようなことをしてたらしいのよ。
ここもさ、入谷さつけばあさんとちょっと被るところあるよね。
あの人もやっぱAIの安全性を問いてさ、
今もその安全性に特化した会社を起業したりとかもしてるし、
サムちゃんを辞めさせようとしたりとかみたいな流れがあって、
多分原点とか源流が一緒だからそういう同じ思考になるのかもしれないけど、
企業間のAI開発競争とかにもやっぱ懸念も抱いてたと。
ただ、Googleの技術管理の部分は結構信頼をしてたのよ。
っていうのも、Googleってさ、もともとそういう傾向あったんだけどさ、
技術はあって、作ろうと思えば作れるんだけど、
でも危険だし、まだ世間的にっていうところもあるから、
あえて作ってませんでした、みたいなことをGoogleってやってたじゃん。
技術はあるけど出さない、みたいな。
で、そこをジェフェリー・ヒントンさんもさすがだな、みたいな感じで信頼したところがあるのよ。
だけどやっぱマイクロソフトがビングチャットボット導入したぐらいの時点でさ、
Googleもバード出したりとかして、やっぱそこに加わったじゃん。
で、あの時もバード出した時とかもGoogleの社内で、
ちょっとこれはまだ時期焦燥なんじゃないか、みたいな批判があったらしいんだけど、
ジェフェリー・ヒントンさんは結構そっち側で、
いやいやGoogle出しちゃうのか、早くないか、みたいなことを思ったらしいのよね。
多分そういうところで思うところがあって、やめたみたいなところがあるっていう感じ。
なるほど。
そう。で、ジェフェリー・ヒントンさんはやめた後インタビューを受けてて、
その中で、自身が反省を捧げた仕事の内容をちょっと後悔しているっていうふうに語ってるぐらいなのよ。
へえ、そうなの。
そう。で、悪者がAIを悪事に利用するのを防ぐ方法はなかなか見当たりませんっていうふうに話してて。
ああ、確かにね。
この技術を悪く使っちゃえば、使えてしまうよねと。
実際ね、そういうAI犯罪のね、ポッドキャストも喋れましたけど、いっぱいありますもんね。
そう。それを防ぐ手立てはなかなかない。
確かに。リテラシーをつけるしかないよね。
そう。だからこの研究を後悔してる。
ノーベル賞まで取ってさ、素晴らしい研究をやってるのに、本人がこれで本当に良かったのかって葛藤してるっていうのがさ。
それぐらい人類史にインパクトを与えるような研究だってことですよね。
まあそうだね。だからこそノーベル賞取ったっていうのもあるけどね。
でもね、この方がこういう思考で、なんでそれが反映されていくのかって思うかっていうと、
このヒントのノーベル賞を取ったインタビューでこういうふうに言ってるのよ。
政府ができることの一つは、大企業が今より多くのリソースを安全性の研究に通じやすいように強制することだ。
例えば、オープンAIのような企業が安全性の研究を後回ししないようにっていうふうに名指しで言ってるわけよ。
これは結構強制力があるというか説得力があるというか、
結構本当に政府がそういう方向性に進もうって思う動機づけとしては結構十分なんじゃないかなっていうふうに個人的には思って。
作った本人がね、言ったらそれは動こうってなるよね。
そうそうそう。で、このノーベル賞取ってインタビューのタイミングでオープンAIの名前をわざわざ出してまで言うってことは、
いや相当だね。
いや政府、マジであいつら結構やってるから気をつけろよみたいなことでしょ。
そうだね。
っていうのがあって、だからこれを聞いた時に結構安全性重視しなきゃいけないよっていう方向性に、まあ言ってもおかしくないのかなっていうふうに思ったっていう。
なるほどよね。
こっからちょっと未来予測からはちょっと外れちゃうんだけど、個人的にちょっとあと面白いなって思ったところで言うと、
オープンAIよりもGoogleの動向の方が結構重要になるんじゃないかなと思ってて、
っていうのはこのノーベル科学賞っていうのもまた別であってね、今回物理学賞を受賞したのがAIの父だけど、
ノーベル科学賞っていうのもあって、そっちを受賞したのがイギリスGoogleディープマインドのディミス・ハザビスさんとジョン・ジャンパーさんっていう、
Googleのディープマインドの2人がこれを受賞してるのよ。
あの、EGOの。
そうそうそう、アルファゴの。
アルファゴのね。
これは計算によるタンパク質の設計の功績と、タンパク質構造の予測の功績っていう2つの功績が称えられてるんだけど、
これの後半のタンパク質構造の予測の功績の方を受賞したのがこのディープマインドの2人。
タンパク質の構造。
そう。で前半部分はまた別の人。だから今回物理学賞はさ、ほら2人が受賞してるじゃん。
でこの科学賞も3人受賞してて、2つの賞を5人で受賞したみたいな感じなんだけど、その5人のうち3人がグーグルなんだよね。
なるほど。
これ結構すごくないっていうさ。
そうだよね。グーグルのディープマインドの人たちが3人いたってことですよね。
そうそうそう。だからやっぱりベースとなる基盤技術ってやっぱグーグルめちゃくちゃ強いよなっていう。
そうですね。ずっとなんか話してると結局グーグルが最小っていう技術多いですよね。
多い。そうそうそう。だからそれがもうこのノーベル賞レベルまで来てるって考えると、
なんかもうどっかの大学の研究所とかよりもよっぽどものすごい研究してるよねっていうさ。
やっぱ資金が潤沢ですからね。
そうそう。だから最終的にやっぱりこれはもう過去の放送でも何回か話してるけど、やっぱオープンAIかけるマイクロソフトバーサスグーグルっていう戦いになると思うんだよね。
あーなるほど。
多分オープンAI側は結構イケイケドンドン。
イケイケドンドンな感じするよね。
そう。で、グーグルはやっぱ最近結構イケイケなとこもあるけど、だからもともとさっき言ったように倫理感があったわけじゃん。
で、基盤技術もしっかりあるわけで。だから安全性に配慮しつつオープンAIを超えるようなAIを出してくれれば、
我々としても安全面を守りつつ技術の革新が望めるから結構一番いいスタイルかなっていうふうに思ってる。
単純に規制だけされてさ、AIの進化が止まっちゃうってのはちょっと寒いじゃん。
そうですね。
我々も気持ちとしてはオープンAIぐらいイケイケドンドンっていたいぐらいだからさ。
ただやっぱねAI犯罪とかのことを考えると野放しはやっぱ危険だよなと思うしな。
本当にAIが人間滅ぼしに来る未来もさ、こうやって散々喋ってみるとさ、
あんまりその未来も確かに都市伝説っぽくなく起きてもおかしくないなって思う人もあるわけじゃんやっぱり。
だからこそやっぱGoogleがそこをちゃんと配慮したものを技術でこうやって作ってきてくれれば嬉しい。
だから個人的には結構オープンAIじゃなくてGoogleが派遣とってくれた方が安全面とか考えると悪くないんじゃないかなっていうふうに思うところはある。
なるほどですね。
ちなみにGoogleが掲げてる理念の中にこういったものがあって、
邪悪にはなるなっていうのがあるんですよ。
Googleって根本的に邪悪になるなっていうことをすごく大きく言ってて、
邪悪にならないためには資金が、いわゆる競争力がめちゃくちゃ必要だという話をしてるんですよね。
例えばだけど、お金がないと、資本がないと、でもなんとかしないと、目標を達成しないといけないってなったときに、
悪いことすればそれを達成できるってなったときに、個人はその手段を取らないことが多いんですよ。
サイコパス以外はね。
でもこれ組織となったときに突然みんな悪いことをしだすみたいなことがあって、
それくらい組織って怖いんですよ。
何しでかすかわかんないというか。
っていう中で、自社が競争力をしっかり持って、資本を持っていれば、
邪悪になる必要がないよねっていう理念というか、そういったものを掲げているので、
そういったGoogleが今回のAIの開発において、
邪悪にならずにAI開発を着手できるのかっていうのはすごく大きなところだなって個人的に思いますね。
確かにね、頑張ってほしいところではあるよね。
このノーベル賞っていうのがどうやってできたのか、これはもう有名なので知っている方の方が多いかもしれないけど、
ノーベル賞というのはノーベルっていう方が、自分が発明したダイナマイトが戦争とかに使われて、
負の側面があったことに心を痛めたところから創設された賞なわけですよ。
そうなんですね。
本来は洞窟とかをめちゃくちゃ時間かけておったのを、ダイナマイトでドーンって一撃で巨大な穴を開けれるから、
ものすごい便利な発明なのよ。
なんだけど実際じゃあ何に使われてたかっていうと、戦争とか、人を殺すことにばっか使われてしまったと。
それに心を痛めて作ったのがこのノーベル賞なんだよね。
果たしてこのAIが21世紀のダイナマイトになってしまうのかっていうところが、本当にもう近しいところがあるよね。
すごいね、それね。
このAIによって、戦争とかに使われる可能性って全然あるわけだから。
間違いないね。
今ヒントンさんは、自分のこのAI開発したものがダイナマイトのような使われ方をされてしまうかもしれないっていうことを多分危惧して、
こういう安全性について解いてるってところが多いんだろうね。
そうですね、使われてしまうでしょうからね。
多少はしょうがないとこあるし、軍事転移をされることによって技術ってより発展していくってところがあるから、
まあまあ許容すべきラインもあるのかもしれないけど、
自分がね反省かけてさ、開発したものがさ、人殺しにばっか使われてるってなったらそれは辛いよね。
うんね。何を作ってたんだろうってなっちゃいますよね。
そうそうそうそう。
確かにね。
まあだからそうならないためにも、まあ個人的にはGoogleの方にちょっと頑張ってほしいかなっていう。
確かに。
もっとスムーズにできるようになる未来がすごい近いんじゃないかなみたいな。 たつけ 確かにね。
って思って、何かこう選択に迷った時に、今らと友達とかに相談したけど、なんかAIに聞けば過去の経験とかいろんなものを全部合わせて、
いやこの選択が失敗するよとかってのを普通に教えてくれるみたいなことがさ、なんか起きてもおかしくないなと思って。
たつけ サイコパスじゃん。 そういう男サイコパスに近づいてて。 たつけ アニメのね、アニメのサイコパスみたいな世界線だね。
あなたは犯罪を起こしますよって言われちゃう可能性もあるけど、でも全然もっとさ、就活に失敗しないとか、企業選ぶに失敗しないとか、
もしかしたら離職率めちゃくちゃ低いみたいな世界が生まれてるかもしれないじゃん。 だってだいたいみんな情報を入れて確認してるから、失敗するわけないんだよねみたいなさ。
なるほどね。 たつけ なんかこの話は面白いな。これだけで一本ちょっとしゃべりたいなって思ったりもした。
どっかで行けますね確かにこれは。それこそ今の話言ったら、いわゆる離職率がめちゃめちゃ低くなって、みんなが最適なもう最高の選択ができたことって本当にそれ幸せなんだろうかって僕思うんですよ。
たつけ その視点もちょっと面白いね確かに。 ちょっと哲学的な考えになっちゃうけど、
そのこれからのAIの発展の精度の良さとか、自分の人生をわかった上での選択って、今まで人間がしてきたけどそれをAIをすることによって、
本当に良い選択になった時にどんな世界になるのかっていうのをちょっと考えるだけで面白いよね。
たつけ 確かにね。 逆に抗いたくなっちゃうじゃん。人間って多分そういうの。
たつけ 確かに確かに。 俺は嫌だなって思っちゃうその選択。
たつけ AIに聞いて出てきた答えの逆言ってみてますみたいな人が出てきそうになる。
YouTubeの100見てるみたいな。
たつけ マジで人生保存で書いてある。
AIにしたかった方がいいみたいな。
たつけ ちょっと近未来のギャグだよね。
そういうのとか面白いなーって思ってね。
近未来系ギャグね。
ちょっとねこれ関連で話したいですね。確かに一歩行ってもいいかもしれない。
じゃあ今日はそんな感じで、はいありがとうございました。
では最後に告知でございます。
たつけ 笑っちゃうな流れで言われたら。
AI未来話の公式Xが始まりました。
Xでは最新ニュースやお便りの紹介などリスナーの皆様との交流の場にできたらと考えていますのでぜひフォローのほどお願いいたします。
概要欄にリンクを貼っております。
またお聞きのポッドキャストアプリでAI未来話の番組フォローとレビューもお待ちしています。
フォローしていただくことで最新話が更新され通知がきます。
この番組はランキングに入る可能性が上がります。
お互いウィンウィンなのでぜひフォローのほどお願いいたします。
来週も木曜朝7時1分に更新されます。
通勤通学のお供に聞いてくれると嬉しいです。
7時1分に変えたの?
結構前から7時1分なんですうち。
知らなかったです。
なんとなく7時1分にしました。
そうなんですね。
なので通勤通学のお供に聞いてくれると嬉しいです。
それでは本日もありがとうございました。
ありがとうございました。