-
-
スピーカー 2
だから参考書にこの専門家はこう言ってます、
この専門家はこう言ってますっていうのが紹介されてるぐらいの感じなんですよ。
スピーカー 1
なるほど。
なんかやっぱ原理主義的な話がある。
スピーカー 2
そうそうそう。
だからもしね、AIの定理はこうだって言ってる人いたら、
それってあなたの感想ですよね?って言ってますから。
これはぜひ覚えておいてください。
スピーカー 1
感想だったんだ、あれは。
僕が今まで聞いてきた動画で見てたやつ、あれ感想だったんですよ。
そうそうそう。
スピーカー 2
例えばもはやその自理検定を主催してる側の人とかは、
例えば人工的に作られた人間のような知能、内緒はそれを作る技術のことを人工知能。
AIだって言ってる人がいたりとか、
あとは別の人は究極的には人間と区別がつかない人工的な知能のことって定義してる人もいるとか、
この辺が人によって違うっていう。
スピーカー 1
はいはいはい。
かなり思想というか、そういう哲学の要素が入ってます。
そうなんですよね。
スピーカー 2
だからまさにAIって黎明期というかこれから、まさにそのぐらいの今フェーズなんだなって感じがしますよね。
スピーカー 1
なんかやっぱりSNSで見る議論を見てても、やっぱり技術的なものとか人工知能っていう狭いフィールドというよりは、
すごい宗教の話してるみたいな人が多いですよね。
そもそも、だからさっきおっしゃってたように仕事を奪われるとか、人間なんて必要なくなるんじゃないかとか、
じゃあAIという機能を人に埋め込んで、ニューラリンクじゃないですけど、拡張するとかっていうのは倫理的にどうなんだとか、
ありがちな論争ですけど。
スピーカー 2
それ全部、それってあなたの感想ですよね。
スピーカー 1
感想で結構ですよね。これもうもはや。
そうですよね。
スピーカー 2
そうですね。
スピーカー 1
これはこれから導き出していくものだから、まだ答えがないものだから。
スピーカー 2
感想しか言ってないですよ、それで言うと。今の世論は。
そんなAI、今回のブームって最初じゃないですもんね。何度か今まで。
スピーカー 1
何度かありますよね。
スピーカー 2
今は3回目のブームなんですよね。
実は1回目は、第一次AIブームっていうのは1950年代から60年代。
スピーカー 1
それはもう全然わかんないわ。50年代。
スピーカー 2
そうなんですよ。これはまだパズルとか解いたり迷路を解いたりっていう本当に簡単なものしかできない。
だけど、だからあの時一回ブームになったんですけど、結局その実世界の複雑な問題は解けないって判明して下火になったっていう。
なんだ、所詮そんなもんかっていう感じで、しばらく下火になって。
それをなんかトイプローブレム問題って言っちゃって。
おもちゃの問題っていうぐらいのことっていう。
で、もう下火ですね。
スピーカー 1
まあ、そうだよね。実用性みたいなところが乏しい。しょうがないよね、時代考えたら。
スピーカー 2
パズル解けて何みたいなね。
スピーカー 1
そうですよね。いや俺だったら5秒で解けるからみたいな。
ものをコンピューターが50分かけて解くみたいな。
スピーカー 2
それで下火になって。ってことは第2次が1980年代ですね。
スピーカー 1
80年代なんですね。
スピーカー 2
この頃ね、エキスパートシステムっていう考え方で、やいがまた。
っていうのはその名の通り、専門家の知識を大量に投入して、そのデータベースのもとに変更するっていう。
まあいわゆるルールベースで、これが来たらこうっていう。
だからまあ医療の診断とか、こういう症状がある、じゃあ何みたいな。
それがエキスパートシステムっていうのが出て、ちょっとあれ?これは来たんじゃない?ってもう一回ブームになった。
のが80年代なんですけど、とはいえ限界があるじゃないですか。
限界ありますね。
スピーカー 1
知識の投入するにしても。
手入力だしね、多分ね、その頃は。
スピーカー 2
だから結局知識の満遍なく用意して管理するのが難しいって判明して、下火になりました。
スピーカー 1
それはなんかね、分かる気もします。
すごいんだけど、結果なんかすげえデータベース作りますみたいな話ですもんね。
これって本当にすごいのかもね。
スピーカー 2
これを用語としては知識獲得のボトルネックっていう問題です。
スピーカー 1
ボトルネックって言われちゃってる。
スピーカー 2
そうそう。
スピーカー 1
獲得のボトルネックって言われちゃってる。
スピーカー 2
結局例外に対応できないっていうね。
スピーカー 1
ない情報も出てくるし。
スピーカー 2
そうそう限界があったんですよ。
スピーカー 2
そう。
で、80年代流行りましたけど、また下火になりました。
スピーカー 1
あ、そう。
スピーカー 2
で、第3次AIブームが今ですね。
これが2000年以降って言われてます。
スピーカー 1
そうか。
結構ラグというかスパンがあったんですね。
そうそう。
スピーカー 2
ちょうど20年単位くらいですかね。
当時と大きく何が違うかって言ったら、
インターネットの登場ですね。
インターネットの登場で
要するに情報がめちゃめちゃ増えたから、
もう学習しやすくなったんですよね。
あとはGPUとか演算リソースの性能が上がったからとか、
高性能のアルゴリズムができたとか、
この一気に爆発してって感じですね。
ビッグデータとかね、そういうのが一気に。
だから今がディープランニングっていうのが技術的なブレイクスルーになりました。
スピーカー 1
ブレイクスルー。
久々に聞きましたその言葉。
スピーカー 2
またごろくの一つですよ。
スピーカー 1
ビジネスブレイクスルーみたいな。
いやあ、そうっすよね。
僕らは幸いこのインターネット業界にいるんで、
割と聞く言葉、AIって言っても今っていうよりは結構前から聞いてる言葉だったじゃないですか。
スピーカー 2
そうですね、確かに確かに。
スピーカー 1
なかなか聞いてはいるがみたいな感じで、
未来の話だよねみたいな。
VRとかメタバースとかも同じですけど、
未来の話だよねって言ってたのがね、
やっぱりAIに関してはここもう2年ぐらいかな。
スピーカー 2
チャットGPTが出てからですかね。
スピーカー 1
出てからですよね。
スピーカー 2
チャットで初めてピンときたんですよ、みんながね。
スピーカー 1
チャットか、やっぱそうですね。
そこだったんだね、やっぱね。
確かにそれは結構デザイン的な話みたいなとこですよね。
インターフェースとしてどういう、
媒介物になるのかみたいなイメージできる。
スピーカー 2
オープンAIの人ももともとGPT-3とかはやってたけど、
まさかチャットでこんな跳ねると思ってなかったから、
びっくりしたらしいですもんね、実際チャットGPTで跳ねて。
チャットなんだみたいなね。
スピーカー 1
確かに。
なんかやっぱりロボット感というかさ、
アンドロイドとリアルタイムでしゃべれるみたいなものを抱きがちですけど、
やっぱりチャットですよね、やっぱ。
これはすごい、これはブレイクスルーな気がします、本当に。
あえてのチャットというかね。
そうですね。
スピーカー 2
要はそういうAIで学習するみたいなプログラムとかそういう仕組みがあったけど、
チャットっていう媒介がないと人間はどう使っていいかわからなかったんですよね、僕らはね。
スピーカー 1
そういうことですよね。
スピーカー 2
だってエンジニアみたいな仕事をしている僕でもやっぱり機械学習みたいなものにアクセスするのってやっぱり難しいですもん、やっぱ。
機械学習としてのエンジニアリングができないと。
スピーカー 1
結局だからそれに適応するための知識をつけて、
ハンドリングしなきゃいけないみたいな障壁ができちゃうからね。
だからすごいよね、そこはオープンAIは偉大ですね、本当にね。
スピーカー 2
人工知能の分野で抱えている問題、これも用語がぜひ渡さんの横文字語録に入れていただくといいかな。
スピーカー 1
僕のデータベースに。
スピーカー 2
もしかしたら渡さん知ってるかもしれないですよね。
スピーカー 1
いや分かんないです、全然。
リパートリーになるかもしれないですね。
スピーカー 2
例えばチューリングテストっていうのがあって、アランチューリングって渡さん聞いたことありますかね。
第二次世界大戦でエニグマの暗号解読した人で、アランチューリングっていう人が。
スピーカー 1
名前聞いたことあるね。
スピーカー 2
渡さんこの辺得意分野。
スピーカー 1
この辺一番好きな、好きって言うか調べてるからね。
スピーカー 2
このアランチューリングが提唱した、それがAIなのかどうか、そのAIが本当に有効かどうかをテストする方法としてチューリングテストっていうのを提唱したんですけど、
それはコンピューターと別の場所にいる人がコンピューターと質疑を落として、相手がコンピューターであることが見抜くことができなかったら、それはもうコンピューター知能があるっていう証になるんじゃないか、がチューリングテスト。
まあ確かにそうだなと思うじゃないですか。さすがエニグマの暗号解読したな、チューリングなって思うじゃないですか。
エニグマが何なのか分かんないけど。
でもそれに対する反論があるわけですよ、違うと。それはね、中国語の部屋っていう反対意見があって。
スピーカー 1
これはある部屋にね、反対側の窓から英語を入れたら、反対側の窓から日本語が出てくるって、要は自動翻訳のマシンの部屋があるとするじゃないですか。
スピーカー 2
外から見たら、あれ英語を入れたら日本語が返ってくるぞと思うんですけど、実際は中に人がいて、英語が喋れる人がいて。
すいません、日本語と言いましたけど、英語と中国語ね、中国語で。
実際は中に人がいて、入ってきたやつを一生懸命その場で辞書を調べて、中国語の調べて出してるだけっていう状態。
でも外から見たら分かんないわけですよ。だから結局分かんないじゃないかってことなんですよね。
スピーカー 1
チャットボットでも人が書いてるチャットボットっていますからね、インターネットでね。
スピーカー 2
確かにね、だからチャットボットって言いつつ中で人が頑張ってるんだけどね。
スピーカー 1
人が手打ちの時、タイプミスしてるチャットボットいますんで。人が打ってるんだなみたいな。
スピーカー 2
そういう状況見たら、あれ中国語の部屋じゃねって言ってるでしょ。
スピーカー 1
なるほど。
中国語の。なんかやっぱディスられてる感じはありますよね、やっぱね。
なんか。
なんとなく。分かんないけど。
スピーカー 2
っていうね、そういう名前がついてるんだなっていうね。
面白いですね。
スピーカー 1
そうそうそう。
スピーカー 2
あと問題はね、シンボルグラウンディング問題っていうね。
スピーカー 1
難しそう。
スピーカー 2
チョコバナナで例えていきますか。
人間にね、チョコバナナとはね、皮を剥いたバナナにチョコをかけたものですって言ったら、はいはいはいってなるじゃないですか。
だけどコンピューターにね、これ言ったところで、コンピューターはバナナっていう記号からそこまで想像できないですよ。
要するにシンボル、要は概念。人間がもともと持ってる概念があるからこそ分かるもので、これってコンピューターにはその概念持ってないから。
スピーカー 1
人間の言語ってバイアスが非常にあるんで、中間のプロセスを補完しちゃうんですよね。
なんかいろんな形でね。
あとニュアンスみたいなこともあるし。
スピーカー 2
そうなんです、そうなんです。
これはね。
それがね、シンボルグラウンディング問題。
スピーカー 1
いや、難しいけどすごいよく分かれるですね。
スピーカー 2
そうですね。
スピーカー 2
シンギュラリティっていうのは、得意点を超えたところですよね。もう学習すぎて。
それが起これば、強いAIが生まれるっていう風な意見があるぐらい、まだ生まれてないっていう。
スピーカー 1
でもあれですよ。オチやヨイチは、今年シンギュラリティ起きたって言ってましたよ。
いや、2025年か来年。来年起きるって言ってましたよ。
あー、そうですか。
オチやヨイチは言ってましたよ。
スピーカー 2
オチやヨイチは言いますよ、それ。
スピーカー 1
オチやヨイチは言いますよね。
言う言う言う。
でも実際そうですよね。確かにChatGBってすごいですよ。間違いなくすごいけど。
でも感性系とは到底言えないですもんね。
スピーカー 2
弱いAIの定義っていうのは、限られた場面で活躍するAIなんで。
ああいうChatGBとか言っても、とはいえまだっていう感じだから。
スピーカー 1
それこそさっき言ってた、まだチャットですし、あくまで人間に対して答えるものでしかないですもんね。
だからもうちょっと自然に人間化に組み込まれているというか、ほぼもうわからないぐらい。
もうよく僕らも話しますけど、実は会話してて、会話してるこの人AIだったみたいな。
スピーカー 2
そうですよね。
スピーカー 1
いやね、そう考えたら怖いっちゃ怖いですけど。
スピーカー 2
ただね、これだけ発達してもまだ弱いAIに過ぎないって言ってるあたりが、なんか怖いような、なんか素敵なような。
スピーカー 1
夢半分、不気味の谷じゃないですけど。
そういう得体の知れなさみたいなのが、やっぱりこういうAI怖い論争を生んじゃうっていうのはあると思いますけどね。
でもそれぐらいポテンシャルを秘めている。
スピーカー 2
ちなみにChatGPT、使ったことがある人も多いと思いますけど、
意外とChatGPTの返答がどういうものかって、意外と理解してない人もいるのかなと思っていて。
これはわかった人も多いと思うんですけど、GPTって結局次の単語を予測しながら喋ってるだけだから、
今日って言ったら次に来る言葉のランキングみたいなのが出て、そっから一番ランキング、1位のやつを選んでるだけ。
それをずっと繰り返してるだけだから、別に何の論理的なあれもないんですよね。
毎回確率が高いやつを計算してるだけだから。
スピーカー 1
そうか。だから演算処理っていう処理自体は結構アナログな感じはあるってことですよね。
スピーカー 2
だから論理的に正しい答えを返すってものじゃなくて、ただただその場その場で次の言葉を確率高いやつを計算してるだけだから。
だからわかりやすい例えが機動戦士って言われたらガンダムみたいな、それをずっと繰り返してるだけっていう。
その程度だと思って付き合わなきゃいけないってことなんですよね。
スピーカー 1
なるほど。だからまだ確かにそう言われるとわかりやすいですね。
なんかまだやっぱり人間ってすごい有機的なコミュニケーションで、とはいえいろんな言葉で予測してというよりは、
もうちょっと感情的なとか有機的なコミュニケーションじゃないですか。だから成り立つみたいなところなんですけど。
やっぱりAIに対して機械的なところを感じるとかって言ってる人はやっぱりそういうところを見てるのかもしれないですね。
スピーカー 2
でもそれが自然になるようにいろんな文章の重みづけをしたりとかして自然になっていって。
だから結局その次の言葉を予測しながら吐き出してるだけなんだけど、人間ぽく見えるっていう風に。
後ろでそういう風な仕組みが動いてるだけだってことなんですよ。
スピーカー 1
なるほどね。
スピーカー 2
だからチャットJPTでもよく嘘をついたりするのはやっぱりだからなんですよね。
正しい、チャットJPTなりに正しい答えを返そうとしてるわけじゃなくて、次の言葉を予測しながら喋った結果そうなっちゃっただけだから。
スピーカー 1
ああ、はいはいはい。
スピーカー 2
だから当然、学習したいろんな情報を元に予測しながら喋っただけだから、別に嘘もついちゃうよねっていうかね。
スピーカー 1
真面目すぎるってことですか?
スピーカー 2
真面目っていうか空っぽだから頭が別に何も考えてないから。
スピーカー 1
すごい酷い言い方しましたけど。実際何も考えてないからってこと。
スピーカー 2
情報精査して出してるだけだから。
スピーカー 1
ちゃんと考えて喋ると。
スピーカー 2
そうそうそうそう。っていうことを意外と理解をしてちゃんと付き合っていくっていうことが大事ですね。
スピーカー 1
確かにね。それはだからちょっと今僕らとしてはインターフェースにごまかされてるとこがあって、ちょっと課題評価してるとこがあるのかもしれないですね。
なんか一番、確かに適切な言葉を確率論で導き出してると思うんだけど、とはいえっていうのがあるじゃないですか。やっぱり人間のコミュニケーションに特に。
そういうことではないんだけど、なんかAIの方が人間よりも優れた答えを出す存在だっていう、ちょっとそういう風潮あるじゃないですか。
それをちょっとロジックを知るとちょっと買いかぶりすぎなのかなみたいなね。
スピーカー 2
何も考えてないスリー奴って感じですよね。
スピーカー 1
そうですよね。すごいこと言うんだけど何も考えてないんですよね。
スピーカー 2
データ野郎ですね。
スピーカー 1
データ野郎ですね。一番苦手なかもしれない。スカスカなやつってことですよね。
スカスカなやつってことですよね。
何のポリシーもないですからね。
スピーカー 2
とはいえもう何億って半端ないやつを学習してるんで。
スピーカー 1
そうですよね。学習はしてるんだよね。めっちゃ勉強してるっていう。
なるほどね。
スピーカー 2
いやでもあれですね。最近ちゃんとGPT-4を主に。
主にね。
音声のやつとか試しました?
スピーカー 1
いやまだやってないです、それは。
スピーカー 2
あれすごいですよ。人が喋ってるみたいな感じです。
スピーカー 1
それは受け答えの内容もそうだし、喋り方とかそういうのも自然ってことですか。
スピーカー 2
そうそうそうそう。なんか日本語も全然対応してて。
日本語で例えばあれに今日こんなだったよみたいな大変だったよって言ったら、
それは大変でしたね。よく眠れるといいですね。
明日は何をするんですかみたいな。
スピーカー 1
イケボだな。
スピーカー 2
絶妙なイケボなんですよ。
ニュアンスもこんな感じなんですよ。
本当に人と喋ってるみたいな感じですね。
スピーカー 1
なんかやっぱりちょっと1世代前のChat GPTを喋るとさ、
外人と喋ってるみたいな不自然な感じはありましたけど、
その辺が改善されてるみたいな感じなんですね。
スピーカー 2
ちょっと今やってみますか。
ちょっと今小田さんのデモンセレーションなんですけど、
絶妙なイケボで。
スピーカー 1
そうですね。
クリスペプラみたいなちょっとニュアンスの喋り方でしたけどね。
スピーカー 2
この感じだと普通に雑談できそうですよね。
スピーカー 1
雑談できますね。この感じだったら。
音も速いですし。
スピーカー 2
あと絶対に質問で返してくれるんですよ。
スピーカー 1
うんうんうん。あ、質問してくれるんだ。
会話が続くようにしてくれる。
スピーカー 2
人間でもできないのに。
スピーカー 1
人間は全然できないね。
ほぼできない。
ほとんどの人間できないから質問。
だからちゃんとそういう会話の練習とか、ある意味そういう意味でも使えたりとか、