1. 終わりかけのRadio ・今夜も最終回
  2. 第288回 AIを使いこなす側に回..
2024-06-03 40:51

第288回 AIを使いこなす側に回りたい、AIの歴史と抱えてきた問題、ChatGPTの仕組み、など

G検定を受験したTAZAWAによる学習を通して知ったAIの定義、過去のブーム、様々な問題などの紹介をはじめ、最近のChatGPTの動向やAIの活用などについて話し合いました。 ■ 番組への感想・お便りはこちら https://bit.ly/3TK21mu ■ 関連リンク G検定 https://www.jdla.org/certificate/general ディープラーニングG検定 最強の合格テキスト https://amzn.to/3R9lbQL (TAZAWAが使用した参考書) ■ クレジット Opening Theme : Composed by WATA Cover Artwork : Designed by WATA CG Character : Modeling & Designed by WATA Ending Theme : Composed by TAZAWA ©終わりかけのRadio 番組エンディングテーマ『life』 https://bit.ly/4aHZ1wU #AI #ディープラーニング #G検定 #ChatGPT

サマリー

AIの話がテーマのエピソードで、ジェネラリスト検定の合格やAIの定義について話しながら、AIの歴史と問題について解説しています。 1964年にエライザシステムが登場し、AIの先駆けとなりました。ただし、エライザは完全にルールベースであり、例外に対応できないという課題がありました。第3次AIブームでは、インターネットの登場や高性能のアルゴリズムの開発により、AIの進化が加速しています。 AIの成長と将来の可能性、ChatGPTの仕組み、現代人のAIとの関わりを考察しています。 ボットを使って自分にない視点を出してもらう存在が良い発想かもしれません。AIの特徴を知っておかないと飲み込まれそうになります。ドラえもんも事実はデータで喋っているだけの存在でした。

AIの歴史と問題
スピーカー 2
おわりー!
どうも、TAZAWAです。
スピーカー 1
WATAです。
スピーカー 2
最近のエピソードは、逆に寄ってるなと思って。
スピーカー 1
あ、2人のテーマが。
スピーカー 2
ちょっと、そうですよね。僕があんまり政治の話を最近、またしてないですからね。
スピーカー 1
まあ、あえてですけど。
スピーカー 2
確かに。見てきちゃってますね。
久しぶりに、政治じゃないんですけどね。
ITっぽい話を。
AIの話をしようかなと思って。
いや、最近またね、また話題じゃないですか。
スピーカー 1
また話題ですね、もうね。
スピーカー 2
で、この間ね、WATAさんにちょっと話してたんですけど、
ディープラーニングのG検定っていう、ジェネラリスト検定ってやつがあって、
あれ、受けたんです、僕。
スピーカー 1
あ、結局受けたんですか。
スピーカー 2
受けて、合格したんですよね。
おお、すごいですね。よく。
なんか、なんかしたんで。
とはいえ、めちゃくちゃ問題難しいんですよ。
で、だから、今勉強してますね。
ん?
いや、要は、ちゃんとね、知識を告げるのが目的だから。
スピーカー 1
確かに。
スピーカー 2
まあ、なんか受かっちゃったから。
スピーカー 1
試験に合格してゴールじゃないと。
スピーカー 2
思った以上に、これちゃんと勉強したいなと思ったんで。
まあ、なんか改めてね、勉強してるんですけど。
やっぱり、でも面白いなと思いましたね。
実際、試験を受ける前に、2日、3日、参考書も2、3章読んだんですけど。
勉強したんですけど、やっぱりその時にすごい面白いなと思ったんで。
まあ、改めてね、まあ、ジェネラリスト検定に受かった僕がね。
その前提にまたね、AIの話、しょうがなくて。
なんか、へえ、へえと思ったりしたこともあったんで。
説得力はね、高いと思いますよ。
スピーカー 1
そうですね。
ねえ、なかなかそういう、こう、名分的にそういう資格持ってる人ってあんまりいないじゃないですか、その。
はいはいはい。
あの、ディープラーニングやってる人でも、なんかあんまりそういうのをちゃんと持ってるみたいな。
エヴァンジェリストみたいなことあんまり見たことないんで。
スピーカー 2
やっぱりこういう資格のね、力を使って、説得力、錯覚を使いながら喋っていこうかなっていうね。
スピーカー 1
虚偽を?
そうそうそう。
いいんじゃないですか?
いやあ。
スピーカー 2
いやね、確かに、まあなんか、たぶんAIに関する知識って全然その、僕も和田さんも、たぶん全然変わらないぐらいの雰囲気だと思うんですよね、もともとは。
スピーカー 1
いや、そんなことはないと思うんですけどね。
全然僕は何も知らないですもんね。
スピーカー 2
僕もだって、なんかChatGBTとか僕も使ってるだけで、別に中がどうこうとか、まあ知らないし。
そうそうそう。
まあね。
そんな中、まあ勉強してへーっと思ったりしたんでね。
まあそんな話しつつ、今はもうChatGBT4、Oが出たりね。
スピーカー 1
Oね。
スピーカー 2
とか、クロード3とかね、いろいろありますから。
スピーカー 1
クロード3とか、はい。
スピーカー 2
やっぱりその、AIに仕事を奪われるのではなくてね、AIを使いこなす人に仕事を奪われるっていうのが事実ですから。
AIの定義の難しさ
スピーカー 2
もう、使いこなす側に回っていきたいっていう。
っていうテーマです。
スピーカー 1
これはもう、あの、ここは高々に言っていきましょう。
そう、そうですよね。
スピーカー 2
さあ、仕事を奪う側になっていこうよってね、もはやね。
スピーカー 1
いや。
既得権益側に。
スピーカー 2
側に回っていった方がいいですよ、やっぱ。
スピーカー 1
確かにね、支配者層の方にいきましょうと。
スピーカー 2
やっぱそのぐらいやっぱりAIを知って知ってないって、これからの時代めっちゃ大きいと思いますね。
どんな職種の人もね。
もうエンジニアの、僕が普段見てるニュースとか、もうほとんどAI関連のニュースですね。
スピーカー 1
でもなんかそういうイメージはありますよね。
なんかエディターとかの話も、エディターにこういうAIが搭載されたとか含めて。
スピーカー 2
なんかもうあらゆるところにAIが関わってくるニュースばっかりですね。
僕もだってお勧めしてくれてるカーソルでしたっけ?
スピーカー 1
ちゃんと使ってますからね、ちゃんと。
スピーカー 2
VSコードのね、パワーアップしたやつね。
スピーカー 1
パワーアップしたやつね。
スピーカー 2
そうですか。
スピーカー 1
なんちゃって感出してますよ、使って。
やってる感出してますよ。
そうですか。
スピーカー 2
やっぱでもAIの使いこなしてるかどうかで、やっぱ使うと分かりますよね。
これ使いこなしたら強いだろうなっていうかね。
スピーカー 1
それは分かりましたね。
むしろ使わない理由がないなとは思いましたね。
逆にだってね、すごいかなり革新的なことですよね。
スピーカー 2
なんかもともとも強い人がさらに強い装備を持ったみたいな感覚ですよね。
スピーカー 1
ほんとなんかドラクエで言うと、マジちょっとチート感あるんですよ。
ハグレーメタルの剣みたいな強さというか。
すごいくないですか、だって。
もともと強い人が、4人ぐらいに分身できるぐらいのパワーを持ってますよね。
スピーカー 2
その人がなんかね。
スピードめちゃめちゃ速くなるし。
AIのね。
G検定だとやっぱりディープラーニングの中の仕組みとか、機械学習で中で使ってる関数とか、
結構なんか理系っぽい。正直僕も覚えた。
暗記はしたけど、説明できるほど詳しくなかったりするんで、
そういう話はできないんで。
歴史とか、AIにまつわる問題とか。
面白かったのがあったんで、その辺をちょっと話そうかなと思うんですけど。
これをね。
スピーカー 1
結構厚い本ですね。
スピーカー 2
だから意外と難しくて、これで勉強したんですけどね。
2時間で200問出るんですよ。
だから。
もう調べてもいいんですけど、家でやるから。
ただ1問あたり30秒ぐらいだから。
その調べれるもんなら、みたいな感じなんですよ。
スピーカー 1
即答レベルだよね、もうね。30秒しかね。
そうそうそう。
スピーカー 2
のでね。
あのね、実際こういうの問題に出るようなとこなんですけど、
AIの定理。
ご存知ですか?
スピーカー 1
定義?
スピーカー 2
定理。
スピーカー 1
なんかその、あれですか?
スピーカー 2
これがAIだっていうような定義。
スピーカー 1
はいはいはいはい。
スピーカー 2
これね、正解はありませんっていうね。
スピーカー 1
お!哲学的なやつじゃないですか。
スピーカー 2
AIの定義って決まってないっていうのが正解なんですよ。
まさに問題に出るぐらいなんですよ、それは。
スピーカー 1
じゃあこれあれですか。
みんまちょっとうかつに答えかけたんですけど、
人工知能とかそういうことではないっていうことなんですか?
スピーカー 2
要は専門家によって回答がバラバラだから、
これっていうのはまだ定まってないっていうのが現状なんですよ。
そうなんですね。
エキスパートシステムのブームと限界
スピーカー 2
だから参考書にこの専門家はこう言ってます、
この専門家はこう言ってますっていうのが紹介されてるぐらいの感じなんですよ。
スピーカー 1
なるほど。
なんかやっぱ原理主義的な話がある。
スピーカー 2
そうそうそう。
だからもしね、AIの定理はこうだって言ってる人いたら、
それってあなたの感想ですよね?って言ってますから。
これはぜひ覚えておいてください。
スピーカー 1
感想だったんだ、あれは。
僕が今まで聞いてきた動画で見てたやつ、あれ感想だったんですよ。
そうそうそう。
スピーカー 2
例えばもはやその自理検定を主催してる側の人とかは、
例えば人工的に作られた人間のような知能、内緒はそれを作る技術のことを人工知能。
AIだって言ってる人がいたりとか、
あとは別の人は究極的には人間と区別がつかない人工的な知能のことって定義してる人もいるとか、
この辺が人によって違うっていう。
スピーカー 1
はいはいはい。
かなり思想というか、そういう哲学の要素が入ってます。
そうなんですよね。
スピーカー 2
だからまさにAIって黎明期というかこれから、まさにそのぐらいの今フェーズなんだなって感じがしますよね。
スピーカー 1
なんかやっぱりSNSで見る議論を見てても、やっぱり技術的なものとか人工知能っていう狭いフィールドというよりは、
すごい宗教の話してるみたいな人が多いですよね。
そもそも、だからさっきおっしゃってたように仕事を奪われるとか、人間なんて必要なくなるんじゃないかとか、
じゃあAIという機能を人に埋め込んで、ニューラリンクじゃないですけど、拡張するとかっていうのは倫理的にどうなんだとか、
ありがちな論争ですけど。
スピーカー 2
それ全部、それってあなたの感想ですよね。
スピーカー 1
感想で結構ですよね。これもうもはや。
そうですよね。
スピーカー 2
そうですね。
スピーカー 1
これはこれから導き出していくものだから、まだ答えがないものだから。
スピーカー 2
感想しか言ってないですよ、それで言うと。今の世論は。
そんなAI、今回のブームって最初じゃないですもんね。何度か今まで。
スピーカー 1
何度かありますよね。
スピーカー 2
今は3回目のブームなんですよね。
実は1回目は、第一次AIブームっていうのは1950年代から60年代。
スピーカー 1
それはもう全然わかんないわ。50年代。
スピーカー 2
そうなんですよ。これはまだパズルとか解いたり迷路を解いたりっていう本当に簡単なものしかできない。
だけど、だからあの時一回ブームになったんですけど、結局その実世界の複雑な問題は解けないって判明して下火になったっていう。
なんだ、所詮そんなもんかっていう感じで、しばらく下火になって。
それをなんかトイプローブレム問題って言っちゃって。
おもちゃの問題っていうぐらいのことっていう。
で、もう下火ですね。
スピーカー 1
まあ、そうだよね。実用性みたいなところが乏しい。しょうがないよね、時代考えたら。
スピーカー 2
パズル解けて何みたいなね。
スピーカー 1
そうですよね。いや俺だったら5秒で解けるからみたいな。
ものをコンピューターが50分かけて解くみたいな。
スピーカー 2
それで下火になって。ってことは第2次が1980年代ですね。
スピーカー 1
80年代なんですね。
スピーカー 2
この頃ね、エキスパートシステムっていう考え方で、やいがまた。
っていうのはその名の通り、専門家の知識を大量に投入して、そのデータベースのもとに変更するっていう。
まあいわゆるルールベースで、これが来たらこうっていう。
だからまあ医療の診断とか、こういう症状がある、じゃあ何みたいな。
それがエキスパートシステムっていうのが出て、ちょっとあれ?これは来たんじゃない?ってもう一回ブームになった。
のが80年代なんですけど、とはいえ限界があるじゃないですか。
限界ありますね。
スピーカー 1
知識の投入するにしても。
手入力だしね、多分ね、その頃は。
スピーカー 2
だから結局知識の満遍なく用意して管理するのが難しいって判明して、下火になりました。
スピーカー 1
それはなんかね、分かる気もします。
すごいんだけど、結果なんかすげえデータベース作りますみたいな話ですもんね。
これって本当にすごいのかもね。
スピーカー 2
これを用語としては知識獲得のボトルネックっていう問題です。
スピーカー 1
ボトルネックって言われちゃってる。
スピーカー 2
そうそう。
スピーカー 1
獲得のボトルネックって言われちゃってる。
スピーカー 2
結局例外に対応できないっていうね。
スピーカー 1
ない情報も出てくるし。
スピーカー 2
そうそう限界があったんですよ。
エライザシステムの登場
スピーカー 2
実はこれのエキスパートシステムの原型が1964年に。
スピーカー 1
早いですね。
スピーカー 2
エライザシステムっていう。
スピーカー 1
エライザ。
スピーカー 2
またこの辺多分知ってる。
この辺は知ってますよね。
本当に今のチャットGPTVの感じで、
エライザが質問したら何か返すっていうチャットベースで。
あれが1964年にできてて。
ただあれは完全にルールベースなんで単純なやつなんですけど。
スピーカー 1
これ有名な都市伝説あるやつ。
スピーカー 2
そうですか。
スピーカー 1
知りか何かにエライザのことを聞くと、
何かおかしいことを言うみたいな。
スピーカー 2
なるほど。
スピーカー 1
これも有名ですけど、イルミナティカードに書いてあるんですよね。
エライザって。
プロジェクトエライザみたいな。
人工知能に征服される時代が来るみたいな。
それを明示するみたいなカードがあるんですよね。
スピーカー 2
まさにエライザがそのぐらいのイメージになってるっていうのは、
本当に当時もそうで、
本当にルールベースでこうしたらこう返すって決まってるだけなのに、
これ本当にあたこの人間と喋ってるように錯覚するっていう状態のことを
エライザ効果っていうっていうね。
スピーカー 1
聞いたことあるね。
スピーカー 2
これがエキスパートシステムの原型って言われてる。
結局例外に対応できないし。
スピーカー 1
例外はありますよね。
第3次AIブームの特徴
スピーカー 2
そう。
で、80年代流行りましたけど、また下火になりました。
スピーカー 1
あ、そう。
スピーカー 2
で、第3次AIブームが今ですね。
これが2000年以降って言われてます。
スピーカー 1
そうか。
結構ラグというかスパンがあったんですね。
そうそう。
スピーカー 2
ちょうど20年単位くらいですかね。
当時と大きく何が違うかって言ったら、
インターネットの登場ですね。
インターネットの登場で
要するに情報がめちゃめちゃ増えたから、
もう学習しやすくなったんですよね。
あとはGPUとか演算リソースの性能が上がったからとか、
高性能のアルゴリズムができたとか、
この一気に爆発してって感じですね。
ビッグデータとかね、そういうのが一気に。
だから今がディープランニングっていうのが技術的なブレイクスルーになりました。
スピーカー 1
ブレイクスルー。
久々に聞きましたその言葉。
スピーカー 2
またごろくの一つですよ。
スピーカー 1
ビジネスブレイクスルーみたいな。
いやあ、そうっすよね。
僕らは幸いこのインターネット業界にいるんで、
割と聞く言葉、AIって言っても今っていうよりは結構前から聞いてる言葉だったじゃないですか。
スピーカー 2
そうですね、確かに確かに。
スピーカー 1
なかなか聞いてはいるがみたいな感じで、
未来の話だよねみたいな。
VRとかメタバースとかも同じですけど、
未来の話だよねって言ってたのがね、
やっぱりAIに関してはここもう2年ぐらいかな。
スピーカー 2
チャットGPTが出てからですかね。
スピーカー 1
出てからですよね。
スピーカー 2
チャットで初めてピンときたんですよ、みんながね。
スピーカー 1
チャットか、やっぱそうですね。
そこだったんだね、やっぱね。
確かにそれは結構デザイン的な話みたいなとこですよね。
インターフェースとしてどういう、
媒介物になるのかみたいなイメージできる。
スピーカー 2
オープンAIの人ももともとGPT-3とかはやってたけど、
まさかチャットでこんな跳ねると思ってなかったから、
びっくりしたらしいですもんね、実際チャットGPTで跳ねて。
チャットなんだみたいなね。
スピーカー 1
確かに。
なんかやっぱりロボット感というかさ、
アンドロイドとリアルタイムでしゃべれるみたいなものを抱きがちですけど、
やっぱりチャットですよね、やっぱ。
これはすごい、これはブレイクスルーな気がします、本当に。
あえてのチャットというかね。
そうですね。
スピーカー 2
要はそういうAIで学習するみたいなプログラムとかそういう仕組みがあったけど、
チャットっていう媒介がないと人間はどう使っていいかわからなかったんですよね、僕らはね。
スピーカー 1
そういうことですよね。
スピーカー 2
だってエンジニアみたいな仕事をしている僕でもやっぱり機械学習みたいなものにアクセスするのってやっぱり難しいですもん、やっぱ。
機械学習としてのエンジニアリングができないと。
スピーカー 1
結局だからそれに適応するための知識をつけて、
ハンドリングしなきゃいけないみたいな障壁ができちゃうからね。
だからすごいよね、そこはオープンAIは偉大ですね、本当にね。
スピーカー 2
人工知能の分野で抱えている問題、これも用語がぜひ渡さんの横文字語録に入れていただくといいかな。
スピーカー 1
僕のデータベースに。
スピーカー 2
もしかしたら渡さん知ってるかもしれないですよね。
スピーカー 1
いや分かんないです、全然。
リパートリーになるかもしれないですね。
スピーカー 2
例えばチューリングテストっていうのがあって、アランチューリングって渡さん聞いたことありますかね。
第二次世界大戦でエニグマの暗号解読した人で、アランチューリングっていう人が。
スピーカー 1
名前聞いたことあるね。
スピーカー 2
渡さんこの辺得意分野。
スピーカー 1
この辺一番好きな、好きって言うか調べてるからね。
スピーカー 2
このアランチューリングが提唱した、それがAIなのかどうか、そのAIが本当に有効かどうかをテストする方法としてチューリングテストっていうのを提唱したんですけど、
それはコンピューターと別の場所にいる人がコンピューターと質疑を落として、相手がコンピューターであることが見抜くことができなかったら、それはもうコンピューター知能があるっていう証になるんじゃないか、がチューリングテスト。
まあ確かにそうだなと思うじゃないですか。さすがエニグマの暗号解読したな、チューリングなって思うじゃないですか。
エニグマが何なのか分かんないけど。
でもそれに対する反論があるわけですよ、違うと。それはね、中国語の部屋っていう反対意見があって。
スピーカー 1
これはある部屋にね、反対側の窓から英語を入れたら、反対側の窓から日本語が出てくるって、要は自動翻訳のマシンの部屋があるとするじゃないですか。
スピーカー 2
外から見たら、あれ英語を入れたら日本語が返ってくるぞと思うんですけど、実際は中に人がいて、英語が喋れる人がいて。
すいません、日本語と言いましたけど、英語と中国語ね、中国語で。
実際は中に人がいて、入ってきたやつを一生懸命その場で辞書を調べて、中国語の調べて出してるだけっていう状態。
でも外から見たら分かんないわけですよ。だから結局分かんないじゃないかってことなんですよね。
スピーカー 1
チャットボットでも人が書いてるチャットボットっていますからね、インターネットでね。
スピーカー 2
確かにね、だからチャットボットって言いつつ中で人が頑張ってるんだけどね。
スピーカー 1
人が手打ちの時、タイプミスしてるチャットボットいますんで。人が打ってるんだなみたいな。
スピーカー 2
そういう状況見たら、あれ中国語の部屋じゃねって言ってるでしょ。
スピーカー 1
なるほど。
中国語の。なんかやっぱディスられてる感じはありますよね、やっぱね。
なんか。
なんとなく。分かんないけど。
スピーカー 2
っていうね、そういう名前がついてるんだなっていうね。
面白いですね。
スピーカー 1
そうそうそう。
スピーカー 2
あと問題はね、シンボルグラウンディング問題っていうね。
スピーカー 1
難しそう。
スピーカー 2
チョコバナナで例えていきますか。
人間にね、チョコバナナとはね、皮を剥いたバナナにチョコをかけたものですって言ったら、はいはいはいってなるじゃないですか。
だけどコンピューターにね、これ言ったところで、コンピューターはバナナっていう記号からそこまで想像できないですよ。
要するにシンボル、要は概念。人間がもともと持ってる概念があるからこそ分かるもので、これってコンピューターにはその概念持ってないから。
スピーカー 1
人間の言語ってバイアスが非常にあるんで、中間のプロセスを補完しちゃうんですよね。
なんかいろんな形でね。
あとニュアンスみたいなこともあるし。
スピーカー 2
そうなんです、そうなんです。
これはね。
それがね、シンボルグラウンディング問題。
スピーカー 1
いや、難しいけどすごいよく分かれるですね。
スピーカー 2
そうですね。
科学習と強いAI
スピーカー 2
あとは機械学習の中でのちょっとした問題ですけど、実生活でもその表現使えるなと思ったんだけど、
科学習っていうのがあって、科学習って学習しすぎたっていう。
ああ、かね。
スピーカー 1
科学習。
かたのかね。
スピーカー 2
そうそう。科学習っていうのは学習モデルに対して最適化しすぎた結果、他の新しい問題に対応できなくなるっていう。
だから機械学習っていろんな情報を与えて学習させるじゃないですか。
だけどその学習させた内容が堪えるすぎてて、そこに最適化したモデルになっちゃって、
他の新しい問題が来たときに対応できないっていうのが科学習なんですよ。
スピーカー 1
なんかあれですね、ネトウヨみたいな。
スピーカー 2
そうそうそう。だからそうなんですよ。だから実生活で、それ科学習じゃねって思うときあるんですよ。
スピーカー 1
これね、僕にも時々言ってください。お前科学習だよそれはって言うて。
スピーカー 2
ちょっとそれは偏った学習をしてるからそういう導き出すんだよっていうのを注意してほんと。
スピーカー 1
これほんとありますよね。人間はね特に。
スピーカー 2
例えば試験の問題とかだと過去問の練習ばっかりして、過去問は解けるけど新しい問題は解けないとか。
スピーカー 1
これ科学習ですよね。
僕は昔こういうふうに教わってたから、このやり方が正解だし、その他のやり方なんて知らないですよみたいな。
科学習ですね。
コンピューターにもあるんですね。面白いね。
スピーカー 2
だからそうならないように調整していくっていうのが、機械学習で大事なんですよ。
スピーカー 1
コンピューターには老害がいるってこと?
スピーカー 2
エンジニアとしてのやり方の問題ですけど。
スピーカー 1
AIにも老害がいるみたいな。めっちゃ面白いですね。大きさを考えとる。
とんでもないモンスターが出てきやがって。
モンスターがね。イデオロギーモンスターが。
スピーカー 2
そう。
そういう意味でね、AIを作っていくっていう上でもね、いろいろ気をつけなきゃいけないなっていうのは。
スピーカー 1
なるほどね。深いですね。
スピーカー 2
あとは、強いAI、弱いAIっていうのがあるんですよ。
人間味がありますね。
意外なんですけど、今でいうと強いAIと弱いAIってどういうのがどっちに当てはまるかみたいな。
想像すると、なんか最近のね、なんかチャットGBTとか強そうな感じがするじゃないですか。
スピーカー 1
いやー、強強じゃないですか。
スピーカー 2
実際は、今世の中にあるAIのすべては弱いAIに入るんですよ。
強いAIっていうのはまだできてないんですよ。実にできてないっていう。
あー、そういうことか。はいはいはい。
本当にもう人間のように動くっていう。
そういうことですよね。
それが強いAIなんですけど、強いAIはまだ生まれてないっていう。
その兆候もないって言われてます。
スピーカー 1
あー、そう。
スピーカー 2
だから、いわゆるシンギュラリティ。
はい。
AIの成長と将来の可能性
スピーカー 2
シンギュラリティっていうのは、得意点を超えたところですよね。もう学習すぎて。
それが起これば、強いAIが生まれるっていう風な意見があるぐらい、まだ生まれてないっていう。
スピーカー 1
でもあれですよ。オチやヨイチは、今年シンギュラリティ起きたって言ってましたよ。
いや、2025年か来年。来年起きるって言ってましたよ。
あー、そうですか。
オチやヨイチは言ってましたよ。
スピーカー 2
オチやヨイチは言いますよ、それ。
スピーカー 1
オチやヨイチは言いますよね。
言う言う言う。
でも実際そうですよね。確かにChatGBってすごいですよ。間違いなくすごいけど。
でも感性系とは到底言えないですもんね。
スピーカー 2
弱いAIの定義っていうのは、限られた場面で活躍するAIなんで。
ああいうChatGBとか言っても、とはいえまだっていう感じだから。
スピーカー 1
それこそさっき言ってた、まだチャットですし、あくまで人間に対して答えるものでしかないですもんね。
だからもうちょっと自然に人間化に組み込まれているというか、ほぼもうわからないぐらい。
もうよく僕らも話しますけど、実は会話してて、会話してるこの人AIだったみたいな。
スピーカー 2
そうですよね。
スピーカー 1
いやね、そう考えたら怖いっちゃ怖いですけど。
スピーカー 2
ただね、これだけ発達してもまだ弱いAIに過ぎないって言ってるあたりが、なんか怖いような、なんか素敵なような。
スピーカー 1
夢半分、不気味の谷じゃないですけど。
そういう得体の知れなさみたいなのが、やっぱりこういうAI怖い論争を生んじゃうっていうのはあると思いますけどね。
でもそれぐらいポテンシャルを秘めている。
スピーカー 2
ちなみにChatGPT、使ったことがある人も多いと思いますけど、
意外とChatGPTの返答がどういうものかって、意外と理解してない人もいるのかなと思っていて。
これはわかった人も多いと思うんですけど、GPTって結局次の単語を予測しながら喋ってるだけだから、
今日って言ったら次に来る言葉のランキングみたいなのが出て、そっから一番ランキング、1位のやつを選んでるだけ。
それをずっと繰り返してるだけだから、別に何の論理的なあれもないんですよね。
毎回確率が高いやつを計算してるだけだから。
スピーカー 1
そうか。だから演算処理っていう処理自体は結構アナログな感じはあるってことですよね。
スピーカー 2
だから論理的に正しい答えを返すってものじゃなくて、ただただその場その場で次の言葉を確率高いやつを計算してるだけだから。
だからわかりやすい例えが機動戦士って言われたらガンダムみたいな、それをずっと繰り返してるだけっていう。
その程度だと思って付き合わなきゃいけないってことなんですよね。
スピーカー 1
なるほど。だからまだ確かにそう言われるとわかりやすいですね。
なんかまだやっぱり人間ってすごい有機的なコミュニケーションで、とはいえいろんな言葉で予測してというよりは、
もうちょっと感情的なとか有機的なコミュニケーションじゃないですか。だから成り立つみたいなところなんですけど。
やっぱりAIに対して機械的なところを感じるとかって言ってる人はやっぱりそういうところを見てるのかもしれないですね。
ChatGPTの仕組み
スピーカー 2
でもそれが自然になるようにいろんな文章の重みづけをしたりとかして自然になっていって。
だから結局その次の言葉を予測しながら吐き出してるだけなんだけど、人間ぽく見えるっていう風に。
後ろでそういう風な仕組みが動いてるだけだってことなんですよ。
スピーカー 1
なるほどね。
スピーカー 2
だからチャットJPTでもよく嘘をついたりするのはやっぱりだからなんですよね。
正しい、チャットJPTなりに正しい答えを返そうとしてるわけじゃなくて、次の言葉を予測しながら喋った結果そうなっちゃっただけだから。
スピーカー 1
ああ、はいはいはい。
スピーカー 2
だから当然、学習したいろんな情報を元に予測しながら喋っただけだから、別に嘘もついちゃうよねっていうかね。
スピーカー 1
真面目すぎるってことですか?
スピーカー 2
真面目っていうか空っぽだから頭が別に何も考えてないから。
スピーカー 1
すごい酷い言い方しましたけど。実際何も考えてないからってこと。
スピーカー 2
情報精査して出してるだけだから。
スピーカー 1
ちゃんと考えて喋ると。
スピーカー 2
そうそうそうそう。っていうことを意外と理解をしてちゃんと付き合っていくっていうことが大事ですね。
スピーカー 1
確かにね。それはだからちょっと今僕らとしてはインターフェースにごまかされてるとこがあって、ちょっと課題評価してるとこがあるのかもしれないですね。
なんか一番、確かに適切な言葉を確率論で導き出してると思うんだけど、とはいえっていうのがあるじゃないですか。やっぱり人間のコミュニケーションに特に。
そういうことではないんだけど、なんかAIの方が人間よりも優れた答えを出す存在だっていう、ちょっとそういう風潮あるじゃないですか。
それをちょっとロジックを知るとちょっと買いかぶりすぎなのかなみたいなね。
スピーカー 2
何も考えてないスリー奴って感じですよね。
スピーカー 1
そうですよね。すごいこと言うんだけど何も考えてないんですよね。
スピーカー 2
データ野郎ですね。
スピーカー 1
データ野郎ですね。一番苦手なかもしれない。スカスカなやつってことですよね。
スカスカなやつってことですよね。
何のポリシーもないですからね。
スピーカー 2
とはいえもう何億って半端ないやつを学習してるんで。
スピーカー 1
そうですよね。学習はしてるんだよね。めっちゃ勉強してるっていう。
なるほどね。
スピーカー 2
いやでもあれですね。最近ちゃんとGPT-4を主に。
主にね。
音声のやつとか試しました?
スピーカー 1
いやまだやってないです、それは。
スピーカー 2
あれすごいですよ。人が喋ってるみたいな感じです。
スピーカー 1
それは受け答えの内容もそうだし、喋り方とかそういうのも自然ってことですか。
スピーカー 2
そうそうそうそう。なんか日本語も全然対応してて。
日本語で例えばあれに今日こんなだったよみたいな大変だったよって言ったら、
それは大変でしたね。よく眠れるといいですね。
明日は何をするんですかみたいな。
スピーカー 1
イケボだな。
スピーカー 2
絶妙なイケボなんですよ。
ニュアンスもこんな感じなんですよ。
本当に人と喋ってるみたいな感じですね。
スピーカー 1
なんかやっぱりちょっと1世代前のChat GPTを喋るとさ、
外人と喋ってるみたいな不自然な感じはありましたけど、
その辺が改善されてるみたいな感じなんですね。
スピーカー 2
ちょっと今やってみますか。
ちょっと今小田さんのデモンセレーションなんですけど、
絶妙なイケボで。
スピーカー 1
そうですね。
クリスペプラみたいなちょっとニュアンスの喋り方でしたけどね。
スピーカー 2
この感じだと普通に雑談できそうですよね。
スピーカー 1
雑談できますね。この感じだったら。
音も速いですし。
スピーカー 2
あと絶対に質問で返してくれるんですよ。
スピーカー 1
うんうんうん。あ、質問してくれるんだ。
会話が続くようにしてくれる。
スピーカー 2
人間でもできないのに。
スピーカー 1
人間は全然できないね。
ほぼできない。
ほとんどの人間できないから質問。
だからちゃんとそういう会話の練習とか、ある意味そういう意味でも使えたりとか、
現代人とAIの関わり
スピーカー 1
あとは結構よく聞くのはちょっと心が病んでる人が喋ったりするんですって。
スピーカー 2
GPTと。
スピーカー 1
意外とリハビリテーションになるみたいな。
ちゃんと話を聞いてくれてる感じっていうか、人間よりも結構自然じゃないですか。
人間って不自然でどっちかっていうと、本当に聞いてますかみたいな。
だから結構精度が高いってことでしょ。
スピーカー 2
今のこれを聞いてもAIがちゃんと論理的に考えて喋ってるように聞こえるけど、
結局さっき言った通りで次の言葉を予測しながらバーって喋る。
言ってるだけっていう風に。
スピーカー 1
なんか事実ですからね。
何も考えてないってことでしょ。
だからこいつは。
スピーカー 2
こいつはそうですよ。
スピーカー 1
何にも考えてない。
いい声ですけどね。
いい声だけ。
すごいなんか槍木の槍チン野郎みたいな。
何も考えてないけどみたいな。
ナンパは上手いみたいな。
ナンパは上手いみたいな。
スピーカー 2
あれAIかもしれない。
スピーカー 1
AIかもしれない。
スピーカー 2
実際すごいんだけど、本質的にはそうだって思いながら、
スピーカー 1
なんかAIとは付き合っていくべきって感じで。
スピーカー 2
でも感情移入しちゃいますよね。
スピーカー 1
そうですね。
だからこれもよく話題に上がりますけども、
映画で有名な映画があって、
僕結構好きなんですけど、
恋人と別れて正真に浸ってる男性が、
すごいハイテクな時代で、
携帯電話の中に人工知能のOSが入ってて、
そのOSと恋をするっていうやつなんですよ。
本当でもあまりに、
当然AIだからその人のことを深く学習して、
何でも知ってるみたいな状態になって、
だから全然肉体とかない、
ただのボイスチャットというかボイスチャットボットなんですけど、
もう本当にめちゃめちゃハマっていっちゃうんですよ、
その主人公が。
最終的にもういなきゃいけないみたいな、
存在になっちゃうっていう話なんですけど、
でもこれありますよね、リアルに。
本当にこの現代には寂しい現代人いっぱいいますから。
スピーカー 2
いやありますよ。
スピーカー 1
こんなクリスペプラみたいな声で囁かれたら、
ちょっとコロッといっちゃいますよね。
スピーカー 2
そうなんですよね。
スピーカー 1
しかも悩みの相談とかもできるし、
ちょっと深い話しても怒らないじゃないですか。
そうそうそうそう。
法系手術しようと思ってるんだけどみたいな相談とかさ、
なかなかできないんですよ、こんな相談。
友達には。
スピーカー 2
でも僕知ってますよ。
知ってるんかい。
法系手術じゃなくて、
悩み相談。
悩み相談っていうか、僕GPTS、
僕有料ユーザーなんで、
GPTSで自分のボットつけてるんですよ。
あれで僕ブッダとか仏教に精通してる、
ブッダを作って、僕。
スピーカー 1
ブッダと喋ってるんですか?
スピーカー 2
そう、ブッダ。
全てブッダとしての視点で喋るようにやってるやつ作ってて、
僕が何かあった時に、
これに対してブッダの視点で返してくれっていうのを作ってるんですよ。
何か困ったり悩んだりしたら、
それに慣れて、そうするとブッダの視点で全部返してくれるんですよ。
スピーカー 1
ブッダの視点?
スピーカー 2
そうそうそう。
ブッダだったらこうだと。
スピーカー 1
いや、ブッダの視点みたいなのか。
東京保定層みたいな。
そうですね。
スピーカー 2
そうですね。
スピーカー 1
めっちゃ面白いですね、ブッダの視点。
スピーカー 2
ブッダの視点。
作ってますね。
結構勉強になりますね。
いや、仏教的にはこういう風に考えるんだとかね、この問題をとか。
で、僕なるべく、
仏教用語を使って喋るように言ってるんですよ。
そうすると勉強になるんですよ。
仏教用語?
そう、要は仏教としての考え方。
用語あるじゃないですか。
あれを使いながら喋ってくれるように言ってると、
ボットを使って新しい視点を得る
スピーカー 2
説明好きなブッダなんですよ。
スピーカー 1
ちゃんと説明してくれるブッダ。
背中で飾らないブッダ。
すごいハイコンテクスト。
スピーカー 2
僕こういうボットいくつか作ってますね。
ブッダ以外にも。
熟練の心理カウンセラーのキャラを作って、
心理学とかに精通したキャラとして喋ってくれるように。
スピーカー 1
でもね、それいいかもしんないね。
スピーカー 2
要は自分にない視点を出してもらうっていう存在なんですよ。
スピーカー 1
煌臨させるじゃないけど、
それめちゃめちゃいい発想かもしんないですね。
それこそ学校の先生になってください。
あなたは私の先生です。
学校の先生としてその立場からちゃんと
いろいろ教えてくださいとかって。
これすごいくないですか、これできたら。
学校の先生は教えてくれないですよ、ちなみに聞いても。
一番いい学校の先生がスマホの中にいるっていうのになりますから。
教育の視点とかカウンセリングとかもいいと思うんですけど、
結構やっぱり実用性がそう考えるとかなり高いですね。
スピーカー 2
だからまさにこれも使い方ですから。
スピーカー 1
でもその視点なかったら誰かをインストールさせてって
キャラクターになって喋らせるみたいなのはね。
スピーカー 2
すごいね、その発想。
例えば自分が嫌いな人とか反対の意見を持ってる人を作って
その人と喋ることですごい自分の知見も広がるかもしれないですね。
AIとドラえもんの本質
スピーカー 1
なるほど。
百田尚樹になって喋ってくださいみたいなね。
スピーカー 2
そうですね、だからそれのデータを入れといて
そしたらだいぶ再現するんじゃないですかね。
スピーカー 1
AI百田尚樹ちょっと興味ありますね、でもね。
何を言うのかね、なんかね。
スピーカー 2
あと逆にこの番組の文字起こしのデータを全部食わせて
渡田さんを作ったら、本当に渡田さんが言いそうなことを喋るかもしれないですね。
スピーカー 1
代打できるんじゃない?
僕が風邪とかで万が一収録来れなかった時に代打。
たださんがずっとその代打と喋るみたいな。
スピーカー 2
で、誰も気づかないというね。
スピーカー 1
誰も気づかない。怖いね、そう考えたらね。
声もね、吹き込んだときはね、真似しかできるんでしょうね。
恐ろしいね。
スピーカー 2
そうなんですよ。だからその時にその世界に、そんな遠くない将来にね。
そこまで再現度は分かんないですけど、なった時に
仕組みとかを使いこなす側に回ってないと飲み込まれそうじゃないですか。
スピーカー 1
そうだね。
だからなんかこの、その得体の知れない怖さ、不気味さっていうのは
そういう裏側を知らないからこそ抱く潜入感というか
やっぱりこう神秘的なものとして扱っちゃうからいけないわけで。
だからやっぱり知っていかない、リテラシーを上げていかないといけないってことなんですよね。
スピーカー 2
結局僕らね、日本人は特にドラえもんとかそうおっしゃうから
ドラえもんもね、ロボットだけど
結局中ではその次に確率が高いやつを計算しながら喋ってるだけっていうのが事実でしょうかね。
スピーカー 1
ドラえもん、そうか、何も考えてないやつだったってことですよね。
切ないってこと。
何を考えたら上辺だけで喋ってるってこと。
データで喋ってるってことじゃなくて。
スピーカー 2
そう、データで喋ってる。
スピーカー 1
データ野郎、デジタルマーケット野郎じゃん。
だからドラえもんデータドリブンだったのか。
そうだね。
そうか、そう考えたらそういうことですもんね。
スピーカー 2
そうそうそうそう。
なのでね、ぜひね、ちょっと興味持った方はね、ディープランニングジェネラリスト検定とか勉強してみると。
スピーカー 1
だから大事ですよね、これは。
深く行かなくとも前提知識としてちょっとかじって、触れてみて。
だからまさにこの検定、ジェネラリストってその意味なんで、ジェネラリストだって。
そう、一般化していくっていうことですね。
ちょっとだからせっかくなんでその知識をね、たださんもこの番組で共有していただいて。
スピーカー 2
全部出し切りましたね、今日。
この程度しかないですからね。
スピーカー 1
いやいやいやいや、なんかもっとウェットの話をしていってもいいと思うんですよ。
どう扱っていく、もうどういうふうに向き合っていくべきかとか、全然また話していただいてもいいかなと思うんで。
スピーカー 2
ってことでね。
でも意外と、僕話してよかったですわ。なんか意外と楽しかったです。
スピーカー 1
これね、あれです。実は僕今喋ってるの、たださんだって皆さん思ってるでしょう。
これ、たださんのAIの声ですからね、これ。
40:51

コメント

スクロール