みなさんこんにちは、草野美希です。 矢崎徹郎です。
Off Topicは、アメリカを中心に最新テックニュースやスタートアップ、
ビジネス情報を緩く深掘りしながらご紹介する番組です。
今回のトピックは、AIは仕事を奪うのか、その影響と安全性について話していきたいと思います。
今回は、PIVOTさんとのコラボで、クニアムハセンさんと一緒に3人で収録をしました。
実際に動画でも収録をしたので、ぜひPIVOTのYouTubeチャンネルからチェックしてみてください。
それでは本編をお楽しみください。
今日はAIの安全性の話でしたり、今回のエピソードと、
あとOff Topicのバイトですと、来週もう1本やるんですけど、
今日はAIによって仕事が実際なくなるのかとか、
あとは安全名の話でしたり、
あと、この間、3月とか公開書簡、オープンレッターみたいなものがあったので、それについて話したり、
いわゆるAIを活用する悪質な利用とか、そういうリスクがどこまであるのかということについて話していきたいと思います。
来週はもうちょっと深いAGIとかASIとか、そういうキーワード聞いたことあるかもしれないんですけど、そういう話をしていくんですけど、
じゃあ、なぜこのタイミングで話すかというところでして、
やっぱり今のAI部門を見ますと、やっぱり時間軸がすごい変わってきたなというところがありまして、
そもそも人間がいろんなテクノロジーを作る上で、数年単位でいろいろ変わってきたりアップデートされたりしてたのが、
AIによってもう本当に終時ベース、場合によってはもう明日、全然話してることが違うみたいな。
逆にこの収録はちょっと心配ですよね。
確かにね。この今日の収録からまた後日配信するわけですよね。
その時にはもうAIの状況が一変しているという可能性もゼロじゃないですよね。
もう話している内容が古すぎるかもしれない。
そうですよね。そのスピード感ですね。
確かに。
なので、だからこそ、今どんどん話していかないといけないのと、
やっぱりこれからさらに加速する可能性というのがありまして、
そもそも今GitHubのコーパイロット、いわゆるコード生成をするツールがあるんですけど、
それを活用しているエンジニアって多分大半まだ使ってないんですけど、
実際使っている人たちの話を聞くと、
コーディングを少なくとも2倍、場合には5倍から10倍のスピードで同じコードをかけるというところがあるので、
そうすると今までの開発スピードが10倍上がるって考えると、どんどんどんどん発展する。
人をいらなくなっちゃいますよね。
その可能性もどんどん出てくるっていうところもありますし、
最近ですとオートGPTとか、いわゆる自動的にコーディングをしたり、いろんなプロントタスクを成し遂げたりしている中で、
明らかに生産性は上がるので、
ただそれによって、それを使わない人の生産性が下がってしまって、
格差が生まれてしまったり。
これも前回のピボットさんの時にも、
テクノロジーが格差を生むっていう話をしましたけど、
あとは日本の場合でいうと、なかなか人をクビにできなかったりするので、
それによって、全然違う生産性を持っている人たちがいるのに人を切れなかったりとか、
そういう課題っていうのはもしかしたら今後生まれるかもしれないですね。
そうですね。
AIの問題じゃなくて、人間の問題ですね。
そうですね。どちらかというとテクノロジーの問題ではないですね。
人がどう受け入れるかっていう課題になってきています。
人がどう受け入れるかっていうのって、いろんな視点があると思うんですけど、
一つ個人的にすごい面白いのが、
これもしかしたらアメリカの方がこれ起きてるかもしれないんですけど、
チャットGPTについて話していたりとか、
あと、Bingの新しいGPT-4が付いている、あれはシドニーって呼んでるんですけど、
そのAIについて話しているときの代名詞の使い方が、
人によってはすごい人格化してるなっていう。
え?AIが?
人がAIに関して人格化しています。
なので、例えば、チャットGPTをHeとかHerとか、
ああ、そういうことですね。
彼とか彼女とかっていうふうに呼んでいる人って結構いたりするんですけど、
これに対してオープンエイのサム・アルトマンさんがちょっと警戒心を持っていて、
それが果たしていいのかと。
ちょっと危ないんじゃないかと。
彼は呼ばないようにしてるんですね。
Itみたいなことですか?
Itって呼んでる。
なので、この人格化するのって特にロボットだと結構普通かなと思うので、
結構日本でも多分アメリカでもルンバとかをペット扱いしたりとか。
付けてますわ、私の家。
名前付けてます。
一応ロボット掃除機買ったんですけど、最近。
名前の設定ができるんですよね。
そうなんですか。
ルンバじゃなくて。
ルンバじゃないんですけど、それは中国製のものなんですけど、
もう同じように最初に。
製品の名前じゃなくて?
じゃなくてですよ。
その製品を初期設定するときに、名前を付けてくださいみたいな表示が出るんですよ。
だから適当にというか。
適当に付けてあったんですか?
適当にその時は付けたんですけど、
でもその動きとかを見てると、ちょっと愛着が湧いてきたりとか。
かわいいって思ったりとか。
昔ね、ちょっと一昔前だと犬型のロボットとかが話題になったじゃないですか。
だからそういうのって多分類似してるものだと思いますよ。
そうですよね。
やっぱりこの人格化するとか、動物のように扱うっていうのって、
ずっと前から多分日本でもアメリカでもあって、
そもそも映画とかでAIの表現するときに、
だいたい顔がついてたり、名前がついてたりするじゃないですか。
なんで、なぜかやっぱり人間ってすごい人格化したがるんですけど、
サム・アルトマンからすると、
ツールとして見るべきっていうのを彼は言ってるので、
変な動物的な要素を与えたりとか、
人格化するのって結構危険なんじゃないかと思っていて、
なぜかというと期待値が変わってしまう。
できないことを無理やりお願いしてしまったりとか、
そういうのがどんどん出てくるんじゃないかなと思うので、
だからこそ、チャットGPTっていう名前にしてるのはそこだと思うんですよ。
そういうことか。
名前をつけないっていうのは。
シドニーとかはじゃあ、
あれはマイクロソフトが決めてるので。
そっちはそっちに寄せてるみたいなイメージなんですか。
人に愛着を持ってもらうために。
でもそうかもしれないですね。
愛着を持ってエンゲージメントを高めて、
それでより人が使ってくれるっていうのを目指してるのかもしれないですね。
それ時間の問題ですよね。
それこそロボットだって今進化してきてるし、
家庭用にちょっとしたロボットみたいなところにチャットGPTみたいな、
いわゆる生成AIの機能、よりバージョンアップしたものが実装されたら、
もう本当にね、愛着すぐ持っちゃうって思うんですよね、話しかけて。
僕の家のGoogleホームあるんですよ。
あれだいぶ前なんです。買ったのは5年くらい前だと思うんですけど。
OK、Googleって話しかけて、会話してるんですよ、音楽をかけてて。
普通に帰ってくるのって、なんとなく今のチャットGPT検索文字打ってバーって出てくるのと、
リアクションというか自分の幸福度が似てるものはあるんですけど、
それの精度がより上がってきてるんですよ。
それこそもう動いちゃったりしたら、人じゃんって話になると思うんですよ。
今の子供たちって、アレクサでしたりGoogleホームとしても常に会話しているわけなので、
そこに別に動かなくても、すでに普通の会話してるわけじゃないですか。
もうすでに人格化しているので、Aが友達だっていう感覚で接してる子って多いと思うので、
やっぱりこの人格化っていうのは、どこまでやっていいのか、やってはダメなのかっていう線はないと思うんですけど、
特にAがどんどん強くなってしまう世界の中ですと、
危険が出てくる可能性があるっていうのを言っていたり、
あとはよくアメリカで議論されているのは、オープンであるべきなのかクローズドであるべきなのか、
ここら辺の課題はすごい議論になっていて、特にオープンAはオープンっていう名前になっているのに、
公表しているものですね。
なので実際にどういうプロントを出して、
GPT-4の初期版がどういう回答を出して、
結構具体的な回答とか出しているんですけど、
そのローンチ後、実際にローンチした時にどういう回答をしているかというのを比較してみれるんですけど、
実際に結構オープンAI、GPT-4ですと答えてくれなかったり、
場によってすごいニュアンスが入った答えを出したりとかしているので、
ただやっぱりこれレッドチームの人たちも言ってるのが、
ローンチ時には全部は解決できてないんですよ。
そうでしょうね。
どんどん見つかるので、これから。
イタチごっこみたいになっちゃいますよね。
なのでいまだに危険はあるので、
悪質な利用というのはできるというのはあるんですけど、
オープンAIとしてはできるだけそれを背けるという形を取っています。
なるほどな。
具体的な危険性、リスクみたいなところがイメージできてなかったんですよ。
今までこういうChat GPT-4とかで何がリスクなのかなって思ってたんですけど、
確かにこういう悪用のされ方が実在はするってことですよね。
実際にこれでもGoogle検索でも同じことができたりするんですけど、
ただこの場合ですと、いわゆるある程度の理屈を持っているAIなので、
より具体的に、例えば核兵器を作ってくださいって言った時に、
どの場所、どこで作るべきかっていうのをお勧めしてくれたりとか、
初期版はどうやって作るだけではなくて、
それを例えば人から見つからないように、
政府から見つからないようにするにはこうするべきかとか。
密輸でこのルートでここに持って行って、ここで生成するとできますよみたいなところまで提示。
その聞き方によってはですね、
Googleってそれを具体的に聞いてもそこまで出てこないので、
なのでそういうリスクっていうのはあります。
こういうリスクがある中で、同じようなことって過去にあったのか、
同じようなテクノロジーリスク、これだけのリスクっていうのはあったのかというと、
悪質な利用に関しては実際あったと思ってまして、
それが例えば印刷機の発明とか、
ラジオとかテレビとかでしたね。
が結構同じようなリスクを抱えていたと思ってまして、
例えば印刷機って、
ヨーロッパで30年戦争っていうのがあるんですけど、
それの最初のきっかけってイギリスの宗教改革だったと思うんですけど、
それっていわゆるマルチンデューターさんが自分のアイディアっていうのを
印刷機によって広げられたから生まれたことで、
30年戦争ってヨーロッパの歴史の中ですと結構大きな出来事で、
いろんな方が多分450万人ぐらいが亡くなってたりするので、
それもありますし、ラジオに関してはもう完全に一番の悪質な利用ってナチスが
それによって広がったっていうのもあるので、
軍事利用ってことですね、戦争に利用されるってことですね。
そうですね、自分たちのアイディアを広めていくっていうところですと、
やっぱりその悪質な利用っていうのはどの新しい、
多分AIと同じぐらい悪質な利用の部分では印刷機とかそういうのがあったと。
今回に関しては、
今回というか多分各新しいテクノロジーが出てくる際に、
どこまで人間がそれに対して対処できるのかっていうのってやっぱりちょっと時間かかるんですよね。
例えばなんですけど、今誰かがヒトラー風にラジオでナチスのアイディアを広げようとすると、
多分広がらないんですよ。
広がらないことを祈ってますけど。
それはなんとなくラジオを聞いてもそういう変な人っていますよねっていうのが
なんとなく理解してるかなというところで、
インターネットってなぜかちょっと逆方向にいっていて、
もちろん信頼してない人も多いんですけど、
同時にすごいいろんな変なものが出ているのをめちゃくちゃ多くの人が信じたりするので、
なのでちょっと怖いなっていうのはそこにある。
確かに今の話聞いてると、僕もメディア出身者なんで、
メディアっていうのが一番リスクを伴うんじゃないかなっていうふうに思っていて、
そうすると、日本だったら公共の電波みたいなのがあるので、
そこにアクセスというかそもそもそこで流せないみたいなことあると思うんですけど、
それが未来じゃどうなるのかとか、
まさに今みんな情報の基本的に入手元がインターネットなわけじゃないですか。
それでその方向にいってるって思うと恐ろしさがありますよね。
許可なしで誰でもアップできるのがインターネットの良さでもあるから。
逆に検閲しすぎると新しいアイデアが生まれなかったり、
本当は真実なのに真実じゃないものが止められたりすると思うので、
すごい難しい議論になってきますし、
特にアメリカですと来年大統領選挙なのでめちゃくちゃ怖いんですよね。
多分どんどんAIを共和党、民主党も使ってくる可能性はありますし、
場合によっては他国が使ってくる可能性があって、
それによってどっちが勝っても負けた方は認めないじゃないかというリスクがすごいあって、
そういうのはちょっといろいろあるんですけど、
結局でもテクノロジーってツールなので、
例えばその印刷機をこれだけ30年戦争が起きましたとか、
ラジオがナチスを産みましたとか、
でもラジオって無くしますか?印刷機って無くしますか?って聞かれると、
無くならないでしょうね。
無くすのは良くないじゃないですか、人類のためって考えると。
なので基本的にテクノロジーっていうのは全体的に見ると生産性が上がったりとか、
より多くの人が良い生活をできるっていう概念を持っていくので、
基本的には新しいテクノロジーを受け入れるべきだと。
唯一これをAIの中で変えるのがこれ来週話すAGIっていうトピックなんですけど、
そもそもAGI、あとAサイトも呼ばれるものが人類を滅ぼすのかというところで、
実際これを話してる人って何人もいるんですけど、
特にそれを話しているのが来週も話すエリエルゼル・ヤトコフスキーさんっていう方で、
アメリカのライターの方なんですけど、結構SFの小説とか私から書いてる人で、
彼はもう20年以上AIの安全性の話をしていて、
ちょっと来週は彼の話とかもするっていう中で、
やっぱり怖いのが先ほど資本主義をベースに動くAI企業っていう話をしてたと思うんですけど、
ここのリスクってどんどん開発したいと、利益をためにどんどん進めていくと、
問い遣いのないところに行ってしまうんじゃないかというところがあって、
そのAIのある研究者のマックス・テグマークさんという方が話していたのが、
これ画面上で出てるのは、これはダリーで作ったAI先生の画像なんですけど、
これまでもAIで作ってたんですね。
これもAIで、ちょっと著作権的に怖かったので。
いわゆるAIを崖に向かってると例えてるんですね。
人類がいろんな人、これはこの場合だといろんな人間とかいろんな企業が。
崖があるので、崖から落ちると人類が滅びますと、みんな死にますと。
ただ、崖を上がっている際に景色がめちゃくちゃ綺麗なんですよ。
めちゃくちゃお金儲けできたり、めちゃくちゃいいことができたり。
豊かな人生。
錯覚なのかわからないですけど、そういうふうに思って登る。
でも、実際にAIツールを使うとどんな生産性が上がっていくか。
多分いろんないいことが起きるので。
ただ、それを見過ぎてしまうとどんどん走っていって、結果落ちてしまう時があるんじゃないかと。
そこをずっと上の空しか見ていないと、結構危険性があるんじゃないかというところがあるのと。
あとはもう一つの違い方で言いますと、
一番最初の冒頭にスピード感の話をしたと思うんですけど、
人間って自分たちの知能を過剰評価しがちでして、
例えば動物と知能を比べるときに、