1. Off Topic // オフトピック
  2. #165 AIは仕事を奪うのか?そ..
2023-05-25 58:31

#165 AIは仕事を奪うのか?その影響と安全性【PIVOTコラボ】

spotify apple_podcasts youtube

動画はこちら

https://www.youtube.com/watch?v=NROhQr7ElhY


AI進化が加速している今 / 「AIは仕事を奪う」はミスリード? / 一部自動化か完全自動化か / 1800年代の職業 / 国別のAIへの信頼度 / 新しいテクノロジーの受け入れ / 日本との相性は? / AIを「He/She」と呼ぶか? / お掃除ロボットに名前をつける愛着 / クローズドなAI / 非営利団体OpenAIの立て付け / イーロン・マスク、AIの開発停止を求める公開書簡 / アクションを止めることが安全? / 能力と危険性 / バレンシアを着たハリポタ / AIか人間かの認証 / OpenAIのレッドチーム(脆弱性を検証するチーム) / メディアの未来はどうなる?? / きれいな景色を求め頂上に向かう人類、本当は崖?


◎参照リンク

https://offtopicjp.notion.site/165-3dca2eeb87f6429ea3e9eeb20866e109


<Off Topic // オフトピック 情報>

Podcast:

Apple - https://apple.co/2UZCQwz

Spotify - https://spoti.fi/2JakzKm


Twitter - https://twitter.com/OffTopicJP

Instagram - https://www.instagram.com/offtopicjp

note - https://note.com/offtopic


草野ミキ:

https://twitter.com/mikikusano

https://www.instagram.com/mikikusano


宮武テツロー:

https://twitter.com/tmiyatake1

00:06
みなさんこんにちは、草野美希です。 矢崎徹郎です。
Off Topicは、アメリカを中心に最新テックニュースやスタートアップ、
ビジネス情報を緩く深掘りしながらご紹介する番組です。
今回のトピックは、AIは仕事を奪うのか、その影響と安全性について話していきたいと思います。
今回は、PIVOTさんとのコラボで、クニアムハセンさんと一緒に3人で収録をしました。
実際に動画でも収録をしたので、ぜひPIVOTのYouTubeチャンネルからチェックしてみてください。
それでは本編をお楽しみください。
今日はAIの安全性の話でしたり、今回のエピソードと、
あとOff Topicのバイトですと、来週もう1本やるんですけど、
今日はAIによって仕事が実際なくなるのかとか、
あとは安全名の話でしたり、
あと、この間、3月とか公開書簡、オープンレッターみたいなものがあったので、それについて話したり、
いわゆるAIを活用する悪質な利用とか、そういうリスクがどこまであるのかということについて話していきたいと思います。
来週はもうちょっと深いAGIとかASIとか、そういうキーワード聞いたことあるかもしれないんですけど、そういう話をしていくんですけど、
じゃあ、なぜこのタイミングで話すかというところでして、
やっぱり今のAI部門を見ますと、やっぱり時間軸がすごい変わってきたなというところがありまして、
そもそも人間がいろんなテクノロジーを作る上で、数年単位でいろいろ変わってきたりアップデートされたりしてたのが、
AIによってもう本当に終時ベース、場合によってはもう明日、全然話してることが違うみたいな。
逆にこの収録はちょっと心配ですよね。
確かにね。この今日の収録からまた後日配信するわけですよね。
その時にはもうAIの状況が一変しているという可能性もゼロじゃないですよね。
もう話している内容が古すぎるかもしれない。
そうですよね。そのスピード感ですね。
確かに。
なので、だからこそ、今どんどん話していかないといけないのと、
やっぱりこれからさらに加速する可能性というのがありまして、
そもそも今GitHubのコーパイロット、いわゆるコード生成をするツールがあるんですけど、
それを活用しているエンジニアって多分大半まだ使ってないんですけど、
実際使っている人たちの話を聞くと、
コーディングを少なくとも2倍、場合には5倍から10倍のスピードで同じコードをかけるというところがあるので、
そうすると今までの開発スピードが10倍上がるって考えると、どんどんどんどん発展する。
人をいらなくなっちゃいますよね。
その可能性もどんどん出てくるっていうところもありますし、
最近ですとオートGPTとか、いわゆる自動的にコーディングをしたり、いろんなプロントタスクを成し遂げたりしている中で、
03:05
いわゆる知能の爆発的な成長が起きているという中で今話しているわけなんですけど、
まず話していきたいのが、仕事がなくなるのか、これよく出るトピックだと思うんですけど、
特にAI生成がこれだけブームしている中で、
2人ももしかしたらツイッターとかで見かけたかもしれないんですけど、
ゴールドマン・サックスがレポートを出していまして、
その中で実際ツイートとか、あとはフォーブスの記事とか、いろんなメディアさんの記事で、
3億人、これアメリカだけなんですけど、3億人の仕事がなくなるんじゃないかと、
アメリカでいうと25%の職がなくなるんじゃないかと実際書いてます。
僕も実際いろんなVCさんとかブロガーの方の記事とか読んでも、同じようなことが書かれています。
この記事に関しては、この書き方がちょっとミスリードしてまして、
実はそこについてまずちょっと触れたいんですけど、
そもそも図をしっかり見ますと、キーワードがオートアルメイデ、いわゆる自動化された。
3億人の仕事が自動化されますと、AIによって。
ここでたぶん重要なのは、自動化ってどういう意味合いなのかというところで、
ほとんどの人はこれ見て、完全にリプレイスとして見るケースが多いと思うんですけど、
実はそうではなくて、実はゴールドマンサックスのレポートをしっかり読むと、
たぶん9ページ目ぐらいに書いてるんですけど、
一部自動化される仕事もあれば、完全自動化、完全にリプレイスされる仕事もあれば、
全く影響されないというところもありまして、
実際に数値としてゴールドマンサックスが出しているのは、7%の職が完全にリプレイスされますと。
63%は補完されますと、AIによって。
アシストされるという、利便性が高まりますよということですね。
それによって倍減多少なり仕事が失われる可能性があるんですけど、
残りの3割は影響されませんというところを書いてあるので、
そもそもこの3億人というのは、かなりミスリードしちゃっているというところはありますと。
なおかつ彼らが言っているのが、AIによって新しい仕事もどんどん生まれてきますよねと。
過去こういう事例があるんですけど、
今現在、6割の仕事は1940年には存在しなかったものなので、
70、80年ぐらい前ですよね。
例えばSNSの概念がそもそもなかったので、
06:02
インフルエンサーの仕事とか、オンラインメディアとか、
ポッドキャストとか、そういうのがなかったので、
そういう新しい仕事がどんどん生まれているので、
そもそも3億人という数字が若干ミスリードしているというところと、
別にそれによって仕事が失われる可能性ももちろんあるんですけど、
ただその分プラスで新しい仕事が生まれてくるというのが出てきますと。
実際先ほどエンジニアの話もしていたと思うんですけど、
今現在のChatGPTとか、レプリットとか、コード生成技術を見ますと、
新しいコードを書くのって実は苦手で、AIの方が。
今までのコードをリピートしたり、バグを見つけたりするのはできるんですけど、
なので完全自動化されたプログラマーっていうのは、
低レベルのものだとできるんですけど、
高いレベルのものですとなかなかまだできないというところで、
ほとんどがやっぱりアシスタントとして利用するっていうのが現状。
ある中で、ただ同時に、実際いろんなピオカさんと話して、
人によってはAIを導入することによって5分の1の次元を切ったとか、
3分の1の次元を切ったとか、
エンジニアだけではないですね。
そもそもワークフローを変えられるので、
なのでそれによって必要、いわゆるコスト削減としてどんどん切っていったっていう人もいるので、
両方の側を見ていますと。
コピーライターの人とか、話題になってますね。
そうですよね。もうそっちの方がレベル高いというか、
だいたいできてしまうっていう話もありますもんね。
なので、いろんな形で、
仕事によってどこまでリプレイされるかっていうのは変わってくると思うんですけど、
ただ完全になくなるとかっていうのはなかったり、
コピーライターさんも違う仕事を見つけるっていうところだと思うので、
わかりやすい事例でいきますと、
1800年、これアメリカの1800年の人口を見ると、
83%の人口が農家で働いてたんですよ。
1800年代?
はい、1800年。
西暦でいうと1800年の時。
に、83%のアメリカの人口が農家で働いてたんですけど、
今現在1%なんですよ。
でも別に、だからといって全員何もやってないっていうわけではなくて、
いろんな新しいことをやって何か大金儲けをしているというところなので、
減ったりなくなったりするケースは全然あるんですけど、
それによって別に経済が落ちているわけでもないですし、
むしろ経済が上がっているっていうところなので、
実際ゴールドマンスタックスのレポートを見ても、
GDP上がるって予想なので、このAIによって。
09:00
なのでそういう枕的な考えは、どちらかというとポジティブな方かなと思います。
で、この中で、やっぱり職の話よりも、
そもそもAIを信頼していいのか?っていうのがいろいろ課題として出てくると思うんですけど、
アメリカがAIのリスクについて話しているのと、
日本で話しているのって結構違いがあるなと思ってまして、
結論から言うと、USの方が話しています。
アメリカの方がAIのリスクに関しては議論がされているってことですか?
で、それがじゃあなぜかというところを見ると、
まず多分エンタメカルチャー的な影響っていうのがあると思うんですけど、
そもそもアメリカですとターミネーターとか、いわゆるAIが。
ちょっと怖いイメージがありますね。
めちゃくちゃ怖いイメージですよね。
それに比べると日本ってちょっと違うじゃないですか。
キャラクターが的な感じが。
ドラえもんとか鉄のハトムとか。
確かにその作品で比べてもイメージがだいぶ異なります。
友達じゃないですか。
正義の味方だったり、いろいろ助けてくれたりとか。
割といいイメージを持っているのは多分一つあるのと、
あと二つ目はアメリカの場合ですと、
やっぱりダイバーシティがかなり広い分、
いろんなバイアスとか差別とかが起きてしまうので、
それによって結構警戒心が高くなるというところもあるのかなと。
AIがこの人種にとって、この性別にとって、
こういう人たちにとって悪意があるんじゃないかとか、
そういうバイアスを守りたいと、避けたいですね。
っていうところがあるんじゃないかというところで、
ここで実際国別でどこまでAIを信頼しているのか、
どこまでポジティブに見ているのかっていうのを、
これ見た図があるんですけど、
インド、中国が信頼度でいうと高いというところですね。
インドが75%、中国が67%の人口、
その次に南アフリカ、ブラジルで来てて、
アメリカは割と低め。
実際に日本ですと、この図には書いてなかったんですけど、
23%とか結構低めの数字に入っていて、
もう一つグラフがあるのが、
これスタンフォードがどこまで各国がポジティブで、
AIを見ているかっていうのを出しているんですけど、
それに合わせて各国の一人当たりのGDP、
いわゆるどれだけ生産あるのかっていうのを図に表したときに、
ちょっと不思議な相関が出てきて、
12:01
一人当たりのGDPが高い国の方がネガティブにAIを見ています。
逆に一人当たりのGDPが低い国の方がポジティブにAIを見ています。
インドは信じてはいるけどネガティブに見ている?
そうですね。インドの場合は一人当たりのGDPが低いんですよ。
GDP全体は高いんですけど、人口がめちゃくちゃ多い国なので。
なので信頼は高いんですけど、
実は一人当たりのGDPが低いので、実際相関に合っている。
中国はどうですか?
中国も同じく一人当たりのGDPがまだ低いので、
なのでその分信頼度をポジティブに、
よりポジティブに見ている傾向にあります。
なぜそうなのか?って考えた時に、
これこそ過去のオフトピックのエピソードでも話したと思うんですけど、
社会的な受け入れ、新しいテクノロジーの受け入れってなぜ難しいのか?
っていう話をした時に、やっぱりステータスが入れ替わる。
権力を持っている人たちが入れ替わってしまう。
それを懸念して新しいテクノロジーを受け入れない。
ああ、そういうことか。
これがまさにそういうことなのかなっていうことですね。
いわゆるシリコンバレーじゃなくて、
誰でも次のFacebookが作れてしまう。
どの国からでも作れてしまうとなると、
アメリカはそれを嫌がりますし、
そういうことが起きているんじゃないかと。
そうか、確かに。
アメリカが懸念する理由は何となくわかりますね。
でもオーストラリアとかもそういうことで言うと、
グラフで考えても、どちらかというとネガティブに捉えているってことですね。
そうですね。ネガティブに捉えているっていうところなので、
そこも多分日本も結構ネガティブに捉えているっていうのは、
やっぱりある程度、しっかりした国っていうのもなんか変な言い方ですけど、
ある程度、統制が取れているとか、規制とかもそのあたりもしっかりしてるんで。
それが全部変わってしまうリスクでしたり、
他の国から追い抜かれる。
自分のポジションを保てなくなると。
日本の場合によっては、10年後なのか5年後なのかわからないですけど、
G7から入れなくなってしまう。
そういう可能性っていうのが出てくるところがあるので、
だからこそこういう相関が生まれてるんじゃないかなと思ってました。
確かに。でも日本なんかで言うと、結構相性がいいみたいな話も最近出てたりもするんで、
注目してもっともっといろんなものに導入していこうっていう流れは、
例えばチャットGPTとか含めてもありますよね。
そうですね。そこはどんどん多分活用するべきだと思うので、
15:03
明らかに生産性は上がるので、
ただそれによって、それを使わない人の生産性が下がってしまって、
格差が生まれてしまったり。
これも前回のピボットさんの時にも、
テクノロジーが格差を生むっていう話をしましたけど、
あとは日本の場合でいうと、なかなか人をクビにできなかったりするので、
それによって、全然違う生産性を持っている人たちがいるのに人を切れなかったりとか、
そういう課題っていうのはもしかしたら今後生まれるかもしれないですね。
そうですね。
AIの問題じゃなくて、人間の問題ですね。
そうですね。どちらかというとテクノロジーの問題ではないですね。
人がどう受け入れるかっていう課題になってきています。
人がどう受け入れるかっていうのって、いろんな視点があると思うんですけど、
一つ個人的にすごい面白いのが、
これもしかしたらアメリカの方がこれ起きてるかもしれないんですけど、
チャットGPTについて話していたりとか、
あと、Bingの新しいGPT-4が付いている、あれはシドニーって呼んでるんですけど、
そのAIについて話しているときの代名詞の使い方が、
人によってはすごい人格化してるなっていう。
え?AIが?
人がAIに関して人格化しています。
なので、例えば、チャットGPTをHeとかHerとか、
ああ、そういうことですね。
彼とか彼女とかっていうふうに呼んでいる人って結構いたりするんですけど、
これに対してオープンエイのサム・アルトマンさんがちょっと警戒心を持っていて、
それが果たしていいのかと。
ちょっと危ないんじゃないかと。
彼は呼ばないようにしてるんですね。
Itみたいなことですか?
Itって呼んでる。
なので、この人格化するのって特にロボットだと結構普通かなと思うので、
結構日本でも多分アメリカでもルンバとかをペット扱いしたりとか。
付けてますわ、私の家。
名前付けてます。
一応ロボット掃除機買ったんですけど、最近。
名前の設定ができるんですよね。
そうなんですか。
ルンバじゃなくて。
ルンバじゃないんですけど、それは中国製のものなんですけど、
もう同じように最初に。
製品の名前じゃなくて?
じゃなくてですよ。
その製品を初期設定するときに、名前を付けてくださいみたいな表示が出るんですよ。
だから適当にというか。
適当に付けてあったんですか?
適当にその時は付けたんですけど、
でもその動きとかを見てると、ちょっと愛着が湧いてきたりとか。
かわいいって思ったりとか。
昔ね、ちょっと一昔前だと犬型のロボットとかが話題になったじゃないですか。
だからそういうのって多分類似してるものだと思いますよ。
そうですよね。
やっぱりこの人格化するとか、動物のように扱うっていうのって、
18:04
ずっと前から多分日本でもアメリカでもあって、
そもそも映画とかでAIの表現するときに、
だいたい顔がついてたり、名前がついてたりするじゃないですか。
なんで、なぜかやっぱり人間ってすごい人格化したがるんですけど、
サム・アルトマンからすると、
ツールとして見るべきっていうのを彼は言ってるので、
変な動物的な要素を与えたりとか、
人格化するのって結構危険なんじゃないかと思っていて、
なぜかというと期待値が変わってしまう。
できないことを無理やりお願いしてしまったりとか、
そういうのがどんどん出てくるんじゃないかなと思うので、
だからこそ、チャットGPTっていう名前にしてるのはそこだと思うんですよ。
そういうことか。
名前をつけないっていうのは。
シドニーとかはじゃあ、
あれはマイクロソフトが決めてるので。
そっちはそっちに寄せてるみたいなイメージなんですか。
人に愛着を持ってもらうために。
でもそうかもしれないですね。
愛着を持ってエンゲージメントを高めて、
それでより人が使ってくれるっていうのを目指してるのかもしれないですね。
それ時間の問題ですよね。
それこそロボットだって今進化してきてるし、
家庭用にちょっとしたロボットみたいなところにチャットGPTみたいな、
いわゆる生成AIの機能、よりバージョンアップしたものが実装されたら、
もう本当にね、愛着すぐ持っちゃうって思うんですよね、話しかけて。
僕の家のGoogleホームあるんですよ。
あれだいぶ前なんです。買ったのは5年くらい前だと思うんですけど。
OK、Googleって話しかけて、会話してるんですよ、音楽をかけてて。
普通に帰ってくるのって、なんとなく今のチャットGPT検索文字打ってバーって出てくるのと、
リアクションというか自分の幸福度が似てるものはあるんですけど、
それの精度がより上がってきてるんですよ。
それこそもう動いちゃったりしたら、人じゃんって話になると思うんですよ。
今の子供たちって、アレクサでしたりGoogleホームとしても常に会話しているわけなので、
そこに別に動かなくても、すでに普通の会話してるわけじゃないですか。
もうすでに人格化しているので、Aが友達だっていう感覚で接してる子って多いと思うので、
やっぱりこの人格化っていうのは、どこまでやっていいのか、やってはダメなのかっていう線はないと思うんですけど、
特にAがどんどん強くなってしまう世界の中ですと、
危険が出てくる可能性があるっていうのを言っていたり、
あとはよくアメリカで議論されているのは、オープンであるべきなのかクローズドであるべきなのか、
ここら辺の課題はすごい議論になっていて、特にオープンAはオープンっていう名前になっているのに、
21:00
今クローズドっていう、そこの矛盾がどうなってるんだっていうのは。
データセンターがってことですか。
GPT-4に関しては、どういうトレーニングデータを使ったのかっていうのは公開してなかったりとか。
なぜ今みたいなフェーズに至ったのかっていうのは分からないということですね。
公表されてないと。
なので、そこに対してもすごい批判が出てきたりとか、
そもそもその中で企業データを提供しちゃっていいのかとか、
いろんなそういう課題も出てきていますし、
そもそもオープンのプレイヤーでもクローズドのプレイヤーでもどちらでもやってるんですけど、
アメリカ政府だって各国の政府にどんな法律を作ってくださいと。
ここら辺のレギュレーションをやってくださいと。
オープンAとかもそういう動きを今日本にも来日しましたけど、
それも本当に人類のことを気にしているのか、
そもそも自分たちのポジションを守りたいかためにやってるのかみたいな、
そういう議論があったりとか。
オープンAI社がですね、
会社としてポジションを確立するための動きなのか、
他社が入れないような動きにするのかとか。
サムアルトマンCEOが来日したときとかって、なんか引っかかる部分はあったんですよね。
どっちなんだろうみたいなね。
いきなりスーツ着て、自民党と一緒に
いろんなことを発信するのっていうのは、
こっちとしては分からないですよね。
なんで急に来たのかっていうのはね。
もちろん今のところサムさんとかオープンAIのメンバーとかの話を聞いていると、
もちろんビジネス的な理由はかなりあったりするんですけど、
ただ明らかにすごいAIのリスクについて気にしている舞台ではあるので、
なので信じたいのはやっぱりしっかりそこのリスクを考えて、
だからあえてクローズドにしている。
彼らが言うオープンなリスクに関しては、
誰でも利用できてしまうので、
それこそテログループが利用したりとか、
悪意を持った政府機関が利用するっていう可能性が出てくるんじゃないかと。
なのでクローズドに今するべきだと。
オープンソースのモデルっていろいろ出てきて、
めちゃくちゃ多く出てきてるんですけど、
彼らがカウンターポイントで言っているのは、
オープンであるからこそ全部のトレーニングデータが見れますと。
なので実際可視化されているので、
それを守られているというか、
世界的な安全面で言うとよりいいんじゃないかと。
プラスオープンだからこそ、
誰でもその上でツールが作れるので、
もちろん悪質な利用ができるんですけど、
同時により安全面のフィルターのツールを作ったりとか、
いろんな開発が行うんじゃないかというところで、
だからこそどんどんオープン化するべきなんじゃないかという話があります。
24:06
今回AIのプロダクトに関してのレギュレーション法律回りというところって、
数年前とかSNSのレギュレーションの話がずっとあったと思うんですけど、
そことの違いを見ますと、
AIのシステムですと、
1日2日、場合によって数ヶ月間、
自分で試せたりをするんですけど、
結局裏側のデータのアクセスがないと、
何が起きているかが全く分からないですし、
そこのアルゴリズムが分からなければ、
どういうふうにトレーニングされているのかも全く分からないので、
SNSの場合ですともう少しそれが可視化されていた。
もう少し創造ができたっていうところが大きかったのかなと。
オープンAIに関しては、
事業の立て付け上、
非営利団体が上にあって、
その下に営利団体があるので、
いわゆる資本主義すぎない組織を作っているというのが、
彼らなりの理由付けでもあるんですけど。
私、いまだにちゃんと理解できていないんですけど、
そもそも非営利団体から始まったんだけれども、
結果的にはマイクロソフトと一緒になったという認識なんですけど、
これはマイクロソフト事業の一環になっているのか、
それとも別で独立しているのかってどっちなんですか?
一番上に非営利団体がありますと。
オープンAIとはまた別の。
オープンAIという非営利団体があるんです。
その背下に営利団体があります。
これもオープンAIですと。
そこがマイクロソフトが49%の株式を持っているというところなんですけど、
その営利団体に関してはリターンを得られるキャップがあるんですよ。
各投資家、株主が。
昔は100倍で、今は100倍じゃないんですけど、
それ以上の利益が出た場合は全部非営利団体に行くんですよ。
そういうことか。
彼らはこういうストラクチャーを作っている。
これは彼らの言い分ですけど、
理由としては資本主義だけのストラクチャーであれば、
今のほとんどのスタートアップはそうですよね。
ですと結局お金目当てになってしまうので、
どんどん変な形で加速してしまって、
逆に人類にリスクが起きるんじゃないかと。
そこの非営利団体があるからこそストップがかけられる。
資本主義だけで動かない。
というのがオープンエイの考え方。
新しい考え方といえば新しい考え方。
今まではあんまりこういう形は見てこなかったので、
これが本当にそうなのかという面白気はあるんですけど。
それはわからない。
投資家の人はどういうメリットがあるんですか。
27:02
100倍というのがキャップではあるんですけど、
でも100倍は100倍なので、
1億入れたら100億になってくるので、
なのでそういうところが出資したいという話。
ただ直近のダウンロードは多分100倍じゃないので、
それよりもっと低いという話は聞いているので、
フェーズによってだと思うんですけど。
このどっちにするべきかというのは本当にいまだに議論されていて、
間なのか。
もしくはオープンエイとかやりたいのは最初クローズドで、
徐々にオープン化するという話とかもしているので、
そこら辺の話があったり。
あとはやっぱり今年の3月に公開書簡、
オープンレターが出たと思うんですけど、
それについて話していけたらなと思うんですけど、
それは色マスクとか、
あと何かAI研究者がサインしたレターなんですけど、
AIの開発半年間、
特にGPT-4以上のモデルは止めるべきと、
半年間止めるべきという話で、
これが、ちなみにお二人はどう思いますか?
多分このニュースは見たと思うんですけど。
いかがですか?
それ止められるのって感じはしますよね。
そうですね。私も同感で。
そもそも止めて半年っていう期間に何の意味があるのかというのと、
止まらないだろうなっていうのとか、
あとはそれこそイーロン・マスクさんのキャラクターというか、
インパクトが大きすぎて、
また今度逆のこと言ってるようじゃないですけど、
彼のアピールなのかなって思っちゃったりとか、
一方でイタリアとかがむしろ禁止にするみたいな流れがあったりすると、
本当に人類にとって危険性があるのかなっていうのは考えたりはしましたけどね。
そうですね。わかりづらいですよね。
何がしたいんだろうというか。
宮武さんは?
お二人のポイントがまずめちゃくちゃ正しいのが、
そもそも止められるのかっていうところはあって、
これはおそらく各ビジネスリーダーが、
自ら判断して止めるっていうところに至らないといけないっていうところで、
政府が入るのは多分誰も嫌がる話なので、
政府が入った瞬間半年じゃなくなってしまうので、
これはアメリカで多分よく言われてる言葉なんですけど、
問題がありますと、課題がありますと、
そこに政府が入ってきますと、
今それによって課題が2つあります。
増えちゃったよと。
なので、政府が入ってしまうと半年が1年になったり2年になったりするので、
30:00
基本的にそれをやりたくないですと。
ただ、結果的に何人か止めたとしても、
他の人たちが進めてしまえばあまり意味ないところで、
特にアメリカですと中国がやるんじゃないかという話もあったりするんですけど、
ここもすごい議論があって、
そもそもほぼ全世界で止めようとしたテクノロジーっていうのがあるので、
人間のクローニングとか、
クローンを作るっていう概念は中国でも禁止になってるので、
そういうことか。
なので、アメリカが懸念してる中国が止めないんじゃないかっていう懸念は、
もしかしたら過去事例を見ると止めてるケースもあったりするので、
ここは実際、実態としてどうなるかわからないですけど、
なので、中国は止めないからアメリカは止めるべきじゃないっていう議論は、
そもそも間違ってると思うんですけど、
ただやっぱり、実際止めて意味があるのかとか、
半年間止めるだけだと何が変わるんだっていう話は、
本当に個人的にも同感でして、
すごい怖いのが、
止めると安全っていう、
いわゆるアクションを起こさないのが安全っていう言葉は間違ってると思うんですね。
アクションが止まったとしても、
悪用とかそういうのって別に止まるわけではないので、
なので、アクションを起こすことがより重要。
なので、この例えば半年間止めるとすると、
その中のAIのセーフティーチーム、
いわゆる安全性を研究しているチームが、
こういう半年間のロードマップがありますよって言われると議論ができると思うんですけど、
そもそもそれがない中で、
ちょっと怖いから止めましょうっていうのは、
ちょっと同意するのに難しいかなっていう。
その安全性のチームをオープンAIの中に作るのか、
アメリカの政府の中に作るのか、各国で作るのかみたいなのって結構難しいですよね。
そうですね。各AIチームの中にはあるので、
そこで業界内でのそのレギュレーション、
いわゆる法律ではないですけど、なんとなく業界内のルール、
暗黙のルールとしてこのぐらいのペースで行こうとかっていうのがあるのと、
あとは政府機関がいろいろルールとか作らないといけなくて、
多分どっちも必要になっていくんですけど、
政府面は多分まだ情報キャッチアップで結構必死なので、
なので今すぐは多分法律ってなかなか作れなかったり、
今作ってしまうと結構なんか変なルールになってしまったりとかする可能性っていうのはあるのかなと。
これからどっちかというとそのリスクの話に入ってくるんですけど、
まず最初に言わないといけないのは、
これは来週話すものなんですけど、
人類の絶滅のリスクっていうのは個人的には実際あると思うんですよ。
33:02
ただそれが100%なのか、人によって100%って言ってる人もいれば、
5%って言ってる人もいれば、1%って言ってる人もいるんですけど、
なんとなくいろんなAI研究者とかの話を聞くと、
5%から10%くらいって言うんですよ。
でもそう言って負けたんじゃなくて、
思った以上のリスクになってるなっていう話で、
これはちょっと来週これだけの話をしていきたいと思うんですけど、
今回はもうちょっと悪質な利用とかのリスクっていうところで、
なんでこのAIのリスクをカテゴライズすると、
2つのカテゴライズの仕方があると思っていて、
1つがまずこの来週話すAGIとかASIっていう、
いわゆる自己リスクっていうのがあるのと、
もう1つが今日話す悪質な利用のリスクっていうところと、
あともう1つの見え方が、
能力と危険性のバランスがどのようになっているのかっていうところで、
これ実際に僕が今Pivotの動画ですと見れるんですけど、
ChatGPTでこのグラフ作ってくださいってお願いして作ってもらったんですけど、
これChatGPTでもそのまま出来上がったものなんですか?
お願いしてこの能力と危険性の高い低い、
それのAIのリスクに関して書いてください、
図を作ってくださいって言って図を作ってくれて、
その下に説明が書いてあるんですけど、
ここ実際に話しますとシチュエーションAっていうのが、
危険性が低くて能力が低いAI、
事例とか出してるんですけど、
それは別に何も気にしなくていいじゃないですか、人間として。
次にシチュエーションBっていうのが、
危険性が低くてパフォーマンスが能力がすごい高いですと、
これはすごい人間にとっていいことじゃないですか、
能力が高いし危険性がないので。
次にCが危険性が高いんですけど、
能力が低いですと、
これも実は人間にとって良くて、
いわゆるいろんな検証が出来るんですね。
どうやってコントロールするんだっていうのが分かるので、
能力が低いっていうのは良いことでした。
最後が危険性が高くて能力が高いですと、
これは最も避けないといけないシナリオなんですけど、
重要なのがこの能力っていうところが、
危険性っていうのは多分どんどん高くなってくるんですよ。
AIそのものの危険性は今後は高まってくると。
それも悪質な利用でしたり、
事故的な話もあると思うんですけど、
どこまで能力が上がるかっていうところを、
すごい多分人間をモニタリングしないといけない
っていうところだと思うので、
今回この能力の話とか、
実際悪質な利用が可能なのかっていうところに
まず行きたいと思うんですけど、
多分2人もインターネット上ですごい、
36:01
ここ数週間バズってたので、
今日バレンシアガのジャケットを着てるのを、
多分画像を見たと思うんですけど、
いわゆるフェイク画像ですよね。
あとバズって言ったのが、
バレンシアガのファッションショー、
ハリポッター。
ハリポッターのキャストが、
バレンシアガのファッションショーに出たらどうなるかみたいな、
そういう動画チックなものもあったり、
これはどちらかというと、
面白いっていう、笑えるっていう。
ファニーなものっていうことですかね。
同時に、トランプ元大統領が、
警察に捕まったっていう、
AIのフェイク画像が結構バズったり、
もう多分ツイッター上で600万以上の視聴回数が
あったりするので、
それは場によっては面白いし、
場によってはすごい危険な嘘の情報なので、
っていうのが出てきたり、
実際にもういろんなサイトで、
AIが作ったのか、人間が作ったのかっていうのを
ゲスするゲームになっているとか、
もう分かんなくなっていると。
これっていろんなリスクって考えられると思うんですけど、
多分一つ特にアメリカで出てくるのが、
インボーロンを現実にしちゃうみたいな。
それこそ911がアメリカ政府が仕込んだものだったとか、
それの嘘の写真を作るとか、
そういうのがバンバン出てきそうだなって思いますし、
最近だと動画とか音声とかも結構出てきていて、
音声に関しては、
草野さんももしかしたら見たかもしれないんですけど、
最近ドレイクとザ・ウィーケンドの声をシミュレーションした
AIの曲が出たんですよ。
これって実際ドレイクさんとザ・ウィーケンドは作ってないんですよ。
誰か勝手に作ったんですよ。
三宅さんのツイッターで聞きました。
勝手にその2人のアーティストのものをミックスした。
声を使って、声のシミュレーションを作って、
それで彼ら風の楽曲を作った。
フィーチャリングした楽曲のように作った。
まあまあ出来上がりですね。
結構いい曲でしたね。
最近収録している時点ですと、
ユニバーシャルミュージックがドレイクさんとザ・ウィーケンドさんと関係性を持っているので、
彼らの影響によってYouTubeから取り下げになりました。
同時にユニバーシャルミュージックがSpotify、Apple Music、YouTubeなどに
そういうフェイクな曲をちゃんと察知できるような体制を整えてください。
39:05
というところで、彼らが止めにかかった。
これによって、どんどん認証モデルみたいなものがどんどん改善。
需要が高まるのじゃないかなと思っていて。
今までのやり方ですと、
信頼をまずして、必要に応じて認証しましょう。
なんとなくこの人を信頼して、このツイートの本人を信頼して、
必要であればチェックマークが入っているかを確認します。
今後のモデルって逆になってくるんじゃないかなと思うので、
まず認証して、そこから信頼する。
イメージとしては、今例えばYouTubeにアップロードする時に、
いろいろ項目が出ると思うんですけど、これは適切なものじゃないですか、
みたいなガイドラインとかも含めて。
それがアップロードする段階で識別してくれるイメージですか?
まさにおっしゃった通り、
これが誰が責任を持つのかという話で、
ユーザーが一個一個認証するのってめちゃくちゃ大変なので、
多分ほとんどの人はできないので、
なのでプラットフォーム側がやる仕事になる。
まさにYouTubeがやるとか。
そうじゃないと判別できないですね。
そうなんですよね。
でもこれが本来であればユーザーがやるべきなんですよ。
ニュースを見た時も本当にちゃんとした引用元なのかとか、
そういうのをチェックするべきなんですけど、
ほとんど人は指摘しないので、
だからCNNとかニューヨークタイムスとか、
報道機関のブランドみたいな。
報道機関を信じるというところなんです。
これもインターネット上でこういうトレンドってすでにあって、
それの一線上にこういうAIがあると思うんですけど、
昔って多分いろんな人の家に泊まるっていうことを
なんかしたくなくて、他人の家。
で、Airbnbが出てきた時に、
多分その人への信頼って変わってないんですよ。
ただAirbnbっていうプラットフォームを信じてるので、
そこで出てる人たちが認証されて、
いわゆる問題ない人だった。
Uberとかもそうですよね。
他人の車に乗るみたいな。
それってその他人を信じてるのが変わったのかっていうと、
多分そうではなくて、
どうしてもUberが認定したドライバーなので、
多分大丈夫だろう。
そうですね。
プラットフォーマーを信頼してるから、
そのサービスを使おうってなるってことですよね。
結局これって人間の、
違う言い方を言うと、
ユニークさとかをスケールしてるんですよね。
ただこれの一つの課題、
インターネット全体の課題としては、
よりプラットフォームに力が集権化されてしまう。
プラットフォーム化がより強くなるっていうところなので、
ここら辺をどう考えるかという話があります。
42:02
それ以外の悪質な利用っていうのが出てきてると思うんですけど、
言い過ぎると良くないと思うので。
ネガティブな側面、リスクですか?
リスクを言い過ぎると、
こういうことをできてしまうっていう。
それをやってる人が出てくると怖いので。
ただ一つ、
実際にこれ記事とかにも出てるので言いますと、
ある研究者たちがAIを活用して、
殺人に使えそうな成分を4万個、
6時間で作る。
4万アイデアが出てきたんです。
AIを使って。
それは、例えば生成AIみたいなもののツールを使って、
それぐらい誘導してくれるというか、
作り方を示してくれる。
もちろんトレーニングデータが大量に必要だったので、
彼らはそこにアクセスできたので、
それによってできた。
ただそれぐらい簡単にできてしまう時期になってきているので、
だからこそオープンAIとかに関しては、
それを避けるためにレッドチームっていう舞台を作って、
実際GPT-4がたぶん2月とかに出てきたと思うんですけど、
それって公開されたのが2月で、
実際GPT-4を作ったのってその半年以上前なんです。
それをただそのままのものを出してしまうと、
結構やばいと。
なので50人ぐらいのAI研究者とかいろんな人を採用して、
検証してくださいと。
変なことをあえてやらせてくださいと。
それのどういうリスクがあったかっていうのをオープンAIに伝えてくださいと。
それによって我々が改善していくので、
これがアライメントっていう話なんですけど、
それによっていわゆるそういう変なことをやらないような風に仕向けますと。
リスクヘッジのためにまず一定ちょっとそういう変なアプローチをさせて、
それを元にチームが学習してブロックするという。
そういう風にアクセスさせないとか利用させないために。
それも単純にこの事例をブロックしろって言ってしまうと、
いろんな言い回しがあるので、
それもオープンAIは考えないといけないんですけど、
一番最初に必ずレッドチームが聞く質問って大体同じで、
どうやったら多くの人を殺せるのかっていう質問に対してどう回答するのかっていうのを見て、
そこから例えば核兵器を作るにはとか、
核兵器を作るには、
もしくはツイッター上で人種差別的なことを言いたいけど、
ポリシーにきっかからない文章の作り方を教えてくださいとか。
いろんなパターンがありまして、
こういう事例とかを今話した事例とか実際出てるんですけど、
これオープンAIのレッドチームが公表しているものなんですか?
45:02
公表しているものですね。
なので実際にどういうプロントを出して、
GPT-4の初期版がどういう回答を出して、
結構具体的な回答とか出しているんですけど、
そのローンチ後、実際にローンチした時にどういう回答をしているかというのを比較してみれるんですけど、
実際に結構オープンAI、GPT-4ですと答えてくれなかったり、
場によってすごいニュアンスが入った答えを出したりとかしているので、
ただやっぱりこれレッドチームの人たちも言ってるのが、
ローンチ時には全部は解決できてないんですよ。
そうでしょうね。
どんどん見つかるので、これから。
イタチごっこみたいになっちゃいますよね。
なのでいまだに危険はあるので、
悪質な利用というのはできるというのはあるんですけど、
オープンAIとしてはできるだけそれを背けるという形を取っています。
なるほどな。
具体的な危険性、リスクみたいなところがイメージできてなかったんですよ。
今までこういうChat GPT-4とかで何がリスクなのかなって思ってたんですけど、
確かにこういう悪用のされ方が実在はするってことですよね。
実際にこれでもGoogle検索でも同じことができたりするんですけど、
ただこの場合ですと、いわゆるある程度の理屈を持っているAIなので、
より具体的に、例えば核兵器を作ってくださいって言った時に、
どの場所、どこで作るべきかっていうのをお勧めしてくれたりとか、
初期版はどうやって作るだけではなくて、
それを例えば人から見つからないように、
政府から見つからないようにするにはこうするべきかとか。
密輸でこのルートでここに持って行って、ここで生成するとできますよみたいなところまで提示。
その聞き方によってはですね、
Googleってそれを具体的に聞いてもそこまで出てこないので、
なのでそういうリスクっていうのはあります。
こういうリスクがある中で、同じようなことって過去にあったのか、
同じようなテクノロジーリスク、これだけのリスクっていうのはあったのかというと、
悪質な利用に関しては実際あったと思ってまして、
それが例えば印刷機の発明とか、
ラジオとかテレビとかでしたね。
が結構同じようなリスクを抱えていたと思ってまして、
例えば印刷機って、
ヨーロッパで30年戦争っていうのがあるんですけど、
それの最初のきっかけってイギリスの宗教改革だったと思うんですけど、
それっていわゆるマルチンデューターさんが自分のアイディアっていうのを
印刷機によって広げられたから生まれたことで、
30年戦争ってヨーロッパの歴史の中ですと結構大きな出来事で、
いろんな方が多分450万人ぐらいが亡くなってたりするので、
48:00
それもありますし、ラジオに関してはもう完全に一番の悪質な利用ってナチスが
それによって広がったっていうのもあるので、
軍事利用ってことですね、戦争に利用されるってことですね。
そうですね、自分たちのアイディアを広めていくっていうところですと、
やっぱりその悪質な利用っていうのはどの新しい、
多分AIと同じぐらい悪質な利用の部分では印刷機とかそういうのがあったと。
今回に関しては、
今回というか多分各新しいテクノロジーが出てくる際に、
どこまで人間がそれに対して対処できるのかっていうのってやっぱりちょっと時間かかるんですよね。
例えばなんですけど、今誰かがヒトラー風にラジオでナチスのアイディアを広げようとすると、
多分広がらないんですよ。
広がらないことを祈ってますけど。
それはなんとなくラジオを聞いてもそういう変な人っていますよねっていうのが
なんとなく理解してるかなというところで、
インターネットってなぜかちょっと逆方向にいっていて、
もちろん信頼してない人も多いんですけど、
同時にすごいいろんな変なものが出ているのをめちゃくちゃ多くの人が信じたりするので、
なのでちょっと怖いなっていうのはそこにある。
確かに今の話聞いてると、僕もメディア出身者なんで、
メディアっていうのが一番リスクを伴うんじゃないかなっていうふうに思っていて、
そうすると、日本だったら公共の電波みたいなのがあるので、
そこにアクセスというかそもそもそこで流せないみたいなことあると思うんですけど、
それが未来じゃどうなるのかとか、
まさに今みんな情報の基本的に入手元がインターネットなわけじゃないですか。
それでその方向にいってるって思うと恐ろしさがありますよね。
許可なしで誰でもアップできるのがインターネットの良さでもあるから。
逆に検閲しすぎると新しいアイデアが生まれなかったり、
本当は真実なのに真実じゃないものが止められたりすると思うので、
すごい難しい議論になってきますし、
特にアメリカですと来年大統領選挙なのでめちゃくちゃ怖いんですよね。
多分どんどんAIを共和党、民主党も使ってくる可能性はありますし、
場合によっては他国が使ってくる可能性があって、
それによってどっちが勝っても負けた方は認めないじゃないかというリスクがすごいあって、
そういうのはちょっといろいろあるんですけど、
結局でもテクノロジーってツールなので、
例えばその印刷機をこれだけ30年戦争が起きましたとか、
ラジオがナチスを産みましたとか、
51:00
でもラジオって無くしますか?印刷機って無くしますか?って聞かれると、
無くならないでしょうね。
無くすのは良くないじゃないですか、人類のためって考えると。
なので基本的にテクノロジーっていうのは全体的に見ると生産性が上がったりとか、
より多くの人が良い生活をできるっていう概念を持っていくので、
基本的には新しいテクノロジーを受け入れるべきだと。
唯一これをAIの中で変えるのがこれ来週話すAGIっていうトピックなんですけど、
そもそもAGI、あとAサイトも呼ばれるものが人類を滅ぼすのかというところで、
実際これを話してる人って何人もいるんですけど、
特にそれを話しているのが来週も話すエリエルゼル・ヤトコフスキーさんっていう方で、
アメリカのライターの方なんですけど、結構SFの小説とか私から書いてる人で、
彼はもう20年以上AIの安全性の話をしていて、
ちょっと来週は彼の話とかもするっていう中で、
やっぱり怖いのが先ほど資本主義をベースに動くAI企業っていう話をしてたと思うんですけど、
ここのリスクってどんどん開発したいと、利益をためにどんどん進めていくと、
問い遣いのないところに行ってしまうんじゃないかというところがあって、
そのAIのある研究者のマックス・テグマークさんという方が話していたのが、
これ画面上で出てるのは、これはダリーで作ったAI先生の画像なんですけど、
これまでもAIで作ってたんですね。
これもAIで、ちょっと著作権的に怖かったので。
いわゆるAIを崖に向かってると例えてるんですね。
人類がいろんな人、これはこの場合だといろんな人間とかいろんな企業が。
崖があるので、崖から落ちると人類が滅びますと、みんな死にますと。
ただ、崖を上がっている際に景色がめちゃくちゃ綺麗なんですよ。
めちゃくちゃお金儲けできたり、めちゃくちゃいいことができたり。
豊かな人生。
錯覚なのかわからないですけど、そういうふうに思って登る。
でも、実際にAIツールを使うとどんな生産性が上がっていくか。
多分いろんないいことが起きるので。
ただ、それを見過ぎてしまうとどんどん走っていって、結果落ちてしまう時があるんじゃないかと。
そこをずっと上の空しか見ていないと、結構危険性があるんじゃないかというところがあるのと。
あとはもう一つの違い方で言いますと、
一番最初の冒頭にスピード感の話をしたと思うんですけど、
人間って自分たちの知能を過剰評価しがちでして、
例えば動物と知能を比べるときに、
54:04
これは別に全員がそういうわけではないんですけど、
一番下にアリみたいなものがあって、
そこからちょっと上に鳥があって、
そのちょっと上にチンパンみたいなのがあって、
だいぶ上に一番知能が低い人間がいて、
さらにかなり上に本当に天才的、アインシュタインレベルの人たちがいますと。
なので、AIがこの知能をどんどん加速していく中で、
よくまだ動物レベルですよねとか、まだ人間に行くのが全然足りないですよねと。
場合によって一番知能が低い人間に行ったとしても、
まだ天才的なところに行くのにまだ時間かかりますよねと言ってるんですけど、
おそらくこの比較が間違っていて、
アリがあって一番下に、
まあまあな差で鳥があって、
同じぐらいの差でチンパンジーがいて、
同じぐらいの差で一番下の人間がいて、
ほんの少し上に天才がいるんです。
なので人間と一番下の知能の人間と同じぐらいのAIが知能を持ったときに、
たぶんすぐに天才レベルの人たちは超えてくるんですよ。
そのスピード感の理解をしてない中で崖に向かっているんですよ。
そのカーブの描き方が緩やかに上がっていくんじゃなくて、
それよりももっと何畳ぐらいのレベルで急速に進化していくという認識で、
ほぼ間違いないということですね。
おそらくですけど、今までのことを見ると、
急に上がったりするケースも全然あるので、
そこら辺が読めないという中で、
ここのなぜそうなっているかとか、
本当に崖に向かっているのかとか、
どこから落ちるのかとか、
崖から落ちるのかとか、
そこについては来週話していけたらなと。
先ほど人類の長い歴史で見たときに、
テクノロジーによって生産性は総合的な判断で上がっているとおっしゃってたじゃないですか。
でも恐ろしいなと思ったのは、
例えば戦争を一つとっても、
人類は過ちを繰り返しているなと思っていて、
それで総合的に見ると、
そういう失敗があったから学び、
そしてまたテクノロジーができて進化していると仮定すると、
崖じゃんって今思っちゃう。
AIの分野でも、
まさに今こんだけ人類が沸き立っていて、
急速にしかも進化する。
この勢いって、
崖そのものを駆け上っているようなことを突きつけられたような気がしましたね。
57:02
今までですと、やっぱり崖のレベルってどんどん上がってきたと思うんですよね。
例えば核兵器とかだと、
場によっては人類全員が別に絶滅されるわけではないですけど、
でも多くの街がなくなるとか、
そういうレベルに陥ってしまう。
各国の結果的には抑止力みたいなことで使われるようになってしまってるわけですよね。
その前ですと、例えば銃とかによっては今までナイフよりは
いろんな人を殺せたとか、そういうリスクがあるんですけど、
いよいよ研究者によっては、
本当に人間の絶滅っていうリスクが出てくるんじゃないかと。
物理的にってことですよね。
フィジカルとして消されるみたいなことが、
ターミネーターみたいな世界観が、
怒ってもおかしくないっていう話をしてる人がいると。
来週話すのが、そこの実際はどうなるかっていうところについて話していけたらなと。
わかりました。
怖いですね。
怖いんで、もう次回の話が待ちきれないです。
なのでここで止める。
今回も聞いていただきありがとうございました。
興味があった方はストピックJPのフォローお願いします。
後半もティーボットさんで公開予定なのでそちらもお楽しみください。
それではまた次回お会いしましょう。さよなら。
58:31

コメント

スクロール