1. rel.ax
  2. #21 弱いAIが強いAIを制御?オ..
2023-12-22 12:43

#21 弱いAIが強いAIを制御?オープンAIが進める未来のシミュレーション

bbz
bbz
Host

ポッドキャスト第21回目の紹介 1. GoogleのAIモデル「Bird」の話題 - 先週、Googleが新しいAIモデル「Bird」を発表し、その関連ニュースが続いている。 - Birdは日本語対応で、GoogleワークスペースやGmailと連携することができるようになった。 2. 音楽の生成AIの話題 - マイクロソフトのCopilotと連携するAIが、音楽の作曲などに活用されている。 3. 大規模言語モデルに関する話題 - 大規模言語モデルを活用して数理科学問題に挑戦する取り組みが行われている。 - 数学者とのコラボレーションにより、問題の解決方法を導き出すことができる。 4. AIの学習データに関する問題 - AIの学習データには、自動虐待の疑いの画像など、問題のあるデータが含まれている可能性がある。 - 大量のデータをフィルタリングすることは難しく、AIの安全性に関する課題が浮き彫りになっている。 5. AIの著作権問題に関する話題 - 文化庁がAIの著作権問題についての案を提示し、検討が進んでいる。 - AIの学習データの利用には、ガイドラインや法律に沿った形で権利を守りつつ、発展に寄与する必要がある。 6. AIの制御に関する話題 - オープンAIが弱いAIモデルで強力なAIを制御するプロジェクトを進めている。 - AIが人間を超える場合、その制御方法についてのシミュレーションが行われている。 7. オープンAIの安全性向上に関する話題 - オープンAIがセキュリティに関する諮問グループを設立し、安全性の向上に取り組んでいる。

※ タイトルや概要は AI にて生成させています。

放送で紹介されたニュースへのリンク

https://ainewsdev.substack.com/weekly-ai-news-22


放送の最初と最後の音声は https://elevenlabs.io/ で作成しました。

サマリー

第21回の放送では、オープンAIによる新しいAIモデルBirdのアップデートや、音楽生成AIとマイクロソフトの連携などが話題となっています。さらに、AIの学習データに問題があることや、AIの著作権問題についても議論されています。オープンAIが進める未来のシミュレーションについての興味深い話題もあります。また、AIが制御できなくなる将来に対するアプローチやAIの安全性の向上に関する話題も含まれています。

00:10
はい、ということで始まりました。今回21回目で今年最後の放送になります。今日も私、bbzとセコンさんでやっていきたいと思います。よろしくお願いしまーす。
よろしくお願いしまーす。
はい、ちょっと年内最後なので、特別な音声でも撮ろうかなと思ったんですけど、特に思いつかなかったので、普通にいきますっていう感じですね。
で、今日も年末ではあるんですが、1週間分のニュース、いろいろ出てますので、今日も紹介していきたいと思います。
AIが自動的にネット上で多く出ている記事をピックアップして、それをご紹介する形になっていますので、先週とか話した内容の重複があるので、そこは省いていこうと思っております。
はい。
まず最初にですね 先週も話した部分 ちょちゃっと済ましちゃおうかなと思うんですけれども
オープンAIの新しいAIモデルBirdとマイクロソフトとの連携
先週 Googleがですね 新しいAIのモデルを出したっていうところで
Birdっていうサービスで それが使えるようになったっていうのがあったんですけど
その関連のニュースが引き続き続いていたなっていうのが ニュースの一つですね
そうですね 結構ここは非常に話題性が高いので 今週もっていう感じですね
とりわけあれなんですかね 日本語対応で日本のGoogleワークスペースと
Gmailとかと連携するみたいなところも 機能として加わったというか
オープンになったところが多分今週あったので その辺のいわゆる仕事上
GoogleのAIアシスタントのBirdが ワークスペースとGoogleワークスペースと連携して
いろいろ使いやすくなったよみたいなところも 結構話題があったのかなと思いますね
より使いやすくなって いろんな人が触って 記事が出てっていうところで
拾われているのかなっていう感じですね
そうですね
もう一つ 先週話した内容が また引き続きっていうところなんですけど
音楽の生成のAIですね 数のAIっていうものがあって
これが数のAIですね 数のAIというものがあって
すごい精度のいい作曲なのかなを してくれるサービスなんですけど
これがマイクロソフトが出しているコパイロットと 連携する用ということも相まって
今週も引き続き記事がいっぱい出ていたなっていう感じですね
そうですね この辺のところはやっぱり いろいろ応用が効くみたいなところもあって
非常に引き続き話題性が高くついてますよね
そうですね
これだけ騒がれていますので 非常に品質もいいということで
ぜひ皆さんも触ってみてくださいっていう感じで ちょっと簡単に話したいと思います
あとはですね 技術的にというか テクニカル寄りのニュースが今回ちょっと多いかなと思うんですけど
なるべく分かりやすくしていきたいと思います
まず一つはですね 大規模言語モデル ChatGPTみたいな
いわゆるLLMというものがあるんですけど
そういったものですね
の中で数理科学問題に挑戦するような ちょっと新しい仕組みというか
何か出てきてちょっと話題になってるという感じですね
そうですね 今まで解くのが難しかったようなところも
大規模言語モデルをうまく活用 学習させると解けるみたいなところがありまして
その辺のところでまたより進化をするんじゃないのか みたいなところで非常に話題でしたね
うんうんうんうん
特にその分野でいうと いわゆる計算みたいなところが苦手ではあるんですけど
そこが数学者の人たちと一緒にコラボレーションすることによって
答えをまんま出すというよりかは 答えを導き出す方法を考えてくれるみたいなものが登場してきて
新しい変化が見られたなっていう感じですね
うんうんうん
ちょっと技術的なところはあんまり話してないので ちょっとこのぐらいでいこうと思います
はい
AIの学習データの問題と著作権問題
次は割と大音といえば大音なんですけど
AIって基本的に喋るための学習データっていうのが 必要になってくるんですよね
喋るというか出力する内容ですね
そのデータの中に あまりいい話じゃないんですけども
児童虐待の疑いの画像が含まれていて ちょっとまずいねというような話が出てましたね
そうですね
この辺はやっぱり大量のデータを食わせるっていうところで
もちろんそのデータをある程度機械的にフィルタリングする みたいなところがあるんですけど
今回StableDiffusionに使われてるデータって Lion5bっていう50億枚ぐらいのデータセットを使ってるんですけど
それを50億枚を全部本当に正確に目視できるかっていうと なかなかそこが難しいみたいなところがあって
そのうちに今回だと約1000枚ぐらい そういう非常にまずいのではないかっていう画像が
入っていたみたいなところが話題になっていて
こういうものって今後AIが進化していくにあたって 今回は画像だったんですけど
動画とか音声とかテキストとかも含めて さまざまな本当にいい学習データを使わないと
やはりいろいろな問題が起きてしまうとか そもそもその学習されたものに課題があったみたいなところは
今後いろいろそのAIの安全性みたいなところが問われている中で
どんどんどんどんよりいい歩行に向かっていくのかなとは思っているんですが
そういう現状はやっぱりそういう問題をはらんでいたりする可能性が
どうしても否めないみたいなところがあったような トピックになっているのかなと思っています
やっぱり全てが全て 膨大なデータを取り扱う必要があるので
チェックするのが難しいっていう前提のもとで 利用者の方もそういったことがあるよという
リスクの再確認ができたのかなというのが 今回のニュースでしたね
そうですね
はい その学習とか権利回りの話に関連して言うと
もう一つニュースとしてはですね
AIの著作権問題みたいなところで 文科庁がどういうふうに考えたらいいのかっていうところの
案を提示した まだ確定とかではないんですけど 案を提示したっていうのが話題となっておりましたね
そうですね 日本だとやはり著作権法上 結構そこの部分を学習させるデータでは
もう使っていいよみたいなところは あまりにもちょっとフリーダムになりすぎるんじゃないのか
みたいなところの懸念点等々もあって そこがある程度ガイドライン もしくは現状の法律に沿った形で
何かうまくそこの部分の権利を守りつつ 発展に寄与できないかみたいなところは
いろいろ検討されている最中だなという感じですね
取り立てて 今までと全然全く違う考え方が出されたというよりかは
徐々に法整備っていうんですかね 整備が進んできているなっていうところなので
もう少し時間が経つときれいに整理されていくんじゃないかな というところで眺めている感じですね
その他には ちょっと技術的なところを サラッとやっちゃおうかな
ここはあんまり深いところには立ち入らないんですが 大規模言語もあるおすすめですし
先からいくつか出てきてるんですけど
オープンAIの未来のシミュレーション
チャットGPTみたいなものを
今までよりも効率的に実行する手法が出てきて
そういったテクニカルな部分で
すごいねっていうので話題になっていたんですね
そうですね
この辺のところもどんどん進化していってるなというところで
技術的な話題につきない感じですね
そうですね
技術に関しては日々進歩しているので
今なかなか動かすのが難しいものでも
だんだんもっと簡単なデバイスというか
動かせるようになったりだとか
その性能が上がっていったりするというので
単純に楽しみにしてくださいという感じですね
はい
あとはですね
個人的にかなり面白い興味深い機器だなと思っていたのがですね
オープンAIですね
毎度おなじみというか
チャットGPTを提供している会社がですね
弱いAIのモデルで
強力なAIを制御するというプロジェクトというか
研究をしているというのが
個人的に結構面白いなと思っていまして
いいですね
僕もねこれはめちゃくちゃ
ちょっとテクニカルな話なんですけど
非常に興味深い話だなと思っているので
そうですね
ニュースざっくり何のことを言ってるんじゃいってなると思うんですけど
シナリオとしてはですね
今後AIがどんどんどんどん賢くなっていくと
人間超えちゃうんじゃないのっていう話があって
人間を超えないAIだったら
人間が制御すれば大丈夫じゃんっていう話なんですけど
人間を超えるものを人間が制御できるのか
うーんどうだろう
ちょっと試しにじゃあ
いわゆる弱い現状のAIモデルと
強いAIモデルを使って
弱いモデルで強いモデルを制御というか
うまく扱えるかっていうのを
試しにじゃあ
やめましたっていうのがこのニュースの内容ですよね
そうですね
本当に将来自分たちよりAIが賢くなる可能性があって
じゃあ賢くなりすぎてしまったら
本当にうまく取り扱えるのかっていうのは
やってみないとわからんみたいな
未来にならないとわからないみたいなところだと
本当に運ませかせになってしまうので
今回のオープンAIの取り組みは
2、3年前のGPT-2っていう
ちょっと今のモデルに比べたらだいぶ賢さが低いモデルが
GPT-4って最新のモデルを
どう制御するのかみたいなところを試して
結果GPT-3.5レベルのところの制御具合だったら
落ち着いたよみたいなところの取り組みを
いろいろやっていて
非常に将来本当にAIが制御できなくなると
まずいからっていうところで
いろいろなそういう
今回はシミュレーションしてやってみたらどうだろう
みたいなところで
本当に将来AIが賢くなりすぎたら
それに対してどうアプローチするのかっていうのを
現状シミュレーションするっていう話が
本当に未来に対してどうアプローチしていくのか
みたいなところの話でもあって
非常に面白いなと思って
なんかこう話題になった
今週一部では話題になった話かなと思ってます
本当にもう言ってみれば
SFとかアニメとかで出てくるような話ですよね
すごいAIがいて
すごい頭良くて
どういうふうにあいつら制御すんだよみたいな感じに
こうなってしまうときにみたいな話が
今から研究しているっていうのはすごい面白いですよね
そうですね
もうちゃんと先を見据えてるんだな
っていうところで
非常に面白い内容ですね
AIの安全性の向上
そこに関連してっていうところはあるんですけど
AIの安全性の向上のためっていうところで
同じくオープンAIの話ではあるんですけど
セキュリティに関する諮問グループというか
チェック確認していくようなところに
力を入れていくよっていうような
同時に発表されていたっていう感じですね
ですね
なので今週そんなに
めちゃくちゃ大きなトピックはなくて
継続のニュースが多かったりしたんですけど
先ほどのオープンAIの話とか
割とテクニカルな面で面白いのが
今週は目立ったかなっていうところで
今週のニュースはさらっとこんな感じで終わろうかなと思います
では来週はですね
年末年始ということもありまして
Podcastの配信はないので
また来年になるとは思いますので
また来年お会いできればと思いますので
またお会いできればと思います
12:43

コメント

スクロール