皆さんこんにちは、草の幹です。 宮武徹郎です。
Off Topicは、アメリカを中心に最新テクニスやスタートアップ、ビジネス情報を緩く深掘りしながらご紹介する番組です。
今回のトピックは、AIの影響と安全性について話していきたいと思います。
はい、今回もPivotさんとのコラボで、国山派生さんと一緒に収録をしました。
実際に動画でも収録したので、ぜひPivotのYouTubeチャンネルからチェックしてみてください。
それでは本編をお楽しみください。
じゃあ早速、今日のトピックについて話していきたいと思うんですけど、
Off Topicの場合ですと、先週の配信では、AIのリスクとか、こういう悪質な利用についていろいろ話していったと思うんですけど、
最後の方に、このAGI、ASIっていうところについて話していきたいと思うんですけど、
たぶんちょうど終わりの方に崖に向かっているっていう、ちょっと怖い例えですよね。
もうあの絵と宮武さんの発言が忘れられなくてですね、
もう滅亡するんだったら、今を楽しむしかないな、みたいなことをぼんやりと考える日々が続いています。
今日、もしかしてちょっとどんよりする回になっちゃうかもしれないんですけど、
こういう話をするのはすごい重要だなと思うと思いますし、
結局本当に人間が滅びるのかっていうのは、もちろんまだわからないっていうのもありますし、
ただそこの確率でしたり、どういうふうにそういう可能性が広まっていくのかということについては話すべきかなっていうところなので、
ただ今までのAI研究者がずっと10年20年AIの研究をしている人たちが、
どういうふうに人間滅没、絶命するのを避けられるかっていうのを色々皆さん研究している中で、
やってはいけないことっていうのをちょこちょこ出しているんですけど、
それを見事に、特に去年から今年にかけて人間がやっていますと。
例えば、AIにコードを書かせるの。
すでにやっていますよねと。
AIにコードを書かせると、自ら学習して自ら成長を改善していく可能性があると。
2つ目が、人間についての情報だったり文学を読ませるなと。
それをすることによって人間を騙せる能力が身につくんじゃないかというのがあるのと、
あとインターネットに接続させるなんですよね。
それも人間を騙すっていうところもありますし、あと単純に知識がそれによって広がるという話と、
あとはAPI連携させるなと。
API連携させると、AIがツールをどんどん使えるようになってくるので、
勝手に変なソフトウェアを使い始めたり、勝手に学んでソフトウェアを使って、
それによって人間がコントロールできなくなってしまうというところが、
いわゆる懸念されているポイントだったりしてたんですけど、
見事にこれを今全部やっていますと。
そもそもAIを作る開発スピードが上がっている中で、
こういう今まで注意されていたことが実現され始めていますし、
あとは過去の人間が本当にマスでAIと関わってきた領域って多分SNSだと思うんですけど、
SNSのアルゴリズムとか。
SNSって多分今のAI生成技術、
人間のフィードバックを得てどんどん改善されると思うんですけど、
これがRLHFという評価学習の一つのモデルなんですけど、
SNSもまさにそれと同じようなものがあって、
人間っていいねを押したりとかシェアしたりとかコメントしたりしているので、
それって多分アルゴリズムにとって、
こういうコンテンツの方がエンゲージメントが高まるんだというのが
多分どんどん理解されるので、
同じようなことを多分AIがやってますし、
それによっては今後のAIはSNSの情報をどんどん読み込むと、
より人間がエンゲージメントするようなコンテンツを勉強できるという。
そこも結構リスクがあるんじゃないかと。
という中で、実際にじゃあこの状況を皆さんどう思っているのかというところで、
前回ちょっとお話しした公開書簡、オープンレターですね。
AI開発を半年間止めましょうという、
イーロンマスクとか何かAI研究者が言ってたと思うんですけど、
前回の最後の方にエリエルセル・ヤトコフスキーさんという方が、
結構人間が滅びるんじゃないかという考えを持っている方なんですけど、
彼は実はこの公開書簡ってサインしてないんですよ。
半年間止めても、それこそハスンさんがおっしゃったようにあまり意味ないと。
その次元の問題ではないからサインしなかったと言ってるんですね。
そうかそうか。
あの公開書簡自体はつまりその半年間まず止めるべきだと、
一旦立ち止まるべきだっていうための署名活動なわけですよね。
そうですね。特にGPT-4以上のモデルの開発を一旦止めましょうという話なんですけど、
このエリエルセルさんという方は、そもそもそれ以上のリスクがあるので、
全部のAI研究を永久にストップしましょうと。