1. AI未来話
  2. #16 AI犯罪から身を守ろう!超..
2024-06-06 37:08

#16 AI犯罪から身を守ろう!超知能の危険性を理解する -前編-

spotify apple_podcasts

[OpenAIが安全性のために取り組んでいる10の実践例]

https://gigazine.net/news/20240522-openai-safety-practices/

[今回のタイムスタンプ]

() 詐欺事件 () ディープフェイク技術 () 知的財産権の侵害 () 生成AIによる著作権侵害 () 声の模倣と問題 () 知的財産権とAIの学習 () 性犯罪リスク () 児童ポルノ生成AI () AIが個性を悪用する可能性 () インターネット犯罪の増加とAIの関連 () マンハッタン計画の技術者のリスク考慮 () 国家間の競争とAGI開発の派遣争い

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

   ⋱お便りはこちら!⋰https://forms.gle/j8sJ1v1hH5JSaZm97

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

[AI未来話//各種リンク]

note - ⁠https://note.com/aimiraitalk

Spotify : ⁠https://open.spotify.com/show/4YQI4JvX83mURM6xywKn5w?si=34b96be128584bad

Apple : ⁠https://podcasts.apple.com/jp/podcast/ai未来話/id1733462439?uo=2

LISTEN : ⁠https://listen.style/p/aifuturetalk


[更新スケジュール]

毎週木曜日の朝7時に更新


[パーソナリティプロフィール]

田附(タツケ):AIメディア編集長の30代男性

平岡(ヒラオカ):AIコンサルタントの30代男性

https://twitter.com/dicamp_hiraoka

サマリー

AIを使った犯罪の部分を、実際に起きたAIの犯罪事例から今後の犯罪予測とかをしていくと考えられています。犯罪としては金融犯罪、誹謗中傷とか名誉毀損、知責第三権侵害、サイバー攻撃、性犯罪の5つに分けられます。 AI犯罪から身を守るためには、"AI犯罪から身を守ろう!超知能の危険性を理解する -前編-"において、GPT-4、知的財産権侵害、サイバー攻撃、性犯罪などが取り上げられています。 OpenAIがAIの安全性に取り組んでおり、将来のAIのリスクや安全性に関する議論が行われています。また、一部の元社員がオープンAIの方針に不満を持ち辞職していることもあります。 AGIの発展による経済的・軍事的な影響や中国との競争についても議論されています。 AIの危険性と対策について話し合う前半編のエピソードの要点をまとめました。

AIの犯罪事例と今後の予測
やはりですね、僕AIについて学ばないことは、インターネットのない世界で隔離されて生きるのと同じなんじゃないかと思うんですよ。
ほう、隔離されてる?
隔離されてる。あるよね、アメリカにそういう電磁波が届かないみたいな村。
あー、なるほどね。
前回の配信でもその話をして、LLMが無料化されていく流れが強まっていく。
つまり、AIというものが世にどんどん広まっていくという話をしたんですけども、
非常にポジティブな面もありつつ、同じぐらいネガティブな側面も見ていかないといけないんじゃないかなと思うわけですよ。
そうね。
だから芸能界入りたいって言ってさ、キラキラした部分だけじゃなくて、芸能界は大変だよっていうこのドロドロした部分をセットで考えながら技術と向き合わないといけないんじゃないかなと思うんですよ。
ということでね、今回はAIを使った犯罪を紹介していったりとか、超知能の危険性について話しているわけなんですけども、
その超知能AGIが実はあれなんじゃないかと。
あの伝説のあれと同じなんじゃないかとね。
あれと同じなんじゃないかとね。
そんな話もしてますので、よかったら最後まで聞いてください。
AI 狙い話
この番組は、AIメディアを運営するアラサーの男性2人が、
AIの最新動向やその未来に関する情報を記録掘り下げながら考察をしていくホットキャストチャンネルです。
AIメディア編集長のたつけです。
AIコンサルタントの平岡です。
では早速ですね、まずはAIの犯罪の部分を、実際に起きたAIの犯罪事例から今後の犯罪予測とかをしていこうかなと思います。
今回これ話すので、やっぱり思ったのはありとあらゆる犯罪が本当にAIと紐づいてるなっていうのを実感するし、
それをちょっとみんなに理解してほしいなと思いまして。
だいたい犯罪としては5つに対別できるかなと思ってて、
それは金融犯罪、誹謗中傷とか名誉毀損、知責第三権侵害、サイバー攻撃、性犯罪っていう感じですね。
金融犯罪っていうので考えられるものとしては、フィッシング詐欺が高度化していく。
生成AI使ったらさ、本当になんかもう誰でもサイトとか結構作れるようになってきてるじゃん。
今まではそういう詐欺の中でもそういう高度な技術を持っているところだけができたものを、
本当なんか末端のやつらもパパッと作れてパパッとフィッシング詐欺できちゃうみたいな時代が突入してきてるよね。
あとはやりとりの自然さっていうのが結構大きそうだね。
そうだね。これに関してはもちろん金融犯罪の本当の詐欺のやりとりでもそうなんだけど、
結構ロマンス詐欺みたいな部分に結構活用されてきちゃってるみたいな背景があるらしいね。
やっぱ自然なやりとりだから、結構普通にナチュラルに人と出会ったような感じのやりとりができちゃうみたいなところがあるみたいな。
確かに人と区別つかなくなってきたら、そういうのは増えていきそうだよね。
あとは不正取引の検知を回避する。
不正取引の検知を回避する。
要は生成AIが不正取引のパターンとかを学習すると、検知システムの穴みたいなのをすり抜ける取引とかができるようになっちゃうらしいんだよね。
なるほど。
あとは実在の人物になりすまして金銭を騙し取る。
まさしくディープフェイクの領域だよね。
なるほど。
これなんかはもう実際に有名な事件がいくつか起きてて、
最近だと2024年4月に起きた事件で、
これは香港の多国籍企業に勤務する会計担当者がビデオ会議で最高財務責任者を装った相手に騙されて、
計2億香港ドル、約日本円で38億円を詐欺グループに送金してしまうという事件が実際に起きてて。
38億円を送金するってやばいね。
やばいよね。
これまさしくディープフェイク使われてて。
最初会計担当者はCFOからこれお金送ってってメッセージ受け取って、
いやいやいや怪しいって不審に思ったらしいのよ。
なんだけどそのビデオ会議が始まるとそこに出席した人たちが全部同僚だったらしくて、
その同僚とやり取りしてる中で、じゃあこの話本当なんだって確信してお金を送ったと。
したらそのビデオ会議自体が全部ディープフェイクで作り出した偽物だったっていう。
気づかないんだ。
それで気づかないで送っちゃったらしいよ。
で終わった後に会社が何かにその話をしたのか報告か何かして、
はー!みたいになっちゃったらしい。
へー。
たまったもんじゃないよなこれ。
とんでもないねそれはね。
しかもCFOからお願いされたわけだもんね。
そうそうそうそう。
担当者がね。
極秘送金が必要だって言われて。
最初はうさんくせえって思ったらしいんだ本人も。
そうだね。
うさんくせえって詐欺が頭の中に全くなかった状態で騙されるならわかるけどさ、
頭よぎったのに騙されるって相当これディープフェイクがやっぱり秀逸なんだろうね。
相当だよね。
怖い。
怖いね。
次は誹謗中傷とか名誉毀損の部分ですね。
これもやっぱりディープフェイク関連してて実在の人物になりすまして評価を下げるみたいなやつですね。
金融犯罪とディープフェイク
これも実際に起きてて。
これも最近だと2024年1月のニュースでアメリカの司法当局がアメリカの民主党予備選をめぐってバイデン大統領そっくりの偽の自動音声を使って投票を妨害する行為があったということで調査を開始したって発表してるのよ。
バイデンのそっくりの声で電話かかってきて誰々に投票しなさいとか誰々はやめなさいみたいな。
なるほどね。
これはセイセイアで作られたディープフェイクってことがわかってるらしい。
ディープフェイクってさ、調べていい?
いいよ。そもそも語源何なんだろう。
なるほど。一応wikipediaだとディープフェイクはディープラーニング、真相学習とフェイクを組み合わせた混在語らしいですね。
なるほどね。
だから確かにディープフェイクだわ。
声だけでも本人そっくりに学習させられてるわけだからってことだよね。
そうね。真相学習を使った偽物は全部ディープフェイクだね。
あとはね、これは結構もう2022年だか23年だかちょっと前になるけどさ、ウクライナのゼレンスキー大統領のフェイク動画が出回ったのとかも結構有名じゃん。
あーそうだね。
だからこの辺はやっぱちょっと政治の部分でやっぱり使われがちなのがディープフェイクかなっていう感じだよね。
しね、ちょっと行動になりすぎてね、本物かどうかがわからないっていうのがね、もう厄介なとこだよね。
厄介だったよね。だからこそウチらだったらさっきの詐欺みたいな感じで金銭騙し取られるみたいなのに使われちゃうし。
そうだよね。
政治だったらやっぱその誰かの評価を上げたり下げたりとかっていうのに使われるみたいなことだよね。
しかも詐欺ってさ、頭のいい人とか、そうやって詐欺っていうことで前提にある人ほど騙されやすいみたいなのあるらしいじゃん、そういう場合。
そうなんだ。じゃあさっきの会計担当のもうこれ一瞬これ詐欺かもって思ったからこそ安心してこう振り込んじゃったみたいなのがあるのかもしれないよね。
そうそうそう。自分で納得づけられちゃうというか。
あーはーはーはーはー。確かに。それはあり得るな。
あとは知的財産権の侵害。これは要は著作権侵害だよね。
うちらの周りだったら一番起きえそうなのはこの辺かなっていう感じで。
例えば偽ブランド品の販売とかも、これは実際に起きてるわけじゃないんだけど考えられるってよく言われてるやつで。
生成AIを使って偽のブランドの画像を生成すると新作のやつとかも作れちゃうじゃん。過去にあったものじゃないやつとかで。
そういうのでECサイトとかで販売して消費者を騙したりとか。
あーありそう。
いくらでもブランド品の画像が作れちゃうっていう。
これでもさ生成AI使わなくてもこういうのいっぱいあるじゃん、そもそも。
そもそもいっぱいあるよね。
けどこういうツールを使うことによってもっと大量にいろんな人が作れるようになるから引っかかる可能性が上がるよねみたいな意味なのかな。
まだ精度も高くなるし。
精度も高くなるし。
簡単にこういうことができちゃうみたいな。
母数も増えてくるってことだよね。
まだ実際に起きてるところで言うとやっぱほんとド定番の著作権侵害で、生成AIが既存の著作物を学習してそれを侵害しちゃうみたいな例で。
例えば2023年7月にあったニュースだとTikTokに投稿されたコナンくんに歌ってもらったっていう動画なんだけど、
これ投稿者はAIでコナンくんの声そっくりに生成したっていう動画なんだよ。
これに対して声優の高山美奈美さんの事務所はもう対処しようがなくて困惑してるみたいな感じで正式に発言発表してるみたいな感じで、
要は声の著作権っていうのかな。
それが今の法律じゃないけど、それが侵害されてしまってるみたいな状況。
著作権侵害と声の権利
最近だとカジさん声優の進撃のエレンの、進撃のエレンじゃん。進撃のエレン。
進撃の巨人のエレンの声優を担当したカジさん、すごく有名な声優さんが、
最近生成AIで作られたカジさんの声で無断で歌わせる無断AIカバーみたいな。
同じだよね、そういうSNS投稿被害みたいにあってて、ずっと苦言を呈したわけなんですよ。
その対策に自分から率先して乗り出したような形で、
2024年4月にクラウドファンティング出して、カジさんの声で自由に歌わせることができるソングボイスみたいなのを製品化したんだよね。
なるほど。
カジさんとしてはAI技術の発展と普及によって、現在無法主体になっている声の権利問題をどのようにして対策しようかっていうコメントもあるんだけど、
カジさんはこの問題は解決する必要はあるんだけど、AIと敵対するんじゃなくて共存すべき、なくせないものっていう前提で考えてるんだよね。
AIという技術自体には善悪はなくて、あくまでそれを使用する人間側のモラルにかかってるよねと。
だからあえて自分の声を持つキャラクターを解禁することで正しい音声AIのあり方を証明できるんじゃないかって言って、
クラウドファンティングで資金を集めて今回のリリースに至ったっていう感じなんですよね。
なるほどね。
お酒とかと一緒だよね。
禁酒法みたいなのが禁止ってやったら密増種が出回って大変なことになったから、
結局国の管理課で正しく流通させることによっていい感じに抑制されてったみたいな感じで。
これは使っていいけどこれは使ってダメっていうのを公式でやることによって正しい流通になるみたいなそういうニュアンスだよね、きっと。
まさしくそういう選択を取ったんだなって感じはしていて。
確かに声問題は意外と大きいよね。
声の権利はかなり。
だって30分くらいの音声を学習させたら結構しゃべれちゃうからね。
GPT-4と知的財産権
それこそ5月にGPT-4Oがデモを出したけど、そこで搭載されているSKYっていうモデルの声が
Aがハーのスカーレット・ヨハンソンの声にそっくりっていうことで本人から抗議を受けて、結局SKYが削除されるっていうのもあったじゃん。
あったね。
これ結局去年サム・アルトマンからオファーを受けて、めっちゃ悩んだんだけど個人的な理由から断ったっていう背景があったらしいのよ。
でも実際デモが始まって蓋を開けてみたらヨハンソンの声そっくりみたいな。
しかもその後サムちゃんもXでハーとかつぶやいちゃったもんだから、ヨハンソン激おこっていうさ。
本当かどうかは知らないけどリリース直前にヨハンソンにリリースするけどどうする?もう一回再行はしない?大丈夫?みたいな感じで圧かけに行ったらしい。
そうなんだ。ほぼ脅しじゃん。
ほぼ脅し。すごい問題になってるよね。
それはその後削除するとこまで追い込まれるわなそんなやり方したら。
だからサムちゃんめっちゃゴリゴリでクサって思ってる。
確かに。
あとはこの知的財産権問題でいうと学習段階での著作権侵害ってのは昔からもう騒がれててさ。
例えばニューヨークタイムズだとオープンAIとマイクロソフトに対して記事が無断で学習されたっていうので実際に提訴してたりとか。
生成AIの画像系なんかもよく絵師さんが絵柄盗まれたみたいなので触れたりとかして無断学習問題っていうのも結構大きくて。
ただ日本ではちょうど6月4日に収録時点でいうと昨日だね。
知的財産推進計画2024っていうのが決定して大量のデータを読み込むなどAIが学習する段階では原則著作権や儀式権商標権を保護の対象にしないっていうことが明記されたらしいから。
保護の対象にしないと。
そう。だから学習では著作権侵害じゃないですよっていうのが日本の一応方針らしい。
まあでも学習をさせたらダメですってなるとちょっと難しくなっちゃうもんね。
推進できなくなっちゃうもんね。
推進できなくなっちゃうし、じゃあ人工知能ってあくまでも人間のような知能って考えたらさ、じゃあ人間もいろんなものを学習で使ってるわけじゃん。
そうだね。
サイバー攻撃のリスク
っていうのと発想としては一緒だからやっぱり学習を盗んだっていうのはちょっとニュアンス違うかなとはちょっと思ったりはするよね。
そうだね。
この辺がやっぱり知的財産権の問題かなっていうところですね。
あとはサイバー攻撃。
これはAIによるパスワードを解析してパスワードクラッキングみたいなのが今でもそういうツールあったりとかするけど誰でも結構高性能にできちゃうみたいな時代がやってくると。
だから何でもそうだけど今既存のある攻撃がさらに高度化してってるみたいな感じだよね。
そうだね。そのニュアンスが正しいかもしれないね。
だから最近あったニュースだとランサムウェアの作成のニュースなんかもあったけど、これもねもともとそういうの作ってるやつはいたけど、これがまあ誰でも作れるようになっちゃったっていうニュースで、これ先月5月のニュース。
これはインターネット上で公開されている対話型生成AIを悪用して、おそらくちょっとGPTとかそっち系だと思うんだけど、コンピュータウイルスを作成したとして警視庁サイバー犯罪対策課が男を逮捕したっていうニュース。
なんでこんなことしたのかみたいなことを聞かれて、AIに聞けば何でもできると思った。楽に稼ぎたかったっていうふうに用意を認めているという。
なるほどね。
いよいよ本当にAIあれば何でもできちゃうよなっていうのを、本当にやっちゃった感じ。
なるほどね。
ひらが言ったように、誰でももともとあったものを高度に誰でもできるみたいなところがやっぱりリスクとしては一番大きいかなって感じるよね。
あと、悪用されるとしては性犯罪の部分だね。
性犯罪ね。性犯罪あんまりイメージないけど、どういう感じなんだろう。
まあやっぱり一番多いのは児童ポルノに悪用される部分。
これ結構ホリエモンなんかも警視を鳴らしててさ、YouTubeとかでもその画像生成AIの話題になると、もう裏で児童ポルノ作ってるやつとか絶対いるからみたいな。
よくポロって言うんだけど。
それも性犯罪になるのか。
ここに紐づくっていうのが大きいかな。
イギリスのインターネット監視団体によると、2023年の1年間だけで27万5000件もの子供の性的虐待画像などの削除をしたっていうのを言ってて。
これは生成や関係ない本当のリアルなそういう児童ポルノの画像なんだけど。
でも明らかにAIを使ったものが増えたっていうふうに会見で話してる。
なるほど。じゃあこれもディープフェイク使ってるってことか。
ディープフェイクなのかな。
ただ多分ディフュージョンの可能性もあって。
性犯罪とAI
これもう一個のニュースが直近6月2日にあったニュースなんだけど。
画像生成AIで実在の児童に酷似した画像を生成できる追加学習用データがネット上で売買されていることがわかったと。
これ過去に日本で活動した児童タレントの追加データもあって、その追加データで作ったとみられる児童タレントに酷似した性的画像が別の日本語サイトでも数百円で販売されていた。
ニュースの中で追加データはローラファイルっていうふうに書かれてあったからディフュージョンだろうね。
そうだね。ディフュージョンだったら作れちゃうね。
ディープフェイクなのかディフュージョンなのか、それこそいろんなパターンのものがあるのかもしれないけど、とにかく児童ポルノに悪用されてるっていうのは実際に起きてるよねって感じ。
画像生成AIで作りましたっていうだけだから、ククリとしてはディープフェイクになるんじゃない?
ディープフェイクになるのかね、ククリといえば。真相学習したもので偽物を作ってるから。
だからディープフェイクなのかディフュージョンなのかってのはちょっと違うよね。
そうだね。確かにディープフェイクディフュージョンを使ってディープフェイクしてるって感じか。
そうだね。ディフュージョンを使ってディープフェイクで販売してるっていう感じだね。
確かにそうかもね。位置関係的には。
じゃあやっぱこのディープフェイク系と、ほぼディープフェイクじゃん。
ほぼディープフェイクだね。
あとは解析系かな。パスワードのパスクラの解析と、
あとはそういう不正取引の検知をパターン学習して回避するみたいな。
だから今まであった突破方法、犯罪をより高度化している。
これはインターネットの進化でどんどんすごくなっていってるわけじゃん。
これは想像できたけど、ディープフェイクってまた違う角度で犯罪を起こしに来てるよね。
そうだね、確かに。
だからさらに難しくなって新しいものもやってきたみたいな。
そんな感じだね。ディープフェイク系がかなり問題視されそうな気がするね、これだと。
確かにディープフェイクだね。今までなかったもんね。
なりすましが本人とほぼ一緒みたいななりすましって。
そうね、オレオレ詐欺で声をウンウンってやるぐらいだもんね。
そうそうそうそう。ほんとそのレベルじゃん。
今風邪ひいててみたいな。
確かに、昭和のドラマとかでしか見ないけどなそんどし。
よくあったよね、学校休むときにお父さんの声真似するとかさ。
確かに、絶対お前だろみたいな。
すいませんって言いながらね。
確かに、それこそオレもコールセンターとかで昔バイトしたときにあったよ。
お父さんが明らかに出てくるのに、僕息子だから分からないみたいな。
絶対お前親父だろみたいな。
だからこれからはね、学校休むときは先生部屋で使ってお父さんの声を学習させて、
本当に休めるみたいな、そういう世界線も出てきそうだよね。
いやー、だからそういう犯罪ではない迷惑行為みたいなレベルで言うとそういうのも起こりうるってことだよね。
逆にそういうので顕在化しづらいから、めちゃくちゃ水面下でいそうだよね。
そうね、だから迷惑行為だよな。
結局その著作権侵害とかもグレーゾーンが多いから、迷惑行為に使われ始めるとちょっとこうモラルというかの部分で住みづらい世界が待ってる可能性はあるよね。
そうだね、そういうのがあるという前提で付き合っていかないといけないよね。
いけない、そう。
で、前回の配信でさ、1996年のインターネットの普及率が3.3%で、1997年末頃に9.2%まで来て、
AIの普及ぶりと似てるよねみたいな話したじゃん。
これに合わせてインターネット犯罪の件数とかで見てみるとわかりやすいかなと思って、
実際1997年の検挙件数っていうのが262件なのよ。
これが直近2023年のネット犯罪だと、ネットバンキングの不正送金被害は5578件。
被害総額87.3億円。
で、ランサムウェア被害の件数が197件ということで、大体22倍ぐらい。
だから20年以上で、25年ぐらいかな。で、22倍みたいな感じだから。
意外と少ないね。
そう、意外と少ない。
なんかもっととんでもない感じだと思ってた。
あー、なるほどね。
でも生成AIでどれだけ増えるかってなってくると同じぐらいは想像できそうだね。
同じぐらいの想像できる。
でももしかしたらもっと多くなっちゃう可能性はあるね、生成AI。
なんならあれかもね、おそらくインターネット犯罪っていう括りでこのまま統計取られるから、
生成AIが出てきたタイミングで何倍何倍って増えてたのがズドーンって急に増えるみたいな、そういう感覚かもしれないもしかしたら。
750倍とかになってそうだよね。
そうそうそうそう、あるとこから急にね。
生成AIもどんどん犯罪が増えていくことが予想できるけど、なんかそのAIが悪いものっていうふうには思ってほしくなくて、
これなんかすごい似てるなーと思ったのがさ、僕のヒーローアカデミアって漫画あるじゃん、ヒーローアカ。
ヒーローアカね。
ヒーローアカ。
これもさ、その個性っていうのがある世界で、その個性を悪用する悪い奴らと戦うって話だよね。
個性を持った正義の奴と個性を持った悪のところが戦うみたいな。
だからもうAIってもう全く一緒だよなーと思って。
人工的にさ、そのAIによって個性みたいなものをみんな持つことができた世界がやってくるわけじゃん。
あーなるほどなるほど。
結局それの個性を、AIを悪用する奴らとAIを使って正しく導く奴らが結局今後も戦っていく世界になるのかなーみたいな。
確かにね。みんなが個性を持てるっていう意味で言ったら本当にそうな気するね。
そうそうそう。だからさ、これいろんな発信者もそう言ってるけど、
AIの安全性に取り組むOpenAI
まあ僕らもね、発信してる中でやっぱり個性がこれからみんな手に入るんだよみたいなすごい時代が来るんだよって言ってて、
その面ばっか見てるけど、ヒーローアカで例えるとその個性を悪用した悪い奴も当然出てくるよねっていうのはやっぱり普通に考えないといけないことだよねって感じ?
そうだね。
ヴィランも出てくる。
そうそうそう、ヴィランも出てくるから。
だからありとあらゆる犯罪と生成AIが紐づいてるんだっていうことをまず理解するべきかなっていうところですね。
じゃあ次はこのままAIが進化していって、AGIっていう未来が来た時に、それに到達した時のリスクというか、技術進化による負の面も知っておいた方がいいかなと思いまして、
なぜかっていうとやっぱり技術革新にばっかり目が行ってると、まだまだセキュリティの部分が追いついてないなっていうのを感じるわけですよ。
一応安全性については前向きに議論はされてて、例えば5月21日に韓国のソウルで第2回AIサミットっていうのが開かれてるんだけど、
これ教材が韓国とイギリスが共同開催してて、そのイギリス政府は開幕に合わせてAIの悪用リスクに対応するため、世界の16企業が安全な開発のための公約を結んだっていうふうに発表してるわけよ。
この16企業の中にはGoogleとかOpenAIとか、Samsung電子とかがいるんだけど、今後この企業はAIをちゃんと安全に開発していくよみたいなのを約束したみたいな感じ。
この第2回AIサミットが行われた後に、OpenAIはAIの安全性のために取り組んでる10の実践例っていうのを公開してるのよ。
これ全部で10個あるんで、細かいのは概要欄貼っておくんでそっち見てもらえればなと思うんですけど、
この中でちゃんと活動してる、ちゃんと対策されてるなって思う部分だけ何個かピックアップすると、
まず1つ目はリリース前の実証的なモデルへのレッドチーミングとテスト。
ということで、要は敵対的攻撃っていう感じで、実際にこういう攻撃が起こるだろうっていうのを想定して本当に攻撃をしてあげるみたいな、そういうテストをするっていうことだね。
さらにそれに対して70人以上の外部の専門家がレッドチームとして所属してて、そのレッドチームがGPT-4のリスク評価に協力するっていうことをやったっていう。
じゃあその耐久性だよね。さっき話してた、伺った人はAIに聞けば何でもできるって言ったけど、そういう回答が出ないようにモデルをトレーニングするとかそういった文脈も含まれてるよね。
そうだね。あとはLINE用の監視。
LINE用の監視。
LINE用の監視。やっぱチャットGPTもそうだしAPIとかを通じて幅広いツールを提供してるじゃん。
その過程で他のユーザーから同様のリスクから適切に保護されるように国家機関による技術悪用をマイクロソフトと共同開示するみたいな感じで重要な調査結果を共有してますよっていう。
5月30日にオープンエイから発表があったんだけど、中国、ロシア、イラン、イスラエルの5つの組織がオープンエイのAI技術を利用して世論工作を行っていたっていうのを発表したんだよ。
そんなのあったんだ。
そう、これらの組織はAIを使って特定の国を批判するような文章を大量に生成してSNSに投稿して世論誘導を行うみたいなことをしてて、そいつらのアカウントを全部停止したよみたいな発表をしてるから。
じゃあLINE用の監視ってそういうことね。
多分そういうことなんだと思う。
GPTのAPI使ってそういうふうにもしやってるんじゃないかみたいな監視をちゃんとしているよと。
それをマイクロソフトと共同で開示してると。
なるほどね。
安全性の議論と問題点
あとは選挙の完全性。
選挙ね。
これは正確な投票情報にアクセスできるように政府と協力して、
例えばDADI3、画像生成のところに識別ツールを入れたりとか、データ編集の履歴を残すような技術仕様、メタデータを組み込んだりとか。
そういうのを実際に技術的な部分でやってたりとか。
あとユーザーがアメリカとかヨーロッパの公式な選挙の情報源に誘導できるようにGPTでそういった情報に誘導できるように言ってるよみたいなそういう感じ。
この辺のことをオープンエアとしてはちゃんと取り組んでるよっていうところがあるっていう感じだね。
こう考えると安全性はちゃんと担保されてるように感じるけどね。
なんだけど一方でこのオープンエアの方針に納得がいかなくてやめてるっていう人も多いから。
なるほどね。
だから表面ではちゃんと対策してるように見えても実はどうなのっていう部分があるわけよ。
例えば去年の11月にサムアルタマンの解任騒動が起きたじゃん。
あったね。
これサムちゃんがなんで解任されたかって理由は明らかになってないんだけど、
でも2020年5月、先月だね、ポッドキャストで元取締役のヘレントナさんが
アルトマン氏は何度も会社が実施している正式な安全プロセスについて不正確な情報を提供しました。
そのため当時の取締役会はAI製品の安全プロセスがどの程度うまく機能しているのか、
または何を変更する必要があるのか知ることが困難になってましたって指摘してるわけよ。
つまりサムちゃん結構安全面軽視しすぎなんだよね、みたいなことを言ってるわけよ。
AGIのリスクと国際競争
まあそうね、なんか結構嘘つくとかね、言わないとかあるらしいよね。
そうそうそう、らしいよね。
だからそんな奴ら、そんな人と一緒に仕事するのはちょっと信頼ができませんみたいな感じで辞めてたらしい。
最近どんどん辞めてってるよね。
そう、どんどんほんと最近どんどん辞めて、例えば5月17日だとオープンAIのAI危険対策チームのトップであるヤンライケさんって方が退社された。
辞めてたね。
そう、ヤンライケさんが辞めた理由は、私がオープンAIに参加したのはここが超知能の研究を行うのに世界で最適だと思ったからだって言ってて、
でもオープンAIの幹部チームと中核的優先事項についてずっと同意ができず限界点に達したっていう風に言ってるわけよ。
危険対策チームのトップが同意できない優先事項って普通に考えて、絶対にAIの安全性よりもビジネスを優先しようみたいな思想のことなんじゃないかなってのが予想できるじゃん。
まあどっちかを取ると言ったらビジネスよりっていう感じだよね。
そうそうそう、だから多分この人は優先すべきはそっちじゃないんだよ、危険だよっていうようなことで辞めてたんじゃないかなみたいなのが予想できるっていう感じで。
あとはオープンAIの元社員が書いたっていうブログが今月投稿されたんだけど、これは2027年までにAGIが開発されて、その数年後には超知能が登場する可能性が高いっていう主張なのよ。
超知能は経済成長を加速させて軍事力を強化する可能性がある。だから国家安全保障上の重要な問題となるみたいなことをブログに書いてて。
中国がアメリカに追いつく可能性とかもそこで指摘されてるのよ。
軍事的な話ってことだよね。
そうそうそう、だからAGIによって軍事力がブワって強化されるし、経済成長がグワって上がることによって国のバランスも崩れるし、さらに中国がそこを追いついてきて、アメリカが世界警察みたいな役割を今担ってるじゃん。
それが崩れていくみたいな話が書かれてるって感じ。
その話を聞いてパッと僕の意見だけ言うと、AGIって核になり得る、代替されるようなものって感じするね。
あーそうね、まさしくそれはあり得る。
だから各国にAGI、超知能がいて、それらが抑止力になるみたいな。
だからそれらを持ってないところは非常に危ないから連合を組んだりとかしてみたいな。
今それはお互いに核を持ってるからなんとかなってるけど、AGIが悪意あるところが真っ先に感染して攻撃してきたら結構危ないよね。
結構危ないよね。
そこが中国とアメリカのやり合いみたいなことにこのブログでは書かれてるんだけど。
前にAGIは人類を滅ぼすのかみたいな話した回あったじゃん。
ここで2人のオープンAIの元社員が出したAGIの予測みたいなのをその時に喋ってるんだけど、
その時ちょっともし時間ある方は聞き返してほしいんだけど、2人とも2027年にAGIっていうのを言ってたんだよ。
紹介してたね。
そう。今回のこのブログでもまた2027年にAGIって言ってるのよ。
だからこんだけこの2027年が全部リンクしてるっていうことはおそらくここで書かれてる経済成長とか軍事力云々とかっていう話もおそらくオープンAIの社内で共有されてる将来予測なんじゃないかなっていうふうに僕の個人的な予想では思うわけよ。
確かにね。
だからさっき言ったみたいにこのAGIによって戦争が起きる可能性とかも考えられる。
そこでヒラがこれ核に似てるよねみたいなこと言ってたじゃん。
これまさしく本当にそうで、似たような事例で言うとマンハッタン計画っていうのがあって。
マンハッタン計画。
マンハッタン計画。これは第二次世界大戦中にアメリカが主導して行った原爆の開発計画なんだけど、この計画の終盤に開発者がどんどんどんどん離脱してったのよ。
まさにオープンエアの今の状態に似てて。
例えばマンハッタン計画の時にみんなが離脱してた理由の一つとしては、技術がもたらす未来への不確実性っていうのがあって。
核兵器が戦争を終結させる、核によって戦争が終わるっていう可能性がある一方で、その核戦争の後に地球を巻き込んだ大核戦争になっちゃうのかとか、あと放射性汚染とかそういったリスクもいっぱいあるわけじゃん。
その天秤かけた時に、いやこれは戦争を終わらすよりもリスクの方が危ないんじゃないか、みたいに思う派閥がいたりとか。
これまさしくAGIも一緒でさ、人類の生活を豊かにする一方で、そのAGIがさ、人間の仕事を奪ったりとかさ、制御不能になるリスクっていうのも確かに存在はするわけじゃん。
で、それに対してそっちのリスクをもうちょっと考えないんだったらっていうことで、どんどんどんどんマンハッタン計画の時に技術者がやめてったのよ。
まさにオープンAIじゃないですか、みたいな。
確かに。
だから国家間の競争とかもこの時激しくなってて、やっぱりアメリカとドイツが核開発の競争をしたように、アメリカと中国が今AGI開発の派遣争いをしてたりとか。
っていうのがまさしくこのマンハッタン計画の当時の状況と似てるよね、みたいな感じ。
だからオープンAIは今マンハッタン計画みたいな立ち位置になっていて、まさに核を作ってるという認識がなく、核を作ってるようなものかもしれないという感じだね。
そう、まさしく。だから辞めてった人たちは、いやいや、あんた作ってんの核だよ、危ないよって言いながら辞めてった可能性もある、みたいな。
確かにね。
AIの危険性と対策
だからこういった側面っていうのも技術進化によって起こり得るっていうことだけは、やっぱり知っておいたほうがいいかなっていうところで。
確かに。
じゃあね、ちょっと長くなっちゃったんでね、今日は前半ということでここで一旦区切らせていただこうかなって思います。
AI未来話で初めての前後半編と。
前後半編ですね。
ちょっとね、内容がね、だいぶ重たいからね、今回ね。
そうね。
とりあえず今日聞いた限りだと、AIは核みたいな結論になっちゃってるから。
そうね。
もう危ねえみたいな、怖いって思ってる方もいらっしゃると思うんですけど、来週は?
えー、人類がAIに滅ぼされる。
いやいや、もうさっきやってたじゃないですか、それ。前の回で。
違うね。
違うね。
僕たちが滅ぼしたみたいになっちゃってるから、それ。
確かに。
違うね、各国の法規制の状況とかがどういう状況なのかとかっていうのを整理して、ちゃんと国として対策されてるよ、みたいな部分だったりとか、
あとはそれを踏まえて、我々AIの使用者側、使う側がどういったことができるのか、どうやって身を守ることができるのかみたいな部分を中心にちょっと話していこうかなと。
そうですね。モラルの部分も倫理の部分も含めて、AIということをしっかり学んでいくことが大事だなと思いますよね。
その辺をちょっと次回はしゃべっていこうかなと思います。
それでは後半もお楽しみにしていただければと思います。
最後に告知です。お聞きのPodcastアプリでAI未来話の番組フォローとレビューをお待ちしています。
フォローすることで最新話が更新され、通知がきます。今のランキングは22位ぐらいです。あんまり変わってないですね。
フォローが足りん。
確かに。
またレビューの方もしていただくことで、番組の改善やまだ聞いたことない人の結果動画の判断指標になりますので、ぜひ評価のほどもお願いいたします。
来週も木曜朝7時に更新されます。通勤通学のお供に聞いてくれると嬉しいです。
ということで本日もありがとうございました。
ありがとうございました。
37:08

コメント

スクロール