00:00
みなさんこんにちは、40歳からのAI活用塾のウミノです。
40歳からのAIは楽しいだけじゃダメ、AIを使って仕事や育児、生活を1日2時間時短する方法をサクッとお伝えしていきます。
さて、みなさんこんにちは。今日はですね、先日いただいたコメント欄にいただいたご質問にお答えをしていきたいと思います。
テーマはですね、【一般人の私が感じるAI活用のリスク】です。
これとっても重要なお話なので、ぜひ最後までお聞きください。
メルマガもやっています。概要欄からご登録ください。
さて、よく耳にするのが、大きな企業がAI活用に躊躇してますとかっていう話、よく聞きますよね。
情報漏洩を恐れているんだと思うんですよ。
私の前の会社で働いていた、16年くらい勤めさせていただいた会社があるんですけども、
そこもね、おそらくあんまりやりたからなさそうだなっていう気がしますね。
すごく情報漏洩とかをすごく気にしている会社は多いっていうのはよくわかります。
やっぱりね、自分の自社の最新情報とかが漏れてしまったりすると、すごいそれはもう大問題ですもんね。
例えば、Appleとかは使ってますけども、AppleのiPhoneの新機能とかの情報がSamsungとかに知られたらまずいじゃないですか。
そんな感じで、自社の情報をすごく知られないようにっていうふうに気をつけている会社さんは多いと思います。
でもね、今日はちょっとそういう企業レベルではなくて、私たち一般人、個人のレベルでのリスクについて考えていきたいと思います。
私が思いつく限り、主なリスクは4つあるかなと思います。
まず1つが、秘密情報を入力してしまうリスクですね。
もう1つが、2つ目がプログラミング、すごいプログラミングが楽になるんですよね。
そのプログラミングが楽になるだけに、必要なセキュリティ対策をしないままオープンにしちゃうみたいな、そういうことが2つ目。
3つ目は、特にお子さんに気をつけてほしいのが、生成AIが出した答えを正解だと信じ込んでしまう。
4つ目が、画像生成とか動画生成の時に起こりうる権利侵害のリスクという、その4つについて今日はお話ししていきますね。
まず1つ目の、秘密情報を入力してしまうリスクなんですけど、これ実はですね、私1回やっちゃったことがあるんですよね。
どんなことをやってしまったかというと、ChatGPTとかCloudによくプログラムを作ってもらうんですよ。
自分では書けないので、プログラムを作ってもらうんですね。
その時に、一発でできることってあんまりなくてですね、大体何回も何回もやり直しをしたりだとか、エラーを貼り付けてこんなエラーが起きましたとかね、
今こういう完成全体のスクリプトはこんな風になってるんだけど、どこを直せばいいのとか、そんな風に話をしながら完成していくんですけども、
その時にちょうどね、ディスコードのボットを作ろうとしてたんですね。
ディスコードで動く拡張機能みたいなのを作ろうとしていたんです。
そこのプログラムの中にAPIキーみたいな秘密鍵みたいなものが入っていたんですね、ディスコードの。
03:04
それを私は分かってたんですよ。
分かってたので、3回ぐらいは削除して貼り付けるっていうことをしてたんですけど、ちょっと流れ的にパッと貼り付けちゃったんですよね、そのまんま。
ああと思って、ああと思ってというか、ChatGPTに怒られました。
ここの中にすごい大事な情報が入っているので、これを削除してすぐに新しく生成し直してくださいという風に言われて、やばいやばいやばいと思って、すぐに削除して生成し直して、特に何も大変なことにはならなかったんですけども、そんなことがありました。
このAPIキー、これが知られてしまうとどんなことが起きるかというと、例えば他の人が私のアカウントになりすましてボットを勝手に操作したりだとか、
あとは私が管理しているディスコードサーバーに不適切なメッセージが大量に送信されて、私がバンされてしまうとか、そんな感じのことが起きてしまう可能性があるんです。
すごく大事な情報なんですよね。
あとは、重量課金でこのAPIのサービスを使う場合は、いっぱい使っちゃうと私のクレジットカードを登録しておいているので、そこからお金を使われちゃうとか、お金を使われちゃうというかサービスを使われてしまう、そんなことも起きたりします。
それがすごく大事。
あとは、例えば仮想通貨系のプログラムを作るときに秘密鍵とかを入れる場面があるんですよ、そのウォレットの。それとかもアップしたらもうおしまいですよね。
いやー怖い怖い怖い怖い。やっちゃいそう。やっちゃいそうだから私はちょっと仮想通貨系のやつは無理ですね。作れないな、怖くて。
ということで、それが一つ目でした。そういった秘密情報とかを貼り付けてしまうですね。
そして二つ目。二つ目はプログラミングとかの注意点とかセキュリティ対策を知らないままお任せでプログラムを作ってもらって、チャットGPTとかに、そしてそれを公開してしまうというリスクですね。
その結果、脆弱性の高い危険なプログラムみたいなものができてしまう可能性があります。
例えばログイン情報を保存するようなプログラムみたいな、結構大事じゃないですか。いろんな人のメールアドレスをお預かりするようなプログラムですよね。
それをガバガバのセキュリティのプログラムだったりとかすると怖いので、私はちょっとそういうのは作らないようにしたいなって思っています。
ちょっと作りたいんですね。本当は作りたい。どんなの作りたいかというと、昔にテキスト装飾ジェネレーターというのをチャットGPTで作ったんですけども、それに課金して自分でカスタムの装飾を作れるようにするみたいな機能をつけたいなと思ったりしてるんですけど、ちょっと大変そうですよね、そういうのを考えると。
なのでちょっと今まだ、その辺が安心なやり方がわかればやりたいなと思うんですけど、まだちょっと私の知識と今のAIのレベルだとまだ怖いなと思っていて、まだやってないです。
06:04
こんな感じですね。プログラミングとかセキュリティの対策をしないまま、お任せで作ったらセキュリティガバガバの危険なプログラムができてしまうというのが2つ目。
では3つ目がですね、これは特にお子さんと一緒にAI使う時に気をつけた方がいいことだと思うんですけども、AIが出した答えを真実だと正解だと思い込んでしまうことですね。これは本当に怖いですよね。
特に子供ってやっぱり素直なので、AIが正しいと思っちゃうと思うんですよ。私だったら思っちゃうな。
だから大人が一緒に使う時に、AIはこう言ってるけど本当かなみたいな感じで一緒に調べて、実際にちょっと違うねみたいなそういう場面を見せてあげることも大事なのかなという気がします。
そして最後の4つ目が画像生成や動画生成の時に起こりうる権利侵害のリスクですね。
例えばミッドジャーニーとかって大量の絵とかを、イラストとかを学習しているわけなんですね。その中にはキャラクターもたくさん入ってしまっているんですよ。
例えば自分が生成したキャラクターが知らないうちにどこかの有名なキャラクターにそっくりだっていうことがあり得るんですよね。
私もピカチュウとかだったら、ピカチュウならわかるけどドラえもんとかならね、でも知らないアニメとかのキャラクターだと正直気づかないと思うんですよね。
例えばワンピースとかも私正直あんまりわかんなくて、ワンピースのルフィ以外のキャラクターに似ていたとしても正直わかんないので、知らない間に権利侵害してしまうリスクっていうのはありますよね。
ただこれが実際に罰せられるのかどうかっていうのはちょっと今の法律だとグレーな部分があります。
犯例もまだないんじゃないかなと思うんですね。
あともう一つ、先日出た生成AI利活用ガイドブックっていう経済産業省が出したガイドブックによると、AIに学習をさせること自体は問題がないみたいなことが確かに書いてありました。
なので私が例えばピカチュウの絵をミッドジャーニーに学習させること自体は問題がないんだそうです。
ただそれを使ってね、私が出した生成画像を生成してそれを使うことについてはちょっと忘れちゃった。
何て書いてあったかな。
多分使い方によっては問題あるんだと思います。
なのでその辺は気をつけないといけないですね。
ただこれはガイドブックであって犯例ではないので、ちょっとまだ実際に犯例出てないと思うのでちょっと心配ですよね。
どうなるのかな。
わかんない。
もし心配な方はファイアフライっていう学習データがクリーンな生成AIがあるのでそちらの方が比較的安心かなと思います。
あと4つ目、あれ5つ目、5つ目なんだっけさっき。
しまった。
さっき話しながらこれもこれもこれもだって思ったんだけどなんだっけな。
09:03
やばいダメだちょっと記憶がもう覚えてないので思い出せません。
ごめんなさい。
はいちょっと考えてみたんですけどやっぱり思い出せませんでしたのでまた思い出したら別のエピソードでお話ししたいと思います。
今日は私が考えるAIを個人が利用する上で感じるリスクというテーマでお話をしてきました。
皆さんもAIを使って何かを作ったりするときの参考になれば幸いです。
この放送が少しでもお役に立てましたらぜひいいねやフォローをお願いします。
またコメントとか質問とかもぜひお気軽にお寄せください。
こんな風に声でお返事するっていうこともあり得ますのでぜひぜひお願いします。
メルマガも平日毎日配信しています。
私のメルマガは個人が自分の商品を売るために必要なAIやデザインそしてマーケティングの知識を1日5分でインプットできるようなお役立ち情報を発信していますのでぜひご登録ください。
それではまた次のエピソードでお会いしましょう。またね。