データ流出の現状
はい、おはようございます。業務瞬殺エンジニアの加門です。
今日はITニュースについてお話ししようかなと思うんですけれども、
生成AIのデータ流出の主要経路が判明しましたよ、ということで
お伝えしようかなと思っております。
今日のお話を聞くことによってね、じゃあこういう対策を取ればいいんだねということが分かってまいりますし、
今、自分が行動を行っているものを振り返っていただいて、
こういう行動というのは危険だったんだなということが分かってまいりますので、
ぜひ最後まで聞いていただいて、もう一度ですね、見直していただければなと思います。
この番組は業務瞬殺エンジニアの加門が、業務効率化とITニュースを語るチャンネルです。
今日のテーマというのはですね、生成AIによるデータ流出のものになるんですけれども、
データ流出というと、どうでしょう、皆さん意識するものといえばですね、
メールで送っちゃいけない社外費のものを送ってしまったとか、
あとはハッカーがですね、アクセスしてきて攻撃をしてきてデータを流出させてしまったりとか、
あとは僕の記憶の中では、ベネッセのお客様の取引先の情報流出とかね、
あったんですけれども、そういうふうなものがあったかなと思います。
記憶というか、データ流出といったらこういうのかなみたいな、だから私は大丈夫かなという方も多いのかなと思うんですけれども、
今回のデータ流出の話というのはですね、従業員、従業員というかもう生成AIを使っているのであれば、誰もがやりかねないことなので、
気をつけていただきたいなと思っております。
行動が引き起こすリスク
じゃあどういったことなのかというとですね、生成AIを使っているときに、
その使っている行動がデータの流出につながってしまっているよということになります。
例えばファイルのアップロードとかは、これすごい簡単ですよね、分かりやすい。
例えば契約書だったりとかを、ちゃんとGBTとかにパッって貼っつけて、送信でリーガルチェックしてみたいな。
これも簡単にやっちゃいがちですけど、これデータ流出ですよね。
こういうふうにですね、ファイルのアップロードというのは分かりやすいものになってきますが、ファイルのアップロードだけではないんですね。
チャットGPTによるデータ流出というのが非常に多いというふうに、今回記事では書いてあるんですが、
それはチャットGPTが悪いわけではなくて、チャットGPTの使用率があまりにも高い、シェア数がチャットGPT一強であるという状況になります。
実に92%がチャットGPTを使っているということなので、それは流出件数もチャットGPTに偏るのは当たり前なんですね。
ほぼ100%チャットGPT使ってますっていう状態で、だからデータ流出はチャットGPTが多いんだ、だから良くないんだ、みたいな、そういうのは良くない考え方かなと思います。
そもそも私たちの行動が間違っているということになります。
じゃあ、さっき言ったファイルアップロード以外でどういう行動をとっているのかということなんですが、コピペ、コピー&ペーストなんですね。
これやってる方多いんじゃないかなと思います。
例えばメール、こういうメールが来た、これの返信を書いてもらおうって、これでデータ流出ですっていう。
例えば、議事録、ペット、要約してください、こういう内容ですね。
こういうふうにですね、コピペって簡単にできますし、ファイルのアップロードではないので、思った以上に心理的ハードルというのが低いんですね。
その心理的ハードルが低いからこそ、ついついやってしまうということがあります。
また、日本企業に限定されると思うんですけど、日本だったら多分余裕であり得ると思うんですが、企業による生成AIの利用ルールというのが策定されていなかったりとか、
こういうことをしたらダメですよとか、こういうことをしていいですよとか、そういうルールが設定されていない。
また、契約単位ですね。これも個人アカウントでの契約をしている可能性があります。
どうしても法人で契約するときは法人契約をすべきなんですけれども、法人契約をせずに個人アカウントとしての契約をしてしまいかねないんですね。
そうするとどういうことが起こるのかというと、今僕が使っているChatGPTのアカウントは個人なんでしょうか、法人なんでしょうか、よくわかりませんみたいなことになりかねないということになります。
あくまでも法人と個人を切り分けないといけないということなんですね。
にもかかわらず、個人と個人アカウントで作ってしまう。
で、ペッペッと貼っ付けてやってしまうということからですね、かなりの問題点が指摘されていました。
対策とルールの重要性
じゃあ、どうやったら対策ね、どうやったらいいのかということなんですけれども、記事には結構ね難しいように書いてあるんですよ。
4つの対策がこういうことありますよ、みたいなこと書いてあるんですけど、もうね、わかりやすい対策を3つ今回あげようかなと思います。
そもそもAIを使わないという選択肢はちょっと論外なので、AIを使うという設定で考えていきます。
まず一つ目なんですけれども、法人用のAIを使うということになります。
法人用って何というとですね、ChatGPTもチームというのがあるので、それを使ったりとか、マイクロソフトだったらコパイロット、GoogleだとGoogleワークスペースを契約するということになります。
こういうふうにですね、必ずチームで使うということをやっていただきたいなと思います。
一番いいのはやっぱりChatGPT使用率あまりにも高いので、ChatGPTではなくてコパイロットだったり、ジェミニのワークスペースの契約だったり、そっちのほうにシフトしたほうがいいんじゃないかなと、僕は思っています。
2つ目なんですけれども、アイディティラシーの強化ですね。
本当にですね、媚びがあかんとかいうのも、分かってない人があまりにも多いんですね。この情報は外部に流出してもいいのかということをもう一度ね、理解していただくためにも、アイディティラシーというのを高めていただきたいなと思います。
最後なんですけれども、会社でルールを定めるということです。ここまでは使っていいですよ、ここは使っちゃダメですよということですね。
このルールというのは非常に難しい、めんどくさいことなんですけれども、このルールを作らないということからですね、今回のことが起こってたりとかするので、もうめんどくさいとは思うんですが、ルールを作っていただければなと思います。
ルール作るのめんどくさい、ChatGPTに聞いてください。今は簡単にできます。ChatGPTを法人で使おうと思うんだけど、どういうふうに使えばいいかな、どういうふうなことがダメかな、みたいなことをね、壁打ちしながら作っていっていただけると、一日でできるんじゃないかなと思いますので、ぜひやってみていただければなと思います。
良い世の中になりましたね。はい、ということで今日の放送はここまでとさせていただきます。いかがだったでしょうか、生成AI。実はデータ流出の元になっている。
ハッカーとかじゃなくて、我々使用者が何気なく使っている行動。それが流出のきっかけになっているんだよということを今回お伝えさせていただきました。コピペが結構問題というふうになっていると。結構な問題になってますので、もう一度ですね、このコピペ。
本当にこれで大丈夫なのかっていうところを見ていただければと思います。はい、それでは本日の放送はここまでとさせていただきます。面白かったな、ためになったな、新しい視点を得られたなという方はですね、いいねボタンフォローボタンを押していただけると幸いです。それではまた次回の放送でお会いしましょう。カモンでした。バイバイ。