個人でできる対策をお伝えしようかなと思うんですけども、
まず前回説明した金融犯罪のところでいくと、
フィッシング詐欺が高度化しているようとか、
実在の人物になりすまして金銭を騙し取るみたいなのがあるよっていうのを紹介したと思うんだけど、
フィッシング詐欺の場合は基本的にメールとかLINEから始まるじゃん大体。
だから基本的にはブックマーク、お気に入りに登録しているURLを直接叩くのを癖付けた方がいいとかっていう感じなんだけど、
根本的なやつだね。
今もそうじゃん。
だからこれがAIになったとて、あんま対策変わんないよねみたいな。
ディープフェイクのなりすましとかだと、やっぱもうダブルチェック入れるとかになるのかな。
ダブルチェック。
本当の意味のダブルチェックって、2人体制で自分がやったものを別の人にチェックしてもらうみたいな感じだけど、
前回のこのディープフェイクでお金振り込んじゃったみたいなやつだと、
オンライン会議でそういう風になったじゃん。
あれだよね、香港の会計担当の人がディープフェイクで揃えられたZoom会議に入って、
騙されて入金してしまったって話だよね。
そうそうそう。
彼はそのディープフェイクのオンライン会議で同僚ばっかだったことで、安心して、
じゃあこれ本当だって振り込んだわけじゃん。
それ振り込む前に、もう一回財務担当の代表の人に連絡して電話でも一本して、
これがじゃあ振り込みますねとか、
その人は直接連絡取れないにしても、別の人にこういう話があるんで振り込みますねって振り込む前に報告じゃないけどさ、
やるみたいな、そういう二重チェックするみたいな感じの流れになるよね。
で、その二重チェック先もディープフェイクと。
もうそれ、一生マトリョーシカみたいじゃん。
で、その先もこれ、この先もこれみたいな。一生ディープフェイク?
いやー難しいよね。なんか本人からするとさ、もうそこで確認できちゃってるから、
もう一回チェックするってなんか本当にそうだったとしたら、なんか失礼になっちゃうなって思うよね、多分。
そうね。だからこれはもう会社でそういう体制にするしかないよね。
なんかね、システム的なね、本当に本人チェック?
なんか目でもいいし指紋でもいいんだけど、ちゃんとなんかチェックできる認証が欲しいよね、これもって。
そうね。だから、やっぱりこのディープフェイクっていうものに関しては、
会社だったら海外とかだとそのディープフェイク検出ツールみたいなのが出てるから、
法人だったらそういうのを導入してあげたりとかっていうのが対策にはなるかなって思うけど、
それこそね、次の項目で言うと前回、この後誹謗中傷とか名誉毀損の部分説明したから、
そこの対策とかも話したいなとは思うんだけど、結局ここもさ、ディープフェイクなんだよね。
そうだね。
個人レベルでこのディープフェイクを対策できるかっていうと、正直できないところなんだよね。
相当難しいね。
難しい。
だから、例えばその誹謗中傷とか名誉毀損の文脈で言うと、
自分がディープフェイクを作られないためにはSNSに上げる個人情報を最小限にするとかっていう、
そういうGAはできるけど、
だけど、ディープフェイクで作られたフェイク動画をどうやったら信じないようにできるかっていうのは難しいから、
会計担当のやつとかで言うと、法人だったらある程度ツールとかを使って対策するしかないかなみたいな。
あとはそういうのがあるっていうありきのルール作りをするしかないかなみたいなところだよね。
これが結局AI関係ないんだよね。
要は今の犯罪でもそういうことやってあげたほうがいいし、そういうのやろうっていうふうになってんじゃん。
間違いない。
結局AIによって犯罪が高度化する、増えるっていうのはあるけど、
でも対策も結局AIがある前からある犯罪と同じだから、犯罪露出としては。
そうだね。
対策も変わらない。
たぶんそういうことは他にも知的財産権のやつとかサイバー攻撃とか性犯罪とかいろいろ説明してたじゃないですか。
そうですね。
この辺の対策もサイバー攻撃の部分とかで言うと、
AIにあるパスワードクラッキングとかがあるから、二段階認証を活用しようねみたいなのがやっぱり手段になるわけだけど、
そんな今もじゃんっていう話で。
まあそうだね、今もそれだよね。
そうそう、今もそれだし、例えばあとは性犯罪の文脈で言うんだったら、
児童ポルノみたいなものにはそもそも触れない、近づかない。
それは今もでしょみたいな。
そうだね。
だから今既存の対策で結構いっぱいいっぱいと。
気をつける、より気をつけるしかないって感じだよね。
そう、より気をつけるしかないって感じだし、結局個人で対策をするのにはやっぱり限界があるよねってところなわけよ。
そうだね。
だからやっぱ重要なのは国としてしっかり包括的に取り組んでいくことがやっぱり大事だよねっていうところに繋がるわけで。
確かに。もしくは法人でそういうディープフェイクの検出ツールを作ってる会社とかがもっとたくさん出て、
競合してってより良いものを作っていくとか。
そうだね。やっぱりそのディープフェイクの検出ツールとか、マイクロソフトとか大きいところが出してるのもあったけど、
大体海外のよくわかんないツールで、個人が導入するとか、小さい会社が調べながら導入するにしてはちょっとハードルが高いなっていうイメージはやっぱりあった。
で、やっぱ重要なのは国として取り組んでいくっていうことで、
じゃあ各国の法整備の状況がどうなってるかっていうと、
これはね、まず喋るべきはこれでしょっていうのがあって、
なんとEUで初めて原罰がつくAI規制法っていうのが成立したわけですよ。
結構最近ですかねこれ。
去年とかぐらいから多分いろいろ話は出ててたんだけど、正式に2020年5月21日に成立したっていう感じ。
じゃあもう先月ぐらいだ。
そうそうですね。だからこれで初めてAIを規制する、禁止したりとかっていうのが盛り込まれた条約になってるから、
法律になってるから、だからこれが世界の指標みたいなのになるんじゃないかみたいな、
そういうふうに言われて、国際基準になるんじゃないかみたいな。
なるほど、なんかXでちょっと聞きかじった話なんですけど、
EUはAIを利用したらもう罰則ですぐらいの見出しだったんですよ、こういうのって。
だからEUはもうAIを全く盛り込まないような国になるんじゃないかみたいな。
各国の動きがAIに対してどのような法律を定めるかによってこれからの進化変わるよねみたいな、結構大増の騒ぎをしてたような記憶があるんですよね。
当時ね。
当時当時。
でも実際には3つのリスクレベルに分けて評価するっていうようなルール作りの法律になってるから、
ものによっては禁止だけど、ものによっては条件付きで使っていいですよみたいな。
なるほどね。
一番上が禁止AI、許容できないリスクって言われてる、もう禁止されてるもの。
これが最高レベル。
これ最高レベル。
2段階目が高リスクAI、ハイリスクって分類されてて、これは規制対象。
3つ目が低リスクAI、限定的リスクってされてるもので、これは透明性の義務化が課せられてる。
この3つのリスクレベルに分類されて、どこに位置するのかによって対応が変わるみたいなルールになってるのよ。
EUではこの3つのレベルにフィルターをかけてて罰則とかを与えてるみたいな感じかな。
そう。
例えば禁止AI、許容できないリスクってのはもう全面禁止だから、例えば認知を歪めるサブリミナル技術。
そもそもだけどねっていう。
そもそもだけどねっていうところなんだよね。
あとは公的機関とか様々なところがデータを集めてるところがそれを使って個人を評価するソーシャルスコアリングなんかもEUは禁止してる。
中国とかだと結構当たり前にあるシステムですけど。
そうだね、やっぱりEUはEUの条約みたいなので、人間の尊厳の尊重みたいなのを定めてるのよ。
それはもう人間の尊厳を尊重して自由で民主主義で平等でみたいなそういう理念があって、それにこのソーシャルスコアリングってものが反してるから、そもそももうソーシャルスコアリングは禁止しようみたいな。
なるほどね。
AIを使うとより作りやすくなるもんね、こういったシステムって。
そうそう、でもこのソーシャルスコアリング自体に多分言及された法律はこれが初めてっぽい感じかな。
なるほどね。
ちょっと調べた感じ、そこまでめっちゃ詳しいわけじゃないから違ったら申し訳ないけど、調べた感じ多分このタイミングで初めて明文化されたみたいな感じ。
あと高リスク、ハイリスクのところで言うと、試験とか面接の評価にAIを使うとか。
そうなんだ。
そう、プロファイリングによる犯罪予測。これは規制だから、要はこういう風なルールの下、こういう条件だったら使っていいですよみたいなそういう感じのイメージ。
なるほどなるほど。
アルゴリズムで国家安全保障に落とし入れちゃうようなものをレコメンドで出したりすんじゃねえよみたいなそういうルールだったりとか。
結局効果あんのかもしれないね、中国でもこういうルールができてるってことは。
そうだね。
あとはカナダでも人工知能およびデータ法っていう法律を導入しようって今進めてる段階。
一応これも2025年以降の施行で進めてるんじゃないかって言われてる。
なるほど。
日本でもAI推進基本法っていうかっこかりっていうのが進められてて、2024年度中に具体的な方針を明示したいっていうのを目指してるらしいって感じだね。
じゃあやっぱ2025年ぐらいにようやく進んでいくようなイメージかな。
っていう多分速度感だよね。だからやっぱその個人でなかなか対策が取れないっていう中でAIの技術の進み具合から見ると、やっぱ確かに法整備ちょっと遅いなっていうイメージはあるよね。
なるほどですね。しょうがないよね、法整備ってそんなもんだよね。
まあそうね、バンバンバンバン法律変わっても困っちゃうしね、いまだにだって明治時代に作られた法律とかが残ってるぐらいだからさ。
そうだね、日本なんて特にそうだよね。他の国の法律とかってどうなってるのかちょっと気になるね、逆に言うと。
それこそさ、EUはこれだけ早く出せたのと日本のこの遅さ、でこのAIの浸透具合とか相関関係あるのかなとかその辺深掘ったら面白そうじゃない。
すいませんね、調べが浅くて。
違う違う、AIの文脈とちょっと離れちゃうけど、確かに法律なしになっちゃうもんね。
なんでこんな早く出せたんだろうねEUって、すごいよね。
まあ気になる部分では確かにあるよね。なので各国頑張って進めていこうみたいなところではあるけども、なかなかまだ法整備が完全には追いついてないという状況はあって、
だからまあ2025年以降とかになんとかできればみたいな感じで進めてるような状況ではある。
そうですね。
やっぱりそのなかなかその法整備が進まないっていう部分で言うと、
例えばさ、昔で言うと産業革命の時代とかもさ、同じようにこう急激な経済成長みたいなのがあったわけじゃん。
で、その中でなかなか法整備が追いつかない状況っていうのはもともとあって、
じゃあその時どうしてたかっていうと、労働者たちは労働組合を結成したり、
あとは社会運動を展開したりして、労働環境の改善とか社会保障制度の確立っていうのを訴えてきたっていう過去の経験があるわけよ。
で、有名なのに言うと、例えば第三次産業革命の時代にあったのが反グローバリズム運動っていうのがあって、
これは1990年代後半以降でグローバル化の進展に伴う格差の拡大とか、環境破壊とかそういうのに反対する市民運動が世界各地で起こったっていう有名な運動。
あれですね、インターネットが出てきたことによってもグローバル化がどんどん進んでいくよって言われた時代だね。
そうそうそうそう。で、シアトルとかで大規模なデモが起きたみたいなのが一番有名なデモなんだけど、
そういうので、民衆たちが運動をしていったみたいな。
で、これほんとならないか、三行革命、昔の時代でしょって思ってるかもしれないけど、全然現代でも起こってて、
それこそAIに関連するもので言うと、2023年ハリウッドで俳優がAIの利用を巡って脚本家と俳優がストライキを起こしたっていう有名なやつがあります。
これも結構大規模で。
去年だよね。
そう、去年。で、これは脚本家がAIで脚本を作ることによって脚本家の仕事が失われてしまうんじゃないかとか、
あとは俳優も肖像権が勝手に使われちゃうみたいな、それは困るみたいな感じで、脚本家の方のストライキは148日間、俳優の方のストライキは118日間にも上るストライキが起きたということで。
めちゃくちゃ長かったよね。トム・クルーズとかが参戦してたやつだよね。
そうそうそうそう。トム・クルーズに関しては映画の制作もしてるから、だからその俳優側としての意見も分かるし、その制作側の意見も分かるみたいな板挟みだったみたいなね。
確かにね。
インタビューとかに出てたりとかしてたけど。
どっちの意見も分かるみたいな感じだよね。
そうそうそうそう。でも最終的にこれ脚本家と俳優がまあ要は勝ち取る形で終わってるわけよ。
なんだっけ、二次創作の使用料とかを得るみたいな話だったっけ。
そう、もらえるみたいな感じで条件に同意したみたいな感じだよね。
すごいよね、やっぱストライキでちゃんと獲得できるというか、この国を動かせるんだねっていう国というか。
まあそうね、国じゃないけど今回に関してはね、あくまでもビジネスのストライキだけど。
業界をね。
業界だね、業界を動かすっていう感じだよね。
やっぱこういう動きってさ、外から見てると不運ぐらいにしか思ってないけど、いざね当事者の立場になって考えるとすごく大事な行動だよね。
いやそうだね、大事な行動だよね。だからやっぱAIの犯罪がこれから高度化していって、なかなか個人では対抗できない。
でも国の法整備ってそんなに思うように進まない。
じゃあそんな我々が何できるのっていうと、やっぱりこうやって団体を作って一人一人が集団になって声を上げていく。
で各業界を徐々に広げていきながら大きい枠組みを変えていくっていう流れしかないんじゃないかなっていうのは思うよね。
歴史を見るとね、やっぱこの形になりそうな気はしますよね。
あとは昔と違うのはSNSが本当に影響力を持って個人がどんどん反省力強くなっているから、インフルエンサーとかが発する言葉ってすごく影響力あると思うし、
それに賛同する人が増えれば増えるほどやっぱその力ってついていくと思うから、それにいいなと思ったら賛同をちゃんとするだったりとかアクションすることがすごく大事だなと思いますね。
まさしくだね。やっぱそういう声を上げてる人いるもんね。こういうのはAIの部分でよくないんじゃないかみたいなさ。
そうですね。なので声を上げてアクションしていこうというのが結論ですかね。
そうだね。大事ですね。
ただこうやって説明すると、やっぱAI犯罪増えて怖いなって思うかもしれないけど、やっぱ悪いこともあればいいこともあるっていうことで、
こんだけ技術が進歩すると犯罪の抑止っていうのにもちゃんとつながるから、そんな悲観する必要ないよっていうふうには思ってて。
よかった。なんか前半からの流れでいくとさ、なんかもう不安でしょうがなかったもんね。
そうね。もう人間滅ぼされ寸前まで言ってたよね今。
例えばアメリカとかの事例だけど、予測警察活動みたいなのが行われてて、
例えばアメリカで過去の犯罪データを分析して、犯罪が発生しやすい場所とか時間帯をAIで予測することになって、そこで重点的に警察のパトロールとかを行うみたいな。
おーすごい。
あとはシカゴ警察が暴力犯罪のリスクが高い個人を特定するためにAIを活用した事例とかもあるみたいね。
これはソーシャルスコアリングに近い使い方だね。
近い。そうだね。近い使い方だね。まだそういうのを実際にアメリカなんかはやってる。
他にももうやっぱりSNSの監視だったりとか、あとは運転パターンだったりとか、そういう予測、行動だったりとかをAIで自動検知して犯罪を予測していくみたいな使い方はされているところではある。
これ実際ね、知らないところで使われてるっていう可能性は全然あるよね。公開しないで。
もう技術的には全然可能だからさ。知らないところで本当に日本でももしかしたらあるかもしれないですね。
でもそれで犯罪が減って安全が担保されるんであればいいのかなとは個人的には思うけどね。
そうですね。
あとは日本で、これは海外の事例だけどね。日本の事例でいくとAI搭載の防犯カメラとか売られてて。
例えば警察庁が発表している令和3年の犯罪情勢っていう調査によると、令和2年の侵入犯罪の認知件数が55,015件だったのに対して、令和3年は47,325件で14.8%減少してるのよ。
結構減ってる。
もちろん防犯カメラ以外にも高性能な防犯機器ってどんどん出てきてるから、それもあるかもしれないから。
そうそう。
だからAIが完全無欠で完璧なもので本当に犯罪抑止にだけつながってトレードオフがなければいいなっていう前提ですけど。
ああなるほどねでもなんかそのそういうのは意見としてきっと出てくるだろうなとは言われてるよね。
だからそれこそ技術的な信頼性の部分で本当にご判定はないんですかとかあとハッキングをされてなんか操作されちゃうみたいなリスクはないんですかみたいなさ。
あるよね実際ね。
実際あるよね。
だからいやうちの製品は99%いや99.9%正確ですって言ってもその0.01%の人間がもう世界を破壊するテロ野郎だったらさ終わりじゃんみたいな。
確かにね。
もう誰にも止められないみたいな。
確かに。
だから本当に100%の技術的信頼性があれば任せられるとは思うんですけど。
まあねでもなんかその今だって冤罪とかはあるわけじゃん結局。
そうだねそうかといって今の世界がどうなのってなったら多分50%ぐらいなんじゃないみたいな下手したら。
そうそうそうそう。
2V1みたいな。
本当その世界だよね。
そうだからもう完全に遺憾するんじゃなくてその共存がやっぱ大事だと思うんですよね僕。
ああなるほどね共存のパターンか。
どちらかに依存するんじゃなくてね。
より良くして100は無理だけど今6070ぐらいのものがAIと力合わせたら99%になるみたいな。
でもなんかそれこそさコロナの時のマスクとかワクチンとかもそうだったけどさこれを導入するってなったらそれこそさっきの運動じゃないけどさ信じらんないぐらい反対するパワー起きそうだよね。
いや起きるでしょどうかも。
絶対に嫌だってハマっていそうだよねこれ。
絶対に起きるよ。
ね。
起きるから多分水面下で進めていくと思うしね。
やるとしたら。
そうだよね。
でも絶対いつかさそれっぽいことし始める瞬間来るよね。
だってAIの測定の結果こいつ犯罪起こしそうなのが明確に分かってんのに何も手打たないのみたいになるじゃんきっと。
でも一個これがもし本当に進んでった時に確かにあんまりそれは良くないなって思うところで言うと差別とか偏見の助長に繋がっちゃうなーみたいなのは確かに思ったわけよ。
例えば犯罪係数がちょっと高めの子とかがいたらあの子犯罪係数高めだから近づいちゃダメよみたいなさ。
あーなるほどね。
でも高いのは高いかもしれないけど要はアウトじゃないわけじゃんアウトじゃない限りさ政府の扱いしてあげなきゃいけないのにそのグレーゾーンみたいな子たちが増えちゃうみたいなさ。
あーなるほどね。
そうそうそうそうとかなんか新しい社会問題が生まれそうだよね。
あと敷地的なところの問題もあるよね。100を超えたら犯罪呼びくんです。でも99は平気ですってさちょっと怪しくないっていう。
確かにでもなんかそういうことやっぱその偏見とか生まれちゃうよね。だってさ飲み会行きましたって時にさ犯罪係数98のやつがいたらさえーちょっと見せかけようかなってなるじゃん。
そうそうそうそうちょっと怖いなみたいなさ。
なんかその人をね見えないものをスコアリングするっていうのはそういう脅威も非常にあるからどう考えても大衆には見せられないよね。
そうだねスコアリングしたとしてもそうだね。うちらがそれを数字が見えるってことはないだろうな。
そうだね。
一部の人でもなんかそうすると一部の人だけが見えるってなると今度そういうとこに権力が集中しちゃうんじゃないかみたいな意見もあるわけよ。
それも確かにそうだよね。犯罪係数が見れるとかねその要はスコアリングするAIを持ってるまあ企業なのかな国が持つのかなどっか委託して持つのかなわからないけどそこのところにやっぱ権力が集中しちゃうみたいな。
うん確かにね結局中央集権的になっちゃうよね。
そうそうってなるとやっぱりだから中国って信用スコア導入しててEUはそれを反対してるのがなんかだからかってわかるような気もするよなと思う。
あー確かにね。
うん。
まさしくだね。
そうだまさしく中国なんかもうそういう中央集権でトップダウンでさやるシステムじゃん国自体が。
だからこそ逆に言うとああいうスコアリングっていうのが相性のいいシステムなのかもしれないよね。
そうだね結局その国の理念じゃないけど方向性によって変わってくるよね。
これはどっちになるかっていうのは今は明言できるとこではないけどもいつかそういうのをどうするっていう議論をしなきゃいけない瞬間にはちょっとやってくるよな。
そうですね。
ただ少なからずAIっていうのは犯罪も増える一面はあるけどもそれのおかげで犯罪抑止にもつながるっていうところもあるから一長一短なんでそんな批判する必要ないかなと思いますね。
はいそれではエンディングでございます。
エンディングはねちょっと喋り足りなかったことをね喋っていこうと思うんですけども。
後半で話せってなかった犯罪抑止の事例として運転パターンからの不審者検知とかこれ運転パターンなんですけど僕個人的には式予備運転検出とか。
それめっちゃいいね。
なんかそういうの早く入れてほしいなって思う。
確かにね。
車の中に積むだけでいいじゃん。
で式予備されてるのでアクセルロックしますみたいな。
もうアルコール入ってたらもうそもそも運転ができないみたいな。
そうそうそもそも運転できないとかもう自動運転モードに強制になるとか。
それこそあれだよね高齢者の今さ運転トラブル多いじゃん。
例えばその高齢者の運転パターンから認知症の傾向があると自動で減速するとかわかんないけどさ。
めちゃくちゃ難しそうだなそれは突然。
ちょっと難しそうかもしれないけどね。
でも式予備運転のやつはいいね確かに。
そうねだいぶ減ってきたような気はしますけど結局仕組みで解決できるところはガンガンAI使ってた方がいいなとは思いますよね。
あとさっきのサイコパスのいいか悪いかみたいな話をすると共存するのが大事だよねっていうすごい塩梅なことを言ったように聞こえるかもしれないんだけど。
実際に反脆弱性っていう言葉があって脆弱性って脆いっていう意味なんだけど言葉の通りね。
だから反脆弱性だから脆いと脆くないの間みたいな感じだよ。
なるほど。
これが一番最強の状態と言われてるんですよね反脆弱性の状態がねすごい抽象度高いんですけど。
ブラックスワンって聞いたことない。
ブラックスワン?
ブラックスワンっていうのは事前に予測不可能なでも発生すると大きな影響を与える出来事。
それこそコロナとかリーマンショックとか911の同時大発生とかいわゆる予測どう考えてもできないけどめちゃくちゃ大きなことをブラックスワンみたいな感じの例で使われたりするんだけど
脆弱であっても良くないし強固にあってもそれって防げようがないんだよね。
だから柔軟性を持つことによってそういった大きな予測できないことにも対応できるみたいな状態を持つっていうのが大事。
そういうことを説いてる本があるんですよ。
なるほど。
だからさっきのシビラシステムサイコパスの話でいくとAIに全部任せるとこれ反脆弱性じゃないんだよね脆弱的な状態なんだよね。
だからそれこそ本当にサイコパスみたいにそのAIだと検知できない0.1%がはびこるみたいな可能性がマジであるってことだよね。