00:17
はい、シゴクリラジオ大橋です。よろしくお願いいたします。 このシゴクリラジオは、パーソナリティである私、仕事クリエイター大橋が、仕事づくりに関して話をしていく番組となっています。
よろしくお願いします。今回はAIの話です。 これは読売新聞の記事かな。リンクも貼っておきますが、AIの誤解といわゆる嘘が意図的ではないんでしょう。
要は、AIが作った情報を参照するという意味合いではなくて、既に固定化されたんですね。 じゃなくてですね、誰かが既にあるアウトプットではなく、Googleのですね、例えばAIオーバービューとかでもいいんですが、AIがまとめたものが嘘が含まれてましたよと。
これはありますよね。それによってですね、実際の施設が閉鎖しているとか、詐欺っぽいやつだと工場がなくなったんで、商品を売りますみたいな詐欺があって、実際は潰れてないのにそういうのを勝手にやってね。
旗迷惑じゃないですよね。犯罪ですね。そういったこともありますが、そういう意図があるかどうかがAIにはないわけじゃないですか。もしくは、AIにないならAIを開発した、もしくはサービス事業者側が問われるようになると思うんですが、
例えばGoogleのAIオーバービューで、潰れてない、閉鎖してない、やってない、営業してないって出てきて、本当は営業してるし関係ないんだけど、出てきたらどうします?迷惑ですよね。
Googleの口コミ、Googleマップというか、Googleビジネス、マイビジネス、今名前が変わってるかわかりませんが、Googleの飲食店とかGoogle検索して出てくるような口コミで、口コミは信頼できなくなってるじゃないですか。
AIで作れたりアカウントを生成してやるってことができますからね。私が別に処方してるとかそういうことじゃなくて、論理的にできますから、そういう意味で非常に怪しくなっていくと、怖いですよね。
要は人間っぽくなっていったら、人間みたいなのが倍増するんだけど、それ実は人間ですか?って人間かどうかチェックみたいな話になってきて、今の最初の話に、人間ではないんですが、実在する企業、もしくは実在する店の公式の情報化っていったら情報じゃないことがあり得ると。
03:13
だから早々確認しますとか本当ですかっていうね、発信者っていうことが適切かっていう風に見ていくしかないですよね。これはね、わりと難しい話なんですが、AIが出してきたものをちゃんと確認するっていう癖がついている人にとっては、なんだよって話なんで、別にそんな当たり前じゃないからなんですが、してない人にとってはちょっと危ない話ですよね。
同時にそういう人が、じゃあ潰れたんだねって言って、焦って連絡してくる可能性があると。その店にね。そうするとこれ何が起きているかというと、いわゆるフェイクというか嘘というか情報を意図してないと思うんですよね。
別にGoogle側の肩を持つわけでもないし、別にAIオーバービューが悪いとか言ってるわけじゃないですけど、そのAIが出したものを、AIメーカーというのかわかりませんが、AIサービスを提供するところが良いと思ってしているとは思えないですよね。って思ってます、一応ね。
で、その場合もAIは悪くないし、AI会社は悪くない、AI企業は悪くない。使う人も別に出てくるのをピュアな感じで信じているというかね。疑ってないと。
で、一個あるのは行動の、これは僕もわかるというか、ちょっと具体的な話はやめておくんですけど、要はその情報が正しいか正しくないかを置いておいて、SNSですね、よく地震が起きてゾウが逃げたとか、動物園がとかあるじゃないですか。それはダメですよ。
で、なんだけど、それが本当だったらどうするか。例えば今のクマですよね。そんな旗描きのことをやったら捕まると思いますから、そんなことやる人はいないと思いますけど、これ聞いてる人はね。要はその情報が本当だったらっていうのでやると。
これはですね、昔、ちょっと前に確かどこかの自治体で、生成AIの、自治体じゃないかな、ごめんなさいね、間違ってる可能性があるんですけど、確かLINEのグループ内で、身内でそういう生成AIで遊んでたと。こういうのもできますよってね。
ありますよね、AI画像で遊ぶって。別にいいと思います、身内だけでね。だけどそれを見た人が本当だと思って、それが確かクマだったと思うんですけど、クマがどこかの住宅街にいるみたいなのを本当だと思って連絡したっていうね。
で、その時に、ここが大事なんですけど、今言っているその見た人が、例えば僕が見たら、これはもしかしたらAIかもしれないし、違うかもしれないよね。別に公式に自治体が出してるわけじゃないし、本当じゃないよねと思っているんだが、
06:05
しかしですよ、ここがポイントなのは、行動をすることですね。思って、思ってるだけでは別に何も起きないんですけど、思って、それが他の人に情報を伝えなきゃみたいな。これはまずいんじゃないですかっていうね。
本当だったらまずいですよねっていうふうにやると、これが本当かもしれないっていうふうに思う人が、これがまさに真理ですよね。噂とか流言の真理じゃないですけど、100%物事は信じてもらえるっていうようなことっていうのは、別にあまりどちらでもよくて、絶対嘘ですよねっていうのもどちらでもよくて、1%でも本当かもしれない、99%嘘かもしれない。
どちらでもいいんですけど、そういうのがあった時に、それを見た僕、もしかしたらリスナーのあなたが、これもしかしたら本当にクマだったらやばいよねって思ってしまうわけですよ。10人いたらどうなんでしょう。本当にその人がいい人であれば、これは良くないからやらなきゃいけないなと思ってしまうんじゃないですか。
さまざまな詐欺と言われているものはありますが、詐欺って言うと、すごく攻撃的で不快になってすぐ判断できるっていうふうにもしかしたら思っている人がいるかもしれませんが、それはちょっと甘くて、もっと認識を改めていただいてですね。
公明に自分の心理をついてくる。警察官から電話がかかってくるともそうですけど、警察とそんなに触れ合う人っていうのが少ないわけですよ。多くの人がね。それは犯罪とか事故とかなんか巻き込まれたり、そういうのがあったら警察が直接電話かかってくるのはないとかね。
もしくは明らかに怪しいとかね。そんな思うかもしれないですけど、多分そういうのは全部取っ払って、もしかしたら自分が何か悪いことをしたんじゃないかと。まさに自分を疑う。自分がもしかしたら悪いんじゃないかなって。
まさに僕も一応はしくれだと思ってますが、自分が悪いことをしたのかなってね。その相手がなんかすごく不快になってて、ごめんなさい、なんかやりました私。なんかちょっと大丈夫ですかって言ってしまうような人。もしリスナーの方がそういう方であれば、まさにその自分の相手がどうだったかじゃなくて、自分もしかしたら何かやったんじゃないのかなっていうのに、いわゆるつけこむってやつですよね。
つけこむつけこまれないなんていうのは、品がないのかもしれませんが、実際に現実社会で起きていることなので、周りにそういう人がいなかったら、そういう社会、ごめんなさい、コミュニティや集団の中で生きていると。
それは悪いっていうことじゃなくて、いいんじゃないかなと思います。そうじゃない人もいらっしゃると。そういうことを仕掛けてくるわけですよね。だからそこのそれをマニュアル化したり、誰でもできるようにしたりっていうのが、まあまあよろしくないわけですけど。
それと完全に縁がないというか、縁があることに縁なんかなくていいんですけど、それはやっているのは人間ですよね。自分と同じ人間であるということの認識ですよね。そんな人と一緒にしてほしくないと思っているとか、考えたい気持ちは分かるんですけど、それがまさに間違いじゃないかなって僕は思っています。
09:23
つまりその発生源というか、要は人間が集団で社会で生きてきて、いわゆるいか業にも教育されるし、もしくは犯罪とか言わないわけです。仕事って言うと思うんです。逆に犯罪者の立場に立ったら、犯罪をしようとか言ってるわけじゃなくて、犯罪をしてますって言うともう心が痛いわけですよ。
まともな人じゃなかったら別に何も思わないかもしれないですけど、でもそれは仕事だって思えば別にいいわけです。できるわけですよ。だってお金得られますからね。それを推奨しているわけでは全くございませんよ。
それがその倫理とか、自分の残っている善なるものっていうのが人間にあるかどうかわかんないです。真似もってね。だけどそういう感覚ではありますね。と思ってます。
同じ人間がやってるってことを考えたい。だから何でそんなことするんだろうって思うのは割と正常だなと思います。だけどそれを理解できるかはまた別だし、しないのが多くの人かなと思ったりしてます。
という話が何かしてますけど、ちょっと置いておいて戻すと、結局ですね、このAIの検索っていうのをやったことで、やっぱり一番取り上げたいなと思うのはこの推測ですよね。
AIが友人とも話して聞いてるんですけど、コーディングでもいいし、テストを作るとかって聞いてるんですけど、それで推論をしてしまうんですよね。
自分が人間側が指示したものじゃないことを、人間がルールを決めてもそのルールをもしかしたら逸脱するかもしれないし、無視するんですね。
それを無視しないにしてもちょっとだけずれているというようなこと、もしくは全然関係ないことを言ってしまう。
例えば、ちょっと違うとは思うんですけど、AIを使ってて、自分じゃなくてもいいですかね、芸能人でもいいし、著名な人で情報が公開されているような情報から集めてきたときに
AIに聞いたらそれがうまく集められませんでしたということを、ある種笑うというか、そんな悪趣味ではないと思いますけど、
それでAIって別に集められないよねっていうようなものが初期の頃にある種あったのかなと思います。
AIを検索させて正しい情報を得られないからホラーはダメだよねみたいな。
例えば歴史の事実みたいなやつで、鎌倉幕府はいつできましたかみたいな。
12:01
僕はEクリーニング1192で覚えましたけど、今はそうじゃないということは知ってますが、今何年だっていうことはちょっと覚えてないです。
っていうようなことを聞いて、ホラーできないよねっていう風にするのは、ある種牧歌的だったんだろうなと思ってます。
今覚えればね。今はそんな風じゃなくて、いかにも鎌倉幕府はこの年数でやりましたよっていう、こういう説もありますよっていう風に
3つぐらい挙げてきて、いろいろあるけど今これが有力ですよぐらい。
それが実は教科書が絶対正しいかを置いておいて、教科書的にはこうだよねっていうのとずれている可能性もあるわけです。
厄介じゃないですか。伝わりますかね。
要は1192年じゃなくて、分かんないです。1100何年かっていう時に、3つぐらいいかにも説がありそうな風にして、
実はそんな説なかったり、もしくは説がいっぱいあるから、適当に実はありませんでしたぐらいの、
鎌倉幕府がありませんでしたぐらいのものをデッチ上げることも可能だしやってくるわけですね。
しかもそれAIに意思や意図っていうのを問えないから厄介なわけです。
なんで今言ったように、これ何度も言ってますが、人がAIを使い、もしくはそのAIから人がインプットする。
逆でもいいですけどね、アウトプットして、AIでアウトプットして人がそれを解釈する。
だから結局ですね、AIを介して人がどう解釈するかっていう世界で、しかも人がそれを行動してしまうとまずいよねっていうのが、
フェイクや嘘やハルシネションというかね、そういうような話になっていくような気がします。
難しいですよ、これ。結局有効な手立てというのはなくて、それがちゃんとソースは公式はどうですかとか、
あと過度なおせっかいというか、言わなきゃいけないよねみたいな話っていうのではないのかなと。
やりすぎてはいけないのかなっていうようなふうに思いますね。
どうしようねっていうところで、僕は以前だいぶ前ですが、AIは嘘をつきますっていうようなことで、
それは嘘をつくからいいんじゃないかって思ったんです。
これは別にひねくれた話じゃなくて、まさに本質的な話で、そのAIが嘘をつくから確認しなきゃいけないですよね。
AIが精度いいから確認しなきゃいいよねっていうふうになっていったら、人間は何も見なくなりますね。
っていう意味で、ひとひねりして、じゃあ間違ってるよねっていう前提で見ますよねっていうのがいいと思っています。
でもこの感覚ってどこまで共有されるかわかんなくて、そんなこと王様に言ってもAI出してもだいたい合ってるんで、
いつも確認で10分かけるのに、1分で見て終わりですって言って。
というところに確認がちゃんとされていません。
15:02
ハルシュレンシの嘘です。こんなことは確認した人も認識してませんでしたっていうことになるわけですよね。
これはお知らせはもうございませんが、そういうふうにAIの検索結果が、嘘っていうところも吟味せずにいくと本当に影響を与えますよね。
実世界に影響を与えてますよねっていうことになりますよね。
だから自分がAIに難しいなっていうか注意しなきゃいけないのは、こういうふうに思いますよね、こういうふうに考えてますよねって言うと、
そうですよねっていうふうに寄せてきますから、そうじゃない意見を出しづらくなるから、
AI依存したり、そのAIだけでやり取りしておくと、それって違う国みたいなね。
違う国じゃないか、今。違う国か。
違ってませんかってことですけど、そういう突っ込みをできなくなるような気がします。
AIにばっかりやってるとね。
気をつけてください。
今回はそういうAIの検索、特に回答に嘘が含まれていると、人間社会に影響を与えていくと。
少なくとも今の話で一言ではないと思ってもらえればいいかなと思います。
善良で誰かのために、もしこれが本当だったらとか、自分は違うと思ってるんだけども、みたいなのがまさに問題だと。
問題って言うと怒られますけど、別にその人自身は悪くない。
だからクマの偽情報の話も、偽画像か、AI画像も、良かれと思ってっていうのが連鎖してるわけです。
わかります?
でも人の伝言とか噂とかってそういうものじゃないですか。
要は悪人というか犯人がいるわけじゃない。もちろん発した人が犯人になるかもしれないけど、
実際は個々の最適化というか関係性のところから見ると、一個一個取り出すと、
良い人であると。自分は誰かのために何かしたい。もしくは何か、もしこれが悪いことだったら良くないよねっていうような、
むしろ逆で善なんですよね。
だからその気持ちの良さや心的な優しさが実は社会に悪い影響を与えている。
ごめんなさい。だから人に優しくしなくていいですと、自分のことは考えてくださいとか、
まずいと思ったことを言わなくていいとか、そういう話じゃないですよ。それは全然誤解ですよね。
それはミスリードですね。
そうじゃなくて、その一個一個の部分は悪いことはしてないし、
その人なりに良いことをしている。要は個別最適化ってやつですね。
が全体の良い結果になるわけじゃないっていうことがまさにこの例からわかるんじゃないかなと思ったりします。
いやそれは違うよと。
18:01
個別のAI検索した結果を吟味してないのが悪いんじゃないかっていうふうなツッコミはもちろんできますよ。
だけどできます?あらゆるケースやどんなものが正しいのかどうか。
だから最近聞かないですけど、ソースですよね。URLとか出店とか出ます?って話していくと、
全部出せないんじゃないですかね。
出したところで、例えば僕自身最近見たのは統計データから持ってきた引っ張ってきましたっていうのを見てたんですけど、
これ図解しててわかりやすいけど本当にデータ合ってるみたいなのを結構見たんですけど、
それは総務省か経産省か忘れましたけど、国が出して統計で、
そのデータを引っ張ってきてその表のこの部分ですよねっていうのは割と困難だと思いました。
要はなんで困難になるかというと、ここの表ですよっていうふうにAIが言ってくれる可能性というか指摘してくれることもないですし、
もしかしたらあったんだけどその表が微妙にずれてて番号がこれじゃないですとか。
怪しいんですよね。で、AIに確認していってこれですかって聞いていっても、
それ本当かなっていうにはその統計の見方とかデータの見方とか統計調査自体の何を意図としているかとか、
その理解が求められるわけですよ。大変だと思いますね。
だから本当にそうすっていうかこれが本当にそのことを指しているかっていうふうに指し示し、
100%絶対すっていうことは僕も言えないんですよね。
自分が知っている範囲で得意な範囲であってもとしてもねって考えると結構怖くないですか。
その正しさっていうのも人が求めてない可能性もあるなって思ったりします。
正しさじゃなくて炎上させたり、それでPV稼ぐみたいな人は何でもいいわけですよ。
ひどいものですよね、そう考えると。
だけど、社会ってそんな人たちだけじゃないじゃないですか。っていう人はごく一部で実は、
ごく一部じゃないかもしれないですけど、そういう人たちが何かこう、
何ていうんだろうな、動かされているだけかもしれないですよね。
別に人望論では何もなく、そうかもしれないし、そうじゃないかもしれない。
多くの人はまともで、何かそんなことが起きることは稀ながら話題になっているってこともあるかもしれない。
どっちかというと、周りにいる人がダメだよね、全然できないよねとか、
変な人ばっかだよねっていうね、悪い人とかね、っていう風に生きるよりも
いいよね、こういうことできるよねっていうのをポジティブに生きたいですよね。
AIでそういう風にバグってたりするわけだから、人間が別にバグっているというかね、
間違ったりすることがあってもいいと思うんですよね。
そういう中で、どちらかというと不具合というかバグというか失敗というかね、
そういうのがありきの中での設計がいいんじゃないですかね。
21:01
だからこのハルシネーションしかり推論がね、して何か変な情報が出てきても、
そういうのもあるよねっていう風にやっぱり含んだ上で、前提で含んだ上でやっていく。
だから100%絶対合ってますってことは多分無理だと思うんです。
情報が更新されてきますよね。特に店の情報とか企業もずっとじゃないですよね。
人間がやっている限りずっとはないから変わりますよね。
変わったところで何か変な情報を拾ってきてAIが間違ったことを出すと。
それがまだ笑い話になったらまだいいけど、しれっと変わっていったときは怖いですよね。
だからAIに聞いたんだけどっていうのは結構注意が必要ですよね。
だからGoogle検索したんだけど出てきた結果がみたいなところで、
それを吟味しているかどうかになりますよね。
AIが出してきた結果を吟味するかどうか、そんな話も大事になってくるかなと思います。
まずちょっとこれ、今編でこれで、次の切り替えを忘れてましたけど、
ちょっと長くなったんで、今回はこれで終わりたいと思います。
ジングルでないですけど、こんなこともありますので、今回はこれで終了したいと思います。
なので、AIを使うなという話は全然ございません。
AIを使ってうまく使えばいいと思います。
その中で、自分なりにコントロールして、ちゃんと見て確認して使っていくと。
ごくごく当たり前のことを言っていますけど。
一方で、そうじゃない、もしくはそうじゃない使い方をして、
AIでこの情報によって惑わされるというと言い方は良くないですが、
それによってですね、僕もこれって大丈夫かなみたいなことの気持ちで
動かして心理で変わっていってしまう。
店が閉まってないのに、倒産するんですか閉まるんですか?
みたいな風に思ってしまう。
っていうのをAI側が勝手に生成してしまう。
だから生成ってすごいですよね。勝手に作り出しちゃうからね。
ところには注意は依然として必要だという話になります。
すみません、長くなりましたが、今回は以上となります。
四国にラジオ大橋でした。
ここまでお聞きいただきましてありがとうございました。
以上、失礼致します。