-
-
スピーカー 2
なので、これだけ賢いと当然話していること、聞いていること、当然中身理解していると思っちゃいますよね。
スピーカー 1
まあ、普通思うね。
スピーカー 2
福原 でも違うというのが今日の大事な話です。
福原 はい。先ほど言いましたように、AIの仕組みは入力された文章の続きを即するマシンだけなんですね。
なので、中身を理解しているわけではない、意図を理解しているわけじゃないというのがすごく大事なポイントです。
どういうことかというとですね、ハルシネーションの先ほど言ったこの嘘をつくことがあるというのも、実はこの続きを予測することを知っているとですね、つながって理解することができます。
どういうことかと言いますと、知らない情報にも確率的にありそうな続きを出してしまうんですね。
スピーカー 1
確率的な。
スピーカー 2
福原 そうです。
スピーカー 1
合いそうな続き。
スピーカー 2
福原 なので、これ本当か嘘かは判別してないんですよ。とにかく入力した文章とかですね、そういったものの続きとしてふさしいものを出しているだけで、
出したものが真か偽か、フェイクか本当かってことは全然判別していない。
そういうのが仕組みを理解していると自然と理解できると。
大事なのは、これバグじゃないんですね。もう生成AIの仕組み上、テクノロジーの仕組み上必然的に起きる。
スピーカー 1
なるほど。
スピーカー 2
福原 なので、ファクトチェックが非常に大事になると。
スピーカー 1
ファクトチェックね。よく言いますね、ファクトチェック。
スピーカー 2
福原 そうなんですよ。
福原 そんな形でハルシネーション、実はもう仕組み上絶対起こるんですけど、
あきお先生、ハルシネーションとか、あるいはバイアスですね、そういったものを感じたご経験ってありますか?
でも、最近あんまないかな。
福原 うんうんうん。
スピーカー 1
でも、一昨年ぐらいから使い始めたんですが、一昨年ぐらいは結構間違ってること。
スピーカー 2
福原 その時のことを覚えてます?どんな間違いか。
スピーカー 1
例えば僕、自分についてエゴサーチをチャッピーに聞いたことありますけど、
全く嘘800を比べられて、なんじゃこれっていうのは覚えてますかね。
福原 自分自身に関しては今もハルシネーションを起こすのかもしれないんですけれども、
実際に調べ物をしている時に明らかにおかしいなってことは、最近はないですからね。
スピーカー 2
なるほど、もちろんハルシネーションが起こさないようにAIっていうのはどんどんテクノロジーが進化していっているので少ないんですけれども、
実はそれでもまだハルシネーションがいくつか起こるということがあります。
例えばこの話はちょっと今日の仕組みの話とかずれてしまいますので、
次回のファクトチェックの時のお話にお話ししたいかなと思います。
スピーカー 1
福原 なるほど。
スピーカー 2
ちょっと伝え忘れてたところでバイアスの話もありますね。
スピーカー 1
福原 バイアスね。
スピーカー 2
バイアス。
スピーカー 1
福原 それもよく聞く言葉ですね。
スピーカー 2
どんなふうに理解されてますか。
スピーカー 1
福原 やっぱりネットに上がっている情報って結構バイアスかかってるんじゃないですかね。
スピーカー 2
そうですそうです。
スピーカー 1
福原 なんか否定的なことだったりだとかがやっぱりよく上がっていることがあるんで、そっちに寄せられちゃうみたいなそんなようなイメージですか。
スピーカー 2
そうですそうです。
インターネット上のデータを使って続きを予測しているので、インターネット上の偏見とかバイアスとかそういったものが確率的に正しいものとして考えて出してしまうので、自然とバイアスが出てくるという形になります。
具体的にどういうところでバイアスを感じるのかというと、わかりやすい例で言うと画像生成AIで看護師の絵を描いてというと女性が出てきたりとか、エンジニアの絵を出してというと男性が出てきたりとか、こういったところにも身近でわかりやすい例かなと思います。
スピーカー 1
福原 やっぱりそうなのか。
スピーカー 2
そうですね。昨日ぐらいジェミニで試してみましたけども。
スピーカー 1
福原 看護師ってやっぱ女性。
スピーカー 2
女性になりますね。というところになります。
なんですけどもこのハルシネーションとバイアス両方ともですね、生成AIの仕組みとして続きを遅くするマシンということを理解しておくとつながって、続きを遅くしてるんだから知らなくても嘘を出すことがあるような。
スピーカー 1
インターネット上のデータから続きを遅くしているので、インターネット上の偏見を今のように出すことがあるようなっていうふうにつなげて理解するというのがとっても大事なことになります。
今日先生今話して言ったんですけども先生、たしかチャッピーっておっしゃっていましたよね。
スピーカー 1
福原 言っちゃってましたね。
スピーカー 2
言っちゃってましたよね。
AIってマシンなんですけどやっぱりチャッピーで擬人化しちゃっていますよね。
スピーカー 1
福原 なんかね、いい感じじゃないチャットGPTだからチャッピーって。
スピーカー 2
そうそうそうそう、なるんですけど。
スピーカー 1
福原 生徒はもうほぼみんなチャッピーって言ってますね。
スピーカー 2
本当ですか。でも実はそこが結構怖いことなんですね。
スピーカー 1
福原 なるほど。
スピーカー 2
そんなお話をしてきたいと思います。
スピーカー 1
じゃあいけない
スピーカー 2
入れていきましょうか どういうことかというとですね
擬人化してしまっているという 形ですねそうするとどういうこと
があるのかというと依存のリスク が出てきてしまうとまずチャッピー
って擬人化してしまっていろいろ 相談とかをしているとそもそも
ファクトチェックをするっていう 意識すらまずなくなっていくっていう
のが問題一つですね
スピーカー 1
なんかでも生徒結構人生 相談してる生徒いますけどね最近
スピーカー 2
チャッピー
非常にいい使い方でもあり 危険な論点でもあるんです
スピーカー 1
ですよね
スピーカー 2
どういうことかという とやはりこの客観的に相談できる
ツールとして今までないツール なので子どもたちが自分の人生
を考えるときに非常にいいツール ではあるのは間違いないんです
がそこにですね依存とかにつなが ってしまうのがやっぱり危険なんです
なので相談しつつもいい距離感 を持つことが理想なんですけれども
スピーカー 1
距離感大事ね人間関係と一緒 だね
スピーカー 2
そうですそうですでこの 依存のリスクがどんなのがある
のかっていうのをちょっとですね 怖い話にはなってしまうんですけ
れどもやしていきたいかなという ふうに思います
スピーカー 1
なんでしょう
スピーカー 2
2024年2月にあったアメリカの事例
になります
スピーカー 1
一昨年
スピーカー 2
キャラクターAIっていう ですねキャラクターになりきった
AIと会話ができるチャットサービス があるんですけれどもAIキャラクター
とアメリカの14歳の少年がチャット を日々やってきた中で感情的な
つながりを感じてしまっていて どういうふうになってきたのか
と結局自分の命を断つ悲しい事件 があったんですねでこのですね
最後のやりとりがですねi promise i will come home to you君のところに
帰るよっていうふうに少年がチャット で打ったところAIはplease come home
to meはい帰ってきてっていうふう に答えたんですねこれは普通に
家に帰るよというような言葉だったら いいんですけれどもこれ実は別の
ニュアンスの言葉としてcome home go homeとかで死ぬっていう意味があるんですね
英語でそれで少年はそういうふう に受け取って最後自殺をしてしまった
とでもこれはAIにとっては通気を 測するマシンなので君のところ
に帰るよはい帰ってきてっていう 非常に自然になっているのでそう
いうふうに出力したんですがそこを やっぱり理解をしてなくてgo
homeっていうのは死ぬっていうこと だって死を意味するっていうこと
を理解してなくて出してきたもの を少年は死ぬことを後押しされた
と感じて自殺をしてしまったという 部分になりましてここは二重の
意味としてあるとAIはもともな しい続きを返しているだけれども
結果として悲しい結末になって しまったということですなので
大事な点は2点として仕組みをまず 知っておくとそういうことがあった
時にこういうことだったので理解 できるってことときちっと擬人化
をせずに依存をしないでいるっていう 適切な距離感を持つっていうこと
が非常に重要になりますなので これは仕組みを理解してたら防げた
スピーカー 2
ケースかなというところですね じゃあどうやって子どもたちに
このAIは感情がないものだっていう のをどういうふうに伝えるのか
っていうとやっぱり一番は先生が どういうふうにAIを触れてるのか
接してるのかっていう態度を先生 だけじゃなくて大人もあるんですけど
大人がどういうふうにAIを扱 っていくのかっていったところ
でやっぱりこれはAIはAIなんだ 人じゃないんだ感情があるもの
じゃないんだっていうことを先生 自身が腹打ちをしてその姿やっぱり
スピーカー 1
見せることが実は非常に大事な ことなんだよっていうお話になります
スピーカー 2
なので先生情報科の先生なんですけ れどもこれ情報科だけの問題じゃ
なくて他の科目で先生AIを普段 で使うことがこれからどんどん
増えていくと思うんですけれども そのときにAIを擬人化してしまう
ような態度を先生がやっぱり取 ってしまっているとAI教育として
は非常に良くないという形なので しっかり先生自身が腹落ちして
AIっていうのは続きを即するマシン なんだ感情とか正しいと間違ってる
とか判断する力がないんだなって ことを理解しておくというのが
スピーカー 1
非常に大事になるというわけになります なるほどよくわかりました
スピーカー 2
ちょっと今日怖い話をしたん
ですけれどもこういう話をします とじゃあ子供からAIを遠ざけよう
っていうふうに意見も出てくるんです けれども明雄先生はどう思います
スピーカー 1
か 明雄 まずは使ってみないと良さも
悪さもわからないからあんまり 危ないから使わせないっていう
のはちょっと良くないかなって 僕自身は思います
スピーカー 2
そうなんですよね結局 snsの議論とかでもありますけれども
スピーカー 1
明雄 何でもありますよね
スピーカー 2
その部分で守る分としては それはいいんですけども結局禁止
をしてそれで終わってそのまま 学校卒業して自由になったところ
で使うと結局また先延ばしにして そこで危険が起こってしまうので
きちっとコントロールするにしても そこからきちっと育てていくAI
リテラシーメディアリテラシー を学んでいく環境を整備していく
のが非常に重要かなというふう に考えております
スピーカー 1
同感です
スピーカー 2
でもこれ実際ですね擬人化 してしまうっていう問題は非常に
大きな社会問題にも実はなって いまして子供だけの問題じゃない
と大人でもよく起こってまして 例えばAI彼氏AI彼女みたいなサービス
とかも出てきたりとか
聞いたことありますね
あとはこの間ニュース で見てきたらAIと結婚しました
っていう
スピーカー 1
なんじゃそれ
スピーカー 2
出てきて
スピーカー 1
結婚しちゃったの
スピーカー 2
私ですね
スピーカー 1
あらまあ
スピーカー 2
なので私たち日本人 はドラえもんとか鉄腕アトム
とかって言って心のこととかも なってきますんですけども今の
段階ではAIは心は持たないっていう ふうに言ってきちっとマシーン
だっていう理解をしてきますけど 社会の変化によっては今後そう
いった考え方もやっぱり変わって AI人権とかにも出てくるかなという
気もしています
スピーカー 1
ドラえもんって結局でもAI ですよね
スピーカー 2
AIですAIです
スピーカー 1
完全なAIですよね
スピーカー 2
AIです
スピーカー 1
じゃドラえもんも同じなの かな
スピーカー 2
仕組みですか
スピーカー 1
仕組み仕組みどうなんだろう
スピーカー 2
これすごく話は脱するんですけれども
スピーカー 1
ちょっとした疑問
スピーカー 2
AIと心の話は結構面白 くて一本番組撮れるなっていう
ふうに思っているぐらいなんですけ れども私結構思うのがこのAI
が人間に近づいたかどうかを判断 するチューリングテストっていう
のがありましてどういうことか というとブラックボックスが2つ
あって片方は人間が対応して片方 がAIが対応してるそのときにどっち
がAIでどっちが人間かって区別 できなくなったらそうなったという
部分なんですけどぶっちゃけこの テストで言うともうAI超えてる
と思うんですね
スピーカー 1
なるほど
スピーカー 2
なるんです形なのでそう AIと人間で区別はつかないところ
までになってきてるかなっていう ふうに思ってきますしまたちょっと
この番組でもAIと心とかAIとロボット の話については掘り下げてですね
お話できたらなというふうに思 っていきたいと思います
スピーカー 1
よろしくお願いします
スピーカー 2
じゃあ仕組みの話を生徒 にしたことってあります
スピーカー 1
もちろんハルシネーション については最初に使うところで
話をしますそしてさっきちょっと 出たファクトチェック必ずしましょう
という話は必ずするようにしています 仕組みについてはあまり詳しく
は話してはいないかな
スピーカー 2
ありがとうございます今のは 高校生のお話
スピーカー 1
高校生ですね
スピーカー 2
今回の事例ずっと14歳の少年 になってくるのでどんどんどんどん
AIは社会に浸透して例えばブラウザ でスマホで検索をしたらAIが答え
を出してきたりとか本当に身近に 出てきていますのでこのAIとの
距離感というのはできるだけ早く 子供たちに伝えておく大事なこと
だと思いますなので総合学習の 授業などで触れたりとかあとリスナー
の皆さん小学校の先生がいらっしゃ いましたら小学校の中でそうい
ったAIのことを伝えていくという のは非常に大事なディティラシー
教学になるかなと思っています 情報科だけの話じゃなくて国語
でも理科でも生徒がAIを使う場面 はどんどん増えてきていますので
その際に先生がしきちっと腹打ち をしてAIとの付き合い方とか振る
舞い方を見せていくというのが 非常に大事かなと思っています
あっという間にお時間となって しまいましたが今日のお話をあえて
一つに絞ってまとめるとするなら AIはマシーンであるこの一点を
子供たちにしっかりと腹打ちさせる ことが最大のAIリテラシー教育
につながるということですね
スピーカー 1
本当にそう思いますね特に日本 はドラえもんという文化があって
AIを擬人化するというところが 根強くあると思うので気をつけ
たいところですね
スピーカー 2
さて、あきお先生、今日の放送を振り 返って全国の先生方へ最後に一言
メッセージをお願いできますか
スピーカー 1
そうですねまずは先生方ご自身 が使ってみるということがすごく
大事だと思います実際に触れて みて仕組みを知り気をつけるべき
点を知るそれが正しいリテラシー につながっていくと思います
ぜひ恐れずに第一歩を踏み出して みてほしいです
スピーカー 2
まずは大人が背中を見せていく ということですねあきお先生力強い
メッセージをありがとうございます