1. 先生のためのAIラジオ
  2. #01『先生、ChatGPTってなんで..
#01『先生、ChatGPTってなんで嘘つくの?』に答えられますか?
2026-04-07 19:21

#01『先生、ChatGPTってなんで嘘つくの?』に答えられますか?

ChatGPTはなぜ「もっともらしい嘘」をつくのか? 仕組みを知れば答えは一瞬で腑に落ちます。

記念すべき第1回は「生成AIの仕組み」がテーマです。生成AIの正体を「たった一言」で説明できることをご存知でしょうか。この一言が腑に落ちると、なぜ嘘をつくのか、なぜ偏った答えを出すのか、すべてが繋がって理解できるようになります。さらに、この1年でAIの性能がどれだけ跳ね上がったのか、具体的な数字でお伝えします。

後半では、生徒がAIにニックネームをつけて日々話しかけている教室の風景から見えてくるリスクについても、海外の事例を交えて考えました。先生ご自身がAIの仕組みを腹落ちさせること、それが実は最大のAIリテラシー教育になるのではないでしょうか。

生成AIの仕組み / ハルシネーション / バイアス / 擬人化 / AIリテラシー / ファクトチェック / 共通テスト

💬 コメント欄のお題

生徒からAIについて聞かれて「ちょっと困った」経験、ありませんか? エピソードをぜひコメントで教えてください!

🎙 パーソナリティ

福原将之(AI教育コンサルタント。明治図書よりAI教育の関連書3冊を出版。全国の学校・教育委員会で研修・コンサルティングを実施。守谷市「生成AI活用推進プロジェクト」外部アドバイザー)

あきお先生(中高一貫校の現職教員) 

👤 SNS

ブログ:https://kagakucafe.com

X:https://x.com/masay421

📮 お便り

ご質問・現場の体験談はこちらから:https://forms.gle/jPuVwptVSJ27XnQL7

🎨 制作協力

カバーアート:きいす(SOZO studio)

音声編集:でんすけ(Office Scene8)

#AI教育 #先生のためのAIラジオ

感想

まだ感想はありません。最初の1件を書きましょう!

サマリー

このエピソードでは、生成AIが「もっともらしい嘘」をつく理由を、その仕組みから解説します。生成AIは入力された文章の続きを予測するマシンであり、インターネット上の膨大なデータを学習することで高度な能力を獲得しましたが、内容を理解しているわけではありません。そのため、事実確認(ファクトチェック)が不可欠です。また、AIを擬人化しすぎることによる依存のリスクや、AIに感情がないことを理解し、適切な距離感を保つことの重要性についても、海外の事例を交えて議論しました。最終的に、AIはあくまでマシンであるという事実を大人が理解し、子供たちに示すことが、最大のAIリテラシー教育につながると結論づけています。

00:03
スピーカー 2
先生のためのAIラジオ
AI教育コンサルタントの福原将之と、現役高校教師、あきおです。 AI教育の専門家と現場に毎日授業している先生が、学校のAI活用を本音で話す番組です。
スピーカー 1
どうぞよろしくお願いします。
生成AIの仕組み:続きを予測するマシン
スピーカー 2
あきお先生、ChatGPTなどの生成AIが最もらしい嘘をつくこと、なんていうかご存知ですか?
あきお先生 ハルシネーションでしたっけ?
福原将之 そうですね。このハルシネーションって、AIが嘘をつくことなんですけれども、
これって人間が嘘をつく理由と、AIが嘘をつく理由って同じだと思いますか?違うと思いますか?
スピーカー 1
あきお 同じじゃないんじゃないですかね。
スピーカー 2
同じじゃない。じゃあ具体的にどこが違うか。
スピーカー 1
福原 難しいな。まあね、人間は脳で嘘をつくんだけど、生成AIは脳が持ってないんで。
聞いたことあるのは、ネットの情報から出しているので、適当につなげている、文章をつなげているなんて聞いたことありますね。
スピーカー 2
いいですね。ありがとうございます。今日はまさにその話をします。
テーマはですね、生成AIの仕組み。今日の話を聞くと、生成AIの仕組みを一言で説明できるようになります。
なぜ嘘をつくのか、なぜ偏った答え、バイアスを出すのか、仕組みが分かれば全部負に落ちるわけですね。
スピーカー 1
福原 なるほど。
スピーカー 2
ではよろしくお願いします。
スピーカー 1
福原 よろしくお願いします。
スピーカー 2
ではですね、早速ですけれども、生成AIの仕組みを一言で言います。
福原 一言。
一言で言うとですね、入力された文章の続きを予測するマシンになります。
スピーカー 1
福原 予測をしている。
スピーカー 2
はい。
スピーカー 1
福原 なるほど。
スピーカー 2
でも今一言で言いましたけど、結構分かりにくいと思いますので、これちょっと具体例を出していきたいと思います。
スピーカー 1
福原 お願いします。
スピーカー 2
あきお先生。
スピーカー 1
福原 はい。
スピーカー 2
昔々って言われたらなんて答えますか。
スピーカー 1
福原 あるところに。
スピーカー 2
そうですよね。日本人。
スピーカー 1
福原 おじいさんとおばあさんが。
スピーカー 2
これも桃太郎さんの冒頭だなーっていうのはみんなわかるので、続きを予測してたと思うんですけれども、
AIがやってることって実はこういうことなんですね。
ユーザーがですね、こういうふうに入力をしたとしたら、続きは何だろうかってことを膨大なデータから調べて、これが続きとしてふさわしいだろうってことを出しているっていう形なんですね。
元々これ何かって言うと穴埋めマシーンですね。穴埋めを考えるためのAIっていうのが発展して、今も生成AIの形になってきたと。
スピーカー 1
なるほど。
スピーカー 2
福原 この続きとか穴埋めとかを考えるのにデータとして使われてたのがインターネットのデータで、だいたい5兆後ぐらいって言われているんですけれども。
5兆後。
福原 5兆後。
スピーカー 1
5兆後。
スピーカー 2
福原 はい、そうですね。
スピーカー 1
ちょっと想像できない数。
スピーカー 2
福原 それらを学習して、こういう入力があったらその続きはこうだろうってことを学習して出してきているというのがAIの仕組みなんですね。
なので改めて一言で説明すると、入力された文章の続きを予測するマシーンという形です。
この単純に入力したものの予測をしているだけなのに、5兆後ぐらいの膨大なデータをやっていったら、なんとめちゃくちゃ頭が良くなった。
AIの進化と能力:共通テストでの驚異的な成績
スピーカー 2
具体的にどれくらい頭が良くなったのかというと、医師免許試験、司法試験にも合格できるレベル。
もちろん大学入試にもなりまして、大学入試なんか特に分かりやすいのがですね。
スピーカー 1
確か共通テストすごいらしいじゃないですか。
スピーカー 2
福原 はい、いくつだったかご存知ですか。
スピーカー 1
なんか結構満点に近い。
スピーカー 2
福原 そうですそうです。ちょっとですね、過去振り返ります。
まず2024年2月のですね、共通テストをチャットGPTのGPT4が解かせたところ。
スピーカー 1
4ね。
スピーカー 2
福原 この頃の時は頭良くなくて、66%なんですね。これ私勝ってます。
スピーカー 1
すごい。どっちがすごい。
スピーカー 2
福原 ところがですね、2025年でチャットGPTのですね、黄金が出てきた時は91%なんですね。これ去年ですね。
スピーカー 1
60から91か。それ去年ね。
スピーカー 2
福原 去年です。そして今年はどうかというとですね、今度GPT5.2シンキングが出てきまして、なんと97%。
スピーカー 1
絶対取れない。
スピーカー 2
福原 取れません。取れません。
スピーカー 1
僕の専門教科でも無理だわ。
スピーカー 2
福原 無理ですね。で、こう生成AIって割と得意不得意があってですね、割と数学が苦手だったりするんですね。
聞いたことあります。
スピーカー 2
福原 これは今度また別の時にお話ししますけれども、この苦手な数学でも安定音を取れるぐらいですね、この1年ぐらいかなり推論能力が卓越してきたというのがすごいところかなと思います。
なので進化のスピードがこれだけすごい。さらにですね、東大理さんも合格点を突破したっていう話もあります。
ハルシネーションとバイアス:仕組みから理解するAIの嘘と偏見
スピーカー 2
なので、これだけ賢いと当然話していること、聞いていること、当然中身理解していると思っちゃいますよね。
スピーカー 1
まあ、普通思うね。
スピーカー 2
福原 でも違うというのが今日の大事な話です。
福原 はい。先ほど言いましたように、AIの仕組みは入力された文章の続きを即するマシンだけなんですね。
なので、中身を理解しているわけではない、意図を理解しているわけじゃないというのがすごく大事なポイントです。
どういうことかというとですね、ハルシネーションの先ほど言ったこの嘘をつくことがあるというのも、実はこの続きを予測することを知っているとですね、つながって理解することができます。
どういうことかと言いますと、知らない情報にも確率的にありそうな続きを出してしまうんですね。
スピーカー 1
確率的な。
スピーカー 2
福原 そうです。
スピーカー 1
合いそうな続き。
スピーカー 2
福原 なので、これ本当か嘘かは判別してないんですよ。とにかく入力した文章とかですね、そういったものの続きとしてふさしいものを出しているだけで、
出したものが真か偽か、フェイクか本当かってことは全然判別していない。
そういうのが仕組みを理解していると自然と理解できると。
大事なのは、これバグじゃないんですね。もう生成AIの仕組み上、テクノロジーの仕組み上必然的に起きる。
スピーカー 1
なるほど。
スピーカー 2
福原 なので、ファクトチェックが非常に大事になると。
スピーカー 1
ファクトチェックね。よく言いますね、ファクトチェック。
スピーカー 2
福原 そうなんですよ。
福原 そんな形でハルシネーション、実はもう仕組み上絶対起こるんですけど、
あきお先生、ハルシネーションとか、あるいはバイアスですね、そういったものを感じたご経験ってありますか?
でも、最近あんまないかな。
福原 うんうんうん。
スピーカー 1
でも、一昨年ぐらいから使い始めたんですが、一昨年ぐらいは結構間違ってること。
スピーカー 2
福原 その時のことを覚えてます?どんな間違いか。
スピーカー 1
例えば僕、自分についてエゴサーチをチャッピーに聞いたことありますけど、
全く嘘800を比べられて、なんじゃこれっていうのは覚えてますかね。
福原 自分自身に関しては今もハルシネーションを起こすのかもしれないんですけれども、
実際に調べ物をしている時に明らかにおかしいなってことは、最近はないですからね。
スピーカー 2
なるほど、もちろんハルシネーションが起こさないようにAIっていうのはどんどんテクノロジーが進化していっているので少ないんですけれども、
実はそれでもまだハルシネーションがいくつか起こるということがあります。
例えばこの話はちょっと今日の仕組みの話とかずれてしまいますので、
次回のファクトチェックの時のお話にお話ししたいかなと思います。
スピーカー 1
福原 なるほど。
スピーカー 2
ちょっと伝え忘れてたところでバイアスの話もありますね。
スピーカー 1
福原 バイアスね。
スピーカー 2
バイアス。
スピーカー 1
福原 それもよく聞く言葉ですね。
スピーカー 2
どんなふうに理解されてますか。
スピーカー 1
福原 やっぱりネットに上がっている情報って結構バイアスかかってるんじゃないですかね。
スピーカー 2
そうですそうです。
スピーカー 1
福原 なんか否定的なことだったりだとかがやっぱりよく上がっていることがあるんで、そっちに寄せられちゃうみたいなそんなようなイメージですか。
スピーカー 2
そうですそうです。
インターネット上のデータを使って続きを予測しているので、インターネット上の偏見とかバイアスとかそういったものが確率的に正しいものとして考えて出してしまうので、自然とバイアスが出てくるという形になります。
具体的にどういうところでバイアスを感じるのかというと、わかりやすい例で言うと画像生成AIで看護師の絵を描いてというと女性が出てきたりとか、エンジニアの絵を出してというと男性が出てきたりとか、こういったところにも身近でわかりやすい例かなと思います。
スピーカー 1
福原 やっぱりそうなのか。
スピーカー 2
そうですね。昨日ぐらいジェミニで試してみましたけども。
スピーカー 1
福原 看護師ってやっぱ女性。
スピーカー 2
女性になりますね。というところになります。
なんですけどもこのハルシネーションとバイアス両方ともですね、生成AIの仕組みとして続きを遅くするマシンということを理解しておくとつながって、続きを遅くしてるんだから知らなくても嘘を出すことがあるような。
スピーカー 1
インターネット上のデータから続きを遅くしているので、インターネット上の偏見を今のように出すことがあるようなっていうふうにつなげて理解するというのがとっても大事なことになります。
AIの擬人化:依存のリスクと悲劇的な事例
今日先生今話して言ったんですけども先生、たしかチャッピーっておっしゃっていましたよね。
スピーカー 1
福原 言っちゃってましたね。
スピーカー 2
言っちゃってましたよね。
AIってマシンなんですけどやっぱりチャッピーで擬人化しちゃっていますよね。
スピーカー 1
福原 なんかね、いい感じじゃないチャットGPTだからチャッピーって。
スピーカー 2
そうそうそうそう、なるんですけど。
スピーカー 1
福原 生徒はもうほぼみんなチャッピーって言ってますね。
スピーカー 2
本当ですか。でも実はそこが結構怖いことなんですね。
スピーカー 1
福原 なるほど。
スピーカー 2
そんなお話をしてきたいと思います。
スピーカー 1
じゃあいけない
スピーカー 2
入れていきましょうか どういうことかというとですね
擬人化してしまっているという 形ですねそうするとどういうこと
があるのかというと依存のリスク が出てきてしまうとまずチャッピー
って擬人化してしまっていろいろ 相談とかをしているとそもそも
ファクトチェックをするっていう 意識すらまずなくなっていくっていう
のが問題一つですね
スピーカー 1
なんかでも生徒結構人生 相談してる生徒いますけどね最近
スピーカー 2
チャッピー
非常にいい使い方でもあり 危険な論点でもあるんです
スピーカー 1
ですよね
スピーカー 2
どういうことかという とやはりこの客観的に相談できる
ツールとして今までないツール なので子どもたちが自分の人生
を考えるときに非常にいいツール ではあるのは間違いないんです
がそこにですね依存とかにつなが ってしまうのがやっぱり危険なんです
なので相談しつつもいい距離感 を持つことが理想なんですけれども
スピーカー 1
距離感大事ね人間関係と一緒 だね
スピーカー 2
そうですそうですでこの 依存のリスクがどんなのがある
のかっていうのをちょっとですね 怖い話にはなってしまうんですけ
れどもやしていきたいかなという ふうに思います
スピーカー 1
なんでしょう
スピーカー 2
2024年2月にあったアメリカの事例
になります
スピーカー 1
一昨年
スピーカー 2
キャラクターAIっていう ですねキャラクターになりきった
AIと会話ができるチャットサービス があるんですけれどもAIキャラクター
とアメリカの14歳の少年がチャット を日々やってきた中で感情的な
つながりを感じてしまっていて どういうふうになってきたのか
と結局自分の命を断つ悲しい事件 があったんですねでこのですね
最後のやりとりがですねi promise i will come home to you君のところに
帰るよっていうふうに少年がチャット で打ったところAIはplease come home
to meはい帰ってきてっていうふう に答えたんですねこれは普通に
家に帰るよというような言葉だったら いいんですけれどもこれ実は別の
ニュアンスの言葉としてcome home go homeとかで死ぬっていう意味があるんですね
英語でそれで少年はそういうふう に受け取って最後自殺をしてしまった
とでもこれはAIにとっては通気を 測するマシンなので君のところ
に帰るよはい帰ってきてっていう 非常に自然になっているのでそう
いうふうに出力したんですがそこを やっぱり理解をしてなくてgo
homeっていうのは死ぬっていうこと だって死を意味するっていうこと
を理解してなくて出してきたもの を少年は死ぬことを後押しされた
と感じて自殺をしてしまったという 部分になりましてここは二重の
意味としてあるとAIはもともな しい続きを返しているだけれども
結果として悲しい結末になって しまったということですなので
大事な点は2点として仕組みをまず 知っておくとそういうことがあった
時にこういうことだったので理解 できるってことときちっと擬人化
をせずに依存をしないでいるっていう 適切な距離感を持つっていうこと
が非常に重要になりますなので これは仕組みを理解してたら防げた
AIリテラシー教育:大人の役割と子供への伝え方
スピーカー 2
ケースかなというところですね じゃあどうやって子どもたちに
このAIは感情がないものだっていう のをどういうふうに伝えるのか
っていうとやっぱり一番は先生が どういうふうにAIを触れてるのか
接してるのかっていう態度を先生 だけじゃなくて大人もあるんですけど
大人がどういうふうにAIを扱 っていくのかっていったところ
でやっぱりこれはAIはAIなんだ 人じゃないんだ感情があるもの
じゃないんだっていうことを先生 自身が腹打ちをしてその姿やっぱり
スピーカー 1
見せることが実は非常に大事な ことなんだよっていうお話になります
スピーカー 2
なので先生情報科の先生なんですけ れどもこれ情報科だけの問題じゃ
なくて他の科目で先生AIを普段 で使うことがこれからどんどん
増えていくと思うんですけれども そのときにAIを擬人化してしまう
ような態度を先生がやっぱり取 ってしまっているとAI教育として
は非常に良くないという形なので しっかり先生自身が腹落ちして
AIっていうのは続きを即するマシン なんだ感情とか正しいと間違ってる
とか判断する力がないんだなって ことを理解しておくというのが
スピーカー 1
非常に大事になるというわけになります なるほどよくわかりました
スピーカー 2
ちょっと今日怖い話をしたん
ですけれどもこういう話をします とじゃあ子供からAIを遠ざけよう
っていうふうに意見も出てくるんです けれども明雄先生はどう思います
スピーカー 1
か 明雄 まずは使ってみないと良さも
悪さもわからないからあんまり 危ないから使わせないっていう
のはちょっと良くないかなって 僕自身は思います
スピーカー 2
そうなんですよね結局 snsの議論とかでもありますけれども
スピーカー 1
明雄 何でもありますよね
スピーカー 2
その部分で守る分としては それはいいんですけども結局禁止
をしてそれで終わってそのまま 学校卒業して自由になったところ
で使うと結局また先延ばしにして そこで危険が起こってしまうので
きちっとコントロールするにしても そこからきちっと育てていくAI
リテラシーメディアリテラシー を学んでいく環境を整備していく
のが非常に重要かなというふう に考えております
スピーカー 1
同感です
スピーカー 2
でもこれ実際ですね擬人化 してしまうっていう問題は非常に
大きな社会問題にも実はなって いまして子供だけの問題じゃない
と大人でもよく起こってまして 例えばAI彼氏AI彼女みたいなサービス
とかも出てきたりとか
聞いたことありますね
あとはこの間ニュース で見てきたらAIと結婚しました
っていう
スピーカー 1
なんじゃそれ
スピーカー 2
出てきて
スピーカー 1
結婚しちゃったの
スピーカー 2
私ですね
スピーカー 1
あらまあ
スピーカー 2
なので私たち日本人 はドラえもんとか鉄腕アトム
とかって言って心のこととかも なってきますんですけども今の
段階ではAIは心は持たないっていう ふうに言ってきちっとマシーン
だっていう理解をしてきますけど 社会の変化によっては今後そう
いった考え方もやっぱり変わって AI人権とかにも出てくるかなという
気もしています
スピーカー 1
ドラえもんって結局でもAI ですよね
スピーカー 2
AIですAIです
スピーカー 1
完全なAIですよね
スピーカー 2
AIです
スピーカー 1
じゃドラえもんも同じなの かな
スピーカー 2
仕組みですか
スピーカー 1
仕組み仕組みどうなんだろう
スピーカー 2
これすごく話は脱するんですけれども
スピーカー 1
ちょっとした疑問
スピーカー 2
AIと心の話は結構面白 くて一本番組撮れるなっていう
ふうに思っているぐらいなんですけ れども私結構思うのがこのAI
が人間に近づいたかどうかを判断 するチューリングテストっていう
のがありましてどういうことか というとブラックボックスが2つ
あって片方は人間が対応して片方 がAIが対応してるそのときにどっち
がAIでどっちが人間かって区別 できなくなったらそうなったという
部分なんですけどぶっちゃけこの テストで言うともうAI超えてる
と思うんですね
スピーカー 1
なるほど
スピーカー 2
なるんです形なのでそう AIと人間で区別はつかないところ
までになってきてるかなっていう ふうに思ってきますしまたちょっと
この番組でもAIと心とかAIとロボット の話については掘り下げてですね
お話できたらなというふうに思 っていきたいと思います
スピーカー 1
よろしくお願いします
スピーカー 2
じゃあ仕組みの話を生徒 にしたことってあります
スピーカー 1
もちろんハルシネーション については最初に使うところで
話をしますそしてさっきちょっと 出たファクトチェック必ずしましょう
という話は必ずするようにしています 仕組みについてはあまり詳しく
は話してはいないかな
スピーカー 2
ありがとうございます今のは 高校生のお話
スピーカー 1
高校生ですね
スピーカー 2
今回の事例ずっと14歳の少年 になってくるのでどんどんどんどん
AIは社会に浸透して例えばブラウザ でスマホで検索をしたらAIが答え
を出してきたりとか本当に身近に 出てきていますのでこのAIとの
距離感というのはできるだけ早く 子供たちに伝えておく大事なこと
だと思いますなので総合学習の 授業などで触れたりとかあとリスナー
の皆さん小学校の先生がいらっしゃ いましたら小学校の中でそうい
ったAIのことを伝えていくという のは非常に大事なディティラシー
教学になるかなと思っています 情報科だけの話じゃなくて国語
でも理科でも生徒がAIを使う場面 はどんどん増えてきていますので
その際に先生がしきちっと腹打ち をしてAIとの付き合い方とか振る
舞い方を見せていくというのが 非常に大事かなと思っています
あっという間にお時間となって しまいましたが今日のお話をあえて
一つに絞ってまとめるとするなら AIはマシーンであるこの一点を
子供たちにしっかりと腹打ちさせる ことが最大のAIリテラシー教育
につながるということですね
スピーカー 1
本当にそう思いますね特に日本 はドラえもんという文化があって
AIを擬人化するというところが 根強くあると思うので気をつけ
たいところですね
スピーカー 2
さて、あきお先生、今日の放送を振り 返って全国の先生方へ最後に一言
メッセージをお願いできますか
スピーカー 1
そうですねまずは先生方ご自身 が使ってみるということがすごく
大事だと思います実際に触れて みて仕組みを知り気をつけるべき
点を知るそれが正しいリテラシー につながっていくと思います
ぜひ恐れずに第一歩を踏み出して みてほしいです
スピーカー 2
まずは大人が背中を見せていく ということですねあきお先生力強い
メッセージをありがとうございます
番組からのお知らせとメッセージ
スピーカー 2
先生のためのAIラジオ
さて番組からのお知らせですこの 番組では先生からのAIに関する
質問も募集しています今回のテーマ は生徒からAIについて聞かれて
ちょっと困ってしまった経験ありません か例えば生徒がAIを擬人化していて
少し気になったなど現場のリアル なエピソードをお待ちしています
学校でのちょっとした出来事ぜひ 教えてくださいねお便りは番組
概要欄にあるgoogleフォームのリンク からお送りいただけます皆さん
からのメッセージお待ちしています もし番組が少しでも役に立った
また聞きたいと思っていただけ ましたらぜひ番組のフォローそして
スピーカー 1
高評価で応援していただけると嬉しい ですこれからの番組作りの励み
になりますので応援よろしくお願いします
スピーカー 2
先生のためのAIラジオこの番組 は毎週火曜朝6時に配信しています
就勤時間や朝の準備のお供にぜ ひまた聞いてくださいねお相手
はAI教育コンサルタントの福原 将之とあきお先生でしたそれでは
先生方今日も良い一日をまた来週 行ってらっしゃい
19:21

コメント

スクロール