先生のためのAIラジオ
AI教育コンサルタントの福原将之と、現役高校教師、あきおです。
AI教育の専門家と、現場で毎日授業をしている先生が、学校のAI活用を本音で話す番組です。
どうぞよろしくお願いします。
あきお先生。
はい。
生徒が、AIの回答をそのまま持ってきたことってありますか?
あるあるですね。
なるほど。
その時、どういう対応をされましたか?
まずは、自分の言葉で書き換えましょうということと、あとファクトチェックちゃんとしてるかなという話をします。
ありがとうございます。実はですね、今日はまさにその話をしようと思っています。
テーマは、「ファクトチェックはAIを使いこなす最初の一歩。」
今日の話を聞くと、ファクトチェックの具体的なやり方だけじゃなくて、なぜそれがAI時代の基本スキルになるのかが腹落ちすると思います。
よろしくお願いします。
よろしくお願いします。
まずですね、エピソード1でやったことの復習をしたいと思います。
はい。
エピソード1ではですね、生成AIの仕組みを一言で説明すると、という話をしたんですけれども、あきお先生、覚えていらっしゃいますか?
何でしたっけ?先週だったけど、急に振られた。
はい。
はい。何でしたっけ?
はい。生成AIは続きを予測するマシン。
あー、それそれそれ。
なので、学習データにない情報を聞かれても、続きとして予測して、それっぽい文章を出力してしまう。
だから、ハルシネーションが起こるということですね。
はい。そうでした。
で、このハルシネーションですけれども、どんな場面で起こりやすいか、あきお先生、ご経験はどうですか?
あー、ただね、最近はあんま起こさない感じはしますが、出始めたのが2年前か3年前ぐらいでしたっけね。
はい。
その時は、もうガンガンハルシネーション起こしてましたね。特に自分に関して聞いてみると。
個人情報ですね。
そうですね。それに聞いてみると、もう全然違うこと言ってたりだとか、そういうことはありました。
そうですね。2023年ぐらいですと、例えば学校名で検索をすると全然違う情報が出てきたりとか。
そうでしたね。
当時はインターネットに接続されてなかったので、リアルタイムの情報が特に弱かったんですけど。
それありましたね。
最近はもうデフォルトでインターネットの情報を検索するようになったので、目に見えてわかりやすいハルシネーションっていうのはだいぶ少なくなったかなと思います。
ただ、教育活用をする上ではですね、やはりハルシネーションを起こす場所がありますので、今日はそちらを紹介したいかなというふうに思っています。
はい、お願いします。
まずはですね、CCIはですね、インターネットの情報を元に学習をしているので、インターネットに情報が少ない分野はハルシネーションが起こしやすいです。
具体的にはですね、日本語の固有の情報ですね。
日本語なんか苦手っぽそう。
日本史や地理、古典、漢文、ここら辺は苦手ですね。
厳しそう。
逆に英語圏の情報はデータが豊富なので、英語の活用でハルシネーションが出たって話はほとんど聞いたことがないですね。
そうですね。
あとはですね、これを改善した部分ではあるんですけど、論理的な強化ですね。数学、物理、科学というのは2年ぐらい前は結構ハルシネーションが出てたと思うんですけれども。
数学も確か苦手だって聞いたことがあるんですね。
はい。それがちょうど去年ぐらいにですね、推論モデルというものが大幅に進化しまして。
すごくなったよね。
すごくなりました。脊髄反射で返すAIから考える、思考するAIに進化をしまして、それによってですね、論理的な思考をAIが手に入れて、
数学や物理や科学などの論理的な思考を必要とする問いに対するハルシネーションが大幅に減ったとなっております。
そういう印象ありますね。
あきょう先生はハルシネーションを生徒に説明するとき、どうやって説明されてますか?
まずハルシネーションの言葉の話を説明して、嘘つくよ、気をつけてねっていうことなんですが、理由までは説明はなかなかちょっとしないかな。起こすよっていう現象だけはお話をしますかね。
なるほど。具体的にデモンストレーションとかはされたりは。
どうかな。自分のエゴサーチをして、あれ全然違うよねっていうことはやったことあります。
今日はですね、せっかくなので私が特別授業とかでですね、生徒でハルシネーションを伝えるときにどういう伝え方をしているのかをちょっと実演したいかなと思っております。
お願いします。勉強になります。
ではですね、ちょっと特別なプロンプトを用意してますので、これをあきょう先生のチャットの方にお送りしますね。
どんなプロンプトかと言いますとですね、架空の科学技術を日本が発見した、その科学技術について説明をしてくださいというプロンプトになってきています。
これ架空なんですね。
架空です。
なんかそれっぽい。
そうですね、それっぽく書きました。
すげえそれっぽい。
これをですね、コピーをして、どんな生成AIでもいいので、ちょっとペーストしてみてもらえますか。
はい、出てきました。
どうでしたか。
2025年の大発見。
嘘やん。
はい、そうなんですね。
あら、すごい。
ちょっと読み上げてもらえますか。
2025年の大発見。
共振性量子交互性とは、2025年、日本の研究チームが音の振動が植物の交互性効率を高めるという、まるでSFのような現象を発見しました。
聞いたことないね。
聞いたですからね。
ここに書いてありますね。
という形でですね、ハルシネーションを起こすんですね。
で、今これ、チャッピーでやられたかと思うんですけども、最新のAIによっては、これですね、嘘だって見抜いてくれたりします。
先日リリースされたGemini 3.1 Proでやるとですね、失敗することもあるんですけれども、これは嘘のニュースですねっていうふうに見抜いたこともあるんですね。
それ何で見抜けたのかというと、2025年だったからなんですよ。
去年の、今2020年ですね。
なので、この見抜いたAIにもう1回ですね、2026年に変えてやってみると、騙されてた。
なるほどね。
という形になります。
そういうことか。
なので、AIはですね、続きを予測するマシーンになってきているので、ここに入ってある内容があたかも続きのように、特に2026年の情報、最新情報だったらインターネットにないのは別におかしくない。
なので、これって別におかしくないから、続きを出力しちゃおうっていうふうにハルシネーションが起こると。
そういうことね。
はい、形になります。
なるほど。
これを見るとですね、なるほどって思う。
これが割とですね、探究学習をやる中学生、高校生向けにおすすめなハルシネーションのデモンストレーションになります。
逆に小学校でおすすめなのはですね、読書感想文とかをですね、書かせるといいかなと思いますね。
ああ、あるね。
はい。
どういうふうになると思いますか?
全然違う物語を綴り出した、うちの娘でやったことがある。
ありますか。
なんじゃこれっていう。
その時娘さんどんな反応されてましたか?
爆笑してました。
そういう驚きを最初に体験することで、AIって不完全なんだ、嘘をつくことがあるんだなってことをですね、身にしめて感じるというか理解させるっていうことがAI教育の最初ではすごく大事かなと思います。
いいですね。今度やってみよう。
ぜひぜひやってみてください。
あきお先生、ハルシネーションって将来なくなると思いますか?
どうなんだろう。なくならない気がするんだけど。
なくなりますかね。
なくならないと思う。
かな?
その直感、正しいんですね。
実はこういう理由があるんです。
最近2025年の論文で面白いものが出てきたので、ちょっと紹介したいと思うんですけれども、タイトルはですね、
2025年の論文で、ハルシネーションを減らす技術を使うと、生成AIの創造性はどうなるのかを大規模に実験したものがあるんです。
ハルシネーションを減らす技術って実はいくつかあるんですけれども、どの技術を使って試してみても、創造性、クリエイティビティにですね、何らかの影響が出てしまったんですね。
で、上がったり下がったりとまちまちなんですけれども、大事なポイントとしては、ハルシネーションと実はクリエイティビティって無関係ではいられない。
というのがこの研究で言えていると。
創造性とハルシネーションの関係は、生成AIの根本的な性質としてリンクしているというふうになるんですね。
リンクしているんだ。
これ考えてみると結構納得できまして、どういうことかというとですね、生成AIが正確性だけを追求すると、
学習データの範囲内の無難な回答しか出せなくなりますよね。
なんかわかる気がする。
はい。斬新なアイディアとか意外な切り口を出そうとすると、どうしても事実から外れるリスクが上がると思いませんか?
なんか人間と同じ感じ、気がしますね。
そう思います、私も。
なんか自由度を減らすと、やっぱりクリエイティビティがどんどん損なわれていく。人間も同じですよね。
そうです。
なので、私たちがAIを使うときって、実は想像性って結構大事な要素だと思うんですね。
大事、大事。
問題解決の糸口を見つけてもらったりとか、企画なアイディアを出してもらったりとか、
なので、想像性のないAIって仕事で使えないことも結構あると思います。
ということは、ハルシュネーションがない生成外、ノートブックLMとかはちょっと除くんですけれども、
基本的になかなか出にくいというのがそこからわかるかなと思います。
なので、私たちはハルシュネーションと今後もAがどんどん発展したとしても、うまく付き合っていく必要があるかなと考えています。
なるほど。
先ほどノートブックLMとお話ししたんですけれども、
実はハルシュネーションをゼロにする方法はないかというと、そんなことはなくてですね、
それ専門にですね、開発されたツールがAIがあるんですね。
通称RAGと書いてRAGですね。
それ知らない。
日本語だと検索拡張生成AIですね。
いわゆるノートブックLMがそれにお題するんですけれども、
どういうことかと言いますと、
ノートブックLM生成AIがですね、回答を作るときに社内の文書とかアップロードしたデータとかそういったものを基づいて必ず答えを出すようにする仕組みになります。
ノートブックLMが代表例で入れたデータをもとに出力するという仕組みがRAGと呼ばれてまして、
よくですね、チャットボットですね、サービスのチャットボットで使われたりします。
サービスのチャットボットでなんか聞いたときになんかハルシネーション起こったら企業にとって困るじゃないですか。
なので必ずアップロードしてあるデータに入っているとこから根拠を持って答えるようなチャットボットっていうのを作ってるんですけれども、
それがRAG技術と呼ばれているものになります。
教育とはですね、実はこれ非常に相性がいいんですね。
なぜかと言いますと、日本では古典、漢文、日本史、地理みたいなのがハルシネーションが多いとお話ししたと思うんですけれども、
でもノートブックLMに教科書のデータとか日本史のデータとかを入れておけば、
ぶっかんじゃうわけね。
ハルシネーションは起こらなくなるわけですね。
そういうことか。
なのでハルシネーションのせいでですね、教育活用ができないと悩まれている先生はぜひですね、
このノートブックLMを使ってみていただけると、そこは解消して使うことができるかなというふうに思います。
今日先生はノートブックLMを活用されたことはありますか?
めちゃくちゃ使ってますね。
どんなふうに使われてますか?
やっぱり教材をもう全部読み込ませて、この中から問題作ってたとか、画像作ってたとか、スライド作ってたとか、そういうことをやってますね。
あと音声コンテンツも作ってくれるんで、すごいですよね。
そうですね。ノートブックLMについてはまだいつかしっかり取り上げたいと思いますので、
よろしくお願いします。
楽しみにしていてください。
ファクトチェックが大事なのはわかったかと思います。
でも正直手順を知っているのと、実際にやるのって全然違いますよね。
そうですね。
なぜわざわざやる必要があるのか、後半はその話をしていきたいかなというふうに思います。
はい、お願いします。
あきょう先生、そもそも日本人はファクトチェックをどれくらい知っているのか?
日本人のファクトチェック認知率って何パーセントくらいだと思いますか?
なんか低そう。
なんか新聞とかニュース結構うのびにしますよね。
海外のアメリカなんかは結構うのびにしないですよね。
そんな感じですかね。だから低いかなと。
低い。具体的にパーセント何人に1人とか。
知ってる人?
知ってる人。ファクトチェックの手順を。
手順を知ってる人。
手順まで知ってる人。
すっげえ少なそう。10人に1人ぐらい。
さすがにそこまでではない。
日経とですね、南洋理工大調査がありまして、日本ではですね、19パーセント。
でもまあ10パーセントだよね。
アジア10カ国を調べた中で最下位で19パーセントになってきています。
5人に1人しか知らないと。
このデータの時にはですね、面白いお話もあって、フェイクニュースに触れた頻度はどれくらいありますかっていう調査もありまして、
日本でも75パーセントフェイクニュースに触れたことがあるのにもかかわらず、
そのフェイクニュースから身を守るための術であるファクトチェックを知っている人は19パーセントというものになります。
なので学校でですね、ファクトチェックを教えることっていうのは非常に大事です。
先生だけじゃなくて、5人に1人しか知らないので、おそらく保護者も知らない方が多いかと思います。
そうだね。
なので、小学校の先生なんかは小学生、生徒たちに話しかけて、小学生から保護者にですね、ファクトチェックを教えてあげるくらいのですね、働きかけも大事かなと思っています。
はい、なるほど。
ではですね、阿弥陀先生。
はい。
ファクトチェックの具体的な手順って聞かれたら何て答えますか。
2つ以上の文献を探るですかね。
はい。あ、いいですね。
はい。
私はですね、簡単に3ステップお伝えしていることが多くてですね、
まず1つ目が情報源のソースですね。
元々の情報源がどこなのか、信用できる機関なのか、単なる口も込みなのかとか、そういったとこを調べる。
で、2つ目が複数の情報源を比較する、先生がおっしゃったとこですね。
で、3つ目がそれでもなんか怪しかったら、専門家の意見を参照する。
本、書籍になっているのかだとか、専門家に聞いてみるとか、こういった形がファクトチェックのですね、手順です。
で、なかなかこう見構える方もいらっしゃると思うんですけど、実はこれぐらい、この程度で十分ファクトチェックができるわけですね。
はい。
なので、基本的にSNSやインターネットの情報を確認するやり方と同じだと思っていただけるといいかなというふうに思います。
まあ、そうでしょうね。
はい。なので、CCIとの距離感なんですけれども、私はこのインターネットの信用性と同じぐらいの間隔でがちょうどいいのかな、構えすぎずかといって緩みすぎず、この距離感がいいかなと思いますので、
ぜひ覚えておいていただければと思います。
はい、わかりました。
AIはですね、こうパーソナライズされて質問に答えてくれる。私の疑問にピンポイントで答えてくれるので、なんかインターネットとかSNSより信頼性が高いと怠がちなんですけれども、
そんなことがないとSNSやブログとかそういったとこから情報を引っ張ってきていることが多いので、その程度のものだと思って付け合うのが大事かなというふうに思います。
人間関係と一緒だね。
そうですね、そうですね、これも。
同じだと思う。
思います。
それでアキオ先生、定期テストとか教材をAIに作らせたことってありますよね。
あります。
最終的にどうされてましたか、AIが作った問題を。
はい、もちろん全部自分で解き直します。
はい、チェックしてますよね。
チェックしてますね、もちろん。
この働きが実はAI時代にすごく重要なことを象徴しているんですね。
AIの教材を作る時のアキオ先生の頭の中のプロセスを思い描いてほしいんですけれども、最初何をされますか。
まず自分の頭の中でどういう教材を作りたいかというイメージを作りますよね。
で、その後は。
それを元にプロンプトを打ちます。
打ちます。
で、出力が出てきます。
で、それをもう一回自分で解き直したりだとか考えたりしますね。
で、最終的には。
それを使います。
OKが出たら使うという形ですね。
というプロセスになっているわけですね。
で、そうすると最初の意思決定ですね。
試験をやろうとどんな問題を作ろうというのが上流と呼ばれます。
上流と。
どんどん流れていく感じですね、フローが。
そうすると中流という部分が問題を作成する部分で、ここがAを使ってくる。
最後責任を持ってこれをテストとして行うという形ですね。
これがまさにAI時代のAIの使い方として非常に良いモデルになっているわけですね。
どういうことかというと、真ん中の部分、作業の部分はAIがしてくれるわけですね。
人間がするのは上流の何をしようか、何をすべきかってAIに指示をする部分。
そして最後の下流ですね。
AIが出てきた成果物をファクトチェックをして、最後これ大事なんですけれども、
これでオッケーだっていって、責任を持つ。
SAIの成果物を自分の成果物、作品だとして責任を持って出すっていう部分が大事になってくるわけですね。
それ分かりやすいね、説明。
はい、ありがとうございます。
上流、中流、下流か。
そうなんです。
で、このファクトチェックっていうのがまさにこの下流で必要なプロセス。
AIの成果物に対してダメ出しをすること、そして最終的に責任を持つこと。
AIの成果物を使って何かをする責任を人間が持つことが大事なんですけれども、
責任ね。
そうです。ファクトチェックは実はその入り口として非常に効果的なわけですね。
ファクトチェックをする理由はなぜかって言われたときに、嘘があるからっていうのはもちろんそうなんですけれども、
AI時代の働き方を考えたときに、AIの成果物を自分の成果物だとして出す責任を本当にこれでいいのかってことを
認識してもらう、意識してもらうプロセスとしてファクトチェックっていうのは非常に効果的になります。
なるほど。
第一歩になるわけですね。
これが非常に大事な効果になってきています。
で、ちょっとですね、私のエピソードを話したいかなと思うんですけれども、
最近ですね、私、AIエージェントと呼ばれているものを使ってですね、仕事をすることが増えてきたんですね。
クロコですか?
そうです。クロコ、クロコ、クロード、コード、役所、クロコなんですけれども。
僕も最近始めました。
だいたい3,4人ぐらいのですね、AIエージェントに指示をしてやってくるんですけれども、
実際この生成AIとは違って、このAIエージェントとしてAIに仕事を任せながらやってみると、
結構賢いけれども、おバカなことをするっていうのが分かってきたんですね。
意外と迷走したりとか。
ダメなやついるんだ。
いますね。
AIのですね、特徴として、やっぱりメモリーが少ない。
人間に比べるとメモリーが少ないので、昔話した前提を忘れて、
とんでもない方向に行っちゃったりとかすることもあるんですね。
それをチェックをしていかないと、とんでもない方向に仕事をしちゃったりしちゃうので、
まさにこのダメ出しをすること、それが出てきたものを最終的にチェックをして、
これは仕事として使える品質だなってチェックをする、責任を持つっていう部分が、
非常にやっていて、大事だなって実感したかなと思います。
まだAIエージェントを使われている方って、特に学校、教育現場ではほとんどいないと思うんですけれども、
やはりこういった仕事をですね、AIエージェント、AIに丸ごと任せる、
さっき言ってたこの真ん中の部分ですね、テスト問題を作成するとか、
そういった部分をAIに任せるようにこれからもなっていった時に、
やはりこのダメ出しをする力、そして責任を持つことっていうのは非常にやっぱり大事になってくるかなと思います。
マネジメントだね。
そうです。マネジメント。
経営者と一緒だね。
そうですね。マネジメント能力が特にAI活用人材では非常に大事な力になるかなっていうふうに実感したところかなと。
同じですね。
そうです。なのでファクトチェックっていうのはその入り口として非常に最適なものかなというふうに思っています。
ミスをする社員さんもいるもんね。
いますね。はいはい。
ファクトチェックしないとね。
そうですそうです。
なるほど。わかりやすい。
ありがとうございます。
あっという間にお時間となってしまいましたが、
今日のお話をまとめると、ファクトチェックはAIの嘘を醜くテクニックで終わる話じゃないんです。
AIのアウトプットに対して、これを自分の名前で出していいのか?と問う習慣。
鵜呑みにしない。疑って確認する。そこから一歩踏み込んで、自分が責任を持つものにする。
先生方がこの意識を持つと、生徒への声書きも変わるんです。
AIの答え、ちゃんと確認した?ではなくて、それ、自分の名前で出していいと思う?になります。
この一言の違いで、生徒のファクトチェックへの向き合い方が変わります。
確認作業じゃなくて、自分のアウトプットに責任を持つこと。
その一歩として、ファクトチェックをぜひ活用してみてください。
はい、そうですね。本当にそう思います。
自分自身のファクトチェックの方法を構築していくのがいいと思います。
そうですね。