1. はやつ~のしゃべる練習
  2. 「ハルシネーションと人工の脳」
2025-10-31 09:47

「ハルシネーションと人工の脳」

サマリー

今回のエピソードでは、ハルシネーションと人工知能の関係が解説されています。庵野さんの説明を基に、AIが間違った情報を自信満々に提供する背景や、それを避けるための学習方法が議論されています。

ハルシネーションの解説
おまましゃべりにやります。今回のテーマは、「ハルシネーションと人工の脳」です。
庵野さん、庵野孝博さんだったかな、という方が、前にね、都知事にも立候補された庵野さんですけれども、今はあの
参議院に当選されたのかな、あの庵野さんですけれども
まあそういう政治家ということになると思うんですけれども、その一方でですね、結構そのテック系の
ユーチューバー的な感じで、いろいろ技術解説をしてくれてありがたいんですけれども、すごいわかりやすく解説してくれてありがたいんですけれども
その庵野さんの解説で、ハルシネーションが起こる、起こるというか、起こってたというか
理由っていうのを解説してくれている動画がありまして、それを見まして
その内容、感想とかを喋りたいというのがメインになります。
すごくね、もともと論文が出て、その論文の内容をわかりやすく、一般の人にもわかりやすく解説してくれているという感じなんですけれども
すごいわかりやすく説明してくれるために、細かいところをすごいバッサリやって
ざっくり説明してくれているという感じだと思うんですね。多分細かく説明しても全然理解できないんで
なので、それを基にした理解なんで、結構どこまで正確かというのは自分でもあまり自信はないんで
その庵野さんの解説を聞いた印象ということで喋るんですけれども
チャットGPTが出てからですね、そのハルシネーションという言葉をよく言われるようになりまして
これはAIが嘘をつくっていう表現をしたりしてましたけれども、間違ったことを言うわけですけれども
間違ったことを言うにしても、すごい自信満々に言うから、なんかほんまにそうなんかなと思って調べたら
そんな情報全然、全くの嘘っぱちだったみたいな。嘘っぱちだったりとか、あとはその勘違い
その動画の中では庵野さんの著書の名前を上げたけれども、庵野さんが書いてない本のタイトルとかを出してきたみたいな
そういうことがあって、ハルシネーションということで紹介されていました。それは全く存在しない小説を出ち上げたんじゃなくて
別の作家の方が書いた作品を上げたっていう、ちょっと勘違いしたみたいな範囲のような気がするんで
それはハルシネーションにも、ハルシネーションの正確な情報、間違った情報っていうのにもいろんなレベルがあるかなと思ってて
それはそんなに悪質というか、ちょっとミスりましたっていう感じだと思うんですけどね
そういうのじゃなくて、本当に全く存在しないものを、あたかも存在するかのようにベラベラベラベラ
こんだけベラベラいっぱい情報を出してきたらこれ本物かなと思ったら、全く根拠のない、全然全部デタラメだったみたいな
学習方法の変化
そういうハルシネーションもあると思うんで、そういうのはさすがにちょっとなぁっていう感じではあるんですけども
前置きが長くなりましたが、本題でですね、ハルシネーションは何で起こるのか起こったのかっていうことについての論文でですね
それが推し方の問題だったっていうことみたいなんですね
その教師あり学習っていうのをやるフェーズがあって、その時に問い質問してその答えがあって
その答えが正解とか、その答えは良い答えだとか、それは良くない答えだとかっていうのを
点みたいなやつをつけて、より良い点になるように学習していくみたいな、頑張るみたいな、そういうものみたいなんですけども
その時に
以前ハルシネーションがある頃は
問題があって、例えば四択の問題があって、その四択の問題の一個が正解だったとして
これはテストとかをイメージしてもらいたいと思うんですけども、その時に
分かりませんって答えると0点で、当たると1点みたいな感じの
採点ルールみたいな感じで学習した時はですね、その場合分からないっていうぐらいだったら
あてつぽうでもいいから、答えた方が結局マークシートのテストを受けているみたいなもので、分からないところは適当に埋めちゃおうっていう
ことで、そっちの方が結果的に点数が
当てつぽうか、ほとんど可能性はゼロに近くても、とにかく何か答えておいたら
完全にランダムだったとしても、さっきの四択だったら4回に1回は正解するんで、そういうのが結果的に点数が良くなるんで
とりあえず何かとりあえず答えようっていう発想になっちゃったみたいなんですね
それがそのファルシネーションっていうことで、分からんことでも分かっているかのように答えるっていう
性格みたいなのになったみたいなんですね。ホモかなっていう感じですけども、一応庵野さんの説明を聞いた僕の理解としては
そんな感じのものだったんだなというふうに理解しました。 最近の
GPT-5とかになってくると、そのファルシネーションがゼロではないみたいな結果ですけども
すごい減ったみたいなんですね。それはどうしたかというと
正しい答えは例えば1点みたいな、答え間違ってたら0点みたいな
答え間違ってたら
分かりませんって言われたら0点か、当てたら1点みたいな。ただ間違った答えを選択したら
マイナス2点とかマイナス3点とか、そういうふうに
点数の
採点のルールみたいなやつを変えたみたいなんですね。そうすると
デタラメ答えるよりは、とりあえず可能性を無理やりでも作り出して答えるよりは
マイナスでもいいから、マイナスでもいいからじゃなくて分かりませんって答えれば
0点で抑えれるけども間違えたらすごい一気にドーンって大ダメージを食らうんで
分からないときは分からないっていうふうには学習されたAIになったっていう
話みたいでですね。なんか人間みたいやなって
思いました。 この話で私が思ったこととしては
人工知能、人工知能、AIっていうことで、どれが賢いの
チャットGPTが賢いの、グロックが賢いの、クロードが賢いの、みたいな感じで
やってますけども、これは
人間が作っているのは、まず人工の脳なんだなっていう、脳っていう器みたいなものがあって
そこはどんどんいろいろ教えたら、それを学んで、知能みたいになっていく、育っていく
何かなんだなというのを思いました。それをどう育てるのかっていうことが、今すごい大きなテーマになってて
前に言ったリスクもあるよね、みたいな話になっていると思うんですね
だから
何を教えるか問題ですよね。それは
その教える人がどういう人なのか、どういう文化なのかっていうところがすごい影響するから
だから、なんか
その教える人がすごい、いい人だったらいいと思うんですけど、すごい悪い人だったら
まずいみたいな、そういうことなのかなぁというふうに思ったりしました
なので、できれば
ドラえもんみたいな感じになってくれると嬉しいなと思います
はい、ということで今回のしゃべれんは以上です。また次回
09:47

コメント

スクロール