2025-05-10 13:56

#149 生成AIのハルシネーションってそんなに問題?

サマリー

生成AIのハルシネーションについて探求し、情報の真偽やその影響について考えています。セカンドオピニオンの重要性を強調しながら、生成AIの進化と人間の情報処理の類似点を示しています。

生成AIとハルシネーションの理解
おかさん、ハイ、このチャンネルでは、都のほとり、滋賀県に住むアラカン、まもなく60歳、定年を迎えるはずだった会社を希望退職で辞めて、セカンドキャリアを歩き始めたおかさんが、仕事、生活、人生についてゆるーくお話しします。
改めましてみなさん、こんにちは、おかさんです。
生成AIが嘘をつくっていう話をちょっとしてみようかなと思います。
ハルシネーションって言いますよね。誤った情報を生成AIが平気で言ってくるというやつですよね。
あれがあるから、生成AIは安心して使えない、みたいなことを言っておられる方もおられるようです。
私はそんな中でも、生成AIも使わない日がないですし、本当に仕事、本業でも副業でも使いまくっていて、非常に助かっているんですね。
じゃあ、生成AIのハルシネーションとか、嘘をつく情報を使って仕事をしているんですかというと、そこには一定の注意というか、気を止めてできるだけそうならないように工夫して使ったり、
あとは、一定の嘘が含まれていても、そういうもんだと割り切って使っていたりするのかなって思うんですよね。
じゃあ、なんでかというと、これって生成AIだけじゃなくて、人が仕事をするときでも似たようなものなんだろうなと思ったりするわけです。
例えばね、私はずっと仕事で商品企画、プロダクトマネージャー、パーケティングとか新しい商品の企画をやって、市場調査をして、こういうタイプのお客さんでこういう課題のニーズがあります。
だから、その課題を解決する、こういう新しい商品を提供すれば、これぐらい売上が上がります。だから開発させてくださいみたいなことを言うわけですよね。
言っているのは私一人です。私はプロダクトマネージャーなので、私が担当している商品範囲、領域については私が企画を作って、いろんな人に協力を得ながら企画を作って、だけれども決済をもらうときは私一人が発表して決済をもらいますという。
そのときに、じゃあ私は嘘をついていませんかと言うと、嘘をつくつもりはなくても、嘘情報って言っている限り混じってしまうですよね。だって全て仮説だったりするわけで、本当に売れるかどうかわからないですしね。
ちなみに私がプロダクトマネージャーになって初めて企画した商品、企画ではある一社ですごい大きな課題を抱えられていて、その課題を解決できるのは世の中に他に解決できる商品というのはなくて、
だからそこに商品を投入すれば、そのお客さんでめっちゃいっぱい売れますという、ざっくり言うとそれっぽい企画をやったんです。それでOKをもらったんですけど、じゃあそのお客さんでいっぱい売れましたかと言うと、そこまでいっぱい売れていない。
けども、この商品自体はおかげさまでかなりの多くのお客さんに評価をいただくことができたと。だからその企画会議で言っていたことと、商品を発売して3年後ぐらいに振り返った実態を比べると本当に恥ずかしいぐらい言っていることが全然違って、未来から見ると過去って結構嘘だったりするみたいなのがある。
あとは十分調査をしきれていなくて、嘘つくつもりはなくても結果的に嘘になっている情報とか事実というのはあるかもしれませんよね。
ある人から聞いた情報とか、ある資料を読んだ情報とか、その資料が本当に正しいかどうかも厳密に言うとわからないわけです。
なので、決済者は私の言うことが嘘だから決済しないとか言っているかというと、たぶんそんなことはなくて、当然レビューしたり決済する人はいろんな観点で見ているんだと思うんですよね。
論理、ロジックが非常に明確だとか、あとは重要なところですよね。
例えば商品・新商品を言うと、解決すべき顧客の課題とそれを解決したときに現れる顧客の価値の大きさ、どれだけお客さんが変化したのかとか、どれだけお客さんの効率が上がるのかという部分の
ロジックとか確らしさみたいなことは当然チェックされると。
そこについては、なんか怪しいと思ったらいろんな角度から質問されて、ダメなときはもう一回この観点を発揮させた上で、2週間後にもう一回企画会決済しようという保留になったりするわけですよね。
それって生成以来でも多分同じで、出てきたものを1回で全て鵜呑みにするのではなく、例えばこういう観点をもう一度加えて見直してみてくださいとか、
一部怪しいなと思ったところがあるとこの部分が納得できませんと。だからこういう部分をもう一度調べた上で改めて報告してくださいとか、みたいな使い方をするわけですよね。
そうやって大きな嘘というか影響が出てしまうような嘘とか間違いを避けて情報を活用すると。
そこにやっぱりそういった使い方というのはさっき言った人間の仕事でも生成以来でも基本的に同じなんだろうなと思ったりします。
あとはセカンドオピニオンですかね。病院に例えば行ってもらって、それは例えばですけど腰が痛いと。腰が痛いからそれもぎっくり腰ですよねとかって言われたと。でも納得できない。
商品の企画と情報の真偽
そうするとどうするかというとセカンドオピニオンですよね。別のお医者さんに行って、違う方の意見を聞いてみた上で総合的に判断すると。
セカンドオピニオンというのは一般的にやられていて推奨もされてますよね。
だから例えば生成以来私なんかはチャットGPT有名なやつとかGoogleのジェミニとかクロートとか主に3つ使っているんですけど、仕事とかで使うときに重要な部分の情報を出してもらうときにはセカンドオピニオン。
チャットGPTにも投げて、ジェミニにも投げて、その結果を付き合わせてみるとか。お互い言ってることが微妙に違うと、ジェミニが出したやつをチャットGPTに与えてジェミニはこう言ってるけどどう思うとか。
で、チャットGPTが出したやつをジェミニに与えてチャットGPTがこう言ってるけどどうだというのをクロースでレビューをしあって、そうするとね、今日も実は趣味で情報を調べるときにチャットGPTとジェミニがそれぞれ出してきたんでクロースでやって、お互いやっぱり気づきがあったみたいです。
こういう部分の指摘はその通りなので、そこを参考にして改めてレポートを作りますとかって言ってましたね。
そういうふうに、セカンドオピニオン的に性性愛を使って、できるだけ多面的な評価かもしれないですね。
複数の性性愛の意見を見て、人間が判断してもいいし、性性愛にそれぞれクロースで情報を与えてブラッシュアップをするみたいな使い方をすることでレベルを上げることができるんじゃないかなと思うんです。
あとね、性性愛自体はハルシュネーションの比率ってどんどん下がってきていて正確になってきているみたいなんですよね。
チャットGPTが出たは2022年でしたっけ。
の頃は3点何%っていうハルシュネーション率だったのが、今最新のやつだと1%ぐらいになっていると。だから3倍以上精度が上がっているみたいなんですよね。
だけども、今でも性性愛の会社がチューニングしてハルシュネーションの率を下げることができるらしいんですけど、
ハルシュネーションが出ないように、抑えるようにすると、想像性というか面白さが減ってくるっていう副作用というかトレートオフがあるらしいですね。
これって人間でも同じようなことがあるんじゃないかというのはちょっと思ったりもします。
魅力的な人とかって若干の嘘とかはったりも含めて話をしながらコミュニケーションで信頼を獲得して行動していくっていうタイプの人っておられませんかね。
ありますよね。
はったりとかっていうのはある種の嘘というかハルシュネーションかもしれない。
だけでも魅力があって物事が進んでいくと。
あとは想像性っていうのも妄想とかって正しいかどうかわからないんですけどね。
想像性が高いとか。
いろんな思いつきをする人とかいますよね。
じゃあそれはもしかするとあいつ嘘ばっかりついてるというふうに言うこともできるかもしれないんですけど想像力が高いわけですよ。
だから正しいか正しくないかっていうよりもいかに尖ってるかとかいかに新しいかとかみたいなことに重きを置いて頭で考えて発言をされると。
でもそういう人が想像力が高い人って呼ばれるんじゃないかなと思うので、
SSAIもあまり嘘を言わないようにするとどんどん尖りが減っていて、
私ながらSSAIを使っていてはこういう観点があるんだ、こういう切り口があるんだって気づきがあるのが非常に価値だなと思うことが多くて、
SSAIをどんどん使ってるっていうところがあるんですけども、
そういう想像性とか尖りがなくなっちゃうとやっぱり正しい情報を出すだけの人だとちょっと面白くない、価値が下がっちゃうなって私は思ったりもするので、
セカンドオピニオンの重要性
そこはいいバランスで、もしかすると嘘を言いづらいエンジンと想像性が高いエンジンとかそういうモードとか設定があってそれを切り替えながら使うようにこれからなっていくのかなと、
そうなればいいななんて思っております。
今日はSSAIのハルシネーションってそんなに大変な問題なの、人間の世界でも似たようなことってあるんじゃないのっていう話をしてみました。
いかがでしたでしょうか。
今日も最後まで聞いていただき本当にありがとうございました。
それではまた次回の加算配慮お会いしましょう。
さようなら。
13:56

コメント

スクロール