1. ウミノの40歳からのAI活用塾
  2. #084 ChatGPTが嘘をつくのは質..
2023-08-25 07:45

#084 ChatGPTが嘘をつくのは質問が悪い?

エピソードをシェアする

Share on X Share on Facebook Share on Threads
▼今日の元ツイート
https://x.com/chibinftcom/status/1686860450301198336?s=46

▼アーカイブ視聴チケット【オフ会が楽しみになる!】スマホタッチでNFTを発行できる名刺作り講座
https://archive-nfc-nft-seminar0721.peatix.com/view

▼NFTを学ぶならひとりでジェネるもんへどうぞ!
https://chibinft.com/hitogene-lp/

▼チビ画伯ママのプロフィール
NFTを学べるコミュニティ【ひとりでジェネるもん】を運営しています。
2021年から9歳の娘のNFTも販売中!
NFTに関する情報発信を続け、Twitterフォロワーは1.4万人。
このラジオはNFTについてゆるーくお話していきます。

#NFT #Web3 #毎日配信 #スタエフ毎日配信 #クリエイター #NFTクリエイター
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/5fba3d73c64654659098efa4
00:05
さて今日は、ChatGPTが嘘をつくのは質問が悪いって本当?というお話をしたいと思います。
皆さん、早速質問をさせてください。皆さんはChatGPT使ってますか?
多くの人はね、だいぶ前に触ってみたけど、ChatGPTってすぐ嘘つくよね、あんまり使えなくない?って思ってる方もいるんじゃないでしょうか?
そう思ったそこのあなた、それはね、皆さんの質問が悪いからだったりもします。
今回はね、この話ではChatGPTに嘘をつかせない使い方について解説をしたいと思います。
まずChatGPTの嘘についてお話を、嘘をつく仕組みだとか理由について解説しますね。
そもそもChatGPTっていうのは、オープンAI社が開発した言語モデルのAIなんです。
言語モデルというのは、次にどんな単語が来るかを推測し続けて文章を作り出して、会話のようなことができるAIを指します。
事前に学習させておいたデータの中から、与えられた質問文の次に来る単語は何が来たら自然なのかな?ということを引っ張り出してくるわけなんですね。
例えばですよ、日本の公用語は、と入力をした場合、次の単語としてカポップのデータから次に出てくる確率が高かった日本語という単語を返してきます。
もう一度言いますね。日本の公用語はっていう風に入力すると、日本語っていう単語が一番可能性が高いということで返してくるんです。
つまり、日本の公用語は日本語ですという文章を作るということなんですね。
つまり、ChatGPTは質問の内容を理解した上でデータベースから情報を引っ張り出してきているわけではないんですね。
単に与えられた情報、つまり質問文の次に続く確率が高い単語を次々と続けていく。
そしてその結果嘘になってしまう、嘘を答えてしまうということがあるわけなんです。
では次に質問の仕方が悪いと嘘をつかれてしまう理由についてお話をします。
なんで質問の仕方が悪いとChatGPTは嘘をつくんでしょうか。
ChatGPTに嘘をつかれる原因として質問の仕方にどんな問題があるのか、そこを解説していきますね。
まずChatGPTには知能というのは実はないんです。
先ほどお伝えしたようにChatGPTは質問の内容を理解した上でデータベースから情報を引っ張り出してきているわけではなくてですね。
質問文に続く確率の高い、つまり関連性の高い単語を引っ張り出してきて、それっぽーく文章を作り出しています。
つまりAI、人工知能、アーティフィシャルインテリジェンス、人工知能ですね。
03:04
そういう名前はついているけれども、別に知能があるわけじゃないんですね。考えてくれているわけではないんです。
過去のデータから確率が高いデータを参照してくるだけなんですね。
そしてChatGPT、実はググれません。
ChatGPTが持っているデータというのは2021年の9月までのものです。
なので、例えば日本の現在の首相は?というふうに聞いても答えられないですし、意味がありません。
ChatGPTというのはそういった用途で使うべきAIではないんです。
では、ここまで聞いてくださった皆さんはこう思うかもしれません。
じゃあChatGPTって無能じゃない?使えないんじゃない?そんなふうに思ってないでしょうか。
いいえ、そんなことないんです。ChatGPTっていうのは次のような用途にはなかなか使えます。
たとえば、文章を書く、文章を要約する、プログラムのコードを書く、
例えばExcelのマクロを書くとか、あとはGoogle Apps Scriptとか、そういうのも含まれます。
OpenCAの問い合わせの文章を作成してもらうとか、クレームの文章を作成してもらう、
ブレインストーミングの相手になる、コーチングやカウンセリングの相手になる、
ロールプレイの相手になる、プログラムの間違いを探す、文章の炎上危険性をチェックする、
プロジェクトの問題点を指摘する、
例えばホーム、経理、営業、マーケティングの観点からの問題点を指摘するとかね、
そういったことにはかなり使えます。
私も実際にOpenCAで自分が作ったコレクションが消えてしまった、
非表示にされてしまったことがあったんですけども、
そのときのOpenCAの問い合わせの文章も英語でChatGPTに作ってもらいました。
あとはPythonというプログラミング原稿でアプリを作ったことがあるんですね。
音声の文字起こしアプリというのを作ったんですけども、
これもChatGPTに全部作ってもらいました。
ではね、今伝えたこと以外でですね、
ChatGPTからの回答を信頼性のあるもの、
つまり嘘をつかせないために必要な注意点について解説をします。
それはまず質問を限定するということが大事です。
ChatGPTは制限を与えれば与えるほど精度が上がっていきます。
前提条件をなるべく詳しくおいて質問してみましょう。
例えばですよ、あなたは売れっ子のライターです。
ライターとして以下のタイトルでたくさん読まれる記事を書いてくださいとか、
あとは10歳の子供でも分かるように答えてくださいとか、
あとは以下のブログタイトルをエモくしてとか、
そんなふうに前提条件を詳しく置けば置くほど上手い回答が返ってきます。
06:04
次に英語で聞く、これも一ついい方法ですね。
ChatGPTが学習している情報のほぼ全てが英語なんです。
なので日本固有の情報でないのであれば、
例えば歴史の問題とか地理の問題とか、
そういった情報でなければ英語で聞いたほうが精度は良くなります。
英語でいきなり書くのが難しい方も、
DeepLなどを使って英語で質問してみるといいと思います。
そして最後にプロンプトを使うというのがお勧めの方法です。
今までお話ししたのはChatGPTの超超超エントリーレベルなんですね。
ChatGPTを使いこなしたい皆さんにはプロンプトという命令文が欠かせません。
正しい形式の命令を与えることでChatGPTからの回答の精度というのは段違いに上がります。
どんなプロンプトがいいのか、これについてはですね、
今週の土曜日、8月26日土曜日の夜7時、19時から始まる
ChatGPT超超超初心者セミナーに出ていただくと、
ケイスケさん、エンジニアのケイスケさんが優しく詳しく面白く教えてくださるはずです。
ぜひぜひお申し込み、今からでも間に合いますのでお申し込みいただければと思います。
この概要欄にお申し込みのリンク、ツイートを貼っておきたいと思いますので、
よかったらご参加ください。
それでは皆さん、また今日も素敵な1日をお過ごしください。失礼します。
07:45

コメント

スクロール