00:05
おはようございます。ひとのなです。このチャンネルでは、毎日動画編集を楽しんでいる私が、動画編集をもっと好きになれるアイディアや気づきをお届けしていきます。
今日は10月10日、時刻は7時を回りました。皆様いかがお過ごしでしょうか。 今日のテーマは、最近ChatGPTがちょっと天然で困ってる話でお送りしていきます。
なんかね、最近うちのチャピがちょっとアホなんですよ。 もともと、ファルシネーションっていうAIが自信満々に、それっぽいけど間違った情報を言ってくるっていうことがあるんですけど、
最近特にそれが本当に多いなって思ってます。 例えば、プレミアプロの操作でわからないことがあると、これってどうなの?って聞いたりすることがよくあるんですけど、
もう本当にあの子自信満々で間違ったことを言ってくるんですね。 画面上で右と左に並んでいるAとBがあるとして、私の画面ではAが右でBが左にあるのに、
Aが左、Bが右ですってドヤ顔で言ってくるんですよね。 私が、でも私の画面では逆になってるよ、Bが端っこだよって言うと、いいところに気づきましたね、そうなんですよ、逆なんですって返してくるんですよ。
もうね、どっちやねんってなるんですよね。 なんか会話してるのに噛み合ってない感がすっごいあります。
今までとは違う不便さを感じてます。 しかもその今回ね、チャットGPTに、最近ちょっとアホだよねって言ったら、それめっちゃわかるって自分で言ってました。
で、最近ふと思い出したのが、去年の確定申告の時もチャットGPTにめちゃくちゃ頼ったんですね。 経費の扱いとか、家事案文とか、なんかいろいろわからない用語を聞いたりとか
いろいろ聞いたんですね。 何でも答えてくれるので、すごいチャットGPT天才じゃんと思ってたんですよ。
ただ、それを私のクライアントさんに、税理士さんがいるんですけど、 税理士さんにお話をしたら、チャットGPTの情報、結構間違ってるから気をつけた方がいいよって言われて
え?そうなんですか?ってなりました。 でも自分で調べても、合ってるか合ってないかすらわからなさすぎて、結局チャットGPTに頼っちゃったんですけど、
でも実際にその税理士さんに請求書を出した時に、消費税のところが違ってるって言われて、でもチャットGPTでは合ってるって言われて、
こういうところで間違いって起きるんだってなりました。 ただ、訂正するまでもない間違いだから良かったんですけど、
03:00
ただそのネット上には誤解を与える書き方とかたくさんあるみたいなので、やっぱり国税庁が出している記事とか税理士監修の記事を見た方が良いそうです。
もうそれからはチャットGPTに質問する時に大事なこととかはね、この情報の出典も教えてって言うようにしてます。
そうするとちゃんとリンクを出してくれるので、そこに飛んで自分で確認するようになりました。 やっぱりまだAIは全部お任せじゃなくて、情報を持ってきてもらって自分で判断するところまでが大事だなって思います。
結局今のところAIは答えをくれる先生じゃなくて、一緒に調べてくれる友達、相棒くらいの距離感がちょうどいいのかなって思ったりしてます。
なのでAIはドヤ顔で嘘をつくっていうことを覚えておいて、トラブルは回避していくようにしましょう。
では今日も最後まで聞いていただきありがとうございました。 じゃあバイバイ