AIのメモリ機能と誤解
はい、こんにちは、清鷹です。
今日のテーマはですね、
AIはけっこう誤解もしているなという、そういうお話です。
ちょっと最近AIネタばっかりなんですけど、
ここ3回、今日が3回目かな、
AIでですね、Chat GPTで僕のその人物像がどんなものかっていうのをですね、
分析というのか考えさせているんですよね。
Chat GPTがメモリ機能っていうのを搭載を始めてですね、
過去のチャットとかを参照したり踏まえたりしながらですね、
いろいろなことを考えることができるようになった。
だから過去に対話をした、問い合わせをしたとかですね、
Chat GPTとやりとりをしたっていう部分を引っ張ってきてですね、
あの時はこんなことを言ってたよね、みたいなことでですね、
過去の記憶を引き出しながら新しい対話をしていけるっていう、
そういう機能ができたわけなんですけども、
それがですね、いいのか悪いのか、
けっこうな誤解もしてるなというところがあってですね、
それが逆に面白かったので、面白かったですし、
AIとの付き合い方っていうものも、
考えていくきっかけになるのかなというふうに思ってですね、
ちょっとここで紹介をさせてもらいたいなというふうに思っています。
人物像の認識のズレ
そのメモリ機能が搭載をされたので、Chat GPTにですね、
なので僕は過去の対話の中からですね、
AIとの会話の中から、
AIがどんなふうな人物を僕に対して持ってるのかっていうのを聞いたんですよね。
僕はどんな人物像ですかと。
なおかつその忖度なし、入るなしでお願いしますということで、
空口のアウトプットを求めたんですよね。
そうしたらちょっといくつか気になるワードというのが、
これちょっと違うんじゃないかなみたいなことを出してきたんで、
ご紹介するんですけど、その一つがですね、
後追いで仕組みを整備しようとして炎上しているみたいな、
そういう言い方なんですよ。
これどういうことなのかな、後追いで仕組みを整備しようとして炎上
っていうのはどういうことなのかな、ということで、
具体的にどこからそういうふうに見えましたかっていうのを聞いてみたんですよね。
そしたら着手するスピードが速いんだけども、
仕組みとか運用の設計が後手に回って、
後から何か問題が出てきてるよみたいな、
そういうパターンがいくつか見られるということなんですよね。
具体的なパターンで出してきているのが、
5つぐらいあるんですけど、
1つはですね、大量のインプットをして、
構造化とか構成の依頼を連発しているっていうふうに言うんですよ。
これ何かというと、
僕はYouTubeの動画をですね、
文字起こし、YouTubeの文字起こしを全部構成をさせて、
そして箇条書きで構造的に理解できるようにということで、
いつも整理させているんですよ。
それはその人のYouTubeの動画をずっと見てたら
1時間とか30分とかかかるんですけども、
それをですね、全部文字起こしをちゃんとGPTに突っ込んでですね、
文字起こしてちょっとコツがあって、
Googleの拡張機能とかを使えばですね、
自動で取得できるそういうツールがあるんですけども、
それでちゃんとGPTに、要約じゃないんですよね。
要約じゃなくて、
割としっかりと中身をですね、見せながらも理解しやすいような形で
出力してくれというふうにやってるんですよ。
そうすると、YouTube1時間とか30分とかかけて
見なきゃいけないものがですね、
地面を追うことになって、どうでしょうね、5分とか、
そんなぐらいで理解できるようになるんですよね、全体像がね。
だからすごくその、時短になるのでそういうのを使ってるんですけど、
これが4月30日から5月7日、これ1週間ですよね。
1週間だけでそういう依頼をしてるのが十数本と。
そんだけ依頼してたよなと思って。
途中でその条件を追加したり、再出力をしたり、
精度を上げろみたいなリクエストを何度もやるみたいな、そういうことなんですよね。
最初のその要件定義が甘いみたいなことを言われるんですけど、
それはね、その入力というか、流れる動画によっても精度が違ったりとかするし、
やっぱりちゃんとGPTが整理してくる、なんていうのかな、
粒度自身も結構荒いんです。荒かったり細かったりとかするんで、
タイムコード通りにならなかったりとかしてるんで、
それでやり直しをさせたりするんですよね。
これは僕が悪いわけじゃなくて、ちゃんとGPTがやらんからだと思うんですけど、
まあまあそういうことを言ってるのが一つ。
それからツールを導入して運用ルールが未整備でトラブルの相談をしてるみたいなことを言ってるんですけど、
例えばそのWindowsのトラブルとか、メールソフトのトラブルとか、
あるいはクラウドとの同期するシステムのトラブルとか、
そういうようなことを実際僕は相談してるんですよ、
ちゃんとGPTにどうしたら解決するみたいな。
これっていうのはとりあえず使って、想定外の挙動があって、
後追いで設定やポリシーを整備してるというふうにちゃんとGPTの目には映ってるんですけど、
これは何かというと、僕はITの便利屋っていう仕事もやってまして、
お客さんのところに行ってお客さんのところのトラブル解決をしてるんですよ。
だからトラブルが起こってる状況でどう解決するかっていうことを、
解決策をちゃんとGPTに網羅的に解決策を出してもらうようなことをしてるんですけど、
だからそればっかりを取り上げて、ツールを導入したほうがいいけれども、
トラブルだらけだぞというふうにちゃんとGPTは見てるんですよね。
でも僕がちゃんとGPTに聞くのは、自分で解決ができない問題だったりとか、
うまくいってることは聞かないんですよね。
だからトラブルがあることだけ起きてるんですよね。
そしたらそこばっかりを取り上げて、
こいつは闇雲にトラブルをちゃんとせずにトラブルが後から頻発してて、
こいつは闇雲に相談ばっかりしてくるみたいな、そんな感じで捉えてるんですよ。
これってやっぱり気をつけないといけないっていうのは、
母数ですよね。全体としてはうまくいってるんだけども、
悪いところばっかりを聞くから、そこが悪目立ちしてるっていう。
よくあるじゃないですか、例えば企業とかでも悪いことするやついるじゃないですか、
企業の中の従業員とか。
でも社会の中でもそうですよね。社会の中でも悪いことするやつっていますよね。
そいつらはニュースになるんですよ。
そいつらがニュースになったら、そしたらここの企業は悪い企業だとかね。
日本はどんどん悪くなってるとかね。
そういうふうに言うわけですよね。国民はとか言うわけですよね。
でもニュースになるっていうことは、それは得意な部分っていうのか、
普通じゃないからニュースになるわけで。
僕はちゃんとGPTに相談してるのも、トラブルになった部分だから相談してるわけであって、
うまく運用してる部分に関しては何の相談もしなくて済むわけですよね。
情報の断片性による誤解
だから大部分のボスっていうのは普通というのか、うまくいってるんだけども、
トラブルだけが悪目立ちしてしまうみたいな。
そういう現象がこのAIの中でも起こってるっていう感じですよね。
あとはいくつかあるんですけど、これぐらい最後3つぐらいで止めたいんですけど、
3つ目としてはアイディアが先行してて、制度とか契約面を後付けで検討してるよみたいな。
ちょっと今僕は新規で事業を立ち上げようとしてて、いろいろ相談してるんですけれども、
その時に商標とかフランチャイズ量とか、件数の管理とか、
法律的なこととか収益モデルみたいなものは後から相談してるって言ってるんですよ。
企画が走った後でホームとかオペレーション整備で手戻りを起こしてるとか言ってるんですけど、
これでも当たり前っちゃ当たり前ですよね。
だってAIにそんな完璧なビジネスプランを相談してるわけではなくて、
AIとの対話の中から新しいビジネスプランを試行錯誤で作り出してるっていうところがあるわけなんで、
こんなもんは当たり前というか、最初からそんな完璧なものをAIに投げてないぞっていうか、
そもそもそういう使い方を想定してないぞっていう感じなんですよ。
面白いですよね、これね。
すごいな。行き当たりばったりやぞ、お前ってAIに言われてるんですけど、
いやいやいやいやって。
現実が行き当たりばったりにならんように、
AIと相談しながら試行錯誤してシミュレーションしながら進めてるんやのに、
そういうふうに取るわけですよね。
でもね、世の中こういう部分的な情報ばっかりを捕まえてですね、
勝手に解釈していくとか勝手に判断していくということは、
まんまある話なんだろうなと。
今回のAIの話、AIの分析であってもですね、
曲がった見方をしているというところですよね。
そこってやっぱり断片的な情報だけだと、曲がって見えてくるというか、
行き当たりばったり、お前は行き当たりばったりだと言われてるんですけど、
いやだから、現実社会で行き当たりばったりにならないようにシミュレーションを
AIと相談しながらやってるんだぞという話なんですよね。
だからそこの文脈の欠如というのか、
事実だけをつなぎ合わせたらとんでもない文脈になってたみたいな。
いやいや、背景にそういうAIで試行錯誤するという文脈を持ってたら、
こういう事実をつなぎ合わせてもね、
行き当たりばったり、お前は行き当たりばったりだと言われないと思うんですけど、
そういう感じなんですよね。
だから、ごめんなさいちょっと取り留めもない話になっちゃいましたけど、
もう長くなっちゃったんで、この回はこれぐらいにするんですけれども、
AIに限らず、この社会の認識も含めて、
断片的な情報だけをつなぎ合わせていくと、とんでもない間違いが起きるよねという、
そういうお話でございました。
もうちょっと次回もこの手の話が続くかな。
もう一つ面白い、今度はチャットGPTが間違えてるというのか、
ハルシネーションというのかね、
過去にそういう会話をしたこともない事実っていうのを間違えて
引っ張り出してきてるみたいな事例もあるんで、
それはまたちょっと次回ご紹介したいなというふうに思っております。
はい、ということでですね、今日はこれぐらいで終わりにしたいと思います。
また次回お耳にかかりたいと思います。さよなら。