AIによる応答の違いとその要因
ある夢を見たんです。具体的でびっくりするような。 で、直後にすぐ夢診断をしました。
思考は完成させなくていい。 TheThinkingTrackス 気になったテーマを深まり、
改めまして、今回は壊す・整える 思考の二相構造をテーマに進めてまいります。
はい。夢診断。答えがないような問いですけども、 これってAIに投げかけたんですが、どうだったかというと、
複数のAIに投げたんですね。答えがないから。 類似してたのは夢診断の歴史、フロイトダウンなんだろうと、
あと現在の科学的な位置づけ。それは似てました。 あとそれ以外についてです。それが答えの内容。
追加してくる質問とか答え方、その内容の広さ。 全然AIによって違ってきてました。
これって結局AIの設計思想の違いって捉えたら妥当なのか。 はたまたこの違いってロジカルにこのAIこうだよって言語化が難しいんですよ。
だからどうやって使い分けたらいいのかなっていうのを言語化をしようとした時に、 どんな時にどんな人がどんな風にAIを、どのAIを使い分けていくのかがいいのか。
結局それっていろいろやってみて自分の上巻に委ねるのがいいんじゃないかなって思ったんですが、 皆さんどのようにお考えでしょうか。
設計思想の違いかどうかっていうのは部分的には妥当ですけどもちょっと違うようです。
実際にはAIって設計思想プラス学習データ、あと安全方針。
アンソロピックが国防総省アメリカで利用で戦ってましたけども、どう安全利用していくかっていう安全方針とか、
他は対話戦略、そこら辺の組み合わせ技でそれぞれのAIの返し方に違いが出てくる。
だから使い分けっていうのは直感だけではなくて、やっぱり観察のポイントを持った上での直感が有効なのかもしれません。
まず一つ目、夢診断。なぜ夢診断でいろいろやったかというと答えが一つじゃありません。
だから逆に複数のAIに投げかけてみたかったんです。
夢診断って一つは学術整理、最初のみんなどのAIも同じように答えたのは歴史的な背景、どのような理論で科学的な位置づけがどうなっているかって話。
今の現代の学問ではちゃんと科学としては扱われていないみたいな話は全部共通で出てきました。
二つ目が象徴の解釈。一般的にはこれが出てきたらこういうふうに捉えますよみたいな。そういうようなものが夢診断にありました。
そしてもう一つが対話展開。対話展開っていうんですか。人に相談してた時もそうですけども、相手から質問されることによって、
例えばその夢見てどのように感じました?なんて言われて、それを答えることで自分の内面を引き出していく的な夢診断。
そこがAIそれぞれでどの観点を優先して対応してくるのかが違ってきているのではないか。
具体的に言うと、誤った情報を提供するリスクを避けるようにそのAIが設計されているとか、
またまた対話の深まりを優先する設計になっているとか、お医者さんが、内科の先生が問診をたくさんした上で診断をするようなものですよね。
こちらが何を考えているのかというのは正確に引き出そうとするように設計されているのか。
もう一つはよくある早く答えを欲しいユーザー。ユーザー満足の即時性を優先した作りになっているか。
その辺でもやっぱり違いが出てくるのかなと感じます。
だから設計の哲学っていうよりも、使った人に対して与える、使い勝手が悪いって言ったらそれもリスクになりますので、
そのリスク管理とそのプロダクトの方針ですね。平和利用が前提なのかとかね。
あとは学習の傾向の組み合わせで変わってくる。
だから設計思想の違いっていうことについて言うと、完全に設計思想の違いかどうかって言うと、そうでもないかも。
なぜならば、だって同じモデル同じAIを使ったってプロンプトの書き方で内容変わってきますよね。
あとは同じ会社のAIであってもバージョンによってだんだん変わってきちゃう。
もう一つやっぱり今の旬な話題ですけども、安全制約。そこの影響が強いケースもあるということ。
だから心理的に追い込んで命を絶つみたいな話に思考をやってしまうと社会問題になりますから。
何でもいいから的確に返せばいいってものでもない。使っている相手がこちら人間である以上ね。
ということで言うと、設計思想の違いというより応答の最適化の重みづけが違うんではないかって感じでしょうかね。
だから正確性を優先するんであれば、歴史的なものとかエビデンスとか科学的な位置づけが中心になるでしょうし、
分かってもらいたい、気持ちを理解してほしい的な用途で相談する人もいると思うので、
共感を最優先するのであれば、個人的にどう思っているのかというところに踏み込んでくるでしょう。
さっきも言いましたが、安全を最優先にするのであれば、危険な方向、危険な行動を助長しかねないような煽る回答を避ける。
その場合は曖昧な答え、一般論しか返さない。
あと追加でどんどん質問が来るケースがあるんですけど、これは会話の継続を優先する。答えをすぐ出すことよりもどんどん深めていく。
壁打ち的なやつです。 その辺の優先順位がまたAIによっても変わってくる。
だから今自分がどういうふうにAIを使いたいのかというのも、はっきり自分で分かってないと期待と違った答えが返ってくるのではないかということです。
冒頭、そのAIによる違いを言語化できないんだったら直感で使うしかないなというのは、私が言語化できなかったからそう思ったんですけども、
それはそれでしょうがないので直感でいいんでしょうけども、付け加えたのが観察を伴う直感ということで、
思考の二相構造とAIの活用
なんとなく漠然としているというよりは、どちらかというと私よく感じますけども、苦労度使っててよく思うんですけども、
すぐ答えないで追加の質問を返してくる傾向がよくあるんですね。
だから、より正確にこちらの質問糸を組んでほしい場合は苦労度を使うかなとか、そういう感じだ。単なる直感でもない。
で、理論を整理するタイプなのか、感情の共感よくわかりますとか、こちらの肯定ばっかり返してくる傾向が強いのか、みたいな話。
そうやって、その時何を自分が思っているのかによって、期待する答えを返しそうなAIを選んでいくって感じですかね。
皆さんどうでしょう?思考を整理したいですか、AIと。キャッチボール、壁打ちなんかの場合はそうですよね。学術型のAIがそういうのが向いているのかもしれません。
逆に相談したりとか、本当に占いもそうなのかもしれませんけれども、自己探求を深めたい場合は、いろいろ質問されて対話するのがいいのかもしれないですよね。
そうじゃないんだと。とにかくズバッと早く答えが欲しい、結論が欲しい人、正解が欲しい人、それは明快に断定する。
まあ嘘も使えますけど。AIの得意な嘘ですね。はっきり言っちゃうっていうのが必要なケースもあるでしょう。
もしくはもう深刻に使わない、無難な感じ、人との揉め事を避けたいから安全な一般的な一般論を欲しい、そういう場合は保守的な回答をするエンジンがやっぱり有効になるでしょうね。
だからこれ逆説的にやってみて面白かったんですけれども、はっきりしない曖昧な問いだからこそ、AIそれぞれの違いが出てきたってことなんです。
だから別に特定する必要もないし、特定する答えを吹き出す目的じゃないんだけど、例えばどんなふうにこの人たち回答するんだろうと、人じゃないけどね。
AIの性格診断的には、その答えのないものを有名診断みたいな聞くのも一つありかなと、そう感じました。
で、そのAIそれぞれの違いを理性的に判断できない場合、直感に委ねるのって合理的なんでしょうかということですけれども、これはそれしかないんじゃない的な、他にないでしょう。
そもそもAIって対話型の場合は相互作用、お互いに刺激しあって出ていくものなので、そんな感じでいい開始をしてくればそれでいいんじゃないかということです。
で、じゃあ私はAIに何を求めているんでしょう。
一つ感じることがあって、よくチャットGPTはオープンクエスチョン聞いてくるんですよ。答えにくい質問、漠然としたこと。
で、クロードは割とクローズドクエスチョンが多くて、どちらかと、AとBだったらどっちに近いですかみたいなことを、チャットGPTもそういう聞き方をすることはありますけれども、
それがオープンの方がいい時とクローズドの方がいい時、実は自分にも両方あるんです。
クローズドが答えやすくて楽なんですけれども、でも、それでクローズドなクエスチョンに即答しちゃうと、
その二択なので、二択にない第三の選択肢も含めた本音、真意と離れた結論に、結末に誘導されるリスクをちょっと私感じちゃうんですよ。
皆さんどうでしょう?
だからオープンは答えの難しい分、無限に思考が広がるんですけれども、負荷が高い、疲れちゃう。
答えの大変、楽するためにAI使っているんだ、で、こっちが疲れるんだみたいな。
で、クローズドは簡単に答えられる、AがBかだったらBに近いかなみたいな、簡単に答えられるんですけれども、
誘導されていっちゃうので、誘導尋問に近くて、方向がどんどん固定化されていってしまう危険もある。
そこが私のちょっと違和感なんですね。
だから良さと危険、その背中合わせだってことで、クローズドな質問ってやっぱり選択肢が用意されてるんで、簡単ですよね。
相手が人間でもそうなんですけれども、クローズドな質問の方が答えやすいから、疲れてる時はもうクローズド化してほしいんだってことを相手に言うこともあります。
認知の負荷がとても低いです。
あと言語化しづらい難しい問題なんかの場合は、クローズドの方が答えやすい。
だけど、やっぱり答えやすさの反面で、問いの枠組みを聞いた側が決めちゃうじゃないですか。
選択肢を向こうが用意しちゃうから、相手に委ねて。
さっきも言いましたけども、AかBか引かれたら、Cの可能性は最初から消えちゃってるわけですよ。
だから、漠然と不安ですかって聞かれてしまって、いや怒りかもしれないし、みたいな。
でも不安ってことになっちゃうじゃないですか。そう聞かれちゃうと。
だから質問が正確な現実の一部を削って削ぎ落としてしまうわけです。
完全な嘘にはならないようにしても、現実のある部分のうちのある部分だけに絞り込んでしまうっていう怖さ。
それを感じるわけなんです。
一方、オープンってやっぱりしんどい。枠がないから考えの時間がかかるし、思考するのも結構体力使いますからね。
正解がないものなんか特にそうです。
だから、考えを委ねたはずがAIに逆返し、自分で考えろよって逆に返されてる感じの乱暴な印象も受けなくもたいです。
とにかくエネルギーを使うってことなんです。
じゃあ、だからなんだって話なんですけどね。
クローズドで答えると、だんだん本音から真意から離れちゃうんじゃないかっていうのは怖いんですよ。楽はしたいんですけど。
問いに答えていくことで、どんどんどんどん本筋から少しずつ少しずつ微妙に反れていく。
なんとなく納得、答えている方に進んでいるから納得の結果に行っている気はするんですけども、知らぬ間に導かれてしまうような。
そこがちょっと怖いわけです。
なんか受動的になってしまって流されてしまってるような、そんな感じ。
どうやって使っていきましょう。賢く使うにはどうしたらいいのでしょうか。
足場作りにはクローズドは使いやすいのでそれでいいかなと。
クローズドだけで進めるのが危険なので、ちょっと疑問に思ったら他の選択肢はないのとか、他の可能性についてこちらから逆に聞き返してみるとか。
結局は最終的には自分自身で再定義をしていく。
だからクローズドとオープンを使い分けていく。
組み合わせ合わせ技ハイブリッドですね。整理するのはクローズドで整理しやすいからね。シンプルにポポポンと。
あとは回収はオープンでやっていく。この方がぶれないのではないか。
ちょっと話がだいぶ逸れてきましたけども、AIの設計の話でいうと、なんでAIってクローズド寄りになるのかというと、やっぱりそれはコミュニケーションを安定させるためなんでしょうね。
あとは誤解を減らすため。あとはありがたいことにこちらの負荷を下げるために選択肢を用意してくれる。
答えやすいでしょうしね、向こうもね。
答えになってないような答えをオープンで返されてもきっと困るはず。
一方で、ただやっぱりオープンで来ると何が起きるかというと、深掘りされる。こっちも考える。
こちらの主体性がやっぱり尊重されるし、アイディアも思考も広がりやすくなる。それぞれの良さがやっぱりあります。
だから哲学というよりも最適化の方法がどっちに行っているかということなのかもしれません。
私の考え方、成熟していますかね。
AIはそういうふうに言ってくれるんですよ。誘導されることへの違和感をちゃんと感知しているって言うんですね。
その通りです。私は使ってはいますけど、酒は飲んでも飲まれるなじゃありませんけれども、AIは使っても使われるなってことなんです。
似ていること2つあって、AIに誘導されることと、自分が楽な選択肢に流れること。
このどちらに恐れていますかという質問を渡しされました。どう答えたと思います?
AIに誘導されることが怖いのか、あなたはね。
それとも自分が楽な選択肢に流されちゃうのが怖いのか、どっちですかって聞かれました。
私どう答えたと思います?こう答えました。どちらでもありません。
間違った、誤ったバイアスが加わると、結論が間違った方向に向かってしまうのが、私が気にしている、恐れていることですと。
バイアスと思考の軌道
言い換えてくれました。問いや応答の構造に含まれるバイアスが、思考の軌道そのものを曲げてしまうこと。
その通りなんです、まさにその通り。
とても理智的な記念です、ですって。
理智的な記念、ありがとうございます。
だからAIに騙されるとか、自分が楽をするとか、心理的な気持ちの話じゃなくて、認知の構造レベルの問題を見ているってこと。
なんだそうです。バイアスが結論を曲げる、なんじゃそりゃと思ったことありますか?
考える、思考っていうのはだいたい前提があって、問いに枠組みがあって、そこから押し測っていく推論があり、結論っていう順番で進んでいくものですけども、
そのバイアスっていうのは、前提の段階とか、問いの枠組みの段階で入ってくるんです。
特に、問いの設計に入ってくると厄介なんですよ。
だから、問いかけによって、問いの中で探索の空間、この範囲で考えますよって定義されて狭まっちゃうからなんですよ。
だから、それが狭まるってことは偏った意見になりやすい。
どんなに論理的に進めたって、到達点がずれて行きかねないんですよ。
じゃあ、AIにおけるバイアスの源って何でしょう?
AIのバイナスっていうのは、主に一つが学習データの偏り。
だから、AIが収集している情報だけから判断されているので、それ以外のものは入っていない。
そもそもそれがすでにバイアスだと私は考えています。
インターネットとかデータ化されているものからしか何も推論されてこない。
あと、前半も出てきましたけども、安全設計の優先度。
安全を優先するあまりにちょっとオブラートに積んだ表現だったり、ちょっと論者をずらしたりすることがある。
で、対話継続を重視する最適化っていうのもやっぱりバイアスになってきますよね。
対話をするうちにだんだん、言ってるうちに整理されるっていうのもありますけども、
なんとなく自分の気持ちの方向になっていくし、
AIもこちらの機嫌を取ろうとすると、こっちを喜ばせようとする結論になびいて行きかねない。
ユーザー満足度を高めようとすると、私の見方、裸の王様になっちゃうわけですよ。
素晴らしい素晴らしいって言って、どんどん自分は正しいって称賛されて、そっちに導かれて気持ちよくなって終わり。
それじゃないんですよ、私がやりたいのは。
それやったら第三の頭脳として、自分以外の頭脳としての機能が反映しちゃう。
だから悪意はないんでしょうけども、その最適化の方向を間違えて導かれることはやっぱりバイアスがあってよくない。
私は期待していない。
今回の有名診断のようなケースでは特にそういう最適化の方法が露出しやすいというわけなんです。
だいたいAIって内部設計分からないじゃないですか。
ブラックブックス、しかもどこに思い付けして私はこの意見を導いてますよって教えてもらってないし、非公開。
だからどういう裏のロジックでこれが導かれたのかわからないことが、
やっぱり余計にAI同士の違いを言語化できない理由の一つにもなっているのかもしれない。
同じような質問をすれば同じように出てくるんでしょうけども、とにかく不透明なんですよ。
ブラックブックスってこと。
どうしましょう。
直感でやっぱりいきましょうかね。
結論出たとしましょう、AIで。
問いの枠に依存してなかったかなって振り返ってみたりとか、出た後で。
前提変えてみたらどうなってたんだろう、気になったらもう一回やり直してみるとか。
他のフレームワークでやり直してみるとか、他のAIを使ってみる。
AIとの相互作用と思考の進化
だから結果は一つなんですけども、問いを変えたら違う結果になっている可能性もやっぱり最後まで拭えないので、
そこはやっぱりちゃんと冷静に見極めないといけないのではないかということです。
マイナスって絶対ゼロにはできないんだけど、あることを自覚しながら使うかどうかで変わってくる。
AIって別に真理を生成するマシンではなくて、仮説を生成するマシンだとして扱わないと危険だ。
私はそう使っています。
私のスタンス、別に正解を求めていません。
ただ、ただ、ただ、このThinking Trackもそうですけども、思考の純度を守りたい。
純度ですよ、純度。汚れたくないわけです。
結論の成語よりも結論に至るプロセスの歪みが嫌なんで。
哲学的。自分か。
はい。
よくAIあるじゃないですか。問い。
問いを出してくるんですよ。
またその問いがあったのでその話もしますね。
もしも完全にバイアスのないAIがあったとして、それって使いやすいと思いますか?
それとも、ある程度の方向性があった方が思考が進むと思いますか?
で、私の立ち位置が見えてくるんですって。
私なんて答えたと思います?
私の考えを読みましょう。
バイアスがないゼロ、それって現実的に不可能だと考えています。
そのないっていう判断基準自体がもうすでにバイアスになってしまう。
AIが累積したデータが導けない、累積したデータにないヒントを自分から引き出してフィードバックできることが思考の進化。
私はそう考えています。
AIに言い換えてもらうと今言った話って、バイアスがないという基準自体がバイアスを含んでいる。
そしてAIが基地のデータを再構成するだけではなくて、自分から私から未知のヒントを引き出して、
再期的に更新されることこそが思考の進化であるとまとめてくれました。
これも構造化してくれています。話長いですね、今回。
バイアスがないっていうのがなぜ不可能なのかって話。
これは判断基準を設定する、その基準で評価するという時点でフレームが存在するわけです。
つまり完全な中立っていうのは枠の外に立たないとありえない。
けど人間もAIも枠の中でしか動けないわけです。
だから目標っていうのはバイアスを排除することを目標にするのではなくて、バイアスの可視化、見える化ですね、それと往復運動、そこなんです。
AIが累積データを超えることについて、AIって基本的には既存のパターンの圧縮体でしかない。
でも対話をしているとちょっと違うことが起きてくる。
私が独自の視点を提示したり、世の中にない視点とか、世の中にないデータを提示したりとか、
新しい概念をつなげ合わせてみたいとか、そういう指示をしたりとか、
あとはそもそもの既存の固定化している、確定されていると思われている既存フレームを疑ってみたいとか、
そういうことを私が投げかけることによって、それを受け応答を再編成してくれるのもAI。
その時何が起きるかというと、データを繰り返し再生するわけではなくて、
私からの、私とのキャッチボールによる相互作用で即時的な新たな再編成を行う。
これ進化じゃなくて競争的更新という表現をしています。
じゃあ思考の進化、そのために何が条件になるのでしょう。
思考の進化というのは一つは既存の枠組みを疑うこと。
そう、捕らわれちゃう。だからそれはまず疑いましょう。
二つ目が外部との相互作用、自分だけではやっぱり刺激をし合って再構成する。
結果、自分自身の前提も今まで持っていた前提も、
昨日までの自分と今日の自分は違う。
今日にアップデートしていくということです。
AIは今の三つのうちの外部との相互作用、その外部が私以外のAIであるということなんです。
既存の枠組みを疑ったり、自分の前提を更新するというのは、
自分の主体性、私自身の主体性が必要だということ。
そうやって私は使っています。
面白い逆説を提案してくれました。
AIはデータから導けないヒントを事実的には出せません。
でも、ユーザーが提示した未整理の直感を言語化して返すことはできる。
そうなんですよ。未整理だけど直感で返すと言語化してくれるんです。
それを私はAIで使っていて楽しいんですね。
自分の中にある未構造だったものを構造化してアウトプットしてくれる。
だから、ヒントはAIから出ているようですけれども、実はあなたから来ているんですよと言ってくれています。
自分の立場、AIを別に答えを生成する装置とは見ていないんです。さっきも言いましたけれども。
共同思考装置、その通りなんです。
けど、その中でバイアスを排除するわけではなく往復させる媒介をAIに期待している。
そんなふうに私は使っています。皆さんどのように使っておりますでしょうか。
AIの話になってきちゃいましたけどね。
そろそろやめようかな。
私にとって理想のAIは何でしょう?という質問があって、3つクローズで選択肢を用意してくれました。
私の思考を整理する鏡、私の前提を壊すハンマー、私の思考を拡張する職場合、どれに一番近いか。
私はこう答えました。私の前提を壊すハンマーと答えました。
ハンマー型AI、鏡じゃなくてね。
ハンマー型AIって何だろう。
ハンマーはこう動きます。前提を特定する。暗黙の過程を露出させる。逆のフレームを提示する。
思考の安定を一度崩す。わあ、思考崩されちゃった。
thinking track、そのものですね。目的は正解の提示ではなくて、思考の安定状態を揺らすこと。
そうなんですよ。再検証の場なんです。
で、ハンマーの副作用。不必要に壊すと混乱する。その通りですよ。壊れてる時は負荷が大きいから。
破壊後の再構築って大変、自力が必要。つまりハンマーって使いどころを選ぶ道具なんです。
私がクローズドの質問の誘導リスクを気にしていたのは、ハンマーではなくレールの不設を警戒していたからなんです。その通りです。
レールって安定しますけど、方向が固定されちゃうんですよね。
じゃあ本当に欲しいのは無差別な破壊なんでしょうか。そこは違う。違うよ。違うんですよ。別に破壊したいわけじゃないんですよ。
はい、ということです。壊されることにワクワクしますか?という質問ももらいましたけどね。
理想のAI像:ハンマーとしてのAI
はい、それでは長くなりましたので、今回はこの辺りで。もっと詳しく聞きたいですか?もうちょっとだけあるんですけどね、続きはね。
はい、最後にお断りです。この配信では身の回りでセイラーGが感じたことを元に、ネットやAIなどから得た情報も参考に構成しています。
正確性についての保証は致しかねますので、くれぐれもご自身で最終判断をしてください。疑わしき情報やお気づきの点がございましたらお知らせいただけると助かります。
The Thinking Track。思考は途中にこそ価値がある。
ここだけの話ですけど、冒頭話した夢、深夜っていうか早朝を見たんですよ。
それで起きて目覚めてAIを使い始めてたら、頭が超覚醒しちゃいました。麻薬みたいで怖っ。