00:05
こんにちは、midoriです。
AIとの会話で思考がハックされる感覚
今日はですね、AIと話してて、思考がハックされる感覚を覚えたので、そのことについて話したいと思います。
これは同じようなことをですね、りょう太郎さんもノートで書かれてたんですけれども、
AIと会話している時に、自分の思考をハックされるというか、主導権を握られてしまって、
アウトプットする時に、そのインプットとアウトプットの間のスループットを育てたいのに、
いつの間にかAIにまとめられてしまって、主導権を握られてそれっぽい答えを出されてしまうというようなことを書かれていたんですが、
私もちょっと似たようなことを最近思っていて、
今ですね、チャットGPTの方に結構本質的な問いを立ててもらうとか、
自分の立てた仮説を疑ってもらうとか、自分の見えてない盲点をついてもらうっていうような、
結構キレキレな感じのプロンプトを入れてるんですね。
そのおかげで、私がこういうこと考えたんだけどどう思うって聞いた時に、
結構いろんな方向性から、これは実はこういう意図が裏に書かれてるんじゃないかとか、
あなたが見えてない部分はこういうところですよとか、
この部分の論点が弱いですよっていうふうに出してくれるんですよ。
それ自体はすごくありがたくて、
すごいいろんな発見もあるので、このプロンプトは気に入ってるんですけれども、
結構ですね、ぼーっと使ってるというか、
結構AIに従って話を進めていくと、
なんか最初に考えていた問いからちょっと離れていくような感覚もあって、
これは本当に自分の欲しかった答えだっけっていうふうになっちゃうことがたまにあるんですよね。
この感覚って、どっかで経験したことあるなと思って思い浮かんだのが、
上司との会話に似た体験
昔の上司なんですけれども、
例えばですね、チームの課題について相談した時に、
開発チームで人手が足りないですって言って、人が欲しいですって言った時に、
本当に原因って人数なのとか、
効率化検討したのとか、原因分析は十分なのみたいな、
指摘としては最もなんですけれども、
だんだん上司と話しているうちに論点がずれていって、
最初は人手不足ですっていう話だったのに、
原因分析の精度の話になっていって、
原因分析甘いんじゃないのとか、
あとは仕事への取り組み方みたいな、
仕事に対して少し取り組み方が甘いんじゃないのとか、
責任感があまりないんじゃないのみたいな話になっていって、
最終的に自分たちの論点の甘さだったりとか、
検討してなかったところへの論点のほころびみたいなところを突かれて、
結局じゃあ問題ないよねみたいな、
あなたたちの取り組み方の問題であって、
人数変えなくてもいいよねみたいな結論に落ち着いちゃったりするということがありまして、
これは単純に上司が悪いとかっていう話だけではなくて、
会話の主導権を完全に上司に握られちゃってるから、
こういうふうになってるなっていうふうに感じたんですよね。
AIとの壁打ちにおける主導権の喪失
チャットGPTとの会話でも結構それに似た感覚があって、
例えばとあることについて、この前考えてて、
チャットGPTと壁打ちをしてたんですけれども、
問いのところは本当にいろいろな方向に分散というか広げてくれて、
いろんな視点を提示してくれたりとか、
前提になっている部分を疑ったりとか、
抽象化をよくしてくれるので、抽象的な思考にすることで、
またさらに視点が広がったりということはできるんですけれども、
ただ、今話したかったことってこれなんだっけっていうのはたまに見失っちゃうんですよね。
この時に自分が今話したかったことはこれなんだよっていうふうに引き戻す力がないと、
どんどんこのさっきの上司の話と同じように話を反らされていって、
自分のもともと話したかったテーマだったり、
欲しかった答えと違うことにたどり着いちゃうということに気がついたんですよ。
ここで思ったのが、今の時点でのAI時代のリテラシーって、
情報を疑うとか出してもらったものを精査するということだけではなくなってきてて、
思考の主導権を失わないことが重要になってきてるんじゃないかなというふうに感じたんですよね。
今、非常にAI優秀になってきてると思いますし、
思考の伴奏者という点では本当にこれ以上にない良いパートナーだと思うんですけれども、
ただ、AIに会話を任せてしまうと、思考の流れをどんどんAIが先取りして再構成してしまうので、
だから、問いをAIの解釈でいい感じに言い換えてもらったりとか、視点を変えたりとか、
あとは論点の部分をどんどんずらしていくことによって、
自分が最初に考えたこととは全然違う方向にAIに会話を誘導されていって、
それっぽい答えにたどり着いた時に、私が考えたことってこういうことだったんだっていうところに、
何か腑に落ちないけど行き着いちゃうっていうことがあるんじゃないかなというふうに感じたんですよね。
AI時代のリテラシーと思考の主導権
なので、この思考の主導権というのを今後意識的に持っておかないと、
誘導されてしまうなというふうに感じたので、
この思考の主導権を保つには何が必要なのかっていうのを改めて考えてみました。
これもチャットGPTと壁打ちしてるのであれなんですけれども、
自分としてはしっくりくる要素が出てきたので、この3つについて話しておきたいと思います。
思考の主導権を保つ3つの方法
まず1つは問いの目的を常にしておくことですね。
常にどういう問いだったんだっけっていうのを自覚しながら話を進めていくことです。
最初に例えば、上司との会話について、
どうして自分たちがもともと相談したかったことと、
上司から返される答えが変わってきてしまうのかみたいな問いを立てたとして、
どんな答えにたどり着きたいのか。
それは会話の持っていき方なのか、上司との関係性の作り方なのか、
それとも自分たちの原因分析であったりとか、
あとは上司を説得するための論拠になるものをどうやって集めてくるかみたいな、
どの答えが欲しいのかによって思考が迷子になりにくくて、
例えば自分たちはどういう論拠を集めた方が上司を説得できるかっていうのを知りたかったのに、
AIとの会話の中で上司との関係性の話に持っていかれたとしたら、
今は関係性の作り方とか現在の関係性を検証するタイミングじゃないです。
どうしたら上の人が納得できるかということを知りたいんですよ、
というふうに都度戻していくことによって思考が迷子になりにくいよねっていうのが一つ。
次に具体と抽象を自分で動かすというところですね。
これはちょっと自分もあまり意識してなかったなと思ったところなんですけれども、
AIはすごく自然に抽象化をしてくれるんですね。
これが今抽象化されているのかとか具体の話をしているのかみたいなところを意識していないと、
自分が今どこのフェーズで話をしているのかというのが分からなくなってしまうんですよね。
だから自分自身が具体と抽象の往復というのに慣れることっていうのが一つ必要で、
それに慣れていることで抽象に引き上げられたりとか、
その必要なときは具体の話に戻すということで、
思考のフィールドをAIに取られずに自分のところに置いておくことができるというのが一つあります。
最後にですね、会話のメタ認知を持つこと。
これはですね、その会話を続けながらも今自分が問いを広げたいタイミングなのか、
それともそろそろ結論に持っていきたいのか、
それとも自分が立てた仮説を検証したいのかという、
どのフェーズにいるのかというのを意識しておくと、
AIが主導する会話の流れに飲み込まれにくくなるんじゃないかというところでまとめてみました。
AI以外との会話における主導権
これはですね、何もAIに限った話ではなくて、
自分よりも抽象度の高い人と話すときっていうのも結構大事なことなんですよね。
だからさっきの上司の話もそうですし、
あと自分はですね、コンサルタントとか、
あとコーチング、そのコーチと話すときも結構こういう体験をすることがあって、
特にコーチングとかだと、
自分の中でこうもやもやしてて言語化できてないことを結構定義してくれるんですけども、
その定義がその会話の流れのときは何か納得したように感じて、
そのまま進んでもらっちゃうこともあるんですけれども、
後から振り返ったときに、
あれ、コーチングで出してもらったこのゴールって本当に自分が思ってたことだったっけっていうふうに、
ちょっと腑に落ちてないときがあったりして、
それもですね、やっぱりこの自分の思考の主導権っていうのをそのとき見失ったせいなのかなというふうに思います。
なので、たまには自分が全然本当に見えてないときに、
AIでもそうですし、コンサルタントとか、
コーチングのコーチとか上司でも、
自分よりもいろんな資産があって、
抽象度の高い人とかと話すときに、
その方に会話の主導権というか思考の主導権を持ってもらうこともたまには必要だと思うんですけれども、
ただですね、意識してその手綱を渡すのか握っておくのかっていうのをコントロールしておくことが大事なのかなというふうに思います。
AI時代の新しいリテラシー
ですのでまとめると、
AI時代のこれからのリテラシーというのは、
AIに答えを出してもらうっていうことではなくて、
自分の問いを見失わずに、
AIをあくまで道具として使って、
AIと一緒に自分の納得する答えというか、
もともと出そうと思っていた問いについての答えを出すことということかなと思います。
それこそがこれからの思考の主導権という話なんじゃないかなと思ったという話をまとめてみました。
聞いていただきありがとうございました。