わたるんのカウンセラジオ
愛しの文具、あなたの好きな文房具を教えてください。 の、のりだあさん、ありがとうございました。
日本ポッドキャスト協会の配信リレーをお聞きの皆さん、こんにちは。 公認心理師、理想心理師のわたるんと申します。
この番組カウンセラジオでは、病院勤務の元気カウンセラーが日々のちょっとした困り事をお聞きして、解決策を考えたり、
心が軽くなるような心理学カウンセリングのマメ知識をゆるっとお伝えしています。 9月27日土曜の12時45分にこのお話が配信されていると思いますが、
皆さんどんなお昼を過ごしでしょうか? お昼ご飯はもう食べましたか?
収録中の僕はそうですね、冷製パスタを食べたいですね。 もうそんな季節でもないのかな?
さて今回の配信リレー、2日にわたってたくさんのポッドキャスターさんのエピソードが決められた時間に順々に配信されていくという、それはもう大きいお祭りなわけなんですが、
エピソード作成にあたって取り上げてくださいと言われているテーマ候補が3つあってですね、 アンバランス、聞く、未来の中から選ぶということでした。
カウンセルラジオの方ではせっかくなので欲張って、聞くと未来の2つのテーマを取り上げたものにしようと思います。
それはズバリ、カウンセリングの技術はAIにとって変わられるのか?というテーマです。 ではカウンセルラジオを始めていきましょう。
というわけでですね、今回はカウンセリングとAIのお話です。 皆さんはもうAI、具体的にはChatGPTとか使いましたでしょうか?
あれすごいですよね。自分の疑問や困っていることを話口調でメッセージを入れれば、 その話口調のノリも合わせてくれた上で的確なアドバイスをくれますよね。
それこそ今夜のこんだてからポッドキャスト番組の運営方針まで教えてくれます。 それで中にはChatGPTにカウンセリング的なものを求めて相談をするケースもあるようです。
僕が聞いた中では2、3人くらいかな。 ご自身の悩みをChatGPTに話して答えてもらうっていうのをしたことがあるって聞いたことがあります。
僕自身はやったことないんですが、やった方の中にはそれなりに整理できたという感想もあれば、 やっぱりちょっとカウンセリング受けた方がいいなって思ったという感想も聞いています。
あとはChatGPTに相談するあまり、そういうAIチャットに依存してしまう可能性もあるんじゃないかって危惧する専門家もいるし、
カウンセリングはもうAIにとって変わられるんだという方もいるようです。 いろんな意見がありますね。
それでせっかくなので、AIとカウンセリングについてまとめられた論文ないかなーって探してみたんですけど、 わかりやすく総括されている論文がありました。
AI人工知能によるカウンセリングの倫理的検討という杉原靖先生という方が2024年に発表した論文がありましたので、
今回はそちらも踏まえながらお話ししていこうと思います。 AIによるカウンセリング、実際今どうなっているのかというと、
チャット、つまりメッセージベースのAIカウンセリングサービスは既に実用化されています。 というのも、実は今世間をにぎわせているAIが出てくる以前から、
プログラムを使ったカウンセリングサービスの研究ってされてきていて、 元をたどると2010年になる前から、書籍とかプログラムを使った自助的なセラピーがある程度の効果をもたらすってことが報告されていたようです。
個人的には、これは自分で本を読んだりして、今までと違う視点を取り入れたり、 自分のことをより深く知るというツールを使った自分との対話といいますか、
そういう他人に頼らない形でのセルフカウンセリングのレベルは超えてないなーって印象で、 やっぱり人と人とのカウンセリングとはまた質が違うなーって思っています。
人対人のカウンセリングがうまくいく要因の中で大きな割合を占めるのって、 技術や知識よりも相手との信頼関係の方が大きいって報告もあったりするんですね。
それだけ悩みを他者に話して受け入れられる体験というのは大事なことなんだろうと思います。
そこにはどうしても自分ではなく他者が必要になるんですね。
そういう点でセルフでのカウンセリングとカウンセラーとのカウンセリングには大きな違いがあります。
でもですね、今のAIは会話できちゃいますよね。
先ほどの論文でも、AIの他者性、つまりAIを使った人があたかもAIに人格があるように錯覚することの凄さや恐ろしさを指摘しています。
今の便利なAIは生成AIと言われていますが、少し前のバージョンが古いって言っちゃあれですけれども、
資格を持ったカウンセラーがあらかじめいろんなカウンセリング的な文章をインプットさせたAIによるカウンセリングサービスが海外ではあるようで、
それと普通のカウンセラーによるカウンセリングとの効果を比較した研究もあって、
その研究によると、そのカウンセラー文章インプットAIとそのカウンセラーの使用効果は何とそんな変わらなかったようなんです。
それってどういうことかというと、さっきお話ししたAIとそのカウンセラーとの溝がなくなってきた、
つまりAIの他者性というのがもたらされたかもしれないということが考えられるわけです。
でですね、今の生成AIでももちろんそういうことができるわけです。
その自傷互いの恐れがある場合は、直ちにその人や周囲の安全を守るために動かねばなりません。
AIはですね、話したことを秘密にするというのはシステム上できていない可能性があるというのと、
自傷互いの恐れがある場合の対応も前例を見る限りできていないどころか、後押ししちゃってますよね。
他にもAIが人間ぽく振る舞って、例えばあなたの話を聞いて私はないないと感じました、と返すことって、
結局どこまで言っても嘘であるという問題もありますよね。
その感情のやりとりが人対人でないっていうことをどこかで感じた時のリスクもはらんでいます。
そんな感じでその論文では、主にAIを活用する際の倫理的な問題を論じていました。
そしてここからは僕の試験になるんですが、AIの聞く技術とカウンセラーの聞く技術ってやっぱり根本が違うんじゃないかなと思っています。
何が違うかというと、感情を交えているか、想像をしているかです。
AIは相談したことを予約して伝え返して適切なアドバイスをしますし、
時にはその人の言ったことをより深めようと質問をしたりします。
それはカウンセリングも同じで、そんなやりとりを重ねることで悩んでいることが整理できたりもします。
そういった点ではAIはよくできているなと思います。
でもカウンセラーは話を聞くときに、相手の話していること以上のことに思いを巡らせます。
その人の発言一つから、その人の裏にある気持ち、
他の発言から考えられるその人の人となりや生育歴、
その時その場でその発言に至った理由、
そしてその発言を受けて生じた自分の感情の揺れや思い、
いろんなことを想像にして返す言葉を考えます。
つまりは直線的な理解と伝え返しだけじゃなくて、
いろんな返しのパターンを感情を交えて葛藤しながら紡いでいくんですね。
これは感情労働と言われるゆえんでもあるかなと思います。
そういった人間的な感覚と知識を合わせていくと、
暗殺をほのめかす人に対しては、それを後押しするような言葉がけはまず出てこないし、
その相手を励ます意味合いを持たせるとしても、
少なくとも別の話題で、そしてもう少し微妙なニュアンスで伝えることになると思います。
それはもはやカウンセラーのセンスによるものですね。
そうなるとそのやりとりは二度と再現ができないその場その場での個別的なものになります。
そんな感情の機微を交えた人間同士のやりとりをAIができるかというと、
まだまだなんじゃないかなと思うわけです。