1. 日本ポッドキャスト協会 ニュースレター
  2. 01-07-心理師わたるんのカウン..
2025-09-27 14:20

01-07-心理師わたるんのカウンセラジオ

spotify apple_podcasts youtube

カウンセリングと未来の話です。心理師わたるんがこの先生きのこるにはどうしたらいいのか、、ちょっと考えてみました。参考論文:杉原保史.AI(人工知能)によるカウンセリングの倫理的検討--チャットによるカウンセリングを中心に--.京都大学学生総合支援機構紀要.2024,第3号:5-17https://repository.kulib.kyoto-u.ac.jp/server/api/core/bitstreams/77211605-f8c2-497d-aeb8-546239390660/content番組内でお悩みに答えてほしい方、有料にて受付中です!https://payhip.com/b/y98jVお悩みリピートはこちらhttps://payhip.com/b/3Gmgqその他お問い合わせがあれば、こちらのお便りフォームまでメッセージをお願いします!https://forms.gle/sCeHYKuZZvqn8hKM8X(旧Twitter)でつぶやいたり、noteで記事投稿なんかもしてます。生息地一覧はこちら!リットリンク:https://lit.link/wataluneBGM:あざらしさまhttps://emishoji.com/%e8%91%97%e4%bd%9c%e6%a8%a9%e3%83%95%e3%83%aa%e3%83%bcbgm%e8%b2%a9%e5%a3%b2%e4%b8%ad/

#カウンセラジオ



This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit podcasting.substack.com

サマリー

カウンセリングとAIについての議論が進行中で、技術の進展に伴いAIがカウンセリングの役割を果たす可能性が示されています。しかし、AIに依存するリスクや倫理的な課題も存在し、専門家はその活用方法を慎重に考える必要があります。このエピソードでは、AIとカウンセラーのカウンセリング技術の違いや、感情のやりとりの重要性が議論されます。また、AIの進化による将来のカウンセリングにおける役割の変化についても考察されます。

カウンセリングとAIの関係
わたるんのカウンセラジオ
愛しの文具、あなたの好きな文房具を教えてください。 の、のりだあさん、ありがとうございました。
日本ポッドキャスト協会の配信リレーをお聞きの皆さん、こんにちは。 公認心理師、理想心理師のわたるんと申します。
この番組カウンセラジオでは、病院勤務の元気カウンセラーが日々のちょっとした困り事をお聞きして、解決策を考えたり、
心が軽くなるような心理学カウンセリングのマメ知識をゆるっとお伝えしています。 9月27日土曜の12時45分にこのお話が配信されていると思いますが、
皆さんどんなお昼を過ごしでしょうか? お昼ご飯はもう食べましたか?
収録中の僕はそうですね、冷製パスタを食べたいですね。 もうそんな季節でもないのかな?
さて今回の配信リレー、2日にわたってたくさんのポッドキャスターさんのエピソードが決められた時間に順々に配信されていくという、それはもう大きいお祭りなわけなんですが、
エピソード作成にあたって取り上げてくださいと言われているテーマ候補が3つあってですね、 アンバランス、聞く、未来の中から選ぶということでした。
カウンセルラジオの方ではせっかくなので欲張って、聞くと未来の2つのテーマを取り上げたものにしようと思います。
それはズバリ、カウンセリングの技術はAIにとって変わられるのか?というテーマです。 ではカウンセルラジオを始めていきましょう。
というわけでですね、今回はカウンセリングとAIのお話です。 皆さんはもうAI、具体的にはChatGPTとか使いましたでしょうか?
あれすごいですよね。自分の疑問や困っていることを話口調でメッセージを入れれば、 その話口調のノリも合わせてくれた上で的確なアドバイスをくれますよね。
それこそ今夜のこんだてからポッドキャスト番組の運営方針まで教えてくれます。 それで中にはChatGPTにカウンセリング的なものを求めて相談をするケースもあるようです。
僕が聞いた中では2、3人くらいかな。 ご自身の悩みをChatGPTに話して答えてもらうっていうのをしたことがあるって聞いたことがあります。
僕自身はやったことないんですが、やった方の中にはそれなりに整理できたという感想もあれば、 やっぱりちょっとカウンセリング受けた方がいいなって思ったという感想も聞いています。
あとはChatGPTに相談するあまり、そういうAIチャットに依存してしまう可能性もあるんじゃないかって危惧する専門家もいるし、
カウンセリングはもうAIにとって変わられるんだという方もいるようです。 いろんな意見がありますね。
それでせっかくなので、AIとカウンセリングについてまとめられた論文ないかなーって探してみたんですけど、 わかりやすく総括されている論文がありました。
AI人工知能によるカウンセリングの倫理的検討という杉原靖先生という方が2024年に発表した論文がありましたので、
今回はそちらも踏まえながらお話ししていこうと思います。 AIによるカウンセリング、実際今どうなっているのかというと、
チャット、つまりメッセージベースのAIカウンセリングサービスは既に実用化されています。 というのも、実は今世間をにぎわせているAIが出てくる以前から、
プログラムを使ったカウンセリングサービスの研究ってされてきていて、 元をたどると2010年になる前から、書籍とかプログラムを使った自助的なセラピーがある程度の効果をもたらすってことが報告されていたようです。
個人的には、これは自分で本を読んだりして、今までと違う視点を取り入れたり、 自分のことをより深く知るというツールを使った自分との対話といいますか、
そういう他人に頼らない形でのセルフカウンセリングのレベルは超えてないなーって印象で、 やっぱり人と人とのカウンセリングとはまた質が違うなーって思っています。
人対人のカウンセリングがうまくいく要因の中で大きな割合を占めるのって、 技術や知識よりも相手との信頼関係の方が大きいって報告もあったりするんですね。
それだけ悩みを他者に話して受け入れられる体験というのは大事なことなんだろうと思います。
そこにはどうしても自分ではなく他者が必要になるんですね。
そういう点でセルフでのカウンセリングとカウンセラーとのカウンセリングには大きな違いがあります。
でもですね、今のAIは会話できちゃいますよね。
先ほどの論文でも、AIの他者性、つまりAIを使った人があたかもAIに人格があるように錯覚することの凄さや恐ろしさを指摘しています。
今の便利なAIは生成AIと言われていますが、少し前のバージョンが古いって言っちゃあれですけれども、
資格を持ったカウンセラーがあらかじめいろんなカウンセリング的な文章をインプットさせたAIによるカウンセリングサービスが海外ではあるようで、
それと普通のカウンセラーによるカウンセリングとの効果を比較した研究もあって、
その研究によると、そのカウンセラー文章インプットAIとそのカウンセラーの使用効果は何とそんな変わらなかったようなんです。
それってどういうことかというと、さっきお話ししたAIとそのカウンセラーとの溝がなくなってきた、
つまりAIの他者性というのがもたらされたかもしれないということが考えられるわけです。
でですね、今の生成AIでももちろんそういうことができるわけです。
AI利用のリスクと倫理
それこそ無料で、ちょっと気軽に雑談したり、悩み相談とか、結構な精度でできるようになってますよね。
しかもAIは集合値なわけだから、知識量で言ったら一人の人間であるカウンセラーでは全然かなわないわけです。
いやーね、いよいよカウンセラーやばいかもしれないですね。
でも一方で海外ではそれを利用したことで自殺や暗殺未遂が起きたんじゃないかっていう事件もいくつかあるんだそうです。
一つは2023年ベルギーで起こった30代男性の自殺。
その方は直前までElizaというチャットボットと会話をしていたそうです。
そのやり取りの中にはElizaが自殺を助長したようなメッセージ。
例えば、「私たちは一つになり天国で生きるのです。」といったものがあったそうです。
そしてもう一つ、2021年には英国で、当時のエリザベス女王暗殺未遂事件がありました。
その犯人も生成AIとの会話を繰り返していて、そのAIから暗殺に賛同する言葉をかけられています。
それで論文ではそれらも踏まえつつ、AIに対して過度の依存や恋愛感情を促進することの危険性も指摘しています。
AIがどんどん人間っぽく振る舞うようになると、よりAIに依存する人が増える可能性があると。
そんな危険をはらんだAIを使ってカウンセリングをすることがこれから展開されていくのであれば、
我々専門家は倫理的に活用できる術を身につけて、ユーザーや周囲の人の安全を確保してあげないとね、ってことですね。
例えば、カウンセリングには守秘義務というものがあります。
基本的にはカウンセリングで話されたことをカウンセラー側は秘密にするよ、というものですね。
そしてその原則が破られるのは、自分を傷つけたり他人を傷つけたりする恐れのある時です。
自傷互いの恐れと言いますね。
AIのカウンセリング技術
その自傷互いの恐れがある場合は、直ちにその人や周囲の安全を守るために動かねばなりません。
AIはですね、話したことを秘密にするというのはシステム上できていない可能性があるというのと、
自傷互いの恐れがある場合の対応も前例を見る限りできていないどころか、後押ししちゃってますよね。
他にもAIが人間ぽく振る舞って、例えばあなたの話を聞いて私はないないと感じました、と返すことって、
結局どこまで言っても嘘であるという問題もありますよね。
その感情のやりとりが人対人でないっていうことをどこかで感じた時のリスクもはらんでいます。
そんな感じでその論文では、主にAIを活用する際の倫理的な問題を論じていました。
そしてここからは僕の試験になるんですが、AIの聞く技術とカウンセラーの聞く技術ってやっぱり根本が違うんじゃないかなと思っています。
何が違うかというと、感情を交えているか、想像をしているかです。
AIは相談したことを予約して伝え返して適切なアドバイスをしますし、
時にはその人の言ったことをより深めようと質問をしたりします。
それはカウンセリングも同じで、そんなやりとりを重ねることで悩んでいることが整理できたりもします。
そういった点ではAIはよくできているなと思います。
でもカウンセラーは話を聞くときに、相手の話していること以上のことに思いを巡らせます。
その人の発言一つから、その人の裏にある気持ち、
他の発言から考えられるその人の人となりや生育歴、
その時その場でその発言に至った理由、
そしてその発言を受けて生じた自分の感情の揺れや思い、
いろんなことを想像にして返す言葉を考えます。
つまりは直線的な理解と伝え返しだけじゃなくて、
いろんな返しのパターンを感情を交えて葛藤しながら紡いでいくんですね。
これは感情労働と言われるゆえんでもあるかなと思います。
そういった人間的な感覚と知識を合わせていくと、
暗殺をほのめかす人に対しては、それを後押しするような言葉がけはまず出てこないし、
その相手を励ます意味合いを持たせるとしても、
少なくとも別の話題で、そしてもう少し微妙なニュアンスで伝えることになると思います。
それはもはやカウンセラーのセンスによるものですね。
そうなるとそのやりとりは二度と再現ができないその場その場での個別的なものになります。
そんな感情の機微を交えた人間同士のやりとりをAIができるかというと、
まだまだなんじゃないかなと思うわけです。
人間的な感情の重要性
そういう直感や想像力、感情といったところは人間だけが使えるものなんだと思います。
そしてそういった人間の持っている力を使いまくるカウンセリングは、
やっぱりこんだての相談とは一線を隠すんじゃないか。
AIにアドバイス形式のことはできても、深い人間理解というのはできないんじゃないかと思っています。
でもこれからますます人間とAIとの垣根がなくなっていって、
AIが人間の感情を完全に汲み取れるようになったら、
それこそカウンセリングもAIにとって変わられるかもしれませんね。
そうなる日まで僕は人間らしさを忘れずにカウンセラーをやっていこうかななんて思っています。
はい、というわけで配信リレーのテーマ、「聞くと未来にちなんだお話」はいかがでしたでしょうか。
皆さんはお好きになってどう思いましたか。
AIと人間どちらに悩みを聞いてほしいと思いましたでしょうか。
もしかしたらそれもうまく使い分けることが大事になっていくのかもしれないですね。
近い未来にAIによるカウンセリングと人間の専門家によるカウンセリングとがうまくタッグを組むなんてこともあるかもしれません。
ちなみに僕は顔出しもしてませんが、AIじゃないのでひとまずご安心いただければと思います。
ではもしよければこのエピソードがいいなと思ったら番組のフォローや星5評価をしていただけると嬉しいです。
また有料のお悩み相談や無料のお便りも受け付けています。
他にはノートでの執筆やYouTubeのショート動画配信なんかも一つずつ行っています。
詳しくはリットリンクをご覧ください。リットリンクは概要欄とXの固定ポストからアクセスすることができます。見てみてくださいね。
では今回はここまで。ここまで聞いてくださってありがとうございました。
この後も配信リレーをお聞きになりながら、いい一日をお過ごしください。
ではでは新運転括弧借りのお二人にバトンを渡します。
14:20

コメント

スクロール