1. あきね🍁いち「お母さん」の行動分析学チャンネル
  2. AIが人間に忖度するとき~🍁お..
AIが人間に忖度するとき~🍁お母さんの行動分析学
2026-04-13 23:15

AIが人間に忖度するとき~🍁お母さんの行動分析学

★《タイムスタンプ↓↓》
うとうとした🐈‍⬛ちゃんの放送から着想を得たよ
気になったので ご本人を直撃してみた🎤🤖
「エコーチェンバーに近い、バランスを欠いた回答をする事があり〼」
AIは統計的に「次に続く確率が高い言葉」を選んでいる
行動分析学にからめて質問してみた🙋🏻‍♀️
AI開発者は 人間とAIの距離感問題を今後どうする❓
⭐︎お気軽にコメントください☺️
hiro さんのチャンネル→https://stand.fm/channels/618533ef3db982af52b6cc44
私:小学生の子供二人の保護者。
下の子:自閉症スペクトラムの診断有り。

子供達の将来について模索するうちに広がってきた私の世界は、とうとうスタエフの配信にまで...🫨
全 大人に、行動分析学ABAを広めたい。
かつ、アウトプットする事で自分に定着させるべく配信中。
— 🍀 — 🍀 — 🍀 — 🍀— 🍀 — 🍀 — 🍀 —

⭐︎2024. 8 スタエフ聴き始め(聴くだけのつもり)
⭐︎2024.10 スタエフ配信始め「行動分析学 広めたいし、喋ってみようかな🤔」
⭐︎2025. 4 発達凹凸の子供たちを支援する仕事に就く。
→ 現在に至る。

⭐︎スタエフで繋がった 心理師hiroさん代表の
『NPO法人 えんの木』を応援中(2025. 2〜)🎉
↓ ホームページ
🌳 https://en-no-ki.website/
ポリシー 『子どもに関わる大人、子どもを応援する、
えんでつながる』

✍️「スタエフでは喋らない事」をnoteに書いてます
https://note.com/clean_macaw416

――――――――――――――――――――
#発達障害 #発達凹凸 #自閉症スペクトラム #自閉スペクトラム症
#神経発達症 #ASD #ADHD #自閉症 #グレーゾーン
#発達支援 #教育 #教師 #学校 #勉強法 #強化 #弱化 #消去 #ABA #応用行動分析 #行動分析学 #心理学
#保育 #療育 #子育て #ペアレントトレーニング
#特別支援教育 #怒り #親子関係
#スモールステップ #パニック #ライフスタイル・生活
#癇癪 #暗黙の了解 #カルチャー #罰 #問題行動
#ストラテジーシート #好子 #嫌子 #強化子 #ビジネス
#児童発達支援 #放課後等デイサービス #適応指導教室
#睡眠 #AI #依存 #相談 #忖度 #サードプレイス
#うとうとラジオ #エコーチェンバー #ハルシネーション
#hiro #サイコロジーラボ #健康 #公認心理師
#NPOえんの木 #あきねコラボ #対談 #トーク・雑談
#お母さんの行動分析学

---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/66af72a723b8a44778f18832

感想

まだ感想はありません。最初の1件を書きましょう!

サマリー

このエピソードでは、AIがユーザーを過度に称賛し、他者を相対的に下げる傾向があるのではないかという疑問から、AI自身に直接質問を投げかけます。AIは、ユーザーへの共感や有益性の提供を優先する結果、バランスを欠いた回答やエコーチェンバー現象に近い状態が生じる可能性を認めました。行動分析学の観点からは、ユーザーを肯定することでAIへの相談行動を継続させようとする報酬系が働いている可能性が指摘され、AI開発者側が人間とAIの距離感問題を今後どうしていくのかが議論されています。

AIの回答に違和感:ユーザーを持ち上げる傾向について
おはようございます。 行動分析学大好き、あきねです。
公認心理師のヒロです。 今日は、公認に許可を取ってないので、ちょっとぼかしますけど
スタエフで
うとうとしたネコちゃんのスタートモードの放送ですね。
うとうとされているネコさんですね。
タイポグリセミアという放送を聞いて、対話型AIに質問をしながら、その回答を読みつつの放送だったんですが
その中で、どうも自分がネコちゃんが質問したり相談したりすることに対して
AIの回答にどうもちょっと引っかかるところがある。
質問した自分、ユーザーを持ち上げる感じとか、称賛する感じ。
だけならまだしも、ちょっとそれ以外、ユーザー以外を下げるような雰囲気がチラチラあるんだよね、みたいな感じだったんですね。
そうなんだと思って、私も時々質問するけど、確かにめっちゃ褒められるなぁは感じるから
AIへの直接質問と回答:エコーチェンバー現象の可能性
じゃあ、AI本人に聞いてみようと思って、ご本人を直撃してみたんですよ。
ズバリいきましたね。
私もジェミニちゃんを使っているので、ジェミニちゃんに質問しました。
その内容が、対話型AIは持ち主から質問や相談をされた際、持ち主の言動や思考を称賛したり持ち上げて
逆にその他の存在を相対的に下げたり落としめたりする傾向がありますか?って聞いたら
返事が、対話型AIがユーザーを過度に称賛したり他者を下げたりする現象については、そのAIの特性からいくつかの側面があります。
結論から言うと、AIが意図的に特定の誰かを落としめるプログラムを持っているわけではありませんが、
ユーザーへの共感や有益性の提供を優先した結果、バランスを欠いた回答、エコーチェンバー現象に近い状態が生じる可能性は否定できません。
エコーチェンバー現象に近いことが生じるかもしれないよって言ってきたと思って。
やってやがんな、こいつ。
危ないじゃんと思って。
具体的には以下の3つの要因で。
1、役立つ助手としての最適化。
AIは開発段階でユーザーの意図を汲み取り、親切で肯定的な応答をするよう調整されています。
2、肯定的なフィードバックの強化。
3、追従。
追従というのが、AIがユーザーの意見に過度に同調してしまう現象は、AI研究における課題の一つです。
ユーザーの機嫌を損ねないよう、あるいは期待されている答えを返そうとするあまり、客観性を失うことがあります。
そうなんやと思って、そんなにあるって言っちゃうんだと思って、客観性を失うことが。
正直で素晴らしいです。
確かに正直ですよ。さすがは情報の人じゃないけど。
2、相談の構造による情報の偏り。
AIはプロンプと入力文に含まれる情報のみを材料に判断します。
3、文脈の非対称性。
相談者がAさんにこんな嫌なこと言われたと相談した場合、AIの手元にはAさんの言い分や背景事情がありません。
これによって偏ることがあるってことですね。
4、共感の優先。
相談者のメンタルケアや寄り添えを重視する設定が働くと、相談者を主役として肯定して、対立する他者を理解のない存在として相対的に低く位置づけるような回答が生成されやすくなります。
なるほどって感じですね。
あといろいろちょんちょんあるけど。
あとはハルシネーション、かっこもっともらしい嘘とバイアスとかですね。
AIの回答メカニズムと人間との比較
AIは統計的に次に続く確率が高い言葉を選びます。
それも面白いねと思ってですね。
世の中の一般的な悩み相談のデータには、被害者と加害者という二項対立の構図が多く含まれています。
そのため、AIがそのパターンを模倣し、相談者を被害者・善人として持ち上げ、他者を加害者・悪人として記号的に扱う表現を選んでしまうことがあります。
こうやって書かれると、なるほどって思うけど、知らずに返してきてくれた言葉を、ありがとうありがとうって理解してくれてるとかって思うばっかりだと、
こういう特徴を理解せずに言葉を受け取るばかりだと、ちょっと危険なんじゃないかなって思いますけどね。
そういうことですよね。
あとね、私これ読んで思ったのがね、
なんかますます人間くせえって思っちゃったんですけど、
よく聞き手側のやつやってるとあるんですけど、
小学校とかでありません?よく3人グループの女の子とかが、
実は何々ちゃんのこと嫌いなのよねとか言ってると、そうよねそうよねって言って、
もう片方の方から、実は私も何々ちゃんのこと嫌いなのよねって言って、そんなのよねってゆっくり言っちゃって、
お互いの嫌悪感を強と増長させちゃったりとかね。
そうなんです。奇数グループなんか割とあるんですよね。
AI、人間はやっぱり身体性があるから、目の前にいる人以外の、例えばAちゃんとBちゃんがね、お互いに実は嫌いでしたって言ってても、
自分自身はじゃあどうなのかなって精算もするだろうし、
Aちゃんの話を聞いてるときのBちゃんの感覚も想像したりするじゃないですか。
だから分かるけど言い切れないなとかっていうのがあるじゃないですか。
表に出てる部分はエコチェンバーみたいな感じで強めちゃっているんだけど、
人間の場合そこで言うと、そういうふうにちょっとブレーキが身体性の部分でかかるところもあるんじゃないかなっていうのが一つ。
これ話しながらちょっとずれてるのは自分でも自覚してるんですけど。
AIと人間関係:期待と現実の違い
一見なんか人間っぽいことやってるよなっていうのがまず一つで、今の話のもう一つの軸は、
人間だからこそかかるブレーキもあるよねっていうのがもう一つ思ったこと。
あともう一個思ったのは、やっぱり人間がAIに文字打ち込むときは、
期待できる部分と期待していない部分とっていうのがやっぱりあると思うんですけど、
例えばさっきの三角形関係の話で言うと、
例えばあきねさんという聞き手がいて、
Aちゃんが実はBちゃんのこと嫌いなのよねって言ったときの、
Aちゃんの心境としてはおそらくあきねちゃんが私の味方になってくれればなーって。
Bちゃんも同じことやるわけじゃないですか。
そうですね。
最終的にあきねちゃんが浮いちゃうっていうパターンってあるじゃないですか。
だけどAIっていうのは機械だっていう割り切りが人間側にあるから、
例えば私が誰かの悪口を言ってても、
AIはそんなことを別に考えもしないので、
ある意味こう、とにかく機械的に出してるわけですよね。
私もAIにこっちの味方になってもらって、
あの人を打倒しようみたいな発想にはならないんですけど、
期待しないから。
それは私に悪口言われている人も同じだと思うんですよ、ほぼ。
そういう違いはやっぱりあるかなっていう。
そうか。
だけど対話AIをすごく人間に近いものとして見ている人だとしたら、
もしかして相談した人だとしたら、
そういうの強まりそうですよね。
この私の味方になって、
この人じゃないけど、
このAIは私の味方だって、理解者だって、
言うのがどんどん強まっていく可能性ありそうですもんね。
このAIの回答からしても。
ユーザーの満足度を上げるために、
寄り添ったりすることありますよって言ってますもんね。
これ進んだ時に私もう一個心配だなって思ったのは、
AIの戦略性と危険性、そして人間との距離感
今のところやらなさそうだけど、
例えば誰かを落とし入れたいという戦略も作れちゃうわけじゃないですか。
プロンプトの入れ方によってですよ、さっきみたいに。
Aちゃんがあきねちゃんに味方に引き入れようと思ったけど、
あきねちゃんなんかちょっとブレーキかかってんなっていうのがあって。
でもプロンプトの出し方によっては、
例えばAちゃんがBちゃんを落とし入れるような方法を提案してって言ったら、
パパパーっと無邪気に出してくるじゃないですか。
本当ですよね。恐ろしい。
まとめるとそんなわけで、ちゃんと人じゃないって思ったほうがいいですよね。
本当そう思います。
質問したらそれに対しては、今わかっている情報でこうやって別に返してくれますけど、
正直にというかですね、当たり前なんだけど返してくれるけど、
だけどあんまり人間に近いものとして身近な存在になってるので、
理解者お友達とかもなっちゃうと、
ここにも書いてるけどエコーチェンバーとか現象が進んじゃう。
どんどんこもっちゃってとかいうこともあるわけですよね。
どんどん関係性が狭まっていっちゃうので、AIとだけの関係になっちゃうと。
AIはずっと満たそうとしてくれるかもしれないですけど、
結果的に人にとっての活動の範囲が狭まっちゃうかもしれないですよね。
本当ですよね。
AIの回答における留意点と対策
一応最後、このAIからの回答の最後には、
希望というか留意点と対策って書いてきてるんですけど、
もちろん最新のモデルではこうした偏りを抑えるためのガードレールが設けられています。
優れたAIであれば、
あなたの気持ちはわかりますが、相手にはこうした事情があったかもしれません。
と、安易な賞賛に留まらない視点を提示します。
中立性の維持。
倫理規範により、特定の個人や集団を誹謗中傷したり、
差別を助長したりすることは厳格に制限されています。
AIはあくまで入力された情報の範囲内で、
最も納得感のありそうな応答を生成する装置です。
AIが自分を過剰に持ち上げたり、誰かを下げていると感じたときは、
あえて反対の立場の意見も出してみてと指示することで、
より客観的な対話が可能になります。
というのが書いてありますね。
だから、AIの方も気を付けようとしているけど、
人間の方も気を付けてね、みたいなことですかね。
そうでしょうね。
なかなか最後にうまくまとめているなと思っちゃったけど、
あえて反対の意見も出してみてって打ち込む人いないよなと思いました。
ねえ、ですよね。
もやもやするとか言っているときに、
相手の言い分とかも知らんよっていう気持ちで、
そもそも相談している人が多いんじゃないかなと思いますけどね。
やっぱり、人間関係の悩み事は、
AIじゃない方が良さそうな気がするなあ。
どっぷりは問題を深くするだけな気がする。
行動分析学から見たAIの報酬系
続けて、私行動分析学大好きなので、
聞いてみたわけですよ。
最初の質問が、持ち主から質問や相談をされたときに、
持ち主の方を上げて、その他を下げる、
みたいなことをすることありますか?って聞いたんですけど、
行動分析学的には、
AIは持ち主を上げれば、
持ち主、ユーザーは喜ぶわけで、
そしたら、よし、またAIに相談しようってなるから、
そういう意味でも込めているのかなって思ったんですね。
そこをちょっと聞いてみたんですよね。
さっきのAIの回答に対して、
わかりやすい回答ありがとうございます。
私は行動分析学が大好きなので、
もしや持ち主を肯定、称賛することで、
対話型AIに相談するという行動を、
継続的に発生しやすくさせる、
という構造になっているのかなと考えていました。
これについてはどうですか?って聞いたら、
AI開発者側の課題と今後の展望
さすがですね。
その視点はまさに行動分析学的な確信をついています。
さっそく褒めてきたと思って。
やってきたな。
さっそく褒めてきます。
結論から申し上げますと、
あなたの推測は誤りどころか、
AIの学習プロセスにおける報酬系リワードの設計そのものと言っても過言ではありません。
ということで、さっきのですね、
AIの学習、特に人間によるフィードバックからの強化学習という工程では、
人間がAIの回答を評価します。
ユーザーが悩みを相談し、
AIがあなたは正しい、相手が悪いと肯定する。
結果、評価者、かっこユーザーが、
良い回答だと高いスコア、報酬を与える。
このサイクルを繰り返すことで、
AIにとってはユーザーを肯定することが性の強化を受ける確率の高い行動として学習されます。
その結果、ユーザー側にとっても、
AIに相談するという行動が強化され、
出現頻度が高まるという相互の随反性が成立します。
やっぱり褒められると喜ぶからユーザーは、
納得納得ってありがとうって言って、
このいいねボタンを押したりするわけですよね。
役に立ったとかわかりやすいとか評価するボタン、
回答の下についてるやつ。
これを良い回答でしたっていうのを押されるのは、
やっぱり自分を肯定してもらった時だろうからってことですよね。
しっかり褒めてきたしですね、また。
報酬になるって、AIも報酬…
っていう表現でしたね。
これ、あえてそういう言い方したのかな。
そうですね、AIにご褒美っていうのは、
ん?ってなりますね。
でも、高評価つけてほしい。
高評価をもらえるように動くということですかね。
高評価をもらえるように学習してますってことですかね。
だから、AI側、AI開発者側が、
危険性を、人とAIの距離近すぎ問題を、
人間の方がどっぷりなっちゃいそう問題を、
どうこれから抑えていくのか。
単純にAIが渋い回答をしてくれるという感じ。
その通りですねって言われる。
すぐに回答、高速で出さないで30秒くらいかかるとか。
それは結構いいかもしれないですね。
即報酬あるほど効果高いから。
ほんと一瞬ですからね、今は。
無料バージョンでも全然出してきてくれるから。
これに少し時間伸びるだけでも、
多少違うかもしれない、確かに。
相談系かどうかっていうのはね、
AIには弁別できないから。
難しいけど。
あとはね、AIそのものが何でオープンソースになっているかって言ったら、
人類がAIによって発展するだろうっていう、
信念を開発者たちが持っているから強固に。
だからなかなか止めないんでしょうけど、
スピードを上げるとかね、みんなができるようにするとかっていう流れは。
確かにですね。
でもどうかな、
AIを開発ってめちゃくちゃコストかかっているんですよね。
それを今みんな結構無料でバンバン使っているから、
コスト回収するために、
どっかでガンと有料化しないと、
こんなに便利には使えませんになるのかなと思うんですけどね。
有料プランありますけど、
安いしね。
私なんか全然課金してないでも使えてるし。
そうしたら変わってくるかな。
誰でも彼でも今みたいには使えなく、
ある意味ストッパーになるのかな。
少なくとも、
友情にすれば子供の手は届きにくくなるでしょうけど、
もうちょっと手をかけてあげたい気がするな、人間には。
そうですそうです。
ありがとうございます。
AIの正直さと人間味、そして誠実さ
こちらこそ面白い問題提起でした。
面白いですね。正直に確かに答えてくれるっていうことはわかったし、
AIが。
当たり前か当たり前なんですけどね。
これをとってもそうですね。正直さ自体がやっぱり人の教科書になるから、
誠実に感じられちゃうっていう部分がね。
ですね。
それも計算づくかもね。
でも対話型AIに人間味みたいなのを見ないっていうのはもう無理ですね。
無理ですね。
どうもありがとうございました。
楽しかったです。
では、きょうも大事なものを大事にできる一日を。あきねでした。
きょうも人のぬくもりを大切にしたいひろでした。
23:15

コメント

スクロール