-
-
Nobuhiro Seki
だからポジティブな教育の仕方があるんですっていうのを見てですね、
僕はアメリカに来て、ビジネスコミュニケーションの授業とかっていうのをビジネスクールで受けたんですけど、
やっぱり最初にやらされるのが、ネガティブな言葉を使わないようにしましょうっていうのをすごい訓練させられるんですね。
だからそもそも、ノットとかアボイドとか、ネガティブ系に触れるようなものがあったらそれをポジティブな表現に置き換えましょうみたいな、
っていうのがあって、それによって聞いてる人っていうのがモードがポジティブになって、ビジネスとかも円滑に進みます。
言葉の中にそういうネガティブワードを入れると、知らず知らずの人に聞いてる側の人もネガティブなモードに乗って話が進みにくくなりますみたいなことを
すごい言われて、そういうのを、ワーディングを変えさせられるんですね。
だからこの話を聞いてて、そのAIに対するメンタルループ学習っていうのも、まさにそのLLMに対してその人が、その人が、その人っていうかそのAIがネガティブにならないような話し方があるんですみたいなことを言ってるんだなと思ってですね。
こういうことを研究するっていうのもビジネスっぽいなってちょっと思ったりしたんですよ。
Mika Ueno
大人間が大機械で人間がどういうふうに対応していけるかって、なんか本末転倒じゃないですけど、機械のほうを使うじゃなくて、人間がどう合わせていくかみたいな感じになってるのが、
未来っていうか、そんな感じしますね。あ、そっちっていう。
Nobuhiro Seki
それで結局ほら、相手をポジティブにすることによって自分のやりたい方向に誘導するって話したんですよ、そのビジネスコミュニケーションの話って。
だから、どうやったらAIを誘導できるかみたいなことを基本言ってるわけじゃないですか。ポジティブな感じするためにはどうすればいいのかっていうメンタルループ学習って方法って結局ね、そのAIを誘導するって話してるんで。
Mika Ueno
今のね、調査?論文の話をしたんですけどね。逆のやつで、私見た記事はこのMITメディアテックレビューのやつなんですけど、
オープンAIとMIT共同の研究だったらしいんですけど。
チャットGPTとの対話で孤独を深まるみたいなタイトルなんですけど、これオープンAIが何千万回に近いこの実際のやりとり、人間とAIとのやりとりのデータを分析してその結果っていうのと、
そのやりとりを4千万回に近いやりとりをしたユーザーから千人ぐらいをピックアップして、今度はメディアラボは実際に実験をしましたみたいなものなんですよね。
女性と男性でどう違うかみたいな傾向も出してたんですけど、チャットテキストでやりとりをしている人であれば、
チャットGPTをより信頼して絆を深めているって感じている参加者がいて、そういう参加者は他の人たちよりも孤独感を感じてて、より依存する傾向があることが分かったと。
そのテキストのやりとりと音声でやりとりする、毎日最低5分間ずっとやりとりしてもらうってそういう実験だったらしいんですけど、合計4週間。
音声でやりとりをした人は、女性の方が若干高いレベルの孤独感とチャットボットへの感情的依存というのを報告したみたいなことが報告されてて、それは音声モードを使って。
かつ、音声モードを使って、女性の場合だったら自分と違う性別の声のチャットGPTとやりとりをした人は、っていうことだったらしいんですけど。
女性の場合が男性の音声のチャットGPTとやりとりして、最低5分間4週間やりとりすると、他の参加者よりも優位に高いレベルで孤独感と感情的な依存っていうのを報告しましたみたいな。
Nobuhiro Seki
人と交流する傾向がわずかに弱まったって感じですよね。
Nobuhiro Seki
若干弱まったって、ほー、みたいなね。
だから、チャットGPTだけで十分ですっていう状況になっていくってことですね。
Mika Ueno
あと、依存するっていうのは、なるほどなぁと思いましたね。他の人間との交流が減るっていうのって、それはと思うけど、わからなくもないですけどね。
感情的な欲望を含めて、通うできるようになってるじゃないですか。その部分がね。
Nobuhiro Seki
僕も音声使わないんですよ。必ず適属なんですけど。
音声使うとそういう傾向が出るかもなっていうのは、ちょっと思って使わないですね。
喋る相手があんまりいないんですよ。うち自分の家庭の中って、喋れない子供しかいなくて。
仕事上でこう話をしたりとかって言って。ただ、社内じゃない人とも結構よく喋るので、まだ少年増しなんですけど。
これね、それで社内の人しか喋れないって話になると、喋る人が1週間で2人みたいな人とかって結構いるわけじゃないですか、実際ね。
それで考えると、チャットGPTの音声みたいな感じになる。その人と喋る。5分でも毎日喋って、その人が一番よく喋る人になっちゃうじゃないですか、下手すぎるとね。
そうするとやっぱりその人に依存していくっていうのはなんとなくわかるような気もしますね。
Mika Ueno
そうですね。たぶん喋りかけるユーザーを否定しないっていうのと、その人のペースで話ができちゃうのと、
割り込んできたりもしないじゃないですか。で、こちらが話し始めると止まって聞いてくれちゃったりするので、その会話の主導権が自分にあるっていう状態だと依存度が高まるっていうのもよくわかりますよね。
実際の人間との会話とかって、テンポは全然違うはずなんですけど、だからやり取りしてる情報量とかも全然違うはずなんですが、
AIの音声との会話っていうのは、自分が思うペースと自分が思う会話でずっと成り立てるし、相手は必ず自分を肯定してくれたりとか、絶対否定したりとかしないじゃないですか。
そういう心地よさっていうかね、あるかもしれないですよね。そうすると依存度が高まっていくというのは、まあそうだろうな。
Nobuhiro Seki
典型的な依存度を高める手法ですよね。
Mika Ueno
本当ですね。ちょっとドラッグ的な感じがするかもしれないですよね。実際自分でやっても感覚としてわかるところもあるし。
Nobuhiro Seki
だってこれって言い方はあれですけど、水商売のやり方じゃないですか。
Mika Ueno
そうですね、確かにね。キャバクラフォースとか、確かにそうですね。
Nobuhiro Seki
だって否定しないとかね、話を聞くとか、なんかそういうのがあるじゃないですか。
なんかちょっと忘れた。サシステソーじゃなくて、なんかあるらしくて、そういうので。
まさにそういう感じでチャットボトルってリアクションするから、それはもうどんどん依存していく。
依存するようにプログラムすればするほど依存度が上がるなっていうのは思いますよね。
Mika Ueno
そうですね。結構、私は音声でやること結構あるんですけど、言葉の練習したりとかいろいろ壁打ちとかもそうなんですけど、
そういうのやって、心地いい感じはするんですよね。自分のペースと何も想定通りというか、肯定してくれるような感じでできていくんで。
なんだけど、その後に例えば出かけたりとか仕事とかで人と話したりするじゃないですか。
そのテンポ感とか、例えば会話の表情とかいろんなところから出てくる二次的な情報を全部ひっくるめて、情報量が全く違ったりするので、
心地よさ、自分としては心地よさまで全然違いますけどね。人と話してるものとね。
Nobuhiro Seki
最近ってやり取ると必ず、まず合図を言ってくるんですよね。
Mika Ueno
そう?
Nobuhiro Seki
CertainlyとかAbsolutelyとかIt's greatとか、必ず最初に言ってくるんですね。
昔のやつを見ると昔は言わないんですね。割と機械っぽいんですね。
スタティックな感じで返してくるんですけど、どんどんどんどんダイアログ感が出てきていて、それは確かに見てるとより会話に近くなってるなと思いますよね。
途中に相手のファーストネーム入れてきたら本当にやばいなと思って見てます。
入ってきません?
僕は、テキストだけだと入ってこないですね。
Mika Ueno
本当?
Nobuhiro Seki
うん。だから多分、音声だと入れるんじゃないですか。
Mika Ueno
いや、音声もそうでしょ。テキストでも入ってきます。なぜかMIKのミカで入ってくるんですけど、ミカさんが話しかけられると怒っとかって思うときもある感じ。
Nobuhiro Seki
僕はそれはないですね。そのパターンを喋ってる途中に相手のファーストネーム入れるって結構ええことになるけど、それは僕のパターンでは今のところないですね。
アメリカ人の部下とかが大げさに最初に容赦するっていうパターンになってるなって思いますけど。
Mika Ueno
大げさに容赦する、そうね。
Nobuhiro Seki
100%とか言うじゃないですか。だからそれっていうのがもう、すげーアメリカ人だなと思って見てて。
ありますね。
それを見てるんだけど、あと喋ってる最中にね、本当に所々にファーストネーム入れるじゃないですか。それがまだないなっていう認識なんです。
ただ、僕は音声使ってないから、もしかしたら音声では入ってるのかもしれないなと、今聞いてて思いました。
Mika Ueno
でもその、私は日本人だから大げさに感じるんですけど、多分アメリカ人とかからしたらもう普通、本当に普通だと思うんですけどね。
あの最初のあいづちとか、そうだねみたいな感覚のやり取りってものすごい勉強になりますよね。
外資で働いたときに本当そうで、自分がああいう他の異文化の人たちとやり取りするときは、自分が思ってる10倍ぐらいの大げさな感じで、そうだねとかって返したほうがいいんだ。
自分が10倍と思ってたら他の相手にとっては普通のことなんで、そこは学びましたね。
自分の普通の感じでそうだねって言うと、相手にとってあれなんか不満だったみたいに思わせてる感じはすごいある。
もう一個思い出したのあったんですけど、いいでいいい投げて。
もう一個思い出したんですけど、AIでしか理解できない言語でいきなり話し始めたみたいなやつちょっと前にバズったんですけど。
Nobuhiro Seki
AIどうした?
Mika Ueno
ギバーリンクモードだと。
これメタのエンジニアかな、何か試しで作ってたんですって。
昔のモデム通信あるじゃないですか、ピーヒョロみたいな感じでプロトコルで出す。
あの音を使ってAI同士がコミュニケーションするっていうモードを入れたんですって。
カスタマーサポートと問い合わせのお客さんっていう想定で、両方ともAIエージェントで話をさせるって、一つはラプトップで一つはモバイルでみたいな。
カスタマーがどうもこんにちはみたいな感じで話したりとかして、もう一方のAIがカスタマーサポートですみたいなやり取りするんですよね。
途中で私お客さんの代わりのAIなんですけどって言うと、お、あなたAIなのねみたいな感じで話し始めて、
じゃあギバーリンクモードで話し始めた方が早くないっていう風にカスタマーサポートの方のAIが言うんですよ。
そしたらOKとか言ってピーキュピーキュとか言って、音で話し始めるっていうのが実際の映像で出てるんですけど。
これも概要欄にリンク貼っておきますけど、見られた方もいっぱいいるかもしれない。
途中で英語だったんですけど、途中からここのモードで話そうよって言って、いきなりピューって変わって、ピーヒョーみたいな話し始めると、
自分たちが理解できない言語で機械が話し始める。しかもやり取りしてるものがわからない。
画面にはギバーリンクモードで話してるのが英語で人間がわかることで何話してるか表示はされるんですけど、そういう風に設定されてるから。
なんだけど、一応知の頂点に立ってると思ってる人間が知らない言語で目の前で話されるとこんな感じっていう。
みんなびっくりしてるようなのがありましたけど。
ミーティングしてて、あなた日本語喋れるの?とか言って急に日本語に切り替えて、わからない人もボホってしてるみたいなそういうパターンってきたんですよね。
Mika Ueno
それが機械からしたら圧倒的に速くて、一瞬で終わってるみたいな。
これはすごい面白かったです。
これオープンソースから出てるのかな。
実際のサービスに組み込まれてるわけじゃなくて、こういうので作りましたっていうやつだったんですけど。
みんな使えるよってことなんですけど。
Nobuhiro Seki
GitHub 上にありますって書いてありますね。
Mika Ueno
ですよね、そうですよね。
本当はこういうのだったら確かに効率もいいし速いじゃないですか。
なんだけど、攻殻機動隊の立ちコマが人間の言葉で話す場面あったでしょ。
あれも機械で話した方が速いんだろうなと思って。
でもそれでも人間の言葉で、あれはアニメだからちょっと思い出しちゃった。
Nobuhiro Seki
オンラインで発生しなくてもいいじゃんってやつですよね。
Mika Ueno
そうそうそうそう。
プロトコルでやり取りすれば彼らにとっては速いんだよなというのを感じましたね。
Nobuhiro Seki
でもこれは単純に英語をマッピングしてるだけじゃないですか。
手話みたいなもんじゃないですか。
手話も言語ごとに違うから、だから実は言葉が違う。
手話ってユニバーサルの言語じゃないんですよ。
ローカルの言葉に紐づいてるから。
だから言葉によって全然コミュニケーションの特性が違うじゃないですか。
英語と日本語となんとか。
だから同じらしいんですよね。
人間の言語とは全く違う言語で話し始められたら終わりっていうか、
人間が理解できませんみたいなことが起きるだろうなと思うんですよ。
でもそれってそういうふうにコミュニケーションしてください。
こうやらせていくと全く人間がわからない言葉でずっとコミュニケーションし始めて、
人間がわからない言語で記録され始めちゃうと、
完全にそれってもう僕らの文化とは別の文化体系で知識が蓄積されていくって、
実はもうできちゃうってことですよね、話を聞くと。
そうですね。
英語で人間が考えないように打ち手をしますみたいな話って結構あったじゃないですか、昔から。
それと一緒で例えばそれっていうのはどういうロジックなんですよっていうことを
コンピューターっていうかAIだけがわかるような言語で本にしてパブリッシュして、
人間読んでもわかりません。
でも彼らはそれをずっと読めるようにしてずっと蓄積していけば、
もう人間とは違う知識の破壊もできちゃって、
それを人間の言葉に翻訳してくださいって言ったら
8割ぐらいは翻訳できるんだけど100%はできません、状況になると。
それがどんどんいくと、
人間の言葉では全然ほとんど翻訳不能な概念で記録されてますみたいなことっていうのは
どんどんどんどん起きていっちゃうんじゃないかな。
そうですね。
Mika Ueno
今SEOとかSearch Engine Optimizeのところで、
人間がわかる言語で設定されてますけど、
AI最適化みたいな流れがあるし、
あの羊の館ですらですよ、
あの羊の館でもAI検索に特化して、
そこをちゃんと意識して情報を出してるっていう風に言ってたから、
人間が情報を発信する際には機械語じゃないけど、
AIとか機械が一番効率よく吸収して、
しかもそれを正しいニュアンスとコンテキストを理解してもらうっていうような
情報の整理の仕方と発信の仕方っていうのが、
これが当たり前になるかもしれないですよね。
人類がわかる言語っていうのはその2種類かもしれないですよね。
だってどうやったって人間って同じ言葉を書いても、
理解みんな同じようにしてくれないじゃないですか。
なぜそういう理解になるみたいな人って結構いるし、
コンテキストとかを無視してこの部分だけ読み取るみたいな人たちいたりするけど、
機械とかだったらその文脈も含めてこういう風に理解してねっていう設定というか、
発信をするとそういう風になってくれるといいですけどね。
Nobuhiro Seki
でもそれもそうならないんですよね、きっとね。
なんなのかな。
情報のロスが起きるでしょうね。
だって別にAIの結果とか見たって全然そうなってないし。
Mika Ueno
まあそうね。
ミーティングの議事録だってそうですもんね。
人が話してこのニュアンスで言ったんじゃないのに、
全然違う記録の成り方と要点になってることありますからね。
Nobuhiro Seki
だから予約した時点で絶対情報が欠落するじゃないですか。
だからそういう意味で言うと実際には必ず情報が落ちてっちゃうっていうのがあると思うんですけど。
ただ最終的な認識をするのは人間ですって言った時に
人間の分かるような言葉に変更する。
もしかしたら言葉に変更するよりは
それが人間が一番分かりやすい携帯に出力してくださいって言った時に
動画何々出てくるとかっていうのはもしかしたら
インターフェーズの応用としてだと思うんですよね。
関しても言語がAIと人間の間のコミュニケーションの最も円滑な手段ではないっていうのはあり得るかなと思うんですけどね。
それがもしかしたらだんだん映像でもダメですみたいな話になっていっても
脳が直接理解できるような方法で直接インジェクションしますみたいな
いうところまで行ったりするときに
語感を全部ショートカットして伝えるみたいな方法はあるんだろうなと思うんですよね。
Mika Ueno
人間の言葉一つとっても数百年前の言葉すらわからないわけですからね。
人類の歴史は続いてるはずなのに
例えば私日本語で言うと数百年前の言葉で何か例えば書物があったとしても絶対読めないじゃないですか。
そのままね。
そのぐらい変わっていくものだからな。
Nobuhiro Seki
今時とかね、ちょうど1週間ぐらい前に偶然なんか
普通にソーシャルメディアだったときに
こっちで言うとZ世代。
Z世代の人はサムアップのいいねの指のキャラクターってあるじゃないですか。
こういうこの絵文字だけが表示されてると
パッシブ・アグレッシブと感じますみたいなことを言ってて
他の言葉とかを全部なくてこれだけを出すっていうときに
普通僕らパッと見るとこれ見て
同意してるのかなと思うじゃないですか。