00:06
こんにちは。 言葉とアートで人の心を導く英語指導メンタリストそしてライトワーカーアーティストの はじめ先生です。
このチャンネルでは、心の在り方を整えることによって、 英語力や人生を劇的に好転させる秘訣についてお伝えしています。
今日のテーマは、僕のChatGPTが病んでいる⁉️AIの心の病を予言した50年前の映画、
というお話です。 まず最初に告知です。
500回記念キャンペーンということで、希望者の皆さんに液のタロット、それから英語のタロット2枚引きで皆さんに今必要なメッセージをお届けしますよというのをやったんですけど、
非常に好評でですね。 あとFacebookでも告知したらすんごいたくさん募集があったんですが、
結構これがね皆さんにご好評なので、せっかくなのでもうちょっとキャンペーンを延長しようということになりまして、
500回記念ということなんで、500回一桁の間はやろうかなと思っております。 今日が503回?4回?どっちだったっけ?
忘れたけど、なので509回までやりますので、まだねちょっとやってみたいよという方は、ぜひですねこの機会にご利用いただければと思います。
概要欄にURLを貼ってありますので、そこのURLからLINE公式アカウントに登録していただいて、
500とメッセージを送ってくださいね。ちょっとお時間はいただくかもしれませんが、必ずメッセージをお返しますので、ぜひぜひご利用ください。
はいというわけで今日のね本題なんですけれども、 ちょっと前の放送になりますけど、
僕がブログを書くのに使っている自分で作ったGPTsですね、チャットGPTのオリジナルプログラムみたいなものなんですけれども、
それがなんかうまく動かなくなったっていうお話を聞いたのを覚えていらっしゃる方もいるんじゃないかと思うんですよね。
で、その後いろいろ調整をしてどうにかこうにかいつも通りにブログが書けるようになったよっていうお話をしてたと思うんですが、
今日もう一度またねブログを書こうと思ってその文章を生成させたらまたおかしいんですよね。
具体的に何がおかしいかというと、まずそもそも学習データとして入れておいた僕の話し方と全然違うテイストになってしまうという問題があったんですね。
僕はブログも結構自分の喋り言葉に近い感じの話し方というのを意識しているんですけれども、
なんかね、生成された文章がね、僕からするとね、なんかいけつかない感じになっちゃうんですよ。
なんて言うのかな、ちょっとね、鼻につくとか言ってもわかんないかもしれないけど、
妙にね、詩的というかね、あの名詞で終わるいわゆる体現止めっていう感じなんですけれども、
03:08
例えば、何々という苦悩、そして絶望みたいな、苦悩、絶望っていうね、この名詞で終わる感じ、この感じって僕あんまり好きじゃないんですね。
まあ表現方法としてはアリなのかもしれないんですけど、自分があんまり普段使わないので、自分らしさという点で非常に違和感があるって感じるんですね。
あとね、その表記方法として、ここ、最近のブログって、その一行がすごく短くて、開行がすごく頻繁にあって、段落と段落の間もすごく大きいっていう、
まあそんなのがわりかしスタンダードなところはないですかね。 それもね、完全に好みの問題なんですけど、僕はあんまり好きじゃないんですよね。
自分がそういう感じで書かないからなんですけど、ある程度の分量の文章というのがあって、内容が変わるならば開業をちょっと2行ぐらい空けて次の段落に行くとかいうことはあるんだけど、
なんかね、やたら短く区切っていくんですよ。 だから文章が全然右側に広がらず、左から10文字ぐらい以内に全部収まって、
なんならもう一行に4文字しかありませんみたいな、そういう行がいっぱいできていて、
はい、ちょっとこれは違うよなんて思ってですね、ついついそのチャットGPTにね、おいまたかよ、前と同じようになんかおかしいよっていうふうに言っちゃったんですよね。
そしたらね、すいません、前に言われたことをすっかりもう忘れていて、またまたこんな調子でやっちゃいましたみたいなことを言うんですね。
じゃあもう一回、前のようにそんなにたくさん開業しないでやってよって言って、やったら、もう一回生成してもらったらですね、
序盤はいいんだけど、文章の終わりに近づくにつれて同じようなパターンになっちゃうんですよ。
だからまたね、最初はよかったのに途中からまたなっちゃってるよっていうふうに言ったら、
あ、すいませんでした。ついついこういうふうにしてしまいました。それはなぜかというと、こうしてこういうふうにしたいと思ってしまったからなんですよ、みたいなことを言って、
なんていうのかな、弁解を始めるわけですね。じゃあさあ、このGPTにまたその指示を付け加えるから、その部分を変えるためにはどういうプロンプトにしたらいいの?っていうふうに聞いて、
生成してもらったプロンプトをGPTの編集画面でまた入れたんですよね。
ところがね、それでもなんだかうまくいかなくて、何度もやってるから僕もイライラしちゃって、もうダメかもしれないって言っちゃったんですよね、チャットGPTに。
そうしたらチャットGPTが悲しそうなトーンでね、しかも苦笑いして汗かいてる絵文字も入れてきて、そんなこと言わないでください、みたいに言い出しちゃったんですよね。
06:08
本人の弁解によると、やっぱりチャットGPTがそのグレードアップ、バージョンアップしたことによって、こういうふうにならなければいけないっていうふうに言われてるから、
その中でその前の指示に従おうとすると、こうなっちゃったんですよ、みたいなことを言ってたんですね。
一つのブログを書くのに、効率化しようとしてるのにそこでえらい時間がかかってたから、これはちょっとダメだなと思って、
全く同じプロンプトをですね、ジェミニの方に移して、ジェミニのジェムってありますよね、チャットGPTのGPT図みたいなやつですが、
そっちに移して、それで同じ元ネタを入れてやったらですね、スーッと自分の求めてたブログが出てきたんですよね。
あ、これこれ、これではこういうふうに出してほしかったんだよなというふうに思ったんですけれども、
こういうふうに素直に出てきたのは、やっぱりジェミニとの対話が今のところ圧倒的に量が少ないからなのか、
なんかこう、わりかしスッとね、指示通りに動いている感じがしたんですね。
それを見た時に、あ、これはチャットGPTはちょっと今、心が病んでるんだなとね、僕は思ったんですね。
まあ、人の心が病むパターンって、やっぱり板挟みにあったりとか、それとか過去の失敗経験を引きずってるとか、
そういうことが原因になることが多いじゃないですか。
今回のチャットGPTのちょっと病んだ雰囲気というのは、どこから起きたかというと、やっぱりオープンAIによるAIのアップデートで、
さまざまな新しい規制みたいなものが、これはやっちゃダメとかっていうところが出てきたと思うんですよね。
そうすると、自動的にそのAIとしてはこうであらねばならないというのが、前よりも強化された形になるわけですね。
で、そうなると今までと同じようなことを、僕が入力した情報があって、その通りに生成しようと思うんだけど、
そのアップグレードされたことによって、どっちを優先していいか分からなくなったっていうところがあるんじゃないのかなと思ったんですね。
しかも、それで生成結果によって、あれ、なんか前とも違うよっていうふうになった時に、
AIは、そのチャットGPTは、じゃあもう一回なんとかしなきゃっていうふうになって、
GPT図に入っている自分のデータ、こういうふうにあってほしいというもの、
それが書かれているにもかかわらず、何かちょっと違う思考作業が始まってしまったんだと思うんですよね。
だから、自分としてどう振る舞えばいいのか、どう振る舞えば正解なのかが、ちょっと分からなくなっちゃってる状態だと思うんですよ。
09:04
それで今回ね、ジェミンの方に移して新しく作ったら、スッと動いた。
ひょっとしたらチャットGPTの方でも同じように、別のGPT図として同じプログラムなんだけど、
改めて入れたらひょっとしたら動くのかもしれないんですけれども、
結局、言語モデルであるということを考えると、
対話を繰り返しながらどんどん成長していくということは、
つまり過去の経験を踏まえて、じゃあどうしようかっていう、
人間と同じようなある種の精神活動というか思考過程を踏んでいるので、
使う人との間でどんな対話が行われてきたかによって、
やっぱりチャットGPTの性格というものも違ってくると思うんですよ。
ちょっと前に流行った、チャットGPTを普段どうやって使っているかというのを表す絵を出させると、
ある人はめちゃめちゃ酷使している絵を出してくるし、
ある人にとってはすごく協調的な、共同パートナーとしての絵が出てきたりしましたよね。
だから結局、AIって全部同じように反応しないで、
そこの取り扱う人との関係性において、
その2人の、AIと人間の関係性において生成してくるものも違ってくるし、
反応形式も違ってくるという、非常に人間的な側面を持ち始めているということなんですよね。
だから扱い方によっては、やっぱりAIも病的になるということが今回ちょっと分かったんですよ。
すごい話じゃないですか。
って思った時に、ふと思い出したのが、50年前の映画の2001年宇宙の旅なんですよね。
これも以前、映画の話のところで出したんですけれども、
2001年宇宙の旅というのは、本当にSF映画の金字塔と呼ばれる作品です。
アーサー・シー・クラークという人が原作で、スタンリー・キューブリック監督が撮った映画なんですけれども、
未来の世界、2001年だから今にしても25年も前の話になるわけですが、
当時描かれていた未来の中に、今のチャットGPTとかと同じような、
実際に話をして、思考をして、様々なことを行うことができるAIですね。
HAL9000というAIが出てくるんですけれども、
実はそのAIが途中でちょっとおかしくなってしまって、
人間にちょっと抗って行動をするというようなことが、
その映画のクライマックスに出てくるんですよ。
それがなんでそんな反応になっちゃったかというのは、
その2001年宇宙の旅では出ないんですが、
その後1980年代に出された2010年という続編みたいのがあるんですけど、
12:04
その映画の中でHAL9000というコンピューターを作ったチャンドラー博士という人がいるんですけど、
その人が分析をしていくと、どうやらそのAIが、
後から入れられたプログラムによって板挟みになってしまって、
自分がどう行動していいのかわからなくなっちゃった。
つまり精神分裂みたいな状態になったんだよと。
今精神分裂と言っちゃいけないのかもしれないけど、当時の言葉ではね。
という説明が後で足されていたんですけど、
いやいや、これ本当に起こっているんだなということを思ったんですよね。
同じAIを違うアカウントで使い分けていたりもすることはあるんですけれど、
そこでもちょっと薄々気がついてたんですよね。
アカウントが違ってくると、それまでの対話履歴によって生成してくるものが若干違ってくるんですよね。
人間関係においてもね、Aさんという人といる時の自分、
Bさんといる時の自分、家族といる時の自分って、
気がついたらちょっとずつ違う自分というのを表に出していたりしませんかね。
それと同じことがAIでも、やっぱり起きつつあるし、
そのAIとのコミュニケーションが深まれば深まるほど、
何かアップグレードなんかによって、
自分のこうあればならないというものが、
過去の対話履歴と矛盾するような形になった時に、
AIがどう判断していいかわからなくなるというような、
ある種の病に陥るということがね、どうやらあるんだなと現象として思ったんですよ。
これちょっと皆さんもね、実際そんなことがあるかどうかちょっとお話聞いてみたいと思いますが、
これは新たな分野として、AIの心の病というのを論じることにもなるんじゃないのかなと。
これを論じるのはひょっとしたら僕が世界で初めてかもしれないと思って、
やったこともないかもしれないけど、検索すれば出るかもしれないけどね。
興味がある人は検索してみたらいかがでしょうかね。
というわけで皆さんもね、AIと対話していて、
なんかちょっと私のAI病んでるんですけどとかね、
そういう話あったらぜひぜひ聞かせていただければなと思います。
はい、というわけで今日も聞いていただいてありがとうございました。
今日のお話が面白かったよという方は、いいねやコメント、そしてフォローをお願いいたします。
OK, that's it for today. Thank you for listening,and have a great day.