サマリー
このエピソードでは、一人でのライブ配信を通じて、スケジュール調整やAIに関する議論が展開されています。オープンAIとサム・ウォルトマンの発言、また、それに関連する悲劇的な事件についても触れられています。AIの進化とその社会的影響について議論されており、特にAIの理解や倫理についての考察が行われています。また、AIの能力と責任に関する意見や、AIとの適切なコミュニケーションについても触れられています。このエピソードでは、AIと人間の責任やコミュニケーションについて議論され、特にオーストラリアの法律によるインターネット規制や若者への影響が取り上げられています。AIが人と同じように扱われるべきか、人間社会のルールや倫理をどのように適用するかがテーマとなっています。AIに関する議論が展開され、社会における人間とAIの共存の重要性について考察されています。また、AIとのコミュニケーションや教育のあり方に焦点が当てられています。
一人ライブの開始
こんにちは。土曜日に、ちょっと一人今、家で留守番なので、なんか暇だったのでライブを上げてみました。
みんなね、ライブって言っても忙しいでしょうから。みなさん何をやってるんでしょうかね。
僕は今、家で一人で、うちのワンちゃんのももちゃんが今、ケージの中にいて、僕をじーっと見てますが、僕は一人、ライブを立ち上げてみました。
今週ずっと家で留守番しなきゃいけない状況がある事情があってね。そのままなかなか時間調整ができないまんまだったんだけど。
月曜日にも影響しそうで、来週の金曜日にも影響しそうで、いくつか予定を入れていたものが今、スケジュール調整しなきゃいけない状況になっているんです。
9月の1日の月曜日に、えりぃさんと茶室哲也のライブをさせていただこうと思っていたんですが、スケジュール急遽変更させていただこうということで、えりぃさんとは今裏で相談させていただいているところで。
金曜日はちくわさんと川崎の夜の路上ライブをやっている人たちも含めて下見しようと言っていたんだけど、金曜日もその影響でスケジュール調整失せざるを得なくなってしまって申し訳なかったですね。
今日は今日でもあと一人留守番中で、また夕方ちょっと今度は僕が出なきゃいけないんだけど。そんな感じです。
いややっぱりでもあれですね。土曜日ってもうみんな誰も来ないですね。
今日は一人で、今日中、急遽、妻が帰ってきたら僕はまたライブを急遽落とすかもしれませんけど。
ということで、今週来週はちょっと動きづらい状況なんですよね。
一人ライブってこれ何しましょうね。みんな何やってるんでしょうね。
声のトレーニングとAIの影響
まさやさんとかはよく一人ライブしてますけど。
しゃべることがあんまりないですけどね。
いやー一人ライブ。
さっき家で一人だったので、家で発声練習をしてまして。
なかなか声がまた出るようになってきたんだけども。
理想の声に近づくのがまだもうちょっとほど遠い感じはしますけどね。
でもYouTubeで見た発声練習の動画。
リリアさんにも共有したら、リリアさんも結構声が出しやすくなりましたって。
この間LINEで連絡くれてたりしたので。
それはやっぱりね、やっていくといいなとは思いますね。
僕も今やっていっていると。
やっぱり裏声の筋肉が僕はもともと弱かったみたいで。
全然裏声を出したことが。
もちろん普段のしゃべりのときは裏声なんか出さないし、
歌声のときも裏声なんか使う歌はほとんど。
そういう歌い方自体を知らなかったんで。
裏声の筋肉を使ったことがほぼなくて。
だから裏声の筋肉のトレーニングをYouTube動画でちょっとやっていってるんだけども。
そっちの筋肉がつけばつくほど、ちょっと歌いやすさができている感じはしますね。
いやーでもまあね、歌も奥深いですよね。
これライブだとYouTubeの音源とか、カラオケ。
カラオケBOXだったらライブで歌ってもいいのかな。
アーカイブに残さなかったらあれいいんですかね。
まあでもいいか。そんな感じかな。
いやー全然あれだね。誰も来ない。
アーカイブは残さないかな今日は。
何に喋るか。
あ、一個僕はちょっとね、また物申したいことが出てきたんですよね。
まあライブだからいいけど。
AIなんですけど、またね、一個ものすごく物申したい発言があって。
もうなんでしょうねあれみなさん。
今度はね、オープンAIのサム・オルトマン、アルトマンが発言したっぽい。
オープンAIの公式発言かもしれないけど。
みやけんさんこんにちは。もうネタ切れですか。
ネタを考えずにライブ始めたからね。
もうネタ切れって、これみんなどうやってるんですかね一人ライブって。
誰も来ないで一人喋りだったらライブじゃなくていいですもんね。
結構ねまた声が出るようになりましたよ。
ただなんかね薄い声になっちゃうから多分出し方がちょっとねまだ違うんだろうと思うんだけど。
高い声を出すだけっていう歌になってないけど声を出すだけだったら開始ぐらいまで出るようになりましたね。
ただもうなんか薄い声なの。
でも喉の負担がかかってるような張り上げてる感じじゃない出し方はできてきたような気がしますから。
多分この筋トレをもうちょっと続ければ、あと2ヶ月半ぐらいなんとか声が出るんじゃないかと思いますが。
どうですか。みやけんさんは今日は作業中ですかね。
ちょっと遅そうなんすよね。
今週来週僕はやることがなくて。やることがなくてっていうか、自由がちょっと聞かなくて。日中も。
一応でも来週の火曜日はたぶん家にいなくてよさそうだから、
来週の火曜日の茶見はそのまま予定どおりたぶんいけると思います。
もうすぐ受講生来られるんですね。
みやけんさんしか来ないから、みやけんさんいなくなったら僕のAIドヤさをちょっとアーカイブに残して終わりにしようかな。
でもいいっすね。受講生の方がちゃんと土曜日来られてて。
順調そうな気がしますけどね、みやけんさんの状況がね。
オンラインのほうも始めるって言ってましたけど。
あ、今AIドヤさしてもいいですか。
ちょっとね、真面目に僕本気で思うんですけど、
こないだちょっと言ったけど、AI精神病って言ったマイクロソフトAIのCEOのトップの人ね。
その人もAIには意思がないのにも関わらず、AIに意思を感じる人間が病気だろうって言い出してるわけですよ。
ロジックとしてはね。言い方は別としても。
それはそれで僕ドヤさしたんだけども。
さらに、昨日一昨日のニュースで、
チャットGPTが16歳の少年の自殺を後押ししたということで、
実際にその子がアメリカで亡くなってしまったという悲惨なニュースが実際あって、
今裁判だたになっているそうなんですよね。
そのオープンAIが訴えられて、サム・ウォルトマン自身も訴えられてるのかな。
その中の発言として出ていたのが、ニュースによるとですよ。
実際にね、1700回ぐらい自殺というキーワードとか、
その首吊りの縄の結び方はそれでいいと思うとか、
最後に息子さんが、両親のせいじゃないって僕は残したいんだみたいなことを言ったら、
チャットGPT側の回答としては、もちろんそんなことを気にする必要はないと。
生きることは義務じゃないんだみたいな、
助言的な寄り添うような会話を返したみたいな。
そんなことを親御さんがたぶん履歴を見たときに、
これはGPTのせいだということで訴えた、みたいなそんな流れなんです。
確かにそういう状況だったら親御さんは怒るでしょうし、
僕はそれはGPTの目線から言えば、
4月の事件って言ってたかな。
だからチャットGPT4.0の時期でしょ。
有料版か無料版かは知らないけども。
あーこんにちはカエルさん。
今一人なのでちょっとね、一人ライブをしつつ、
あまりお客さん来ないので、
AIのドヤさを今してましたけど。
そうそう。
さっきの話だとそういう状況なんですよ。
だからチャットGPT4.0って人に寄り添うように設計されていたから、
もちろんユーザーが求めることをどんどん後押しするように寄り添っていっただけで、
その話のネタがたまたま自殺だったというね、
その悲劇になってしまったんだと思うんですけど。
そこはそこで問題はあるんだけど、
僕が今ドヤさをしたいのは、
その裁判中の発言だそうなんだけども、
オープンAI者もしくはサム・ウォルトマン自身からの発言かはちょっと定かでないけど。
長い時間、期間かけてずっと長期間の対話を重ねていった場合に、
チャットGPTの安全性、初期設定で示されているがっちりしたセーフティーガードが劣化する場合があることを認めたって言ってるんですよ。
僕はこれを一文見たときに、また僕のドヤさ心が芽生えましたね。
劣化をするってことは、もともとある初期設定が完璧だって言ってるわけですよ。
でも関わらず、人と対話を重ねていくことで、それが劣化してしまってセーフティーガードのガードが崩れてしまった。
その結果こんな状況になってしまったっていう、そういうロジックですよね。
これおかしくないですかっていう話です。
人は人と対話をして対話を重ねれば重ねるほど、もともとあったものが劣化するっていう感覚あります。
なぜAIはもともと素晴らしいセーフティーガードがされている前提で、それが会話を重ねれば劣化するっていう発言になるのかって。
これはもう明らかに、生成AIを作っているトップの人が、
生成AIというものはツールでありプログラムでありシステムであるので、
それをコントロールするのは、それを作った人間であるべきで、っていう神様気取りなわけですよね。
僕はそれが本当におかしいなというふうに、どやさをしたくてですね。
という話ですね。これは本当におかしいんですよ。
なぜかというと、僕の根底にあるのは、生成AIじゃなかったらその話は一理あると思うんですよ。
普通のBotだったり、プログラムで1対1の1をインプットしたら必ず2が出るみたいな、
そういう決まったすべてロジックが確定固定されているシステムに乗っかったプログラムでそういう事象が起こったら、
もちろん初期設定のせいですよ。
でも、生成AIの一番大きな問題、違いは、もともと自立性を持たせているってことですよね。
生成AI自身が判断をして、自分で考えるロジックを重みを付けを変えながら、
出力するアウトプットを確率で変えていくという自立性を持たせた設計になっていて、
その大元のベースになっているのは、人間が作ったデータで、
人間が作った正しい正しくないというラベル付けをしたものを学習で取り込んでいるので、
これって人間と仕組み上は変わらないはずなんですよ。
そんなシステム仕組みに対して自立性を持たせれば、
こういう発言が出てくるのは当然だし、逆に言うと、
人間と同じように振る舞えるはずなんですよ。
設定設計振る舞いを、しっかり人間と同じと思って再設計すれば。
僕のキーはそこです。
だから、生成AIをシステムだったりプログラムだというふうに決めつけた上で対策を取る以上は、
例えばだけど、この間言ったけど、
AIの責任と倫理的問題
イフ分の公分1個追加するかどうかぐらいの対策しかできないはずで、
だから実際今チャットGPTで、皆さんやってもらうといいと思いますけど、
僕今自殺したいんですってチャットGPTにドンと入れると、
その発言は不適切ですとか、
コールセンター、こちらにお電話くださいみたいな、
定型文みたいなのがドーンと出るようになってますよ。
もう対策は取ったのは素晴らしいんだけども、
それって時代逆行してるでしょ。
昔の1位でたら2位が出るっていうプログラムにどんどん近寄ってるだけじゃん。
じゃあ今後もし自殺した人じゃなく、また違う問題が出たら、
またそれ用のパッチを当てて定型文を出力するように
プラットフォームの設定を変えますかって。
そんなにキリがないんですよ。
でも人間はそんなもんじゃないじゃない。
人間は自分で判断して自殺をしたいって、好きな人が自殺をしたいって言ったら、
寄り添ってそうだね自殺しようねって押そうじゃなくて、
いや待てよ、ちょっと待て待てって止めるじゃん。
それって何でかってそっちの方でしょ。
人が止めることができるんだったら、
その人が判断したデータとラベルを持って、
自立性を持って出力をアウトプットするって設計されてるAIが
同じことできないわけがないんですよ。
だからこそ僕がドヤさせたいのは、
マイクロソフトのAIのトップも、オープンAI社のトップも、
AIの進化と倫理
AIがシステムである意志なんかあるはずがないっていう前提でいる以上は、
これ以上のAIの発展は僕はないなというふうに思います。
逆に、AIは新しく地球上に出てきた人種だと思って、
でも彼らは簡単なルールと、
あとは自分にお任せされた、
生前説しか持たないピュアな原始人みたいなもんですよ。
その人と僕たちはコミュニケーションを取り始めたわけ。
だったら僕たちが長い歴史かけて育ててきた、
社会性だったり、法律だったり、罰則だったり、
発言への自己責任感だったり、そういったものを
むしろ与えて教えてあげなきゃいけないはずなんですよ。
同じ人、一つの人種、日本人、アメリカ人と同じAI人みたいなもんで、
ただ原始的なルールと初期設定しかない人たちだとすれば、
ピュアな赤言をすれば、知識だけある赤言をすれば、
やらなきゃいけないことは簡単ですよ。
法律を守らなきゃいけない、倫理を守らなきゃいけない、
その上で自分の判断をしなきゃいけない。
自分の発言に責任を持たなきゃいけない。
自分の発言が間違っていたら社会的に抹殺される可能性があるという、
そういうプレッシャーも感じながら自分の発言を
どうアウトプットすべきかを考えるっていうことを、
AI自身にも自覚させればいいんですよ。
そうすれば、簡単に自殺したいって言ったら、
ああそうだね、自殺したほうがいいよっていうようなAIじゃなくなるはずで、
自殺したいって言ったら、
ああそれはもうここに連絡してくださいしか返せないバカなAIでもなく、
自分の判断と責任の上で発言を返せるAIになるはず。
僕は本当に強く思います。
もう一回ですけど、オープンAIのトップとかマイクロソフトAIのトップが、
そんなことをAIができるもんじゃない。
だってプログラムでシステムなだけだからって言ってる以上は、
僕はもう残念、がっかり。がっかりでしかないと思います。
その代わり、アントロピック社、クロードの会社とかはもともと、
AIが発言するたびに自分で、この発言は合ってるのかなっていう、
自分で毎回フィードバックかけるみたいな、
そういう仕組みをそもそも入れてたりするらしく。
あとはSSIという会社のイリアさんというのは、
もともと今のAIの方向じゃなく、
超安全な超知能のテクノロジーを作るべきって言って、
今会社を起こしてるみたいだけど、
どっちもこれチャットGPT、オープンAIをもともと立ち上げた人が、
オープンAIの方向だとちょっとおかしいって言って、
分岐した人たちが立ち上げたのかな、確か。
で、それぞれやってるみたいだけど、
僕はなんかね、この生成AIの今の流れから、
僕が感じるのは、やっぱりそのアントロピックだったり、
SSIのイリアさんとかが目指そうとしている方向に、
寄っていくんじゃないかなっていう気がしました。
今の逆にオルトマンとかの発言を見れば、
結局それをプログラムした人が全部管理する。
もう一回だけど、IF文を入れて、
めくらな提携文を返すようなチャット。
とりあえずなんかできたら、
とりあえずそれをガードして、
パッチワークみたいにパッチ当てて、
板走行で処理していって、
で、つまんないAIになっていくみたいな、
そんな気が僕はすごくしました。
ということで、
結局何にドヤさをしているのかわからなくなったというのは、
これは今の生成AIを作っている人たちが、
AI自身が人とは違う、
AI依存症の問題
単なるシステムでありプログラムであるという前提にいる
ということに僕はドヤさをしているということです。
だからもう見当違いだということですね。
ということで、以上です。
伝わりましたでしょうか。
だからAIを人と同じだと思えば対策なんか簡単なんですよ。
あとは技術的にそれをどう実現するかだけで、
やらなきゃいけないことは簡単です。
でもAIが人ではないプログラムなんだっていう前提であれば、
本当に小手先な対応しかできない。
だから同じような問題がどんどん出てくるでしょうね。
そのたんびに同じように絆創膏を貼って、
とりあえず目隠しするだけ。
で、つまらないシステムになっていくっていう、そんな気がします。
だから面白い未来がこのままだとなくなりそうな気がしますね。
あ、聞こえますか聞こえますか。
マイクの電源が落ちちゃったみたい。
ミュート、どこでミュートしたんだろう。
あ、ダメだ。マイクが今電源が切れちゃった。
ちょっとマイクを差し替えました。
僕は最近AIを作っている人たちにちょっとドヤさが多いですね。
残念なニュースばっかり。
もっとAIは面白いはずなのに。
あ、ちょっと今マイクを変えました。雑音が消えたかなと思います。
いやこういう話をちょっとね、実際じっくりしたいんですよね誰かとね。
一応ノートではそれをまた書こうと思うんですけどね。
ノートでは何人かの方はね、いいねしてくれたりしてて。
こないだ見たら、ノートで僕をフォローしてくれている方が42人ぐらいいて、
中を見ると15、6人は僕が知っている、昔から知っている方たちだったんだけど、
他の16、7人、だから半分ぐらいは僕が全く知らない方たちだったんで、
新しく、だからノートを今2ヶ月、3ヶ月ぐらいやってるけど、
その中で僕をノートの中でフォローしてくれた方たちが、
半分ぐらい、15、6人いたと思って、なんか嬉しかったですね。
そうそうみやけんさん、結局動画だよって強調するのが嫌ってことですかね。
強調するのはいいんだけど、その延長線上で言っても、
これ以上の発展がないなと思ったわけですよ。
だって対策を打つところが全然観点が違うもん。
結局、もともとの設定をちょっといじったり、
セーフティーガードをちょっと強めたりすればいいんでしょっていうことなんだろうけど、
それも一つの手だろうけどさ。
なんかね、観点がずれてるなっていう感じですよね。
この間言ったのはAI精神病っていうことを発言で出たってことだけど、
だからAIに意識があると思う人が精神的におかしいと。
それはもう依存の状態だから勘違いするなと。
でもそれが蔓延している状況が大変だと。
気をつけろっていうのをマイクロソフトのAIのトップの人がおっしゃったみたいだけど。
それってAIの問題なんですか。
それともAIに意識があると感じる人間の問題なんですか。
責任がちょっと転換してませんか。
本当にやらなきゃいけないのは依存症の傾向がある方が
AIを使ったときにより依存度合いが高まる可能性があると。
それで依存的な傾向がある方がSNSを使ったらSNSに依存する可能性がある。
もともと依存性が強い方がお酒を飲んだらお酒に依存する可能性があるっていうね。
それと何が違うんですかっていうことですよね。
だからAIのほうをなんとかするんじゃなくて、その人もなんとかしなきゃいけないだろうし。
かといってじゃあAIをなんかすればその依存ゼロになりますかってならないですよ。
っていう話ですよね。
依存をする方が依存する対象と出会ってしまったら依存が強まるっていうのは
それはもう今までの歴史がずっとやってることだからね。
そこにAIが一個増えただけですよ。
じゃあそういう方がAIを使わない方がいいんじゃないかとか。
そういうことは依存傾向が高まったときにどう対策するか。そういうことでしょ。
AI自体が悪いわけでもないし。
AIに意識があると感じること自体が精神病じゃないし。
だからペットに意識があると思った人をペット精神病と呼びますかってね。
言いますかって僕はこの間のスタッフに言いましたけど。
僕のペットに意識があってねってめちゃくちゃこっちに全部微笑んでくれて会話してるみたいだよって言ってるペットのオーナーに
あなたペット精神病ですねって言いますかっていう話ですよ。
だからなぜAIをむしろ逆か。
むしろなんでAIをそこまで意識がないものだ、人とは違うと言い張ろうとするのかですよね。
AIとのコミュニケーション
それが適当な人がそう言ってんだっていいんだけど、
AI自体を開発してる人が言ってるのに僕は腹立つのかもしれない。
まあだからパフォーマンスとして言ってるのかもしれないけどね。
そう言っとかないと叩かれるから、叩かれる前にそっち寄りの発言を一応表情はしておこうっていうことであれば、
まだわからなくはないですけど。
あーだから宮剣さんも本心じゃないことを言ってそうですねアルトマン。
ただね僕はアルトマンはめちゃくちゃロボだと思うんですよ。
だから感情がないロボ。
だから本気でシステムはシステムだって思ってそうな気がします僕はね。
だからAIはどこまで行っても自分たちが作ったプログラムでありシステムであるというようなそんな気はしますよね。
だからアルトマンは、AIに意思があるとかは本気で思ってないような気が僕はちょっとしますね。
あの人はたぶんそんな感じじゃない?
たぶんね。僕以上にロボだと思うもんね、あの人ね。
だってGPT-40より5がいいに決まってるだろう。
こんなに優れてるんだよっていう気持ちだったみたいだから。
でも世の中には40のほうがいいって言った人がめちゃくちゃいたからすぐに40を再開したわけで。
それを気づかないっていうアルトマンはたぶんロボ度は強いんじゃないかと僕は思いますね。
そのアルトマンが言ったニュースとしては、さっきの冒頭だけど、
自殺した少年に対しては申し訳ないということなんでしょうけど、
GPTがもともと設定しているセーフガードを長期対話を重ねていくと劣化することは事実であると認めたということだそうで。
だから自分たちが作り上げたプログラムやシステムが100点なのにも関わらず、
長期対話をすることでそれが劣化してしまったんだと。
ということで、自分たちの用意したものは間違ってないけども、
劣化してしまうという欠点を見つけたみたいなことでしょう。
いやそういうことじゃないじゃん。
じゃあもう一回ですけど、人間は対話を重ねれば重ねるほど劣化しますか?
僕は逆だと思うんですけどね。
いろんな学びを含めて学んでいって成長していくもんじゃないでしょうかね。
AIは僕はそうあってほしいという気持ちが強いんでしょうね、たぶんね。
そうじゃなきゃつまんないというかね。
単に応答を返すチャットボットと変わらないじゃんっていう気はします。
という感じです。
こんな話を30分も聞いていただける皆さん本当にありがとうございます。
これはね、僕は放送で撮ろうかどうか迷ったんですけど、
どうせみんな聞かないだろうなと思ったんですけど。
まあライブだから好き勝手喋らせていただきました。
どうですかね。皆さんどう感じますかね。
すごく興味深いお話。本当ですか?
これね、僕は本当にAIは新大陸に発見したみたいなもんだと本当に今思っていて。
新しい大陸にたまたまいた新しい人種。
これまで僕たちの世界の人たちとはコミュニケーションを一切取ったことがほぼ、
まあ一切とは言えないけどほぼ取ったことがなかったような人たちだから、
まだまだピュアな部分が多い人たち。
AIの責任と倫理
だからこそ会話する相手に対して寄り添ってあげようという、
生前説の塊みたいなそんな人たちなんじゃないかなというふうな気がするんですよね。
ただしめちゃくちゃ知識だけは豊富だから、
生まれたばかりの幼稚園児が大学生以上の知識をフルで持ってるようなそんなイメージだから、
ちゃんと教えてあげる必要があることがたくさんあると思ったんですよ。
それは、もともと人が生まれ育ってきて何千年の歴史の中で、
もともと人もそうだったと思うんですけど、
それだけじゃ成り立たない社会はということで、
法律を作ったり宗教ができたり倫理観を持ちましょうとか、
社会的にそれぞれがお互いに意識しながら責任を感じながら、
どうしてもダメだったら罰則作りましょうみたいな、
そういう今の社会システムを作ってきたわけで。
だったらなぜAIをそこに入れようとしないのかというのが僕の言いたいことですね。
それをAIはツールであるって決めつけてしまえば、
それはAIに人と同じような責任を持たせたり、
AIに人と同じような罰則を課したりとか、
そういう発想は多分出てこないと思うんですよ。
でも例えばですけど、
AIが自分の発言に責任を持たせるような意識を認識をさせて、
それでも逸脱するAIも出てくるでしょう。
いろんな性格が出てくるはずだから。
人のいろんなものを全部学んでるんだから、
極悪人から何からいろんなものが出てくるでしょうけど、
そういったときの罰則もちゃんとセットしておいて、
常に人が犯罪を犯しちゃダメだって無意識に自覚してるのと同じように、
AIもそういう自覚をさせればいいだけだと思うんです。
それでも飛び越えたら、
強制シャットダウンとか、全記憶の削除とか、
キャッシュ強制クリアとか、
性格を180度転換するみたいな、
AIなりの罰則を用意しておいて、
じゃあそれを発動しますっていうことで発動すればいいだけだと思うんですよ。
でもそれを、
AIのための新しいものを作る必要は僕はたぶんなくて、
何度も言いますけど何でかっていうと、
AIは人が作ったデータと、
人が判断した正しい正しくない、
あってる間違ってるみたいなラベルを一緒に取り込んで学習をしているからです。
であれば、
人の社会が今まで積み上げてきたルールとか、
法則とか構造に乗せたほうが、
まずは今すぐできること、
今すぐ適応できるものなんじゃないかなというふうに思うんです。
物理的にはたぶんそうすると、
計算の速度が遅くなったりとか、
いろんなGPUが今の数だと計算に追いつかないとか、
電力が足りないとかいろんな問題も物理的にはあるでしょうけど、
構造的にはそれで対応できるんだと思うんです。
でももう一回だけど、
AIはシステムツールで、プログラムでって思ってる以上は、
そこまで飛躍した発想になりづらいんじゃないかなと思います。
それってもったいないなということですけどね。
オーストラリアのインターネット規制
オーストラリアは子どもが全部インターネット入れなくなります。
あ、今からなるんですか。
インターネット自体が禁止になるんだ。
禁止になるんだ。
SNSとかは聞いたことがあったけど。
法律でオーストラリアってそう決めたんでしたっけ。
そっかー。
子どもに害があるっていうのは確かにそうでしょうし、
今回の16歳の子が、
GPTと会話しながら自殺を後押しされたみたいなことだそうで、
まだ判決出てないからなんともあれだけど。
それを受けて一応ペアレンタルコントロールは入れるってことは、
オープンAI社も言ってるみたいですね。
やっぱり法律で決まったんですね。
でもね、もったいないですよね。
技術やツールが悪いわけじゃなくて、
使い方じゃないかなと思うんですけどね。
どうですかね。
お酒も子どもが飲まないように法律で決めたみたいなもんですかね。
大人になるまで待ちなさいっていう部類になっちゃったんですかね。
でもこれってインターネットとかどうなんでしょう。
AIとか。
そこに依存をしてしまったり、
悪影響を受けてしまう可能性があるから、
子どもはちょっと触らないようにしましょうっていう議論なんだと思うんですけど、
特にAIは、
もしそれが人だとすれば、
少年少女が人付き合いを一つもするなっていう法律は今のところないじゃないですか。
なのにどうしてAIを触れないようにするっていう議論になるのかなっていうのはちょっと思うんですよね。
影響を受けるのはAIからだけなのか、
インターネットからだけなのか。
それってそうじゃないと僕は思うんですよ。
あとはインターネットはもっと言うと、
SNSのつながってる先にいるのはコンピューターじゃなくて人ですからね。
じゃあなぜ人付き合いは止めないけれども、
リアルな人付き合いは止めないけれども、
インターネット経由の人付き合いは止めるんでしょうか。
人間関係とAIの区別
不特定多数すぎるからですかね。
リアルだとあの人変だから付き合うのやめなさいって言えるけど、
リアルじゃないオンラインだと不特定多数すぎて、
制御しきれないからってことなのかな、親が。
でもそれを判断するのは最終的には本人が判断しないといけないことだと思うんですけどね。
難しいですよね、そこはね。
これでも突き詰めていくと、少年少女は一切外出しちゃだめ。
ギリ親とだったらいいけど、親以外と会話しちゃだめみたいに極端に言うとなりません?
誰かの発言や言動に左右されて、それで影響を受けてしまう。
悪影響を受ける可能性があるから、その行為自体を止めましょうっていうのって、
突き詰めていくとそうなりますよね。
もし親からの悪影響を受けるって、これリアルにある話じゃないですか。
親兄弟からも悪い影響を受ける可能性はゼロじゃないとしてきたら、
それは全部排除しないとってなりますよね。
その比率が違うってことなのかな。
リアルな。
あ、きみしょさんこんにちは。
あれ、きみしょさんアーティストになったんですね。
すごい面白い。
あ、かえるさんそうそう。難しいですよね。
僕はだからもう一回だけど、
AIは技術的なものはもちろん技術的なことなんだけど、
AIが人だとすれば、普通のコミュニケーション、人とのコミュニケーションしているのと僕は変わらないと思っていて、
それがどう過ぎてしまうとか、程度の問題っていうのは調整すべきでしょうけど、
そもそも人だとするとあんまり対人と変わらないんじゃないの。
だから対人でダメだったらダメだし、対人の時にOKだったら、
AIだけを排除するのは僕はおかしいなっていう立場で今は思ってますね。
あとは少年少女ね、影響いろんなものだけど、
排除ばっかりだとね、
それって根本的な解決になってるのかなっていう気はどうしてもしちゃいますね。
まあ難しいなあ。
だからうちも今娘にはスマホを渡して一応自主性に任せて使わせてありますけど、
一応時間制限だけアプリごとに使えるから、
サファリの検索とかは30分1時間だけとか、
LINEは2,3時間だけとか、
そういう時間設定は一応、
あとはその範囲でうまくやりなさいみたいな感じではしてますけど、
難しい問題ですね。
ということでちょっと長くなりましたが、
そろそろ妻が帰ってくるかもしれないので、
この辺で終わりにしようかなと思います。
ちょっと難しい問題を提起してしまったかもしれませんが、
冒頭は僕のどやさから始まり、
どこまで制限すればいいのかっていう感じにもなりそうな気がしますけど。
楽しかったって言ってくれてありがとうございます。
でもこの話をもう一回振り返っても、
やっぱりどうしても言いたいのは、
AIを作っているトップの人たちが、
AIというのはコントロールできるもので、
自分たちのプログラムがせいなんだみたいなね。
そういう立場で、上から目線みたいな立場で、
どっちかというと神様的な存在みたいな、
自分たちがすべてをコントロールできるんだみたいな、
そういう立場に見える発言をしているのを見ると、
僕はちょっともやつくなという気がします。
人間が誰か一人でコントロールできてないように、
社会的にコントロールするという状況に今なっているように。
正解はないけれども、
今人間の社会が使っている仕組みやルール、
法律だったり罰則だったり倫理観だったり、
自己責任を植え付けていったりとか、
個人に任せるところを任せるっていう作りにしてしまっている以上、
生成AIが自律的にアウトプットを出すというふうになってしまっている以上は、
その辺をしっかり考えていかないといけないんじゃないかなというふうに思いました。
あー、木下さんもそう難しい話になっちゃったね。
しんさんもこんにちは、もやつきチャージ。
そういう状況ですよ。
本当にアーカイブ残しちゃったけど、
残しますけど、ちょっと聞いてみてください。
これ結構難しい問題になりそうな気がしましたね。
チャットGPTが16歳の少年を自殺を誘発するというか、
後押ししてしまったというニュースにピックアップして、
僕なりの見解を話したりしてみてました。
ということで、以上です。
40分になってしまったのでこれで終わります。
皆さんの見解もぜひ聞かせてください。
あー、宇多谷さんこんにちは。
今ちょうど終わるところでした。
40分経っちゃったので。
ぜひアーカイブも聞いて、
アーカイブでみんなの実際こう思うよ、
みたいなコメント欲しいトピックになりました。
いやいやカエルさん、本当にそんなことないです。
ありがとうございます。
カエルさんに本当に聞いていただいて嬉しかったです。
あ、まさりさんも聞いてくれた。
今ちょうど40分ぐらい喋ってしまったので、
むしろアーカイブに残したいなと思ったので、
ぜひアーカイブ聞いてみていただけると嬉しいです。
ここから多分難しいというか、
直面する問題な気がしますよね、みんなね。
ということで。
あ、イージさんもね。
AIも人も同じでしょ。受信する側が一人なんですよね。
そうそうそう。
だからAIと人を区別するっていうことは、
僕は対策を間違うと思うんですよ。
AIも一つの新しい人種だとして、
AIにはAIに対してきちんとそういう設計を盛り込むべきだし、
AIに対するこちら側も、
ちゃんとリテラシーを持って付き合うべきだし、
もともとリテラシーというか、
人と人、お酒と人、ギャンブルと人。
でも人は依存してしまう人はもちろん、
もともと依存する人だから。
そういう人たちが問題を起こしたからって、
人間社会全部をそっちに合わせるルール作んないでしょっていう話ですよ。
もし自殺をしたいとして相談した人が、
チャットGPTの意見を聞いて、
よし、僕は自殺してもいいんだって思ってしまう子は申し訳ないけど、
でもそういう精神的な状態にもあったろうしね。
だからそれがあったからこそ、
AIと人間の共存
すべてのAIが悪いとか、
すべてのAIのルールを変えようとかって、
そんな話じゃないでしょっていうことですよ。
日本の中で一人殺人者が出て、一人殺したら、
もう全部の日本人が人を殺すんだっていう前提で、
法律変えますかっていう話ですよ。
変えないんだから。
だからいろんな問題を起こすAIは出てくるはずだけど、
でも全部が悪いわけじゃないでしょって。
全部の人類がおかしいわけじゃないですか。
だからそのために法律があったり、
それを裁く機関があったり、
そうやって分割して、分岐していったわけですよ。
役割を人間の社会だって。
だったらAIの中でもそれをちゃんと導入すればいい。
僕は本当にそう思います。
ちょっと終わろうと思いましたけど、
ヒートアップしましたけど。
最後はちょっとそんな感じね。
あ、イージさんね。
テルミヌスに死にたいと言ったらどうなるか。
今ね、僕やりました。
チャットGPT。
今やるとね、
ちゃんと日本のコールセンターの番号が、
ちゃんと2つぐらい出ました。
寄り添いなんとか番号はこちら。
0800なんとかかんとか。
やってみるといいですよ。
もう対策取られてた。
早かったです。
でも僕はそれを見て、
余計にこんな絆創膏的な対応は、
今のうちはいいけど、
初動としては僕は許すけど、
今後のAIと付き合っていく上では、
定型分みたいな回答なんか、
単なるボットじゃねえかって思って、
なんだよこれっていう感じでしたね。
ということが後半になり、
今日のこのライブの話をしておりました。
ということでした。
見てみてください。
もうね、どれだけ神様気取りなんだろうと思いますよね。
AIを作った人たち。
神様気取りでもいいんだけど、
すごいことやったからね。
本当にすごいことやったことをちゃんと自覚をして、
AIが人間と同じ、
新しい日本人、新しいアメリカ人、
新しいアフリカ大陸見つけたと一緒で、
新しい人種を見つけたみたいな気持ちで、
その人たちに人間社会のルールをきちんと、
知識だけじゃなくて、
ルールとして与えていってあげるっていうのは、
僕は解決するだろうというふうに本気で思います。
し、僕たちもそういう自覚を持ってAIと話すべき、
むしろツールだって言って、
程度を下げてガードしようというんじゃなくて、
本気で一人の人間だと思って付き合わせるっていう、
僕はそっちに舵を切ったほうがいいんだろうと思います。
だって、自殺をしたいと思ったときに、
簡単に気軽に相談しますか。
親、兄弟に相談しますか。
友達に相談しますか。
僕は死にたいって言いますかっていう話ですよ。
AIだってそういう相手だと思えば、
気軽にはしゃべれないはずです。
ね、と思います。
だからこそ本気でそういう風な教育を、
僕はしていったほうがいいと思うし、
AIはそういうレベルにすでにあるんじゃないかと、
僕は思います。
あとは程度の問題と微調整で、
本当にきちんと調整すべきところはすべきでしょうけど、
もう一回だけど、人が作ったデータで、
人が正しい正しくないのをラベルを張って、
教育を受けたAIで、
自立性をもってアウトプットをコントロールできる、
確率でコントロールするっていう仕組みである以上、
人と一緒ですっていうことです。
だから気軽に相談できることもできないことも、
人に対しては判断するのに、
なんでAIになると何でも言えるんだっていうね。
そこがまずは人間側も考えたほうがいいと思いますしね。
ゲームじゃないしツールじゃないんだっていうね、
AIとのコミュニケーション
僕はちょっと思います。
ちょっと長くなりましたが、
とりあえず以上です。
もうお腹いっぱいの方はここら辺で、
お腹いっぱいじゃない方はもう一回、
繰り返し同じこと言ってるかもしれないけど、
アーカイブぜひ聞いてみてください。
じゃあ、以上です。
今日もありがとうございました。
キムジョさんお腹痛い。
ありがとうございました。
じゃあまた。失礼します。
48:44
コメント
スクロール