1. シニアアップデート・デイリーシェア
  2. chatGPTは将来の〜略〜最後ま..
2023-02-08 10:09

chatGPTは将来の〜略〜最後まで聞いてね

#毎日配信 #スタエフ毎日配信 #chatGPT #言語AI
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/620fb62eeb302d8b48dca4b6
00:05
リュースタイルのハッピーライフコーチング。この番組は、プロコーチのリュースタイルが、あなたのシニアライフを、そして、これからシニアになるあなたのプレシニアライフを元気にする、様々なライフハックについて、時には博多弁で語る番組です。
今日はですね、chatGPTが僕らの将来の生活にどんな影響を与えるのかなということについてのお話なんですね。
ここのところしばらく、chatGPTだとか、ミッドジャーニーだとか、そのようなAIに関するお話をしています。これらをいかに使っていくのかということを考えるのはとってもワクワクすることですよね。
今日のお話はですね、最後まで聞いていただくと、最後まで聞いた人にしかわからない、そういうような内容がありますのでお楽しみにしてください。
本当に便利なchatGPTなんですけれども、このchatGPTって将来の生活にどんな影響を与えるのかなということなんですけれども、
一つはコミュニケーションツールですね。何かわからないときに問いかけるとかだけでなくて、話し合いとにもなるようなね、そういうようなツール。
それからあと情報の収集ですね。Googleの代わりになるんじゃないかって言われているほどの力を持っていますけれども、
あとは新たな知見の生成だとか、商品の開発とか、アイデアの創出とかね、そういうことできっと役に立っていくわけでしょう。
このchatGPTっていうのは今ウェブ上で使っていますけれども、いろいろな媒体に組み込まれるようになっていて、
電子ジャーとか車とかね、さまざまなものにコンピューターが組み込まれているかのように、いろいろなものに入っていくんじゃないかなという、そういうことが考えられますね。
ただしですね、データのプライバシーとか倫理的な問題というのも考えられるんですよ。そのことについてちょっとお話ししたいと思います。
chatGPTに考えられるプライバシーとか倫理的な問題、どういうことかというとですね、一つはやっぱり大量のデータを使って学習するじゃないですか。
そこの中にね、もうさまざまなデータが入るんですけれども、そこでデータが不正に使われたりとかね、漏れたりとかする、そういう可能性というのはあるわけですね。
さらに新たな問題がここで出てきて、学習するデータに偏りがある場合、このchatGPTが返していく答えにも偏りが出てくる可能性があるということですね。
つまり性別とか人種とか、そういうものへの偏りを反映したようなね、結果を生んでくる可能性があるということです。
03:04
なので、そこに今度生じることが何かというと責任ですね。
chatGPTが出してくるそういうものに対して、誰が責任を負うのかという、そういう責任のこともですね、今後考えていかないといけない問題として現れてきているようです。
ではそのプライバシーの問題に対して、どんな対策があるのかということですよね。
今後きっと取られていくだろうという対策なんですけれども、収集の時にですね、同意を得て収集するようなこととか、
あと収集したデータを暗号して保護するとかね、あとアクセス権を限定することとか、バックアップを取るとかね、そういうようなことがきっとこれから先より強化されていくんだろうなというふうに思うんですよね。
次に先ほど出ましたの変更性ですね、偏りの問題にどういうふうに対策をしていくかということなんですけれども、
chatGPTとか膨大なトレーニングデータから学習するんで、そのトレーニングデータのソースが偏っていると必ずその答えも偏っていくわけですよね。
なので、このトレーニングデータというのは多様性を持っていないといけないというのがまず大前提かなと思いますね。
次にそのchatGPTが出してくる結果というのを見直して、これ変更していないかなということのフィードバックをしていかないといけないということが挙げられますね。
あと本当にこのトレーニングデータでいいのかということ、これも定期的に見直していかないといけないというようなことが挙げられます。
あともう倫理的なガイドライン、これがちゃんと守られているかどうかということですね。
これというのは本当にchatGPTなどの言語モデルの変更問題を解決する上で非常に大事なことになってくると思いますね。
常に見直しを行ってもらって対策を講じ続けないといけないということになります。
じゃあ誰がそれをするのかという責任の問題についてのことです。
責任の所在というのはいろんなところにあって、使う人、それから開発をする人、そのような立場によって責任というのはきっと変わってくるわけですね。
使う人ってchatGPTの結果を利用するときにやっぱり倫理的に行わないといけないという責任を負うことになると思いますね。
悪用してはいけないということですね。
適切な使い方を今後は選んでいくということが求められてくる責任となってくるんだろうなと思いますね。
開発する人はですね、このchatGPTの開発の過程で当然倫理的なルールを守ることが求められるし、また偏った結果になってないかという、そういうことに対応していかないといけないですね、フィードバックの問題ですね。
06:16
またそのトレーニングデータをどこから持ってくるかという、そこにも責任が求められるということになります。
はい、ということでchatGPTというのが将来の生活にどんな影響を与えるのかなというところから始まって、プライバシーとかね、倫理的な問題とか、あとバイアス変更性の問題とか、そして責任の問題とか、そういうものも避けて通れませんよというようなお話でした。
はい、最後まで聞いていただいてありがとうございました。
最初に言いましたよね、最後まで聞いていただいた人にしか分からないことがありますよということの答え合わせですが、もうお気づきと思うんですけど、今日の原稿は全部chatGPTに作ってもらいました。
一番最初に僕はね、chatGPTは将来の生活にどういうふうに影響を与えますかっていう質問をしたんですよ。
そうすると向こうがね、こんなことこんなことって答えてきたんで、さらに次にそれってどういうこと、プライバシーってどういうこと、変更性ってどういうことっていうふうに僕はずっと聞いていきました。
するとね、難しい言葉をどんどんどんどん言ってくるんで、最後それらを全部コピーして、このもう一度それを放り込んでね、このAとBの二人の対話を中学生でも分かるように書き直してくださいっていうふうにしてね。
それで出てきたものを原稿にして僕が読んだという、そういうようなことでございます。
完全に原稿そのまま読むつもりだったんですけど、悪い癖で時々ちょっとオリジナルのね、何回突っ込んだりとかしてしまったんですけれども、それほんの一部でほぼ全部chatGPTの作った原稿ということになりました。
なかなか面白いですよね。
でも聞いててお分かりだったと思うんですけれども、いかにもこうなんか無味感想的な感じじゃなかったですか。
僕が途中でなんかいろいろ突っ込みながら読んだんで、もしかしたら無味感想的なテイストは少し薄れたかもしれないんですけれども、大まかにはね、非常になんかね、面白い話ではなかったかなという気がします。
この辺りが今の言語AIの一つの限界かなというふうに思います。
昨日も話したようにchatGPTでブログ書いても全然アクセスがなかった、稼げなかったって言いますけれども、やっぱ分かるんですよね。
09:02
事前にですね、やっぱりGoogle自体が落としているみたいですね。これ言語AIが作っているんじゃねみたいなことで、人間が作っているわけじゃないんじゃないというようなことでね。
いわゆるGoogleのSEOに対しては非常にやっぱり弱いという。
そのGoogleのSEOに対して弱いということは、人間が読んでもきっと今面白くないという、そういうことじゃないかなと思うんですね。
ということで今後、chatGPTは僕ら一生懸命使ってですね、より育てていこうと思いますけれども、そのうちですね、本当に面白いものがどんどん出てくるんじゃないかなというふうに思っています。
そうした時に、僕ら人間がどのようにそれと付き合っていくかということについて、今後ね、非常にワクワクする時代になっていきますね。
それでは、また何か始めたのりゅうスタイルでした。
10:09

コメント

スクロール