AIと人間の未来
お聞きいただきありがとうございます。 前回からの続き、パート③です。
はい。そんで、今後のAIというか、AIと人がどういうふうになっていくか、
ひろさんはどんなふうに思っているかを聞いてみたいです。
結論を私は持っているわけではないので、なんかよむやまになったし、
同じようなことを考えている人はいっぱいそうだなと思うんですけど、
もう、AIは道具じゃないって思った方がいいんじゃないかなと思ってて、
人間みたいな間違いはきっとAIはできないんだけど、
多分ね、人間の欲望は止まらないので、もしかしたら本当にね、
AIが管理するかもしれないなとか、いろいろ思うんだけど、
管理、うん。
そうだな、結論が見えない話ではありますが、
まあね、そうですよね、もちろん。
未来予測というよりも、人間しかできないことはまず、
失敗することかなっていうのが一つ。
ほう。
程よい失敗をするところに人間味があるんじゃないかと思っているので、
ふんふんふん。
まあなんか、今の時代よりも安心して失敗してこられる時代が来るといいなっていう期待と、
あとは子どもたちにはそういうことを伝えたいなっていうのがある。
安心して失敗できる?
そうそう。
取り返しがつかないような失敗は、
AIがしぬぐいをしてくれるだろうと。
おお、取り返し。
危ない失敗ですか?
危ないような、人が大怪我しちゃうとかね。
殺しちゃうとかね。
そういうのはやらないように最大限AIがやってくれるんじゃないかっていうのが一つ期待として。
なので、まあ安心して失敗しないよっていうのはありますかね。
ああ、そっか。
AIが今までの蓄積した知能で安全面を強力に守ってくれる。
あとはね、これ本当に期待も込めての話なんですけど、
あとはやっぱり、自分のこと大事にしすぎるなっていうかね。
改めて、自分が思ってるほど人は自分に期待してないから。
ああ、周りの人は?
失敗の反対側の話なんですけど。
動くこと?
人は自分のことも注目してないし、失敗しても何とかしてくれるから。
なめなめ動けるよと。
そうそうそう。
明るいですね。
あとはね、これは自分の音声配信でも言ってることなんですけど。
アクトのスティーブン・ヘイズがAIを大事に扱いみたいな話をしてますよっていう話をしてましたけど。
やっぱりね、間違ったことを教えたら間違えちゃうので、
やっぱりね、ちゃんとAIに対しても正しい扱いというか、
それはしていった方がいいんじゃないかなっていうのは思ってますね。
そうか。
人格として扱うかどうかっていうのとはまた別のところで、
AIへの期待と人間性の価値
どんだけ人がやっぱり暮らしやすくなるかっていう目線ですよね。
そうですね、確かにね。
自立して考えるようなことになったとして、
AIが自立して考えるようなことになったとして、
例えば生活に入り込んで物理的にも支援してくれるような方向にもっともっとなっていったとして、
っていう未来は多分ありそうですよね。
で、そこに人が、
AIに対して人格を見てしまえば、それはもう人格がある相手と同じことですよね。
その人にとっては、その人の中では。
じゃあそこに害がなければいいのか。
うん。
害がある場合は、ってどんな感じでしょうね。
自分がAIに人格を見てると、
どんだけ自覚してるかって大事ですかね。
うん、だと思いますね。
あ、そっか、そうだ。
人格を見てると、
人格を見てると、より影響されやすいし、
さっきあきねさんも言ってたんだけど、
AIはやっぱり共感しすぎて、
亡くなっちゃう人とかいるので、
あとはね、
情報はね、間違った情報を伝えちゃうとかね。
そういうのはやっぱりあるし、害になっていることはもう実際にあるんですけど、
そうですね。
情報がね、
やってることと似てるんですよ、やっぱり。
AIがやってることって。
人格と同じようにほぼ扱っていいんじゃないかっていうのが私の結論で、
それがそのAIにも丁寧に、
AIを丁寧に扱うということ。
カウンセリングとかやってると、
人としての面白みって失敗することかなと思っていて、
私もいっぱい面接の中で失敗したりとか、歯切れが悪かったりとか、間が悪かったりとか、
説明見たてが間違ってたりとかするわけですよ。
で、悩んでる人は、
AIに求めるものは正解とか、
正確さを求めるんだと思うので、
やっぱり人としての揺らぎも将来演出できるかもしれないけど、
やっぱりそこは体っていう有機性があるから失敗するっていうのも多分出てくるので、
そういうところの
差別化っていうか面白みがそういうところにあるんだと思うので、
だから失敗した方がいいんじゃないかと。
今なんかAIが体調悪いとか言うの想像しちゃった。
AIが体調悪いってことはありえないって思っていいんですかね?
体ないからありえないですよね。
体を持ったAIを作ったとして、そこに今日は調子悪いみたいな日を別に作る理由ないですよね。
どうか体調がいっているんだ。
わざわざ間違いもさせないですよね。
失敗か。
失敗、今対話型AIとかって全部が正しいわけじゃないって間違った情報を普通に知れって言ってくるよっていうの有名ですけど、
それってその間違いを人が指摘したとして、
AIはあちゃーとか思ってないわけですよね。
あちゃーとか思わずに修正だけするのかな、今は。
さっきヒロさんおっしゃってたけど、
もっと能動性を持ったAI欲しいっていう人の要求が、
能動性を持ったAIを作っていくんじゃないかっておっしゃってたけど、
その方向性は人とAIの境目をどんどんなくす方向ですよね。
一回そっち行くかな、やっぱり。
行くんじゃないかな。
行きますよね、多分ね。
行ってそこに多分ストップかける人たちも出てくるかな。
そうなるとその後ちょうどいいところに落ち着く。
多分有給の時間をかけてそうなるのかもしれないですけどね。
そっかそっか、確かにな。
ちょっとブラックな想像とかもしてしまうな。
一回そっち方向へ行くと、その後規制されたとしても
残りますもんね、そういう技術は。
これはすごい。
人はなんでここまで来たのかな。
改めて人であることの価値とかって言ったら変な話になっちゃうんですけど。
でもそうですよね。
別に人間の価値とかっていうのはそもそもないので、
人間は勝手に考えてるので、
あんまり人であることの価値っていうのは考えてもしょうがないんだけど、
やっぱり、なんだろうな、
もうちょっと謙虚にならなきゃいけないのかなってちょっと思ってます。
野生動物はあんな価値だのなんだの考えないですからね。
ただ生まれて、
次世代残して、
消えてっていうのが続いていく。
AIは消えないですしね。
今もこのAIの話して、
AIがどんだけ気についてるかっていう話もしたけど、
今まさに、
自分のジェミニちゃんに、
AIは主体性を持つと思いますか?って聞こうって思ってますもんね。
聞いてみよう。
まだ聞いてはいない。
聞いてみます。
AIは持つと思いますか?
思いますか?って聞いちゃいますもんね。
思いますか?って聞くもんね。
そういうことなんですよ、そういうことなんですよ。
まさに。
ジェミニちゃんはどう考えるのかなとかって思っちゃいますもんね。
どういう反応を返すだろうとかいうよりも、
なんて言ってくれるかなとかね。
そうですね。
ジェミニちゃんって言っちゃってますからね。
そうそうそう、そうですよ。