00:06
はいどうもアメショのユキです。
ティーマーやニンジナオでAIアートクリエイターとして活動しております。
はい、よろしくお願いします。
金曜日ですね。
はい、鼻筋ですけども、
今日頑張れば土日ということでですね。
実はですね、自宅で飼っている猫さん、12歳のおばあちゃんなんですけども、
猫さんがですね、今週ちょっと体調崩してしまってですね。
うーん、もうおばあちゃんだからね。
たまにちょっと戻すことがあったんですけど、
その戻した中で血がね、混じってるっぽいっていうことで、
慌てて同居してた母がね、連絡してきて、
それはもう病院に連れて行った方がいいよって言ったら、やっぱりですね、
凸血してたと。
ただ、何が悪いって訳でもなさそうだったので、
注射をね、打ってもらって、
基本毎日来なさいっていうことで、
失礼。毎日ね、病院の方に通院をしてるんですけども、
週末もね、今週はちょっと帰らなきゃいけないんで、
週末は私がね、今日帰ったら連れて行こうかなという風に思ってるんですけども、
うーん、やっぱりね、人間も猫さんも動物も健康第一ですからね。
はい、ということで、土日はね、娘の面倒も見なきゃいけないんですけども、
猫さんの面倒も見ていこうかなという風に思ってるところでございます。
はい、ということでですね、今日はそんな話ではなくて、
何の話をしようかなと思ったんですけど、
あなたはスポンジ人間になっていませんか?ということについて、
ちょっとお話をしたいと思います。
何のことかと言いますと、
AIを使っていく上で、人間が必ず絡まなきゃいけないですよ。
最終的な決定というかね、
責任は人間が負っていくんですよという、
人間中心という考え方というのがあります。
基本的なAIの原則は、
人間中心で価値観とか決定権を形作っていくというのが、
よく言われる話なんですけども、
ただ、その中で、人間中心だと、
それはそれでいいんですけども、
実は、アメリカのコロナ大学という大学の、
マーコット・カミスキー教授という先生が提唱されている、
責任スポンジ論という話がありました。
これどんな話なのかというと、
人間の最終的な決定権は、
人間があれなんですよ、
Human in the Loopという考え方の中に、
人間が組み込まれているべきだというふうに、
03:00
考えの中で、それはそれでいいんですけども、
問題は、その中に組み込まれた人間が、
最終的にAIから責任を吸い取るだけの、
スポンジのような形にされてしまうということを、
言われているという話です。
例えば、これどんな話かというと、
自動運転でAIというのが今どんどん入ってきていますけども、
例えば、
昨日、中国のHybridに、
AIが実装されますよという話が載っていましたけども、
例えば自動運転システムにおける運転者として、
アメリカのテスラもAIを使っていますけども、
テスラのポリシーだと、
緊急時にはソフトウェアが自動運転を提唱して、
人間の運転者にパトコンタッチしますというふうになっているんですね。
ところが、この仕組みには問題があって、
アメリカの運輸省の調査によると、
多くの事故事例、事故の1秒前に自動運転を解除しているという、
そんなものは対応できるわけないだろうみたいな、
実際に1秒前にハンドルを渡されても、
人間ははっきり言って何もできない、
人間じゃなくてもできないと思いますけども、
これが、いわゆる事故の責任をAIから人間に転化されている、
実際に事故が起こった瞬間は人間がやっていましたよね、
事故の責任スポンジにされてしまうということですね。
それが、上杉教授が提唱する責任スポンジ論になります。
これ同じ状況は、別に運転に限らないと思うんですね。
例えば、AIを意思決定に用いるという意味でいうと、
医療であるとか人事とか行政であるとか、
いろんな領域でそれは起こり得ると思うんですね。
最終的に、AIと一緒に協働しながら、
最終的に人間が意思決定をするはずなのに、
実は、AIの出す評価というか結論に、
人間が抵抗しないで無力化してしまうと考えられているからですね。
AIの評価を過剰に信頼してしまう認知バイアスをもたらすということとか、
批判的に吟味しない中身を考えなくなってしまうとか、
それが最終的にはスポンジ論を生んで、
責任スポンジ的な人間を生んでしまうということにつながる。
そもそも吟味をすると時間がかかる。
そもそも自動化して時間を稼ごうと、
時間を節約しましょうというふうに考えていたのに、
06:03
そこに人間が考えなきゃいけない、決心をしなきゃいけない、
いろいろやらなきゃいけなくなってくると、
結局それってこそじゃんというふうに考える人が出てくると、
それに構わなくなると、
最終的なところだけでいいよねってなってくると、
その責任スポンジになってしまう。
例えばそういうことが言われています。
じゃあこれどうすればいいのかって話なんですけども、
一番大切なのはやっぱり向き合うための、
AIの評価に批判的に向き合うだけの時間を取るとか、
スキルを持つということですね。
それが重要だというふうに言われています。
そのスキルの中で重要なのはやっぱり教育だとか言われていますね。
最近ナソルピックみたいなAI企業は、
哲学者を正規的に採用しているんですけども、
これはそれに関連しているところが、
人間の中心に移行すると、
深い洞察が必要になってくる。
深い洞察をするために哲学とか倫理とか、
そういう教育が重要になる。
それを通じて人間が、
いわゆる倫理とか正しさとか、
一体何なんだということを考えるようになる、
というふうに言われているからですね。
欧米ではそういった教育が行われているから、
そういうベースチックなところがあるからと思うんですけど、
対して日本ではどうなのかというと、
やっぱり日本は、
AI化がそもそも遅れているからというのもあるんですけども、
そのAIを急速に普及させなきゃいけないということを
その部分を見ていないということが多いんじゃないか、
というふうに思うんですよね。
AI人材を育てるにあたって、
人間が背筋スポンジであるとか、
例えばバンパーにされてしまうとか、
そういうことを避けるためにも、
尊厳とか権利とか、
深い洞察をするような人間を教育で育てなければいけない。
だからAIを使えれば全てオッケーですよ、
テクニカルなところができればオッケーですよ、
ではないということが、
人間中心のAIを実現するために必要じゃないか、
というふうに言われているところであります。
今日はAIを使うにあたって、
あなた人間スポンジになっていませんか、
ということについて話をしてみました。
私自身もAIを使うので、
実際にAIで時短になったらいいよね、
自分で今までだったら傍覧時間をかけて調べなければいけないことが、
09:00
一瞬で調べていろんな提案をしてくれるな、
というふうに思っていましたけれども、
人間スポンジになってはならないということを考えると、
やはり中身をちゃんと吟味できる、
出してくれた答えそのものに対して、
それは正しいのか、
それはやっていいことなのか、
答えの方向性については本当にそれでいいのか、
やはり深い資産を自分で考える力が必要だな、
というふうに改めて考えた次第でございます。
今日はこれぐらいにしたいと思います。
今、いずれ起きていかれます。
エンターテインメントにより、
みんなも楽しませる一日にしてまいりましょう。
それでは飯伸木でした。
ほなまた。