00:01
賢さの判断というのは非常に難しくて、相手の言っていることが賢いかどうかというのは、自分に評価軸がないとわからなかったりすると思います。
ですから、賢さがわかるかわからないかということは、自分に跳ね返ってきて、自分の賢さが試されているとも言えるんだと思います。
これをAIとの関係に置き換えたとき、AIから返ってきた答えが良い答えかどうかということの評価も、また、受け取り手である私たちの知性の限界を試されていると言えるのかもしれないと思っています。
ですので、AIは究極的には人間が喜ぶ答えを目的にしていると思いますので、人間がわかるギリギリの賢さのアウトプットを狙ってくるのではないかと思います。
一方で、そんなことどうでもよくて、とにかくクレバーな結果が知りたいんだということになると、AIのアウトプットはもはや人種を超えたわけのわからないご選択のようなものになってしまうかもしれないというのもあると思います。
そうすると、我々はそれを評価することはできないので、ただただ信じることしかできなくなるという構造が生まれてくるんじゃないのかなと思います。
こういった構造というのは、歴史的にも繰り返されている気がするので、なかなか面白い現象なのかなと思っています。
ではまた。