で、まずどこから行くかって話なんだけども、そもそも従来のっていうか、これ一般的な感覚でいくと、
僕らは何かを認識しますとか、まるでその認識したもの、例えばこれを目の前にあるものを見て、
これはリンゴだというものを理解して、で、兄貴にここにリンゴがあるよという風に伝えましょうと。
ここにリンゴがあるっていうのが一個の知識というか、情報だから。
それを伝えるときに、実はこれってすごく簡単なことのように見えて、めちゃめちゃ難しいことをやってるんですっていうのは何となくイメージが湧くと思うんですよね。
これまでのツラジオの話からってことね。
そう、これまでの話からすると。
イメージ湧かないから。
湧かないのか、湧かなかった。
ダメだよ。400回言ったからってそこは絶対にダメだよ。
楽しちゃダメ?そこ。
ダメ。楽じゃないか。
もう一回言います。
僕らが普段やっていることだよね、目の前のものを見てリンゴだって伝えるっていう、ある種、子供でもできる、3歳児でもできるようなことなんだけれども、
実はこれってめちゃめちゃ高度なことをやってますと。
そもそも目の前のものを認識するというか、ところでこのリンゴというものだけを包括して、
そもそもリンゴとは分かってないときに、この丸くて拳材の物体だけをフォーカスして、
あるいは絶対に机とかいろんなものがあるはずなのに、そのものだけにまずフォーカスを当てますと。
はいはいはい。
これは図と字とかって言うんだけど、図面の図と字っていう地面の字があったときに、
それをちゃんと環境だから得り分けているって話だよね。
あー、はいはいはい。
その拳材の物にフォーカスを当て、それがおそらく作り物でもなく、食べれるものとしてのリンゴであろうということを、
なぜか触っても食べてもいないのに推測をしてラベリングして。
しかもそれを、この相手もリンゴという言葉を知っているはずだとか、
その言い方で伝わるはずだということを、なんかよくわかんないけど推論をして、
ここにリンゴがあるよというふうに伝えるっていう。
はいはい。でも確かにそうはね、それ一本間違えるとただのギャグ漫画になるもんね。
え、どういうこと?
いや、例えばさ、自分がさ、これハヤトに、これがリンゴだよって伝えたとして、
ハヤトが、あ、これがリンゴですねって言って、その下にある皿をめっちゃ嬉しそうに持ってるみたいなさ、
そういう横回りそうじゃん。
あれそう、新聞とかに載ってそうだよね。
だからそういうことが起きないのって実はめっちゃすごいことなんだよっていう話。
そうそうそう、そういうことです。
これちゃんと説明しよう。これわかんないから、これ当たり前じゃないからね。
ごめんなさいごめんなさい、ちょっと楽しようとしてました。
すごいなるほどって思ったよ。一個勉強になったよ、ちゃんと。
あ、ほんと?よかったよかった。
でもやっぱそういうことを僕ら普段当たり前のようにやってるわけなんだよね。
なるほど。
これもうちょっと言うと、やっぱり何かを認識するとか、そういった情報とか知識を共有するって、
実はいわゆる認知機能、目で見ますとか脳で処理しますってことだけじゃなくって、
ちゃんと空間的な距離感とか、やっぱり感情的な部分で食べれる食べれないとか、
それを共有するってことがどういうふうな意味を持つのかとか、
そういうことを暗黙のうちに全部バーって処理をしてやってるよって話が実はあるんだよね。
あー、はあはあはあ。
ただ一方で、AIというものがどういうふうにそういった情報とか画像とか視覚的なものを処理してますかっていうと、
僕はこれもほんとかじり利きではあるんですけれども、
基本的にはやっぱり学習じゃないですか。教師データと呼ばれるものがあって、
リンゴというものとかリンゴではないものっていうものを延々処理をし続けて、
それをやると、なんかこれはリンゴであるとか、これはリンゴでないということを判断できますねっていう、
その積み重ねですっていうのが多分基本的なAIの認識の仕方なはずなんだよね。
うん、そうね。
つまり、今僕が兄貴に対してここにリンゴがありますっていうふうな伝え方で、
確かにリンゴがありますねっていう反応と、
AIにこれはリンゴの写真ですとか、ここにリンゴがありますというふうに伝えて、
確かにリンゴがありますねっていうふうな返答って、
言葉の中では同じかもしれないけれども、
兄貴の中に起こっていることと、
AIの中に起こっていることっていうのは、恐ろしいことに実は違いがあるんですよと。
あー、なるほど。
そのリンゴをリンゴたらしめてる理由がそれぞれ違うってことだね。
そうそうそう。
人間とAIで。
これはリンゴであるということをアウトプットするために使っている情報とか、
はいはいはい。
得ているプロセスっていうのは全然違うんだよね。
当然AIはリンゴは食べられるということは、
言葉としては伝えてくるけれども、
本当の意味では絶対分かんない。
だって食べるということをしたことがないわけだし、
リンゴに限らずね。
もちろんリンゴってもう食べたことがないから、
多分聞いたらリンゴというのはみずみずしくて甘くて、
こういうものですっていうふうには、
返答はしてくれるけれども、
そこにはやっぱりその、いわゆるその、
実感とか体感という意味での知識とか、
そういったものはないわけなんだよね。
今のところね。
今のところ。
将来ね、それこそいわゆる味覚センサーができたようなフィジカルAIとかができて、
それも分かんないよ。
人間の味覚を再現した、
そういうものができたときに、
果たしてそれは本当の身で食べたということができるんですかっていうのは、
どこに行ってもやっぱ分かんない。
はいはいはいはい。
けれども、今のAI水準においては、
それすらもやっぱりできてないというか、
一般的ではないっていう話だよね。
そういうふうにしたときに、
つまりこれ何が起きてるかっていうと、
仮に兄貴が、これはリンゴですねとか、リンゴは美味しいですねっていうことと、
例えばAIが、これはリンゴで食べたら美味しいですねっていうことと、
もしかしたら動物、犬はリンゴを食べるか分からないんだけど、
リンゴを食べたときに尻尾を振って喜んでるように見えたとしたときに、
このそれぞれで起きているリンゴに対する反応って、
やっぱり全然違うメカニズムから起きてますよっていう話があるんだよね。
なるほど。
ここまではOK?
OKOK。
全然違うもんね。
人間の赤ちゃんが生まれて、リンゴをリンゴって認識するようになるまでのプロセスと、
AIが学習を通じて、これはリンゴだ、これはリンゴじゃないって判断ができるようになったプロセスと、
犬がこれ馬みたいなことを言ってるプロセスは全部違うよっていう話だね。
そうなんです。
面白いね、確かに。
プロセスに目を向けたときに、
勝手にちょっと日本人っぽいという。
そういうラベリングはどうかなと思うんだけど、
なんか相棒みたいと思った。
今チャッピーはちょっと友達、人間の友達みたいな感じで思わせちゃってるけど、
もうちょっとペットぐらいの感覚に今の話からなんか思っちゃった。
付き合い方として。
犬っていう話をしたからかもわかんないけど、
その感覚はもう少し話をしながら兄貴にも聞いてみたいなって思ってはいるんですよ。
仮にだよ、仮にいわゆる人間の認識に近づけましょうではなく、
AIではAIの認識の仕方があるのだから、
それを尊重しましょうっていう話にしたときに、
じゃあ何が問題なのかっていうと、
その認識の仕方が違う2つの存在、
AIと人間とが会ったときに、
どういうふうにお互いにその認識を共有しますか。
より良い推論というか、
答えとかアウトプットに取り付くことができますかっていう、
そっちに発想が行くわけだよね。
本当に言うと、それこそペットだとすると、
よくあるじゃん、猫を翻訳機みたいな感じでさ、
猫を鳴き声を人間の言葉に翻訳して、
これは喜んでるんだ、これは怒ってるんだとかっていうふうにするみたいなのがあると同じように、
つまり人間とそのAIの翻訳の仕方、
これは言語的な翻訳じゃなくて、
その認識のプロセスとか、
何をもってそのアウトプットをしたのかっていう、
その翻訳だったりとか共有化っていうものってできないんですかねっていう、
そういうことに発想が行くんだよね。
さっきも言った通り、
兄貴に聞いてもAIに聞いてもこれはリンゴですって言いますと。
そうすると言葉の上ではどっちもリンゴというものを指すように見えるんだけれども、
認識っていうものを通ったときに、
兄貴の認識とAIの認識が絶対違うっていうのはこれまで話したわけじゃないですか。
なので、これはリンゴですってアウトプットに至るまでの認識とか思考っていうものを、
ちゃんとお互いに理解できるようにするための方法論ってないんですかっていう話なんだよね。
はいはいはいはい。
これって面白いのが、今でもできるんじゃないかって僕も思ってるのよ。
つまり、AIに対してこれはリンゴですって出したときに、
なんでそういうふうにアウトプットをしたのか教えてくださいとか、
それをアウトプットするために必要なプロセスを教えてくださいっていうことはできるんだけれども、
でも逆の話でさっき僕が言った通り、兄貴にさ、
なんでこれがリンゴだって分かったのかって教えてって言ってもさ、
うまく説明できる?
いやー無理だね。そう教わったから。
AIがそう言っても怒っちゃいけないんだね。そう教わったからですって。
そういうふうに私はプログラミングされてるからですって言うときに、
そうとしか言えないわけよ、AIからしても。
そうだね。
なので、そこで要は、
AIにどういうふうになんで考えたんですかっていうと、
もっとメタ的に自分の思考を分析するっていうのは、
やっぱり難しいというか、当たり前ではないんだよね。
AI虐待になっちゃうんだね、それは。
詰めるみたいな、おいなんでお前そんなこと言ったんだよみたいなさ。
そうそう、なんで分かんないんですよ。
自分の言ったことの、どう考えたのかも分かんないのかよ、おい。
それダメなんだ。
そうは言われましてもってやっぱりなっちゃうわけなんだよね。
なっちゃうんだね、へー。
なので、そこに対して、それができるようにしましょうっていうことを考えたのが、
ちょっと今日冒頭でお伝えした、そのシンラングって、
強制言語みたいな話らしいんですよ。
僕も本当にその論文でしか見たことがないから、
これがどのぐらい一般的な概念なのかとか、
どのぐらい洗練されてるかって、
正直まだ分かんない話とかもあるんですけど、
このアイデアがやっぱり面白いのは、
AIのアウトプットだけを見るんじゃなくて、
そのプロセスだよね、その認知のプロセスとかっていうものを、
できる限り詳細に、それを同時並行でちゃんとアウトプットしてましょうと。
出したことから、なぜそう考えたのかっていうことを後付けするんじゃなくて、
アウトプットしてるプロセスの中において、
果たしてそれをどういうふうに考えたのですかとか、
果たしてその信頼度はどのぐらいなんですかとか、
そういうことをAI側に出してもらいましょうと。
これって、いわゆる仕事でもあると思うんだけど、
結論はあるけど、なんでそういうことを考えたのとか、
そこにどんな情報があったの、なかったのとかっていうことを、
やっぱりご報告を一緒にしてもらうとかって、普通にあるじゃないですか。
ソースはっていう話ね。
そうそうそう。
それがあると、このインプットが間違ってるから結論が違うんだねとか、
逆に、この情報があるからこの結論は正しそうだねっていうふうに、
やっぱりそこで評価付けをするわけだよね。
そういったものをAIの認識においてもやるのはどうかっていうふうな発想。
これはなんか、
アルゴリズム的事故に侵食されるっていう感覚とはちょっと違う付き合い方な感じがするね。
そうそうそうそう。
なのでやっぱり人間とAIはパートナーとしてやっていくとか、
ただの道具じゃなくても、やっぱり一個の認識存在だから、
そのぐらいの取り扱い方をしないと間違えちゃいますよねみたいな。
そういうふうな発想がここにはあるんだよね。
おー、なるほどね。
ただね、これさっきのラーメンの話に戻っちゃうんだけども、
ラーメンの話を前回の脳にチップが埋め込まれた話で仮にやるとどうなるかなってさっき思ってたんだけど、
例えばさ、実は明日ラーメン食べに行こうと思ったから今日はやめとくんだって終わった時に、
今の技術レベルだとそれは当然AI側は知らないから、
ああ間違えました、じゃあラーメンじゃないですねってなるんだけど、
仮に脳にチップ埋め込まれて、自分の思考とか考えてることとかも全部リアルタイムでリンクされるとした時に、
AI側は、早藤さんは明日ラーメンを食べたいと思っているってこともインプットされてるわけじゃない?
もしそれはできるとしたらね。
それと、それでもラーメンを提案するということになるのか、
それともそうなったらその情報を含めて、今日はラーメンではないってことも想定して別のものを提案するのか、
ここまで来るとやっぱり前回と比べてわかんないよ、何もわかんないんだけれども、
その時にやっぱりAIがする挙動って、多分自分が導き出す中での絶対最適解のはずなんだよね。
で、なるとやっぱり前回の話と同じで、
もうAIの出した結論とか、ここでいうとAIが出した認識とか知識とか、
情報とか、それを疑う理由がなくなってくる、どんどん。
いやー、面白いね。そこまで深く人間の人格というか、人間の核とは何かみたいなことを、
広角機動体でいうとゴーストは何かみたいな話になってくると、面白いね。
それはもう、今回では語りきれないというか、それ一個で話したいよね、いろんな人と。
いろんな人聞いてみたい。
でもいいよね、それをさ、次の公開スウェーデンスラジオでやってもいいかもね。
あー、ゴーストとは何か。
僕、広角機動体ちゃんと見てないから、ゴーストとは何かだとちょっと話に入れないなって思ってるんだけど。
ハヤトにはね、ちゃんと哲学素人としてセシロって言ってね、こっちはクローソナーとかね、タチコマガみたいな。
説明なしにボンボンこういう名詞を言うっていうね。
そうね。イメージしかないから。でもやっぱりそこをつなげる話をするのはめちゃめちゃ面白いかもね。
いやー、でも面白いね。そっか、これで今回の強制認識論か、これでさっきのアルゴリズム的事故を解決できるかなと思ったけれども、
今のレベルなら解決するかもしれないけど、そうだね、もうチップ埋め込まれてみたいな。
SF的な話になってくると、あってもいいけれども、それを使いこなせる人がどれだけいるか、もしくはそれを必要とする人がどれだけいるかっていうところになってきそうだね。
そうだね、私もっと言うと、いわゆる強制するとか、AIと正しくやり取りをするっていうことの意味が変わってくる。
今はそれぞれ別のプロセスで認識してる人がタイムラグがある中で情報を共有するから、それをすり合わせるっていう話になるけれども、
本当にリアルタイムで感情とかも含めて共有されるってことが可能なんだとするならば、
そもそも情報を共有するっていうことの考え方とか、ズレを修正するって考え方からもガラッと変わっちゃうから、
これ難しいね、確かに。強制として考えると、さっきの早くも言ったような、自分のデータもリアルタイムで全部取り込んだ上で、
勝手に自分の神経に出力されちゃうとちょっと困るね。
何だろう、あくまで脳内羊みたいな感じで、もしくは脳内ペット、もしくは脳内友達みたいな感じで、
自分がバーって何食べようかなって考えた時に、ちょっとちょっとって脳内のそれが、
明日ラーメン食べるって言ってるけど、じゃあ今日はカレーとかどうだい?みたいな気にきいてくれないと困るってことだよね。
じゃないと、そこまで勝手に自分の感覚までハックされちゃうと、
よし、じゃあ今日はチャーハンにしとくか。チャーハン近いな。チャーハンも近いな、ラーメンと。
パスタいい?パスタ。
今日はカレーにしとくかっていう風な言葉とか、欲求が口から出てくるみたいになった時に。
もしくは足が勝手にそっちに向くみたいなね。
そうそう。そこにはもうやっぱり意識化だから、自分の認識がないまま、いろんなものを総合してカレーを食べるということが行われている。
そこに何の違和感もないし、むしろ満足してるんだけれども、その推論とか認識とかは全部AIがやってましたみたいな。
今話したと思ったけど、そこまで行かないかもなとちょっと思った逆に。
なぜなら、全部がAIにリンクされるって言ったけど、全部が何かっていうことを僕らはどこまで言っても多分わかんないじゃないですか。
どういうことだ?
つまり、ラーメン明日食べようと思っているとか、でも最近ちょっと太ったなとか、貧血なとかっていう、そういう言葉って一個一個は区別できるけれども、
それが脳内においてどういう状態であるのかとか、果たして聞き出されたものだけしか考えてなかったのかっていうと、そんなこともないはずじゃない?
なるほど、面白いね。脳内でまだ言語化されていないもの、脳内で言語化されたもの、言葉として、音声として言語化されたものみたいないろんなものがあるから、どこまでをリアルタイムで共有可能なのかみたいな話、情報として。
情報としてか、その全てをリアルタイムで言ってるときに、全てって何?とか、それって定義できるの?とか、そういう話?
はいはいはいはい。面白いね、確かに。
なので、SFの話だから、あえてそういう全てとかリアルタイムとか言ってるけど、それって逆に言うと、本当に実現できるの?とか、そんなことで定義できるの?っていう問いはやっぱりかさほうではあるから、
そういう意味で言うと、今回お伝えしたような強制認識論みたいな感じで、どこまで行っても人間とAIってものは人間と犬が分かり合えないように分かり合えないのだと。だからこそ分かり合うための方法論とかコミュニケーション手段が必要だよねっていう、それは全然言えるかもしれないね。
これしばらくはいけそうだね、これ。例えばさっきのさ、口から発した言葉はリアルタイムに導入されるみたいなのがレベル1で、脳内で言語化して思ったものは共有されるのがレベル2。
で、脳内で思ってはいないことも共有されるのがレベル3だとしたら、レベル2ぐらいまではこの強制っていうところでいけそうだよね。
そうだね、そんな感じがする。
面白い面白い。レベル3になるとさっきハイトが言ってた全てってなんやねん問題になってくるから、ちょっともうそこまで行くと想像つかないよねっていうふうな話になってくるね。
そうね、戯言は言えるかもしれないけど、雑談っていうか意味のあることは言えなくなっちゃいそうだなって感じがした。
ただそういうレベルを設定した上でこうなるかもねっていうことは、やっぱり今日話せてよかったというか、こういう話をしないと出てこない観点だなっていうのは思ってる。
いやーそうだね、こんな話したこともないし思ったこともなかったね。
いやそうだよね、そうそうそう。だからね、やっぱり今回の狙いとしての、なんとなくAIっていうものを捉えるんじゃなくて、興味ないんですよ。
やっぱりAIっていうものを認識したいとして、犬とか猫とかと同じような存在を捉えましょうって、その発想自体が結構僕としては新しいというか、そういう考え方もあるんだって思ったんだよね。
そういうことをやるだけでも、やっぱり発想が広がったりするのかなって思ったりするし。
今度ね、次回は社会とか倫理っていう話をするって言ってると思うんですけど、
やっぱりこれって、まさにそういうAIというものが一つの認識主体である、直接は繋がらないんだけれども、そういうことを仮に立てたとしたときに、
そういう存在が増えた社会って一体どうなるんですかとか、果たしてそういう存在、
じゃあ例えばだけれども、そのAIが認識力を認めましょうっていうときに、例えば何でもいいんだけど、こういうことをお願いしたいってときに、私はそれはできませんとか、
私の認識力では及びませんとか、あるいはこれを対応するのは私の両親が痛みますとかね、仮にね。
したときに、それってどう受け取ればいいのとか、それって何なのって話になってくるわけだよね。
AIが道具ならば、金槌とかと一緒で、いやいやそのこと言わずに釘打てよって言えるんだけど、
AIが認識主体であるならば、こういうタスクは実行したくありません、できるんですけどっていうときに、
それでもやれって言いますか、やらなくていいですかみたいなことって、今度やっぱ道徳とかの話になってくるんだよね。
だって犬にさ、やりたくないのに日の輪くぐりさせるのってさ、ちょっとやっぱり理理的にどうかなって思ったりするじゃん。
例えば、今のAIの話って一緒なんだよね。
ああ、そういうこと。
もっと言うと、AIに人格を認めるかとかって話でもなってくるんだけれども、
そういった形でいくと、要は、AIというものが人との存在として認めましょうってなった瞬間に、
それを社会にどう位置づけますかとか、それを位置づけることができるんですかっていうふうな、そういうことがテーマになってきます。
ああ、なるほど。人間の倫理観とか道徳観への影響かと思ってたけど。
それもある。それもあるけど、それがまさに新しい存在を認めることによって、やっぱり揺らぐとか、
それに新たな発想が必要になるっていうふうな感じなんだよね。
AIの出現で人間とは何かっていう問いを突きつけられたと同じように、
今回の認識とは何かだし、倫理とか道徳ってなんだっけっていうのも、ちゃんと突きつけられてるってことなのか。
そうです、そういうことです。
そうなんだね。