00:00
皆さんこんにちは、ネットビジネスアナリスト横田秀霖です。
今日も人工知能AIについて考えていきたいと思います。
昨日に引き続きましてですね、連続なんですが、昨日ですね、人工知能が目を手に入れたということで、その目を手に入れたという点では人間と並んだように見えるんだけど、実はその前から
人工知能、ロボットというものはですね、例えばX線とかガンマ線とか、あとは
紫外線とかですね赤外線というような、人間が目では捉えられない周波数のものっていうのを捉えることができる時点で、実はもう負けてるんだよって話をしたんですけど、
今日はその目に続きまして、今日は耳の方ですね。 耳も同じなんですよね。耳もやっぱ音っていうのは周波数がありまして、例えば一般的にね、皆さんが聞いている耳で聞こえる音っていうのがあります。
よくあの聴覚テストがあった時に、なんかキーンとかで音がするのがあると思うんですけど、あれは人間の耳で聞こえる下の音から上の音までっていうのを、
あの音を出してですね、聞こえたよみたいな形でテストがあると思うんですね。 それに聞こえない音ということで、例えばコウモリとかですね、イルカとかが人間には聞こえない
周波数でやり取りをしているみたいな超音波と言われるものがありますよね。 このような音波の種類もありますし、一方では超低周波音というので、その
人間が聞こえる音の高いのと、幅がですね広いのと狭いのというもので、 周波数っていうのがあるわけです。
こうやって考えていた場合に、例えばその人間には聞こえない音を手に入れることによって 世の中のことをですね、把握している人工知能ロボットのセンサーというものに対して人間は聞こえる音が
限られているわけですよね。この時点でもう負けているわけですよね。 なのでその今後はそういう人間が聞こえない
音でやり取りを始めていくことが、もし仮にロボットがしていくと人間はですね、 それを制御できなくなるわけですよね。
このような形でですね、人間中心に考えてしまうと、人間に劣っている、人間に追いつくって考えるわけなんだけど、でも実は人間の方が限られた範囲で物事を捉えているって考えるとですね、実は人工知能ロボットが有利な手もあるっていうことが見えてくるんじゃないかなと思います。
今日はね、耳の音ということについて考えてみました。 ネットベースアナリスト横田修林でした。ありがとうございました。
ではまた明日。