2018-07-13 03:04

人工知能(AI)が兵器開発に使われないように人間はコントロールできるのか?

人工知能(AI)が兵器開発に使われないように人間はコントロールできるのか?
00:00
皆さんこんにちは、ネットビジネスアナリスト横田秀霖です。
今日はですね、先日ニュース、先月ですかね、ニュースになったことなんですけど、
Googleがですね、AI技術、人工知能を使った技術に兵器開発はしないということをですね、宣言しました。
これは結構大きいことだと思います。人工知能というものが、まあこれから開発されていくと思うんですけど、
まあロボットってもできていくと思うんですが、その時にその兵器の利用っていうのが当然ですね、
まあ戦争に利用しようということが出てくるわけです。これを進めるのか進めないのかっていうことが今後ですね、課題になってくると思うんですね。
というのは、そもそも遡ること、特に日本はですね、非常に重要な問題だと思いますが、原子力、この原発ですね、
原子力爆弾ですか、原爆か、原爆っていうものを広島、そして長崎の方に落とされましたけど、これは原子力っていうものをですね、その戦争に使われたわけです。
これに関してですね、最初にこの原子力っていうものを作った人ね、有名な人ですけど、この人は非常に悲しんだということがその後言われています。
このように人工知能に関しても、きっとそれを使ってですね、戦争とかですね、人を殺すっていうことについて使うってことを言い始めると思うんですね。
そういうような恐れが出てきたので、Googleは今回やめたわけなんですけど、ではこれが地球規模としてできるかどうかなんですね。
これ一つの会社が今決めたことであって、Amazonや他の会社がそういう発表したってことはまだ聞いていないんですけど、
仮にそうだとしても、ではそれを国単位だったりとか、一団体、例えばテロ組織とかですね、そういうところがこれらの技術っていうのを使ってですね、作らなくもないわけですよね。
このようなことをどのようにその国、国を超えて、地球規模でそのようなですね、ことを行うかっていうことが今後課題になると思います。
それをですね、どのようにまたコントロールするかっていうこともですね、取り締まるするとか、どういうふうに罰則というかですね、そういうのを抑えていくかっていうことも課題になってくると思うんですね。
これができないときに多分人工知能がその勃発、暴走してしまうっていうことになるんじゃないかなと思うんですね。
それをどのようにルール作りをするかってことが多分まだ話し合いがされてないんですよね。
この辺が課題で、こういうことを考えると将来ですね、人工知能が何か問題を起こすってことが言われる一つの原因じゃないかなと思いますね。
はい今日は人工知能とそして戦争ということについて考えていました。ネットベースのアナリスト、横田修林でした。
03:00
ありがとうございました。 ではまた明日。
03:04

コメント

スクロール