2019年7月の人工知能AIについてのニュースやノウハウをPodcastラジオ配信で振り返る

https://yokotashurin.com/sns/201907podcast.html

--- Send in a voice message: https://podcasters.spotify.com/pod/show/enspire/message
00:01
はい、皆さんこんにちは。ネットビジネスアナリスト、横田秀霖です。
人工知能AIについて、今までいろんなニュースをポッドキャストの方で
1記事ずつですね、配信していましたが、なかなかどうしてもですね
その配信するものができなくなってしまいましたので
1ヶ月まとめてですね、今月のAIニュースみたいな形で
お伝えすればいいんじゃないかなということで
ポッドキャストの方を再開していきたいと思っております。
ではですね、早速なんですが、記事を紹介していきたいと思いますけど
まずこちらからいきます。
まず1つ目はですね、現代のAIが得意とする5つの自動化
分類、回帰、クラスタリング、推論、探索っていうものがあると
AIっていうものはですね、結局のところは
このように分類したり回帰したりとかって今お話したことっていうのは
すべて自動化するために何が必要かっていうと
自動化するための定義っていうのを人間がしなきゃいけないってことなんですね。
このような過程があるので、なかなか人間を超えることができないというものがあるわけです。
それについてですね、また記事を紹介しておきますので
リンク先から見てほしいなと思うんですけど
次にですね、AIに自立させればいいんじゃないかと
自動化っていうのは、誰かが自動化の仕組みを作るわけだけど
自動化させないようにするためには、自分で勝手に動くようにしなきゃいけない
っていうのが、自立性を持たせるっていうことなんですけど
この時には、自発性、反過性っていうんでしょうかね
説明可能性、この3つあって、自発性の中にですね
内発的動機、そして意図、好奇心というものがあって
反過性の中に創造性、思考っていうのがあり
説明可能性の中にメタ認知、言語などがあるそうです。
この中で、先日僕が講演しました
好奇心っていう言葉が入ってるんですけど
自らが何か自発的に動かすためには、その原動力となるものが必要で
その原動力の一つに、ここでは内発的動機って書いてますけど
その欲求みたいなものがあって
そして自分がこうやっていきたいという意図があって
そして自分が新しいことに興味を持っていくという
好奇心があったりするというものですね
そして創造性、思考、これもまさにその通りですね
新しいものを考えていくという、オリジナルを考えていくっていうものがないと
自分的に動けないし
何か自分の考えとか思いっていうのが出てこないと
当然自発的に動けないし
そして認知というものと言語というものは
これ実どうやってそれを説明するかというときに
その説明をするために表現しなきゃいけないんですね
だから、例えばアーティストの人とか
03:01
芸能人の人とか、作家の人とかは全てそうですけど
自分たちの説明する方法として
それで文章を選ぶのか、YouTubeを選ぶのか
音楽を選ぶのか、絵を選ぶのかみたいな感じになっている分ですね
このようなものが表現方法としてのがあるということですね
この話もありました
あとはですね
ウィンブルドンでスポーツでAI編集が広がるということで
今回のウィンブルドンのテニスの試合の中で
AIによって編集された動画っていうのがたくさん上がっているそうです
過去のテニスの試合の中で
例えばどっちかが点を入れたときに
例えばリプレイがあったりとか
そしてギリギリ入るとかね
そこをもう一回繰り返すとかっていうものがあるわけですよね
例えば勝った人の方の表情をアップにして
負けた人の表情をアップにして
その対比を見たりとかっていう
そういうものの
今までカメラマンが自分がテクニックとしてやっていたことっていうのを
ディープラーニングによって勉強させることによってですね
それをAIによって実際に動画を編集することができるようになったということです
たくさんのカメラを用意して
たくさんの映像の中から切り取ってですね
編集していくっていうことができるというもので
恐ろしい時代になったなと思いますね
そのときに面白いなと思うのは
AI編集っていうのもすることによって
何がいいかっていうと
例えば一つのプロデューサーとかですね
いわゆるスイッチャーと呼ばれている
カメラを切り替える人達っていうのは
一人しかいない
主導権を持ってないわけですよね
でもその
例えばその
A選手寄りの編集っていうのと
B選手寄りの編集もできるし
中立の立場での編集もできるし
なんかミーハー的なものでもできるし
ちょっと炎上系のものでも編集できる
みたいな形で
いろんな切り口で編集でできると思うんですよね
そういうようなことをお客さんが
自分が好きな編集のカメラ映像に切り替えてみることができるっていうのは
AI時代ならではかなと思いますね
これは人間がいると5人必要になったりしますからね
人件にかかりますからね
この辺面白いかなと思いますね
あとはですね
ソンさん
ソフトバンクのソンさんが公演の中ですね
この数年で日本発展途上国になった
結構ヤバいということで
AIについてですね
日本が遅れてきているということについて
公演したものがニュースになっていましたが
僕もそう思います
その傾向の中に
やはりスマートスピーカーとか
音声検索っていうものを
やっぱり積極的にやろうとしないっていうところが
やっぱりひとつ引っかかっています
例えば今回のキャッシュレスもそうですけど
新しいことに関して積極的に進んでいかないと
結局データが止まらなくて
データが止まらないと進化しないので
06:00
だからそこの部分が
日本人が奥手になっていくとですね
結局変な意味だけど
中国みたいにバカみたいにやっていくと
どんどん学習して
賢くなっていっちゃうんですよね
なので人間が頑張る時代じゃない
AIに頑張らせる時代って考えた場合には
まず最初は人間がバカだと動かなきゃいけない
ってところが
日本は最近欠けているところなのかな
という気がしています
あとはですね
仮面ライダー新作01は
AIはテーマということで
AI社長が悪を討つというものになっているそうです
今までAIっていうのは
どっちかというと
悪い方側にターミネーターみたいな感じで
入っていてですね
ターミネーターで悪い方とも言えないけど
悪用することによって
正義が人間らしさで勝つ
みたいなものが定義になっているんだけど
ここも今度は
AIの方が悪を討つみたいな形で
共感されやすいんでしょうね
皆さん仕事奪われるとかね
人間の方が素晴らしいと思っているので
そうした方が視聴者が上がるってことなんでしょうね
そんなものが
これ9月からかな
仮面ライダー新しくなりますけど
10月でしたっけ
から始まるそうですね
はいあとはですね
伊藤重里さんがこんなことを言っていますと
雑用をAIにやらせる未来が
ディストピアかもしれない理由ということで
これはあのね
ちょっとタイトルだけ聞くと
かなり偏って映ってしまうんですが
まあ正論というかですね
両立てしてるので
その片っぽだけしか上げてないから
こうなっちゃうんですけど
つまりその人間は好きなことやればいいと
好きじゃないことは
AIにさせればいいっていうのは
ちょっとこれ極論というかですね
片っぽしか見ていなくて
で何を言いたいかというと
自分が好きなことをやっている
自分が嫌なことをねやっているのを
全部AIにさせればいいんだけど
嫌なことっていうのは
全員人間が嫌なこととは限らないってことですね
例えば単純作業が嫌な人は
AIにさせればいいって言うけど
単純作業が好きな人もいる
汗水垂らして働くことに
生きがいがあるという人もいれば
汗流したくない人もいる
だからそれは多様性なので
そのそれぞれの自分の思いにあった
価値観にあった働き方をさせる
だからAIと
AIに分断するってこと
雑用にやらせるってことじゃなくて
雑用したい人に雑用してもらった方が
いいわけですね
そのようなことを考えていくためには
自分にどういう仕事が向いてるかとか
どういうことをやりたいかってことは
明確にならないとですね
分担ができないわけですよね
その辺が課題かなと
このニュースを見て思いました
はいそして7月19日に
イーロンマスクのAI企業がですね
脳埋め込み技術の臨床実験を
申請ということで
いよいよこんな時代が来るのかな
っていう気がしています
09:00
これは別のとこでも
ニュースが入っているんですけど
これからは人工知能時代は終わると
これから拡張知能の時代がやってくる
っていうふうに書いてますが
自分の脳を拡張させることによって
賢くなろうと
AIに賢くさせるんじゃなくて
自分の脳をAI化しろっていうですね
ものになっているわけです
で今はその
AI化させないで
AIを作ろうとしてるんだけど
脳を賢くさせようとしてるんじゃなくて
AI化を進めてるんですが
実は人間は江戸時代から今までの間に
どんどん技術が進化して
どんどん機器が進化してきましたよね
例えばスマホだったりとか
パソコンだったりとか
こういうものは出てきたわけですけど
この技術を頭の中に入れていこう
って話になって
チップ入れようって話になってくるわけですね
そうすると
結局今意識として
自分の脳が指示をして
スマートフォンに検索しろとかね
覚えとけみたいなことを言ってるのを
無意識でできるようになるわけですよね
ここがこの脳埋め込み技術のポイントかな
って気がしていますね
こんな時代が来るのかもしれないです
この方が早いなと思いますね
あとはですね
シンギュラリティは2045年に訪れない
iRobot CEOの方が
こんなことも語ってます
いわゆるルンバですね
作ってる会社でしたっけ
が言っていますが
僕もそうじゃないかなと思っています
そもそもですね
シンギュラリティが来る来ないって話があるんだけど
じゃあシンギュラリティの定義ってなんぞや
って話は決まってないし
そもそもAIの定義も決まってないのに
何をもってシンギュラリティって言ってるか
っていうのがよくわからないです
そこもあります
あとはですね
AIのせいで雇用が減るって言うけど
実はそれただの経費削減じゃないっていうふうに書いてますが
これもおっしゃる通りだと思います
AIって言ってですね
仕事奪われるって言ってるんだけど
仕事を奪わせているのは
その会社の社長なり幹部の人であって
仕事を勝手に奪われるんではなくてですね
勝手に自分の仕事が減っていく
会社の仕事が減っていくわけではなくて
社長が経費削減のもとに
社員の首を切ろうとしてるんだけど
それを経費削減とかね
社長は悪いやつだって思われたくないので
AIのせいにしてるだけですよね
実際には今までだってパソコン買ったり
ワープロ買ったり
FAX買ったり
それすることによって
人件費を削減して
そして効率化を進めてきたんだけど
それがAIになるというだけの話ですよね
だからその通りだと僕も思いますね
あとはですね
こんなニュースも入ってきてますということで
1枚の写真と音声データから
人が話す映像を作れる
12:00
脅威の技術が登場ということで
そんなことになってくるのかなって気がいたします
写真と音声データがあれば
結局そこからですね
類推して人はどんな声をするのかな
声が聞こえるわけですよね
それで話すってことが
できるんだろうなという気がします
今の例えば恐竜とかね
昔の生物とかっていうのも
例えば顎の骨格とか
頭蓋骨の形とかから
実際にこういう声だったんじゃないのとかね
こういうトーンだったんじゃないのっていうのが
できるように
多分あるんでしょうね
例えば背が低い人は声が高いとかね
高音が出る歌手の人は背が低い人多いとかね
そういういろんなデータからですね
声っていうのが類推できるし
多分顔の骨格からも
多分出るんじゃないかなと思うので
こんな話になってくるんでしょうね
はいということで
AIバブルの崩壊いつか起きる
東大松尾豊教授語る
真相学習の未来と
松尾さん僕ね
日本の人工知能では
トップの人だと思いますけど
日本のね
このAIについて非常に嘆いていて
そして高専ですね
高等専門学校に
すごく期待をしているんですが
僕もその通りだと思ってて
インターネットを
なんか皆さんが楽しんで始めたように
AIをもっと楽しんで
始めてもらって
失敗でもいいから
AIってこういうもんなんだってことを
どんどん利用してもらうとこから
始まるんじゃないかってことを
言ってるんですが
僕もね
そんな気がしています
この辺またね
随時このポッドキャストの中で
伝えていきたいと思ってますので
ぜひね
楽しみにしておいてください
はいっということで
ポッドキャストはこのぐらいで終わりたいと思います
13:53

コメント

スクロール