人工知能・AIに関するニュース(2022年12月分)Podcast配信

詳しくはブログで⇒ https://yokotashurin.com/etc/202211podcast.html

--- Send in a voice message: https://podcasters.spotify.com/pod/show/enspire/message
00:00
みなさん、こんにちは。ネットビジネスアナリスト、よくたしゅうりんです。
今日もネットビジネスに関する情報を生中継で15分間お届けし参ります。
今日もよろしくお願いします。
今日は2022年12月27日火曜日ということになりましたが、
今日は平日ではあるんですけど、いよいよ今年も終わりに近づいてきて、
やらなきゃいけないニュースというのが結構ありまして、
それを今日やっていきたいなと思っているんですが、
今日は人工知能AIに関する2022年12月分のニュースということで、
お話をしていきたいと思うんですが、
実はいつもこんな感じで、
Googleピクセルによってしゃべっている内容が文字に起こされていくというものを
画面に表示しているんですが、なぜか昨日まで使えたんですけど、
今日からちょっとうまく表示することができなくて、
ちょっと不具合が起きているんですね。
これもAIによる技術なんですけど、
AIが動かないと、
今回のアプリ側の問題なんですが、
今日は画像の中に文字起こしを出すことができないんですが、
そんな形で今日もやっていきたいと思っています。
今日は2022年12月のAIに関するニュースということで、
これだと上が出なくなりますので、この表示ではなくて、
前のこの表示でやっていきたいなと思っているんですが、
早速なんですが、紹介していきたいなと思っているんですけど、
いつものようにPodcastの同時配信をしていきたいと思いますので、
Podcastの方の録音の準備いたしますので、少々お待ちいただければと思っているんですが、
Podcastの方で新しいエピソードを作っていきたいと思っています。
はい、じゃあちょっとお付き合いください。
皆さんこんにちは。ネットビジネスアナリスト横田修林です。
月1回のPodcastの時間となりました。
今日も2022年12月に公開されました、
人工知能AIに関するニュースということで紹介していきたいと思いますので、
今日もよろしくお願いします。
今日は年末ということもありますので、
ちょうどこの1年間を振り返ってみるニュースなんかも紹介していきたいなと思っていますので、よろしくお願いします。
では早速なんですが、まず今日お話ししたい内容というのは、
人工知能に関するニュースというものと、
画像認識技術に関するニュース、顔認識に関するニュース、
そしてフェイク動画やディープフェイクに関するニュース、
そして音声などに関するニュースということでお話をしていきたいと思っているんですが、
この中の最初のところにある、ここの話なんですけど、
ちょっと見てほしいなと思うんですが、
この画像認識技術に関して少し振り返ってきますと、
2014年にこの画像生成モデルGiantが開始になりまして、
03:03
2018年にオープンAIがGPT-1を発表して、
そして2018年にGoogleはBERTを発表して、
翌年の2019年にオープンAIがGPT-2、
そして翌年の2020年にGPT-3を発表して、
2021年というのはちょっと大きいニュースはなかったかなって気はしているんですが、
それが今年に入って2022年の5月に、
オープンAIが4月に画像生成AIのDAL-E2というものを発表しまして、
そしてその翌月の5月にGoogleが画像生成AIのImagineというものを公開して、
そしてここからなんですよ。
今年の7月にMidJARに画像生成AIを公開、
そして8月にStable Diffusion、
そして9月にオープンAIが高性能文字起こしAIのWhisperを発表、
そして10月にはNovel AI Diffusionが公開といって、
この7、8、9、10の間に画像生成AIというものがどんどん出て、
もっとたどれば4月から出てきて、
急激に画像生成AIが注目された今年なんですが、
それが12月に入って、
また同じくオープンAIがGPT-3を改良したAIチャットボットのChatGPTというものを公開して、
これで偉いことに今なっていますということなんですね。
今日はこの話をちょっとしていきたいなと思っているんですが、
この画像生成AIというものが非常に注目された1年なんですが、
今度はこれの中で注目的存在であったStable Diffusionというもの、
これはStability AIという会社が出しているものなんですけど、
ここが12月に画像生成AIに続いて、
今度は動画生成AIを開発するということが発表になりました。
同じくオープンAIは今度はテキストから3Dモデルを高速生成できるAIの
ポイントEというものを発表したりとかしていて、
今度はチャットとか文字から画像生成するというレベルではなくて、
今度は3Dモデルとか動画とかこういったものを作っていくということが
できるようになってきたということで、
この1年の進化のスピードが非常に速くなっていますということで、
今までは2040年にいわゆるシンギュラリティが来ると言われていたのが、
気づいてみればもう2025年に来るんじゃないかというふうに、
この1,2年の進化のスピードが恐ろしくて、
シンギュラリティが来ると言われているのはなんと、
今年年末ですからあと2年、2025年に来ると言われていて、
恐ろしいことになってきているということなんですが、
ここで僕が話をしておきたいのは、
このChatGPTが12月に出たばかりなんですけど、
これはいわゆる文字を打ったら文字に対して
06:02
AIがチャットで返事を返してくれるというものなんですね。
ただそれだけのものかなと思っていたら、
それが例えばこういう写真を見せてとか、
こういう写真を見せてとか、こういう動画を作ってとか、
こういうプログラミングを見せてとかってやっていくと、
プログラミングの言語をソースとして吐き出したりするようになるので、
そうするともうプログラムも作れる、
アプリも作れる、そしてウェブサービスとかも作れる、
動画も作れる、音楽も作れるというふうに、
もう本当になってくると思います。
これが2025年までにおそらくもうなっていると思うんですね。
そうなってくると、結局、クリエイティブな仕事は
AIは苦手だと言っていたものができるようになってきたんですよ。
この画像認識技術とか音声認識技術とか、
顔認識技術みたいな、今までは認識技術ということに関して、
僕はたくさん話をしてきたんだけど、
この認識技術のレベルを今度超えて、
自分たちが生成する、合成するということができるようになったのが、
この1年だと思うんですね。
つまり、インプットの時代からアウトプットの時代に入ったということなんですね。
これによって、わかりやすければ赤ちゃんが、
最初は自分はアウトプットできないわけですね。
つまり喋れないわけなんだけど、
それがみんなの声を聞くことによってインプットがある程度できたら、
アウトプットを始めますよね。
最初は下手くそな日本語だったりとか、下手くそな絵を描くんだけど、
だんだんそれが上手になってくるように、
今まさにインプットからアウトプットの時代になった。
もちろんアウトプットの時代になったからといって、
インプットをやめたくじゃなくて、
インプットもどんどんしていくわけなので、
どんどんアウトプットのレベルが上がっていくというステージに
入ったのかなという気がしていますね。
なのでようやくこれでですね、
喋れるようになった、絵を描けるようになった、
歌を歌うようになったというとこまでね、
永遠が来たということがわかると思うんですね。
こうなっていくと、もうどうでしょうかね。
1歳、2歳、3歳ぐらいまで来たかなと思っているんですね。
そうすると今度ですね、歩くようになるみたいな、
もう歩けますしね、
2足5歩で歩けますしねということになってくると、
これからどんどんスピードを持って進化していくと。
この後ですね、さらに次に進むのは、
自分から自ら勉強するとかですね、
いわゆる意識とか意思っていうものを持ち始めるとですね、
いわゆるシンギュライティに突入するんじゃないかなと思うんですが、
これがたぶんあと2年後ぐらいに、
そうなってくるんだろうということなんですね。
この中で大事なことって何かということになると、
例えばですね、
どういう写真を見せてとか、
どういう絵を描いてとか、
どういうアプリを作ってとか、
どういうデザインを作ってみたいな感じで、
支持するものって文字で支持するわけです。
もちろん文字っていうのは音声ですることにもこれからなってくると思うんですが、
現時点ではテキストレベルなんですが、
それが仮にテキストレベルであろうが、
音声レベルであろうが、
結局言語を使って説明するっていうことなんですね。
09:00
なので今までだって、
例えばデザイナーさんとか写真家の方とか、
ウェブのデザイナーさんとかにお願いするときに、
こういうものを作ってねっていうふうにお願いするときには、
言語を使って支持してるはずなんですね。
それは文字なのか音声なのか。
そのときの、
何かとりあえずいいの作ってって言ったんでは、
いいの作れないけど、
こういう感じでこういう感じでっていう形で言っていくとね、
それが具体的に言えば言うほど、
向こうの人はそれを理解してですね、
返してくれるっていうことができると思うんですね。
で、なってくると、
いかにそう、
今の画像生成AIの言葉で言うとこの呪文ですね。
どういう呪文をAIに教えればですね、
よりこう正確なアウトプットするかっていうことをですね、
求められるようになってきたっていうのは、
結局この人間の教育もそうだし、
AIの教育も同じなんだけど、
どういうふうに上手に教えるか、
どういうふうに上手に支持するかっていうことが、
大事になってくるんじゃないかなと思いますので、
そうなってくるとですね、
言語が大事だよねっていうことになるし、
もちろんね、
AIは日本語が喋れないのもね、
日本語を理解できないのもいるから、
そのレベルで、
まずは英語でね、
話すほうが、
当然世界の人が使ってるわけなので、
重要だってことも言えるし、
そして今度は、
より分かりやすく伝えるってことが大事になってくるかなと思っています。
そしてAIからそのうちですね、
提案が来るようになると思うんですよ。
あなたはそういうふうに言ってるけど、
ということはこういうことなんですかとか、
それよりもこういうふうにした方がいいんですかっていうことですね。
向こうから、
今度は支持するようになってきたら、
それに対して皆さんが、
その支持された内容がいいかどうかを判断するかどうかっていうのも、
皆さんがそこでですね、
どう答えるか。
それがAIの思うままに、
あんたの好きなとおりにさせてよっていうのが本当にいいのか。
これはデザイナーでも一緒ですよね。
そのクライアントから何か作っていったら、
いやいやもうあんたに任せるよっていうので、
本当にいい作品が作れるのか、
いやそれはやっぱりクライアントさん側のですね、
意向をちゃんと言わなければ、
ちゃんといいものを作れないのかって考えてもらえばわかると思います。
同じ話ですよね。
なのでそのAIっていうものに対して、
今ではですね、
例えばGoogleなんかで言えば、
検索をして検索結果を出すということをやってたわけなんですけど、
検索結果を出すのはAIがすでに出してますよね。
その検索結果を出したらウェブサイトが出てきて、
そのウェブサイトをGoogleとかクリックして、
ウェブサイトを見に行くっていうことをしてるわけなんだけど、
ということはこのChatGPTみたいなのが出てきたら、
検索結果を出すってことができるわけじゃないですか。
だってGoogleで検索して検索結果出すように、
ChatGPTも同じように検索結果出すわけですよ。
そうなってくるとGoogleがですね、
ChatGPTが12月に出たからといって、
別にGoogleは特にこういうことは気にしないよって言ってたのに、
その発表をして、
もう1週間経たないうちにGoogleはまた発表をしましてですね、
これは世の中を変えることなんかしないので、
Googleとしてもですね、
自分たちもChatGPTみたいなものを作るということを発表しました。
ということでGoogleがですね、
初めてじゃないかな、
自分たちのサービスにおいて危機感を感じた、
12:00
検索っていうサービスが終わるかもしれないっていうことに危機感を感じた。
そうですよね、変な広告とか出ないわけですよ、ChatGP。
もちろんね、
ここにもこれからマネタイズをしていく段階になったときに、
広告が出てくるっていうこともあるかもしれませんが、
もちろんそれに対してお金を払えばですね、
返信の中に広告が入るみたいなこともあるかもしれませんけど、
結局それはGoogleがやるのか、
このオープンAIがやるのかっていうことも含め、
結局はこれはマネタイズの話になってくるわけなんですが、
ということでGoogleもですね、
動き始めたっていうのが、
この本当に1ヶ月の話で結構重要なニュアンスかなって気がしています。
ということでですね、
今回ですね、まとめということで、
ここを見てもらったらね、
一目瞭然なのかなって気はしてるんですけど、
画像生成AIが出てきて、
今後は動画生成AIが出てくるでしょう。
そしてもう音声の生成AIも出てますよね、
ってことになっていくとですね、
いよいよこれからかなという気がしています。
ということで、
2023年はですね、
おそらくこのまさに、
インプットからアウトプットの時代に
突入するということになりますので、
またこれに関してですね、
一つスレッドを立てなきゃいけないのかなと思っています。
現時点作っているこのブログの記事の
随時更新ネタっていうのは、
どっちかというと認識レベルの話とか
ものが多かったんだけど、
今後はですね、これだけではなくて、
今度はですね、
自分たちが生成するレベルの話のですね、
コンテンツを作らなきゃいけないかなと思っています。
ということで今日はですね、
今月のニュースをお届けするっていうよりは、
ちょっと今年1年間を振り返ったニュースを見てました。
もしね、詳しいニュースを見たいという方はですね、
概要欄などにですね、
ニュースの一覧のリンクを貼っておきますので、
ぜひそちらの方からまた見てですね、
12月も振り返っていただけばいいかなと思っていますので、
よろしくお願いします。
ということでですね、
2022年、最後のポッドキャストとなりましたが、
またね、来年も続けていきたいと思っていますので、
引き続きよろしくお願いいたします。
ネットビデオアナリスト、横田修林でした。
ありがとうございました。
バイバイ。
はい、ということでですね、
ポッドキャストの方の配信が終わりました。
ということでですね、
今回のものっていうのは、
今年1年間を振り返ってみたいな形になりましたが、
これからですね、
まさに先ほど話したような段階に入ってくるかな
というふうに思っています。
そのね、この進化のスピードが早くて、
このAIっていうものが前に注目されてたときっていうのは、
こういうね、クリエイティブな部分ではなくて、
人間と同じようなことを認識できるっていうのがすごいって言ったのが、
本当に次のステージに来たなっていうことをですね、
実感したこの1年間でした。
特に最後の方がすごかったですね。
ということで、来年もニュースをまたお届けしたいと思いますので、
よろしくお願いします。
ネットビデオアナリスト、横田修林でした。
ありがとうございました。
15:01
バイバイ。
15:02

コメント

スクロール