人工知能・AIに関するニュース(2022年12月分)Podcast配信

詳しくはブログで⇒ https://yokotashurin.com/etc/202211podcast.html

--- Send in a voice message: https://podcasters.spotify.com/pod/show/enspire/message
00:01
皆さん、こんにちは。ネットビジネスアナリスト 横田 修琳です。
月1回のポッドキャストの時間となりました。
今日もですね、2022年12月に公開されました 人工知能AIに関するニュースということで
紹介していきたいと思いますので 今日もよろしくお願いします。
今日はですね、年末ということもありますので
ちょうどこの1年間を振り返ってみるニュースなんかもですね
紹介していきたいなと思っていますので よろしくお願いします。
ではですね、早速なんですが まず今日お話ししたい内容っていうのは
人工知能に関するニュースというものと 画像認識技術に関するニュース
顔認識に関するニュース そしてフェイク動画やディープフェイクに関するニュース
そして音声などに関するニュースということで お話をしていきたいと思っているんですが
この中の最初のとこにあるですね ここの話なんですけど
ちょっと見てほしいなと思うんですが この画像認識技術に関して
少し振り返ってきますと2014年にですね この画像生成モデル
Ganttやつが開始になりまして 2018年にオープンAIがGPT-1を発表して
そして2018年にGoogleはBERTを発表して 翌年の2019年にオープンAIがGPT-2
そして翌年の2020年にGPT-3を発表して 2021年っていうのは
ちょっと大きいニュースは なかったかなって気はしているんですが
それが今年に入って2022年の5月に Googleが画像生成
オープンAIがですね 4月に画像生成AIのですね
DAR-E2というものをですね 発表しまして そしてその翌月の5月に
Googleが画像生成AIのImagineというものを公開して そしてここからなんですよ
今年の7月にミッドジャーニー 画像生成AIですね 公開
そして8月にステイブルディフュージョン そして9月にオープンAIが
構成の文字起こしAIのウィスパーを発表 そして10月には
ノーベルAIディフュージョンが公開といってですね この7,8,9,10年代に
画像生成AIってものがどんどんどんどん出て もっとたどれば4月からですね
出てきてですね この急激に この画像生成AIが注目された
今年なんですが それが12月に入ってですね また同じくオープンAIが
GPT-3を改良したAIチャットボットの ChatGPTというものを公開して
これで偉いことにはなっています ということなんですね
今日はですね この話をね ちょっとしていきたいなと思ってるんですが
この画像生成AIっていうものが 非常に注目された1年なんですが
今度はですね これの中で注目的存在であった
ステイブルディフュージョンというですね もの
これはStability AIという会社が 出しているものなんですけど
ここがですね 12月に画像生成AIに続いて
03:00
今度は動画生成AIをですね 開発するということが
発表になりました で 同じくオープンAIはですね
今度はテキストから3Dモデルを 高速生成できるAIの
ポイントEというものをですね 発表したりとかしていて
今度はチャットとか 文字から画像を生成する
というレベルではなくて 今度は3Dモデルとか
動画とかですね こういったものを 作っていくということができる
になってきたということで この1年のですね この進化のスピードが
非常に速くなっていますということで 今までは2040年にですね
そのいわゆるシンギュラリティが 来るって言われてたのが
続いてみればもう2025年に 来るんじゃないかというふうにですね
この1,2年のですね 進化のスピードが恐ろしくですね
シンギュラリティが来るって 言われてるのはなんとですね
もう今年年末ですから あと2年 2025年に来るというふうに
言われていてですね 恐ろしいことに なってきてるよということなんですが
ここでですね ちょっと僕が 話をしておきたいのは
このチャットGPTが12月に 出たばかりなんですけど
これはいわゆる文字を打ったら 文字に対してAIがですね
チャットで返事を返してくれる っていうものなんですね
ただそれだけのものかな と思っていたら
それがですね 例えばこういう写真を見せてとか
こういう動画を作ってとか こういうプログラミングを見せて
とかってやっていくと プログラミングの言語をですね
ソースとして吐き出したりとか するようになるので
そうするともうプログラムも作れる AIも作れる
AIというかアプリも作れる そしてウェブサービスとかも作れる
動画も作れる 音楽も作れるっていうふうに
もう本当になってくると思います
これが2025年までにおそらく もうなっていると思うんですね
そうなってくると 結局ですね
クリエイティブな仕事は AIは苦手だと言っていたものが
できるようになってきたんですよ
この画像認識技術とか 音声認識技術とかですね
顔認識技術みたいな 今までは認識技術ってことに関して
僕はですね たくさん話をしてきたんだけど
この認識技術のレベルを今度超えて
自分たちが生成する 合成するってことが
できるようになったのが この1年だと思うんですね
つまりインプットの時代から アウトプットの時代に
入ったということなんですね
これによってですね 分かりやすく言えばね
赤ちゃんが最初は自分は アウトプットできないわけですね
つまりしゃべれないわけなんだけど
それがみんなの声を聞くことによって
インプットがある程度できたら アウトプットを始めますよね
最初は下手くそな日本語だったりとか
下手くそな絵を描くんだけど
だんだんそれが上手になってくるように
今まさにインプットから アウトプットの時代になった
もちろんアウトプットの時代になったから インプットやめたくじゃなくて
インプットもどんどんしていくわけなので
どんどんアウトプットのレベルが 上がっていくというステージに
入ったのかなという気がしていますね
なのでようやくこれでですね
しゃべれるようになった 絵を描けるようになった
歌を歌うようになった っていうとこまでね
AIが来たということは 分かると思うんですね
06:00
そうなっていくと どうでしょうかね
1歳2歳3歳ぐらいまで 来たかなと思っているんですね
そうすると今度ですね 歩くようになるみたいな
歩けますしね 二足五歩で歩けますしね
ってことになってくると
これからどんどんスピードを持って 進化していくと
この後ですね さらに次に進むのは
自分から自ら勉強するとかですね
いわゆる意識とか意思っていうものを 持ち始めるとですね
いわゆるシンギュラリティに 突入するんじゃないかな
っていうことなんですが これが多分
あと2年後ぐらいに そうなってくるんだろう
ということなんですね
この中で大事なことって 何かってことになると
例えばですね どういう写真を見せてとか
どういう絵を描いてとか どういうアプリを作ってとか
どういうデザインを作って みたいな感じで
支持するものって 文字で支持するわけです
もちろん文字っていうのは 音声ですることにも
これからなってくると思うんですが
現時点ではテキストレベルなんですが
実際にテキストレベルであろうが
音声レベルであろうが
結局言語を使って 説明するっていうことなんですね
なので今までだって 例えばデザイナーさんとか
写真家の方とか ウェブのデザイナーさんとかに
お願いするときに こういうものを作ってね
ってお願いするときには 言語を使って
支持してるはずなんですね
それは文字なのか 音声なのか
そのときの 何かとりあえずいいの作って
って言ったんでは いいの作れないけど
こういう感じで こういう感じで っていう形で
それが具体的に言えば言うほど
向こうの人はそれを理解してですね
返してくれるってことが できると思うんですね
で なってくると いかに
今の画像生成AIの言葉で言うと
この呪文ですね
どういう呪文を AIに教えればですね
よりこう正確なアウトプットをするか
っていうことをですね 求められるようになってきた
っていうのは 結局この
人間の教育もそうだし
AIの教育も同じなんだけど
どういうふうに上手に教えるか
どういうふうに上手に指示するか
っていうことが大事になってくるんじゃないかな
と思いますので そうなってくるとですね
言語が大事だよねっていうことになるし
もちろんね AIは日本語が喋れない
日本語を理解できないもいるから
そのレベルで まずは英語でね
話すほうが 当然世界の人が
使ってるわけなので
重要だってことも言えるし
そして今度は
より分かりやすく伝えるってことが
大事になってくるかなと思っています
そして AIからそのうちですね
提案が来るようになると思うんですよ
あなたはそういうふうに言ってるけど
ということはこういうことなんですかとか
それよりもこういうふうにしたほうがいいんですか
っていうことですね 向こうから今度は
指示するようになってきたら
それに対して皆さんが
その指示された内容がいいかどうか
判断するかどうかっていうのも
皆さんがそこでですね どう答えるか
それがAIの思うままに
あんたの好きなとおりにさせてよ
っていうのが本当にいいのか
これはデザイナーでも一緒ですよね
クライアントから何か作っていったら
いやいやもうあんたに任せるよっていうので
本当にいい作品が作れるのか
いやそれはやっぱクライアントさん側のですね
意向をちゃんと言わなければ
09:01
ちゃんといいもの作れないのかって考えてもらえば
分かると思います 同じ話ですよね
なのでそのAIっていうものに対して
今まではですね
例えばGoogleなんかで言えば
検索をして検索結果を出す
ということをやってたわけなんですけど
検索結果を出すのはAIがすでに出してますよね
検索結果を出したら
ウェブサイトが出てきて
そのウェブサイトをGoogleとかクリックして
ウェブサイト見に行くってことをしてるわけなんだけど
ということはこのChatGPTみたいなのが出てきたら
検索結果を出すってことが
できるわけじゃないですか
だってGoogleで検索して検索結果出すように
ChatGPTも同じように検索結果出すわけですよ
そうなってくると
Googleがですね
ChatGPTが12月に出たからと言って
別にGoogleは特にこういうことは
気にしないよって言ってたのに
その発表をしてもう1週間経たないうちに
Googleはまた発表しましてですね
これは世の中を変えることなんかしないので
Googleとしてもですね
自分たちもChatGPTみたいなものを作るということを
発表しました
ということでGoogleがですね
初めてじゃないかな
自分たちのサービスにおいて危機感を感じた
検索っていうサービスが終わるかもしれない
ということに危機感を感じた
そうですよね
変な広告とか出ないわけですよChatGPT
もちろんね
これからマネタイズをしていく段階になった時に
航空が出てくるということもあるかもしれませんが
もちろんそれに対してですね
お金を払えばですね
変身の中に航空が入るみたいなことも
あるかもしれませんけど
結局それはGoogleがやるのか
このオープンエリアがやるのか
ということも含め結局はこれは
マネタイズの話になってくだけなんですが
ということでGoogleもですね
動き始めたっていうのが
本当に1ヶ月の話で
結構重要なニュアンスかなって
気がしています
今回まとめということで
ここを見てもらったら
一目瞭然なのかなって気がしてるんですけど
画像生成AIが出てきて
今後は動画生成AIが出てくるでしょう
そして音声の生成AIも出てますよね
ということになっていくとですね
いよいよこれからかな
という気がしています
ということで
2023年はですね
おそらくこのまさに
インプットからアウトプットの時代に
突入するということになりますので
これに関してですね
一つスレッドを立てなきゃいけないのかな
と思っています
現時点に作っているこのブログの記事の
随時更新ネタっていうのは
どっちかというと認識レベルの話とか
ものが多かったんだけど
今後はこれだけではなくて
今度はですね
自分たちが生成するレベルの話の
コンテンツを作らなきゃいけないかなと思っています
ということで今日はですね
今月のニュースをお届けするっていうよりは
ちょっと今年1年間を
振り返ったニュースを見てきました
もし詳しいニュースを見たいという方は
概要欄などに
ニュースの一覧のリンクを
貼っておきますので
ぜひそちらのほうからまた見てですね
12月分振り返っていただけばいいかなと思っていますので
よろしくお願いします
ということでですね
2022年最後のポッドキャストとなりましたが
また来年も
12:01
続けていきたいと思っていますので
引き続きよろしくお願いいたします
ネットビデオアナリスト 横田修林でした
ありがとうございました
バイバイ
12:12

コメント

スクロール