この放送、リラックスは、1週間でよくネットに流れているAI関連の話題を、AIが自動でピックアップし、
bbzこと私、ババゾノートセコンことタテノがつらつらと話すポッドキャストです。
AXで暮らしにひらめきようをビジョンに、サビス体験や組織づくりを行っている、工夫AIスタジオの提供で行っています。
はい、というわけで、いつもの通りなんですけども、ちょっと今回も機械音声で始めてみました。
ちなみに、今回使ってたのはですね、前回と同じ11 Labというところなんですけど、声のモデルを変えてます。
ということで、私、bbzとセコンさんでやってきますので、よろしくお願いします。
よろしくお願いします。
はい、今週もニュース盛り沢山あるんですけれども、早速喋っていきたいんですけども、
今週はとにかくやばかったなっていうことがですね、個人的に意見を、感想を述べたいなと思ったので、
ちょっと感想コメントを機械に、AIに喋らせますので、ちょっとお待ちください。
ちょっとGPT-4Bが、やばい。
めちゃくちゃなんかこれ、エセ外人みたいな感じの、エセ外人が日本語を喋ったみたいな感じのコンセプト面白いですね。
そうですね、思った以上にいい感じの声になってくれて、ちょっと嬉しいんですが、今から触れるんですけれども、
今週も全てを重なっていったと言っても過言じゃないと個人的には思っているんですけれども、
Chat GPTですね、これが2つの機能を限定的に開放しましたよっていうのがものすごく大きなニュースで、
そのうちの1つですね、Chat GPTに対して今までテキストしか入力できなかったのが、画像を認識するようになりましたと。
ステータスとしては現状、課金をしているユーザーさんに順次開放っていうステータスなので、まだ全員が全員使えるわけではないんですけれども、
とにかくこの機能がすごいというのが今週のトップトピックでございましたね。
GPT-4V VisionっていうGPTで画像に対して投稿するっていうものが今週出たっていうので、
まだ僕自身は使えてなくて、馬場殿さんはもう使っていろいろ楽しんでるんですけど、
やっぱり自分自身、このGPT-4V、画像をGPTで扱えるっていうのが出る前までのイメージだと、
実際に使ってみるまでのイメージだと、こんなもんなのかなっていうふうな、
そこまですごいことができるんじゃないんだろうなって正直、鷹をくくっていたところがあったんですよね。
ただ出てみると、自分の2段上を行くぐらいのクオリティの精度で、何もかもがかなりの部分をできてしまうっていうところで、
めちゃくちゃ驚きのこの機能だったなという感じでしたね。
そうですね。出たとき、僕が結構早めに使えるようになったので、
セコンさんと一緒に見てたんですけど、すごすぎても語彙がなくなって、
やばいやばいしか言えなくなったみたいな。
みんなそのときの一緒にデモしながら見ていたチャット欄は、
大体やばいやばい、すごいやばいみたいなもので詰まっていて、
本当にできることが広がったなっていう感じしますよね、これでまた。
そうですね。今までも画像の説明をしてくれるっていうものはあったんですけど、
例えばリンゴの画像とかだったら、テーブルの上にリンゴが載ってますねとか、
そういう説明をしてくれるっていうところにとどまってたと思うんですけど、
例えばレシートの画像を写真でパシャって撮ってあげて、
そこから書いてる内容を全部拾ってきてよって言ったら表示してくれるとか。
ただ、映像画像のものを判断するだけじゃなくて、
そこに含まれる文字情報とかいうのも含めて、
さらにChatGPTの能力で答えてくれるっていうのがもうすごいですね。
本当に例えば手書きのノートにメモを書いておいて、
そのメモを写真撮って、この内容について何とかしてみたいに聞くと、
それだけで答えてくれるとか、今までだとそれをデジタルにOCRで変換して、
文字列にしてChatGPTに加わせてみたいなものを、
ChatGPTが持つ裏側の広大な言語能力とともに、
その画像を見ながら様々なことを解析してくれるこの強さみたいなところを
目の当たりにすると、めちゃくちゃできること広がっていくなみたいなところを感じましたし、
本当にこの辺の技術の進化って圧倒的に早いなみたいなところがあって、
こういうテキストとビジョンをつなぐマルチモーダルっていうような機能のところで、
クリップとかビリップとか、今までいろんな論文とかから手法っていうのが出ていて、
それらをうまく組み合わせたっていうところはあるんでしょうけど、
それを持ってしても、圧倒的に性能が高くて、めちゃくちゃすごいなって、
本当にすごいっていう声がどんどんなくなっていくようなことで、
ラジオだとあんまり伝えるのが難しかったりするんですけど、
青園さんのブログとかそういうところでもこんなことできるよみたいなのを確か書いていたり、
探すと本当に今回のChat GPT V4でできることっていう事例っていうのがもうリリースされてから、
一部の人しか使えないってまだ3日ぐらいしか経っていないにも関わらず、
山ほど事例は上がってるんで、ぜひとも皆さんそういう事例を見てみたりだとか、
あとは実際にGPT4にお金を払ってる人は、あと2週間以内には提供されるという話なので、
実際に降りてきたらいろんな使い方をしてみて、
ぜひこんなこともAI通すといろんなことできるんだみたいなことをやってもらえたらすごく面白いと思いますね。
おだしょー 言うても10月になるんですけど、
すごく楽しみだなっていうところで、
これ2つ目のニュースでしたと。
3つ目じゃあ次何なんだっていうと、
またオープンAIの話なんですけど、
これは噂なのかな、本当なんかちょっとまだ
実際わかんないですけど、
オープンAIのサム・アルトマンさんと、
もともとAppleとかで有名なデザイナーの方ですかね、
ジョナサン・アイブさん、あとソン・マサヨシさんかな、
みたいなところで集まってAIのハードウェアを
開発するのではなかろうかっていう話が
ちょっと大きいところでしたね。
おだしょー そうですね、本当にこれはどちらかというと
業界よもやま話っぽい感じで、
ひょっとしたらこういうこと起きるかもねみたいな話なので、
実際どこまで信憑性があるかっていうのはわからないんですけど、
オープンAIがiPhoneのデザイナーと一緒になって、
そういう新しいデバイス開発されたらめっちゃワクワクするよね、
みたいなところでもあると思うので、
なかなかちょっと話題になってましたね。
おだしょー そうですね、多分出たら絶対に会うなっていう風に、
今の僕は思っているんですけど、すごい期待が
高まるところですね。
ここについては以上ですかね。
今まで話した内容がちょっと強すぎて霞んでしまいがちなんですが、
他にもいろいろ出ていまして、
Amazonですね、有名なECサイトのAmazonが、
アンソロピックっていう会社ですね、
AI系の会社なんですけど、
だいたい5900億円ぐらいかな、
40億ドルを出資して、
生成AIを強化していくぞっていうのがちょっと発表としては
ありましたね。
おだしょー そうですね、他のニュースがでかすぎるっていうのはあるんですけど、
普通に6000億円の出資ってなかなかですからね、
Amazonも本気でここの部分の
生成AI系に取り組んでいくぞっていうところの
現れだと思うので、
これもまたこの先どうなっていくか楽しみですよね。
このお金でどんどん生成AIが加速されるっていうのは間違いないんで。
三沢 そうですね、やっぱり今だと
オープンAI、マイクロソフト、Googleっていうところが
結構目立ちがち、メタとかもそうなんですけど、
がAmazonっていうところで、
新しいのができてくると嬉しいなっていうようなところですね。
新しいというか、アンソロピックのモデルですけども。
あともう一つ、
今度は日本の話題というか、
プリファードネットワークスという会社さんがですね、
かなりレベルの高い
大規模言語モデルを出したというのも
今週話題となってましたね。
おだしょー そうですね、PFAのプリファードネットワークスは
日本の中ではユニコーンの中では
トップレベルっていうので、すごく有名な
いわゆる機械学習、深層学習をずっと昔からやっている企業なんですけど、
そこが出したこの新しいモデル、
その性能もすごくいろんなテクニカルなことをやっていて、
高いというところもあるんですけど、
個人的には名前がプラモっていうね、
名前が日本的でいいなと感じましたね。
こういう大規模言語モデルって
名前の付け方が今まで南米系の名前が多かったんですよね。
ヤマとかアルパカとかクーリンとか、
南米の生き物たちをモチーフにしている
言語モデルの名前がオープンソースだと多かったんですけど、
日本の企業が付ける中で結構その
PFNっぽい感じの名前というか、このプラモっていう名前が
なかなか面白いなと思って、
技術の話というより結構名前付けの話で
なかなかひねりが効いてていいなという風に感じました。
そうですね。技術的にも
発表されているブログとか見ると結構読み方のあるものなので、
気になる方は読んでいただけるといいと思うんですけども、
そんな感じで日本も頑張ってるぞっていうところで
ニュースとしては取り上げられておりますと。
今週は他にもあったんですけども、
大体もう今言ったのが大きなところなので、
今週ニュースはこのぐらいで終わりたいと思います。
また来週もお会いしましょう。
それでは次回の放送お楽しみに。バイバイ。