ちなみにNVIDIAあるあるというかあれなんですけど、やはりこの発表を受けてなのか株価がまた上がってましたねという小ネタも挟みつつ、次のニュースに行きたいと思います。
次はですね、ちょっと実際のところどうなのか分からないんですけど、AppleのiPhoneにですね、Googleが作ったGeminiを搭載するしないというような話が複散上がっていたというので、結構話題となっておりましたね。
そうですね。これは本当に噂の話なんで実際どうかっていうところはあるんですけど、そうするとちょっと生成AIで一歩遅れを取っているGoogleとAppleはその時代のところにハードウェアも一緒になって、生成AIで体験を提供したいっていうところがタッグを組むっていうのは確かにひょっとしたら悪いかもなみたいな感じで聞いてましたね。
もともとApple自体も先週ぐらいですかね、MM1だったかな、独自の一般発表論文ぐらいだったかな、みたいなものを作ったりはしているものの、まだ実際に使える生成系のサービスがないので、Googleのものとか一緒にやっていくというのは十分考えられるところだなというところで。
本当かどうかは分からないですけど、ちょっと注目していきたいなっていうところですね。
次は、結構しばらく前から噂をされていて、一部のユーザーには使われていたXAI、イードン・マスクさんのところのGlockっていうAIモデルがあるんですけど、そこに関してオープンソース化もしましたよっていう話が今週は結構話題になってましたね。
オープンっていうところが。
そうですね。
これがリリースされて、結構そのリリースされたモデルっていうのも通常はいろいろ人と対話しやすいようになんかチャットする形式にうまく人と会話できるみたいなところをチューニングしてから出すっていうモデルが多い中で、結構そういうことをやらずにもうとりあえず作ったとや、みたいな感じのところでオープンにしていたっていうのもなかなか面白いなと思って。
そうですね。まあ、イーロンらしいというか何なのかですけども。
他の企業とはまた違った感じのね、提供の仕方でいろいろ注目されてるなという感じですよね。
そうですね。Xの確かプレミアユーザーは確か対話ができたのかなと僕はちょっとプレミアじゃないと使えてないんですけど、使ってる画像とかを見るとやっぱりちょっと他とは違う面白い回答を返したりするので、実際に使える日が来ると非常に楽しみだなと思いながら見ている感じですね。
続いてはですね、Google、YouTubeに関するところなんですけれども、まあ昨今、言わずもがないろんなコンテンツにAIを使用して作っているっていうところで、それが視聴者にもですね、ちゃんと分かるようにラベルを付けたりする。
明示的にこれはAI使って作ってるよっていうのが分かるような仕組みを設けてきたと。
これは当然と言えば当然なんですが、クリエイターの方にもちゃんとこういったものを使ってますよっていう説明を求めるように今後他のプラットフォームもなっていくだろうなっていうようなところですかね。
そうですね、なんかこう一昔前だとブログとかでね、こう実はこっそり商品提供されているけどそれを伝えずにこうやるみたいなステマみたいなところが今だとちゃんと義務的にそういうのは開示しましょうみたいになっていると思うんですけど。
早速生成AIのところも実際見ていてそれがフェイクなのかどうか分からないとかっていうと、純粋に楽しめなかったり間違えちゃってこう伝わったりっていうところがあると思うので、こういうところでみんなちゃんとうまくその使ってるんだったら使ってるよっていう形でうまくその伝えられると、それはそれですごくエンターテイメント的にも楽しめるようなものになっていくんじゃないのかなというのですごくいい取り組みだなと思ってみてました。
ちなみに情報の中だけで見ると、結構リアルなもの、ただ人の顔とか声とかそういったものについては明示的にする人がいるんだけども、明らかにおかしいようなファンタジーというか画風のものについては特にいらないよって書かれていたので、内容に応じてクリエイターの判断にはなっちゃうんですけど、
そういったところでちゃんとしていくんだろうなという感じですね。
なるほど。
まず1つ目が読み方、シマでシマかシーマかであっていると思うんですけど、アルファベットのSIMAですね。これが自然言語で、人間の言葉で人間がプレイするのと同じようにゲームの操作をすることができるっていうものを、今完全に開発完了ってわけではないんですけど、いろいろ動かしていると。
かなりいろんなことができるようになっているというので、非常に話題になっていたなと思っておりますね。
本当にゲーム中によくあるような、崖を降りて、梯子を登って、メニューを開いてみたいな感じのところを、本当に自然言語で伝えるだけで、結構いくつかのゲームはそれが普通にプレイ、AIがプレイできてしまうみたいなところで、どんどんそういうところでも、いろいろエージェントがゲームの中でも仮想世界を動き回るみたいなところが、実際にうまくやれるようになってきたんだなっていうところで、非常にすごいと思って見てましたね。
これ、仮想空間上の中での自然言語での指示、その行動というところになるんですけど、これで単純に言葉だけではなく、ゲーム上の視覚であったりだとか、視覚って言っていいのかな、あれですけど、ビジョンですね、画像とか音とかみたいなところも絡めた行動になってくるので、
ここでの検証が進んでいくと、実際のこの現実世界でのロボットとか、そういったところにつながるエージェントの機能というのができるのかなと思って、そういった意味でも非常に興味深く見ている感じですね。
確かに、車の自動運転とかは、よくゲームの中での車に乗るっていうところからシミュレートさせてAIに学習させてみたいな研究も盛んだったりするので、実際今言われた通り、本当にゲームの中のキャラクターの操作っていうところを、より現実世界とリンクさせてみたいなところでも、どんどんこの辺が進化していくと現実的になっていきそうですよね。
ちょっと期待が非常に高まるなというと、まだ発展途上ではあるので。
もう一つ、いわゆるエージェントっていうところで、興味というか、よく今週出てきたのがDevyn、多分読み方合ってると思うんですけど、というソフトウェアかな、が出ましたよと。
これ何かというと、ソフトウェアを開発してくれる超便利なエージェントということで、これを作りたいっていうと、それをもとにタスクを出して、それ分解して、実行して、エラーが起きたら直して、修正して、デプロイして、動くようにするみたいなもので、今までもいくつか似たようなものはあったんですが、
このDevynっていうもの、実際の動かしている動画を見た限りでは、かなりの精度で、最終的な成果物の完了まで動かしてくれる、非常に高度なエージェントだなというところで注目を集めておりましたね。
そうですね。ちょうど去年の末ぐらいにGitHubがGitHubコパイロットワークスペースっていうので、こういう形で何かこんなソフトウェアを作りたいっていうと、エージェントの場合はそういう指示をもとに、例えばタスクバラシっていうどういう手段を持っていくと、そういうソフトウェアって作れるんだっけっていうところから始まって、自分でソースコードを書いてみたいなところをやっていくよっていうデモで、そのGitHubもやっていたんですけど、今回のところはGitHub以外のところの会社がそれをやったり、その中身だと、
例えばリードミニオンでどっかの設定とかを行って、ごにょごにょしてとかっていうところまで自動でやってくれるっていうところもあって、本当にこの辺がどんどんどんどん進化していくと、自分でソフトウェアを書かなくてもある程度のソフトウェアだったら簡単、とりわけ簡単なものだったら作れてしまうみたいな未来がすぐ来そうだなみたいなところを思わせるような動画で非常に話題になってましたね。
正直今までも似たようなものがあって、ただ最終的に完成まで築けることっていうのはなかなか難しかったりしていて、実際この新しいものもどこまで成功率が高いのか、クオリティがどうなのかっていうのはあるんですが、ちゃんと技術というか取り組みが進んでいっているなっていうのがあって、非常に興味深いなと思いながら見ているところですね。
今日はこれ次が最後なので、ちょっとあまりパッとしない内容って言っちゃうところなんですけど、今週なんでかですね、AI、特に大規模言語モデルに関する最適な情報を得るためのラグっていう手法とか、ファインチューニングっていう手法があるんですけど、
検証記事みたいなのがたまたまなのか、複数あって取り上げられていたという感じですね。
ここに関してはそんなに見新しいものはないので、興味があればまた確認いただければなと思います。
今週結構しゃべったんですが、実はまだまだ気になるニュースはあったんですが、細かいところですね。AIの集約したもので言うとこれぐらいなので、今週はこれにてニュースに話は終わりたいと思います。またAIニュースの配信続けていきますので、よかったら次も聞いていただければなと思います。では締めの言葉で終わりたいと思います。
それでは次回の放送お楽しみに。バイバイ。