00:01
はい、じゅりんです。じゅりんHACK|ラジオ館、始めていきたいと思います。
今回は、今日の朝というか、数時間前に行われた 「Google I/O 2024」発表内容をぼくの方で少し整理してお伝えしていきたいなと思います。
はい、ということで、昨日のOpenAIの発表に続いて、翌日にはGoogleの発表という形で、
ちょっとこの辺、みんなAI関連のところはバチバチでやってるのかな、みたいな感じのところがあるんですけど、
今回のGoogleの発表も、ほぼほぼAIについての発表というのがほとんどで、
やっぱりAIに力を入れてますよ、というのがはっきりとわかるような発表でした。
最初に総評みたいな形で、ぼくが感じたところで言うと、
Googleの発表に関しては、どちらかというと、Googleすごいよ、みたいな感じの発表に終始してたかなという感じがしたんですよね。
Googleはすごいです、GoogleのAIすごいですよ、
Googleのサービスとか機能とかってこんなに良くなりましたよ、みたいな感じで、
機能面、性能面のところを大きく打ち出して、
そういったいろんなものがこまごまと発表されていったなっていう感じ。
だから全体的に一貫したテーマみたいなのが、ちょっとあんまり見えにくいなっていうような、
ちょっとそんな印象を受けました。
昨日のOpenAIの方の発表っていうのは、明確にAIと人間との距離を縮めるみたいな、
もっと人間とAIが仲良くなるっていうようなテーマみたいなところが、
結構一貫してすごくわかりやすいなっていうふうな感じがしたんですけど、
ちょっと今回のGoogleの方は、なんとなくその感じのイメージがGoogleの素晴らしさみたいな感じ、
Googleってやっぱりすごいところでしょ、みたいな。
こんなことができるんですよ、みたいな。
そこを中心に発表しているような、そんなイメージがあって、
少しぼく的にはちょっと違和感を感じたかなというのが正直なところです。
で、それを踏まえてっていうと、
ちょっとその先が期待できなさそうな感じなんですけど、
順当に良くはなっているので、ちょっとわかりやすいところだけピックアップして話をしていきたいなと思います。
まず一番最初にGemini AIが進化したということですね。
GoogleのAI、Geminiっていうチャット型のAIがあるんですけど、
これのGemini Advancedっていう有料プランなんですけど、
そっちの方に今このGoogleのAIで最新のモデルであるGemini 1.5 Proっていうのがあるんですけど、
03:05
これが正式にサービスの中に入って使えるようになりましたよ。
これGemini 1.5 Proを使うと、もう100万トークンという膨大な文字数を扱えますよと。
トークンわかりにくいですよね。
厳密には一つの意味あたりがトークンっていうらしいんですけど、
ちょっとわかりにくいので、日本語で考えたときは1文字1トークンくらいで考えたらいいと思うんですよ、ざっくりですけど。
そうするとだいたい1回のやり取りで100万文字まで受け付けますよみたいな感じで考えてもらえればいいかなと思います。
これに関しては確かにすごいんです。
100万トークン使えれば、一般的な仕事とか本を読ませるとかっていうことにしても、
かなり使い勝手はいいはずというか、困ることはないはずなので100万文字扱えればですね。
これに関しては本当に便利かなと思います。
もちろん能力的にも非常に高い、Chat GPT-4と同じくらいの能力を持っているということなので、
それも含めてすごく全体的に高レベルなAIという形で使えるようになりますよと。
有料プランの方は使えるようになりますよという話がありました。
さらにこのGemini 1.5 Pro、さっき100万トークンと言ったんですけど、
これどうやら200万トークンまで今後使えるようになるということなので、
さらにすごくなりますよみたいな形なんですけど、
ただ100万トークンが200万トークンになっても、一般の人には正直関係ないと思います。
200万文字1回で入れることないですよね。
ぼく的には例えば20万トークンぐらいでも十分だと思っているんですよ。
だって2時間ぐらいの議事録でもだいたい6万トークンぐらいで済むわけですから、
20万トークンがあればだいたい4、5時間、いやもっと使えるか、8時間ぐらいの議事録であっても書き起こしができたりするわけですよ。
だから一般的に8時間の会議もそもそもないと思うんですけど、
そういう極端に長いような文字を扱う場面であっても、20万トークン、50万トークンでも十分。
100万トークンがあればもう余裕みたいな感じです。
普通の用途でそれを超えることってまずないと思います。
それが200万トークンになると。
なのでちょっと性能的にはやや行き過ぎている感があるので、
そこは本当に専門的に使う人たちに向けての用途なのかなと思うんですけど、
ちょっと一般の人に向けてのアピールとしてはやや弱いかなというふうに感じました。
このGemini AI、そういった形で有料プランの方はGemini 1.5 Proというのがサービスの中に入りましたよというところが一つ目のポイントになります。
それから二つ目に、これもおそらく有料プランが中心にはなってくるんですけど、
06:04
このGemini Advanced、Geminiのチャット型AIとGoogleのサービスがはっきり明確に連携していきますよという形で、
Googleサービスいっぱいありますよね。
GmailだったりとかGoogleドキュメントとかGoogleスプレッドシートとかですね、
GoogleのいわゆるOffice、Word、Excel、PowerPointみたいなものが使えるんですけど、
それの中にしっかりとAIが入り込んで、直接Geminiと連動して使えるようになりますよみたいな機能も今後しっかりと使えるようになっていきます。
ただやっぱりこれも有料プランが中心になります。
Googleワークスペースという有料プランで契約している人のいろんなGoogleサービスとAIがしっかり連携して使えますみたいな形なので、
もしかしたら無料プランの人はそこまでの恩恵っていうのは受けにくいかなという感じがしました。
それからですね、検索サービスの強化というところですね。
検索サービスにガッツリAIを入れ込んでいきますみたいなそういう進化と言っていいのかどうかちょっと分からないですけど、
大きな変革が今後ありますよという形です。
この検索サービスって結局何なのかというと、
今までぼくらはGoogleで検索するときってキーワードで検索してたじゃないですか。
ちょっと知りたいことがあるなと思ったら、
例えば今回のGoogleの話を知りたいなと思ったら、
Googleイベント2024みたいな形でキーワードいくつか入れて検索して、
そしたら世の中の一般の誰かが書いたような記事だったり、
またGoogleが発表している公式の記事とかっていうのが検索結果として出てきて、
それをクリックしてその情報を手に入れるっていうのが、
もう今まで10年以上続いてきたGoogleの検索という体験だったわけですよ。
これが今後どんどんAIが入っていきますよと。
なので一つは今までのようにキーワードじゃなくて、
文章として検索ができるようになります。
なので例えば今Googleイベント2024みたいな形でキーワードで検索してましたけど、
それを昨日行われたGoogleのイベントの情報をまとめて教えてみたいな感じで、
検索窓に文章を入れて検索しても、それをちゃんと理解して検索結果を出してくれる。
だから一つ目がキーワードではなく、文章でも検索ができますよみたいなところがあります。
二つ目に今度は検索結果のところですよね。
検索結果の一番上に、ここにもうAIが情報を要約したものっていうのを出してくれるようになるんですよ。
09:03
実はこれはもうすでにSGEっていう機能として試験的に運用されている、
結構使われている方も多かったりするんですけど、
検索した結果の今までだったら一つ一つの記事を開いて見に行って、
やっと情報がつかめるみたいな形だったんですけど、
そういったいろんな記事の中、記事を勝手にというかGoogleの方で要約して、
要点を抑えた情報というのを検索した画面で即出してくれるみたいな形なんですよね。
だから欲しい答えが検索したらすぐ手に入るみたいな形になります。
なのでAIを使ってですね、
AIが情報をGoogleの検索結果のその画面の中で、
Googleが用意してくれる答えっていうものが出てくるという、
AIの力によってですね、そういうふうに検索が変わっていきますよという形なんですね。
もちろん下の方に元になったリンクとかっていうのもちゃんと出てはくれます。
今までのように検索結果っていうのは出てくるんですけど、
ただですね、そっちの方にわざわざ行って見る人がどれだけいるかなみたいな感じにはちょっと思いますね。
検索して答えがパッと一番上に表示されたら、もうそれで満足しますよね、多くの場合。
ということがあるので、この検索サービスにAIがっつり組み込んでいきますよっていうGoogleの進化というか変化というか、
っていうのは、これまで情報をインターネット上に上げていた一般の人たちの行動を変えてしまわないかなというのが個人的な気になるところではあります。
例えばぼくなんかも自分がブログをやってる人だからやっぱり思うんですけど、
ブログに来てほしいんですよ。ブログ見に来てほしいんですよ、やっぱりブログやってる人って。
別にただ書いてるっていうだけではなくて、せっかくだったらそこに情報見に来てほしい、読んでほしいとかですね、やっぱり思うわけですよ。
でも今後はそのブログに行かなくても、そのブログの情報だけGoogleが読み取って、要約して、
最初に一番ぴったりな要約みたいなものを検索した質問に対する答えみたいなのを、
パンとGoogleの検索画面で答え出されちゃったら別に人のブログ見に行かなくていいじゃないですか。
そしたら今後ブログ書く人たちの意欲ってなくなりますよね。
記事って書く必要あるのかな、みたいな感じになるんじゃないのかなとかですね、ちょっと思ったりはしています。
12:02
なのでそうすると結局一般の人間が上げる情報っていうのがインターネット上に、
今後どうなっていくのかな、少なくなっていくのかなとかね、
そういう人間の実体験を踏まえた情報っていうのが今後インターネット上に上がりにくくなれば、
結果としてそこから学習するAIっていうのも質が落ちたりしないのかなとかですね、
ちょっとその辺のところが少し気になるところではあります。
なのでこの検索エンジンにAIが入っていく、ガッツリAI入れていきますっていうのが結果的にね、
それが進化になるのか、それともちょっと違う形になってしまうのかっていうのはですね、
個人的にちょっと気になるところだなとは思いました。
それからですね、今度はプロジェクトアストラという機能があって、
これ結構面白いなと思った機能ではあるんですけど、
これはですね、特にスマホとかタブレットを使った機能で、
どちらかというと、結構視覚に障害を持たれている方なんかはすごく助かるだろうなと思う機能です。
これ何かっていうと、スマホでですね、カメラを動かした状態で、
その状態でですね、スマホで映っている映像ですね、カメラで映している外界の映像っていうものを映しながら、
AIと会話ができるっていう機能です。
なので、今映っている外の景色って、これ今どこだと思います?みたいな形で質問すると、
おそらくその映像的なところと、もしかしたらGPSとかも含めて判断するのかもしれないですけど、
そこは例えばロンドンのどこどこですね、みたいなことを教えてくれるとかですね。
それから、すっとですね、職場とかオフィスの中を歩いて、その間ずっとカメラで映して、
そういえば、さっき私、メガネをちょっと置き忘れたんだけど、どこにメガネを置いてたかわかる?みたいな形で聞くと、
今その時点で映像にメガネが映ってなかったとしても、そこまでに映してきた映像を振り返って、
メガネがどこにあったか、ちゃんとAIが判断して答えてくれるんですよ。
メガネはリンゴの横にありましたよ、みたいな形で教えてくれる。
言ってみると、リンゴの横に確かにメガネが置いてあるとかですね。
他にもホワイトボードに映っている、数学の問題とかを映しながら、
この問題の解き方を教えて、みたいなこととか、そういったのも対応してくれますよと。
なので、この映像をカメラで映しながら、そのままAIと会話をできるというところで、
特に視覚のところですね、ちょっと目が悪いなとか見えにくいなという方にとっては、
これは相当便利な機能になるんじゃないかなというふうに感じました。
15:01
もちろんそうじゃなくて、全然普通に視力とかも全然バッチリですという人にとっても、
使い方次第ではかなり役に立つのかなという気もします。
これがProject Astraという、そういった機能のところです。
それから、もう一つ面白いなと思ったところで、Ask Photoという機能がありますね。
これ何かというと、これはGoogle Photoに連動するAIの機能です。
このGoogle Photoって写真をめちゃめちゃいっぱい入れるじゃないですか。
とりあえず自動的にスマホで写真を撮ると、自動的にGoogle Photoにアップするみたいな、
そういう設定にしている方が結構多いと思うんですけど、
スマホで結構写真いっぱい撮りますよね。
そうすると、人によっては本当に何万枚もGoogle Photoの中に写真があると思うんですよ。
ぼく自身も本当に10万枚くらいとはもしかしたら写真があるかもしれないです、Google Photoの中に。
そうすると、例えば10年前の子供のこの時の写真が見たいみたいな、
そういうすっごいピンポイントで見たい写真があった時に、もう探せないんですよ、10万枚とかあると。
子供の顔だけで検索してもありすぎて、何万枚も子供の顔の写真があってありすぎて、
今度はまたそこから探すのも大変みたいな。
なので、今までGoogle Photoも一応キーワードで検索することはある程度できたんですけど、
なかなかそれでも見つけきらないっていうことがありました。
今回このAsk Photosっていう機能は、これもやっぱりAIを使ってチャットのように、
チャットでおしゃべりするみたいな感じで、この写真を探してみたいなことを訪ねることができるようになるんですよ。
例えば、子供が幼稚園ぐらいの時にプールでお母さんと一緒に浮き輪で遊んでるその写真を探してみたいな感じで言うと、
そうするといくつもキーワードが含まれているわけですよね。
だから、今までのキーワード検索だったらおそらくこの文章を検索するのは難しかったというかできなかったんですけど、
こういった自然な文章であったとしても、このAsk Photos機能っていうので探してきてくれるという。
なので、これは膨大に写真がある人にとっては、このAsk Photos機能は相当便利になるんじゃないかなと思います。
ぼく、これはめちゃめちゃ使ってみたいなと思っています。
なかなかこういうのは面白いなというふうに感じました。
それから、動画生成技術の向上ということですね。
Googleにもテキストから動画を作るというAIが登場して、
Googleの動画生成のAIということで、Veoという機能が発表されました。
18:11
これもOpenAIがもうすでに空っていうテキストから動画を作りますよみたいなAIというのを発表しているので、
それと大体似たような感じかなというふうに感じました。
すごく綺麗な映像を動画として作ってくれると。
テキストで指示をしたら、例えば日本の古い街並みを歩く侍の映像を作ってみたいな感じで言うと、
そういう映像を綺麗に作ってくれるみたいな感じですね。
さらに、これ最大1分ぐらいまで少しずつ延長して動画を作ることができるみたいなので、
これも面白いのかなと思います。
ただまだどこまで実用的かどうかと言われるとちょっと分からないですけどね。
ただこれからの進歩としては、AIの進歩としてはすごいこの機能というのも面白いものだと思います。
それからですね、コマコマいっぱいありますよね。分からなくなってきますよね。
あと2つぐらいお話できるといいかなと思うんですけど、
あとですね、次に教育系のAI機能というので、これAIのGeminiの中に入ってくる機能として、
いわゆる教育の方にうまく使えますよみたいなAI機能がですね、
教育に特化したAIの機能というのも今後できるようになっていくという発表でした。
この教育系のAIというのは単純に回答を教えるとかっていうことではなく、
この問題の答えを教えてとかっていうので、答えをパンと教えますとかっていう話じゃなくて、
その解き方っていうのをですね、ステップバイステップで段階を踏んで、
どうやって、どうやって、どうやってやったらこの答えにたどり着きますよみたいなのを
ちょっと会話を通しながらサポートしていく、
そういう教育系のサポートAIみたいな形でのAIがですね、搭載されていくだろうという形でですね、
これもね、すごくいいんじゃないかなと思います。
家庭教師みたいな形で、これも昨日のOpenAIのAIの中でもですね、
ChatGPTの方でも似たような機能があったんですけど、
こういう使い方ってすごくいい使い方だなと思います。
で、Googleの場合はYouTubeをですね、サービスの中に抱えているので、
どうやらYouTubeの動画の中にもですね、この教育系のAIを組み込んで、
教育系の動画を見ている時に、その教育系のAIがうまくですね、連動して働いてくれて、
途中で質問を投げかけたりとか、そういったやり取りっていうのができるようになりますよみたいなことまでですね、
どうやら使えるようになるみたいです。
21:02
ただちょっとまだね、ぼく的にイメージそこまで湧いてないところはあるんですけど、
実際やってみたら面白いのかもしれません。
あと最後にですね、もう一つだけ。
これはですね、どちらかというとスマホの機能なんですけど、
これ結構ね、もしかしたらすごく便利かもっていうところなんですけど、
詐欺検出機能ということでですね、もう本当に今の世の中に必要なのかもしれないみたいな機能なんですが、
これはですね、スマホで電話がかかってきた時に、
これはですね、Gemini nanoっていう小型のAIですね、
Geminiの中で一番最小のAIと言われているGemini nanoっていうのが組み込まれている、
スマホにおそらく限定される機能なんですけど、
このAIが電話かかってきた時に、その電話の通話をですね、
聞き取って分析するんですよ、もうリアルタイムで。
そして、その会話の中で相手が詐欺のパターン、相手からの相手の会話でですね、
詐欺のパターンっていうのを検出したら、
これもしかして詐欺じゃないですかってリアルタイムで教えてくれるらしいんですよね。
これ結構面白いなとは思っていて、
おそらくこれはもちろん通話の記録っていうのはインターネット上に送られるわけではなく、
このスマホの中だけで分析されるので、
そういったセキュリティのところはちゃんとしっかりしたっていう上で、
この通話の中、相手が喋っている話のパターンとか会話の内容とかっていうのが、
どうやらこれは詐欺のパターンと一致しそうだぞっていうふうに、
このAIが判断したら、
それ、今のこの会話、詐欺じゃないですかみたいな形で、
ちょっとAIのほうで警告を発してくれるみたいな、
そういう詐欺を検出する機能っていうのが、
今後このスマホには搭載されていくだろうみたいな話もありました。
これがどこまで検出してくれるのかっていうのは正直あるんですよ。
英語のパターンと日本語のパターンとでまたちょっと違ってくるだろうしっていうところもあるので、
ただ、少しでもこれで詐欺っていうところを防ぐことができるのであれば、
ないよりはあるに越したことがないかなという、そんな気がします。
はい、ということで、ちょっとぶわーっと喋って少し長くなってしまったんですけど、
はい、今回のGoogle IOWN 2024の発表内容というのを、
ちょっといくつも項目があったので少し分かりにくかったらすいません。
はい、話をさせていただきました。
ちょっとぼくもやっぱり話す前に一応整理はしてるんですけど、
なんていうかバラバラな感じがやっぱりしたんですよね。
順当にいろんな機能が良くなっているのは分かるんですけど、
なんかちょっとバラバラ感っていうのがあって、
未来に向けてのテーマみたいなのがあんまり定まってないような、
そんな感じがちょっとした発表でした。
24:03
なので、最初に話した通り、
OpenAIのほうはAIと人間とがいかに仲良くなっていくかっていうところを中心にした発表だったっていうのが
すごく分かりやすいなと思うそういう発表だったんですけど、
今回のGoogleの発表っていうのは、
Googleはこんなこともできます、あんなことができますっていうのを
細切れにいろいろ出してるみたいな感じで、
ちょっと統一感が取れてないような、そんな感じはしたんですよね。
未来を描くっていう意味ですごく進化はしてるんだろうなと思ったんですけどね。
はい、またこれからどんどんよくはなっていくと思うので、
そこには期待しつつ、これからも動向を見守っていこうかなと思っています。
はい、ということでですね。
はい、ちょっとすごい長くなってしまったんですけど、
ここまで、最後まで聞いていただいてありがとうございます。
はい、ということでですね、
今回はGoogle I/O 2024の発表内容をですね、
ぼくなりにですね、ちょっと自分の感想とかも交えながらですね、
お話をさせていただきました。
はい、何かしら参考になれば幸いです。
はい、それではですね、今日はこの辺で失礼します。
それでは良い一日を。