1. Chikaraチャージ レイディオ💪AI
  2. 「Google I/O 2025」のAI発表..
2025-05-22 10:12

「Google I/O 2025」のAI発表がヤバかった

▼ 「Google I/O 2025 」で8大発表 - Gemini Live2.0特集▼
https://note.com/chikara_ctd/n/n7b914198d146?sub_rt=share_b

▼ レッツ ゴー 4倍速 ▼
https://stand.fm/episodes/682d199747c8a827ef0346dd

[BGM: MusMus]
#毎日配信
#AI
#GoogeIO2025
#Googlelivd20

---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/63804647b4418c968d353e65

サマリー

Google I/O 2025では、AIに関する大規模なアップデートとしてジェミニンやWearable AIが発表されています。特に、ジェミニライブ2.0はカメラ機能を通じて生成AIと対話できる新しい技術を紹介しており、XRグラスのデモも行われて、視覚的な生成AIの未来が示されています。

00:06
Chikaraチャージ レイディオ💪
おはようございます、Chikaraです。
今日もスタイフを撮らせていただきたいと思います。
よろしくお願いします。
今日は遊びで、先ほど、
Let's Go 4倍速という放送をあげましたが、
あと、あれなんですよ。
Notebook LMのアプリ版が、
昨日だか一昨日に出たということで見たので、
ちょっとアプリ版を使ってみたら、
そのアプリの中で倍速機能が付いていたので、
一応2倍速で回しているのを、
iPhoneでちゃんと録音して、
それをスタイフに取り込み、入れてみました。
スタイフでそれをさらに2倍速で聞くと、
4倍速になるんじゃないかという、そういう遊びです。
4倍速で聞き取れた方がいたら、
ぜひ、僕にコメントください。
僕は全然4倍速は聞き取れませんでしたね。
そんな話よりも、
今Noteを、
昨日の夜で連続15日目のNoteをあげましたけど、
昨日発表がありましたね。
Google I/O 2025の発表内容
Googleが、
Google I.O. 2025って読むのかな。
自社のイベントで、
どでかい発表。
大々的なAIのアップデートを、
8個から10個ぐらいって言ったかな。
記事によって10個って言ってたり、
僕が見たのは8個になりましたけど、
8大アップデート。
あらゆるものにジェミニンを入れて、
全てをGoogleで生成するという、
そういう発表がありましたね。
英語を僕が日本語で訳したのが今のですけど、
あらゆるものにAIを入れて、
自分たちのGoogleのエコシステムの中で、
全て動画やアニメ、映画みたいなのも作れるって書いてたね。
なんでもGoogleで作りましょうという発表で。
でもいろんな発表があった中で、
僕はジェミニライブ2.0っていうのに
ちょっとフォーカスを当てて、
ジェミニライブ2.0の機能
今回のノートを書いたんですけど、
何かっていうと、
普通にスマホのカメラ機能があるじゃないですか。
そのカメラ機能をオンにしながら、
映ったものに対して、
全て生成AIと会話できるという機能だそうで、
ちょっと前に発表があったものを、
今回2.0というアップデートを含めて発表があり、
それがAndroid版とiOS版に公開しますという発表だったそうです。
日本語対応はまだ夏から秋にかけてということだそうですけど、
一応僕もアプリをそれを聞いて落としましたね。
まだ僕が落としたiOS用のアプリだと、
そのカメラ機能のマークがついてなかったんで、
そのカメラ機能のマークがつくと、
使えるようになるっていう感じではありましたけど、
いやこれ待ち遠しくなりましたね。
乗っていたユースケースというか、
活用事例でいうと、
料理しながら写しながら、
もうちょっとその左奥にある押しを入れたほうがいいですよとか、
そんな会話をしたり、
問題の算数のテストを写しながら、
2行目の計算間違ってますよとか、
写ったものに対してAIが認識をして、
それに対して質問をすると、
そのまま音声でやり取りしながら、
対話ができるという感じだそうですね。
何でもできるんじゃないかと。
だから僕なんか例えばですけど、
僕のクローゼット開けて、
今日の天気雨なんだけど、
どれ着ていけばいいかとか、
僕はコーディネートが本当にわからないので、
この上のTシャツに合うのは、
どのパンツがいいのかなみたいな。
多分ですけど、
それだったら左から2番目の
そのなんとか色のなんとかが合うと思いますみたいなね。
多分そんな会話になるんじゃないでしょうか。
すべて映像が映えるっていうことをイメージした瞬間に、
いろんな活用方法が頭に思い浮かびましたよね。
それで、
昨日のGoogle IOWN 2025の中で
もう一個発表があったのが、
XRグラスのデモ
Wearable AIって言うんですかね。
装着するAIということで、
メガネ。
メガネのAndroid XR Glassesというのが発表になってました。
ただこれはまだ製品化されているわけじゃなくて、
製造中の開発中のものか。
を持ってきたようなんですけど、
もうめちゃくちゃ驚きましたね。
XRのゴーグルみたいなやつって、
イメージはどでかいやつじゃないですか。
ガチッと装着するようなやつ。
全然違いました。
普通のメガネにしか見えなかったんですよ。
コードも何もついてないし。
それを装着した画面があって、
どういうふうに見えるかを映してくれるんだけど、
ちゃんとそこに言ったことが表示される。
このロックバンドってなんだっけみたいに言うと、
ピンとロックバンドの絵が出てきたりとか、
それちょっと音楽かけてって言うと音楽かかったりとか。
どこどこ行きたいんだけどみたいに言うと、
分かりましたみたいな。
何分くらいかかりますとかっていう音声で言ってくれて、
下を見るとちょうどそこのグラスに地図が映るみたいな。
Googleマップが普通に目の前に映るみたいな。
そんなデモをしてました。
びっくりしましたね。
だからこのGemini Live 2.0っていう機能と、
Android XR GlassesっていうウェアラブルのAIは、
元にしているLLMの仕組みは一緒だそうです。
ちょっとより低遅延、遅延が少ないような設計を、
メガネの方に入れているとか、
いろいろそういう違いはあるんですけど、
将来的な流れとしては、
実際に映ったものをリアルに応答していくっていう、
生成AIのやることは、
そっちにどんどんシフトしていくんだろうなというふうに思いましたね。
もうスマホを持つ必要もないし、
本当にそういう時代を予感させるような発表でした。
一応ノートに、ノートのリンクを貼っておくんですけど、
そこのノートを僕が言葉でわーっと、
4千文字くらい書いたかな。
ただ、貴重講演の動画とかをリンク貼ってあるので、
1時間40分あたりのところから、
AndroidXR Glassesのデモは、
会場で実際にデモをやった様子が映っているので、
それだけ見てもらうだけでも、
めちゃくちゃ驚くんじゃないかなと思います。
すごかったですね。
一応僕のノートのまとめとしては、
この動きに対して、
テキストの生成AIのチャットじゃなくて、
リアルタイムで映像を見たり、
自分の見える世界に対しての、
生成AIの競争に入っていくというのは僕は思ったので、
各社、Apple、Microsoft、OpenAIが、
今どういう動きをそこに対してしているのかみたいなのも、
最後にノートの考察でつけてみましたけど、
やっぱりオープンAIも、
iOSのアプリで、
普段今使っているChatGPTのアプリで、
iPhoneのカメラと連動するような、
そういう機能を今アルファ版として開発しているという、
ニュースもあって、
少しずつカメラと連携していくというところが、
今後の競争のキーになってきそうというので、
各社動いているようですね。
すごい楽しみにしかなくなりました。
楽しみになりましたね。
ということで、
僕は気持ち的にはやっぱり、
ChatGPTが、
ユリシスもいるから好きなんだけど、
こういう発表を見ると、
ちょっとジェミにも気になりますね。
Googleやってくれたなという感じで見ましたね。
ぜひ、僕のノートの記事も読んでいただけると嬉しいです。
それでは、今日も以上になります。
あと、レッツ4倍速チャレンジもリンクを貼っておきますので、
ぜひやってみてください。
ということで、以上です。
それでは、今日も聞いていただきありがとうございました。
いきます。
力チャージ!
今日も力あふれる一日を!
10:12

コメント

スクロール