1. 創造日常 note
  2. 7分6秒で聴くGoogle I/O 2025 ..
2025-05-29 07:06

7分6秒で聴くGoogle I/O 2025 keynoteポイント

Google I/O 2025 Keynoteのポイントが7分30秒でわかる。日頃から生成AIを使っている人向けです。

こな音声はNotebookLMで生成しています。

サマリー

Google I/O 2025では、生成AIが生活や仕事に大きな変化をもたらすことが強調されています。特に、AIの自律的なエージェント化とパーソナルコンテクストの進化が新しいインターフェースを通じてどのように実現されるのかが紹介されています。

生成AIの進化とエージェント化
ノト丸
こんにちは。今回はGoogle I/O 2025の基調講演、特に生成AIを日常的に使われているあなたに関わりが深い発表を掘り下げていきたいと思います。
ブク美
ジェミナイシーズンって言ってましたけど、まさにそんな感じですよね。AIの進化がすごい。
ブク美
本当にそうですね。単なる機能アップデートってよりは、AIがもっと個人の文脈を深く理解して、自律的に動く
エージェントみたいな方向に向かっているなぁと、そういうのがはっきり見えた発表だったと思います。
私たちのAIとの付き合い方自体が根本的に変わるかもしれない。そんな感じですよね。
じゃあ早速注目のポイントを見ていきましょうか。お願いします。
ノト丸
まずはやっぱりGemini本体の進化ですよね。
Gemini2.5プロとフラッシュ。より賢く早くなったと。私が特に気になったのが、思考サマリーと思考バジェットなんですけど。
AIがどう考えたか、そのままプロセスが見えるサマリーとか、あと処理の深さを調整できるバジェットっていうのは、結構頻繁に使う上で透明性とかコスト意識につながりそうだなって。
ブク美
そうですね。その点大きいと思います。AIの思考プロセスが見えるっていうのは、やっぱり信頼につながりますし、バジェットの方は応答速度とコストのバランスをあなた自身がコントロールできるってことですからね。
さらに重要かなと思うのがパーソナルコンテクストの導入ですね。
ノト丸
パーソナルコンテクスト。
ブク美
あなたの許可があればですけど、Gメールとかカレンダーとか、そういうGoogleアプリの情報を横断して、よりあなたに合った応答を生成すると。
例えばGメールの返信案なんかも、ちゃんとあなたのいつもの書き方とか、そういうのを学習して作ってくれるようになるわけですね。
ノト丸
なるほど。AIがあなたのデジタル上の分身みたいなものを学習していく感じですかね。これは便利そうですけど、プライバシーとの兼ね合いは確かに気になりますね。
ブク美
そこは今後の課題でしょうね。
ノト丸
あとジェミニライブ。これも進化してカメラとか画面共有で見たものについて話せるように。
ブク美
そうなんですよ。
ノト丸
目の前のものについてこれ何って聞けるのはすごく直感的だし応用範囲広そうですよね。
ブク美
まさに見るAIって感じですよね。その流れでAIのエージェント化も加速してるんです。
ノト丸
エージェント化。
ブク美
はい。これはAIが単に指示を待つんじゃなくて、もっと複雑なタスクを自律的に計画して実行する能力のことですね。
プロジェクトマリナーっていうAIが自律的に動くための基盤技術があって、それを使ったエージェントモードっていうのがGeminiアプリに乗る予定だそうです。
ノト丸
例えばなんかデモでありましたよね。条件に合う物件を探してきて候補を絞って、なんなら内覧予約までAIが裏でやってくれるみたいな。
ブク美
そうそうそういうのです。
ノト丸
一回やり方を見せたら学習するティーチ&リピートっていうのもまさにAIに仕事を教えるって感じで、これ業務のやり方が劇的に変わる可能性ありますよね。
ええあると思います。それでGoogle検索の方もですね大きく変わるんですよ。
ノト丸
検索もですか?やっぱり。
ブク美
はい。AIモードっていうのが導入されて、もっと長い複雑な質問にも対応できるようになりますし、あとディープサーチっていう機能だと、もう専門家レベルの調査レポートみたいなものを生成してくれると。
ノト丸
へえ。
ブク美
さらにプロジェクトアストラ。これリアルタイムの対話型AIのデモがすごかったですけど。
ノト丸
はい見ました。
ブク美
あの技術を使ったサーチライブっていうのがあって、スマホのカメラをかざしながら質問するとリアルタイムで解説してくれるんです。
ノト丸
それって検索とビデオ通話が一緒になったみたいな。
新しいインターフェースと未来像
ブク美
まさにそんな感じの体験ですね。
ノト丸
うわぁすごい。でクリエイティブ面もまた驚きで画像生成のImagine4。
ブク美
ええ。
ノト丸
テキストの表現力がなんかすごく上がってましたよね。ポスターにちゃんと意図した文字を入れるデモとか。
ブク美
そうでしたね。あれは印象的でした。
これならあなたが例えば資料を作ったりSNSの投稿を作ったりする時にもかなり役立ちそうだなと。
そう思います。あと動画生成のBio3もプロンプトから音声とか効果音付きの短い動画を作って、しかもキャラクターにセリフを喋らせることもできるみたいで。
ノト丸
動画まで?
ブク美
ええ。他にも音楽生成のLydia2とか、ドキュメントをウェブページっぽく変換するCanvasとか、あとAIで映画を作るFlowとか。
なんか専門知識があまりなくてもかなり高度なものが作れるツールがどんどん出てきてる感じですね。
ノト丸
うーん、まさにクリエイティブの民主化みたいな。
ブク美
言えるかもしれませんね。あとGoogle Meetのリアルタイム翻訳もどんどん実用的になってますし。
ノト丸
言葉の壁がまた低になりますね。でもAIが作ったコンテンツって、やっぱり信頼性とかそういう問題もありますよね。
ブク美
ああ、そこは重要ですね。
ノト丸
SynthIDっていう電子認証技術も進化してるみたいで。
ブク美
ええ、画像だけじゃなくて音声とかテキスト、動画にも対応するそうです。
これは利用者としては少し安心できる材料ですよね。
ノト丸
確かに。そして、AIとの関わり方を変えるかもしれない新しいインターフェースとして、XR。
ブク美
そうですね、拡張現実。AndroidXRプラットフォームが発表されました。
ブク美
Samsung製のヘッドセットとか、あとはもっと日常的なメガネ型のデバイスも登場予定みたいですね。
ノト丸
メガネ型、それは特に気になりますね。
見たものをジェミニが認識して情報をくれたりとか、ハンズフリーで操作したり、デモではリアルタイム翻訳もしてましたっけ?
ブク美
ええ、してましたね。まさにウェアラブルなAIアシスタントという感じです。
ノト丸
これが普及したら、情報のアクセス方法自体が根本的に変わりそう。
ブク美
まさに今回のI/Oで示されたのは、AIがより深くパーソナルな文脈を理解して、自律的なエージェントとして動いて、
いろんなインターフェースを通じて私たちの生活とか仕事に溶け込んでいく、そんな未来像なんだろうなと思います。
ノト丸
いや、本当に盛りだくさんでしたね。
AIが単なる道具じゃなくて、こっちの意図を汲んで複雑なことを代わりにやってくれる協働者みたいになる日も、そう遠くないのかも。
ブク美
ええ、そうですね。さて、ここでリスナーのあなたへの問いかけなんですけれども、
これだけ進化したAIアシスタントがもうすぐそばにいるっていう未来でですね、
あなたの仕事とか情報収集、あるいは普段のコミュニケーションって具体的にどう変わっていくと思いますか?
AIを頼れるパートナーとしてどこまで受け入れていくのかとか、ちょっと想像してみるのも面白いかもしれないですね。
ノト丸
そうですね、考えるきっかけになります。
それでは今回はこの辺で、また次回新たなテーマでお会いしましょう。
07:06

コメント

スクロール