2025-05-27 12:58

#8 Google I/O 2025 見た? ますますAIは実用的に!

  • Google I/O 2025 の発表から見えた、AIがさらに日常的になっていく未来について、熊澤(noumi)・横江(よこえ)が語り合いました。画像生成AI「Imagine」や動画生成AI「Veo」の大幅アップデート、新たなマテリアルデザイン、Figmaへの連携もしやすいAIデザインツール「Google Stitch」など、これらがもたらす未来とはいったい!
  • 00:00
    ノミさん、この間 Google I-O 2025 ってのがあって
    私、深夜、1時くらい?3時くらい?3時くらいに見てて、めちゃくちゃ楽しかったんですけど
    ちょっと今日その話をノミさんとしたいなと思って
    いや、めっちゃいい。内容多すぎるから全部触れたらやばいけど
    面白そうなところだけちょっと話していこうよ
    そうですね。じゃあやっていきましょうか
    やっていきましょう
    せーの
    新しい技術と文化を楽しむ
    ミライラジオ
    全然合わねえ
    何が印象に残りました?ノミさんからしたら
    いや、どれだろう。全体的にやっと実用的に全部使えるよねみたいな発表が多かったかなとか思って
    それがすごい良かった
    実用的ってことは何がですか?それは
    例えば今までってこういう技術発展によってこういうことができるようになりましたっていう
    俺すごいよ能力上がったよみたいな
    これもできるぜみたいなのがめっちゃ多かったのね
    あー例えばなんかAIの進化でもついに東大の問題が解けるレベルになったんだぜみたいな
    なんかそういう進化の発表が多かったっていう印象は確かにありましたね今まで
    でも今回は例えば検索もちゃんと塗り替えられるように検索の新しいAIのモードを作ったりとか
    あとはそのデザインを作れますっていう機能としてのもの
    それをフィグマにやってフィグマからファイアベーススタジオにやってそしたらそこで自動で作れますっていうような流れだったりとか
    でもそれって今まではあったんじゃないですか?デザイン作れたりとか
    実はGoogleのやつにはなかったはずだね
    あ、そうなんだ
    デザインっぽいの作れてもフィグマに落とし込めるみたいな構造的なもの出してなかったはず
    あ、そうなんだ
    え、フィグマにつなげられるようになったってことなんですか?今回
    そう
    Googleのデザイン作ってもらうと
    で、口出しながらいろいろとデザイン作るじゃん
    そしたらフィグマに落とせるからフィグマ上での編集ができる
    え、それって別に前やったMCPとかそういうのを使ってってわけではなくて?
    そう、普通にフィグマと連携してフィグマに送りますみたいな
    フィグマのデータ出力しますみたいにできる
    そうなんだ、じゃあフィグマ用のデータを出してくれるってことですか?
    そう
    で、そっからさらにファイアベーススタジオにもつなげられるから
    フィグマのデータをそのまんま送るとそのデータで実装してくれるっていうのができるから
    なぜか間にフィグマっていう社外のツール挟まったけど
    そうだよね、Googleさんと関係ないよね
    そうそう、だからすごいよね
    Googleとフィグマと連携してるんだ完全に
    すごいね
    だからこれで言うと例えば
    03:00
    POって言うと伝わらないからなんだろうな
    プロジェクトの責任持ってる人
    デザインも開発もできないけど
    このプロジェクトこういう風にやるぜみたいな
    こういうデザインがいいよねみたいな
    例えばいてその人がざっくりAIと会話をして
    こんなデザインレイアウトの
    こんな操作ができるようなのが作りたいんだよねって言って
    AIにお願いしてざっくりデザイン作るとするじゃん
    そしたらそれをフィグマデータにしてデザイナーに渡して
    デザイナーがデザイン組んで
    みんなでチェックしてOKだねってなったら
    それをエンジニアが
    Firebase Studioで受け取って
    そこで動いてるものをエンジニアが
    ざっくりAIに作ってもらった後に
    いじって完成させるみたいな流れができるようになっちゃったんだよね
    いいですね
    今まではそうじゃなかったってことですか?
    そう
    今まではデザインデータに落とし込むとか
    結構めんどくさかったし
    一応フィグマの中に
    AIでいろいろ作れる機能があったりとか
    Googleじゃないところであったはあったんだけど
    やっぱりクオリティまだまだだよねみたいなところもあって
    今後やっぱりそういう風に流れで作っていくようになってくると
    徐々にですね
    今回Googleもマテリアルデザインとかもバージョンアップさせてきたりしてるじゃん
    当たり前の知識のように話すけど
    これもGoogle IOで発表されてたんだけど
    あれだよね
    マテリアルデザイン3ってのはもう出てたんだけど
    その3をさらに進化させてエクスプレッシブ
    新しく動きを
    いい感じにつけるよみたいな
    デザインが発表されましたね
    だからGoogleがやってくるってことは
    それを前提に作ってくると思うんだよね
    そういうことか
    だからGoogleがより簡単な
    マテリアルデザインに従って
    やると動きも
    デザインもいい感じになる
    っていうベースを用意してるから
    それをベースにAIが提案してくれて
    それをFigmaに送り出してくれてってなるから
    多分一段階レベル上がるんじゃないかなと
    そっかそっか
    動きの方向性を示してきたってことは
    それも何かしらAIと組ませるのでは?
    っていう予想なんですね
    面白いですね
    確かにあるかもしれないですね
    だからそういう意味ではGoogleがデザインの
    Figmaデータを作ってくれることには
    今までとは違う価値があるんじゃないかな
    はいはいはい
    ただ欠点としてやったら
    マテリアルデザインをしてくるなっていう可能性はあるから
    いいじゃないですか別に
    みんな好きでしょ
    Android使ってるユーザーは
    慣れてるから
    俺は好き
    でも断られるシチュエーション多いからね
    オリジナル作りたい人いるじゃん
    そういうことね
    だからそういう意味でも
    デザイナーが間に入って
    大爆これねっていう段階で
    操作するだったりとか
    Figmaだとやっぱり
    方向性
    自分で結構指示しないと難しかったりするから
    その意味では
    こっから進化していく
    っていうのがすごい見えやすい
    06:00
    役割分担してそれぞれが
    AIをうまく使って
    自分の実力を底上げしていく
    みたいなところが開発
    特にMock立ち上げというか
    時にはできるなっていうのが
    一瞬できるのがここは俺は熱いなって思って
    なるほど
    AI周りだったら面白いのありました?
    何か
    でもそれで言うと一番分かりやすいのが
    Imagineの4出ました
    Bioの3出ました
    Flow出ました
    この辺のやつはやっぱりちょっと
    分かりやすいよね
    Bio3はね
    実際結構Xにも
    いろんな人が試したものが上がってるけど
    本当に
    動画生成AIっていろいろ新しいの出るたびに
    デモはめっちゃいいの
    見せてくるけど
    使ってみると
    実際破綻するじゃんみたいな
    ありますよね
    デモではめちゃくちゃ包丁で
    肉が綺麗に切れてるように見えたけれど
    実際に試してみると
    包丁で肉切っても全然切れ目入んないじゃん
    みたいなのとか
    そうなんよ
    だから
    Googleだったりとか
    OpenAIとかチャットGPDとかが
    出してくるデモって
    なんだかんだ一番いいやつ出してくるじゃん
    そうですね
    AIインフルエンサーの人もやっぱりすごいって思わせたいから
    この一言でこんなにできた
    って簡単そうにやるけど
    実はいっぱい試した中で
    これでやるとめっちゃいいの出る
    そうですね
    難しいなって思ったけど
    でもジェミニで実際課金プランだけだと思うんだけど
    やっぱりもう
    BIOS3が使えるようになってて
    やっぱり触ってみたけど
    なんかなんだろうね
    結構自然な動画出てきたよね
    そうですね
    とりあえずプロンプトみたいなこと
    じゃなくて普通に
    バイオレン弾く女性みたいな
    単純なメッセージだけ
    入れただけで作らせてもだいぶ
    それっぽいってのが出てきましたよね
    だからいいよね
    Googleもともとやっぱり
    物理的に正しいの出してくれるとか
    実写的なのが
    強いみたいなところがもともとあったけど
    なんかさらにもう一段階レベルアップして
    本当に違和感なく
    こんなのが欲しいんだよねってお願いするだけで
    出してくれるみたいなのが
    本当に実用的になってきた
    しかも音楽もめっちゃいい感じについてて
    音声
    効果音とかが
    本当にちゃんとつくんだって
    なんか
    デモだとどうしても信用できない部分もあったから
    自分で
    やってみて
    レベル高いって思いましたね普通に
    本当にすごい
    だからやっぱり今回のGoogle Iover
    実践的に使えるものを出してきたな
    っていうのがすごい楽しいから
    一部はアメリカから
    始めますとか
    一部の人から始めますってところがあるから
    日本人すぐに使えないものも多いんだけど
    でも実用的な
    AIがどんどん出てきますと
    やっぱりその
    2023年はやっぱり2022年の後半に
    09:00
    チャットGP出てきて
    2023年は
    いろんなチャットAI触る時期だって
    やってて
    2024年になったら
    AIもチャットだけじゃなくて動画とか画像とか
    やっぱすごいよねみたいな
    とかなんかそのAIもいろいろ
    組み合わせて使ってとかいうのがあったけど
    2025年はもう
    サクッと使う
    サクッとお願いしてサクッとAI
    使うみたいなのがやっぱり
    今年この1年ではいろいろ出てくるんだろうな
    っていう
    ですねますますこの1年でもっと
    AIを使うのが当たり前になる
    なんかその
    最初はプロンプトを
    頑張って考えなきゃとかいうところから
    スタートしたけどどんどんなんか
    気づいたら使ってるが当たり前になっていくんでしょうね
    いや本当に
    だからなんかこの段階でAI怖いから
    使わないよって人と
    使いまくってるよって人の格差開きすぎてやばいな
    ってのを本当に感じる
    でもそれもあるけどなんか多分
    怖いなって思ってる人も気づいたら
    使ってるになってる
    いくんじゃないかなっていうのがどんどんChromeとかに
    組み込まれていくことによって
    起こりそうだなって思ってますね
    でもそれはもう間違いない気がするな
    だってそもそもだって
    AI嫌いな人Google検索してたらさ
    Google検索もめっちゃAIだしさ
    そうだよね検索結果の上に出してくるよね
    あと翻訳ツール
    使ってる人はもう100%AIじゃん
    ああそうだね
    でやっぱりその
    なんだろうなAIとかも僕
    ホリエモンAI学校っていうので色々教えてるけど
    そのなんかうまく動かない
    って人の中には
    自動翻訳がONになってる人とかいるのね
    ああはいはいはい
    既に無意識に英語のサイズなのに日本語に翻訳されてるの
    気づかず使ってるみたいな人って結構いるの
    うんうんうんうん
    だからもうそういうレベル感で
    自動翻訳ONにしなきゃ使えないよって言いつつも
    はい
    もう色んなところでAI自動でONにされてて
    うんうんうん
    いや使いたくないなとかよくわかんないなとか思ってても
    もう全部AI見てる景色は全部AIにチェックされたりとか
    はい
    ちょっとサポートされたものしか見えてないみたいなのも
    はいはいはい
    本当に出てきてもおかしくないよね
    いやそうですねだからめちゃくちゃ楽しみですね
    楽しみすぎる
    うんうんうん
    勝手に使ってる状態にされてるというよりも
    僕らみたいな人はね
    ちょっと一歩先に勝手に使い始めて
    最先端使うというのが楽しいから
    めっちゃ使い続けるけど
    普通の人ももう一歩
    踏み込むハードルが今回
    クロープとめちゃくちゃ入力しなくてもできるようになったから
    そうそうそうそう
    いいよね
    そうやっぱそこはねみんなが普段使ってる
    Googleっていうサービスだけあるなって思いましたね
    いやー
    早く海外
    アメリカとかだけじゃなくて日本にもどんどん浸透してほしいな
    うんうんうん
    そうですね
    実際Bio3も最初アメリカだけだったけど
    気づいたら日本でも使えるようになってたし
    ね早かった
    そう思いのほか早かったですよね
    なのでどんどん使えるようになっていくんじゃないかな
    っていう気がしているので
    すごく楽しみですね
    楽しみ
    12:00
    はいというところで
    今日はGoogle IOWN 2025について
    のんびさんと
    ちょっとほんとに
    触りだけですけどもっと時間があったら
    スマートグラスの話とかも
    聞きたいんですけどもしかしたら
    次回の回で聞こうかな
    ちょっととりあえずね
    まずちょっと触りだけでも触りたかったから
    喋ったけど
    一個一個喋ったらマジで結構喋れるから
    ちょっとねもしかしたら
    いつの話ってぐらいのタイミングでもね
    実はこんなの発表してたんだよねって喋っても
    いいかもしれないってぐらい喋りたいので
    またぜひぜひ別のタイミングで
    はい
    はい
    新しい技術と文化を楽しむ未来ラジオでは
    今後も最近の面白いテクノロジーの話を
    私横江とのんびさんでしていきます
    ポッドキャストのフォローも
    ぜひよろしくお願いします
    それでは次回もお楽しみください
    バイバイ
    バイバイ
    12:58

    コメント

    スクロール