00:00
ノミさん、この間 Google I-O 2025 ってのがあって
私、深夜、1時くらい?3時くらい?3時くらいに見てて、めちゃくちゃ楽しかったんですけど
ちょっと今日その話をノミさんとしたいなと思って
いや、めっちゃいい。内容多すぎるから全部触れたらやばいけど
面白そうなところだけちょっと話していこうよ
そうですね。じゃあやっていきましょうか
やっていきましょう
せーの
新しい技術と文化を楽しむ
ミライラジオ
全然合わねえ
何が印象に残りました?ノミさんからしたら
いや、どれだろう。全体的にやっと実用的に全部使えるよねみたいな発表が多かったかなとか思って
それがすごい良かった
実用的ってことは何がですか?それは
例えば今までってこういう技術発展によってこういうことができるようになりましたっていう
俺すごいよ能力上がったよみたいな
これもできるぜみたいなのがめっちゃ多かったのね
あー例えばなんかAIの進化でもついに東大の問題が解けるレベルになったんだぜみたいな
なんかそういう進化の発表が多かったっていう印象は確かにありましたね今まで
でも今回は例えば検索もちゃんと塗り替えられるように検索の新しいAIのモードを作ったりとか
あとはそのデザインを作れますっていう機能としてのもの
それをフィグマにやってフィグマからファイアベーススタジオにやってそしたらそこで自動で作れますっていうような流れだったりとか
でもそれって今まではあったんじゃないですか?デザイン作れたりとか
実はGoogleのやつにはなかったはずだね
あ、そうなんだ
デザインっぽいの作れてもフィグマに落とし込めるみたいな構造的なもの出してなかったはず
あ、そうなんだ
え、フィグマにつなげられるようになったってことなんですか?今回
そう
Googleのデザイン作ってもらうと
で、口出しながらいろいろとデザイン作るじゃん
そしたらフィグマに落とせるからフィグマ上での編集ができる
え、それって別に前やったMCPとかそういうのを使ってってわけではなくて?
そう、普通にフィグマと連携してフィグマに送りますみたいな
フィグマのデータ出力しますみたいにできる
そうなんだ、じゃあフィグマ用のデータを出してくれるってことですか?
そう
で、そっからさらにファイアベーススタジオにもつなげられるから
フィグマのデータをそのまんま送るとそのデータで実装してくれるっていうのができるから
なぜか間にフィグマっていう社外のツール挟まったけど
そうだよね、Googleさんと関係ないよね
そうそう、だからすごいよね
Googleとフィグマと連携してるんだ完全に
すごいね
だからこれで言うと例えば
03:00
POって言うと伝わらないからなんだろうな
プロジェクトの責任持ってる人
デザインも開発もできないけど
このプロジェクトこういう風にやるぜみたいな
こういうデザインがいいよねみたいな
例えばいてその人がざっくりAIと会話をして
こんなデザインレイアウトの
こんな操作ができるようなのが作りたいんだよねって言って
AIにお願いしてざっくりデザイン作るとするじゃん
そしたらそれをフィグマデータにしてデザイナーに渡して
デザイナーがデザイン組んで
みんなでチェックしてOKだねってなったら
それをエンジニアが
Firebase Studioで受け取って
そこで動いてるものをエンジニアが
ざっくりAIに作ってもらった後に
いじって完成させるみたいな流れができるようになっちゃったんだよね
いいですね
今まではそうじゃなかったってことですか?
そう
今まではデザインデータに落とし込むとか
結構めんどくさかったし
一応フィグマの中に
AIでいろいろ作れる機能があったりとか
Googleじゃないところであったはあったんだけど
やっぱりクオリティまだまだだよねみたいなところもあって
今後やっぱりそういう風に流れで作っていくようになってくると
徐々にですね
今回Googleもマテリアルデザインとかもバージョンアップさせてきたりしてるじゃん
当たり前の知識のように話すけど
これもGoogle IOで発表されてたんだけど
あれだよね
マテリアルデザイン3ってのはもう出てたんだけど
その3をさらに進化させてエクスプレッシブ
新しく動きを
いい感じにつけるよみたいな
デザインが発表されましたね
だからGoogleがやってくるってことは
それを前提に作ってくると思うんだよね
そういうことか
だからGoogleがより簡単な
マテリアルデザインに従って
やると動きも
デザインもいい感じになる
っていうベースを用意してるから
それをベースにAIが提案してくれて
それをFigmaに送り出してくれてってなるから
多分一段階レベル上がるんじゃないかなと
そっかそっか
動きの方向性を示してきたってことは
それも何かしらAIと組ませるのでは?
っていう予想なんですね
面白いですね
確かにあるかもしれないですね
だからそういう意味ではGoogleがデザインの
Figmaデータを作ってくれることには
今までとは違う価値があるんじゃないかな
はいはいはい
ただ欠点としてやったら
マテリアルデザインをしてくるなっていう可能性はあるから
いいじゃないですか別に
みんな好きでしょ
Android使ってるユーザーは
慣れてるから
俺は好き
でも断られるシチュエーション多いからね
オリジナル作りたい人いるじゃん
そういうことね
だからそういう意味でも
デザイナーが間に入って
大爆これねっていう段階で
操作するだったりとか
Figmaだとやっぱり
方向性
自分で結構指示しないと難しかったりするから
その意味では
こっから進化していく
っていうのがすごい見えやすい
06:00
役割分担してそれぞれが
AIをうまく使って
自分の実力を底上げしていく
みたいなところが開発
特にMock立ち上げというか
時にはできるなっていうのが
一瞬できるのがここは俺は熱いなって思って
なるほど
AI周りだったら面白いのありました?
何か
でもそれで言うと一番分かりやすいのが
Imagineの4出ました
Bioの3出ました
Flow出ました
この辺のやつはやっぱりちょっと
分かりやすいよね
Bio3はね
実際結構Xにも
いろんな人が試したものが上がってるけど
本当に
動画生成AIっていろいろ新しいの出るたびに
デモはめっちゃいいの
見せてくるけど
使ってみると
実際破綻するじゃんみたいな
ありますよね
デモではめちゃくちゃ包丁で
肉が綺麗に切れてるように見えたけれど
実際に試してみると
包丁で肉切っても全然切れ目入んないじゃん
みたいなのとか
そうなんよ
だから
Googleだったりとか
OpenAIとかチャットGPDとかが
出してくるデモって
なんだかんだ一番いいやつ出してくるじゃん
そうですね
AIインフルエンサーの人もやっぱりすごいって思わせたいから
この一言でこんなにできた
って簡単そうにやるけど
実はいっぱい試した中で
これでやるとめっちゃいいの出る
そうですね
難しいなって思ったけど
でもジェミニで実際課金プランだけだと思うんだけど
やっぱりもう
BIOS3が使えるようになってて
やっぱり触ってみたけど
なんかなんだろうね
結構自然な動画出てきたよね
そうですね
とりあえずプロンプトみたいなこと
じゃなくて普通に
バイオレン弾く女性みたいな
単純なメッセージだけ
入れただけで作らせてもだいぶ
それっぽいってのが出てきましたよね
だからいいよね
Googleもともとやっぱり
物理的に正しいの出してくれるとか
実写的なのが
強いみたいなところがもともとあったけど
なんかさらにもう一段階レベルアップして
本当に違和感なく
こんなのが欲しいんだよねってお願いするだけで
出してくれるみたいなのが
本当に実用的になってきた
しかも音楽もめっちゃいい感じについてて
音声
効果音とかが
本当にちゃんとつくんだって
なんか
デモだとどうしても信用できない部分もあったから
自分で
やってみて
レベル高いって思いましたね普通に
本当にすごい
だからやっぱり今回のGoogle Iover
実践的に使えるものを出してきたな
っていうのがすごい楽しいから
一部はアメリカから
始めますとか
一部の人から始めますってところがあるから
日本人すぐに使えないものも多いんだけど
でも実用的な
AIがどんどん出てきますと
やっぱりその
2023年はやっぱり2022年の後半に
09:00
チャットGP出てきて
2023年は
いろんなチャットAI触る時期だって
やってて
2024年になったら
AIもチャットだけじゃなくて動画とか画像とか
やっぱすごいよねみたいな
とかなんかそのAIもいろいろ
組み合わせて使ってとかいうのがあったけど
2025年はもう
サクッと使う
サクッとお願いしてサクッとAI
使うみたいなのがやっぱり
今年この1年ではいろいろ出てくるんだろうな
っていう
ですねますますこの1年でもっと
AIを使うのが当たり前になる
なんかその
最初はプロンプトを
頑張って考えなきゃとかいうところから
スタートしたけどどんどんなんか
気づいたら使ってるが当たり前になっていくんでしょうね
いや本当に
だからなんかこの段階でAI怖いから
使わないよって人と
使いまくってるよって人の格差開きすぎてやばいな
ってのを本当に感じる
でもそれもあるけどなんか多分
怖いなって思ってる人も気づいたら
使ってるになってる
いくんじゃないかなっていうのがどんどんChromeとかに
組み込まれていくことによって
起こりそうだなって思ってますね
でもそれはもう間違いない気がするな
だってそもそもだって
AI嫌いな人Google検索してたらさ
Google検索もめっちゃAIだしさ
そうだよね検索結果の上に出してくるよね
あと翻訳ツール
使ってる人はもう100%AIじゃん
ああそうだね
でやっぱりその
なんだろうなAIとかも僕
ホリエモンAI学校っていうので色々教えてるけど
そのなんかうまく動かない
って人の中には
自動翻訳がONになってる人とかいるのね
ああはいはいはい
既に無意識に英語のサイズなのに日本語に翻訳されてるの
気づかず使ってるみたいな人って結構いるの
うんうんうんうん
だからもうそういうレベル感で
自動翻訳ONにしなきゃ使えないよって言いつつも
はい
もう色んなところでAI自動でONにされてて
うんうんうん
いや使いたくないなとかよくわかんないなとか思ってても
もう全部AI見てる景色は全部AIにチェックされたりとか
はい
ちょっとサポートされたものしか見えてないみたいなのも
はいはいはい
本当に出てきてもおかしくないよね
いやそうですねだからめちゃくちゃ楽しみですね
楽しみすぎる
うんうんうん
勝手に使ってる状態にされてるというよりも
僕らみたいな人はね
ちょっと一歩先に勝手に使い始めて
最先端使うというのが楽しいから
めっちゃ使い続けるけど
普通の人ももう一歩
踏み込むハードルが今回
クロープとめちゃくちゃ入力しなくてもできるようになったから
そうそうそうそう
いいよね
そうやっぱそこはねみんなが普段使ってる
Googleっていうサービスだけあるなって思いましたね
いやー
早く海外
アメリカとかだけじゃなくて日本にもどんどん浸透してほしいな
うんうんうん
そうですね
実際Bio3も最初アメリカだけだったけど
気づいたら日本でも使えるようになってたし
ね早かった
そう思いのほか早かったですよね
なのでどんどん使えるようになっていくんじゃないかな
っていう気がしているので
すごく楽しみですね
楽しみ
12:00
はいというところで
今日はGoogle IOWN 2025について
のんびさんと
ちょっとほんとに
触りだけですけどもっと時間があったら
スマートグラスの話とかも
聞きたいんですけどもしかしたら
次回の回で聞こうかな
ちょっととりあえずね
まずちょっと触りだけでも触りたかったから
喋ったけど
一個一個喋ったらマジで結構喋れるから
ちょっとねもしかしたら
いつの話ってぐらいのタイミングでもね
実はこんなの発表してたんだよねって喋っても
いいかもしれないってぐらい喋りたいので
またぜひぜひ別のタイミングで
はい
はい
新しい技術と文化を楽しむ未来ラジオでは
今後も最近の面白いテクノロジーの話を
私横江とのんびさんでしていきます
ポッドキャストのフォローも
ぜひよろしくお願いします
それでは次回もお楽しみください
バイバイ
バイバイ