1. Podcast by Yuka Studio // ユカスタポッドキャスト
  2. Ep.103 リチャードさんとGoogl..
2025-05-24 52:51

Ep.103 リチャードさんとGoogle I/Oについて熱く語る🔥

spotify apple_podcasts youtube

今週のエピソードでは、ギズモード・ジャパン編集部のリチャードさんをゲストに迎え、Google I/O で発表された最新情報について熱く語ります。AI、ハードウェア、新サービスなど、Googleの本気が伝わる内容満載のイベントで、二人が注目したポイントや今後への期待をたっぷりお届けします!


Google I/O 2025

Googleの新製品発表!新AIやスマートグラスなど🤓


ギズモード・ジャパン

https://www.gizmodo.jp/

https://www.youtube.com/@gizmodojapan


= = = = = = = = = = = = = = = = = = = = = = = = =

【ユカスタポッドキャスト // Podcast by Yuka Studio】

ユカスタポッドキャストは、テックとクリエイティビティがもっと身近になる、トーク番組です。

ニューヨークを拠点に、テック系クリエイターとして活動する大石結花がメインホストとして、テックニュースや、インタビューコンテンツをお届けします。

🌟⁠⁠⁠⁠Youtube⁠⁠⁠⁠: 日本語YouTubeチャンネル

🌟⁠⁠⁠⁠Youtube⁠⁠⁠⁠: 英語YouTubeチャンネル

🌟⁠⁠⁠⁠Community by Yuka Studio (ユカスタコミュニティ): メンバーシップに加入すると、特別なバッジ・絵文字が使えるようになり、メンバー限定のDiscordチャットや、もくもくLIVEに参加できます。

🌟⁠⁠⁠⁠ニュースレター: 月に一度ほど、Yukaのコラムやアップデートがメールで届きます。

🌟⁠⁠⁠⁠ Instagram⁠⁠⁠⁠: Podcastや動画、そのほかのby Yuka Studio 関連の最新情報をお届けします。

サマリー

今回のエピソードでリチャードさんは、Google I/Oの新発表やイベントの印象について熱心に話しています。特にAI技術の進化や新しいツールの詳細な解説が展開され、最新の画像や動画生成モデルにも触れています。リチャードさんは、Google I/Oの最新機能について情熱を持って語り、動画生成の新しい技術やAIの進化がコンテンツ制作にどのように影響を与えるかを考察しています。また、メガネ型デバイスとヘッドセット型デバイスについても熱く語り、AI技術としてのジェミニーの進化や今後のAppleやメタとの競争についても触れています。さらに、リチャードさんはGoogle I/Oでのジェミニーのオーディオ機能や3Dショッピングアシスタントの進化に焦点を当て、AIによる効率的な買い物体験の可能性についても考えています。今回のエピソードでは、リチャードさんとともに最新技術やイベント内容を熱心に掘り下げ、AIやロボティクスに関する進展やGoogleが目指す未来の技術について詳しく探ります。

Google I/Oの興奮
Yuka Studio Podcastへようこそ。Yuka Studio Podcastは、テックとクリエイティビティがもっと身近になるトーク番組です。
今週のエピソードは、Gizmode Japan編集部員のリチャードさんと、Google I.Oキーノート直後の興奮とともに発表されたいろいろについて語ります。
お疲れ様です。ちょっとプッシュしよう。
お疲れ様でした。
ソーダだけど。
ダイエットコース。あんま飲まないけど。
お疲れ様です。
今日はリチャードさんとGoogle I.Oに来てます。
Google I.O来たことありますか?
あります。何度か。
私今回初めてで。
どうでした?
相変わらずの情報量。
密度高いですね。
これでも薄まった方なんですよ。
去年はここにAndroidとかのニーズも入ってたので。
Androidちょっと外出しされましたもんね。
先週動画出てましたよ。
あと一部のAIのニーズは先出ししたから。
結構頑張ってはいたんだけど。
もう入りきらんと。
それでも2時間くらいやってますもんね。
あとちょっと押してましたよね。
情報解禁の時間が先に来ちゃってて。
まだ言ってないことめっちゃ気づいてました。
Googleはそこら辺の甘さが可愛いですね。
僕は好きです。
そういうところもいいですよね。
古き良きチェックカンパニーだな。
あまりにもガチガチのところが多いですからね。
Appleさんとかね。
僕は言えないですけど。
あれはあれで本当にすごいことなんですけど。
あんなに人がいっぱいいるのにあんなに管理するっていうのは。
あれはもはや秘密結社のような組織力ですよね。
僕はまだAppleさんお伺いできてないんでわからないんですけど。
そうお伺いしたい。
ですよね。
じゃあGoogle I.O.の話を先にしますか。
しましょう。
ちなみに僕は去年と比べて良かったなと思うのはお食事ですね。
AI技術の活用
そうなんですか?
プレス用の会場みたいな場所があって。
そこでちょっと軽食を出してくれるんですけど。
今年は野菜とかお魚とかもあって。
お魚ありました?
サーモンか。
確かに。
去年なかったので。
そうなんだ。
今年はちょっと嬉しいです。
結構ジャンクな感じだったんですか?
ジャンクだし甘いものが多い。
それだけだと嫌ですよね。
ちょっとねっていうのでありがとうございました。
引き続きよろしくお願いいたします。もし見ていらっしゃったら。
よろしくお願いします。
結構聞いてくださってる方多いみたいなんですよ。
そうなんですか?
テック業界の方。
ありがたいことに。
じゃあ来年も。
来年もよろしくお願いします。
何から始めましょうか?
AIって言っても全部AIですからね。
リチャードさんは普段どんな感じでAI使ってますか?
みんなとあまり変わらないんですけど、
質問したり相談したり、
ノートブックレールでソース参照しながらみたいな。
ディープリサーチやった後読むのめんどくさいから
ノートブックレールに突っ込んでオーディオにしてもらおうと思ってたら
もうそのままジェミニアプリの中でオーディオオーバービューしてくれたり。
日本語対応も先週か先々週とかしましたしね。
基本は全部ジェミニなんだけど、
インターフェースめっちゃあるじゃないですか。
Google、そうですね。
ノートブックLMもあるし、
普通のジェミニのウェブページもあるし、アプリもあるし、
バイブコーディングみたいなファイヤーベースのスタジオとかもあるんだけど、
今日のアップデートかな。
普通のジェミニのウェブアプリの中からも
Canvasっていうコードがコーディング。
Canvasちょっと前からあった気がしますけど。
前からあったけど、ジェミニ2.5になったのか。
そうですね。
難しいんですよね、いろいろ。
入り口がめっちゃいっぱいあるみたいな。
同じことが結構できたりするんですか。
さらにそこに今度AIモードというものが追加されて
検索の体験がまた新しくなる。
AIモードは普通にGoogle検索のところのウェブ画像とか
いろいろあったじゃないですか。
タグがね。
ショッピングとかその中に1個入るってことですよね。
らしいですね。
アメリカでしか使えないから。
そっかそっかそっか。
使ってみないと。
最近AIオーバービューっていうのが一番上に出て
ちょっとまとめみたいなAIでしてくれるやつがありますけど
あれとは別にタグができて
そうですね。
でもあれはジェミニアプリを開くわけではないけど
多分結構似てる
な感じがしますね。
答えじゃないですか。
はい。
ですよね。
と思います。
面白いのが多分我々の世代で
親とかの世代がググり方が下手で
なんとかかんとかは何ですかみたいな感じで
文章で書いちゃうみたいな
ぷぷぷみたいな
こうやって
ワードに切り分けるんだよっていう
ワードに切り分けてスペース入れなきゃいけないんだよ
ぷぷぷとか言ってたけど
そっちに戻ってますよね。
戻ってる。
ここら辺数年の常識が通じないですね。
確かに。
むしろ本当に人間らしく思ったことをそのまま言葉にできる人の方が
確かに。
自然言語をまた学び直さなきゃいけないみたいな
結構やり直しが多いですね。
面白いですよね。
戻ったっていうのが。
面白いのがなんか基本全部英語が大事だそうですね。
確かに。
検索とかまた話変わっちゃうんですけど
そのエージェント
AIが進化して自律的に行動できるってなった時に
そのエージェントとエージェントをどう組み合わせていくか
その間で知らない言語が生じたら
もう人間はそこを監視できないじゃないですか。
だからAI同士のコミュニケーションも全部英語ですって決めちゃうらしいんですよ。
なるほど。
監視できるように。
じゃあ多分こっちから指示する時は日本語で言ったとしても
一回変換されて英語として伝わって
エージェント同士も英語で話してて
Googleとしてはそうですね。
帰ってくるのは日本語になってるかもしれないけど
中ではまた変換がされてるかもしれないから
かなっていう。
英語にしやすい日本語で言わなきゃいけないというのは
新しい生成モデルの紹介
そうかもしれない。
英語ができないんだったら
翻訳しやすい日本語を書く力みたいな。
新しいスキル。
日本の文化に依存しない言葉遣いっていう感じですよね。
確かに。
ことわざとか使わないほうがいいよね。
いきなりプロンプトに。
こちらは一石二鳥ですみたいな。
そうですね。
わかんない。
どんなプロンプトだよって感じ。
あとなんかその日本特有のなんか
木陰とかそういうワード。
木漏れ日とか。
木漏れ日だ。木漏れ日とか。
なかなか。
ありますよね。
よくあのなんか
日本語にしか存在しない素晴らしい言葉集みたいな。
アメリカ人が好きなやつ。
それが使いにくいですよね。
木漏れ日、生き甲斐。
生き甲斐。
今はもう使えますけど。
確かに。
原八部とかも好きじゃないですか。
ああ。
村八部とかもね。
八部が重要だ。
八部、汎用ですね。
確かに。
何の話だっけ?
エージェントの話。
エージェント。
あとAIでどんな機能が発表されたか。
あと何がありましたっけ?
動画と画像生成。
ああ。
Imagine4とVO3。
そう、VO3。
で、全部合わせてフローという。
フローはなんか違うらしいですよ。
フローはプラットフォームというかツールで
ImagineとVOとGeminiが使っているモデル。
裏側みたいな感じらしいですよね。
そうなんですか。
だと思います。
なんかあっちで聞いた話だと確か
フローはVO3を使うためのUIで
他のモデルはあんま使ってないらしい。
そうなんですか。
でも多分そのプロンプトによってだと思います。
そうなんですね。
これを使ってくださいみたいな素材をアップできるじゃないですか。
その素材を生成するのに多分画像生成。
Imagineを使う。
Imagineを使って。
納得。
で、あと多分プロンプトを超適当に書いたとしても
いい感じに理解してくれるのがGeminiじゃないですか。
なるほど。
メインは多分VOでしょうね。
この映像を作ってるっていうのは。
そういうことか。
フローはそれをうまく繋げてるんですね。
だと思います。
これまとめた方がいいですかね。
専門用語多かった。
確かに。
何も知らなかったら何語喋ってるんだって感じですね。
何語ですかって感じですから。
確かに。
まずImagineっていうのが画像生成のAI。
それのバージョン4が今回発表。
前が3だったんですよねきっと。
新しいのが出ましたと。
これがテキストとかもうちょっと詳細なテクスチャーみたいなやつとかが
より高性能になったと。
あとテキストにも対応した。
そうそう。
結構タイポグラフィーというか。
チャットGPTの方もそうですけど文字がいつも同じブロック体みたいな感じじゃないですか。
それじゃなくてデモであったのはダイナソーみたいなやつだったら
恐竜の骨をもじってるみたいなデザインを作ってくれたりとか
そういう感じでしたよね。
そうですね。
もっとデザイン要素だったりそういうのができるようになったっていうのがImagine。
VEO3っていうのがまた動画生成の新しいモデル。
こちらは音がつくようになったんですよ。
そうですね。
それ結構すごい。
カメラワークみたいなのも設定できるから
横にパンしてくださいとか前にドリーズームしてくださいとか
ドローンみたいな感じで俯瞰してくださいとか
そういうのを指定できると。
あとその音声ですごいのが
キャラクターに喋らせるみたいな
こう言ってくださいっていうのをプロンプトで書いたら
口もそのままリップシンクしてるから
結構あれすごいですよね。
すごい。
しかもちゃんと言ってる内容に合わせた表情になってる気がしますね。
あと人間以外にも喋らせたりとかしてたし。
動物のキャラクターとか。
確かに。
あれは割と面白いことできそうですけど
逆に言うとちょっと怖い部分は悪用したら
ちょっと聞いてみたんですけど
あれなんか1個生成するのに5分くらいかかるらしいんですよ。
秒数だった時は2分とか。
なんでそんな倍もかかるのって言ったら
もちろん生成する時間も必要だけど
その後のチェックにもすごい時間かけてるらしくて
超名人出てないかとか危険な描写がないかとかみたいな
そこら辺のチェックもたくさんしてるみたいで
API使ってる限りは出ないんじゃないかなっていう印象ですね。
なるほどね。
AIと動画生成の課題
でもなんか自分の写真をアップするとかできそうでしたよね。
確かに。
その自分が著名人だったらどうするの?
ブラピがやりたいですみたいな。
ブラピやりたくなったらできないのかもしれない。
できないと思う。エラーが出ちゃう。
その辛さあるんだ。
変な有名勢ですね。
ブラピ特有の悩みみたいな。
AIが言うこと聞いてくれない。
AIが俺をバンするみたいな。
俺をそっくりさんだと思ってると。
そっくりさんも辛いかもしれない。
確かに。
変なやつだな。
そうですね。
それ考えてなかった。
イマジェンとビオともう一個が
ジェミニ。
ジェミニ。
がフローに入ってる。
なるほど。
でフローは?
フローは
フローは
すごい使いやすくする
インプットツールというか
そうですね。UIですね。
コントを入れて
このキャラクター出してくださいとか
この背景にしてくださいとかを
画像でまた指示することができるんですよね。
だから結構
詳細に
本当に自分の頭の中にあるものを
指示できるんじゃないかな。
あと生成した動画を
ここから同じような形で伸ばしてくださいとか
ここから違う形で
そのシーンを別のアングルから撮ってくださいみたいな
そういう操作を簡単にできるボタンがたくさん付いてる。
確かに。
やっぱりああいうのを生成すると
一回一回やっちゃうから
一貫性みたいのが結構難しかったから
それをもうちょっと
あんまりブレないようにするみたいな感じですよね。
あんまり意識させることなく
こっちで簡単に操作できるようになってますね。
あれはなかなか
なかったですよね意外と。
結構難しい。
やろうとしても
服がちょっと変わっちゃってたり
顔がちょっと違ったりとか
いろいろ
ブレるから
ちゃんとしたストーリーみたいなのは
やっぱりできにくかったですよね今まで。
ずっと動画生成系で
みんな悩めたのが
動画一個を
例えば6秒の生成した時に
この動画の中では
何も新しいことは起きないんですよね。
だからスタートのフレームと最後のフレームが
結構似通ってる。
でも映画の撮り方って
大体このワンカットで
何か新しいことが起きて
次のいくらじゃないですか。
その映像のワンカットの中の変化を
あれだったらたぶん
作れるんですよね。
確かに今まで見てた中で多いのって
たぶん静止画を
なんかちょっともよもよもよ
もよもよって動かしたのばっかだから
なんか綺麗だねみたいなとかあるけど
確かにストーリーになってない。
物語を進める能力なかったんですよね。
それかもう次のカットになっちゃって
繋がりが薄いみたいな。
これだったらセリフもつけられるし
ちゃんとした会話をさせたりとか。
あとこう撮ってたのが急に上に向いたりとか
そういう変化も意図して作れる。
確かにカメラワークもつけられますからね。
すごい便利そう。
確かに。
でも一回一回が5分かかるから
それはちょっと大変ですけどね。
それは早くなるんですかね。
でもやっぱりコンピューティングが
すごいかかるから
あれプロかウルトラプランっていう
新しいプランの人しか
使えなかったじゃないですか。
ウルトラプラン249ドルかな月。
すごいですね。
高い。
新しいプランと魅力
高いけど、でもYouTubeプレミアム
ついてくる。
30テラバイトのモーブルドライブ。
魅力的ではあるかもしれない。
カモン。
月。
もうだってワンランクアップできますよ。
家賃。
確かにね。
3万ちょい。
相当使わないと元取れない気がしますね。
最初の何ヶ月かは
半額セールみたいにやってましたけど。
その間に探るしかないですね。
その間にフローを使いまくる。
どういう人がやっぱ
プロとしてそれを使いたい人とかが
入る感じなんですかね。
ですかね。
それかもう会社が
みんな使えっていう。
確かに。
最新のモデルとかを
一番早く使えるプラン
みたいですけど。
そうですね。
ちょっと魅力的。
ちょっと魅力的。
個人でっていうのはなかなか
そうですね。
確かに。
今何に入ってますか。
僕多分3000円くらいのやつです。
はいはいはい。
ジェミニーの?
ジェミニーとチャットGPT。
私もチャットGPTとジェミニーと
最近アンスロピックも入っちゃって。
クロードですか。
だから地味に20ドル20ドルみたいな。
結構
いきますね。
いっちゃう。
どう使い分けてるんですか。
基本はやっぱり
チャットGPTが多くなっちゃってるんですけど
たまにどっちがいい感じにできるかな
みたいな感じで
同じプロンプトをそれぞれ入れてみて
遊んだりとかしたり
クロードはこの前MCPを試してみたんですよ。
MCPっていうのは
なんていうのかな
エージェントの一種なんですかね。
エージェントのためのAPAみたいなもの?
そうですね。
クロードのチャットから
ブレンダーを操作するっていうのをやってみたんですよ。
だからそのために
それをめっちゃやってたら
すぐ上限いっちゃって
しょうがねえ。
課金するかなって課金して
やったんですけど
でもあの辺もどんどん進化していきますよね。
そうですね。
3Dみたいなものとか
エージェント?
エージェントですかね。
AIが他のアプリを動かすためのものですよね。
あれってなんで必要なんですか?
まあ楽?楽というか
ブレンダーとかだったら
本当にブレンダーの操作とかちょっと難しいじゃないですか。
ショートカット学んだり
3Dの用語とかもわからないと
ググれないみたいなところとかあるので
本当にただただ
チャットに
花瓶を作ってくださいとかやったら
3Dと花瓶ができるみたいな。
でもそのなんか
AIが僕のキーボードとマウスを
動かしてくれればいいじゃないですか。
なぜそのMCPというものが必要なのか
いまいちピンときてなくて。
確かにそういうやり方もあるんですかね。
ハーソルを見て動かすみたいな。
なるほど。
でもそれだとウィンドウサイズとかなんかいろいろ
もっと難しくなっちゃうとかありません?
今俺はどこにいるんだ?
あと画像をずっと入力するのも変ですしね。
そっか。
今のところもしかしたらAPI経由の方が
早いのかもしれないけど
もっと進化したらもしかしたら
ただ画面を画像として認識する方が
早くなったりするかもしれないですね。
可能性はある気がしますね。
そういえばジェミニライブも
スクリーン共有してやれるようになったけど
あれはコントロールはしないですけど
ただ今こういうのが映ってるんですけど
どこクリックしたらいいですか?
みたいな質問もできるっていう。
確かに。
それをそのままやればいいだけですね。
それをそのままクリックしてっていうのを
お願いできるようになるかもしれないですよね。
次のステップとしては。
そのMCPにジェミニも対応したり。
なんか出てきましたよね。
音楽の著作権と生成物
APIの形で対応したらしいですね。
確かに。
いろいろありますね。
あとなんだろう。
リリアってやつありましたね。
リリアありましたね。
あれは音楽系スノーみたいな。
使ってますか?
使ってみたことあります?
Music SXとスノーはちょろっと触ったぐらいに。
リリアの方が
なんかもっと詳細なコントロールができる
みたいな感じなんですかね。
どうなんですかね。
あとちょっと気になったのは
あれをYouTubeとつないで
コンテンツIDみたいなのがあると思うんですけど
YouTubeで
著作権がある楽曲を使ってたら
あなたこれライセンスしましたか?
とかチェックしてくれるっていうのがあるんですけど
それと同じように
リリアで作ったものをYouTubeにあげたら
これリリアで作ったやつですよねっていうのを
わかってくれるみたいな。
それ著作権的にどうなってるか分かんないけど
少なくともこれはAI生成されましたみたいな
ラベルがつくとか
そういう感じになるのかなと想像しました。
そういう感じなんですね。
その音楽再生の
シンスIDではなくまた別の?
シンスIDの一種なんですかね。
YouTubeにあるのはコンテンツIDっていう
著作権を検知する仕組みなので
それと似た感じで
シンスIDもYouTubeに入るのかもしれないです。
でもシンスIDというのは
音楽だけじゃなくて
画像動画テキストも
Googleのプラットフォームを使って生成したものだと
見えない形で
そういうウォーターマークみたいなのが入ってて
検知できるみたいなものでしたよね。
そうですね。
どっかでインターネットに落ちたもので
これAIなのかなみたいなのがあったら
それに入れれば
少なくともGoogleで作ったものだったら
わかる。
Googleで作ったものばかりではないですからね。
オープンソースのものが多い気がしますね。
ですよね。
あとAdobeとかもやってたじゃないですか。
ハイアフライ。
そういうウォーターマークみたいなのがありますよね。
それと一緒に全部包括して
チェックできないと。
少なくともGoogleはオープンにしてるじゃないですか。
シンスIDで。
だからどっかの全部チェックしますみたいなところに
シンスIDが入るかもしれないけど。
なるほど。
確かに。
そうやっていかないと。
でも結局それをスクショ撮っちゃったら終わりなんですよね。
画像だと。
もう無理ですわ。
それにウォーターマーク入ってるんですかね。
一応入ってるって聞いてますけど
ただフォーマット変換しただけじゃ消せないような仕組みで
多分サブピクセル単位とかわからないけど
そういう差異をつけてるかと思うんですけど。
でもね。
でもなんかちっちゃいスクショ撮ってエンハンスとかやったら
でもエンハンスはAIか。
エンハンスはAIだけどそれをGoogleじゃないところでやればいい。
確かに。
いやーちょっと
まああの
バッドアクターは何でもできるところありますね。
しやすいですからね。
確かに。
あと何があったっけ。
メガネ型デバイスの利点
あとね僕としては一個とっておきがあるんですよね。
何ですか。
あのメガネ。
あ、メガネ。
メガネやりました?
一応試しました。
どうでした?
うーん。
我々メタでオライオン試せなかったけど
すごい見たりしたじゃないですか。
見ましたね。
いいところから言うとすごく軽かったです。
めちゃくちゃ古いメガネでした。
普通ですよね。
なんか別にこれめっちゃスマートグラスやーって感じがしない。
もうなんか悪いかで言うと安いメガネみたいな感じになるぐらい軽いんですよ。
でもあれはデモだからデザインはファイナルじゃないんですよね。
じゃないと思います。
だからどういう素材になるかによってまたちょっと感じ方変わっちゃうかもしれないですけど。
あともう一個良かったのが
やっぱり搭載しているAIの賢さがジェミニーだと
ジェミニーやっぱすごい。
あとこれにつけていると
ハンズフリーでいろんなことを聞けるし
いろんなことを教えてもらえるし。
あとそのディスプレイあるじゃないですか。
あそこに言ってることが出るから
結構うるさいところであれ聞こえないとかっていう問題あるじゃないですか。
それが解消されるというか。
確かに。
っていうのもあるし。
あと相手の言ってることを翻訳してくれたりとかっていう機能が。
それも一応レイバーメタも最近アップデートできるようになりましたけど
多分日本語は対応してないし
ラテン系の言語だけだったし
見えはしないんで聞こえるだけなので
なんか話してるのにここでもワーって言ってて
結構なんかアバババって。
なりそう。
やっぱ字幕じゃないけどそういう感じで。
字幕の方がやっぱ使い勝手良さそうだなと思っちゃいました。
気はしますね。
やっぱりなんやかんや小っちゃいディスプレイないよりあった方がいい。
そうですね。
ただオライオンと違うのはあれじゃないですか。
オライオンは一応ARで空間に
例えばここに貼り付けるとか。
あれがすごいですね。
VRじゃないか。
ARか。
物を動かしたりとかできるんですけど
あれは本当にただここにディスプレイがあるだけだから
宙に浮いて見えるだけで
自分が頭を動かしたらそれも全部動いてくるみたいな感じなので
そこはちょっと違うんですけど
でも安いんだろうなっていう。
安くなってくれると思いますね。
どうですかね。
デザインのパートナーが
ワービーパーカーとジェントルモンスターが発表されてて
ご存知ですか?
ジェントルモンスターは存じ上げますが
名前だけって言うとこれですね。
値段感は分からなくて。
値段は割と高くて。
レイバンと比べたら?
レイバンより高いと思います。
平均400ドルくらいだと思います。
7万くらいするんじゃないですか。
多分。
もっとハイファッションのブランドとコラボしたりとか
いろんな面白いコラボしてて
結構奇抜なデザインが有名なので
そことコラボしたらどうなっちゃうんだろうみたいな。
ただでさえユニークな機能なのに
デザインもユニークになってしまう。
かもしれない。
ヘッドセット型デバイスの印象
どうなんですかね。
レイバンとかって本当にレイバンっぽいから
パッと見分かんないですよね。
その機能があることが。
良くも悪くも。
ジェントルモンスターが考えるスマートグラスみたいな
デザインがめっちゃ気になってて。
確かに。
むしろ逆にすごく分かりやすいデザインかもしれないし。
遠くからあれじゃんみたいになるのも
それでいいかもしれない。
ファッションアイテムとして。
どうなんだろうな。
メタレイバンが流行ったの分かりにくいからな気がしますけどね。
ですかね。
普通に可愛いですからね。
あれなんか電池切れててもいいじゃんみたいな。
サングラスとしていいじゃんっていうのが
やっぱりすごい決め手というか
強い部分。
でもなんだろう。
iPhone新しいカラーが出たらみんなそれ買うじゃないですか。
やっぱり俺持ってるぜっていうのはやりたいのかもしれないですね。
分かりやすくあれは新しいやつじゃんみたいな。
確かにね。
スマートグラス持ちや。
YBパーカーっていうのはもうちょっと価格帯低くて
D2Cブランドみたいな感じになって
デザイン的にも普通にオシャレだけど
普通な感じ。
とっつきやすい感じだと思います。
ある意味守備範囲的にはいいかもしれない。
ほとんどの人が普通のやつを買うけど
ちょっと奇抜なファッションした人は
ジェントルモンスターのやつを買うかもしれない。
やっぱりそこのパートナーの豊富さは
Googleならではかもしれないですね。
AndroidXRっていうプラットフォームを持っているからこそ
どこともパートナーしてもいいっていう。
パートナーシップもその2つが今日名前出てましたけど
みんなウェルカムベースみたいな感じじゃなかったですか?
もっと募集中みたいな雰囲気を感じたんで。
そのオープンさが僕は好きなんですよね。
確かに。
あとはムーハンですね。
メガネじゃなくてヘッドセット型の。
どうでしたあれは?
試されました。
これも軽さに驚きましたね。
Apple Vision Proと似たような見た目ではあるんだけど
相当軽かったです。
多分外側にガラス使ってないんだろうなとか
筐体もメタル?アルミじゃなくてプラスチックだろうなっていう。
そんなにチープな感じじゃないですよね。
いい塩梅でした。
やっぱりこっち側から見ると
外側の部分はVision Proっぽいんだけど
後ろはメタクエストっぽくてみたいな。
そうそう。
いいとこ取りしてて。
あれやっぱりスタンダードはいいんですよね。
あとここがないじゃないですか。
下が密閉されてない。
取り外しできるんですよ。
なるほど。
付けたらもちろん密閉するけど
取ったら下が見える。
私は無い状態でデモしました。
僕が外しちゃったからその後ずっとそうなのかもしれない。
外したまま進んでいたみたいな。
可能性ありますね。
でもあれでも全然問題ないし。
むしろ歩きやすいし手元若干見えるし安全ではありますね。
軽くなるし。
あとヘッドセットの一番の問題は化粧が崩れる。
つくのが嫌なんですよ。
そこに。
だからそれが軽減されるのがめっちゃいいなと思ったんですよね。
ないのが。
女性とか化粧されてる方、そうですよね。
僕は化粧してないけどワックスは多少つけたりするんです。
そういう時に上があるとつらいんですよね。
後ろだったらまだいいかなって。
ここは気にならないんですか?
そこも気になります。
でもやっぱり頬のところよりはまだおでこが。
理想のヘッドセットってどういう感じなんですか?
やっぱりメガネ型。
メガネか。
かなぁ。
自論なんですけど、
Apple Vision Proが流行らなかったのは
多分iPadポジションだからでiPhoneではないからと思うんですよ。
手軽じゃない。
手軽なのはやっぱりメガネ。
だと思いますね。
やっぱりメガネなんですね。
メガネです。
でもAppleもメガネ用のチップ開発中みたいな噂が最近出てたんで、
そのうち来るでしょう。
来るはずですね。
そうするとまた3社全部揃うみたいな。
楽しみ。
ヘッドセットも今回3社揃うみたいな。
でもGoogleの考えてるメガネはARではないじゃないですか。
そうですね。
オーバーレイのディスプレイであって、
メタはちゃんとしっかりAR。
Appleどこ行くと思います?
多分次に出るメタのグラスはARじゃないんじゃないですか。
オライオンすぐ出ないから。
確かに。
今年出ると噂されているものはGoogleと同じような感じ。
オーバーレイ。
オーバーレイになる気がするんですけど、
Appleってそういうワンステップワンステップってあんまりやらないじゃないですか。
ホップからいきなりいく。
満を持して。
すごい遅れてきてホップみたいなのがやりがちなんで。
メタの数年後に。
メタの数年後にいきなりARとかが結構ありそうかなと。
どうですか?
そっか。
いやどうなんだろう。
Appleインテリジェンスではホップじゃなかった気がするんですよね。
確かに。
最近のAppleちょっと分からないので。
確かに。
Appleインテリジェンスどうなっちゃうのっていうのは。
てこ入れですよね。
やっぱGeminiが本当にすごくて。
会話型もそうだし、APIとしてもそうだし。
全方位的にかなり先を行っちゃってるから。
大丈夫かな。
Googleは今謝運をかけてAIやってますから。
そうだと思うんですけど。
だから一時期XR頑張らなくてよかったのかみたいなことを僕思ってたんですけど。
ユースインジュインはAIで正解だったのかなっていう気がしますね。
結局XRもAIですかね。
フォアとなってるのが。
今後のテクノロジーの競争
それが本当このGeminiグラスというのか分かんないけど。
ピクセルグラスですかね。
ピクセルグラスか。
なるほどなるほど。
かっこ仮ピクセルグラス。
やっぱそのメガネ自体の性能的なものは、
多分レイバーメーターとそんなに変わらないけど、
Geminiがすごすぎて多分体験はめっちゃいい。
メタAIもすごいんですけど、
GeminiはどうしてもGoogleの持ってる情報力。
あと他のエコシステムもあるから、
GMLと繋がるだったりとか。
アップで案内してくれるとか。
マップと繋がってるとか。
カレンダーも繋がってるし。
そう。
メタができないことは結構あるんですよね。
でもAppleは多分できる。
できる。
でも技術が今追いついてない。
外から見るとそう思っちゃいますね。
内々では。
内々ではあるかもしれない。
あったら面白いな。
いきなり全部ドーン出るかもしれないですから。
僕Appleのプライバシー重視の方針は大好きなんですよ。
そこをAppleが言ってくれることで、
他社もプライバシー大事だよねって言わざるを得なくなるので、
絶対に何とかしてほしいですね。
プライバシーを保ったのは、
性能の高いAIを作るっていう大事な使命を持ってる。
もはや。
ですよね。
Appleにしかできないこと。
確かに。
あとはショッピング結構良かったかもしれない。
ショッピング、確かに。
バーチャルトライオンも良さそうでしたし、
1枚自分の全身写真をアップすると、
ショッピングに出てきた画像を非世界人形みたいな感じでできるというので、
新技術の進化
結構ペタッとやった感じじゃなくて、
本当に着てる雰囲気の3Dな。
あれマジすごいです。
服の画像から服を切り抜いて、
もはや3Dシミュレーションみたいに伸ばしたり引き伸ばしたりして、
自分の体に。
なんて、折り目とかもちゃんとできてる。
本当に着てるような画像を作ってる。
ですよね。
さらに、ショッピングアシスタントみたいなやつで、
この価格までセールになったら勝手に買っといて。
それも食べてたわよって感じですよね、あれは。
やっと出た。
すごいですよね。
ただのセールになりましたよじゃなくて、
ここまで下げたら、
かつ、勝手に決済してから。
Google Payで。
これはGoogle Payよ。
すごい。
最高ですね。
確かに。
よくAmazonでキーパー使って、
プライス見て、
今低いのか高いのかって見た後、
決済するかしないか、人間が毎回。
人間が判断しなきゃいけない。
いやいや、株でって売りに設定できるじゃないですか。
確かに。
納得ですよ。
ね。
製品。
このせいでめっちゃお得感があるまま、
すごい散財しちゃいそうじゃないですか。
いっぱい価格設定して、
どんどん決済されちゃう。
この月だけやたらいろいろ買ってる。
めっちゃお得したとか言って。
トータルで見るとすごい金使ってる。
確かに。
その恐れもありますし、
たぶんすごい対策されるんでないと思いますけど、
この価格に設定しましたっていう時に、
その価格に一瞬水かけて、
本当の決済で実は違う金額になっちゃったりとか、
エラーが発生したらやだなっていう。
なんかコンサートチケットの、
そういうのもあるじゃないですか。
チケットマスターっていうすごい極悪なプラットフォームがあるんですけど、
あれは本当に決済押すタイミングで価格変えたりするんですよ。
それで普通に政府から怒られてるんですけど。
本当に?
本当なんですか?
そうなんですよ。
私BTSのチケットめっちゃ買うんで、
結構それでみんなアビ換給。
うわ、それはもうダイナミックプライシングどこじゃないですよね。
ダイナミックプライシングに上乗せした詐欺プライス。
プリクリックプライシングか。
えぐっ。
でもそういうのもAIでなんとか整敗してほしいですね。
してほしいですね。
うちはもうミリ単位見えないから。
人間には対応できないです。そのレベルの詐欺は。
なんかJavaScriptとか見といてみたいな。
そしたらページランク下がるとかやってほしいですね。
そうなんですよ。
いいな。その買い物をやってほしかったんだよな。
なんか買いたいもの。服とかじゃないですよね。
服を狙ってるのがあるんですか?
服っていうよりはこのガジェット。
どこでもいいからこの値段になったら買ってほしいなみたいなのが結構あるんですけど。
確かに。価格コムみたいなのが自動になってるってことですもんね。
そうですね。
確かに。
メルカリとかも含めて全部やってほしいです。
メルカリは含めないほうがいいな。
自動決済危険。
メルカリはやばいですよ。
だってAI騙しごっこなるじゃないですか。
この画像を置いとけばこの製品と思い込む。
この文章にすれば闇のプロンプトになってみたいな。
そのカメラの写真なのにカメラは含まない。
この背景にあるマット。
カメラの写真の写真かもしれない。
やばそれ。
メルカリはやめよう。
メルカリはエグいですね。
失うものがある評判のあるサイトじゃないといけない。
ヨドバシとかにしよう。
ヨドバシだったら安心。ヨドバシは安心ですね。
ヨドバシと北村カメラにしよう。
ヨドバシと北村カメラにしよう。
絶対大丈夫。
このサイトだったら自動消したらOKですよみたいな。
こっちで設定できればいいですよね。
確かに確かに。
そこまでコントロールできたらいいですね。
こういう自分の願いを伝えといたら
それが叶えてくれるAIっていうのが
多分エージェントっていう形で
これからどんどん出てくるんですけど。
買い物いい狙いどこですね。
確かに。非常にわかりやすいユースケースとして。
お金で返ってくるっていう割引率で。
すごくモチベーションが上がります。
めっちゃお得な気分になっちゃいます。
だから全部欲望はグーグルに知られていくんですよ。
この人これを欲望として設定。
これが欲しいんだって。
欲しいもののリストがどんどんどんどん出来上がっていって。
あとその割引をどれぐらいに設定してるかの
ジェミニーのオーディオ機能
データも捉えるじゃないですか。
だからそれをリテールの方に
みんなはここに設定してます情報が出て
いい塩梅のセールとかするじゃないですか。
確かに。アマゾン結構焦ってると思いますよ。これ見て。
だってアマゾンはショッピング検索の中の一つになるわけなんで
またグーグルが一個レイヤーとして入っていく領域になってますもんね。
どうするんだろうアマゾン。
シャットアウトするのかなグーグルを。
でもそろそろトラフィック減っちゃいますもんね。きっと。
あそこのプロダクトチップみたいなやつで結構トラフィックあるんじゃないですか。
どうするんだろう。
各社の戦略が色々ありますね。
ちょっと早く来てほしい機能ですね。
確かに。
あとはそんなとこですか。
一つリチャードさんと話したいと思ったのが
細かいんだけどジェミニーのオーディオ機能で
めっちゃルー語みたいに喋れるみたいな。
一つの文章の中で英語と日本語とかミックスできるやつありませんでした。
そんなにある?
あれはノートブックLMとちょっと似てる
ホットキャストみたいなやつを生成できるやつの一部なのかな。
ちょっとコンテキストがよくわからなかったんですけど
ネイティブオーディオなんとかみたいな音声を生成できるやつで
24言語に対応していて日本語にも対応してるんですけど
切り替えができるんですよ。途中で文章の。
マジですか。
ちょっとそれは怪異的ですね。
どういうユースケースなんだろうと思いつつ親近感はあるけど。
うまくいってくれるならむしろありがたいんですよね。
自分も混ぜて話し合うときもありますし
あとは今って例えば製品名に混ざってるとき
それをジェミニがうまく発音してくれないことがあるんですよ。
そこがうまくなるんだったらいいなっていう。
確かに。あれじゃないですか。私がよくあるのは
例えばAirPodsとかつけたままメッセージが来ると
iPhoneの言語設定によってどっちか読めないんですよ。英語か日本語か。
だから英語設定にしてるときに日本語のメッセージが来ると
I received a message, but I can't read it みたいな感じの読み上げが来て
でもちゃんと英語で来たら
なんとかせーずなんとかかんとかってちゃんとそのメッセージを読み上げてくる。
なので両方理解する能力は持ってるのに
ミックスができないんですよ。
だからそのジェミニのやつだったら
多分そういう状況のときにミックスできるから
自分の使ってるUIの言語と読んでるテキストの言語が違っても使えるとか
商品名が英語で入ってたりとかしたら
それちゃんと英語として読んでくれるみたいな。
あー大事ですね。
Googleアシスタントで
ちょっと古いじゃないですか。ジェミニじゃないから。
ちょっとおバカさんだから
英語をめっちゃカタカナ英語で読んでくるときがたまにあって
めっちゃある。めっちゃある。
なんだっけ。カレンダーに入ってる英語のやつとかを
Google EOみたいなカタカナを言ってくるみたいな感じ。
ローマ字ヘボン読みにしちゃうんですよね。
そうそう。ちょっと面白い。
かわいいけど。
そういうのはもっとスマートに切り替えられるかも。
あとなんかこっちの入力ですけど
英語のメッセージ打ちたいんだけど
アザブに来てとか
横浜のここ来てとかっていうときに
ヨコハマって言わないと
分かってくれないことがあるんですよ。
なるほど。ちょっと恥ずかしいみたいな。
音声入力しなきゃいいんですけど
楽だからやっちゃうんですよ。
でもテキストそういうバイリンガルの友達に書くとき
めっちゃなんかその
混ざる。
どっちかの言語にしかない言葉とかあるじゃないですか。
めんどくさいとか。
It's so めんどくさいみたいな。
お疲れ様言うと。
お疲れ様言うは言ったことないけど。
僕も初めて言ったかもしれない。
なんかそういうところで
うまく空気読んでくるかもしれないですね。
ね。だとしたら嬉しいですね。
もしかしたらですけど
通訳的な機能をするときに
2人が話してたら
その場で両方の言語を理解して
話さなきゃいけないから
そこら辺でも切ってくるのかなという気がします。
そのメガネでもそれでやってますもんね。
あとグーグルミーツでも出たじゃないですか。
あれでかいですね。
グーグルミーツがほぼ同時通訳に対応するらしいです。
英語とスペイン語まずは。
ですよね。
あれはでもビジネス向けって感じでしたけど
すぐロールアウトしそうですよね。
AIの買い物体験
グーグル結構そこら辺なんか
1年以内にすぐロールアウトしちゃうのでいいですよね。
そうだそのミーティング系で言うと
ビーム。
3D。
どうなんすかね。
僕は前身の名前何でしたっけ。
プロジェクトスターライン。
スターラインの時に試したことがあるんですよ。
私もスターラインの時もやったんですけど。
よかったです。
すごいけど結構あれって
コントロールされた環境じゃないとできない。
後ろがウロウロしてたりとかするとあんまり良くないと思います。
ちゃんとした背景があって
ちゃんとライティングがあってみたいな感じなんで
結構会議室ですよね。
そうですね。あと1人ずつしか入れない。
もちろん今回もそうかもしれないけど
ビームもそうかもしれないけど。
でも今回発表されたのは
6つのカメラ
それは多分変わらないんですよね。
それがAIで全部3D化していて
多分ラガン3Dディスプレイ
あんまり変わらない。
変わらないですね。
見てる人もアイトラッキングされて
何を表示するか変えてるみたいな感じですね。
あれがとうとう製品化されるのかっていうところですね。
そうですね。
あれ導入するのにいくらかかるかですけど
確かにめっちゃ高そう。
すごいそうですよね。
ネット速度?配線の速度?
Google I/Oの技術革新
普通のブロードバンドで大丈夫って言ってたので
大丈夫だと思うんですけど
そこら中にあってほしい気もするし
導入するメリットが
価格を上回らないところが多い気もするし
それはですね
私は導入する場所を間違ってますと思ってます。
会議室じゃない?
会議室じゃないんですよ。
オタクに向けて売ればいいんですよ。
ファンとアイドルが会うのに
ファンイベントあれでやったら
めっちゃいいじゃないですか。
全然危なくないし
3Dに感じられるし
行かなくていいし
世界各地でできる。
これですよ。
でも使う人が一人じゃないですか
これとこれだったら
これ買うと思うんですよ、先に。
個人ではあれ買えないですかね、ビームは。
イベント会場にあって
みんなが行く。一人ずつ入っていく。
分かりました。
じゃああれは多分
音とビジュアルがほぼいい感じになっている
音も多分いい感じだとしたら
あと匂いとかも対応したら
バリューが格段に上がりますね。
今の状態、どうなんだろう。
だってそんなリアルにミーティングしたいかっていうところもありますよね。
そもそも。
そうですね。
じゃあオタクだったらいいのか。
オタクは重要あると思うけど
普通の会議、しかも一対一じゃないとできないから
そうですね。
なんか社長面談みたいな。
ワンオンワン。
うん。
でも社長はどこか別のところで。
あれの良さは本当は多分
メガネな気がするな。
例えばこうなんでしょうね。
本番があるとして6つのカメラで3D造形するじゃないですか。
でもそれをデータとして受け取って
1つのカメラからその3Dを作れるかっていうのを
多分Googleの中でやると思うんですよ。
ユーザーデータから。
そしたら僕のワンカメラで3DをAIで再現できて
それがGoogleとかで見えるかどうか
Googleとかで見えるようになったらいいなっていう。
でも奇世界のやつとかちょっとそんな感じですよね。
1枚の写真から3Dやってるから。
あれ多分途中なんですよね。
映像でリアルタイムでとかってなるとまた別の次元の
コンピューティングな気がしますけど。
できそうですよね、普通に。
未来予測ということで。
そうですね。
僕が客だったらあれは待つなっていう思いがありますね。
その法人のね。
まだ全然安くなるはずなんですよね。
カメラ1個か2個だけでできるようになる。
確かに。
ビーム。
面白い。非常に面白い。
ただ途中のものだなっていう。
あったら使ってみたいですけどね、どっかに導入されたら。
そうですね。
見に行かせてください。
あと意地悪したいですね。
どのぐらい近寄ったらダメなのかとか。
確かに。デモ機ではできなかったですからね。
どこまでできるか試せなかったから。
それをここまでいっていいのかとか。
キラキラするもの持ってったら
画角が6つのカメラ全部違うように映るじゃないですか。
そういう時どういう風にレンダリングするのかなとか。
鏡をやったりとか。
そうそう鏡とか。
意地悪。
ラメとか。
あとホログラムみたいなやつとか置いて。
すごいスパンコール着てたりじゃないですか。
全身ギラギラで。
そういうことをやってみたい。
ナックルの塗料とかね。
どこのアングルから見てもただの黒い玉。
3Dに見えない。
どうするんだろう。
そういう技術の限界を試すおもちゃになっちゃいますね。
確かに。ライダーとかついてないですもんね。
ついてないはず。
カメラだけでやってるから。
確かに。
Googleの想定を超えていきたいですね。
Googleを想定を超えた意地悪を。
興味があって、ジェミニーがロボットアームを動かすデモンストレーションを試したんですけど。
お前そんなこと聞くのかみたいなのを聞こうと思って。
布とかトレイとか積み木。
積み木を布の上に置いて負けとか。
トレイをトレイの上に置けとか。
本当は積み木はトレイの中にいるはずなんですけど。
意地悪してみたんですけど。
結構イケてたんですよね。
負けました?
負けは全然しなかったんですけど。
ずっと悩んでて。
こう悩んでるロボットアームが可愛くて。
しょうがない。
次のリクエストしてやるっていう。
そういう遊ばせてくれるのがGoogleの良いところですね。
あれ日本語もイケましたよ。
イケました。僕試したらイケなかったんですよね。
一瞬他の言語わかりませんとか言いながら言ったことちゃんとやってた。
AI。
でもあれも結局ジェミニだからやっぱすごい。
そうですよね。ジェミニだからイケるのか確かに。
僕の今回のGoogleの印象は
テーマとしては多分電気の継ぎを握ろうとしてるのかなっていう気がしましたね。
今って電気で何かが動いても全然感動しないじゃないですか。
ドライヤーがとか。
今多分車が電気で動かしてもちょっとワーってなってるけど。
今唯一動くの驚くのは飛行機。
電気になったらすごいなぐらいで。
他全部電気で動いても不思議じゃないんですけど。
AIもそうなるじゃないですか。
あれがAIで賢くなってるとか。
この缶がAIでいい缶梅の味にしてくれるとか。
しばらくは驚くけどいつか当たり前じゃんってなる。
そのAIのレイヤーをGoogleは大きいシェア取りたいんだろうなっていうのが
本当に手広く全部やってますから。
検索はAIでもちろん進化するし
ロボティックスで物理的なものもやるし
ショッピングも
コーディングも
APIでありとあらゆる製品に組み込んでいっていいよっていう風に言ってるんで
毎年ですけど今年もAI本気だったなっていう気がしますね。
今後の技術と展望
ナイスまとめです。
今話してて思ったので
僕の自分の動画でも使うかもしれないですね。
いい名言出たみたいな。
ちょっと割れながら。
そうですよね本当に
ハードウェアもソフトウェアも全部AIだから
Googleが持ってる全ての面で入ってるみたいな。
そうですね。
本当楽しかったです。
ですね。
ありがとうございました。
こちらこそありがとうございました。
まとめに入ったと。
こんな感じでいいですか?
宣伝したいこととかありますか?
宣伝したいこと?
ぜひGizmodo JapanのYouTubeチャンネル
あとGizmodo Japanのウェブサイトも
ご興味あれば見ていただければと思います。
じゃあそんな感じで今回はリチャードさんに
ゲストに来ていただいて
Google I.O.のまとめって感じでしたね。
本当にありがとうございました。
ありがとうございました。
また次のイベントでお会いしましょう。
そうですね。楽しみにしております。
52:51

コメント

スクロール