2022-05-19 24:58

Google I/O 2022をだらだらとキャッチアップしていく

【雑談】話がだんだん逸れていくのもpodcastの良さの一つなのかもしれない

---

Twitterアカウント始めました!質問やコメントなど受け付けています!
https://twitter.com/trycatch_fm 

Peingを開設しました!質問や取り扱って欲しいテーマなど送っていただけると僕たちのモチベーションが爆上がりします
https://peing.net/ja/9045551273053f#question-form

See Privacy Policy at https://art19.com/privacy and California Privacy Notice at https://art19.com/privacy#do-not-sell-my-info.

00:01
みなさんこんにちは、TRY-CATCH FMです。このポッドキャストは、IBMに新卒で同期入社したエンジニアの2人が、テック、キャリア、ライフなどのカテゴリーについてより話していきます。
では、やっていきましょう。
はい、よろしくお願いします。
えー、だいぶ前、だいぶ前というかちょっと前に、なんかポッドキャスト聞いてて、えーと、これ誰が言ってたんだろうな、えーと、
ボイシーで、元マイクロソフトの中島さとしさんっていう人が、ポッドキャストがあるんだけど、
クリプト関連とか、ウェブとかの歴史の話とか、結構解説してて面白く聞いてたりするんだけど、
そこで、ポッドキャストの、なんだろう、醍醐味みたいな話をしてて、
はい。
なんかその、自分のこう、得意なジャンルとか話してると、結構やっぱ文章で書くよりも、なんだろう、熱が入っちゃって、
なんか、その収録始める前に、計画してた内容以上のことを話しちゃうみたいなことを言ってて、
あんまり、我々もそんなきっちり台本作らないじゃないですか。
テーマ決めて、例えばこの記事に沿って、記事を見ながら話すとか、こう話してこう話して落ち着けるかみたいな、
ぐらいのざっくり感が話し始めたりするじゃないですか。
だからそれは確かにそうだなと思って。
僕らも途中で予定外の、あれ、これってどうなんだろう、面白そうじゃね?って急にその場でググりながら話したりすることあるよね。
記事とか書いてると、やっぱり一回書き終わったら、もちろん最初から通して読んだりするし、
5時とかないかなとか、ちゃんと見た上で公開するじゃない。
ポッドキャストも座って細かく編集して公開する人もいるかもしれないけど、
多分、記事とかに比べるとざっくりレビューで、ざっくり編集で公開する人多いんだろうなと思ってて。
だからそれがある意味でポッドキャストの面白さというか、
例えば、AっていうトピックのポッドキャストのタイトルにグラフQLの使い心地みたいなタイトルでポッドキャストがあるとするじゃないですか。
実際聞いてみたら、グラフQLの話からどんどん発散していって、違うトピックのことも話し始めるみたいなところに出会えるっていうのは、
03:03
ひとつポッドキャストの良さだったりするのかなっていうのを聞いてちょっと思ったんだよね。
確かにね。特にこの人いろいろ知ってて面白いなーみたいな人のを聞いているときに、その人がその話題から連想するものってことだから、結構知りたいものだったりするよね。
なるほど、そう繋がるんだみたいなね。
だいぶ前のポッドキャストでちょっと1回テーマにしたけど、計画的文学性理論とかもこのタイプの話だなと思って。
そうだね。
だから、自分はこのテーマを知りたいんだと思ってそれを聞くのはいいと思うんだけど、
その先で偶然別のトピックにも遭遇するっていうのはポッドキャストの良さだと思うので、
そういう意味では、もっと我々もさらにざっくりテーマで話してみてもいいのかな。
例えば、最近仕事どうよみたいな。
それはもう伸び替えないよ。
伸び替え会話って言ってもいいかもしれないけどね。先を得りながらポッドキャストをやりますみたいな。
それも面白いと思うけどね。3ヶ月に1回くらいはね。
そうだね。僕らって基本雑談ちょっとやって本題やりますのスタイルだけど、
今日、雑談しかやらないですか?とかね。
だから、そういうのをちょっとやっていきたいので、近いうちやってみましょうか。
そうだね。お試しにいいかもしれないな。
という雑談でした。
本題の方を移るんですけど、本題の方も今日結構ざっくりしてて、
Google IEOがありましたねっていう回で、知らない人のためにGoogle IEOって何ですか?っていうと、
Googleが開催して、1年に1回かな?開催する開発者向けのカンファレンスというか、
今年はこういうリリースがありますとか、近いうちこういうものがリリースしますみたいな。
開発者向けとは言ってるけど、普通に新しいスマホとか、ハードウェアとか発表してるから、
結構リリースしない人も聞いてて楽しいような内容になってるかなと思うんだけど、
これが5月11日なんで、ちょっとネタとしては古いんですけど、
ちょっとまだちゃんと見れてなかったんでお互い。
今日はちょっとどういう発表があったかっていう、
このITメディアニュースの記事を見ながらちょっとだらだらと話していきましょうっていう回ですね。
コストで開いてるかな?
開いてますよ。
Google翻訳24カ国後追加って書いてあるけど、逆にまだそんなに残ってたんだっていう。
06:02
新たに3億人以上が使ってるだから、プラス24なんじゃない?
俺も結構ほぼ網羅されてるのかなって思ってた。
でもここに書いてある言語って、僕ら知ってる人あるか?
確かにないな。
そこの言語を使ってらっしゃる方には大変申し訳ないんだけど。
全然わかんねえ。
ルガンダがある。
ルガンダある?
うん。
オロモ。
オロモってとこだな。ミゾとかあるしな。
全然わかんない。
少数民族とかももしかしてやり始めてる?
でも3億人以上が使ってる24カ国後だから、
それぞれ1千万くらいは使ってる人いるのかな?
まあね。
小国のやつをいくつか。
そうだね。
そろそろ国連加盟国は全部やる勢いかもしれないね。
そういうことかそういうことか。
俺次のやつが結構気になってて。
Googleマップの没入型ビューっていう。
イマーシブビュー。
英語で言ってそうだね。イマーシブビューっていうやつで。
これなんか、これも別のポッドキャストで聞いたんだけどたまたま。
3Dのちっちゃい街を再現してるみたいな。
そんな感じのことを。
そういうやり方なんだ。
これってさ、今までも一応屋内紙を公開してて。
屋内紙入れるやつあったじゃん。Googleマップでも。
そうだね。
それをもうちょっといろんなところで。
しかも上空から飛び込むような見た目でできるよっていう感じかな。
多分今って、
ストリートビューを見るって言ったらもう、
上空から一気にビュンって下まで行って、
路上のとこまで行ってって感じだけど、
これはもう普通にドローンの映像みたいな感じだね。
なるほどね。シームレスによんと入れるって感じかな。
そうそうそうそう。
これすごいな。
しかも今のGoogleマップってさ、
個性って言ってみたらシームレスじゃないじゃん。
ポイントポイントがあって、
20メートル先くらいにビュンって一気に行って、
それの繰り返しで先に進んでいくみたいな感じだけど。
でもこれのイマウシブビューはすごい滑らかというか。
これめっちゃすごいな。
これ年内に世界の主要都市5都市ぐらいでやるって書いてあるんだけど、
その中に東京が入ってるんだよね。
あ、東京入ってるんだ。
入ってるんですよ。
なんで東京入れたんだろうって思ってるけど、
入れてないらしいです。
入るんじゃない?
東京、ロス、ロンドン、ニューヨーク、サンフランシスコの5箇所で年内展開開始。
面白いね。
ちょっと年内だから、もうすぐだと思うので楽しみに見ておきたいですね。
09:00
でもこれどうやって映像作ってるんだろうね。
どうなんだろうね。
今まで車で走ってた分をドローンでブワーッとやりつつ、
あとはもう屋内の画像と間を、
繋ぎ合わせてるのかな。
予測して生成するとかしてるのかもしれないね。
そういう感じだろうね。
じゃあ次いきましょうか。
次はYouTubeの自動チャプター機能と自動翻訳字幕加工場。
これひどいもん。ひどいやつはひどいもんな。
字幕はマジで当たらないからな。
これが少しマシになるんだったらいいかもしれないね。
あとGoogleドキュメントのAI要約機能。
なるほど。これはどうなんだろう。
あんま使うイメージは分からないけど。
庄大な文章の内容を、サマリーか。
サマリーか。要約か。
将来的にはGoogleチャットやGoogle Meetのテキスト化したもの?
26の自動化ですね。
お越しからのサマリーみたいな感じも将来は見込んでるらしいけど。
サマリーって結構昔からいろんな手法が提案されてはどうなんだって感じはあったけど。
IBM行ったときそれやろうとしてたわ。結局うまくいかなかったけど。
単語の重要度とか文章単位で区切ってとかいろいろあったけど原始的なやり方だとね。
どこまでいけてるんだろうね。今このサマリーとかって。
ちょっとやってみようかな。
自然言語だから日本語をとりあえず入れてみてうまくサマリーかどうかだからちょっとパッとやってみるのはありだな。
次がGoogle Meetの新機能で顔の明るさ調節したり、ピクセルシリーズのポートレートライト機能のように光源の位置を人工的に変えることで顔に光を当てたりできるようになる。
たまにめっちゃ暗い人いるもんな。ミーティングで。
そうだね。光源が真上にあるとかちょっと顔の後ろにあるとかになるとめっちゃ暗くなっちゃうからそういうのはいいかもしれないね。
次がGoogle検索のマルチ検索にNear Meとシーン探索。これどういうことですか?
Near Meはね、ケバブ食いたいとかやった時にNear Meってやると近くのケバブのお店とかが出るっぽい。
でもそれって前からあるでしょ。近くのケバブ屋さんとかって検索したら。
今Googleマップを表示して表示してる段階で検索するとその範囲内で検索してくれる機能は今デフォであると思うんだけど、それとまた違うのかな。
シーン探索。
はいはいはい。これGoogleマップを最初からやるんじゃなくてGoogleレンズとかその画像の段階で画像を見ながらNear Meってやると地図で出してくれる。
なるほどね。なるほど。
シーンエクスプロレーションは?
シーンエクスプロレーションは複数のオブジェクトの情報を表示する。
デモではスーパーの店頭に並ぶキャンディーバーをGoogleレンズで表示するとレビューの点数やカロリーなどをARで。
12:00
なるほどね。
Amazonの検索結果を見るようにコンビニの棚とかでどのあいつのレビューが高いかなってGoogleレンズで映しながら見れる。
でもこのレビューの情報ってどこから取ってきてんの?Google持ってないでしょ。
Amazonとかどっか契約したやつなんじゃない?
そういうことか。そしたら本とかもいけるってことよね。
そうだね。パッケージの画像が登録されてればいけるんじゃない?
なるほど。それが便利だね。
例えば本屋さんで機械学習の本がバーって並んでて、どれ買えばいいんだろうってなった時にこれレンズで映して、あ、これかみたいな。これレビュー高そうだなみたいな。
わかりそう。
次がHey Google。Hey Googleと言わなくて済む2つの方法。Hey Googleって言ったことないけどな。
僕らで言うOK Googleは向こうはHey Googleなんかね。
そうなのか。なるほど。
カメラ付きのスマートスピーカーじゃないけど、Nest Hub Maxっていうカメラが付いてるスマートスピーカーみたいなのがあって、それを見つめて目を合わせて、問いかけたら喋りかけたら反応してくれるっていう感じなのか。
なるほど。
端末をただ見るだけでなく、アイコンタクトを取ろうとしないと起動しない。
どういうこと?
アイコンタクトと見るって何が違うんだ?
意味ありげな視線を向ければいいのかな。難しいな。コミュニケーション能力を求められている。
なるほど。
ある程度ね、人がこっち向いてるかどうかとかはGoogleの技術力なら簡単に落ち着ける可能なので、それプラス命令ワードがくればやるよっていうのは簡単だと思うからいいんじゃないですかね。
次、ラムダ2とパルム。ごめん、よく分かってないなこれ。
自然な会話を実現するための言語モデルラムダが2になり、あともう一つの言語モデルパルムも紹介された。
これラムダはあれなんだね。多分いろんなところで使ってるんだと思うんだけど、Hey Googleってやったときの応答だとかね。
テストキッチンツールで最初のフレーズを入力してオリジナルストーリーを構築させたりとかって書いてあるから、そういう質問の応答の他にも知ってる人どれくらいいるんだろう。
AIノベリストっていうのが一時期技になったんだけど知ってる?
いや分かんない。
途中まで文章を書いて入ってノベリストに渡すと残りの文章を書いてくれるっていう小説を書くAIみたいなのが一時期流行ったんだけど、それみたいなのにも使えるよって言ってるねここでは。
15:01
だからそういう自然な続きとか、構文も今まで前提を置いてそこに続く自然な文章を作ったりみたいなためのモデルがラムダらしい。
それがアップデートされたっていう話か。
そうだね、受け答えがスムーズになるんだねきっと。
もう一つのPalmは何だい?
Palmも言語モデルでChain of Thoughtを促して思考プロセスを段階的に辿れるため、従来の言語モデルよりも精度の高い結果を表示できるという。
いやーよく分からんな。専門じゃない?
連想ゲーム的なことなのか、内容もちょっとあれなのかな?
一つの単語とかじゃなくて、それが欲しいと思うに至った途中の情報とかまで入力するといい検索結果出してくれるとかそういうやつなのかな?
でもChain of Thought Fromptingっていう画像が出てる。
あるねあるね。
クイズを出されて、それの回答に対する、
その回答にたどり着くまでの思考プロセスまで構築できるっていうことか?
そうだね。小学校の文章大みたいなことぐらいはできるようになりますよっていうのが見て取れるね。
ボールがいくつあって、そのうちいくつは誰の例みたいな。
あとは1日は24時間で、31日あるから1ヶ月は何時間ですよみたいな。
文章大みたいなことまでは結構できるようになってきてるよみたいな感じらしいですね。
セキュリティ関連だとパスワード不要の未来へ。
端末やプラットフォームをサインできるようにする。
Google IOでもAndroid端末を利用する2段階。
二要素認証の救助キャラ説明した。
これよく言ってること以降わからんな。
パスワード不要の未来へ。パスワードなくログインできる。
二要素認証ってんだから、登録してるスマホとかがあるときにPCから何かに入ろうとしたら、
これスマホで認証してねって言われてスマホでピッって指紋かなんか認証するとパスワード入れなくても。
そういうことなんだろうねきっと。
割と今までもあったと思うけど、それをApple、Microsoftとともにガンガン押して進めていこうねって感じらしい。
あとこの次のやつ結構Twitterでも話題になってたよね。
Viziaマスターカードのバーチャルカード。
バーチャルカードね。やっぱ今後は結構来るのかな。
あとは個人情報を使わず最適な広告を表示するために。
18:01
こことかGoogleにとってはめっちゃ重要でしょうな。
そうだね。極力使わずにね。
年内にマイアドセンターを立ち上げる。
そこでは検索やYouTubeなどで表示される広告のカテゴリーなどを簡単に設定できる。
自分で見たい広告を選べと。
なるほど。
今まで一番最初にこれをやってもまだだったと思うんだよ。
なんで広告を選べってなったと思うんだけど、みんなもううんざりしてるんだよきっと。
ここまで来ると選べるのが価値になるんだなっていう。
言ったらだけどマッチポンプみたいなね。なんだそれっていう感じのやつがあるんだけど。
まあまあまあ価値はあるんじゃないですかね。
アンドロイド13の新規のGoogleウォレットが出ると。
AndroidだけでなくWearOS、スマートウォッチでも利用できる。
GoogleもそういうPixelウォッチっていうのを出す予定があるから。
これも合わせてGoogleアイドルが発表されてるけど、それに搭載する予定って書いてあるね。
Googleウォレット。
クレジットカード、プリペイドカード、交通ICカードくらいまでだったらさ、今GooglePayとあんま変わんないんだよね。
だから運転免許証とか、身分証明書とかも使えるのがでかいのかな。
まずはアメリカって書いてあるけどね。
あとPixelが2つ出ますよ。6、8、7。
そうだね。6では結構安いっぽいね。6が7万いくらだったのが5万ちょいで買えるみたいな。
これ良かったら、今iPhone11だけど買い替える可能性全然あるな。5万円くらいだったら。
割とAndroidへの対応は、それはPixelが良いだろうしなっていうのがあるしね。
未だに僕はPixel 3を使ってるわけだけど。
Pixel 3すごいな。でもAndroidの中だったら結構このPixelシリーズ。
うん。だって対応は一番最初に行われるぐらいでしょ。OSのアップデートとか来ても。
だから良いんじゃないですかね。安定してると思うよ。
プレゼンスを高まってきたというか。
Androidも結構あるけど、その中のPixelは強くなってきてるなって感じはある。
そうだね。ちゃんとProとかハイエンドも出してるから。iPhoneと同じ感じの。
もうちょっと違う層に向けてのやつを狙ってるんじゃないかなっていう感じだよね。
あとはPixel Buds。ワイヤレスイヤホンですね。これのProが出るよと。
これもAirPodsか。やべ、触れてます。
21:05
それに対抗してるというか同じような感じで来てるかな。
そうですね。Apple製品のラインナップを網羅しようとしてるよね。次のPixelタブレットもそうだし。
WATCHが先じゃない?
そうだね。WATCHがあるね。
WATCHなぁ、デザインどうなんじゃこれって感じあるけどな。
これちょっと丸い感じのやつね。
僕はこれあんまかなっていう感じ。
俺もデザインとしてはあんま好きじゃないかな丸型。
普通の金属製の腕時計だったらいいんだけど、デジタル系でもあれはなっていうのはちょっとあるな。
あとUIもちょっと気になるね。
そうだね。
また価格とかね。
今MiiBandいい感じに使ってるから価格次第かな。
アプリが不具合出てるけどMiiBand最近。僕の方はね。
直ればそれで十分かなって感じがまだしてるので。
今後コーツ系ICとかが簡単に使えるとか、Pixelとのマッチがめちゃめちゃいいとかね。
なんかすらあれば考えるかもしれない。
あとはタブレットね。
インデックスタブレットね。
あとARメガネ。これもね結構気になる。
そうだね。ARメガネはかなり。
最近ちょっとなんかいいのあったら買いたいなと思ってチラチラ探してるぐらいだから。
そうだね。
これワンチャン前もARメガネの回でも言ってたけど、ディスプレイとしてサブディスプレイ。
それ最高ですよ。
絶対にいいと思うんだよな。
なんかディスプレイ機能もし仮に入ってるんだとしたら、グレグレメガネでしょ。
どれくらい出していいかな。10万くらい出せるかも。
ハイエンドだったらワンチャン出してもいいわ。
めっちゃいい体験できるなら。
スマホとかタブレットとかなんかに接続して外付けのキーボード持ってってさ。
そうだね。
ディスプレイもないのにキーボードかかってるヤベヤツに。
最高だな。めっちゃかっこいい。
絶対気持ち悪いわ。
でもね、コンディションはすげえ楽しいと思うから。
僕はやりたいなって思うよ。
そうだね。
こんな感じですね。ひと通りざっと眺めてみましたけど。
ちょっと飛ばしちゃったけど最後の方で。
タブレットって、僕は最近もうタブレットでゲームを全然やらないから分かってないんだけど、
僕がタブレットでゲームをやりたかった何年前だろう?3,4年前?4年前くらいかな?
までって全然アンドロイドのハイエンドタブレットってなさすぎて
iPadを買うしかなかったんだよね。そこそこのスペックでゲームをやろうと思ったら。
今って出てるのかな?もしかしてこれが何でも出てなかったハイエンドアンドロイドタブレットってするのかな?
24:03
どうなんだろうね。もしそうなったら結構人気が出るかもしれないな。
なるほど。
でも今回も結構面白いというか、妄想のできる発表がたくさんありましたね。
使ってみたりとかは結構あったから、年内にいろいろ出てくるっぽいのでチラチラ試してみたいですね。
ちょっと個別でもね、例えばリリースされて使ってみたら使ってみたみたいな感じでやってみたいですね。
じゃあ終わりますか。
はい。
ではこんな感じでですね、週2回のペースで配信しているので、
Apple PodcastもしくはSpotifyでお聞きの方はぜひフォローお願いします。
Twitterアカウントの方もあるので、こちらもぜひフォローお願いします。
質問コメントなど随時つけています。
では今回も聞いていただきありがとうございました。
ありがとうございました。またね。
24:58

コメント

スクロール