1. Off Topic // オフトピック
  2. #177 Threadsという実証実験?..
2023-08-17 1:16:14

#177 Threadsという実証実験?メタが目指す未来

【Sponsored by NordVPN】

NordVPNの特別割引はこちらから ➼ ⁠https://nordvpn.com/offtopicjp⁠ 30日間の返金保証をご用意しているため、リスクなしでお試しいただけます!


◎今週のトピック

開発者コミュニティに貢献するメタ/ オープンソースの基盤インフラ / 世界とインタラクションする / 同じことを批判してるAppleとメタ / 「プレゼンス」 / 記憶を辿るタイムトラベル感 / 空間に合わせた音 / リアルタイム性 / M1とR1..(小声)チップの凄さ / コンテンツクリエイターが少ない / クリエイターをどう増やすか / ユーティリティとエンタメ / Threadsという実証実験? / ソーシャルグラフ as Service / メタバースを時間と場所視点で考える / VR上で普通のことしてもつまらない / 長期的な成長に期待 / 人口25%に普及するまでにかかる時間 / マークさんはいつからメタバースを考え始めたんだろう? / 次深掘りたい会社 /


◎参照リンク

https://offtopicjp.notion.site/177-883e1dddcf3e44ed89533c04c64e299b?pvs=4


<Off Topic // オフトピック 情報>

Podcast:

Apple - https://apple.co/2UZCQwz

Spotify - https://spoti.fi/2JakzKm


Twitter - https://twitter.com/OffTopicJP

Instagram - https://www.instagram.com/offtopicjp

note - https://note.com/offtopic


草野ミキ:

https://twitter.com/mikikusano

https://www.instagram.com/mikikusano


宮武テツロー:

https://twitter.com/tmiyatake1

00:06
みなさん、こんにちは。草野美希です。
宮手偉哲郎です。
Off Topicは、アメリカを中心に最新テックニュースやスタートアップ、ビジネス情報を緩く深掘りしながらご紹介する番組です。
今回のトピックは、メタのメタバース戦略について話していきたいと思います。
はい、メタ、メタ。
そうですね。これは前回に引き続きっていう感じですけど。
メタの最後におそらくなりますと。ちょっと長すぎたらカットするんですけど。
今日は、メタのメタバー戦略について話していくんですけど、前回はもうちょっとデバイス系の話をしたと思うんですけど、
やっぱりバーチャル世界、バーチャル空間はVRヘッドセットを別に必要としてないので、
VRヘッドセット以外の話ももちろんしないといけないっていうところで、
特にメタはこのメタバースのストラクチャーをどう考えているかとか、
そこに対してどういう思いを持っているかとか、何を重要視しているのかっていう話をしていく中で、
オープンvsクローズドとかパーソナルvsソーシャルとかプレゼンスの話とか、
そういう話をしてからメタがどういう形でメタバース展開をしていくのかっていう話をして、
最後にメタバース全体の話をしてクローズするっていう感じでいきたいなと思います。
はい、じゃあ、まずはじめにメタとしてはメタバースを3つの大きなレイヤーとして見ていますと、
これは過去のメタのメンバーがブログでも書いていることなので、それを読めばいいんですけど、
まず基盤レイヤーがありますと、ここがいわゆるハードウェアとかプロトコルとかスタンダードですよね。
次にプラットフォームとかネットワークのレイヤーがあって、最後に体験っていう大まかに言うと3つのレイヤーがあるんですけど、
多くの人はやっぱりメタを見るとそのホライゾンワールドとか、今ですとSNSアプリとかを出しているので、
その体験レイヤーに結構強化しているのかなって思いがちなんですけど、
実はより最初の2つのレイヤーを強調しているというところで、
この3つのレイヤーを全てメタはいろいろ取り組み合っているんですけど、
結構一つ共通のテーマとしてあるのが相互運用性の話をメタはすごいしていて、
その各レイヤーごとにその相互運用性っていうのが重要っていう話をしてたんですけど、
実際にオフトピックでも去年の5月とかですかね、
03:03
にこのメタバース内での相互運用性の重要性と課題について話したと思うんですけど、
いまだにその課題解決のソリューションが残念ながら見当たってないっていう。
ここの空間をまたぐときにどういうルール付けをするのかとか、
そこのスタンダードとかプロトコルとかどうするのかっていう話は、
なんとなく技術があったりするんですけど、
例えばブロックチェーンの技術とか、
ただそこの実態として成り立つためにはいろんなハードルがあって、
これは去年の5月のポッドキャストを聞いてもらえば分かるんですけど、
まだちょっと解決策がいろいろないっていうところで、
ただメタとしてはここのこういうところを解決するための
メタバースチームを作っているというところなんですけど、
このまず1個目のレイヤー、基盤レイヤーでいくと、
もちろんデバイスはメタを作っていますと、
ただそれ以外にスタンダードとかプロトコルもいろいろ作ってるんですよね。
スタンダードとかって例えばインターネット上ですと、
例えばHTMLとか、いわゆる開発者が簡単に開発できるようなものを、
基盤のツールですよね。
ツールとか言語とか出してたりとかするんですけど、
このHTMLも実はすごい面白い考えの中で作られたものなんですけど、
そういうものもあれば、ハードウェアのスタンダードとかでいきますと、
USBポートとか、複数のデバイスをつなげ合わせるような形を取ったりとか、
そういうのがありますし、あと例えばGIFとかあるじゃないですか。
GIFともいうやつですか。
そうですね、どっちなのかっていう話ですよね。
画像のスタンダードですけど、
実は1980年代くらいまで各コンピューター会社、
コンピューターを製造してる会社が自社の言語を出していて、
いわゆる画像を表示する言語を個別で作ってたんですよ。
そうなった時に何が起きたかというと、
違うブランドのパソコンと画像共有がすごい難しかったっていう。
それを解決するために1987年にコンピューサーブのあるエンジニアが、
GIF、どっちなのかわかんないですけど、
っていうユニバーサル画像共有言語を作ったっていうところで。
こういうようなスタンダードとかプロトコルっていうのが重要になっていて、
今までのオープンインターネットと呼ばれるものではすごい重要なイノベーションでしたと。
06:04
JPEGとかPINGとかMP3みたいなのもそういう言語になると。
そうですね。まさにそういうところがいろんなデバイスが使える、
対応できるっていうところですとすごい重要なプロトコルですと。
その中でやっぱりGoogleも、Googleで数ヶ月前に、
オープンAIとかBirdがオープンソースのAIシステムに負けるんじゃないかという話を、
っていう社内の論文を出していたんですけど、
それこそメタのラマっていうAI言語モデルとかも完全オープンソースにしてますし、
メタは実はそういうところに結構投資を、
先週もちょっとやりましたけど、
このオープンなことをどんどんやっていきたいと言ってますと。
オープンソースにするかクローズドでやるかっていうのは、
インターネットの初期からすごい議論されてることで、
それこそインターネット自体もクローズドなのかオープンなのかっていう戦いが昔行われていて、
それこそサンマイクロシステムという会社がソラリスとJavaを作っていて、
マイクロソフトはWindows ASPを作っていて、
結果的に独自インフラを作っている会社は負けて、
結局オープンソースのLinuxとApacheが勝ったので、
結局今のインターネットは基本的にLinuxがすごいベースとしてあるんですけど、
だからこのオープンソースっていうのが基本的に多くの人たちを集めて、
一つのプロジェクトに向けてより普及しやすいものを考えたときに、
実はメタってこういうベーシックなインフラを作る実績がありますと、
例えばリアクトっていうウェブとかモバイルアプリを作るフレームワークもそうですし、
あとPyTorchっていうこれは機械学習のフレームワークなんですけど、
ここに関してはもっとすごくて、
もともとメタが作ったものなんですけど、
もうメタが持ってないんですよ。
Linuxにオーナーシップを移行して、
ちなみに例えばChatGPTってPyTorchで開発されたりとか、
Googleのシステム以外の人たちは大体PyTorchとか使ってるんですけど、
特にAI関連のものとかは。
それくらいメタって実はいろんな意味で開発者コミュニティとかに貢献はしていますと。
09:02
それ以外にも、例えばこのAI関連でいくと、
先々週ですかね、いろんなAIモデルとかを提供してるっていう話もしたんですけど、
数ヶ月前にMassively Multilingual Speech、MMSっていうAIモデルを出していて、
これはテキストから言語と言語からテキストを、いわゆる翻訳のAIを出していて、
これもオープンソースで出していますと。
なんで、いろんな意味でこのオープンソースの基盤インフラを提供しています。
あんまり気づかない。開発者の方はFacebookすごいなってなってるんですかね。
あんまり気づかなかったでした。
そうですね。特に最近より気づく方が増えたのかなと思うんですけど、
それはやっぱりAIモデルを結構多くのオープンソースのモデルを出してるかなっていうところですかね。
そこで確かに気づきました。
そうですよね。僕もそこでようやくメタって結構やってるんだっていうのを思ったので、
でも実は過去にある歴史の中からやっていたところなんですけど、
そういう基盤のインフラはそういうところをやっていて、
もう一つメタとして多分メタバース内で重要視しているのが、
どういう形でメタバースのポジショニングを取るかっていうところで、
ここが結構Appleとの違いがあって、先週もちょっとこの話はしたんですけど、
AppleはやっぱりパーソナルコンピューティングデバイスとしてVision Proを出していて、
メタに関してはQuestをソーシャルプロダクトとして出していますと。
なのでAppleに関しては、ユーザーが世界とインタラクションするためのツール。
なので本当にパソコンのリプレイスみたいな感じですよね。
なのでAppleからすると他人とか他の人が関わるかもしれないですし、
関わらないかもしれないですと。
でもメタに関しては人と人のインタラクション。
そこを強調したテクノロジーなので、
なのでやっぱりそういう意味だと作るプロダクトも違いますし、
そういう考え方とかも違うんですけど、
個人的にすごいAppleとメタのいろんな発言を見ていて面白いと思ったのが、
両者とも相手を若干同じことで批判していて、
自分たちはそうではないって言い切ってるんですけど、
お互いのデバイスは孤独さがより生まれるっていう発言をしてても、
完全に違うアプローチからの発言で。
どういうアプローチなんですか?
12:00
メタからするとソーシャルな機能とか、デジタル上でいろんな人とつながる。
それが重要だっていうのを推してるんですよね。
それも確かに。
Appleからするとそうではないですと。
フィジカル上で周りの人とインタラクションするのが大事ですよねと。
それも確かに。
Appleは確かに違います。
ちょっと違いますよね。
Appleに関してはVRヘッドセットを結構批判していて、
VRヘッドセットをつけると、誰かが後ろから肩を叩いた時に何が起きたかわからなくなるみたいな。
めちゃくちゃ驚いてしまうっていう、その体験がすごい嫌っていうのを言ってたり。
へー。
なのでやっぱりAppleからすると、ビジョンプロの場合ですと、
画面、VR的なイマーシブな体験をしてても、誰かが自分を見た時にその人の顔が出てくるようになってるとか。
そこはやっぱりすごい重要で。
Appleが言ってたのは、違う場所に連れて行きたくないですと、そのビジョンプロを使って。
今の世界に追加をしたいですと。
思想は確かに違います。
そうですね。そこは結構大きな違いがあって。
でも面白いのが、両者とも孤独さは自分たちのデバイスによって生まれないっていう話をしているのと、
両者ともプレゼンスっていう言葉をすごい大事にしてるんですよね。
おー、プレゼンス。
このプレゼンスは、それこそマークさんがメタに社名変更した時にもすごい話してはいたんですけど、
相手が本当にいるような、本当にいるかのようなことを感じれるのかっていうところがすごい重要なところで、
それこそAppleに関してはビジョンプロ以外にもいろんなプレゼンスを高めるような機能とかデバイスを出しているんですけど、
最近AppleのAirPodsとかも会話を認知する機能を付け加えていて、
AppleのAirPodsってノイズキャンセルと、あと英語だとTransparency Modeって言うんですけど、
いわゆるそのより回りが聞こえる。
日本語も多分そうだった。
その2つのモードがあるじゃないですか。
今後のAppleのAirPods Proは、これはちょっとユーザー自らそれをオンにしないといけないのかわからないですけど、
誰かが自分に喋りかけた時に自動的にノイズキャンセルが削減される。より回りが聞こえるようになるとか。
15:01
それ便利。そんなことになってるんですか。
そういう機能を追加する。もしくは音楽のボリュームを下げるとか。
もうAppleがそれ追加するよって言ってるんですか。楽しみ。
それも結局その場にいるような、その場をしっかり理解して、それによってちゃんと体験を提供するっていうのをやってるんですけど。
まずちょっとAppleの話をしてからメタの話もするんですけど、Appleに関してはこのプレゼンスを高めるためのいろんなことをやっていて、
例えばVision Proにした時に空間画像と空間動画。
を出してたんですけど、AppleのVision Proのデモの中で、大画面上で何か映画を見る。
そういう体験を出してたんですけど、それは普通のフラットな画面で見てるっていう感じで、本当に映画館のような感じなんですけど。
もう一つこの空間動画と空間画像っていうのを出していて、これデモではその誕生日のシーンだったんですけど。
実はなんかフラットな画面じゃないんですよ。
ちょっと、周りが濁った感じになっていて、さらに奥行きがちょっとある。
混じってますね、リアルと確かに。
そうなんですよ。で、なんかちょっと記憶っぽい風に見えたりとか、なんかちょっと夢のような感じに見えるっていうのがすごい重要で。
これ3Dの画像だったり動画なので、だからこそできることなんですけど、なんかそういうのをやったりとか。
あとなんかもう一つ、例えば映画で、なんか3Dの画像とか映画とかを見ているときに、画面の前に手を挙げると自分の手って消えるじゃないですか。
もう目を追いかぶさる系の手橋だったら。
はい。でも、Appleですと手がちゃんと目の前に現れるようになってたりとか。
なんかこういう、なんですかね、なんかそのその場をしっかり自分の動きをしっかり理解して、なんか手を挙げたい場合ももちろんあったりするので、なんかそれをなんかうまく表現しているのかなっていうのは思いますね。
リアルと混ざっていく感じみたいなのは、体験してみたいですね。
体験してみたいですよね。なんか残念ながらまだiPhoneとかではその3D画像とか3D動画って撮れなくて、今Vision Proのヘッドセットでしか撮れないんですよ。
でもなんかこれ、この、あの体験を実際感じた人たちで、何人か共通で言ってて、すごい面白い表現の仕方だったなと思ったのは、タイムトラベルのような体験システムAppleを提供しているっていうふうに言っていて。
18:23
へー、どういうことですか。
なんでそのVision Proで例えば自分の子供の誕生日会を撮ったときに、本当にその場にいたような感じで再現ができる。
へー。
これってやっぱりそのプレゼンスに関してはすごい重要なポイントで、やっぱりどうしても写真を見るのとその場でいるのってすごい違うじゃないですか。もちろんですけど。
もちろん。
なんで本当にその場にいたかのような感覚になるっていうのは、なんか今までなかった体験かなっていうのを思いますよね。
将来的にはこれもiPhoneでもできるようになるのかなっていう、その画像とか写真を3D画像とか撮るのは。
あー。
場合によっては、なんか誕生日会とかって複数人がスマホ出して記録するじゃないですか。
うーん。
なんかそれによって複数のアングルから、あの、その現場を捉えて、それをスティッチングして、それでその現場をより再現できるようになったりとか。
もうあの、誕生日会後ろからは私が撮りますって、前からは私が撮りますって。
そうですね。
確かにそれは、なんか本当になんていうか、いずれは何でもできるのかもしれないんですけど、なんか本当に撮っておきたい、結婚式とか、なんかそういうイベントはめちゃくちゃなんか、振り返る、確かにその記憶、タイムトラベルみたいな保存の仕方めちゃくちゃでき、なんか夢ありますね、そう考えると。
なんでなんかSF映画とかがよくそういうなんか再現するみたいななんかバーチャル空間とかありますけど、なんか本当にそういう、まあもちろんそこまでは全然至らないですけど、でも本当にそれに近づいているような形が出てきているので、それってやっぱりなんかすごい本当にその場にいたからような感覚になる。
で、やっぱりそのそれ以外にもやっぱりミーティングとかするときも、これはメタもすごい強調しているんですけど、やっぱりZoom上ですと、やっぱりどうしても本当になんかその場にいた感じはしない。やっぱりZoomはZoomっていう、なんかそういうのがあるので、やっぱりそのVision Proもメタに関してもやっぱりそのアバターでしたり、その3DのPersonaみたいなものを出して、よりその人と本当に話しているかのようなその体験をとっている。
っていうのが重要になっていると。
ZoomはZoomですよね。
そうですよね。
やっぱり。
ちょっと違いますよね。
21:00
見るコンテンツとしてもやっぱZoom、面白さって少しなくなっちゃうし。
なんか、そうですよね。Zoom飲みみたいなのも前ありましたけど。
ありましたね。
なんか、違いますもんね。
で、なんかやっぱり、特にパソコン上でやり取りをすると、目線の問題とかあるじゃないですか。
その人の顔を見るにはカメラ目線になれないっていう。
そこら辺はやっぱり大きいので。
ただ、それをバーチャル空間上でどう再現するかって、実はすごい難しいんですよね。
本当にリアルで話しているかのような再現をするには。
なんか単純にその人の3Dアバターを置いて、それで音声をイヤホンに流すっていうだけではできないんですよ。
Appleのその空間ビデオ、3D動画みたいなのでできたらいいなと思いましたけど、できないのかな。
そこがAppleはすごい考えてやってるんですよ。
なんで、例えばなんですけど、僕と草野さんがテーブル越しで対面で話してますと。
ただ、草野さんが僕の、僕が見てるところからちょっと右側に座ったとするじゃないですか。
完全に対面ではなくて、ちょっと右側に座ってる。
その場合にどういうふうにその会話とか、音とか目線とかそういうのをどう合わせるかっていうのって、すごい技術的なハードルが高くて。
なんで、ちょっと右側に草野さんがいるので、右側の音声を、右側の耳に入ってくる音声をちょっと音を大きくするっていうのがまずありますよね。
別々の場所にいたら、最初の定位置が真ん前とかにできないんですかね。
でも、今後はいろんな見合いでも、例えば3人前にいたら、一人ちょっと右側に座る可能性ってあるじゃないですか。
空間感がないですもんね。
そうですよね。
確かに。
なんで、そうすると右側をちょっと音量上げ、ほんとちょっとだけですけど、ちょっと音を上げるのがまずあります。
でも、それだけだと足りないんですよね。
やっぱりイヤホンで話してるのとリアルで話してるのって音って違うじゃないですか。
なんで、それをイヤホンで聞いてるのに本当に会話してる音声をどう再現するのかっていうところで言うと、まず音量をちょっと上げます。
24:04
プラス、右側から話しているので、左耳に届く時間がちょっと遅れるので、それも再現します。
さらに言うと、やっぱり一番なのは、周りの壁とかから音って跳ね返るじゃないですか。
それによってエコーとかそういうのが全部変わってくるので、その空間に合わせた音っていうのを出さないといけないんですよね。
アップルはこれを実はその技術を持っていて、これを音声レイトレーシングっていうんですけど、周りの空間を彼らがモデルをレンダリングして、それでどういうふうに音が跳ね返るのかっていうのを全部計算して。
マイクの入力技術ってことですか?
マイクの入力、出力のほうかな。
出力されたときにその空間が再現できてるかってこと?
はい。いわゆる、例えば音って壁に反射したりするじゃないですか。
はい。
例えば、すごい長い廊下ですとちょっとエコーしたりするじゃないですか。
それをどう再現するかなんですね。
うーん。
で、それってその空間をしっかり理解して、その中で実際それを再現するっていう。
なので、実際アップルはそういうのをやってたりとか。
すごい。
あとはその、アップルのビジョンプロは、アイサイトディスプレイっていうのがあるんですけど。
はい。
ビジョンプロの、前から見るとその人の目が見える。
うーん。
これ実際まだデモした人たちは使えてないんですけど。
ただこれを一つのディスプレイでただ自分、その人の目を映しただけだと、
なんか横から見たりとかちょっと斜めから見ると、なんか変に見えちゃうんですよね。
つけてる人を外から見たときってこと?
そうですね。
あー。
なんかちゃんとアイコンタクト取れてなかったりとか。
確かに横から見たらどういうふうに目が出てるのか。
アイコンタクトどうやって取るのかっていうところになるじゃないですか。
脳すっごい伸びてこう横みたいな。
そうですね。なんか変にしか見えないですよね。
なのでアップルは何をやったかというと、レンチキラーレンズっていうのを使っていて、このディスプレイに。
はい。
実は彼らのこのディスプレイって複数のレンズがあって。
27:04
はい。
で、そのアングルによって違うレンズを人が見るので。
しかも曲がってるレンズなので。
それによってそのどのアングルから見てもちゃんとアイコンタクト取れるような形をしていますと。
へー。
しかもこのVision Proは実際にそのユーザーの目をスキャン、ずっとモニタリングしてるので、本当にまばたきしたときはまばたきしますしディスプレイ上。
へー。
なんかこれってアップルが出すまでは多分誰もやったことなくて、これを見るとこういうのをやるの当たり前だよねって多分言う人って出てくるんですけど。
やっぱりそれを今まで誰もやってこなかったっていうのが、なんかアップルの凄さでもあるかなって思いますよね。
どうなるんですかね。それがもう一般普及したら。
うん。
未来っていうか今と全然違くなりそうですね。
うーん。なんかAR上でもしっかりそのプレゼンスを作れるような形になるっていうのは一つ面白いですし。
なんかやっぱりVision Proの一つの凄さは、さっき話したその音声の話とか、さっき話したその目のディスプレイとかを可能にするためにはやっぱチップが必要で。
はい。
メタもここは凄い最近マイクロソフトの経営者を採用してチップ戦略をもう一回作り直したりとか、自社でチップ開発したりとかしていて。
で、メタに関してはそのAIだけではなくてARのためにもチップを開発しているんですけど、やっぱりなんかこのメタバース空間でのそのリアルタイム性が求められるので。
特にこのプレゼンスとか。
ちょっと相手のリアクションが、本当はリアクションリアルタイムでやっているのに、なんかアバターのリアクションがちょっと遅れたりするとやっぱ違和感って出るじゃないですか。
うーん。テレビの中継とかでも普通にありますもんね。今も。
そうですよね。なんでそれをいかにもそういうのをなくす、そのラグをなくすっていうのがAppleが結構やってきたことで。
メタの話ですよね、今回。
そうですよね。Appleの話ばっかりしてるんですけど。
Appleの凄さを感じても、Vision Pro触りたすぎるんですけど。
そうなんですね。Vision Proはいろんな意味ですごいんで。
なんかVision Proに実は2つのチップが含まれているんですけど、1つがM2チップってこれは実際パソコンでも使われるチップですよね。
Appleの。
30:00
もう1つがR1チップっていう、このVision Proのために作ったチップ。
M1とR1。
このR1チップは何を可能にするかというと、リアルタイムコンピューティングを可能にしているっていうところで、これって凄い重要なポイントで、VRとかAR上とかでやっぱどうしてもディスプレイ、物が表示されるのと自分が動く時にラグが起きちゃうんですよね。
で、その対応可能なラグが12ミリ秒なんですよ。
で、それを超えてしまうとちょっとめまいがしたりとか、ちょっと気分が悪くなったりとか、よくVRで気分悪くなるっていう人いるじゃないですか。
そうやって一部の理由は、やっぱりその自分が体を動いているのに、その同じ動きがちょっと遅れて表示されてたりするので、なんか違和感をすごい感じてしまう。
で、そのリミットが12ミリ秒なんですよ。
で、Appleの凄さって、特にこのパススルー技術とかAR技術の中で、パススルー技術って、ただ周りを普通に見えるのではなくて、ディスプレイ上で見てるんですよね、ユーザーは。
なので、Appleがカメラ、外部カメラがあって、Vision Proに。それで周りの映像を撮って、それをリアルタイムでディスプレイしていますと。
ユーザーに。なので、それを全部12ミリ秒以内でやってるんですよ。
で、これは本当にすごい技術なので、ここに関しては、なんか本当にAppleすごいなっていうのは。
マスマス期待が。
なので、MetaもこのQuest 3でパススルー技術があるので、どこまでそこのラグがないかっていうのは、すごい見てみたいポイントですよね。
アップルがいずれ、それがスタンダードになっていくんですかね、そのラグがないものが。
おそらく。
でも、なんかこれって結局、話したいことは別にAppleがすごいっていう話ではなくて、なんかこのプレゼンスを作るためにはやっぱり技術的なハードルがすごい高いですし。
でも、すごい重要っていうのは両者とも言ってる。
で、やっぱり特にMetaのマークさんに関しては、今までのテクノロジーでプレゼンスを、本当のプレゼンスを作れたテクノロジーはないっていうのを言ってるんですよ。
33:01
やっぱりZoom上ですとZoom上ですし、SNSでもやっぱりやりとりが本当にその人がいるような感じではない。
その技術を作ると、今までないコネクションができたりとか。
体験したことないから。
そうですよね、なかなか。
わかんないですけど、でも、インターネット、ディスプレイ見てるなっていうのは、全部のデジタル系のものはそうですよね。
パソコンもiPhoneもディスプレイの広告とかも、画面だよね。
ビデオ電話しても画面だよねって感じの。
そうですよね。
でも、やっぱりアイコンタクトがしっかり取れるとか、横でちょっと会話ができたりとか。
小さい表情、細かい表情をちゃんとお互い見れるとか。
顔だけではなくて手の動きとか、いろんな体の動きとかを全部しっかり見れるっていうのが、このプレゼンスのすごい重要なポイントで。
ここに関しては、過去にオフトピックで、多分去年リモートワークの会をしたと思うんですよね。
リモートワークは、今まであるテクノロジーを考えるとリモートワークが普及してもおかしくないっていう話もしたと思うんですけど。
今年、オープンAIのサム・アルトマンさんが言ってたのが、テック業界の一つの大きなミスは、完全リモートでずっと仕事ができると思ったこと。
完全リモートができない理由は、テクノロジーがまだ追いついてないからっていうのを言ってて。
あ、でも解決できると。
そうなんですよ。このプレゼンスがあれば解決できると思うんですよ。
やっぱりリアルでいたほうがいいってよく言われるんですけど、それを本当にデジタル上で再現できれば、完全リモートっていう可能性が出てくるっていう。
それは再現できたら、できますよ。再現ができたらですけど。
そうですよね。だからこそプレゼンスってすごい重要なコンセプトで、アップルもメタもすごい重要視してるのは、それによって完全に新しい経済圏が生まれるから。
今まで本当にやっぱりどうしてもリモートワークの中でも実際会わないといけないっていうのが、それをなくすっていうのは完全に新しいコラボレーションが可能になってくるっていう話でもあるので。
そういう可能性に関してはすごいいいなと思いますし、だからこそプレゼンスって重要だと思うんですけど。
36:01
やっぱりプレゼンスの一つの課題っていうのは、いろんな良い悪い意味があって、データがめちゃくちゃ取られるんですよね、ユーザーの。
プラットフォームに。
それこそ顔の細かい表情から、自分の体の動きから。
それはアップルプライバシーで保護してくれるみたいなことやな。
でもやっぱりその保護っていうのはどういう意味での保護っていうところじゃないですか。
開発には。
そうですね、もちろん外部に出さないっていうことかもしれないですけど、自社で何か使うとかそういうの出てくるので。
なのでやっぱりデータっていうものは何かにしてユーザーとして守らないといけない中で、今日もちょっとスポンサーがいるので、ノードVPNのメッセージを。
ノードVPNは先週も話したように、バーチャルプライベートネットワークで、仮想プライベートネットワークっていうもので、インターネットトラフィックを暗号化してくれるようなサービスなので、それによっていろんな大手テック企業でしたり、悪い犯罪者とかからトラッキングを避けられるような形のサービスですと。
なのでめちゃくちゃ便利なサービスで、もちろんセキュリティ面でもそうなんですけど、実際にいろんなユースケースがある中で、特にこのMetaverse時代の中ですと、プライバシーがすごい重要される中で、スピードもすごい重要じゃないですか、インターネットの中ですと。
特にリアルタイムでいろいろトラッキングというか、把握してディスプレイしないといけないので、なのでインターネットが遅まるとすごい大変なんですけど、やっぱりこのVPNのサービスってやっぱり多くのサービスはやっぱりちょっとインターネット遅くしてしまう傾向があるんですけど、ノードVPNは僕も実際使っている中で、そのスピードがほとんど変わらない。
中でやっぱりちゃんとセキュリティを担保してくれるので、それはめちゃくちゃ便利だなっていうのは思いますね。
ちょまど 実際に使ってるんですね。
実際に使ってますよ。
ちょまど どういう時に使ってるんですか。
でも基本的に常にオンにしてるので。
ちょまど へえ。
別に違う国で使うユースケースももちろんあるんですけど、日本にいて日本のVPNにつなげるだけで、まずセキュリティ担保になるので。
ちょまど ああ、なるほど。
そういう意味だとそこのトラッキングされたくないっていうところをまずやって、他の国とかに行くとまた違う意味で便利になってくるっていうところですね。
なのでぜひオフトピックのリスナーの皆さんもノードVPNを使ってもらいたいっていうところで、今回はちょっと皆さんにオファーがあるんですけど、
39:05
ノードvpn.comすらofftopicjpに行くと、オフトピックリスナー限定に割引とボーナスギフトがあります。
そして30日間の返金保証もついているのでリスクフリーで試すことができます。
ぜひ皆さんもノードvpnを試してください。詳細は概要欄のリンクに載っているのでそこから試してみてください。
じゃあポッドキャストに戻りましょう。
このメタバスの作る中で、やっぱり今ですとロブロックスとかフォートナイトとかUGCゲームってすごい参考になるかなと思っていて、
特にエコシステムをどう盛り上げるかっていう意味合いだと結構そのUGCゲームのどういうふうに彼らが成長していくかっていうのを見ていくのがいいと思うんですけど、
主にそのUGCゲームが勝つには5つの施策が必要ですと。
まずはその開発者を取り入れること。
囲い込むこと。
ポッドキャスト そうですね、囲い込むことですよね。
やっぱり今のメタバス空間内での課題っていうのは、やっぱりクリエイターが少ない。
3Dコンテンツ作れる人って結構少ないので。
そもそもこれって動画もそうですし、画像でもそうなんですけど、徐々にやっぱりその作るハードルってコンテンツがよりイマーシブになると大変じゃないですか。
まだ画像だったら動画だったら3Dはブレンダー簡単だって言うけどみたいなのは。
コンテンツ生成するのってそもそもツイッターとか文字でも少ないですしね。
そうですよね。やっぱりクリエイターと消費者の割合っていろんなプラットフォームで見ると、やっぱり徐々にハードルが上がると割合がどんどん変わってくるっていうところ。
確かYouTubeに関しては100ユーザーに当たり1人ぐらいクリエイターがいる。
なんとなく数時間だとそうなんですけど、多分数年前だとTikTokは4人に1人。
すごいですねTikTokって。
TikTokはやっぱりすごいですよね。やっぱり作るハードルをだいぶ下げたっていう意味合いだとすごいんですけど、
ロブロックスとかですと今47億一応登録ユーザーがいて、もちろんMAUとかそれより低いんですけど、
42:10
950万人の開発者、いわゆる1回でも体験を作った人がいるのが950万人。
そこの単純な割合をすると500ユーザーに当たり1人のクリエイターがいると。
やっぱりYouTubeよりハードルが高いですと。
でもそうするとクリエイターも少ないので、より取り合いになるんですよね。
そのプラットフォーム間で。
そうするとプラットフォーム側からすると、どこまでプラットフォーム上で開発のハードルを上げるかっていうのを考えないといけないんですよ。
開発のハードルを上げるか。
その開発の難しさ。
はい。
例えばロブロックスですと、ルアっていうプログラミング言語があったり、フォートナイトのバースっていうプログラミング言語があるんですけど、いわゆるそれを学ばないといけない。
それって一つのハードルなんですけど、ただハードルが高いほど、やっぱりクリエイターが入りにくい。
簡単な方がいいのかなって思いました。
でも簡単だとすぐに違うところに行ってしまう可能性がある?
でも簡単で、他のところが難しかったら簡単なところにいません?
でも全部が例えば簡単だったらどうします?
一番簡単なところに行きます。
でもそこはどうなんですかね、アクセスがどこまで簡単にするかって結構難しいところで、簡単にしすぎると結構体験にバリエーションが与えられなかったりとか。
それはそうですね。
そこのバランスっていうのはすごい考えないといけなくて。
もう一つはクリエイターに向けてのツール提供ですよね。
ここは例えばバイトダンスだとTikTokで配信するんですけど、キャップカットで実際編集したりとかさせるわけなんですけど。
メタからすると結構AIツールとか結構多分これから提供し始めて、それでよりバーチャル空間内で世界を作れたりとかキャラクターを作れたりとかそういうのを多分やっていくと。
特にマークさんからすると、メタはメタバースの体験をいっぱい作ってるっていう話ではなくて、特定のパーツを作ってる。
特に特定のインフラを作ってるっていうところで、メタのアイデンティティシステム、AIツール、広告ツールっていうようなものをいろんな人たちに提供するっていうのが多分メタの今後の戦略でもありますと。
45:04
さらにやっぱりクリエイターにインセンティブを提供しないといけないんですよね、そのコンテンツ作るのに。
もちろん楽しいとかステータスとかそういうものもあるんですけど、最終的にはマネタイズが必要ですと。
メタからするとこれはすごい慣れたことではあると思うんですけど、そのクリエイターファンドを作ったりとか。
ありましたね。
ありましたよね。その時代もありましたよね、みんなが作ってた時代もありましたけど。
もう一つがレベルシェアみたいな、いわゆる広告のスプリットとか、そういうようなものですよね。
YouTubeとかそういうことですね。
そうですね、YouTubeとか。
メタバス上ですと、例えばフォートナイトもやってますし、ロブロックスもやっていますよね。
実際経済系の一部をクリエイターに渡すっていうところで、
フォートナイトに関しては最近4割まで提供しますっていう話をしているので。
やっぱりロブロックスとかに関してはいろんなハードルがあって、
やっぱりそのiOS上で結構ユーザーがいるので3割取られてしまう。
だからこそやっぱりメタは自社のOSとかヘッドセットを作って、
Appleの手数料を避けたいっていうところがあります。
次にあるのがブランドの提携ですよね。
いろんなブランドとか会社と提携して、いろんなユースケースを作ってもらう。
ロブロックスとか場所を作るみたいなことですか?
そうですね。
ロブロックスだとナイキーランドとかバンズとかいろんなフォレバー21とかいろんなブランドと提携してますけど、
もちろんリテールブランドはこういうのに慣れてますけど、
メタからするとおそらくメタクエストの中とかメタバースの中ですごい重要な提携がマイクロソフトの提携だったりして、
これも結局オフィス利用、そこのユースケースを作るためっていうところだったんですけど、
ちょっとメタとして残念ながらあったのが、マイクロソフトはAppleとも提携したので。
マイクロソフトからするとどっちも取りたいっていう話なので、
特にそこを選ぶ気はないと思うんですけど、そういうブランドとの提携があるのと、
あと最後にはそのプラットフォームを拡大する、いわゆるその自社のプラットフォームだけではなくて、
他のプラットフォームでも使えたり遊べたりするっていうところですね。
メタからするとクエストのヘッドセットだけではなくて、いろんなヘッドセットで彼らのコンテンツを楽しめるっていうところを多分やっていきますと。
そういうなんとなくな戦略がある中で、やっぱりメタの全体の動きを見ていると、
48:01
これSNS共通であるんですけど、SNSって時期によって何をプライオリティ化しているかが変わるんですよね。
大きく二つの軸があって、それを行き来してるんですけど、一つがユーティリティ、もう一つがエンタメ。
なんとなくこの二つを行き来してるのかなと思っていて。
メタに関してはやっぱり、どこかのタイミングで彼らはエンタメ企業になれない、その時代は終わるっていうのを理解してるので、だからこそすごいユーティリティにフォーカスしたりとか。
VRデバイス販売したりとか。
VRデバイス作ったりとか、アイデンティティシステムを強化したりとか、いろんな意味でそのユーティリティっていうものにフォーカスしたりしていて。
どっちに重きを置くのかっていうのって、各会社見るとすごい面白くて。
メタのエンタメに振ってた時ってどういう施策の時ですか。
メタは今までの歴史上見ると、スタートはユーティリティなんですよ、実は。スタートは大学内で友達を検索できるっていうところから始まって、エンタメに最初に寄せたのはいわゆるフィードですよね。
最近はフェイスブックに関しては、これインスタグラムと違って、フェイスブックに関しては最近はユーティリティにもう一回戻っていて、それはマーケットプレイスとか。
そこの機能がすごい使われてたりするので、グループとか。エンタメ要素ではなくて、もうちょっとユーティリティにフォーカスしていますと。
例えばスナッチャーとかに関しては、最初がもうちょっとエンタメ要素があって、そこからちゃんとメッセージングに入っていったので、それでユーティリティ。
で、その後一時期すごい自社コンテンツとか。
映画みたいな作ってましたよね。
映画みたいな。
ドラマみたいな。
そこが多分エンタメにもう一回フォーカスした時代で。
最近はもうちょっとメッセージ機能を強化するっていう、メッセージとかマップ機能を強化するっていう意味で、もうちょっとユーティリティにフォーカスしてるのかなっていう。
例えばTikTokとかも最初はエンタメからスタートして、最近ですと検索とかクリエイターツールとかそういうのを入れてるので、もうちょっとユーティリティにフォーカスしてるのかなっていう。
なんかそのエンタメから初期にエンタメ盛り上がって、だんだんユーティリティになっていくみたいな感じなんですかね。直近エンタメっぽいのメタなんだろうと思って。
51:04
でもリールスはエンタメですよね。
インスタもそうです。
インスタでも、インスタ何回か繰り返してるので、フィルターから始まって、なんでユーティリティから始まって、でSNS化したのでエンタメに行って。
で、その後メッセージング機能としてすごい使われていたので、DMとかそっちで使われてたので、もうちょっとユーティリティになってから今リールスかなっていう。
ビームのアプリスレッドでしたよね。そこで名前が復活するっていうの面白いなっていう。
確かにもう一回名前として復活しましたよね。
でもなんかこの重要なのは、どっちに偏せるっていうことではなくて、今どっちに偏せるかっていうところで。
メタに関してはやっぱり次世代のインターネットを勝ち抜くためにはエンタメ企業として勝ちに行くのではなくて、ユーティリティ企業として勝ちに行かないといけない。
それはやっぱりインフラがまだメタバス上だと足りないからっていう意味でもあって、あとそこを最初に勝ち抜くと今後長期的にすごいアドバンテージになる。
ベースですもんね。
そうですね。これもどうインフラを勝ち取りに行くのかっていうと、2つの大きなプレイブックがあって、
1つはGoogleの手法でアプリレイヤーから検索っていうレイヤーから始まって、ソフトウェアOSレイヤーに落ちて、最後にハードウェアレイヤーに行くっていう。
パターンもあれば、あとAppleのやり方ですね。ハードウェアから始まってOSに行って、アプリで今サービス。
メタに関してはちょっとどっちに行くかっていうのはわからないもの。どちらかというとApple側かなっていうところなんですけど、ただ明らかに言えるのは全レイヤーにメタは投資をしていますと。
すごいな。
なので、やっぱりハードウェアレイヤーですとQuestを作っていて、今現在ですと最も人気なVRヘッドセットですと。
スーパーボールとか日本でもそうですけど、VRのヘッドセットのCMめちゃくちゃやってて、真っすぐ本当に取りに行きたいんだなっていうのはすごいなって思います本当に。
そこがすごいですよね、メタに関して。やっぱりそこの普及活動をすごい、いわゆる体験とかサービスとかアプリレイヤーもしっかり広げようとしていながら、でもハードウェアとかプロトコルとかスタンダードとかも同時に作っているっていう。
すごい投資が必要ではあるんですけど、やっぱり今までのAIモデルとか、オープンソース化している理由っていうのは、やっぱり開発者に向けてデフォルトのプロトコルとかスタンダードのレイヤーになりたいからなんですよね。
54:06
そこの信頼を得られると、今後のプラットフォームとかそこにも全員入ってくる。
取れてほしい。
だからこそ、さっき草野さんがスレッツの話したと思うんですけど、実はこれ先週話した、先週とか先々週、Twitterの競合サービスをメタが作るっていう話もしたと思うんですけど、その時はまだスレッツが出てなくて、リリースされてなかったんですけど、
ちょうど昨日リリースされたと思うんですけど、この収録しているタイミングですと、スレッツを作った理由って何だろうって考えた時に、Twitterをリプレイスできるのは、
さっきメタも、もちろん彼らだからできるかもしれないっていうのを思ってると思うんですけど、そこにすごい期待を置いてないと思うんですよ。できたらすごいなって思う、多分彼らも思ってる。そこじゃないと思うんですよね、スレッツの意味合いが。
スレッツの意味合いって、より分散型のTwitterを作ろうとしてるじゃないですか。
なんか別の、分散型マストドンみたいな感じになるみたいな。
マストドンと同じようなインフラプロトコルを使って、いわゆるマストドンからのコンテンツも使えたりとか、フォロワーをユーザーがちゃんとしっかり抱えて移行させることもできたりとか、
いろんな意味でオープンソースとか、よりオープンな分散型なインフラを試してるのかなって思うんですよね。
で、これがSNSでワークすると、メタワース内でもワークするんじゃないかと。
その最初のテストなんですね。
そうなんですよ、おそらく。で、ここが、いわゆるこの回の最初で話した相互運用性の課題っていうところの一つの解決案になるんですよね。
ソーシャルグラフって本当に相互運用性があって、あって意味があるのかっていうのを試すためのものなんじゃないかなと思うんですよね。
で、そのスレッツだけを見るとツイッターの競合にしか見えないので、ただメタの全体の戦略を考えるとそれだけを見てるはずがなくて。
考察すごい。
ただやっぱり重要なポイントは、作り方がすごい、マークさんがすごいオープンとか、文章型のところとかブルースカイとかマストドンを参考にしてるっていう話をしているのを見ると、
57:12
たぶん狙いは10億人スレッツを使うっていう話をマークさんもしてますけど、それってちょっと違う意味での10億人を使ってくれるっていう話なんじゃないかなと思っていて、
スレッツのアプリだけで使ってくれるっていうよりも、全体的にこのプロトコール、この裏の技術を使ってくれるのが10億人なんじゃないかっていう。
なので、メタからするとこのスレッツっていうのってすごい面白いプロジェクトで、ソーシャルグラフの総合運用性、いわゆるグラフアザサービスみたいなものが作れるかっていうのを考えてるのかなっていうところで、これを実際にできる会社ってメタ以外にほぼいないんですよ。
確かに。
これだけのユーザー数いるのって、もちろんAppleとかAndroidとかGoogleとかそういう会社はいるんですけど、やっぱりメタほど浸透してるところがいなくて、しかもソーシャルデータをしっかり持ってるので、このメタバース空間の中でやっぱり友達との話し合いっていうのってすごい重要になってくるので、
グラフっていう、グラフがSNS時代だと、今レコメンデーションメディアの時代にいるって話してたじゃないですか。
なので、ソーシャルグラフっていう価値が失われてるかもしれないっていうところだったんですけど、意外とメタはSNSでは必要ないかもしれないんですけど、今後のメタバース空間には必要になるかも。
そういう意味でこういうスレッツとかを作っていたりとか、そういういわゆる彼らってアイデンティティレイヤーっていうものを作ってるので、そこにとってはすごい重要なものになっていたりするので、このメタからするとUTTにすごい投資しているっていうのは、やっぱり全部このメタバースにつながること。
で、やっぱりこのSNS、今までのSNS戦略も広告戦略も、このヘッドセット戦略も、そのAIモデルの開発とかも、全部ここにつながってるんですよね。
なるほどな、なんかスレッツのアカウント消すにはインスタのアカウントを消さないとできませんみたいな。あれ見たときもなんか、愛知サービスとはちょっと違う立ち位置なんだなっていうか、そのIDの紐付けみたいなのって何か意味があるんだろうなっていうのはちょっと思いました。
本当にそうだと思うんですよね。もちろんすごいクレームが最近入ってるので、それで彼らもいろいろ変えるかもしれないんですけど、やっぱり一つのIDに紐付くっていう意味合いだとすごい重要なところで、やっぱりメタの価値ってどこにあるかというと、やっぱりネットワークなんですよね。
1:00:14
ネットワークをいかに次の世代のインターネットで使えるようになるかっていうところを重要視してるので、その周りのモデルとかその周りのコンポーネント、パーツっていうのを全部コモディティ化して提供しようとしてるんですよね。だからオープンソース化してるんですよ、全部。
向井 でもなんかユーザーからしたら、そのインスタ、フェイスブックユーザーから、フェイスブック今勉強してるんですけど、ありがたいですね。それのデータを自分で別のところでも使えるかもしれないって考えたら。
そうなんですよね。
向井 それはいい。
めちゃくちゃ便利になる可能性があって、そこをそのやっぱり今実証実験っていうところですよね。
向井 ツイッター頑張ってほしい。色マスク頑張ってほしいですね、なんか。
それも。
向井 やっぱり圧倒的なユーザー数が多いので、メタに関しては。やっぱそこはすごいアドバンテージとしてありますよね。なんでツイッターに関してはやっぱりそのメタバスク化みたいなものが本当に普及した場合には多分違う戦い方をしないといけない。
なんか何がディスカッションされてるとかリアルタイムで、なんかそういうなんかもうちょっと検索エンジンっぽい感じになっていかないといけないですね。
向井 よりたっぷり広場みたいな感じですよね。色んな人がいるみたいな。
そうなんですよね。なんでやっぱりそういう、いやでもなんかメタってなんかすごい面白い戦略を抱えてるなって思っていますと。
でもなんかこのメタバースを改めて色々考えた中で、なんかそのメタバースを、なんかそのどういうふうに人と繋がるのかっていうふうに見てもいいのかなと思っていて、でそれを時間と場所の切り口で見てもいいかなと思ってるんですよね。
これってなんか今までのテクノロジーで考えると、例えば映画とか映画館とかで見ると、同じ時間で同じ場所で人と繋がるじゃないですか。同じコンテンツを同じ時間で同じ場所で見てるっていう意味だと。
例えばラジオとかテレビがどういうふうな捉え方をするかというと、同じ時間なんですけど違う場所。でじゃあインターネットが何かというと違う時間で違う場所に、もちろんそれじゃないパターンもあるんですけど、でもそれを可能にした。
確かに非道化ですね。
そうですよね。でその、そういう意味合いでメタバースを、じゃあメタバースはどういう感じなのかというと、時間をもう一回強調したものになるんですよね。同じ時間っていうところがより重要視されて。
1:03:13
そうすると一つ疑問として出てくるのが、そういう空間とかが一般的になると、やっぱり非動機って何時でも同じ情報にアクセスできたりするので、そういう意味だとすごい便利だったりするので、
なんかそのメタバースのより非動機版が出てくるのかっていう話もあるのと、あとはそのリアルタイム性がもう一回より重要視された場合には、そのどういうふうにその社会として、なんか住む場所も変わるのかなとか。
なんかその友達グループが世界中にいた場合に、みんな同じタイムゾーンに入るのかとか。
何かイベントがあったらみんな日本で集まろうみたいなことですか? そうそう、みんな一旦日本に住もうと。別に同じ街の中じゃなくていいので。目覚ます空間内で会えばいいので。
なんかそういう世の中が出てくるかもしれないですし、あと、昔デイビッド・フェルプさんという方と話してた時に彼が言ってたのは、多層睡眠をする人が増えるんじゃないかとか。
多層睡眠。小さく分けて? そう、小さく分けてって言ったんです。それでより世界的なコラボレーションができるように。
時差っていうか、時間の違い、タイムゾーンっていう概念がそれで消えていくんじゃないかとか。
そこら辺の新しいユーザー行動っていうのが、個人的にはどう変わるのかっていうのはすごい気になっているんですけど、やっぱり一つ重要なのは、メタバースみたいな世界が起きないんじゃないかなっていう人もたぶんいっぱいいると思うんですけど、
今のやっぱりアメリカの子どもたちがどれだけロブロックスを遊んでるかって見ると、明らかに何かしらこういう空間を生まれるんじゃないかなと思うんですよね。
もう生まれつつありますもんね、ロブロックスでは。
特にここ1、2年間ですと、多くの例えばブランドがロブロックスに入ってきて、それで体験を出してみて、正直言うとほとんどが、一瞬バズって言いますけど、ほとんどうまくちゃんとずっと人気を保っててないケースが多くて。
でも実は同じようなことが2006年から2008年に起きていて、当時はセカンドライフっていうサービスが流行り始めたタイミングで、実はインテルとかIBMとかアメリカンアパレルとか日産とかNBCが実は全員自社のセカンドライフ上での空間を作っていて。
1:06:14
でもやっぱりリアルな世界と同じようなものを当時も作っていて、結局セカンドライフって今はちょっとわかんないですけど、昔だと空飛べたりとかしてたんですけど、ユーザーは。その中で普通の店舗に行くのって面白くないので。
そこら辺の多分考え方を見ないといけなかったりとか、やっぱりユーザーの動きってすごい面白くて、今現在の多くのセカンドライフユーザーって結構VRチャットを使ってたり、実はセカンドライフよりも多くの時間をVRチャットで過ごしたりとかしてますし、なんかディスコードの役割もメタバース空間の中では割と成立し始めていると思っていて。
ディスコードの中で?
ディスコードってほぼリモコンの役割になっていて、ディスコード上で集まってどこに行くか友達で決めて、それでみんなそこに行く。
なんで、いわゆるディスコード上でいろんなロブロックスのこの世界、この世界、この世界がある中でどれ選べましょうかってなってるので、ちょっとガイド的な形になったりしているので、そこの各プラットフォームが徐々にそういう方向性に向かっているっていうのはまず理解しないといけなくて。
もちろんまだ段階としては早いので、今ですとたぶんSNSとかインターネット、SNS時代と比較すると2008年あたりですかね。
なんで2008年ってFacebookって1.5億人のMAUがあって、2009年に3.5億人だったんですけど、今たぶん35億人のMAUがあるので、10倍以下だった時代ですと。
今ロブロックスってだいたい2億人ぐらいのMAUって言われてるので、本当に15年ぐらい前のFacebookと同じような時期なんじゃないかなっていうところなので、まだ正直小さくて、まだこれって本当に大きくなるのっていう疑問があってもおかしくない時代ではあるんですけど、
ただやっぱり過去10年間見ても新しいSNSってどんどん立ち上がってますし、それで何億人ってユーザーを抱えているので、なので可能性はどんどんあるのかなって思うんですけど、やっぱりペースはそこまで早くないので。
1:09:06
そのロブロックスのユーザーが増えるってことですか?
テクノロジーでユーザーに普及するっていう意味だと。やっぱりiPhoneも100万デバイス販売するのに70日間かかりましたし、iPodも2年かかりましたし、数千万台のiPhoneを販売するのに数年かかったりもしてるので。
で、iPhoneの販売の流れを見ても、結構の間、やっぱりスマホではなかった携帯、ブラックベリーとかWindows Phoneとかの方が売上が高かった時期が結構長くて。
2010年から2011年ぐらい、いわゆるiPhoneが出た2007年からすると、4,5年?3,4年ぐらいですかね。経ってようやくiPhoneとかAndroidとか競合サービスの携帯サービスを超え始めたタイミングだったので。
なんか、やっぱり普及ってすごい時間がかかるんだなっていうのを。
リアルなものだと、大変ですね、やっぱ。
特にそうですよね。なので、なんかTwitterである、誰かがツイートしてたのを見たんですけど、アメリカで人口の25%に普及するための時間をいろんなテクノロジーで比べてたんですけど、
例えば電気。電気って46年かかったり。電話は35年かかって、ラジオは31年かかって、テレビは26年かかって、PCは16年かかって、携帯は13年かかって、インターネット7年かかって、スマホは4年っていう。
これは徐々に速くなってるんですけど、ただやっぱり時間をかかるっていうのは共通点としてあって、今だとゲームとかバーチャル世界って呼んでるかもしれないですけど、次の世代はこれをゲームと呼んでないと思うので。
じゃあもうヘッドセットも10年20年のスパンで広まっていくのかもって。
可能性はもちろんありますね。難しいのはこのMetaverseっていうものは、一つのデバイスに依存する話ではないので、なのでパソコン上でも多分Metaverseみたいなものにアクセスできますし、いわゆる本当にインターネットと似たようなことなんですけど、そこに対してしっかり理解して、そこのレイヤーをすべて作ろうとしているのがこのMetaかなっていうところですね。
ちょまど いつからそんなMetaverseの事業を考え始めたんですかね、マークさんは。
1:12:03
でもそもそもOculus買収するちょっと前からは考えてたんじゃないですかね。
ちょまど インスタ買収。
マークさんUnityも買収しようとしてたんで。
ちょまど 何か新しい開発レイヤーが取れる領域どこかみたいなので、ヘッドセット領域。
でも少なくとも2010年じゃないですかね。
ちょまど うーん。
いわゆるスマホを作ろうとした時。
ちょまど あーそうか、なるほど。
には考えてはいたんじゃないですかね。次がどこかっていうのは。
ちょまど へー。
そう考えるとそこから13年経ってる中で、まだまだこれから投資しないといけないっていうところですよね。
ちょまど 本当に体力がある会社じゃないとできないですね、これは。
うーん。
ちょまど ずっとその未来に投資し続ける。
うーん。それができるのはやっぱファウンダーだからっていうところですよね。
ちょまど うーん。
だからなんか上々企業ですし、世界トップ10とかに入るような自家装服持ってますけど、
メタってやっぱり未だにちょっとスタートアップ感があって。
ちょまど でもAppleもずっと車とかヘッドセット開発してるのもすごくないですか。
うーん。
ちょまど 創業者じゃないですけど。
それはすごいですよね。うーん。やっぱりAppleはAppleでなんか特殊ですよね。
どっかで、どっかのタイミングでAppleのなんか組織について話さないといけないかもしれないですよね。
その組織体制ってすごい特殊なんで。
あと長年、Appleに関しては長年いる人たちが多い。
ちょまど うーん。確かに創業者じゃなくてそういうエッセンスは幹部に詰まってるっていうのはあるかもしれないですね。
うーん。それがすごいですよね。
ちょまど へえ。
というところでちょっと今回ちょっとメタのシリーズとして出してたんですけど、残る会社がAmazonか。
あとGoogleは多分もうちょっとちゃんとやらないといけないですけど、どっかのタイミングでAmazonもやりましょうか。
ちょまど やりましょう。AmazonはAmazonとか。
Amazon難しいですよね。広すぎて。
ちょまど Amazonスーツ深掘りも面白いかもしれないですね。宇宙の話とかも。
確かに。
ちょまど なんかどこに目指して、なんかどういうモチベーションとかビジョンのもと自分は行動してるんだろうとかすごい気になります。
Amazonもすごいっていうか、なんかTwitterとかAppleとかのなんかインターネット初期のカルチャーってよりは、なんかもうちょっとビジネスの差異があって、
1:15:07
確かに。
ちょまど 超優秀な人が集まっている組織みたいなイメージあります。なんかその堅実なテーブルドアにしたみたいな話とか、一枚の企画書の話とかありますけど、なんかちょっと雰囲気違いますよね。いい意味でも。
確かに。ジェフ・ベソスはキャラクターとしては、なんかマークさんとかビル・ゲイツさんとかと。
ちょまど インターネットオタクじゃないですよね。
うーん。
ちょまど 多分。わかんないですけど。
まあ元々ウォークホール外にいた人ですよね、確か。なんで、なんかそのビジネスチャンスを見てAmazonをスタートしてたわけなんで、あの市場、インターネットっていう市場を見て。そういう意味だとなんかちょっと違いますよね、視点が。
ちょまど 面白い。面白そうそれはでも。はい、じゃあそんな形で。
はい。
ちょまど 今回も聞いていただきありがとうございました。気になった方はofftopic.jpのフォローお願いします。そしてメンバーシッププログラムofftopic.clubもノートでやっているので気になった方はチェックしてみてください。それではまた次回お会いしましょう。さよなら。
さよなら。
01:16:14

Comments

Scroll