00:04
先週もこうやって入った気がする。 音割れしてる。 音割れしてる?素晴らしい。拍手ですよ。
H3ロケット試験機打ち上げ成功おめでとうございます。 おめでとうございます。
いやー感動しましたね。 そうですね、完璧でしたね。
特にタイマーもストップすることなく、スッと打ち上がって、分離もやって、前回1号機で問題になって2段燃焼も問題なく燃焼を開始できて、
予定どおりの軌道に投入入って、 くっついてた衛星2機も
無事出力放出することができて、 最後の再突入まで完璧ということで、100点満点と、
プロマネーさんも言ってましたけど。 岡田さんだっけ? そうですね。スリムに関してはすごく渋くて63点64点って言ってた。
ジャクさんの人たちはかなり宇宙に関しては慎重に慎重を重ねて、100点というのはなかなかないという大前提で、
今までコメントされてきた中で、100点満点成功ですと言い切った記者会見はものすごい感動がありました。
そうですね。 実際文句のつけようがない結果だったと思いますので、予定してた早速は完璧でしたし、
ログとかも撮れてましたそうですし、記者会見曰く、
ぶっちゃけ2段目の燃焼の結果、予定通りの軌道に入るかどうかっていうのはまだ実証できてなかったんですけども、そこができてて、
しかもほぼシミュレーション通りという話なので、
期待通りの性能を発揮できたというようなことらしいですね。
そうですね、CESAT-1Eでしたっけ、分離の時の目標値。
最初に打ち上がってから一番直近の最後のミッション、そのタイミングでの目標高度と速度がほぼほぼビタビタに一致してた。
高度が数キロ、1、2キロくらいしか差がなくて、速度も数キロパワーくらいしか差がなかったんじゃなかったかな。
ビタビタだったという話ですね。
03:01
素晴らしいチューニングでしたという感じですね。
あれはすごかったですね。
最初のポイントとしては、昨年失敗してしまった2号機のエンジン電化の部分。
2号機じゃない、2段目のエンジン。
電化の部分が1号機はうまくいかなかったので、今回結構皆さんが内心ヒヤヒヤだったと思いますけど、特に問題なく。
そうですね。そのせいかわかんないですけど、打ち上げ直後はみんな緊張が全然残ってて、あんまり誰も打ち上がったってことに喜ぶ人はおらず。
そうですね。そういう意味で言えば1段目は一回実績はありますからね。
みんなまあいけるよねみたいな顔をしてて、アナウンサー?
youtubeで配信されたコウホーの2人も全然喜んでない感じで入ってみましたねみたいな感じで淡々としてたんですけど。
2段目のエンジン電化が正常ですというアナウンスが流れてきましたっていうところからものすごい興奮が始まってみたいな感じでしたね。
そうですね。
まあメインのペイロードがダミーということもあって、2段目の燃焼を予定どおりの目標、目標軌道に投入できるかが、こいつのメインミッションみたいなところがあったので、そういう意味ではあそこは結構ターニングポイントだったっていう感じですね。
そうですね。 いやー本当に本当にただただ素晴らしかったですね。
土曜日の朝、愛知から打ち上がって、その日中に記者会見もあってということで、1日薄井クリアちゃんの動画をひたすら見てたんですけど、最高でしたね。
はい。 そうですね。
記者会見の話もありますけど、そうですね。 リアルタイムでyoutubeでライブしてたんですけれども、JAXA公式で。
それが結構頑張ってたなぁということもちょっと思ってまして、 1号機の時もやってたんですけど途中でシリクルトンボになっちゃったんであれだったんですけど、
今回は時間があったのも手伝ってか、その打ち上げまでの機体紹介、こんな感じの機体ですよとか、
そういうのもすごいドキュメンタリー風の 編集をしていて、アナウンサー役の人が
こちらに来ました、種ヶ島に来ました。 じゃあ、
偉い人に説明してもらいましょうから始まって。 という感じでやっていて、そのままJAXAの玄関口で放送できそうな感じでしたねというところもありつつ。
06:09
あとそうですね、最後打ち上がったお番組の終わりに スタッフロールが出てきたり。
あのシーン面白かったですね。何が始まったのか若干思いましたね。 何が始まったの?って思いながら、結構びっくりしたのが、
飛んだ時の画像、画像というか動画を差し込んでて、 やり手というか結婚式のムービーみたいな感じで、その場ですぐ編集するやつ。
めちゃくちゃ広報の人が頑張ったのか、そういう番組作成のプロの人を 呼んできたのかわかんないですけど、
すごく完成度高かったので、何も知らない人が見ても結構面白いんじゃないかなという ところはありますね。
面白さ、凄さは全然伝わったんじゃないかなと思いますね。 そうですね、1号機の原因、ダメだったんじゃないかという広報の話も簡単な図を使いつつ丁寧に説明していたので、
そういう意味でもかなり良いものだったかなと思います。
そうですね。 次はあれですね、もうちょっと打ち上がった後、もうカメラ映像で追いかけきれなくなった後、何が行われて、どういうことが難しさで、みたいなのをリアルタイムで実況する人が欲しいなと思いましたね。
まあそうですね、あんまり言うとくちゃくちゃになるっていうのはあると思います。 もちろんあると思うんですけど、私たちはすごく追いかけてきていて、あそこは難しいとか前回これがとか、すごく思いがあって見てたんで、
JAXAのセンターから正常です、正常ですというのが定期的に飛んでくるだけで嬉しいみたいな、そこで教育されきっちゃってますけど、
一般の人からすると全然わかんないだろうから、ああいう一般受けもできるコンテンツ化っていう意味だと、もう少し目指してもらっても面白いなと思いますかね。
そうですね、確かにスリムの着陸のシーケンスとかはね、結構その、細々とそこで話を入ってね、数値の読み方とかありつつ結構面白かったね、そういう感じでね、
そこでも話のネタがあるといいなというところはありましたね。
前回1号機からですけど、結構あのフライトのなんて言うんですか、なんて言ってたかな、タクラマさんが作ってるやつだけど。
テレメトリの。 テレメトリの、そう、今ここを飛んでますよっていうのはすごい綺麗に作られてたので。 あれはすごい綺麗だよね。そうですね、はい。
09:02
あれを見せたかったっていうのがあるかもしれないですけど、というところはありますけど。
いやー、あれもすごく分かってる側からするとすげーもの作ってるなーっていうのと、機体位置と実際の軌道のズレとかも分かりやすいし、すごくいいなと思うんですが、
見る人が見ないと分からんというか、私も最初初見の頃はコメントの人が言ってるのを見てホエーってなって、ちょっとずつ分かっていった感があるので。
まあそうですね、より分かりやすい解説として、せっかくライブをやるんだったらやってもいいかなという気はしますね。
分かってる人たちは。 スペースXさんみたいにね、もう少しカメラ搭載して、あのロケットからの映像とか出せるといいんでしょうけど。
できりゃいいんですけどねー。 やっぱあれ難しいよね、多分。
どうなんでしょうね、設備、JAXAの設備でどこまで撮れるのかな?っていうのが分かんないんで。
日本から打ち上げてるんで、アンテナ届くとは思いますけど、どうなんでしょうねというのもあるし。
まあカメラとかを追加するとね、またそこのカメラ経由のバッテリーのショートとか、余分な回路を搭載するとその分故障率が上がってしまうので。
まあまあまあそうですね。カメラのところはぶっちゃけ壊れて、映像切れましただけでも笑って許せると思うんだけど。
まあまあまあそうですけどね。まあいろいろあるんでっていうのもあると思いますけどね。
そうですね。あ、そうそうそう。今喋りながら思い出したんですけど、すごかったのにあんまり盛り上がりポイントにならなかったのが、ドックレックターンがしれっと行き過ぎてて、めっちゃすごいことやったと思うんだけど、
あんまり盛り上がらずにサラッと行ったなーって感があって。
えっと、それはドックレックターンの話だけで1時間説明をしないと普通の人はわからないからだと思いますよ。
いやーすごかったですよね、あれもう。
はい。だいぶ高い角度で打ち上げてたんでね。
あれがサラッと行って予定軌道通り、シミュレーション通りに行くっていうのも本当にすごい。
テレメトリー見ててちょっと何回か気になったので、もし分かれば、専門家じゃないんで難しいと思うけど、分かれば聞きたいんやけど、速度が途中更新されづらいというか、どんどん加速してるはずだけど一瞬止まってるように見えたりとかって、あれは何が起きてたんですかね。
えーっと、なんていうんですかね。高く打ち上げすぎてた、打ち上げすぎてたっていうか、高く打ち上げる軌道だったからっていう話ですけど。
12:00
あー、途中から横向き出すのに一時的にそういうふうに見えるってこと?
うーん。
どういうこと?高く打ち上げて。
真上に打ち上がってて、1段目は補助ブースターもあるんで結構いい勢いで打ち上がってるんですけど、2段目ってそれなりの出力、まあでかいですけど、それなりの出力のエンジンを長い間吹かせるみたいな性能を持ってるので、その分、2段目に切り替わった直後は数値の増加が減ってるように見えるっていう話じゃないかな。
なるほどね。
で、横、重力、地面に対して横向いてたら、重力は関係ないんで、加速した分加速するんですけど、
ほぼ真上のような感じで打ち上げたんで、重力分がマイナスされてるんですよね。その分で数値の増加が減ってるように見えてたって話だと思いますけど。
はいはいはいはい。
なんでその後、だんだんその出力が上がっていって、地面から遠くなって横向いてきたら結構加速してきたっていう話だと思います。
ああそうですね、そんな感じでしたね。
なるほどなるほど。
そうですね、あの辺なんかコメントでも結構心配する声とかが上がってて、その辺、なんか実態としてはどうだったのかなとか色々気になってはいたんですけど、
JAXAのセンターからはいつも正常です正常ですが来てたんで、まあこっちとしては安心はしてたんですが、
なんかああいう数字が上がり下がりだけが頼りになる、見える情報なので、なんかそれで一気に一流してましたね。
そうですね。まあ数値見て一気に一流できるのは結構訓練されてると思いますけど、というところでありますけど。
はい。
いやー素晴らしい。
そうですね、打ち上げはそんなもんかな。
で、1時間後に記者会見もありまして、まあそこも3部構成でかなりなんか長かったんですけど、
まあ今回は成功したんで、あの初めに偉い方のお祝いの言葉とかね、そういうのから始まりましてというところでしたけど。
で、2番目がJAXAの関係者の人で、飛行がどうだったかとか、現状どういう…
100点満点のやつ。
そうそう、100万点満点の話。
3部目が衛星の開発者の話。
はいはいはい。キャノンさんとか来られてた。
そうそうそう。
そうですね。
まあ偉い人の話はまあまあまあまあって置いといて。
ごめんなさい、あそこはめっちゃ聞き飛ばしました。
はい、そうですね。
15:00
えーとそうですね、JAXAの方の話はまあ言うてでもまとめると100点満点っていう感じでしたね。
何の文句もつけようがないという話でしたし。
個人的にはどれくらいよっしゃって言ったんですかっていう話が結構面白かったよね。
常に叫び続けてたっていう感じで。
そうですね、確かに。
あのC1、SAT-1E放映してる時の監視カメラ映像がめちゃくちゃ盛り上がってたって。
前の席の人はまだ油断できないからって言って、一緒に喜びたいけどってソワソワしてたから。
モニターに向かってるっていうのがプロ意識やなと思いながら見てました。
まあまあまあ何かあった時には自分が判断しないといけないですからね、ああいう時っていうところなんで。
っていう感じでしたね。気が早くて結構記者会見の内容も、
今回成功したんで今後どうしていくのかっていう話が結構重なったところでしたね。
予算、H2A、一つ前のロケットに比べて半額の50億円で打ち上げますという話が売りの一つだったんですけども、
ちょっとあの価格破壊というか世界の価格破壊しているスペースXという化け物がおりますので、
そことどう戦っていくのかみたいなお話とかもありましたし。
そんなずるいわって言ってコメントされてたやつ。
50億円目標って言っても今すぐ50億円に行くわけではなくて、結構予定が遅れてるので、
一番安くなるのが横丁の補助ブースターがない30型っていう本体の一本だけのやつなんですけど、
それの完走というかそれの試験みたいなのがね、いろいろまだ必要らしいので、
それはまだできてないんですよね。
と言いつつ、本来打ち上げる予定だったASAとかが1年遅れてしまった。
開発当初計画からすると3年遅れてしまっているので結構溜まってて、
そっちを優先すると今今回打ち上げた実績のある22型っていうロケット補助ブースターが付いてるやつ。
そっちを優先すると今今回打ち上げた実績のある22型っていうロケット補助ブースターが付いてるやつ。
そっちを優先すると今今回打ち上げた実績のある22型っていうロケット補助ブースターが付いてるやつ。
で、打ち上げを優先すると50億円には届くのは難しいかなみたいな目測もあったりするらしいので、
そこらへんどういう戦略を取ってくるのかなっていうのも面白いところかなと思いますけど、
しばらくは溜まってるASA打ち上げを優先するんじゃないのかなという気がしますけどね。
全然いい。何の文句もない。
18:02
そうですね。どんどん打ち上げてもらった方が結構ロケットの信頼者95%ぐらいが国際標準価格みたいな感じらしいんですけど、
今回ちょっとH3はまだ50%なので行ってしまうと。数値上だけでね。
なのでどんどん打ち上げてもらって、うちも頑張って打ち上げてますよどうですかっていう話。
しばらくは環状系の衛星がいっぱい溜まってると思いますけど、
他の国の衛星も打ち上げられるといいよねっていう感じですかね。
もうそこまで行けば万々台だと思いますし、
もともとの計画だと年6回くらい打ち上げたいとかそれくらいの頻度なんですよね。
そうですね。っていう話をしてましたけど、
まあそうですね。年6回くらい頑張っていってほしいなという。
横目で見るとね、今年はインドとか中国とかがめちゃくちゃ打ち上げる予定らしいので、
年6回だと国際的にも4位かな?5位かな?っていう計画見るとって感じにはなると思いますけど、
順調に打ち上げてほしいかなという感じですね。
そうですね。今年で言えば3号機、4号機くらいまで行くんですかね。
と思いますよ。もう3号機はほぼほぼ出来上がってて、倉庫に眠ってるみたいな感じでしてましたから。
ああそうなんだ。素晴らしい。
もともと1号機が打ち上がったら去年の打ち上げ予定だったと思いますので。
はいはいはい。そっかそっかそっか。
それも含めて材料確保とかの面があるとね。
出来るところまでやっておこうみたいな話はあったと思います。
じゃあまたそこに誰が乗っかるのかとか、もう今引っ張りだことでしょうね。
そうですね。次はあれじゃないかな。
国の衛星じゃないかな。第1・3号しか燃えちゃったんで、
それと合いのこになる予定だった第1・4号が乗るんじゃないかなという気がしてますけど、
ちょっと予定わかんない。どっかに書いてあった気がするけど。
というところですよね。
H2が先月打ち上げて、H3が今月打ち上げたんで、
車上のキャパ的には頑張れば年12回打ち上げられるそうな雰囲気はある気はするなと外から見てては思うんですけど、
多分調整とか更新とかいろいろありますんで。
弱さの周辺の、車上だけじゃない周辺のマンパワーとかロケット調達の精算もしないといけないですからね。
21:03
そういうところも含めて年6回目標なのかなという感じですかね。
まあちょっとずつね、そういう実績ができていて回せるようになっていくっていうのが、
このH3ロケットがこれからスタートできる大事な役割だと思うんで、ぜひ頑張ってほしいですね。
そうですね、はい。
あとはH2ロケットもあと2本ぐらい、何号機打ち上げたっけ、30号機まであるはずなので、
そっちも失敗せずに優秀の美を飾っていってほしいという感じですね。
ですね。
というところでロケットはそんな感じですね。
あとそうですね、衛星の話でして、3部構成の3部目であった衛星関係、キアノンさんと、
TRI-SATSってどちらが来てましたかね、という感じですけど。
セイレーンさんかな。
セイレーンさんと一般社団法人宇宙システム開発利用推進機構さんですね、が記者会見されてまして、
キアノンさんなんと代表取締役社長と衛星システム研究所副社長という早々たるメンツという感じで来てまして、
かなり力入ってるなという感じがありました。
キアノンさんの方がこの前紹介した地上撮影カメラですね。
一般向けのカメラがそのまま載ってるらしいという。そのままっつったあれですけど。
やつで、セイレーンさんの方は赤外線のカメラのやつですね。
2社とも結構これに載せてもらって非常にありがたかったということを言っていて、
記者会見で結構1号機が失敗してリスク感じませんでしたか?みたいなことを言ってた人がいたんですけど。
あの意地悪な質問ね。
そういう書き方もできなかないけどっていうのもあったんですけど。
回答としては、そもそも乗る予定だったロケットが打ち上がらなくて乗れなくなって困ってたっていう話ですね。
なので今回載せてもらって非常にありがたかったという話をしていて。
言ってしまうとロシアのロケットなのでちょっと国際状態とかいろいろ載せられなくなったっていう話があった。
そういう意味でやっぱりキャノンさんの画像処理センサーは国産ですし、
24:00
そういう意味で国産のものを国産のロケット打ち上げるっていうことができるのは国際競争力的にもかなり強みなんやなというのが
計らずとも実証されたというか証明されたというか実績ができたという意味では非常に良かったのではないかなという感じですね。
そうですね。なんかその辺は東電さんがこのラジオでも度々言ってた国が、国がってか日本でそのロケットを飛ばし続ける
そこに価値があるっていうことを散々おっしゃってくれてたと思いますけど、その辺を強く感じるコメントでしたね。
そうですね。2社の衛星とも埃被ってた感じだったんで、そういう意味では非常に良かったかなと思いますね。
止まってたプロジェクトが走り出しただけでもう大変嬉しいみたいな感じでしたもんね。
そうですね。ケアノーさんは結構全社プロジェクトとして頑張ってるっていう話をしてましたし、
セイレンさんも、セイレンさんあの繊維の会社らしいんですよね。そう言ってましたけど。
はいはいはい。
繊維の会社だけど繊維だけじゃなくっていろいろな事業をやろうということをやっていて、
その一環としてこの衛星プロジェクトっていうのにも精力的に手を出しているという話をしてたんで、
そういう意味で今後間違いなくブームではありますので、適度な衛星だったり打ち上げやすいですし、
あわよく月に持っていくときに相乗りしてもらうとかも、民間のローバーとか衛星とか行きやすくはなっているので、
そういうところに一般企業が参画していくっていうのは今後大きくなっていくと思うので、
手を出していくのはいいんじゃないかなというところ。
その実績を国産ロケットで打ち上げられたっていうのは国全体としていいことなんじゃないのかなという感じです。
もう完全にその通りくらいしかコメントのしようがないですけど。
という感じなので、次ですね。
次頑張っていってほしいなっていうのと、あとイプシロンですね。
そうねそうね。
イプシロンって次はどうなってましたっけ?
イプシロン、今どうなってましたっけ?
オッケー。
完全に忘れてた。忘れてたとか言ったら怒られるな。
怒られますけど、はい。
イプシロン…
12月12日にプレスが出てて、
これ的には、
27:06
原因は確認したので、
今後の計画、対策を設定する。
第2弾モーター、再地上燃焼資金を含めた開発計画、
全体開発計画を設定するので、リス経ですね。
という感じなので、もうちょっとしばらく飛ばないかなという感じっぽいですね。
そうですね、この話は聞くと少なくとも来年ですね。
飛ばすとしても。
早くて冬とかかなという感じ。
と思いますので、うちも頑張っていてほしいなという感じですね。
即社会見でもちょっと言ってましたけど、
だいぶこういう原因究明はかなり、
先が見えなくてかなり苦しかったという話をされてましたからね。
そうですね。
そういう意味だと、記者会見で現場が強くなったって何度も言ってくれてるのはすごく、
なんか、1エンジニアとして胸に車がありましたね。
そうですね、はい。
1号機の失敗はすごくいいことになったっていう、
もうJAXAのすごい強みになったみたいなことを再三おっしゃってくださってて、
ああいうことを発信し続けてくれる上がいると嬉しいよなって思いながら聞いてましたね。
プロジェクトマネージャーとしてすごい心強い感じでしたね、確かに。
本当、でも実際その通りだと思うんでね。
頑張っていてほしい。
そうですね。
結構、原因の2箇所候補はH2ロケットと同じ機構という、
30年前の設計だったりするので、
そういうところでも原因となったかもしれないというのが今更出てきたりする、そういうロケット。
そういう設計部品、設計部品というかロケットというものに対してちょっと頑張っていってほしいなというところですと。
はい。
はい、そんな感じで。
はい、とても感動的な感じだね。
はい、今年の宇宙授業は幸先がいいので、1年楽しみですね。
そうですね、はい。
民間の月の話、今年1年の大きな、民間の月の話とか、NASAの月、NASAじゃないか、スペースXの月旅行の話とか、今年でしたっけ?
今年でしたけど、え、あんの?え、遅れてたと思うけどな。
30:03
あ、そうそうそう、遅れてて、結局まだ出してないのか。
まだ出してないですね。年末に、年内は見送りですって言ってる段階なので、はい。
はいはいはい、まあ来るかもくらいで。
そうですね、まあいろいろ楽しみのものも多いので、今年は宇宙元年ですね。何回元年かわかんないけど。
まあ頑張っていってほしいところですと。
はい、じゃあ次行きます。
はい。
オープンAI動画生成AIソラということで、オープンAI社のホームページより、ソラというAIがリリースされた、できたよというプレイスが出てますと。
で、テクニカルノートが出ているので、基本的にはそちらをベースに話していきたいなと思います。
で、こいつがですね、まあ凄まじいのは間違いなくて、世の中でニュースになりまくっていて、革命だ革命だと言われてるわけですけれども。
何がポイントかっていうのを、私なりの解釈にはなりますがお伝えすると、今までの言語モデルと同じように動画を作ってみたらこういうことができたという感じです。
今までの言語モデル、チャットGPTとかですね、言葉の単語とかをトークンという形に置き換えて、そのトークンがどういうふうに繋がっていくのか、その言葉の後ろにはどういうものが来やすいのかっていうのを確率的に洗い出して文章を作り上げるというのがこれまでのモデルでしたと。
なので、一番わかりやすい連続性のあるものを作るみたいなことがLLMでできてきたわけですけれども、じゃあ映像もそうしちゃえばいいじゃんということで、その言葉で言うトークンの単位っていうのと、画像を紐づけたような感じですかね。
動画をスライシングして一枚一枚の画像をその一つのトークンという単位に収めましたと。その画像が次どういうふうに来やすいかっていう画像の連続性みたいなものを、文章を作るかのように紐づけて作り出せるようにしたというのが今回のSORAという動画生成AIのようです。
理解が正しければですけれども。
33:00
そうやってつなげていっているので、いわゆるこれまでの従来の動画生成AIのような解像度の依存性とかそういったものがなくて、各ピクセル単位で次どんなものが来るのかっていうのをいろいろ推測しやすくしてあげればあげるほどいいものができるというのがわかっていますと。
なので単純にコンピューティングリソースをガンガン増やすほどモデルの性能が上がるという現状のLLMと同じような現象がわかっています。
こういったことによって文字の連続性と同じくして連続的なつながりを作れるということがすごく強みになっているので、
2つの全く違う動画を組み合わせて間のつなぎを作ってもらったりとか、既にある画像から前後の動画を作ってもらったり、既にある動画の半分見切れているのを補完してもらったりとか、
そういったことが非常に強くできるようになっていて、これからの動画作成に非常に強みになるでしょうと言っています。
面白いところはこのSORAという動画生成AIを動画生成AIとして打ち出していなくて、
これは現実世界のシミュレーションモデルであるというふうに定義しているところがちょっと面白くて、
SORAのテックノートの一番上、ワールドシミュレーターとしての微動生成モデルと言っているので、
これまで現実世界で行われていたことを出せるようにする、シミュレーションできるようにするという一つのコンテンツとして動画というのがあるだけで、
まだまだオープンAIにとってはこれは一つの技術要素に過ぎないというような位置づけになっていて、
さらに拡大していくことが期待されますと。
今この動画生成では1分くらいの動画が最長ということになっているんですけれども、
チャットGPTも最初は出力できる文字数が少なかったりとか、
インプットできる情報量に限りがあったりということがあって、なかなか進まなかったんですけれども、
一定のラインを超えたGPT3.5や4ということで、
入出力の性能が上がった途端に爆発的に普及しだしたということがあるので、
同じような技術体系を持っているこの空というものがそういう世界になっていくんじゃないかということで、
非常に期待が集まっているものになります。
動画はいろんなサンプル上がっているので是非見てもらいたいんですけれども、
マインクラフトのゲーム画面だったりとか、
絵描きさんが絵を描いていく途中だったり、食べ物を食べているシーンだったり、
というのもいろいろ上がっていて、非常にリアリティを感じるものです。
これらの動画がワンショットで人間が適当に言った言葉だけでパッと作れたかどうかということまでは言及していないので、
36:03
かなりチューニングして出した動画なんだろうなとは思うんですけれども、
そのポテンシャルの高さというのを伺い知れるところです。
一方で、あまりまだ学習量が足りていないねと言われているところもオープンAI自身が言っていて、
いわゆる物理演算みたいなところはまだ苦手ですと。
物が落ちて割れる様子とか、そういったものになると不自然な挙動を示すというのが現状わかっているということなんですけれども、
この辺もChatGBTとかの言語モデルと非常に似た側面を感じるなといったところで、
ChatGBTもコンテキストを理解するのが難しいというのがあって、
あらゆる現象にはそのコンテキストがついてもあるわけですけれども、
今回この動画生成という文脈では現実世界の物理エンジン的なコンテキストを解釈することができていないという感じになります。
ChatGBTで使っていたら皆さんもう薄々体験されているかなと思うんですけれども、
昔わかっていなかったコンテキスト、最近だと結構理解できるようになってきたりしますというのがあるので、
全然AIのモデルの学習範囲でその物理エンジン的なところも乗り越えられる可能性はあるということで、
さらに今後のアップデートが期待ですねというものになっています。
はい。
はい、えーっと、何というかもう言葉を失いますというものが出来上がってますね。
このトップの絵とか本当にもう、街中を新宿をカメラで撮りましたみたいなのが出てきてるんですけども、
本当に綺麗にで破綻していない感じですね。
今までの画像生成AIで動画を撮るとやっぱりフレームごとに連続性を担保できてなかったので、
色合いがチラチラしたりとか、犬だったものがバナナの辺だったりとか色々あったんですけれども、
それが本当に見当たらない感じですね。
いやー、まあ確かに画像で連続性ができるんだったらできるんだろうというのは言われればそうなんですね。
ねえ、次元が一個増えているわけですから。
そうですね。
どんだけのリソースを突っ込むんですかという感じはありますけど、まあでも綺麗にできてる、本当に。
面白いのが中断にあるリソースによる出力結果の差ですよね。
ベースコンピューティングって言ってるような木目が出てきてるんですけども、背景とかは結構それなりかな。
4倍コンピューティングっていうと注目している柴犬っぽいのはだいぶ綺麗にできてるんですけど、
39:06
細部が結構甘いんですよね。背景の木がなんか結構モヤってたり、木の質感がちょっと悪かったり。
悪いという点ではベースコンピューティングの方がエッジが出ててよかったりするという感じで、
それを32倍のコンピューティングにすると背景もいいし、柴犬のふわふわ感も決めれてるみたいなね。
確かにリソースを突っ込めば突っ込めるほど良くなるのは素晴らしいなという感じですけど。
そうですね。本当に驚愕の一言でしかないんですけど。
言ってることは分かるんですよ。
言ってることは分かるんですけど。
散々画像とかであるからね。
それをアルゴリズムに落とし込める数学力と、それを実装できるコーディング力と、それをモデルとして体系化できるアーキテクティング力と、
それをゴーできるコンピューティングパフォーマンス、コンピューティングリソースの確保能力と、
どれもどの企業も真似できないくらいの凄さがあってどんびりって感じですかね。
確かに、派遣取ってるからこそ先に進めたっていう感じはあるかもしれないですね。
普通の企業ではできてるAIをちょっとチューニングして上手いことフィッティングさせようみたいなことを言ってる間に次元を増やしているっていうのはちょっと勝てねえなという感じがありますね。
これはね、ひどいひどい。
ビジネス的な感覚でいくとこれはひどいです。
オープンAI社はできたチャットGPTでそれの利便性を上げるか何かで普及とか頑張って市場確保するって方向に動いてくれないといけない。
いけないとか言ったらあれですけど。
浮いたお金でこれを二投資しようってやって実現されちゃうとちょっとマジで立ち打ちができない。
世界の需要があるという意味ではあるのは分かってた話で、
もちろんもちろん。
AIが出た直後からなんとか動画に適応しようって手頑張ってた人は昔からいたわけですよね。
そうですね。
言ってた前日の問題があったわけです。
それを成立させてくるっていうのは素晴らしいですね。
その辺のエンジニア精神もすごくいいなと思ってて、
画像生成できるAIができたんだったら、
それをコアの技術としてそれを工夫することで次に繋げようって考えるのって非常に自然じゃないですか。
42:03
だからこそすでにある画像生成AIをうまく働かせることで動画化してみようっていう試みっていうのはものすごくその通りだろうと思うし、
筋がいいんだろうなっていうのは裸から見てても思ってたんですけれども、
いやそうじゃないんだっていう話じゃないですか。
動画を作るんだったら動画を作るためのモデル作ればいいじゃんみたいな話を言ってて、
そこに立ち返って作り出そうというのを何年前からやってるかわかんないですけど、
できちゃうっていうのは本当にすごいなっていう。
そうですね。
他の業界で例えられる気があんまりしないですけど、
なんて言えばいいんだこれ。
まあでも次元方向は使えてなかったっていうのは言ってしまうとそうなので、
そういう意味では正しくはあるんだけどな。
そうね。
正しさしかないとは思いますね。
はい。
現実世界っていうのは時間の連続性によって成り立っているので、
それをスライシングしてチャンク化っていうかトークン単位に実着できる能力があれば、
そりゃその時系列推測モデルが役立つのはその通りとしか言いようがない。
そうですね。
面白いのがマインクラフトみたいな非DR系のものもできるっていう話。
そこもすごいよね。
なんて言うんですか。原理は一緒じゃんって言ったらそうで、
むしろパキッとしてるから境界線とかがやりやすいのかもしれへんけど。
そうね。
でもあれかな。逆に人間が許容できないから例として出してないだけなのかもしれない。
なんていうの?
ほぼ例としてこのオープンAI社のページに上がってるのが
リアル系のドローンで撮ったかのような動画なんですよね。
ちょっとSF風味のやつだったり、このマインクラフトがあるっていう。
逆にこれ以上フォト的な、
なんだろう、水彩絵の具で描いたような世界観みたいなのを動かされても
逆になんか凄さが出なかったりするのかもしれない。
人間が、なんていうの?
分からないのかなという感じはなくはないですけど。
45:04
その辺どうなんだろうね。確かにモデルが弱いのか受けが悪いのかその辺は確かに気になるところで。
そうですね。
確かに一人称目線の映像とかあんまないんですよね。
インプットしてるものの次第かもしれないんですけど、
言い方があれですけど、
リアルはリアルを撮れば素材としては成立してるけど、
アニメみたいなのって全部人が描いてるから
連続性があんまり担保できてなかったりするのかな。
とかはちょっと思ったりしたけど。
あー、そういうことね。なるほどね。
情報源自体がある程度連続性を担保してくれてないと、
結局モデルとしてどう判断していいか分からなくなるっていう。
みたいなのかなーとちょっと思って。
なのでなんかこう、ディズニーのピクサーみたいなやつとかだと取り込めるけど、
やっぱアニメーション的なのは結構苦手なのかなーって思ったりしたのが。
面白いねー。
ちょっと思ったのが一番上の新宿みたいなやつのやつ。
結局文字は生成できてないんですよね。
看板が全部何語にもないような文字。
漢字っぽいけどみたいなとか、
このサンガス冷板っぽいけどみたいなのがあるんだけど、
読めない文字になっているので、なんていうんだろう。
人工生成物はあんまり結構実は苦手なのかなというか。
人工生成物っていうかなんて言ったらいいのか分からないけど。
象形的な表現を。
ここでチューニングしないっていうのもあるとは思うんですけど、
あんまり整地しないよねっていう感じが見受けられますね。
その辺は結局ダリと同じ問題なんでしょうね。
ダリとかで画像生成AIでも文字を出すのものすごい苦手なんで。
セットアップ次第で今そこに力入れてないだけっていうのはあると思いますけどね。
文字認識なんてそれこそ何十年前から研究されている分野ですから。
そこと加え合わせればできるとは思いますけど。
ただこんだけ時間連続性のある動画を出してもそこは別分野なんだなっていうのが面白いところですね。
そもそもこれが使いたいところって、さっき出てた通りシミュレーターとしての役割なんで、
現実をきっちり全部正しく反映しきるのが目的じゃないというか。
こういう演出をしたいよねっていう叩きに来たりとか。
48:00
自分たちの製品にソリューションのイメージを伝えるとかそういった用途だろうから、
まあいいのかもしれないけどね。
確かにね。
まあ確かにそっち方面は十分使えるなとは思ってて。
そう、どういうイメージですって言ってもね、
なかなか動画を適当なものを持ってくるだけでも大変ですし。
なんかイメージスケッチみたいなのってやっぱり認識の底が安定するところはあると思うんで。
それどころかこういうリアルな動画で出してくれるともう解釈の余地が本当に減るんで、
同じ目標を持ちやすいなという意味ではかなり強力だなという感じですね。
そうですね。
さっきの連続性のところでここに上がってる動画を、ここっていうかOpenAIに上がってる動画を見てたんですけど、
思いっきりカメラワークを切り替えるような動画ってないじゃないですか。
はいはいはい。
だからその辺はめっちゃあるんだろうなと思ってて、
元の動画として定点に近いカメラでないと厳しい。
激しいカメラワークだと推測能力の域を出ちゃうっていう。
カットを変えてしまうと難しいみたいな。カメラを変えてしまうと難しい。
うん、ありそうですよね。
あると思いますね。
そういう意味ではやっぱり、さっき言ってたイメージボード、イメージムービー的な使い方と、
そういう補完的な使い方にやっぱり一番適している、成果が出やすい分野なのかなっていう感じですね。
そうですね。この中断のところにもある、現実の世界から仮想世界に持ってくっていう、
ある種の補完みたいなのがかなりうまくいってるっていうのもありますし、
こういうところでね、プリビーズみたいなんで撮って、そこでイメージに突っ込んで、
人がいちいちCG処理をしなくて映画が完成するみたいなのとかね、できるでしょうし、
なんかちょっとここ余分な本が映っちゃったからみたいなのをうまいこと処理するとか。
アニメーションのFPS補完的なところではものすごく使われそうですけどね。
そうですね。そこは結構使えそうだなと思ってたんですけど、
さっき言ってたアニメーションを連続でスタンプしてくれるのかなっていうのが出てないので、
ちょっと気になるなと思っているところですね。
そこはアニメ大国日本としてコンテンツを提供しに行くくらいの気持ちがあってもいいくらいだと思うんですけどね。
51:06
分野が違うんであれですけど、リアルはある程度リアルで撮れますけど、アニメーションは全部人造なので。
そうですね。
代わりを出せるとかなり強力だなという気がしているところではあります。
試してみたいけどね、昔ながらのセルガとフレームレートを合わせて、
この世界でいうトークンに落とし込んでもらったらどうなるのかっていうのはすごく気になる。
そうですね。ただ保管されてしまうと困るよねっていうのはアニメ業界でも昔からある話で、
物理と違ってちょっと誇張するっていうのがコンテンツの長所の一つなので。
そうだね。
あえて手を引っかかないとか、高速移動のために崩した間を一枚挟むとか、
シミュレートではわからない世界があるよな。
そういうのを表現できるか、あとはコンテ描いた人のやつをうまく解釈してくれるとかだとかなり強いけど。
そうね。
でも確かに映画でもね、アクションシーンとかをテレビで保管にするとマゾロッコしく感じるからキレイみたいな話もあったりするから。
実は映画の撮影とかでも下手に保管使ってしまうと良くないなかもしれないです。
でもそれは時間軸だからな。どうなんだろう。
こういうのでカットカット感ごとやって保管したのが業界に受け入れられるかどうかっていうのは面白そうな気がしますね。
企業とかがホームページで利用シーンとか出してるじゃないですか。
ああいうのにはもってこいだと思うんだよな。
画像を入力できると思うので製品の写真撮って、それにこのモデルに人とか適当に加えて持ってる姿とか作ればいいと思うんで。
まあそうだね。
まあやっぱりああいうのもさっぱりしたアニメーション的なやつでよく表現されてたりするけど、やっぱりこういうリアルなやつの方が訴求力が高かったりすると思うから。
1分作れたらTikTok作れちゃうしね。
確かにね。
いや素晴らしいですね。
ここまで行くと本当にもう誰でもこれが1位に出て1位のパソコンで処理できる量だったらですけど、
54:02
オープンAIだからあれかな。サーバーに投げる形になるかな。
まずはそうだと思いますね。
オープンAIはどちらかというとね、そういって低パフォーマンスかっていう方向は他社にお願いします、サイトだから。
まあ正しいと思うけど、正しかったからこういうものが出てきてるわけだし。
今年も1年オープンAIどこ行くんだろうな。どこまで行っちゃうんだろう。
時間事項追加したから次はデプスとかが。
ほらApple Visionとかにさ、乗せて。
空間か。
空間にデプス追加。
トークン化できる気は全くしないけど、なんかできる発想があるんだろう。
してもおかしくないね。
データ量が足りればできるんちゃうかなと思うけど。
あとはあれか、音とかね。
音はすぐやってくるんだろうなと思うけどね。
あまり面白くないって言ってやってないから。
雰囲気というか情報量を増やして、なんていうの。
やっぱりさっき言ってた製品の利用シーンとかはさ、音は音で別撮りしてさ、押したりするわけじゃん。
それも大変だよねっていう話に対応できるという意味では、強力じゃないかなと思うけど。
そうね。
ここまですごいものが出た裏で、Googleのすごいニュースがかき消されてて、
大変かわいそうに思ってるGoogleさん、せっかくなので一言だけここでも紹介しておくと、
GPT-4相当というか、体験的にはGPT-4よりいいんじゃないかくらいのAIとしてGeminiというものをリリースしてたんですけれども、
もうちょうど先日1.5がリリースされまして、
GPT-4の最新のTurboというものとほぼ同等の入力サイズを持つ100万トークンのモデルを出してきてて、
一気にGPT-4に追いつくようなアップデートが来たぞっていうのでニュースを貸されようとしたら途端にこれが出たんで、
大変Googleさんは他社の広告戦略に潰されすぎてて、ちょっとかわいそうになってきましたって感じですね。
ちょっとかわいそうですねというか、時期が良すぎるんで潰しに来たんちゃうやろかって思うレベルで重なっちゃいましたね、確かに。
ちょっとかわいそう。
まあでも、カークに縛って食らいついていかんとねっていう話ですし、
オープンAIができたんだからうちもできるはずだという、ある程度星が見えてるわけですから、
57:03
そこに向かって食らいついていくしかないよねとは思うね。
ここでもういいかってオープンAIのやつを使ってしまったら終わりですから。
頑張っていただきたいと思います。
頑張ってもらうということで、今日はこのままにしておきましょうか。
はい、お疲れ様でした。
はい、お疲れ様でした。