Canvasの特徴
スピーカー 2
ChatGPT Canvas 使ってますか?
スピーカー 1
うーん、あんまり使ってないですね。そんなに良いものなんですか?
スピーカー 2
うん、良いものですね。良いものなんですけど、私も全然使ってなくて、宣伝する立場としては非常に不十分なんですけど、
せっかくなんでね、あの、Canvasのことも知ってもらおうかなと思ってて、
まあ、反オープンAIを掲げつつある、昨今のChatGPTを紹介するのはどうなんだかもあるんですが、
まあ、結構作り込まれたUIというか、ChatGPTはやっぱりチャット系のサービスとしては先を行ってるなという感じの内容だったんで、
紹介したいなと思ってます。真っ暗ではありますが、もうほぼほぼ本題みたいな形で話していくんですが、
まあ、先に特徴だけ伝えておきますね。
はい。
ChatGPTの新機能として登場しているもので、チャットしながら別ウィンドウで何かドキュメントを書けるというものですと。
で、よくあるのがですね、今までChatGPTにコードとか作らせている場合っていうのは、
ChatGPTにコードを作ってもらったら、ChatGPTの会話の回答の中にプログラムの本体が入ってて、
そこに回答返事するとまたコードが返ってきてみたいな形で、めちゃくちゃ縦長になりがちみたいなのが今まででしたと。
で、このキャンバスを使うとですね、その返ってきたコードみたいなのが別ウィンドウのところに表示されていて、
それを見ながら会話するみたいな体験に変わっているっていうのがこのキャンバスの特徴です。
で、もちろんそのコードがただ出るだけじゃなくてですね、
コードだったらこんなことやりたいよねみたいなコードレビューだったりバグフィックスだったりコメントを追加するだったりみたいなショートカットが用意されていたり、
文章だったらメール文とかだと構成するとか、そういったものがショートカットとして用意されていたりっていう感じになっています。
スピーカー 1
見た方が早いと思うので、ちょっと実際のChatGPTの画面見ながら話をしたいなと思います。
はい、じゃあ出しますね。
オイラー消え去ります。
スピーカー 2
はい。
例えば、
EOL部品の代替商品について問い合わせるメール文案をしてください、とか適当に言いますと。
そうすると、こんな感じでどうかなってことで、EOLパスクエリーっていう記事のタイトルと実際のメールの件名みたいなのが出てくると。
でですね、ここで例えば〇〇〇小字は実際の会社として、
絶対ないけど秋月電子にしてくださいとか、適当にこんなふうに言うともうそこだけ書き換わったりとか。
弊社はリカログという会社です。
っていうとそこの変わったりとか、こんな感じで右に最終的な結果が出ながら、どこをどう変え欲しいかっていうのを会話していくと、そこがリアルタイムにどんどん変わっていくと。
もちろんここに直接記入することもできて、手動で追加した文章、メモなのでメールを送信する前には消す、みたいなことを書きますと。
そうすると、の中にメール送信前に消さなければならないところがあれば削除してくださいみたいなことを言うと、
ここの文章とか余計なところを消してくれるという感じで手動で追加した部分についてもちゃんと理解してくれる。
ショートカットとしては右下に色々あってですね、長さを調整するとか読解レベルとかいくつかあるんですけど、
例えば長さを調整するで、メール文案が短いなと思ったらもうちょっと長くしたいなということで送信すると、メール文案を追加してちょろっと長くしてくれると。
この文章がいいかどうかっていうのはあると思うんですけど、自分が書きたい文章量の内容に対しての調整みたいなことができるようになっている。
これが例えばメール文章っていうドキュメントを書くときのお作法として用意されているものですね。
戻るとかもちゃんとあるので、このバージョンに戻すとか、ということでさっきのちょっと文章つけた人が微妙だったなっていう、
生成AIの戻りにくさみたいなところも今回のCanvasでサポートされているというあたりも結構便利ですと。
プログラミングの効率化
スピーカー 2
次にプログラミングのほうをやってみますね。
新の商品、セール商品をAmazonのサイトからアップするプログラムを作成してくださいみたいなことをやると、こんな感じでプログラムがバーっていきますと。
これに対しても同じように東宝初心者なので、もっとやっていることをお分かりしてくださいみたいに言うと、ここからいろいろコメントを出したりとかしていってくれる。
あとはプリントでログを出していますが、Pythonのロガーライブラリを利用してください。
使っているライブラリの変更とか、そういったものからロギング処理とかの変更もしてくれるみたいな感じで、
一つの行動を見ながら適宜編集してくれるので、左のチャットが非常にシンプルでわかりやすくなるって感じですね。
ショートカットとしては、例えばさっきのコメントを追加してください。
私手動で打ちましたけど、こういったコメントを追加してくださいとか、ログ追加する、バグ修正する、他の言語に移植する、コードレビューするみたいなのがあります。
例えばコードレビューするっていうのをやると、このコードの中でちょっと問題があるかもみたいな箇所を特定して修正してくれますと。
この辺をレビューしてどうでしたみたいなことを言ってくれている。
英語なんでパッとこれがどうだって説明すぐできないですけど、こんな感じでショートカットがいろいろ付いてくれているのが非常に便利で、
スピーカー 1
ここについてはこんな風じゃないですかみたいなことで提案されていて、適用するとか押せばその内容にその部分が差し替わるみたいな感じですね。
スピーカー 2
という感じで、このコーディングということを一つとっても、以前と比べるとチャットでの応酬というのが非常に減ってシンプルに開発が進むようになりますと。
この辺の分かりやすさというのは下手するとGitHubコパイロットとかプログラミングコードの開発用に追加されているようなそういう環境よりも良かったりする側面はあるのかなという感じで、非常によくできたUIになっているところですね。
今回プログラミングを二つ目に紹介しましたけれども、多分どちらかというと一般ユーザー的には前者のドキュメント関係のところで結構柔軟に、
意図した通りにドキュメントが変わっていく姿というのをデモ的に見せられたかなと思うので、そういったところからでも少しずつ使っていってみると面白いんじゃないかなと思ったのを紹介でした。
スピーカー 1
いやーなんか動き見えてめちゃくちゃいいですねという感じで素晴らしいですね。
これこれって感じするよね。
そうそうそう。
チャットGPT使ってみると、というかチャット機を使ってみると結構そのダラダラダラっとこれやってはい買いました、これやってはい買いましたって出てくるんで、
5回ぐらい応答を繰り返してあれ最初のどんなのだったっけって結構なることが多い。
スピーカー 2
あるある。
スピーカー 1
ですけどこうやって左右に分かれていれば指示と出力結果が対比してきて、出力結果を常に見続けることができますし、それに対して直打ちで修正して、それもチャットGPTが認識して対応してくれる。
なのでここからチャットGPTの結果を切り出して自分でメモ帳でもうちょっと修正してみたいな、何やってるんだっけこれみたいなことがあんまり発生しなくて良さそうなのがすごく素晴らしいなという感じ。
スピーカー 2
そうですねそういう手動でやったことがそのまままた生成案に返せるのもいいところで、なんか元々だとそのメモ帳に貼り付けて修正した後にですね、生成案にもう一回教えと思うとこのチャットのところに編集後のコードを貼り付け直してもう一回聞くみたいな、何やってるんだかのあることを阻止しなきゃいけないので、そこら辺がワンステップなくなるだけでも結構嬉しいですね。
スピーカー 1
あと良かったのはコメントの追加とかですかね。全部にわたる変更を一瞬でやってそれが前後比較できるっていうのはかなり強力かなという感じで使いやすいかなと思います。
これちなみに、アンドゥは一回だけになるんですかね。
スピーカー 2
やってみましょうか。前に戻す、もう一回戻す。2回くらいできるか。どこまで戻ったら。
あ、でもあれですね。
スピーカー 1
変わってる?一回のアンドゥを繰り返してない?それ。
スピーカー 2
一回のアンドゥを繰り返してるね。一個前までしか戻ってないっぽいですね。
スピーカー 1
なるほど。慣れた人だと5回くらいアンドゥしたいな感はないこともないですけど、でもチャットGPTだからどうなんだろう。前のに戻してって言えば前のも生成し直してくれるでしょうし。それで十分なのかもしれませんね。
スピーカー 2
そうですね。難しいとこですね、その辺もね。どこまでここで最後までやるかっていう話で。確かにここだけで最終成果物まで完成しきろうって思うとアンドゥを大量にできないと厳しいっていうのはそれはそうかなと思いますけど。
スピーカー 1
まあまあ確かにそうですね。
スピーカー 2
叩きを一旦ここで作りきって後はそっちでやるわっていうことをもう少し利便性を上げましたくらいの位置づけだったらこれ1回でも十分な気がするし。微妙なとこですね。
スピーカー 1
まあ確かに、ではこのコードを作りましたで結局その実行環境に持って行って貼り付けてそこで実行して確認するんで、まあ大体できたなと思ったらそこまで持って行ってダメだったらアンドゥのし直し、もう1回再生成すればいいやっていう感じも受けるので、まあそういう試行するための場所としては1回で十分なのかもしれませんね。
スピーカー 2
そうですね。あとはそっちとの往復とかもやりやすいかなと思っていて、例えばこれをコピペーシで貼り付けて実行するとエラーになりましたと。
よくあるのはこういう一番上のインポート文のライブラリーが不足しているとかでエラーになったりすることもよくあるんですけど、そういう時に出てきたエラーを左に貼り付けたら、それの時にはこれが必要ですねみたいな、右のコードに対してそのエラーが発生したんだったらこうっていう、
そのコードに対して発生したエラーとのひも付けっていうのがチャットで書かなくてもいいっていうあたりがいいですね。今までだとこのプログラミングを実行したところこういうエラーが発生しました、なぜ発生しましたかみたいなのを全部手打ちしなきゃいけなかったので、その辺がいいかもって感じですね。
スピーカー 1
そうですね。それで手動でやって、なんかこう微妙に違う認識をされて、あわーってなることがあったりするんで。
スピーカー 2
はいはいはい。
スピーカー 1
実家打ちできるのは非常に良いですね。
スピーカー 2
そうですね。
はい、ということで、ちょっとGPTの新機能面白いのでぜひ使ってみてください。
スピーカー 1
はーい。じゃあ画面消します。
スピーカー 2
おい。
スピーカー 1
はい。
スピーカー 2
戻ったら次の話題行きます。
スピーカー 1
はい、大丈夫です。
リアルタイムAPIの紹介
スピーカー 2
はい。じゃあ次の話に移りまして、同じくオープンAIの生成AI関係の話なんですけれども、リアルタイムAPIというのが登場してきました。
最近ちょっと生成AIの入り方向がこのリアルタイムAPIっていうのに寄ってきたので、その紹介をしたいと思います。
APIとしてはGPT 4.0リアルタイムプレビューというのがオープンAIから出まして、どういうモデルかというと、今までのモデルではテキストと画像というのが入力としてサポートされていました。
APIインターフェースとしてはそれらがサポートされていて、モデルとしては音声も行けますみたいな、そういう状態でしたと。
このGPT 4.0リアルタイムプレビューというのは、その中でも音声に対応したものですよということでリリースされています。
モデル自体は同じなんだけど、APIインターフェースとして音声入力もサポートしましたよという形になります。
なので、新しいモデルが出てきたという話ではないです。
この音声入力で何ができてどういう話題になっているのかというと、生成AIからリアルタイムの会話応答を引き出せます。
例えばこんにちはみたいに言うと、チャットでこんにちはって言った時に返ってくるような文章が音声でリアルタイムに返ってくるみたいな形ですし、
生成AIがしゃべっている途中に割り込んでしゃべり始めて会話を止めるみたいなこともできます。
そんな形で実際に人と人が会話しているかのようなことが生成AIとできるようということで、対話型AIというような表現で最近流行りだしています。
オープンAIだけに限らずGeminiとかいろんなところでそういった対話型AIというのが登場してきて、
皆さんのAndroid端末の方だとGeminiのAdvancedでGemini Liveというのがリリースされているんですけれども、
それの日本語対応が今月中には来そうだという雰囲気があるので、それで体験はできるんじゃないかなと思います。
この対話型AIというのがどういうところで盛り上がっているかというと、
音声入力の中で誰がどう発言したかというのを引き出すこともできるので、
会議室とかでこの音声入力を有効化しておけば議事録化してくれるとか、
あとは生成AIと混じった会議体にできるとか、
そんな形で本当に仕事のパートナーとしてしゃべってくれる生成AIが登場するということで、
今まで以上に仕事の付き合いができる、そういう相手になってくるんじゃないかなというものです。
人間もですね、カウンセリングとかがある通り、人とかと会話しながら自分の考えを整理するということにすると、
非常に理解が早く進んだりとか、自分の中の納得感というのを増したりということができたりする生き物なので、
この対話ができるということは、生成AIのまた次の一歩大きな価値に繋がるんじゃないかということで、
この話が盛り上がっているところです。
オープンAI社からは結構警告的なところも出ていて、
人間は結構音声で言われると信じがちみたいな問題があるので、
テキストよりも音声の方がそのハルシネーションというか、
誤ったことを言った時に鵜呑みにしがちだという問題が人間にはどうしてもあるので、
使い方には気をつけてくださいねという啓蒙は出ていますが、
まだちょっとその辺の法整備とかも進んでいないし、
世の中の課題感というのも薄い状態なので、
モロハの剣という感じにはなっていますという感じですね。
音声入力の利点
スピーカー 1
はい、これもなかなか面白いと思うんですけど、
ごめんなさい、前提の話になるんですけど、
APIということは、もともとオープンAIはこういう音声ソースを処理できるように作られていたということ?
そうです。
なるほど。
で、それを一般的にAPIを叩けるように公開しました。
そうです。
なるほどね。
スピーカー 2
もともとはたぶんGBD4リリースくらいだから、
5月くらいかな、の時にはできるっていう話になってて、
デモ映像ではやってるところも公開されてたんですけど、
さっき言ったような事情で、
音声入力っていうのは安易に公開するとヤバそうだっていうのがあって、
APIの公開がずっと止められてたんですよ。
で、この度満を持して出てきたっていう感じですね。
スピーカー 1
何がしかの対応したのかどうかわかんないですけど、
使えるようになったという意味では、
良いんじゃないでしょうかという話かなと思いますね。
そうですね、先ほど言われてた、
オープンAIを参加させた会議体とかは面白いと思いますけど、
どうなるのか全然わからないですね。
全然わからないですねという感じですね。
3人話してて2人はAIでしたみたいな世界になるのはすごいと思いますけれども。
スピーカー 2
そうですね、本当にその会議体は、
自社の意見を反映した会議体になったのかどうかみたいなことすら気になっちゃうような、
スピーカー 1
SF的な懸念がありますけれども。
まあでもあれですかね、このラジオもグダグダ喋ってる感じですけど、
文字打ち込むのってなんだかんだ言って脳の処理能力を食ってたりするところがあるので、
喋りてそれに対して応答を聞く、
ふんふんって思って考えるっていう方が、
負荷は少ないので、より深い洞察が得られる可能性もある。
というかまあ処理のテンポが早いっていう方が重要かな、
という気がするので、そういう意味ではより使いこなせたら強力なツールになりそうな雰囲気はあるかなとは思いますけど。
スピーカー 2
そうですね、一応ポイントとしてお伝えしておくと、
もともとのテキストレベルでもそうだったんですが、
AIのところにはファンクションコーリングという仕様があります。
これ何かというとですね、
AIに対してある仕事をお願いできるというもので、
例えばどこどこのデータを参考にして回答してくださいねっていうことを生成AIにお願いすると、
そのデータを拾ってくるっていうタスクを実行した上で生成AIが回答してくるとか、
そんなことができたりしますと。
そういったファンクションコーリングの機能っていうのが音声でもできます。
なので、いわゆるAIスピーカーですね。
Googleが出しているものとかAmazonが出している、各マジックコードをしゃべって実行している、
空いたAIスピーカーがやっていることと同じことができます。
なので、もしかするとAIスピーカー関連のところはこういったモデルにごっそり置き換わっていく可能性っていうのを秘めているものになってますね。
スピーカー 1
オープンAIさん特有の市場破壊という感じですけど。
スピーカー 2
そうですね。
スピーカー 1
そう言われてみると確かにAmazonさんしかりGoogleさんしかり、
結構昔からやってたわけですから、よくできてたなというのはちょっとあれかな。
よくうまいこと作ってましたねという感じ。
そこに対してオープンAI社も乗り込んできたという、ある程度市場があるところにオープンAIの持っている技術を突っ込んできたという認識になるのかな。
スピーカー 2
そうですね。
スピーカー 1
なるほど。
スピーカー 2
今までAIスピーカーに喋ってもなかなか理解してもらえないみたいなのは、こういったモデルを使うことでかなり減らせますし、
面白いところは、こういうオープンAIのモデルって多言語対応されているので、動くジョブに対してどの言語で喋ってもOKという形になるんですよね。
なので、例えばホテルとかいうところで導入してシステム作りをしたときに、どんな母国語のお客さんが泊まりに来ても操作できるとか、そういった恩恵はあるんじゃないかなと思いますね。
スピーカー 1
いいですね。なんかこう、いちいち日本語です、韓国語です、英語です、中国語ですって変えなくても、
コストと市場競争
スピーカー 1
そのまま話せばそれを自動的に認識して、自動的にその相対する言語で返してくれる。
非常にストレスフリーでいいんじゃないかなという感じがしますね。
スピーカー 2
そうですね。ただ学習的にも、英語の会話とかそういったものでも使えるので、
なんかちょっとしたデモ例としては、旅行に行く前になんかこういう時にはこういう風に喋りましょうみたいな、
これいくらですかみたいなのをハウアッチで聞くような、そういうのを練習しておきましょうみたいなのあるじゃないですか、ガイド部から。
ああいうのを実際に生成AIに対して喋ってテストして、こういう風に変えた方がいいみたいな指導を仰ぐみたいなことも例として登場しましたね。
スピーカー 1
それは結構攻めてますね、というか。
発音、イントネーションって結構、AIBotが返すやつは怪しい認識だったので、発音強制してくれるレベルの発音をしてくれるっていうのはかなりすごいですね。
スピーカー 2
今言ったような事例をもとにですね、今後出てくるジェミニライブとか実装されてくると思うので、そこでぜひ試してもらったらなと思いますし、
ChatJBTの有料契約されてる方は、プラスのところでこのライブ機能を使えるので、そういったところでも試してみてもらったらいいんじゃないかなと思います。
ただですね、オープンAI社マネタイズに走るという宣言の通りですね、このAPAの料金、なんと100倍です。
既存のテキストモデルと比べて100倍の値段がかかります。
スピーカー 1
なるほど。具体的には、1分あたりコンマ2ドル?これが高いのか安いのかよく分かんないですけど。
スピーカー 2
1分あたり0.06ドル。
スピーカー 1
あ、そっちか。
今見てる記事だと、100ドル1メガトークンが音声入力で0.06ドルくらいなんで、10円くらいかな。
そうですね。
で、音声出力が200ドルパー1メガトークンなので、0.25ドルぐらいらしいので、出力の方がコストがかかってるみたいですけど、テキスト入力とかが5ドルパー1メガトークンぐらいらしいので、それに対するとめちゃくちゃ高いという話です。
スピーカー 2
そうですね。で、それはリアルタイムAPIのテキスト入力の話で、本家のGPT-400だともうちょっと安いんじゃないかな。
スピーカー 1
あー、なるほど。そうか。これラップされてるのか。
スピーカー 2
ちょっと料金が読みにくいんですけど。
GPT-400だと2.5ドル。今最新だと2.5ドルパー1メガが入力トークンで、10ドルパー1メガがアウトプットですね。
スピーカー 1
まあ、そういう意味で言うと1桁は下がってるのか。今話したやつより。
スピーカー 2
そうですね。あ、でも100倍は言い過ぎか。20倍とかで。
スピーカー 1
ぐらいかな。
パー1メガトークンっていう単位がちょっとあんまり肌の地味がないですけど。
まあ、トークン数で言うとそのくらい差がありますよという話で。
まあ、ザックバラにだらだら話してるとかなりコストがかかってしまう可能性があるということですね。
スピーカー 2
そうですね。会議1時間とかをそのままぶっ込もうとしたら、まあそれなりのお金はかかるでしょうね。
スピーカー 1
まあ、でもどうなんだろう。
スピーカー 2
1会議1万円とか。もっとするのかな。もっとするか。1メガトークンって結構すぐだと。100万文字です、要するに。
スピーカー 1
はいはいはい。なるほどね。
スピーカー 2
ザックリの見合わせとしては。
スピーカー 1
どうなんでしょうかね。でもまあ、それで一瞬で何か買い付け結果が出てレポートが出せるんだって安いような気もするけど。
スピーカー 2
そうですね。使いどころですね。
スピーカー 1
うん。使いどころかなと思うので。
スピーカー 2
いや会話って結構無駄な言葉が多いというか、あーとかえーとかおーとか。
はいはい。
あるし、空白のタイミングでオープンAがレスポンスのためにちょっと出力しようとしちゃうとか、そういったのでも地味にかかったりもするんで。
まあ使いどころは確かにあるんですけど。
まあかなり気を付けないと、これまでのテキストみたいに、例えばチャットアプリ、社内のチャットアプリにこの機能が仕込まれてて、
全社員が自由に使っていいですよーみたいなばら撒き方をすると、面玉飛び出る費用が積極されると思いますね。
スピーカー 1
なるほどね。はいはい。
まあそこはちょっと使ってみてかなという感じですけども。
まあ、もしこれが市場価格感からして高いという話になるんであれば他社が、精度は食いつけるかどうかはちょっと分かんないですけども、
まあ似たような、もうちょっと安いラインナップで似たような商品を出してくるでしょうし、そこで価格競争ができるようになるんではないでしょうか?
スピーカー 2
まあそうですそうです。さっき言ったジェミニライブとかはまさにそうで、ジェミニもこういった機能のサポートをしましたっていうのを後追いですぐ出してきているので、
そういった意味だといい競合はすぐ、すでにいるって感じですね。
スピーカー 1
そうですね。まあそういう意味で市場原理が働くぐらい競合がいれば、裸感というか現状の技術力に対して過度に高価な商品にはならないとは願いたいですけど。
そうですね。
まあどうなるか分かんないですけどね。結局オープンエリアが9割取っちゃってみたいな感じになったわけですから。
スピーカー 2
そうですね。ということで、セースAIもちょっとトレンドが変わってきましたようで紹介でした。
スピーカー 1
では次私の方から、ちょっとSpaceXで前回グダグダ言ってた話で、ちょっともう一回だけ話させてもらいますけど、
ソレイさんの記事で、スペースX新型ロケットスターシップ第5回飛行実験実施、スーパーヘビーが初めてハジャダに帰還というタイトルになります。
頭だけ見ますか。
アメリカの民間宇宙企業スペースXは、日本時間2024年10月13日、同社が開発中の新型ロケットスターシップによる第5回飛行試験を実施しました。
スペースXの成功したミッション
スピーカー 1
2段目の大型宇宙船スターシップは、宇宙空間を飛行後に大気圏へ再突入し、発射から1時間ほど後にインド洋の目標エリアに着水することに成功したと発表されています。
また1段目の大型ロケットスーパーヘビーは、発射台へ帰還することに初めて成功しており、スペースXはその時の様子を捉えた動画を公開しています。
この記事の動画を何よりもまず見て欲しいんですけども、スーパーヘビーっていうめちゃくちゃでかい70メートルとか80メートルぐらいあるロケットが打ち上げた後、自力で打ち上げる場所の発射台に戻ってきて、
発射台のチョップスティックっていう橋って言ってますけど、台座の上に乗っかるところまでロケット噴射でやるという非常に高度なことをやりましたと。
公式放送で生放送でもやってたんですけども、この記事では発射台の台座に取り付けられたカメラからの映像と、スーパーヘビー自体に取り付けられたカメラからの映像が公開されていて、よく撮れてますねというのが見えるんで、これぜひとも見て欲しいなという感じです。
注目ポイントとしては、発射台からの映像ですね。
ロケットが上から降りてくるところから本当に綺麗に撮っているんですけども、ロケットが本当にその発射台の近くに降りてきた後に、ちょっとその台座が動いてロケットを本当に挟むようにして、という感じなんですよね。
ちょっと擦れるようなレベルでロケットが高さを微調整して、最終的に発射台のところに着地するというのが綺麗に撮れてまして、本当にそのロケットが目標地点、本当にロケット1本分ずれるともうこの動きはできないなという感じがよく見て取れて、それを本当に制御しきっているなというところも素晴らしいですし、
このキャッチするアームの方ですね、着地台の方もロケットにいわば外力を与えるようなレベルで、本当に何かぶつかっている、ぶつかっていると言い過ぎですけど、ちょっと擦り切れるような感じで動いていて、ロケットを過度に圧縮することなく、またそのロケットもその外力に押し分けるようなことなく制御しきれていて、
なんて言うんですか、安定するような羽根も何もない、本当に下で爆発しているだけのものでこんな制御できるんだなというのがかなり感動ものですというところですね。
スーパーヘビーから見た絵も本当にこれもすごくて、発射台からはちょっと見づらいんですけど、スーパーヘビー側でこの発射台の台座に降り立つときに、実は本当に1メートルもないんじゃないかな、これぐらいの小っちゃな足だけが固定点になっていまして、
その固定点、ロケットに2本あって、そこだけで着地しているんですよね。なので、本当にその発射台に擦り切り一杯で止まらないと、本当にそのまま足がすっぽ抜けて落ちることになりますし、シータ軸がちょっとずれても安定して落ちることになります。
スピーカー 1
高さとXYZ軸とシータ軸も完璧に制御しきって着地していることがわかるということで、本当にもう何やってるのっていう感じなので、ぜひ教えてほしいなという紹介でした。
スピーカー 2
はい、もう間違いなくて、その凄さを伝えるべく、何か世の中にある同じような何かがないかなって頑張って探してたんですけど、全然思い当たらない。
まあ、言うてしまえば、ペットボトルを投げつけられて、それを箸でキャッチするくらいのことを自動制御しているって言ったらいいんですかね。
スピーカー 1
まあそうですね、実際その動きをしてますからね。
スピーカー 2
すごいのは、箸側も頑張って動くし、投げるペットボトル側にも微調整機構がついていて、それで頑張って姿勢制御して、きれいにまっすぐな形で掴めるようになる。
キャップの下の溝にちょうど箸が入るように頑張ってるみたいな、そんな感じのことなんですけど、ペットボトルと箸で言うとちょっと短すぎて、逆に凄さを下げてるかもしれませんが、
それをめちゃくちゃでかくして、数十トン、数十メートルあるような規模のものでやるっていう感じですかね。
スピーカー 1
もうスケール感わかんなくなっちゃってますけど、そういうことですね。
スピーカー 2
高度70キロから来てるんで、まあ普通に考えたら単純に落下すると空中分解するくらいの高度ですよね。
熱で吊り切れたりとか。
スピーカー 1
そのまま地表に落ちちゃったら、バラバラになってる状態になりますね。
高度な制御技術
スピーカー 2
それをある程度の落下位置まで来て、速度を下げてるのも地味に凄くて、今回パラシュートないんですよね。
スピーカー 1
そうですね、はい。
スピーカー 2
宇宙から地上に帰還するときのものの中で、ゆっくり帰還してるものって意外とパラシュートついてて、それで頑張ってゆっくり降りてるものとかもあると思うんですけど。
人が登場してる部分とか。
今回この落下でスピード調整にはブースターの再噴火しかないんですよね、これ。
スピーカー 1
そうですね。
スピーカー 2
もうその辺も意味わかんないんでね。
それはファルコンとかで出来てたって言われたらそうなのかもしれんけど、規模が違うんで、まあまあって感じですかね。
スピーカー 1
そうですね、はい。
まあこれが出来たところでファルコン9でも出来てたと言われても、それはそうなんですけども。
ファルコン9は着地足があって、自衛力で立つ感じなんですよね。
でも最近は本当に命中精度、命中精度、着地精度が良くて、本当に着地領域の中心に着地出来てたんですけども、
足自力で立てるんで、あっちは多少ずれてもなんとか立てた向きがある。
スピーカー 2
そうですね。
スピーカー 1
それに対して今回スパヘビーは本当に発射台が動けないので、
本当にロケット一本分ずれるともう成立しなかった動きをやってのけているというところが素晴らしいなという形で。
まあでもスペースXのやりたい高速に再使用するっていう意味では、やっぱりこっちの方がいいよねという話はなっているらしくて、
まあ着地台にそのまま降りてくるわけですから、もう一回じゃあ燃料を充填してもう一回打ち上げるだけですよねって。
まあ何を言っているのか奇妙という感じですけど。
スピーカー 2
それはそれができたらいいですねって感じ。
再利用の未来
スピーカー 1
最終的に1時間に1本打ち上げるぐらいの能力を持たせたいということを言ってらっしゃるというので、
本当にあれですね、航空機の飛行機の感じですね。
東京から大阪まで行って、それが1時間後に大阪から東京まで帰ってくるみたいな、
そういうことができる世界を目論んでいるという話なので、そのためには必要な技術だったということ。
それを今回下段側、1段目側を実現できたということで、素晴らしすぎますねというところです。
スピーカー 2
まあ飛行機と同じって言われたらあれかもしれませんが、
危機にかかっている熱量とかエネルギー負荷とかが全然桁違いなので、
同じって言われても次元が違いすぎる話をしてるんですけどね。
スピーカー 1
まあそうですね。飛行機は羽とかがあるので、ある程度格好して位置調整をするみたいなところはありますけど、
ロケットはそういう感じではあまりないですからね。
スピーカー 2
そうですね。当たり前ですけど噴射口周りの電磁器すごいじゃないですか。
スピーカー 1
まあそうですね。
スピーカー 2
その辺の制御系が打ち上がって戻ってきても死んでないっていうこと自体すごいのに、
それを再利用しようってあたりがもう気が狂っているとしか言いようがないって感じなんですけど。
スピーカー 1
まあだし、お尻の方から落ちてきてるんで、この状態で落下中の大気の風の流れを受けながら再転化するってマジで意味がわからんと思ってるんですけど。
まあでも悪くもないんでそれをやってますしね。
スピーカー 2
まあ途中実際そうなってたんじゃないかな。一部炎上しましたよね。
スピーカー 1
そうそう。今回ちょっと弁当の付近が炎上しちゃったみたいで、着地した後もちろちろ炎が出てたんですけれども、爆発したわけではないですし、改善できるんじゃないでしょうかという感じなので。
スピーカー 2
それだけでもめちゃくちゃすごいですけどね。
スピーカー 1
そうですね。
スピーカー 2
いやーでもこれはちょっとね、この時点で異次元すぎるから同じ常識で語っちゃいけないのは徐々に承知してるけど、
この危機の中で使われていた物たちの品質劣化は著しいと思うから再利用だなんてとんでもない。
それをひと飛ばす危機でそれを再利用するだなんてとんでもないって気持ちになっちゃうけど、生きる世界が来るんだろうか。
スピーカー 1
どうなんでしょうね。ひと飛ばす用は今のところ再利用ロケット使ってたかなっていうのはあるにはあるんですけど。
スピーカー 2
使わないかも。流石に衛星に限る。
スピーカー 1
ような気もしますけど、まあでもファルコン9の方で再利用何回だったかな、ちょっと覚えてないですけど。
なんか最大で10回ぐらい使いましたような気もするので。
まあ実力はあるんでしょうね。
スピーカー 2
すごいなーマジで。
スピーカー 1
という感じなので、まあ次回いつ打ち上げるかちょっと分かんないですけれど。
まあ次回も大注目という感じです。
スピーカー 2
はい、でも注目しかないですね。
じゃあ私の方最後、ちょっと雑談チックな話なんですけど、聞いたり面白い記事上がってたんで紹介したいなと思います。
インターネットに公開したインスタンスがどれくらい攻撃を受けるのか試してみたってことで、NX情報システム会社の野村さんって方が記事をあげられてます。
AWSで仮想サーバーであるインスタンスを立てたときに、インターネットからまるっきり見えてる状態で立てることっていうのが可能です。
で、その時にファイアウォールとかその辺も設定せずに、全部フル開放で公開するというのが可能になっていて、実際やってみたらどうなったかという実施例です。
まあセキュリティ的には絶対やってはならないと何度も何度も言われるし、AWSのあらゆる試験で必ず出てくる、やったらあなたはクラウドを開発者として認められないくらいの、医療関係で言うと禁止もんでしたっけ。
なんかありますよね。1個間違えたら絶対なれないやつ。それと同じレベルの話なんですけど、それをあえてやってみるという試みをされていたので興味深く見てました。
結果的にはですね、1時間で200件以上のアクセスがあって、各国からいろんな攻撃を受けていました。
その辺のアクセスマップとして見えているものもあって、1位はアメリカから受けていて、あとはロシアとかブラジルとか、その辺からもアタックを受けています。
プロトコルもいわゆるSSHとかFTPとか、よく脆弱で問題となるようなところのプロトコルがめちゃくちゃアタックを受けているというのが見て取れますし、
その中でもアクセスユーザーのユーザー名とかパスワードも見れるようなツールを仕込まれていたんですが、
rootという一番デフォルトで登場しているユーザー名とか、あとはパスワードはadminとか、いわゆるパスワード。
パスワードのパスワードって表現しづらいですけど口で。そういったものがヒットしていたようです。
なのでたった1時間の公開でもこれくらいのアタックは即座に受けますし、
簡単なユーザー名パスワードだともう即ハックされるという状態なので、
簡単な作業だからとか、ちょっと一時的な接続性検証だからとか、そういったことで安易に公開するのは絶対にやめましょうねというのが結論なんですけれども、
こういうのって自社でやるとIT部が飛んできたりするのでできなかったりするから、
こういうのができて実験した結果を共有してくださっているこの記事はなかなか素晴らしいなと思っての紹介でした。
スピーカー 1
はい、いろいろしっさに富んで面白いですねという感じで。
会社はさすがにIT部がいるんでこんなポカはおかしないとは思いますけど、IT部が仕事していれば。
スピーカー 2
そうですね。
スピーカー 1
自宅で契約した個人回線とか意外とスカスカだったりするので、
そう考えたら踏み台にされている可能性があって怖いなという感じはありますね。
スピーカー 2
そうですね。
皆さん、ルーターの設定は今一度見直してもらった方がいいですし。
確か日本…ちょっとウロ覚えなんですぐ記事とか出せないですけど、
日本政府がですね、その家庭用の機器でその辺のファイアウォールとかの設計がデフォルトでちゃんと機能している。
その買った時点のデフォルト設定で十分こういった攻撃に耐えられる状態になっているかどうかっていうのを
認めた危機群のリストとか公開していたと思うから、そういうのから選ぶとかがいいでしょうね。
サイバー攻撃の現状
スピーカー 1
なんかもう逆に一般向けはその入賞品以外売るなレベルじゃダメなんじゃないかなという気はしますけど。
もう一段踏み込むのはまだできないんじゃないですかね。
でもあれですね、分析結果でアメリカが一番多い28%というのは面白いですね。
意外と近隣のもうちょっと別の国からかなと思ってたんですけど、
スピーカー 2
向こうで何ていうのかな、そういう巣になっているところも多いという話なのかな。
そうですね。USが一番大きいのは、IT道場というかそういったことをやる人が多く住んでいても不思議ではないんですけど、
どっちかというと個人的にびっくりしたのは3位オランダっすね。ネザーランド、オランダ。
オランダから来ているのは分からない。なんかVPN系のところが多いんですかね。
なんかVPNサービスをやっている会社がオランダにあってそこから攻撃しているとか、分からないですけど。
そしたらUSもVPN系かもしれないけどね。
ああ、なんかそんな気は確かにしますね。
直接の国だけ見るとこういう結果になるっていうのは、もうアタッカーは基本的にVPNを挟んでいるっていう証跡かもしれませんが。
スピーカー 1
まあなんか潰されてもしゃあないですからね。そういう足跡残すようにはなんかやってるだろうし。
しかしこういうのなんつうんですかね。どうやって調べてるんですかね。ここにオープンになっているやつがあるって。
クロールするのにも。
スピーカー 2
クロール簡単です。
スピーカー 1
そうなんですか。
スピーカー 2
AWSって更新しているグローバルIP公開しているので、そこにクローリングするだけで簡単にできます。
スピーカー 1
リストの上から下まで見て、終わったらもう一回上から下まで見て更新されたやつチェックしていってって感じか。
スピーカー 2
その辺のパケットを大量にばらまくのは結構容易というか、いろいろネットワーク機器的にも工夫がありますからね。
会社の中とかで安全に使う技術だったら、あるルーターの参加に認めている機器しか繋がってないかのスキャンクロールみたいなのをかけたいってなったら
スピーカー 1
複数のIPにかなり低レイヤーでアープンみたいなものを投げつけるみたいなことをやるわけじゃないですか。
それと同じようにIPが生きて存在している通信先かどうかをチェックすることだけだったら結構軽量で高速にできちゃうから。
なるほどね。
それで対象がおるぞと絞り込んで攻略できそうかを順々に確かめていって、いけそうやったらこれガバガバだぞってなったらアクセスを試みてユーザー名とパスワードを入れてみてみたいな。
スピーカー 2
そうですね。
スピーカー 1
なるほどね。いやー洗礼されてますねという感じがあるけど。
スピーカー 2
アタック側はほぼほぼ自動化されてますからね。
スピーカー 1
そうですね。
スピーカー 2
あとはアタックしてどこの会社がやってることかっていう情報まで引き出せたら一旦アタッカーはその踏み台の方法と特定の会社って情報をダークウェブとかで販売してそれで稼いでそのダークウェブに公開された情報でそこを攻撃したい人が本気で攻撃していって
スピーカー 1
マルウェアじゃないけど暗号化して一つ一つ攻撃してくるって感じかな。
なるほどね。
スピーカー 2
でもこういうのを生で見るとおもろいよね。普段意識しないから。
スピーカー 1
そうですね。はい。
スピーカー 2
という感じでこんな記事が上がってる聞いたらおもろいなと思っての紹介でした。
スピーカー 1
貴重な人体実験ですねという感じで。はい。面白かったです。
スピーカー 2
はい。じゃあ今日はこんなもんですかね。
スピーカー 1
はい。じゃあお疲れ様でした。
スピーカー 2
はい。お疲れ様でした。