1. Recalog
  2. 192. 2024/06/30 生成AIと宇宙..
2024-06-30 00:00

192. 2024/06/30 生成AIと宇宙業界の新たな一歩 ほか

spotify apple_podcasts

以下のようなトピックについて話をしました。

枕: ELDENRING Shadow of the Erdtree

1: NotebookLM

2: Claude 3.5 sonnet

3: NVIDIA CEO Jensen Huang Keynote at COMPUTEX 2024

4: 嫦娥6号 月裏面サンプル採取

5: 宇宙ゴミ撮影

6: Next ISS with NASA × SpaceX


本ラジオはあくまで個人の見解であり現実のいかなる団体を代表するものではありません
ご理解頂ますようよろしくおねがいします

サマリー

GoogleのAI技術を活用したメモアプリ、ノートブックLMが紹介されています。ノートブックの作成や複数の情報源のアップロード、生成AIによる解説や予約などが可能で、効率的な情報整理が行われています。これにより、メモ作業やプレゼンテーションの質問準備なども効率的に行えるようになっています。また、オープンAIはCloud 3.5 SONETを発表しており、SONETが賢くなり、画像入力の認識能力が高まり、アーティファクト生成機能が追加されています。GPT-40との競争が期待されています。NVIDIAもブラックウェル技術に関する発表を行っており、この技術によってGPUのパフォーマンスを最大限に活用することが可能となっています。ブラックウェルはインターネットの物理層を活用しながら通信プロトコルを適用させる技術で、クラウドベンダーなどでの導入が期待されています。また、中国の月探査機ジョーガ6号が月の裏側で採取した1935.3gのサンプルを地球に持ち帰り、ミッション完遂120%となっています。中国の国としての推進力に感心させられます。産経新聞によると、宇宙ゴミに50メートルまで接近し撮影した画像を公開したアストロスケールと、NASAが2030年に運用を終えるISISの軌道離脱用宇宙機開発でSpaceXと契約を結んだことが報道されています。2024年には商業宇宙ステーションを利用する見通しがあり、それに伴い地球低軌道の廃棄のための計画が進められています。廃棄手法やスペースXの能力などについても議論がされています。

00:02
スピーカー 1
エルデンリングをやってますか?
スピーカー 2
いや、ちょっとできてないですけど、ちょっと噂を兼ね兼ね聞いておりますって感じですね。
スピーカー 1
そうですね。とてもおすすめしづらい感じのダウンロードコンテンツになって、
エルデンリングシャドウオブザエルドツリーという新たなダウンロードコンテンツが出まして、
エルデンリング自体はこのラジオでも何回か紹介して、クソほど素晴らしい神ゲーであると3回くらい言ったような気がしますけど、
このダウンロードコンテンツも当然神ゲーであるという大前提をもとに、皆さんこどって影の地に踏み込みですね、
多くの人が挫折を味わい、二度とやるかこんなゲームと叩きつけている状態ですね。
スピーカー 2
なんか結構難易度が高いらしいというのは聞いてますけれども。
スピーカー 1
難易度が高いってもんじゃないですね。
スピーカー 2
そうなんですか。なるほど。
スピーカー 1
私も今頑張ってプレイしてますけど、ちょっとしばらくアップデーが入らないとこれ以上の攻略は無理かなと思うくらいには厳しい。
スピーカー 2
なるほどね。
ダウンロードコンテンツだから本編をクリアできた人向けという話なのかもしれないですけど。
スピーカー 1
いわゆる敵の中ボスくらいの強さが、メインの本編ストーリーの裏ボスの長い剣を持ったあの人くらいの強さなんですよ。
スピーカー 2
マレニアさんって感じか、なるほどね。
スピーカー 1
ザコーがですね、本編でいう最後の方に出てくる、飛び跳ねて突っ込んでくる騎士みたいな人いるじゃないですか。
あれくらいが普通にうようよいる感じなんですね。
スピーカー 2
なるほどね。
スピーカー 1
で、そいつらがあまりにも強すぎるからって言って一体一体倒していくとですね、セーブポイントの間が広すぎて尽きるんですよ。
だからある程度無視もしなきゃいけないっていう感じになってて、体操、体操つらいですね。
スピーカー 2
なるほど。
スピーカー 1
で、別にボスじゃないやつも、ちょっと強いやつもいるんですけど、それくらいのやつにも普通に10から20くらい倒されるという、
ザコ的が本編ストーリーのボスくらいの強さがあるという素晴らしいバランス感ですね。
スピーカー 2
ダウンロードコンテンツでございますという、あれなのか、ちょっとやりすぎちゃったよってへって感じでアップデートが入るのかわからないですけども。
スピーカー 1
非常に心折れるくらいにつらいですね。
まず、本編のストーリーと違って鬼のような周知を受けるのがですね、先輩という、先輩?礼拝か、礼拝という過去の英霊たちを呼び起こせるアイテムみたいなのがあるんですけど、
ボスに入ったら大体使えるんですよね、あれ。
スピーカー 2
はいはい。
スピーカー 1
あれを呼び出してる間にまずワンパン食らうんですよ。
スピーカー 2
なんか初期突っ込んでくるボスが多いみたいな。
スピーカー 1
そう、初期突っ込んでくるか、地面からなんか生やしてくるかで、あれをチリンチリンってやってる間にまず一発食らって、下手したらそのまま一応吊るんで。
スピーカー 2
はいはい。
スピーカー 1
まずチリンチリンできるかどうかの見極めから始まる。
スピーカー 2
なるほどね。
スピーカー 1
その後突っ込んでくるやつがですね、ボスによっては全く避ける手段がない。
重量を軽量にした時のローリング距離でないと避けられないボスとかもいて、
普通のローリング回避が不可能に設定されてるボスとか、
あとは全ての攻撃が全部多段攻撃なので、盾は確実に削られきってダウンさせられるとか、
ジャンプしないと即死とか、そういうギミックが豊富なボスが山ほどいてですね。
それくらいのギミックをしつつ、ヒットポイントがアホみたいに高くてですね、
今私のレベル270くらいあって、推奨レベル150からかなり超えてるんですけど、
一発のダメージで20分の1も減らなくてですね。
虚無感がすごいです。
スピーカー 2
なるほどね。どんなクリアできるかという。
スピーカー 1
ギミックを避けて、ギミックを避けて、ギミックを避けて、何とか削ってきたなと思ったけど、
一瞬のローリングミスでそのまま即死する。
ヒットポイントがMAXからワンパンされるみたいな感じなので、
なかなか心が折れますね。
1週間に1回くらいのプレイ頻度にしておかないと精神不良になってしまう。
スピーカー 2
なるほどね。
スピーカー 1
本当世界観は綺麗だし、新たなフィールドとかステージとか、
その辺のギミックはすごい面白いし、
今までと違うアクションの体験だったりとかもあるんで、
全体的に追加された要素を好きになれる部分も多いんですけど、
戦闘だけはとにかく厳しいですね。
なるほど。
スピーカー 2
なかなか手をつけるのが怖くなるような体験談でしたけども、
神ゲーなんで、どこかで余裕を見つけてやろうかなと思います。
とりあえずやる分には良いと思います。
でも、ビルドは考えた方が良いと思うんですよ。
スピーカー 1
そうですね。
魔法ビルドとか、
スピーカー 2
魔術ビルドとか、
スピーカー 1
巨人のハンマー?二刀流のような、
シンプルでも火力で押し切るみたいなビルドはかなり厳しいので、
それなりに自分をバフしながら立ち回れるビルドが良いんじゃないかなと。
スピーカー 2
個人的には。
スピーカー 1
なるほど。そっち系の方が良いってことか。
はい。
魔術ビルドとか、
スピーカー 2
力でゴリ押しできる敵があまりにもいないので、
スピーカー 1
諦めた方が良いみたいな。
はいはい。
技量ビルドかな、
スピーカー 2
了解しました。
はい。
ということで、
スピーカー 1
とても良いゲームなので、皆さんはどうでしょうか。
今の大きいってとても良いゲームという話になるのでしょうか。
スピーカー 2
まあでもとても良いゲームなので、皆さんやりましょう。
というところです。
はい。
じゃあ本編の方行きます。
はい。
ノートブックLMの概要
スピーカー 1
1個目、ノートブックLMの話を
アスキーさんがまとめられていたので、
こちらを紹介したいなと思います。
ノートブックLM、これ何ぞやというと、
昨今のAIの流行りに瀕上した一つのサービスで
Googleが出しているものです。
先に簡単なサマリーだけ言っておくと、
ノートブックLMというのは
AIの機能を使ったメモアプリの進化系です。
AIに対して、今インターネットの情報を聞いたりとか、
スピーカー 2
任意のファイルについて聞いたりとか、
スピーカー 1
そういったことが体験としてできると思うんですけど、
そういった体験に対して、
じゃあ自分はそれを実際に使って、
実際に使って、
そういった体験に対して、
じゃあ自分はそれをどう整理したのかみたいな
コメントをつけて保管できる。
それがノートブックLMですね。
なので、ちょっと記事の内容をさらっと読んでいきたいと思います。
AI駆動型のリサーチ・執筆アシスタントと説明されているように、
参考文献としてPDF、テキストファイル、
ウェブページのURLなどをアップロードすると、
Googleの最新大規模言語モデル、
Gemini 1.5 Proがそれらの資料を読み込み、
深く理解し、必要なサポートを提供するという触れ込みだ。
現在はまだGoogle Labsからの提供ということで、
正式なサービスでなく実験段階ではあるが、
記者はすでに本格活用を決意している。
ノートブックLMを利用するには、
ノートブックを作成する必要がある。
サービス名もノートブックなので混乱するが、
全ての情報源を一箇所に入れるのではなく、
まるまる用ノートブックと言ったような、
複数のノートブックを作成し、
それぞれに必要な情報を格納していくというスタイル。
情報のアップロードはGoogleドライブ、
PDFテキストファイル、コピーされたテキスト、
ウェブサイトの中から選択してアップロードしています。
情報源を読み込ませてしばらく待つと、
自動的にソースを分析して、
ノートブックガイドと呼ばれるコンテンツが表示される。
ノートブックガイドには情報源を基に、
テンプレート作業を実行できる5つの生成ボタン、
情報源を予約した概要、
情報源を基に生成された想定質問、
という3つのコンテンツが表示されている。
この3つだけでも十分に役立つレベルだ。
スピーカー 2
情報源となるファイルやURLは、
スピーカー 1
画面左側のサイドバーにあるプラスをクリックすることで追加できる。
ノートブックの作成と情報源のアップロード
スピーカー 1
チェックボックスを利用することで、
特定の情報源だけを基に回答することも可能。
という感じでAIを始めていくんですけれども、
流れとしては、ノートブック、あるメモをまず場所として用意します。
そこに対して必要な情報源を出していきます。
例えば、あるイベントに参加して、
展示会とかに参加して、
展示会でいろいろもらったデータをスキャンしてPDFで取り込みました。
そういったPDFをノートブックにペタペタペタと貼って回って、
簡単なレポートをまとめるみたいなプロを今までやっていたとすると、
そのアップロードをこのノートブックのノートブックに行って、
生成AIにこのデータについてまとめてとか解説してとか、
いろんなことをお願いしていくと、
Gemini 1.5 Proによる解説がいろいろついたり、
予約がついたりしますと。
それでアップロードしたPDFの中身を見ずとも、
テキストレベルである程度まとまったものができるのと、
それらを並べて総合的に、
じゃあ結局結論としてはどういうことなのか、
みたいなのをまとめてもらったりとか、
自分でコメントしたりということで、
生成AIとともにそういったメモ、まとめ作業というのを
効率的に進めることができるというのが、
一般的なノートブックLMの使い方になっています。
またそのまま、想定質問とか、
スピーカー 2
そういった機能を使うことによって、
スピーカー 1
そのコンテンツに対してどういう質問が起こり得るか、
みたいなのも出せるので、
プレゼンテーションを加わせた上で、
実際の聞いている人たちから、
こういう質問が来るであろうというものを用意したりとか、
そういったこともできるので、
FAQを用意したりとか、
そういったこともできるので、
FAQを用意したりとか、
そういったこともできるので、
ノートブックLMの機能と応用
スピーカー 1
FAQを事前に用意しておく、
みたいなこともできたりします。
スピーカー 2
ということで、
スピーカー 1
生成AIが今までできるようになったことというのを、
ある意味、メモアプリとして、
一つ、キラーコンテンツ化しようという試みでできたのが、
ノートブックLMなので、
これに対して、
ChatGPTよりまた一歩進んだ、
一つのコンテンツであるということで、
紹介でした。
はい。
スピーカー 2
最後に言ったところが、
結論かなという感じで、
生成AIでは、
ワンノートみたいなところ、
エヴァノートとかワンノートみたいなのに、
実装しましたという雰囲気なのかなと。
なので、
生成AIは結構、
なんか、
うーん、
なんていうか、
テキストベースというか、
スピーカー 1
チャットベースで、
スピーカー 2
ずらずらずらずらーっと聞いていく感じだったんですけど、
これは、
ノートブックというか、
どちらかというと、
何かしらのソース、
URLとかPDFとか、
単位で聞くわけで、
それに対して話を進めることができるので、
資料取り分というか、
日本語で言うか、
日本語で言うか、
日本語で言うか、
資料取り分というか、
になるので、
まあ、
その、
メモアプリ、
メモアプリとして、
結局エヴァノートみたいな感じですね、やっぱり。
使い方になるのかなと、
いう話ですね。
スピーカー 1
エヴァノートという解釈が、
オープンAIの競争
スピーカー 1
たぶん一番筋が良くて、
スピーカー 2
はい。
スピーカー 1
元データがありました、それを読み込みました、
それってそういうことだったら、
次、このインターネット記事から探してきて、
ちょっとこういうデータも、
同じ話かどうか、
まとめとこうとか、
ここに使えるかもっていって、
情報源1個に対して、
実際の施行としてはいろんなところに広がっていって、
いろんな情報ソースを足していくわけじゃないですか。
スピーカー 2
はい。
スピーカー 1
で、そういうのを全部足していくんだけども、
足す過程で、
都度都度SAIが、
今までの情報源を入れる、入れないとか、
こっちでコントロールしながら、
さらにまとめたりとか、
こういうことも言えるかもみたいな、
SAI目線のアイデアを出してくれたりとか、
そういういろんな補完をしながら、
一つの体系的なメモに仕立て上げていく、
みたいな感じですね。
Evernoteでも多分そういう使い方をするのが、
推奨だったと思うんですけど。
スピーカー 2
ああ、なるほど。
まあ確かに、
実際にやっていることを想定すると、
そういう感じなので、
まあ確かに便利そうだなあ、
という感じですね。
うん。
個人的にはあれなんですよね、
OneNoteちょっと使ってますけど、
OneNoteのページの管理が、
できなくなってくる、
ところがあるので、
スピーカー 1
そうですね。
スピーカー 2
そういうところも含めて、
対応してくれるといいなあ、
という印象ですね。
そうですね。
スピーカー 1
おっしゃる通りで、
このノートブック、
ノートブックを作りすぎる問題は、
当然あって、
多分、
今言った理由でノートブックを作っていくと、
平気で1日10個とか20個とか、
スピーカー 2
はいはい。
スピーカー 1
増えていってしまって、
もうごった返して、
もう古いやつ自節見れねえよ、
みたいな状態になりかねないので、
まあそこら辺は、
Googleさんだから、
検索能力の高さみたいなところを生かして、
うまくサーチストするところも、
正々堰でやってくれるとか、
過去に同じようなこと調べてるみたいですよ、
みたいなことを出してくれるとか、
なんかそういうひも付けができるようになると、
いいですね。
スピーカー 2
そうですね。
なんか、
そこら辺、
紙媒体みたいな言い方しますけど、
ファイリングみたいな感じでね、
ノートブックを処理できると、
使いやすいかなというのが、
個人的な希望ですね。
機能自体は、
全然すごく、
記事を読む限りすごく使いやすそうなので、
文句なしで使ってみたいなという感じはしますけど、
というところ。
はい。
スピーカー 1
そうですね。
普段調査系が多い人は、
ちょっと使ってみると、
スピーカー 2
いいんじゃないかなと思います。
スピーカー 1
はい。
スピーカー 2
はい、という紹介でした。
はい。
スピーカー 1
続いても、
私の方で、
AI関係なので、
ちょっと続けていかせてもらうんですが、
アンソロピックから、
Cloud 3.5 SONETというものが出ましたので、
そちらの紹介をしたいと思います。
アンソロピック、
アンソロピックがありますけれども、
世の中のオープンAIの
対抗企業として、
頑張っている企業さんで、
オープンAIと比べて、
セキュリティとか、
ビジネスユースでより使える
AIを出していこう、
というポリシーのもと、
GPT-40とか、
オープンAIが出しているモデルに負けないレベルの
性能のモデルを出し続けていることで、
有名な会社さんが、
改めて、
Cloud 3.5 SONETというものを
結構予告とかがなかったので、
急にバーンと出てきたので、
かなり驚きを持って
受け止められたものです。
スピーカー 2
Cloud 3が出ましたよ、
スピーカー 1
という話も、
割と最近だったかな、
と思うんですけれども、
それから、
およそ2ヶ月くらいかな、
1ヶ月か3ヶ月かくらいで、
次の新しいモデルが出てきた、
というところです。
画像入力とアーティファクト生成
結構すごいところが、
Cloud 3というのは、
もともと高速応答の俳句、
中堅どころのSONET、
最も賢いオーバースという、
3種類のセットを持って
提供されていたんですが、
その中堅どころのSONETが
一気に賢くなって、
スピーカー 1
最も賢かったオーバースを
抜き去りました、
というようなアップデートで、
いろいろモデルのパターンを作ってみたけど、
世の中のオープンAIとかに
戦っていくには、
とりあえず中堅どころを
さらに進化させていくのが
良さそうみたいな、
そういうハンドリングが
あったのかもしれないですけれども、
3.5はオーバースとか俳句は出ずに、
SONETだけが一気に
飛び抜けて出てきた、
というところになっています。
単純に賢くなって、
さらに速くなって、
ということで、
大変良い進化になっておりまして、
もちろん画像入力もできますし、
いろんな出力フォーマットにも
対応しているといったところで、
GPT-40の強い対抗馬になっています。
私が今回、
改めてあえて取り上げたかったのが、
大きく二つありまして、
まずは画像入力の認識能力の高さですね。
GPT-40でも、
テーブルとかそういった情報を
画像で読み込ませて認識させる能力は
十分にあったんですけれども、
グラフ解釈能力や
チャート解釈能力、
そういった情報を
画像で読み込ませて認識させる能力は
十分にあったんですけれども、
グラフ解釈能力や
チャートっていうのは
PowerPointとかで書かれるレベルの
フローズみたいなものですね。
概念図レベルみたいなもの。
そういったものもいろいろあるんですが、
そういったものであっても、
かなりこちらの期待通りの読み込みができる
ということで、
画像入力品質が非常に高い
というところが一つポイントになっていて、
この辺りはGPT-40よりも
優れている可能性があるので、
ぜひその辺は活用していってみたいな
といったところがあります。
もう一つが
アーティファクトの生成機能です。
これがCloud 3.5の目玉機能になってまして、
何ができるかというとですね、
もともと生成AIは
ソースコードの生成
ということができるものでしたけれども、
このアーティファクトの生成というのは
一つのプロジェクトを作れる
というものになっています。
代表的なのは
今現状だと
ウェブアプリ、
ウェブサイトなんですけれども、
ウェブアプリの開発には
本来いろんなファイルが
統合的に必要で、
実行用のファイルだったりとか、
各ページ用のファイルだったりとか、
フレームワークを使うんだったら
フレームワーク用のファイルとか
ということで、
一つのファイルから
ウェブアプリって成り立っていること
ほとんどなくて、
いろんなファイルが
統合的に構築された上で
ウェブサイトというのが成り立つんですけれども、
このアーティファクトでは
ユーザーのリクエストに対し
そういった統合的な環境を
実現するものになります。
これがなぜクロードから出て
すごいのかという話なんですが、
そういったエージェントチックな
振る舞いですね。
これもやって、あれもやってとか
複数のタスクを束ねて
お願いできる機能というのは
今までエージェントという概念で
実現されてきました。
DIFIっていう
D-I-F-Iとかいう
仕組みだったりとか、
プロンプトフローとか
いろんな世の中の
アーティファクトが
バンバン出始めているんですけれども、
そいつらはこういったベースの
AIをどうやって使うかという
工夫の部分を
いろいろ試行錯誤して
出来上がっているものになっているので、
AI自体はやっぱり
シンプルなタスクを
いかに賢くこなすか
といったところに注目されて
開発が進められてきていました。
一方でこのアーティファクトという機能は
ある意味その枠組みを超えてですね、
いろんな複数のタスクを
一挙に実現している
かのように見える
アウトプットになっているので、
本家のベースモデルを作っている
アンソロピック自身が
こういった機能の
アップデートをしてきたということが
非常に注目されています。
予想外のアップデート
スピーカー 2
今後、このソネットの進化が
スピーカー 1
どうなっていくのかは
分からないところではありますけれども、
アーティファクト機能として
いろんなプロジェクトを
作っていけるようになるのであれば、
もしかしたら
ソネットを使うよりは
このアンソロピックのクロードを
使うことで
プログラミングの基礎を
もう構築していって
すぐ使えるものを
生成AIに作らせるという世界が
より近づいていくんじゃないかな
スピーカー 2
ということで紹介でした。
はい。
そうですね。
まずクロードスさん
いいと思いますという話で、
ソネットバージョンを上げた中間
小竹場合の竹かな
をバージョンを上げたら
小よりも良くなりましたという
お話だと思っていて
それは何だろう
やっぱりここら辺
ソネットが一番
お客さんの受けが良かったというか
このくらいの利用者感が良かったのかな
という話なのかなと思っています。
はい。
そうですね。
で、その上で
ちょっとGPTP4を
とかと比較しているっぽいんですけど
何と言うんですかね
なんかもう
飽和しているところは
飽和しちゃってきているなあ
という感じ
それも十分すごすぎるんですけど
チャットQ&Aとか
どこも
90%前後
とかいうレベルになってきているんで
もう
90%だろうが
もう
90%だろうが
95%だろうが
だいたい使えるわな
みたいな雰囲気が出てきてしまっている
うん
ビジュアルマスリゾニング
とか
そういうビジュアル系はまだまだ
60%台なので
そこに力を入れるか
さっき言ってた
アーティファクト系
という
何ですかね
より高知というか
目玉機能
というところで
差をつけていくのかな
という感じはありますと
スピーカー 1
そういう意味で
スピーカー 2
アーティファクトは
良いのかなと思うんですけど
ちょっと
分かりきらなかったんですけども
GPT-4とかだと
アーティファクト機能みたいなのが
載ってないので
何か別の仕組みを使って
やる必要がある
そうです
なので
できなかないんだけど
食い合わせの問題が発生するので
ネイティブで載っている
クロードさんの方が
使いやすいと期待される
スピーカー 1
そうですね
スピーカー 2
そこが良いのではないか
という話かな
スピーカー 1
そうですね
ちょっと補足的に言うと
GPTさんに頼むと
1ファイルずつ作れる
コード生成としては
スピーカー 2
なので
スピーカー 1
作り方としては
例えば
技術選定として
こういうフレームワークを使って
こういう実装方針に基づいて
こういうページをこんな風に作りましょう
みたいに決めるとするじゃないですか
そうすると
そのフレームワークを準備するための
まずセットアップ系のツールを
作るか
ダウンロードして実行するコマンドを
GPTさんに聞く
それ実行する
実行できたら
こんな一式が出来上がったので
ここの部分にこんな開発をしてください
というお願いをする
出来上がったコードを持ってくる
みたいな感じで
何往復かしていかないと
そのフレームワーク上で動くもの
スピーカー 2
というのは出来上がっていけないわけですよね
スピーカー 1
その往復をしていると
一貫性の維持というのが
難しくなってくるんですよ
その1回目にお願いしたことと
2回目にお願いしたことというのが
1回目からしてみると
同じフレームワーク上で議論している
話なのかどうかが
あんまりちゃんと判別がつかないので
スピーカー 2
1回目にはこういう風に出しました
スピーカー 1
2回目にはこういう風に出しました
というので
それぞれで組み合わせみたいなことが
起きたりとか
実はフレームワークでそれもサポートされているから
ここで実装しなくてもいいんだよ
みたいなことをあえて教えてあげないと
期待通りのコードが出てこないとか
そういったことになりかねない
というのが起きますと
そういったことになっちゃうので
先ほど言った別のツール
プロンプトフローとか
ET5とか
そういったものでやっていることは
そういったGPT-4さんに指示を出すための
大元の生成AIを動かす
みたいなことをやって
その生成AIには
一貫性した軸を持たせておいて
そのAIから細かくタスクを分割して
GPTさんに聞く
返ってきたものを組み立てる
スピーカー 2
という作業をお願いする
ということをやっていました
スピーカー 1
そして東山さんが今おっしゃった通り
食い合わせみたいな問題があって
1回目のリクエスト
2回目のリクエストを
うまく構築し立て直すところで
あまりに違いすぎる
レスポンスが返ってきたりしてしまうと
うまく構築できないとか
構築できるロジック自体に
本家とは違う
ロジックを組み込む必要があるので
そこのロジックの制度によっては
うまくできること
というのがまちまちになってしまいかねなくて
制度がやっぱり上がっていきにくい
というのがあります
スピーカー 2
そういった中で
スピーカー 1
Cloud 3.5は
もうベースのモデルに
一連を作るところを
全部お願いできるようになっているので
内部的には同じことをやっているのかもしれないですけれども
少なくともアンソロピック自身が
そこの制度をどんどん上げていける
自分たちがハンドリングできる世界で
制度を上げていけるということになるので
ユーザー側からしてみれば
1回のリクエストで
こっちが聞いたユーザーのリクエストを
そのまま使って
一連一通り期待する
アウトプットを出してくれる
という成果に見えるので
非常に利用価値が高くなる
という感じですかね
なるほど
スピーカー 2
非常に分かりやすかったです
すごく使いやすそうな感じはありますけど
なんかあれですね
GPT-4
次のやつで対応してきて
GPT-4
次のやつで対応してきそうですね
スピーカー 1
という感じがすごくありますね
この辺はお互いにね
目指している方向をずらしつつ
それいいやん
俺にも取り込むよみたいなことを
スピーカー 2
お互いやり合っている感じはあるので
そうですね
正解というかお客さん受けがいいのがあったら
すぐ取り込むみたいなところはあるので
そうですね
スピーカー 1
ただある意味そういった機能では
今回のクロート3.5ソネットで
またGPT-4というか
オープンAIを一歩抜きに出た
アップデートが
アンソロピックから出てきたということで
まだまだ一興の世界ではなくて
群遊活躍しているなというか
分かっただけでもね
ユーザーとしては非常に素晴らしいなという感じですね
スピーカー 2
そうですね
対抗馬がいるというのは大事なので
GPT-3を食う勢いで
頑張っていってほしいものだと思います
スピーカー 1
はい
ということで紹介でした
スピーカー 2
はい
スピーカー 1
私のほう
NVIDIAのブラックウェル技術
スピーカー 1
次最後
ちょっとAIとは外れるのか外れないのか
微妙なところですけれども
NVIDIAさんがですね
6月の頭に
Computexの2024というところで
発表されていました
CEOのデンセンさんが
機能として発表されていたんですけれども
その中でもですね
58分
動画が1時間50分くらい
あるんで
見てほしいのは見てほしいんですけど
AIに絡めてで言うと
58分頃くらいからの
ブラックウェルについて
ぜひ動画で見てもらいたいなと思っています
NVIDIA公式のブログ
でもあんまりそこの
ブラックウェルのセクションについて
触れられていなくて非常に悲しいんですが
内容を見ていただけると分かるんですけど
本当にインパクトある
素晴らしいアップデートの話をされているので
ぜひ見てもらいたいです
内容をざっくり補足するとですね
ブラックウェルというのは
NVIDIAが構想する
新たな
GPU基盤になりますと
何が大きな点かというと
半導体単体では
MUAの法則として限界ある状態から
ブラックウェルにすることで
MUAの法則以上の
新たな進化成長速度を
実現できる
そういうアーキテクチャになっていますと
具体的には
複数の
チップを組み合わせて
構築することができるのが
ブラックウェルになっていて
そのチップ間の通信を
10TBくらいの速度で
担保することによって
大きなパフォーマンスを
いろんな組み合わせによって
実現することができますと
スピーカー 2
そういった通信速度を
スピーカー 1
担保する技術
Ethernetとはまた別の
新たな通信技術というのを
設けて
ブラックウェルの中では
非常に高速な
計算処理の速度を持つ
状態になりますと
今後、生成AIが
よりいろんなところで登場して
より身近なデバイスや
クラウドや
いろんなところで
生成AIの生成物を
使いながら
仕事をしていくということが
大きなコンセプト
アーキテクチャというのは
今後の世界全体の
ビジネスにおける
コストダウン
競争力という形で
計算されていくことになるので
スピーカー 2
私たちのこのブラックウェルは
スピーカー 1
もう世界に浸透する技術ですと
いうことを言っていました
そういったブラックウェルを
導入するにあたって
ブラックウェルの通信プロトコル
スピーカー 2
だったところも言及されているのが
スピーカー 1
面白くてですね
ブラックウェルを導入しようと思って
インターネット全体になった
サーバーラックの
アーキテクチャとの
接合性であると
インターネットというのは
そもそもパフォーマンスの
規定の仕方が平均的なスループット
ということになっているので
バースト的なスループットの
対応だったりとか
検索
処理した結果が
最初から最後まで
ぎっちり伝わることということを
担保するために
サーバーラック上に導入して
ネットワークをつないだ瞬間に
そこがボトルネックになってしまって
拡張性を失ってしまう
ということが起こり得ますと
ということで
NVIDIAとしては
インターネットの物理層を活用しながら
スピーカー 2
このブラックウェルの中で
スピーカー 1
構想しているような
通信プロトコルを
いかに適用させるかという技術について
開発してきて
今回それも成し遂げましたと
ということで
このブラック層と
その他
いろんな既存の
スイッチレイヤーとか
そういった
ラック等を総合接続する上で
既存のインターネットラインを
維持しながらも
ブラックウェルのパフォーマンスを
損なうことなく導入し
拡張していける
そういうものに仕立て上げたので
GPUのパフォーマンスの活用
スピーカー 1
今後
様々なクラウドベンダーの中で
導入されていくことになるでしょう
今までしゃべってきたような
生成AI
アンソロピックとかGBT-4を
飽和してきていると思うんですけれども
飽和してきたら何が
次起きるかというと
そういった最高スペックを
いかにフル活用するか
みたいな世界がやってくるので
その中でベースとして動く
基盤技術である
GPU技術だとか
今回出してきたNVIDIAの
ブラックウェル技術というのは
すごく重要なポイントになってくるだろうな
というふうに
スペックしてたんですけれども
今回のComputexの中でも
非常に有名なある発表があって
実際の台の紹介とか
そういったのも動画の中であったので
ぜひ見てみると
面白いんじゃないかなと思っての紹介です
スピーカー 2
はい
ちょっと
動画は全部見れてないですけど
NVIDIAらしいなという感じですね
スピーカー 1
そうですね
スピーカー 2
AIバブルというか
先生AIバブルですと
めちゃくちゃコストかかってますと
GPUはそれに一応噛むしかないというか
今でもめちゃくちゃ噛んでると思いますけど
さらに
今後のスケール性を担保するために
ブラックウェルが必須ですと
今までのアーキテクチャとちょっと異なるところ
が必要ですという話ですけど
そうですね
NVIDIAしかできない
アーキテクチャかなという感じですね
ちょっと動画飛ばしてみましたけど
めちゃくちゃでかい
スピーカー 1
めちゃくちゃでかい
スピーカー 2
本当に手のひらの
手の器サイズぐらいあるのが
しかも2つくっついてて
それが相互通信すると
もう1つに収まらなかったんだなという感じで
このサイズ多分
Macに入ってるクソデカ
CPUサイズとか
ぐらいの規格な気がするんですけど
そうですね
スピーカー 1
動画で言われてたのは
TSMCで作れる最大サイズの台を
2つ作ってもらいましたって言ってた気がする
スピーカー 2
そうですね
これやるのちょっとプロセス気が狂いそうだと思うんですけど
まあまあできてるので
Macintoshでできてるので
それを作ってるという話です
ただサイズが足りないので
それを相互接続するしかないという話
面白いのが
台ボンディングじゃなくて
基板上でくっついてることなんですよね
このサイズ感だと
デカすぎるんで
台ボンディングみたいなんじゃ無理なんでしょうけど
という感じですけど
スピーカー 1
はいはいはいはい
スピーカー 2
これで10TBパーセック
スピーカー 1
要は相互に繋げる
スピーカー 2
要はやりますねという
モンスターが肩組んで
モンスター&モンスターみたいな
怪獣映画みたいなことになってますけど
そういうもので
AIのひたすらコストがかかる計算を
することができるでありますよという話
素晴らしいですねという感じですね
スピーカー 1
そうですね
第2つだけでは足りない世界になっていったら
第4つとか8つとか当然増やしていきたいわけだけど
それにも限界があるし
既存のスロットとどうやって併用して活かすんだ
みたいな議論になるから
そこで新たに第2つの別のブラックウェルを
サーバーラックに拡張しようってなって
ガシャコンって追加できるよ
そういう風にしても運用できるようにしたよ
というのがさっき言ってた後半の
イーサネットとの変化のとこですね
スピーカー 2
ですね
そこら辺も非常にNVIDIAらしいなという感じもしていて
イーサネットの企画限界だよねっていうのは
たぶん中の人というかそういうスーパーコン設計してる人は
従々承知だと思うんですよね
スピーカー 1
そうだね
スピーカー 2
あれはどちらかというと高速性というよりは
冗長系に前振りした企画なので
それでなんか世界の通信やってるのもおかしい
と言えばおかしい気もする
効率悪すぎだろみたいな
パケットどんだけ捨ててんねんみたいなところもあると思うので
デファクトスタンドアウトになったので
外場はそれするとして
内場はもうちょっと別のアーキテクチャを使いましょうと
まあ分かるんです
分かるんですけど
新しいアーキテクチャを使うっていうのはめちゃくちゃコストがかかるので
本当に
世界の過半数のシェアを
このブラックウェルシリーズで握るっていうことをしないと
ペイできないと思うんですよね
スピーカー 1
そうだね
スピーカー 2
割高になって競合に負けるとかになっちゃうと思うんですけど
だからそこではNVIDIAができるという
踏んでというか
すごいですね
技術的には
技術者としてはやりたいけど
要やるわという感じのことをやってる感じですね
スピーカー 1
そうですね
賢くないのがすごいんですよね
普通に考えたら
既存のアーキテクチャの中で
いかに自社サービスを
最も使える状態にするか
みたいなのが開発思想に入るのが
日本企業的な発想じゃないですか
スピーカー 2
そうじゃないあたりが
スピーカー 1
やっぱり
NVIDIAらしいというか
スピーカー 2
自分たちで市場を作っていくんだっていう
スピーカー 1
意気込みがすごいなって感じですね
実際NVIDIAはそうなんですよね
スピーカー 2
実際NVIDIAはそれができる会社なんで
それをやるっていうのは
非常にいい判断だと思いますから
賢くないというか
逆にNVIDIAしかできないまであると思うので
なのでそういう意味では
すごくNVIDIAらしくて
これでやられてスペック差が出られると
他のところがひいこら言いながら
に従うのか
他のやつでやるのか
みたいな話になってくると思うので
また戦国時代かなという感じではあると思いますけど
スピーカー 1
難しいけど
クラウドベンダーはね
飛びつかざるを得ないんじゃないかな
スピーカー 2
という気は若干してます
飛びつかざるを得ないかなという感じで
そうなった時に
クラウドベンダー
Amazonとかマイクロソフトがこれを採用するかどうか
また勢力図が変わってくると思っていて
スピーカー 1
ちょっとだけその辺の
1世代前のGPUのところになっちゃうんだけど
NVIDIAが出したH100っていう
最高スペックのGPUがあって
それでハイパフォーマンスコンピューティングを実現しますっていうのが
リリースされた
あと一番最初に導入したのが
俺の知ってる範囲だと
マイクロソフトが先に導入したんですね
そこから遅れてAWSが導入したっていう流れだったんですけど
そこでかなり
マイクロソフト側に人が移動したっていうのが
実際にあって
AWS側は後発だったためもあるかもしれないですけど
そのH100コンピューティングリソースの確保に
追われていて
実際のAWSユーザーに
なかなか提供しきらない
みたいな状態が起きたっていう
経緯があるからこそ
今回の新しいやつには
いかに早く飛びつけるかが勝負だぞっていうのを
みんな睨んでる状態になっちゃったんですよね
スピーカー 2
結果として
スピーカー 1
だからその状況でこれを出されると
もう
NVIDIAに乗るのはシャクだけど
行かなかった時の機械損失がエグすぎて
行くしかないっていう感じですかね
スピーカー 2
とはあるとは思いますけど
製造側から見た時に
TSMCの一番いいファブでしか作れない
どうしても
需要に対して供給が落ち着かないんですよね
スピーカー 1
そこをどうするか
スピーカー 2
10倍金積んだら手に入るかもしれへんけど
それやったら運用コストというか
お客さんの値段表に返ってきちゃいまして
じゃあどこまでいくんですかという話もあるし
多分
とは言いつつ
AppleとはAppleとかで
このファブでしか作れない台欲しいとかいう
そっち側の話も出てくるだろうしみたいな
って感じですね
スピーカー 1
AWSのやつでいうとさっきのH100
使うだけで月400万円かかるんですよあれ
予約が半年前から予約して
その時期になったら確実に使い始めなきゃいけないし
使い終わる日は確実に決められてて
そこでバツンと切られる
コンピューティングリソースを本当に使ってるのか
クラウドなのかって言いたくなるような
そんな運用状況でなお
逼迫してて予約が殺到してるという
恐ろしい状態なので
スピーカー 2
スペックがダンチなので他を借りて
何か回すよりは全然いいみたいなところでしょうね
スピーカー 1
そうそうそうそう
この生成愛需要なのか
さっきのファブが追いつかないっていうのは
その通りなんだけど
あまりにも悪い条件にしてなお
ユーザーが飛びついているこの状況は
避けようがないなっていう気持ちになっちゃう
クラウドベンダーとして多少不利益があろうが
どんなユーザーが多少不利益をこむろうが
提供できますという一言が言えるか言えないかで
大きく変わっちゃうみたいな気持ちになっちゃうな
スピーカー 2
そこら辺を含めて
企業戦略だと思うので
どう頑張るかっていう話にはなると思いますけど
手に入らんってなったら
今できる技術というかアセットの組み合わせで
ごまかすかもしれへんけど
さっき言った通り前にそういうことがあったっていう話で
お客さんが動いちゃったっていう
そこも企業戦略のあれですね
スピーカー 1
コンピューテックスの川上の発表は非常に面白かったので
ぜひ機会があれば見てみてください
スピーカー 2
って感じですね
まだまだちょっと半導体バブルがありそうですけど
これもバブルなんで本当にちょっと怖いですけどね
スピーカー 1
そうですね
スピーカー 2
ちょっと見てみたいと思います
では次私の方から
ソレイさんの記事です
ジョーガ6号のミッション完遂
スピーカー 2
中国の月探査機ジョーガ6号が月の裏側で採取したサンプルは
1935.3gというタイトな記事になります
中国航空局は2024年6月28日付で
地球へ帰還した中国の月探査機ジョーガ6号が
月の裏側で採取したサンプルの引渡式を開催したと発表した
発表ではサンプルの重さは1935.3gとされています
ジョーガ6号はCNSAによる月探査ミッションの無人探査機です
地球からは直接見ることができない月の裏側に着陸して
周辺の観測を行うとともにスコップとドリルを使用して
約2kgのサンプルを採取し地球へ持ち帰るサンプルリターンを目的としていました
2024年5月3日に打ち上げられたジョーガ6号は
5月8日に月周回軌道へ到達し
序章機を乗せた着陸機が6月2日に
月の裏側にあるアポロクレーターの南部へ着陸に成功
6月6日には月面を離陸した着陸機と待機していた周回軌がドッキングし
サンプルを移し変えられた機関機が
6月25日にウチウォンゴルジチックへ着陸することに成功していました
CNSAによると
2024年6月26日に北京で開催されたサンプルの引渡式は
工業情報株の金武部長が主催し
ジョーガ6号の機関機から取り出されたサンプル保管容器と照明書が
CNSAの超局長から中国科学院の超委員長へと引渡されました
前日のとおりジョーガ6号のミッションでは
重さ1935.3gのサンプルが月の裏側で採取されたと発表されています
アメリカのアポロ計画や旧ソ連の月探査機それに
中国のジョーガ6号で地球に持ち帰られた月のサンプルは
全て月の表側で採取されたものです
月の裏側で採取したサンプルを持ち帰ったのはジョーガ6号が初めてであり
サンプルの分析を通して月の形成や内部構造などを理解する上で
重要な情報が得られることが期待されます
ということで2週間ラジオをやってないうちに
着陸して開封までされちゃったんですけれども
大大大ニュースでミッション完遂120%みたいな感じですね
スピーカー 1
素晴らしい
スピーカー 2
という感じでジョーガ6号サンプルを買ってきて
入手、人間が触るところまで行きましたというお話です
スピーカー 1
もう本当ただただおめでとうございます
素晴らしいですというしかない感じの内容で
もちろん中身見るのはこれからなんで
続報をお待ちください状態ですよね
そうですね
スピーカー 2
ここからはちょっと時間かかるんじゃないかなと思うので
スピーカー 1
さすがにね
スピーカー 2
そうかなと思うんですけど
なんか本当一連を見ていて
何て言うんだろうな
中国の国としての推進力ってすごいな本当という感じですね
本当に何の不具合もなくスッスッと全部やりきりました
アストロスケールによる宇宙ゴミの撮影
スピーカー 2
っていう感じもありますし
このサンプル開封式はなかなか面白くて
日本とかだと本当に
サンプル量の問題もあるのかもしれないですけど
ラボで地球のエアーが入らないような密室隔離された状態で開封してるんですよね
NASAもそういう感じでやってたんですけど
中国結構面白くて本当に
アナウンサーさんが横にいるような状況で
ネジ回して開けてて
空気漏れたらどうすんだみたいな感じなんですけど
そういう状況で開けていて
何ですかね
ある意味科学的な
ほっこり一つまでサンプルにしてやるぞという気概よりは
そうやって大やけに
テレビ上で映すところを実際に見せるという方を重視している
という感じがあって
中国らしいなと思いながら見てました
スピーカー 1
大事なことだと思いますけどね
スピーカー 2
そうですね
約2kg
本当に2kg撮れてるらしいので
これも本当に赤丸120点みたいな感じなんですけど
これを分析してると思いますし
ちょっと調べられてないですけど
もしかしたら各国にサンプル
分け前があって提供されてそれを分析するという状態になるのかもしれないので
そうなるとやっぱり
この記事の最終にあった月の形成や内部構造などというところで
新情報が出てくる
1年か2年後くらいだと思いますけれども
というのが期待できますねと十分期待できます
いろんな使い方ができるでしょうし
もしかしたら万博とかにも出るんじゃないかなと
というところで非常に楽しみだなというところです
スピーカー 1
いやー万博は来てほしいですね
スピーカー 2
来るんじゃないかな
何gか分かんないけど
スピーカー 1
名は見れなくてもいいし
分析結果のまだ一部しか出てなくて全然いいから
なんか展示してほしいな
スピーカー 2
そしたらそれだけでもいく価値あるんで
探査機、機関機でもいいんで置いといてほしいな
という感じですね
スピーカー 1
いやもうただただ素晴らしい楽しみです
しか本当にコメントするポイントがないんですけど
スピーカー 2
ちょっと実感もしてますし
じゃあ次いきましょうか
次は宇宙ゴミの話ですね
これは産経新聞さんの記事で
宇宙ゴミに50メートルまで接近
民間企業の衛星撮影成功というタイトルの記事です
日本の宇宙企業アストロスケールは
14日宇宙ゴミ除去技術を確立するための
実証衛星アドラスJが
目標のロケット残骸から約50メートルの距離で
撮影した画像を公開した
4月にはこの残骸の数百メートルに接近し
世界初の撮影に成功していた
高速で宇宙空間を漂うスペースデブ量を
最も近い距離で定点観測できたという
撮影した残骸は2009年に打ち上げた
H2Aロケット15号機の第2弾部分で
全長約11メートル直径4メートル重さ約3トン
地上約600キロの軌道を高速で周回している
人工衛星やロケットの打ち上げ増加に伴って
宇宙ゴミは増え続け
運用中の衛星などに衝突する恐れがある
宇宙ゴミを除去するためには見た目や位置の
情報が得られる中で 限られる中で
安全かつ確実に接近する技術が重要になる
アドレスJは今年2月に打ち上げられた
ということで これも目標に向かって
順調ですねというお話で
ラジオでも打ち上げの時に取り上げましたけど
宇宙ゴミを除去するため
増え続ける宇宙ゴミを除去するための技術検証として
まず接近して撮影して観察して
だんだんちょっとタッチするところまでだったかな
やるという実証衛星アドレスJ君が
50メートルの距離 本当に宇宙的には
近々の近い場所ですね
そのところまで行って撮影した
画像を送ってきてくれましたという話です
記事にはないんですけど
この宇宙ゴミも結構面白くてですね
結構宇宙だと無重力なので
一回姿勢が崩れると
ずっと回転したままとか普通にあるんですけど
こいつは全然回転してなくて
何枚か撮影した画像がほぼ同じ目だったという感じでした
宇宙ゴミの回収とか廃棄のことを考えると
非常に姿勢が安定しているというのはだいぶありがたいんですけど
これがH2への打ち上げ制度の問題なのかとかいう話はちょっと分かんないんですけど
普通はこういう感じにはなってないので
今後はそういうところ
やっぱりこれは実際に撮影して初めて分かった話ですし
そういうのを含めて実際に近場に行ってみて観察してみて
そこでプランを練るみたいなことができる
っていうのはすごく重要な要素技術かなと思うので
今後も頑張っていってほしいなという感じですね
ISISの軌道離脱用宇宙機開発の契約
スピーカー 1
本当にもともと狙っていたことがこちらもちゃんとできていて
大変素晴らしいなと思いますし
スピーカー 2
どこだっけ
スピーカー 1
国際会議の中でまたこの宇宙ゴミ何とかいかげんせんといけんで
みたいな話題がまた沸騰していたりもして
非常にタイムリーな話だと思うので
改めて頑張ってほしいなという感じですけど
スピーカー 2
そうですね 日本が結構やりたがっている技術みたいな
ところはあるかもしれないですね
スピーカー 1
先日国際宇宙ステーションで宇宙ゴミ接近の問題があってとか
本当にいよいよ人の生き死にに影響するレベルの
ヒヤリハットみたいなのも話題になり始めてるから
スピーカー 2
どこぞの民間企業がバカ速打ち上げてたりするんで
回収して燃やしてるのもありますけど
打ち上げ回数が増えるとどうしてもこういうゴミとかが出たりはするので
できる限りのことはやってますけど
物が増えればぶつかる可能性も増えるので
そういうことも含めて回収技術は重要と
スピーカー 1
そうですね もう一個あれですね
ISSから廃棄した宇宙ゴミが米民間にぶつかったっていうのもありましたか
スピーカー 2
それもありましたね
記事はちょっと出てこないので口頭で言いますけど
あれもなかなか難しくてですね
打ち上げ 本来はISSに持っていったコンテナみたいなやつ
ゴミを入れてそのコンテナごと目標の軌道に再投入することで燃やす
確実に燃やすってやって今までは燃やしてきたんですよ
ただあの時はいろいろあって燃やす用のコンテナを確保できなかったので
燃やす用のコンテナってちょっと違うかな
確実に燃やせるような軌道を取るコンテナを確保できなかったので
ちょっと制御しきれないコンテナに詰め込んで廃棄したんですよね
その結果おそらく燃えるだろうという話だったんだけど
実際はちょっと燃え残っちゃったみたいな感じで
それも燃やすためだけのコンテナを打ち上げるのか
その時はそういうことができなかったというのもありますし
できる限りの再生をやったということはあるんですけど
宇宙の活動が増えていくとやっぱりそういうことが起こり得るので
そういう意味も含めて今後重要になりはするけど
工学衛星みたいに直接成果が得られるようなお話ではなかったりするので
重要なんだけどどこまでやるのっていう話もある中で
こういうことを進めていってるっていうのはいいんじゃないかなと思いますね
スピーカー 1
逆に他の国があんまりやりたがらないんだったら
国際的にお金を集めて日本の民間会社がやってるとかになると
スピーカー 2
おいしいからそういう感じになったらいいなって思いますね
はい という感じですね
はい ここも
スピーカー 1
アッサンゴイケールさんだいぶ前からね
この宇宙ゴミ注目されてずっとやってこられたんで
スピーカー 2
引き続き応援したいなと思います
そうですね はい 頑張っててほしいなと
はい
じゃあ最後の記事で
これもソライさんの記事です
NASAが2030年で運用を終えるISISの軌道離脱用宇宙機開発で
SpaceXと契約というタイトルの記事になります
アメリカ航空宇宙局NASAは2024年6月26日付で
2030年に運用を終える国際宇宙ステーションISISを
大気圏へ再突入させるための宇宙機の開発を担当する企業として
アメリカの民間企業SpaceXを選定したことを発表しました
1998年11月に最初の構成要素が打ち上げられたISISは
2024年で建設開始から26年
宇宙飛行士の長期滞在開始から24年を迎えます
NASAをはじめ日本の宇宙高級研究開発機構JAXA
ヨーロッパの洋宇宙機関ESA
アメリカのカナダ宇宙庁CSA
ロシアのロスコスモスが運用に関わるISISでは
地球宇宙科学生物学人類生物学宇宙科学
地球では行えない技術実証といったさまざまな実験が
宇宙飛行士によって行われてきました
しかし2011年に主な構成要素の組み立てが完了したISISでは
予圧モジュール化の空気漏れや
太陽電池の発電能力低下といった経年劣化の影響が
既に現れています
21年から23年にかけて
新型太陽電池アレルの増設が行われるなど
対策は講じられているものの
ISISの運用は2030年に終了する予定です
ISISが周回している
高度約400kmの地球低気土では
気迫な大気によるごくわずかな抵抗を受けるので
ISISは放置しておいても
いずれ大気圏に採取中にします
ですがそれはいつどこで採取中にするかが分かりませんし
トラスのように高密度で耐熱性がある構成要素の一部は
地球へ到達して被害をもたらす可能性があります
また地球低気土に残されている間は
スペースデブリーと衝突するリスクがあり
他の宇宙船や人工衛星にとって危険なデブリが
ISISから生み出されてしまう可能性も否定できません
そこでNASAは運用終了後の
ISISを制御された方法へ大気圏へ再突入させ
人工密集地から遠く離れた海へ落下させて
廃棄する計画を立てています
この方法は再突入能力を持たない
無人補給船やペイロード分離後の
ロケット上段を軌道から離脱させて
廃棄する方法と基本的に同じですが
質量430トン上回るとされるISISを減速して
軌道から離脱させるのは簡単ではありません
NASAはISISのリブーストに使用されている
ロシアの補給船プログレスを
複数使用する方法など検討しましたが
NASAの重点の火星有人探査
スピーカー 2
ISISの安全な廃棄を実現するには
大量の推進材を搭載した専用の宇宙機を
用意する必要があるという結論に達し
衝突するための計画を進めていました
今回NASAがSpaceXと交わした契約は
8億4300万ドル規模で
SpaceXは軌道離脱機の開発と提供を担当します
NASAは提供された軌道離脱機を運用して
ISISの制御された廃棄を実行する予定です
なおアメリカでは複数の民間企業が
地球低軌道に商業宇宙ステーションを
設設する計画を表明しています
ISIS運用宇宙後のNASAは月
火星有人探査に重点を置き
商業宇宙ステーションの利用見通し
スピーカー 2
地球低軌道では顧客の一つとして
商業宇宙ステーションを利用する見通しです
ということで
まあちょっと捨てる捨てる詐欺している
ISISなんですけれども
えっと何でしょう
2030年の廃棄に向けて話がやっとこそ
進んできましたよという話の一部になりますかね
まあこれもあの実際のところ話は
多分打ち打ちではあってスペースXが
この前打ち明けを成功した話もあって
それも含めての話だと理解しています
はいですがまああと6年ぐらい
まあ長いようで宇宙計画だと結構すぐなので
はいそうですねすぐって言ってますね
30年に廃棄できるのかわからないですけども
まああの着々と結構もう限界なのは事実だと思うので
廃棄という話になるかなというところでの紹介です
スピーカー 1
はい
廃棄の手法とか
そこに必要な能力がスペースXにはあるでしょう
という見解とか全然違和感はないというか
おっしゃる通りこの前のね超巨大なスターシップ
スピーカー 2
スターシップですねあれくらいあれば
スピーカー 1
必要な推進材全部運べるんでしょうし
まあまあまあできる能力が十分あるだろうなって
思わせる実現だったので全然いいんじゃないですかね
スピーカー 2
うんそうですね
スピーカー 1
ちかというとISSから
ISSの中にあるこれまでの実験機材とか
その辺の引き上げ計画とか
具体的に今後もちょっと変わっていくのかなと思うので
なんかその辺の話だったり
あとはNEXT ISSというか
次のISSどうするんだろうという話の方が
スピーカー 2
次は気になってきますね
スピーカー 1
そうですね
時間感覚的には当たり前ですけど
すでに議論が始まってないといけない時間軸だと思うんですが
あんまりそういう話題が出てこないのが
ちょっとなんでなんだろうというのがよく分かってないんですけど
スピーカー 2
なんつうんですかねコンペみたいなことは
なんかないんですけど
結局なんかこう
実証試験とかの遅れが年単位で発生しているとか
SpaceXがどちらかというと
その火星探査の研究の方を優先しているみたいな
ところもあったりしてスターシップの開発
廃棄のためにスターシップ使い聞かせる
それはそれで必要なんですけど
とかいうのもあったりして
なんかあんまり進捗が聞こえてこないなという印象はありますね
そうですね
ただ民間
今のISSに駐在している宇宙飛行士が乗れるぐらいの民間のスペースはない
確保してからじゃないと流石にISSを落とさないと思うので
宇宙飛行士でやることなくなっちゃうみたいなところはあるので
廃棄計画と次のISS
スピーカー 2
そういう意味も込めて
30年までには打ち上げはするとは思うんですけど
スピーカー 1
どうなのかって感じですね
そうね
スピーカー 1
希望だけで言うとちゃんとその辺は粛々と進めておいて
またJAXAがそこにどう絡んでるのかっていう発表が
2025年には聞けるといいなぁ
5年切ったし
スピーカー 2
そうですね
スピーカー 1
確かに先日のスターシップの積載能力とか考えると
それくらいの積載能力があるものが打ち上げられるんだったら
これできるよねとか選択肢が状況変化してるっていうのも分かるんで
一方である時点でできる範囲の計画を立てるしかないっていうのもあると思うし
それのタイムリミットが2025年なんだとしたら
スピーカー 2
落ち着いて待ちましょうくらいの感じで受け止めておきます
そうですね
今めちゃくちゃでかいロケットがあんまりないっていうのも事実だと思ってて
スピーカー 2
スペースシャトルだった時代はスペースシャトルに乗っけて
1モジュール丸々乗っけて打ち上げて
それをISSにくくりつけるみたいな感じでやってたりしたこともあったんですよね
ただ現状だとスペースシャトルはなくなっちゃったんで
何でやるんですかっていう話になると
アメリカだと今民間が開発しているものが安定して打ち上げられるようにならないと
まあまあ打ち上げられないという事実もあるし
スピーカー 2
インドとか中国とかロシアとかでかいの打ち上げてきてますけど
そっちの国に頼むのもなぁみたいなところもありますので
そういう意味では確かにロケットが一番最初かもしれないかなと今の話は聞いてて思いましたね
足回りがなんとかなった後にようやく話が出てくる気はするってなると
スピーカー 1
2,3年後ぐらいかなという感じかもしれないですね
スピーカー 2
なるほどね
そんな感じですというところで本日は以上になります
スピーカー 1
じゃあお疲れさんでしょう
スピーカー 2
はいお疲れ様でした
00:00

コメント

スクロール