1. Recalog
  2. 204. 2025/03/02 米月着陸機が..
2025-03-02 00:00

204. 2025/03/02 米月着陸機が軟着陸成功

spotify apple_podcasts youtube

以下のようなトピックについて話をしました。

01. 宇宙飛行士の野口聡一がISSシミュレーターを体験評価

宇宙飛行士の野口聡一さんが、NASAの協力を得て株式会社スペースデータが開発した「ISS Simulator」というゲームをプレイした感想を述べた動画の内容です。

ISSは、16カ国が共同で運用する国際宇宙ステーションで、1998年に打ち上げられ、現在も運用中です。ゲームでは、温度や風などの実際のデータを元にISSの環境が再現されています。

動画内では、自由に移動できる球形ロボット「イントボール」の操作の難しさや、無重力空間での風の流れ、ロボットアーム操作パネルの設計、ケーブル配線の問題、運動設備やトイレの特徴などが紹介されました。

野口さんは、シミュレーターの技術的な再現度の高さを評価する一方で、ゲームとしては現実以上に宇宙っぽい表現があってもよいと述べ、クリエイターとの連携でより魅力的なものになる可能性を示唆しました。また、オープンワールドゲームの実物以上にリアルな表現に魅力を感じていることも明かしました。

02. OpenAIが新言語モデルGPT-4.5を発表

OpenAIが新たな言語モデル「GPT-4.5」をリリースしました。GPT-4.5は、OpenAIの最大かつ最も知識豊富な言語モデルとして位置付けられています。

主な特徴として、教師なし学習を大規模に活用することで、より広範な「世界モデル」を獲得し、パターン認識や関連付け、洞察生成の能力が向上しました。また、感情的知性(EQ)が高まり、より自然で暖かみのある対話が可能になりました。

GPT-4.5は、ChatGPTのProプラン利用者とAPI開発者向けに先行提供され、その後段階的に他のプランにも展開される予定です。ChatGPTウェブ版では、ウェブ検索機能やファイル・画像のアップロード、Canvas機能などが追加されました。

安全性に関しては、従来の教師あり学習と強化学習を組み合わせた手法で訓練されており、ハルシネーション(幻覚)の発生率も低減されています。

OpenAIは、GPT-4.5を最後の非推論モデルと位置付けており、将来的にはユーザーがモデルを意識せずに利用できる体験を目指しています。また、o系列の推論モデルとGPT系列のモデルを統合する方針も示されました。

03. Anthropic社が高性能AI『Claude 3.7 Sonnet』を発表

Anthropic社が発表した「Claude 3.7 Sonnet」は、AIモデルの新たな進化を示す画期的な製品です。このモデルの最大の特徴は、高速な応答と深い思考を1つのシステムで実現する「ハイブリッド推論モデル」という点です。

ユーザーは状況に応じて、迅速な回答を得られる標準モードと、複雑な問題に対して段階的に推論を重ねる拡張思考モードを切り替えて使用できます。拡張思考モードでは、AIの思考プロセスを可視化することも可能になりました。

特筆すべきは、コーディングと前端開発における性能向上です。ソフトウェア開発のベンチマークテストで最高水準の結果を記録し、実用性が大幅に向上しています。

また、Claude 3.7 Sonnetと同時に発表された「Claude Code」は、開発者向けのコマンドラインツールで、コードの検索や編集、テスト、GitHub連携などを直接ターミナルから行えるようになりました。

さらに、このモデルは128Kトークンの長文処理能力を持ち、より複雑で長い文章の理解と生成が可能になっています。安全性の面でも改善が見られ、有害なリクエストの識別精度が45%向上しました。

Claude 3.7 Sonnetは、AIの実用性と柔軟性を大きく前進させる革新的なモデルとして、幅広い分野での活用が期待されています。

04. 10倍高速なAI言語モデル『Mercury Coder』登場

AI開発企業Inceptionが、従来のAIモデルよりも最大10倍高速なテキスト生成が可能な大規模言語モデル「Mercury Coder」をリリースしました。Mercury Coderは拡散型の言語モデルで、ノイズから単語を抽出してコードを生成する新しいアプローチを採用しています。

このモデルの特徴は以下の通りです:

  1. 高速性: 既存のNVIDIAハードウェア上で毎秒10,000トークンまで生成可能。

  2. パフォーマンス: Gemini 2.0 Flashlight、GPT-4o miniなどの小型フロンティアモデルと同等の性能。

  3. 並列処理: 従来の左から右へのトークン生成ではなく、一度にすべてを処理。

  4. マルチモーダル対応: 将来的に動画や画像生成と組み合わせた機能が期待される。

  5. コーディング能力: 複雑なコード生成タスクにも対応可能。

Mercury Coderは現在、無料でテスト利用が可能ですが、1時間あたり10リクエストの制限があります。この新しいアーキテクチャは、特に高速な推論速度を必要とする分野でイノベーションを促進する可能性があります。

05. 米民間企業の月着陸機『ブルーゴースト』が軟着陸に成功

アメリカの民間企業Firefly Aerospaceの月着陸機「Blue Ghost」が2025年3月2日17時35分頃、月面への軟着陸に成功しました。これは民間企業による2回目の月面軟着陸成功となります。

Blue Ghostは2025年1月15日にSpaceXのFalcon 9ロケットで打ち上げられ、危難の海にあるラトレイユ山の近くに着陸しました。このミッションはNASAの商業月輸送サービス(CLPS)の一環として実施されました。

搭載されたペイロードには、月面下10フィートまで測定可能な熱流量計や、全地球航法衛星システム(GNSS)の信号を月環境で利用できるかを実証する受信器など、計10の機器が含まれています。

着陸地点は丁度日の出を迎えたタイミングで、日の入りは3月16日の予定です。Blue Ghostのミッションはこの2週間にわたって行われる見込みです。

Firefly AerospaceはBlue Ghostの着陸を「完全に成功した月面着陸」と表現しており、これは以前の民間月着陸機Odysseusが横転した状態で接地したことを意識したものと思われます。

06. 手のひらサイズの月面探査車YAOKIが開発

YAOKIは、月面開発の最前線で活躍する超小型・超軽量・高強度の月面探査車(月面ローバー)です。以下がYAOKIの主な特徴と目標です:

特徴:

  • 超小型:15×15×10cmと手のひらに乗るサイズ
  • 超軽量:498gと非常に軽量
  • 高強度:100Gの衝撃に耐え、洞窟への投げ込み探査も可能
  • 確実走行:転倒しても走行可能な設計

目標:

  1. 民間企業による月面探査の実現:NASAの月輸送ミッション「CLPS」に日本企業として参加
  2. アルテミス計画と連携した月面開発への貢献:2025年頃からモビリティシステム分野での貢献を目指す
  3. 月面基地建設への貢献:2028年頃から始まる月面基地建設を支援し、多数のYAOKIが月で働く未来を実現

YAOKIは、コストを抑えて月面に送り込むことができる設計となっており、民間企業による月面探査を実現し、月面開発を着実に前進させることを目指しています。将来的には、大量のYAOKIが月で活躍する姿を描いています。


本ラジオはあくまで個人の見解であり現実のいかなる団体を代表するものではありません
ご理解頂ますようよろしくおねがいします

サマリー

ISSシミュレーターの紹介を通じて、宇宙飛行士がゲーム体験を深める様子について語られています。また、OpenAIの新モデルGPT-4.5の進化や課題が取り上げられ、感情理解の向上が期待されています。2025年3月2日、米国の月面着陸機が成功裏に軟着陸を達成しました。この歴史的なミッションは、今後の月探査や宇宙開発における重要なステップを示しています。米月着陸機の成功した軟着陸は、従来の技術からの大きな進歩を示しています。この新しいモデルは、従来の生成AI技術を超えた能力を持っており、特にコード生成の速度向上が注目されています。アメリカの企業ファイアフライヤルスペースは2025年3月2日に月着陸機ブルーゴーストの成功した軟着陸を発表しました。この業務は民間企業による月面への二度目の成功であり、着陸地点では写真も公開され、今後のミッションに対する期待が高まっています。米月着陸機の成功した軟着陸とその後のミッション内容に関する議論が展開され、日本企業の取り組みが注目されています。

ISSシミュレーターの魅力
スピーカー 2
ISSシミュレーターって知ってますか?
えーと、ゲームのやつ?Steamのやつ? そう。
はいはいはい。 私全然知らなくて、11月7日に、去年の11月7日に出てたんですね。こんな面白そうなのが。
スピーカー 1
はい。
スピーカー 2
なんか、YouTubeきっかけで知ったんですけれども、あの、ゲームの散歩?ゲーム散歩みたいな、まぁYouTubeのチャンネルがあるんですけど、
そこで宇宙飛行士の野口聡一さんの解説をもと、ISSシミュレーターやってみたっていう、素晴らしい企画の
プレイ動画があってですね。それがすこぶる面白かったんで、ちょっとせっかくだし共有したいなと思って。 豪華すぎるやろ。はい。めちゃくちゃ豪華。
いや正直ね、興味はあったんだけど、やってもよくわからんなで終わるなぁと思ってたんですよ。
はい。 なんですけど、この野口さんの解説機で見るとめちゃくちゃ面白いというか、
要を作り込んでるなぁって思うところが山ほどあってですね。 で、うまく操作できないのも、なんでうまく操作できないのか、何が起きてるのか
みたいなところも野口さんの解説がついてたので、めちゃくちゃ腹落ちしててですね。
スピーカー 1
まあ、なんか結論を、じゃあ俺にはプレイできないわみたいな気持ちは若干なったんですけど。
スピーカー 2
ISSの中はどういうためにどういうものがあってとか、天井の定義だったりとか、上下逆さまだったり、
いろんな方向から操作しても操作ミスがないようにするための工夫だったりとか、時代背景だったりとか、
なんかその辺をいろいろ伺える内容になっててですね、めちゃくちゃ熱いコンテンツだったので、
まあ、せっかくだから紹介したいなと思って。 はい。
スピーカー 1
はい。 いいと思います。
スピーカー 2
ちょっと自分は触ってみたことあるんですか? 解説してみると。
スピーカー 1
いや、結局インストールだけして触ってないかなって感じなんですけど、はい。
スピーカー 2
非常に成功に、そう非常に成功にできているらしいので。
未来の展望
スピーカー 2
弱さから協力を受けて作られたところで株式会社のSpace Dataさんが作られているようですね。
スピーカー 1
うん。 うん。
スピーカー 2
ただ、まあダメ出しとかもあって、ゲームというか作れるコンテンツ量の限界なんだと思うけど、実際にはもっとごちゃごちゃしてるっていう話でした。
はい。 このゲームの中だけでも相当ごちゃごちゃしてるんですけど。
まあやっぱり面白かったのが、風の作られ方とかですね。
まあ、あの3話構成でまだ1話くらいしか出てないんですけど、
あの、普通に作業してると、人間が吐いた二酸化炭素が動かないので大流がないと。
スピーカー 1
うん。
スピーカー 2
なので、上から下に吹き下ろすように風が送られてるんだけど、
ユニットとユニットの接続の境界点だけは風の向きが横に流れるっていう。
スピーカー 1
横に流れてるっていうのは、えっと、うん?
スピーカー 2
横にって言い方が難しいな。
えっと、なんか、ユニット間はどっち向きに風を流すっていう定義付けがお互いの中で決まってて。
スピーカー 1
あー、はいはい。
スピーカー 2
うん。
スピーカー 1
その関係で、えっと、上から下以外の風が境界点だけ吹いてるみたいな状態みたいです。
うーん。
まあ、そこは調整しないと、こう変な吹き玉ができちゃうからとか。
そうそうそうそう。
そういうことね。
スピーカー 2
うん。
とか、で、それが何で必要なのか、今言ってくれたようなこととかも全部野口さんが解説されてたりとか。
なんか操作するのは球体ロボットで、なんか日本のチームが挙げたコンパニオンみたいな、そういうロボットらしいんですけど。
スピーカー 1
実際にはそのロボット超使いづらくて、用意書がめちゃくちゃ必要で大変だったみたいな話とか。
なるほど。
スピーカー 2
うん。一番嬉しかったのはタブレットで、何でタブレットが一番便利なのかみたいな話とか。
スピーカー 1
うん。
スピーカー 2
まあ、生々しすぎてめっちゃおもろかったっすね。
スピーカー 1
いや、いいですね。
スピーカー 2
うん。なのでちょっと、あの、ISSとかよくわからないというか、ニュースでやってても映像で、ねえ、日本の人とつながってますみたいな感じの映像しか見たことない人は一度ぜひ見てもらいたいなと思うコンテンツでした。
GPT-4.5の発表
スピーカー 1
はい。いや、ぜひやってもらえればと思いますけど。まあ、Steamだからなかなかちょっと敷居が高いものはあるかもしれないですけど。
スピーカー 2
そうですね。推奨スペック見てやがったけど、そこそこいるのかな。
スピーカー 1
いやまあ、そもそもSteamを入れる環境がある人がどんだけいるのやっていう話でございますから。
スピーカー 2
はい。推奨はRTX3090ですね。なかなかですね。
スピーカー 1
うーん、まあ、最近の、そうですね。
スピーカー 2
そうですね。ここ2年くらいのGPUを買っていればまあ大丈夫かな。
2年くらいのGPUの上級コースを買っていればって感じですね。
まあ、少なそうですね。
はい、という感じで。はい、枕はそれくらいにして本題の方行きたいと思います。
スピーカー 1
はい。
スピーカー 2
1点目、オープンAIがGPT4.5を発表ということで感情理解力が向上したということが下馬票で言われています。
まあ、本家の記事にも一応それっぽいことは書いてあるんですけど。
本家のニュースリリースをちょっとだけ読むと、
これまでで最も大規模・高性能なチャット向けモデルのGPT4.5の研究プレビューを公開します。
GPT4.5は、事前学習と事後学習のスケーリングを前進させたモデルです。
教師なし学習をスケールアップし、パターン認識や関連性の整理、
または、リーズニングを介さず、想像的な動作を生成する能力を向上しました。
初期テストではGPT4.5との対話がより自然に感じられることが示されています。
より広い知識ベース、ユーザーの意図を汲み取る能力の向上、
そして進化したEQ、心の知能指数になるものがあるらしいんですけど。
により、文章作成、プログラミングの向上、実用的な問題解決など、
多様なタスクに役立つことが期待されています。
また、誤った情報を生成するハルシネーションの頻度が低減することも期待されています。
ということで、OpenAIから新しいモデルが出てきましたよというところです。
GPT4.5と言っている通り、これまでのGPT4.0と言われているような、
モデルの延長線に位置づけられているようなモデルで、
推論とかは使わずに、ワンショットの回答の精度が上がっているような、
そういったモデルになっています。
興味深いと言われているところは、先ほどの心の知能指数という評価軸を、
スピーカー 1
新たに設けてきたところです。
スピーカー 2
この辺がテスターとの評価という形になって、
まだまだ体系化されていない評価指標ではあるんですけれども、
今まで以上に人間と会話しているような、
そういうユーザー体験が得られますよというようなモデルになっています。
他の能力がこれまでと比べてめちゃくちゃ突出して高いかと言われると、
そこまでめちゃくちゃ高いというわけではないんですけれども、
そういったこれまでにない表現力を有しているということで、
最新のリリースとなっています。
ただお値段の方が非常に高くて、
今までの最高級モデルと言われていたものをさらに超えて、
前のGPT-40と比べて約30倍のお値段をするという、
なかなかリッチなモデルになっていて、
まだまだ評価軸のわからない感情性といったところが売り文句になっているので、
ビジネスユースだとなかなか導入が難しいのかなと思いつつ、
その辺の感情性をメトリクス化できているような分野がもしあれば、
そこでは役に立つのかなと思います。
もしかしたら小説とか書く上ではすごく有用な可能性があるかなと思います。
その辺の感情性に関して、
そもそもこういった生成AIがどこまで追従していけるのか、
なぜこういうことができるようになったのかといったところの学術的な解釈については、
今まだいろんなところであだこーだ言われている段階で、
確たるものはないんですけれども、
ユーザーが期待する推論をしていくという行為が、
いわゆる感情との紐付けになっているんじゃないかということで、
感情を理解したというよりは、
これまでユーザーが最も期待するものを確率的に出すということをやってきたわけですけれども、
そのユーザーの期待することに応える確率の高いものという行為と、
その感情の動きというのが結果的に紐付いてそう感じるだけなんじゃないか、
みたいな意見とかもあったりして、
まだまだそこらへんのこうだろうという決まった解釈は出ていない、
ビジネスユースの可能性
スピーカー 2
というのが現状を理解です。
今本当にデータばっかりで情報も錯綜しているので、
これを喋っているリアルタイムではまた違った状態かもしれませんが、
いったん私の理解としてはそういったところでの紹介です。
はい。
スピーカー 1
まあ進化しましたよっていう話ですけど、
なんか、何だろう、
ベンチマークまたずらしてきたなという話がありますね。
スピーカー 2
そうです。
スピーカー 1
それが良いのかどうかっていうと、
特になんか今回、例えばその画像が出力できるようになりましたとかだったら分かりやすいんですけど、
心の知能指数って言われてもなぁ、みたいなところがちょっとありますね。
それでめちゃくちゃ高くなっているっていう話ですから、
どうなのかなっていうのはありますけど、
さっきでもビジネスユースで使いづらいとか言いましたけど、
逆にビジネスユースで使うためのユースケースの方が多いんじゃないかなっていう気がしますけどね。
だから例えばお客さんとのチャットボットを使うときにより丁寧に返してくれるとか、
そういうところがあるのであれば、ビジネスケースで有用なのかなっていう感じと思っていて、
逆に丁寧に返してくれるとか個人レベルだとどうでもいいかなって個人的には思うので、
そういう人は4を使えばいいんじゃない?みたいな話になるんじゃないかなと思ってましたけど、どうでしょう?
スピーカー 2
そうですね。ちょっと語弊があったので訂正すると、
最終エンドユーザーが直接SSAIと対話するという組み込み方法であればおっしゃった通りだと思います。
SSAIをシステム組み込みとして内部的に使うだとあんまり意味がないんですかね。
スピーカー 1
情報を出してください、羅列してくださいでそれを人間が確保するってこと?
そうそうそう。とか、コンピューター間の通信のインターフェースで一旦中間生成物にSSAIを使うケースとかね。
なるほどね。確かにそういうレベルだとあんまりいらないかなという感じがしますね。
スピーカー 2
まあまあ、使い方次第っていうのはあると思いますが。
今その私の発想になったのがちょっとまだ私の中の固定概念を覆せてないところなんですけど、
一般的なSSAIモデル、これまでの内容だとお客さんと直接向き合わせるにはハルシネーション、
その変なことを言ったりとかいうことも問題ですし、期待に応えられなかった時にモデルが悪いんだけど製品として悪く見えることになってしまって、
米国の月面着陸成功
スピーカー 2
ユーザーが使ってくれなくなることもあるので、結局SSAIを直接ユーザーに触らせるっていうことは向いてないだろうっていうのがこれまでのモデルに対するビジネス的な評価だったんですけど、
この新しいモデルがその固定概念を覆すところに至っているのかどうかが、私がまだ分かってないのでさっきみたいな表現になっちゃったって感じですかね。
スピーカー 1
まあちょっと使ってみるのと、あとはその作例みたいなのがいっぱい世の中に出てくれればちょっと評価が固まるのかもしれないですけど、
まあどうでしょうね。
スピーカー 2
したって30倍の値段を気軽にユーザーに使わせるわけに多分いかないんで、なかなかですけどね。
スピーカー 1
今までが安すぎたっていう話なんじゃないのって気もしますけど。
スピーカー 2
それもあり得る。
スピーカー 1
だから逆に言うと30倍性能が良くなってるわけじゃなくて単純にオープンAIがその戦略を変えてきたっていう話なのかなと思っていて、借り取りに来てるんじゃないのっていう気はする。
もしくは安いものを市場に放出してシェアを取ることを諦めた可能性を。
あるけどどうなんでしょう。
スピーカー 2
一応裏付けの数字としてはチャットGPTですね。
普通のウェブアプリとしてのチャットGPTあると思うんですけど、あれの週間アクティブユーザーが1億人を超えたっていうのが先々週くらいに出てましたね。
それで十分シェアは取れているとみなしてオーシャル取りマネータイズの方に走ってる可能性があるのと、
あとはオープンAIのこれまでの戦略ってマイクロソフトと強く提携して、
ハイスペックなPCとか確保しまくって、動かせるお金力で勝っていくという算数を取っていたので、
単純に本当にこのモデルを作るのにかかったコストが高くなりすぎているから、これ以上下げることが難しかったという可能性も全然あるかなと思います。
スピーカー 1
ハードウェアスペックがめちゃくちゃいるモデルになっていると。
スピーカー 2
学習にかかったスパコン消費量が高くなりすぎているから、回収するために必要という可能性も全然ある。
スピーカー 1
確かにハルシネーションとかはモデルの根本的な問題みたいな雰囲気があるので、
そこら辺を丁寧に除去する、調整するのにすごいコストがかかったという可能性はあるかなと思いますね。
スピーカー 2
そうですね、まだこなれていないので、その辺の調整とかテスターによる人海戦術的なところとかもあったりすると思うので、
おっしゃる通り今までが安すぎたという可能性は全然あるんですけど、
この高さに見合うだけの優位性を感じるところまで至れるかどうかというのが腕の見せ所かなと思うのと、
今は研究プレビューなので、単純に研究段階から使いたい超アーリーアクセスなユーザーしか関心がないでしょうということで、
高価にしておいて、正式リリース時にはもっと価格を抑えたモデルとして提供する予定があるのかもしれないので、
価格だけで今時点で議論するのはちょっと危ないかもしれないんですけど、
今後のオープンAIの動向もまた少し変わってきそうだなって感じですね。
スピーカー 1
これアーリーなんですか?
スピーカー 2
そうです。4.5が登場って言ってますけど、実際使おうとすると後ろに-previewみたいな名前がついてて、
プレビュー版を使いたかったらっていう感じです。
スピーカー 1
なるほど。
今後の宇宙開発への影響
スピーカー 1
じゃあ本当にアーリーアクセスユーザー向けの高くても使ってくれる人向けで、
少しでも回収して、一般に公開する際には値段を再調整。
スピーカー 2
そうですね。
スピーカー 1
あり得る話ではありますね。なんかアーリーアクセスさせといてって感じがしますけど。
スピーカー 2
そうですね。
この辺はちょっとおっしゃる通り、今までみたいにとりあえず推薦やモデル出して、
それで引き付けてみたいなところから、モデルの特徴とか、各ベンダーとしての方向性とか、
いろんな戦略思想が混じり出してて、みんな同じようなスタンスで世の中に提供してるってところからすら
変わり始めてるのかもしれないですけど、現時点でまだ何とも言えない感じですね、そこら辺は。
スピーカー 1
そうですね。ちょっと様子見しながらって感じですね。
スピーカー 2
そうですね。一般ユーザー目線だと、オープンAIが他も結構、
イーロンさんのグロックとか、この後話すクロードとか、いろんなモデルが並行して登場してきているので、
ちょっとオープンAIとして何か出しておかないとっていうところでの戦略に見えなくもないから、
少し本当に騒がれるレベルのものが出てくるまでは様子見でもいいかなと思います。
スピーカー 1
はい、承知しました。
スピーカー 2
というところで、今話に出たクロードの話に行こうと思います。
スピーカー 1
はい。
スピーカー 2
クロード3.7がリリースされました。
スピーカー 1
アンソロピックの公式のページベースで話します。
スピーカー 2
本日、当社、これまで最もインテリジェントなモデルであり、
史上初のハイブリッドツイルモデルであるクロード3.7ソネットを発表します。
クロード3.7ソネットは、ほぼ瞬時の応答やユーザーに可視化される、拡張された段階的な思考を生成することができます。
APIユーザーは、モデルが思考できる時間を決めかく制御することもできます。
クロード3.7ソネットは、コーディングとフロントエンドウェブ開発において特に大きな改善を示しています。
モデルとともに、エージェントコーディング用のコマンドラインツールであるクロードコードも導入しています。
クロードコードは、限定的な研究プレビューとして利用可能で、
開発者はターミナルから直接クロードに重要なエンジニアリングタスクを移入できます。
ということで、オーブンAIの強豪であるアンソロピックからも新しいモデルが出てきています。
どっちかというと、このクロード3.7が先で、後からGPT-4、4というか4.5が出てきたというような時系列です。
クロード3.7は、これまでのクロード3.5の継続として細かく刻んできているというような数字になっているんですけれども、
3.5までが、まずワンショットで返してくるようなモデルで、
いわゆるO1とかO3といったような推論モデルとは違うモデルでした。
クロード3.7はその推論モデルになったんですけれども、
推論モデルとしてだけ動くんじゃなくて、ユーザーのリクエストに応じて推論モデルだったりとか、
そのワンショットで返すかというのを柔軟に切り替えることができるような、
そういうモデルになっています。
もともとの性能に対してさらに向上が見込めていて、トップレベルになっているだけでなく、
コーディング能力というところでは、他のモデルと比べて圧倒的に優位があるような、
そういうベンチマークスコアが出てきているというのが特徴になってきています。
なので現時点では、コーディング時におけるモデル選択として、
クロード3.7ソネットがベストの選択になっていて、
クロードコードというアプリケーションを使って、
プロジェクトをどんどん開発していけるような状態になっています。
クロードコードは私もちょっと触っては見ているんですけれども、
以前紹介したクラインですね。
ルーコードとか、その辺のタスクをお願いしたら、
いい感じにプロジェクトをどんどん書き進めて作ってくれるというものの、
さらなる拡張版くらいに思ってもらったらいいです。
CLIベースでチャットインターフェースを設けて、会話しながら進めていくんですけれども、
VSコードとかそういったIDEに取り込むのではなくて、
CLIのターミナルベースでいろいろやれますといったものになっていて、
そのうちVSコードとかでも使えるようになるのではないかなと思うんですが、
現時点だと従来のクラインとか、そういったコーディングのAI支援ツールの中では、
飛び抜けて賢いようなものになっています。
そんなもんかな。
スピーカー 1
ちょっと前提が分からなかったんですけど、
ワンショットのやつと推論モデルっていうのが違いますって話しちゃったんですけど、
スピーカー 2
それぞれがちょっとよく分からなかったですけど。
オープンAIでいうとさっきの話に出ているGPT-4.0とか4.5っていうのがワンショットのもの。
もう一つの推論モデルっていうのがO1とかO3っていう違いです。
ワンショットのものは一回ユーザーの入力があったら、それに対して最も期待される回答を生成して返す。
推論モデルはユーザーから受けたものを一回こうじゃないかっていう期待するであろう回答を生成するんですけれども、
歴史に残るミッション
スピーカー 2
そこからもう何段階か深掘りしていきます。
ユーザーがこういうことを言っているってことは、
こういうことも考えられるかも、こんなことも考えられるかもっていうような他の期待するであろう回答っていうのを何段階か深掘りして生成して、
最終的にそれらを統合して回答を返すということをします。
なので前者と比べて当社の推論モデルは回答速度っていうのが必然的に遅くなりがちで、
トークン消費量もその分増えるという傾向があります。
スピーカー 1
なるほど。
その分結果は期待値が高いというか、いい生成物が出てくるはずと。
スピーカー 2
そうですね。
スピーカー 1
どっちがいいかっていうと推論モデルのほうがいいんだけど、コストがかかるからそれはユーザーが選べるように両方あったほうがいい現状はっていう感じ。
スピーカー 2
そうですそうです。
その辺はユーザーがリクエストする問題の複雑さによっていて、
当たり前ですけど1さつ1はあって聞くのに、さっきの推論モデルには深掘りの要素ってないので、
それを推論モデルに投げるのは費用対効果が悪いというか、遅いし別に必要のない深掘りをするし嬉しくないと。
一方で今後の未来予測とか、この業界次どうなっていきますかみたいなところの未来予測に、
ワンショットの回答だけもらってもちょっと検討不足だなって感じるような回答だったりするので、
スピーカー 1
そこは深掘りしてくれる推論モデルを使おうとか、そういうユースケス自体が違うようなモデルになってるって感じです。
なるほど、わかりました。話を戻すと、この3.73は推論モデルであると。
スピーカー 2
両方使えるモデル。
スピーカー 1
両方使えるモデルか、はい。なので難しい問題も簡単な問題も両方解ける。
尖り機能というか得意分野としてはソフトウェアエンジニアリングですと。
そうです。
という話ですね。なるほど、了解しました。
コマンドプロンプト形式とかもなんかすごい、そっちに特化してるなという感じですけど。
そうですね。
ソフトウェアエンジニアリング上で使うんだったらこっちの方がいいかなと。
分かる話なので。
純粋にいいかなと思います。
スピーカー 2
さっきのGPT4.5で話したベンチマークという観点だと、公式の記事の中段くらいにあるんですけれども、
これまでのモデルですとか他社のモデルとも過去からずっと続けてきている同じベンチマークスコアで並べてくれていて、
明らかに自社よりも他社の方がいいものもあるし、全然スコアが伸びてないものもあるんですけど、
その辺を正直に書いているといったところが結構好感を持てる感じですね。
スピーカー 1
そうですね。分かりやすいというか、正しいベンチマークの使い方なんじゃないかなと思わんでもないですけど。
でもオープンAI社もO1とO3 miniを比べて比較対象で入れていますけど、
O4を出すべきなのではっていう感じとか微妙にありますけどね。
スピーカー 2
そうですね。
スピーカー 1
なるほど。そうは言っても、この分野としては自信がありますということを言ってらっしゃるので。
スピーカー 2
そうですね。
面白いところで言うと、ベンチマークの下の方にですね、
マスプロブレムソルビングとハイスクールマスコンペティションというのがあるんですけど、
ワンショットで返すものと推論のものが比較で並んでいて、
左の64Kエクステンドシンキングというのが推論モデルの方です。
ノーエクステンドシンキングというのが推論しないもの。
ハイスクールマスコンペティションのスコアがですね、推論すると61%から80%のスコアが出るのに対して推論しないのが23%ということで、
高校くらいか。高校くらいの数学の問題を解かせると、そのくらいの難しさになってきたら、
もう推論しないとかなり厳しいみたいなところが見えている状態ですね。
スピーカー 1
なるほど。高校くらいの数学だと思うんだって、文章読解をちゃんとした上でそれを計算式に当てはめてみたいなところがあるから、
確かにそれをワンショットで出せっていうのは結構、なんていうんですかね、勘で書きましたみたいな結果が返ってきそうで、
難しそうですねという感じがあるので、分かりやすい差が出る科目としていいんじゃないかなという感じですね。
スピーカー 2
そうですね。逆にスコアがあんまり変わらないところとして、マルチリンガルQ&Aとかがあるんですけど、
これはいくつかの言語、複数の言語で同じような質問をしたときに、同じような期待値が得られるかどうかっていうスコアなんですけど、
ここについてはほぼ差がないと。これは分かりやすく、推論深掘りしようがしまいがあんまり影響のなさそうなスコアなんですけれども、
それは実際に変化があんまりないですねっていうのが見えてたりするので、
こういったところからもどっちのモードをどう使うのが良さそうかっていうのが見て取れたりするようなベンチマーク表になっているので、結構参考になるんじゃないかなと思います。
スピーカー 1
なかなか面白いですねという感じで。
まあでも、ノーエクステンデットが83%で、64Kエクステンデットが86%。
この8割正答するという話なので。
そこまでいったらもう結構飽和してそうな気もするなという感じも。
スピーカー 2
そうですね。
スピーカー 1
ちょっとあるかなと思いますけどね。
スピーカー 2
分かります。だから単純な問題に対する解決能力というのはかなり飽和してきているのが多分現状だと思います。
もちろん推論すればその角度が若干上がるだろうというのはそれはそうなんですけど何回も見るから。
ただほぼほぼ飽和してるんだろうなというのがあるので、
むやみに賢いからといって推論モデル使って高いトークン消費量を払ってっていうのが必要なユースケースなのかどうかっていうのが、
生成AIを使う開発者的には必要な考え方になってくるかなと思います。
スピーカー 1
まあ確かにそうですね。
じゃんかじゃんか使いまくったらお高いですと言われるとちょっとあれなので。
そうですね。
必要に応じてツールは選びましょうと。
スピーカー 2
そうですそうです。
この2つの発表を見比べてもサラリーマン的にはアンソロピックがいいなみたいな気持ちになるんですけどね。
スピーカー 1
サラリーマンというかコーディングする側としてはじゃないの?
スピーカー 2
そうですね。
というところで2つのモデルの紹介をしてきたんですが、
3つ目ですね。
これも新しいモデルの話になるんですけれども、
全然経路の違うものが出てきて、
DeepSeekと同じくかなりインパクトのあるリリースだったので紹介しておきます。
ノイズから単語を抽出して爆速なコード生成が可能な拡散型の言語モデル、
マーキュリーコーダーということで、
イガジンさんから出ている記事です。
やってくれることはコード生成というところで変わらないんですけれども、
めちゃくちゃ爆速です。
どれくらい早いかというと他のと比べて10倍なので、
今までコードを作るのに十数秒かかってダーッと出てきたというもので言うと、
それが1秒になるのでほぼバーッと出てくるというような違いがあります。
ポイントとしてキーワードとして認識してほしいのが拡散型といった部分です。
この拡散型って何かというと、
従来の生成アイがそこまで紡いできた直前の文章を元に、
次のことを最も確率高く出すということをやっているんだとすると、
この拡散型は全体を平行して生成していくというようなモデルになっています。
直感的にわかると思うんですけど、そんなことをしたら文章として成り立たないんじゃないか、
破綻するんじゃないかということが容易に想定されるわけですけれども、
今回のこのモデルというのはそれを調整してきたというようなモデルになっています。
この拡散型というのは従来だと画像生成とかで主に使われていて、
画像全体のどこにどんなものがあると実際の期待する縁になるのかというのが、
今までずっと調整されてきて結構知見も溜まってきているので、
文章に置き換えても同様のことができるんじゃねって言って出てきているようなモデルですね。
現時点で他の先ほどのクロードとかと比べて高い品質のコードが出てくるとか、
品質面で上回れるわけではないんですけれども、
それなりにちゃんと動くコードができる状態までは惚れているので、
今後はこういったものもどんどん採用されていくだろうなということで紹介です。
スピーカー 1
なかなかこれ面白いですね、という感じで。
確かに言われてみれば、画像生成系、絵系ってそういう動きしてるなって感じなので、
分かるんですけど、それがチャット系というか文章生成系に適応できるかって言われると、
スピーカー 2
なんで?っていう感じがありますけれどね。
絵の方でもね、周りのピクセルと比べて不自然じゃないように生成できてるから、
そこら辺の繋ぎ込み方が文章でも活かせるんだろうなというのは不安とは思うんですけど、
なんで?と言われると私もちょっとまだ内部の理解まで追いついてない状態です。
スピーカー 1
確かにそうか。
さっきのやつで言うと、ワンショットじゃなくて、
何回も何回もループしてだんだん精度を上げた回答をできるようにする。
一緒のことでザクッとした回答を自分の中で出して、それに肉付けしていくっていう文章を作る。
というのは人間でもやることなので、それをやってますっていうことであれば分からんでもないかなとは思いますけど、
非常に頭がいいですねという感じはあるのと、
自己ハルシネーションみたいな、書いてるうちに意味わからん文章になりましたとかが起こりそうなので、
それを抑え込めてるんだったらすごいなという感じがありますね。
スピーカー 2
そうですね。画像生成を色々試行錯誤したことある人だったらイメージしやすいと思うんですけど、
あれって最初ふわっと大体こんな感じっていうふうにピクセルを置いて、そこからさらに細かく置いてっていうので、
段階的にどんどんどんどんブラッシュアップして最終的な絵ができるみたいなステップを踏むじゃないですか。
あれと同じことが起きるんですけど、おっしゃる通り、
絵でもよくあるんですが致命的なノイズが消えないみたいなのがあるんですよね。
指が4本になっちゃうとか6本になっちゃうとか、よくある絵であった問題だと思うんですけど、
あれが文章でも起きるみたいなことだと思うので、
同じ出力メソッドが2つ続けて実行されているとかね、
そんなことは多分容易に起きるんじゃないかなと思います。
その辺がどこまで抑え込めているのかっていうのは、私も正直これあまり試せてないのでわからないですけれども、
現状の生成AI、あ、絵を生成する方の生成AIがそういったものを少しずつ抑えられてきていることを考えると、
全然ポテンシャルはあるんだろうなと思うので、
これと従来の生成AIと組み合わせたハイブリッド版とかも出てきて、
今後コード生成というのはどんどん高速化されるんじゃなかろうかという感じがしてきていますね。
スピーカー 1
そうですね。
ウェブの記事上に載っているスコアはいいですよみたいなことが書いてありますけど、
これはまたさっきのアンソロピックのスコアベンチマークと同じものが見当たらないなレベルで。
どっちも8個ぐらいやっているのに同じの取れたみたいな感じなので、
ベンチマーク次第だなという感じもありますけど。
そうですね。
でもわかりやすい、性能がいいですよと言っているのが、
トークンあたりの生成数が速いですよと言っているのは結構面白いですねというところはありますね。
どちらかというと一発で正解を出せるよりは数をこなすことで、
コスパがいいモデルですよというのを売りにしているという話なんでしょうね。
スピーカー 2
そうだと思いますね。
スピーカー 1
なるほど。
スピーカー 2
ベンチでこれを使い倒そう、これに乗り換えようという動きまでは正直起きないと思うんですけれども、
本当にシンプルなものをパッパパパッと作らせるようなケースでは全然役に立つでしょうし、
今後こういった技術が出てきて、速応性がマストなビジネスケースっていっぱいあると思うので、
そういったケースに採用され始めたら、
スピーカー 1
ソロピックの方も似たように対応してくるんじゃないかなと思います。
そうですね。確かに速応性いいですし、
本当にリアルタイム性を要求するような回答でも、
同時通訳みたいに言うとちょっとあれかもしれないですけど、ちょっと違いますけど、
サクッとした回答を言っておいて、後で重要な単語を付け足すとかいうことで、
人間に遅延感を感じさせずにその回答を生成する。
今でもいろいろ小技はいっぱいあって実装されてたりしますけど、
そういうことが得意であれば結構ゲームチェンジャーになり得るんじゃないかなというところは感じますね。
スピーカー 2
そうですね。ゲームとかシステムの中でリアルタイムにコードを修正して実行するができるようになってきてたりすると、
結構ゲームチェンジする可能性がありますね。
スピーカー 1
確かにそうですね。
スピーカー 2
あんまりシステムの中で情報が不安定ということはないんですけど、
ユーザーの操作が介するような、ゲームとかだとインタラクションがいろいろあるので、
そういった都度、ユーザーがこうしたからこのコードを動かすみたいなことをリアルタイムに生成してやられていると、
また面白いことが起きるかもしれないので、
これが6秒とか0で抱えてますけど、
0.1秒くらいまで短くすることができる余地があるんだったら、かなりゲームチェンジできそうですよね。
スピーカー 1
確かにそうですね。画像生成AIもめちゃくちゃ早くなった結果、動画が生成できるレベルにまでいっているので、
スピーカー 2
そうですね。
スピーカー 1
そういう意味でチャット生成というか文章生成もめちゃくちゃ早くなれば、
もっと別の次元の厚み、何度あっても困るんですけど、
ができると何かまた想像もつかないようなことができる可能性はあるので、
そうですね。
面白いかなと思います。
スピーカー 2
ということで、今年も6分の1時間が経ったらこれくらい新しいモデルが出てきて、
相変わらず足が止まることがない業界だなぁという感じですね。
スピーカー 1
そうですね。
スピーカー 2
ということで3つモデルの紹介でした。
スピーカー 1
はい。ありがとうございます。
じゃあ最後かな。
最後じゃないか。もう2つですね。
はい、私の方からです。
ブルーゴーストの成功発表
スピーカー 1
アメリカの民間企業ファイアフライヤルスペースが25年の3月2日同社の月着陸機ブルーゴーストが月面に乱着陸に成功したと発表しました。
ソライさんの記事です。
ごめんなさい、タイトル読んでなかった。
米民間企業が月着陸船ブルーゴーストの月面着陸に成功と発表という記事になります。
ファイアフライヤルスペースによるとブルーゴーストは25年の3月2日17時35分頃に月面に乱着陸することに成功しました。
民間企業の月着陸機による乱着陸成功は24年の2月にインチュニティブマシーンが行った月着陸機オデッセウスによる着陸依頼2回目となりますということです。
オデッセウスが最終的に横転した状態で設置したことを意識してか、ファイアフライヤルスペースは今回の着陸についてアフィリーサクセスフルムーンランディング、完全に成功しましたと、乱着せつけられませんということを言っています。
なおNASAによるとブルーゴーストの着陸地点はちょうど日の出を迎えたタイミングです。
日の入りはアメリカの現地時間で3月16日ということで、ブルーゴーストのミッションはそれまでの2週間にわたって行われることになります。
またブルーゴーストが月着陸成功後に自撮りを撮ったらしくて、それも公開されていますということが言われています。
ということで民間着陸2回目成功おめでとうございますという非常にめでたいという感じですね。
着陸の動画を見ていたんですけど、結構やっぱり民間企業らしいなというのが非常にわかりやすい画面構成をしていて、
今こういう体勢をしてますよとか、RCS吹いてますよとか、
あと着陸した時に足にセンサーがついてたらしくてですね、どこの足がちゃんと設置されてますよみたいな状況まで確認ができるということで、
非常にわかりやすく着地の瞬間を体感することができてよかったかなというところ。
あと、先ほども言いましたけど写真ですよね。
自分の体が写った直撮り写真とか、夜明けギリギリのところで月面に影が写っている写真とかを送ってきているので、
やっぱり写真があると現実着陸しているなという実感がわけやすくてすごいいいなというところです。
ので紹介です。
スピーカー 2
今私もYouTubeの動画を見ているんですけど、これ実際の映像かって疑問するくらいCG感があるんですけど、これ本物かな?
スピーカー 1
着陸…どこの話をしてるんですか?
スピーカー 2
ルーコーストミッション1ムーンフライワイ。
スピーカー 1
画面に映っているのはCGです。
なるほど。
ただ月面の…なんていうのかな?
Google Earthみたいな感じの月面マップを重ねていて、それで各機体の状態吹いてますよとか、
体の状態こうなってますよみたいなのがリアルタイムで反映できるCGがついてきているという感じかな。
スピーカー 2
なるほど。
スピーカー 1
自撮りしているのは静止画ですね。
Xに上がっているとは思いますけど。
スピーカー 2
なるほど。了解です。
いいですね。
スピーカー 1
めでたいですねという形で。
最近月面の探査も非常に活発化しているので。
スピーカー 2
ブームですね。
スピーカー 1
猫も少々月に住んだみたいな。
月以外にもいろいろいってところはありますけど、分かりやすい目標地点ではありますし、
月面基地を作るブームというか、一大プロジェクトが動いていますので、
それに向けて民間企業もいろいろ参画したいということで。
日本としても、何日前だっけ、この前打ち上がったローバー、ローバーでいいのかな。月面探査機かとか。
あとこの、まだちょっと到着しないんですけど、ブルーボスと一緒に、一緒のロケットで打ち上がった着陸機も日本のものがありますので、
それは結構後の方での着陸のはずですけど。
ファクトRのミッションですね。
もうちょっとかかりますけど、それもうまく着陸してほしいなというところですね。
これいつなんだろう。
ファクトRの公式ページ見ると、2月24日から3月3日ってなってて、あ、2日ってなってて。
もうちょっとかかってた気が。
スピーカー 2
月周回フェーズに、じゃなくて、低エネルギー潜移軌道の時が3月2日までって話かな。
ちょっと公式のページ見ても全然、いつどうなるのかがわかんないんですけど。
いやーでも、そっちもね、前回惜しかったところまで行ってたので、頑張ってほしいところですけど。
スピーカー 1
そうですね。確かにちょっとなんか出てこないなという感じですけど。
4月か5月ぐらいだったんじゃなかったかなと思ってますね。
ふんふんふん。なるほどね。
はい。ちょっと間違ってたらごめんなさいという感じですけど。
スピーカー 2
いいえ。
はい。
なるほど。そっちも楽しみにしつつ。で、このブルゴーストさんは月で何してくれるんでしょうっけ。
スピーカー 1
えーっと。
月で。
月で熱流量計とか、GNSSの信号を月面で利用できるかを実証する受信機とかを持って行ってます。
スピーカー 2
これ前話してたあれか。
そうですそうです。
GPS衛星を、地球の上に飛んでるGPS衛星を月で受け止められたらすごくねっていう。
スピーカー 1
はい。やつですね。
スピーカー 2
はいはいはいはい。
そうか。それが今から継続されるとなるとちょっとレポート出てくるのが1ヶ月後とかもかもしれないですけどちょっとこれは楽しみですね。
スピーカー 1
ふん。
スピーカー 2
ふん。
スピーカー 1
まあそんなこと本当にできるのかいなんてところを。
スピーカー 2
そうですね。
スピーカー 1
はい。やってくれるというので、できたら素晴らしいですねと。
前回も話しましたけど月は自己位置推定が大変難しい環境下ですので、そういうことができるとかなり嬉しさはありますと。
スピーカー 2
そうですね。
いやーマイナス何デシベルくらいから受け取れるんだろう。
スピーカー 1
どうなんでしょうね。
スピーカー 2
地上とかだとマイナス130とかであーもう弱すぎるわーみたいな話してるけど、そんな日じゃないですよね多分。
スピーカー 1
うん。日じゃないと思いますけど。はい。
まあそうですね。はい。
2週間ありますのでね。
スピーカー 2
はいはい。
スピーカー 1
その着陸ポイントもすごい良い場所に着陸できたなーという感じもありますし。
スピーカー 2
そうなんですか。なんか太陽光受けやすいみたいな?
スピーカー 1
あーえっと日のでギリギリのところに着陸できてるので。
スピーカー 2
あーそういうことね。最大稼働時間確保できたっていう。
スピーカー 1
そうそうそう。夜になっちゃうと非常に月面が冷たくなって、スリムもそうでしたけど、スリムモードに入らざるを得ないみたいなところがありますので。
太陽光も来ないし。
なのでちょうどギリギリのところに着陸して、最大稼働時間を長く取れる。
本当に文句のつけようがない着陸かなというところで、良いですねというところです。
スピーカー 2
良いですねー。
はい。
スピーカー 1
はい。なので今後も期待大というところですと。
はい。
はい。で、もう一つなんですけど、ちょっと記事を消してしまったかな。
ヤオキの月面探査
スピーカー 1
えっとさっき少しだけ話した月面短写車ヤオキの話ですね。
はいはい。
公式ホームページで言ってるんですけど、ヤオキは月面開発の最前線で活躍するロボットです。
超小型、超軽量、高強度を備えた月面短写車で、コストを抑えて月面に送り込むことができます。
民間企業による月面単位差を実現し、月面開発を着実に前線へと導きますという形。
こちら手のひらサイズのロボットですね。
なんて言うんでしょう、ダンベルみたいな形をしていまして、
軽量で超小型だけど、強度が高くて確実に走行ができるというところですね。
これは先ほど言いました通り、今月面に向かっている途中でして、
えーっと、何月あったかな。ちょっとこれも調べて、不足ですけど。
この前打ち上がって月面着陸する着陸船が無事に着陸したら、そこからポロンと落ちてきて月面探査の試験をするという形ですかね。
これもそうですね、民間主導でやるっていうのは最近流行っている中で、確実に実現、成功してくれると嬉しいなというところがあっての紹介になります。
スピーカー 2
なんかめっちゃ空球っぽいですね。
スピーカー 1
まあ言ってしまうと同じようなコンセプトを持っているという感じですね。
スピーカー 2
このタイヤは結構いいんですかね。こういう溝があって、土を掘り進んでいくというか、掻き進んでいくような、こういうタイヤ形状というのが。
スピーカー 1
まあそうですね、ちょっとしたクローラーっぽい感じの、普通のゴムタイヤみたいなやつだとやっぱり砂地を走るには滑ってしまうだろうということで、
あと軽量さも求めてこういう形状になっているのかなと思いますけど。
スピーカー 2
そうですね。エビの尻尾みたいに後ろに生やして、中央のカメラ部分を安定化させるとかも同じ思想だし。
スピーカー 1
そうですね。
スピーカー 2
本当に似ているなと思いますが、空球の方の実績的にはちょっと走って終わったんでしたっけ。
スピーカー 1
そうですね。
スリムをパシャッと映した以降なんか特に目立ったアップデートなくて、なんかそれ以上あんまりうまくいかなかったのかなくらいにしか受け止めてないんですけど。
空球のミッション的にはそれで十分なのでは?と思いますけど。
スピーカー 2
まあ多分そう。あんまりあちこち走り回るとか予定してなかった気が。
スピーカー 1
そもそもバッテリー積載量とかも少ないので、長時間稼働できるものではないでしょうし。
スピーカー 2
そうですね。
スピーカー 1
それ考えると今回のヤオキはどこまでがミッションにあるんですかね。
ヤオキさんはミッション、ミッションとしてはやっぱりでもそんなに重いものではなくて、月面に着陸して稼働するというところまでな感じをどこかで見ましたけど。
スピーカー 2
なるほどね。
機械構造としてこういう形態のものが走行できるとか、月まで運搬されても運用できる、ちゃんと動かせるとか、情報を届けられるとか、そういったところの基礎的な技術検証が中心で、あとはちょっとちゃんと走行できたらいいねっていう。
月面ミッションの概要
スピーカー 1
そうですね。月面において走行すること、撮影をすること、あと撮影したデータを送信することぐらいかな。
スピーカー 2
大きさ的にはそれぐらいで十分なミッションな気がしますね。
なるほどね。いいですね。
スピーカー 1
そうですね。打ち上げ、着陸から10日間ぐらいは稼働できるといいなというスケジュールらしいんで結構稼働しますね。
スピーカー 2
それはすごいね。バッテリー駆動ですよね、多分ね。
スピーカー 1
大丈夫なのかしらと思うけれど。
そうですね。うまく作ってあるんでしょうというところで。
ヤオキさん、ちなみにYouTubeにひたすら非常階段みたいなところを転がして、どんどん壊していくみたいな面白い動画が上がってますので。
まさにヤオキできることを確認してるんですね。
タイヤが壊れても動けますよみたいな感じの動画が上がってますので、興味があったら見ていただければという感じですね。
スピーカー 2
なるほどね。あれですね、そんだけ動けるんだったら搭載される探査…月着陸船?
インチュ…なんて読むんですかこれ。インチュイティブマシンズの中、周りを一周ぐるっと回って、全方位写真作れればおもろいですね。
スピーカー 1
どこまで画像を送れるかっていうのはあると思いますけど。
スピーカー 2
そうか。画像を送るたびにバッテリーが思いっきり消費される可能性あるし。
スピーカー 1
何枚か撮ることはできると思うので、四方を撮るぐらいはできるかもしれないですけど。
スピーカー 2
まだね、結構着陸舎でもワンショットだったりすると思うんで、今まで撮れてる写真って。
スピーカー 1
はい。
スピーカー 2
そういったもう少し0.1歩でもいいから、今までとは違うものができたがあるといいなと思います。
スピーカー 1
そうですね。
日本企業としても、実際にこういう月に行けるミッションっていうのはなかなかないと思うので、行けるだけでも素晴らしいと思いますけど。
いろいろやっていただけると面白いかなというところでの紹介です。
スピーカー 2
はい。じゃあ今日はこんなもんですかね。
スピーカー 1
はい。以上になります。
お疲れ様でした。
00:00

コメント

スクロール