-
-
スピーカー 1
はい。いや、ぜひやってもらえればと思いますけど。まあ、Steamだからなかなかちょっと敷居が高いものはあるかもしれないですけど。
スピーカー 2
そうですね。推奨スペック見てやがったけど、そこそこいるのかな。
スピーカー 1
いやまあ、そもそもSteamを入れる環境がある人がどんだけいるのやっていう話でございますから。
スピーカー 2
はい。推奨はRTX3090ですね。なかなかですね。
スピーカー 1
うーん、まあ、最近の、そうですね。
スピーカー 2
そうですね。ここ2年くらいのGPUを買っていればまあ大丈夫かな。
2年くらいのGPUの上級コースを買っていればって感じですね。
まあ、少なそうですね。
はい、という感じで。はい、枕はそれくらいにして本題の方行きたいと思います。
スピーカー 1
はい。
スピーカー 2
1点目、オープンAIがGPT4.5を発表ということで感情理解力が向上したということが下馬票で言われています。
まあ、本家の記事にも一応それっぽいことは書いてあるんですけど。
本家のニュースリリースをちょっとだけ読むと、
これまでで最も大規模・高性能なチャット向けモデルのGPT4.5の研究プレビューを公開します。
GPT4.5は、事前学習と事後学習のスケーリングを前進させたモデルです。
教師なし学習をスケールアップし、パターン認識や関連性の整理、
または、リーズニングを介さず、想像的な動作を生成する能力を向上しました。
初期テストではGPT4.5との対話がより自然に感じられることが示されています。
より広い知識ベース、ユーザーの意図を汲み取る能力の向上、
そして進化したEQ、心の知能指数になるものがあるらしいんですけど。
により、文章作成、プログラミングの向上、実用的な問題解決など、
多様なタスクに役立つことが期待されています。
また、誤った情報を生成するハルシネーションの頻度が低減することも期待されています。
ということで、OpenAIから新しいモデルが出てきましたよというところです。
GPT4.5と言っている通り、これまでのGPT4.0と言われているような、
モデルの延長線に位置づけられているようなモデルで、
推論とかは使わずに、ワンショットの回答の精度が上がっているような、
そういったモデルになっています。
興味深いと言われているところは、先ほどの心の知能指数という評価軸を、
スピーカー 1
新たに設けてきたところです。
スピーカー 2
この辺がテスターとの評価という形になって、
まだまだ体系化されていない評価指標ではあるんですけれども、
今まで以上に人間と会話しているような、
そういうユーザー体験が得られますよというようなモデルになっています。
他の能力がこれまでと比べてめちゃくちゃ突出して高いかと言われると、
そこまでめちゃくちゃ高いというわけではないんですけれども、
そういったこれまでにない表現力を有しているということで、
最新のリリースとなっています。
ただお値段の方が非常に高くて、
今までの最高級モデルと言われていたものをさらに超えて、
前のGPT-40と比べて約30倍のお値段をするという、
なかなかリッチなモデルになっていて、
まだまだ評価軸のわからない感情性といったところが売り文句になっているので、
ビジネスユースだとなかなか導入が難しいのかなと思いつつ、
その辺の感情性をメトリクス化できているような分野がもしあれば、
そこでは役に立つのかなと思います。
もしかしたら小説とか書く上ではすごく有用な可能性があるかなと思います。
その辺の感情性に関して、
そもそもこういった生成AIがどこまで追従していけるのか、
なぜこういうことができるようになったのかといったところの学術的な解釈については、
今まだいろんなところであだこーだ言われている段階で、
確たるものはないんですけれども、
ユーザーが期待する推論をしていくという行為が、
いわゆる感情との紐付けになっているんじゃないかということで、
感情を理解したというよりは、
これまでユーザーが最も期待するものを確率的に出すということをやってきたわけですけれども、
そのユーザーの期待することに応える確率の高いものという行為と、
その感情の動きというのが結果的に紐付いてそう感じるだけなんじゃないか、
みたいな意見とかもあったりして、
まだまだそこらへんのこうだろうという決まった解釈は出ていない、
スピーカー 2
というのが現状を理解です。
今本当にデータばっかりで情報も錯綜しているので、
これを喋っているリアルタイムではまた違った状態かもしれませんが、
いったん私の理解としてはそういったところでの紹介です。
はい。
スピーカー 1
まあ進化しましたよっていう話ですけど、
なんか、何だろう、
ベンチマークまたずらしてきたなという話がありますね。
スピーカー 2
そうです。
スピーカー 1
それが良いのかどうかっていうと、
特になんか今回、例えばその画像が出力できるようになりましたとかだったら分かりやすいんですけど、
心の知能指数って言われてもなぁ、みたいなところがちょっとありますね。
それでめちゃくちゃ高くなっているっていう話ですから、
どうなのかなっていうのはありますけど、
さっきでもビジネスユースで使いづらいとか言いましたけど、
逆にビジネスユースで使うためのユースケースの方が多いんじゃないかなっていう気がしますけどね。
だから例えばお客さんとのチャットボットを使うときにより丁寧に返してくれるとか、
そういうところがあるのであれば、ビジネスケースで有用なのかなっていう感じと思っていて、
逆に丁寧に返してくれるとか個人レベルだとどうでもいいかなって個人的には思うので、
そういう人は4を使えばいいんじゃない?みたいな話になるんじゃないかなと思ってましたけど、どうでしょう?
スピーカー 2
そうですね。ちょっと語弊があったので訂正すると、
最終エンドユーザーが直接SSAIと対話するという組み込み方法であればおっしゃった通りだと思います。
SSAIをシステム組み込みとして内部的に使うだとあんまり意味がないんですかね。
スピーカー 1
情報を出してください、羅列してくださいでそれを人間が確保するってこと?
そうそうそう。とか、コンピューター間の通信のインターフェースで一旦中間生成物にSSAIを使うケースとかね。
なるほどね。確かにそういうレベルだとあんまりいらないかなという感じがしますね。
スピーカー 2
まあまあ、使い方次第っていうのはあると思いますが。
今その私の発想になったのがちょっとまだ私の中の固定概念を覆せてないところなんですけど、
一般的なSSAIモデル、これまでの内容だとお客さんと直接向き合わせるにはハルシネーション、
その変なことを言ったりとかいうことも問題ですし、期待に応えられなかった時にモデルが悪いんだけど製品として悪く見えることになってしまって、
スピーカー 2
ユーザーが使ってくれなくなることもあるので、結局SSAIを直接ユーザーに触らせるっていうことは向いてないだろうっていうのがこれまでのモデルに対するビジネス的な評価だったんですけど、
この新しいモデルがその固定概念を覆すところに至っているのかどうかが、私がまだ分かってないのでさっきみたいな表現になっちゃったって感じですかね。
スピーカー 1
まあちょっと使ってみるのと、あとはその作例みたいなのがいっぱい世の中に出てくれればちょっと評価が固まるのかもしれないですけど、
まあどうでしょうね。
スピーカー 2
したって30倍の値段を気軽にユーザーに使わせるわけに多分いかないんで、なかなかですけどね。
スピーカー 1
今までが安すぎたっていう話なんじゃないのって気もしますけど。
スピーカー 2
それもあり得る。
スピーカー 1
だから逆に言うと30倍性能が良くなってるわけじゃなくて単純にオープンAIがその戦略を変えてきたっていう話なのかなと思っていて、借り取りに来てるんじゃないのっていう気はする。
もしくは安いものを市場に放出してシェアを取ることを諦めた可能性を。
あるけどどうなんでしょう。
スピーカー 2
一応裏付けの数字としてはチャットGPTですね。
普通のウェブアプリとしてのチャットGPTあると思うんですけど、あれの週間アクティブユーザーが1億人を超えたっていうのが先々週くらいに出てましたね。
それで十分シェアは取れているとみなしてオーシャル取りマネータイズの方に走ってる可能性があるのと、
あとはオープンAIのこれまでの戦略ってマイクロソフトと強く提携して、
ハイスペックなPCとか確保しまくって、動かせるお金力で勝っていくという算数を取っていたので、
単純に本当にこのモデルを作るのにかかったコストが高くなりすぎているから、これ以上下げることが難しかったという可能性も全然あるかなと思います。
スピーカー 1
ハードウェアスペックがめちゃくちゃいるモデルになっていると。
スピーカー 2
学習にかかったスパコン消費量が高くなりすぎているから、回収するために必要という可能性も全然ある。
スピーカー 1
確かにハルシネーションとかはモデルの根本的な問題みたいな雰囲気があるので、
そこら辺を丁寧に除去する、調整するのにすごいコストがかかったという可能性はあるかなと思いますね。
スピーカー 2
そうですね、まだこなれていないので、その辺の調整とかテスターによる人海戦術的なところとかもあったりすると思うので、
おっしゃる通り今までが安すぎたという可能性は全然あるんですけど、
この高さに見合うだけの優位性を感じるところまで至れるかどうかというのが腕の見せ所かなと思うのと、
今は研究プレビューなので、単純に研究段階から使いたい超アーリーアクセスなユーザーしか関心がないでしょうということで、
高価にしておいて、正式リリース時にはもっと価格を抑えたモデルとして提供する予定があるのかもしれないので、
価格だけで今時点で議論するのはちょっと危ないかもしれないんですけど、
今後のオープンAIの動向もまた少し変わってきそうだなって感じですね。
スピーカー 1
これアーリーなんですか?
スピーカー 2
そうです。4.5が登場って言ってますけど、実際使おうとすると後ろに-previewみたいな名前がついてて、
プレビュー版を使いたかったらっていう感じです。
スピーカー 1
なるほど。
スピーカー 1
じゃあ本当にアーリーアクセスユーザー向けの高くても使ってくれる人向けで、
少しでも回収して、一般に公開する際には値段を再調整。
スピーカー 2
そうですね。
スピーカー 1
あり得る話ではありますね。なんかアーリーアクセスさせといてって感じがしますけど。
スピーカー 2
そうですね。
この辺はちょっとおっしゃる通り、今までみたいにとりあえず推薦やモデル出して、
それで引き付けてみたいなところから、モデルの特徴とか、各ベンダーとしての方向性とか、
いろんな戦略思想が混じり出してて、みんな同じようなスタンスで世の中に提供してるってところからすら
変わり始めてるのかもしれないですけど、現時点でまだ何とも言えない感じですね、そこら辺は。
スピーカー 1
そうですね。ちょっと様子見しながらって感じですね。
スピーカー 2
そうですね。一般ユーザー目線だと、オープンAIが他も結構、
イーロンさんのグロックとか、この後話すクロードとか、いろんなモデルが並行して登場してきているので、
ちょっとオープンAIとして何か出しておかないとっていうところでの戦略に見えなくもないから、
少し本当に騒がれるレベルのものが出てくるまでは様子見でもいいかなと思います。
スピーカー 1
はい、承知しました。
スピーカー 2
というところで、今話に出たクロードの話に行こうと思います。
スピーカー 1
はい。
スピーカー 2
クロード3.7がリリースされました。
スピーカー 1
アンソロピックの公式のページベースで話します。
スピーカー 2
本日、当社、これまで最もインテリジェントなモデルであり、
史上初のハイブリッドツイルモデルであるクロード3.7ソネットを発表します。
クロード3.7ソネットは、ほぼ瞬時の応答やユーザーに可視化される、拡張された段階的な思考を生成することができます。
APIユーザーは、モデルが思考できる時間を決めかく制御することもできます。
クロード3.7ソネットは、コーディングとフロントエンドウェブ開発において特に大きな改善を示しています。
モデルとともに、エージェントコーディング用のコマンドラインツールであるクロードコードも導入しています。
クロードコードは、限定的な研究プレビューとして利用可能で、
開発者はターミナルから直接クロードに重要なエンジニアリングタスクを移入できます。
ということで、オーブンAIの強豪であるアンソロピックからも新しいモデルが出てきています。
どっちかというと、このクロード3.7が先で、後からGPT-4、4というか4.5が出てきたというような時系列です。
クロード3.7は、これまでのクロード3.5の継続として細かく刻んできているというような数字になっているんですけれども、
3.5までが、まずワンショットで返してくるようなモデルで、
いわゆるO1とかO3といったような推論モデルとは違うモデルでした。
クロード3.7はその推論モデルになったんですけれども、
推論モデルとしてだけ動くんじゃなくて、ユーザーのリクエストに応じて推論モデルだったりとか、
そのワンショットで返すかというのを柔軟に切り替えることができるような、
そういうモデルになっています。
もともとの性能に対してさらに向上が見込めていて、トップレベルになっているだけでなく、
コーディング能力というところでは、他のモデルと比べて圧倒的に優位があるような、
そういうベンチマークスコアが出てきているというのが特徴になってきています。
なので現時点では、コーディング時におけるモデル選択として、
クロード3.7ソネットがベストの選択になっていて、
クロードコードというアプリケーションを使って、
プロジェクトをどんどん開発していけるような状態になっています。
クロードコードは私もちょっと触っては見ているんですけれども、
以前紹介したクラインですね。
ルーコードとか、その辺のタスクをお願いしたら、
いい感じにプロジェクトをどんどん書き進めて作ってくれるというものの、
さらなる拡張版くらいに思ってもらったらいいです。
CLIベースでチャットインターフェースを設けて、会話しながら進めていくんですけれども、
VSコードとかそういったIDEに取り込むのではなくて、
CLIのターミナルベースでいろいろやれますといったものになっていて、
そのうちVSコードとかでも使えるようになるのではないかなと思うんですが、
現時点だと従来のクラインとか、そういったコーディングのAI支援ツールの中では、
飛び抜けて賢いようなものになっています。
そんなもんかな。
スピーカー 1
ちょっと前提が分からなかったんですけど、
ワンショットのやつと推論モデルっていうのが違いますって話しちゃったんですけど、
スピーカー 2
それぞれがちょっとよく分からなかったですけど。
オープンAIでいうとさっきの話に出ているGPT-4.0とか4.5っていうのがワンショットのもの。
もう一つの推論モデルっていうのがO1とかO3っていう違いです。
ワンショットのものは一回ユーザーの入力があったら、それに対して最も期待される回答を生成して返す。
推論モデルはユーザーから受けたものを一回こうじゃないかっていう期待するであろう回答を生成するんですけれども、
スピーカー 2
そこからもう何段階か深掘りしていきます。
ユーザーがこういうことを言っているってことは、
こういうことも考えられるかも、こんなことも考えられるかもっていうような他の期待するであろう回答っていうのを何段階か深掘りして生成して、
最終的にそれらを統合して回答を返すということをします。
なので前者と比べて当社の推論モデルは回答速度っていうのが必然的に遅くなりがちで、
トークン消費量もその分増えるという傾向があります。
スピーカー 1
なるほど。
その分結果は期待値が高いというか、いい生成物が出てくるはずと。
スピーカー 2
そうですね。
スピーカー 1
どっちがいいかっていうと推論モデルのほうがいいんだけど、コストがかかるからそれはユーザーが選べるように両方あったほうがいい現状はっていう感じ。
スピーカー 2
そうですそうです。
その辺はユーザーがリクエストする問題の複雑さによっていて、
当たり前ですけど1さつ1はあって聞くのに、さっきの推論モデルには深掘りの要素ってないので、
それを推論モデルに投げるのは費用対効果が悪いというか、遅いし別に必要のない深掘りをするし嬉しくないと。
一方で今後の未来予測とか、この業界次どうなっていきますかみたいなところの未来予測に、
ワンショットの回答だけもらってもちょっと検討不足だなって感じるような回答だったりするので、
スピーカー 1
そこは深掘りしてくれる推論モデルを使おうとか、そういうユースケス自体が違うようなモデルになってるって感じです。
なるほど、わかりました。話を戻すと、この3.73は推論モデルであると。
スピーカー 2
両方使えるモデル。
スピーカー 1
両方使えるモデルか、はい。なので難しい問題も簡単な問題も両方解ける。
尖り機能というか得意分野としてはソフトウェアエンジニアリングですと。
そうです。
という話ですね。なるほど、了解しました。
コマンドプロンプト形式とかもなんかすごい、そっちに特化してるなという感じですけど。
そうですね。
ソフトウェアエンジニアリング上で使うんだったらこっちの方がいいかなと。
分かる話なので。
純粋にいいかなと思います。
スピーカー 2
さっきのGPT4.5で話したベンチマークという観点だと、公式の記事の中段くらいにあるんですけれども、
これまでのモデルですとか他社のモデルとも過去からずっと続けてきている同じベンチマークスコアで並べてくれていて、
明らかに自社よりも他社の方がいいものもあるし、全然スコアが伸びてないものもあるんですけど、
その辺を正直に書いているといったところが結構好感を持てる感じですね。
スピーカー 1
そうですね。分かりやすいというか、正しいベンチマークの使い方なんじゃないかなと思わんでもないですけど。
でもオープンAI社もO1とO3 miniを比べて比較対象で入れていますけど、
O4を出すべきなのではっていう感じとか微妙にありますけどね。
スピーカー 2
そうですね。
スピーカー 1
なるほど。そうは言っても、この分野としては自信がありますということを言ってらっしゃるので。
スピーカー 2
そうですね。
面白いところで言うと、ベンチマークの下の方にですね、
マスプロブレムソルビングとハイスクールマスコンペティションというのがあるんですけど、
ワンショットで返すものと推論のものが比較で並んでいて、
左の64Kエクステンドシンキングというのが推論モデルの方です。
ノーエクステンドシンキングというのが推論しないもの。
ハイスクールマスコンペティションのスコアがですね、推論すると61%から80%のスコアが出るのに対して推論しないのが23%ということで、
高校くらいか。高校くらいの数学の問題を解かせると、そのくらいの難しさになってきたら、
もう推論しないとかなり厳しいみたいなところが見えている状態ですね。
スピーカー 1
なるほど。高校くらいの数学だと思うんだって、文章読解をちゃんとした上でそれを計算式に当てはめてみたいなところがあるから、
確かにそれをワンショットで出せっていうのは結構、なんていうんですかね、勘で書きましたみたいな結果が返ってきそうで、
難しそうですねという感じがあるので、分かりやすい差が出る科目としていいんじゃないかなという感じですね。
スピーカー 2
そうですね。逆にスコアがあんまり変わらないところとして、マルチリンガルQ&Aとかがあるんですけど、
これはいくつかの言語、複数の言語で同じような質問をしたときに、同じような期待値が得られるかどうかっていうスコアなんですけど、
ここについてはほぼ差がないと。これは分かりやすく、推論深掘りしようがしまいがあんまり影響のなさそうなスコアなんですけれども、
それは実際に変化があんまりないですねっていうのが見えてたりするので、
こういったところからもどっちのモードをどう使うのが良さそうかっていうのが見て取れたりするようなベンチマーク表になっているので、結構参考になるんじゃないかなと思います。
スピーカー 1
なかなか面白いですねという感じで。
まあでも、ノーエクステンデットが83%で、64Kエクステンデットが86%。
この8割正答するという話なので。
そこまでいったらもう結構飽和してそうな気もするなという感じも。
スピーカー 2
そうですね。
スピーカー 1
ちょっとあるかなと思いますけどね。
スピーカー 2
分かります。だから単純な問題に対する解決能力というのはかなり飽和してきているのが多分現状だと思います。
もちろん推論すればその角度が若干上がるだろうというのはそれはそうなんですけど何回も見るから。
ただほぼほぼ飽和してるんだろうなというのがあるので、
むやみに賢いからといって推論モデル使って高いトークン消費量を払ってっていうのが必要なユースケースなのかどうかっていうのが、
生成AIを使う開発者的には必要な考え方になってくるかなと思います。
スピーカー 1
まあ確かにそうですね。
じゃんかじゃんか使いまくったらお高いですと言われるとちょっとあれなので。
そうですね。
必要に応じてツールは選びましょうと。
スピーカー 2
そうですそうです。
この2つの発表を見比べてもサラリーマン的にはアンソロピックがいいなみたいな気持ちになるんですけどね。
スピーカー 1
サラリーマンというかコーディングする側としてはじゃないの?
スピーカー 2
そうですね。
というところで2つのモデルの紹介をしてきたんですが、
3つ目ですね。
これも新しいモデルの話になるんですけれども、
全然経路の違うものが出てきて、
DeepSeekと同じくかなりインパクトのあるリリースだったので紹介しておきます。
ノイズから単語を抽出して爆速なコード生成が可能な拡散型の言語モデル、
マーキュリーコーダーということで、
イガジンさんから出ている記事です。
やってくれることはコード生成というところで変わらないんですけれども、
めちゃくちゃ爆速です。
どれくらい早いかというと他のと比べて10倍なので、
今までコードを作るのに十数秒かかってダーッと出てきたというもので言うと、
それが1秒になるのでほぼバーッと出てくるというような違いがあります。
ポイントとしてキーワードとして認識してほしいのが拡散型といった部分です。
この拡散型って何かというと、
従来の生成アイがそこまで紡いできた直前の文章を元に、
次のことを最も確率高く出すということをやっているんだとすると、
この拡散型は全体を平行して生成していくというようなモデルになっています。
直感的にわかると思うんですけど、そんなことをしたら文章として成り立たないんじゃないか、
破綻するんじゃないかということが容易に想定されるわけですけれども、
今回のこのモデルというのはそれを調整してきたというようなモデルになっています。
この拡散型というのは従来だと画像生成とかで主に使われていて、
画像全体のどこにどんなものがあると実際の期待する縁になるのかというのが、
今までずっと調整されてきて結構知見も溜まってきているので、
文章に置き換えても同様のことができるんじゃねって言って出てきているようなモデルですね。
現時点で他の先ほどのクロードとかと比べて高い品質のコードが出てくるとか、
品質面で上回れるわけではないんですけれども、
それなりにちゃんと動くコードができる状態までは惚れているので、
今後はこういったものもどんどん採用されていくだろうなということで紹介です。
スピーカー 1
なかなかこれ面白いですね、という感じで。
確かに言われてみれば、画像生成系、絵系ってそういう動きしてるなって感じなので、
分かるんですけど、それがチャット系というか文章生成系に適応できるかって言われると、
スピーカー 2
なんで?っていう感じがありますけれどね。
絵の方でもね、周りのピクセルと比べて不自然じゃないように生成できてるから、
そこら辺の繋ぎ込み方が文章でも活かせるんだろうなというのは不安とは思うんですけど、
なんで?と言われると私もちょっとまだ内部の理解まで追いついてない状態です。
スピーカー 1
確かにそうか。
さっきのやつで言うと、ワンショットじゃなくて、
何回も何回もループしてだんだん精度を上げた回答をできるようにする。
一緒のことでザクッとした回答を自分の中で出して、それに肉付けしていくっていう文章を作る。
というのは人間でもやることなので、それをやってますっていうことであれば分からんでもないかなとは思いますけど、
非常に頭がいいですねという感じはあるのと、
自己ハルシネーションみたいな、書いてるうちに意味わからん文章になりましたとかが起こりそうなので、
それを抑え込めてるんだったらすごいなという感じがありますね。
スピーカー 2
そうですね。画像生成を色々試行錯誤したことある人だったらイメージしやすいと思うんですけど、
あれって最初ふわっと大体こんな感じっていうふうにピクセルを置いて、そこからさらに細かく置いてっていうので、
段階的にどんどんどんどんブラッシュアップして最終的な絵ができるみたいなステップを踏むじゃないですか。
あれと同じことが起きるんですけど、おっしゃる通り、
絵でもよくあるんですが致命的なノイズが消えないみたいなのがあるんですよね。
指が4本になっちゃうとか6本になっちゃうとか、よくある絵であった問題だと思うんですけど、
あれが文章でも起きるみたいなことだと思うので、
同じ出力メソッドが2つ続けて実行されているとかね、
そんなことは多分容易に起きるんじゃないかなと思います。
その辺がどこまで抑え込めているのかっていうのは、私も正直これあまり試せてないのでわからないですけれども、
現状の生成AI、あ、絵を生成する方の生成AIがそういったものを少しずつ抑えられてきていることを考えると、
全然ポテンシャルはあるんだろうなと思うので、
これと従来の生成AIと組み合わせたハイブリッド版とかも出てきて、
今後コード生成というのはどんどん高速化されるんじゃなかろうかという感じがしてきていますね。
スピーカー 1
そうですね。
ウェブの記事上に載っているスコアはいいですよみたいなことが書いてありますけど、
これはまたさっきのアンソロピックのスコアベンチマークと同じものが見当たらないなレベルで。
どっちも8個ぐらいやっているのに同じの取れたみたいな感じなので、
ベンチマーク次第だなという感じもありますけど。
そうですね。
でもわかりやすい、性能がいいですよと言っているのが、
トークンあたりの生成数が速いですよと言っているのは結構面白いですねというところはありますね。
どちらかというと一発で正解を出せるよりは数をこなすことで、
コスパがいいモデルですよというのを売りにしているという話なんでしょうね。
スピーカー 2
そうだと思いますね。
スピーカー 1
なるほど。
スピーカー 2
ベンチでこれを使い倒そう、これに乗り換えようという動きまでは正直起きないと思うんですけれども、
本当にシンプルなものをパッパパパッと作らせるようなケースでは全然役に立つでしょうし、
今後こういった技術が出てきて、速応性がマストなビジネスケースっていっぱいあると思うので、
そういったケースに採用され始めたら、
スピーカー 1
ソロピックの方も似たように対応してくるんじゃないかなと思います。
そうですね。確かに速応性いいですし、
本当にリアルタイム性を要求するような回答でも、
同時通訳みたいに言うとちょっとあれかもしれないですけど、ちょっと違いますけど、
サクッとした回答を言っておいて、後で重要な単語を付け足すとかいうことで、
人間に遅延感を感じさせずにその回答を生成する。
今でもいろいろ小技はいっぱいあって実装されてたりしますけど、
そういうことが得意であれば結構ゲームチェンジャーになり得るんじゃないかなというところは感じますね。
スピーカー 2
そうですね。ゲームとかシステムの中でリアルタイムにコードを修正して実行するができるようになってきてたりすると、
結構ゲームチェンジする可能性がありますね。
スピーカー 1
確かにそうですね。
スピーカー 2
あんまりシステムの中で情報が不安定ということはないんですけど、
ユーザーの操作が介するような、ゲームとかだとインタラクションがいろいろあるので、
そういった都度、ユーザーがこうしたからこのコードを動かすみたいなことをリアルタイムに生成してやられていると、
また面白いことが起きるかもしれないので、
これが6秒とか0で抱えてますけど、
0.1秒くらいまで短くすることができる余地があるんだったら、かなりゲームチェンジできそうですよね。
スピーカー 1
確かにそうですね。画像生成AIもめちゃくちゃ早くなった結果、動画が生成できるレベルにまでいっているので、
スピーカー 2
そうですね。
スピーカー 1
そういう意味でチャット生成というか文章生成もめちゃくちゃ早くなれば、
もっと別の次元の厚み、何度あっても困るんですけど、
ができると何かまた想像もつかないようなことができる可能性はあるので、
そうですね。
面白いかなと思います。
スピーカー 2
ということで、今年も6分の1時間が経ったらこれくらい新しいモデルが出てきて、
相変わらず足が止まることがない業界だなぁという感じですね。
スピーカー 1
そうですね。
スピーカー 2
ということで3つモデルの紹介でした。
スピーカー 1
はい。ありがとうございます。
じゃあ最後かな。
最後じゃないか。もう2つですね。
はい、私の方からです。
スピーカー 1
アメリカの民間企業ファイアフライヤルスペースが25年の3月2日同社の月着陸機ブルーゴーストが月面に乱着陸に成功したと発表しました。
ソライさんの記事です。
ごめんなさい、タイトル読んでなかった。
米民間企業が月着陸船ブルーゴーストの月面着陸に成功と発表という記事になります。
ファイアフライヤルスペースによるとブルーゴーストは25年の3月2日17時35分頃に月面に乱着陸することに成功しました。
民間企業の月着陸機による乱着陸成功は24年の2月にインチュニティブマシーンが行った月着陸機オデッセウスによる着陸依頼2回目となりますということです。
オデッセウスが最終的に横転した状態で設置したことを意識してか、ファイアフライヤルスペースは今回の着陸についてアフィリーサクセスフルムーンランディング、完全に成功しましたと、乱着せつけられませんということを言っています。
なおNASAによるとブルーゴーストの着陸地点はちょうど日の出を迎えたタイミングです。
日の入りはアメリカの現地時間で3月16日ということで、ブルーゴーストのミッションはそれまでの2週間にわたって行われることになります。
またブルーゴーストが月着陸成功後に自撮りを撮ったらしくて、それも公開されていますということが言われています。
ということで民間着陸2回目成功おめでとうございますという非常にめでたいという感じですね。
着陸の動画を見ていたんですけど、結構やっぱり民間企業らしいなというのが非常にわかりやすい画面構成をしていて、
今こういう体勢をしてますよとか、RCS吹いてますよとか、
あと着陸した時に足にセンサーがついてたらしくてですね、どこの足がちゃんと設置されてますよみたいな状況まで確認ができるということで、
非常にわかりやすく着地の瞬間を体感することができてよかったかなというところ。
あと、先ほども言いましたけど写真ですよね。
自分の体が写った直撮り写真とか、夜明けギリギリのところで月面に影が写っている写真とかを送ってきているので、
やっぱり写真があると現実着陸しているなという実感がわけやすくてすごいいいなというところです。
ので紹介です。
スピーカー 2
今私もYouTubeの動画を見ているんですけど、これ実際の映像かって疑問するくらいCG感があるんですけど、これ本物かな?
スピーカー 1
着陸…どこの話をしてるんですか?
スピーカー 2
ルーコーストミッション1ムーンフライワイ。
スピーカー 1
画面に映っているのはCGです。
なるほど。
ただ月面の…なんていうのかな?
Google Earthみたいな感じの月面マップを重ねていて、それで各機体の状態吹いてますよとか、
体の状態こうなってますよみたいなのがリアルタイムで反映できるCGがついてきているという感じかな。
スピーカー 2
なるほど。
スピーカー 1
自撮りしているのは静止画ですね。
Xに上がっているとは思いますけど。
スピーカー 2
なるほど。了解です。
いいですね。
スピーカー 1
めでたいですねという形で。
最近月面の探査も非常に活発化しているので。
スピーカー 2
ブームですね。
スピーカー 1
猫も少々月に住んだみたいな。
月以外にもいろいろいってところはありますけど、分かりやすい目標地点ではありますし、
月面基地を作るブームというか、一大プロジェクトが動いていますので、
それに向けて民間企業もいろいろ参画したいということで。
日本としても、何日前だっけ、この前打ち上がったローバー、ローバーでいいのかな。月面探査機かとか。
あとこの、まだちょっと到着しないんですけど、ブルーボスと一緒に、一緒のロケットで打ち上がった着陸機も日本のものがありますので、
それは結構後の方での着陸のはずですけど。
ファクトRのミッションですね。
もうちょっとかかりますけど、それもうまく着陸してほしいなというところですね。
これいつなんだろう。
ファクトRの公式ページ見ると、2月24日から3月3日ってなってて、あ、2日ってなってて。
もうちょっとかかってた気が。
スピーカー 2
月周回フェーズに、じゃなくて、低エネルギー潜移軌道の時が3月2日までって話かな。
ちょっと公式のページ見ても全然、いつどうなるのかがわかんないんですけど。
いやーでも、そっちもね、前回惜しかったところまで行ってたので、頑張ってほしいところですけど。
スピーカー 1
そうですね。確かにちょっとなんか出てこないなという感じですけど。
4月か5月ぐらいだったんじゃなかったかなと思ってますね。
ふんふんふん。なるほどね。
はい。ちょっと間違ってたらごめんなさいという感じですけど。
スピーカー 2
いいえ。
はい。
なるほど。そっちも楽しみにしつつ。で、このブルゴーストさんは月で何してくれるんでしょうっけ。
スピーカー 1
えーっと。
月で。
月で熱流量計とか、GNSSの信号を月面で利用できるかを実証する受信機とかを持って行ってます。
スピーカー 2
これ前話してたあれか。
そうですそうです。
GPS衛星を、地球の上に飛んでるGPS衛星を月で受け止められたらすごくねっていう。
スピーカー 1
はい。やつですね。
スピーカー 2
はいはいはいはい。
そうか。それが今から継続されるとなるとちょっとレポート出てくるのが1ヶ月後とかもかもしれないですけどちょっとこれは楽しみですね。
スピーカー 1
ふん。
スピーカー 2
ふん。
スピーカー 1
まあそんなこと本当にできるのかいなんてところを。
スピーカー 2
そうですね。
スピーカー 1
はい。やってくれるというので、できたら素晴らしいですねと。
前回も話しましたけど月は自己位置推定が大変難しい環境下ですので、そういうことができるとかなり嬉しさはありますと。
スピーカー 2
そうですね。
いやーマイナス何デシベルくらいから受け取れるんだろう。
スピーカー 1
どうなんでしょうね。
スピーカー 2
地上とかだとマイナス130とかであーもう弱すぎるわーみたいな話してるけど、そんな日じゃないですよね多分。
スピーカー 1
うん。日じゃないと思いますけど。はい。
まあそうですね。はい。
2週間ありますのでね。
スピーカー 2
はいはい。
スピーカー 1
その着陸ポイントもすごい良い場所に着陸できたなーという感じもありますし。
スピーカー 2
そうなんですか。なんか太陽光受けやすいみたいな?
スピーカー 1
あーえっと日のでギリギリのところに着陸できてるので。
スピーカー 2
あーそういうことね。最大稼働時間確保できたっていう。
スピーカー 1
そうそうそう。夜になっちゃうと非常に月面が冷たくなって、スリムもそうでしたけど、スリムモードに入らざるを得ないみたいなところがありますので。
太陽光も来ないし。
なのでちょうどギリギリのところに着陸して、最大稼働時間を長く取れる。
本当に文句のつけようがない着陸かなというところで、良いですねというところです。
スピーカー 2
良いですねー。
はい。
スピーカー 1
はい。なので今後も期待大というところですと。
はい。
はい。で、もう一つなんですけど、ちょっと記事を消してしまったかな。
スピーカー 1
えっとさっき少しだけ話した月面短写車ヤオキの話ですね。
はいはい。
公式ホームページで言ってるんですけど、ヤオキは月面開発の最前線で活躍するロボットです。
超小型、超軽量、高強度を備えた月面短写車で、コストを抑えて月面に送り込むことができます。
民間企業による月面単位差を実現し、月面開発を着実に前線へと導きますという形。
こちら手のひらサイズのロボットですね。
なんて言うんでしょう、ダンベルみたいな形をしていまして、
軽量で超小型だけど、強度が高くて確実に走行ができるというところですね。
これは先ほど言いました通り、今月面に向かっている途中でして、
えーっと、何月あったかな。ちょっとこれも調べて、不足ですけど。
この前打ち上がって月面着陸する着陸船が無事に着陸したら、そこからポロンと落ちてきて月面探査の試験をするという形ですかね。
これもそうですね、民間主導でやるっていうのは最近流行っている中で、確実に実現、成功してくれると嬉しいなというところがあっての紹介になります。
スピーカー 2
なんかめっちゃ空球っぽいですね。
スピーカー 1
まあ言ってしまうと同じようなコンセプトを持っているという感じですね。
スピーカー 2
このタイヤは結構いいんですかね。こういう溝があって、土を掘り進んでいくというか、掻き進んでいくような、こういうタイヤ形状というのが。
スピーカー 1
まあそうですね、ちょっとしたクローラーっぽい感じの、普通のゴムタイヤみたいなやつだとやっぱり砂地を走るには滑ってしまうだろうということで、
あと軽量さも求めてこういう形状になっているのかなと思いますけど。
スピーカー 2
そうですね。エビの尻尾みたいに後ろに生やして、中央のカメラ部分を安定化させるとかも同じ思想だし。
スピーカー 1
そうですね。
スピーカー 2
本当に似ているなと思いますが、空球の方の実績的にはちょっと走って終わったんでしたっけ。
スピーカー 1
そうですね。
スリムをパシャッと映した以降なんか特に目立ったアップデートなくて、なんかそれ以上あんまりうまくいかなかったのかなくらいにしか受け止めてないんですけど。
空球のミッション的にはそれで十分なのでは?と思いますけど。
スピーカー 2
まあ多分そう。あんまりあちこち走り回るとか予定してなかった気が。
スピーカー 1
そもそもバッテリー積載量とかも少ないので、長時間稼働できるものではないでしょうし。
スピーカー 2
そうですね。
スピーカー 1
それ考えると今回のヤオキはどこまでがミッションにあるんですかね。
ヤオキさんはミッション、ミッションとしてはやっぱりでもそんなに重いものではなくて、月面に着陸して稼働するというところまでな感じをどこかで見ましたけど。
スピーカー 2
なるほどね。
機械構造としてこういう形態のものが走行できるとか、月まで運搬されても運用できる、ちゃんと動かせるとか、情報を届けられるとか、そういったところの基礎的な技術検証が中心で、あとはちょっとちゃんと走行できたらいいねっていう。