GPT-5の登場
スピーカー 2
いやー、もう次の世代が早すぎますよ。
スピーカー 1
何の話ですか?
スピーカー 2
オープンAIがGPT-5についての案内が出始めましたね。
スピーカー 1
はい。
スピーカー 2
世の中的にはまだGPT-4がスペック高くて、いかにしてそこに追いつくのかっていう、追いつけてるやつはすげー。
スピーカー 1
もしくはGPT-4ギリギリ届かないくらいのモデルでもすげー、みたいに言われてる競合他社に対して、今年の夏にも5出しますと言っているオープンAIが怖くてしょうがないですね。
5さんは何が良くなるんですか、これ。
スピーカー 2
まだ全部非公開です。
スピーカー 1
ああ、なるほど。出しますというだけか。
スピーカー 2
そう。
GPT-3.5から4もかなり劇的なアップデートで、3.5でできないことが4ではできるっていう、もう明確な差が感じられるほどの性能向上で、いろんなベンチマークでもやっぱり4に対しては高いスコア。
3.5はこれくらいっていうので、圧倒的な差があるのも見えていて。
日本でも最近だとNECとかNTTとかいろんなところが新たなAIモデルを作れるようになりましたよって言ってニュースになったりしてると思いますが、結構対抗馬として示してるのがGPT-3.5を超えることができましたみたいな、そんな感じのニュースが多くてですね。
GPT-4に近づけてるのは、それこそGARFAMとかがやってるレベルの大手のところが何とか近づいたよとか、あとはイーロン・マスクさんのGlockとか、ちょっとあれは盛られすぎな発表でありますけれども。
GPT-4に追いつくかもみたいな感じで言われてるくらいの状態で、なかなかGPT-4レベルの性能のモデル作るの大変だねっていう状況でした。
スピーカー 1
GPT-5が出ちゃうと、またみんなにとっての目標レベルが一段階上がって、GPT-3.5レベルのものがようやくできましたと言ってたところはどうやってそれのコスト回収をするのかがまた頭痛くなる感じがしますね。
コスト回収の話をしたくすると、頭が痛くなるレベルじゃない気もしますけど。
スピーカー 2
必要な投資だったと言って、もう投資回収はできないものという割り切りがいるんだと思いますが、一般的な企業でそういう割り切りってどういうふうに立ちつけるんでしょうね。
スピーカー 1
どうなんでしょうね。そこでついてくる会社だけが残るのかもしれないですけど。
スピーカー 2
そうですね。ということで、今年もますますAIネッツは活発化していきそうですっていう枕でした。
スピーカー 1
はい。
Appleの新型AIモデルMM1
スピーカー 2
はい、というところで1点目。同じくAIモデルの話です。
Apple、高度な言語理解を持つ新型AIモデルMM1を発表ということでアスキーさんの記事です。
Appleの研究チームは3月14日、画像とテキストを理解し処理する能力を持つマルチモダル大規模言語モデルMM1を発表した。
今のところ論文のみの公開で一般公開の時期が明かされていない。
ベンチマークではGPT-4を偲ぐ性能と謳われていて、複数のパラメータサイズを備えるMM1は、
10億以上の画像及び30兆以上のテキスト、GitHubのコード例などの多様なデータセットを用い教師なし学習と教師あり学習を組み合わせる独自の方法で学習され、
多様なタスクに対して高い精度を示すという。
各種ベンチマークの結果によると、30億及び70億パラメータのモデルはそれぞれのモデルサイズにおいて過去最高を記録。
特に画像理解、画像内のテキスト情報、科学知識、マルチモーダル、数学などのベンチマークで強力なパフォーマンスを示している。
また両モデルはMOEという複数の専門家モデルを組み合わせ、効率的に処理ができるアーキテクチャモデルも試されており、いずれも通常のモデルよりも優れた性能を発揮している。
さらに300億パラメータモデルでは画像理解ベンチマークにおいて、GoogleのGemini ProやGemini Ultra、そしてOpenAIのGPT-4Vに勝るスコアを示している。
ということで、今年度かな、どこかでAppleもそろそろAIのことやり始めてるっぽいですという話は何回かしたかなと思います。
大きなところだと、Appleが目指していた自動運転の話が撤退して、AIに寄るんじゃないかみたいな話を一時期したかなと思いますが、その成果の一つとして論文ベースで出てきましたよという紹介です。
なので、いよいよ思って、ガーファームは皆さんこぞってAIのモデル作成に着手した状態という形ですね。
こういったAIモデルを作るのは大規模当社ができる人だけというようなわかりやすい指標があるので、ガーファームのメイン市場はやはりこのモデルで競争していくという姿なんだろうなというのが思うところなのと、
名前が結構面白くて、インテルとかと一線を隠して素晴らしい性能を発揮したM1チップの名前と非常に似たような名前をしているので、
今後M1チップ周辺のロジックとして載せられるAI用のチップにそのままM1が動かせるモデルが入ってますよとか、そんな感じの文脈で語られると非常にシリーズラインナップ感もある名前になっているのかなというふうに受け止めています。
スピーカー 1
何でしょうね。
Appleらしいというか、これ画像認識ができますよっていうモデルっていう話ですかね。
マルチモデルモデルの市場性
スピーカー 2
そうですね。オープンAIが言っていたGPT-4Vっていうのがテキスト入力だけじゃなくて、画面のスクリーンショットとかを貼ったりとか、そういった画像の入力と一緒にテキストで聞けるというマルチモデルをサポートしていて、
画像の中身がどういうものであるのかっていう解析情報とユーザーの入力を組み合わせてAIからの回答を引き出せるというものですね。
今回のMM1というのはそれができるモデルですよということになってます。
今から後発で作るんだとしたら、そういうマルチモデルモデル以外は正直言って市場性がない状態になりつつあるので、そういったマルチモデルモデルを作ること自体は必然かなといったところになってます。
スピーカー 1
どっちかっていうと、チャット系をAppleが作る意義があんまりないというか、iPhoneとかに載せるんだったら画像認識かなという気はするので、
そういう意味ではやたらめったりやってるわけじゃなくて、自社のサービスに適応できるところに注力してきたのかなという気がしていますね。
スピーカー 2
そうですね。今スマホユーザーでよくあるスクリーンショットを撮ったり写真を撮ったりといったところの動線の先に、これが何かっていうのを聞いたりとか、
あとは自分で手書きに書いたホワイトボードで書いた構成図を綺麗にしてもらうだったり、ここから考えられることは何かって聞いたりとか、
そんな形で仕事上でもプライベートな生活の中でも、画像入力とテキストの組み合わせの入力というのは非常にインパクトのあるインターフェースになるはずなので、そこの精度を上げられましたよと。
個人的に面白いなと思うのは、データセットの中に単なる公開情報だけじゃなくて、技術的な確からしさのデータセットをちゃんと明示していることかなと思ってまして、
科学知識の観点でいうと、結構間違った情報も入りがちで、単純にバカとかデータだけ食わせると変なことを言いがちっていうのがあって、
Geminiとかはそういう経路も強いところがあったりしたんですが、Appleが出すモデルとしてはそういうことをかなり意識したのか、正当率の高い結果になっているというのがAppleらしいポイントかなと思いますね。
スピーカー 1
そこら辺はAppleさん気にするでしょうねという感じなので、そういう意味でこれが他と差別化すれれば市場性もあるでしょうし、いいんじゃないかなと思いますね。
あとApple製品との組み合わせという意味で言うなら、ARゴーグルとの組み合わせがいいかなと思っているので、そういう意味でも何かサービスを出してくれるとまた面白いのかなと思っています。
もう一度こっちのマルチモーダルAI、大規模言語モデルなどで何か盛り上がると面白いかなという気がしています。
そうですね。Vision Proは出ましたけど、かなり瞬間風俗だったなという感覚があって、販売開始してから約1ヶ月でほぼ耳にしなくなってしまったというか、そういう状況なので、もう一頑張りいるかなという感じですよね。
スピーカー 2
個人的にAppleさんに期待するところとしては、今のAIモデル大体そうなんですけど、結局テキストで書いされてもその書いてきたテキストの解釈が人間任せなので、本来やりたいことにつながっていないんですよね。
AIがテキストと画像の中にリンゴ何個ありますかと聞いたときに、そのリンゴの数を分配して人にあげたいのか、追加で買いたいのか、そもそも値段を計算してほしいのかとか、本来やってほしい仕事が先にあると思うんですけど、
そういったアクションまでつなげられるような実装を仕込んできて、本来AIのあるべきアプリケーションの裏にいてユーザーからはあまり意識しないという意味での実装というところで、
Appleさんとしてのキラーアプリ、iOSの中ではここが一番キラーな使い所なんだといったところでの組み込みがいつリリースされるのかというのが一番楽しみですかね。
スピーカー 1
かなり高度なので、どういう実装になるか全然想像がつかない気もしますけどね。言わんとすることは分かりますけど、うーんって感じはしますけどね。
スピーカー 2
まあシンプルなところとかだったらあれですよね、カメラで撮ってなんかピンボケしてる可能性のあるものを検出して別のモードを差別としたりとかがまずシンプルに考えられそうなユースケースですけど。
スピーカー 1
別のモードっていうと?
スピーカー 2
夜景モードとか、写真撮影時のモードだったりとか、写し方、角度みたいなのだったりっていう提案をそのiOSに搭載してるバージョンとカメラアプリの使用書のマニュアルから引っ張ってきて、これだったらもっといい撮影ができるかもっていう提案をしてくれるところまでやるとか。
それくらいまでいかないとちょっとあんまり他と一緒だねってなっちゃいそうっていう。
スピーカー 1
まあそうね、分かるけど、うーん、なんだろうね。
スピーカー 2
それでももう一つキラー感なんか。
スピーカー 1
いや、なんだろうな。果たしてそれは本当にお客さんが満足度が高まるかなってかなり難しい気がしていて。
確かに。
前でも話したけど、あ、ええやんって思えればいいけど、なんかうるさいなーみたいな思ったときに、
うるさいなーが3回続いたらもうええわってホールからうるさいなーって思われんことが大事みたいな話をしたような気がしていて。アプリケーションって。
そうなりやすいんじゃないかなと思っていて。
スピーカー 2
そうだねー。むやみな通知は増えそうですよね。単純に仕込んじゃうと。
スピーカー 1
うるさいなーって思うし、なんだろう。
あのー、IMEですら、日本語変換ですらうるさいなって思うことが多いのに、なんかそのやることなすことに対して提案されてもうざいかられそうな気がするんですよねーと思ってて。
スピーカー 2
はいはいはい。
スピーカー 1
それよりはどちらかっていうとやっぱり人間主導でトリガーを引いてもらったときに、いかにいい提案をちゃんとするか?じゃないかなーと思う。
スピーカー 2
なるほどね。
スピーカー 1
まあそれは対話型でもいいし、先に出してもいいし、なんだろうな、そういう意味で言うのであれば、スチールカメラを撮ったときにうまく撮れませんとなったときに、一回AIに見せて、じゃあ何が原因だと思う?って言ったときに、説明書を出すだけじゃなくて、
これこれこれがダメなんで画角がダメですとかカメラレンズ変えた方がいいですと言われるとか、そういう提案をしてくれるならわかるけど、なんか勝手にポップするのは違うんじゃないのかなーって思ってしまうな。
AIの力の見せどころ
スピーカー 2
ユーザーがそれくらいのプロフェッショナルモードになりたいっていうモチベーションがあったときに初めて意味があるって感じかな。
カメラアプリの端々まで使いこなして、よりいい体験をしたいっていう思うレベル?パッと撮れればいいやくらいの人で提案されても困ると思うんで。
スピーカー 1
そこはAIの力の見せどころかなと思ってて、AIの力の見せどころっていうのは使ってる人のパーソナルデータを無限に吸っておいて、その人がどういうことに興味があるのか。
高いカメラ、ごっついカメラを買ってるのとそういうプロフェッショナルな選択、提案をするし、わからない人だったら、カメラモードこれがいいと思いますみたいな回答をするぐらいとか。
そういう人に合った回答をできるっていうのが強みにしたほうがいいんじゃないのかなと思っていて。
そうなった時に、Appleはスマートフォンを持ってるし、だからVision Proを使っていれば、その人のワークというか処方が分かるので、そういう情報を吸えば他とは違う。
やっぱ強いねっていうものができるんじゃないかなと思っていますという感じかな。
パーソナライズ特化みたいな感じですかね。個人の特性に合わせた使いどころをより加速させるような。
スピーカー 1
そうじゃないかなと思っていて、結局マスというか中央値ではないんだけど、とりあえずこれでいいわ、チャットというかオープンAIに持ってかれてるから。
それとはより先を行く必要があると思ったらパーソナライズかなという気がするんだけど。Appleの強みとしては。
スピーカー 2
Appleの強み、でもジョブさんじゃなくなってるから今更言ってもかもしれないけど、Apple的には俺の考える最適な体験はこれだからこれに従えじゃないの。
Appleさんの強み。
スピーカー 1
それがパーソナライズじゃないかなと思ったんだけど。
スピーカー 2
なるほど。
スピーカー 1
パーソナルな体験ができる。
スピーカー 2
なるほどね、そうね。
かなり人の身近にいるところのハードウェアはいろいろ持ってるから、そういったところを紐づけてやっていってもらいたいのは間違いないですね。
はい、そんな感じですかね。
OMNIBUS Cloud APIsの発表
スピーカー 2
Appleさんも参入してきましたよという話でした。
私の方最後ですけど、オムニバースクラウドのAPI対応が始まりましたよということで、モノイストさんの記事です。
NVIDIAは2020年3月18日、米国サンノーゼで開催中のユーザーイベントGTC2024の基礎講演において、
3Dデザインコラボレーション、リアルタイムシミュレーション基盤、NVIDIA OMNIBUSのクラウドサービス、NVIDIA OMNIBUS Cloudで製造業務系をはじめとする様々なツールの連携が容易になるAPI群、NVIDIA OMNIBUS Cloud APIsを発表した。
ANSYS、Cadence Design Systems、Desult Systems、Hexagon、Microsoft、Rockwell、CMAS、Trimbleといった有力ツールベンダーがパートナーとして参画することを表明している。
デジタルツインのプラットフォームを目指すOMNIBUSにおいて、3Dデータの標準フォーマットになっているのがUSD、Universal Scene Descriptionだ。
現在はオープンソース化されたことにより、OpenUSDとなっている。
OMNIBUSやOMNIBUS Cloudは、このOpenUSD形式の3Dデータについて、NVIDIAのレイトレーシング対応のグラフィック技術であるRTXなどを用いて、高精細かつリアルタイムに表示できることを最大の特徴としている。
今回発表したOMNIBUS Cloud APIsは、OMNIBUS Cloud上にあるOpenUSD形式のデータを連携対象のツール上で利用可能にするAPI群となる。
これまでのOMNIBUSやOMNIBUS Cloudは、OpenUSDを経由して他のツールで作成した3DデータをOMNIBUSやOMNIBUS Cloud上で表示することが主な用途だったが、
OMNIBUS Cloud APIsによって、高精細かつリアルタイムな3D表示ができるOMNIBUS Cloudの特徴をそのまま連携対象ツール上に持ち込めることになる。
ユーザーが自身の環境で構築しているデジタルツイン空間内に、OMNIBUSの技術を簡単に持ち込めることを意味している。
OMNIBUS Cloud APIsが提供するAPIは5つある。
RTXによるレイトリシング対応のレンダリングを表示可能にするUSDレンダー。
OpenUSDデータの変更や操作を行うためのUSDライト。
3Dデータを統計に利用するためのシーンやシナリオを管理するUSDクエリ。
OpenUSDデータの変更を追跡し反映するUSDノーティファイ。
OMNIBUS Cloudを経由してユーザーやツール間をつないでのコラボレーション可能にするOMNIBUSチャンネルだ。
GTC2024の展示会場では、パートナーと参画するCadenceとCMSの事例が紹介された。
Cadenceはカーボンニュートラル対応が強く求められているデータセンターの構築向けに、
同社のデジタルツインソリューションであるリアリティデジタルツインプラットフォームを提案している。
リアリティデジタルツインプラットフォームとOMNIBUS Cloud APIの組み合わせによって、
データセンターの構築の設計とシミュレーションのワークフローを30倍に高速化できるようになったとする。
CMSは統合デジタルプラットフォーム、CMSエクセラレーターとOMNIBUSの融合を進めるなど、
NVIDIAとの関係性が深いパートナー企業だ。
OMNIBUS Cloud APIsについては、クラウドベースPLMであるTeamcenterXを皮切りに導入を進めているところだ。
OMNIBUS Cloud APIsを用いたTeamcenterXの事例としては、
AGD Hyundaiが開発している700万点以上の部品からなるタンカーの3Dデータをレトリシングに基づく高精細な表示を自在に行ったり、
天然ガスの注入やスクリューの動作における流体シミュレーションをスターCCMプラスで実行できたりすることを示した。
なお、OMNIBUS Cloud APIsの提供は、マイクロソフトクラウドのAzure上で展開されているOMNIBUS Cloudから先行する形で2024年後半を予定している。
ということで、以前1回か2回くらいだけ紹介したOMNIBUSのアップデートの話です。
OMNIBUS Cloud APIsの活用
スピーカー 2
OMNIBUS自体は、先ほども話した通り、デジタルツインを目指してシミュレーションできますよということで一躍話題になった環境で、
Unityっぽいインターフェースを持った3D空間を操作できる環境です。
そこにいろんなものを仕込めるんですけれども、新たなインターフェースということで学習コストも比較的高く、
また、そこで使っていろいろするにしても既存の資産をどうやって取り込むんだとか、
実際リアルに現場に存在するデータをどうやって反映させるんだというところで、
インターフェースがなくて、ものとしては面白いけど、ちょっとこれを使い倒すにはまだ実機操作しようかなというのが肌感としてあった中で、
今回API図ということで、それに対するインターフェースが提供された形になっています。
これによって実際の現場のデータをAzureクラウド上に上げて紐付けてオムニバーサに取り込むこともできますし、
もともと持っていたデータ群を一回スナップショット的に取り出してオムニバーサに流し込むこともできますし、
Unityなど他のツールで構築したものを取り込むことも可能になってくるので、
非常に双方向性のある環境として運用できるようになってきました。
今回これをわざわざ紹介したのが、個人的にはAzure上で展開されているというところがみぞかなと思っています。
このオムニバーサ自体は3D空間をシミュレーションするようなサービスなので、非常にGPUパフォーマンスを必要とする環境になっています。
そういった大規模環境、学習環境というと、今までだとGoogleやAWSのほうが正直言って強かったといったところがあるのですが、
NVIDIAとMicrosoftの提携がうまくいっているのか、Azure上でこのNVIDIAのオムニバーサクラウドが提供されているということは、
必然的に周辺環境もAzureに寄せていったほうが、効率的にシームレスに連携しやすくなるといった側面があるので、
AWSやGoogleといったクラウドプラットフォームよりも、さらにこういった側面でもAzureが一歩抜きんでいる可能性があるなと思っての紹介になります。
スピーカー 1
はい、ちょっと業界が出ましたねという感じがありますけど。
ケーデンスと脱走システムですね。
スピーカー 2
ごめんなさい。
スピーカー 1
なんですけど、メーカー名が相々足りすぎてビビってますねというところがまずあるんですけど、
アンシスというのが有限要素のシミュレーターの採用で、ケーデンスが半導体設計の採用で、脱走システムがソリッドワークスとかを買収したところで、
スピーカー 2
ヘキサゴン計測器メーカーって感じなんで、アメリカの採用と企業が全就航してる感じなんですけど、
そんな感じでNVDAに募ったみたいな感じなんですよね。
そこがみんなこのオムニバスを使えるようにしましたと言ってるんで、世界の裏側で聞いたことない企業が牛耳ってますねという感じになるんですけども。
確かにこういう実装されてしまうとみんな使うわなという感じがしていて、
スピーカー 1
結局そのCADやらCAMやらを導入してるメーカーは山ほどいるわけですよね。
使いにくいなって言ってたのがインフラとして入ってますって言われると、じゃあ使ってみようかということになって、
それがさっき最後の方で言ってたそういうタンカーの部品、タンカーのデータを全読み込みしてその部品を動かすみたいなね。
流体シミュレーションまでできるとか、ちょっとわけわかんないこと言いすぎてるんですけど、
そういうことができるってなるともうなんだろうな、社会インフラですわという感じ。
なのでかなり化けましたねという感じですね、これは印象として。
スピーカー 2
そういった業界というよりは、私は近いところがIoT関係なんで、そういう側面でしか見れてないんですけど、
シミュレーターとして既存の各社のサービスもちろんあるし、流体解析に強いシミュレーション環境みたいなのもあると思うんですけど、
やっぱりそれだけを扱えるみたいな空間を毎回毎回個別に設計して何とか用意しきるというよりは、
開発の経緯とかでできてくるような資産を全部取り込んで、そこからスタートできるっていうこのシミュレーション環境のインフラの方が良さそうっていう捉え方であってます?
スピーカー 1
まあまあまあそんな感じですかね。言ってしまうと、今まで使ってたツールでそのまま使えるって言った方が多分感覚としては正しいかな。
かつ今までシミュレーターで動かす上で、シミュレーターごとの動作環境の制約の問題で上手く動かすために上手いことちょっとここ調整したりとか、
要素数を減らしたりとかみたいなことをするのが普通だったと思うんですけど、もしくはハードウェアで分回すかみたいな。
スピーカー 2
そうだね。
オムニバースを活用したデータ解析
スピーカー 1
だと思うんですけど、NVIDIAだとそういうことしなくても設計データそのまま持ってくればいいよ。
しかも別ツールで使ったものをそのまま別ツールに突っ込んでも対応できますよと。
スピーカー 2
そういう使い方すればいいのか。ハブにしちゃえばいいのか。
スピーカー 1
別会社の別ツールで作ったこのデータ、解析したいんですけど、流帯解析したいんですけどって言ったらアモニバス形式で書き出してください。
出しました、入れました、ポン付けで動きました、はい結果です、おしまいできますっていう話だと思うので。
スピーカー 2
なるほどね。
スピーカー 1
実際そこまで綺麗に動くかどうかは結構いろいろあると思うんだけど。
スピーカー 2
もちろんもちろん。
スピーカー 1
メーカーごとのあれとかあると思うんですけど、全く別のデータなので書き出したデータを見ながらもう一回一から作り直すみたいなことをしなくて済むとかいう時点でだいぶありがたいので。
いやまあ協力ですねという感じですね。
スピーカー 2
はいはいはい。
スピーカー 1
基本的にはIoT関係の視点から言うと、現場のデータを上げる、そこからデータ解析いろいろした方がいいよねっていう話はもちろんあって、そういう業界が進んでたんですけど、やっぱりそのデータって上がっただけでは意味がないっていうことに対する買いがなかなか出てこないのがずっと続いてて。
スピーカー 2
データに間違いなく価値あるし、データを整理すると価値は見つけられるんだけど、どこまで行ってもデータという形を人間が頑張って解釈しないと価値に見えてこないっていうところが続いていて、そのフィードバックする先を現場にしちゃうとネットワークとかいろんな技術制約があって現場にフィードバックするのがイマイチだしってことで、
その上がったデータが宙に浮いてて、なんかポテンシャルは感じるんだけど価値に変換しきれないっていうのがあるんですよね。
で、今回オムニバースのこのインターフェースあれば、とりあえずここのオムニバース環境に突っ込めるようにしとけばいいんじゃねって言って、突っ込むだけ突っ込んだら、その開発チームが参考にするのか、さっき言ったシミュレーションとか、デジタルツインの上でのシミュレーションでいいと思うんですけど、そういったチームが参考にするとかができるので、
なんかIoTチームとしては今までなんかデータベースとか、次の人が使うのにまたデータサイエンティスト、デジタルエンジニアがいるようなインターフェースじゃなくて、とりあえずオムニバースに突っ込むってことをしとけば、他の人が使える環境にできるっていうだけで、ものすごくインパクトを感じますね。
スピーカー 1
まあ突っ込んでおいて、それをそのCADデータに復元できるかどうかはまた別の話だと思いますけど、まあでもそうですね、共通化しているのは重要だと思っていて、近い話で言うと、例えば基板をCadenceで設計しました。
で、基板を取り付けたモーターとの一体のハウジングをDASOのシステム上でやりました。それを強度計算するために、こうなんだろう、めちゃくちゃ負荷かけた時に基板ごと曲がるっていうのをアンシスでやりたいですって言った時に、毎回データ変換をしてるわけですよね、現状だと。
それをオムニバス上でって言ったら、そのままコピって持ってこれるんで、めちゃくちゃ便利ですねってなるし、それでダメでしたって言った時に、じゃあこの穴位置をゴミでこっちにずらしてくださいっていうのをそのまま各インフラに、各設計部隊に下ろせるっていう。
リアルタイム性というか設計コースの削減という意味でかなり便利なのかなという印象かな。
スピーカー 2
そうですね。IoTとして挙げるデータで今の文脈に近そうなところだけで言うと、センシングしたデータだったりとか、その実際に流れている基板の撮影映像、写真だったりとか、あとは基板とか掴むんだったら、そこでかかってる8トルクみたいな値を突っ込んだりして、
実際に想定しているものと実測値でそれに起きるシミュレーションを新たにかけ直すとかいうのが、もともとあったシミュレーション基板をここの上で作ってくれてるんだったら、じゃあそこのシミュレートしてた入力値っていうのを生のデータに変えたらどう見えるのかみたいなのがすぐできるわけじゃないですか。
だからとりあえずオムニバースに突っ込めるっていうインターフェースとデータフローを組んどくだけで価値が生まれるんですよね。
スピーカー 1
なるほどね。オムニバース上で全てを突っ込めれば、そこで再現できるじゃんという話で。
スピーカー 2
今まで上がったデータをとりあえずデータベースに置いとくかだと、やっぱり化石化していくだけで価値に変換されないんだけど、インターフェースとしてオムニバースに入ってくるようになってるよっていうのを、このオムニバースを触れるチームに伝えるだけで、次の価値に即つなげられる可能性を作れるって感じかな。
スピーカー 1
だからオムニバース上で一世代前のこれをつけ直したらどうなるかみたいなこともできるだろうし、あんまり変わらない前のやつでよくねみたいな話もできるしみたいな。
スピーカー 2
そうだね。そうすると今まで現場とかでやられた実験器具、そこの部分だけを作った試験機の測定値とかを入れるとかも現実的にできるようになってくるでしょうし。
すごい夢が広がりますよね。
スピーカー 1
そうですね、確かに。
ここまでお膳立てされるとなんかちゃんとデジタルツインができそうな気がしてくる。
スピーカー 2
そう、デジタルツイン結構夢物語でしたけど、これは来てる感じしますよね。
スピーカー 1
やっぱ、何だろう、やってるだけあって勘どころが分かってるなという感じもするな。
スピーカー 2
今までずっとAIの話はしてきましたけど、来年度あたり真面目にオムニバスを勉強しないといけないかもなという気は若干してますね。
スピーカー 1
面白そうやけどな。
まず、現場の人にオムニバス形式で書き出してうまくいくやつをデータを作ってもらうといけないかもしれないけどな。
スピーカー 2
そうね、そうね。
スピーカー 1
書き出しみたいなデータケースの人とかありそう。
スピーカー 2
インターフェースがやっぱりできることがリッチなんで、その分インターフェースもリッチになってて、
怒涛のようなメニューに圧倒されてちょっとしょんぼりしちゃいましたけど、こうやっていかないといけない。
スピーカー 1
次元の違うCADとかから共通化させると多分そういうことになるんだろうねって気はするので。
スピーカー 2
はい、という紹介でした。
スピーカー 1
次、私の方から。
超小型人工衛星C-SAT-1Eの初撮影結果
スピーカー 1
ケアノンさんのプレスです。
超小型人工衛星C-SAT-1Eの主光学系カメラでの初撮影に成功しました。
2024年2月17日にH-IIIロケット試験機2号機により軌道高度670km、太陽同期軌道に投入されたC-SAT-1Eの主光学系カメラから撮影したファーストフライト画像、ラスベガスの街並みを公開します。
合計40cm望遠鏡と約4500万画素の高い解像性能を誇ったキアノン製デジタル一眼レフEOS R5を組み合わせた主光学系から、24年3月10日の午後2時12分48秒にラスベガス中心街の撮影を試みました。
国際観光都市として有名なラスベガスはカジノホテルやエンターテイメント、スポーツイベントなどの設備が多くあり、画像中心には高速軌道、ラスベガスフリーウェイと各々の数々の謎たるホテルが打ち出されています。
今回のファーストフライト画像からも、道路を走行する車や駐車場に停車している車を確認することができ、スタジアムの屋根に書かれた文字を読み取ることができます。
高解像度の画像情報は、道路の混雑状況を把握、都市・地域整備時などに活用される地理空間情報収集や防災活動への貢献など、社会の安心・安全への寄与が期待されています。
C-SAT-1Eは、引き続き軌道上において実証実験を行いながら、高解像度画像の取得を目指します。
イオスR5持っている方は、これをポン付けした画像で軌道上からこんなものが取れますよという、良い参考になるんじゃないでしょうかという面値の紹介です。
スピーカー 2
それは参考にしてどうしたらいいの?参考にして、俺も地上650キロくらいのところに行ってみるかなってなるかな?
これ収穫額系がやばすぎるという感じなので、手持ちのレンズだと無理だと思いますけど。
それにしても綺麗に撮れてますね。確かにホームページに記載されているやつ、ズームインもさせてくれないから、別で開いて、アドレスで撮ってした方がいい。
すごい撮れてる、ちゃんと。
スピーカー 1
これでもアドレスのやつも小さいな。ちょっと小さくされてますけど、4500万画素もないけど。
スピーカー 2
確かに、ハーフとかになってる。
それでも全然綺麗なので、民間でポン付けでもこのくらい撮れますよという話。
全然素人で分かってないんですけど、それが意味するところっていうのは、今後地上を観測する上では、単純に民生品レベルをガンガン上げて数で重ね合わせて保管していけば十分、地上の製造くらいでは観測できるようになるので、
そこが国とかがやらなきゃいけないメイン事業ではなくなりつつあるよねっていう話になってくるんですか?
スピーカー 1
そういうわけでもない?
半分そうかな、という感じがしていて。
私の適当な考えですけど、民間がポンポン打ち上げられるようになった時に、めちゃくちゃ高いカメラを使わなくても、こういう有用なデータが撮れるということが分かるという話なので。
スターリンクみたいにいっぱい上げて常に日本上空を観測できる状態にしておけば、めちゃくちゃ早い頻度で情報が取れるわけですよね。
リアルタイムの道路交通情報だったりをこれから取得するとかもできますし、災害が起きた時に火事が起こった、沈下した、次こっちは大丈夫かみたいなのがリアルタイムで分かるとかね。
避難経路をリアルタイムで形成できるとかいうことになれれば、民間レベルでもそういう活動に貢献できるし、それを国がやるという重要性もやっぱり高いよね、という話になるので。
民間事業に委託するかもしれへんけど、国としてやる意義も十分にあると思うね。
スピーカー 2
なるほどね。
そうか、だからすごく宇宙から地上を見るということがどんどん当たり前になっていくけれども、その当たり前を維持する意義は国にも民間にも両方あるから、どっちがやってもいいよねって感じか。
スピーカー 1
そうだね。例えば大きい野外イベントとかの人の流れとかも連続で撮影できるんだったらそっちでやったほうが分かりやすいだろうしみたいなのは民間でやったほうが民間事業だなという感じはするだろうしね。
スピーカー 2
そうだね。なるほどね。災害とか見えてない、一般にはすぐには分かってない山奥での崖崩れとかそういうのにもね、気づけるようになったりとか、なんかいろんな国としての意義は全然ありそうだし。
はい、いいと思います。いいと思いますっていう感じしか出ないのがあれですけど。
スピーカー 1
という感じなんで、そうですね。これ引き続きバシャバシャ撮っていくと思うのでいいと思いますという感じです。
次、ちょっと待ってください。URLが開いてなかった。
スピーカー 2
じゃあ1点だけ。なんかここまでそのカメラレベルで撮れるんだったら、今後上がっていくいろんな衛星にせっかくだしカメラつけといてよみたいな、衛星に抱き合わせてもらいやすいとかってあったりするんですか?そんな小さくないのかこれ。
結構小さかったような気はしてて。
スピーカー 1
カメラは本当に手持ちサイズですけど。
スピーカー 2
このデータを送信する機能がやっぱりデカいんですか。
スピーカー 1
そこがデカいのと光学系がやっぱり結構気をつけないといけないとか、ブレちゃったらダメだしとか。
結構扱いやっぱり丁寧にいるのか。
先進レーダー衛星第14号の公開
スピーカー 1
あと光学系が民生品ってことは宇宙空間で凍りつかないようにとかいろいろ外側で対応してるはずなので。
そういうことを考えると結局システムデカくなると思うんですよね。
了解です。
スピーカー 2
カメラが民生化する世界の先ってスマートフォンにカメラがついてるように、いろんな機器にカメラが当たり前のように搭載されてる世界っていうのが、
想像できたなと思って、そこに対するギャップを知りたかっただけです。
スピーカー 1
ただレベルの問題であって、ここまで高解像度でなくていいんでサブで載せるとかは普通にやってんじゃないのかなと思うので。
そういう意味ではもう載ってるんじゃないのかなと思います。
スピーカー 2
もちろんカメラ専用のものをいっぱい上げるでもいいんだけど、どうせならいろんなところに搭載させてもらって複合的に結果的に密度が上がってる状態にした方が人類的にはいいよなって思っただけです。
そうですね。
スピーカー 1
はい、次いってください。大丈夫です。
次です。ソレソの記事です。三菱電機先進レーダー衛星第14号を公開2024年度打ち上げ予定というタイトルの記事になります。
三菱電機は24年3月11日先進レーダー衛星第14号を報道関係者に公開しました。
第14号は2014年5月に打ち上げられた陸域観測技術衛星第1・2号の後継機となる宇宙航空研究開発機構の地球観測衛星ですという感じで。
結構長いのでちょっと解説まで話させてもらいますけど、第1・4号には昼夜や天候を問わずに地上を観測できるエルバンド合成回光レーダーが第1・2号に引き続き搭載されており、
第1・2号と同じ高度628kmの太陽同期巡回機機動から地球の観測を行います。
衛星の質量は第1・2号の約2.1トンから第1・4号では約3トンに増加し、後継するエルバンドSARの能力向上に伴って太陽電池の発電電力は約5300Wから7000Wに向上しています。
三菱電機によると第1・4号に搭載されるエルバンドSARパルサ3の空間分解能は第1・2号のパルサ2と同じ3mですが、新たにビームフォーミング技術を採用したことで観測幅は第1・2号の50kmに対して第1・4号では2から4倍に拡大されました。
言い換えると、第1・4号では第1・2号と比べて最大で4倍広いエリアを同じ分解度で一度に観測することができる、もしくは同じ広さのエリアを同じ分解度でも最短4分の1の期間で観測できることになります。
24年1月1日に発生した野東半島地震や航海移民のちょうど13年前に発生した東北地方太平洋型地震のような広域にわたる大規模な災害が発生したとき、第1・4号であれば地殻変動や土砂災害などが発生した地域のデータを一度の観測でより取得できるようになるわけです。
エルバンドSARの能力向上
スピーカー 1
地震や噴火によって大地がどのように変化したかは、災害が発生する前に取得したデータと比較することで明らかになりますが、第1・4号ではそのような平地のデータも高い頻度で取得を更新できるようになります。
弱さによると、根分解濃度分解濃度3mモードでは、日本の観測頻度は第1・2号の年4回から第1・4号では年に10回に増加します。
平地の観測データがより高頻度で取得されれば、進行しつつある地質活動を早期に発見することにもなりますし、
温室効果ガス排出に影響を及ぼす森林伐採や河川管理施設、港湾施設などインフラの老朽化に伴う変異といった文化活動に由来する変化も従来と比べ把握しやすくなります。
一方、取得される観測データの大容量化に合わせて、衛星側のデータ蓄積容量は第1・2号の約128GBから第1・4号では約1TBに増強されました。
地上へ伝送される観測データも大容量化することから、直接データ伝送系で使用する電波の周波数はX帯からKA帯に変更されており、
伝送レートも第1・2号の約800Mbpsから第1・4号では約3.6Gbpsに高速化されています。
さらに第1・4号では第1・3号と同様にレーザー航空を用いた低軌道衛星用光ターミナルORCTが搭載されています。
この機器はJAXAが開発を進めている光衛星間通信システムLUCASで使用されるもので、
静止衛星上の光データ中継衛星との間で衛星間通信の運用実証が行われる予定です。
先ほど言っていた半分アンサーにもなっているような感じがしますが、
センサーを増やして性能が良くなることで頻度も上がりますし性能も上がります。
データも結構莫大になるので、それに対応するいろいろな装備もついていますよというお話でした。
スピーカー 2
ORCTとかって前に話が挙がっていたデータ転送だけやってくれる宇宙間衛星で地上局との通信に特化したやつでしたっけ?
スピーカー 1
だったと思いますね、これは。
いいですね。H-IIIロケットの試作機2号がこの前無事成功したので、乗っていればなぁみたいな気持ちには確かにありますけど、
スピーカー 2
まあまあ、しゃあないですね。
スピーカー 1
しゃあないですし、次打ち上げる3号機はこいつが乗る予定です。
スピーカー 2
いいですね、楽しみですね。
スピーカー 1
いいですねという感じですけど、今度こそ成功してほしいですねという話で。
そうですね、H-III試験機1号機がこいつの前身、前身ではないな、別機動を持った第1・3号が乗っていて、
それが失敗してしまったので、第1・3号機能が持っている赤外線で画像を撮るという機能を第1・4号機能は持っていないので、
まあもったいないことでしたなという感じですけど。
スピーカー 2
そうですね、なんかレーダーのところだけ聞くと、第1・3号でもなんかありませんでしたっけこれ。
スピーカー 1
第1・3号は赤外線特化で、こいつは可視光特化。
スピーカー 2
ああそういうことですか、検出能力。
スピーカー 1
検出能力というか、帯域が違うのです。
なのでこっちの方が、コンクリが崩れたとかはすごい多分わかりやすいですけど、夜間に火事が起こっているか見えるか。
夜間の観測とかは第1・3号の方が優秀だったはずというところですね。
スピーカー 2
なるほどね。
まあでもこれは本当に打ち上がるのを楽しみに待つ以外できることがないですね。
スピーカー 1
できることないですね。
第1・2号くんもかなり頑張ってくれてるんで、そろそろメインを切り替えたいですねという感じですね。
スピーカー 2
はい、単純に非常に楽しみとしか思わないですね。
最近本当に地震も増えてて、こういうインフラが整う重要性がますます上がっていると思うので、ぜひ頑張って打ち上げ成功してもらいたいところですね。
スピーカー 1
はい、という感じですと。
私の方最後、ロボスタさんの記事です。
JR東日本の無人店舗
スピーカー 1
JR東日本の駅に初出店無人店舗のファミリーマートが大目線羽村駅に3月22日オープン。
無人決済システムはTouch2GOと開発というタイトルの記事です。
羽村市ですね。はい、羽村駅いいです。
株式会社ファミリーマートは株式会社Touch&GOが開発した無人決済システムを導入した店舗をJR大目線羽村駅にファミリーマート羽村駅S店として24年3月22日にオープンする。
取扱品目約350種ということです。
ファミリーマート羽村駅S店は無人駅で次世代のお買い物体験を可能にするほか、通常の有人レイジ店舗に比べ時間節約ニーズの高い朝や移動の合間など短時間で買い物ができるようになり、鉄道を利用する顧客のニーズに対応・利便性の向上が期待できるとしています。
仕組みは、天井に設置されたカメラの情報から入力したて来店客と手に取った商品をリアルタイムに認識する。
出口の手前に設置された決済端末のディスプレイに購入商品と合計金額が自動で表示され、ファミプリを含むバーコード決済、小付電子マネー、クレジット現金で支払いが可能となっていてスピーディーに買い物ができるとされています。
こういう形式のやつは、3年前というか5年くらい前だったかな?ぐらいからあって、なかなか広がらないという中で、この度JR東日本さんが導入するということなので、ちょっと期待大ですね。
なんで大目線につけたという感じで申しますけど、というところで紹介するんです。
スピーカー 2
そうですね。駅以外のところは比較的導入されてしばらく運用が続いているイメージありますけど、駅は実証実験ですぐ撤収しているイメージがありますね。
スピーカー 1
その結果としてこの駅がいいのかなってなったのかもしれへんけどな。
スピーカー 2
確かに、実証実験でやるときは宣伝目的もあったのか、結構人通りの多いところがターゲットでしたよね。
スピーカー 1
ターゲットでやってたと思います。
スピーカー 2
今回は比較的田舎の方というか東京都の中でも足っこの方ですよね。
スピーカー 1
そうですね。なのでそこまで山手線のどこどこ駅みたいなほど人通りは多くないところに置いているので、どちらかというとやはりプレスでは短時間で買い物ができることが利点とか言ってますけど、
実態としてはやっぱりレジ打ちの人の削減っていうのが大きいのかなという目で見ています。
スピーカー 2
そうですね。
駅の店舗って繁忙時間とそうでない時間の差が激しいですよね。
スピーカー 1
はい。
スピーカー 2
朝の通勤時間の2時間と、逆に朝ばっかりか、帰ってきてからも多少あるかもしれんけど、夜は比較的ばらけててっていう、その朝の2時間には2人体制とかしないと回らないくらい忙しいけど、それ以外の時間は1人でも今みたいな。
そういう極端なニーズの差があるとかになると、無人店舗の方がやっぱり優位性高いんですかね。
スピーカー 1
コンビニいくらでもやることがあるから、そこはなんとかなると思いますけど、そもそもバイトを1人しか確保できないとか、そっちじゃないかなという気はするけど。
スピーカー 2
確保できる最低限の人は品橋とか。
スピーカー 1
そう、店の裏側の仕事をやってもらって、21なんて客ができるんやったら客がやってくれという感じ。
スピーカー 2
防犯カメラとかもある程度見とかないといけないんですかね。
スピーカー 1
まあそれもありますしね。
そうですね。
で、ファミリーマートなので、ユニクロみたいに全ての商品にタグを付けた方が本来会計のシステムとしては楽なんでしょうけど、
ファミリーマートなので商品共通化させたらそういうわけにもいかんでしょうし、というところでのこのカメラ認識なのかなという気はしますけどね。
スピーカー 2
そうですね。自分でパワーコードピッピってしなくていいところはましたとは思いますけど、
この方式だとあれか、客密度が高すぎると機能しないのかもしれないですね。
スピーカー 1
逆にそれはありそうですね。
っていうのもあるんで。
これ実際認識しなかったらどうするんですかね。
スピーカー 2
パワーコードリーダー置いてあるから、買う点数間違ってたら自分で読み込んでくださいとか書いてあるんじゃない?
スピーカー 1
ああ、なのかな。
ちょっとそれはインターフェースは触ってみたい気がしますけど。
スピーカー 2
そのためだけにここまで行くのもなってきちゃう。
スピーカー 1
ちょっと大変ですねという感じなんで。
スピーカー 2
この神浦周辺はいい観光ないんですか。
スピーカー 1
いや、観光はできるとは思いますけど、コンビニ行くためだけに行くのはちょっと馬鹿らしいですね。
スピーカー 2
コンビニメインで。
おまけで観光する。
スピーカー 1
そうですね。それもありかもしれませんけど。
スピーカー 2
でもなんか記事からしたら36店舗目ってことで地道に広がってそうなんでいいことじゃないですかね。
スピーカー 1
これはあれじゃないですか。タッチ&ゴーがこの形式の無人店舗を置いたのが36店舗目であって。
たぶんJR東日本管轄の敷地内で初めてなんじゃない。
スピーカー 2
そうですね。
無人化による便利さと問題点
スピーカー 2
駅以外でも無人化していいじゃんここって思うところいっぱいあるんでいいんじゃないですかね。
ホテルに入っているやつとか。
スピーカー 1
そうですね。と思いますけど。
でも一回触ってみたいな確かに。
これ端末がどっちの端末が入っているのかちょっと気になってて。
都市部に住んでないからその辺のこだわりがわからないですけど。
どちらかっていうと個人的なセルフレジのこだわりなんだけど。
ファミリーマートのセルフレジ最近開発されててやたらポチ数が多くなったっていうのはちょっと心鏡さんには言ったんですけど。
ポイントカードありますかとかのポチ数とか。
あと支払いも一度じゃなくって2段階押さないと目的の支払い目標に行かなかったりとか。
昔はよかったらなんで開発したっていうところがあるんで。
なんかそのシステムが乗っててちょっとイラッとするなと思っただけです。
個人の感想になります。
スピーカー 2
それこそここまで行ってイラッとしたままで帰ってくるのはアホすぎるから。
スピーカー 1
いい経験。無人テンポまで行ってイラッとしたという経験が得られるという感じなんで。
セルフレジの開発と経験
スピーカー 2
なんかあのシステムと組み合わせ悪そうだなと思ってたんで。
ちょっとどうなってるんだろうなと思った次第です。
今日はこのままですかね。
スピーカー 1
はい。そんなもので今日はおしまいとなります。
はいお疲れ様でした。
スピーカー 2
お疲れさんでしょう。