1. Recalog
  2. 217. 2025/09/28 Google、思考..
2025-09-28 00:00

217. 2025/09/28 Google、思考力を持つロボットAI発表

spotify apple_podcasts youtube

以下のようなトピックについて話をしました。

01. 深宇宙展で体感する人類の宇宙探査

「深宇宙展~人類はどこへ向かうのか」は、2025年7月12日から9月28日まで日本科学未来館で開催される日本最大級の宇宙展です。JAXA、国立天文台、東京大学などの協力により実現し、アポロ計画から半世紀を経て再び注目される月面探査と火星探査の最前線を紹介します。

展示の目玉は、世界初公開となるアルテミス計画の有人月面探査車「有人与圧ローバー」の実物大模型です。宇宙飛行士が宇宙服なしで約1か月生活できるこの探査車は、次世代月面探査の象徴的存在です。また、前澤友作氏が搭乗したソユーズ宇宙船の帰還モジュール実機や、日本の最新基幹ロケットH3のフェアリング実物大模型も展示されます。

特に注目すべきは、「はやぶさ」と「はやぶさ2」が持ち帰った小惑星イトカワとリュウグウの貴重な粒子を顕微鏡で直接観察できることです。さらに大画面映像による火星ツアーや深宇宙ツアーでは、探査機の最新データを駆使した臨場感あふれる宇宙体験が楽しめます。

全4章構成で、ロケット技術から月・火星探査、そして銀河系の彼方まで、人類の宇宙への挑戦を実物・模型・映像・体験型展示で総合的に体感できる大規模展覧会となっています。

02. Google、思考力を持つロボットAI発表

Googleが2025年9月25日に発表した「Gemini Robotics 1.5」は、高度な思考力を備えたロボット用AIモデルです。このモデルは「具現化推論モデル」と呼ばれ、物理環境での計画立案と論理的意思決定に優れています。

従来のGemini Robotics 1.0が視覚情報と言語入力から直接動作を出力していたのに対し、1.5では動作前に自然言語での「思考トークン」を生成する仕組みが追加されました。これにより「行動する前に考えるエージェント」として機能し、複雑な多段階タスクの成功率が大幅に向上しています。

デモでは、フルーツの色別分類、洗濯物の色分け、地域に応じたゴミ分別など、環境を理解して適切に判断・実行する能力を披露しました。また、異なる形態のロボット間での学習転移が可能で、ロボットの形状に合わせてAIモデルを特化させる必要がありません。

同時発表された「Gemini Robotics-ER 1.5」は思考専用モデルとして機能し、複数ステップの詳細な計画を作成してGemini Robotics 1.5に指令を送ることで、「動作しながら思考するロボット」を実現しています。

ピチャイCEOは「真に役立つ汎用ロボットへの次の大きなステップ」と評価しており、現在はテスタープログラムへの登録により利用可能です。


本ラジオはあくまで個人の見解であり現実のいかなる団体を代表するものではありません
ご理解頂ますようよろしくおねがいします

サマリー

新宇宙展では、宇宙開発や探査技術の進展が紹介されており、特にアルテミス計画や火星探査に関する展示が注目を集めています。来場者は実物のロケット部品や探査機の模型を通じて、宇宙の魅力を直接体験しています。2025年9月28日に発表されたGoogleの新しいロボットAIは、思考力を持つことが特徴であり、AI技術の進化を示しています。このエピソードでは、その性能と可能性について議論が行われています。2025年9月25日、GoogleはGemini Robotics 1.5を発表しました。このAIモデルは高度な思考力を持ち、複雑なタスクを効率的に処理する能力を備えています。また、ロボットによる実世界での判断能力が向上し、新たな機能が追加され、将来的な応用が期待されています。Googleが発表した新しい思考力を持つロボットAIは、物体の認識や移動経路の最適化において、人間のような学習能力を示しています。自動運転技術の進歩も伴い、今後の発展に期待が寄せられています。2025年9月28日に発表されたこのロボットAIは、今後の市場における技術の進展に大きな影響を与える可能性があります。

新宇宙展の概要
スピーカー 2
いやー、だいぶ涼しくなりましたね。 そうですね、うん。
なんか30度平気で下回るようになってきたんで、ようやくなんか過ごしやすくなってきたなという感じがありますね。
スピーカー 1
そうですね。まあ半袖1枚でちょうどよかったり、まあ時間帯によっては若干肌寒かったりみたいな感じで、すごい心地いい、数少ない、非常に期間の短い秋がやってきた感がありますね。
スピーカー 2
うんうんうん、そうですね、うん。
スピーカー 1
まあこれがどれだけ続いてくれるかという感じがありますけど。
はい、その中で何か展示会行ってきたんですか?
ああ、新宇宙展の話しますか、はい。 えーっと、じゃあそうですね、私が新宇宙展という、あの科学未来館でやってるやつに行きましたと、はい。
スピーカー 2
日本科学未来館ですね、はい、やってきました。 まあ28日でおしまいになっちゃうんで、もうこれ聞いていくことはできないんですけども、まあ1ヶ月じゃないな、7月12日からやってたので、まあ2ヶ月ちょい、うん。
やってましたという感じですね。で、なかなか面白かったので、ちょっと紹介させてくださいという感じです。
はい、で、えーっとですね、まあ科学未来館特別展の場所でやってたんですけど、結構広かったんですけど、
まあ1章、2章、3章、4章ってあって、えーっと、新宇宙展という名前ですけど、何ですかね、それぞれテーマが決まってる感じで置かれてました。
で、第1章が、えーっと、宇宙開発の最前線ということで、まあこれまでのロケットとか、えーっと、あとはなんだ、
あの宇宙飛行士の宇宙服とか、まあそういう地球、地球目線での宇宙みたいな感じのテーマで置かれてました。
で、第2章が月がメインで、えーっと、アルテミス計画ですね、UGM宇宙飛行やりますよという話とか、えーっと、月単差系の話ですね、このラジオでも何度か取り上げてますけど、スリムとかの話がありました。
で、えーっと、第3章が火星と、まあだんだん遠くなっていきますという感じで、えーっと、火星はまあイーロン・マスクスさんがだいぶ推し進めてますので、まあその話とか、
あとは、えーっと、サンプルリターンですね、MMXの話、日本が頑張ってしている話とか、あとは、えーっと、インチュニティーはなかったな、えーっと、あ、名前忘れちゃいました、火星探査機ですね、はい。
スピーカー 1
バーサリーアナウンス?
スピーカー 2
あーそうですそうです、はい。で、取ったデータの話とかいろいろそういう話がありましたと。
で、第4章がさらなる新宇宙へということで、えーっと、太陽系外、太陽系のその他の天体とか、太陽系外、銀河系とかの話、まあ主にこれは観測機ですけども、の話があったりしましたという感じで、まあ結構層、層あたり出たりですね、えーっと、層をなめする感じです、はい。
で、そうですね、面白かったところを各章でピックアップしますと、まあ第1章ですね、えーっと、ここはおさわりが多かったのがすごく良かったなと思います、はい。
えーっと、おさわりって何ですかっていうと、えーっと、実際の、えーっと、H-2A、H-3で使われているロケットの光材とか、この柱の部分に使われていますよーとか、断熱材ですよーとか、そういうのを実際に持ち上げたり触ったりということができる。
しかも1つじゃなくって、1、2、3、4、5、6、7、7か8くらいあったかな、あったんで、だいぶ触りごたえがあったという感じですね。
やっぱり光材も思ったより軽いとか、しっかりしてるのとか、断熱材もボロボロしてるのとか、そういうのが触れたのは、まあやっぱり、なかなかレアだったので良かったかなと思います、はい。
あとはまあ前澤さんの、あのー、ソユーズ、買取ソユーズとかも置いてあったんですけども、これは私的には見たんで、もともと見てたものだったんですけども、まあなかなか見ることができない、えーっと、実際の宇宙船なので、はい、なかなかレアだったかなーという形でした、はい。
あとソユーズと日本のロケットだけじゃなくって、そのアメリカのスペースシャトルとか、中国の超生とか、なんか超生ってロング、ロングなんだ、なんか英語読みしてて、えーっと思ったんですけど、えー、なんかその紹介とかがあったんで結構面白かったですということですね、はい、日本の宇宙開発だけじゃなくって世界の宇宙開発、
コミコミであの話があって、まあどこか一つでもなんて言うんですかね、あのポイント、ウォッチポイントしてるものがあれば、なかなか面白いのではないかという感じでした、はい。
アルテミス計画の展示
スピーカー 1
はいはいはい、あ、超生ってロングマーチって言うんですか?
スピーカー 2
あーそうそう、ロングマーチ、そう。
スピーカー 1
へー。
スピーカー 2
ロングマーチか、まあそう、確かにそうね、っていう感じだったんですけど、はい。
スピーカー 1
なるほど、はい。
スピーカー 2
で、えーっと、第2章ですね、えーっと、月関係ですね、で、えー、そうですね、一番の見どころはやっぱりアルテミス計画のユージンオアツローバーかな、トヨタが作りますよーって言ってる、まあめちゃくちゃでかいトラックみたいなやつなんですけども、
スピーカー 1
うん。
スピーカー 2
それ単体で、えーっと、宇宙服を脱いで作業することができる、まあちょっとでかいトラックで、まあこれで1ヶ月ぐらいを活動できることを、えー、想定した作りとなってますと、という感じで、
マジでめちゃくちゃでかくて、6輪、でっかいタイヤの6輪で、非常にごつーくて見ごたえがありますと、はい。
まあモックなどで中身が作られてるわけではないんですけど、まあ大体このくらいのサイズという感じ。
スピーカー 1
サイズ感ピンときてないんですけど、2トントラックくらい?4トントラックくらい?
スピーカー 2
いや、2トントラック、いや4トン、長さはそんでもないですけど4トントラックより大きいんじゃないかな。
スピーカー 1
おおー、マジですごいな。
スピーカー 2
2トンよりは絶対でかいよ。
スピーカー 1
それはすごい迫力ですね。
スピーカー 2
だいぶ迫力がありますね。
まあこれを一発で打ち上げるのかと思うとちょっと苦労が忍ばれますなという感じがして。
スピーカー 1
まあまあ、そうですね、その一般的なロケットの直径とかと比べると?
スピーカー 2
ああなんですね、H3とかじゃ飛ばせられないので、
スペースXのアレッツに、スターシップに乗せるという前提で作られているサイズ感。
ああなるほどね。
ですね、はい。
まあ重さも何トンだったかな、4トンだか5トンだかあるはずなので。
だいぶ大変なんですけど、まあこれを一発で打ち上げられるのは素晴らしいなという感じ。
スピーカー 1
あと気になっていたのが、ああごめんなさい、アルテミス計画の中身ばかりであれなんだけど、
このローバーって月の夜を越えられるだけのエネルギーってどうやって確保するんですか?
スピーカー 2
うーん、ちょっとわかんないですけど、そもそも確かアルテミス計画は月の極あたりに活動拠点にするような気がしています。
ああ、まあそれはそうか。
はい。
ずっと夜っていう位置じゃなくて、比較的昼と夜が交互に来やすい位置かなと思われます。
はい、なるほどね。
スピーカー 1
よくわかりました、ありがとうございます。
スピーカー 2
はい。
で、あと面白かったのはタイヤですね。
ブリジストンが作っているタイヤで、月は空気がないので空気ゴムタイヤではなくてバネ式なんですけど、
スピーカー 2
結構スプリング状になってたり、
あと説明でタイヤの表面が金属のフェルトになってますと言うことを言ってて、どんなもんやって。
確かにちょっとモフモフしてるような気もするけど、うーんみたいな感じでした。
実物がやるとやっぱりそういうのが間近で見れるっていうのは良いですねという感じでしたね。
うーん。
スピーカー 1
なんか巻き上がるものが多いと月面だと逆に困っちゃいそうな気もするんですけど良いんですね。
スピーカー 2
うーんと言うか、うーんとなんて言うのかな。
がっちり食い込まないと多分滑るんで、サラサラで滑るみたいな感じになるんで。
なるほどね。摩擦を上げないとまともに走れない。
ある程度グリップがありつつ、でもその空気式でない形?みたいなことを想定している感じですね。
スピーカー 1
空気式じゃないタイヤは普通に地球でも流行ってきてるというか、まだまだ高くて広まってはないですけど。
スピーカー 2
そうですね。コスパが悪いんですよね。
スピーカー 1
そうですね。
そういう技術も宇宙であれば大活躍だと思うので。
スピーカー 2
良いかなーって感じですね。
スピーカー 1
ありがとうございます。
スピーカー 2
あとはそうですね、月関連で言うと、月の砂を模した東京大学が作った砂なんですけど。
それが小瓶に入れられててガッサガッサ触れたりするというのができて面白かったですね。
月の砂でも土地によって質感が変わってるよという話があって、それを模して地球の方で調合したみたいな感じ。
火星探査とサンプルの紹介
スピーカー 2
サラサラのやつもあれば、サラサラなんだけどちょっとモタっとした片栗粉みたいな感じの砂もあったりみたいな感じで。
そういうのも実際触ってみると感覚が分かって面白かったですね。
スピーカー 1
あんまりイメージが分かんない。こればっかり見に行った方がいいやつですね。
スピーカー 2
そう、見に行った方がいいやつです。
ちなみに研究機関とかだと無償で提供しますとか書いてあったんで。
へー、おもろい。
スピーカー 1
そういうのも見に行けばあるのかもしれないですね。
スピーカー 2
第3章の火星圏探査ですね。
そうですね、ここら辺は各国がしのぎをきすってますという話と、
よかったのが、さっき言ってた火星探査機が撮った写真とかをめちゃくちゃでかいディスプレイで写してるのがありました。
8メートルくらいかな、横幅。そんなになかったかな。
6メートルか8メートルか会議室の横1面くらいのサイズ。小っちゃめの会議室の幅で。
面白かったのが、壁のディスプレイだけじゃなくて床にもディスプレイがあると。
そこにちょっと乗れるようになってるみたいな状況になってたので、
そこでその火星の第一紹介みたいな感じで、
非常に迫力がある絵が出せるみたいなのとか、
地面込みで探査機が撮った写真、360度動画をぐるっと見たりとか、
いかにも火星に自分がいるような体験ができるみたいな感じができるのは良かったかなという感じですね。
スピーカー 1
なるほどね。だいぶこだわってますね。
スピーカー 2
そうですね。今は世界的にも注力している。月面の方があれかもしれないけど。
世界的にも注力しているので、それ含めて。
あとはJAXAとしてもMMXをやるので、それでかなり頑張ってた感じ。
探査機の模型があったんですけど、第2章と第3章でもいろいろ探査機の模型があるんですけど、
サイズがまちまちなんですよね。30分の1とか45分の1とか20分の1とか。
やっぱり力を入れている探査機の模型は大きくて。
当然MMXは2分の1サイズの探査機の模型なので、かなり力を入れているのかなみたいな感じがありますね。
なるほどね。
最後ですね。太陽系の天体の話とそれ以降ですね。
ここの目玉はハヤブサとハヤブサ2が撮ってきた糸川とリュウグのサンプル粒子を実物が見れるという感じです。
顕微鏡でやってみるんですけど、正直ハヤブサはサンプリングを取得するのが半分失敗していたので、非常に微粒子なんですよね。
目で見てもわからない。顕微鏡で見てこれかなーみたいな感じだったんですけど。
ハヤブサ2が持ち帰った方は結構大きなサイズで、顕微鏡で見る手前でダイゼンのステアルのやつを見てもあくなく黒いのがあるなと。
細く粒サイズがあるなという感じですし、顕微鏡で見ると超石灰っていうんですか、なんかちょっと結構尖ってる感じの石で、なるほどなーみたいな感じでしたね。
やっぱりこういうのも実物が見れるっていうのは良いですねという感じでした。
あとそれ以降は、例えばスバル望遠鏡とかアルバ望遠鏡とか、新宇宙を観測する用の望遠鏡でこういう写真が撮れますよという紹介でしたね。
やっぱりだいぶ綺麗な写真が撮れるし、あとは可視光だけじゃないよっていうことがちゃんと紹介してあって、結構良かったですね。
X線の望遠鏡ですよ、でこういう写真が撮れますよーみたいなやつとか。
スピーカー 1
いいですね。
あの辺の望遠鏡は結局どんなんなんっていうのがよく分からないところだと思うんで。
スピーカー 2
どんなんなんって言われると、こういう写真は撮れるけど構造はどうなってるんですかというと、そこはちょっと難しいところがあるかもしれないですけど。
こういう綺麗なのが撮れるんだというところでも、見てて楽しいですし、いいかなという感じですね。
なるほどね。
はい。という感じで、だいぶ展示料も多かったし、いろいろな分野のものがあって良かったです。
そうですね、博物館の音声ガイダンスみたいなやつ。
ちょっと借りてたんですけど、借りてたというか、あったんですけど、それいわくどれか一つでも推しを見つけてくれということを言ってて。
今風だなという感じなんですけど。
そこをきっかけに、うちを好きになってくれたら嬉しいですみたいな話されてるんで、
そういう意味では非常に企画に合った展示だったりするかなという意味もありますし。
だいぶ盛況でしたし、参加者も結構老若男女、老若男女。
カクカク来ていたので良かったかなと思いますね。
スピーカー 1
そういう推し活にしてほしいんだったら、私的にはNASAがやってたパーソビアランスのチケットカーみたいなやつとか、
そういう、もっと当事者意識を体験できる企画というか、提供物が増えてくるといいなとは個人的に思いますけど。
スピーカー 2
まあ、JAXAもやってはいるけどもって感じはありますね。
そうですね。
ちょっと、人事感がまだまだあるかなという感覚は残っているので。
JAXAがメインというよりは未来館、NHK、東京新聞あたりが主催なので。
スピーカー 1
そういう意味ではJAXAとかはあくまで公演だしなという感じがありましたね。
えっと、ソラQとかっていたんですか?
スピーカー 2
いましたいました。
スリムのところにいたんですけど、ソラQはいたんですけど、レヴ2はいたんですけど、レヴ1がいなくて悲しいねってなりましたね。
スピーカー 1
悲しい、なかったことにされてる。
スピーカー 2
レヴ1くんがいなかったら写真撮れなかっただろうにって感じなんですけど。
デモ機が貸し出せできなかったのか、レヴ2だけいればいいやという話になったのか、どうなんでしょうって感じです。
ちなみにこれ、なんと10月18日からはトヨタ会場でやるらしいので、名古屋にいられる方は是非という感じ。
なんでトヨタなんだよって感じはするんですけど、おそらく第2章のアルテミス計画のユージンルアーツロボがトヨタがやってるからですね。
まあまあそうかもしれんけど、アクセスがちょっとですね。
スピーカー 1
関西圏に来てくれてら、まだ。
スピーカー 2
バージョン3で大阪とかでやってくれると面白かったかもしれないけどという感じ。
スピーカー 1
あと火星の展示は結構こだわってたっぽいから、そこはちょっと体験してみると面白いかもしれないですね。
なんか実際に行ってみて、その月面とも地球ともやっぱ違うなぁとか思った場所はありました?
スピーカー 2
うーん、そうですね。
地形がダイナミックですっていう話もありましたけど、どちらかっていうと結構思ったより地球に近いんだなっていうところがあるかなと思います。
薄いですけど大気もあるんで、秒速40mだけど砂嵐も立てば、探査機が通ったクローラーの跡もつきますし、
むかし水があった後で、戦場地理みたいなのが形成されてますみたいな話もあって。
そういう地殻活動、地殻活動っていうか、大気による活動とか、
そういうことも含めて思ったよりなんか身近に感じることができるなという感じですね。
スピーカー 1
いろいろ条件は違うけど、地球上でもすごく水の枯れたところとかだったらこういうことが起きても不思議じゃないなという感覚になれるって感じですか?
スピーカー 2
そうですね、はい。
いいですね。
なかなか良かったです。
ただ一つちょっと微妙だったのが、音声ガイダンスの貸し出しって、
よくある首からぶら下げる端末タイプの他にアプリがあったんですよね。
アプリはいいところとしては、書いた後もそのアプリで聞くことができる。
パンフ見ながら聞くことができるみたいな感じは良いかなと思ってアプリにしたんですけど、
アプリの出来が良くなくて、アンドロイドに最適化してなかっただけなのかもしれないですけど、
アプリの操作メニューというか再生ボタンとかだと、アンドロイドのホームボタンとかの位置が被る感じになってて、
まともに操作ができないっていう感じで、
薄く爪一枚残ってる部分を押せば再生できるんですけどみたいな感じで、アプリもうちょっとちゃんと作ってくれって感じでしたね。
スピーカー 1
なるほどね。
スピーカー 2
あのアプリも多分、科学未来館禁制というよりはそういうやつを任されてる会社が運営してると思うので、
どちらかというとそこが頑張ってほしいなという感じではあるんですけども。
スピーカー 1
そうですね。美術館とか博物館の音声ガイドアプリ化ってすごい今流行ってる感じがしてて、
いろんなところでいろんなアプリ見るんですけど、まず一般的なそういう音声配信のフォーマットってあるじゃないですか。
そういうものをあまり踏襲せずに、従来の音声ガイダンスというかをいかにアプリ化するかみたいな形に、
開発の方針がなってるような感じがしてて、すごいスマートフォンの体験になってないなっていうのはすごい感じるのと、
あまりにも各社がバラバラに作りすぎてて、どこ行っても新しいアプリを入れろって形になるのがすごく体験としてつらいなって思いますね。
スピーカー 2
いやーわかりますね。そこら辺ね、もうそれでバラバラで作るんだったらウェブベースでいいじゃんみたいな感じになるんですけどねと思いつつ、
なんか、制作者側としては持って帰れるとかそういうところにロイヤリティを見つけてくれみたいなことはあるのかもしれないですけど、
スピーカー 1
結局使い勝手が悪かったら聞きづらいですからねみたいなところありますし。
まあ結構、どこのやつとは言わないですけど、最近あったのがバックグラウンド再生ができないとか、アプリを開くたびに最初の画面に戻されてそこからスータップしないとガイドの再生ボタンまで行けないとか、
スピーカー 2
ちょっとね、よくないですね。
スピーカー 1
連続再生がなくて、歩きながらどんどんどんどん次のガイド次のガイドって言ってくれてもいいんだけどなぁと思いつつ、
毎回毎回見てタップしてみたいなのをしなきゃいけないんだけど、そのガイドが1セクションを1ガイド1音声みたいな形になってて、
そのこういう仕組みになるのはわかるんだけど、1分とか30秒くらいのガイダンスのためにわざと毎回ぽちぽちぽちぽち押すの大変すぎるから、
やめてほしいなぁとかいろいろ思うところがあって、
従来の音声ガイドの電話機みたいなすごいレガシーな端末を触ってるときはそういうストレス感じなかったんですけど、
スマートフォンになるとこうストレスを感じるのはなかなか利用者としては傲慢なところもあるなぁと思うんですけど、
ちょっとやっぱ体験としては良くないですね。
スピーカー 2
そこら辺はUIをまずちゃんとしろっていうのはベースにあると思いますけど、
リッチな体験したいんだったら多分それ専用にやっぱり作った方がいいなっていう気はしますね。
音声ガイダンスの音声を使えますのではなく。
ただそうするとお金がかかるんで、それにどれだけお金を出してくれますかっていう感じもあって。
そうですね。
音声ガイダンスもね、あったら私は聞くにしてるんですけど、なかなかやっぱりみんな手に取らないのがあるんで、
あれって結構赤字運営なんだろうなーって気はすると、あんまりお金詰めないんだろうなーって感じもあるんですよね。
スピーカー 1
そうですね。
スピーカー 2
そこ含めてなんだろうな。
スピーカー 1
脱線するけど、あの辺の音声ガイダンスをうまく体験できない人たちっていうのがいるなーとは思ってて、
その耳で聞いて頭で理解するっていうことにそもそも慣れてない人たちが割と一定数いるのと、
ガイダンスの中で専門的なことが出てきたときに、
私にはわからない話だからいいやっていうので、お金払って損したなっていう体験になる人がいるっていうので、
なかなか本当にいろんな人に来てほしいとは思いつつ、
ガイダンスが届けられる顧客ってその中の一部にしかできてないっていう、
市場形成側に課題感があるよなーとはよく感じますね。
スピーカー 2
わかるけど、わかるけど、どうなんだろう。
その音声ガイダンスはあんまりそういう、なんていうの?
市場を広げるためにやってるわけではないのでは?っていう気は。
スピーカー 1
もちろんそうなんだけどね。
だから音声ガイダンスを使ってる側としては、
よくなるには使ってくれる人が割合的に増えていかないと、
当然投資対効果みたいな話ができなくなるので、
使ってる人が多少不満に思うくらいだったらまだいいっていう話になるのかなーっていう気もするし、
こういう課題をどんどん直してもらって、
もっといい博物館の体験になってくれたらなーって言うんだったら、
そういう音声ガイドを使える人を増やさないといけないしね。
ちょっと難しいとこだなと思う。
おっしゃる通り、別に音声ガイドを強制するとか意味わからないし、
本末前兆すぎるし。
スピーカー 2
まあ音声ガイドのメリットって多分あれだよね。
逆に文字じゃなくて聴覚有利な理解をする人だと音声ガイドするのが楽っていうのもあるし、
多分もともとは博物館のガイドさん、
人間のガイドさんの代替なんじゃないかなって自分としては思ってて、
もうちょっとプラスアルファの情報を教えてくれるというところだと思うので、
展示物の上に乗っかる構造になってるんじゃないかなって気はするんですよね。
スピーカー 1
そうだね。
スピーカー 2
そう考えると、
よりリッチな体験をするために本当はもっとリッチした方がいいんだろうなって気はしてくるんですけど。
スピーカー 1
そうですね。
人のガイドと音になってるかっていうとやっぱり人のガイドさんめちゃくちゃトーク力あってうまくて、
すごい聞き入っちゃうことが多いからやっぱり人間ってすげえなってなるし。
スピーカー 2
反応見つつ話しますからね。人間だとっていうのはありますけど。
スピーカー 1
そうですね。
私とかは音声ガイドを積極的に使ってる一番の理由は、
展示物に集中したくてっていうのがよくあって。
スピーカー 2
なるほど。
スピーカー 1
物と一緒にパネルとかでこれはどういうものでってダーッとテキストで書いてあるんですけど、
物見てテキスト読んでたと物見る時間が相対的に減るじゃないですか。
実際生で目で見るっていう体験を重視した方がせっかく来たからにはいいなと思ってる派で、
テキストベースの情報って別にインターネットでもググりは出るから、
せっかく博物館とか美術館で生のものを見てるんだったら、
生のものを見る時間を全力で伸ばしたいって思ったときに、
耳が空いてるから書いてる文字は音声ガイドで聞きたいみたいな感じじゃないですかね。
スピーカー 2
確かにね。それ考えると音声ガイダンスの優位性がある感じがしますね。
スピーカー 1
だからこそ何回も相撲を開かさないでくれっていうさっきの感覚になっちゃうんですけど。
まあまあまあ。でもなかなか有名な声優の方も今回音声ガイドをされてるってことなので、
それ自体を楽しみに聞いてみるのもいいんじゃないかなと思いますけど。
どうでした?小西克之さんの声は。聞かせてた?
スピーカー 2
まあ、聞かせてたと思いますけど。個人的にはね、もうちょっと情緒を含めてもいいんだよという感じはあったんですけど。
はいはい。淡々と言い過ぎみたいな。
なんか聞きやすい声っていうのを重視した感じの話し方でした。
なるほどね。そこのバランスクソむずいですよね。
まあ、指定だと思いますけどね。どんな感じでやりましょうって言われて。
そうね。別に声優さんが決めてるわけじゃない。声優さんは。
そうそう。どっちかっていうと多分、年齢層の若い人向けのアプローチっていう感じがあったけどな。話してる内容的には。
なるほどね。まあまあまあ。でも本当に。
あの写真撮るときにね。
うん、そうですね。
スピーカー 1
なんか今さらにホームページ見てて気になったんですけど、H3ロケットの最先端部フェアリングのお墓に見えるってことですよね。
うん、そうなんです。
スピーカー 2
ないかなぁっていう感じがしまったね そうですね
スピーカー 1
なんか今さらにホームページ見てて気になったんですけど h 3ロケットの最先端部フェアリング 実物大模型って
スピーカー 2
これどんな感じでした フェアリング4分の1分割したやつがボーンと横に置かれている感じ
だからフェアリングのサイズ感を見て欲しかったんだと思いますね はいはいはいはい
大きさ的には? まあ
フェアリング… 何くらいって言うのか難しいけど 4分の1で
150センチぐらいだったかな? 結構デカいはデカいんですよね
で長さがまあ 3メートル4メートルぐらいあったかなぁ
ちょっと感覚で言ってますけど まあそれでデカいっていう感じを出したかったんだと思いますけど
はい いいですね
スピーカー 2
全然デカいはごめんなさい h 3のフェアリング全長10.4メートルですね
10.4メートル まあ4分? 4分の1直径だったんですか?
直径が5メートル5.2メートルだから 2.5メートルぐらいだね 4分の1も
はいはいはい
10メートルもあったか?
本当か?って 本当か?って感じはちょっとありましたけどデカいはデカいですね
スピーカー 1
いやーそういうのもねなかなか ロケット打ち上げの映像とかだとこのフェアリング部分なんてもう遠すぎて
ほぼ点にしか見えないから まあねー
近くで見れるのいいですね
スピーカー 1
本当全体的に面白そうですね はいありがとうございました
スピーカー 2
はいって感じでした こればっかりはぜひ皆さん行ってみてって感じですね
Gemini Robotics 1.5の発表
スピーカー 1
今日はもう一ネタくらいで終わりなんですけど 次私の方から
Googleがロボット用のAIモデルGemini Robotics 1.5を発表 試行して行動を決定できるってことでギガジンの記事です
Googleのロボット工学用AIモデルGemini Roboticsから高度な試行力を備えたエージェントを実現した新モデル
Gemini Robotics 1.5が登場しました これにより環境を積極的に理解して複雑な複数ステップの
タスクを一般的な方法で完了できる より有能で多様となロボットを構築できるようになります
Gemini RoboticsはGemini 2.0をベースに動作を出力する機能を追加してロボットを操作できる ようにしたAIモデルで高等で指示をすることで
AIに様々な動作をさせることができます Gemini 2.0モデルの世界知識のおかげで全くトレーニングで登場しなかった指示や
新しいオブジェクト 多様な指示 新しい環境への対応を得意としています
2025年6月にはインターネット接続不要で実行できる Gemini Robotics On-Deviceがリリースされました
これはローカルで動作するほどの小型モデルでありながら 自然言語での指示を理解してバックのジップを開けるといった
高精度な動作が可能で インターネットを経由しないため低遅延が求められるタスクで威力を発揮します
そして2025年9月25日にGoogleは新モデルのGemini Robotics 1.5を発表しました
これは具現化推論モデルと表現されており 物理環境内での計画と論理的な意思決定に優れています
Google DeepMindが公開したGemini Robotics 1.5のデモムービーでは Gemini Robotics 1.5を搭載したロボットアームが
3種類のフルーツを同じ色の皿に取り分けるというタスクを実行しています
次に洗濯物を色別に分類するというタスクを与えた場合 Gemini Robotics 1.5は白い服は白いカゴに
色のついた服は黒いカゴに入れて洗濯物を区分し カゴの位置を移動させたり入れ替えたりしてもタスクを完了しています
視覚から世界を理解した上でタスクを実行するには白い服は白いカゴに入れると タスクを完了させるための動作を試行して実行することができます
現在いる場所に対応したゴミを分別をしてと指示をしたところ ロケーションを確認した上で分別に関する情報を取得し
それに合わせて目の前のゴミを複数のゴミ箱に区分しました Gemini Robotics 1.5はロボットに複雑な多段階タスクを完了させるためのエージェントフレームワークとして動作します
今後の期待と課題
スピーカー 1
また同時に発表されたGemini Robotics ER 1.5は 動作の各ステップごとにGemini Robotics 1.5に自然言語による指示を与え
デジタルツールをネイティブに呼び出して ミッションを完了するための詳細な複数ステップの計画を作成します
Gemini Robotics ER 1.5が物理世界を試行するモデルとして機能し タスクを実行するための各ステップの指令送り
Gemini Robotics 1.5が実行することで 動作しながら試行するロボットを実現しています
ということで動画とかもあるので ぜひ見てもらいたいなというのはあるんですが
今年度AIエージェントが流行るよって言ってきたところで いわゆる本来的なエージェントとしてちゃんとしたアプローチの一つが出てきました
こういったものの登場としては最初にほぼほぼ位置づいているので
現時点でめちゃくちゃ使えるというところではないものの かなりの将来性を抱えるものになっています
具体的には 従来の生成AIだとテキストを入力して テキストを出力するというのがベースだったところに
マルチモーダルという形で画像が入力できるようになったり あとは音声が入力できるようになったり
一方でディープリサーチという形でインターネットを検索して それに対して答えたりというのができるようになっていました
出力側ではロボットの制御に関するような システマチックな情報を出力するJSON出力機能とか
ある程度システム間で取り交わしやすい情報を 出力する機能というのもできてきていました
従来のモデルでこれを本気でやろうとすると ファインチューニングといった形で追加の情報を教えてあげたり
あとはSLMというスモールランゲージモデルという形で 専用の独自のモデルを作り変えたりということが必要になってきていたんですが
ここでジェミニロボティックスというものは ジェミニ2.0という普通の言語のところを
さらに学習の方向性とかを変えて そういったファインチューニングとかSLMといったような
モデルベンダー以外ができる手段を上書きするような形で 提供してきたというのが大きな強みのポイントになっています
特に有用なのが先ほど話していた最後のあたりのポイントで 実際に今ロボットが見えていることというのを画像で入力して
どんなものが映っているのかというのを ちゃんと特定できていたりとか
あとはその中でもノートパソコンを置くのに邪魔なものは どれですかみたいなことを言うと
そのオブジェクトをピンポイントで指示できたりとかいうことで 人間が使うような言葉での画像解釈能力の高さといったところが
非常に注目されている内容になっています 出力の形式としては画像の座標形になっていて
これは従来の画像入力 画像分析とかと同じような仕組みになっていて
オブジェクトがあってそれの全体像を四角で囲って それが座標形のどれくらいのサイズ感であるかみたいなところの出力が得られているんですけれども
ポイントとしては従来だと これはこういうオブジェクトですというのをいろいろ学習させないと それが特定できなくてオブジェクトも囲えないみたいなのがあったんですけれども
このGemini Roboticsの方では 一般的な画像の世界の学習情報を元にそれができているので
個別のメーカー独自の製品とかになると当然できないわけですけれども 一般的なオブジェクトに関してはこれで十分解釈ができるというのが特徴的なところかなと思います
またその作業もですね こういう情報が分かりましたというだけじゃなくて 例えば赤いボールペンを筆箱とかボールペン入りにしまってくださいみたいな話になると
じゃあそれをどういう経路で動かすべきかという座標を出して ロボットアームに対する指示を出したりとかいったこともできるような形になっています
現状できないところで言うと 3D空間としての認識能力がまだ欠如しているところがあって
でもでも全てそうなんですが 平面に置かれている机の上に重ならない形で全てのオブジェクトが配置されていて そこでワークしています
というのも 生成AIは結構オブジェクトの深度を理解するのが苦手で どういうオブジェクトがどういう重なりになっているから どう避けてそれをやるべきかといったところの判断になってくると
非常に間違った判断をしたりとか ロボットアームを動かすときに物をぶつけてしまったりということが より多く発生し得るものになっているので
そこら辺は今後のアップデートに行きたいかなとは思うんですが 生成AIが人間に対しての言語と言語という形で使われてきたところから
実際のシステム利用という形に一歩踏み出した ちょっとした大きなニュースかなと思っての紹介です
スピーカー 2
はい だいぶ知らない間にすごいことになってますねという感じですけど
非常に何点でしょうね 破壊的進化な感じがしますね
そうですね 特に思うのが学習コストが非常に低いという話
いらないって言ってましたけど ほんまかって感じがちょっとするんですけど
スピーカー 1
まあいらないと思いますね
すごいな 画像認識のほうで非常に高コストな学習コストをかけているんで もう大丈夫って話したのかもしれないですけど
スピーカー 2
よくやりますなという感じで 本当に本付けで多分動くことになるんで
今までなんかめちゃくちゃ大変頑張って 上手くつまめるようにとか調整するとかもういらなくなるみたいな感じがあるでしょうし
スピーカー 1
ピッキング能力も爆上がりなんじゃないかなと思います
まあ想像できると思いますけど まだまだバカなことは山ほどあって
これを使ってピッキングさせた時に わかりやすい例としてあるのが
パックに入ったリンゴジュースがあるとしますと パッケージングにリンゴが書かれている時にそのリンゴを取ってっていうと
そのパッケージに書かれたリンゴをつまむかのような指示が出てきますね パックが持てなくてリンゴをつかもうような動きになって結果的にパックを握り潰して
びちゃびちゃになるみたいなことが起きます それがリンゴジュースを持っていってっていう指示でハルシュネーションによってリンゴとご認識してそれが
ロボットAIの現状
スピーカー 1
行われる可能性があるとかが現実ではやっぱりまだまだ使えない部分になってくるん じゃないかなと思いますね
スピーカー 2
なるほど まあ全然あるかなと思いますけどどうなんでしょうね
まあでもその辺も精度が上がってくれば 画像認識側の精度が上がれば上がる話なんで
全然いけると思いますけどね それこそあの
自動運転でも一覧のあれと一時停止がわからないみたいな話がありましたね ああいうのを結局なんていうのかな得出しで学習させれば結局そこも解消できるんで
そういう点はある意味人間と一緒というか
まあ違うもんだよって教えられれば破滅つくようになると思うんで あんまり非感謝はしないですねそこに関しては
現状そうであっても将来的に解決できるポテンシャルがありそうって話ですよね 全然そうだと思いますね
スピーカー 1
Googleも使う側でベストプラクティスを出しているのがちょっと面白い一言があってですね
そうやってハルシネーションになる可能性とか移動経路の座標とかっていうのはあの 1回でうまくいく可能性も低いというか
ハルシネーション込みもそうですし 本当にそれが最適解かっていうのは毎回確率的に出てきているので
ちょっと怪しいところがあるっていうのをGoogle側が自分自身で言っていて それの解消方法としては同じ指示を複数回投げてみてそれの平均値とってっていう形をしてますと
スピーカー 2
要するに80点の答えを10個並べて平均取れば90点くらいになるやろうっていう話ですね
スピーカー 1
そういうちょっとした工夫もまだまだ必要ですよっていうのを正直に言ってきているのは偉いなぁと思うんですが
やはり物を動かすと破壊的なアクションになる可能性もあるので ちょっとロボットにフィードバックする際にはそういった安全性の確認みたいな形で平均取るとか
そういうことはやっぱりまだまだいるのかなと 一発で出てきたものをそのままロボットに投げて
壊しちゃったってヘペロートはさすがにできないよねっていう世界だと思うので 安全性に制御系に返す技術っていうのは
さっき言ったようなちょっと力技的なところじゃなくて今後いろいろ検討されていくとか これを使う人が増えていけば
いろんなところでノウハウが溜まっていく領域になってくるのかなとは思いますが まだまだそれくらい力技の世界になってますよという話ですね
学習と安全性の課題
スピーカー 2
はい でもそこに関しては私はあまり
非監視していないというか あんまり力技じゃなくて順当かなぁと正直思ったりもしますね
80点の回答だったら2割失敗しますって話で それを良品を掴むのに2割失敗しましたったら結構問題なんですけど
スピーカー 1
不良品をピックするのに失敗するのが2割だったら別にいいと思ってて あーなるほどね
スピーカー 2
それはだったら10回繰り返せば0.2の10乗で何パーセントか ちょっと計算できないですけど
まあ非常に低い確率になって使えるかなって感じなんですよね なので使いようとどっちに傾かせるか
スピーカー 1
でまあ実用度はあるんじゃないのかなとうまく組み込めばと思いますね そうですね
おっしゃる通りで人間が相手だと割と一発で返してくる文字列がそのまま人間に伝わって しまうのでなかなか複数回やったりとか
人間が体験している範囲でちゃんと返ってくれないとちょっと困るみたいなところも あってなかなか試行数を増やすことが
顧客のユーザー体験につながらないみたいなのがあってそういう取り組みは されているところもあればやっぱりこれはいられないよねってしているところもあるみたいなところで
まだまだ決まりきった手法ではないんですけれども 途中にあったその
ローカル側で動かすという話ですね インターネットに行かなくてもそのシステム内に軽量なモデルが用意されていて そことやり取りするっていう形であれば非常に有用な手段で
Latencyとかも気にせず必要なスケーラビリティもローカルで確保しながら 複数回実行すればいいので
もうコストとかも気にせずやればいいだけの話だから 非常に有用な手段で
ローカルのモデルになるとさっき言った80点から60点に落ちるかもしれないけど さっき言ったLatency4の10乗みたいな話をすれば結果的にはやっぱり確率として
下がっていくので それも良いやり方かなぁとは思っています
スピーカー 2
そうですね そのローカルでできるってのはほんまかぁとちょっと思ってますけど
スピーカー 1
ローカルの方はこのデモほど賢くないので 鉛筆を取ってくださいって言いながらボールペン取ったりとか普通にやると思います
スピーカー 2
はいはいはい まあそれでも使えようかなと思いますね
例えば不良品を取る 明らか潰れているペットボールだけ除去するとか
欠けているリンゴを除去するとか あとは燃えるゴミに入っている金属を除去するとか
除去ばっかですけど そういう人がやるのすごい大変なところとか
リンゴはちょっと品質あれだから手でやった方がいいかもしれないけど そういうところで有用性はあると思うので全然良いかなと思いますね
奥行き分かんない感じに関しては多分デプスを組み込めばうまくいくかなと思ってて
3D空間を多分モデルに組み込むのはまだ難しいと思うんですよね
デプス情報と重ねてってやるんであれば多分調査効くと思うので 重なってない範囲であればうまくピックできるのかなという気はしてますね
スピーカー 1
そうですね その辺はもしかしたらロボットアームの中でもアームの先端にカメラをつけるみたいなのが今ちょっと流行ってたりすると思うんですけど
その辺が解決できる可能性はあるなと思っていて デモとかだと全体を俯瞰できるカメラとロボットアームの先端にカメラっていう2つでやってるんです
GoogleのこのAIモデルの利用方法のガイドラインの中に そのやりたい作業があった時に全体像の次
そこをフォーカスしたズーム画像も一緒にインプットに足すっていうことを フローとして組み込むことでより精度が向上しますっていうのがガイドラインとして出ていて
そのフォーカスした画像の取得っていうのがロボットアームの先端側でついているカメラで 合わさってみると軸が2つの画像が2枚手に入るので
3枚くらい軸があった方がいいのかもしれないけど そういう形であの震度について補正したアクションができる可能性はあるのかなというのはちょっと期待するとこですね
スピーカー 2
うーん ああどうなんだ
個人的にはそれって震度情報として使ってるんじゃなくて多分 詳細拡大モードとして使ってるんじゃないのかなっていう微妙な意識のズレがあるんですけど
そこはちょっとAI側がどっちの目的でうまく使えてるかはわかんないですね
スピーカー 1
Googleはもうシンプルにフォーカスした画像があるとよりアクションの精度が上がりますとしか言ってなくて それが今言った震度の方向で聞いてるのが単純に解像度が上がって
スピーカー 2
座標計算の精度が上がってるだけなのかっていうのはちょっとわかんない
まあまあでもそういう補正方法がガイドラインで知れてるんであればGoogleも問題としては認識してるでしょうし 改善の方法は全然出てきそうなのでいいんじゃないでしょうか
スピーカー 1
そうですね
まあ FA系をやってる人は今までちょっと生成AIがあんまりおもねってか まあおもちゃだよねって言ってた世界も正直あると思うんですけど
これをきっかけにちょっと味見してみるかくらいは 研究開発とか新規事業部くらいのところだったらやってみても面白いんじゃないかなと思いますねこれは
スピーカー 2
そうですね あとはデータセットがどんだけ充実するか
ですね なんかあのちょっと話ずれますけど
最近その遠隔操作ロボットが時々なんか流れてきてて
例えば服を畳むのとか遠隔操作ロボットでやってますみたいな いやもうそんな人がやればいいやって感じはあるんですけど
実際この自動ロボットの学習のための遠隔操作を実務でやってますっていう話だとすると
スピーカー 1
わかるなと思っていて
この 例えばこのモデルでこういうオブジェクトがここにありましたってわかった時にそれを人間だったらそれをどう操作するのかっていうことを学習するために
スピーカー 2
そう 使う
でなんか前のラジオでチロッと言いましたけどなんかその学習するための工場を作って ありましたね100人体制でやってますみたいなのもあってあれもかなり
マンパワーかかりますけど それで何ですかあの投資は完全にマイナスなわけじゃないですかそこに
コストを回収するまではただ 実務の中で遠隔ロボットを操作することでまぁ効率は悪いですけどまぁ
あのなんとなく成立する でまぁ投資も回収できるでえっと
学習データも手に入るうん しかもその実際に使うロボットであればそのあのサーボの位置とか
うーん 内部情報までに入るんで人間にカメラつけて学習させるのはまあ
正確と違うデータが得られるので うーんまあ1000時間ぐらいあったら人間ぽいしてロボットだけで音で場でやるんだったらできるかな
みたいな 感じがある
そう考えと馬鹿にしたもんじゃねーなという感じはしますね そうですね
まあ今回はロボットアームのデモということでおっしゃるようなその学習系をどうやって いくのかとか本当に夢は広がりングなんですけど
スピーカー 1
装置にカメラが搭載されている系で言うと最近だと搬送ロボット関係のか 本当にいろんなところにカメラは搭載されつつありますし
未来の展望と市場動向
スピーカー 1
ラインの作業でもバーコードの認識はだんだんあの レーザーから画像化していっていたりとかすると思うので
本当にいろんなところで使えるものになってくるかなと思います それがローカルで動いてえっとその搬送コンベアの上に余計なものが乗っかってないかとか
今これをロットとして流しているはずなのに別のロットのものが流れてきたとか そういったレベルでの検出というのも現実的にできるようになってくる可能性があるので
これはロボットアームの世界のとしてデモはされてますけれども単なる そういった状況関係さっき言ったようなシンプルなワークのケースでも
使ってみるとどういうことが起きるのかといったところから試していくといろいろ 各社自社商品のこれには使えるんじゃないかみたいなのが見つかってくるんじゃないかなと思いますので
今後もこれの発展は非常に注目かなぁと思ってますね そうですねあとは各社がどんだけ出してくるかですね
そうですねモデルの他ベンダーについてで言うと一応ニュースとしてはあります
オープンAI社がロボティクス分野に投資を集中させるというニュースが先日出ました なので
このジェミンのロボティクスに続かなければならないという危機感はオープンAI社も持ったというのがあります
アンソロピック社については何も宣言しないのでここは出遅れる可能性が高いです
Amazonについてで言うとAmazonはこういうことを3Dモデル空間としてやる その
ロボマスとかでやってたような そのUnityの空間上でロボットのシミュレーションをやるようなそういうサービスも展開していたりするので
そこでの導入という形で 参入するためのプラットフォーム側の
先行性がありますと あとはこれを機にNVIDIAの方からも参入する可能性が全然あるなと思っているのが
NVIDIAのオムニバースですよね あれもこういうことをシミュレーション内で確実に実験してそれを現場のロボットに落とし込むための
プラットフォームとして構想されていたので これの登場を見てNVIDIAでもやろうぜって話は絶対出てくるのと
Intelとのタイアップとかもニュースになってましたし
NVIDIAからのAIの進歩っていうのもあるんじゃないかなということで ちょっとこのジェミニーの後に続いてくるベンダーがどこかっていうのは
GoogleのロボットAIの影響
スピーカー 1
今後のニュース次第ではもちろんあるんですけれども みんながこれはちょっと次の市場だぞっていう勘どころを持っているのは間違いなさそうだなーって感じですね
スピーカー 2
そうですね なんだろ面白いなと思うのがAmazonは昔からピックアップやってたと思うんで
ピックアップチャレンジ そこが3D空間が必要だと思ってるっていうところですね
それに対してジェミニーは2Dベースでやっててじゃあどっちが勝つのって感じはちょっとあって まあその3D空間ゲットした方がまあ確実ではねって分からんでもないけど
なんだろうあの 画像生成がそんなん関係ねーってぶん殴って勝ったっていうところを見ると意外と2Dでも
勝てる気がしていて ちょっと面白そうな気がしますね
分かる分かる そうするとAmazonは3Dで取っちゃうんで
スピーカー 1
ああそうねそう 3D空間理想ではあってめちゃくちゃ分かるんですけど
結局現場からその3Dデータを集めるのが大変だったりとか そのレーザーによる天群データをどう集めるんだとかで
アルゴリズムとかいろんなものが研究はされているけど じゃあ現実そこまでの情報を現場から集めてかつそれをリアルタイムに更新して続ける
あの当然ねLINEが変わったりとかいろんなことは状況変化として現場で起きるので それの追従可能性とかを踏まえるとちょっと
高度な技術すぎて導入が無理だよねみたいな まあそういう肌感もあったところにこれが出てきたのを見ると
確かに逆転しても不思議じゃないなとおっしゃる通りですね
スピーカー 2
ということでここからどうなっていくか非常に楽しみだということで紹介でした
エピソードの締めくくり
スピーカー 2
はいじゃあ今日はこんなところですかね はいじゃあお疲れ様でした
はいお疲れさんでした
00:00

コメント

スクロール