1. Recalog
  2. 180. 2024/02/11 H3ロケット試..

以下のようなトピックについて話をしました。

枕: 論文でのChatGPT活用

1: Bluesky

2: H3ロケット試験機2号機

3: 続、フェアリング及びペイロード

4: Galileo AI

5: Consensus

6: イルヨ


本ラジオはあくまで個人の見解であり現実のいかなる団体を代表するものではありません
ご理解頂ますようよろしくおねがいします

サマリー

チャットGBTの人気が増している中で、AI技術を使った論文が提案されています。 論文の内容やフォーマットの整備、作読側へのAI導入など、AIと人間の協力が求められています。 ATプロトコルによる分散型SNSでの投稿が盛り上がっており、ブルースカイはエンジニアライクなSNSとして注目されています。 また、フィード機能によるカスタムタイムラインの作成や自己証明機能など、ブルースカイ独自の機能が存在し、SNSサービスとしての健全性を提供しています。 2024/02/15にH3ロケットの打ち上げが予定されており、その際には2.6トンのアルミ回路と2つの光学衛星が搭載されます。 光学衛星にはキャノン電子が開発した主光学系と副光学系が使われ、赤外線センサを備えた衛星も搭載されます。 衛星分離時の低衝撃での分離は加工品を使用せず、爆破による分離方法となります。 H3ロケット試験機2号機のプレス公開が行われ、新技術を投入しての試験が注目されています。 また、AI技術の進化により、WebUIを作れるAIや論文をベースに回答してくれるコンセンサスなど、実用性の高いAIが登場しています。 日産と赤ちゃん本舗が共同で開発したコマモリ支援ロボットイルヨは、赤ちゃん本舗の調査結果から生まれた親子課題を解決するための先進技術を搭載しています。 ペットロボットのキャラクター性と導入障壁について考察しています。 キャラクターをつけることで初回の参入障壁が減ると考えられますが、キャラクターが正体不明な場合、安心感を得ることが難しいという課題もあります。 また、コンセプトとしては、ベビーリュウヨの動きを家庭全体で確認できるような工夫ができれば良いと考えられます。

目次

AI技術を使った論文の提案
スピーカー 1
3. みんなチャットGBT使ってますか? 使ってるんじゃないでしょうか。だんだん流行ってきてる気がしますけど、どうでしょうかね。
スピーカー 2
トネさんは使ってるんですか? いや、あんまり使えてないですね。現実的には。
結構ね、私も最近、仕事上だとかいろんなところで、この生成英語を毎日に使い倒してる人とそうでない人の差が激しいということで、
いろんなところで、なんでそんなことが起きるのかとか、どうしたら使う側になってくれるのかみたいな話をする機会が増えてきたので、
またどこかで、AIをどうやって使っていくのかみたいな議論もできたらなと思うんですけれども、
ニュースで面白いのが上がっていて、大学の論文でチャットGBTを対応しているのではというようなニュースが出てますと。
どういうことかというと、統合されてくる論文の中に特定のワードが出現しまくってて、
これは同じようなチャットGBTのモデルを使っているからこそ品出してしまっているワードなのではないかということで、
チャットGBTといったような生成AIが使った論文であるという詳細としてニュースになってるんですけれども、
実態としてそうかもしれませんが、それはでも氷山の一角というか、表面上そう見えているだけって可能性もありますし、
論文としては過去の研究を元に進めていくので、似たような言葉が同じようなカテゴリーでは出やすいとかいろいろあると思うので、
何とも言えないところではあるんですけれども、そういった形で世の中にだんだん浸透しているなといったところで、
スピーカー 1
ルールや規制がないときの一時的な傾向としては面白いものが出始めているのかなというふうな所感です。
そうですね、真理有用だったらそういう特定の傾向は出ないかというと、でも出ると思うんですよね。
なので結局のところAI臭いっていうのはどこまで言ってもついて回ると思うので、
何て言うんだろう、でも真理有用なAIだったら特定の傾向が出てもそっちの方が人間より優秀なんだったらそれを採用すべきではという話を思ったりもしつつ、
ただ現状だと、AIで書いてあるというコンテンツの内容自体とは別でね、
スピーカー 2
AIで書いてあるのではないかということ自体に人間が危異感を持っていて、
スピーカー 1
ただ使っている人は増加していて、そこの認識のずれみたいなのが発生している現状、
有用なAIを作っているはずなのにそれをわざわざ隠そうというところにコストをかけているというのは、
何でしょうね、大全と座っているAIの周りで人がけんけんかくかく言っているだけみたいな使われているなあ人間という感じが非常に面白いなと思っている感じでございますけども。
スピーカー 2
そうですね、まあその辺は正直人間側の成長が追いついていないところなんでいいかなと思うんですけど、
論文について言うと、作読者問題が昔からあるじゃないですか。
その論文の品質が下がってとりあえず数打ち当たる方式でどんどんどんどん出すのが増えていて、
作読者が疲弊し続けているという問題が昔からあって、それを加速助長させるようなことがさらに起きているこの現状でどうやって作読者が妥当な作読をしていくのかといったところで、
作読側への生成AIの導入が急がれるなあって感じですかね。
論文のフォーマットと作読側へのAI導入
スピーカー 1
まあそっちに関してはそうだと思いますね。
何というか、人間が考えることに集中すべきコンテンツというか、センテンスなどの部分と、そうじゃない部分とかがあると思っていて、
読みづらい文章であるとかは一応のところクリティカルな部分ではないじゃないですか。
それよりもそもそもその人が発表する論詞が有用なものである、というかインパクトの大きいものであるということ自体が重要なので、
そこをちゃんと判断できるところに人間は集中できるようになった方が本当は良いなと思うので。
スピーカー 2
そうですね。
スピーカー 1
そうですね。まあでも今話してて思いましたけど、多分AIができるのは足切りなんですよ。
足切りは?
足切りかなと思っていて。
ああ足切りね。はいはいはい。
そう、有用でないと思われるコンテンツをいくらか間引いて、有用だと思われるものを人間がチェックするみたいな状況になると、結構論文の作動とかが詩的になりそうな気もして、なんか難しいなという気も話をちょっと思い出しましたね。
スピーカー 2
だから明確な足切りポイントとしては、その過去の論文を同じように踏襲しかしていない、特に新しい新規性が見られないっていったところだったり、
あとは明らかにこれまでの論文や学術と矛盾しているポイントがあるっていったところで切るのはできるけど、
そこからその実験の確からしさだとか、その統計の妥当性とか、そういったものを評価できるかと言われると結構厳しいよねって感じですかね。
スピーカー 1
そうですね。その全体に関わる部分に関してはなかなか難しいような気もするけど。
そうですね。
スピーカー 2
ものによってはNさんとかでも、とりあえずそういう傾向があるかも、レベルでも論文が価値を発揮するような、非常に新規性、信奉性の高い領域っていうのもあれば、
すごく枯れた技術領域でN数をきっちりとって、確実にこうだって生きるための論文みたいなところで役割が違ったりもするから、判断が難しいですよね。
スピーカー 1
まあそうですね。例えばN数の話が出ましたけど、
まあ確かに
難しいですね。なんかさっきと意見を変えるようですけど、そう考えると論文のフォーマットがちゃんとしていて、要素が分離されていれば要素ごとに判断することができるのであれば、
まだAIのテコ入りの仕方がしやすいのかなと思っていて、先週話しましたけど、
ミニマムな部分であれば比較的成立性の高い判断ができるのかなと思っていて、そういう書き方をした上で、そういう
論文というよりは学会誌でいいのかな、の
フォーマットというか方向性にあったチューニングを設定パラメータの設定をAIに読み込ませて、その論文の
論文というか学会誌の方向性に合った論文を掲載できるようにする
みたいなことができるようになれば、比較的人間の負担が減るのかなという気はしますけど。
スピーカー 2
そうですね。だから論文、今だと結構、一応立て付けみたいな構造はあるけど、多くが自由フォーマットになっていて、どれくらいの情報や実験結果をどれくらい載せるのかとか、
そういった決め事が結構ゆるい、ゆるいって言い方おかしいな。その業界ごとに決まってたりとかして、あまり体系化されてなかったりとか構造化されてないっていうのが、細かくは構造化されてないっていうのがあるけど、
それをこの学術誌に載せる分にはこのコンテキストでって形できっちり決めてあげて、
スピーカー 1
その細部ごとにAIに判定させられる領域を増やせるっていうのはその通りかなと思って聞いてました。
そうですね。
スピーカー 2
それはあれだね。
読者を楽にする意味でもやった方がいい気がするな。
スピーカー 1
本来はそういう意味では、理想とするというか、こう書くべきだよねみたいな暗黙値はあると思うんですよね。
スピーカー 2
あると思います。
学術誌読んでて、この人の論文とこの人の論文で全然フォーマット違うなってなることは基本的になくて、この学術誌の中ではこういうふうに書くんだみたいな文化を感じますよね。
スピーカー 1
そうですね。特に科学系だと、実験項目の再現性とか新規性とかというところに注目できるほど整備された文章であれば判定しやすいのかなという気はするので、難しいですね。
人間がAIに呼び込ませやすいフォーマットを書くのが先か、AIがそこまで補填できるようになるのが先かって感じもしてきますけど。
スピーカー 2
ある意味なんかそこは、私の所感だけで実際はどうなのかわかんないんですけど、結構論文ってその1位に解釈できる文章をしっかりミイシーに揃え切る、再現性のある論文を目指すっていうのは、
なんか結構皆さん頑張って訓練して書けるようになっていっている認識があって、それって非常にAI的には解釈能力、解釈のしやすさが非常に高い文章だと思うんですけどね。
スピーカー 1
そうですね。なので比較的やりやすいんではないかという話?
スピーカー 2
そうそう。だから、AIのために頑張ることっていうのが、今まで論文を書く上で頑張ってたことと非常に近くて、結果的にそれはAIを使う使わないに関わらず、双方にとって良い活動であるっていう気がする。
スピーカー 1
そうですね。確かに。そういう意味で言うと、論文を投稿する前に同じフォーマットのAIに読み込ませて手元で添削することができたら、そういう意味でも楽にはなると思うので、確かにそういう意味で言うといいかもしれないですね。
スピーカー 2
そうですね。で、ゆくゆくは、読者側というか学術士側がこのモデルにその論文を一時的に加わせて、コンパイルじゃないけど付属っていう指摘を上げるので、それがOKになってから投稿するっていうのを一時審査としますねみたいなくらいの世界になってくれるといいな。
スピーカー 1
そうですね。比較的、人的コストは減る方向にはなりますけど、Googleの検索みたいにノイズバービルにならないように気をつけないといけないと思いますけど。
スピーカー 2
それはそうですね。判断ロジックをちゃんと作らなきゃいけなくて、例えばタグみたいにひたすらつけて回れば突破できるみたいな無意味な抜け穴を見つける人達っていうのはどうしてもいるので。
スピーカー 1
そうですね。論文を読むAIがポイントをつけやすいMemeワードを入れると点数が高くなるみたいなのがね。
スピーカー 2
実験やってないように再現性があることを確認したとか書いとけば点数が上がるみたいなね。
スピーカー 1
まあそういうのはちゃんと読めば弾けると思いますけど、どうだろう。そういうハックって今でも人間がやってるからな、たまに。
スピーカー 2
まあね、確かに。
スピーカー 1
たまに話題になるけど、実際大嘘だけど授業者を騙すようにちゃんとしたフォーマットで書いたらなぜか授業通ってしまったみたいなのがありますから。
スピーカー 2
それはそもそも人間がやっても無理だったみたいな話だから、あんまりそこを厳密に弾けないといけないっていうのを求めるべきじゃないんでしょうね。
スピーカー 1
まあそうですね。極論言うんであればやっぱり人間が再現性の確認を実際に手を動かして実験系を確認するとかになっちゃうんでね。
そこまでできるとやるのはまあでもそれは人間がやるべきですね、と思うので。
まあはい、ダラダラと話してしまいましたけど、何かしら活用の方法はあると思うのでやっていけるといいのかなというか、何だろう。
人間とAI双方のいいやり方で活用していけるといいのかなと思う次第であります。
そういうところまで止めておきます。
スピーカー 2
はい。じゃあ今日の本編いきたいと思います。
スピーカー 1
はい。
分散型のSNSとブルースカイ
スピーカー 2
1点目、ブルースカイさんの話です。
特定の記事をあえてあげるんであれば、テントセンというところで題があるブルースカイの眺め方初版ですね。
これは個人ブログで誰さんだったかな。
すじたりりくさんかなという方の個人ブログでよくまとまっている記事があるので、ぜひ読んでもらいたいんですけれども。
まずブルースカイって何やねんっていう話からいくと、
Twitterの創業者の方がTwitterを辞めて作ったSNSで非常にTwitterライクなUIをしているSNSでと。
ちょうど先日招待制以外で入れるようになったということで、今怒涛のように人が増えていて、
400万人を突破したっていうのが最近のニュースで出た感じですかね。
ちょうどXでは絵師さんとかがなかなか従来のような発信や周知っていうのができなくなってきつつあるので、
ブルースカイだったらいけるんじゃないかということで、その辺が中心に移行してきている感じがします。
スレッズの時はインスタグラム経由とかメタ社の関連だったっていうのもあって、
そういったところから来る人が多くて、すごく表現が難しいですけど、
うさん臭いとこが多かったんで、人も寄りつかなくなって、
最近だとネガティブなインスタグラムみたいな、そんなことを揶揄されるようなSNSになりつつあるらしいですが、
ブルースカイはまだ始まったばかりで、招待制でインターネットギークの人しかいなかったっていったところもあり、
非常にツイッター例明記と同じような体験をできるSNSになっているなというのが初感です。
従来のSNSと何が違うのかというのを、私たちは技術屋さんなので技術目線でだけ話していくと、
分散型のSNSになっています。分散型って何やねんっていうところなんですけど、
基本的な実態が中央集権的にではなくて、いろんなところに持っているものになります。
その持ち方としては、一つのサーバーというか、一つのワールドを複数の人で管理することもできるし、
別々のサーバー、ブルースカイ、心鏡.comみたいなものをまた展開するみたいなこともできると。
ATプロトコルと分散型SNS
スピーカー 2
そういった分散型でお互いに投稿し合う関係を実現しているのがATプロトコルと言われるやつで、
従来だとマスドンとかミスキーといったような、これまでも登場してきているような分散型SNSが採用してきているものです。
このATプロトコルは先ほど出たスレッドとかでもサポート予定だってことになっていて、
共通バックエンドのいろんなサービスとして登場してきた一つになります。
ブルースカイ自身はこのATプロトコルで動いているってこともあって、API連携が非常にしやすくなっており、
ツイッターのようにAPI制限かかっていないので、API経由で自由に投稿したりとかできますと。
私たちも多分今後どこかでYouTubeの配信に同時にブルースカイに投稿するとか、
そういったこともしていこうかなというのがいろいろ狙えるような、非常にエンジニアライクなSNSになっているところですね。
一般ユーザーがこのツイッターからブルースカイにどれくらい流れてくるのかっていうのは、
まだまだ様子見なところがありますけれども、現時点で企業関係のアカウントっていうのが少ないなという印象を受けているので、
その辺がどこまで入ってくるかで、今後大きく変わってくるかなというのが所感です。
スピーカー 1
ちょっと認識がずれているようなので、確認なんですけど、
マストゾンとかミスキーとかはプロトコルはActivityPubというやつで、
ブルースカイのATプロトコルとは違うはずなのですよね。
それを前提にそこら辺について話すと、
マストゾンとかミスキーらへんは結構完全分散化だというと、詳しい人から怒られると思うんですけど、
本当に分散をメインに置いてる感じで、独自のサーバーを建てるということを前提に作られていると、
ブルースカイは現状のところ、ブルースカイが提供しているところしかない。
ブルースカイのサーバーしかなくて、一応心鏡.なんちゃらは変えられるんですけども、
マストゾンのように自分のところで自分のユーザーの利用契約でやってください。
コメントというかデータだけ相互寄付できますよという状態ではないというところですね。
ここに関すると私個人としてはそれが結構うまくいってるのかなと思っていて、
マストゾンとか分散化しすぎてて公式が入ってくる余地がないんですよね。
公式はどこのサーバーに置いたらいいのかというのも結構問題になりますし、
サーバーが閉まっちゃったら結局データごとなくなっちゃいますし、アカウントごとなくなっちゃいますし。
かといって一番大きなところにみんながそういう考えを持っていっていったら、
結局それって分散型である意味ないよねという話になるのですけども、
ムースカイはそういう意味では結構分散もできるけど、現状基本メインのみみたいな状況なので、
そういう意味では比較的、よくわからんけどとりあえずここに登録しておいたらいいやとか、
公式アカウントも作りやすい状況にはなってるのかなと思っているので、
そういう意味では公式アカウントが比較的利きやすい状況になってる分、まだ果ての余地があるのかなと思ってます。
当たり前ですけど、より多くの人がいるプラットフォームの方が発信力は高いので、
スピーカー 2
公式的にも、公式というか企業的にはそういった集団が見つからない限り移行しづらいというのはその通りだと思いますね。
スピーカー 1
企業に関しては、ユーザー数が全てだと思うので、
そういう意味では、Xと同程度のユーザー数までいけば確率に移ってくれるとは思うんですけども。
スピーカー 2
ユーザー数だけで言うと現状は、スレッツの方が圧倒的に大きいんで、どこまでかわからないですけど。
スピーカー 1
確かにそうですね。
ブルースカイの特徴的な機能
スピーカー 1
というところですという話と、ブルースカイであと面白かったところをちょびちょび言うと、
フィードという機能があるところですね。
これがXで言うと、自分で作るリストみたいな感じなんですけど、
リストは主導で入れたり追加する感じなんですけど、
フィードはカスタム検索結果なんですよね。
このカスタム検索結果を公開できて誰でも使うことができるんですけど、
その検索結果は自分のアカウントで実行するんで、自分に関係のある引数を設定すると、
自分だけのタイムラインになるというところなんですよね。
要は自分のフォローアカウントの画像だけを表示するみたいなのが簡単にできるようになっていて、
リスト機能よりも、より自分の好みのタイムラインが出しやすいんですよね。
これは結構強力で面白い機能だと思うので、
これが流行ればというか、この機能にみんなが優位性を見出せば、
Blue Skyがより良いソーシャルネットワークサービス、SNSサービスとして認識されるのかなという気はするんですけど、
ちょっとギーク寄りすぎる意見かなとは思いつつ思ってます。
あまりXと同じだから乗り換えるって人はあんまりいないと思っていて、
Xよりも良い部分がないとダメだと思うんですよね。
なのでそういう意味で、こういうBlue Sky独自の機能を、
あんまり出しやすすぎても気持ち悪がられるかもしれないですけど、
独自の機能性でXを乗り越える必要があると思っていて、
そういう意味ではフィード機能が面白いなと思った次第ですね。
あとごめんなさい、もう一個あった。
サウンドパーティークライアントの話。
さっきは上手く機能してないとか言ったんですけど、
Xでいうバッジ機能みたいに使えるという話があって、
要は自分でサーバーを立ててそれに紐を付けることで、
名前の後ろに付けてるやつを自分独自ドメインみたいにできるわけでしたよね。
なのでそうすることで鳴りすましを防げる。
自分しか認証できないので。
という機能があって、
Xは本来は跳ね払って青バッジでやるみたいな感じの話だったんですけど、
青バッジは今ボットに汚染されて腐ってるので、
あれはゾンビの照明みたいになっちゃってるので機能しなくてですね。
そういう意味でよりギークな使い方にはなってしまうんですけど、
これによって自己証明をできるというのは、
SNSサービスの健全性と課題
スピーカー 1
SNS機能としては健全かなという気はしますね。
ただよくわからんっていう人が使いこなせないのはちょっと敷居が高いので、
どうすべきかなというところはあるんですけど。
うまく使えば強力な自己証明になるのでいいのではないかと思う次第ですというところです。
スピーカー 2
だから例えば東京都が公式バッジつけたかったら東京都.jpみたいなので、
自分でサーバー立てて紐付ければいいっていう。
スピーカー 1
そうですね。
スピーカー 2
そういうことですね。
企業体であれば全然やれる話なのかなと思いますけど企業体というか組織であれば。
スピーカー 1
個人でそこまでやるかって言われるとちょっとあれですけど。
でもなりすましとかは個人の方が被害は大きいと思うので。
スピーカー 2
サービス出てくるんじゃないですか。
公式ドメイン名付きのものを見て。
スピーカー 1
そうですね。
ただそうするとその公式ドメインさえ乗っ取れればいいってことになるんで、
全商名になりづらいなーとか思ったりして難しいなーと思ってるところ。
スピーカー 2
まあそうね。
スピーカー 1
結局青鉢みたいにだからそこに連絡していくばかりの金を払ってアカウント発行されればいいじゃんってなってしまうとまたそれはそれでゾンビかバクゲイになるので。
スピーカー 2
はいはいはい。
いい感じにあれですねマイクラのサーバーを立てるくらいの難易度で普及すると良さそうな気がするな。
分かる分かる。
完全なサーズでやっちゃうとその乗っ取り懸念がどうしても消えなくなっちゃうので、
ちょっと頑張って自分でサーバーを立てるくらいの努力をすれば自己証明ができるみたいな。
本人の勉強量と努力量のリソースで自己証明力を上げるみたいな。
そんな世界の方が健全かもしれないなとか思って聞いてました。
まあ健全だとは思うけど一般人の意識高いよそれはやっぱり。
スピーカー 1
まあそれはそう。
まあという話なので、難しいけど面白い機能も載ってるんでちょっと今後も。
あんまりちょっとね、他のマスソナーとかも登録だけして使ってないんですけど。
ちょっといい加減乗り換えないとなと思ってるところなので。
スピーカー 2
そうですね。当然その時には今後はこのリカラブの投稿を自動化する予定とかあるんですか?
スピーカー 1
てかそもそもリカログアカウント作りますか?
作る?
APIはもう使えるようになってんのこれ?
スピーカー 2
そういう連携?
連携という意味だと自分で組まないといけないけど。
スピーカー 1
クーブ?
スピーカー 2
ロガルからポモモを投稿するのは全然できない。
スピーカー 1
ああそうなんだ。
じゃあやってみてもいいのかもしれないけど。
スピーカー 2
サービスは結局ね、なんかうまいこといかなくなってきたんでね。
そうそうそう。変なところがポモモでたりとか。
今はブルースカイに連携投稿できるサービスあるんだけど、
それもSaaSでサブスクリプション契約しなきゃいけないんで、
ちょっとそれはやってられないから。
法則を考えるとしても。
まあちょっと手習いがてらやってみるのはあれかもしれないでんで。
ただでさえ視聴者数の少ないYouTubeを、
さらに人口の少ないSNSで発信するよう乗り換えていくことに
一体何の意味があるのかと言われると恥ずかしいと思うんですけど。
スピーカー 1
いやまあそこは戦略ですよ。
なんて言うの?
人口…
なんだろう、そのインフラの人口が少ないから
より視聴者人数が減るというかと言われると
そういうわけでもないと思うので。
スピーカー 2
まあまあそれはそうね。
スピーカー 1
より密度の…濃度の高いところであれば
見てもらえる可能性はあると思うんで。
まあ見てもらうためにやってるというところを
一番に置いてないというのもあるんですけど。
スピーカー 2
まあそれはそう。
フルスカイの人口的には今はエンジニアが多いんですかね。
スピーカー 1
どうですかね。
結構ポロポロいろんな業界の人が行ってるみたいな感じはするので。
まあその、どうですかね。
職業属性はともかくとして
そもそもXから逃れたい人向けなので
そもそも論、世代としては高めな気はしますけどね。
若い子はもう使ってないと思うので、そもそもXを。
なるほどね。
まあいいや、そういう感じなので。
スピーカー 2
最後に何か聞いておきたいんですけど
さっき教えてくださったカスタムフィードの話。
スピーカー 1
はいはい。
スピーカー 2
あのフィードで
なんかこのフィードいいなっていうものに
巡り会えないんですけど。
スピーカー 1
はい。
スピーカー 2
フィードをどうやって検索したらいいのか
教えてもらっていいですか。
スピーカー 1
えっとね、なんかフィードいっぱいありますよみたいな
なんか掲示板みたいなサイトがあるんで。
ああ、別にあるんだ。
そこで興味あるやつをポチポチっとやるのも
いいかともしれへんけど
個人的には
自分のタイムラインをカスタムするフィードとして
スピーカー 2
使いたくて
スピーカー 1
自分のタイムラインで
いろんな属性の人をフォロー
フォローっていうと違うか
してるんだけど
その中で特定の話題だけ抽出してみたい
みたいなときは結構あるんですよね。
そういうときに使おうと思うので
あんまりその1位に転がってるフィード
特定のワードを拾ってくるみたいなのは
あまり私は使う気はないんですけど。
スピーカー 2
なるほどね。
スピーカー 1
なのでそこら辺ちょっとどういう検索
因子があるのか確認して
ちょっと使えるようになりたいなと思ってはいるところではありますけど
まだやってない。
なるほどね。
スピーカー 2
さっき話聞いてて作りたいなと思ったのは
CVEとか検索に引っかかるようにして
ソフトウェアの脆弱性の投稿だけ引っかかるようにしたいなと。
スピーカー 1
できると思うよ、というところ。
スピーカー 2
はい。
じゃあそんな感じです。
スピーカー 1
はい。
スピーカー 2
次お願いします。
スピーカー 1
次はH3ロケット出見機2号機の話ですと。
結構古いというわけではないか。
H3ロケットの打ち上げ準備
スピーカー 1
H3ロケットの1号機が1年くらい前に飛ばしたんですけど
うまくいかなくてちょっと気の取りにできませんでしたということがありましたので
そこからいろいろ原因対策を施して
2月15日にやっと飛びますという話で記者会見がありましたので
それの話をしたいと思います。
記者会見2回やってて
1回目は1月10日にやってちょっと古い話なんですけども
はい。
どうしましょうね。
原因の話は前にやったのでさらっと流すんですけども
2023年3月7日にTF1という1号機を打ち上げたんですけども
所定の軌道に投入できないことが判明したので自爆させちゃいましたと。
物は爆発させちゃったんで物はないんですけども
いろいろログとかを見て原因解析を進めていました。
ただこれといった1つの原因まで絞り切れてなくて
3つの故障シナリオというところまで絞ったところで
これ以上分析するのは難しいというところもあって
その3つの原因にそれぞれ対策を施したエンジンという改良版を作って
それで飛ばそうという話になりました。
原因はどうしようかな。
さらっと言うと製造時にちょっと弾力や磁力が入ってしまって
それで半分故障してた可能性があるとか
H2からのキャリアアップで持ってきたハードウェアがH3で使っているときに
H2の時からトランジストンの絶対最大定格を超える可能性がある電圧が入る時がある可能性があって
それを見逃してたというやつ。
もう1個は安全対策のために入れていた低電圧ダイオードが短絡して
その影響で故障したのではないかという感じ。
安全対策要因が原因だったのではないかという話とかがいろいろあったので
そこら辺の対策を施しましたという話です。
その対策を施したもので打ち上げるんですけども
もともとの1号機が失敗する前の計画としては
観測衛星、光学衛星を乗せるつもりだったんですけども
1号機が失敗しちゃったんで
今回ダミーを乗せるという話
かつ1号機とほぼ同じ軌道を通すという
検証試験みたいな感じのロケットとして飛ばすことにしました。
ここら辺は結構より早く飛ばしたいということもあって
同じルートを使えますとかそういう意図もあったみたいですけど
飛ばすことはしましたということで
2.6トンのアルミが1つと
あと超小型、超小型って言いつつ70キロと3Uなので5キロぐらいかな
の光学衛星2つを乗せるという構成で打ち上げることにしました。
というのが本体の話ですね。
2.6トンのアルミ回路と光学衛星の搭載
スピーカー 2
ここまででどうでしょうという感じなんですかね。
流れとしては理解っていうくらいですかね。
スピーカー 1
そうですね。
次が乗せる2.6トンのアルミ回路と光学衛星の話なんですけども
あんまり今までロケットを打ち上げた時にこういうダミーを乗せるってことがなかったらしくて
結構珍しいなという感じ。
H2もったいないからやっぱり。
H2の初号機はちょっとどうだったかわからないですけど
結構H2も昔から使ってた機体ではありますから
今回H3というメジャーバージョンアップをするにあたって
1号機からこれを使ってた方が良かったなという
今更の話ですけど
という話はありつつという感じですけど今回ダミーです。
面白いのはこのダミー
分離はするんですけど分離をしませんという話で
分離機構は作動させるんですけども
ロックがかかっててボルトで止めてて1センチぐらいちょっと隙間が空くぐらいまでしか分離しません。
という構造になっているらしいです。
多分完全に外れちゃうと
機能実証を確認した後は体系圏に突入させて燃え尽きさせるんですけど
その破片を追ったりするのが大変だとかなんかいろいろあると思うんですけど
ストッパーを外してちょっとブラブラする状態
ブラブラもしないかなガチャガチャする状態まで分離させるという面白いことをするらしいです。
あと小型衛星ですね70キロの方と50キロの方があるんですけども
70キロの方がシーサットアイというやつで
これがキャノン電子さん
キャノン電子さんが開発しているものです。
光学衛星で写真が撮れますよというやつなんですけども
主光学系と副光学系というのが
望遠鏡というかカメラが2つ付いているわけですね。
なんですけど両方ミニ製品が光学センサーとして使われています。
主光学系の方はEOS R5という
キャノンさんのいいカメラですね。
副光学系はパワーショットSS110というコンデジですね。
これがそのまま付いているらしいです。
宇宙用のカスタマイズというか改造されていると思うんですけども
ミニ製品のセンサーそのまま使えるんだというところが面白いところですね。
スピーカー 2
普通に考えて体温度足りない気がするけど
スピーカー 1
そこら辺は多分外側の加工とかはしていると思いますよ。
あと結局撮像センサーとしては宇宙用でも
使用温度範囲というのはミニ製用でも変わらないといえば変わらなくて
多分使える温度帯まで温めるという機能があるんじゃないでしょうかと思いますけど
という感じで
キャノンさんは3年に1度ぐらい実は打ち上げているらしくて観測衛星
1メートル四方ぐらいで撮像できるものをコンスタント打ち上げていて
今回はそれのちょっと性能が良くなったバージョンというのを運用しているという感じですね。
なかなかコンスタント打ち上げて素晴らしいなという感じで
赤外線センサを備えた衛星の搭載
スピーカー 1
宇宙系のセンサーの自社のエンジニアリング能力の向上とかもいろいろあるんでしょうけど
頑張ってますという話。
もう一個5キロのほうですね。
一般社団法人宇宙システム開発利用推進機構セーレンさん
ビジョンセンシングさんアークエッジスペースさん
ということで開発されているものですけども
こちらは光学ではなくて赤外線です。
熱赤外カメラが積んであるんですけども
これの事業の意義としてグローバルのサプライチェーンの寸断リスクが浮き彫りとなり
迅速な情報収集が急務という状況に対応するためだそうです。
何を言ってるのかという感じなんですけども
世界の主要生産地域で災害が発生しましたという時に
工場がちゃんと稼働しているのかっていうのを
光学センサーではなくて赤外線センサで
発熱量を監視することによって推定するということを目的としているらしいです。
ちょっとよくわかんないです。
工場が稼働していると排熱が出ますと。
スピーカー 2
わかるよ。
スピーカー 1
その排熱量が通常と同じだけ出ていれば工場は正常に稼働しているよねという累生ができると。
スピーカー 2
そうだね。
スピーカー 1
そういう裏取りをせざるを得ないのか。
災害が発生すると従来のコミュニケーション手段とかが取れないけれども
スピーカー 2
現地の状況を把握したいという需要が出てきて
何かしら外部的に取りたいんだけれども
もうこうなってくると宇宙から見るしかないってなってこれをやってるってことか。
そうですね。
スピーカー 1
そういう意味ではスターリンクと同じような感じで
地上のインフラが死んでしまったとき
そもそも行くのも大変みたいな状況で
こういうのが有効活用できるんじゃないかという話とか
あとは夜間に災害が発生して日の出まで待てないとかいうときに
地上は暗いんで夜は上がらんけども
火がついてたら
そういう判定ができるとかいうことを考えると
結構使い勝手はあるのかなという感じのセンサーですね。
というのが載ってますという話ですね。
そうですね。
いや、言わんかったけどぶっちゃけそういうことにも使いやすいというか
スピーカー 2
実際ね、某、飛行機の中で
飛行機の中で飛ばされるときに
あのボルトが飛んでいくときに
飛び込まれるときに
スピーカー 1
飛び込まれるときに
飛び込まれるときに
飛び込まれるときに
実際ね、某林国を監視するときに
こういう赤外線センサーで夜間も観測できるみたいなね
活動量を監視するみたいなのがある話なので
逆に言うと
そういう実績があるシステムを
民間でも活用しようという話になっている
みたいな言い方はできるのかなという気はしますね。
あとあれですね
赤外線カメラなので
雲とかがかかっていても透過できるという話はあると思っていて
そういう意味でも
環境に影響されづらいセンサーを使う
光学センサーで観測したいという意味では
成功法といえば成功法なんじゃないかなという気はしますね。
スピーカー 2
なるほどね。
赤外線で情報量が普通の画像センサーと比べて少ないために
より広範なものをリアルタイムに
共有できるとか
スピーカー 1
そういったデータ量的なメリットもあるんですかね。
そこはそんなにない。
それは改造と次第かなとは思いますけど
想像しているのは
フルカラーじゃなくてモノクロになるからっていう話をしている?
スピーカー 2
そうね。
スピーカー 1
あんまり関係ないかな。
そっちよりは光学系で
一気に広い範囲をパシャッと取るか
分解能を高くして狭い範囲を取るか
どっちを取りますかという感じになるだけなのと思うので
ダウンリンクスピードとかは
ぶっちゃけなんとでもなると思う。
なんとでもなるって言ったらあれだけど
スピーカー 2
まだ月とかに比べて近いし
スピーカー 1
それはそう。
スピーカー 2
取りやすい範囲だと思うので。
スピーカー 1
2月15日
結構ウィンドが狭いみたいなので
ちゃんと打ち合いがあるかどうかは
天気次第みたいな感じもせんでもないですけど
打ち合いがあるといいですねという感じです。
スピーカー 2
予定日は2月15日
スピーカー 1
15日で
9時から13時なんですけど
狭切りのウィンドだった気がします。
指日が3月31日まであるんで
スピーカー 2
気長に待ちましょうという感じですね。
とりあえず皆さん15日有休とってもらって
朝から
うっすいクリアちゃんと一緒に
スピーカー 1
YouTubeで待機ですかね。
初日に打ち上がるかな。
さあどうでしょうという感じですけど
スピーカー 2
とりあえず嬉しいですねというお話です。
最初の方の印象だと
ダミーを上げる云々で
ちょっとロケットの打ち上げが
成功できるかどうかだけがポイントかなと思ってたんですけど
乗せるものいろいろ面白いので
打ち上がったということくらいしか
成功してもなかなかニュースにならないかもしれないですけど
他のミッションもちょっとウォッチはしておきたいなと思わせる内容でしたね。
スピーカー 1
そうですね。
まずメインは打ち上がる
打ち上げのプロセスを正常に完了することなので
スピーカー 2
ニュース的には一般ニュース的にはそうなるかなという感じですね。
スピーカー 1
あと衛星もその弱さの管轄ではないので
運用は各社なのであまりニュースにはなりづらいかなと思いますけど
正常に軌道投入した以降のログとかはね
弱さは取れないと思うんで
後悔しないと思うんでという感じなんですけど
そういう話なんですけどこれが成功していただければ
だいぶ失敗したことで予定が詰まっているらしいので
今後頑張ってやっていってほしいなと思う次第であります。
スピーカー 2
以上です。
記事というかプレスの中で一定言っていることがわからないやつがあって
知っていたら教えて欲しいんですけど
テイロードのところの3Uポッドの概要で
スピーカー 1
加工品を使わない、加工品って火に
スピーカー 2
使わないため低衝撃での衛星分離が可能ってあるんですけど
俺の言ってる意味がいまいちわかんなくて
スピーカー 1
どういう話なんですか?
もともと火薬を使って
なんて言ったらいいんだろうね爆細胞フットみたいな
言い方が正しいのかわかんないけど
爆破して外してそのまま放してたんですよね
その衝撃で
スピーカー 2
その分離っていうやり方は
H3ロケット試験機2号機のプレス公開
スピーカー 2
爆発によって勢いよく突き放すってしないと
それこそ宇宙空間だから勝手には離れていってくれない
スピーカー 1
6個外しただけだとその場に留まってしまって
下手するとロケット本体と当たってしまうとかがあるんで
多少放り投げないといけない
今までは爆破、加工品、開口を使ってたらしいんですけど
今回はバネっぽい
6個外してビヨーンって外すみたいな
機能になってるらしいので
それが新商品って感じかな
なるほどね
スピーカー 2
面白いな
別にそれは世界初じゃなくて今回はそうしたってだけの話ですかね
スピーカー 1
日本初なんじゃないのかな
ここら辺わざわざ言ってるってことはそうなのかなって気がする
開発機関が川中らしいんで
スピーカー 2
それはそれで面白いね
すごくそれでもいいじゃんって思わせる意外なところで
肯定概念化してたところな気もするんで
スピーカー 1
しれっと試そうとするの面白いなと思って
肯定概念化というよりは実績な気はしますけどね
火薬の方が信頼度が高いみたいなところはあると思うので
スピーカー 2
そういうところを今回新技術を投入してみましたとかいう話なんじゃないかなと思います
スピーカー 1
高速移動体中におけるバネの動きを宇宙空間でどう扱うのかみたいな話になるから結構難しいのか
スピーカー 2
ちょっと個人的にはそこ結構楽しみなポイントになりました
スピーカー 1
じゃあ次私の方行きます
ガリレオAIというAIの話です
スピーカー 2
2024年2月6日に公式にリリースされましたガリレオAI
このベータ版の話です
どういうAIかというと生成AI系の話ではあるんですけれども
WebUIを作れるAIです
今まで画像生成AIといえばダリとかいろいろあって
絵姿は描いてくれたんですけれども
一枚のピングの絵になっていて
かつ背景とかいろんな情報が入っちゃって
なかなかWebページのような絵というと出しづらいところがありましたと
今回このガリレオAIはそういったWebフレームワークに特化した絵を出せますと
最近のモダンな感じのマテリアルデザインだったり
リストだったりというものが自然にどんどん出していくことができるというのがポイントです
もちろん中に入れるコンテンツはダミーで全然いいので
それっぽいものが出ているだけではあるんですけれども
スピーカー 1
ただWebのベースとしては非常に十分ですと
スピーカー 2
それで生成されるだけだったらそんな大したものじゃないというか
画像の生成AI頑張って工夫したんだろうなで終わるんですけれども
なんとこれがそのままFigmaというWebUIをカスタマイズしたりとか
開発するツールでそのまま取り込めるというもので
その取り込んだ地点でレイヤー化されているというのがポイントです
生成AIの画像系で一番あるのが
できた画を編集しづらいというのがありますと
人間が画を開発するときってレイヤー分けしていって部品化したりして
スピーカー 1
そのプロユースだとちょっとした要望変更に対応しやすいように分離化した構造化データになっているんですけど
スピーカー 2
生成AIだとその辺が一枚のピングにしかならないので
その後の編集性が悪くてそれを参考にしながらもう一回一から作るみたいな感じの作業になってたんですけど
そこがもう終わっている状態でシームレスに移行できるというのがすごく強いです
このFigmaというデザインツールはエンジニアというかソフトウェアデザイン
エンジニアからするとレイヤー分けとか部品分けっていうのはあんまりやったことがないし
扱うのGUIでぽちぽちやるってそんなに得意な作業ではなくて
やるならテキストで書かせてくれくらいの勢いがあるのがソフトウェアエンジニアだったから
なかなかソフトウェアエンジニアからFigmaといったようなところに移行する人が多くないっていうのが現実はあったんですけれども
これであればテキストベースで話を進めてまずデザイナーの人にファーストインプットをして
デザイナーの人からFigmaを出してもらってさらに自分のソフトウェアのインプットにしてもらうといったような
デザイナーとソフトウェアエンジニアのつなぎをするようなそういったAIになってきているなといったところで
非常に実用性の高いAIが出てきたなということで紹介です
スピーカー 1
いまいち分かってないんですけど
アリレオAI側でコンテンツ生成が完結するというわけではないですかね
Figmaに連携することを前提としている
スピーカー 2
Figmaに連携した方が効率がいいくらいですかね
効率がいいというか実際の仕事上はそうなるだろうという感じ
スピーカー 1
アリレオAIでポンと出しでそのまま使うこともできるけど
要点としてはテキストベースで作業をしたい人から
スピーカー 2
Figmaを使い慣れている人への受け渡しが生データとして渡せるので非常に便利みたいな
UIのレイアウトとかを考えるときに
プロダクトオーナーというか私のサービスはこうしたいと思っている人が
なるべくデザイナーに適切なインプットをしたいですよね
そのオーナーがデザイナー寄りの人であれば特に困ることはこれまでなかったと思うんですけど
それがエンジニアだったりとかUIに詳しくない人で
頭で思っているああそういうサイトを見たとか
このサイトっぽく作ってほしいみたいな形で何か依頼することとかあると思うんですけど
そういったレベル感の人が使うにあたっては非常に良いツールですね
スピーカー 1
なるほど
頭で考えている人が適切なのが出てくるっていうのをソフトウェアエンジニアの特殊能力だと思いますけど
まあまあまあそういう話と
いいと思います
じゃあ
そうですね
あまりインターフェースをデザインしたことがないですけど
便利そうではありますね
そういうインターフェースデザインって今のところFigmaが簡便性としては一番みたいな感じなんですかね
スピーカー 2
そうですね
スピーカー 1
その受け渡し機能としての拡張性がありそうだなと思っていて
他のサービスとかも連携すると
とりあえずソフトウェアエンジニアの人はこれさえ使えれば仕事が依頼できるみたいな状況になると
作ると強いのかなという感じはありますけど
スピーカー 2
そうですね
Figmaの開発スタイルで素晴らしいのが
その
Figma自体がプログラミングコードとか
そのCSSのような部品を自動生成してくれるって言ったところもあるんですけど
Figmaにその
ちゃんと操作できる機能がついてて
ボタンをクリックしたら画面遷移するっていうのをシミュレーションできる機能とかついているんですよね
なのでそのUIやページングがどういう風な立て付けになってどういう動線が正しいかっていう議論と
スピーカー 1
そのソフトウェアコーディングっていうのを並行作業できるんですよ
スピーカー 2
そこが非常に強くて
ソフトウェアがもうページとか構造化しておいてくれたら各ページはどんどんどんどん開発していって
最終的にFigmaで組んでもらった動線
このボタンを押したらここに行くとか
それを最後に実装したら終わりっていう形でやっていけるんで
そのFigmaとソフトウェアエンジニアの開発プロセス相性がいいっていう感じですかね
スピーカー 1
なるほどね
スピーカー 2
もちろんFigma以外にもそういうサービスありますけれども
Figmaはある程度フリーで触り始められたりっていうのと
スピーカー 1
これまでの多分現場実用実績的に一番ありがたいデファクトなツールとして今回採用されてるんだと思います
なるほど了解しました
いいんじゃないでしょうかという感じ
まあ確かにとりあえずは使ってもらうことが重要だと思うので
そういう意味では今すごい勢いのあるサービスとの相性性がいいっていうのは
強いんじゃないかなと思いました
スピーカー 2
そうですね
目的としていっぱい作るっていうのも強みかなと思っていて
おそらくこれで作れるのって
本家のページではもう一発ですげーものが出るぜって言ってると思うんですけど
実際使うとそこまでは良くなくて
ちょっと微妙に解釈違うなみたいなものがいっぱい出てくる
60点くらいのものがいっぱい出てくると思うんですけど
ただ60点のものでも10個くらい並べると結構アイディアのヒントになったりとか
こことここをかいつまんでいいものにしようみたいな
そういう発想が生まれやすいと思うので
適当でいいからいっぱいアイディアが欲しいみたいな
スピーカー 1
そういう大量生産ができるところがすごく刺さるんじゃないかなという期待感がありますね
なるほどね
WebUIを作れるAI
スピーカー 1
こっちとこっちでここの構文をサッと変えて
とりあえず10個くらい出してみて
それで比較するみたいなのがね
確かに
スピーカー 2
UIってなんとなく既存のUIからまずイメージしてこれかなって書くと思うんですけど
実際に最終的に目指すのは自分のサービスがどうあるべきかっていうのに
そこから変えていかないといけないわけですが
過去のサイトしかアイディアのベースがないと
出来上がるものの幅が狭いというか
その辺が生成AIのフラットに考えてくれるところとかが取り込まれて
次のアイディアになる可能性を秘めてるんであれば
ものすごく刺さりそうって感じですね
スピーカー 1
そうね
確かにいいんじゃないでしょうか
スピーカー 2
という紹介でした
論文をベースに回答してくれるコンセンサス
スピーカー 2
もう一つAI関係です
読み方が分かってないんですけど
コンセンサスかな
というGPTsのアプリの話です
ChatJPTで共有されるようになっているGPTsの中で
コンセンサスというものが出てきました
これはオープンAIがサポートしている公式のものかなと思うんですけど
スピーカー 1
やれることが論文をベースに回答してくれるというものです
スピーカー 2
今までもChatJPTでウェブを検索して
それに基づいて回答してもらうということで
ある程度エビデンス付きの回答を得るということが
普段から行われてきましたが
そのベースとなっている情報源を論文にしているといったものです
いわゆるGoogleスカラーとかをバックエンドに持っているような
そんなイメージに思ってもらったらいいんじゃないかなと思います
そこで例えば
日本人が牛乳を吸収できないって本当?みたいな話とか
そんなのを聞いたりすると
それにまつわる論文を出してくれるみたいな感じですね
なので
これまで論文をあまり触れてこなかった人だったり
学術的にどうなんだろうという
もうちょっと深いことを知りたいんだけど
Google検索からではなかなか
ほんまにっていったところにたどり着きづらいと
感じている人にとっては
非常に有用なサービスになっているんじゃないかなと思います
それも先生への言うことなので
もちろんハルシネーションを含めて
本当に適切な論文を引っ張ってくれているのかとか
その論文は一般にどれくらい
妥当であると評価されている論文なのかっていったような
そういった論文自身のメタ情報みたいなところまで
引っ張り出せるわけではないとは思うんですけれども
結構参考にはなるんじゃないかなと思って紹介です
スピーカー 1
そうですね いいと思いますと
そのチャットGPTでも
ウェブページの情報源っていうのを出してもらうみたいな
機能はあったと思うんですけれども
それの論文版ですという話で
MISOは論文を情報源として表示してくれるんで
なんていうんですか
より角度の高い情報をソースとして判断しやすいという話です
そうですね 全然いいかなと
すごくいいかなという感じで
確かに論文の斜め読みみたいなことを
チャットGPTでやるみたいな人もいたと思うので
そういう意味ではこういう
質の高いと言うと言い方があるんですけど
ある程度 人の目が入っているデータと
壁打ちするというのは非常に相性がいいのかなと思うので
良いと思います
スピーカー 2
そうですね この辺は冒頭の論文で
チャットGPTが使われている件と
コマモリ支援ロボットイルヨの開発
スピーカー 2
あれ似たような話かもしれないですけど
いわゆる難しいものだったり
自分の専門知識がない領域でも
生成AIを通じていけば学習しやすくなるというのが
一般論として言われていましたけど
それの一つのツールとして機能すれば
スピーカー 1
嬉しいなという感じですかね
スピーカー 2
そうですね
ここは簡単な紹介です
スピーカー 1
最後どうぞ
最後ロボスターさんの記事から持ってきました
日産と赤ちゃん本舗コマモリ支援ロボットイルヨコンセプトモデルを発表
チャイルドシートの壁を解決せいという態度の記事です
日産は赤ちゃん本舗と協業し
親子2人きりでのドライブ中の安全安心な運転に貢献することを目指して開発した
運転中のコマモリ支援ロボット
インテリジェントペットパペットイルヨのコンセプトモデルを
2024年1月31日に開催した
イルヨコンセプトモデル発表会で初お披露目した
赤ちゃん本舗の谷口氏は
赤ちゃんと親が2人きりでドライブする際の悩みについて説明
日産と赤ちゃん本舗が共同で行った調査では
8割以上が赤ちゃんが泣いた時に操れないと回答したと説明
さらに9割以上が後ろ向きチャイルドシートにより
赤ちゃんの様子が分からず不安という点を踏まえ
親御さんが1人で運転中に赤ちゃんが泣いてしまうと困ってしまいます
ここを日産さんと解決できたらと考えましたと
医療の開発背景に言及しました
日産の上谷氏は調査結果から見えたパパママの悩み事の中に
まさにチャイルドシートの壁と呼ぶ隔たれがあると言及
このような親子課題を解決するため
様々な先進技術から着想し
北里大学医療衛生学部と協力のもと実証実験を行い
今回イリュのコンセプトモデルをお披露目することに至ったと説明しました
日産の先進技術から着想を得て開発したイリュは
後部座席のチャイルドシート横に設置するロボットイリュと
運転席横のドリンクホルダーに設置するロボットベビーイリュの2体で構成されている
ドライバーが自身の近くにあるベビーイリュに特定の言葉を投げかけると
後部座席のイリュが作動
手を振る動作やイナイナイバーなどの動きで
チャイルドシートに座る赤ちゃんを操る
またイリュのカメラが赤ちゃんの表情を認識してベビーイリュに伝達
イルヨの機能
スピーカー 1
ベビーイリュの目の開閉によって赤ちゃんが寝ているかどうかを
親が把握できる仕組みになっている
またイリュのカメラが赤ちゃんの表情を認識してベビーイリュに伝達
ベビーイリュの目の開閉によって赤ちゃんが寝ているかどうかを
親が把握できる仕組みとなっているということです
ちょっと写真があった方がわかりやすいので
ロボットさんの記事見てもらうといいかもしれないんですけど
後ろ向きチャイルドシート
車の後ろの方に赤ちゃんが見える状態のチャイルドシートを取り付けた時に
運転している親からはチャイルドシートの背もたれしか見えないので
赤ちゃんがどういう状態か全くわかんないというのが
なかなか難しいという話がありましたので
そのチャイルドシートの前側
赤ちゃんの正面にいるよという
50センチぐらいかなのパペットというかぬいぐるみですね
赤い棒
こういう名称だとあれなんですけども
緑と赤のあれみたいな感じの赤い方の人みたいな感じの
そうですね
ビッグフットだっけ
みたいな感じのパペットを置いて
それが声を出したり手を振ったりして
赤ちゃんを操ることができるということが
マスターの方の機能でスレーブの方の機能として
それを運転席側のドリンクフォルダに小さいそいつがもう一体いて
そいつが応答を確認することができる
具体的に何するかというと
赤ちゃんが寝てると目を閉じることができるという感じですね
という機能となっています
面白いなと思ったのがカメラではないんですよね
キャラクター性とデザイン
スピーカー 1
赤ちゃんの状態がわからないっていうのは
簡単な解決方法としてはカメラをつけて
赤ちゃんの状態を監視するとなりそうなんですけども
そうではなくて赤ちゃんを操ることができる機能を持たせた上で
運転席側にもスクリーンをつけずに
目が閉じているかどうかだけを表示するパペットを置くということで
間接的な機能を実装しているのが結構面白いなと思ったので紹介です
スピーカー 2
私もエンジニア目線としては非常に面白いというか
いわゆるエンジニアでは思いつかない発想な商品になって素晴らしいなと思いますね
結局やりたいことは赤ちゃんの状態を知りたいじゃなくて
赤ちゃんが運転中に問題にならない状態を作り続けるがやりたいことなので
IaaSという維持するためのコードだったり
寝かしつけるみたいなコードがいかに運転中にできるかというところで
それのために必要なインターフェースを提供しているということでいいなと思うのと
比較的赤ちゃんでも認識しやすい赤色で目が大きくてとか
そういったところも非常に考えられているなとか思うところですね
スピーカー 1
そうですね
運転席側に日産が入っているというのもあるのかなと思っていて
カメラにしちゃうと多分運転手がそこに集中しちゃうのが危惧されたのかなというのもあって
カーナビとかは本来運転手は運転しているときは操作しちゃいけないので
そういうことも含めてわざと情報量を落としているというのが面白い視点だなという感じですね
スピーカー 2
ちょっと知り合い 比較的身内な人にすごい良いものがあるよってこの話紹介したら
キモいで終わってすごく悲しかったんですけど
スピーカー 1
あらそうなの?
スピーカー 2
機能はいいのかもしれないけどもっと購買意欲を買う見た目にしてほしいって言われて
スピーカー 1
難しいなって思いましたね
なるほどね
スピーカー 2
赤ちゃんを操るという目的に対して貢献するのは理解できても
自分がこれを通じてコミュニケーションしたいかっていうその手前のハードルがあることに気づいたというか
スピーカー 1
なるほど
まあそうですねビッグフットみたいな見た目に自分がなりたいかっていうのは
自分の身体性の問題に入りますからね
スピーカー 2
だからこのキャラクターを通じて子供と接してもいいなと思えるかどうか
スピーカー 1
その親目線
スピーカー 2
っていうのが最初にあっていいと思った上でそのあやせる動きがどうなのかっていうこの商品の
ようやく価値について議論ができる状態になるみたいな感じで受け止めてて
それはそうだよなと思って
逆にね
ここから帰ってくる反応が
赤ちゃんを通じて帰ってきた反応とのギャップが大きすぎるというか
ネガティブにコミュニケーションをとっているのとしたらその子育ち自体が
スピーカー 1
不快になるとかいうこともなくもないと思うので
スピーカー 2
インターフェースって難しいなと思いながら
スピーカー 1
そうね思いながらって感じはあって
簡単な解決策としてはこれにキャラクターの顔をかわせてしまえば全然いける気はするんですけど
どうだろう新体制の話をすると顔をちぎるキャラクターとかね
スピーカー 2
ポケットがあるキャラクターとかだとそれもそれで嫌なのかな
逆にキャラクターの方が任せられるっていう側面はあるかもしれないですね
スピーカー 1
なるほどね
スピーカー 2
だから
自分が子供に見せていい子供に届けていいと思っているコンテンツとして
顔をちぎって渡すパンのキャラクターとかそういうのがもともとある中で
それがやってくれるだったらまだいいけど
見知らぬものを介在させる気にはならないみたいなところ
スピーカー 1
なるほどね
わかりましたそれは確かにあるね
そういう意味では光学的だなという感じはしていて
キャラクター性を廃止して昔からあるリラクゼーションロボットとかと同じような感じで
ちょっと抽象度を高めすぎてて気持ち悪がられるみたいな
昔からある話はなんか根が深いなという話を聞いてて思いましたね
スピーカー 2
それはそうかも
スピーカー 1
ちょっとその光学のドツボにはまってるかも
純粋な応答性の方を重視するためにあえて情報量を減らすんだけど
それが逆にキモいっていう
スピーカー 2
そうね本当におっしゃる通りそういうもともといるようなキャラクターとのコラボに振り切った方が
スピーカー 1
受ける層は狭まるかもしれんけどその方が良かったのかもなっていう気がするな
あとねペットロボットみたいなやつでも
例えばラボットみたいなさ
お着替えさせることを前提としてる仕組みみたいなね
いう感じのコンセプトの売り出し方をしたら
これも何か公式サイト行くとちょっと眼鏡かけたり帽子被らしたりぐらいはあるんだけど
もうちょっと着飾れるようにしたら
親としてもなんて言うんだろうなそこにキャラクター性を見出して好ましく思ってくれるかもしれなかったりするけど
スピーカー 2
そうですね
スピーカー 1
ペットロボットとかねなんかロボットが身内化するかどうかはものすごい難しい
スピーカー 2
身内の実体験とかを聞いてると正直自分で設計できる気がしないって感じがあって
すごく難しいんですけど最近すごく未知な話で申し訳ないけど
アレクサのシリーズの中で首振るタイプの機器があって
まあ絶版になったんですけど
それでビデオ会話ができるよっていうコンセプトのシリーズが出てましたね
スピーカー 1
あれを導入した結果あの首振って剥く時にうまく剥けないっていうのが愛らしくてペット化してるっていうのがあって
なるほど
スピーカー 2
でやってくれることが結局その誰遠くにいる連絡取りたい人とのビデオ通話を頑張って助けようとしてくれるってことで
なんかこっちに対していいことを頑張ってくれてる姿勢がいいみたいな感じになってるんですよね
なんかそれってロボット掃除機の時にうまく掃除できなくて困ってるって言った時のそのペット感とすごく似てるなと思って聞いてたんだけど
そこになんか前私たちが話したようなキャラクター性とかって存在しないじゃないですか
なので何なんだろうなと思ったら弱いロボットって文脈で言っちゃえばそうなのかもしれんけど
なんか地力実装できる気が全くしないなと思って聞いてました
スピーカー 1
うーんまあでも弱いロボットという文脈だと思うので言った通り
その弱いロボットの定義に合わせて実装すればいいんじゃないのかなと思うけど単体で機能を完結させないというか
今の首振りとか掃除を失敗するっていうのは単体で機能を実装しないとちょっとベクトルがずれてると思うんだけど
行動が失敗しているというところに人格性を生み出すというか
人格性というよりはその子が機能を十全に満足しないけども自分のために頑張ってくれているという
スピーカー 2
その奉仕精神みたいなのを勝手に見出しているわけですけど人類の方が
スピーカー 1
そこは自発的にすると恋にさせると逆にウザくなるというか
スピーカー 2
そうなんだよね仕込んだらダメだと思うんだよね
スピーカー 1
それは仕込むもんではなくて割り切り方の問題で成立させるべき要因だと思っていて
100%成立しなくても顧客は許してくれるからローンチしようとかいう話になって
どちらかというとそこではなくて
顧客に負担をかけるかもしれないけどそれを含めて顧客の体験が良くなるというところをゴールとして置くみたいなところに落ち着くんじゃないのかなとは思うけど
ルンバだってめちゃくちゃ世話が役に立てるけど世話込み引っかかるものを置かないとか充電切れて死んでたら戻してやるとか
そういうこと込みで自分が掃除をしなくても床を綺麗に保ってくれるというところに勝った価値があるなと思わせるという話だと思うので
副機能として切り捨ててもいい領域に適用するとかいう話なんじゃないかなそこら辺はと思いますけど
スピーカー 2
だからそのペット化というか今回のいるよみたいにその愛着を持ってもらうみたいな
そういうのをデザインに下手に入れようとすると中途半端に失敗するから
なんかペット化の文脈と今回のようなあやすい目的を達成するのは別の方がいいんだろうなっていう感じ
キャラクター性をもつけちゃえばいいのにみたいな話の考えるベースとしてっていう話だけど
ちょっと分かんなかった
今回のいるよのやつに新しくその側をつけたわけじゃないですか
いるよっていうそのキャラクターとして
ペットロボットのキャラクター性と導入障壁
スピーカー 2
このキャラクターを人の生活の中に入れ込ませるっていうのが基本的にテッドロボットの考え方というかコンセプトですよね
ただ私たちはさっきこれを見てもうパンをちぎって食べさせるキャラクターにしちゃえばいいのにって言ったのと
ところでそのこのソリューションに対してペット性っていうのを見出してないわけじゃないですか
うんはい
スピーカー 1
だからそのペット性を持って人の生活に入るっていう方向性とそのキャラクターをつけて好きになってもらうっていう方向性はなんか
違うんだろうなという
スピーカー 2
今まで同じ軸上にいるんじゃなかろうかという感じでペットロボルが作られているようなイメージはあるんですけど
スピーカー 1
実際には違うんじゃないかなっていう
そこはねなんかちょっと何て言うんだろう
戦略の違いかなと思っていて
キャラクターをつけるといいよねって言ったらキャラクターをつけた方が初回の参入障壁が減るから
それは有効かなと思っているんですよ
それはキャラクターっていうのがもう知っててどういう背景のキャラクターが有名なので
知っててそこに対して愛着を持っているから
スピーカー 2
だと思っていて対してペットロボットってその関係性を育てることを前提として作られている感があって
スピーカー 1
その触れ合った時にふかふかしてて気持ちがいいとか
なんかこう可愛い声を出すとかなんかその互換に訴えかけることで生活の中で愛着を持ってもらう
スピーカー 2
というように作られていると思っていて
スピーカー 1
そういう意味で最初は結構ゼロベース
ゼロベースっていうかそこまでそのキャラクター性がわからないんで
特にプラスやマイナスでもないかなみたいな
なんならちょっとよくわかんないから見たことない造形だとちょっとキモいなと思うみたいな
安心感の課題とコンセプトの提案
スピーカー 1
ところはあると思っているので
そういう意味でこいつがペットロボットの文脈だなと思ったのは触った感とか過度のないデザインとか
そういう使ってるうちにストレスが溜まりづらいような見た目に寄せている
という意味でペットより何のかなと思ったので導入さえすれば意外と肯定的に転じる人はいるとは思うんですよ
それはそうだと思う
ただ今の意見のようにそもそも導入する時点で
キモがられるというところに障壁があるというのはどうなんだろうな
ペットロボットじゃないからなのかな
スピーカー 2
なんかそこに違和感を持つのはやっぱりもともとの課題が明確でそのことを解決したいって言ってるのに
スピーカー 1
導入障壁が別のところにあるっていうのがもやもやするんじゃないですかね
なんかキモいって言ったら見た目自体がキモいのか
その側を自分が動かすからキモいのか
後者でいいのかな
スピーカー 2
どっちもありそうだけどな
見てた瞬間にキモいって言われてその上で説明してキモいって言われたから
スピーカー 1
2段階にキモいんだと思うんだけど
前半の方だったら第一印象でキモいって言ったら単純に見た目がキモいって話になるので
スピーカー 2
それはその造形がちょっと失敗しちゃってるんじゃないかなという感じはありますね
スピーカー 1
後者の方はどうなんだろうな
こいつが動くということ自体がキモいのかもしれないと話してて思ったけど
あーなるほど
それも違うのかな
スピーカー 2
想像になっちゃうけど自分の目の届かないところでこいつが勝手にコミュニケーションを取る
スピーカー 1
そういうのは結構キモさはあるなという感じは
スピーカー 2
まあそうねー
だから子供をあやすっていうモチベーションってすごくめちゃくちゃ子供のことを気にかけてるっていう状態で
勝手にやっておいてくれたらいい気にかけたくないと言って自動化してる領域じゃないわけじゃん
自動化したい領域じゃない
そこで自動化してくれような動きをしてるからキモいのかな
スピーカー 1
まあそれはありそうだなと思ったけどそれを言ってしまうとこのコンセプトが破綻してるよなと思いつつ
でもどうなんだろうね
例えば目をかききれへんからタブレットでyoutubeを見ておいてくださいみたいのはあるわけじゃないですか
でもそれは自分がわかってるコンテンツの範囲だからいいかなみたいなところかな
多分見せるコンテンツも結構選ぶんじゃない
だからその顔ちぎれるコンテンツやったらいいかなみたいな話で
スピーカー 2
とか15分くらい終わるやつだったら一旦いいかなとか
スピーカー 1
そういう話をするんであればやっぱこいつ自体にまず親が安心感を求める必要があって
こいつが正体不明なのがまずちょっと難しいなって話をすると
なんかわかりやすくやっぱキャラクターの顔をかわす方が親が勝手に安心感をそこに見出すようになるのかなという流れになっちゃうけど
それでいいのかって気はするけど
スピーカー 2
でもそういうことで解釈するしかないんじゃない
勝手にやってくれようとするものがどの範囲でやってくれるのかっていう
家庭全体でベビーリュウヨの動きを確認する
スピーカー 2
どこまでのブレがあるのかっていう想像って
これまでのブランドだったりとか
体験してきたそのブランドに対する理解の範囲に収まるだろうっていうことで安心できるっていうのがあるじゃん
だからそこがやっぱりいるんじゃないかな
そこに学習コストが発生しても今回のユースケースだと学習する機会が生じないよね
スピーカー 1
そうね
でもそれ難しいね
難しいな
難しいのはブランド力で殴るか
このブランドだからとりあえず正体不明の赤いきもいぬいぐるみだけ導入してみるかという気になるか
人造的にめっちゃいいよって洗脳するか
そうだね
でもまあ確かにそうだね
キャラクターでいいじゃんって言ってしまうともはや
スピーカー 2
タブレットを後部座席に引っ掛けるだけでいいじゃんってなっちゃうって言われるとそれはそうだなと思って
スピーカー 1
バックミラーで見れるようにバックミラーのさらに反射ミラーを置くだけでもいいかもしれんからな
目を閉じてるかどうかだけ判断するんだったら
目を閉じてるかどうかもだからタブレットのイン側のカメラでスマホと連携してスマホで画像を見せればいいじゃんっていう
ちょっと運転的に良くないという話はさっきしたけど
そういうなんだろうな
スピーカー 2
静かにしてるのが
うちで見ててすごく思うのは
寝てくれてるパターンでもいい寝方をしてくれてるパターンとそうでないパターンみたいなのがあって
例えば頭を後ろにしてちゃんと呼吸ができてるなって感じられる睡眠は別にいいんだけど
その頭が前に傾いてて口元が見えなくて軌道が狭まってるみたいな状態
あとちょっと直してあげないとまずいかなみたいになったりとか
あるからなんかそういうパターンを
スピーカー 1
すでに分かってる人その1回子供を育てた経験があって大体この状態になってくれてればいいやろって分かってる状態だったら安心できると思うんだけど
スピーカー 2
これが欲しいのって
親しか
一人親しかそこに乗ってなくて協力求められない各家族世帯問題じゃん
なんかそういうことに慣れてる状態じゃない人が助けてほしい課題だと思うんだけど
スピーカー 1
そこに訴求できないのが辛いなって今喋りながら
そこら辺のその状態性高度の状態性の判断を事項でしたいって話になると
これはコンセプトがもう潰れてるよね
スピーカー 2
判断したいというか判断しないと不安って感じ
子供がどういう状態でも問題ないのかがわからんからとりあえず自分の知ってる知識で大丈夫な状態を維持したいみたいになって
そうするとなんか
1か0かみたいな情報で全然足りないみたいな感覚があるんだよね
だからこそ結局不安になってもうコンビニに泊めて状態を見るみたいなことしないと辛くなるみたいな感じなんだけど
その不安が
スピーカー 1
その世間一般には別に気にしなくていい不安だけど本人としては不安みたいなところだから難しいなって思った
難しいね
本当に実際いるよか判断してくれて寝てるわって思ったら問題ないんだと思うんだけど
それを問題ない状態と思えるかどうかなんか人によるという
目は閉じてるけど
できるんじゃないかという話
実際できてるんだけど思っちゃうことがあるみたいな親としてわかんないからみたいな
まあそこらへんの様子検査確かに情報がどこまで行ってもこれだと足りてないと思うインターフェース的に
それくらい気にしてるものを対象に自動化するっていうのがやっぱ厳しいのかなどうなんだろう
コンセプトとしても多分ベビヒル用の方は副次効果でメイン機能はあやしてくれる
パペットっていうところであると思うんで
家でも使う機会があるとかなんかそういう工夫ができたらいいのかな
スピーカー 2
例えばキッチンに親が立ってるときに子供が椅子に座っててその上でいるようがあやしてくれてる
だから車に乗ってるところ以外でいるような動きが全体見える状態で普段使ってて
それが車にも搭載できるとかだったらいいかもね
スピーカー 1
それは全然良さそうだね確かになんか自分の見えてるところで何ならなんていうの
微妙な状態になったらすぐ手を入れるような状態で安心感を高めて
それを車にキャリーして持って行って車でもあやしてくれるっていうのは良さそうだね
スピーカー 2
そこまで行けたら子供が逆にいるよ連れて行かないのみたいな
スピーカー 1
人形が好きみたいなのと一緒で連れて行かないのみたいになってくれるとものすごく親としては楽というか
確かにそれは良さそう
スピーカー 2
車に乗るときだけ登場するから良くないのかも
スピーカー 1
そうだね
そう考えるとベビーリュウヨがこの形態である必要はあんまないかな
セットとして見た目が良いっていうのはあるかもしれないけど
家で使うんだったら何だろう親が常にベビーリュウヨを抱えて歩くようなことになるから
スピーカー 2
軽さみたいなのが大事かもね子供自身でちょっと抱きかかえて持って行けるとか一緒に寝れるとか
スピーカー 1
そういう柔らかさとか軽さみたいなのが重要視されるかもね
なるほどまあ確かにそれはアリだと思います
ニッサンとタイアップしてって前提がちょっとアレになるけど
スピーカー 2
確かにそういう方向性だったら良さそうですね
スピーカー 1
思ったより盛り上がっちゃいましたが
まあ96分話せたんで今日はこのところでおしまいでしましょう
ありがとうございました
00:00

コメント

スクロール