ファーウェイの新スマートフォン
スピーカー 2
また変なガジェット出てきましたね。
はい、いいじゃないですか。
スピーカー 1
ファーウェイさんが、2つ折りを飛び越えて、3つ折りのスマホを出してきたっていうニュースが、
9月10日付けで出てて、まあ、ASCIIさんとかに出てるんですけど、
何型っていうんですか、屏風じゃないですけど、3つ折り型というか、
Z折りされている状態の端末が出てきまして、 広げるとタブレットサイズ、10.2型のタブレットサイズまで見えると。
なるほど、タブレットでいいじゃないかって言わんばかりのものなんですが、
タブレットサイズのものを、タブレットバッテリーくらいの容量があるものを、
携帯性のある状態で可搬できるっていうのが、売りだと思われるんですが、
まあいかんせんクソ高くてですね、40万円くらいするっていうので、
スピーカー 2
面白い以上の言葉がないなーって思いながら見てます。
いやでもなんというか、ファーウェイらしいなというか、実にガジェットですねという感じでして、
あと何でしょうね、結構個人的には良いなと思う点が、
折った状態で、今までの2つ折りだと、内側に閉じたディスプレイが来てしまうとそのディスプレイ見えなくなっちゃうんで、
外側にもう一個ディスプレイを付けるとか、結構何というかもったいないことをしてたんですけど、
3つ折りなので、表面にディスプレイ、裏面にカメラって今までの外見みたいな感じができると。
開くと10.2型で、10.2型ってノン無印のiPadぐらいなので、
折ったら携帯、開いたらiPadというかタブレット、
というのが非常に明確に伝わりやすいコンセプトなんだなということが良いかなと思っています。
お値段は置いておいて、そこだけなのかというとそういうわけではなくて、
重量は297gでちょっと重いんですけど、
3枚重ねても今までのちょっと分厚めの2つ折りのスマホと同じぐらいの分厚さということで、
サイズ感性大きいというところとか、カメラとかも結構強力なものが付いているということで、
画面だけじゃないという、実にガジェットガジェットしていて、
使い勝手でちょっと、画面はいいけどその他使いづらいなと思わなさそうな完成度に、
スペックだけ見ると仕上がっているというのが良いかなと思います。
スピーカー 1
これで3枚伸ばした時にどれくらいちゃんとロックかかるんでしょうね。
スピーカー 2
そこはまあ製品見てみてかなと思いますけど、
ファーウェイさんの今まで出して2つ折りと同じぐらいの作りにはなっているんじゃないでしょうか。
と信じる。
スピーカー 1
タブレットサイズになってもさ、簡単に閉じようとしちゃうくらいいろいろだと意味ないじゃないですか。
スピーカー 2
そうですね。
スピーカー 1
だから広げた視点でカチャッと固定化されるみたいになってほしいんですけど。
スピーカー 2
ギャラクシーの2つ折りのやつとか触ったことがあるんですけど、
スピーカー 1
ヒンジがだいぶ粘いんですよね。
スピーカー 2
だいぶ摩擦抵抗がある感じなので、
そんななんか片手で持ったからパタンってしまっちゃうみたいな感じではないかなと思います。
なるほどね。
ギャラクシーと同じぐらいの作りであればという感じですけど。
スピーカー 1
その辺は最低限期待としてはれるところだな。
2つ折りだったらその辺も片手持ちでもある程度いける気はするんですけど、手がまだ届くんで。
スピーカー 2
2つ折りで完全に広げると、完全にヒンジが手の外側にある状態になるじゃないですか。
スピーカー 1
なのでそこがどうなるかがやっぱり気になっちゃうなと思いながら。
スピーカー 2
それちょっとありますよね。
スピーカー 1
面白い面白い。
スピーカー 2
そうですね。
という感じなので、40万円。
どっか機械があれば触るだけ触りたいかなと思います。
O1プレビューの導入
スピーカー 2
ちょっと買うかって言われると、うんって感じですけど。
スピーカー 1
そうですね。まずまだ2つ折りも全然馴染めてないというか。
スピーカー 2
そうですね。
スピーカー 1
例によっておじいちゃん状態なので若い子についていけない状態になってるから。
まだ2つ折りスマホに慣れるところからですね。
スピーカー 2
2つ折りはそうですね。
まあ2395触ったことはあるんですけど。
やっぱりちょっと中途半端なんだなーってちょっと思ってました。
スピーカー 1
広さも中途半端だしってこと?
スピーカー 2
そうですね。
画面は大きくなるんですけど、結局やることは一緒なので。
お値段考えたら普通にでかいスマホでもいいかなと個人的には思ってたんですけど。
スピーカー 1
できる幅が変わらないってことね。
スピーカー 2
2つになっても結局縦型で使うし、
スピーカー 1
ゲームも言ってしまえばちょっと横長のスマホくらいの使い方しかしないしってことで。
なんか2つ折りになったことで新たにできるようになったことっていうのが、
それこそYouTubeとかでコメントを横に出したりとか、
そういう普段使わないどうでもいいところくらいしかないっていうところがまだちょっと厳しいかなって感じ?
スピーカー 2
そうですね。OS側が対応していれば、
ランチャーみたいな感じで複数アプリを立ち上げて、
動画を見ながらなんかウェブスクロールするとか、
ゲームをしながら攻略情報を見るとか、そういうのはできるはできるんですけど。
そういう用途に使わない人はまあいいかなって感じかな。
スピーカー 1
そうですね。家でがっつり遊ぶんだったら確かに使うことはあるかもしれんけど、
スピーカー 2
持ち運んで外でどこまでやるかって多分あんまないんで、
まあって感じですね。
スピーカー 1
ちょっとこのトレンドでどんな他のガジェットが各社から出てくるのかっていうのを様子見しつつって感じだと思いますが、
ここをとりあえずモノとして仕上げたファウェイさんは偉いと思いますね。
スピーカー 2
偉いですね。
スピーカー 1
じゃあ本編の方いきたいと思います。
1点目、オープンAI社から新しいモデルが出たので共有です。
先週、もう新しいモデルの噂が全然なくてみたいな話をしたばっかりやんけっていうクソほど突っ込まれることを前提に、
その1週間後には出てしまうという本当何も役に立たない将来像だったなぁと思いながら。
何が出てきたかというとですね、
GPT-4とかそういった系列ではなくて、
O1プレビューというものが出てきました。
GPT-5だって言ってる人とかもいますけれども、
明確に別物なんで混同しないように、
別の生成AIとして受け止めた方がいいと思います。
何が違うのかというとですね、
これまでの生成AIっていうのは入力に対して、
中でいい感じのモデルが動いて結果が出てくるっていう、
一入力、一ロジック、一出力という内容でした。
このO1プレビューはですね、
それを使って登場してた技術のエージェントと言われるような、
AやってBやってCやるみたいな複数の処理シーケンスを走らせるようなことが、
もう内部のモデル構造上できているものになっていて、
入力に対してAやってBやってCやった結果を返す、
みたいなことがデフォルトで動く、そういうモデルになっています。
このモデルがなぜ必要になっているのかというと、
従来の生成AI、言語の確立的なところで出すという形だと、
どうしても数学的なものだとか、
コーディングとかその複数のロジックを組み立てて最終成果にしていくような、
そういったところには生成AIは不向きだといったところから抜け出せずにですね、
数学とかそういうことをする専用の別の学習モデルが必要なんだっていう人もいたりとか、
やはやエージェントみたいに組み合わせて、
C++1みたいな小さなレベルからちゃんとロジックを組み立てていってあげればできるんだっていう話とか、
いろいろいたんですが、オープンAIとしては校舎のちゃんとロジックを中で組み立てていってあげればできるでしょうという前提に立って、
あらかじめもうそういうふうに順番立てて論理立てて考えられるようにするという、
そういうモデルをO1プレビューという名前で出してきたというものになっています。
なので、生成AIと従来のGPT-400とかと同じようにテキストで入力してテキストで出てくるっていう姿自体は変わらないんですけれども、
やってることとかモデルアーキテクチャ自体が根本的に違うので、
従来のGPT-400とかと同じ系列だって言い切るのはかなり無理があるなというのが感触です。
AやってBやってCやるって言ったところで内部のモデルそれぞれに判断させているわけですけれども、
ここには数学的なことに強いモデルとかそういったのが組み合わされて処理されているので、
一つの生成AIモデルってこれを表現するのも若干違うような感じはするんですが、
一応オープンAI社としては新しいモデルだということで、モデルという位置づけで出てきているので、
世の中ではオープンAI社が新しいモデルを出してきたぞという表現でニュースになっているという感じです。
GPT-400との関係どうなるんだって言ったところで、公式のページを参考にしゃべると、
まだまだGPT-400の方が賢いケースもあります。
オーアンプレビューはそういう順序立てで回答するようなモデルの一番最初のモデルであって、
まだまだ賢さが足りませんと。
ユースケースによっては普通に一発で返してくれるGPT-400の方が賢いし、
推論といったところでもその順序立て方が誤っていたりとかして、
普通にGPT-400に考えさせるよりも悪くなることも普通にあり得ますと。
ただこういった最初の順序立てで考えられるモデルというのをベースにして、
今後の可能性
スピーカー 1
今後は数学とかコーディングとか、そういったロジカルな業界にも導入できるような
制裁やモデルを作っていきますねというのが今回の発表になっています。
スピーカー 2
はい、以上です。
まあなんでしょうね、さすがオープンAI社という感じですけども。
これが出てきたからといって今のGPT-400の方の開発がストップするというわけではなくて、
多分並行で走らせるっていう話なのかな。
スピーカー 1
そうだと思われます。ただ明確な言及は避けてますね。
スピーカー 2
どっちかの方が結局使えなかったよとか、
こっちの方が良かったんでこっちだけ開発しますとかあるかもしれないけど。
なるほど。
まあいいんじゃないかなというか、面白いなあというのが思うのが、
GPT-400がすごすぎてもうこれ使えばいいじゃんみたいな話もラジオでしていたんですけど、
こういうのが出てくると、なんていうんですかね、まだ基本的なやり方、
組み立て方のレベルで改善の余地というかフロンティアというのがあるという感じがあるので、
一発逆転狙える海はまだありそうだなというところがあって、
他頑張ってほしいなという意識がちょっと出てきますね。
スピーカー 1
今回のことがちょっとオープンAIがやったからすごいインパクトがあるっていうふうに
海外で盛り上がりまくってるのはですね、
先ほど言ったようなロジカルに順番立てて考えるっていうのは既存の生成AIに対して
人間が順番に指示出してもいいし、あらかじめプログラミングでそういうロジカルに順番書いておいて、
それに応じて生成AIにリクエスト投げるでもいいじゃないですか。
スピーカー 2
はい。
スピーカー 1
ぶっちゃけ順序立てでしっかりやるんだったら。
スピーカー 2
はいはい。
スピーカー 1
それで賢くなるっていうのはすでにこのモデルが出る前から言われていて、
そういうユースケースに特化した機能実装を内部でしてますよとかいうことを売りにしてる会社さんだったりとか、
ソフトウェアベンダーもいたりするという中でこれがやってることがですね、
そのレスポンスの速度から察するになんですが、
その呼び出しを何回もうまくやってるわけではなくて、
モデルのアーキテクチャ上何度も呼び出してるっていう感じっぽいんですよね。
というのもそのABCとか複数段階を踏んでも応答速度がだいたい10秒くらいで収まっていて、
普通に生成AIに3つも4つもリクエスト投げたら、
全部の応答を得るまでに30秒から1分かかるなっていうのが今までのGBT-40とかに対するリクエストと応答時間なので、
OpenAI O1プレビューの進化
スピーカー 1
それだけ考えるとモデルのアーキテクチャロジックとして複数段階の呼び出しができるようになってるようなので、
他のオープンAIとかのモデルを使ってる側からすると全く手が入らない領域で、
この順番立ててやるっていうことが組み込まれつつあると。
それができてしまうとどうなるかというと、
うまく生成AIを呼び出せるようになりましたっていうノウハウ、
今まで貯めてた各会社のノウハウっていうのが役に立たないか捨てざるを得ないかわからないですが、
そういう陳腐化してしまいかねないっていうのが今回の発表の恐ろしいところですかね。
スピーカー 2
うーん、なるほど。
ある意味オープンAIらしいというか、なんか巷で流行った機能を標準搭載しましたよの。
スピーカー 1
そうそう、そんな感じ。
スピーカー 2
今回もそういうことを実はやってきているのではないかというお話。
スピーカー 1
そう、そんな気はしてしまいますね。
スピーカー 2
なるほど。面白いのがあれですね。
それを従来のGPTには載せなかったのは何なんですかね。
破壊的な変化になってしまうんですかね。
スピーカー 1
うーん、そうなんでしょうね。
スピーカー 2
なんかちょっと詳しくないので。
スピーカー 1
マシンパフォーマンスとかの使い方が根本的に違うんだと思うんだよな。
私も詳しくないんで、どうモデルが実際にコンビニティングマシンの上で展開されているのかっていうのがちゃんと分かってはないんですけれども、
まず値段のところから推察されることからしゃべると、
今回GPT 4.0から比べてこのオーワンプレビューを利用するにあたっては約8倍の値段が必要になっています。
今回はプレビューなのでそれくらいなんですけれども、
オープンAI社としてはさらに価格を釣り上げる計画があるという話をしています。
加えて今このオーワンプレビューなんですが、
APIで個人が利用できるのは週に50回までとか非常に厳しい制約がかかっていて、
実ユースケースにはまだ使ってくれるなという強い意図を感じるくらいには機能制限がガチガチかかっているという状態になっています。
これから察するにおそらくこれまでのモデルシリーズを展開するためにデプロイしていたようなコンピューティングマシンでは
完全に不足するくらいの規模のモデル展開になっているため、
オープンAI社のこういったモデルを展開しているAzure、マイクロソフトのインフラが完全に追いつかない形でモデルが設計されているんじゃないかなと推察されます。
その事実を考えるともう何か抜本的なモデル設計が違う部分があるんだろうなというのが今の理解です。
スピーカー 2
なるほど。バックグラウンドを考えたらかなりそれヤバそうですね。
スピーカー 1
そうですね。
スピーカー 2
というか多分なんかそのハードウェアが用意できないからちょっとプリプロダクションで出してますみたいな感じがして。
そうですね。
スピーカー 1
これまでGPT-40とかGPT-4だったりとかすごい大型のアップデートのラジオニュースをこれまで何回もしてきたじゃないですか。
はい。
1年くらいに。その時にこんなAPIの利用制約がかかったリリースなんて一度もなくて。
スピーカー 2
はい。
スピーカー 1
お金さえ出せば当然利用してもらえますよっていうリリースしかなかった中でこれくらい強い制約のリリースをせざるを得ないという状態になっているのは
まあそういうことかなと察しているところですね。
スピーカー 2
なるほど。
スピーカー 1
めちゃくちゃ推察が含まれてますけど。
スピーカー 2
そうですね。推察なんであれですけど本当にそうだったとしたら
さっきの私の発言はちょっと撤回しないといけないかなというか。
多分他社がこれを組み込んで運用するっていうのはかなりハードウェア的にハードルが高いという話になると思うので。
スピーカー 1
そうですね。
スピーカー 2
そうなるともう金で殴るというかなんかマシンで殴っている感じ?
うん。
で、ないと論理推論ができないということになって。
そうするとそのマシンに金で殴れる会社と金で殴れない会社の差がすごいことになると思うので。
なんかこう難しいですね。
人類は進歩するかもしれないけどなんかこうAI格差がどうのこうのみたいな話がまた再認知そうな感じもありますし。
スピーカー 1
そうですね。
スピーカー 2
作る側も使う側も両方それを使わないといけないのかどうかという判断がまた難しいと思います。
そうですね。
スピーカー 1
これはもう私がアンテナとして足りてない可能性が十分高いと思った上で話すんですけど。
今回のO1プレビューのこのモデルアーキテクチャについては今までのオープンAI社のリリースを大きく違ってですね。
どういうアーキテクチャになっているかという情報が公開されてないんですよ。
スピーカー 2
はい。
スピーカー 1
今までは空とかあれくらいすごいモデルであってもこんな風な内部アーキテクチャを想定していてみたいな話とか論文はここにあってみたいな話とか。
なんかそういう技術的なリリースっていうのもあったんですけれども、今回それがないんですよね。
ここら辺くらいからもしかするとオープンAI社が昨年11月に経営層としていろいろ揉めたっていったところから立ち上がったプロジェクトなのかなと思っていて。
いわゆるサム・アルトマンとかがいろんなところで次のGPTはやべえぞって言って、これがジェネリックAIだみたいなことを言って啓蒙して回ってたと思うんですが、
今回そういうオープンAIという名前に反してすごくブラックボックス的に秘密主義的に進めてきたプロジェクトの成果プレビューがこれなんだとすると、
かなりそれまでのオープンAI社の取り組みとは違ったモデルになってくるので、この辺りからちょっと利用する側もどこまでこのモデルを受け入れるのかっていうのは出てくるのかなとは思ったりします。
スピーカー 2
なるほど。難しいですね、そこも含めて。オープンAIの肝入りかもしれへんけど、これまでの気分で使ってるとちょっと火傷するかもしれない?
スピーカー 1
そうですね。だからオープンAI社から多くの人が離れてるっていうその経営層の方針とは入れないって言ってやめてアンソロピックとか別の会社に行ってるわけですけれども、
それが今回のリリースのような内部でどういうことをやってるのか、どういう研究でどういう成果が得られたのかっていう社会に科学的研究成果を貢献していくっていう姿勢が見えなくなったようなリリースが今回のリリースなので、
それを踏まえて、これを良しとする人は元々のオープンAI社にいなかったよなっていうのはすごくわかるかなと思いますね。
スピーカー 2
なるほどねー。
スピーカー 1
まあちょっと会社の大半はね、使えるものは使えたらいいじゃんみたいな話ではあるんで、このレベルの話で立ち止まるなんてことは恐らくないんでしょうけれども、
まあ少し怪しい、怪しいというか気持ちのいい話ではなくて、強豪他社がオーアンプレビューのようなものが出てくる可能性もかなり低いと捉えざるを得ないところだと思うので、
まあ出てきたとしてもオープンAI社を経由して人が集まっているアンソロピックくらいになっちゃうと思うので、まあちょっと今後どうなっていくかですね。
そうですね、なかなかちょっと難しいですけど、ちょっと注視していかないといけないかなとそこら辺も含めていうところですね。
スピーカー 2
という感じで新しい出たものなんですが、あんまり喜ぶばかりのことではないという感じで紹介でした。
民間宇宙ミッションの新たな一歩
スピーカー 2
はい、では次私の方からソレさんの記事で、民間宇宙ミッションポラリスゾーン民間初となる戦害活動を実施というタイトルの記事になります。
日本時間2020年9月12日、実業家のジャレット・アイザックマンさんが率いるポラリスプログラム初の友人宇宙飛行ミッションポラリスゾーンで予定されていた戦害活動が実施されました。
民間のミッションにおける戦害活動は今回が初めてです。
2020年9月10日にクルードラゴンが打ち上げられ、同日の19時50分頃、最初にアイザックマンさんが開放されたクルードラゴンのハッチを通過して高度約730kmの戦害、
10分近くの戦害活動中に宇宙服の状態や可動性、戦害活動を補助する手すりの確認を実施した後に船内へ戻りました。
続いて同日20時5分頃、ギリスさんがハッチを通過して戦害でいると、アイザックマンさんと同様のチェックを実施しました。
戦害活動の様子はスペースXがライブ配信を行い、ギリスさんが左腕の肘関節を曲げ伸ばしする様子は非常にスムーズに見え、可動性の高さを伺わせていました。
なお、戦害活動の実施に先立つ9月11日にはクルードラゴンが高度約1400mに到達しています。
宇宙飛行場のスタイル宇宙船がこの高度に到達したのはアポロ計画以来、およそ半世紀ぶりのことです。
最高高度到達後にクルードラゴンは軌道を修正しており、戦害活動は高度約190km×700kmの軌道で実施されました。
また、ポラリスゾーンで戦害活動を行ったのはクルー4名のうち2名でしたが、戦害活動中のクルードラゴン船内は深空状態になったため、4名全員が戦害活動用宇宙服を着用していました。
同時に4名の宇宙飛行士が深空状態にさらされたのは今回が初めてのとなります。
ポラリスプログラムは今回の戦害活動について、大量の宇宙服が必要となる月や火星における基地や都市の建設を念頭に、将来の長期ミッションにおける拡張可能な宇宙服の設計に向けた重要なステップだと述べています。
ということで、民間初の戦害活動、宇宙服を着て宇宙船の外に出るということをやりました。
全身をモロに出したわけではなくて、アポロ形状と言ったらですね、宇宙船の天井の穴から上半身を出して、
外にあるハッチを掴みながら宇宙服の稼働状況とか、宇宙服の漏れがないかとか、放射線体制がどうのとか、そういうチェックをするということがメインのミッションでした、という感じだったんですけども。
民間初というのも素晴らしいですし、スペースXさんの通信能力のすごさというか、散々見せつけられてきたんですけども、今回も戦害活動をする宇宙飛行士を地球を背景に撮っているライブ映像とか、
宇宙服のヘルメットの部分にカメラがついていたらしく、それ越しに身を乗り出す状態がリアルタイムで見えたりとか、そういう映像が非常にエモーショナル映像が見えて、かなりテンションが上がりますねという感じなので、ぜひ一度見てくださいということの紹介です。
宇宙服と深宇宙ミッション
スピーカー 1
いやー、また歴史の教科書に1ページがあって感じはしますが。
スピーカー 2
いやー、これはマジでそうですね、はい。
スピーカー 1
おっしゃってた宇宙服を新たにトライしたのもそうだし、こういう戦害活動の検証をリアルタイムで配信するというのもそうだしで。
この、改めてですけど、コンテンツ化することで非常に身近になるといったところが、できたことの実感を利き手に強く与えるので、そこがやっぱりすごいポイントだなと思いますね。
これ多分映像とかなくて、やりましたっていうだけだったら、多分私聞いただけだと、それってISSでやってたことと何が違うの?みたいな、そういうしけた質問しか出てこなかったと思うんですよ。
スピーカー 2
はい。
スピーカー 1
これがやっぱりコンテンツとしてこんな風に動かしててこんな感じですっていう映像を見せられると、いやこれはいい業だわってもう明らかに分かっちゃうというか。
やっぱりその辺がSSXさんすごいなっていう感じですね。
スピーカー 2
はい、いやー分かってますねというのもありつつ、いやまあでもこのリアルタイムでライブ映像を、しかも複数カメラからちゃんと落として来るっていうのはできるというインフラもすごいんですけど、
それまで人類はそのインフラ持ってなかったので、なかなか大変だったんですけど、まあそれ込みでね、今回こういうのが見られたというのはかなり素晴らしいなという感じですね。
はい。
スピーカー 1
そうですね。
もちろんこの映像からだけでもね、解析できる人は解析いろいろできるでしょうし、本人たちもいろいろセンシングデータ撮ってるでしょうし、まあ本当に今帰還されたんでしたっけ?
スピーカー 2
そうですね、今日はちょうど5時くらいだったか、日本時間の5時くらいに地球に戻ってきてまして、まあ元気よく飛び跳ねている映像が出てましたけど。
スピーカー 1
まあもちろん宇宙服の劣化がどうなったかとかもこれから調べるんでしょうけど、本当に第一歩だと思いますね。
スペースXの宇宙服とミッション
スピーカー 1
前…前って言っても3年くらい前な気がしますけど、スペースXさんが新しくもっとスリムでカッチリ宇宙服作るわっていうニュースを聞いてから、今回がほぼほぼ実用ケースとしての事例ですよね。
スピーカー 2
はい。
スピーカー 1
だと思うので、もうなんか感無量というか、ようやくここまで来たかって感じで、当時はね、まあコンセプトはわかるよみたいな気持ちでニュースとしては聞いてて、スリムとか言ったって宇宙やばいやろ、ほんまにいけんのかいなみたいなレベルでしたけど、
まあここまで来てるのを見ると、やっぱ仕上げた人すごいなーって思いますね。当時から比べるとちょっとゴツくはなってますけど。
スピーカー 2
そうですね、ヘルメット周りは多少ゴツくなりましたけど、内部が0.7気圧ぐらいあるんで気膨れしているっていうのを考えると、だいぶスリムな形状、今までNASAが使ってきたよりはだいぶスリムな形状をしてますし、だいぶ着やすくなっているのかなという感じ。
で、まあかなり素晴らしいなと思いますね。もちろん多分長時間の戦災活動をしようと思ったらもうちょっとボンベを背負わないといけないとかあると思うんですけども、それでも今までの5枚ぐらい来た雪山で遭難した人みたいな、
なんていうのかな?もこもこの、いかにも重装備ですという感じではなく、かなり地上でいてもゴツいライダージャケットを着てるなぐらいの見た目にできているのはかなり素晴らしいなと思いますね。
いや、ほんとそう。
スピーカー 1
そういうのもね、映像付きだと説得力ありますね。
そうですね、はい。
そうですね、やっぱりさっき映像をぜひ見てくださいって言ってましたけど、私も特にこの宇宙服に関して注目していろいろ見てほしいなと思いますね。
インフラすげえはもちろん見てて、いくらでも感じるところだと思いますけど。
スピーカー 2
あとすごいと思ったのは、ほぼオンタイムでできていることなんですよね。
ライブ配信の方ではなくて、乗り出すスケジュールとか、コードのスケジュールとかがほぼ一緒になるんですね。
ちょっとハッチを開けるの手間取ったりとかしてたんですけども、そこら辺も含めて完成度の高さというか、練習のように実践をやるみたいな話ではないですけど、
異常なく今回ミッションが完遂されたっていうのはかなり素晴らしいことなんじゃないかなと思って、安心して見てられるなと思います。
スピーカー 1
一応私が多分知らないだけなんだろうなと思って触れなかったんですけど、
このハッチの仕掛けだったりとか、その内部の気圧の調整だったり、途中であったブリーズでしたっけ?
線外活動する前のフローというか、その辺については既にSpaceXとしてはできる状態になってたんですよね。
クルドラゴンを使ってISSに乗り付けた時の移動とかでもあるでしょうから。
スピーカー 2
そうですね、プリムリーズとかはやってないんじゃないかな、ISSは。
ISSは確か1気圧で動かしてて、今回は真空にするんで、
宇宙服の中身は0.6気圧だか0.7気圧ぐらいしてたんですよ。
気圧が下がるんで酸素濃度が下がるんで濃い酸素の混合比を変えるんですけど、それを一気にやると体がびっくりするみたいな、
海に潜る時の潜水準備みたいな、そういうのがあるんですけど、
ISSは多分1気圧なんでそういうことをやってなかったんじゃないかと思うんで。
もちろん、ISSの接続を切った後とかに準備でやってたかもしれないですけれども。
スピーカー 1
その辺りもクルドラゴンとしての初ミッションになってるんですかね。
スピーカー 2
そうですね、なんじゃないかなと思います。
そうだとしたらめちゃくちゃすごいけどな。
クルドラゴン内を真空にして開けるとか、開けるのは多分初めてでしょうし、そこら辺も含めてね。
スピーカー 1
すごいね。
じゃあ今回下手すると、そもそもハッチがうまく開けません、おしまいっていう可能性すらあったんだ。
スピーカー 2
あったと思うので、そこら辺も含めて。
あと空気漏れチェックで漏れちゃってて、対応できなくて今回は開けずに、一人でも漏れてると開けられないのでね。
スピーカー 1
そうですね、そりゃそう。
スピーカー 2
とかもあるので、そこも含めて一発成功、素晴らしいなって感じですね。
スピーカー 1
素晴らしい。宇宙飛行士のドキドキも半端なかったでしょうけど。
スピーカー 2
それを安心して実行できるだけの正確なセンシング技術があってこそでしょうから、素晴らしいですね。
この初の宇宙服で体乗り出すってね、やっぱ見てても思いますけどかなり怖い。
マジで宇宙空間に身を乗り出してますからこれ。
スピーカー 1
普通に言ったら死んでこいってやつですね。
人類のために死んでくださいみたいな勢いのお願い事項ではある。
スピーカー 2
意思を欠くミッションでしょうけれども、それをマジでリアルタイムで見てて、冷静に数値の値とかを読んでて素晴らしいなと思いましたね。
スピーカー 1
そうですね、これはもうあっぱれですね。
スピーカー 2
次今後どうするのかな?ちょっとチェックできてないですけど、今回うまく成功できたんで、今度は長時間の戦艦活動とかになるのかな?
今後にも期待ですという感じですね。
スピーカー 1
いいですね。
こんなのができた、冷静に戦艦活動がここまでできたってなると、それこそ今まで遠目の映像化、シミュレーション映像化でしかなかった宇宙を泳いでいる映像というか、そういうのもリアルに撮れていくんでしょうし、それの一人称視点が見える世界が来るんですかね。
スピーカー 2
そうですね。
スピーカー 1
いやーもうそのコンテンツ配信が楽しみでしょうがないですね。
スピーカー 2
そうですね。
ISSだと結構ね、映像インフラ整えたりするんですけども、これでやってるっていうのもすごいですし、かなりISSみたいな安定軌道を撮ってなかったはずですので、そういうのも含めてありますね。
あとあれですね、ISSのNASAの宇宙服、結構在庫がないというか問題とかがあったので、そこら辺を含めてこのスリムな次世代の宇宙服が今後の標準になっていくと、そこら辺もいいんじゃないかなと思いますね。
そうですね。
はい、という感じの紹介でした。
はい。
イグノーベル賞の発表
スピーカー 2
では次最後ですね、イグノーベル賞が発表されましたということで、今年のイグノーベル賞の紹介です。
ちょっとサイエリジさんのXの投稿を読ませてもらうんですけども、2021年イグノーベル賞の暫定的なまとめということで、今回イグノーベル賞1、2、3、4、5、6、7、8、9、10賞かな、ありますというので、ちょっとバーッとしゃべらせてもらいますけど、まず平和賞。
平和賞としてミサイルの飛行経路を誘導するために生きた鳩をミサイルの中に入れることの実現可能性を調べた実験に対して受賞されましたと。
これ第二次世界大戦にアメリカで実行されたプロジェクトフィジョンのことらしいです。
次、生物学賞。
一部の本物の植物は隣接するプラスチックの人工植物の形状を模倣しているという証拠を発見したことに対して。
ということで、アケビカの植物が何かこういう特性があるらしく、それを、実はこれ大学教授とかじゃなくて一位の研究者というか野生度研究者が発表した内容らしいですということらしいです。
次、解剖学賞。
北半球のほとんどの人の頭髪は南半球のほとんどの人の頭髪と同じ方向に渦巻いているかどうかを研究したことに対して。
ということで、台風とかは結構ね、南半球と北半球で目が向きが違うとかなんですけど、実は人間もそういうのがあるらしいらしいです。
はい、ということ。
次、生物学賞。
痛みを伴う副作用のある疑惑は、痛みを伴う副作用のある疑惑は、痛みを伴う副作用のない疑惑よりも効果的であることを証明したことに対して。
ということで、辛いとか痛いとかそういう疑惑を飲むと効果が出るらしいですということですね。
物理学賞。
死んだニジマスの遊泳能力を実証を説明したことに対して。
ということで、実はお魚はカルマングス、水中の中に発生する渦のエネルギーをうまく使っているのではないかという話があるらしく、
死んだニジマスを使ったら勝手に上流に行きましたということらしいです。
次、生物、生理学賞ですね。
多くの哺乳類は肛門で呼吸ができたことを解明したことに対して。
ということで、これ結構SNSとかでバズってましたけど、日本人の研究ですね。
土壌とかが腸を使った呼吸をできているらしく、それが哺乳類も使えるのかどうかということで、肛門から直接酸素の気流を送り込むことや、
バーフルオロカーボンという酸素を溶け込ませた液体を使って呼吸が可能なことを示したらしいです。
次、確率賞。コインを投げると最初と同じ面が出る傾向があることを理論と35万757回の実験の両方で示したことに対して。
ということで、数学的に言えば50%なんだけど、最初のコイント数…
実際のコイント数は親指で弾くため、投げられた時に上を向いていた方向の面が出る確率がちょっと高いと2007年予測されたことを実験で実証しました。
ということらしいです。
理論上51%だったんですけども、今回測った結果50.8%で、理論通りらしいですね、ということらしいですね。
科学賞。クロマトグラフィーを使用して酔った痛み水とシラフな痛み水を分離したことに対して。
これは環境からエネルギーを抽出して、それを機械的な力に変換できる活性物質として痛み水を使って、
酔った痛み水は活動が低下して丸まったのに対し、活発の痛み水は伸びた状態なので分離することができるということを発見したらしいです。
人工統計学賞。最も長生きしたことで有名な人々の多くが、出生と死亡の記録がきちんと管理されていない場所に住んでいたことを発見した調査研究に対して。
ということで、非常な高齢の人々が住む地域というのが統計学上出てくるらしいんですけど、実はそこが統計学的に、
統計学というか、きちんと記録が取られづらい地域とか、経済指標が悪い地域とかが多いのではないかということが確認されたということらしいです。
最後、生物学賞。牛の背中に立っている猫の横で紙袋を爆発させ、牛がいつどのように牛乳を出すかの調査をしたことに対して。
1939年のかなり古い研究らしいんですけど、動物の交換神経を除去した状態で一見すると正常のように見える一方、変化する環境に適応できないことが知られているということで、
交換神経を除去した牛のお父の分泌量に変化があるかどうかを確かめるためにこういう実験をしたらしいです。
ということで以上10章の紹介でした。
興味深い研究の紹介
スピーカー 1
どれも興味深くて面白いんですけれども、結構歴史的に古いものもあるので、新しめのやつだけで何か関心あるやつだけコメントしたいんですけど。
まず植物学章については、これは実験する植物の種類とかにもよるんだろうけれども、基本的にはどの地域でも発生することでプラスチックまで及ぶっていうのが新しいことかなと思いますね。
環境とか背景になるべくなじもうという磐脈を作るっていうのは多分これまでもある程度わかってたけど、プラスチック製のもの、明らかに自然物ではないものももう包帯性に含まれるっていうのが面白いところで、
これまでは多分植生というか、各植物が出してる化学的な反応物を捕まえてこんなのが周辺にいるって捕まえてたんじゃないかとか、そんなのも言えてたと思うんですけど、プラスチック製がいてたと絶対そんなことないので、
じゃあ光の反射で見てるのか何の反射で見てるのかとかどういう経由で模倣できたのかは不明っていうことなんですけど、めちゃくちゃ面白いなと思ったところですね。
スピーカー 2
はい、そうですね。これ私もちょっと面白いと思ってちょっと掘ったんですけども、一部ちょっと実験系に疑問が残る結果となっているらしくてですね。
植物を成長させて途中から目隠しというか穴を開けてそこから出して、その後プラスチックの人工植物を見せることで差が出るかどうか確認したらしいんですけど、
要は根元と先っぽで差が出るかを確かめちゃったんで、実は単純に先っぽの方が感度が良かったとか、そういうことがまだ起こり得る可能性が残るらしいんですけども、
植物はそうですね、さっき言われてた化学物質とか以外でもしかしたら確認されているかもしれない。要は人間でいう資格があるかもしれないということは否定はされていないので、そういう意味では実は植物は目を持っていたという説を補強するかもしれない。
大事な研究成果でしたということらしいですね。
スピーカー 1
いいですね。
スピーカー 2
はい。
スピーカー 1
物理学省のシンダマスの遊泳能力についてもまあ面白いなって言われてみれば当たり前かって感じはあるんですけど、いわゆる鳥ってエネルギー消費することなく飛び続けられるっていうのは知られていたと思うんですけど、魚がエネルギー消費することなく泳ぎ続けられているかどうかっていうのには意外と着目してなかったなということに気づかされた感がありますね。
で、結果エネルギーを消費せずに泳げるということなので、多くの生物は自分の生存のために必要なエネルギーを最小化する技術が優れているなっていうのが改めて感じたところですかね。
スピーカー 2
そうですね。これも面白くて、言われてみればというか人間とかも結構すごくて、脳みその周波数ってめちゃくちゃ低いんだけど、今人間が作ってるAIより優れている部分も多分にあるということとか、
そういうエコーな活動、エコでいいのかな?エネルギー量を低く高度なことをするっていうのは結構生物は得意なことなので、そういう意味で魚もそういうすごい能力を持っているということが研究として確認されましたと。
そうですね。という話なので、まあ面白いなあというところですね。こういうところが、何でしょう、研究が進めば、生物模倣は昔から研究対象ではありましたけど、効率の良い船の形とかできるかもしれないので、まあいいんじゃないでしょうかと思われるお話になります。
スピーカー 1
そうですね。まあ、あとは日本のその肛門呼吸を含めてあんまりおもろいのはなかったかな。
最後の生物学省のやつ、うちがいつどのように父を出すかってやつも、なんか実験自体が古臭すぎて、なんか結構まゆつば感があるんで。
スピーカー 2
そうですね。
スピーカー 1
ネタとしては面白いんだけど、なんか科学的な実験ではそもそもないのではっていう感が強い中から、なんかイグノベル礁ではあるんですけど、私たちエンジニアとしては特に関心はないなあと思いながら。
スピーカー 2
イグノベル礁、こういうめちゃくちゃ古いやつも出すようになっているんだっていう感じがちょっとありますね。
スピーカー 1
そうですね。一番最初のミサイルのやつをね。
スピーカー 2
そうですね。結構ネタにされる話なんで、こういうわかりやすいネタを通じて、その科学への興味を持ってもらえたら、イグノベル礁の価値としてはあるとは思いますけれども。
って感じですかね。
そうですね。
近年のイグノベル礁の研究者は、イグノベル礁は受賞してますけど、マジで人類の役に立つ研究がやっぱりめちゃくちゃあるので、それこそ生理学省の訪問呼吸の話だって、
コロナのパンデミックで人工呼吸器が足りない人がいっぱいいたので、こういう研究をした。
人工呼吸器なくても呼吸ができる方法を確立するというところで、こういう研究をされたという話なんで。
そういうところを含めて、皆さんいい研究されましたねという感じですね。
スピーカー 1
はい。
スピーカー 2
はい。
そうですね。
というところでの紹介でしたということで、本日はこのくらいでおしまいですかね。
はい。
スピーカー 1
じゃあお疲れさんでしょう。
スピーカー 2
はい、お疲れ様でした。