早速ベンチマークを紹介しつつ、機能差っていうのをご紹介していきたいと思うんですけども、ただこのベンチマーク数値ちょっと注意が必要でして、
おそらくこれAI系の発信者誰も言ってないんじゃないかなって思うんですけど、このベンチマークの数値っていうのは実はMAX HIGHのモデルを使われてるんですね。
つまりリーズニングモデルの一番最上位のものを使った研究環境での結果なので、普通のチャットGPTの利用とか、普通のシンキングとかインスタントでは同じ性能は出ないです。
一応そこは留意していただきたいなという感じですね。あくまでGPT5.0の一番いいリーズニングモデルを使った場合の数値ということですね。
では最初にターミナルベンチというベンチマークなんですけど、これはAIにターミナルという環境を与えてコマンドライン上で複雑な作業を完了できるかどうかっていうようなベンチマークなんですけど、
ターミナルなんで真っ黒な画面ですね。コマンドとかバーって出てくるような、慣れないと軽音感しかないような真っ黒な画面なんですけども、ここでのベンチマークGPT5.4、前のモデルは75.1%だったんですけど、今回5.5になって82.7%までだいぶ上がりましたね。
7.6%上がりました。なので実際にターミナルを使っての複雑な作業っていうのはかなり良くなっていると。ちなみにこのベンチマーククロードオーパス4.7は69.4%なので、ターミナルでの作業っていう点においていくと圧倒的にGPT5.5の方が強いです。
ではまずターミナルの方はGPTにGPT5.5が上がっていると。続いてSWEベンチプロというベンチマークなんですけども、これはAIが本物の開発現場のチケットを解けるかっていうようなテストなんですけど、
なので実際のGitHub Issueに近い形でAIにコードベースを読ませて、バグの修正とか機能修正のパッチとかっていうのを作らせるっていうようなベンチマークですね。ここではGPT5.4の時が57.7、GPT5.5が58.6なのでちょっとだけ上がりましたね。
1%ぐらい上がったかなというところです。じゃあクロードオーパス4.7どうなのかっていうと64.3%なので、こちらはクロードさんの方が優秀ということですね。
なので実際の開発現場のリポストリの修正能力だけで見るとクロードさんの方がかなり良い数字が出ているということですね。さっきはターミナルの操作とかツール連携みたいなそういうのは5.5の方が強いんですけど、
単純にコードを修正するというような能力でいうとクロードの方が軍配が上がるねというところですね。なのでGPT5.5の強みっていうのはコード生成そのものというよりかは開発環境の中で作業を進める力っていうところにあるんじゃないかなということですね。
次にですねエキスパートSWEというベンチマークなんですけど、これはオープンAIの内部評価なので第三者機関ということではないんですけども、どういう内容かというとより長い開発タスクができるかどうかっていうものですね。
オープンAIの説明だと人間の完了時間の中央値が20時間と見積もられるような長期タスクの評価というふうに説明していて、GPT5.4の時は68.5%だったんですけど、これがなんと5.5で73.1%と結構上がってますね。
つまり中央値が20時間の長期タスクのうちのだいたい7割近くを評価上クリアできたという意味ですね。
これ僕もベンチマーク調べながら思ったんですけど、普通にすごいですよね。人間の完了時間20時間見積もられる内容の7割できるって結構すごいなって話ですよね。
次にGDP-VALですね。これも前にご紹介したかと思うんですけども、これは知識労働の成果物をどれだけ作れるかっていうのを見るベンチマークで、
オープンAIの説明だと44種類にまたがる仕様が明確なナレッジワークを評価するものっていうふうに言ってて、
簡単に言うとAIがホワイトカラーの業務のアウトプットをどれだけ作れるのっていうようなテストですね。
なので専門的な業務をかなりこれで大体できるよね、タスク単位ではっていうふうに図られたベンチマークで、
オープンAIはここかなり重視してるんですよね。いわゆるAIがどれだけ実務に影響できるのっていうところを追っているので、
このGDPVALっていうベンチマークがかなり重視してるんですけど、これ5.4の時は83%、5.5が84.9%なんで2%ぐらいアップしてると。
こちらはクロードオーパス4.7は80.3%なので5%ぐらい下がると。
こちらもGPTに分配が上がるということです。
GDPVALに関してはタスク単位のナレッジワークっていう形なので、
実業務だとそのタスク単位というよりかはそれに紐づいた文脈があって横断して仕事すると思うんですよね。
だからタスク単位では完了率、成功率っていうのはすごく高いんですけど、
やっぱりこのコンテキストをまたいでやっていくっていうところはまだまだ苦手なんですけど、
今はそこを強くしていってる段階っていうことですね。
逆にそこが強くなっていけばなるほどホワイトカラーの業務っていうのはどんどん代替されていくような数値になってくるので、
ホワイトカラー側からするともう恐怖でしかない数字ですよねこの辺は。
もう10年後とかには8割型ホワイトカラーの業務っていうのは永遠に代替されていると言われてますからね今。
その分新しい職種ももちろん出るというような話なんですけど、
既存のホワイトカラーの業務の8割は消滅するという可能性があるということですね。
お次はOSワールドというようなベンチマークなんですけど、
これはAAが実際のパソコン環境を操作できるかっていうのを見るベンチで、
画面見てクリックして入力してアプリ操作して作業完了できるのっていうのを見るテストですね。
そしてこの数値どうだったかというと5.4は75%、5.5は78.7%とこれも3.7%アップ、
そしてクロードオーパスは78%というところで、
このコンピューターユーズに関してはかなり近いところまで来ていると。
個人的にはクロードコワークとかだとパソコンのマウス持っていかれちゃうので、
パソコン使えないんですよね使われている間って。
だから放置しておくしかないんですけど、
コーデックスは奪われないのですごい使い勝手いいですよね。
バックグラウンドでやってくれるっていうところで、
僕はコンピューターユーズはコーデックスの方で使っているという感じです。
コンピューターユーズ系まだ使ったことないよっていう方もしいらっしゃったら、
もうものすごく損をしているというか、
やっぱりこの機能めちゃくちゃすごいんですよ本当に。
何よりも一番すごいとこれ思ってるんですけど、
とにかく自分のパソコン操作してくれるわけですよ。
ということは何でもできるんですよね本当に。
いろんなソフトウェアアプリつないで、
MCPいなくてもAPIいなくてもアプリを立ち上げて操作ができるっていうのは、
ものすごいことですよね普通に。
だから部下に指示して操作してくれるっていうことなので、
これはぜひかなり有用性が高いので、
ガツガツ使ってほしいなというところですね。
最後にブラウザコンプっていうものと、
フロンティアマスっていうようなベンチマークも紹介していきたいんですけど、
ブラウザコンプはウェブ調査力を見るベンチでして、
検索すれば出る情報ではなく、
見つけにくい情報をウェブ上から探し出せるかっていうのを見るテストです。
ブラウザコンプはGPT 5.4が82.7%から5.5が84.4%ということで、
ちょっと上がったねっていう感じですね。
このベンチはやっぱりプロモデルがものすごく強くて、
GPT 5.5 Proだと90.1%まであるので、かなり差がありますね。
クロードオーフパス4.7どうなのかっていうと、これが79.3%。
Gemini 3.1 Proが85.9%なので、このブラウザコンプというベンチでいうと、
GPT 5.5 Proが最も最強と。
見つけにくい情報をウェブ上から引っ張ってきたい、調査したいとなったときは、
やはりGPT 5.5 Proを使うと非常に強い出力が返ってくるということですね。
その次がGeminiなんですよ、実は。
Gemini 3.1 Proが85.9%なので、かなり強めです。
さすがのGoogleといったところですよね。
そしてクロードオーフパスはその下の79.3%というところなので、
こういうウェブ上から引っ張ってくる系はGemini GPTの方が強いということですね。
そしてフロンティアマスっていうのが、
研究レベルの数学問題を見る最難関係ベンチと呼ばれているもので、
めちゃくちゃ難しい数学をやらせるっていうやつですね。
このベンチがGPT 5.4が27.1%だったんですけど、
5.5でなんと35.4%とものすごい能力が上がってるんですよ。
クロードオーパス4.7どうかっていうと22.9%なので、
数学の強さは明らかにGPTモデルの方が強いですね。
なので全体的にやっぱりオーパス4.7を超えてきているようなタスクなんですけど、
唯一負けている点でいうと実リポジトリの修正、コーディング能力っていうところですよね。
単一のコーディング能力っていう方が正確ですかね。
なので総合評価としてはGPT 5.5っていうのはエージェントライク、
いわゆるワークフロー長めのタスクっていうのを保持して、
ツールを使って作業をゴリゴリ進められる、
結構頼もしいやつっていうようなイメージですね。
なので後ほどちょっとお話ししますけど、
モデルの使い分けっていうのは今後非常に重要になってきます。
では次にGPT 5.4との比較をちょっとお話ししたいんですけど、
一番大きい改善点はベンチマークのお話をした通りですね、
タスクの保持力ですね。
つまり長い作業の中で最初の目的や制約条件っていうのを忘れずに、
一貫して作業できる力っていうのが大きな改善点かなというところです。
そのためOpenAIのGPT 5.5のガイドがあるんですけど、
これには成果物、成功条件、制約、利用できる文脈を定義し、
モデルに進め方を選ばせるプロンプトが有効だというふうに説明されてるんですね。
なのでこちらがステップバイステップでこうやって進めてねっていうのは逆にノイズになっちゃうらしくて、
今回5.5ではその進め方自体はモデルに選ばせるようにして、
最終の成果物、アウトプットっていうのを明確に定義した方が
良いアウトプットが出てくる、出力が出てくるということらしいです。
なのでOpenAIはこうした考え方をアウトカムファーストプロンプトスっていうふうに言っていて、
成果物起点のプロンプトというのを推奨しています。
ただですね、ここで重要なのはゴールを明確にするプロンプトっていうのは別に新しいことではなくて、
もう昔からよく使われているプロンプトです。
いわゆるゴールシーク型のプロンプトって聞いたことあるかもしれないんですけど、
目的とか成功条件を明確にするとAIの出力が良くなるっていうような魔法のプロンプトがあるんですけど、
これはほんのり全然違うんですよ、この目的を設定するかしないかで。
5.5で何が違うのっていうと、そのゴールを渡した後の話なんですね。
ゴールシーク型のプロンプトを使うとアウトプットが良くなるんですけど、
さらに良くなるみたいなイメージですよね。
もともとやっぱりタスクが長くなるとコンテキストが増えちゃうので、
途中で目的忘れちゃったりとか、制約抜けてしまったりとか、
さっきも言ったじゃんみたいなイライラポイントですよね。
LLMのあるあるイライラポイントですよね。
あれがかなり良くなったっていうようなイメージです。
なのでプロンプトを組むときはですね、目的、成功条件、制約、検証観点、
ここまで渡した方が性能は出やすいということですね。
なので単発回答で評価するというよりかは、
長い業務フローの中に入れたときに初めて価値が出やすいモデルだと思います。
では実際海外コミュニティの評価どうなのかっていうところをお話ししていきたいんですけども、
実は結構高評価でして珍しく、珍しくっていうのはあれですけど、
やっぱりGPTすごいねみたいなのはよく出てきますね。
クロード一挙だなみたいな雰囲気を覆してきてくれた感じはありますよね。
どういった点が評価されているかというと、
やはり長いタスクでの安定性、さっきも言ったような内容ですね。
ここが高くて、OpenAIの公式ページとか見てもですね、
AIエディターのカーソルはGPT 5.5について、
GPT 5.4より賢く、粘り強く、コーディング性能とツール利用が強く、
長時間の作業で早く止まりにくいというふうにコメントしていたり、
NVIDIA側のコメントもありまして、
GPT 5.5は実行負荷の高い作業に必要な持続性能がある。
自然言語プロンプトからエンドツーエンドの機能開発を進められるというような評価が出ていますね。
何で言えば、ベンチマーク通り長い持続性のあるタスクに非常に強くなっていると。
とはいえ、いい評価ばっかりもあれなんで、
ちょっとネガティブコメント拾っていくと、
劇的に違うのかちょっとわかんないよねとか、
価格やトークン消費気になるよねとか、
こういう声もあるので、ちょっと価格を見ていこうかなと思うんですけど、
GPT 5.5はですね、API価格100万トークンあたり5ドルでして、
出力100万トークンあたり30ドルと、そんな安くないんですよね。
これ5.4と比較するとわかるんですけど、
100万トークンあたり2.5ドルで、出力が15ドル。
つまりですね、入力も出力も2倍価格差あるんですよ。
2倍ですよ。まあまあありますよ。
なのでここで大事なのは、5.5を常用モデルとして見るべきかどうかっていうところなんですけど、
正直短いコード修正とか、簡単な要約とか、定型的な業務処理とか、
比較的長くかかるようなタスクでなければ、
GPT 5.4で十分な場面の方が多いんじゃないかなと思います。
なぜなら5.5にしても価格は2倍になるけど、
短いタスクでは差が出にくいっていうところですね。
やはりエージェント機能に振っちゃってるんで。
なので短いタスクを雑に使うだけだと、ただただ高いだけになっちゃうので、
5.4を基本的にコスト抑えで使っていって、
長い作業とか複雑なワークフローとかで、
試行回数を減らして回収していくのが5.5かなというふうに思います。
オープンAIも公式に5.5は5.4と比べて、
より少ないリーズニングトークンで、
強い結果に到達しやすく、
ツールを使う複数ステップのワークフローで、
効果が出やすいとされているというふうに言ってるので、
5.4だと結局最初に言ったことを忘れちゃうから、
試行回数増えるよねと。
でも5.5は長いタスクに強くなってるから、
試行回数少なくて済む。
だから結果的にこっちのほうが安いよみたいな、
そういうスキルをしているという感じですね。
なので使い分けは結構コスト的な観点で言うと大事かなと思いますね。
では最後、ファクト性能についてお話しして終わりにしたいなと思いますが、
ハルシネーションですね。
ハルシネーションの話で今回使いやすいのは、
WA Omniscienceというようなベンチマークがあるんですが、
これは通称知ったかぶりテストと呼ばれておりまして、
呼ばれているかわからないですね。
僕が勝手に言ってるんですけど、
これはAIがどれだけ事実を知っているかではなくて、
わからないときに無理に答えないというのを見るベンチマークです。
つまり知識量と知ったかぶり体制を同時に見れるコスパのいいベンチマークテストという感じです。
このベンチマークは6000問42トピックを横断して、
モデルが事実を正しく答えられるか、
わからないときに無理に答えずに、
危険できるかというのを見ると。
これは情報検索を使わずに、
シンプルにモデルの学習量だけで勝負しているということです。
そして大事なのがですね、
モデルには正解を評価し、
ハルシネーションを罰し、
危険にはペナルティを与えないというような指標で指示をしていると。
このペナルティを与えないよというのはすごい大事ですね。
公平性が保たれているようなベンチマークです。
この数値がですね、非常に驚異的でして、
驚異的というか驚くポイントなんですけど、
今回GPT 5.5のまず正答率57%なんですけど、
これは正答率としてはかなり高いんですね。
ただですね、ハルシネーションレート、
さっき言ったしったかぶりをどのくらいするかっていうパーセンテージ、
これ皆さん何パーセントくらいだと思いますか。
ちょっと考えてみていただきたいんですけど、
なんと答えはですね、
86%ということで、
ものすごくしったかぶりします。
エグいですよね。
これもしたずけがいたらたずけさんくらいしったかぶりしますねって、
多分ボケてると思うんですけど。
ただこれは全回答の86%が嘘というような意味ではなくて、
論文ではハルシネーション率を正解できなかった質問に対して、
危険や部分回答ではなく誤答した割合と定義しているので、
答えられないなっていうものに対して答える。
いわゆる知ったかぶりですよね。
やっぱり知ったかぶりの割合が86%だったっていうことです。
知ってることに対しての知識量もものすごくあるんですよ。
57%なんで結構答えられるんですよね。
なんですけど、残りの43%に対しては86%で嘘をついてくるということですね。
そしたらおいおい、ハルシネーション全然改善できてないんじゃないかと思うんですけど、
これOpenAIのシステムカードだと5.5は5.4と比べて、
個別視聴の正確性は23%改善したよと、
そして回答単位では3%減少したよというふうに説明されてますので、
若干正確性は上がっているということです。
この個別視聴というのはどういうものかというと、
回答の中に含まれる検証可能な事実のことを言っていて、
例えばGPT 5.5は4月23日に発表されましたというように言ったと思うんですけど、
この4月23日という検証可能な事実ですよね。
に対してのこの視聴単位では23%正確になっていると。
ただし5.5は1回の回答で、4月23日でターミナルベンチが82.7%で、
SWEベンチワンみたいな感じで、いろんな事実視聴が入りますよね。
なのでこのいろんな事実視聴が入るから回答全体としては3%ぐらいしか減っていないと。
なので細かい事実の精度自体というのは上がってはいるんですけど、
長い回答をまるごと信じていいかという話ではないよということです。
なので僕は5.5自体がどのぐらいハルシネ処理率があるのか調べたんですけど、
最近公開されてないみたいですねこの辺。
多分タスク単位でハルシネ処理率変わるからなのか分からないんですけど、
昔あったんですけどね。
最近はモデルのハルシネ処理率が出ないっぽいですね。
気になるクロードオーパス4.7はどうなのかというとこなんですけど、
これはクロードさんすごくてですね。
もともと4.6の時はハルシネ処理率61%あったんですけど、
4.7になってなんと36%まで下がってるんですよ。
5.5は86%知ったかぶるのに、オーパス4.7は36%しか知ったかぶりしないんですよ。
結構な差ですね。
50%違うから全然違いますよね。
なんで分からない時に分かりませんってちゃんと言えるのは、
圧倒的にオーパスクロードの方が優秀ですね。
なのでChatGPTのこれしかもエクストラハイでって話をね最初にしたと思うんですけど、
一番いいモデル使ってこれなんで、
普通のモデル、無料ユーザー向けのモデルとか、
もう結構ヤバそうだなって感じはしますよね。
だから個人的なこれは主観ですけど、
OpenAIは今回エージェントライクのワークフローにすごい降ってきたなと思って、
課金ユーザー向けにかなり強くしてくれた感じはしますよね。
無料ユーザー向けの性能っていうのは多分そんなに変わらないだろうなと思うので、
ChatGPTを課金しないで使っている人からすると、
何が変わったんっていう風になると思いますね、これは。
もうこれは課金してコーディングとかもして、
もう業務フローに組み込んで、
もうかなりクロート向けの人に性能アップを提供してくれたというような感じですね。
なのでこういう情報検索とか、
ファクトが重要な部分に関して言うと、
かなり無理をしてくるので、5.5は。
ちゃんとこちらから根拠資料っていうのを提示して、
構造化して渡した上で回答させるっていう方が向いてるんだろうなって感じはしますね。
では5.5の話をほとんどしてしまったんですけど、
GPT Image 2の方、正式名称ChatGPT Image 2.0ですね。
APIモデルとしてはGPT Image 2っていう形で出てるんですけど、
GPT Image 2ちょっと話して終わりにしたいと思います。
結論から言うと、ものすごく画像性能をアップデートしたじゃないですか、
ただそれよりこっちもですね、クリエイティブワークフローに近づいたっていうのが結論です。
なのでただただ画像の性能が良くなったよっていうだけではなくて、
これも実業務に使えるようにアップデートされたっていう感じです。
例えば広告とかSNS投稿とか漫画とか図解とかUIモックとか商品画像とか色々あるじゃないですか、
これの実際の制作工程に近づいてるっていう形で、
オープンAIの開発者向けのドキュメントにクックブックっていうものがあるんですけど、
レシピ集みたいな感じですね。こんな風に使ってくださいみたいなのが公式から出てるんですけど、
そこにはですね、今言った広告とかUIモックとか、そういうのを使う前提のプロンプトが紹介されてるんですよ。
だから日本語の漫画ページとか宿泊施設向けの広告とか、キャラクターの設定シートとか、
そういうのが色々提示されてるんですよね。
より業務に耐え得るモデル、画像生成モデルを作ってきたという形ですね。
クックブック見るとわかりやすいんですけど、プロンプトどういうものを使ったらいいのかっていうのが、
構造と目的を入れて、意図と制約が明確なテンプレートを優先してくださいっていう風に書いてあるんですね。
つまりどういうことかっていうと、制作物の目的とかターゲットとか、トーンとか制約条件とか、
最初の設計書みたいな感じですよね。発注書みたいな。
こういうのをクリエイティブブリーフという風に言われるみたいなんですけど、
このクリエイティブブリーフが非常に重要だと。
例えば、B2B向けのウェブ広告用です。対象は経営者です。
テーマはAIによる業務自動化。
トーンは先進的だけどSFっぽくしない。もちろん量は少ない。
みたいな感じでブリーフをしっかり作るというところですね。
先ほどのクックブックには、広告クリエイティブにおいて、
画像内テキストは正確な文言、配置、フォントスタイルまで指定する必要があるという風に説明されていて、
さらに文字の精度が不十分な場合はレイアウトや文言を調整しながら反復をしてくださいねという風に推奨されていると。
ただ文字に関してはものすごく良くなりましたよね。
やっぱりナノバナナプロとかでも解決できなかったような文字分け、日本語は特にそうですね。
小さくすればするほど文字分けしてたんですけど、これがもうかなりなくなりましたね。
相当実務に耐え得るレベルになったなとは思います。
ということで、こちらも設計能力が重要になってきたというところですね。
デザイナーさんが使ってちゃんとお仕事に発揮できるようなモデルというところで、
単にすごい画像が作れるようになったっていう話ではなく、
この画像生成が実際の制作現場で使うためのツールに近づいたというのが大きなポイントかなと思います。
ということで、今日のお話を整理させていただくと、
重要なのはモデル単体の性能に固執しないというのがこれからすごく大事になってくるんじゃないかなと、
これまでも大事だったんですけどね、より顕著になってきているなと思います。
なぜなら、ベースの性能というのはもうかなり上がってきてますし、まだまだ上がると思いますし、
なってきた時に特徴っていうのが出てくるじゃないですか。
大事なのはワークフロー設計ということになってくるので、
開発において言うならやはり設計とか単体のコーディング能力というのはオーパスの方が高いので、
オーパスに設計とかレビューとかこの辺を任せると。
ただ実業はコーデックスに長いタスクとして渡して走り切ってもらうという形で、
UIモックだったりとか画像系に関してはGPTイメージ2を使っていったりなどなどですね、
こういうワークフロー、どのタスクをどのAIにどの流度で渡していくのかっていうのをしっかり設計していく。
この設計ができるっていう人がAIが使えるというふうになっていくと思うので、
ただただAI使えるだけっていうのが差別化に全然ならなくなってきたなと本当に思いますね、ここ最近は。
AI使ってるのは当たり前すぎた世界になりましたよね。
もう2年前全然こんなんじゃなかったんですけどね。
だから最近では僕もAIの発信をずっと続けてきてますけど、
AIを喋るなんてことはもう誰でもできるようなことになったんだなとも思いますし、
自分がAIの情報を発信する価値って何だろうとか考えますからね、普通に。
調べればハルシネーションは全然出ますけど教えてくれますし、
別にそんなに知らないよっていう人でもそれっぽく喋れるし、
あとは本当にすごい専門家の人が発信もするようになったしっていうところで、
やっぱりそのAI単体が使えるからどうのこうのとか、知ってるからどうのこうのとか、
そういうフェーズじゃもうやっぱなくなってきたなというふうには感じていて、
オープンAIだったりとかアンソロピックが今注力しているようなこのエージェントのワークフローであったりとか、
こういった部分に適応できていく人っていうのがやっぱり価値が出やすいよなっていうふうには思うので、
僕も実務でどれだけAI使えるかっていうのにもっとフォーカスしていくべきだなと。
その結果を皆さんに伝えていくっていうのが初めて価値になっていくんじゃないかなっていうふうに思うので、
そういった配信をちょっと心がけていきたいなとは思うんですけども、
ひとり語りしんどいっすね、これは。
もう別物ですよね、人がいるのといないのでは。
やっぱ聞き手の人がいると、何て言うんですかね、
僕が喋ったことに対して質問が飛んできてくれるから、それに対してわかりやすく話せるじゃないですか、噛み砕いてくれるというか。
ひとり語りってそれを想定した上で聞き手の分の役割も自分でやらないといけないっていうのもあるんで、
ごめんなさいね、もう全然AIの話関係なくなっちゃいましたけど、ひとり語りしんどいなと思ってます。
なので、そういう配信を心がけていきたいなとは思ったんですけど、やっぱ聞き手は欲しいですね、本当に。
なのでちょっとひとり語りしんどすぎるんで、多分もうやらないと思います。
誰かしら巻き込んでやろうと思いますし、より良い配信ができるように、発信ができるように、
僕の実務をちゃんとAIでもっと効率化していくとか、フロー自体を変えるとか、そういったことをもっとやっていきたいなと思ってます。
ということで、本日は以上です。
番組への感想、質問、深掘りしてほしい話題などあればお待ちしています。
お便りホーム概要欄に記載してますので、ぜひ何でも大丈夫です。
お便りください。
お便りがあると元気が出ます。
そして、AI未来話の番組のフォローとレビューもお願いします。
来週も木曜日に更新しますので、通勤通学の30分に永遠の未来をキャッチアップしていきましょう。
それでは本日もありがとうございました。