1. Recalog
  2. 208. 2025/05/25 寒天テープで..
2025-05-25 00:00

208. 2025/05/25 寒天テープで束ねる溶ける乾麺

spotify apple_podcasts youtube

以下のようなトピックについて話をしました。

01. NotebookLMの音声概要機能で資料を耳から学習

NotebookLMは、Googleが提供する新しいAIノートサービスで、アップロードした資料をAIが会話形式で音声解説してくれる「音声概要」機能が注目されています。長い資料や専門的な内容も、耳から手軽に理解できるのが特徴です。

使い方は簡単で、NotebookLMにログインし、資料をアップロードしたら「音声概要」ボタンをクリックするだけ。AIが自動で内容を分析し、2人のAIによる会話形式の音声解説を生成します。2025年4月のアップデートで日本語を含む50以上の言語に対応し、さらに使いやすくなりました。

料金プランは無料プランとNotebookLM Plus(月額2,900円)の2種類。無料プランでも基本的な機能が使えますが、Plusではノート数やアップロード容量、質問回数が大幅に増加し、高度な分析機能や音声概要も利用できます。

通勤中や家事の合間など、ながら作業の時間を活用して、学習から仕事、趣味のインプットまで幅広く活用できる音声概要。ぜひ試してみて、新しい情報収集のスタイルを見つけてみてください。

02. AnthropicのAPIに4つの新機能が追加

Anthropicは、開発者がより強力なAIエージェントを構築できるようにするために、Anthropic APIに4つの新機能を発表しました。

  1. Code execution tool:Claudeがサンドボックス環境でPythonコードを実行し、計算結果とデータ可視化を生成できるようになります。これにより、Claudeはコード作成アシスタントからデータアナリストへと進化し、財務モデリング、科学計算、ビジネスインテリジェンス、ドキュメント処理、統計分析などのユースケースに対応できます。

  2. MCP connector:開発者はクライアントコードを記述することなく、Claudeを任意のRemote MCPサーバに接続できます。APIリクエストにRemote MCPサーバのURLを追加するだけで、強力なサードパーティ製ツールにすぐにアクセスできます。

  3. Files API:開発者がドキュメントを保存およびアクセスする方法を簡素化します。ドキュメントを一度アップロードすれば、複数の会話にわたって繰り返し参照できるようになります。

  4. Extended prompt caching:プロンプトキャッシュの有効期間を標準の5分間から1時間に延長できるようになりました。これにより、長時間実行されるエージェントワークフローのコストを削減できます。

これらの機能はすべて、Anthropic APIのパブリックベータ版として利用可能です。

03. 数字を等幅化した帳票UDPゴシック

「帳票 UDPゴシック」は、モリサワの「BIZ UDPゴシック」をベースに、数字(0〜9)のみを等幅にしたフォントです。「BIZ UDPゴシック」では、数字の1だけ幅が異なっていましたが、「帳票 UDPゴシック」ではその1の幅を調整し、数字全体を等幅にしました。これにより、「BIZ UDPゴシック」の特徴を保ちつつ、帳票などで数字を揃えやすくなりました。「BIZ UDPゴシック」の約99.99%のグリフはそのまま使用しており、変更点は最小限に抑えられています。このフォントは、GitHub からダウンロードできます。また、同様の調整を加えた「帳票 UDP明朝」も公開されています。

04. 空孔コアファイバで次世代通信に挑む

次世代の大容量高速通信を実現するため、古河電工とグループ会社が協力して革新的な「空孔コアファイバ」の開発に取り組んでいる。空孔コアファイバは、ファイバのコア部分を空洞にすることで、遅延時間の短縮、ハイパワーへの耐性、究極の低損失という3つのメリットを持つ。

開発には、アメリカのOFS社やハンガリーのFETI社など、グループ・グローバルでの連携が不可欠だった。ケーブル化や接続技術の確立には多くの課題があったが、既存技術と斬新な発想で乗り越えてきた。慶應義塾大学や電気通信大学との共同研究でも高い評価を得ている。

実用化に向けては、さらなる技術の改良や最適化、量産性の向上など、まだ多くの挑戦が残されている。古河電工グループは、この革新的な技術で次世代通信の実現を目指す。

05. 寒天テープで束ねる溶ける乾麺を開発

岡山の製麺会社が、乾麺を束ねる際に使用する紙やビニールのテープを寒天で作った「エコらく麺」を開発しました。このテープは麺をゆでる際に溶けてなくなるため、手間が省け、ゴミも出ません。

開発のきっかけは、毎年顧客から寄せられていた「そうめんの帯がとりにくい、何とかならないか」という声でした。日本で年間に作られる乾麺は約15億束で、それに使用されるテープをつなげると地球25周分にもなります。

現在は細めの手延べうどんのみに寒天テープを使用していますが、今後はそうめんなど他の麺にも適応できるよう研究を続けていくとのことです。

この「エコらく麺」は、クラウドファンディングで目標金額を達成し、好評を博しています。流通大手からも問い合わせがあり、普及すれば革命的な商品となりそうです。岡山手延素麺株式会社は、顧客の声を大切にした商品開発を続けていきたいと述べています。


本ラジオはあくまで個人の見解であり現実のいかなる団体を代表するものではありません
ご理解頂ますようよろしくおねがいします

サマリー

このエピソードでは、生成AIの最新技術や宇宙開発における新たな挑戦を探求しています。具体的には、AIの幻覚問題や日本のアイスペース社による月着陸の取り組みが取り上げられています。また、生成AIの新機能であるCode Execution ToolやMCPコネクタ、ファイルズAPIの進化について詳しく紹介されています。さらに、アンソロピック社のビジネスユースにおける影響力や新しいキャッシュ機能の展望にも触れられています。 次世代の光通信技術として注目される空港コアファイバの開発に関する話題が取り上げられています。この技術は通信速度の遅延を減少させるだけでなく、高パワー耐性や低損失といった利点を有しています。 岡山テノベそうめん株式会社と稲食品工業が共同開発した寒天テープについても注目されています。このテープはお湯に入れると溶けるため、従来のプラスチックテープの不便さを解消し、環境への配慮も期待されています。また、寒天テープを使用した溶ける乾麺の可能性や、麺の調理方法についての議論も行われています。

生成AIの課題
スピーカー 1
生成AI楽しんでますか?
スピーカー 2
うーん、最近はあまり触ってないですけど、どうですか?
スピーカー 1
あんまりまだ日常に進出してきてない感じですかね。
スピーカー 2
うーん、そうですね。私の、ちょっと時代に取り残されそうですけど。
スピーカー 1
使わないとヤバいですよ。生成AI、
まあ、多くの会社でですね、生成AIは今、非エンジニアに使わせることが寛容であるっていう動きがすごい増えてるから、
エンジニア以外とか、日常的にAIを使ってるか使ってないかで結構変わるんで、頑張ってついてきてくださいね。
くださいねって、どういう目線で言ってるんだって感じだけど。
スピーカー 2
AI目線。
スピーカー 1
AI目線。
スピーカー 2
AI目線で言ってますけど、まあまあそれはそうですねとは思いますけど。
スピーカー 1
はい、まあそんな生成AI、今もいろいろ楽しいものが増えてるんですが、
その中でもちょっと知っておいてほしい面白いものがあったんで紹介します。
スピーカー 2
はい。
スピーカー 1
これはnotebook LMの音声出力機能です。
まあ、聞いた方が早いと思うので、ちょっと先週のポッドキャストを題材に音声出力させてみたので、
ちょっとそれ流してもらおうかなと思います。
スピーカー 2
はい、じゃあ流します。
スピーカー 1
はい。
さて、今回掘り下げていくのはAI技術、特に顧客サポートでの課題と、それから宇宙開発の最前線ですね。
はい。
エンジニア同士の会話とか技術ニュースを元にその革新に迫っていこうと思います。
はい。
AIのサポートの話は技術の可能性と、まあ堅実的な難しさも両方見えて非常に興味深いですよね。
ですよね。宇宙開発も民間がどんどん出てきて新しいステージに入ってる感じがします。
ええ。
じゃあまずはそのAIの話から。
これちょっと驚きの事例なんですけど、
はい。
エネスピアっていうAI開発企業がですね、自社のコードエディターカーサーのサポートにAIを導入したんです。
スピーカー 2
ふむふむ。
スピーカー 1
そしたら、そのAIがなんと存在しないポリシーをデッチ上げて、ユーザーにそれは使用ですって回答しちゃったと。
ああ、それは。
しかもサムっていう実在しない担当者の名前まで名乗ったらしいんですよ。
まさにあの、AIのハルシネーション、幻覚って言われるやつですね。
あ、やっぱりそれですか。
ええ。AIがまあ、技術じゃないんだけどそれっぽい情報を生成しちゃう。
現状の技術、特に大規模言語モデルだとこれを完全にゼロにするのは、うーん、かなり難しいんですよ。
なるほど。
特に顧客対応みたいにこう、正確性が絶対求められる場面で、AIだけでやらせるリスクがまあ見えちゃった形ですよね。
元にしたエンジニアたちの会話でもそういう話が出てましたね。
現場はAIの限界わかってるんだけど、でもビジネスサイドは効率化とかコスト削減を期待しちゃって導入を急ぐみたいな。
ああ、それはよく聞く話ですね。この認識のギャップって結構根深い問題じゃないですか。
そう思います。もちろんAIの応答をコントロールする技術、例えば特定の文章だけを参照させるRAGとかありますよね。
はいはい、検索拡張生成。
ええ。あとは、わからないことはわかりませんって正直に言わせるとか、不適切な回答を防ぐフィルターとか、そういうのはあるんです。
うーん。
でもどれも対象両方というか、根本解決にはまだ至ってない。
エンジニアの感覚からすると、まだ一人で任せるのはちょっとっていうのが正直なところでしょうね。
でも導入は進んじゃうわけですね、コスト削減の圧力で。
まあ、そういう側面は強いでしょうね。
うーん、難しいですね。コスト削減は確かに魅力ですけど、一回こういうことがあるとユーザーの信頼を一気に失う可能性も。
そうですね。
でもソースの会話にもあったように、複雑な問い合わせだと人間が対応しても結局調べますって待たされることも多いわけで。
ええ、それも事実ですね。
どこまでAIのこの不完全さを受け入れるべきなのか、このトレードオフどう考えますか?
いやー、非常に悩ましい問題ですね。ただおっしゃる通り、人間だって万能じゃない。
結局はそのAIのご情報のリスクと、それがビジネスとかブランドイメージに与えるダメージ、これをコスト削減効果と点明にかけるしかない。
なるほど。
最終的にはその企業とかサービスがどこまでのリスクを許容できるかっていう経営判断になるんでしょうね。
宇宙開発の進展
スピーカー 2
なるほどな。
スピーカー 1
AIの課題が見えてきましたが、次は全然違う分野、宇宙に目を向けましょう。
はい。
日本のアイスペース社、月着陸船レジリエンスが無事に月周回軌道に入ったと。
ええ、これは嬉しいニュースですね。前回のミッション1では着陸に失敗しましたから。
スピーカー 2
ええ、暗い経験がありましたね。
スピーカー 1
その教訓を生かして、今回はより効率的な軌道を選んだんじゃないか、みたいな話も出てますね。
6月上旬の着陸、成功してほしいです。
本当にそうですね。民間にとっては大きな一歩になりますからね。
一方でJAXA、クギのH3ロケットも次のステップに進んでるんですね。
はい。次はH30っていう、ちょっと違う構成での燃焼試験が予定されてるんです。
スピーカー 2
H30。
スピーカー 1
ええ。これは補助の個体ロケットブースター、SRBって呼ばれるやつですね。
これを使わずにメインの液体燃料エンジン、LE9を3機だけで打ち上げる構成です。
ああ、ブースターなしでエンジン3機だけで。
そうです。これまで成功しているH32-2Sは、エンジン2機にブースター2本でした。
この30っていう形態が部品点数が一番少なくて、コストを下げるための鍵になる構成なんですよ。
へえ。シンプルになる分コストも下げられる。
スピーカー 2
でも、エンジン3機だけで飛ぶのって技術的に難しい点とかあるんですか?
スピーカー 1
液体燃料エンジンって個体ブースターに比べて推力の調整とかが複雑なんです。
特に3機のエンジンの出力を完璧にシンクロさせて、機体全体のバランスを精密に制御しないといけない。
スピーカー 2
ああ、なるほど。
スピーカー 1
ちょっとでもずれると機体が不安定になるリスクがあるので、この低コスト形態を実現するためのすごく重要な試験になりますね。
なるほど。
技術の不完全さとリスク管理
スピーカー 1
それに加えて、前回の打ち上げで課題になった搭載する小さい衛星への衝撃を和らげるみたいな改良も進められているようです。
なるほどですね。今回はAIの実用面でのリアルな課題と、それから宇宙開発の着実な挑戦、両方見てきました。
AIの幻覚の話も、ロケットの複雑な制御も、やっぱり最先端の技術には常に乗り越えるべき壁があるんだなと。
そうですね。これ面白いのは、AIサポートの問題もロケット開発の難しさも突き詰めていくと、複雑で予測が難しいシステムをどうやって制御してリスクを管理するかという点で実は共通しているんですよね。
ああ、確かに言われてみればそうですね。
技術はどんどん進化しますけど、私たちはその不完全さとどう向き合っていくのか、どこまでのリスクを受け入れる覚悟があるのか、これはAIとか宇宙に限らず、あらゆる先端技術に関わる私たち全員への問いかけだと思うんですよ。
なるほど。
これから皆さんが新しい技術に触れるとき、その便利さの裏にあるリスク管理についてちょっと立ち止まって考えてみるのも面白いかもしれませんね。
スピーカー 2
はい、という感じで。
スピーカー 1
どうでしたか?聞いてみて、まず。
いや、私らもういらんですねっていう感じですけど。
いらないですね。
いらないですね。
私たちのソースがあってこそというのはありますが。
スピーカー 2
まあでも30分、1時間ぐだぐだ話したのを6分ぐらいにまとまってますからね。
人間よりよほど効率がいい。
スピーカー 1
そうですね。
これ出すのにめちゃくちゃ苦労したかというと全然そんなことなくてですね。
前回のPodcastのMP3ファイルを普通にNotebook LMっていうGoogleが出してるセセアのウェブサービスに放り込んでですね。
音声概要を作ってってワンクリックするだけでこれが出てくるっていうような感じです。
その出す時にちょっとだけカスタマイズというかプロンプトを出すみたいなことができて。
関西弁風に喋ってとかちょっとしたことを言えるようになってるんですけれども。
特に何も気にせずポチッとやっても全然OK。
このレベルが出てくるっていうのがまずすごく良くて。
Podcast形式って言われるようなその対話形式ですね。
が出力フォーマットになってるのも結構聞きやすくてですね。
誰かが話してる対話を横から聞いてるってすごく受け止めやすいというか理解が進むフォーマットだなっていうのがあるので。
こういった出力形式をAIがサポートしてきたっていうのは非常に大きなところかなと思いますし。
単なる要約だけじゃなくて今後のことについても最後1分くらいで触れてたと思うんですけど。
その辺がですね。
読むだけじゃなくて自分がどういうふうに考えたらいいかなみたいな思差にもつながったりもするので。
単なるその情報の取得以上の体験ができるようなアウトプットが出てるなということで結構面白いと思って紹介しました。
スピーカー 2
はい。ご意見ごもっともですねという感じで非常に面白いかなと思ってますけど。
そうですね。最後のまとめに関してはちょっと難しいなというところもあるなと思ってて。
あれを言った記憶はないんですよね。
スピーカー 1
言ってないです。
スピーカー 2
そう。なんで言ってないことを勝手に言うなと思いながら聞いていたので。
それが良い面でも悪い面でもある。
要約したことによって一般的な新しい資座というものを得ているというのは非常に素晴らしいことなんですけども。
作者の意図していない発言っていうのをAIがしてしまう可能性があってそれは制御次第かなという感じはありますね。
そうですね。
このレベルだったら全然うちらとしては問題ないんですけども。
勝手に誹謗中傷を言い出したりするとちょっと問題があったりしますので。
そうですね。
というところですね。
あと技術的に細かいところで言うと結構自分の感じ方で面白かったなというのが非常に発音が良い。
発音が良くて、えっとみたいなのであまり淀まない。
非常にアナウンサーチックなんですよね。
スピーカー 1
そうですね。
スピーカー 2
アナウンサーチックなんですけど、自分が気にして聞いているからというのもあるんですけど、
アナウンサーと違うようなテンポで話すのでそこが気持ち悪いなという。
結構早口だったりとか、あと相手の応答を受けるような話し方だったりっていうのがあって、
ちょっとなんかそこら辺気持ち悪いなというところ。
スピーカー 1
そうですね。
スピーカー 2
そうですね。
日本語は99%正確だったのは素晴らしいなというところ。
多少ちょっとなんか2、3文字間違えてたかなと思いますけど、
全然聞こえる範囲だったなというのは素晴らしいですね。
スピーカー 1
そうですね。
スピーカー 2
あとごめんなさい、一つ面白かったのが、
相手に発言のボールを渡して、それで文章を完全させるみたいな、何て言うんでしょうね。
小説というよりは漫画のような話し方を一部していたところがあって、
スピーカー 1
一回文章に起こさないとそういうのは人間に発説し得ないので、
スピーカー 2
内部処理がちょっと面白かったなというところはありましたね。
スピーカー 1
多分片方が喋る時間の制限があるんだと思いますね。
スピーカー 2
なるほどね。
スピーカー 1
その辺はでももしかしたらラジオ系のノウハウかもしれないですね。
パーソナリティが2人いるときに1人のパーソナリティだけが話し続けないようにするための工夫というか。
スピーカー 2
確かにそれはありそうですけど、
なんかちょっともう一回聞いてみたらわかるんですけど、
変なところで体言止めしてそれを受けて話し続けるみたいな状況になってたんで、
人間だとあまり発声し得ないかなと思いますけど。
スピーカー 1
あとは多分その辺のラジオフォーマットが、
おそらくは海外のポッドキャストとかを学習データにやってると思うんで、
ちょっとその辺のテイストが、
スピーカー 2
はいきなじみがないっていうのはあるかも。
確か。
生成AIの新機能
スピーカー 2
まあでも本当にこれが喋らせるんだったらもう人間いらないかなってレベルですので。
スピーカー 1
そうですね。
少なくとも自動音声出力とか読み上げっていうことに関しては、
もう1000は超えてるかなというのは思いますね。
スピーカー 2
そうですね、はい。
まあ一方でちょっと細かいところで。
スピーカー 1
はいはい。
スピーカー 2
まあ30形態を30形態って言ってたりみたいな。
スピーカー 1
はいはいはい。
スピーカー 2
特殊な用語とかはやっぱり人間の手で直したりする必要があるところだと思うので、
やはりまあ人間が手をつけるとしたらチェック機能なのかなという印象を受けましたね。
スピーカー 1
そうですね。
まあこれを踏まえたから、
じゃあ明日からニュース聞くのは全部ノートブックLUMに投げようとかそんな気にはまだならないんですけど、
ただまあさっき冒頭で言ってた通り、
1時間のグダグダしたやつを6分で聞けるんだったら、
それはそれでコンテンツ消化としてはありっていうコンテンツも全然あると思うので、
そういったところで使えるといいんじゃないかなと思ってて、
入力ソースは今回音声ファイル使いましたけど、
当然テキストファイルもできますし、
YouTubeのリンクみたいなのもできますので、
まあちょっと張着すぎるYouTubeの動画をまとめて見るとかでも全然できるんじゃないかなと思いますし。
スピーカー 2
3分で分かるなんちゃらかんちゃらとか。
スピーカー 1
そう。
あと何がいいって、
言語変換がされるんで、
スピーカー 2
元の動画とか元のコンテンツの言語に左右されないんですよねこれ。
なるほどね。確かにそれはいいですね。
スピーカー 1
日本語で出してって言えば日本語で出てくるので、
技術的な英語の解説記事とか、
TEDみたいな登壇系のプレゼンみたいなやつとか、
そういうYouTube動画もソースとして取り込めるので、
その辺も非常に楽しいですね。
スピーカー 2
確かに。それで耳で聞き流せるっていうのはかなり時間の有効活用ができて良さそうな感じがしますね。
スピーカー 1
そう。英語のYouTubeを聞きながら頭の中でその英語の処理しつつ字幕をかけつつっていうと、
その日本語の記事とか読んでるよりも深く思考しきれないところがあると思うんで、
そういったものに対してはこっちの方が受け止められる情報量が増える可能性があるかなと思います。
スピーカー 2
はい。非常に有用ですね。
スピーカー 1
追加の機能の話を少しします。
現状日本語ではサポートされてないんですけれども、
有料版の英語モードではインタラクティブモードというものが使えます。
このインタラクティブモードがかなりすごいと話題になっていてですね。
この音声、喋ってくれてたのは音声ファイルを落としてきてそのまま再生してるんですけど、
このプラスのモードになると音声出力途中で割り込めます。
なので音声を聞き流していて、なんだそれって思ったら、ちょっと待ってそれについてこういうこと聞きたいんだけどって言ったら
2人の話を止めてくれて、そのことについてはこうだよって2人の人が話を変えながら喋ってくれます。
スピーカー 2
わー怖い。
怖い。
なるほど。
スピーカー 1
もうなんか結構SFチックな感じですけど。
はい。
はい。っていうところができるので、
日本語に対応しないとちょっとね日本人的にはしんどいですが、
母国語英語の人にとってはですね、理解が深まるだけじゃなくて、
それこそ大学の先生に聞くなかのようなトーンで聞いたりできるっていうことがあるので、
自己学習能力は非常に高まるかなという感じがしますね。
スピーカー 2
そうですね。やってることは確かにその音声入力をテキスト化して処理してテキスト化したのを喋らせてるだけなんで、
現状で主流となってるチャット式のAIと一緒だというのは頭では理解するんですけど、
スピーカー 1
そうですね。一緒ではありますね。
一緒ではありますけどというところがあるんで、そこの接続性も含めてなかなか面白いですね。
こういう出力形式が登場してきたことで、今年1年はだいぶ生成AIの経路がいろんなソリューションとかアプリケーションのほうへの強化というのが進んでいきそうだったので、
ここでちょっと紹介できたらよかったなと思って持ってきました。
はい。
では1件目は以上で、2つ目がまた生成AI関係なんですけれども、
私が推しのアンソロピックさん。
スピーカー 2
はい。
スピーカー 1
生成AIベンダーの中でオープンAI社とアンソロピック、あとGoogleが今3大巨頭みたいな感じではあるんですけれども、そのうちの1つですね。
基本的にはオープンAI社から離れた人たちがやっていて、オープンAI社のポリシーにはちょっと乗っかれないよっていうような人たちがやってるところですと。
そのアンソロピックから新しいモデルCloud4が出てきました。
他のベンダーでは結構モデルの本質的な性能としては頭打ち的になりつつ、そのアプリケーションとか他の手段でどんどんシェアを広げていこうとしている中で、
アンソロピックは地道に基礎力を上げていっているということで、非常に生成AI業界でも好感を持って受け止められているような、そんな状況ですと。
そういったアンソロピックから新しくできることっていうのがいくつか提示されてきていたので、紹介しようかなと思います。
ちょっと技術的なところが深いので、もうさらっと流して、そういうのが新しくなってるんだなーくらいでもうサクッといきますけれども。
1つがCode Execution Toolというものです。
今までそのコンピューターユーズみたいなので、生成AIがパソコンをどう動かすかみたいなのをやってくれる機能はあったんですけれども、
それをやってくれる範囲っていうのは結構ウェブブラウザの操作とか、簡単なマウス操作くらいに留まっていて複雑なことはなかなかできなかったし、
当然プログラムの実行なんて権限的にも怖くてやらせられないみたいな感じだったんですけれども、
Code Execution Toolはプログラムの実行もそうですけれども、必要なデータセットの読み込みとかそういったものもできますし、
実行権限の範囲というのも細かく制御できるというようなものになっていて、安全にかつ必要な行動の実行までやってくれるというようなツールになっています。
昔 Code Interpreterというのがあったんですけれども、あれは本当に単にコードを生成できる文章としてコードを作ってそれを実行するというだけのもので、
実行する環境に追加のデータを渡す資格権もなければ、その実行されるコードの安全性についても何も管理できないようなものだったんですけれども、
それが時代進化してきてちょっと別の名前になって出てきたというような感じです。
次がMCPコネクタですね。
これが先日来から話しているMCPなんですけれども、ようやくローカル実行だけじゃなくて、
MCPサーバーというサーバーという名前にちゃんと沿ったような形で、外部にあるMCPにつながるようになりますよというものです。
今までMCPの仕様的にとかセキュリティ的に、ローカルのPC上にMCPサーバーを立てるしかなかったくらいのものがようやくリモートでできるようになりました。
ようやくUSBが有線しか使えなかったのか、Bluetoothでもマウスつながるようになりましたとか、そんなくらいの世界観です。
ただ、プロトコル的にはまだまだレガシーで、USB 2.0にもまだ及ばないくらいのプロトコル成熟度ではあるんですけれども、
重要に応えてこういうのも出てきてますよというくらいです。
次がファイルズAPIで、これは去年度とかまでラグって言われていたもので、
生成AIにファイルを参照させて解凍させるというものなんですけれども、
ファイルの一部を見るとかじゃなくて、本当にファイルに対するアクセス権を持って必要な情報を収集してくるというようなAPIになってます。
なので、例えばあるフォルダの下にその開発に関係するものがいろいろ置かれていたら、
そのファイルの内容とか拡張し合わせて読み方を変えたりしながら参照していくというような、もう少し賢いファイル参照機能になってます。
最後がエクステンドプロンプトキャッシングというもので、生成AIを使えば使うほどいろんなことが自律的にできるよねということになっている中、
効率化とかコストダウンの観点でキャッシュ機能というのが期待されるわけですけれども、このキャッシュ機能の拡張が出てきましたよというところで、
例えば複数ステップの途中の一部分の処理とかも個別にキャッシュしたりとかいうことで、
いろんな自律的に動くAIみたいなのが増えていったときでも効果的にキャッシュ機能するようになりますというアップデートがきました。
これらを見て分かるとおり、アンソロピックは相変わらずビジネスユースというか、
アンソロピックの進化
スピーカー 1
実際に生成AIを組み込んだ商品開発をする人たちにとって期待されているようなものが多くリリースされているので、
今後もアンソロピックの独断上とは言わないですけど、
アンソロピックはビジネスユースにおいてトップシェアを取り続けそうな雰囲気はしているかなというところで紹介でした。
スピーカー 2
はい。盛りだくさんですねという感じですけど、キャッシュの話がちょっと分からなかったんですけども、
アンソロピックのAPIを使う上で、実際に処理するのがサーバーにあります。
そのサーバーで処理した結果というか、実際にAIが動くときの内部処理を今までキャッシュしてたんですけどすぐ消してました。
それを1時間分に延長できるようにできました、という認識でいいんですか?
スピーカー 1
フロントキャッシュはちょっと従来のキャッシュとやっていることが違うので少し複雑なんですけど、
頑張ってかいつまんで言うと、ユーザーは生成AIさんこんなことをしてくださいと言うわけですが、
そのこんなことをしてくださいの中には、1たす2たす3だったら1について調べる、2について調べる、3について調べるというふうに細かく分けられるわけですよね、内容を。
その内容ごとに、生成AIさんが1に関係すること、2に関係すること、3に関係することみたいな関係性という形でこんな呼び出し方があったよねという情報をキャッシュとして残してました。
だから他の人が1について聞いたときは、1について前回答をこんなふうにしたなという情報と、その1っぽいことを聞いたという情報を照らし合わせてキャッシュヒットさせるというような問い合わせのされ方の近さみたいなところでキャッシングしてたような感じです。
今までこのプロンプトキャッシュの関連性の近さを調査する分割単位というのが、ユーザーの入力に対する回答というものしかキャッシュ対象になってなかったし、それが5分の期間しかなかったというのが従来。
今回新しいものになったら、それをユーザーがやってくれって言われたものは実際にはこういうタスク分割されて1個ずつ処理していかなきゃいけないよねということで、ファイル検索やってファイル検索の結果が得られました。
次インターネット検索してこういう結果が得られましたとか、そういう内部のステップごとのキャッシュも残した上で1時間伸びるようになったというような感じです。
スピーカー 2
なので、さっきと同じことしてくださいって言った時により高速に処理できるし、さっきとちょっと違うけど似たようなことをしてくださいって言った時でも処理は分割されてるんで、それも効率的に処理してくれるみたいな。
スピーカー 1
そう、違うところだけキャッシュヒットなしでやってくれるようになる。
スピーカー 2
人間で言うとデータをまとめる時の中間ファイル資料みたいな、そういうのを細かく作ってて、それをより参照しやすくしてくれたという感じですね。
確かに。
スピーカー 1
人間で言うとあんまり資料化というほど適切にキャッシュを使ってくれるかどうか微妙なところもあるんで、どっちかというと新人君とかに、前回の研修でやったここまで一緒でここから次の研修の内容変わるんだよね、だからそこまでやっといてみたいな感じ。
スピーカー 2
うんうんうん、はいはいはい。
スピーカー 1
新人君は前やった研修を記憶頼りでやるけど微妙に違うことやってるみたいなこともたまに起きるじゃないですか。
スピーカー 2
はいはい。
スピーカー 1
ああ、あの状態。
スピーカー 2
はいはいはい。
何せよ、非常に便利になるという話は分かりますけど、かなりあれですね、サーバー側のコストが増える気はするので、それも課金仕様ですという話。
スピーカー 1
そうですね、ただすごいことにですね、アンソロフィックさんこうやって新しい機能をどんどん出してるんですが、モデルの費用ずっと吸い起きなんですよ。
スピーカー 2
おお、素晴らしいですね。
スピーカー 1
オープンAI社が5倍とか10倍とかいう値段で出してきてる中、吸い起きなので。
スピーカー 2
回収できるのかやって、まあそれも初期のオープンAIがやってたことと一緒でね、何て言うのかな、過半を取った者勝ちの世界だから、それを目指してるんでしょうけれど。
そうですね。
スピーカー 1
価格帯で言うと、さっき言った3大グーグルはですね、同等と本人たちは歌ってる性能のモデルをほぼただ同然で出してたりとか、さっきのノートブックLLMとか音声ファイル作るのもただなんで、
そういう別の広告費とかで賄って投資して運用できてるところと価格競争するのもなかなか大変な世界だなと思うんですけど。
スピーカー 2
いやまあ戦国時代が過ぎるので、どうしたものかという感じですけど。
そうですね。
その焼け野原で立ち上が、最後まで立ってた者のみが勝てる世界なので。
スピーカー 1
本当、オープンAI社とそのグーグルの方、マイクロソフトもそうなんですけど、生成AI人材の離脱とか流動性って今すごくて、
オープンAI社からアンソロピックに行く人もいるし、アンソロピックからまた外に出る人もいるし、
グーグルもマイクロソフトも抜けては出て抜けては出てみたいなのを本当に2,3ヶ月に1回くらい見る状態で、
それもAIチームのトップみたいなテックリードの人が抜けるみたいなレベルの話がしょっちゅう出てくるくらいには本当に抜かれてて、
オープンAIとかこのAIを推進してAIについての理解が深まると、大体みんなベンチャーでそのAIを使って世の中をこう変えたいの方に走り出して、
多くのAI有識者が今ベンチャーのCTOをやってるみたいな感じなんですね。
なのでこのベースモデル、生成AIとしての基礎を上げ続けられる会社になっているのが今アンソロピックくらいなので、
ちょっとそういうポジションは維持してほしいなという思いがあります。
スピーカー 2
確かにそうですね。
まあそのスタンスの会社があった方がユーザーとしては嬉しいので。
応援したくなる気持ちはわかる。
スピーカー 1
勝ち残れるのかどうかはすごく言いませんね。
スピーカー 2
ちょっとわからないなというか、うーんって感じで。
そのなんやかんやあってオープンAIみたいになっちゃう可能性もあるので。
スピーカー 1
めっちゃありますね。いつなっても不思議じゃない。
スピーカー 2
ちょっとわからんなぁと思うところではあります。
スピーカー 1
はい、まあということで、生成AIのちょっとした進歩ですけど共有でした。
はい、私の方最後ですね。
Viz UDP Gothicと99.99%同じだけど、数字が遠幅の帳表UDP Gothicフォント公開ということで、
スピーカー 2
プログラミング生放送という記事の紹介です。
スピーカー 1
森さんはViz UDP Gothic、皆さんマイクロソフトのWindows使ってれば標準で入ってるやつですね。
半画1と全画1の幅のみを変更し、数字0から9を遠幅にしたフォントを帳表UDP Gothicを公開しました。
ということで、もうこれが全てではあるんですけれども。
それがGitHubに公開されてるんで便利ですよっていう話で、
そもそも聞いてみたかったのが、これ自体も面白くあるんですけど、
UDP Gothicの浸透度ってどうです?周りでみんなUDP Gothicって使ってますか?
スピーカー 2
いやー、まぁ会社では使ってないですね、という感じはしますけど。
個人的にはね、やはり読みやすいのはありますので、積極的に使っていきたいなとは思いますけど。
スピーカー 1
仕事上だとやっぱり会社の定義してるフォントがU Gothicだったりメイリオだったりする感じですか?
うちもそうなんですけど。
スピーカー 2
まぁそういうことにしておきましょう。
スピーカー 1
まぁまぁまぁ。
スピーカー 2
まぁまぁまぁ、という感じですけど。
スピーカー 1
そうですね。結構そのUDP Gothic大好きで、もう断るごとに宣伝する側ではあるんですけれども、
まぁここにある通り、ちょっとしたことではありますが、
UDP Gothicを伝えたい一番パーポやらワードとかを書き書きする人の資料には大量の数字が登場するので、
その数字の見やすさっていうのは非常に重要視されるところがあったので、これは大変嬉しいなと思っているところですね。
あとちょっとこの回の少し前に初めて知って、東田さんから教えてもらったことではありますけど、
政府の方も新しいフォントの定義をされようとしてるっていうのを知って、何民調だったかもう忘れちゃいましたけど。
スピーカー 2
行政事務標準東洋民調フォント。
スピーカー 1
ですね。もう再度読み上げると私も舌噛みそうなんで読まないですけど。
こちらで同じく、ユニバーサルデザインではないんだけどアクセスビリティとかはかなり気にされてる。
政府として統一規格的にやっていきたいフォントとして定義されてて、
最近だと10期とかに登録された戸籍のようなフォントとかを、
多様なフォントがある中で基本的にはこのフォントで統一しましょうみたいな、そういう定義付けされたフォントとして導入を広めていって、
いろいろなフォント違いみたいなところのコスト削減をしていこうという、そういう動きが始まってるようなので、
スピーカー 2
皆さんフォントを大事にしていきましょうという、それだけの話はあるんですが。
はい。
ちょいちょいUDPゴシックに関してはちょっと一個ツッコミのこれが私としてはありまして、
UDゴシック使えばいいじゃんっていう感じなんですけど、
要はプロポーショナルじゃなければ全部等幅なので、
そっちでいいじゃんと個人的には思っちゃうんですけど、
まあまあまあそうは言っても確かに全部等幅フォントだと、
スピーカー 1
アルファベットのiとかがね、すごい空間があって気持ち悪いというのは分からんでもない話なので、
スピーカー 2
まあそういう用途では軽いところに手が届くのかしらっていう。
この記事いわくUDゴシックの数字は細すぎるらしいですよ。
スピーカー 1
私あんまり分かんないけど。
スピーカー 2
はい。
うーん。
あーなるほど。細すぎる。
スピーカー 1
UDPゴシックの方がボルトなのか?
スピーカー 2
そんな違いがあるのか?
それは知らなかった。
スピーカー 1
ちょっと今Windowsのフォントページからですね、両方並べて見比べてますが、
あのー、私の拙い目では違いが全然分からない。
スピーカー 2
まあまあまあこだわりがある人には分かる利点ということで。
スピーカー 1
あ、ごめんなさい。
そうかそうか。UDPゴシック、UDゴシックって同じフォントファイルだからページ分かれてますね。
あー、確かにUDゴシックの方は昔ながらのゴシックくらい潰れてますね、幅が。
スピーカー 2
あー、遠幅が?遠幅がもともと遠幅の間隔だからかなり広いってこと?
スピーカー 1
そう、UDゴシックの遠幅が狭い。半角基準にあってる。
スピーカー 2
はいはいはい、あーそういうことね。数字だから。
スピーカー 1
だから全角基準の遠幅の数字のフォントが欲しい人向け。
スピーカー 2
あー、それは結構分かりますね確かに。
スピーカー 1
分かるなー。なんかその辺の信任戦のために半角にしないでくださいみたいな状況とかあるしな。
スピーカー 2
あるけど、まあでもそのフォントの組み立てとして数字はね、デフォルト半角っていうのがA字と一緒でっていう。
まあ前提があるのは分かるので。
なるほどね。
あー、利点が分かりました。確かにそれはちょっと欲しいですねというところ。
スピーカー 1
ほんと痒いところにって感じだけど。
スピーカー 2
なので良いと思いますというところですね。
スピーカー 1
はい、まあここまでフォントにこだわる仕事をしてる人がどれだけいるか分かりませんが、
気になったら使ってみてはいいかも。
スピーカー 2
読みづらいフォント使われてるとマジで読みづらいし疲れるのでね、生産性も下がりますからね。
スピーカー 1
そうですね。最近UD Gothicを進めて、こんな素晴らしいフォントがあるなんて知らなかったデスクワークの目の疲れが半分になったって本気で喜んでる人が近くにいたので、
ちょっとその人に再度勧めとこうと思います。
スピーカー 2
良かったです。会社のパソコンにこのフォント入れれるかどうかはまた別だと思いますけど。
スピーカー 1
まあどうなんだろう。フォントのルールってIT部門的に規制が。
スピーカー 2
いやー結構微妙だと思いますね。
スピーカー 1
微妙やね。確かにね。フォントデータってダブルクリックインストールだから結構ウィル仕込みやすいよな。
まあまあまあ。という簡単な紹介でした。以上です。
空港コアファイバの利点
スピーカー 2
じゃあ次私の方から。古川電工さんのこれはプレスかな。
グループグローバルで挑戦。革新的空港コアファイバの開発というタイトルの記事になっています。
今の情報通信環境を支えるガラスコアの光ファイバ。
次世代のさらなる大容量高速通信を叶えるため、コアが空洞の空港コアファイバの開発に注目が集まっています。
本記事では空港コアファイバとそのケーブル化や接続技術開発の裏側をご紹介します。
結構長いのでちょっとかいつまんで紹介しますけど。
今、高速電装というか一般家庭でも壁まで光ファイバが来ていると思いますけど。
そこから光ファイバを引っ張り出してパソコンにつなげて10Gbpsとかそういうスピードを出しているというのがデフォルトになってきています。
この光ファイバは便利で流行っているんですけども、なんと問題がありまして通信速度が遅いんですね。
何を言っているかという感じがあるんですけど。
スピーカー 1
光が遅いわけないじゃないですか。何を言っているんですか。
スピーカー 2
光の1秒間に進む速度というのは材料によって変わっておりまして。
光ファイバはその通りファイバ、ガラス素材が中に充填されているので光が伝わるのに1キロあたり約4.9マイクロ秒の遅延が発生するらしいですね。
なのでそれが遅いというところなんで。
シンク中というか、シンク中で光が一番速くなる、逆か。
光が速くなる速度として最高の環境であるシンク中、つまり中に素材が何もない状態であれば1キロあたりの遅延が約3.3マイクロ秒と。
ガラスコアファイバより約遅延を3割少なくすることができるというメリットがあり、これがめちゃくちゃいいですよね。
というところでこれの生産を頑張っておりますというところ。
ちなみにこの空光コアファイバ他にもメリットが2つありまして、1つ目がハイパワーへの耐性らしいです。
ガラスが充填されているとあまりに高いエネルギーの光を入れるとガラスが変質してしまったりとかがあるらしいんですけど、
そういうことがないのでガラスコアの1000倍ものパワーを入れられるらしいです。理論値ですけど。
あと3つ目が究極の低損率。これもガラスという素材がないので光がロスをさらに小さくすることができます。
これは理論値なんですけど。
新たな技術の開発
スピーカー 2
というところで実現できるメリットが多いということで開発しております。
ただ現在開発開発言ってますけど、中が空洞なんですけど、光を反射させないといけない。
ということでどうやって反射させる、きれいに反射させるか。
しかも損失なく反射させるかというのはなかなか難しくて、
今開発をめちゃくちゃ頑張っている中で古川電工さんが革新的なコア技術の実現により、
今これは100メートル級かな?とかで実際引き出したコア、ファイバを使って通信に成功しましたというところらしいです。
スピーカー 1
これが事実なら素晴らしいしかないというか、かなりのブレイクスルーだと思うんですけど、
まず支援のところで言うと、日本からアメリカが大体1万キロくらい。
なので50ミリ秒くらい。
格ゲーマーにとっては2フレームくらい落ちると。
スピーカー 2
まあそうですね。
スピーカー 1
なのでその2フレームが1フレームになるって言えば格ゲーマーは泣いて喜ぶんじゃないかなと思いますけど。
スピーカー 2
そうですね。
スピーカー 1
FPSゲーマーもそうかな。
スピーカー 2
格ゲーマーもありますし、あとは医療とか株式の通信とか、そういうのでは高い需要があるらしいですね。
スピーカー 1
なので数字がでかかったり小さかったりしすぎてなんとなく感覚がわからないっていうのがある人は、
日本とアメリカの間でやったらもう大体遅くて話にならないゲームのリモートなんてやってらんないよねって言ってるのが緩和される可能性があるって言ったらちょっと夢が見れるんじゃないかなと思います。
スピーカー 2
うん。
スピーカー 1
現実そこはね、激的な改善っていうことじゃないかもしれないですけど。
スピーカー 2
でもかなり大きいと思うので。
スピーカー 1
低損失のところもなかなかすごいなと思ってて。
光を扱う難しさって素人ながらにもクッソ難しいっていうのはなんとなくわかるんですけど、光なんて日常的にどんどん損失してるというか、
吸収されたり反射されたりっていうのがすごい多岐にわたって起きてるから私たちの人間の目ではいろんなものがいろんなふうに見えてるわけで。
そういった取り扱いの難しい光を低損失に取り扱える技術っていうのはなかなか言葉だけでパワーアド感があってものすごい夢を感じるんですけど。
これ、新しい空港コアって言われてるものが従来のファイバ形式と比べて、どの辺が一番肝なのかっていうのも正直あんまりピンときてなくて、
この綺麗な穴の作りっていうのがどうその光にいい影響を与えてるのかっていうのがまだあんまりピンときてないんですけど。
スピーカー 2
そうですね。なので現実的に作るのが難しいというところがありますと、古川伝孔さんの論文、技法かこれは、とかも読んでみるんですけども、ちょっと解釈間違ってたら申し訳ないんですけど。
光ファイバは屈折率の違うものを重点にして、その界面で反射してるわけですよね。
なんですけど、このコアファイバケーブルもそういう感じで反射させるんですけども、反射していくうちに波長の波、光の波を多重に反射させるんで、
希望の波長以外の波もできてしまう。って言っていいのかな。
すみません、表現が難しいです。
スピーカー 1
ついていけてないです。
えーと、伝送するために作りたい光の波形がまずある状態で、どんだけ頑張って直進性を保とうとも限界があるから、
服装じゃないけど、自分の光の発信源による外部ノイズみたいなのが起きえちゃうっていう感じ?
スピーカー 2
うーん、かな?
なんて言えばいいんでしょうね。
スピーカー 1
難しい。
スピーカー 2
私も理解が足りてないですけど。
スピーカー 1
私も一緒に今論文頑張って上から読んでるんですけど。
スピーカー 2
これなかなか面白いことが書いてあるっぽいんですけど、何だろう。
規定モードっていうのがあって、それだけにしたいんだけど、こういうモードが発生して、それがノイズになるというか。
そいつが邪魔するんで、結果的に伝送したものを取り出すとノイジーになって何がないやらって感じになってしまうと。
なので今回の古川電工さんは、センターコアっていう中心のメインの伝送管の横にちょっと大きい、ちょっと小さいか、ちょっと小さいサイドコアっていうのを作りました。
ってやることで、発生したノイズ成分というか工事モードっていうのをその隣の管に染み出させるっていうか、隣の管が吸収することによってセンターコアに規定モードだけを載せるっていうことを実現しているっぽいですね。
スピーカー 1
なんかあれですね、電子回路のローパスフィルターみたいな感覚がありますね。
コンデンサとかで高周波だけを取って取り出して横にずらすみたいな。
スピーカー 2
みたいな感じかなーっていうイメージですね。
スピーカー 1
はいはいはい。
いやーすごいな、そんなことが出来うるんですね。
スピーカー 2
ですねーという感じもありますし。
あとすごいのが、このハチノス構造をファイバーなんでめちゃくちゃ長く作らないといけなくて、それを綺麗に作る技術っていうのがすごいですよ。
スピーカー 1
どうやって整形するの?後から抜くなんてもちろん無理ですよね、こんなん。
スピーカー 2
うーん、後から抜くのは無理なので、ガラスを引き出してるらしいんですけど。
暑い状態のガラスをミューって伸ばしてグラスとか作ったりするじゃん。
まあああいうイメージっぽいんだけど、本当に出来るの?って感じはするんだけど。
スピーカー 1
で、なんか熱収縮みたいな過程でこうやって霧に穴が開くみたいな。
スピーカー 2
そうですね、なんか綺麗な自己整合をするみたいな感じっぽいです。
スピーカー 1
なんかあれですね、泡の表面張力が最適化を取ると6掛けになるみたいな、ああいう原理を使うとかそういうのかな。
スピーカー 2
使ってるか使ってないか、感じはしますけどね。
スピーカー 1
そしたら真ん中にでっかい穴を開けてとか、穴の間に1個だけの小さい穴を開けてとか、こういう設計が出来る気があんまりしないけど。
スピーカー 2
なんでそこが多分味噌で、この泡のサイズはある程度多分制御できるんですけど、
隣の泡とくっつかないように綺麗にこの泡のサイズを制御するとか。
スピーカー 1
そうですよね。
スピーカー 2
いうのがかなりの技術が必要なんでしょうね。
スピーカー 1
いやー、そうだと思う。なんか全く想像つかないです。どうやったらこれができるのか。
スピーカー 2
製造方法はさすがに書いてないのでちょっとわからなかったんですけど。
スピーカー 1
書いたらもう特許には出てるかもしれないけど、書いたらもう取られちゃうよ。
スピーカー 2
特許には出てるでしょうけど。
っていうところ。
あともう一つ難しいっていうところが、通した信号を別の機械に持っていくときの接続部分ですね。
コネクタ部分っていうのがめちゃくちゃ難しいらしくて。
これも私知らなかったんですけど、光ファイバーってそういうファイバーとファイバーでつなげる時ってなんか溶かしてるらしいんですよ。
スピーカー 1
溶かしてる?
スピーカー 2
端面を溶かしてロスがないようにしてくっつけるらしいです。
スピーカー 1
ガラスコアですね。元々のファイバーが中心にガラスになってて、そのガラスの端っこを溶かしてガラス同士をくっつけるみたいな。
普通にガラス在庫でガラスとガラスくっつけてコップの音を作るみたいな。
そのノリでくっつけてるってこと?
スピーカー 2
そうですね。はい。
スピーカー 1
すごい。マジかよ。すごすぎるな。
スピーカー 2
なんですけど、これ中が空なので溶かしてくっつけるっていうのができないらしくて。
それはそうでしょうね。
それもちょっとこれも私の理解が及ばなかったんですけど、そこの特殊な装置によりファイバー自体の損失は0.6dBらしいですね。
あ、違うか。挿入損失が1.4dB。
なので、そこまでコネクターにより損失を少なくするってことができてるらしいですね。
スピーカー 1
金4も相当すごいけど。
そこも謎技術すぎるな。
スピーカー 2
謎技術すぎる。よく分かんないんですけど。
スピーカー 1
そうだよな。
あれですよね、光ファイバー系って遠くなりすぎたらアンプとかも挟みますよね。
スピーカー 2
そうですね。海底の光ファイバーとかもアンプ、あれもなんかすげえ謎技術ですけど。自己増幅アンプみたいなのが入ってるんですけど。
対応して。
スピーカー 1
でもあれか、強度上げられるって言ってたから、あのアンプを多くかつ減らせる見込みなのか、これ上手くいけば。
スピーカー 2
そうですね。これが上手くいけば最初に地上で強力な光をぶち込んで、それを対岸まで通すってことができるんじゃないでしょうか。
ロマンですね。すごいな。
スピーカー 1
NTTの人は全部引き直しですかって泣いてるかもしれんけど。
スピーカー 2
こういうのは重ね重ねで持ってくんで、今までの光ファイバーが無駄になることはないですからね。
スピーカー 1
順調系として足していくぐらい。
スピーカー 2
そう、足していきますから。
スピーカー 1
いやー、すごいね。すごいね。
スピーカー 2
っていう感じで、まだ技術的難度は高いらしいですけど、開発中というか緊急開発中らしいですけど、今後に期待ですね。
スピーカー 1
そうですね。古川電工さんって、普通のキャブタイヤケーブルとかいったらもう初歩的すぎるかもしれないけど、そういうケーブルでしかお世話になったことなくて、こんなことやってたんだっていうのもちょっと驚きでしたね。
スピーカー 2
そうですね。電線屋さんという印象だったので。
まあでも電線であることには違いはない。電線?ファイバー線?光線?配線であることに違いはないので。
スピーカー 1
間違いないです。
いやー、お見逃れしました。
スピーカー 2
という感じの紹介でした。
スピーカー 1
はい。
寒天テープの開発背景
スピーカー 2
最後ですね、これはアットプレスさんの記事からの紹介です。
ゴミもイライラも削減するエコラクメンがクラウドファンディングで目標金額達成。テノベうどんの新世がみんな食品工業とコラボというタイトルになります。
岡山テノベそうめん株式会社は寒天テープを一緒にしたメインの製品化を目的に幕開けにてクラウドファンディングを2021年8月25日まで実施しています。
ちょっとだいぶ昔の記事なんですけども。
成功したそうなので、現状何か量産化を進めているというニュース記事があったので紹介になります。
タイトルにあった通り、岡山テノベそうめん株式会社さんと稲食品工業会社さんがコラボして開発した商品で、
そうめんもそうですけどパスタとかもよくある何グラムごとにまとめてありますというテープですね。
プラスチックのテープ。非常に便利なんですけども、あのテープが外しにくいとか間違って鍋にテープついたままぶち込んじゃったとか、
そういうのが発生し得るので、あれを何とかしたいというところで今回開発されたのはこの寒天テープらしいです。
寒天なのでそのままお湯に突っ込めば溶ける。今までうまく外れないなとか間違って落ちちゃったとかいうことが発生しなくなりますし、
なんと日本で毎年作られているめんの量はおよそ10億束なので、使用されている結束テープの合計はなんと地球25周分です。
それだけのテープが作られているそうなので、全部寒天テープに置き換えればプラスチックゴミも減らせるというところでメリットがあるというところで作られているそうです。
非常に流行ってほしいなと思うので紹介しましたというところですね。
今後の可能性と研究
スピーカー 1
もうみんなが望んでいたイライラの解決だと思うので、大変素晴らしいのがまず第一である上で、なんか欲が出るなーってめっちゃ思う話だなと思ってて。
例えばこの寒天テープ、写真だと真ん中に貼られていて従来紙だったところをそのまま寒天テープに置き直しているって感じの写真になってるんですけど、
どうせ溶けるんだったら、例えば片側に寄せてどっちから入れるとおいしくそうめんが茹でられるみたいな、その茹で方に対しての支援ができるようなテープの位置だったりとか、
あとは表面についている粉とかで茹でている間でもそうめんが引っ付きやすいと思うから、その辺の引っ付きやすさを予防するような、
片栗粉なのか何なのかわからないけど、そういう成分入りのテープとか、そういうのもどんどん考えていけそうだなと思ってて、
これをきっかけにどんどんそれの研究が進むとめっちゃおもろいなーと思って聞いてました。
スピーカー 2
そうですね、確かに。
そうめんってどうだったかなっていう感じもありますけど、パスタとかだと塩を入れなさいって書いてあるので、
塩分が入ってて、もう塩をはかる必要もないとこだとね、楽だなと思いますし、
確かに今まで外す前提だったので、鍋に入れた後のことまで気にしなかったんですけど、
鍋に入れたら自動的に広がるとかだとね、結構便利なのかな。
結局その後端でやらんと引っ付きそうな気もしますけど。
スピーカー 1
これ引っ付いちゃうんだとすると、誰しも一度はめんどくさがってやったことあると思うんですよ。
ちょっとついてるままとか、適当にバーって塊で入れて、上からストンって落としたままで茹でて、
なんか全部くっついちゃったみたいなやつとかあると思うんだけど、
ああいうのがね、ちょっとした巻き方の一工夫、入れられることを前提の一工夫で改善できそうだから、
スピーカー 2
ちょっとせっかくだし研究してほしいって思っちゃったな。
スピーカー 1
あるかもしれませんね。なんか付加価値が出るかもしれませんね。
スピーカー 2
あとはそうですね、かなり分厚くなるかもしれないですけど、スープ成分は全部入れてしまって、鍋で煮たら完成みたいな。
もはやテープにならなくなるかもしれないけど。
寒天テープの可能性
スピーカー 1
全然アリだと思う。
スピーカー 2
アリかなと思いますし。
スピーカー 1
あとはあれです。水溶液的に0度以下になりやすい水溶液にするとかね。
スピーカー 2
なるほど。
スピーカー 1
氷とかも入れるけどすぐ溶けちゃって、なんか食べてる途中でぬるくなるみたいなのあるじゃないですか。
あれもなんか筋筋を維持できるとかいう成分を入れられるんだったらそれはそれで面白いし。
スピーカー 2
まあ塩入れれば温度は下がるかもしれんけど。
スピーカー 1
シンプルに塩でもいいか。それはそれでアリだよな。
スピーカー 2
まあでもしょっぱくなっちゃうから、塩味を感じない何かしらの無害な成分とかは面白いかもしれないですね。
スピーカー 1
そうね。
食べ方次第ではあるかもしれんけど、普通にだしみたいな成分。でも単純にそうめんが美味しくなる効果とかもあるかもしれないし。
スピーカー 2
それを含めて茹でる、何か脾臓と何かみたいな。
スピーカー 1
いや多分ね、テープより高いと思うんだよねこれ。
スピーカー 2
まあそれはそうでしょうね、はい。
スピーカー 1
だからなんかその辺の付加価値込みでこれを支援したくなる、何かいいことを言ってほしいなっていう気持ち。
スピーカー 2
そうですね。そこら辺で開発が進んでくれると嬉しいかなと。
スピーカー 1
めっちゃいい。
そっちで流行れば多分、うどん屋さんとかラーメン屋さんとかパスタ屋さんとかいろんなところがこぞって真似しだすはずなんで、先行者利益でガッポガッポやってもらったらいいんじゃないかな。
スピーカー 2
そうですね。
塩なんて絶対やりますよねパスタ。
うどんとかラーメンはでもフライが結構多いから、まあでもあれか。
確かに。こういう食ったりしないか。
長細い麺になってるイメージがあんまりないですね。
蕎麦くらいか。
蕎麦。
そうですね、蕎麦は缶麺はそうだったか。
はい、まあ何せよ今後に行きたいというところでの紹介でした。
食品開発の未来
スピーカー 1
はい、面白かったです。
はい。
じゃあ今日はこんなことですかね。
スピーカー 2
はい、じゃあお疲れ様でした。
スピーカー 1
はい、お疲れ様でした。
00:00

コメント

スクロール