-
-
スピーカー 1
生成AI楽しんでますか?
スピーカー 2
うーん、最近はあまり触ってないですけど、どうですか?
スピーカー 1
あんまりまだ日常に進出してきてない感じですかね。
スピーカー 2
うーん、そうですね。私の、ちょっと時代に取り残されそうですけど。
スピーカー 1
使わないとヤバいですよ。生成AI、
まあ、多くの会社でですね、生成AIは今、非エンジニアに使わせることが寛容であるっていう動きがすごい増えてるから、
エンジニア以外とか、日常的にAIを使ってるか使ってないかで結構変わるんで、頑張ってついてきてくださいね。
くださいねって、どういう目線で言ってるんだって感じだけど。
スピーカー 2
AI目線。
スピーカー 1
AI目線。
スピーカー 2
AI目線で言ってますけど、まあまあそれはそうですねとは思いますけど。
スピーカー 1
はい、まあそんな生成AI、今もいろいろ楽しいものが増えてるんですが、
その中でもちょっと知っておいてほしい面白いものがあったんで紹介します。
スピーカー 2
はい。
スピーカー 1
これはnotebook LMの音声出力機能です。
まあ、聞いた方が早いと思うので、ちょっと先週のポッドキャストを題材に音声出力させてみたので、
ちょっとそれ流してもらおうかなと思います。
スピーカー 2
はい、じゃあ流します。
スピーカー 1
はい。
さて、今回掘り下げていくのはAI技術、特に顧客サポートでの課題と、それから宇宙開発の最前線ですね。
はい。
エンジニア同士の会話とか技術ニュースを元にその革新に迫っていこうと思います。
はい。
AIのサポートの話は技術の可能性と、まあ堅実的な難しさも両方見えて非常に興味深いですよね。
ですよね。宇宙開発も民間がどんどん出てきて新しいステージに入ってる感じがします。
ええ。
じゃあまずはそのAIの話から。
これちょっと驚きの事例なんですけど、
はい。
エネスピアっていうAI開発企業がですね、自社のコードエディターカーサーのサポートにAIを導入したんです。
スピーカー 2
ふむふむ。
スピーカー 1
そしたら、そのAIがなんと存在しないポリシーをデッチ上げて、ユーザーにそれは使用ですって回答しちゃったと。
ああ、それは。
しかもサムっていう実在しない担当者の名前まで名乗ったらしいんですよ。
まさにあの、AIのハルシネーション、幻覚って言われるやつですね。
あ、やっぱりそれですか。
ええ。AIがまあ、技術じゃないんだけどそれっぽい情報を生成しちゃう。
現状の技術、特に大規模言語モデルだとこれを完全にゼロにするのは、うーん、かなり難しいんですよ。
なるほど。
特に顧客対応みたいにこう、正確性が絶対求められる場面で、AIだけでやらせるリスクがまあ見えちゃった形ですよね。
元にしたエンジニアたちの会話でもそういう話が出てましたね。
現場はAIの限界わかってるんだけど、でもビジネスサイドは効率化とかコスト削減を期待しちゃって導入を急ぐみたいな。
ああ、それはよく聞く話ですね。この認識のギャップって結構根深い問題じゃないですか。
そう思います。もちろんAIの応答をコントロールする技術、例えば特定の文章だけを参照させるRAGとかありますよね。
はいはい、検索拡張生成。
ええ。あとは、わからないことはわかりませんって正直に言わせるとか、不適切な回答を防ぐフィルターとか、そういうのはあるんです。
うーん。
でもどれも対象両方というか、根本解決にはまだ至ってない。
エンジニアの感覚からすると、まだ一人で任せるのはちょっとっていうのが正直なところでしょうね。
でも導入は進んじゃうわけですね、コスト削減の圧力で。
まあ、そういう側面は強いでしょうね。
うーん、難しいですね。コスト削減は確かに魅力ですけど、一回こういうことがあるとユーザーの信頼を一気に失う可能性も。
そうですね。
でもソースの会話にもあったように、複雑な問い合わせだと人間が対応しても結局調べますって待たされることも多いわけで。
ええ、それも事実ですね。
どこまでAIのこの不完全さを受け入れるべきなのか、このトレードオフどう考えますか?
いやー、非常に悩ましい問題ですね。ただおっしゃる通り、人間だって万能じゃない。
結局はそのAIのご情報のリスクと、それがビジネスとかブランドイメージに与えるダメージ、これをコスト削減効果と点明にかけるしかない。
なるほど。
最終的にはその企業とかサービスがどこまでのリスクを許容できるかっていう経営判断になるんでしょうね。
スピーカー 1
それに加えて、前回の打ち上げで課題になった搭載する小さい衛星への衝撃を和らげるみたいな改良も進められているようです。
なるほどですね。今回はAIの実用面でのリアルな課題と、それから宇宙開発の着実な挑戦、両方見てきました。
AIの幻覚の話も、ロケットの複雑な制御も、やっぱり最先端の技術には常に乗り越えるべき壁があるんだなと。
そうですね。これ面白いのは、AIサポートの問題もロケット開発の難しさも突き詰めていくと、複雑で予測が難しいシステムをどうやって制御してリスクを管理するかという点で実は共通しているんですよね。
ああ、確かに言われてみればそうですね。
技術はどんどん進化しますけど、私たちはその不完全さとどう向き合っていくのか、どこまでのリスクを受け入れる覚悟があるのか、これはAIとか宇宙に限らず、あらゆる先端技術に関わる私たち全員への問いかけだと思うんですよ。
なるほど。
これから皆さんが新しい技術に触れるとき、その便利さの裏にあるリスク管理についてちょっと立ち止まって考えてみるのも面白いかもしれませんね。
スピーカー 2
はい、という感じで。
スピーカー 1
どうでしたか?聞いてみて、まず。
いや、私らもういらんですねっていう感じですけど。
いらないですね。
いらないですね。
私たちのソースがあってこそというのはありますが。
スピーカー 2
まあでも30分、1時間ぐだぐだ話したのを6分ぐらいにまとまってますからね。
人間よりよほど効率がいい。
スピーカー 1
そうですね。
これ出すのにめちゃくちゃ苦労したかというと全然そんなことなくてですね。
前回のPodcastのMP3ファイルを普通にNotebook LMっていうGoogleが出してるセセアのウェブサービスに放り込んでですね。
音声概要を作ってってワンクリックするだけでこれが出てくるっていうような感じです。
その出す時にちょっとだけカスタマイズというかプロンプトを出すみたいなことができて。
関西弁風に喋ってとかちょっとしたことを言えるようになってるんですけれども。
特に何も気にせずポチッとやっても全然OK。
このレベルが出てくるっていうのがまずすごく良くて。
Podcast形式って言われるようなその対話形式ですね。
が出力フォーマットになってるのも結構聞きやすくてですね。
誰かが話してる対話を横から聞いてるってすごく受け止めやすいというか理解が進むフォーマットだなっていうのがあるので。
こういった出力形式をAIがサポートしてきたっていうのは非常に大きなところかなと思いますし。
単なる要約だけじゃなくて今後のことについても最後1分くらいで触れてたと思うんですけど。
その辺がですね。
読むだけじゃなくて自分がどういうふうに考えたらいいかなみたいな思差にもつながったりもするので。
単なるその情報の取得以上の体験ができるようなアウトプットが出てるなということで結構面白いと思って紹介しました。
スピーカー 2
はい。ご意見ごもっともですねという感じで非常に面白いかなと思ってますけど。
そうですね。最後のまとめに関してはちょっと難しいなというところもあるなと思ってて。
あれを言った記憶はないんですよね。
スピーカー 1
言ってないです。
スピーカー 2
そう。なんで言ってないことを勝手に言うなと思いながら聞いていたので。
それが良い面でも悪い面でもある。
要約したことによって一般的な新しい資座というものを得ているというのは非常に素晴らしいことなんですけども。
作者の意図していない発言っていうのをAIがしてしまう可能性があってそれは制御次第かなという感じはありますね。
そうですね。
このレベルだったら全然うちらとしては問題ないんですけども。
勝手に誹謗中傷を言い出したりするとちょっと問題があったりしますので。
そうですね。
というところですね。
あと技術的に細かいところで言うと結構自分の感じ方で面白かったなというのが非常に発音が良い。
発音が良くて、えっとみたいなのであまり淀まない。
非常にアナウンサーチックなんですよね。
スピーカー 1
そうですね。
スピーカー 2
アナウンサーチックなんですけど、自分が気にして聞いているからというのもあるんですけど、
アナウンサーと違うようなテンポで話すのでそこが気持ち悪いなという。
結構早口だったりとか、あと相手の応答を受けるような話し方だったりっていうのがあって、
ちょっとなんかそこら辺気持ち悪いなというところ。
スピーカー 1
そうですね。
スピーカー 2
そうですね。
日本語は99%正確だったのは素晴らしいなというところ。
多少ちょっとなんか2、3文字間違えてたかなと思いますけど、
全然聞こえる範囲だったなというのは素晴らしいですね。
スピーカー 1
そうですね。
スピーカー 2
あとごめんなさい、一つ面白かったのが、
相手に発言のボールを渡して、それで文章を完全させるみたいな、何て言うんでしょうね。
小説というよりは漫画のような話し方を一部していたところがあって、
スピーカー 1
一回文章に起こさないとそういうのは人間に発説し得ないので、
スピーカー 2
内部処理がちょっと面白かったなというところはありましたね。
スピーカー 1
多分片方が喋る時間の制限があるんだと思いますね。
スピーカー 2
なるほどね。
スピーカー 1
その辺はでももしかしたらラジオ系のノウハウかもしれないですね。
パーソナリティが2人いるときに1人のパーソナリティだけが話し続けないようにするための工夫というか。
スピーカー 2
確かにそれはありそうですけど、
なんかちょっともう一回聞いてみたらわかるんですけど、
変なところで体言止めしてそれを受けて話し続けるみたいな状況になってたんで、
人間だとあまり発声し得ないかなと思いますけど。
スピーカー 1
あとは多分その辺のラジオフォーマットが、
おそらくは海外のポッドキャストとかを学習データにやってると思うんで、
ちょっとその辺のテイストが、
スピーカー 2
はいきなじみがないっていうのはあるかも。
確か。
スピーカー 2
まあでも本当にこれが喋らせるんだったらもう人間いらないかなってレベルですので。
スピーカー 1
そうですね。
少なくとも自動音声出力とか読み上げっていうことに関しては、
もう1000は超えてるかなというのは思いますね。
スピーカー 2
そうですね、はい。
まあ一方でちょっと細かいところで。
スピーカー 1
はいはい。
スピーカー 2
まあ30形態を30形態って言ってたりみたいな。
スピーカー 1
はいはいはい。
スピーカー 2
特殊な用語とかはやっぱり人間の手で直したりする必要があるところだと思うので、
やはりまあ人間が手をつけるとしたらチェック機能なのかなという印象を受けましたね。
スピーカー 1
そうですね。
まあこれを踏まえたから、
じゃあ明日からニュース聞くのは全部ノートブックLUMに投げようとかそんな気にはまだならないんですけど、
ただまあさっき冒頭で言ってた通り、
1時間のグダグダしたやつを6分で聞けるんだったら、
それはそれでコンテンツ消化としてはありっていうコンテンツも全然あると思うので、
そういったところで使えるといいんじゃないかなと思ってて、
入力ソースは今回音声ファイル使いましたけど、
当然テキストファイルもできますし、
YouTubeのリンクみたいなのもできますので、
まあちょっと張着すぎるYouTubeの動画をまとめて見るとかでも全然できるんじゃないかなと思いますし。
スピーカー 2
3分で分かるなんちゃらかんちゃらとか。
スピーカー 1
そう。
あと何がいいって、
言語変換がされるんで、
スピーカー 2
元の動画とか元のコンテンツの言語に左右されないんですよねこれ。
なるほどね。確かにそれはいいですね。
スピーカー 1
日本語で出してって言えば日本語で出てくるので、
技術的な英語の解説記事とか、
TEDみたいな登壇系のプレゼンみたいなやつとか、
そういうYouTube動画もソースとして取り込めるので、
その辺も非常に楽しいですね。
スピーカー 2
確かに。それで耳で聞き流せるっていうのはかなり時間の有効活用ができて良さそうな感じがしますね。
スピーカー 1
そう。英語のYouTubeを聞きながら頭の中でその英語の処理しつつ字幕をかけつつっていうと、
その日本語の記事とか読んでるよりも深く思考しきれないところがあると思うんで、
そういったものに対してはこっちの方が受け止められる情報量が増える可能性があるかなと思います。
スピーカー 2
はい。非常に有用ですね。
スピーカー 1
追加の機能の話を少しします。
現状日本語ではサポートされてないんですけれども、
有料版の英語モードではインタラクティブモードというものが使えます。
このインタラクティブモードがかなりすごいと話題になっていてですね。
この音声、喋ってくれてたのは音声ファイルを落としてきてそのまま再生してるんですけど、
このプラスのモードになると音声出力途中で割り込めます。
なので音声を聞き流していて、なんだそれって思ったら、ちょっと待ってそれについてこういうこと聞きたいんだけどって言ったら
2人の話を止めてくれて、そのことについてはこうだよって2人の人が話を変えながら喋ってくれます。
スピーカー 2
わー怖い。
怖い。
なるほど。
スピーカー 1
もうなんか結構SFチックな感じですけど。
はい。
はい。っていうところができるので、
日本語に対応しないとちょっとね日本人的にはしんどいですが、
母国語英語の人にとってはですね、理解が深まるだけじゃなくて、
それこそ大学の先生に聞くなかのようなトーンで聞いたりできるっていうことがあるので、
自己学習能力は非常に高まるかなという感じがしますね。
スピーカー 2
そうですね。やってることは確かにその音声入力をテキスト化して処理してテキスト化したのを喋らせてるだけなんで、
現状で主流となってるチャット式のAIと一緒だというのは頭では理解するんですけど、
スピーカー 1
そうですね。一緒ではありますね。
一緒ではありますけどというところがあるんで、そこの接続性も含めてなかなか面白いですね。
こういう出力形式が登場してきたことで、今年1年はだいぶ生成AIの経路がいろんなソリューションとかアプリケーションのほうへの強化というのが進んでいきそうだったので、
ここでちょっと紹介できたらよかったなと思って持ってきました。
はい。
では1件目は以上で、2つ目がまた生成AI関係なんですけれども、
私が推しのアンソロピックさん。
スピーカー 2
はい。
スピーカー 1
生成AIベンダーの中でオープンAI社とアンソロピック、あとGoogleが今3大巨頭みたいな感じではあるんですけれども、そのうちの1つですね。
基本的にはオープンAI社から離れた人たちがやっていて、オープンAI社のポリシーにはちょっと乗っかれないよっていうような人たちがやってるところですと。
そのアンソロピックから新しいモデルCloud4が出てきました。
他のベンダーでは結構モデルの本質的な性能としては頭打ち的になりつつ、そのアプリケーションとか他の手段でどんどんシェアを広げていこうとしている中で、
アンソロピックは地道に基礎力を上げていっているということで、非常に生成AI業界でも好感を持って受け止められているような、そんな状況ですと。
そういったアンソロピックから新しくできることっていうのがいくつか提示されてきていたので、紹介しようかなと思います。
ちょっと技術的なところが深いので、もうさらっと流して、そういうのが新しくなってるんだなーくらいでもうサクッといきますけれども。
1つがCode Execution Toolというものです。
今までそのコンピューターユーズみたいなので、生成AIがパソコンをどう動かすかみたいなのをやってくれる機能はあったんですけれども、
それをやってくれる範囲っていうのは結構ウェブブラウザの操作とか、簡単なマウス操作くらいに留まっていて複雑なことはなかなかできなかったし、
当然プログラムの実行なんて権限的にも怖くてやらせられないみたいな感じだったんですけれども、
Code Execution Toolはプログラムの実行もそうですけれども、必要なデータセットの読み込みとかそういったものもできますし、
実行権限の範囲というのも細かく制御できるというようなものになっていて、安全にかつ必要な行動の実行までやってくれるというようなツールになっています。
昔 Code Interpreterというのがあったんですけれども、あれは本当に単にコードを生成できる文章としてコードを作ってそれを実行するというだけのもので、
実行する環境に追加のデータを渡す資格権もなければ、その実行されるコードの安全性についても何も管理できないようなものだったんですけれども、
それが時代進化してきてちょっと別の名前になって出てきたというような感じです。
次がMCPコネクタですね。
これが先日来から話しているMCPなんですけれども、ようやくローカル実行だけじゃなくて、
MCPサーバーというサーバーという名前にちゃんと沿ったような形で、外部にあるMCPにつながるようになりますよというものです。
今までMCPの仕様的にとかセキュリティ的に、ローカルのPC上にMCPサーバーを立てるしかなかったくらいのものがようやくリモートでできるようになりました。
ようやくUSBが有線しか使えなかったのか、Bluetoothでもマウスつながるようになりましたとか、そんなくらいの世界観です。
ただ、プロトコル的にはまだまだレガシーで、USB 2.0にもまだ及ばないくらいのプロトコル成熟度ではあるんですけれども、
重要に応えてこういうのも出てきてますよというくらいです。
次がファイルズAPIで、これは去年度とかまでラグって言われていたもので、
生成AIにファイルを参照させて解凍させるというものなんですけれども、
ファイルの一部を見るとかじゃなくて、本当にファイルに対するアクセス権を持って必要な情報を収集してくるというようなAPIになってます。
なので、例えばあるフォルダの下にその開発に関係するものがいろいろ置かれていたら、
そのファイルの内容とか拡張し合わせて読み方を変えたりしながら参照していくというような、もう少し賢いファイル参照機能になってます。
最後がエクステンドプロンプトキャッシングというもので、生成AIを使えば使うほどいろんなことが自律的にできるよねということになっている中、
効率化とかコストダウンの観点でキャッシュ機能というのが期待されるわけですけれども、このキャッシュ機能の拡張が出てきましたよというところで、
例えば複数ステップの途中の一部分の処理とかも個別にキャッシュしたりとかいうことで、
いろんな自律的に動くAIみたいなのが増えていったときでも効果的にキャッシュ機能するようになりますというアップデートがきました。
これらを見て分かるとおり、アンソロピックは相変わらずビジネスユースというか、
スピーカー 1
実際に生成AIを組み込んだ商品開発をする人たちにとって期待されているようなものが多くリリースされているので、
今後もアンソロピックの独断上とは言わないですけど、
アンソロピックはビジネスユースにおいてトップシェアを取り続けそうな雰囲気はしているかなというところで紹介でした。
スピーカー 2
はい。盛りだくさんですねという感じですけど、キャッシュの話がちょっと分からなかったんですけども、
アンソロピックのAPIを使う上で、実際に処理するのがサーバーにあります。
そのサーバーで処理した結果というか、実際にAIが動くときの内部処理を今までキャッシュしてたんですけどすぐ消してました。
それを1時間分に延長できるようにできました、という認識でいいんですか?
スピーカー 1
フロントキャッシュはちょっと従来のキャッシュとやっていることが違うので少し複雑なんですけど、
頑張ってかいつまんで言うと、ユーザーは生成AIさんこんなことをしてくださいと言うわけですが、
そのこんなことをしてくださいの中には、1たす2たす3だったら1について調べる、2について調べる、3について調べるというふうに細かく分けられるわけですよね、内容を。
その内容ごとに、生成AIさんが1に関係すること、2に関係すること、3に関係することみたいな関係性という形でこんな呼び出し方があったよねという情報をキャッシュとして残してました。
だから他の人が1について聞いたときは、1について前回答をこんなふうにしたなという情報と、その1っぽいことを聞いたという情報を照らし合わせてキャッシュヒットさせるというような問い合わせのされ方の近さみたいなところでキャッシングしてたような感じです。
今までこのプロンプトキャッシュの関連性の近さを調査する分割単位というのが、ユーザーの入力に対する回答というものしかキャッシュ対象になってなかったし、それが5分の期間しかなかったというのが従来。
今回新しいものになったら、それをユーザーがやってくれって言われたものは実際にはこういうタスク分割されて1個ずつ処理していかなきゃいけないよねということで、ファイル検索やってファイル検索の結果が得られました。
次インターネット検索してこういう結果が得られましたとか、そういう内部のステップごとのキャッシュも残した上で1時間伸びるようになったというような感じです。
スピーカー 2
なので、さっきと同じことしてくださいって言った時により高速に処理できるし、さっきとちょっと違うけど似たようなことをしてくださいって言った時でも処理は分割されてるんで、それも効率的に処理してくれるみたいな。
スピーカー 1
そう、違うところだけキャッシュヒットなしでやってくれるようになる。
スピーカー 2
人間で言うとデータをまとめる時の中間ファイル資料みたいな、そういうのを細かく作ってて、それをより参照しやすくしてくれたという感じですね。
確かに。
スピーカー 1
人間で言うとあんまり資料化というほど適切にキャッシュを使ってくれるかどうか微妙なところもあるんで、どっちかというと新人君とかに、前回の研修でやったここまで一緒でここから次の研修の内容変わるんだよね、だからそこまでやっといてみたいな感じ。
スピーカー 2
うんうんうん、はいはいはい。
スピーカー 1
新人君は前やった研修を記憶頼りでやるけど微妙に違うことやってるみたいなこともたまに起きるじゃないですか。
スピーカー 2
はいはい。
スピーカー 1
ああ、あの状態。
スピーカー 2
はいはいはい。
何せよ、非常に便利になるという話は分かりますけど、かなりあれですね、サーバー側のコストが増える気はするので、それも課金仕様ですという話。
スピーカー 1
そうですね、ただすごいことにですね、アンソロフィックさんこうやって新しい機能をどんどん出してるんですが、モデルの費用ずっと吸い起きなんですよ。
スピーカー 2
おお、素晴らしいですね。
スピーカー 1
オープンAI社が5倍とか10倍とかいう値段で出してきてる中、吸い起きなので。
スピーカー 2
回収できるのかやって、まあそれも初期のオープンAIがやってたことと一緒でね、何て言うのかな、過半を取った者勝ちの世界だから、それを目指してるんでしょうけれど。
そうですね。
スピーカー 1
価格帯で言うと、さっき言った3大グーグルはですね、同等と本人たちは歌ってる性能のモデルをほぼただ同然で出してたりとか、さっきのノートブックLLMとか音声ファイル作るのもただなんで、
そういう別の広告費とかで賄って投資して運用できてるところと価格競争するのもなかなか大変な世界だなと思うんですけど。
スピーカー 2
いやまあ戦国時代が過ぎるので、どうしたものかという感じですけど。
そうですね。
その焼け野原で立ち上が、最後まで立ってた者のみが勝てる世界なので。
スピーカー 1
本当、オープンAI社とそのグーグルの方、マイクロソフトもそうなんですけど、生成AI人材の離脱とか流動性って今すごくて、
オープンAI社からアンソロピックに行く人もいるし、アンソロピックからまた外に出る人もいるし、
グーグルもマイクロソフトも抜けては出て抜けては出てみたいなのを本当に2,3ヶ月に1回くらい見る状態で、
それもAIチームのトップみたいなテックリードの人が抜けるみたいなレベルの話がしょっちゅう出てくるくらいには本当に抜かれてて、
オープンAIとかこのAIを推進してAIについての理解が深まると、大体みんなベンチャーでそのAIを使って世の中をこう変えたいの方に走り出して、
多くのAI有識者が今ベンチャーのCTOをやってるみたいな感じなんですね。
なのでこのベースモデル、生成AIとしての基礎を上げ続けられる会社になっているのが今アンソロピックくらいなので、
ちょっとそういうポジションは維持してほしいなという思いがあります。
スピーカー 2
確かにそうですね。
まあそのスタンスの会社があった方がユーザーとしては嬉しいので。
応援したくなる気持ちはわかる。
スピーカー 1
勝ち残れるのかどうかはすごく言いませんね。
スピーカー 2
ちょっとわからないなというか、うーんって感じで。
そのなんやかんやあってオープンAIみたいになっちゃう可能性もあるので。
スピーカー 1
めっちゃありますね。いつなっても不思議じゃない。
スピーカー 2
ちょっとわからんなぁと思うところではあります。
スピーカー 1
はい、まあということで、生成AIのちょっとした進歩ですけど共有でした。
はい、私の方最後ですね。
Viz UDP Gothicと99.99%同じだけど、数字が遠幅の帳表UDP Gothicフォント公開ということで、
スピーカー 2
プログラミング生放送という記事の紹介です。
スピーカー 1
森さんはViz UDP Gothic、皆さんマイクロソフトのWindows使ってれば標準で入ってるやつですね。
半画1と全画1の幅のみを変更し、数字0から9を遠幅にしたフォントを帳表UDP Gothicを公開しました。
ということで、もうこれが全てではあるんですけれども。
それがGitHubに公開されてるんで便利ですよっていう話で、
そもそも聞いてみたかったのが、これ自体も面白くあるんですけど、
UDP Gothicの浸透度ってどうです?周りでみんなUDP Gothicって使ってますか?
スピーカー 2
いやー、まぁ会社では使ってないですね、という感じはしますけど。
個人的にはね、やはり読みやすいのはありますので、積極的に使っていきたいなとは思いますけど。
スピーカー 1
仕事上だとやっぱり会社の定義してるフォントがU Gothicだったりメイリオだったりする感じですか?
うちもそうなんですけど。
スピーカー 2
まぁそういうことにしておきましょう。
スピーカー 1
まぁまぁまぁ。
スピーカー 2
まぁまぁまぁ、という感じですけど。
スピーカー 1
そうですね。結構そのUDP Gothic大好きで、もう断るごとに宣伝する側ではあるんですけれども、
まぁここにある通り、ちょっとしたことではありますが、
UDP Gothicを伝えたい一番パーポやらワードとかを書き書きする人の資料には大量の数字が登場するので、
その数字の見やすさっていうのは非常に重要視されるところがあったので、これは大変嬉しいなと思っているところですね。
あとちょっとこの回の少し前に初めて知って、東田さんから教えてもらったことではありますけど、
政府の方も新しいフォントの定義をされようとしてるっていうのを知って、何民調だったかもう忘れちゃいましたけど。
スピーカー 2
行政事務標準東洋民調フォント。
スピーカー 1
ですね。もう再度読み上げると私も舌噛みそうなんで読まないですけど。
こちらで同じく、ユニバーサルデザインではないんだけどアクセスビリティとかはかなり気にされてる。
政府として統一規格的にやっていきたいフォントとして定義されてて、
最近だと10期とかに登録された戸籍のようなフォントとかを、
多様なフォントがある中で基本的にはこのフォントで統一しましょうみたいな、そういう定義付けされたフォントとして導入を広めていって、
いろいろなフォント違いみたいなところのコスト削減をしていこうという、そういう動きが始まってるようなので、
スピーカー 2
皆さんフォントを大事にしていきましょうという、それだけの話はあるんですが。
はい。
ちょいちょいUDPゴシックに関してはちょっと一個ツッコミのこれが私としてはありまして、
UDゴシック使えばいいじゃんっていう感じなんですけど、
要はプロポーショナルじゃなければ全部等幅なので、
そっちでいいじゃんと個人的には思っちゃうんですけど、
まあまあまあそうは言っても確かに全部等幅フォントだと、
スピーカー 1
アルファベットのiとかがね、すごい空間があって気持ち悪いというのは分からんでもない話なので、
スピーカー 2
まあそういう用途では軽いところに手が届くのかしらっていう。
この記事いわくUDゴシックの数字は細すぎるらしいですよ。
スピーカー 1
私あんまり分かんないけど。
スピーカー 2
はい。
うーん。
あーなるほど。細すぎる。
スピーカー 1
UDPゴシックの方がボルトなのか?
スピーカー 2
そんな違いがあるのか?
それは知らなかった。
スピーカー 1
ちょっと今Windowsのフォントページからですね、両方並べて見比べてますが、
あのー、私の拙い目では違いが全然分からない。
スピーカー 2
まあまあまあこだわりがある人には分かる利点ということで。
スピーカー 1
あ、ごめんなさい。
そうかそうか。UDPゴシック、UDゴシックって同じフォントファイルだからページ分かれてますね。
あー、確かにUDゴシックの方は昔ながらのゴシックくらい潰れてますね、幅が。
スピーカー 2
あー、遠幅が?遠幅がもともと遠幅の間隔だからかなり広いってこと?
スピーカー 1
そう、UDゴシックの遠幅が狭い。半角基準にあってる。
スピーカー 2
はいはいはい、あーそういうことね。数字だから。
スピーカー 1
だから全角基準の遠幅の数字のフォントが欲しい人向け。
スピーカー 2
あー、それは結構分かりますね確かに。
スピーカー 1
分かるなー。なんかその辺の信任戦のために半角にしないでくださいみたいな状況とかあるしな。
スピーカー 2
あるけど、まあでもそのフォントの組み立てとして数字はね、デフォルト半角っていうのがA字と一緒でっていう。
まあ前提があるのは分かるので。
なるほどね。
あー、利点が分かりました。確かにそれはちょっと欲しいですねというところ。
スピーカー 1
ほんと痒いところにって感じだけど。
スピーカー 2
なので良いと思いますというところですね。
スピーカー 1
はい、まあここまでフォントにこだわる仕事をしてる人がどれだけいるか分かりませんが、
気になったら使ってみてはいいかも。
スピーカー 2
読みづらいフォント使われてるとマジで読みづらいし疲れるのでね、生産性も下がりますからね。
スピーカー 1
そうですね。最近UD Gothicを進めて、こんな素晴らしいフォントがあるなんて知らなかったデスクワークの目の疲れが半分になったって本気で喜んでる人が近くにいたので、
ちょっとその人に再度勧めとこうと思います。
スピーカー 2
良かったです。会社のパソコンにこのフォント入れれるかどうかはまた別だと思いますけど。
スピーカー 1
まあどうなんだろう。フォントのルールってIT部門的に規制が。
スピーカー 2
いやー結構微妙だと思いますね。
スピーカー 1
微妙やね。確かにね。フォントデータってダブルクリックインストールだから結構ウィル仕込みやすいよな。
まあまあまあ。という簡単な紹介でした。以上です。
スピーカー 2
というところで実現できるメリットが多いということで開発しております。
ただ現在開発開発言ってますけど、中が空洞なんですけど、光を反射させないといけない。
ということでどうやって反射させる、きれいに反射させるか。
しかも損失なく反射させるかというのはなかなか難しくて、
今開発をめちゃくちゃ頑張っている中で古川電工さんが革新的なコア技術の実現により、
今これは100メートル級かな?とかで実際引き出したコア、ファイバを使って通信に成功しましたというところらしいです。
スピーカー 1
これが事実なら素晴らしいしかないというか、かなりのブレイクスルーだと思うんですけど、
まず支援のところで言うと、日本からアメリカが大体1万キロくらい。
なので50ミリ秒くらい。
格ゲーマーにとっては2フレームくらい落ちると。
スピーカー 2
まあそうですね。
スピーカー 1
なのでその2フレームが1フレームになるって言えば格ゲーマーは泣いて喜ぶんじゃないかなと思いますけど。
スピーカー 2
そうですね。
スピーカー 1
FPSゲーマーもそうかな。
スピーカー 2
格ゲーマーもありますし、あとは医療とか株式の通信とか、そういうのでは高い需要があるらしいですね。
スピーカー 1
なので数字がでかかったり小さかったりしすぎてなんとなく感覚がわからないっていうのがある人は、
日本とアメリカの間でやったらもう大体遅くて話にならないゲームのリモートなんてやってらんないよねって言ってるのが緩和される可能性があるって言ったらちょっと夢が見れるんじゃないかなと思います。
スピーカー 2
うん。
スピーカー 1
現実そこはね、激的な改善っていうことじゃないかもしれないですけど。
スピーカー 2
でもかなり大きいと思うので。
スピーカー 1
低損失のところもなかなかすごいなと思ってて。
光を扱う難しさって素人ながらにもクッソ難しいっていうのはなんとなくわかるんですけど、光なんて日常的にどんどん損失してるというか、
吸収されたり反射されたりっていうのがすごい多岐にわたって起きてるから私たちの人間の目ではいろんなものがいろんなふうに見えてるわけで。
そういった取り扱いの難しい光を低損失に取り扱える技術っていうのはなかなか言葉だけでパワーアド感があってものすごい夢を感じるんですけど。
これ、新しい空港コアって言われてるものが従来のファイバ形式と比べて、どの辺が一番肝なのかっていうのも正直あんまりピンときてなくて、
この綺麗な穴の作りっていうのがどうその光にいい影響を与えてるのかっていうのがまだあんまりピンときてないんですけど。
スピーカー 2
そうですね。なので現実的に作るのが難しいというところがありますと、古川伝孔さんの論文、技法かこれは、とかも読んでみるんですけども、ちょっと解釈間違ってたら申し訳ないんですけど。
光ファイバは屈折率の違うものを重点にして、その界面で反射してるわけですよね。
なんですけど、このコアファイバケーブルもそういう感じで反射させるんですけども、反射していくうちに波長の波、光の波を多重に反射させるんで、
希望の波長以外の波もできてしまう。って言っていいのかな。
すみません、表現が難しいです。
スピーカー 1
ついていけてないです。
えーと、伝送するために作りたい光の波形がまずある状態で、どんだけ頑張って直進性を保とうとも限界があるから、
服装じゃないけど、自分の光の発信源による外部ノイズみたいなのが起きえちゃうっていう感じ?
スピーカー 2
うーん、かな?
なんて言えばいいんでしょうね。
スピーカー 1
難しい。
スピーカー 2
私も理解が足りてないですけど。
スピーカー 1
私も一緒に今論文頑張って上から読んでるんですけど。
スピーカー 2
これなかなか面白いことが書いてあるっぽいんですけど、何だろう。
規定モードっていうのがあって、それだけにしたいんだけど、こういうモードが発生して、それがノイズになるというか。
そいつが邪魔するんで、結果的に伝送したものを取り出すとノイジーになって何がないやらって感じになってしまうと。
なので今回の古川電工さんは、センターコアっていう中心のメインの伝送管の横にちょっと大きい、ちょっと小さいか、ちょっと小さいサイドコアっていうのを作りました。
ってやることで、発生したノイズ成分というか工事モードっていうのをその隣の管に染み出させるっていうか、隣の管が吸収することによってセンターコアに規定モードだけを載せるっていうことを実現しているっぽいですね。
スピーカー 1
なんかあれですね、電子回路のローパスフィルターみたいな感覚がありますね。
コンデンサとかで高周波だけを取って取り出して横にずらすみたいな。
スピーカー 2
みたいな感じかなーっていうイメージですね。
スピーカー 1
はいはいはい。
いやーすごいな、そんなことが出来うるんですね。
スピーカー 2
ですねーという感じもありますし。
あとすごいのが、このハチノス構造をファイバーなんでめちゃくちゃ長く作らないといけなくて、それを綺麗に作る技術っていうのがすごいですよ。
スピーカー 1
どうやって整形するの?後から抜くなんてもちろん無理ですよね、こんなん。
スピーカー 2
うーん、後から抜くのは無理なので、ガラスを引き出してるらしいんですけど。
暑い状態のガラスをミューって伸ばしてグラスとか作ったりするじゃん。
まあああいうイメージっぽいんだけど、本当に出来るの?って感じはするんだけど。
スピーカー 1
で、なんか熱収縮みたいな過程でこうやって霧に穴が開くみたいな。
スピーカー 2
そうですね、なんか綺麗な自己整合をするみたいな感じっぽいです。
スピーカー 1
なんかあれですね、泡の表面張力が最適化を取ると6掛けになるみたいな、ああいう原理を使うとかそういうのかな。
スピーカー 2
使ってるか使ってないか、感じはしますけどね。
スピーカー 1
そしたら真ん中にでっかい穴を開けてとか、穴の間に1個だけの小さい穴を開けてとか、こういう設計が出来る気があんまりしないけど。
スピーカー 2
なんでそこが多分味噌で、この泡のサイズはある程度多分制御できるんですけど、
隣の泡とくっつかないように綺麗にこの泡のサイズを制御するとか。
スピーカー 1
そうですよね。
スピーカー 2
いうのがかなりの技術が必要なんでしょうね。
スピーカー 1
いやー、そうだと思う。なんか全く想像つかないです。どうやったらこれができるのか。
スピーカー 2
製造方法はさすがに書いてないのでちょっとわからなかったんですけど。
スピーカー 1
書いたらもう特許には出てるかもしれないけど、書いたらもう取られちゃうよ。
スピーカー 2
特許には出てるでしょうけど。
っていうところ。
あともう一つ難しいっていうところが、通した信号を別の機械に持っていくときの接続部分ですね。
コネクタ部分っていうのがめちゃくちゃ難しいらしくて。
これも私知らなかったんですけど、光ファイバーってそういうファイバーとファイバーでつなげる時ってなんか溶かしてるらしいんですよ。
スピーカー 1
溶かしてる?
スピーカー 2
端面を溶かしてロスがないようにしてくっつけるらしいです。
スピーカー 1
ガラスコアですね。元々のファイバーが中心にガラスになってて、そのガラスの端っこを溶かしてガラス同士をくっつけるみたいな。
普通にガラス在庫でガラスとガラスくっつけてコップの音を作るみたいな。
そのノリでくっつけてるってこと?
スピーカー 2
そうですね。はい。
スピーカー 1
すごい。マジかよ。すごすぎるな。
スピーカー 2
なんですけど、これ中が空なので溶かしてくっつけるっていうのができないらしくて。
それはそうでしょうね。
それもちょっとこれも私の理解が及ばなかったんですけど、そこの特殊な装置によりファイバー自体の損失は0.6dBらしいですね。
あ、違うか。挿入損失が1.4dB。
なので、そこまでコネクターにより損失を少なくするってことができてるらしいですね。
スピーカー 1
金4も相当すごいけど。
そこも謎技術すぎるな。
スピーカー 2
謎技術すぎる。よく分かんないんですけど。
スピーカー 1
そうだよな。
あれですよね、光ファイバー系って遠くなりすぎたらアンプとかも挟みますよね。
スピーカー 2
そうですね。海底の光ファイバーとかもアンプ、あれもなんかすげえ謎技術ですけど。自己増幅アンプみたいなのが入ってるんですけど。
対応して。
スピーカー 1
でもあれか、強度上げられるって言ってたから、あのアンプを多くかつ減らせる見込みなのか、これ上手くいけば。
スピーカー 2
そうですね。これが上手くいけば最初に地上で強力な光をぶち込んで、それを対岸まで通すってことができるんじゃないでしょうか。
ロマンですね。すごいな。
スピーカー 1
NTTの人は全部引き直しですかって泣いてるかもしれんけど。
スピーカー 2
こういうのは重ね重ねで持ってくんで、今までの光ファイバーが無駄になることはないですからね。
スピーカー 1
順調系として足していくぐらい。
スピーカー 2
そう、足していきますから。
スピーカー 1
いやー、すごいね。すごいね。
スピーカー 2
っていう感じで、まだ技術的難度は高いらしいですけど、開発中というか緊急開発中らしいですけど、今後に期待ですね。
スピーカー 1
そうですね。古川電工さんって、普通のキャブタイヤケーブルとかいったらもう初歩的すぎるかもしれないけど、そういうケーブルでしかお世話になったことなくて、こんなことやってたんだっていうのもちょっと驚きでしたね。
スピーカー 2
そうですね。電線屋さんという印象だったので。
まあでも電線であることには違いはない。電線?ファイバー線?光線?配線であることに違いはないので。
スピーカー 1
間違いないです。
いやー、お見逃れしました。
スピーカー 2
という感じの紹介でした。
スピーカー 1
はい。