普通に僕らの場合だったらあれ聞いてくださいって言えばいいんじゃないですか。
ちょっとタイムリーじゃないのもあるかもしれないですけどね。
確かに定期的に発信してますからね。
ありがとうございます。
でですね、またご新規さんがいらっしゃいまして。
最近セキュリティのあれ聞き始めた。
最新回から遡っていると徐々にお三方のパーソナリティが明かされていく感じでセキュリティの話と合わせて二重に楽しめる。
ゲームやスニーカーが好きだったりアップルが好きだったりインコ買ってたりという。
確かにね。
逆に古いところに戻していくパターンなんやな。
でもあれではね、前も言ったけどさ、ご新規さんで段々段々遡って聞いてるっていう人とかさ、
最近の聞き始めて、時間になるときに最初の回から聞き始めましたとかさ、いろいろパターンあるんじゃないかね。
1時間ちょいぐらいやからね。週の前半に聞いちゃうと後半聞くのないみたいになってしまうかもしれない。
それでちょっとつまんで聞くとかいう人もいるみたいですけどね。
嬉しいですね。ありがとうございます。
ありがとうございます。これからも聞き続けていただければと思います。
先週文を聞いて思ったこと。
通勤のお供に聞いているのですが、最初の雑談&お便り紹介が終わるあたりで最寄駅に到着することがあるのですが、
それで今週文を聞き終わったと勘違いしてしまうことがあります。
それを週末に気づいて慌てて本編を。という風に書いててですね。
なるほど。
すごいですね。これ要は僕らでいう控室で話が盛り上がったみたいなもんと一緒ってことでしょ?
そうだね。
すごいですね。それただの雑談ラジオみたいなのを聞いただけっていう。
かといってさ、ほら一応僕チャプターつけてるからさ、本編から聞こうと思えば聞けるんだけど。
でも雑談聞いてほしいですよね。
そう、雑談というより飛ばされちゃうとそれはそれで悲しいよね。
結構雑談好きですからね。
そこで終わっちゃって聞いた気になってもらうのも困っちゃうけど。
そうですよ。
面白いな。
いろんなパターンがあるんですね。バイバイを最初に聞きたいとか。
寝落ちするからってね。
聞いた気になって週末に思い出すやらいろいろあって面白いですね。
いろんな聞き方ありますね。
でですね、あとは最後のお便りなんですけども、これは情報提供ですかね。
いつの間にかプロトンパスのMacアプリがリリースされてた。
このセキュリティのあれで紹介されてからプロトンパスユーザーになったけどというふうなことで。
地道に改善されてていいですねという。
だいぶ前だっけ俺が紹介したのかな確か。
多分プロトンとつけばネギスさんじゃないですか。
多分ね。僕は今メインでワンパスワード使ってるんでプロトンパスは検証用に入れてるだけでメインでは使ってないんだけど。
結構長引きそうですよね。
去年が確か3万件弱とかあった気がするけど。
それで見ると1日に約80件ぐらい登録されるぐらいの計算になるんですよねこの3万ぐらいって。
CVEの数がってことね。
ちなみにCVEで発行された数ねその年に。
23年だったとしても22の番号がつかれてでも発行したのは23ってカウントしたとして。
見るともう今2024年でさっき見たら14484件あります。
なんか2024年に入ってからだいぶブーストかかったっていうか。
数が増えてるよねちょっとね。
だからほらあの前に看護さんが言ってたみたいにさNVDの情報が追いついてないみたいな。
大変なことになってます。
大変なことになってますよね。
2013年から計算すると10年2023年までで確定してるやつまでで6.8倍の脆弱性の件数になってるということで。
これが増えれば増えるほど脆弱性スキャナーっていうふうなもので見つけるのが困難な状況にどんどんなってくるんじゃないかと。
登録する側がね遅れてしまってるわけですから。
スキャナーの方になってきたらもっと大変ちゃうのみたいなところである2つの脆弱性スキャナーを比較してるんですね。
比較してるのがイントルーダーという会社の分析で比較してる脆弱性スキャナーはNESASとオープンバスっていう。
オープンバス自体はNESASから派生したオープンなスキャナーとして使われていることが結構多いですけれども。
それぞれのカバー範囲とかっていうようなものをどんどん比較していってるんで、レポートは結構長いんですけれども、それをいくつかつまむと。
NESASはですね、今までの脆弱性のカバー率っていうところで言うと49572件のCVEをカバーしてて、
オープンバスは44306件ということで、それぞれ比較すると10%ぐらい件数が違う。
オープンバスの方が少ないってことなんですよね。
2010年以降に発行されたCVEの件数っていうのが118528件なので、これをそれぞれがどれぐらいカバーしてるかというと、
NESASは41.82%、オープンバスは37.38%ということで、両方とも半分はカバーできてないと。
ただ古いものって別にカバーしておく必要あんのかとかっていうふうなスキャンの速度に影響したりするので、
こういうのは全部カバーしてりゃいいってもんじゃないというふうに僕も思ってるんですけども、
現状としてそれぐらいのカバー率だということになっています。
それぞれのNESASとオープンバスの2つがそれぞれどれだけ重複している脆弱性を見れているのかとか、
あとは各々で見れているやつは何なのかっていうのも比較していて、
重複しているのは37557件で67%ぐらいは重複していると。
一緒にあっても両方とも見つけてくるやつってことですよね。
で固有になっているのがNESASの方は12015件でオープンバスの方は6749件。
ここは重複なしでそれぞれでしか見れない部分というところなんですけども、
パーセンテージで見るとNESASに軍配という感じがすると思うんですが、
これをリスクのカテゴリーで、ロー、ビリアム、ハイ、クリティカルみたいなやつありますけども、
それで全てにおいてNESASが勝っているんですけれども、
脆弱性のカバー率がどんどん危ない脆弱性になるにつれて、
差が少なくなっていっているってことなんですね。
やばいやつほどそんなに件数の差がなく、
オープンバスもきちんとカバーしているっていう風なものになっていましたね。
でもあれだね、ちょっと意外意外というか意外でもないのかな。
NESASの方はね、さっき言ってたけど商用のテナブルという会社が優勝でサポートしている今はね。
もともとNESASから発信しているけど、オープンバスの方はオープンソースでアップデートとかがされているから、
カバーしている範囲が違うとはいえ、もっと結構重複しているかなと思ったけど、
意外のそれぞれでしかチェックしないやつって結構多いんだね。
知らなかったな。
あとさっきのさ、クリティカルになればなるほど重複率が高くなるっていうか、
それは何となくわかるっていうかね。
やっぱ対応書関とみたいなね。
重要なものはさすがにどっちも対応するよねみたいなね。
今のCVEの件数でこの案件見ていくとみたいな話しましたけど、
これっていうのはローカルの脆弱性とかも含まれているんですね。
なるほど。
例えばログインして、クレデンシャルスキャンとかって言ったりしますけど、
情報を与えて中見ていくっていうスキャニングもできると思うんですけども、
それをリモートのみに絞った比較っていうのをこのレポートはやっていて、
これだけで見ると全体で見たら、
リスクカテゴリはロー、ミディアム、ハイはオープンバスの方が件数多かったんですよ。
きちんと見れてる。
で、クリティカルのみネサスが勝ってるっていう風な、
それも結構近差っちゃ近差なんですけど、
こういう差もありましたよという風なことが書かれてありましたね。
なるほど。
で、今ちょっと触れたローカルで見るとっていう認証チェックとか、
クレデンシャルスキャンとかいろんな呼び方ありますけども、
これを比較したときにネサスの方は、
エージェントをインストールしてチェックするっていう機能もあるんですよ。
ただオープンバスにはなくて、
SSHとかSMBとか認証情報を与えて中身に行かせるっていうスキャン、
認証スキャンっていう風なものは両方にあるっていう違いがちょっとあるんですけど、
ただね、これも結構僕、確かにそうなのかって思った。
ハッとしたことがレポートに書かれてたんですけど、
どっちのスキャナーもですね、
リモートでその脆弱性をチェックするっていう風なリリースの前に、
ローカルチェックの方が先にリリースする頻度が高いんですよね。
ああ、そうなんだ。
当たり前っちゃ当たり前かもしれないですね。
レジストリ見りゃすぐ分かるとかっていう風なものとかって。
ただ脆弱性スキャナーって僕らが、
僕が昔から触れてたから、
外からスキャンするっていう風なとこに重きを置いたツールと思い込んでたんですけど、
今はそうじゃないのかもしれへんなという。
あれだよね、さっきのエージェント機能もそうだけどさ、
Nexusもそうだし他の製品もそうだけど、
今は単なるスキャナーっていうよりも脆弱性管理のトータルな製品として
発展するっていうものが多いというか、Nexusもそうだよね確かね。
そういうのの自然な流れかもしれないね。
その外からスキャンするっていう風な手軽さっていう風なものを重要視したい場合もあるかもしれないですけど、
最新の脆弱性を早く常にチェックしたいっていう風なことを考えてるんだったら、
エージェントベースか、もしくは認証スキャンっていうハードルを超えられるんだったら、
こっちを選択するのが正しいアプローチなのかなということですね。
よく脆弱性の悪用までの期間みたいな話ちょいちょい出てきたりしますけど、
その期間内に見つけ出さないと早く、それで対処しないとってなると、
ちょっとでも早く見つけるためにはこっちを使うことを検討した方がいいのかなっていう傾向的に。
なるほど。
そうなんですよね。そんなことが書かれてあって。
そうですね。見てて思ったのは、この記事自体は両方使わない、見られへん部分があるから、
うちの製品そんなことできませんみたいなことが書かれてあったんですけど、
そのカバレッジっていう風なことももちろん大事かなと思うんですが、
運用しやすさとかレポートとかも大事かなっていうのも忘れたらあかんしなっていうのもありつつ。
あとはさっき最後の方に触れましたけど、
特徴とエージェントを優先させるっていう風なことを考えると、
なくなりはしないんだけど、脆弱性を外からスキャンしていくっていうアプローチ自体が
もうちょっと考え直さなあかん時期に来てるんかなって思いましたね。
なんか不確か、手軽なんですけど不確か。サービスとして提供はしやすいと思うんですよね。
サービス提供する側としては。コンサルするとかだったらいいかもしれないけど、
確実に見つけてきてってことを考えたら、やっぱり今のご時世考えるとローカルにインストールするか、
認証スキャンをするかみたいなことをしっかり考えないといけないかなっていう風なことを
ちょっと僕も考え始めましたね、これを見て。
なるほどね。ただあれだよね、一方でさ、最近のさまざまな脆弱性の侵害なんかも含めてだけど、
いわゆるアタックサーフェスマネージメント的なものっていうのが、
新たにさ、それやってること自体は前からやってる外部からの、言ってみれば脆弱性のスキャンと同じといえば同じだと思うんだけど、
それが見直されてるっていうかさ、外から見た自組織の状況っていうのを的確にちゃんと把握して管理しましょうっていう。
そうですね。
そういう観点は今言ったような話で言うと、リモートのスキャンに該当するのかなっていう感じもするんで、
使い方次第っていうかね、ローカルでの脆弱性の管理と、外から見たリモートでのスキャンのうまく活用の仕方なんじゃないのかな。
そうですね。
どっちかが優れていて、どっちかがダメとかっていうわけでもないかなと。
場合によったら外からのスキャンは本当にポートスキャンとバナーチェックぐらいに留めて、
あとは中から自分たち見る仕組みがあるんでっていう風に、そういうバランスの取り方もありかなと思うんですよね。
あとはさっき言った製品の違いというのも考えると、その中で管理する、チェックする製品と外からチェックする製品を別々にするとかね。
それもありかもしれないですね。
そういうことでカバーする範囲全体をカバーできるようにしましょうみたいな考え方はあるかもしれないよね。
あとはこのシステム群はリモートからのチェック、このシステム群はローカルっていう、そういうシステムごとに進み分けてもいいかもしれないですよね。
まあまあ確かにね、外部に露出していないものとかもあるだろうしね。
まあそのあたりうまく組織ごとに工夫して取り組む必要があるかなっていうのは感じるよね。
あとは予算的なところかなっていう、エージェント入れると結構高くなったりするケースもあったりするんで、
その辺を考えてどういう組み合わせにするかっていうのがセキュリティ対策する側の腕の見せ所になってくるポイントかなっていう風に感じました、これを見てて。
まあでもこれはあれだよね、今回たまたま2つの製品を比較してるけどさ、
まあ世の中同じような脆弱性のスキャンとか管理とか、あるいは今言ったようなASMだったり、
まあいろんな観点でこういう製品とかソリューションあるけど、
多分ちゃんとその比較評価してみないと、ここら辺の違いっていうのはあんまり見えてこないっていうかさ、
それぞれの製品とかサービスの強み弱みみたいなのって、
スペックだけ見ててもちょっとわかんないよね、きっとね。
これこんなに差があるとはちょっと意外だったなっていうか。
まあ確かにそうですね、使い勝手というかね、さっき僕が言ったみたいな運用のしやすさとか見やすさとかね、
あと通知機能があるかとかそういう細かいところも見ていかないとダメですもんね、運用するとなると。
いや結構ね意外でした。
知ってるようで知らんかったなっていうのがこうわかった。
そうだね、確かに。
はい、そんな感じでございます。
ありがとうございます。
じゃあ次はですね、ねぎしさんいきますかね。
じゃあ私はですね、ちょっと前のレポートなんだけど、
5月の1日かな、BitSiteっていうところがKEVのカタログに載っている脆弱性に関する調査レポートっていうのを出してて、
これちょっと面白かったんでこれ紹介したいんだけど、
最近そのKEVも結構運用し始めてからもう何年か経っているんで、
KEVに載っている脆弱性がどういうものかみたいな調査レポートってのはちょいちょい見かけるんだけど、
今回のやつがちょっと変わっているというかユニークなのは何が違うかというと、
BitSiteってランマ使っている人もしかしたら国内にはいないかもしれないけど、
結構セキュリティサービスいろいろ提供していて、今もちょうど話出てきたけど、ASAのサービスなんかを提供している会社なんだよね。
ここはその定常的にインターネット全体を常にスキャンしていて、脆弱性の有無とか、
あるいはその対応状況だったりっていうのは調査している。
そのデータを基にしてその中にKEVに含まれる脆弱性があるのかないのかとか、
あるいは途中でその脆弱性が対応されてチェックからなくなるとかさ、
そういう状況っていうのは調べられるんだよね。
それをまとめてみました。2023年1年間分ちょっとまとめて調べてみました。
そういうレポートになっていて、ざっくり全世界の140万組織っていうからかなりの組織数だけど、
の対応状況をまとめてみました。こういうレポートになっています。
全体のレポートは結構ボリュームが多いので、要点だけかいつまんで紹介したいなと思うんですけど、
まずですね、KEV自体は1000件超えていて結構数は多くなっているんだけど、
全部について調べたわけじゃなくて、このビットサイトがスキャンできるものとか一部に限られるので、
KEV全体のうち、おおよそ20%くらいの脆弱性が対象になっています。
その20%の脆弱性に対して、どれくらい2023年の検出があったかとか、
それがどういうふうに対応されたかっていうのを調べました。
このデータによると、全体の100何万という組織のうち、
おおよそ35%、大体3分の1くらいかなが、2023年に1つ以上のKEVに該当しています。
数がもっと多くなると、例えば66%、おおよそ3分の2くらいは2つ以上。
10%くらいの組織は10個以上って言っていて、確かにそれは組織によっては規模が大きければ、
年から年中KEVの対応しているところっていっぱいあるから、それは増えるでしょう。
でも少なくとも1つ以上というところが35%あります。
ただこれは全体で見て、KEVの脆弱性を該当するものが出て、
すぐになくなっちゃうわけじゃなくて、対応するものはずっと対応しなきゃいけないわけなので、
時間軸でもちょっと見てみましょう。
そうすると時間軸で見たときに、1週間あたり1つ以上KEVを既に対応しているというところがどれくらいあるかというと、
おおよそ全体の60%くらいの組織が平均すると1週間に1個KEVに対応していると。
結構多いよね。だからずっと対応し続けない方はずっとKEVを該当しますというふうにスキャン上は出るわけなので。
国ごとの違いとかもだいぶあったみたいね。
そうなんですね。
その辺の差が出る理由とかっていうのも今回あれですもんね。
外部でスキャンした結果を分析された結果なので、
数字として見えているその具体的な背景というか何でこうなのかっていうところまではちょっとわからないっていう感じですかね。
あと業種によっても例えば教育機関がどうとかテクノロジー関連の業種がどうとかって結構そのばらつきが業種ごとにもあったり、
地域ごとにもあったりとか結構データとしては興味深いんだけども、
何でこうなっているのかなっていうのが若干わかりにくいというか。
これKEVはきっと使っているだろうなっていうことではあるんですよね。
どうだろうね。
見てるって言うんですかね。
どうだろうね。
でもそのKEVで明らかにその有意な差があるのは確かなので、
さすがにKEVを見ているからこうなっているんだと思うけどね。
少なくとも連邦政府機関は間違いなく見ているだろうけど、
民間企業とか組織がどのくらいKEVのことをちゃんと認識しているからこうなっているかっていうのはちょっとわかりにくいかもね。
というのは例えばさっきの話でKEVに載っていてもKEVに載っていなくても、
CVSのスコアが高い方がやっぱり数値はいいんだよね。
修正される速さがね。
対応時間も短いし対応している組織の数とかも全然多いんで、
ひょっとしたらそういう方が数字の違いに与えている影響というのは大きいのかもしれないというのはちょっとあるんで。
果たしてこれが本当にKEVに載っているから注目度が高まった効果なのかというと、
その辺の因果関係は読み取れないんだよね。
測れないですね。
結果的に確かに優位な差はあるねっていうことは言えるけど、
だから効果があるねと言えるかというとちょっとよくわからないっていうことはあるね。
ただ割とこういう実際のスキャンに基づくデータっていうかレポートっていうのはちょっと珍しかったので、
日本まであんまりなかった気がするんで。
こういうのは多分今回一回きりじゃなくて、
継続してやっていてその数値がどう改善したかとか。
確かに。
あとこれを補強するのは他のさっきも看護さんが言ってくれたみたいな、
因果関係が伺えるような別のデータとの補強とかがあるとだいぶ説得力が違うかなという気がするんだけど。
もう少しスキャン対象の国別とかっていう流度ではなくて、
従業員規模とか。
一応組織の規模的なやつもあるにはあるけど。
あるんですよね。
従業員とかとあと予算規模みたいな。
どれぐらいの売上高の会社かとかそういう意味が。
なるほど。
なかなか厳しいね。
それがもしかしたらどっかの境界で対策がめっちゃ遅れてる遅れてないのを、
境界線がどっかで引けるんじゃないかなってちょっと思った。
やっぱりこういう現状が起きたというふうに私は思っているので、
根本的なところで言うと多分これ解決されてない状態を、
CISAがそのまま引き取るっていうのが解決に至るのかなっていう、
なんとなしの疑問っていうところもやっぱりあって、
また件数が爆増していくと、
このプロジェクトをまたちょっとバックログが束るみたいな感じになってしまうと、
それはそれでよろしくないのかなと思うので、
ちょっとその辺は脆弱性分析って全体の流れの中でもう少し、
長期的な枠組みというか取り組みのやり方っていうのが、
議論されていくといいなっていうのは見ていて、今回ちょっと思いました。
なんかでもあれだよね、これいいなと思ったっていうかさ、
おそらくその基本的なアプローチがちょっとNVDのほうの、NISTのほうと違うのは、
CISAのほうはあくまでこれSSVCがベースになっていて、
もともとそのKVを出したときにも、
CISAはSSVCの連邦政府機関向けにカスタマイズしたガイドラインを合わせて出していて、
これに従ってちゃんと対処しなさいねみたいなアナウンスを出してるけど、
でも結局そのSSVCのツリーの決める項目っていうのを、
どう扱うかっていう部分については、なんかちょっとよくわかってなくて、
それを参照してやろうとしている民間も、結局その部分は自分たちでやらなきゃいけないっていう、
そういうちょっとチグハグな感じだったんだけど、
多分だけどさ、これってそのSSVCを今既に運用している政府機関とかに対して、
今これも既にKVに乗っててアクティブでエクスプロイテーションがあるよとか、
何らかしたら今回のエンディチメントで増えたのは、
例えばまだポックが出ている状況ですとか、そういうそのKVに乗る手前の段階でも乗ることになるんで、
そういうのも含めてなんかそのSSVCの運用が多分しやすくなるようなことを目指していて、
でおそらくだけど、SSVCでそのエクスプロイテーションありになるとか、
そのここの今READMEに書いてある状況に該当するものって、
全体の脆弱性からするとおそらく1%とか2%とかすごい少ないはずなんで、
その辺がさっきのリソースの問題を多少解消しているというか、
NVDのように全部が全部ってわけじゃないけど、
それにしてもバックログが1万件溜まるというような状況にはおそらくならないはずなので、
多少そういう意図は感じられるというか違いという点では、
そのままだからNVDのあれを置き換えるというものじゃないのかもしれないよね。
ちょっとその辺の関係がよくわかんないけどね。
ただ、方向性としては非常にいいなというか、
SSVCってなんか良さげだけど、結局でも判断する部分を自分でやらなきゃダメなんだし、
解決してないじゃんって。
それが一番大変ですもんね。
そうそう、いろいろそれが根本的な課題だよねってあちこちで言ってたけど、
それを一つ解決する道としてはいい気はするけどね。
そうですね。なので、事業継続への影響ですかね。
あの部分を多分自分たちでやれば、
この今のバルーンリーチメントで公開されているデータと合わせて、
その脆弱性の取り味っていうのができるようになるのかなっていうふうには思いますね。
そうですね。なんかちょっと贅沢言うと、
このJSONの形式で公開するだけはやめてほしいと思いましたけどね。
なんで?
だってこれちゃんと分析する仕組みをちゃんと作れる人しかきちんと読み解けないですよね。
こんなのいっぱい出されても。
まあでもこれ多分おそらくだけど、自動化することを最初から考えられてるから
こういう形式なんじゃないの?APIで叩いてJSONを引っ張ってきてみたいなことなんでしょきっと。
まあそうなんですけど、もうちょっと優しいインターフェースがあってもいいんじゃないかな。
どういうのがあればいいの?
例えば何月から何日までっていう範囲を指定してね。
それで例えば能動的な悪用が行われてるとか、
いうふうなものだけペロペロって出してくれるとかさ。
なるほど。
それは自分で作れって話はわかりますよ。もちろんおっしゃる通りですよ。
それは仕組みとしてやろうと思ったらできることだと思うんですけど、
もっと広く多くの人に見れるようにしてほしいなっていう。
自分では一般の人がこれを見るということは想定してないんだろうねきっとね。
多分専門家が使うとか情報システムのIT部門の方とか、
これを加工できる人が使うとかっていう前提なんだとは思いますけど。
ないしはこれを扱ってSSVCとかを統合している脆弱性管理のソリューションが使うことを
多分想定してるんじゃないのかな。
そうですね。
だと思うんですけどね。もうちょっとユーザーフレンドリーというか。
なんていうんですかね。
なるほどね。それはだからトレードオフはあるよね。
マシンフレンドリーの方が多分取り扱いはしやすいので。
しやすいしやすい。
今は多分そっちに一旦フォーカスして、
人が見るようなインターフェースは用意してないし、
とりあえず一旦置いておくっていうのは、
どうなんだろう。リソース面とか優先順位の問題でそうしてるんじゃないの。
多分そうだと思います。
余力があったらもしかしたらそういうインターフェース作ってくれるかもしれないし。
その辺は今後に期待したいな。
そうだね。だからこれがそのまま、さっきの看護さんの話じゃないけど、
ちゃんとその継続してくれないと意味がないので。
やめまーすってなるかもしれないですもんね。
安定してリアルタイムに。
KEVもあれも本当に悪用があって1日2日とかの結構なスピード感でやってくれてるから価値が高いわけで。
1週間も2週間も経ってもう散々悪用されてから乗っかっても何の意味もないわけじゃん。