確かになんだよな
有影響
クロールしてほしくない人って
このページはオッケーだけどこれはダメみたいな
そんな設定するモチベないよな
多分何でもいいからクロールしないでって
なる気がするけど
そこはクロールさせようっていうところになってて
ロボットとテキストだとホワイトリストで指定するのが
理想というかベストプラクティスではあるんだけど
これがどうなるかなっていうのはちょっと気になっていて
同じ考え方でいくと
多分ほとんどAIの拡張に使えなくなっちゃうだろうな
と思うんで
でもそんなことはないのか
必ずしもそんなことはないのか
どうなんだろうな
どうなんだろうね
あとはユーザー遺伝と
全部追っかけるのは無理だろうなっていうのを考えると
確かにこういう仕様は絶対必要なんだろうな
まあね確かに
これどうなんだろうな
これなんか今ってダブルゲットみたいなノリで
コマンドラインからLMに食わせるみたいにできたりするようなやつってあんのかな
コマンドラインツール自体はあるよね多分ね
学習させるってこと?
学習か
学習って意味なんないね確かにね
うんベンダー側が
ラグみたいな技術も多分あるけど
多分わからない一般ユーザーが
触るようなものじゃない気がする
確かに確かに
あーちょっとどうなるのかなんとも言えないけれど
まあなんかでも動向としてはかなり興味深い
そうだね
なんか別の記事で
そのクロール勝手にすんなみたいな
なんか訴訟云々みたいな記事があった気がするから
まあそういうところのディスクレーマーじゃないけど
いやーでもなーまあ難しい問題ですね
なんか今これを決めちゃうのがいいのかどうなのかが
ちょっと僕はよくわかんなくて
その心は?
まだ過渡期じゃないっていう
まあでも今必要っていうのもわかるし
まあ難しいとこだよな
そうだね
なんかどんぐらい見えづらいのがやだね
なんかそのクロールされてるとして
それがなんかどれぐらいその
まあねチャットGPTの役に立ってしまってるというか
まあフリーライドすんなよみたいな感覚を持つ人とか事業者も
まあいる気持ちはわかりつつ
なんか実際にどうされ
なんか活用されてるかはブラックオークスだからね
なんていうか
いやーまあどうだろうね
3年後ぐらいにはみんなもう
ロボットセットテキストなりで拒否設定して
なんていうか
無視してクロールしたりするディストピアになってたりしないかな
いやー普通にありそうだよね
普通にありそうで許可してるところは逆になんか怪しいみたいな
その学習を汚染したいみたいな
そういうニーズでしか使われてないとか普通にありそうだ
そうそれはちょっと思ったんだよ
なんか現実で可能なのかわかんないけどさ
そのフェイク情報みたいなの大量生産して
クロールさせてみたいな
こう学習させるとか普通になんか
実際まあどうだろうな
そのインターネットの海の母数考えると
成り立たないかもしれないけど
怖いなと思ったりしますね
いやーこれまあでも
これどっからこういう情報を引っ張ってくるんだろうな
すごいよね
なんか相当いろんなものを追っかけてない
多分ITFに投げられてるプロポーザルとかを追っかけてるんだと思うけど
そうだね
こらすのカゼブロックさんは
使用系結構引っ張ってきてくれてるもんね
ありがとうございます
じゃあ次は
これ僕が3分前に追加しちゃったんで
あのサマリー書いてないんですけど
まあ3分前でもちょっとサクッと読んでおきたいなと思って追加して
えっとトリフセキュリティ
トリフセキュリティブログでいいのかな
の7 spooky places your secrets leak onlineっていう記事で
何かっていうと見逃しがちな
そのシークレットがオンライン上に露出しちゃう場所みたいなものを
7個挙げてるって感じで
まあおもろいなと思ったんで
まあサクッと紹介できようって感じなんですけど
えっとですね7個がまあ書いてある通りで
詳しくは多分読んでくれって感じなんですけど
まあ1個目がフォークしてそれを削除した後の
リポジトリ実は残ってますよみたいな話があって
消したつもりになってるけど残っちゃってるから
そこにシークレットあったらアウトだよみたいな
まあなんかそういうようなネタを7個並んでるって感じ
1個目がdeleted forks on githubで
2つ目がprivate forks on githubで
これは
あーこの図えそこなの
プライベートリポジトリをプライベートでフォークした後に
元のフォーク元のプライベートリポジトリを
パブリックにすると
プライベートフォークしたほうのコミットが
パブリックになるらしい
これやだな
これまじか
へー
いやでもこれはしょうがないのかな
なんかその最近知った仕様なんですけど
パブリックリポジトリを
プライベートリポジトリとしてフォークできないんですよね
なんでその仕様に引っ張られてるのかもな
なるほどね
まあでもこれは
あれかな運用ミスとかで起きるのかな
自社内のプライベートリポジトリをフォークして
実際起きるかわかんないけど
へーって感じはしますね
あとは僕Azureは昔からないですけど
プライベートフォークs on Azureリポジトリっていう
Azureのほうでも似たようなことが起きるらしいと
いうのとか
あーこれはなるほどなと思ったんですけど
ポストマークワークスペーシズっていうのが
あー
あって
まあちょっとちゃんと読んでないんですけど
ポストマークってAPIリクエストとかの
自動化とか簡単に解決するだとか思うんですけど
あの辺でおそらくワークスペースの機能があるのかな
そうですね
うん
コラボレーションとかのワークスペースの機能があるけど
まあこの辺とか設定なり読みすると
露出しちゃうよとか
これ何
GitHubのリポジトリが向こう側に
クローンされて残ってるってこと?
あー違う
ポストマークにそもそもあれか
シークレット置いてるってことか
あそうそうそうそう
そうだね
あとは消したブランチの
GitHubで消したブランチも
実は復元できるよみたいな
復元用のコマンドがある
これ面白いね
うーんこれはね
知らなかったな
まあどっかで残ってるとは思ってたけど
復元できるんだね
デリテッドブランチ
デリテッドブランチですよっていう
見え方をしてるよね
あーそうだね
しー
いやでもそうだね
なんかねハッシュ
デリートされたブランチのコミットに
たぶんたどり着けるリンクはないんだけど
ハッシュを直打ちすると実は見れるっていうのは
この前発見した
でもなんかね
そうするとこのハッシュは
デリートしたブランチのやつだから
要するにGitHub上にある
GitLogの
ヒストリーから外れた
浮いてるやつになってるから
おかしいですよみたいな
ワーニングは書いてあるんだけど
まあでも見れるのは見れたって感じ
かな
あーそうね
であとはエディットコメントオンGitHubっていう
GitHubのコメント編集履歴は見れるよっていう
まあこれはまあ
まあ知ってるでしょっていう
これはなんかそうね
シークレットに限らずだけどさ
Google Docsはなんか
履歴当たったりするよね
そうだね
ちなみにこれわざわざ
このブログ書いてるくせに
TreeFogは
編集前のシークレットはね
ディテクションしなかったです
オープンソース版に関しては
検証しました
検証したっていうか
検知されて
編集してみたら検知されなくなっちゃったから
オープンソース版は無理でした
書きにしないといけないかもしれないです
APIから触れないとかじゃないのかな
あーあるかもね
あんのかな
まああるかもな
こんなそうだね
ヒストリーの提供APIなんて
わざわざ作んないかもね
あとは
これはこの前の記事のやつですね
Base64エンコードされたシークレット
コミットすんだよみたいな話ですね
って感じで
まあ知ってるはいいってこともあれば
なるほどねっていうのもあったんで
パブリックインターネットに
プッシュすんなって話につけるかなって
気はするんだけど
いやでもこれさ
結局
まあね
うーん
これって結局プッシュしちゃったものは
リボークしましょうね
インバリデートしましょうねって話につけるよね
どっちかっていうと
あーそうだね
だからセーフってやるとアウトっていう話だから
どっちかっていうとそれが全てだよね
そうだね
現実問題としては
なるべく検知しなきゃいけないし
検知できたら
ローテしましょうっていう
ローテリーボーク
すぐ入れましょうねっていう感じかな
それが全てですね
まあ結構なんか便利テクが
多いっすね
そうだね
このコマンドは
レッドチームとかはよく使えそう
確かに
結構ね面白いなと思いました
はい
サンプルはね
次は
これは僕かな
えーっと
僕のやつで読みますけど
オーバー
オーバーサーザン
オンラインショップ
フェイクプロダクトリスティング
っていう
プリピンコンピューターの記事です
で何の話か
どういう記事かっていうと
正規のECサイトの商品データに
ニセルのデータを差し込んで
フィッシングサイトに誘導する手法が
なんかフィッシング
フィッシングチップスっていう名前の
キャンペーンで
攻撃として展開されている
フィッシュ&チップスを持っている感じなんだね
あーなるほどね
フィッシュ&チップス
オシャレすぎるな
安全にオシャレだな
で何の話かっていうと
まあ手法は
多分様々っぽくて
基本的には何かしらの脆弱性がある
ECサイトが狙われて
侵入なり
ウイルス感染なりして
その後に
なるべく割れないように2000の製品リストみたいなのを
ECサイトの商品リストに
ぬるっと追加していて
そこが
なんていうか
フィッシングサイトへの入り口になるわけ
なんでSEOの最適化とかをめっちゃ頑張って
検索になるべく引っかかるようにするとか
なんかそういう個推
ようなそれっぽい商品データを上げていて
でお客さんが
正規のECサイトだと思って
その商品ページに行って
購入のボタンを押すのか
そのどのリンクを押すのか
わかんないですけど
あそこ行くと
同じサイトを模したフィッシングサイトに誘導されて
最終的に個人情報とか
決済情報とか盗むよっていう話
でしたと
今はなんかその
Googleに
リサーチをした会社
が報告をして検索結果からは
もう排除されてるんで
検索流入での被害はないよ
って話と
あと侵害されたってわかってるECサイトも
ほぼほぼ全部クローズされてるらしい
なんか被害規模がわりと
オーバーサーサンドって言ってる通り
1000以上のECサイトがやられて
運満人だったかな
被害あった人が
みたいなことが書いてあったと思いますね
なんでわりと
被害範囲はデカめ
みたいな感じの記事ですと
個人的にはなんか
小技章とか別に斬新じゃないというか
あれなんですけど
なるほどなというか
結構
大胆というか
大胆だけど
成功しちゃったら結構
防げないよな
って気はしているし
あとなんかこれじゃあ自分の
うちとかネットスーパーのやつなんで
ネットスーパーのデータベースに変なデータが
ある日入った時にそれ検知できるか
って言われると
どうだろうなと思って
結構アプリケーション作りとか
によっては
気づくの難しいパターン
あるかもなっていうのはちょっと思ったり
したって感じですね