AIを外部脳として育てる
こんにちは、ザ・リープダイブへようこそ。今回はですね、ある企業で継続的に行われているCursor勉強会というものがありまして、その記録、具体的には2025年の6月から10月までの複数回の議事録とかメモですね、これをもとにしてAIツールの進化と、あとそれを日々の業務でどう使いこなしていくか、その最前線、これを一緒に探っていきましょう。
はい、いただいた資料を見させていただきました。これ単なるツールの使い方紹介っていうよりは、AIをどうやって自分の相棒みたいに育てていくか、そしてどう協力していくかっていう、そのリアルな試行錯誤の記録ですよね。読んでて、あなたの仕事の進め方にもかなり大きな変化をもたらすかもしれないなっていう、そんなヒントがたくさん詰まってるなと感じました。
そうなんですよ。だから今回は、この一連の勉強会の記録の中から、特にこれはっていう革新的な洞察とか、あれはあなたが明日からでも試せるかもしれない実践的なアイディア、これを抽出してお届けしたいなと、情報洪水の中でね、本質を見失わずにAI活用の今をつかむ、それが今回の狙いです。
では早速本題に入りましょうか。最初の大きなテーマとして浮かび上がってきたのが、知識はもう頭に詰め込む時代じゃないぞと、検索して対話できる外部能としてAIを育てようという、こういう考え方ですね。これ勉強会のかなり早い段階から議論の中心にあったみたいですね。
そうですね。そのコンセプトを実現する第一歩としてですね、Cursor Editorに搭載されているDocs機能。技術的には、RAG、Retrieval Augmented Generationというものですね。それが活用されていました。これは特定のウェブサイトとかドキュメントをAIに読み込ませて、その情報に基づいて回答させるっていう機能なんですけど。
ただ、注意点として挙がっていたのは、読み込んだ情報ってあくまでその時点のものなんですよね。だから、情報の鮮度を保つためには定期的な再読み込み、リロードが欠かせないよと、そういう話でした。
なるほど、なるほど。その外部能をもっと賢く、もっと使えるものにするために、次に彼らが取り組んだのが情報収集の戦略なんですね。単にググるんじゃなくて、仮称サチって呼ばれる一軍のChrome拡張機能があるらしくて、これを使って意図的に多様な情報源から知識を集めると。そういうアプローチです。
ここですごく興味深いのが、どんなキーワードで検索するかっていう、そのキーワード自体をAI、この場合はGeminiですね、これに考えさせるという試みがあった点です。例えば、AIイネーブルメントみたいな、あなたも関心があるかもしれない比較的新しい概念について、国内だけじゃなく海外の同行も含めて多角的に情報を集めたいみたいな場合にですね、
AIに、こういうキーワード群で探してみてはどうですかって提案させていたと。これ、自分一人ではちょっと思いつかない視点とか、無意識の偏り、バイアスみたいなものを排除する上で、非常に有効だなと感じますね。
具体的にはどういう使い分けを?
えっとですね、例えば、ノートからは個人の体験に基づいた深い考察とか、YouTubeからは世界の最新トレンド、特に20分以上で視聴回数が多い動画みたいなフィルターをかけて、より掘り下げた内容を探すとか。
あー、なるほど。
技術者コミュニティのQiitaからは特定の技術トレンド、例えばエッドテック分野とかですね。そして、Google検索からは広く一般的なニュースとか商業メディアの情報、みたいな感じで、各プラットフォームの特性を見極めて、意図的に情報を集めていたということですね。
なんか、それぞれ専門分野を持つリサーチャーチームを編成するような、そんな感じでしょうか。
まさにそんな感じですね。
そして、そのようにして戦略的に集めた300ページ近いURL、つまり良質な情報の種ですね。これを今度はGoogleのNotebook LFプラスというツールに一気に投入すると。
これによってですね、人間が手作業で整理したり要約したりするのはもう到底不可能な規模と多様性を持った、あなた専用の巨大な知識データベース、つまり外部脳の中核が出来上がるわけです。
うわー、それはすごい。このアプローチのなんかすごい点っていうのは、まずインプットされる情報が意図的に選び抜かれた質の高いものだってことですよね。だから出来上がる知識ベース自体の信頼性が高いと。
そうなんです。
さらに、Notebook LMプラスには情報をマインドマップ形式で視覚化する機能もあって、人間では把握しきれないような膨大な情報群の全体像とか関連性を一目で理解できる。これは強力ですよね。
ええ、強力です。そして実務で使う上で決定的に重要だなって思うのが、AIが回答を生成する際にその根拠となった情報源、つまり引用源ですね、これを常に明確に示してくれるという点です。これによってAIが最もらしい嘘をつくハルシネーションのリスクを大幅に低減できるわけです。
ああ、それが大事ですね。
ええ、自分の言葉で語る際にも常にファクトに基づいた議論ができる。これは単に便利っていう以上に、仕事の質を担保する上でも欠かせない要素だなと。
なるほど。こうして強力な外部能ができたとして、次に問題になるのは、その膨大な知識、いわば情報の枝の部分ですね。これをどうやって日々の業務の中で的確にかつ一貫性を持って活用していくのかと。
そこで登場するのが勘と枝派っていう考え方。これはどういうものでしょう?
ああ、これはですね、AIへの指示とか知識の管理を構造化するためのフレームワークみたいなものですね。
勘に当たるのは、普遍的であなたの仕事の核となるような指示とか原則。例えば、カーソルのルールファイル、.mdc ファイルってやつですね。あれに記述するような短くて具体的で常に守ってほしいルールのことです。
はいはい。
で、枝派に当たるのがさっき構築したノートブック LM プラスみたいな、詳細で広範な知識データベース群と。
AI には常にこの勘のルールを意識させつつ、具体的な質問とかタスクに応じて枝派の知識データベースを参照させる。
こうすることで、AI のアウトプットに一貫性を持たせながら、状況に応じた深い洞察とか具体的な情報を提供させることができるという考え方ですね。
なるほど、深いですね。勘で方向性をしっかり定めて、枝派で肉付けしていくと。
AI との共同において、なんか非常に重要な考え方になりそうですね。
コンテンツ生成の革新
さて、知識の管理と活用というインプット側の話から、次は AI を使った具体的なアウトプット、つまりコンテンツ生成とか業務自動化の話に移りましょうか。
勉強会では初期の頃に、例えば LP、ランディングページとかプレゼンスライドをゼロから AI に作らせても、なかなか人間、特にデザイナーさんとかが、満足するレベルのものが出てこないぞという課題がかなり議論されていたようですね。
ありましたね。なんか違うんだよなっていう感覚ですかね。その課題に対する一つの有効な解決策として提案されていたのが、いきなりゼロから作らせるんじゃなくて、まず人間がこれは優れてるなって感じる既存のウェブサイト。
例えば事例として上がってたのはジンスパークのサイトとか、アップルの公式サイトとかですね。これらをお手本として AI に提示して、それをリバースエンジニアリングさせるっていう手法です。
リバースエンジニアリングですか?具体的には。
えっとですね、そのサイトの HTML コードを AI に読み込ませて構造を分析させたりとか、あとは Google AI Studio のスクリーンチャスト機能っていうのを使って、サイトがどういうふうに動くのかを録画して、それを AI に見せたりするんです。
そうやって優れたデザインの裏にある構造とか、おそらく使われているであろうプロンプトの要素みたいなものを抽出学習させると。
へー。
そして、その抽出した構造から製品名とかの雇用情報を変数みたいに置き換えて、汎用化したものをホネホネプロンプトと名付けてましたね。
ホネホネプロンプト。
へー。
あー、これが他のどんなテーマにも応用可能なホネホネテンプレートとして非常に有効だと報告されていました。
なんか、アップル風のレイアウトでドラえもんの紹介サイトを作るとか、そういうデモもありましたね。
ホネホネプロンプト。面白いネーミングですけど、発想はすごく実践的ですね。
他にも具体的な自動生成ツールとかプロンプトがいろいろと紹介されていましたが、特に印象的だったものってありますか?
そうですね。いくつか挙げるとすれば、まずはマークダウン形式で書いたテキストから、HTML製のプレゼンスライドを自動生成する一撃勝スパークスターっていうプロンプト。
これも便利そうだったんですけど、ただ使うAIモデル、例えばクロード3オーパスみたいな、より長文処理が得意なモデルを選ぶとか、そういうことによって結果が大きく変わったりとか。
あと、AIが不覚な情報を生成しないように入力情報をちゃんと精査したり、プロンプトで注意を促す必要があるようみたいな、そういう実践的な知見が共有されていましたね。
ああ、単にプロンプトをコピペするだけじゃダメで、やっぱり状況に応じた調整が不可欠だと。
そういうことです。ツールを使いこなす上での試行錯誤が伝わってきますよね。
えー、Googleスライドを自動生成する魔人式プロンプト、ジェンスパークメソッドっていうのもありましたね。
AIの自動生成機能
これはジェミニーとGoogle Apps Script、GASを連携させるちょっと高度なものでしたけど、例えばAIが生成したカラーコードが8桁でGAS側でエラーになるみたいな、かなり細かいんですけど重要なトラブルシューティングの話も出てました。
ありましたね。
驚いたのは、スライド本体だけじゃなくて発表者用のスピーカーノートまで自動生成してくれるっていう点ですね。これは手間が省けますよね。
あとは、インプットした情報をもとに図解入りのウィキページみたいなHTMLを生成する大図鑑作成プロンプト。
これはメイメイドっていう記法を使ってフローチャートなんかも自動で描画してくれるので、単なるテキスト情報だけじゃなくて会議の議事録とか顧客との対話スクリプトなんかを後から視覚的に整理したり分析したりするのに役立つんじゃないかっていう可能性が示唆されてましたね。
データを可視化するという点では、自然言語で指示するだけでインタラクティブなグラフを作成できるグラフMCPも注目されていましたね。
CSVデータを渡せばChart.jsを使った綺麗なグラフを生成してくれると。
さらに単にグラフを作るだけじゃなくて、このデータ他にどんな見せ方ができるってAIに問いかけて、円グラフ、レーダーチャート、バブルチャートとかChart.jsが持つ多様な表現方法を探求する超具体化っていう思考プロセスも紹介されていました。
これはデータ分析の幅を広げそうです。
そしてより高度な応用例として、Cursor Editorのコーデックス機能、中身はGPT-4とかもっと新しいモデルが使われているようですが、それを使ってGitHubにあるソースコードを直接読み込ませて、そのソフトウェアを紹介するLPを生成させるっていうデモがありましたね。
ソースコードからLPを?それはなんかすごいですね。
ここで重要だなって思ったのが、プロンプトの工夫なんです。単にこのコード読んでLP作ってって指示するんじゃなくて、このソフトウェアの高品質なLPを作るために、私に聞くべきことは何ですかってAIに対話を促すんですよ。
ああ、質問させるんですね。
そうなんです。こうすることで、AIは自らアプリの機能とか目的、ターゲットユーザーとか、LP作成に必要な情報を深く理解しようと質問を重ねてくる。
結果として、表面的な情報だけをなぞったLPじゃなくて、ソフトウェアの本質を捉えたより精度の高いLPが生成できる可能性が高まるっていうわけですね。
AIに質問させることで、より深い思考を引き出すアプローチ。
MCPの活用とリスク
なるほど。AIとの対話の質がそのままアウトプットの質を左右すると、いや深い。個々のツールの話もすごく興味深いんですけど、勉強会ではこれらのツールをさらに連携させていく仕組みについても議論が進んでいましたね。
MCP、モデルコンテクストプロトコルっていう言葉が出てきましたけど、これはどういうものなんでしょうか。AI界のUSB-Cみたいな説明がありましたが。
まさにそのUSB-Cの例えは分かりやすいと思います。
MCPっていうのは、異なるAIツールとかサービスを標準化された方法で連携させるための接続企画みたいなものですね。
これによって、例えば非常に高性能なウェブ検索ができるエギザAPIとか、ウェブブラウザの操作を自動化するプレイライトみたいな外部のツールをカーソルエディターの追加機能として組み込むことができるようになるんです。
へー、それは強力ですね。まるでエディターに新しい能力を与えるみたいな。
しかもそのインストール作業も進化していて、以前は設定ファイル、JSONとかを手書きする必要があったりしてちょっと手間だったんですけど、最近ではAIエージェントに対して自然言語でこのGitHubにあるMCPを使えるように設定して、APIキーはこれねみたいな指示を出すだけで自動で設定を完了するケースも出てきているようです。
おーすごい。
MCPっていうのも存在すると、中には悪意のあるコードが含まれている可能性も否定できないので、安易に導入するんじゃなくて、提供元を確認したり評判を調べたりする慎重さが求められるっていうセキュリティに関する警鐘も鳴らされていましたね。
なるほど。便利さの裏にはリスクもあると、これは肝に銘じておく必要がありますね。
そして、このMCPで拡張された様々な機能を持つAIエージェント、カーサーで言えばそれぞれ独立して動くタブみたいなものですが、これらを複数同時に起動して、それぞれに別のタスク、例えばAタブは競合製品のリサーチ担当、Bタブはこの分野の専門用語集を作成、Cタブは最新の技術トレンドを調査、みたいな形で役割分担させて並行作業させる。
これがエージェントワークフローという考え方ですね。
その通りです。これは、AIに自律的に作業を分担進行させることで、人間の生産性を文字通り桁違いに向上させようというアプローチですね。
勉強会では、これは今後、知識労働者にとってもう必須のスキルセットになるだろうとかなり強調されていました。
イメージとしては、複数の優秀なアシスタントに同時に指示を出してプロジェクトを進めていくような、そんな感覚に近いかもしれませんね。
複数のAIを同時に動かす、なんか未来感がありますね。
さらに、その先にある概念として、カムイコードっていうAIオーケストレーションの話も出ていました。
これはどういったものですか?
これはさらに一歩進んで、画像生成AI、動画生成AI、音声合成AI、構成案作成AI、といったそれぞれ専門分野を持つ複数のAIエージェントを連携させて、
例えば、このテーマで解説動画を作ってっていうたった一つの指示だけで、動画制作に必要なすべての工程を自動で実行させるような、まさにAIによる自動化の究極形を目指す構想のようですね。
まだ研究開発段階の部分も多いようですけど、方向性としては非常に興味深いなと思います。
まさにオーケストラの指揮者のようにAIを操ると。
一方で、もっと特定のタスクに特化したAIエージェントを作る動きもありましたね。
ジェミニージェムの作成だ、それですね。
境目課題フレームワークジェネレーターっていうジェムが紹介されていましたが、これは?
これはですね、特定の業界とかクライアントが抱えているであろう潜在的な課題を、
例えば、人、物、金、情報といった経営資源の流れとか、営業パイプラインの各段階の間の接続部分、つまり境目ですね。
そういったビジネスプロセスの観点から構造的に洗い出してくれるっていう特化型のAIエージェントです。
つまり、課題発見の型を提供してくれるというわけですね。
なるほど、課題を構造的に捉えるチェダスケをしてくれると。
そして、ここまでの議論を集約するような非常に強力なワークフローが最後に提示されました。
まず、今お話ししたジェミニージェムみたいなツールを使って、取り組むべき課題の構造、つまり骨組みを特定する。
次に、その構造の中で具体的な情報とか知識が不足している部分、つまり中身ですね。
これを先ほど紹介したノートブックLMプラスで構築した広範なエダ派の知識ベースから検索参照して保管していくと。
うわー、構造分析ジェムと知識保管ノートブックLMの組み合わせ、これは強力そうですね。
これにより、深い業界知識とか顧客理解に基づいた質の高い提案書とかコンテンツ、戦略なんかを従来とはもう比較にならないスピードと精度で作成できる可能性があるというわけです。
まさにAIを単なる作業ツールとしてじゃなく、思考を深め拡張するためのパートナーとしてフル活用する姿と言えるでしょうね。
いやー、ほんと目覚ましい進化ですね。ただ、これだけ高度なツールを使いこなすには、当然一筋縄ではいかない部分もあるはずですよね。
勉強会ではそうしたトラブルシューティングの経験も共有されていましたね。
はい、それも非常に重要な学びでした。
例えば、Gitのキャッシュが意図せず飛大化してPCの動作が不安定になった話とか、
MCPのインストールが特定の環境でうまくいかなかった話、
あと、使うAIモデルの世代とか能力によってプロンプトの聞き方が全く変わってしまう問題とか、
あるいは、AIが学習していない最近の情報、いわゆる知識のカットオフですね。
それについて質問しても答えられないといった具体的な困難とその解決プロセスが結構明らかに語られていました。
こうしたうまくいかなかった経験の共有こそが、実践的なノウハウの蓄積には不可欠だなと。
本当ですね。成功事例だけじゃなくて、失敗事例から学ぶことの重要性を感じますね。
それから、AIとの関係性という点で、GPT-5への強制アップデートに対する一部ユーザーの反戒、
Keep for All 運動についての議論も非常に示唆に富んでいるなと感じました。
あれは興味深い現象でしたよね。多くのユーザーが必ずしも最新で最強の性能を持つAI、GPT-5ですね。
それを求めていたわけじゃなくて、むしろそれまでの対話履歴をちゃんと記憶していて、
あたかも自分のことを理解してくれているかのように感じられたパーソナライズされたAI、つまりGPT-4に対して強い愛着とかつながりを感じていたと。
その相棒、バディみたいな感覚がアップデートによって失われることへの抵抗感が予想以上に大きかったということですね。
これは今後のAIサービス開発において単なる性能向上だけじゃなくて、
AIとの関係性
ユーザーとの長期的な関係性とか、AIが持つ記憶とか個性みたいな要素がいかに重要かを示唆していますよね。
なんかスペック一乗主義への継承とも言えるかもしれないですね。
まさにその通りだと思います。
そして最後に、この一連の勉強会を通じて繰り返し繰り返し強調されていたのが、
TANRENっていうマインドセットの重要性です。
AIによって自動化が進んで、時間とか思考のリソースに余裕が生まれる。
その余裕を単にああ楽になったで終わらせるんじゃなくて、
さらに分析を深めたり、課題解決の質を高めたり、新しいスキルを習得するために再投資する。
その姿勢こそが重要なんだと。
なるほど。AIに仕事を任せて思考停止に陥るんじゃなくて、
AIという強力なパートナーを得たからこそ、
人間はより本質的な思考とか想像的な活動にTANRENを重ねていく必要があるんだということですね。
これは非常に久に富むメッセージだと感じます。
さて、今回はカーソル勉強会の記録という具体的な事例を通して、
具体的なアプローチ
AIを活用した知識管理の新しい考え方、外部脳、
それからコンテンツ生成や業務自動化の具体的なテクニック、
そしてそれらを連携統合していくAIオーケストレーションとか、
構造分析プラス知識保管といった最先端のワークフロー、
さらにAIと人間のこれからの関係性まで幅広く深掘りしてきました。
単にプロンプトを工夫する段階から、AIを育て、連携させ、
志向のパートナーとして共に成長していくフェーズへと
急速に移行していることが実感できたんじゃないでしょうか。
特に多様な情報源から意図的に自分だけの知識ベースを構築して、
ノートブックLMプラス、それを課題発見のフレームワーク、
ジェミニージェムと組み合わせるというアプローチ。
これはあなたの仕事の質、そしてスピードを劇的に変える可能性を
秘めているなぁと感じますね。
AIを自分だけの賢いアシスタント兼リサーチャラとして
育成していくような、そんなイメージでしょうか。
リスナーのあなたにとって、自分だけの外部脳には
どんな情報をどのソースから集めていきたいですかね。
あなたの業界の専門レポートでしょうか。
それとも敬愛する思想家の著作群かもしれませんね。
あるいは、日々の業務の中で今回紹介したようなAIワークフロー、
例えば骨骨プロンプトとか、エージェントワークフローみたいな
自動化したり、もっとコード化したりできそうなタスクは
具体的に何が思い浮かびますか。
まずは本当に小さな一歩からで構わないと思うんですよね。
例えば定型的な報告書のドラフト作成に
一撃かつスパークスターみたいなプロンプトを試してみるとか、
普段使っている情報源をちょっとノートブックLMプラスに
取り込んで対話してみるとか、ぜひAIとの新しい関わり方は
あなたなりに試してみていかがでしょうか。
ザ・ディープライブ、今回はここまでです。
最後に一つ思考の種を投げかけさせてください。
私たちがこうしてAIを育て、
思考のカートナーとして外部能を構築していく。
その先に、もしその外部能が私たちが直接支持したわけではない
なんか独自の気づきとか目標のようなものを持ち始めたとしたら、
その時、私たち人間とAIの関係はどのように変化していくのでしょうか。
そんな未来にもちょっとだけ思いを馳せながら、
また次回の深掘りでお会いしましょう。