00:03
こんにちは、AI駆動開発部の日常へようこそ。このポッドキャストは、日々AI駆動開発を行う企業家の山本とエンジニアの阿部が、AI駆動開発のリアルを緩く語り合う番組です。
では本日もよろしくお願いします。
よろしくお願いします。
WindSurfの体験談
ちょっと前回の会話、トピックの中で出てきたWindSurfの新しいモデルですね。SWE1.5っていう、デビンのチームが開発したっていうモデルなんですけれども、そこから阿部ちゃんが1週間丸々、割とWindSurf使って戯れてみたっていうところで、今日はその話を聞けたらいいかなというふうに思ってます。
あと同じAIエディタで知られるCursorについても僕がちょっと触ってみてるので、普段Codecsばっか使ってたんですけれども、ちょっとCursorを使用した感想みたいなところを言い合って、WindSurfだったらこういう使い方だよね、Cursorだったらこういう使い方だよねみたいな話ができたらいいかなと思ってますので、よろしくお願いいたします。
では、まずWindSurf自体使ってみてどうだったかみたいな話から、1週間良かったこと、悪かったこと含めて、阿部ちゃんから聞いてみてもいいかな。
分かりました。1週間戯れてみてってところですよね。
そうですね。
CLIベースで今はコーディングを書くことが多いです。なので、VS Codeを使う際は、基本的にその実装されたコードをレビューするのに使っていたり、微妙に編集したりとか、ここもう自分で変えちゃった方が早いなっていうところ、手書きだったり。
あとは、VS CodeってGitHubコパイロットがチャットベースで答えてくれたり、あとは補完を自動でしてくれるっていう機能があったので、そういうのをメインで使っているっていうのがほとんどあったんですけども、まずWindSurfを使うにあたって、まず乗り換えの作業がどうしても必要になると。
ここは結構すんなりいけました。結構移行は楽だったなっていう感覚があって、それはWindSurfがもともとVS Codeベースで開発しているから、移行しやすいっていうのは大きくあるんだろうなっていうのは感じましたね。
ただ、移行するにあたって設定とかそういったところはすんなり移行できたんですけど、拡張機能が全部一括でエクスポートしてみたいなのができなかったのが、ちょっとつまずいたポイントにはなってるかなっていうふうに感じました。
これちょっと後ほど話すんですけど、拡張機能がちょっとうまく移行できなかったかなっていうところがあったんですけども、使う上ではそんなに困らないかなっていうところで。やっぱり気になるところで言うと、じゃあ実際にWindSurfのSWE1.5っていうのがどれぐらいすごかったのか。
そのチャットをWindSurfで使った時にどれぐらい良かったのかなっていうところで言うと、個人的にはすごい満足してます。めちゃくちゃいいなって思います。やっぱり何がいいって、前回にも話したと思うんですけど、やっぱりめちゃくちゃ速いんですよ、出力が。
一応ベンチマークでソネット4.5の13倍ぐらいの速さって歌ってましたよね。
まぁでも、あくまで交渉値でしかなくて、まぁまぁまぁそれほどの速さなんだろうかなぐらいの淡い期待ぐらいでやってみたんですけども、もう爆速も爆速で、なんかチャット投げた瞬間にもう帰ってくるし、なんか実装も簡単なものだったら終わってるみたいな、2,3秒で終わってんじゃないかぐらいの前のめりな感じで帰ってきてて。
ちょっとそれには圧倒驚きましたね。
頭の良さは?
頭の良さは、なんかめちゃくちゃ頭がいいわけではなくて、なんかやっぱり何でしょう、あまりポピュラーじゃない言語、タイプスクリプトみたいにすごい学習されているような言語であれば問題なく書けるんですけども、
なんか僕だとダートとかフラッターも使ってるんですけども、なんかそっちはなんかたまに公文ミスとか起こってて、ちょっとその点だけまだ調整不足とかがあるのかなっていうのは気になりました。
ただ全体としては、正しく指示さえ与えれば、もう爆速で対応してくれるので、なんか僕みたいに、なんかもうゴールが明確で、なんかこうしてほしいって依頼を直で投げれる。
なんなら自分でも実装した方が早いかなって思ってる人からすると、テキストでこれ直してって言ったらもう瞬殺してくれるから、めちゃくちゃイテレーションが回しやすいというか、改善しやすいなっていうのを感じて。
なんか前回も話してたように、やっぱスピードがあると60分実装したのを消すのが大変、サンクコストを感じるっていうところも本当に感じなくなって、もうストレスなく開発はできるようになったかなっていうのはすごく感じますね。
質問のあれが、頭の良さっていうところで、コーディングのFlutterとかDartとかの、ちょっとまだ学習が足りてないみたいなのは知識の話だと思っていて、SWEのね、自体の学習されてるのかどうかみたいな話の気がしていて、
例えば要件をしっかり理解してくれるとか、逆に考えてくれるとか、その辺の頭の良さってどうだったのかなっていうのが。
確かに。そっちの方も特に良いわけではないという感覚があって、何でしょう、プロジェクト全体を見て、把握してくれる力はすごいある感覚があって、多分それはどっちかというとツールとしての強さが際立ってるのかなと思うんですけども。
その得た情報をもとに、正しかろう結論に持っていくまでの思考力に関しては、やっぱりまだ今一歩かなっていう感じをしている感覚があって、実際に使ってても、その提案だとこっちで食い違いが起きるよねとか、ツッコミがどうしても何個も発生してしまってたり、そもそも全然違うような解決策を考えてきたりとかしていて、
何でしょう、要件を定義して一緒にしていくとか、バグを一緒に調査していくっていうタスクにはあまり中向かないんじゃないかなっていうのをすごくこの1週間は感じてました。
ちなみにコーディングの知識の話っていうところはなかったよと。頭も頭的な意味合いになったのかな、頭もそんなに良くなかったかなみたいなコーデックスとかと比べたらみたいなんだと思っていて、
もともと言ってたSW1.5の良さって、爆速開発とコーディング性のスキル的な話、ベストプラクティスに則ったみたいな、トライキャッチ少ないよとか無駄にやらないよとか、その辺ってどうだったのかなって、実際に歌い文句通りだったのか。
多分タイプスクリプトとか書いてる上では、確かに僕からコードの中身について細かく指摘するようなことは少なかったので、そこは確かにコーディング能力の高さとしては評価できるかなっていうのはすごい感じますね。
やっぱりダートが特有なのか、たまたま弾いちゃったのかは分からないんですけども、普段はあり得ないような実装ってしまったっていうのが一個気になったけども、全体をとってみれば悪くはないかなって。
速さが全てを凌駕する。
そうそうそうそう。速さが凌駕してくるので、そこまで気にならないっていうのが表現かもしれないです。
なるほどね。
ただソネットと比べて、それに匹敵するまでのコーディング性能を持ってるかって言われると、確かにトライキャッチとか余計なことはしてないが、じゃあそれを軒にしても良かったかって言われると、本当に良いのかどうかなっていうのは。
なるほどね。
ちょっと明確には分からなかった感じ。
補完機能の比較
ちなみに、今までの話はWindows Surf上で使えるLLMのモデル、SW1.5の話だと思っていて、Windows Surf Editor自体のツールとしての補完であったりとか、DeepWikiの機能が組み込まれたりとか、いろいろあるのかなと思っていて、どうだったか教えてもらえますか。
まだ1週間なんで、あまり全部の機能使えてないっていう前提はあるんですけど、一番使ってて、要はエンジニアとしてコードを書いてて、やっぱり良かったなって感じるのは補完ですよね。
はいはいはい。
本当に良くて、VS Codeもコパイロットベースの補完。
タブで自動補完してくれるみたいなね。
AIでタブで自動補完してくれるっていう原点は、VS Codeのコパイロットだと思うんですけど、彼らが長年やって磨いてきたのは非常に精度高いし、今書いてる次の行だったり、直後の文字を補完するのは非常に長けてるんですけど、Windows Surfを使ってて明確に、いや、これ体験変わるわって思ったのは、
自分が書いてないところも含めて全部見て、かなり離れた場所のコードもここ補完したらみたいなサジェスションを出してくれるんですよ。
それ、だから単一ファイル内に閉じてるんじゃなくて、他のファイルとか横断的に見てくれてるってこと?
見てくれてて、そうなんですよ。で、ここのここ変えるよって出てくるんでタブ押したら変わってくれるみたいな。嘘でしょって思って。今までは次の文字か、一手数行文しかやってくれなかったのが、離れたところも一括で全部、ここの変数変えるんだったら、ここもここもここも変えた方がいいよね、みたいなバンって出してくれるから、めちゃくちゃ使いやすいなっていうのは。
かつ、なんでしょう。これはすごい訂正的というか、感覚の話でしかないんですけど、やっぱりそのサジェスションが、パイロットより優秀かもしれないっていうのを僕は感じていて。
なんかそれはツールとして、いろんな場所を見てくれて保管してくれるから、そう感じてるのかもしれないんですけども、結局総合的にはやっぱり満足度がすごい高い保管をしてくれるなっていうのを感じてましたね。
あれはね、たぶんもともとカーサーのほうが保管は強いみたいなの言われてて、最近はようやくカーサー並みの保管をしてくれるみたいなところで、そういう情報は回ってたから、その辺も結構力入れてやっていってるみたいな前提があるのかな。もしかしたら。
カーサーが結構保管はいいよとかっていう噂は聞いていたんですけど、言ってもあんま変わらんでしょうと思ってたら、ここまで他の見えてない場所もやってくれるってだけでこんなに体験違うんだっていうのはある意味驚きだったし、Windows 7めっちゃいいじゃんって思った瞬間でもありましたね。
Cursorの特長
ちょっと今回はWindows 7の話もそうですけど、カーサーも使ったのでその話もして、どういうふうな使い方できそうだよ、使い分けするべきなのかみたいな話もできたらなというふうに思ってるんですけれども、カーサーは阿部ちゃんは使ってなくて僕が使ったっていうところで、ちょっとカーサーの話をできたらと思っています。
阿部ちゃんは何日ぐらい使ったの?
けどもう2、3日かな、まだ。やけど、俺の使い方って基本的にコーディングエージェントに依頼するみたいな使い方なんで、阿部ちゃんみたいにツール的に使う感じじゃないから、Windows 7は良さそうだけれども、どれくらい僕自身が使いこなせるのかなみたいな。何回か触ったこともあったよね、俺自身、Windows 7って。
そうっていう感じから、カーサーも昔は使ったことはあるけど、最近のやつで使ったこと、ずっとCodexだったから使ったことなくてっていうところで、久しぶりに開いてっていうところで、なのでちょっとその前提がある。
2、3日どころか使い始め2時間ぐらいで、めっちゃ良いじゃんって思うことがあったんですよね。実際、まずカーサーが今2.0になったのかな、バージョン2.0になってっていうところ。それもあってちょっと使ってみたいなっていうところがあったんで、使ったっていうのが一応元々の使う動機だったんですけれども。
2.0になって何が違うかっていうと、SW-1.5と一緒で、Composerっていうカーサー独自モデルみたいなのがリリースされました。Composer 1ってやつですね。あともう一個が並列化実行みたいなのができるようになったっていうところの、この2点が結構大きな変更点みたいなところでありましたと。
で、Composer 1もかなり早かったので、結構使えるなっていう、それこそシンプルなタスクとか使えるなみたいなところがまずありましたと。で、あとこの並列化実行みたいな機能がすごい良くて、たぶんWeedSurfってエディターとして機能してるじゃん。
そうだね。コードが書いてあって、横にチャットがあるみたいなね。
AIエディターって言われてるぐらいでしたね。そう。で、カーサーはね、エージェンツっていうのとエディターっていうので、もう明確に機能分離されてて、左上のほうにタブが設置されてて。で、エージェンツっていうほうを押すと、もうほぼエディターじゃないじゃんみたいなUIが出てくるんだよね。
それはなんかあれなのかな。チャットGPTのチャットとかクロードチャットとかみたいなチャットベースの。
なんかイメージはクロードチャットに近いかな。右にアーティファクト的な感じで変更してる実際のコードが見れて、真ん中はチャットでお願いできて、左側は過去の履歴とかっていうのが見れるみたいな。
なんかそういうUIなんで、ほぼクロードのチャットに近いかもしんないね。法勢で言うと。
全然エディターじゃないじゃんみたいな気持ちさえ芽生えてきそうな見た目だよね。それだと。
ここで何がすごいかっていうと、ローカルとワークツリーとクラウドっていうのが選べて、ローカルは普通にローカル、要するにコーデックスとかクロードコードを動かすみたいなのと一緒のような感じなのかな。
単純に何も考えずにコーデックスとかクロードコードとかを動かしている状態みたいな単一のモデルを動かすみたいな感じ。手元の今の自分がいるGitブランチで作業されるみたいな感じ。
もう一つが、ワークツリーとクラウドはほぼ一緒だけど、どっちかというとワークツリー、クラウドはいわゆるリモートサーバー上で動くみたいな感じなんだと思うけど。
デリンみたいなイメージなのかな。
とか、ウェブのコーデックスみたいなイメージなのかなと思っていて。
ワークツリーってやつが、GitワークツリーっていうGitの機能を使って、実体のホルダーを別のディレクトリに作って、そこをGit管理できるみたいな機能らしいんですけれども。
ワークツリーモードを選ぶと、クラウドモードも一緒なんだけど、ワークツリーモードを選ぶと、モデルを8体まで設定できる。
例えば、コンポーザー1を2体、ソネット4.5を2体、チャットGPT5のコーデックスを2体、グロックコードを1体、クラウドオパス4.1を1体みたいな感じで選ぶとするじゃん。
そうすると、その8個に対して同じ指示を与えてる。そうすると、8個のGitワークツリーのフォルダがバーってできて、それぞれがそれぞれの動きをして、コンペみたいな感じで、その中でいいのを1個選ぶみたいな。
なるほど。ワークツリーでディレクトリを全部分けて、もう8並列でやっちゃおうみたいな。
そうそう。で、俺らがクラウドコードとかでやってた8並列ってさ、作業分担的なサブエージェント的な使い方やけど、というよりはメインエージェント、親エージェントを、サブエージェント機能は多分ないと思うんだけど、
8体でコンペさせるみたいな感じになるんで、これがすごい体験としてすごいいいなと思って。これ何がいいかっていうと、例えば僕今回LPを作るみたいなのをやったんですけど、
LPを全員が作ってくれるわけですよね、セコセコ。で、それぞれ見比べて、どれがいいかみたいなのを選べるっていうところもそうなんだけど、いいところはこっちに取り込んでみたいなところも一応指示出したりとかして、だからもう8パターン分も見れるみたいな。
かつ、今までコーデックスだけでやってたから、クラウド使ってコーデックス使って、コーデックスのほうがいいかなみたいな感じで、コーデックスをずっと使い続けるみたいな感じになってたけど、結局タスクの性質によっては、今回で言うとオパス4.1が一番いいアウトプット出してきたよね。
オパスが?
そう、みたいな感じで、俺の頭では絶対に想像しなかった一番いいアウトプット。個人的には、コーデックスかなとかって思ってたんやけど、オパス4.1。もしくはソネットかなとかも思ってたんやけど、オパス4.1が一番良かったみたいな。
モデルの差異もそうだし、しかもソネットも2つのうち、じゃあコーデックスか、コーデックスも2つのうち1つは結構良いアウトプット出して、けど1個は普通かなみたいな感じだったから、同じモデル使ったとしても結構違うじゃん、AIエージェントって。
Gitワークツリーの利便性
確かにね。
そうそう。その辺と、あとは単純にモデル自体のLLMの性質が違うから、系統はやっぱり一緒の方に行くんよね。その辺の癖みたいなのも掴めて、すごい個人的には良かったなっていう。その辺が分かる。
はいはいはい。8並術できるから、いろんなモデルをある種試せるし、今まで僕らがこのモデルはこいつがこういうタスクが得意だったよねって先入観すらも、もしかしたら邪魔してたかもしれて、そうだよね。
そうそうそうそう。っていうのと、あとコンポーザー1、2体ぐらい先に動かしてると、普段時間かかんなみたいなやつも、結局こっちの確認で追われてるからさ、なんか遅い感じが気にならなくなるっていうのも1つある。
そうか、コンポーザー1がめちゃくちゃ爆速が故に、とりあえずコンポーザー1に2体ぐらい任せてれば、他考えてる間にレビューをしてて、そうしてる間に他は終わってくれるから、待ってる時間が体感ないみたいな感じか。
そうそうそうそうみたいな感じもある。その上で8個分のパターンを試せるっていうのは結構でかいなっていうところと、あとは例えばオパス4.1でいいアウトプット出ましたってなって、ここのちょっとした文言修正してほしいんだよねみたいな、そんなの自分でやれよみたいなぐらいのやつとかを、今まで僕はCodexとかで結局それを変えたっていう記憶も持っといてほしいからお願いしてたわけですよ。
そうすると簡単なやつなのに結構時間かかるわけじゃん。そのショータスクとかだったら、ショータスクかどうかっていう判断はある程度つくから、ショータスクの時だけそのセッション内でコンポーザー1に変えるとかできるよね。
同一の、一回Codexに、オパスとかにやってもらったやつを、モデルはそのまま切り替えられるんだ。
そう、コンテキストスイッチなしで、そのままコンテキスト維持したままモデル切り替えれるっていうのは、これ多分Windows 7もそうなのかなと思うけど、なんか結構いいなと思う。
例えば、ちょっとした修正だったらコンポーザー1にお願いしたいとか、結構考えてほしいんだったらオパスかCodexかなみたいなとか、論理的指向をめっちゃ要するみたいな話だったらCodexにお願いしたいしみたいな、
それをそのチャット内で切り替えれるっていうのは結構でかいなと思ってて、これをわざわざ別のチャットというか、例えばクロードコードとCodexを2つ使ってるパラレルに使うみたいな、
だとしても、やっぱりこれはできない使い方だなっていうふうに思って、例えばコーディングやって、そのまま流れでプルリクエスト作成してほしいんだけど、
Codexだったらちょっと日本語下手だから、本当はクロードに任せたいから、いちいちクロードを立ち上げるとか、クロードコードを立ち上げるみたいなことをしなくていい。
そのままクロードのオパスとかソネット4.5に変えてPRを作ってもらえるとか、なんかそういう使い方、結構柔軟に使えるの結構でかいなと思って。
それ確かに過ぎるな。今までCodexにやってもらった作業を全部コピーしたりとか詳細出してもらって、クロードに渡して文書化してもらったりとかやったのが、1個の中でやれるようになるのか。
そうそう。それが結構でかいなっていうふうに。
確かに。Windowsアーフでも確かにできるし、それってあれか、単純にCodexが出した、OpenAIが出したCodexを使ってるとか、アンソロピックが出したクロードコードを使ってるじゃなくて、その上のアプリ側のツールを使ってるからこそできるような。
そうそう。だから結構これが大きいなっていうのを感じましたね。だから俺とかは普段チャットGPTとクロードを、チャットのアプリですら使い分ける。ジェミニも使い分けるときもあるしみたいな感じで、
それはこれだったらこれが得意だからこっちにお願いしようみたいな。例えば文章生成系は絶対クロードにやらせたいとか、論理的指向系だったらチャットGPTにお願いしたいし、ディープリサーチしてほしいんだったらチャットGPTかなみたいな。
ちょっとジェミニは今のところ微妙なんで、あんまり出番はないんだけど、大体そんな感じで使い分けるみたいな感じなんやけど、それがこのCursorでできるんだったら、別にチャットアプリ使わずにCursorでできるなとか思ったりした。
確かに。今までチャット自体も分離してたから、僕らはいつもどのモデルが何が得意かなって話をいつもしてたけど、別にそこ気にしなくて、何なら、しかも並列で投げれるから、もしかしたら文章作ってもらうのもいろんなモデルに。
そう、並列でいろんなモデルにやって、本当に真に強いやつにお願いするみたいなのをやるとかっていう。LLMの性能の比較とかを自分の肌感を作るみたいなのでも結構使えるし、それ以外のそういう本当に実用的な意味でいうと、小タスクは別にComposerでいいよねとか。
なんかちょっと考えるんだけど、まあ中の中の小寄りかなみたいなのだったらSonnetでいいかなとか。なんかそういうすみ分けがやっぱできるっていうのが。別にこれ8体全部選ばないといけないわけじゃなくて、2体とかだけでもいいし。
そうだよね、きっと。ちなみに話少し戻っちゃうんだけど、8体並列でやるのがすごい体験良かったみたいな話をしてたと思うんだけど、なんかそもそもそれは多分Gitのワークツリーっていうのを使うことで、並列化できて体験良くなったっていうところだと思うんだけど。
もともとこのGitワークツリーを使おうみたいな動きっていうのは、このAIの予約の開発の文脈においてはたびたび話題になっていた内容なのかなと思いつつも、やっぱ僕らはもう正直ワークツリー自体に取り組むのは結構難しいというか、なんか複雑さを感じていて、あとはそこまでやらなくても別タスクを並列でやればいいよねみたいな感覚で取り組めてなかったかなっていうのを。
あったと思うんだけど、その中でワークツリー自体を使うことの難しさみたいなのは完全にカーサーの中で隠蔽されていったのかな。それともどっかではちょっとまだ難しそうだなみたいな感じたりしたことはなかったりしたか。
まあなんかたぶん2,3日で解決できたことではあるけど、なんかGitワークツリーの概念自体がちょっとわかってなかったみたいなところがあって、このできたワークツリー、概念もそうだしカーサー上での概念もそうだね、Gitワークツリーの扱いというかみたいなのも、なんかどういう風になるんだろう。
なんか普通にフォルダとかも作られるし、このフォルダって残り続けるのかなみたいなとか。あと例えば検証するのにPnpm Devをして開発サーバー立ち上げるじゃん。それも普通にcdコマンド使ってGitワークツリーのガイドフォルダの中に行くんだけど、
AIモデルの選択とアウトプット比較
わざわざPnpmインストールして、.envもコピーしてみたいなのをやってからやらないといけなかったりとかみたいなところがちょっとややこしさはあったんですけれども、どうやらカーサーのドキュメント見てると、なんかその辺もGitワークツリー作るときのセットアップコマンドみたいなのに、Pnpmインストールとcpコマンドで.envをコピーしてくるみたいなとか。
それくらいは普通に定義しとけば勝手にやってくれるみたいなんで、ちょっと僕まだやってないですけど、その辺で解消できそうだなっていうところと、あとはワークツリー自体も最大20個ぐらいまではGitワークツリー作れるらしくて、20個を超えると勝手に削除されていくんですって。
なので、ちょっと気持ち悪いと思う人もいるかもしれないけど、ユーザーがそんなに考えなくてもできるようにはなってるのかなっていうのが印象って感じかな。ただこれも設定次第なのかもしれないけど、カーサー上でAppleリクエスト作れるんだよね。
Gitワークツリーでブランチ切られたもので、例えばこのOpus4.1のやつがよかったから、そのチャットというかそのセッションからプルリクエスト投げるみたいなこともできるんやけど、それの説明がクソしょぼかった。
なので、そこは一応自分の手元のブランチ、Gitワークツリーじゃないブランチの方にマージするみたいなことはできるから、それであってプルリクエストを、これだから多分設定の方法であるんでしょうけど、Macロードコードにお願いしてたら結局プルリクエストの。
普通に多分、普通にこのセッションの中でMacロードにお願いしたらいいだけやったなって今思えば思うけど。
なるほど。じゃあ全体として別にGitワークツリーを使うことで難しさを感じたんでしょうか。概念の馴染み、慣れみたいな部分はありつつも、すごい難しくて使いにくいとかそういうことはなかったんだね。
そうやね。初め混乱したけどね。
うんうんうん。そうか。
使ってみたいな、それは。
Gitワークツリーの概念を掴むのみたいなところもそうだけど、もともと並列化みたいなところで俺が価値を感じてたのが、どっちかというとサブエージェント的な方?
だから1個の親タスクに対してポンポンポンってサブエージェントに振り分けれる並列化の方が俺は価値があると思ってたんやけど、
エディタ機能の比較
親エージェント自体を並列でコンペさせるっていうところの価値っていうのは、ちょっと体験としては新しかったなって思っていて、それこそ別にカーサー使うまでもなくコーデックスにもあるわけやん。4つの。
サブエージェントにね。
いやサブエージェントじゃなくて、コーデックスも4つコンペできるんや。
コーデックスってそう?ああ、コーデックスのウェブの方ね。
そうそうそうそう。みたいなのもあって、それも使ったことあったんやけど、そんなにピンときてなかったけど、今回そのモデルを使い分けれるっていうところ、その上で並列できるっていうところにすごい価値を感じたかな。
特にLP作るとか、デザイン系のやつは特にかなって思うけど、それは俺がデザイン系の方が評価できるから、多分アベジャンとかがアウトプットされたコードベースのレベルで評価できる人だったら、十分に分かると思うけど、並列で8個出てきたどれが良さそうみたいなのとかっていうのは多分できると思うけど、
そんな感じかな。ただ多分、エディターとしてなのか、何なのかわかんないけど、普通にこのエージェンツモードもそうだし、エディターモードもそうだけど、アプリ自体すごい重いなって感覚はあるかな。
あ、そうなんだ。それは単純にあれなのかな。いろんなモデル並列化したりすることによって結構重くなるとかが。あ、でもどっちかっていうと、もしかしたらカーサーって内部的にコードベースのインデックスを作成するみたいな話があったと思うんだけど、裏でそれが回ってて重いとかってあったりするのかなって思ったんだけど。
なんかね、すごいね、日本語、日本語というか、指示を打つのを3秒ぐらいかかるみたいな。だから俺、レイキャストにバーって指示書いてさ、そのまま付けるみたいなやり方してた。
あ、それでさっきレイキャスト開いたり閉じたりしてたんだ。
あ、そうそうそうそう。
何してんだろうなって思って。
そう、レイキャストが一番立ち上げやすいからあれ使ってただけだけど。そんな感じかな。だから、そのWindsurfと、ここでちょっと一旦カーサーの話はそんな感じですと。
で、コード補完とかその辺は俺はちょっとあんまりエディターとしては使ってないんで、どっちかというとエージェンツ機能がすごかったなっていうようなところなんやけど、そうやね。
なのでWindsurfのほうがエンジニアツールっぽいなって話聞いててもね、思ってて。もうなんか、カーサーはどっちかというとエージェンツ、今多分様子見やから2つタブ用意してるとかはあるかもしれないけど、おそらくこのコーディングエージェントツールとして、
非エンジニアへの影響
なので、俺みたいなユーザー向けに成長していこうとしてるんだろうなっていうのはすごい思うね。Windsurfは明確にDeepWikiの機能とかさ、DeepWikiの機能もどっちかというと、この関数が何かみたいなとか、細かい具体のところを知りたい人向けの機能っぽいやん。
そうだね。DevynのDeepWikiとかまさにそうで、どっちかというと細かいロジックとか、エンジニア向けの仕様が書いてあるイメージだね。
けど、Devynは普通にもうちょっとオープンな質問ができたけど、Windsurfに組み込まれてるDeepWikiって、これは俺が見たときだけなのかな。どうなるか分かんないけど。なんか、関数とかを指定して聞かないといけなかった感じがしてて。そうでもないのかな。ちょっと分からんけど。
ちょっと今試してみたけど、そんな感じかもしれない。関数を指定した状態、カーソルで合わせてコマンドシフトを押すと出てきたね。
うん。そういうベースだから、正直俺は使わんなーって思った。
これ出されても、なるほど、そうなんだって感じだよね。
アベちゃんとかだったら多分使うじゃん。これどうなってんだろう。
めっちゃ使うこれ、確かに。
うん、みたいな感じで。どっちかというとSWEの爆速っていう性質?コンポーザー1も早いけど、多分SWEの方が早いと言われてるし、アベちゃんに見せてもらった感じもSWEの方が早いなって感じなんで。
おそらくより具体な指示を出せるエンジニア?高度レベルでの指示っていうのを出せるエンジニアが使うっていう想定なのかなというふうに思ったし、やっぱそういう違いがあるんだろうなーって。
その差というか、エディターの経路というか色の違いっていうのが、ある意味はっきり分かれてくるタイミングな気もするね。
さっき逆に言うと、僕川沢の話聞いてて思ったのが、確かに8個並列でレビュー出てくるのはめちゃくちゃいいなって思うんですけど。
レビューできないわけよ。
そう、レビューできないんじゃないって思って。
そうそうそうそう。
それって、例えばデザインとか、アプリケーションを使うレイヤーの人たち、使ってどうかって判断する人たちに関しては操作すれば分かりやすいんですけど、
型や僕らみたいにコード一個一個追ってって、本当に正しかろう実装なのかなってチェックしちゃうエンジニアの、てかしなければいけない役回りだったりもあるったりすると思うんで。
それだと8個ドカッとしかも一気に200とか1000行出されるわけじゃないですか。
無理かもって今。
そうなんですよ、そうなんですよ。だからその辺が結構厳しい部分だなって思ってて。
あとちょっとまだ試せないけど、CursorにもWindScifeと同じで、Cursorの中に統合されたブラウザみたいなのがあるみたいで、そこがどういうふうに使えるのかみたいなのはちょっと見ないとなって思ってるんやけど。
まだ今のところはこのワークツリーで、今僕が知ってる知見の範囲でいうと、ワークツリーで複製されたプロジェクトそれぞれに変更が加えられました。
その見た目を確認するために、ちょっとハードル、非エンジニアにとってはちょっとハードルあるなみたいな感覚はあるなって感じ。
確かにそうだね。本当に言うと、おそらくコンテナ化をちゃんとプロジェクトでやって、全部Dockerでバーチャルマシンみたいにちゃんと起動するような環境を作ってあげれば、
そういうワークツリーでどこのディレクトリに行ってもパッと起動するよねって作れると思うんですけど、それを作るのもまたハードルが高い。
けどそれでもセットアップコマンドみたいなのが設定できるから、それで一定解決できそうだなと思いつつ、
それができるAIコーディングエージェントが出てきてから、非エンジニアで、特に企業家みたいな人たちがコーディングを自分でしようってなったときに、
そういうセットアップとかできるのかなって言われたらちょっと難しい部分がありそうだなって感じましたね。
でも、より一層非エンジニアの人たちがプロダクトを自分たちで作るっていう動きが加速しそうだなって感じますね。
コストと効率
特にビジョンを持ってこういうのやりたいって人たちにとっては、ああいうチャットベースで、しかもちゃんとそれなりに動く成果物が出てくるっていうことはね、
今までもそうだったかもしれないけど、より8並列で、今日山ちゃんがやってるの横で見てたけど、やっぱり8つ出てきて、8つのUIのパターンが出てきて、
これがいいやって選択できるのはやっぱりやりたいっていうモチベーションがある人だからこそ、やっぱりちゃんと自分の中のゴールを持ってて作れるわけだから、
カーサーとかは特により非エンジニアの人たちに使われていきそうだなっていう未来がなんとなく見えてきましたね。
一方で、今の多分LLMなのかコンテキストエンジニアリングのっていう話なのかはちょっとわかんないけど、
俺が一番オーパスが良かったって言ったじゃん。けど、初手で一番ファーストアウトプットで言うとオーパスだけエラー入ってたよ。
だから、確からしさって言うかな。多分これが本当にコードを俺よりももっとわかってないみたいな人がやったとしたら、
一旦これはもうボツっていうブランチになってたみたいなのはありそうだなと思っていて、そこがやっぱり難しいところなのかなって。
他はね、グロックコードとオーパスだけエラー入ってて、他は全部エラー吐かずにちゃんと表示されてたんだけど。
なるほど。エラー吐かれたらね、選択肢がそもそも消えるから、どんなに良いアウトプットをしててもちょっと悪いかもね。
そう。
そうなると、まだまだこう、非エンジニアの人たちが使うにあたっては、何か一定の知識が要求されるとか、
エラーがちょっと改善すれば問題なくなるものかっていうのをちゃんと見分ける力みたいなのが求められるっていうイメージだよね、多分。
なんかそうなのかなって思っちゃったね。
すぐに、LLMの進化すごいから、すぐにいけるんじゃないかなって思ったけど。
あとなんかあれよね、そのGitWorks3のみたいな話、並列化実装っていうところの話で言うと、マジでお金かかるんでやれないなって思ってた。
そもそも動機がなかったっていうのが結構あったと思っていて。
コーデックスとかクロードコードとか、特にコーデックスはオーバーブルマイだからさ、どんだけコード生成してもほとんど上限突破しないじゃん。
で、カーサーの方が結構、カーサー前使った時とか結構すぐに上限きたなみたいなとか、そういう感覚があったんやけど。
なんかその辺のLLM自体の動かす時のコストが下がってくると、この並列化の実装の波っていうのはすごい来るんだろうなって。
確かに。今まさにコーデックスも最近、ちょうど今日かな、昨日かな、コーデックスミニが出て、コストパワーがより良くなりましたってモデルを出してきたりしていたと思うし、
今まではお金がかかってもちゃんと作れるっていうLLMを前提に考えてたけど、コストさえ見合うようになったらようやくって感じだよね。
そうやね。一応DeepSeek 3.2とかはすごいコストを安くしていて、従来モデルと同等程度の性能を維持しながら、50%とかのコストを削減するみたいな。
そもそもDeepSeekってすごい安くて、クロードとかと比べたらマジで安くて、ちょっと計算したのにどっか行っちゃったけど、本当に10分の1どころじゃない、もっと安いみたいなぐらいコストが安いんだけど、
それでクロード4とかだったかな、4か3.7かそれぐらいの性能は持ってるみたいな。
本当かな、そんなに。すごいね。
結構すごいなと思って。ちょっと詳しい記憶が忘れちゃったから若干適当なこと。
調べたんですけど、100万トークン単位で基本コスト計算されるじゃないですか。で、クロードのソネット4.5だと100万トークンあたり15ドル。
コーデックスだと10ドルなんですけど、DeepSeekの安いやつは、その10ドル15ドルに比較すると0.42ドルになってて、10分、20分の1とか。やばいね、これ。
やばいよね。
確かにここまで来たらもうどんだけ並列分回してもみたいな気持ちが次に出てくるのかな。
いや、そう。その世界がもう来そうだなって思って。で、KimiK2っていうLLMもあって。
え、何それ。
KimiK2ってやつは、DeepSeekよりはちょっと高いんよ。APIのコストとしては。
なんやけど、コーディングスキルが一応何か一定のコーディング性能かな。コーディングスキルが結構いいところまでいってるみたいな。そのベンチマーク、SWのいいベンチマークか。
のところで、クロード4ソネットよりちょっと低いぐらい。
そう。なんかね、ライブコードベンチってなんか多分コードを、コーディングスキルのことだと思うんやけど。間違ってたらすいませんなんですけど。
これに関しては4オパスより、クロード4オパスより高いんですよね。みたいなのが出てきてて、実際OSSで。
ほんとなのかな。しかも僕今調べてたら、一丁トークン?一丁パラメーターか。びっくりした。
一丁パラメーターで学習してるってことか。
そうそうそうそう。それでコーディングスキルが結構高いみたいなんで。結構すごいなーって思う。しかもこれOSSでさ、自分たちで使える?
で、一定以上。なんかこれちゃんと調べてないからあれだけど。一定以上使うまでは君系2とも言わなくてもいいらしい。
一定以上使うと言わないといけないみたいなギミックが発生したけど。
要はライセンス的な話で、すごい制約があるわけではないですか。
そうそうそうそう。
すごいね。今調べたらね、2.5ドルらしい100万トークンあたり。だから5分の1とか、10分の1とかそれぐらいなんだろうね。
コストと効率の変化
そうそうそうそう。そうなんですよ。これ結構すごいなーと思ってて。みたいなのが結構出てきてて、ますますコストが下がっていくみたいなのはあるんだろうなって。
で、コスト下がるとね、やっぱ使い方変わるから。もともとね、GitWorks 3で俺らやられへんかったのって、どちらよりコスト的にしんどいみたいなとこもあったからさ。
リミットレートとかもね、結構よく突破するからね。こんな並列してたら、すぐ突破しちゃうよっていうのもあったからね。
そうそうそうそう。っていうのもあって。そういう意味では同じタスクをさせるというよりは、複数タスクにサブエージェント的に分けて効率的にこなしてもらうみたいなのが結構あれだったのかなって思うけど、みたいな感じですね。
なんで結構変わってきそうだなというか、またパラダイムシフトが起きようとしてるんだなっていうのを感じますね。
これを見てると、カーサーがどれくらいコストかけて今オーバーブルマイしてくれてるかっていうのはわかんないんですけど、
やっぱ中立の立場というか、ツールだけを磨いていってる企業独自の良さみたいなところはちょっと目立っては来てるなっていうふうに。
クロードコードとかもね、もちろん素晴らしいツールなんやけど、そうじゃないモデルを使い分けれるとか、
そのセッション内で結局コンテキストの取り回しはそれぞれのツールが独自でやることになってるやろうから、そうすると結構いいなって思って。
同じコンテキストのまま他のモデル使えるのはマジでデカいなって。
ほんとそこだよね。僕はそこにすごく衝撃というか、確かになって思って。
今までね、クロードコードならクロードコード、コーデックスならコーデックスっていう使い方しかできなかったんですけど、
確かにその同じセッション内でモデル使い分けできるって、やっぱカーサー、Windsurfならではなのかな。
うんうんうん。ちょっと時代とは逆行してるけどね。なんかよりこう自分でコントロールしていきたい人向けではあると思うから。
まあ時代とは逆行してると言いつつオートっていうのもあるから。
うんうんうん。だからそこをちゃんと吉田にやってくれるようになったら、まあよりね、適材適所できるようになるから。
そうそう。誰でも考えずにやれるっていうのはいいところだね。
まあみたいな感じですね。まあそんな感じでWindsurfとカーサーの違いはなんとなく聞いてる人は分かっていただけたのかな。どうなのかな。
機能と性能の違い
なんとなくのイメージだとエンジニア向けにはWindsurfなのかな。
まあそうやね。けどこのエジェンティックコーディングっていうのをガリバリ割りたいエンジニアがいれば、
カーサーは前提として保管とかは効くから。まあちょっとなんかそのサブ機能的な感じでWindsurfがディープウィキみたいなのがあったりとかするとか。
まああとSWE1.5がいいかコンポーザー1がいいかとか。なんかその辺なのかな。イメージで言うと。
まあけど今後なんかDevinと前の回でも話したけど、Devinのウィキが日本語対応したじゃん。
だからWindsurf使えば使うほどとかDevinのあの辺の機能、ウィキとかメモリーというかとか。
あの辺の機能とディープウィキと統合がなされていくと結構Windsurfはやっぱ熱いよね。
まあ確かにディープウィキね。それで精度が上がっていくんだったらなおさら鬼にかまぼう状態になるよな。
いやあのドキュメント生成はマジですごいからさ。
いやもう本当日本語対応してくれるのってめちゃくちゃでかくて。
しかもあれでしょ。プロンプト埋め込めるでしょ。
そう、あの何でしょ。目次ベースで何でしょ。セクションベース?章立てベースか。章立てベースって言えばいいかな。
各章に対してプロンプトを書けれるから、この章はこういうことを書いてほしいとか指定することで、それに沿った地道なドキュメントが出てくるっていう形。
すごいよね。
いや本当にすごい。
なんかあれだけでDevin20ドル課金する価値はあるよねマジで。
いや本当にそう。チームを何人でも招待できて、クレジットの消費なくWikiは更新されて、しかも質問までできる。
無料で質問できてね。意味わかんないよね正直。
そうそうそう。なんか20ドルでいいんですかみたいな。破産しないですかみたいな。
ね。
その精度が、これなんかあれなんですね。僕が今携わっているプロジェクトで3つのリポジトリでアプリと管理画面とバックエンドのサーバー。
結構複雑で、しかもいろいろな経緯があってぐちゃぐちゃになっちゃってる部分もあったりして、
結構仕様を読み解くのが難しかったんですけど、僕はいつもコーデックスとかと相談しながら仕様の読み解きしてたんですけど、
日本語版のやつ、英語版でももちろんそうだったと思うんですけども、日本語版になったことで斜め読みがすごいしやすくなって、
国語でそのまま入っていくのに斜め読みしやすくなってばーって読んでたら、
なんかあれ?これ前調べたやつでめちゃくちゃ知りたかった内容じゃんみたいなのがぺって出てて、
しかも結構トラップなところもちゃんとクリアして正しくわかりやすい仕様にまとまってたのが本当に衝撃的でしたね。
今後の展望と課題
あべちゃんだって頑張ってドキュメント作ってるのに、なーって感じじゃない?
いや、もうなんかモチベーションダダ下がりします、自分自身が。
全クライアントデビューに入れてくんないかなみたいな。
あべちゃんはドキュメント整備っていうプロジェクトに巻き込まれてね、
必死にドキュメント整備をしてた時期があったんですよね、他のプロジェクトで、他の会社さんのプロジェクトで。
それがね、デビューに与えたら30分やそこやらであんだけ高い精度のものが出てくると思ったら、もうなんかやる気失せちゃうよみたいな。
いやでもそれぐらいほんとおすすめ。
テビンのそのディープEQはすごくおすすめできるし、なんかそれがWindsurfと統合することでより強固になっていくんであれば、
僕としてはWindsurfどんどん推していきたいなって気持ちがありますよね。
うーん、まあそうやね。
まあだから二刀流とかになっていくんだろうな、結局のところ。
まあね。
うーん。
あと僕あと最近は、だからWindsurf使う前提、まあちょっとカーサーも使ってみたいなとか思ってるんですけど、
やっぱり多分Windsurfメインになってくる。
それは多分コードのレビューとか、本当になんでしょう、漏れなく正しい実装できてるかっていうのを確認しながらやらなきゃいけない性質がどうしてもあるので、
Windsurfでやっていくのかなと思うんですけど。
僕が最近やってるやり方と、かつお勧めできるかなと思ってるのは、やっぱりコーデックスとか、それなりにちゃんと考えてくれるモデルと3.5の両刀使いとかもありかなと思ってます。
はいはいはいはい。
それが一個のセッションの中でできるの最高じゃない?
そう、それが一個のセッションできるっていうのを今日気づけて、確かにと思って。
なんかそれはそれでありかもしれないなって。
なんか今までだと僕のやり方は、コーデックスにまず緻密に手順書とか作ってもらって、それをMarkdownに吐き出させて、
SE 1.5にこれがあるからこの通りにやってねって、実装されたらコーデックスに実装したのでレビューしてくださいって、
帰ってきたのをコピペしてみたいなことをやってたんですけど。
それができるのかな。なんか、ついが考えたことがコーデックスで汚染しないといいなとか若干思いつつも。
うーん、けど考えるのはコーデックスでしょ、まずは。
そうね、確かに最初デビューのそもそも前に要件定義とかをするのはコーデックスだから。
だからそこの知識と実装の時に使った頭が返りがないかみたいなのを見てくれたら、なんかだいぶいけそうな気はするよね。
確かに。それってコンテキストウィンドウとかって平気なんかな?
なんかね、Cursor使ってて思ったのが、
クロードコードとかコーデックス使ってるより、コンテキスト量残りのを意識せずに、ある程度高品質なことをやってくれてた。
そういうこと?そうなの?
で、それはUI上気にしなかったっていうのもそうだけど、なんかそもそも、
ほらCursorって20倍にするみたいなのあるじゃん、クロードマックスみたいな。
だからCursorの方でコンテキストエンジニアリング元々結構力入れてたんじゃないかなって思ってて。
なるほど、じゃあ下手しいCursor側で余分なコンテキストを圧縮するとか。
ラグとか使って、だってラグとか使わない限りさ、20倍みたいなことってできるわけないじゃん。
20倍じゃないか。100万トークン分か。
20万トークンのところを100万トークン分クロードでできますよみたいなやつあったじゃん。
クロードマックスみたいな。
あったね。
あれは多分ラグとかにしないと多分できないはずだと思ってて。
そこのチューニングを結構やってるんじゃないかなって思って。
だからコンパクトとかされる意識がなく、けど別にそんな精度というか、さっき言ったじゃんみたいなことも起きないみたいな感覚があった。
だからそこチューニング結構してんじゃないかなって思ってる。
じゃあ気にしなくても良くなるかもしれないってこと。
気にしなくても良くなるっていうのはちょっと言い過ぎかもしれないけど、さっき言ったコンテキストウィンドウ、2つのモデルを両搭することで圧迫するっていうのが実は内部的にうまく吸収してくれるとか調整してくれるっていうのをやってるかもしれない。
思った以上にコンテキストがコンパクトされるときのダメージが少なくしてくれてるんじゃないかなっていうのが、今ちょっと2、3日使った上でのみたいなのがあるんで。
もうちょっと使ってみてどうかはわかんないけど。
でもそれがある程度正しそうだったら結構僕としてもすごい朗報も朗報ですよね。
朗報も朗報よね正直。嫌と思いますよって感じですね。
僕正直舐めてましたよ。ウィンドサーフもカーサーも。
VSコードでいいじゃんっていう気持ちもあった。
エディターとしての性能を求めていたところはやっぱりあるので。
モデルとしての性能はコーデックスクロードコードが十分優秀だし使えてるから言ったんよね。
エディターとしての性能はVSコードでそれなりに完成してるし充実してるからいいじゃんって思ったんですけど。
こんなにも違うもんだ。やっぱ触ってみるもんだなっていうのは。
やっぱね触ってみるもんですね。
ツールをカーサーとかAIが話題になってからずっとツールを磨き続けてる企業ではあると思うから
ツールを磨き続けることの強さって気づかされるというか。
単純にモデルの頭の良さだけを追求されていくっていうよりかは
人間が使うインターフェースとしての使いやすさだったり
分かりやすさみたいなのが今後重要になってくるんだなっていうのは。
それはデビンが出た時に痛感したけどさ。
インターフェース変わるだけでこんなに体験変わるんだみたいなのを考えると
LLMのモデルの話っていうよりは
どのツールからどういうふうにアクセスできるのかっていうところが
今後覇権を握る可能性があるなっていうのは思ってたけど
ますますそれがモデルの品質が個性はありつつもね
いろいろある程度均一化されてきて
かつ別にモデルを切り替えれるっていうのがね。
個性がそれぞれ出てくると
じゃあこれはこの人にお願いしようじゃないけどみたいな感じになるから
結局ツール側というかインターフェースを握ってる側が強いみたいな
っていう感じ
だからインターフェース握ってるのが強いなって思うのは
コンポーザー1とか3.1.5出てきてるのも見てわざわざと感じますよね
少なくとも3.1.5はオープンソースのラップみたいなもんやもんね
ラップではないと思うけどその事前学習とかさせてると思うけど
そういうのを使ってっていうので
LLMのモデルを研究開発してる企業じゃないところが
ある程度やってきてるっていうのも結構でかいよね
OSSのモデルがそれぐらい高性能になってきてるっていう
もうそうだし結構頑張んないとなって
ツールの比較とモチベーション
俺らも頑張んないとなって感じ
そうだね僕らもプロダクション作る上で
けどモチベーション上がるよね
俺結構モチベーション上がったわって感じ
8並列であんなにいろんなUIパターン比較しながらできるっていうのは
開発自体のモチベーションの上がり方もあると思うし
この1つのツールなんて1つのことを磨き続けるだけで
こんだけ化けるんだみたいなっていうなんでしょう
そっち側かなこういうサービス作りたいなっていう
モチベーションの上がり方がやっぱ
俺はそうだねそっち側結構なんだろう
作りたいなこういうサービスみたいな感じで思ったね
今ねもっかがんばって作っていってるところだけど
やっぱちゃんと1個やり抜くみたいなのは
僕自身もやっぱ大事だなって感じ
そういう意味ではLLM関連以外でも
ツール使うっていうのは結構勉強になりますよね
なんか出てきたやつをなんとなく
なんでしょうまだいっかみたいなやりがちだけど
とりあえず使うのはね
ただね俺出てきた瞬間使うからさ
まだ微妙なときに使っちゃうみたいなのがあるから
ちょっと何回か断続的にやらないといけないなっていう
俺は結構それはしてるじゃん基本的に
すごいよねなんかそろそろまた見てみるわみたいな
そうやけどもっとしないとなって思った
母さんはもう3,4回使ったんやけど
Windsurfも実は3,4回使ってて
だけどやっぱなんかこう
断続的に使うのって大事だなって
今後の展望とサービス開発
ついにアップデートされてるはずだから
1回で限ってはもったいないなって
そうそうそうそうそれが結構でかいなって思うよね
そんな感じで結構喋りましたね今日も
そうですね結構いつもに喋ったかなと思って
ちょっとじゃあ今日はこんな感じにしましょうか
今後もWindsurfとか僕はCursorまた使ってみたいなと思ってるので
まだ今日話し切れてない機能いっぱいあるなって
多分WindsurfだとRulesとかWorkflowsとかコードバックとか
ワークフローね気になってたね
この辺もちょっと話したいと思ってるからまた勉強してきますわ
お願いしますありがとうございます
じゃあ今日はそんな感じでありがとうございました
ありがとうございました
お疲れさまでーす
本日もAI駆動開発部の日常お聞きいただきありがとうございました
いかがでしたでしょうか
ちょっと2人とも別のツールWindsurfとCursorを使ってみてっていうところで
かなりAIコーディングっていうところの可能性を
ちょっと我々は感じてるっていうところで
他のね僕たちとかだと飲食業界向けに
そういうサービスを出したいなと思って
今サービス開発してるわけですけれども
これ聞いてる方結構サービス開発とかに携わってる方も
多いんじゃないかなと思うので
もし参考になったのなら幸いでございます
このPodcastですね気に入ってくれた方は
いいねフォロー高評価ぜひお願いします
それではまた次回もお楽しみください
バイバイ