Cursor vs Zed 開発者が選ぶ次世代エディタは?
引用元:https://news.ycombinator.com/item?id=43959710
ZedはAI連携すごいね、今まで見た中で一番いいかも(仕事以外でだけど)。CursorとVSCode+Copilotはいつも遅くて不安定な感じだったけど、Zedは全然そんなことなくて、かなりちゃんとしたソフトみたい。それにGemini APIキー差し込めば無料で安く使えるし、editor’s own integrationにお金払わなくていいのが楽だね。
今週Zedをじっくり試して、ここに記事書いたよ(https://x.com/vimota/status/1921270079054049476)。全体的にZedはめちゃくちゃ良くて不安定な感じもなかったけど、いくつかデフォルト設定がおかしかったり、Pythonのサポートが普段の作業でいくつか足りないところがあったりしたな。
ooc、どんなPythonサポートが足りなかったの?Zedどうしようか迷っててさ。
M4 Macbookだとリソースめっちゃ食うね。試してみたいんだけど、Macbookがフリーズしちゃってさ。
編集:最新の0.185.15にアップデートしたら、完全にスムーズに動くようになったよ。最高の環境に追加できたわ。
俺もZedおすすめだよ!M4 macbookからだけど、リソースはアイドル時でRAM約500MB、CPU 0%と全然食わないよ。不安定じゃないし、vimバインディング良いし、起動も速いから本当に助かってる。Cursorは速くタイプすると不安定になったり、古いPCだとauto-pairとかで問題出たんだよね。Zedの方が安定してると思うな。
うん、俺も同じ。Zedは俺のM1 Proでめちゃくちゃ効率良いよ。最近は毎日使ってるし、Pythonの環境もほぼ完璧に整ってる。
どんなPython環境なの?
俺の場合はこれが原因だったよ(https://github.com/zed-industries/zed/issues/13190)。それ以外はだいたい問題なく動いたけどね。
ollamaのローカルモデル使ってるの?それともZedのLLM?
なんでZedの人たちってUIのレンダリング時間にそんなこだわるんだろうね?UIが120FPSで表示できても、LLMからの応答に3秒もかかるなら別にどうでもいいじゃん。まあUIは綺麗で好きだけどさ。
この前ChangelogのポッドキャストでZedの最新情報と新しいエージェント機能について話してたよ,ここにリンクある.
俺もZed使ってるけど,いくつか問題はあるね.でもCursorと比べられるくらいにはなってる.俺的にはVSCodeのフォークより開発ペース速い気がする.
やっぱり主要なフォークから作らなくていいのは開発速くするのに役立つだろうね.
早くデバッガー出して欲しいな.それさえできれば完全に乗り換えるのに.
俺の環境だとZed動かないんだよね.GitHubの関連Issueも同じ問題で困ってる人が文句言いにくるだけで全然更新されてないし.
Windows使ってないってこと?開発者ならそんなに珍しい提案じゃないと思うけど.
Debianの最新安定版.
Windows?もしそうなら,ビルドすれば動かせるよ.
Debianの最新安定版.
ああ,じゃあ何が問題?俺はMintでZed使ってるけど,今のところ問題はウィンドウが見えなくなることだけだったよ(それはGPUドライバーを更新して直した)
うん: https://zed.dev/blog/edit-prediction
オープンモデル(https://huggingface.co/zed-industries/zeta)をローカルで簡単に動かせたら最高だね(遅延対策で).ZetaはWindsurfの補完の品質/スピードには及ばないと思う.これが彼らのビジネスモデルに反するのはわかるけど,もしかしたらこれにお金払う人もいるかもね.理論的にはローカルで動くから一番速い補完になる可能性がある.
>ローカルで動くから一番速い補完になる可能性
ローカルがクラウドより遅い奇妙な時代に生きてるね.必要な計算量が膨大だからさ.ローカルハードウェアだと計算に数百ミリ秒(秒単位かも)かかるから,ネットワーク遅延の100ミリ秒なんて関係ない.例えば,7Bモデルでも,君の高価なMacや4090じゃ,8x A100sでFOSSサービングスタック(sglang)をTP=8で動かしてる箱には,遅延で勝てないよ.
モデルをローカルで動かすのはメモリとスケジューリングの要求がすごくコストかかるんだよね.多分,代わりにCloudflare AIネットワークでホストすべきかも.これは世界中に分散されてて,より低い遅延が得られる可能性があるよ.
まあ,そんな感じ.品質は天と地ほど違うね(Cursorは魔法みたい,Zedはめんどくさい作業って感じ).
同感だね.本当にZedに完全に移行したいと思ってるんだけど,コード補完はまだCursorの役立ち度や”スマート”さには全然及ばないな.
うん,Zedに勝ってほしいけど,まだ普段使いにはなってないな.
俺はCursorをベースに,Clineをエージェントツールとして使ってる.Windsurfは未体験.Cursor+Clineは俺にはピッタリ.
*CursorのCmk-K編集やタブ補完は便利.
*ClineはGemini 2.5と組むとフルエージェントワークフローが最高.アイデアを投げると計画と実装をくれる.
根本的に,これは俺個人の問題かもしれないし現実的じゃないかもだけど,ClineがBYOAIシステムでオープンソースなのが好きなんだ.最高のプロンプトとコンテキストで結果を出すのが目的なのに対し,Cursorは予算内で最高を目指す.これがCursor,Inc.のコスト削減努力に繋がり,最高の結果と少し対立するんだ.
CodexとMachtiani(mct)使いなよ。どっちもOSSでmctは今日OSS化。mctは大量コードから文脈見つけるのが得意でトークン効率もいい。ローカルで動くしネットも不要。VSCodeコードベースの問題もQwen 2.5 coder 7Bだけで解決デモがあるくらい。好きなモデル使えるし、トークン使い切ることもないね。リンク:https://github.com/tursomari/machtiani
へぇー、これすごいね。ワークフローについてもうちょっと詳しく教えてくんない?例えば、具体的にどうやってCodexと一緒に機能実装したり、バグ直したりしてるの?
もっとコメントを表示(1)
前のコメントの質問だけど、Codexとのワークフローをいくつか教えるね。gitプロジェクトundici
を例に。
1. Codexで追従: mct ...
でパッチ適用→codex ...
でテスト・修正。
2. CodexとMCTを一緒に: codex ”$(mct ... --mode answer-only)”
でmctの提案をcodexが実装。
3. Codexにチャット参照: mct ... --mode chat
でチャット保存→codex ”See .machtiani/chat/...”
で参照・作業指示。
これで大体の日々の使い方は分かると思うよ。Unix哲学で何でもできる!詳細は動画で。
これはaiderと比べてどうなの?
aiderは使ってないけど評判は良いよ。僕は複雑な大規模リポジトリ向けを探してたのと、エージェントは高価なモデルが必要だから、Codexにスキップしたんだ。
mctは弱いモデルでもすごく使えるし、強いモデルだとさらに凄い。だからmct + codexでコストを抑えつつ色々できるよ。aiderもターミナルツールらしいから、mct + aiderを試してみてもいいかもね。
GeminiのAPIに(だいたい月に)いくら払ってるの?それが「bring your own API keys」ツールに乗り換える上での主な心配事なんだ。
僕もClineが好きだよ。オープンソースだから、使ってる時にプロンプトとかツールが見れて、もっと良いエージェントの作り方を学べるんだ。
Clineのエージェントの動きって、Cursor自身のより優れてるの?
Cursorってさ、コスト抑えるためにコンテキストちょん切ってるんだよ。Clineはトランザクションごとにお金かかるからそうじゃない。だから複雑なことやらせるとClineの方がずっといいと感じるな。Cursorのチャットはエージェントモードでまだ使ってるけどね、優柔不断なんだよな俺。他の人も言ってるけど、Clineの挙動を見るのは自分でエージェントワークフロー作る時の参考になっていいね。
> Cursor does something with truncating context…
って言ってるけど、本当に根拠あんの?Clineはたまに試したけど、Cursorより良いとも悪いとも全然思わないんだよね。
これはあくまで個人的な話だから、話半分に聞いてほしいんだけどね。Cursorのチャットがすっごく長くなってコンテキストがいっぱいになると、前に話したこと『忘れちゃったり』、すでに作ったコードと違うコード作り始めたりするのを見たし、自分で体験したよ。だから彼らがチャットが大きくなったら新しいチャット始めるのを勧めるけど強制しないのは、たぶんこれが理由の一つだと思うな。
みんなが大変だって言ってる長いチャットの問題、俺にはそんなにないんだよね。大体10ターン以内にはやりたいこと終わるし。終わんなくても、前回の発見を加えてまた会話始めたいって自然に思うだけなんだ。そしたら今の状態を受け入れる(か全部捨てるか)して、新しいチャット作る。たぶん言い方も変えるかな。タスクが自己完結してるのが助かってる部分もあるけど、エンジニアとしてはどんなタスクも分割して考えるのが当たり前って感じだしね。
これ自分でめちゃ簡単に確認できるぜ。エージェントがファイルを”見る”時、何行見るか言ってくれるんだけど、ほとんどいつもトップの0-250行とか0-500行なんだ。モデルとかMAXモード使うかにもよるかもしんないけどね。
エージェント機能はどのツールも当たり外れあるけど、Cursorを毎日使ってる理由はタブ補完がダントツだから。作業中に次に何したいか95%くらいの確率で理解してくれるし、複数行/複数ファイル変更も対応できる。Github Copilot, Zed, Windsurf, CodyはCursorのタブ補完レベルじゃないと思う。
純粋にオートコンプリートだけなら、Supermavenが一番だと思うよ。
Cursorが去年Supermaven買収したんだよ。
Cursorなしでもモデルってマジで改善されるの?それとも実際はCursorの補完開発に全部リソース使ってて、Supermavenの購読者には提供されてない感じ?公式サイトとかオンラインの情報少ないから、そこら辺確かめるの難しいんだよね。
Aiderいいよ!好きなエディタ使って、コーディングアシスタントは別にしたら?それにオープンソースだし、このままでいくと思うから、急に高くなったり消えたりする心配もないしね。
前は超Aider派だったんだ。でもしばらく使ってると、ターミナルとVS Code行ったり来たりとか、自分でコンテキスト追加したり外したりとか、そういうちょっとした摩擦が使う気を失わせたんだよね。--watch
モードはナイスな解決策だけどパフォーマンス落ちるし。LLMが自分のコメント消して集中できなくなったり。RooはAiderほど安定しないけど、統合されてて使いやすい。近いうちにまた(Aiderに)戻れるといいな。
想像だけど、vimユーザーならそういう摩擦点ってちょっと違うんじゃないかな。俺にとっては、Aiderのgit auto commitと/undo
コマンドが、今の技術レベルでは決め手なんだ。OpenHandsも有望そうだけど、結構複雑そうだね。
(相対的な)シンプルさがAiderのいいとこだな(neovimをtmuxで使ってるのも手助けになってるけどね)。LLMに何を正確に送ってるか分かりやすかったし、一度に一つのことだけやるのが好きなんだ。俺は自分のLLMを babysit したいし、「agentic」ツールが勝手に何十ものことをループでやるのは、制御不能に感じるんだよ。
「制御不能に感じる」ってフレーミング気に入ったわ。フロントエンドはagenticツールで制御不能でもいいけど(Karpathyのvibe codingみたいにLLMに任せる感じ)、本業のバックエンドは完全に自分で制御したい。LLMに何送ってるか知りたいから、チャット直接使う方が楽。提案のいいとこ取りやプロンプト修正もできるしね。
どうやってdiff/patchファイルなしで”いいとこ取り”してるの?それともLLMに頼んで、手動で適用してる感じ?
基本的にantirezが4日前にこのスレッドで説明してたことだよ https://news.ycombinator.com/item?id=43929525。だからこのワークフローの部分は、意図的に結構手間がかかるんだ。IDEとブラウザのチャットインターフェースの間で大量にコピペするからね。
リンクされたコメントから:> 「”agentic coding”はLLMを直接使うよりずっとダメ」っていうのはただのウソだよ。もし全てが平等ならそうかもしれないけど、実際はシステムプロンプトがLLMの振る舞いにかなり影響力があるんだ。空のシステムプロンプトのChatGPTより、調整済みの方がコーディングは上手い。Aider/Copilot/Windsurfらはカスタムシステムプロンプトで、生ブラウザ使うより強力にしてるし、コピペの手間もないよ。
俺は人間の判断を残したいタイプなんだ。気に食わないことやるたびに conventions.md にルール追加してる。だんだん見る時間減ってきたよ。
Aider使うのにどれくらいかかるか知りたいな。本体無料でもLLMのAPIキーでトークン払いなんだよね。LLMの値段は分かるけど、どれくらいトークン使うか全然わかんなくて。ZedとかCursorみたいに月額固定ならいいんだけど、Aiderは費用が分かんないから試すのが怖いんだ。
仕事でAiderとClineとGemini 2.5 Pro使ってるよ。会議とか中断なしで8時間ぶっ通しでやっても、$2くらいかな。実際は平均$0.50で、ここ数週間で$1超えたのは一回だけだった。
うわ、初めてClaude Code試したら(小さいSwiftのコードベースにちょっと機能追加するのに完全に失敗)、20分で$5飛んだよ。多分Sonnet 3.7のADHDみたいに散漫なせいか、CLIツールじゃなくて(あとLLMがSwift苦手なのかもね?)。
俺のテストだと、aiderはclaude codeの10分の1くらいの費用で済む傾向があるな。aiderでは/addとか全部明示的にやるからだと思うけど。
何に使ってて、どうプロンプト出してて、どれくらい頻繁に使ってるか詳しく知りたいな。費用抑えるのは成功してるけど、一発で$4とか飛ぶこともあるから、Aiderみたいなツールはあまり使わないんだよね。費用を確実に抑えられるって分かればもっと使うのに。
詳しく説明するね。VSCで編集、Copilotでタブ補完(あんま使わない)。
Aiderはラバーダッキングとか、小さめ〜中くらいの変更に使うよ。必要なファイル追加して、モード変えて、問題と解決策を説明。Aiderの答えに満足したらコーディングモードで変更許可。プロンプト一発で$4行くのは分からない。俺のアプローチじゃ表面だけかもね、もっと良いけど高価な戦略に気づいてないだけかも。
もっとコメントを表示(2)
それ超安いじゃん。どんなワークフローで、費用抑えるテクニックあるの!俺は短いセッションでファイル少なくても、1時間$10以上使うことあるよ。
へー、正直言って費用抑える設定とか何もしてないよ。ただリポジトリ全部追加して、自分の作業やるだけ。
どうしたら1時間$10も行くの?多分俺にはそんな使い方できないな。たぶん俺たちワークフローが全然違うんだろうね。
リポジトリ全部追加するのに何かツール使ってるの?
全部APIによるね。deepseekならタダ同然だよ。
deepseek、速い?俺はAPIがめっちゃ遅くて、時々使えないんだけど。
正直、今はwindsurfとopenAI/google使ってるよ。aiderでdeepseekも空いてた頃は使ってた。deepseekはたまに全く応答しないのが唯一の問題だったけど、全体的には速かったよ(考え込まないやつはね)。
各リクエストのコストと合計が見れるよ。/tokensで次のリクエストのコンテキストに入ってるトークン数を確認できる。ファイルのドロップやコンテキストクリアで管理するんだ。
そうそう、モデル選んで都度払いだよ、米や水みたいな。他のサービスは、コンテキストを最小化したり安いモデル使わせたり、駆け引きしてきたね(3 modesとかdaily creditsとか、一番高いmodel使わせるとか)。あと、–watch modeがエディタで使う一番生産的なやり方だよ、robot facesの余計なtextboxはいらないね。
ちなみにね。Aiderで使えるGemini-*はPay As You Go(payg)じゃなくてpost paidだよ。月末にまとめてbillが来る感じ。OpenAI/others modelみたいに使う前にcredits chargeするtypeじゃないんだ。
openrouterみたいなの検討する良い理由かもね。prepaid serviceになるからさ。
Aider好きなんだ。でも限界にイライラして、解決するためにBrokk作ったよ。https://brokk.ai/
Aiderと比べてBrokkは
・GUIがある(Aider userには抵抗あるかもだけど、複雑なprojects管理にマジ役立つ)
・ちゃんとしたstatic analysis engine使ってるから、大規模codebasesでもrepomapみたいなのが迷子にならない
・めっちゃ便利なgit integrationがある(git log見たり、right clickでcontext取り込んだり)
・あとOSSでBYOKもsupportしてる
みんなの意見聞きたいな!
GUI以外で、Aiderと比べて何が良くなったの?
短いanswerはstatic analysisだよ:Long answerはhttps://brokk.ai/blog/lean-context-lightning-development
For daily workならneitherかな。They basically promote the style of work where you end up with mediocre code that you don’t fully understand、and with time the situation gets worse。俺はspecific questionをhuge contextのmodel(Gemini)にaskingしてanalyzing the generated code carefullyする方がmuch better resultになるよ。That’s the opposite of the style of work you get with Cursor or Windsurf。Is it less efficient?If you are paid by LoCs、sure。But for me the quality and long-term maintainabilityはfar more important。And especially the Tab autocomplete featureはdriving me nutsだった。being wrong roughly half of the time and basically just interrupting my flow。
I agree!I like local tools、mostly、use Gemini 2.5 Pro when actually needed and useful、and do a lot of manual coding。
But how do you dump your entire code base into Gemini?Literally all I want is a good model with my entire code base in its context window。
I wrote a simple Python script that I run in any directory that gets the context I usually need and copies to the clipboard/paste buffer。A short custom script let’s you adjust to your own needs。
Repomixはcommand lineからrunできるよ。https://github.com/yamadashy/repomix
Legal issues aside(you are the legal owner of that code or you checked with one)、and provided it’s small enough、just ask an LLM to write a script to do so。If the code base is too big、you might have luck choosing the right parts。The right balance of inclusions and exclusions can work miracles here。
Cursorは、text filesを全部contextに入れるんじゃなくて、vector embeddingsを使ってefficientlyにcodebaseをindexできるよ。Someone else mentioned machtiani here which seems to work similarly。
For a time Windsurfはfull agentic codingでCursorよりway aheadだったけど、now I hear Cursor has caught up。まだCursorに戻してtry outしてないんだけど、Windsurfはcontext gatheringが100-200 lines at a timeにrestrictedされててfrustrating。So many bugs and poor resultsの原因はsimply due to improper context。necessary contextを与えるとmodel problemじゃなくapproachの問題だとclearly see。800ish lines overのfilesにstruggleするのもextremely annoying。hardware and cost of tokensがreal bottleneckだから、deepseek-like innovationなcontext gatheringが必要だね。
Wait、are these 800 lines of code?俺だけmajor code smellって思ってる?Assuming these are code files、the issueはAI processing powerじゃなくてrather bread and butter coding practices related to file organisation and modularisationの方だと思うんだけど。