生成AIコーディングツールとエージェント 私には効果なし
引用元:https://news.ycombinator.com/item?id=44294633
AIが知らない言語でコードを書くのに役立つ?疑問だね。でも、新しい技術を学ぶ時、前はStack Overflowとかで質問して何時間も待ってたのが、今はChatGPTやGeminiに聞けばすぐ答えが出る。これだけでも作業効率上がるよ。質問に答えてもらうのは立派な学習だろ?
AIの知識ってStack Overflowとかから来てるんだよね。みんなAIに質問するようになると、SOに人が来なくなって情報が減るんじゃない?インターネットの前みたいに、一部の権威が情報集めて売る世界に戻るかも。あと、記事の筆者はコードを“書かせる”話をしてるんだから、“質問に答えてもらう”のとは違うよ。
“AIがStack Overflowからしか知識を得てない”ってのは違うと思うな。僕が仕事で使ってる新しいAPIは、SOどころかどこにも情報がないのに、AIは結構正確に答えてくれるんだよね。正直、これにはびっくりしてる。
絶対そうだよ。AIは見たことないことなんて考えられないんだ。もし答えたなら、それは運かハルシネーションだよ。“知ってる”んじゃなくて“推測”しただけ。人間だって推測するけど、それが正しい保証はないだろ?AIも自信の度合いを言ってくれないと困るんだけど、そうなるとみんな使わなくなるから、利益優先で自信満々に答えるんだよ。
別の経験も話させて。不慣れなAPIでC++のプログラムがクラッシュしたんだ。スタックトレース見ても分からなかったけど、Geminiに貼り付けたら、APIから見てどこが原因っぽいかすぐ教えてくれた。そのヒントでたった2行直すだけでバグが解消したんだ。これ、めっちゃ助かったよ。
そういう経験、昔のGoogle検索でもできたの覚えてる?“AI”って言われるずっと前だよ。AIがすごいんじゃなくて、検索エンジンがダメになったから、AIがすごいように見えるだけじゃないかな。
“AIが見たことないこと理解できない”って言うけど、LLMがどう動くかはまだ完全には分かってないんだよ!確かに知識の反芻だけど、人間の知識だって大体そうじゃない?LLMはパターン認識がすごいから、新しいコードでも問題見つけられる。ハルシネーションはあるけど、人間だって自信満々に間違えることあるしね…。
Stack Overflowは13年前の質問と似てるって言って質問閉じたりするけど、ChatGPTは(たとえ嘘でも)答えてくれるからね。
知識ってどこから来るんだ?Stack Overflowに書けるのは、コードとかドキュメントを読んだ人だけだよね。それならLLMに同じことができない理由はないんじゃない?
AIは“魚の釣り方”じゃなくて、“魚”をそのままくれるんだよ。コピペするだけの答えをね。
これってさ、LLMをAGIだと思ってて、何もないとこから答え出したりリサーチしたりできると思ってる人の話だよね。
実際にLLMの専門家と話して、どう動くかとか学習データがいかに重要か聞きなよ。
信じられないんだけど、CS業界の人間がちょっと使っただけで全部知ってるみたいに話すんだもん。
LLMのコード一行も書いたことないくせに。
こんなやつらばっかで俺たちの業界は終わりだよ。
それは違うよ。
コードをコピペしたり詳しい説明を見たりするより、アドバイスをもとに自分でコードを書いて調整する方が、ずっと少なくしか学べないんだ。
「Googleがずっと前に”AI”より同じことしてた」って?
いつ?
議論に勝つためにいつも嘘ついてんの?
LLMは合成された答えをくれるけど、検索エンジンは既存のものを返すだけ。
明らかに一致しないものは絶対出せないんだよ。
どこに異議があるの?
「人類知識のコーパス」って言うことに問題ないと思うけど。
「コーパス」ってほぼ「集まり」って意味なだけだよ。
単なるパターンマッチングだよ。
ほとんどのAPIやコードなんてユニークでも特別でもない。
全部何千回も前にやられてること。
だから、LLMは自分で作っただけのどこにも公開してないツールにも役立つことがあるんだ。
「答えを知ってる」ってことについては、こういうツールでどういう意味かも分からないね。
俺が知ってるのは、それが役立つかどうかだけ。
じゃあAIって基本的には検索エンジンとしてが一番ってことか。
それもお願いすればできるよ。
自分で解ける練習問題も作ってくれる。
でも specifically(明確に)頼まないとダメ。
だってデフォルトだとコードを出すだけだから。
これは間違い。
俺は遊びでおもちゃの言語やフレームワークを書いてるんだ。
これらはコードベース以外にシンプルに存在しないAPIだけど、LLMは consistently(一貫して)できたんだ。
・関数の signatures(シグネチャ)を読むこと。
・コードを correctly(正しく)使うこと。
・コードを参照して underlying(根底の)APIの behavior(挙動)について答えること。
もちろん context window(コンテキストウィンドウ)を超えたら推測してるだけだけど、context windowを underestimate(過小評価)しちゃダメだよ!
> LLMのすごいところは、その仕組み(あるいは理由)をまだ知らないことだって?
機械学習のコースを取ったり、論文をいくつか読んだ方がいいかもね。
> それはいつ『役に立たない』ってこと?
俺の経験では『たくさん』役に立ったよ。その時期、スタックトレースはArm Linuxのハードウェア問題でほとんどだったからね。
でも君のスタックトレースはきっと全然違ってて、君以外にそんな違うスタックトレースを持つ人はいないんだろうね。世界は君と君のプロジェクトだけで出来てるんだ。
> 議論に勝つためにしょっちゅう嘘つくの?
自分の殻に閉じこもってるやつに嘘つき呼ばわりされるのは不愉快だよ。
「いつが役に立たない?」って君が言った時、そう意識的に嘘ついたの?それとも無意識的に?
検索がだんだん悪くなった理由の一つは、ちゃんとしたドキュメントよりブログスパムが上位に来るようになったことだよね。問題を解決するためには、優れたAPIドキュメントやユーザーガイドがあった方が、次に自分で出来るようになるからいいんだ。良いAPIドキュメントを読むことは、全体の設計や将来必要になるかもしれない機能についても教えてくれる。よく使う技術のマニュアルを読むのは、たいていすごく有益だよ。
時々、関数が advertised 通りに動かなかったり、トリッキーなことをする必要があったり、変なエラーメッセージが出たりするよね。そういう時は、Stack Overflowは同じ問題を持ってる人を見つけられれば最高だった。でも、ほとんどのブログのチュートリアルレベルの例は、学習にならないまま目の前の問題だけを解決しがちだね。
それは誰かに宿題を代わりにやってもらうのに似てる。宿題は終わったけど、それは本当の学習じゃない。この視点からすると、ChatGPTは学習の助けにはなってない。
つまり、君はコードやAPIの例なんかをコンテキストウィンドウに入れたら成功したって言ってるわけ?それは俺がレスした記事(「no knowledge」と主張してた)とは全然違う話みたいだね。それに、これを見落としてるみたいだよ:
「回答を得られるなら、それは『どこか他』で見たものだ」
コンテキストウィンドウは『どこか他』だよ。
もちろん、そもそも俺はStack Overflowのモデレーションについてツッコんでたんだよ。
あれは人に教えようとすることを強く discourage してたからね。
君の親コメントの人は答えを探し、君はドキュメントを探す。だからAIは彼には効果あるけど、君には効果ないんだよ。
これはAGIかどうかの話じゃないし、「out of thin air」でもないよ。
今のLLMは、検索したり(その結果がコンテキストに食われる)、たくさんのコードエディタ/プラグインでは、エディタがプロジェクトのコードベース/ドキュメントをインデックス化して、関連する部分をコンテキストに食わせたりして「リサーチ」できるんだ。
多分、彼らはコードエディタからLLMを使ったか、自動でWeb検索するLLM(つまり人気のあるやつ全部)を使ったんだろうね。
彼らはすでに、Stack Overflow以外の質問にも毎日答えてるよ。
> それは絶対に本当だ、そしてAIは考えることも、推論することも、見たことがないものを理解することもできない。回答を得られるなら、それは『どこか他』で見たか、文字通り dumb で統計的な偶然だ。
SOTAモデルが数TBのサイズしかないのに、Exabytesのデータで学習されてる事実と、どうやってこれを両立させるんだい?
正しい答えが dumb な偶然だってわけでもないだろう、もしそうなら、初期の proto GPT モデルみたいに、モデルはほとんど幻覚(hallucinate)しかしないはずだ(間違った答えの空間は、正しい答えの空間より何桁も大きいからね)。
> 昔のGoogleが「AI」よりずっと前に同じことをしてくれたのを覚えてる?
[…] スタックトレース […]、でも素の検索でもLLMと同じ答えをくれるはずだったんだ。
「素の」Google Searchは、LLMより前は、例えば verbose なテキストの〜60フレームみたいな、長いスタックトレース全体をコピペする能力はなかったよ。長い文字列はGoogleのUIの制限を超えてたからね。いろんな回答によると、32単語と5784文字の制限があったらしい: https://www.google.com/search?q=limit+of+google+search+strin…
LLMより前は、人間がスタックトレース全体を目で手動で見て、関連しそうな小さい部分文字列を推測して、それをGoogleの検索ボックスに貼り付ける必要があった。もちろん、それはやれるけど、LLMが君のためにやるワークフローとは違うよね。
はっきりさせておくと、LLMの方法が「より良い」と主張してるんじゃない。ただ違うって言ってるだけだよ。
「回答を得ることは学びだ」って意見、ちょっと違うかな。質問を自分で考えるプロセスこそが学びを深めるんだよね。AIに丸投げして楽して回答得ても、脳の学習機能は使ってないよ。君のやり方みたいに、プロンプトを練ったり回答を自分で統合したりするなら学習になる。でも、vibe codingとかAgentic LLMみたいにボタン押すだけでコードが出てくるのはダメだね。これは事前に考えるのも後でデバッグするのも自動化しようとしてるから、学習の敵だよ。実際にC++/QT/QMLのプロジェクトでClaudeに全部やらせて動くアプリはできたけど、何も学べなかった経験があるんだ。
この記事、すごく良いね!自分でコード書かないと失うものとして、無意識で問題のメンタルモデルを作る感覚がある。これがトラブルシューティングとか新機能追加の時にすごく役立つんだ。寝てる間に問題解決したりすることもあるしね。でも、最近の職場でLLM使って劇的に生産性が上がったって開発者は見たことないな。みんな、脳を使って問題解決するのを避けることに慣れちゃって、それを生産性が上がったって勘違いしてるんじゃないかな。
「問題を解決するために脳のエネルギーを使わないことに中毒になりつつあり、それを生産性と勘違いしてる」って言い方、本当にうまいね。Google Researchの2024年の研究[1]でも、LLMを使った人は本を使った人より時間がかかったのに、自分たちの方が効率的だと感じてたみたい。これは「認知負荷の軽減」のせいかな? LLMに聞くのは楽で受け身だけど、本で調べるのは大変で能動的だからね。やっぱり、脳を使わない楽な方法に慣れて、それを生産性アップだって勘違いしてるんだよ。
[1] https://storage.googleapis.com/gweb-research2023-media/pubto…
もっとコメントを表示(1)
それは結果の解釈をねじ曲げてるよ。時間かかったからって生産性が下がったわけじゃない。むしろ、遥かに少ないメンタルリソースでエキスパートと同じタスクができるなら、それは絶対的な勝利だよ。多くの組織が最優先すべきことだ。仕事って多くの人にとって精神的に消耗する経験だから、AIがそれを軽減してくれて、メンタルエネルギーを25%くらいしか使わないで済むなら、結果が同じでも最高の勝ちじゃないか。
君の言ってることについていこうとすると、雇用主は何もメリットないけど、従業員は同じ時間で同じ成果を出しつつメンタル負担が減る、ってことかな?個人的には、これが常に勝利かどうかは分からないな。だって、コーディングのひらめきとか問題解決する部分が好きなんだもん。AIに指示して、直して、面倒見る、みたいな仕事になっちゃうと、前と同じ満足感や楽しさは得られないからね。
彼らの主張を擁護すると、雇用主もメリットあるよ。従業員は一日中、より高いレベルでパフォーマンスできるから。認知負荷が高いと午後は疲れて生産性落ちるけど、LLMがあればメンタル的に楽だから、長く高いレベルを維持できるはず。そうなれば、雇用主にとっても良いことだよね。
まあ、みんなここでデータなしで話してるよね、全部推測だよ。OPの仮説(AI使っても早くならない、試行錯誤するだけ、認知負荷は減るけど生産性は変わらない)に基づくと、8時間働いてAIなしでもXの成果、AIありでもXの成果ってことになりそう。たぶん、一番集中できる時間はAIなしの方が効率良いけど、疲れてくる時間はAIありが盛り返して、一日で見るとトントンになる、とか?データないから、単なる感覚とか印象でしかないね。メンタル負荷減ったら生産性を長く維持できるかも?それも分からないね。
メンタル負荷減ったら生産性を長く維持できるかって?「分からない」じゃないだろ、それはもう確認済みの事実だよ。そうじゃなきゃ、今バーンアウトがこんなに流行るわけないだろ。
いや、バーンアウトの原因は、コーディングやデバッグの認知負荷とはほとんど関係ないんだよ。Mayo Clinicによると、原因の多くはコントロールの欠如とか、サポート不足とか、職場の人間関係なんだ。仕事量とかWLBも関係あるけど、これも根本的には他の問題と絡んでる。AIで生産性が上がっても、仕事量が増えるかレイオフになるだけじゃないかな。もしAIでコーディングが楽になっても、精神的に疲れる他のこと(例えばDoomscrollingとか)に時間を費やすようになるだけだろうね。
https://www.mayoclinic.org/healthy-lifestyle/adult-health/in…
素晴らしいツールに必要なのは、1.効率が良い、2.品質が高い、3.ユーザーを怠けさせてくれる、の3点だと思う。AIは3点目は満たすけど、1と2はダメだね。今の人間にとって、これは危険な組み合わせだよ!結局AIは広まるだろうけど、効率と品質は犠牲になるだろうな。
あんたプログラミング歴どれくらい?それナイーブだよ。
10年もやってると、コーディング自体はクリエイティブじゃなくて、どんな問題に適用するかが重要になる。
会社の仕事の9割は使い回しで超つまんない。これこそAIで自動化すべき。
退屈な問題で無理にクリエイティブになろうとすると、メンテしにくいクソコードになるんだよ。
正直これが嫌でPhD取り直したわ。今は趣味みたいで楽しい。
良い点ついてるね。みんな同じ仕事してるわけじゃないってことだ。
CRUDアプリばっかの人もいれば、俺みたいにコードの構造とか抽象化考えてシステム全体の課題解決する人もいる。
後者はクリエイティブだけど、前者はAIに任せたいだろうね。
AIエージェントが生産性上がるかは、結局自分の仕事が何かって話だよ。
研究者たちが使った言葉だと、AIは時間かかったし、平均で正答率も低かった。つまり「生産性低下」ってことね。
>脳のエネルギー使わずに済むなら、もっと長時間作業できるんじゃない?
それって生産性上がるってことじゃないの?
難しいタスクだと1日3〜4時間で限界だけど、AIで楽になればもっとやれるかも。
ランニング速度で歩けるなら、速くはないけど長く続けられるみたいなさ。
ソフトウェア開発には、ビジネス課題解決がメインのとこや、設計終わったらあとはひたすら書くだけのとこがある。
後者みたいなひたすら書く系の仕事は、AIエージェントに任せても脳の負担トレードオフは発生しないし、理にかなってる。
こういう開発、結構あるんだよね。
伝統的なコーディングとAIコーディングは違うものだし、どっちかが得意、苦手なのは当たり前。
筆者はAIコーディングが下手なだけかもよ?AIコーディングもスキルで、磨けば上達するんだから。
俺はAIに全部任せるのは懐疑的だけど、雑務は任せて、大事な設計は人間がやるのが良いと思う。
絵画と写真みたいなもんだよ。
いやいや、AIコーディングがスキルとかってほどじゃないって。
数分で覚えられるし、GDBとかUNIX IDEみたいに本一冊読むほど難しくない。
絵画と写真の例えも違うな。あれは違う活動で、目的も違うから混同しないだろ。
わかったよ、でも「上達」するためにどんだけ時間とお金を使えばいいんだ?
無料トライアルとかちょっと使った感じだと、全然元取れない気がするんだけど。
AI使ったコーディングのスキルアップには、多分1000ドルちょっとかかるかな。
全体的に見れば、かなり安い投資だと思うけどね。
このAIプログラミングスキルって、そもそも学ぶ価値あるの?出力品質ってどんだけ上がるの?今のツールや将来のツール、モデル間でどれだけ応用効くんだろうね?今のAIプログラミングツール見てると、一年後のツールに今のスキルが通用するとは思えないんだけど。
スキル習得の天井は「高い」かもしれないけど、一流ピアニストになるみたいに何年も練習する必要はないよ。世界で一番経験あるAIコーダーでも3年くらいだし、その多くはモデルの進化で古い知識になっちゃってる。GPT 3.5で学んだことが通用しないとかね。何十年も経験ある先生もいないしさ。
そういうお金(scratch)がない人たちは、持ってる人たちにどうやってついていけばいいの?
プログラミングにAIツールを使うのは、何でもかんでもってわけじゃないよね。「こういうTerraformリソース全部にuuidをタグ付けする」みたいな単純作業(grunt work)を選んで、AIにやらせるんだ。品質とは関係なく、単に退屈な手作業をやらなくて済むっていう話。
学んでるのは、ほとんど「姿勢」だね。遊び心、粘り強さ、そして何度もゼロからやり直す気持ち。
「数分で覚えられる」?
始めるだけなら数分でできるけどね(gdbも数分で始められるけど)。でもGPは天井の話をしてるんだよ。どんなタスクにどのモデルが良いか知ってる?追加ファイルのフォーマットは?コンテキストのリスタート/圧縮はいつ有効?シングルプロンプト?マルチステージ?プロジェクトごとの期待値管理は?どんなテストがモデルをうまく導く?言語ごとの問題は?
今は適切なプロンプトがSWE-verifiedみたいなタスクで差をつけるんだよ。
i.e. continually gambling and praying the model spits something out that works instead of thinking.
粘り強さ、何度もゼロからやり直す意欲ってのは、考える代わりに、AIが何か動くものをたまたま吐き出すかどうかにひたすら賭けて祈ってるだけってことだろ。
なんでそんな簡単なことにAI使うんだよ?間違える可能性が増えるだけじゃん。マルチカーソル編集の方が絶対速いって。
エージェントをより良く動かすための「足場作り」にはすごく高い天井がある気がするんだよね。カスタムプロンプト、カスタム CLAUDE.md ファイル、Claude に読ませる他のドキュメント、特にリンティングやテストがいかに素早く正確に動くかとか。それ以外に MCP とか Claude にデータベースと話させたり Playwright でウェブサイトを開かせたりするのはまだ試したこともない。
例えば、俺はカスタムの計画プロンプトを持ってて、それに数段落の情報渡すと、ウェブ検索したりコードやドキュメント読んで仕様書を作ってくれる。で、その仕様書をレビューしてから Claude Code に渡して実装させるんだ。
これは、最終的なコードの変更をレビューするより仕様書をレビューする方がずっと簡単だからうまくいくんだ。仕様書の段階で理解して、自分がどう実装したいかAIを誘導すれば、最終結果をレビューする時もずっと楽になる。コードベースの自分のメンタルモデルや、どうあるべきかに近くなるからね。
で、これでもまだ Claude Code が動くコーディング環境の準備のほんの表面をなぞっただけって感じ。
AIでコード書くのは1時間で覚えられるって意見には反対だな。AIが得意なこと、モデルごとのコード生成の仕方、結果を出すためのプロンプト方法を学ぶ必要があるよ。
むしろ、良いプロンプトを書くのは新しいプログラミング言語を学ぶのに近いかも。何を達成したいか、どんな言葉で説明する?ファイルやセクションはどう参照すればコンテキストを無駄にしない?
俺は過去1年半、Github Copilot, Cursor, Claude Code, OpenAI APIs とAIツールを使ってコード書いてるけど、どれも成功させるには少しずつ違うことしないといけないし、得意なことも違う。
AIは万能薬じゃないけど、適切な場面では良いツールになり得るんだ。
LLMベースのコーディングは、ジュニアに指示出すとか外注するのに近いね。定義やプロンプトを与えて、作業させて、修正して繰り返す。人間相手みたい。違うのは速さ(LLM勝ち)と信頼性(人間勝ち)、あと「大きな絵」を見る能力(これも多分すぐ解消されるだろうけど)。
これが俺の(いくつかの)反対理由の一つ。細かい部分を理解したいし、プログラミングが好きで始めたんだ。長年、給料下がっても人を管理するの避けてきたのも同じ理由。俺は技術をいじる人でありたい、技術者を管理する側じゃない。AGIが出てきて、一緒に働けるならまた呼んでくれ。
こういうスキルがOpenAIとかに左右されるのがどれくらいかってのも気になるね。そういや1、2年前にAI「アーティスト」がモデル変更で作品台無しだって騒ぎあったし。
「1時間で習得できる」ってのは同意しないけど、業界がその反対(AIで誰でもコード書ける、絵描ける、音楽作れる)を売ってるのが面白いね。
「AIの良いとこ学ばなきゃ」って言うけど、それよりAIの悪いとこ学ばなきゃいけないことの方が多い気がするし、それが楽しくないんだ。
なんで効果ないの?俺はいつもClaudeのインスタンスをいくつかバックグラウンドで動かして、単純だけど時間かかるタスクやらせてるよ。何時間も作業時間節約できて、もっと重要な部分に集中できるようになった。
なんでプロセスが重要なの?試行錯誤で最終的に良いアウトプット/結果が出せるなら、それが良い結果じゃないか。
もっとコメントを表示(2)
>Claudeのインスタンスをいくつかバックグラウンドで動かして、単純だけど時間かかるタスクやらせてる
もしよかったら、これについてもっと詳しく聞きたいんだけど。どうやってバックグラウンドで動かしてるの?何をさせてる?どうやってやり取りするの?ファイルシステムにアクセスできるの?
よろしく!
なぜ考えることが重要なのか?ちょっと考えてみなよ。
もし「その手の苦労」が足りないなら、あなたはソフトウェア開発の学習段階にいるか、ひどく安月給かのどっちかだよ。維持できるレベルじゃないね。
チェスエンジンにとって、考える能力があることと、十分な結果を力任せに探索で見つけること、どっちが重要?
「思考」を使ったプロセスと力任せのプロセスで得られる結果が見分けられないなら、どうやってその結果に至ったかのプロセスがどうして問題になるんだ?
もちろん、業界がそう売るのは金儲けたいからだよ。概念実証(PoC)を作るのは簡単だけど、コンテキストに大量のトークン(5万〜10万)が必要になると(500行のファイルを複数読んだり、考えたり)、質が落ちるんだ。質を保つにはモデルにどう集中させるか知る必要がある。
「Goでサーバー書いて」だけじゃ全然足りない。認証はどうする?どんなエンドポイントが必要?ライブラリやAPIとの連携は?セキュリティ問題は?コードの拡張性は?既存のパターンにどう従う?
自分でやるより考えることと書くことが増えると感じるね。フィードバックループが長いんだ。記事にもあるように、書かれたコードについて暗黙の知識があるんじゃなく、レビューしなきゃいけない。
とはいえ、テストを書く時(良い例があれば)とか、基本的な足場作りには速いタスクもある。かなりの手助けが必要で、だからこそ経験がある人の方がAIコードからより価値を得られると思うよ。彼らの方がデタラメを見抜く力が高いからね。
仕様って言うけど、具体的にどういう意味?例はある?
仕様と実装を分ける言語(C, C++, Ada…他に何があるかわからないけど)で実験してるんだ。LLMはCのメモリ安全性の問題に苦労してるみたいだけどね。
1000ドル使っても納得いかないなら返金あんの?コストを正当化するために嘘つきそう。1000ドルは結構デカいよ。
金ないやつはどうやってついていくんだよ?
バックグラウンドで複数のClaude Code [0]動かしてると思うな。自分で上限を探りながらいろんなタスクを任せられるCLIエージェントだよ。ファイルシステムへのアクセスもあるけど許可したものだけ。
[0]: https://www.anthropic.com/claude-code
効果ないって言う人もいるけど、俺は最近、数パラグラフで1000行のAPIクライアントとか、ウェブサイト一式作ったから出力品質はかなり上がってると思う。ツール使うのに必要なスキルは、シニアになるにつれて身につけるスキルと同じで価値を失わないよ。
authとかエンドポイントとかセキュリティとか拡張性とか既存パターンとか、これらはLLM使う realm じゃなくてソフトウェアエンジニアリングの領域だろ。従来のコーディングでも同じ。みんなコーディングとソフトウェアエンジニアリングを混同してるよ。
同僚の『みんな同じ言葉で話してた』って話で君のコメント思い出したよ。
・雇用主が設備出すべき。Cursor を自分で買うな。
・職場は meritocracy じゃない。金で定義されない。
・US市民の約半数は給料1回失うと家賃払えない。
・金は別の優先順位(子供、病気、 loan shark)に行くことも。
・人は違う優先順位があるだけ。
・会社もツール効果不明。自分で金失わなくてよかったって思いたくないね。
これ bitter lesson の別の応用かもね。AI連携の複雑なプロセス学ぶ価値ないかも。将来のAI進化によるパフォーマンス向上に比べたら、今の生産性向上なんて pale だから。
『他人のコードレビューは自分で書くより時間かかる』ってClaude Code ヘビーユーザーだけどマジで的を射てる。LLMはすごいけど、コントロール譲るほど ship に時間かかる。最大のメリットはRSI軽減だね。実際の時間削減は過大評価されてる。
コードレビューする必要あんの?正直OPみたいに spot review するだけだよ。でも specs 書かせたり(良い)、結果は常にレビュー・テストしてる。だって全然レビューしてないOSSライブラリもいっぱいあるじゃん。
うん、実はコード全く見ない目標のプロジェクトやってるよ。自分で作ったツールの再実装ね。手で初めて作った時よりはるかに遅いってだけ言っておこうか :)
簡単なコーディングとかちょっとしたものならClaude Codeは使えると思うよ。でも、でかいもの作ろうとすると、ちゃんとアーキテクチャ考えても行き詰まることがあるんだよね。後でメンテできるコードにするには、かなり細かく指示しないとダメだね。OSSと違って、自分で責任持つコードだからさ。
Vertical slice architectureってのをやれば、そういう行き詰まりは避けられるよ。
なんでAIに行き詰まらせるの?「多くの指導」ってのがよく分かんないな。俺はAIも部下のエンジニアも同じくらい指示してるよ。テストさえちゃんと作らせとけば、コード書き直すのだって安上がりになってきてるし。コードなんてどんどん使い捨てでいいんじゃない?
> なぜ行き詰まらせる?
それができたら困らないよ! 指導が必要ってこと!
> 人間開発者と同じレベル
そうそう、それが「多くの指導」って意味だよ。
> コードを捨ててやり直すコスト
それは確かだけど、難しいことだとまだ自信ないなぁ。
俺は単純なことだと思うよ。アーキテクチャをぐちゃぐちゃにするコードは受け入れなきゃいいだけ。ダメならもっと詳しく指示する。人間相手でも普通そうするでしょ?
勝手にアーキテクチャ壊されるとか心配してないよ。指導しないと、アーキテクチャ的に行き詰まるってハッキリ言ってるんだ。ガイドとか指示とか、なんて呼んでもいいけど、それが要るんだよ。
自分で書いたコードはレビューいらない、って思ってない?「未来の自分のために書け」ってジョークあるでしょ。生成AIコーディングってさ、本来やるべきこと(テストとかレビューとか)を強制される感じ。
いつも速くはないけど、テストもレビューも済んだPR見ると、集中すべきことに時間を使えてる気がするんだ。
LLMのコードレビューばっかしてたら、スキル落ちたり、殺人鬼になったりしない?(笑)
あー、それはあるかも(笑)。スキルの話は面白いね。オープンソースの世界だと、レビューするほどスキル上がるってよく言われてるんだけど。
スキルが上がるのは、コード書いた人の考えと実際のコードの差とかを理解しようとするからだと思うんだ。でも、コード読む側にそういう「自分で考える力」が無くなったら? AIコードっていつも同じっぽいから「まあ、これでいいか」で終わっちゃうんじゃないかな。