AIで10倍エンジニアになるプレッシャー?インポスター症候群を解消した秘訣
引用元:https://news.ycombinator.com/item?id=44798189
記事にかなり同意。AI開発支援は好きだけど、10倍生産性向上は信じないな。LLMはコーディングで2~5倍速くしてくれるけど、仕事のほんの一部だし。記事の意見と似てて、AIがタスクを速くしても全体の生産性はそんなに上がらないと思う。でもAIを使いこなせばもっと恩恵あるはず。10倍は無理だよ。
うん。AIは手がかかりすぎるね。Copilotはたまにすごいコードを出すけど、GPT-4oとかに任せきりにするとダメなんだ。半分はコンパイルもできないし、直してもちゃんと動かないし。ジュニアプログラマーみたいに動いてくれると思ったら、指示を全く聞かない酔っぱらいのシニアプログラマーみたいだよ。
「ジュニアプログラマーじゃなくて、指示を聞かない酔っぱらいのシニアプログラマーみたい」って、AIの現状に対する共通認識だよね。別の記事でも似たような例えがあって「博士号をたくさん持ってるけど、30%はケタミンでハイになってる超賢いアシスタント」だって。https://lithub.com/what-happened-when-i-tried-to-replace-mys…
AIを使った一番の収穫はね、(1)本業では創造性アップには繋がらないけど、発見したり学んだり、行き詰まった時に助けてくれたり、面倒なコードを書くのに役立ってるってこと。(2)でも一番すごいのは、サイドプロジェクトがめちゃくちゃ楽になったこと!AIがなかった頃は疲れてて全然できなかったのに、今はアイデアを形にできるよ。AIのスキルも上げられるしね。
「AIは発見や学習、行き詰まり解消、面倒なコード書きに役立つ」って意見よく聞くけど、検索エンジンとかオンラインドキュメント、Q&Aサイトと比べて、本当にそんなにすごい進歩なの?
「博士号をたくさん持ってる」なんて言っても、AIが真実と何の関係もないって現実から目を背けてるだけだよ。
Copilotは全然ダメで提案も修正もひどかった。でもClaude Code with OpusはヤバくてLLMの見方が変わったよ!プロンプトのスキルはいるけど、組み込みの実行ループがゲームチェンジャー。正直、ほとんどの仕事はAIに置き換えられる基盤が既にある。短期的(2年以内)ではないけど、中期的(5年以上)には多くの会社が大量解雇し、少数のAI管理者だけが残るだろうね。
これって、たぶん「10倍エンジニア」ってやつへの言及だよね。それも前から疑わしいと思ってた別の神話だよ。https://www.simplethread.com/the-10x-programmer-myth/
全く賛成できないね。今のコーディングAIってさ、「一輪車乗りながらフランス語で概念を説明しようとしてる世界レベルのバイカーPMが、4歳のスペインの天才に話しかけてる」みたいな感じだよ。何が言いたいか説明しないけど、Qwen Code使ったことあるならわかるでしょ。
俺の意見だけど、10xエンジニアって呼ばれるような人たちも、生産性の向上はせいぜいわずかだと思うよ。俺が知ってる一番頭のいいプログラマーは、マジで別次元の記憶力で、使ってるプログラミング言語の細部まで全部覚えてるみたいなんだ。それに、どんな問題でも、いつも素早く創造的に、一番賢くて効率的で、しかもエレガントでクリーンな解決策を思いつく認知能力が彼の本当の力なんだ。彼は自分で見つけたアルゴリズムの学術的な名前は知らないのに、天才的な耳を持つミュージシャンが楽譜を読めなくても10倍才能があるみたいに、自分で辿り着いてしまうんだよ。
彼とペアプロするとき、今のAIツールは彼ほど素早くも鋭くもないのがわかるね。似たような解決策にはたどり着けるけど、すごく時間がかかるし、彼を大幅に遅くしちゃうだろうね。
でも、この分野って能力の幅がすごく広いから、例えば俺の生産性を10倍に増やすことくらいはAIでもできると思うんだ。俺はソフトウェアエンジニアが専門じゃないけど、趣味でやるときは完璧主義なせいですごくゆっくりになっちゃうんだよ。だから、俺にとってはAIツールは、サイドプロジェクトの最初のクソみたいな概念実証を生成するのにマジでクールなんだ。とにかく早く動くものを作るためにね。
そうそう、AIが単なる単語予測器で、実際には何も知らなくて推論しないってことはみんな承知の上だよな。でも、このランダムなサイコロ(AI)がどういうわけか、大抵の場合、妥当でそれなりに賢そうな答えを出せるんだ。そして、このプログラムが技術的に何も知らないって事実が、この列車の速度を落とすことなんてないんだから。
Qwen Codeは、最先端の状態を表してないからね。適切なプロンプトを使えば、俺はClaudeで欲しいスペックのコードベースを完全に作れるよ。例えば、複数のハードウェアデバイスと連携する非自明なライブラリとかね。最新のC++で、ビルドも実行もできるし、データシートやメーカーの仕様から得たドキュメントやユニットテストまで付いてくるんだ。
「10x」って響きは良いから定着したんだろうけど、あれって実際の研究から来てて、その差は10xよりも大きかったんだよ。でも、それは「最高の奴と最低の奴」の間を測ったもので、今使われてるように「最高の奴と平均の奴」の比較じゃなかったんだ。
https://www.construx.com/blog/productivity-variations-among-…
AIは「底上げ」するけど、「天井を高くする」もんじゃないっていう気の利いた言葉、好きだな。下位20%の人が中間50%みたいにパフォーマンスできるようになるけど、トップ層には大して影響ないってことだと思う。
Simon、コメントありがとう!正直、記事をちゃんと読んでくれたのは、これが初めてって感じだよ。LLMが得意な言語とかツールを扱ってる人たち、特にそういう人たちが仕事の一部で2倍くらいは改善できるって考えには、全くオープンだよ。
なんでみんなAIが推論しないって言うのか、マジで理解できないんだよな。kv cacheは実質的に単方向のTuring machineなんだから、そこに「推論」をエンコードするのは可能のはずだろ。それに、LLMがたまにちょっとした推論をするって証拠もあるしね。単に訓練が難しいってだけで、推論能力がゼロってわけじゃないんだよ。
Hacked Newsで気づいたんだけどさ、ほとんどの記事へのコメントって、記事をちゃんとクリックして読まずに、見出しにだけ反応してるんだよね!
特に今回の記事みたいに、見出しだけで完結してるようなやつは、それが顕著だよ。
推論と計算の違いは「意識」だ、って言ったら俺って変かな?特に根拠はないんだけど、そうしっくりくるんだよね。
これ全部を数値化するのって難しいよね。John CarmackとかRob PikeとかLinusって、平均的なエンジニアよりどれくらいすごいんだろう?俺は自分を平均くらいだと思ってるけど、どんなに時間をもらっても彼らがやったことはできないよ(特に後知恵なしではね)。だから、彼らは俺なんかより無限に優れてるって言いたいね。
でも、10倍っていう主張は全然納得できないな。誰がそんなこと言ってるの?
数ヶ月前のYCの動画で、イケてるやつらが集まってエンジニアの生産性が10倍から100倍になるって話してたよ。Googleで検索すれば出てくるはず。
Devinみたいにリポジトリと直接連携してドキュメントを生成してくれるツールは、すごく生産的だよ。俺が丸一日かかったり、コンテキスト切り替えで数日かかるような小さなタスク4〜5個を、Devinが50〜80%こなしてくれるから、1日もかからずに終わらせられるんだ。これだけでも超価値があるね。あとはCursorを使って、今見てるファイルの小さな問題を解決したりもしてる。数文でリファクタリングできるのはめちゃくちゃ速いよ。LLMを使いこなすには、言語の機能やプログラミングパターンをよく知ってると、より正確にドキュメントや例と一致して効率が上がるよ。
AIはジュニア並みのコードを書くけど、デザインセンスはミドルレベルで、アルゴリズムに関しては天才的だね。
AIをボイコットでもしてるの?自分で試してみれば、AIのメリットがすぐにわかるはずだよ。有料プランじゃなくても、この種のサポートは十分に受けられるしね。
タイトルを少しクリックベイト的にしちゃったのは、僕のせいかもしれないな。AIのせいで自分が時代遅れになるって不安に感じてる人たちが、『秘密のソース』を見逃してるわけじゃないって思ってもらいたかったんだ。このコメントが多くの人に届いて、それが達成されるといいな。あなたの意見には本当に感謝してるよ。あなたの仕事にはすごく尊敬してるし。良い一日を!
>Googleで検索すれば出てくるはず。
出てこなかったよ。
2〜5倍っていう主張もかなり怪しいと思うな。AIを使ってるチームが四半期でそれだけ多くの成果を出すってことだろ?僕のチームはAIを使ってる人が多いけど、そんなことは全然見てないし。それに、『使い方が間違ってる』って言われても、検証できないことには反論できないよね。
それだとNewtonが10倍の科学者ってことになるな。10倍のプログラマーだけを雇おうとするのが、どれだけ非現実的かよくわかるよ。本当の10倍の人ってのは伝説的で、ただタイピングが少し速いだけの普通の開発者じゃないんだから。
実用的な視点から言えば、もしAIが人間にとって推論が必要なことを達成したら、AIも推論しているって言うべきだと思う。そうすれば、哲学的な議論にそれて無限の議論に陥ることなく、AIが実際に何ができるのかについて合理的な議論ができるからね。
厄介な並行処理の問題がなくて、ドキュメントがちゃんとしてるなら(デバイスを設定したり動かしたりするレジスタがわかればね)、デバイスドライバって世界で一番簡単にコード書けるものだよ。システムプログラマーがアプリケーションプログラマーより賢いって古い常識があるけど、SWE-Benchはそれが嘘だって証明してる。確かにSWE-Benchの問題はソフトの言語だけど、アプリケーションプログラマーはプロダクトマネージャーとかテスター、エンドユーザーの言葉で曖昧なチケットをもらって、それをSWE-Benchの言語に変換してやっと解決するんだ。SWE-Benchで65%の性能って言われても、僕が職場で解決しなきゃいけないようなチケットじゃないから、そんなに感動しないんだ。むしろ、職場でAIを使って大規模なコードベースをメンテしたいなら、仕事をそういうチケットの形に分解する必要があるってことだね。
もっとコメントを表示(1)
えっと…Aが問題を解いて、その解決策を書き留めたとするよね。Bがその答えを読んで繰り返す。これって、同じ質問をされたときにBは推論してるって言えるのかな?似たような質問だったらどうなの?
なんか皮肉なことになってるよね。何十年もソフトウェア開発の半自動化を夢見てきた。CASE tools、UML、IDEsなんかはみんな、「本当のロジックに集中できる」ような高レベルの抽象化を約束してたんだ。LLMが全然違う方法でその夢を叶えた今、多くの開発者は不安を感じたり、脅威にすら思ってる。なんでかって?LLMはただのオートコンプリートじゃない。生成するんだ。そうすることで、僕らのワークフローだけじゃなく、アイデンティティまで問われるんだよね。Coltonの記事は、この感情的な側面を完璧に捉えてると思う。インポスター症候群って、実際の10倍の生産性(ほとんど現実じゃないけど)じゃなくて、「遅れを取ってる」って認識から来るんだ。そしてこの認識は、「ソフトウェアエンジニアリング」がどうあるべきかっていうシフトによって煽られてる。LLMは事実上究極のCASE toolsなんだけど、予想より早く、ごちゃごちゃして、もっと破壊的に登場したってわけ。形式的なモデルとか図もいらない。自然言語から直接実行可能なコードに飛ぶんだ。それはワクワクするし、同時に不安だよね。これまでの「通過儀礼」が崩壊する。ソフトウェアの「神聖な言語」を話さない人たちにも力が与えられる。そして多くのエンジニアが「今、自分は何をやってるんだ?」って問いかけられるんだ。
皮肉を言うとね…このコメント、ChatGPTが書くの手伝ってくれたの?
僕にはAIコンテンツみたいには読めないな。それにHNのガイドラインに、コメントがAI生成だって適当に言うのは違反だよ。
今ならStable Diffusionの画像を見たアーティストの気持ちがわかるよ。AIコードって、変なことだらけでバグも多いし、実際のコードベースには絶対入れたくないような、余計なものや奇妙な点がたくさんあるんだ。直すのに、自分で最初からやるのと同いくらい時間がかかることもよくあるんだよね。もちろん、別のモデルに切り替えたり、コンテキストを増やしたり、プロンプトを改善したりできるけど、本当に質の良いAIコードはまだ手の届かないところにあるか、何か「クリック」してAIが魔法みたいに僕が欲しいものを生み出し始めても、その魔法は続かないんだ。Stable Diffusionと同じで、あまり気にしない人とか、何が悪いか知るほど詳しくない人は、問題に気づかないんだよね。一週間前、僕が書いた社内ライブラリの一つが動かないってバグ報告が来たんだ。報告者のコードをチェックしたら、変な問題だらけで(デバッガーが動かないとか、TypeScriptが真っ赤な波線だらけとか)、僕のライブラリが途中の難解なミニファイされたJSのどこかでクラッシュしてた。書いたやつに何が起きてるのか聞いたら、プロジェクト全体を「vibe coded」したって白状してたよ。
君は根本的な制約を見落としてるよ。ソフトウェア開発のボトルネックは、タイピング速度や生成じゃなくて、検証と理解なんだ。LLMが幻覚なしで完璧に動いたとしても(動かないし、これからもそうなるかもね)、良心的な開発者は、リリースする前に全行理解しなきゃいけないんだ。LLMが生成したからって、コードを10倍速くレビューして理解できるわけじゃない。実際、生成されたコードのレビューって、明示的な意図を実装するんじゃなくて、暗黙の前提をリバースエンジニアリングするから、かえって時間がかかることが多いんだ。「10倍生産性」っていう話が成り立つのは、ちゃんと出力をレビューしてないか、正しさがどうでもいい簡単なコードを扱ってる場合だけだよ。バグに影響が出る本物のソフトウェアエンジニアリングは、人間の認知帯域幅がボトルネックのままだ。LLMは作業を「書く」から「レビューする」にシフトさせたけど、それは生産性にとってマイナスになることの方が多いね。
ENダッシュや短いスタッカートな文章が修辞的表現に使われるのが、AIだってバレバレだよ。AIはLinkedInの投稿みたいに書くね。「Why? Because LLMs don’t just autocomplete. They generate. And in doing so, they challenge our identity, not just our workflows.」って部分が僕の中で警戒信号を鳴らしたんだ。補完と生成の違いを説明する代わりに、違いがあると仮定して、証明してない点を派手な文章で押し付けてる。この「Why? Because X. Which is not Y. And abcdefg」っていう段落は、百回くらい見たよ。Deepseekは質問するたびに使ってくるしね。
「LLMが幻覚なしで完璧に動いたとしても(動かないし、これからもそうなるかもね)、良心的な開発者は、リリースする前に全行理解しなきゃいけないんだ。」これって言い過ぎじゃないかな?コンパイラの機械語出力だって、全部理解してるわけじゃないでしょ?
でもさ、もしAIの文章をもっとたくさん読めば、もっと頻繁に使うようになるよ。これは単なるAIの駄文なだけじゃなくて、リアルタイムで社会としての僕らの考え方を根本的に再配線してるんだからね!これは古典的な「オオカミ少年」みたいなAIの癖なんだよ
問題だよね!
世界に目を向ければ、労働が資本に破壊されているのがわかるよ。給料は安く、監視や評価が増えて労働環境は悪化、企業のモラルは低く、契約は短期間で不安定なキャリアパス。独占と権力集中が進んでる。これまで私たちはこの問題から守られてたから、多くの労働者にとって状況がどれほど悪いか理解しにくかったんだ。でも今、私たちの不安定な状況が明らかになってきてるね。
その例えは違うね。僕は自分が作業する抽象度でコードを理解しなきゃいけない。Pythonを書くならPythonコードを、Assemblyを書くならAssemblyを理解する責任があるんだ。違いは、Compilersは形式的な仕様があって決定的だから翻訳を信頼できること。LLMsは保証のない確率的な生成器だよ。LLMがPythonコードを生成したら、それは僕が出荷するPythonコードになるから、完全に理解しなきゃいけない。だから生産性はレビュー速度で頭打ちになる。誰が書いたかに関わらず、理解できないものは出荷できないんだ。
アートとの比較は的確だね。生成されたアートはほとんどの人にとって十分だし、無料で瞬時に手に入るのが一番重要だ。コードも多くの人にとっては同じ。その影響で、単純作業が減るだろうね。Artistsは地元のイベントや友達のD&Dキャラクターの絵を描く仕事が減り、Programmersは中小企業のウェブサイト制作や壊れたWidgetsの修正といった仕事が減る。これで専門家が減ったり、能力の低い専門家が増えたりするのかな?スキルを磨くための仕事がなくなったら、みんなわざわざ無料で自分を鍛えたりするんだろうか、それとも退化しちゃうのかな?
em dashが含まれてるコメントは全部AIだって決めつけるのやめてよ。em dashはすごく便利なんだから!
マジかよ、何でもかんでも末期資本主義じゃないって!
”Software engineering”は「雰囲気直し」になるだろうね。Softwareでなくせる仕事はたくさんあるけど、Managersが実績のないSWEsを雇いたがらないから今まで消えなかったんだ。HNはあの市場がどれだけ大きいか分かってないと思う。AIの登場で、Managersは従業員を理解できないCodeに置き換え、そのCodeが3年後に失敗するのを見て、それを直すSWEsを雇うことになるだろう。僕が思うに、そういう仕事は、非技術者が最初のIterationを納品することで最初に消える仕事よりも多くなるはずだ。それらの多くはAIが理解できないものを修正することに集中するため、高いSkillとImpactが必要な仕事になるだろうね。
> 正式なモデルや図は必要ない。
AIはそれら(モデルや図)も生成しないよね?僕が見たいのはそれなんだ。コードを生成するのに正式なモデルや図は不要だけど、それらはコードを理解し、やりたいことを形式化するのに役立つんだ。AIが僕のためにそれをやってくれたらいいなって思ってるよ。
返信相手じゃないんだけど、俺もそのコメントがChatGPTっぽいって思ったんだ。
文章の言い回しやトーンがね。『Xだけじゃなくて、Yっていう全く違うパラダイムだ』って言い方は典型的なChatGPTのやり方だよ。
たまにLLMをコーディングで使うんだけど、今日また試したんだ。コードの見た目はすごく良くて、テストケースも付いてたから、熟練のジュニアかシニアが書いたみたいだった。
でも、動かなかったし、バグの原因もすごく微妙だったんだ。自分で書くのと同じくらい修正に時間がかかったよ。初めての問題を解くジュニアのスタート地点にはなるかもしれないけど、そのまま使うのは無理だね。
俺が返信した発言の文脈では、この例えは成り立つと思うよ。
『たとえLLMがハルシネーションなしで完璧に機能したとしても…』ってやつね。
コンパイラに形式仕様書なんて、まずないよ。CompCertですら、大部分だけど全部じゃないんだ。
むしろ、形式仕様書があると事態が悪化することもある。形式化できない振る舞いを省くことになるからね。未定義動作がある言語だと、その扱いがすごく分かりにくくなるんだ。コンパイラが『理にかなった』ハックを使えなくなるからね。
同時に、ウザいTech-brothersがアーティストに向かって、『お前らの作品なんて最初から価値なかっただろ?俺がお前のスタイルをコピーしちゃダメなのか?お前なんてただの行列にすぎないんだよ』って、常に罵声を浴びせてるんだ。
あるいは、AIがそう書くのは、俺たちがそういう風に書くからってことかもしれないよね。
どっちが先なんだろうな…
ハハ、君が意図的に例で示してるんだと思って、笑っちゃったよ。
俺は決して『適当に』提案したわけじゃないよ。人間の行動が全てランダムだっていうなら別だけどね。
ガイドラインを読み返したけど、条文には特に何も書いてなかったな。でも、精神には反するだろうってのは同意するよ。今度からは低評価を受け入れて、自分の中にしまっておくよ。
これは人間が書いたけど、わざとGPTの決まり文句みたいに聞こえるようにしたんだと思うな。
馬鹿にするために、わざとらしく盛ってるんだよ。
これ見てみてよ: https://zfhuang99.github.io/tla+/pluscal/chatgpt/2023/09/24/…
AIツールに対する反論はCASEツールと似てるんだと思うよ。AIツールに全面的に反対ってわけじゃないけど、説明可能で理解できる、きちんと定義されたツールを求めるのは当然だよね。単に「動く」んじゃなくて、「それが正しいって分かってる」状態が理想的だもん。
「Vibe code」には本当にイラつくよ。チームメイトのプルリクで同じ経験があるんだ。彼らは自分で理解しようとしないくせに、俺にそれをやらせようとするんだからね。マジで失礼だろ。
靴職人って、昔はすごく尊敬される専門職だったんだよ。でも、今もちゃんと存在してるだろ?
これはね、普通のソフトウェアエンジニアが自分語りしてるみたいに感じるよ。作ってる技術が分かってて、作業をうまく分けられるなら、どこが複雑か事前に分かるし、AIにどれくらいの細かさでやらせるか指示できるだろ?AIは魔法じゃないし、例えばSonnet 4が一度に書けるコードの複雑さには上限がある。その限界とプロジェクトの技術を理解してれば、AIにその範囲内の小さいコンポーネントを任せられるし、そしたらすごくうまくいくんだよ。
もっとコメントを表示(2)
AIがうまくいくように指示を単純化すればうまくいくってのは、当たり前のことだよな。AIはめちゃくちゃ詳細な指示が必要だし、それでも出力は信用できないんだ。AIが理解できるくらい問題を細分化すると、自分でコード書くより手間がかかることも多いよ。AIが一発で正しく作ってくれれば時間短縮になるけど、それはギャンブルだろ。結局自分で書き直すハメになることだってある。AIの能力は本当にムラがあって予測できないし、見た目は正しいけど微妙なバグがあるコードを平気で生成するから、後で余計に時間と手間がかかるんだよ。
俺はAIでSTTツールを作ったんだけどさ、AIに何をどう作るか10分くらい指示して、その間に別のプロジェクトで同じことやるんだ。そうやって並行して作業できるから、ものすごく効率がいいんだよ。注意深く、詳細に指示すれば、問題は解決できるんだ。マジでクレイジーな新時代だぜ。「未来は今だよ、じいさん。」
おいおい、ソフトウェアって50行以上あるのが普通だろ?AIが単純な例をくっつけるだけじゃ、0.5倍のインターンで、10倍エンジニアじゃないぜ。Claudeにユニットテスト書かせたけど、エッジケース分かんないし、詳細指示してもAPIの使い方間違ってたんだ。自分で書く方が早かったよ。GPT4oも構造化データのスキーマ定義で幻覚見るし、画像処理も数値オーバーフローでダメ。コードのアップグレードもAPIを古いまま使うし。マジで時間の無駄だったわ。GH Copilotも使えないし。
でもさ、難しい部分を理解するのが重要なんだよ。そこに時間がかかるんであって、単純なタイピングに時間がかかるわけじゃないんだよな。
良いエンジニアってのは「難しい部分」をこなすのが上手いんだよな。だから、単純なタイピング作業のタスクが山ほど残ってる。まともな組織なら、そういうタスクは経験の浅いエンジニアに任せて、マネージャーが管理するだろ。でも、これからは経験の浅いエンジニアも、そのマネージャーも要らなくなるってことだな。
じゃあさ、新しい経験豊富なエンジニアって、どうやって育てるつもりなんだ?
「優秀」と「経験豊富」は別物だよな。AIのせいでエンジニアの参入障壁がどんどん高くなってるだけだろ。
細かい部分を入力しなくて済むのはめちゃくちゃ良いことだけどな。
多くの開発者はライブラリやフレームワークを使って、細かい部分は入力しないようにしてると思うぜ。むしろ複雑なことと格闘した後は、簡単な作業が気分転換になることもあるんだよな。
面倒な定型文を入力させられると、それを抽象化しようってやる気が出るもんだよな。AIがコードベースをめちゃくちゃ冗長にする可能性だってあると思うぜ。
AIが簡単な部分で10分も失敗して、結局10分無駄にした挙げ句、自分でやらなきゃいけなくなるまでだろ?
知識や経験があれば、AIはマジで有利になることもある。俺はClaudeを使って数週間かかりそうな複雑な問題を、あっという間に解決できたんだよな。Claudeに問題の理解、構造、解決アプローチをしっかり提示させて、それから変更を提案させたんだ。AIは「あれこれ盛り込みたがる」傾向があって、シンプルさが大事だとまだ分かってないみたいだけどな。みんながどうやってclaude.mdやエージェントを設定してるか見てみるのも良いぜ。
つまり、お前は自分を平均以上のエンジニアだと思ってるってこと?
俺が言いたいのは、他の人が解決できないと思ってる問題を、俺は簡単に解決できるってことだよ。それはソフトウェア開発の腕前と直接関係してるみたいだな。
こんな主張は昔からよくあるけど、AIの使い道に苦労してる他のエンジニアが作ってるソフトより、主張してる奴が作ってるソフトの方が、新規性や複雑性が低いってパターンが多いんだよな。
逆の可能性もあるんじゃないか?結局のところ、何の役にも立たない開発者が、AIが自動生成したプルリクエストを出して一日中ヘラヘラしてるだけかもしれないぜ。高いレベルの人間が見たら「別に大したことない」って思うようなものでも、彼らは「すげー」って驚いてるだけって可能性もある。直接一緒に働いてないから、誰を信用していいかマジで分からん。だから俺はまだ完全に様子見だな。
ソフトウェア開発で小さい部品から作る夢は、長年研究しても実現してないんだ。AIは簡単な部分を助けるけど、難しい部分は変わらないってこと。Gerald SussmanのSICPみたいに、直線は速くてもカーブでは減速が必要だよ。
AIにも人間にも限界があるよ。大事なのはちゃんとしたプロジェクト管理さ。仕様や設計を細かく決めてタスクを分ければ、Claudeに「GitHub issue #42を実装して」って言えばできる。でも「Facebook作って」じゃ無理だね。
記事が言ってる問題発生のシナリオで、実際に10xエンジニアがいることに触れてないのは、彼らが自己認識不足だってことを示してるよね。まさにその通りだと思う。
AIを簡単なタスクにばかり使ってるエンジニアのスキルって、どれくらい劣化するのか気になるなあ。
CopilotやClaudeだけで1ヶ月くらい仕事してみたけど、スキルはそんなに劣化しなかったよ。AIだけじゃ完璧じゃなくて、結局自分でコードを書き直さなきゃいけなかったからね。
AI批判記事かと思いきや、良いこと書いてあったよ。特にAIは厄介なバグ探しに役立ったね。数値シミュレーションで1週間詰まった時、ChatGPTに聞いたら数秒で数式の括弧抜けを見つけてくれて、完璧に動いたんだ。AIをうまく使えば、できることがすごく増えるよ。
私の経験も同じだよ。コード生成はまだムラがあるけど、デバッグはすごく助けになる。まるで、よく勉強してて返事もしてくれるラバーダックみたいだね。
まさにその通り。趣味でプログラマーをやってるけど、頭がぼーっとする深夜のコーディングでは、LLMはマジで神様からの贈り物だよ。
うん、私も同じ経験だよ。無限に時間を節約できたから、個人的には10xと無限大の間くらいの効率になった感じかな、ハハ!