AIと無料でプログラミング!お金をかけずにコードを書く方法
引用元:https://news.ycombinator.com/item?id=44850913
この記事を書いた本人だよ。フォントのことはごめんね。AIの進化が速いから、もうちょっと古い情報になっちゃってるかも。新しいモデルがたくさん出てるから、更新したいな。GLM-4.5やKimi K2、Qwen3-Coder 480b、2507 instructとか、どれもエージェント環境やツールでめっちゃ使えるよ。IDEとAIチャットを行き来するのに役立つ無料の「aicp」アプリ(https://wuu73.org/aicp)を作ったんだ。これを使えば、無料のWebチャットインターフェースでAIを使う時のイライラがなくなるはず。かなり好評だよ。VS Codeで「aicp」って打って、Clineボタンを押すんだ。GLM-4.5やGPT-5とかで試して、一番いい出力をVS CodeのGPT 4.1にコピペする。GPT 4.1はめちゃくちゃ賢いわけじゃないけど、指示通りに動くし、他のモデルの細かいミスも直してくれるんだ。こうすれば、API費用をかけずに無料で、しかもモデルが一番賢い状態でコードが書けるよ。ツールやMCPを挟むとモデルがバカになるし、API費用も無駄だからね。
「無料でコードできる」って書いてあるけど、OpenAIがモデルのトレーニングにデータを使うのを許可する設定にしてたら、「無料」じゃないでしょ。
ダウンボートしようかと思ったけど、議論に貢献してるね。この文脈では、お金を使わなくていいという意味での「無料」だよ。多くの人はモデルにお金を払う余裕がないから、食費を削らずに最新技術を使う方法を見つけないといけないんだ。
タダで何か手に入れるのが好きな人は、プライバシーなんてあまり気にしないことが多いよね。だから、これは無料なんだよ。
AI企業が私のデータを使ったり収益化したりしないなんて、お金を払っても、利用規約がどうなってても、一切信用しないね。大企業が法律を平気で無視して、責任も取らないってのはよく知ってるから。
その考え、ちょっと見直してみてほしいな。人生ずっとどの会社も信用しないのは楽しくないでしょ?彼らもお金が好きだから、お金を払ってくれるお客さんを大事にするんだよ。法的に拘束力のある契約で「データは訓練に使わない」って約束して、もし破ったら、その顧客だけじゃなくて何千人もの顧客を失うことになる。そしたら彼らの利益が減っちゃうからね。約束を破らない方が彼らにとって得なんだよ。
「そう、無料だよ」って言うのは、細かすぎるかもしれないけど、はっきり言っておきたいのは、こういうのは自分が提供するものを「価値ゼロ」だと考えるなら無料ってことだよ。もし自分のものに価値があるって思うなら、それを企業に無料で提供してるってことになるんだ。アホが家を魔法の豆と交換したとして、それでも「豆は無料だった」って言うかい?
GLM-4.5って使えるかな?Openrouterで無料だって見たんだけど。あと、今コードを書くのにOpenrouterで一番いい無料モデルって何だと思う?教えてくれてありがとう!
企業がプライバシー侵害で顧客を失うって意見は間違い。GoogleやFacebookの例を見てみろよ、顧客はほとんど減ってない。むしろEUのクッキーポップアップとかで、データ収集の貪欲さがバレてみんなEUにイライラしてるんだ。Googleの稼ぎはプライバシー侵害されてる人とは違う層からだしな。企業を信用しないのは辛いって言うけど、問題無視してたら幸せにはなれないぜ。
このサイト、Firefox Androidだとスクロールがめちゃ遅いし、Grokの呼び出し部分も動かないんだ。あと上の方に変な緑色の「CSS loaded」ってボタンがあるぞ。
無料で手に入るものになんで金払うの?倹約できるってスキルは、マジでお金貯められるんだぜ。
企業が悪事をしてもビジネスを失わないって意見には賛成できないな。企業を信用しない人生は楽しくないっていうけど、俺たちテック関係者がこの現状を作ったんだぜ。企業が倫理的に動くなんて幻想は捨てて、俺たちが状況を変えなきゃダメだ。
俺の主張は、企業が約束を破って顧客の利益に反する行動を取ったら、有料顧客は離れるってこと。特に「データで学習しない」ってのは、大企業とのAIの話し合いでいつも出てくる懸念事項だ。2023年に書いた記事でも言ったけど、何も変わってないんだよな。https://simonwillison.net/2023/Dec/14/ai-trust-crisis/
ClineをChatGPT 4.1で使ったら課金されちゃったよ。サインアップ時の無料クレジットは使ったけど。どうやって無料で使ったのか教えてほしいな。
MicrosoftのCopilot見た?あれって実質無料でOpenAIのモデル使えるんだぜ。
良い記事をありがとう!Roo CodeとClineの違いについて詳しく教えてほしいな。Roo Codeは試したんだけど、結果はまちまちでさ。
完全に無料でコードを書きたいなら、Qwen Codeは1日2000APIコールまで無料だ。GLM-4.5 Airもいいし、Pollinations AIプロジェクトやLLM7もある。Webチャットを使えばほとんどのモデルは無料で使えるし、Webチャットを自動でAPIにエミュレートする方法もあるぞ。OpenAIも無料トークンくれるし、CerebrasやGeminiも無料枠がある。Llama 4は無料でAPIが使える。Cline拡張機能でPollinationsの「openai-large」(GPT 4.1)を使えば、無料でファイル編集もできるぞ。Kimi K2、z.aiのGLMモデル、Qwen 3 chat、Gemini in AI Studio、OpenAI playgroundなんかのWebチャットを使いこなせば、ずっとお金を払わずに済むぜ。
法廷沙汰なんて企業は絶対に避けたい高額なことなんだよ。俺の言ってる例は、広告で稼ぐビジネスモデルとは違うんだ。無料で使ってる奴らがプライバシーのことでプロバイダ変えるより、月に何千ドルも払ってる企業顧客の方が「データで学習しない」って約束が破られたら、すぐに乗り換える可能性が高いんだぜ。
HackerNewsとかOpenAIって無料だけど、別に価値がないわけじゃない。ただ金銭的な価値がないってことなんだよね。HackerNewsはタダだし、投稿は自分にとって価値があるけど、お金は払わないし、報酬も期待してない。YCがコンテンツから収益化してるのは、彼らが投資する企業を選んでるからで、僕らの好みなんか関係ない。HackerNewsで広告を売ってるのは、僕らが生み出す注目を利用してるからだよ。君はHackerNewsの”プロダクト”なんだけど、それでOKだよね。僕もそう。OpenAIも僕のデータで学習するのに、僕がお金を稼ぐ必要はないし、サービスを無料で使いたいから嬉しいよ。
Qwenって、まじで本格的な開発作業には全然使えないね。
ちょっとしたおすすめなんだけど、[https://wuu73.org/aicp]の図、めっちゃ分かりやすいんだけど、クリックしても高解像度で表示されないからボヤけて見えるんだよね。FirefoxとChrome、どっちでもそう。GitHubリポジトリだと鮮明に見えるから、JavaScriptのレンダリングライブラリが原因かもしれないね。
これってプライバシーの問題だけじゃないんだよ(っていうか、コードが結局公開されるなら、それはごく一部かも?)。個人データを開示する要素もあるし、もしコードが公開される予定じゃなかった場合の所有権の問題とか、他にもいろいろあるんだ。どんな場合でも、特定の時点でコストを気にしないからって、コストが消えるわけじゃないからね。
lmstudio.ai使えばいいよ、最近みんなそれ使ってるから。
君の言ってること、的を射てると思うよ。懸念されてる点に対する反例とはちょっと違うけどね。君が正しく指摘してるのは、AIプロバイダーと契約してる『他の企業』が、もし契約違反があったら、そのプロバイダーに大きなコストを課すだろうってことだよね。企業は契約を解除して巨額の購読料を払うのをやめるか、評判の失墜がコストになるか。でも企業って個人じゃないし、扱いが違うんだ。企業には弁護士がいるし、訴訟を起こすだけの資金力も、広報力もある。企業が不当な扱いを受けたら、反撃するリソースと能力があるけど、個人にはないんだよね。例えば、どこかのJ. Random Hackerが自分のデータが学習に使われたって発見したとして(そもそも発見できるのかって話だけど)、彼らに何ができる?月20ドル払うのをやめる?HackerNewsに投稿する?それは取るに足らないことだよ。だから、企業データで学習しないって約束をAIプロバイダーが守るインセンティブはあるけど、個人を守るインセンティブはないんだ。
FYI:君が最初にリンクしてるAI、『z.ai’s GLM 4.5』って、実はzai.netにリンクされてて、ニュースサイトみたいだよ。多分、君が意図してたのは『chat.z.ai』じゃないかな。
HackerNewsは無料だよね。投稿は自分にとって価値があるし、僕の投稿も僕にとって価値があるだろうけど、お金は払わないし、報酬も期待してない。だけど、この点では将来のフォーラムは、インターネットを荒らしてるAIボットの大量発生を避けるためにプレミアム化する必要があるかもね。少額の1回限りの費用ってのは、そういう戦略を不可能にする確実な方法だよ。SomethingAwfulは数十年前に的を射てたんだ。でも、他のビジネスと同じで、お金の動きを追ってインセンティブを理解する必要があるよね。HackerNewsには広告があるけど、僕らをオーディエンスとする企業向けの広告だ。あとはY Combinator自体への間接的な広告でもある(hackernews.comがどこにリダイレクトされるか見てみてよ)。僕は企業が自分を宣伝するのは全然OK。それがなかったら企業って概念自体が成り立たない。この企業の構造の中で、僕もここから仕事を見つけられる可能性があるからメリットもあるし。だからそれも気にしない。全てが一致してる。この構造には同意して支持するよ。他の『無料』ウェブサイトの多くについてはそうは言えないね。僕としては、いつか自分のデータをmonetizeしたいと思ってる。インターネット全体のスクレイピングを止めることはできないけど(それは裁判所の仕事だ)、でも、僕が彼らに銀の皿に乗せてデータを渡すなんて絶対しないからね。
プログラマーとかデータサイエンティストを募集してる会社があるじゃん?めちゃくちゃ広告打ってるよね。大学生とか探してて、マクドナルドよりいい給料払ってるって話。何作ってると思う?トレーニングコーパスだよ。広告に応募してる人たちはタダでお金もらってるの?自分のコードベースをAI企業に渡すのって、決してタダじゃないんだからね。
企業は罰金をコストと見なして規制を破る。CEOを投獄しないと変わらないよ。企業がデータでモデルを訓練しないなんて、信じるのは甘すぎるんじゃない?
今の世の中、企業は罰金をただの経費だと思ってるから、AI企業が規約に反してでもユーザーデータをモデルの訓練に使ってないなんて信じるのは、めちゃくちゃナイーブだよ。
サイトにプライバシーのセクションを加えるべきだね。熟練開発者にはコードよりアイデアが重要で、コードは価値がない時もあるよ。Slackみたいな暗号化されてないチャットでビジネスするのは、情報漏洩のリスクがあって危ないんじゃないかな?
もっとコメントを表示(1)
記事に同意。Agenticな手法は巨大モデルでないと無理で、遅い。小さいモデルの方が速いから、シンプルな変更ならそっちがいいよ。「丸ごとダンプ」や「Surgical」みたいにコードベース全体をプロンプトに入れるアプローチが有効だよ。Patent pending。
Aiderは効率と効果のバランスが良い非Agenticなコーディングツールだね。Tree-sitterでリポジトリマップを作り、シェルコマンドが使える。Cerebrasと組み合わせるとプロンプトの応答が爆速で、小規模プロジェクトには最高だよ。
AgenticコマンドができるAiderのフォーク(https://github.com/sutt/agent-aider)を試したけど、Claude Codeと比べるとイマイチだったな。ケーススタディはここ(https://github.com/sutt/agro/blob/master/docs/case-studies/a…)を見てね。
MCPがサンドボックス化されたシェルを使わなかったのは残念だな。前のAgentは、モデルがシェルとの対話に訓練されてるから、直接シェルに話しかけてたんだよね。
速くて信頼できるツールが欲しいよ。Agenticなツールは待たされるから、集中できないんだ。小さいモデルやCerebrasみたいなプロバイダーにも興味あるし、「Surgical」ツールについてもっと知りたいな。俺のブログ(https://hpincket.com/what-would-the-vim-of-llm-tooling-look-…)でも書いたよ。
良いモデルなら全コードをダンプするけど、特定のファイルはブロックしたい時もあるんだ。Surgicalコンテキストツール(aicodeprep-gui)はUIがあってファイル選択や設定保存が楽だよ。LLMの出力から直接ファイル編集する機能も考え中。Claude Codeも試す予定。Hacker Newsで記事がトップにいるのは凄いね!
記事ありがとう!俺の役立つヒントね:Chutes.ai(https://chutes.ai)やGitHub Models(https://github.com/marketplace/models/)がおすすめだよ。Ferdium(https://ferdium.org)でLLMウェブアプリをまとめて管理し、Cherry-AI(https://www.cherry-ai.com)でいろんなAPIを一元的に使えるChat API frontendを試してみてね。すごく便利だよ。
同感。会話の流れを管理するのにHaikuで十分だし、プログラミングはGemini 2.5 ProやGPT-5みたいな大規模モデルを使ってる。最近はGemini CLIからCodex(MCP ${codex mcp}経由)を試してるけど、すごくいい感じだよ。Gemini CLIはFlashがベースだけど、問題提起や回答評価には十分。Claude CodeでもGemini 2.5 Proに相談させてる。ただ、Claude CodeをMCPとして使うのはあまり成功してないな。このアイデアはAiderから来てて、メイン、ウィーク、エディタモデルを同時に使うんだ。
エディタの補完には5億パラメータのモデルを使ってるよ。瞬時に補完してほしいし、プラグインがセッションごとに50回以上も補完リクエストを出すからね。
どのエディタ使ってるの?どう設定したか教えてほしいな。ローカルモデルやGemini 2.5 Flash Liteみたいな低遅延モデルで試したいと思ってたんだ。もっと詳しく知りたい!
Neovimにllama.cppプラグインと、超軽量化したqwen2.5-coder(5億か6億パラメータ)を使ってるよ。ほぼプラグアンドプレイだけど、GPUがないとデフォルトのリングコンテキスト制限が大きすぎるね。
Codex CLIだと、もうAPIキーなしではGPT-5未満のモデルに切り替えられないんだよ。推奨されてないからね。thinking=highで試してみて。o4-miniよりかなり改善されるよ。o4-miniはgpt-5-thinking-miniに近いけど、Codexでは使えないんだ。gpt-5-thinking-highはo1かo3-proに近いかな。
知らない人のために言うけど、OpenAI Codex CLIがChatGPT PlusかProアカウントで使えるようになったぞ。あんまり大々的に発表されてないけど、GitHubページに情報があるから見てみて。APIキーもいらないんだぜ。
GLM 4.5を試してみなよ。Kimi K2とかQwen3 Coderより実践的で使えるのに、あんまり話題になってないんだよね。
これが全部のモデルの中で一番のお気に入りかな。今じゃほとんど何でもこれで済ませてるよ。最近見つけたOctofriendってやつ、GLM 4.5に設定するとめっちゃ良いらしいぜ。
> (えーと、”動く”って言っても…OpenAI Codexはo4-miniでコード3行変えるのに200回もリクエストかかったけどさ…)
ちょっと冷静になろうぜ。俺の人生でも、結局3行くらいのコードのために何日も費やしたことなんて何度もあるからさ。
楽観的かもしれないけど、こういう投稿を読むとさ、AIアシストコーディングがもっとモジュール化されてて整理されたコード設計につながって、各タスクに必要なコンテキストが減るんじゃないかって期待しちゃうんだ。
悲しいことに、俺が今まで触ったコードってほとんど全部、全部が全部つながった巨大なごちゃごちゃで、プロジェクト全体がコンテキストになりかねないもんだったからさ。
AIってそういうのめっちゃ得意だよな。長年いじってたらごちゃごちゃになったコードとかよくあるんだけど、”このコードを関心ごとに分けてモジュール化して”って言うと、あっという間にやってくれるんだ。
先週初めてClaude使ってみたんだけど、2k行のPowerShellスクリプト渡したら、一発で5つの動くモジュールにきれいに分けてくれたぜ。ちゃんと動いたし、コメントも前より良くなったんだ。
俺もそういうリファクタリングはたくさんやってきたんだ、スクリプトじゃなくて、もっと大きなシステムの実コードでね。
多くのコーダーはしないけど、俺はいつもコードベースを大幅に小さくしてるよ。2000行が800行になるとかさ。
AIでもそうなったの?それとも、どんなまともなIDEでもAIなしでできる「extract method」をすごいやっただけ?
俺AI使うし、アンチじゃないけど、一方でこういうべた褒め投稿見ると、「それIDEでできるじゃん、quick refactoringボタン押すだけなのに」って思っちゃうんだよね。
うん、少なくなったのは確かだけど、そんなに劇的にじゃないね、多分15%くらいかな。
っていうか、そもそも「extract methods」なんてできなかったんだ。10年間も修正されまくった古いユーザー向けスクリプト作成ツールだったからね。
もしそんなに簡単だったら、とっくに自分でやってるさ。
これで分かったのは、AIがこのスクリプトがやろうとしてたこと全部を本当に理解して、機能を壊さずに、よりよく整理できたってことだね。
なるほどね。ある程度コードが減ったのは良いことだと思うよ。
この名前を当ててみてくれ: 2015年、俺は____がウェブアプリのメンタルモデルをシンプルにして、全てを高性能にして、APIが何十年も支配して存続するって説いてたんだ。答えはReact。
でもすぐに機能の誘発需要とタイムラインに追われて、いつもの”hair on fire”状態に戻っちゃった。
AIって、(ただの)もっと良いfootgunなんだよ。
AI使うとさ、いいコーディングガイドラインとかドキュメント書くことになるんだよね。強制される感じ。
LLMにコード書かせようと思ったら、ちゃんと聞き方を知ってないとダメなんだよ。そうすれば書いてくれるけどね。
どの段階で人間がプロジェクトの内容を理解するのが難しくなるのかな?
モデルがどんなに良くても、理論が分かってないと成果物はメンテナンスできないんだよ。人間が書いたコードでも一緒。なんでみんな忘れちゃうんだろうね?優秀な開発者ならすぐ分かることなのに。
スーパーバージョンに30ドル払う気があるかどうかによるね :)
ローカルで完結する「Cursorみたいな」AI開発環境はすごい可能性あると思うんだ。
クラウドもAPIキーもなしで、全部自分のマシンで動くの。
Cursor CLI、LEANN(https://github.com/yichuan-w/LEANN)、Ollamaを組み合わせるといいよ。LEANNはAPIなしで無料で使えるしね。オフラインでプライベート、超速い個人開発AI環境になる。セットアップは手間だけど、誰か簡単に使えるの作ってくれるかも。
ローカルAIは無料・プライベート・高速だけど、高品質な出力には全然及ばないね。128GB以上のVRAMで高パラメータモデルを動かした時みたいな思考力は無理。ローカルでそんなモデルを動かせるものはないし、今のところHome AssistantくらいしかローカルAIが意味あると思えないな。努力に見合うリターンがないよ。
もっとコメントを表示(2)
コンシューマーGPUに小さいモデル無理やり入れてる人たち、アクティベーションウェイトの容量がなくなって、コンテキストが小さくなっちゃうことに気づいてないんだよね。
LEANNを宣伝してるってこと、コメントする時はちゃんと開示しなきゃダメだよ。
LLMチャットで20タブも開くのは面倒だから自分でコード書く方が好きだけど、コードをまとめてLLMに渡せるrepomix (https://repomix.com/)ってツールは使えるよ。Qwen3 CoderやAI Studioで試したら結構良かったんだ。
無料でAPI使うならGoogleのGeminiがおすすめ。gemini-2.5-pro(思考機能オン)も無料で使えるし、制限もかなり高いみたいだよ。DeepSeek R1やGPT-OSSみたいなオープンウェイトモデルも無料でAPI提供されてるよ。
Gemini 2.5 Proの無料プランは、1日100リクエストが上限だってさ。
詳しいことはここ見てね: https://ai.google.dev/gemini-api/docs/rate-limits
Gemini CLIと無料の1日100リクエスト、1日600万トークンで結構いい感じ。GoogleアカウントかAI StudioのAPIキー(課金無効)で認証してね。無料プランだとトークン制限が厳しいから、こまめに終わらせるか/clearするのがおすすめ。
それって、その後もっと低スペックのモデルに切り替わっちゃうんじゃないの?
自動では切り替わらないよ。でも、もっと低スペックのモデルにすれば、無料リクエストをもっと多く使えるよ。Gemini 2.5 Flashなら1日250リクエストだったと思う。
君の目的には関係ないかもしれないけど、Googleはこれらのやり取りで学習しちゃうよ。でも、お金を払えば学習しないんだってさ。
金払ってもプライバシーを尊重するLLMなんて見つけるの難しいと思うよ。MSのCo-PilotだってEUのエネルギー分野では安全じゃないってされてる。LLMに何か入れるなら、世界に公開されても困らないものだけにすべきだね。
そうだね、Googleはプライバシーの神様だもんね。お金払えばデータでモデルを学習しないって信じようよ。たった200ドル払うだけで、ファイルも電話記録も銀行口座も全部渡しても、絶対に誰にも共有しないって!
それってFacebookのことじゃない?多くの会社がGmailとかGoogle Docsで仕事してるんだよ。もしGoogleがデータ共有するなら、そんな大切なものは使わないでしょ。
MetaとかGoogleがデータ共有しないのは、君の詳しいプロフィール作って広告で金儲けしたいからだよ。
Metaはデータ内部で共有してるって。これ見てよ→ https://www.techradar.com/computing/cyber-security/facebooks…
LLMって新しい脅威なんだよ。君のデータで学習させたら、将来のチャットで情報漏れるかも。MetaやAlphabetは嫌だろうけど、今のLLMじゃ完全には防げないんだ。
そういう情報って、広告以外にもっと儲かる使い道あるのにさ。広告だけが唯一の動機って考えるのは、もう20年前の発想だよな。
大企業はさ、自分たちの条件を交渉して、ちゃんとした法的手段で強制できるんだよ。
俺は気にしないな。LLMの学習の仕組み考えたら、送った鍵とかパスワードがそのまま返ってくる可能性なんて、ほぼゼロでしょ?実際にそんなことしたLLMの例、あるの?
AIをウェブチャットで使う方が、IDEとかエージェントフレームワーク使うより、問題解決やアイデア出しが上手いんだよ。GitHub CopilotとかCursorよりも良い結果出るし。コードをコピペするのって変に見えるかもだけど、俺は断然こっちで良い結果出してるな。
100%逆の経験だわ。エージェントだろうが何だろうが、結局コンテキスト次第なんだよ。プロジェクト全体にアクセスできるエージェントなら、幻覚は激減する。「X書け」と「俺のスタイルでYの依存とZのコード考慮してX書け」じゃ全然違うって。コピペAIコーディングの良さが正直分かんないな。だからエージェントが超人気なんだろ?
コンテキストが大事ってのは同意するけどさ、ウェブチャットにコピペする方が、プロジェクト全体をAIに渡すより、コンテキストを細かく管理しやすいんだよ。全部渡すと、モデルが推測しちゃって結果が不安定になるし。結局、コンテキスト次第!
俺もこの意見には驚いたわ。エディタと外部チャットのコピペって、俺にとっては全然役に立たなかったし。まあ、人それぞれ期待することとかやり方って違うだろうから、その人に合ってるなら別にいいんだけどね。