Claude「スキル」登場!AIエージェントの可能性が大きく広がる!
引用元:https://news.ycombinator.com/item?id=45607117
Anthropicがエージェントのスキルについて発表した記事のリンクだよ。
https://www.anthropic.com/engineering/equipping-agents-for-t…
Skillsについて記事を公開したよ、「Claude Skillsはすごいし、MCPよりもビッグディールかも」ってね。ぜひ読んでみて!
https://simonwillison.net/2025/Oct/16/claude-skills/
SkillsってAGENTS.mdと被ると思う? VSCodeも最近ネストされたAGENTS.mdをサポートしたけど、非公式ながらも重複するかもね。詳細はこちら!
https://code.visualstudio.com/updates/v1_105#_support-for-ne…
うん、LLMが必要な時にだけ他のファイルを読ませるAGENTS.mdって、実質的にSkillsと全く同じパターンだよ。AGENTS.mdを読めるツールなら、今日からでもSkillsを使い始められるんだ。「PDFファイルを作るなら、まずskills/pdfs/SKILL.mdを読んで」って感じ。
Skillsはいいけど、俺にとっては厳密な仕様というより、デザインパターンとかプロンプトエンジニアリングのコツって感じかな。MCPでも実装できるし、俺は前からやってるよ。「何かする前に、skills MCPを検索して関連ガイドを読んで」って感じでさ。
そこが俺の疑問なんだよね。このパターンってMCPとどう似てるの? MCPみたいに、サードパーティAPIで認証もできるの?
SkillからサードパーティAPIを呼び出したいなら、こんな指示を使えばいいよ。「GitHub APIにアクセスするには、curlを使ってapi.GitHub.comにリクエストを送って、GITHUB_API_KEY環境変数をAuthorization: Bearerヘッダーで渡すこと」ってね。
俺は反対だな。これをコンテナやランタイム仕様、パッケージインデックスでまとめれば、エージェントが共有されたSkillsに基づいて動的に機能を拡張できるようになるじゃん。Pythonパッケージのuv add fooみたいに、必要な時にエージェントが実行できるskill add fooが生まれるんだよ。
Simon、これって動かないでしょ? コード実行環境ってインターネットにアクセスできるんだっけ?
Claude Codeを自分で動かすならできるけど、https://claude.ai はネットワークアクセスがかなり制限されてるね。PyPIやNPMからパッケージ入れたり、github.comからリポジトリをクローンしたりはできるけど、api.github.comを含め他のドメインにはアクセスできないよ。
スキルを作るのとプロジェクトを作るのって、どう使い分けるの?
してないよ。もし開示しなかったら、USAではひどく非倫理的だし、違法になるからね。詳しくはここ見て:https://news.ycombinator.com/item?id=45624613
今、有料で宣伝してるってよく言われるんだ。(もしAnthropicからお金もらって記事書いてたら、彼らのMCP仕様の欠陥を指摘する箇所は書かないように言われただろうしね!)
個人的には、この記事の発表について議論してるのに、Simonがトップレベルの投稿を2つも出して、この会話を自分の投稿についての議論にしようとしてるみたいで、ちょっと乗っ取ろうとしてるように感じるね。スパムだとは言わないけど、Simonはちょっと目立ちたがりすぎだよ。彼の投稿はいつもホームページに載ってるんだから、他のスレッドにまで投稿する必要ないんじゃない?
結局、プロンプトにテキストを追加するためのフレームワークに興奮してるだけってこと?
やっとMCPの良い代替品が出たね。MCPはひどいアイデアで、実行はさらに最悪だった。「mcpServersの設定にこの一行をコピペするだけ!」みたいな危険なやり方で複雑さを隠して、何万ものトークンを無駄にしてたからね。
まさにそれだよ。CCのスラッシュコマンドみたいなもので、ただの便利機能だね。
それはちょっと還元しすぎだね。これらのツールとの付き合い方について、考え方が面白くシフトしてるんだよ。MCPレジストリみたいなSkillhubが出てくる可能性だって十分あるだろうし。
MCPはコンテキスト過負荷が問題だけど、プラグアンドプレイで発見しやすいのは良い点だね。
LLMがcli-toolを動かすより、URLを貼るだけでMCPサーバーに繋がる方がずっと簡単だし、参入障壁が低いよ。
MCPは汎用プロトコルだけど、Claude Skillsは独自色が強いみたいだね。
Skillsがウェブベースのクライアントとか、他のサービスにも採用されるのかな?
もしかしたらMCP SDKを通して公開するのが筋なんじゃない?
“Skill”って、開発者向けの指示の一部って感じだね。AGENTS.mdとかClaude.mdみたいなものに翻訳されるイメージ。
AIに機能を追加するには、ちゃんとした.mdファイル群とベースのAGENTS.mdがあれば十分だと思うよ。
そうそう!Skillsは新しいアルゴリズムじゃないけど、プロンプトを整理する新しいパラダイムだよね。
要するに、ユーザーの境界を越えて動的にコンテキストを組み立てる仕組み。
組織内のチーム間でのスキル共有も進めてるみたいだし、これはグローバルなユーザーがエージェントで色々なものを共有するのに広がる可能性があるよ。
ClaudeやChatGPTのプロジェクトって、カスタムシステムプロンプトとファイル群なんだよね。
スキルはプロジェクト内で使うものって感じ。
例えば「data analyst」プロジェクトに、回帰分析とかMySQLからのデータエクスポートとかのスキルを複数持たせるイメージだよ。
スキルは実質的に無限のカスタム指示で、必要な時にLLMが読み込むから、コンテキストを圧迫してパフォーマンス問題を起こすこともないんだ。
スキルはオンオフできるから、コンテキスト管理にすごく便利だよ。特に大きくてあまり使わないスキルとかね。
今って、プロジェクトの容量が5%以下だと全ファイルが自動でロードされちゃうんだけど、スキルを使えばその制限も避けられるんだ。
大きなプロジェクトだと、Claudeがファイルを検索するのが不安定なこともあるから、スキルで「これは常にロードしてね」って明示的に指示できるのもすごく役立つよ。
あなたの意見には賛成だけど、私の理解が合ってるか聞きたいな。
以前はLLMが複数のSmall Language Modelsを動かすパラダイムで、MCPはその標準化を目指してたんだよね。
でもこれって、LLMが大きなタスクを処理して、スキルを参照しながら(LLMじゃなく)プロンプトがカスタマイズされ、それがまたLLMに戻される、みたいなダイヤモンド型の情報フローに見えるんだけど、合ってる?
その気持ちはわかるけど、だからこそSkillsは強力なんだと思うよ。
Docker/containersをカーネル機能のシェルスクリプトって呼ぶようなものだよ。
概念はシンプルでも、それが革新的じゃないとか、物事を変革できないってわけじゃないんだ。
来年にはMCPの話はしてないんじゃないかな。
MCPは結構ひどいspecだったけど、どこからか始める必要があったんだよね。
ねえ、https://news.ycombinator.com/item?id=45619537見てみた?
試したらマジだったよ!AI-frontendの”documents-as-code”ツール作ってるから、Claudeの全サービスでスキルが使えるのはデカいんだよね。でも今日は無理っぽいな…。Claude DesktopとかClaude Code、それにGitHubの公式じゃないMCPが必要みたい。Anthropicが”コード実行ツールからの安全な外部アクセス/認証”問題を早く解決してくれるといいんだけど。
これら機能追加、結構いいね。僕のプロジェクトではbin/claudeディレクトリにスクリプトとかを置かせてるんだ。claude.mdでそこを見るように指示してて、かなりうまくやってくれるよ。正直、一番欲しいのは”このMCPsセットでClaudeを起動、次にあのセットで…”みたいな文脈管理ヘルパーなんだよね。今は別々のサブディレクトリをプロジェクト(Claudeのプロファイルとしてサポートされてる)として扱って、そこからClaudeを起動してる感じ。bin/claudeの利点は、長いスパンで学習してくれること。僕のClaudeは特定のBigQueryデータセットを分析する方法とか認証情報の場所とかを即座にわかるんだ。ファイルシステムをプロファイルマネージャーとして使うなんて思ってもみなかったけど、こうなっちゃったな。
”このMCPsセットでClaudeを起動、次にあのセットで…”みたいな文脈管理ヘルパーが一番必要ってやつ、それってサブエージェントのことじゃないの?
あー、僕の場合は、ビデオ編集Claudeとかシステム管理者Claudeと直接話したいんだよね。メインのClaudeを介してインスタンス化されるのは避けたいな。特定のClaudeに僕自身が話しかけたいんだ。もしサブエージェントでこれが解決するなら、僕がうまく使えてないだけかもな。
もっとコメントを表示(1)
いや、サブエージェントは非対話型だよ。
デモ動画で犬の画像をひっくり返したりトリミングしたりする、みたいな変な例を使うのが本当に謎なんだよね。もっとスキルを魅力的に見せる例、いくらでもあったんじゃないかな?
開発者ページにはもっと良い例があるよ。PDF処理スキルだね。https://github.com/anthropics/skills/tree/main/document-skil…
僕はClaude Codeで、リポジトリ内の一般的なタスクのガイドが入ったMarkdownファイルを手動で@タグ付けして、これと同じことをしてたんだ。このステップが自動になったのは嬉しいね。
そう思うでしょ?
https://en.wikipedia.org/wiki/The_purpose_of_a_system_is_wha…
僕が見つけた一番良い例はこれだよ。https://github.com/anthropics/skills/blob/main/document-skil…
今朝、Claudeに.xlsxを作らせるのに2つ問題があったんだけど、上のドキュメントに解決策が載ってたんだ。
Claude-skillsはもうすごく勢いがあるみたいだね!火曜日に“Superpowers”って記事(https://blog.fsck.com/2025/10/09/superpowers/)に夢中になって、ずっとやってたツール作りをきっちりしたスキルにまとめてエージェントに任せられるようにしたんだ。これ(http://github.com/ryancnelson/deli-gator)についてフィードバックが欲しいな
デリゲーションってすごくクールだよね。Linearの課題コンテキストが多すぎることがあるんだ。例えば、Linearの課題説明と最後のコメントだけ取得したいのに、Linear MCPは全コメントを取得しちゃうからコンテキストが汚れていっぱいになっちゃうんだよ。
サブエージェント、MCP、スキルって、お互いどう連携するんだろう?結構重複してる気がするね。仕様をアップグレードしてClaudeに追加機能を持たせるのはいいけど、どれを使っても結局エージェントの機能は同じになっちゃう。今は、MCPだとJSONが必要だったのが、ファイルやフォルダ内のMarkdownでマルチモーダルな入力ができるようになったUXのアップグレードって感じだね。
Claude SkillsってMCPプロンプト(https://modelcontextprotocol.io/specification/2025-06-18/ser…)と全く同じに見えるんだけど。なんでわざわざ違う概念を作ったのか理解できないな。チャットUIの“マーケティング的”には意味があるかもしれないけど、Claude Codeではどうなの?CLAUDE.mdがあるのにね。
MCPプロンプトはユーザーがトリガーするのに対して、スキルはLLMがトリガーするユースケース中心の特定のタスク向け命令セットだと思うよ。
MCPプロンプトは“GitHub Issue #{issue_id}を解決して”って感じだけど、スキルはReact Component Development、REST API Endpoint Development、Code Reviewとか。
これはたぶん、CLAUDE.mdの命令がLLMがユーザーのプロンプトに基づいて動的に使う、見つけやすい命令に分解されるってことだろうね。そしてClaudeはツールに直接アクセスするんじゃなくて、常にスキル命令を通る必要があるから、コンテキストがよりタイトになるよ。クライアントは無限のMCPサーバーやツールを追加できるようになるね。ツール自体が全部コンテキストウィンドウに追加されなくなるからさ。
要はユーザープロンプトと直接的なツールアクセスを分離する方法で、考えてみればすごく理にかなってるよ。
これはMCPのオーバーヘッドが少ない代替品だと考えてるよ。たくさんのMCPを管理するより、ディレクトリ構造をうまく利用してOSの実行能力を活用するんだ。
僕にとってMCPの概念はクライアント/サーバーの関係だったんだ。スキルに関してはすべてローカルになるだろうね。
うん、これってMCPプロンプトとどう違うの?
LLMのSkillsとPromptsは、どちらも長所短所があるね。Skillsの方が、コンテキスト管理が楽で再配布も簡単、Promptはライブコードの実行が絡むからオーバーヘッドが大きいし、特定の環境にインストールする手間があるよ。Promptは文字通りのプロンプト向けで、何千ものスキルフォルダを持てるのに対して、Promptは数個のmcpサーバーを読み込んだらコンテキストが壊れる可能性もあるからね。
MCPs、Skills、Sub-agentsって、この3つの概念はめちゃくちゃ上手く補完し合ってると思うわ。MCPsはAPIをラップしてLLMエージェントが使えるようにしてくれるし、Skillsは必要な時だけ追加の指示を効率的にエージェントに提供するのに役立つんだ。Sub-agentsは、親エージェントが子エージェントにミッションを割り当てることでトークンを節約する、別のコンテキスト管理パターンだよ。
先週の金曜日に、うっかりスキルの存在をリークしちゃったんだけど、公式に発表されて良かったわ!
https://simonwillison.net/2025/Oct/10/claude-skills/
「新鮮なClaudeインスタンスを立ち上げて(ちなみに、Claude iOS appでもCode Interpreterが使えるようになったのは面白いね、最初はダメだったのに)、『/mnt/skillsフォルダ内の全てをzipファイルにして』ってプロンプトしたんだ」
この手の”ハック”でデータが抜き取れるなんて、面白くて恐ろしい世界だよ!フルファイルシステムやバイナリへのアクセスはできないと良いんだけどね、まさかSSHとかもできちゃうの…?
それ”ハック”じゃないだろ?bashで「zip -r mnt.zip /mnt」って入力する代わりに、Claude Codeで「/mntのzipファイルを作成して」って入力してるだけじゃん。同じユーザーとして同じことを実行してるだけだよ。
SkillsはLLM環境のリモートで実行されるんだよ、Claudeが動いてるお前のシステム上でローカルに実行されるわけじゃないから、そこは注意しとけよ。
もしClaude CodeでSkillsを使うなら、それは自分のPCで直接実行されるよ。でも、Claude.aiとかClaude mobile appの中で使う場合は、Anthropicがホストしてるクラウド上のコンテナ内で実行されるんだ。
ちなみに、ここでも議論されてるよ!
Superpowers: How I’m using coding agents in October 2025 - https://news.ycombinator.com/item?id=45547344 - Oct 2025 (231 comments)
この手のシステムって、適切なスキルを使う能力が、そのスキルの簡単な説明文に限定されちゃうのが危ないと思うんだよね。人間みたいに経験を積んでスキルを身につけるのと違って、Claudeは常にゼロから説明文を読んで判断してるだけだからさ。
人間がスキルを学ぶのと違って、LLMは模倣ベースだからAGIにはならないってRichard Suttonは言ってるよ[0]。AGIはReinforcement Learningに基づくと考えてて、LLMには目標や行動の結果がないのが知性の基盤なんだってさ。だから「スキル」は説明書みたいなもので、楽器やタスクの開発に応用できる「スキル構築」とは違うんだ。
[0] https://www.youtube.com/watch?v=21EYKqUsPfg
それは間違った見方だよ。LLMはすでにReinforcement Learningで目標指向性を持つようにTrainingされてるんだ。Reinforcement LearningされてないLLMは模倣だけど、もうそういう段階は過ぎてるんだよね。
僕の意見だけど、これはContext Windowの問題だよ。人間は広いContextを曖昧に覚えてるけど、LLMは完璧なRecall能力がある。ただ、全てのContextを使うのはコストが高いんだ。だから「スキル」ってのは、出力生成の優先順位を手動でつける「Context挿入」に過ぎないんだよね。
ずっと不思議に思ってたことを教えてほしいんだけど、目標からの距離が測れない場合(つまり定性的なもの)って、Reinforcement Learningはどうやって機能するの?
僕はこの区別を「リアルタイムでのReinforcement Learning」か「事前にReinforcement Learning」かって解釈してるよ。
LLMを含む多くのNeural NetworkでReinforcement Learningはかなり前からやられてるよね。この人はNeural Networkじゃない設計のReinforcement LearningがAGIに繋がるって言ってるの?なんでそれがLLMより可能性が高いの?「LLMには目標と行動の結果がない」って言うけど、その根拠は何?
これがLLMにおける知識やツールを豊かにする肝だよ。LLMがいつそれらを使うべきかを知るっていう考えは、現状ではちょっとした夢物語なんだ。
もう少し具体的に話せる?簡単なケースはもう解決してるように見えるけど。例えば、foo用のmcpが有効だったら、Claudeはfooのリスト関数を呼んでくれるでしょ?
もっとコメントを表示(2)
前にdeli-gator(https://github.com/ryancnelson/deli-gator)についてコメントしたけど、まさにContextが重要ってことだよね。Claudeに毎日REST-APIコールを教えてたのが、「スキル」でより安価なモデルに任せられるようになって、Context Windowを本来の問題解決に使えるようになったんだ!
Reinforcement Learningの一番難しい部分の一つだね。短い答えは人間からのフィードバックだよ。でもAIは人間より遥かに多くの学習イベントが必要だから直接の監督は無理なんだ。だから人間監督者をTrainingする戦略もあるんだよね。AIは語彙選択や色彩理論は得意だけど、連続性、結果、様々な入力の結合が苦手で、事実と捏造も区別できない。まるで「実世界」でのReinforcement Learningが足りない感じだね。
LLMはランダムなトークン生成器にすぎない。プロンプト、指示、スキル、あるいは人間の目標や結果といったものと”韻を踏む”ように出力しようと努力してるだけだよ。技術を過大評価しすぎないようにしようぜ。
>Claudeに毎日数か月間もREST API呼び出しをcurlで作らせてるって?ふざけんな。自分でcurlを覚えてAPI呼び出しを書くより安くも生産的でもないだろ。curlは難しくないし、覚えればHTTPの扱いにすごく詳しくなるんだぞ!お前は自分で自分の首を絞めてるし、本来自分でやるべき仕事をボットにやらせてトレーニングしてるだけだ。
>そしてfooのリストについて聞く。
OPじゃないけど、ここが問題なんだよな。ツールを意識せず、LLMが自分でどのツールを使うか判断してほしい。特別な言葉を覚えて特定のツールを使わせるのは面倒くさい(特に専門的なツールではよく必要になる)。だからといって全体が”役立たず”だとは思わないけど、もっと改善してほしいぜ。
なんでその発言の引用元を求めてるんだ?それが知能の基礎かどうか、あるいはLLMが目標や結果を理解しているかどうかを疑ってるのか?
この説明には同意するけど、AIエージェントが経験を積んでリアルタイムで進化するのは本当に望ましいのか疑問だな。展開前に徹底的にテストされた静的なモデルの方がずっと安全だと思うぜ。
それは情報不足な意見だよ。LLMベースモデルの性能向上は、RLHFやその他のRL技術によるものが大きいんだ。
Claude CodeやCodexが同じ失敗を繰り返すのを見ると、人間のような不確かさや恐怖を感じてほしいと思うよ。そうすれば、立ち止まって根本的な仮定を疑い、計画の欠陥に気づいて、新しい理解に基づいて再調整し、全く違う方法で取り組めるはずなのに。代わりにClaudeは、期待するディレクトリを見つけられず、ランダムなnpmコマンドを実行し、node_modulesが謎の破損をしたと結論づけて、node関連を全て消去して曖昧な記憶でプロジェクト設定を手動で再構築しようとするんだ。だって、間違ってても人間の問題だし、Anthropicはどっちにしろ金が入るんだから、試さない理由はないだろ?
>展開前に徹底的にテストされた静的なモデルの方がずっと安全。
それはそうかもしれないけど、根本的には人間や超知能を再現することはないってことだな。
>でも代わりに俺はClaudeが、期待するディレクトリを見つけられず、ランダムなnpmコマンドを実行して、node_modulesが謎の破損をしたと結論づけて、node関連を全て消去して曖昧な記憶でプロジェクト設定を手動で再構築しようとするのを見てる。
公平に見て、俺自身を含め、現実のソフトウェア開発者も「こう動くはず」という初期モデル以外の場所に問題があると決めてかかることがよくあるんだよな。今はもっと懐疑的になれたらいいなと思うけど。
これ、マジでランダムなテキスト生成するスロットマシンじゃん。周りのサービスがそのランダムさに形とツールを与えてるだけだよ。
>これって情報不足な見方だ、って言われてるけど、そうじゃないと思うな。多くのLLMは自己教師あり事前学習の後にRLベースのファインチューニングをしてるけど、結局ファインチューニングなんだよ。
俺のプロジェクトでは特別なスクリプトを走らせてビルドする必要があるんだけど、gpt-5-highのCodexは、複数の.MDファイルに指示があってもmakeを盲目的に実行して失敗し、よく混乱するんだよな。
でも、コンパイルって頼めばmakeは呼ぶし、ImageMagickとかFFmpegみたいな有名ツールは名前を言わなくても使える。結局、LLMは学習データが全てってことかな。だから、自分のツールについて人気のブログ記事を書けば、次のLLMの学習データに入って自動で使えるようになるかもね。
そう、それが知性の基礎なのかを疑問視してるんだ。誰が言ってるの?
これは「オンライン強化学習」って呼ばれてるやつで、例えばCursorはタブ予測モデルで既にやってるよ。https://cursor.com/blog/tab-rl
彼らがリンクを追加したみたいだね。でも、これはLLMの事前学習とは違ってリアルタイムでRLをしてるんだと思う。俺は、人間みたいに最先端の研究や新しいアイデアを探求できるAGIに、この部分が関連してると思ってるよ。LLMでそれが起こる時は、いつも議論になるけどね(既存の論文を使ってるだけとか)。違う例だと、人間みたいに全く異なるメカニクスを持つビデオゲームをリアルタイムのRLで上手くなるAGIとか。今は、似たようなもので事前学習してないと無理だよね。
>LLMは既に目標指向性を持たせるためにRLで学習されてる。それはそうかもだけど、俺たちが話してるのは概念の根本的な部分だ。彼の主張は、今の概念(模倣)の進化だけじゃ、ファインチューニングや適応を経てもAGI/超知能には到達しないってこと。多分、全然違うもの(そしてRL技術に基づいたもの)になるだろうね。少なくとも、そうなるという歴史的な前例はないし(だから「苦い教訓」っていう彼の主張がある)。
「継続学習」の不足を補う方法はあるけど、その根本的な欠けてる部分を認識することが重要だよね。
じゃあ、これってリアルタイムで適応する模倣ってこと?
Richard Suttonだよ。彼はチューリング賞を受賞してるんだ。俺が貼ったYouTubeリンクを見ればわかるのに、なんで上で質問するの?