メインコンテンツへスキップ

プログラマー向けプロンプトエンジニアリング虎の巻

·5 分
2025/06 プロンプトエンジニアリング AI プログラミング エンジニア AI活用

プログラマー向けプロンプトエンジニアリング虎の巻

引用元:https://news.ycombinator.com/item?id=44182188

DebtDeflation 2025/06/04 22:20:47

俺の経験だと、プロンプトエンジニアリングの真のテクニックはたった3つだよ。In Context Learning(例を見せるやつ、one shotとかfew shot)、Chain of Thought(ステップバイステップで考えさせるやつ)、Structured output(JSONみたいに形式を指定するやつ)だね。この記事のRole Promptingも加えるのはアリかも。RAGは文脈を要約させる別物だよ。ぶっちゃけ、それ以外は全部「何をしたいかハッキリ言う」ってことに尽きるんだよね。

dachris 2025/06/05 04:36:32

結局Contextが一番大事だよ。
Typescriptで始めてデータサイエンスの質問しても、上手く答えられないでしょ?
Pythonで同じ質問したら、すごい良い答えが返ってくるんだ。
LLMは(まだ)ドメイン間の知識を本当の意味で transfer できないから、正しくprimingしてあげる必要があるんだよね。

christophilus 2025/06/05 11:54:23

どうかな〜?俺、Typescriptでサイドプロジェクトやってて、「linear regression」って言葉が思い出せなかったんだよ。それでagentに「点群の中にtrend lineを引くあのやつを実装して」みたいな曖昧なこと言ったら、一発でlinear regressionのコードを出してくれたんだよね。
あと、シンプルなSQLをいじったり、Bunで結果を分析させたりするのもすごく得意だって気づいたよ。
俺はそこまでheavyなデータ処理はしてないけど、今のところremarkably良い感じ。

whoknowsidont 2025/06/05 16:26:52

Linear regressionはニッチじゃないし、よく知られたトピックで、データサイエンス以外の多くのドメインでも使われてるからね。
でも、「データ点を類似グループにまとめるあのやつ」を実装してって頼むのは、K-meansみたいにmachine learningに特有だから、もう少しcontextが必要だよ(今試してみた)。

throw2342412314 2025/06/05 21:38:09

freshなsessionで試してみたよ:
最初のprompt:「新しいtypescriptファイルを開始して。これはデータサイエンスの目的で使用する。」
2番目のprompt:「データ点を類似グループにまとめるあのやつを実装して。」
出力はK-meansを実装したフルfunctionだったよ(Euclidean distance functionも一緒に)。
見てみて:https://chatgpt.com/share/68420bd4-113c-8006-a7fe-c2d0c9f91d…

whoknowsidont 2025/06/06 14:49:30

「データサイエンスの目的で使用する」って、この議論のポイントを台無しにしてない?無視してるんじゃない?
誰も違うと思ってなかったと思うけど?

nxobject 2025/06/05 23:08:33

それはlarge public training datasetsがないnicheなプラットフォーム/言語に当てはまると思うんだ。
もしRustが今日発表されたとしたら、productivityの差がすごく不利に働いて、仮にhypothetically生き残れるかどうかわからないレベルだったと思う。

LPisGood 2025/06/05 15:29:10

magicalな説明じゃなくて、LLMがどう動くかっていう原理に基づいてると思うけど。
もちろん、具体的にどう動くかはまだ完全に解明されてないけど、basic principlesをmagicalって呼ぶのは行き過ぎかな。

apwell23 2025/06/05 20:23:41

LLMがどう動くかって?
他の人は知らないと思ってたんだけど、どうかな。

lexandstuff 2025/06/04 23:08:18

Even role prompting is totally useless imo. Maybe it was a thing with GPT3, but most of the LLMs already know they”re ”expert programmers”. I think a lot of people are just deluding themselves with ”prompt engineering”.
Be clear with your requirements. Add examples, if necessary. Check the outputs (or reasoning trace if using a reasoning model). If they aren”t what you want, adjust and iterate. If you still haven”t got what you want after a few attempts, abandon AI and use the reasoning model in your head.

dimitri-vs 2025/06/05 02:22:01

It”s become more subtle but still there. You can bias the model towards more ”expert” responses with the right terminology. For example, a doctor asking a question will get a vastly different response than a normal person. A query with emojis will get more emojis back. Etc.

didgeoridoo 2025/06/05 11:45:24

This is definitely something I”ve noticed — it”s not about naïve role-priming at all, but rather about language usage.
“You are an expert doctor, help me with this rash I have all over” will result in a fairly useless answer, but using medical shorthand — “pt presents w bilateral erythema, need diff dx” — gets you exactly what you”re looking for.

james_marks 2025/06/05 14:20:11

If this holds up, it”s an interesting product idea you could MVP in a day.
Lay person”s description
-> translate into medical shorthand
-> get the expert response in shorthand
-> translate back.
Liability and error is obviously problematic.

easyThrowaway 2025/06/05 12:40:42

I get the best results with Claude by treating the prompt like a pseudo-SQL language, treating words like ”consider” or ”think deeply” like keywords in a programming language. Also making use of their XML tags[1] to structure my requests.
I wouldn”t be surprised if in a few years from now some sort of actual formalized programming language for ”gencoding” AI is gonna emerge.
[1]https://docs.anthropic.com/en/docs/build-with-claude/prompt-…

petesergeant 2025/06/05 11:47:01

One thing I”ve had a lot of success with recently is a slight variation on role-prompting: telling the LLM that someone else wrote something, and I need their help assessing the quality of it.
When the LLM thinks you wrote something, it”s nice about it, and deferential. When it thinks someone else wrote it, you”re trying to decide how much to pay that person, and you need to know what edits to ask for, it becomes much more cut-throat and direct.

dwringer 2025/06/05 16:44:04

I notice this to affect its tendency to just make things up in other contexts, too. I asked it to take a look at ”my” github, gave it a link, then asked it some questions; it started talking about completely different repos and projects I never heard of. When I simply said take a look at this github and gave it a link, its answers had a lot more fidelity to what was actually there (within limits of course - it”s still far from perfect) [This was with Gemini Flash 2.5 on the web]. I have had simlar experiences asking it to do style transfer from an example of ”my” style versus ”this” style, etc. Presumably this has something to do with the idea that in training, every text that speaks in first person is in some sense seen as being from the same person.

coolKid721 2025/06/05 13:38:04

The main thing I think is people just trying to do everything in ”one prompt” or one giant thing throwing all the context at it. What you said is correct but also, instead of making one massive request breaking it down into parts and having multiple prompts with smaller context that say all have structured output you feed into each other.
Make prompts focused with explicit output with examples, and don”t overload the context. Then the 3 you said basically.

denhaus 2025/06/05 00:27:38

Regarding point 3, my colleagues and i studied this for a use case in science: https://doi.org/10.1038/s41467-024-45563-x

melagonster 2025/06/05 03:12:17

あのね、材料化学の3つのタスクで試したんだよ。ドーパントとホストを紐付けたり、MOFの目録作ったり、組成とか形態とか応用情報を抽出したりね。論文の1文や段落からデータ取って、簡単な英語やJSONみたいな構造化データにしたんだ。これ、研究論文から専門知識のDB作るのにシンプルで使いやすくて、すごく柔軟な方法だと思うよ。

denhaus 2025/06/09 02:35:32

簡単に言うと、多くの科学分野で構造化されたDBを作る方法ってことかな。なんでかって?そういうDBにデータ駆動な手法を適用するためだよ。それがどうした?って?百万本もの論文に隠された科学的な疑問やトレンドを、強力な方法で探求できるんだ。例えば、PDBがタンパク質折りたたみの理解に貢献して、AlphafoldみたいなML技術を可能にしたみたいにね。多くの科学分野はタンパク質折りたたみほどデータが豊富じゃない。でも、もしそうできたら?長い話になるけど、過去15年の計算科学+MLの研究で、構造化DBが新しい発見のフロンティアを開いてきたんだ(PDB、Materials Projectとかね)。でも、ほとんどの科学トピックはDBになってないで、何百万本もの論文に散らばってる。特に材料科学の一部では深刻な問題なんだ。データが少ないんじゃなくて、構造化するのが難しいんだよ。DBがないから、ほとんどのML手法が使えないんだ。この論文は、科学論文から専門的で複雑な階層的な知識グラフを構造化DBとして大量に生成する方法なんだ。ファインチューニングはうまくいったけど、プロンプトエンジニアリングはダメだった(当時はね、今は変わったかもだけど)。DBができたら、科学のサブ分野全体をMLや統計で分析できるんだよ。

Esophagus4 2025/06/07 12:46:03

Chain Of Thoughtプロンプトって、GPT “o”シリーズとかClaude Sonnetみたいな新しい推論モデルだと、効果がかなり薄れるんだよね。読者の課題として、プロンプトエンジニアリングの論文にあるChain of Thoughtの例と対照プロンプトを試してみてほしいな。最新モデルは、デフォルトで推論するように訓練されてるか、指示されてるのがわかると思うよ。出力はほぼ同じになるから。CoTプロンプトは、多分数年前の古い、性能が低いモデルにはもっと効果的だったんだろうね。問題をどう推論してほしいか、モデルに正確に指示するのもメリットがあるかもしれないけど、逆にモデルの能力を制限しちゃう可能性もあることに注意してね。俺が見つけたのは、ほとんどの場合、モデルにデフォルトの推論能力を使わせて、それをガイドする方が、自分で推論方法を与えるよりも良いってことかな。

denhaus 2025/06/05 00:28:42

補足だけど、俺たちのユースケースでは、low-shotとかfew-shotのプロンプトエンジニアリングがうまくいかなかったから、プロンプトエンジニアリングよりもファインチューニングを多めに使ったんだよ。

faustocarva 2025/06/04 22:39:51

構造化出力を作りながら、同時に同じプロンプトで推論させるのって難しかった?

demosthanos 2025/06/05 00:16:42

これは2段階のプロンプトを使えばいいんだよ。まず答えを推論させて、明確にラベル付けした’final answer’セクションに英語で答えを記述させる。次に、その応答をJSONモードで再度実行して、前のモデルが言ったことを構造化された形式にパッケージングするようにプロンプトを出すんだ。2段階目は安いモデルでも大丈夫だよ。

faustocarva 2025/06/05 01:09:07

いいね、試してみるよ!でも、それはChain basedなプロンプト?それとも普通の会話の流れの中で?

demosthanos 2025/06/05 02:12:25

会話でもできるけど、APIリクエストで一番成功したよ。それが一番柔軟性があるからね。擬似プロンプトはこんな感じかな:
プロンプト1:タスクを実行して、詳しく説明して、${THINGS_YOU_NEED_FOR_JSON}を含む答えの明確な要約で締めくくって。
プロンプト2:前のエージェントが${CONTENT}と言いました。${SCHEMA}に従ってJSONとして構造化してください。
理想的には、プロンプト2でJSONスキーマをサポートするモデルを使うと、返されるものが100%パース可能であることが保証されるよ。そうでなければ、ローカルで検証してエラーを返し、修正するようにプロンプトを送ることで自分で実装することもできるよ。

haolez 2025/06/04 18:13:34

たまに感じるんだけど、めっちゃ長くて複雑なプロンプトって、モデルの認知能力を低下させる気がするんだよね。制御できてる感じとか、ちゃんとしたエンジニアリングに見えるかもしれないけど、全体としては得じゃないんじゃないかな。俺の使い方は、すごくシンプルでミニマルなプロンプトにして、何回かイテレーションしながら微調整するってところに落ち着いたよ。

taosx 2025/06/04 19:25:43

俺も最初はそのやり方で始めたわ。1. 最小限のコンテキスト、前提、ゴールを与える。2. 回答を確認してプロンプトを修正する。経済的なやり方でもあるよね。エージェントには散々やられたんだ(ただスピンして1回のプロンプトで30ドル燃やしたり、コードベースをめちゃくちゃにしたり、前のコードに戻ったり)。AIにプロジェクトで大量のコードを書かせると、進化させたり先に進むのが難しくなるって警告も必要だと思う(自分で考えて書かなかったコードは記憶に定着しにくいしな)。

apwell23 2025/06/04 22:53:10

>ただスピンして1回のプロンプトで30ドル燃やしたり、コードベースをめちゃくちゃにしたり、前のコードに戻ったり)。
俺の経験も全く同じだよ。時代遅れってレッテル貼られるのが怖くて、これを認めるのが怖いんだ。

scarface_74 2025/06/04 22:18:32

それって、1年前に俺が書いたコードとか、誰か他人のコードを修正しなきゃいけない時と何が違うの?

もっとコメントを表示(1)
conception 2025/06/05 01:00:11

探せばあるはずだけど、素人じゃなくて専門家の語彙を使う方が良い結果を生むって証拠があるらしい。それは理にかなってるよね。普通に話す場所は間違いが多いけど、専門用語で話す場所は正しい可能性が高い。そして学習データはその関連性をAIの空間で結びつけるだろうから。

ijk 2025/06/05 23:09:51

結局、AIってのは本質的にはまだただのドキュメント補完マシンだよ。すごく賢いけどね。入力された部分に合う続きを見つけようとしてるだけなんだ。

heisenzombie 2025/06/05 10:27:04

これ、正しいと思うわ。俺はよく質問を2段階に分けて、この利点を活用してるんだ。(1)その分野のプロならどう質問するか聞く。(2)その質問を新しいチャットに貼り付ける。

tgv 2025/06/04 18:28:53

別のタスクの話だけど、同僚がすごく長いプロンプトを書いてたんだ。それを組み込む必要があったから、プロンプトのCRUD操作を追加したんだ。テストで、すごく短いプロンプトを作ってみたんだ。「これを<profession>として分析して」みたいなやつ。出力はほぼ同等だったよ。ただ、長いプロンプトの出力には、そのプロンプトの文字通りの部分への参照が(結構たくさん)含まれてた。意味不明じゃなかったけど、まるでそのモデル(ちなみにGemini 2.5)は、プロンプトから抽出したタスクに対する基本的な応答があって、そこに余計な部分をマージしてるみたいだった。少なくともこの特定のタスクでは、モデルに違う「考え方」をさせるのは(簡単に)できないみたいだね。

pjm331 2025/06/04 21:30:21

ああ、今日まさにそういう経験したよ。CLAUDEで大きな詳細なプロンプトファイルを書いてコードレビューしてたんだけど、そのファイルがないブランチでやったら、かえって良い結果が出たんだ。

nico 2025/06/05 16:12:11

俺も同じ経験だな。それと同時に、いくつかのエージェントのシステムプロンプト(https://github.com/x1xhlol/system-prompts-and-models-of-ai-t…)を見たんだけど、ものすごく長いんだ。あれはどういう仕組みなんだろう?

sagarpatil 2025/06/05 04:31:41

俺もそう結論づけてるんだけど、AIラボが出してる長いシステムプロンプト(https://docs.anthropic.com/en/release-notes/system-prompts#m…)はどう説明するの?

ath3nd 2025/06/05 20:54:55

》制御感や適切なエンジニアリングって感じがするかも
超辛口だけど、個人的にはLLMに関わることを“適切なエンジニアリング”だと思ったことないな。“もがいてる”のはそう、“試行錯誤”も絶対そう。“自信満々の間違ったハルシネーション”も確かにある。でも“適切なエンジニアリング”と“LLM”は、僕の中では相容れない概念だね。

dwringer 2025/06/05 13:13:51

これは“無関係なコンテキストはコンテキスト無しより悪い”ってシンプルに言えると思うけど、関連性の高い長いプロンプトがダメってわけじゃないよ。

wslh 2025/06/04 18:37:56

僕も同じだよ。最初に無理やりロードマップを作るんじゃなくて、比較的具体的なニーズから始める。知らない技術だと、“コピペ”する前にそれが何を意味するのか質問して理解するようにしてる。高度なプロンプトだと、生成されたコードがコンパイルに失敗して、原因を追うのがゼロから始めるより時間かかることがあるんだ。

lodovic 2025/06/04 21:12:40

より高度なプロンプトには、Markdownで仕様書(specs)を使ってるよ。まずLLMにMarkdownを洗練させて実装ステップを追加してもらうんだ。そうすれば、LLMが何をやるかレビューできる。実装が始まったら、“ステップ1だけ実装して、終わったらドキュメントを更新して”って頼めるし、仕様書が正しく実装されたか検証させることもできるよ。

matt3210 2025/06/05 00:51:53

これって、いつから法務用語みたいなプログラミングになるの?

efitz 2025/06/05 04:56:30

もうなってるよ。プログラミング言語はすでに構文にすごく厳しいでしょ。専門用語も同じで、あいまいさをなくすためって理由も同じだよ。

bsoles 2025/06/05 00:08:17

“プロンプトエンジニアリング”なんてものは存在しないよ。いつから適切で意味のある文章を書く能力がエンジニアリングになったの?これは“ソフトウェアエンジニアリング”よりさらにひどいね。残念なことに、たぶんこういう求人が出てきて、文章を書く並外れた能力でプロンプトエンジニアって名乗る人たちが出てくるんだろうな。

NitpickLawyer 2025/06/05 05:46:47

》いつから適切で意味のある文章を書く能力がエンジニアリングになったの?
何が適切で意味があるかは、たくさんの変数に依存するからだよ。それをテストし、追跡し、ログを取り、バージョン管理することが、“感覚でのプロンプト作成”から“プロンプトエンジニアリング”にするんだと僕は思うね。この作業を詳しく説明した論文はたくさんあるよ。何かをやる方がやらないより効果的だったり(ピンクの象の話みたいにね)、構造やスタイル、情報の順序、問題の再提示が重要だったりする。それに、モデルのファミリーには癖があるし、APIで提供されるモデルを使うなら、新しいバージョンがプロンプトでうまく動作するか内部チェックが必要だ。こういうチェックやテストが“プロンプトエンジニアリング”だよ。多くの人はバズワードに脊髄反射して、その本質を見落としてる気がするな。

gwervc 2025/06/05 15:49:23

それでも、エンジニアリングからはまだまだかけ離れてるよ。だって、エンジニアリングの学位を取るのに、どれだけ長く、たくさんの分野を勉強しないといけない?5年とかでしょ。一方、プロンプトの微調整なんて、数日実験するだけで学べちゃうんだから。

NitpickLawyer 2025/06/05 17:35:17

プロンプトエンジニアリングのエンジニアリングって言葉にみんなキレすぎだろ?定義はハッキリしてるし、なんでそんな些細なことで揉めるんだよ?変なの。

apwell23 2025/06/05 20:33:38

うまくいく方法があるってのはカフェでコーヒー頼む時も同じだろ?「バリスタ注文エンジニアリング」なんてあるのかよ?「問題を言い直すのが重要」って言うなら、具体例見せてくれよ。

liampulles 2025/06/05 10:32:54

もし近所のバリスタが自分をコーヒーエンジニアって呼び始めたら、もっと信用できる肩書きだと思うかもね。

hansmayer 2025/06/05 12:32:28

この調子だと、エンジニアっていう肩書きもマネージャーやVPみたいに価値が下がっちゃうかもな。
だからコーヒーエンジニアが出てくるのもありえるかもね:D

gwervc 2025/06/05 15:45:52

バーテンダーはもうミクソロジストって呼ばれるようになってるしね。

yowlingcat 2025/06/05 02:02:33

個人的な経験だけで不可能って思わない方がいいよ。LLMで難しい問題を解くにはプロンプトエンジニアリングは絶対必要(でもそれだけじゃダメ)。ないと解決難しいし、あっても90%までで最後の微調整はいる。もしかしたら、エンジニアリングじゃなくて「プロンプトクラフティング」って呼ぶべきかもな。工学的な原則より、職人技やセンスの方が大きいから。

SrslyJosh 2025/06/05 16:50:49

「high leverage outcomes」なんてマネージャーみたいな言葉使うなよ。普通の言葉で話せ!プロンプトエンジニアリングじゃなくプロンプトクラフティングって言うべきって意見、分かる。エンジニアリングは予測可能なプロセス(橋とか)だけど、プロンプティングは違うもんな。

yowlingcat 2025/06/05 20:43:27

俺のビジネスの目標は、LLMで人間より桁違いの成果を出すことだ。それがレバレッジで、普通の言葉だろ。知らないからってマネージャー用語って決めつけるなよ。LLMにはプロンプトエンジニアリング(クラフティングでもいい)が超重要ツールなんだ。コード書いて連携したり、パターン化したりしてる。工学とクラフティングの中間かな。エンジニアリングの言葉の曖昧さが不安にさせてるんだろうけど、LLM活用でコードの書き方自体が変わってるんだから、ソフトウェアエンジニアリングも根本的に進化してるに決まってるだろ。

theshrike79 2025/06/06 12:17:58

コンテキストが一番大事。例えばアメリカとインドのチームで話し方変えるだろ?「プロンプトエンジニアリング」もそれと同じ。言語モデルって癖があるから、良い結果出すには特定の指示が必要なんだ。無料のモデルでスクリプト書かせてみれば分かるよ。それぞれスタイルが違うから。

sach1 2025/06/05 11:15:21

yowlingcatの意見もわかるけど、あなたの言いたいこともわかるよ。俺から見れば、これって’SSHできる人’っていう求人出すのにちょっと似てる感じ。SSHは便利なスキルだけど、linux/unix/network administrationのごく一部であって、専門として極めるようなもんじゃないからね、もし意味がわかるなら。

mseepgood 2025/06/05 14:19:35

そもそもちゃんとした文章なんて書く必要もないんだよ。「me get error X how fix here code:」みたいな文章でもだいたい通じるし。

empath75 2025/06/05 13:36:30

プロンプトエンジニアリングって、エンジニアリングっていうよりは、ピープルマネジメントのスキルに近いと思うんだよね。

bicepjai 2025/06/05 14:40:59

codeも意味のある文章だって言えるんじゃない?だから「ソフトウェアライター」の方が適切じゃない?(笑)

SchemaLoad 2025/06/05 06:08:31

AI sloperators(AI使う人たち)は、自分らがちゃんと仕事してるように見せるのに必死なんだよ。

もっとコメントを表示(2)
lowbloodsugar 2025/06/05 21:40:07

弁護士みたいに?

ocimbote 2025/06/06 05:34:14

ジャスティスエンジニアには敬意を払うように。教養がない人たちのために言うと、ローエンジニアっていうのは議会とか連邦議会とか、[あなたの国の呼び方を入れてね]のメンバーのことだから。

wiseowise 2025/06/05 07:03:13

もう、”エンジニア”って言葉にそんなに反応するの?文化的なもん?

orochimaaru 2025/06/04 21:17:11

昔のコンピュータサイエンスの授業で、プログラム検証の方法を習ったんだ。それがデータエンジニアリングでプロンプトを作る時にすごく役立ってるんだよね。「Given input (…) and preconditions (…) write me spark code that gives me post conditions (…)」みたいに、入力とか事前条件、事後条件をちゃんと形式的に指定すると、だいたい良い感じのコードが出てくるよ。David GriesのScience of programmingとか、そういう考え方ね。

ColinEberhardt 2025/06/04 18:07:55

今ってプロンプトガイドがいっぱいあるけど、正直あんまり必要ないと思うな。ツールをしっかり使い込んで、使い方に慣れてくれば、どんなプロンプトを使えば良いかなんて自然と分かってくるもん。

Disposal8433 2025/06/04 20:40:27

なんかさ、Googleが流行り始めた時のあの熱狂とFOMO(取り残されることへの恐れ)を思い出すね。本がいっぱい出て「買わないと時代遅れになるぞ!」みたいな。でも実際は、誰でも一日で使えるようになっちゃったじゃん。全部のツールを知らなきゃダメなんて議論は無用だったんだよな。

wiseowise 2025/06/05 07:05:33

いやいや、それって逆を証明してるだけだよ。「Googleを使い慣れてる人」と、適当な言葉を入れて検索する人との間には、確実に違いがあるってことじゃん。

marliechiller 2025/06/05 08:15:55

え、本当にそう? 最近のGoogleってさ、「すごい検索の達人」向けっていうより、「適当な入力」でもうまくいくようにめちゃくちゃ最適化されてる気がするけどな。

sokoloff 2025/06/04 21:54:45

プロンプトガイドを読んだり(上手い人のやり方を見たり)するのが、すごくためになる人もいると思うな。自分で頑張って改善しようとしない人でも、ガイドなら読むかもしれないし。実際、他の人がツール使ってるとこ見たり、友達と話したりして、自分で使うだけじゃ気づけなかったコツを結構学んだよ。それは間違いなく自分の成長につながったね。

awb 2025/06/05 06:51:57

何年も前に、ユーザーストーリーの書き方ガイドがあったのを思い出したよ。「As a [role], I want to be able to do [task] so I can achieve [objective]」ってやつね。あれ、頭良い開発者でも、あいまいな要求を正確に理解してもらうのにすごく役立ったんだ。シンプルに見えるけど、経験上、優秀な開発者でも構造化されてない要求は見落としたり誤解したりすることがあるんだよね、彼らのせいじゃなく。

TheCowboy 2025/06/05 02:41:20

少なくとも、他の人がこれらのツールでどう生産的にやってるかを知るのには役立つよね。自分がすでにやってることを改善するような clever なアイデアが見つかることもあるし、この分野の今の状況を知るのにも良い。一年前に何かやってみて、もう今はダメだと思ってても、進化してる可能性もあるしね。自分で試行錯誤して車輪を再発明するより、まず調べる方が好きだな。他の人が時間かけて見つけたことを共有してくれるのは本当にありがたいよ。もう十代みたいに世界のすべてを探求する時間があるわけじゃないからさ。

baby 2025/06/05 15:56:33

プロンプトには一見分からないコツがあるんだね。例えば「please」みたいな丁寧語は消した方がいいみたいだよ。

heisenburgzero 2025/06/05 01:59:37

俺の経験だと、LLMだけじゃ無理な問題は、いくらプロンプト“エンジニアリング”してもダメなんだよね。サブタスクに分けたり例を示したりして、部分的に解決させるしかないと思う。もし違う経験してる人いたら教えてほしいな。

TheCowboy 2025/06/05 02:10:05

LLMを使うスキルって、問題分解の感覚を掴むことと、それをするべきかどうかの判断力だと思う。記事にも書いてあったね。コードの構造とかコメントも、LLMとの連携を良くするために変わっていくだろうし、LLM自身も問題分解を提案してくれるようになるかもね。

stets 2025/06/05 02:13:55

プロンプトエンジニアリングの目的は、もっといい答えを早く、欲しい形で手に入れることだと思う。でも、やっぱ理想はモデルが勝手に“分かってくれる”ことで、質問を“エンジニアリング”する必要がなくなることだよね。

yuvadam 2025/06/04 21:01:10

なんか過剰な(プロンプト)エンジニアリングって感じだね。俺は生コードとかエラーを貼り付けて、普通の質問するだけで全然OKなんだ。モデルは賢いから自分で解決策を見つけてくれるよ。

leshow 2025/06/04 19:38:47

プロンプトを書くことに“エンジニアリング”って言葉を使うの、なんか軽々しい感じがするなぁ。

vunderba 2025/06/04 22:51:02

数年前にプロンプト“エンジニアリング”がめっちゃ流行ってた頃に、面白い例えを見たんだ。「プロンプトエンジニア」って呼ぶのは、Subwayの店員さんがシャツに“サンドイッチアーティスト”って書いてるから芸術家って呼ぶみたいなもん、だってさ。冗談はともかく、“エンジニア”って言葉はもうとっくに意味が薄れてるよね。https://jobs.mysubwaycareer.eu/careers/sandwich-artist.htm

theanonymousone 2025/06/05 05:40:18

なんでその店員をサンドイッチエンジニアって呼ぶのに問題があるんだ?
https://en.wikipedia.org/wiki/Audio_engineer

guappa 2025/06/05 10:13:47

サウンドエンジニアがちょっとの時間で習得できると思ってるなんて、可愛いね。音響学とか電子工学、音楽理論、人間の知覚の知識がいるのにさ。

theanonymousone 2025/06/05 14:00:46

それは君が俺の書いたことをそう理解しただけで、俺が言いたかったこととは全然違うんだけどね。

記事一覧へ

海外テックの反応まとめ
著者
海外テックの反応まとめ
暇つぶしがてらに読むだけで海外のテックニュースに詳しくなれるまとめサイトです。