面接だと思ったらハッキングだった!? 危うく騙されるところだった話
引用元:https://news.ycombinator.com/item?id=45591707
この記事、LLMが書いたでしょ。作者の英語力に自信がないのは分かるけど、ChatGPTに入れた元のプロンプトを読みたいんだよ。話が本当ならすごく面白いのに、作者が文章をダメにしちゃったのが残念だね。David、元のプロンプトをこのコメントへの返信としてシェアしてくれない?お願い!
フィードバックありがとう!実はこれ、11回も修正したんだ。
ClaudeとGoogle Docs連携を使ったから、チャット全体は共有できないけど、僕が最初に使ったGoogle Docはこれだよ:https://docs.google.com/document/d/1of_uWXw-CppnFtWoehIrr1ir… これと、このプロンプト↓と、システムプロンプトを使ったんだ。
あのさ、『URLが24時間後に消えた』って部分、AIが全部作ったの?それともAIとのチャットで、君がその『24時間後に消えた』って情報を提供したの?
いや、あれは僕が書いたんだ。監視スクリプトとか使って確認したわけじゃないけど、最初に試した時は生きてたのに、次の日同じ時間くらいに試したら消えてたんだよね。
AIなしで書く時に備えてだけど、『setup』と『checkout』は名詞だよ。動詞として使うなら、『set up』と『check out』って2単語になるんだ。間に他の単語を挟めるかで覚えるといいよ。例えば、『set it up』とか『check something out』ね。
『あなたはAI Botで、作者の書き方を真似するのが得意です。以下に記述されたトーンでコンテンツを書くのが目標です』っていうシステムプロンプトの書き方って、もっと直接的に『私の書き方を真似して。以下のトーンを使って』って言うより効果あるの?純粋な疑問。
「ひどい文章」って言うけど、この文章、僕には全然問題なく読めるし、多くの人もそう思ってるはず。なんでそんなに否定的に反応するの?文章は読みやすいし、飽きっぽい僕でも最後まで読めたよ。多くの人が賢く見せようとするような尊大な文章じゃないしね。
複合語を分割するかどうかの判断って、この方法が一般的なの?
1.ひどい文章だよ。良い文章を読んでないね。2.すぐにAIの駄作ってバレるから、信憑性が疑われる。3.作者がちゃんと書く努力をしないなら、僕らが読む努力をするのは失礼。4.こんな書き方が普通になったら、文体の多様性が死ぬし、誰にとっても良くない。5.多くの人が金のためにデタラメを量産してるから、これも本当じゃないかもね。
やばいことに、フィアンセが指摘するまで俺、これに気づかなかったんだ。それまで、ただ内容が散漫すぎるだけだと思って、ほとんどスキップしてた。最近LLM出力はあまり使ってないし、普段は「余計なこと言わず、簡潔に教えてくれ」ってお願いしてるから、こういうのを見抜く力がかなり鈍ってたみたい。たぶん、多くの普通の人がこれを見てるってことなんだろうな…めちゃくちゃ怖い。
ブロガーへのアドバイス:
書きすぎなくらい書け、書くことがなくなるまで指の赴くままに書くんだ。自己批判は後回しにして、とにかく書くことが難しすぎることなんてないはずだ。何かを説明しようとして、目標を達成する前に書くことがなくなったら、もう少しリサーチしろ。あるトピックについてあまり書けないってのは、そのトピックを十分に理解してない良い兆候だ。
なんとか要点にたどり着くようなゴチャゴチャな文章ができたら、それを大幅に削れ。無駄な部分を批判的に考えろ。説明したいトピックと関係ないものは全て取り除け。
それから、LLMに渡すんだ。書き直してもらうんじゃなくて、編集上の提案をもらったり、スペルミスやぎこちない文章を直してもらうんだ。ただし、大きな提案にはめちゃくちゃ批判的になれ!「俺が書いた」って感じがしなくなるようなものには、めちゃくちゃ批判的になれ!
この時点で、もう一度編集して、徹底的に精査しろ。このプロセスの一部を数回繰り返してもいい。
これで十分だ。投稿できる。
本を書きたいなら、ちゃんとした編集者を探せ。
ChatGPTに記事を書かせるな。
あんたのコメントを読んで衝撃を受けたよ。でもそれから、真実があるだけでなく、あんたは完全に正しかった。
見出しを完璧に捉えてたね。それから、その理由かもしれないことを説明してくれた。
さらに、なぜ元の投稿者がそうしたのかを考察してくれた。
そして最後に、元の投稿者に彼が使った忌まわしいプロンプトを共有するように頼むことで、彼の罪をほとんど認めさせたね。
—(俺のゴミはAIが書いたんじゃないけど、そのムカつくスタイルを必死に真似してみたよ)。
「The Operation」セクションまではLLMが書いたようには見えなかったけど、それ以降は…ああ、うん、ChatGPTだね。LLMが仕上げに使われたとしても、それでも面白い話だったけどね、笑。
これに賛成。俺はLLMスタイルが大嫌いなんだ。全部同じように読めるし。記事を読んで即座に気づかない人がいるってのに、全然共感できないね。せっかく面白い記事なのに、めちゃくちゃイライラする。
俺は言語学者じゃないけど、名詞が複合語で動詞形が二語になるような、こういう種類の言葉のほとんどに当てはまると思うな。例えば、log in、back up、break down、work outとかね。共通してるのは、二語目がin、out、up、downのどれかってことみたい。
「you where absolutely right」ってところ、「where」が「were」の間違いだから、AIを真似てる人間だってことを示すのに完璧な一文かもね。AIならこんなスペルミスしないだろうし。
フィードバックありがとう!
みんなのコメントから学んだ大きなことの一つだね。ブログ記事になった今のAIコンテンツより、俺が書いた元の記事の方が好きって人が多かったんだ。自分の文章にもっと自信を持つべきだね。
ところで、お前Arch Linuxユーザーなのにフィアンセがいるって?怪しいな :) /s
ちなみに、Google Docは素晴らしいね。でも実際のブログ投稿は時間の無駄だったわ。俺も生活で忙しいし、LLM出力に時間を無駄にさせられるのは全然嬉しくないね。でも、Google Docは本当に良い内容だよ。
“The Operation”まではコンテンツ良かったよ。AI出力によくあるパターンで、良い部分もあるけど、冗長で単調なテキストが続くんだよね。“Sloppified”って良い表現だわ。こういうAIコンテンツを読んでるって気づくと、物語に集中できなくなって、記事全体の信憑性を疑っちゃうのが残念。透明性を保ってくれてありがとう、このやり方はAIコンテンツが広がる中で役立つと思うよ。
普通に書けよ。AIスロップは読めたもんじゃない。
これ、めちゃくちゃ面白いね!投稿してくれてありがとう!
LLMへの“flattery”(お世辞)は、昔は重要だって言われてたんだ(3年くらいの歴史しかない分野だけどね)。そうしないとLLMが別の役割を演じちゃうからって。でも、きっとRLHFトレーニングが強くなったから、今はそこまでじゃないのかもね。
いいね!オリジナルは見てないけど、このAI版はバズってるね。普段シェアしないんだけど、これはシェアしたいって思ったよ。
Google Doc版の方が断然読みやすいって、俺も何番目かの意見として言っておくね。
正直、Google Docは情報が全部詰まってて、長さも1/4くらいだよ。LLMは教えてないことは知らないから、同じことを言うのに言葉を増やすだけで、著者の声が失われちゃうんだ。ぶっちゃけて言うと、書くのが面倒なら、人が読むのも面倒だって思うべきだよね。
マジかよ、普通に書く方がマシに決まってるだろ。俺がおかしくなっちゃったのか?
苦痛を認めてくれてありがとう。
普段ならAIライティングに文句言うとこだけど、作者がプロセスを共有してくれて興味深いね。
この記事、”The Operation”までは入力の言い換えだったけど、そこからAIが長くて退屈な話を作り始めたって感じだね。
この記事めっちゃ面白いけど、AIが書いたっぽいなー。AIじゃなかったら読めなかったかもだけど、やっぱ作者自身に書いてほしかったな。無料で頑張れって言うのは無理あるけどさ、もし僕だったら自分で書くけどね。
読むの超イライラする!短い文が多すぎで、”XだけでなくYも”みたいな形式ばっかじゃん。”攻撃方法は?”とか”高価なセキュリティツールじゃない。高価なアンチウイルスソフトじゃない。AIアシスタントに聞くだけだ…”みたいな引っ掛けもウザい。AI記事のパターンが分かってきて、見分けやすくなった気がするわ。
もっとコメントを表示(1)
同僚からAIツールで文章を修正しろってよく言われるけど、自分の”声”を失いたくないから使わないんだよね。文章のスタイルって僕の価値だから。AIアートも同じで、まあまあのものは作れるけど、魂がなくてありきたりで味気ないじゃん。
僕は文章が得意で、ChatGPTとかGrok、GeminiとかのAIを駆使してブログ記事書いてるよ。まずAIにアイデアを広げさせて、それから”AIっぽさ”を消して自分の”声”を出すように何度も編集するんだ。
自分で全部書かないのは、ライターズブロック解消と思考整理にめっちゃ役立つから!僕のブログは公開ジャーナルみたいなもんだよ。
そうなんだよ。元の記事と使ったプロンプトは僕の他のコメントで見れるよ。仕事の製品ローンチとか色々あって、この記事に全然時間かけられなかったんだ。理解してくれてありがとう。
攻撃がどうやって作られたかの詳細が面白かったよ。
うん、これは有益で大事な記事だよ。ここで文句言ってる人たちはバカげてるね。つまらない理由でこの記事を読まなかった人たちが、同じようなソーシャルエンジニアリングの被害に遭わないことを願うよ。
AIで文章を“プロっぽく”してるんだ。最近は「My CVはAIで修正したけど、内容に嘘はないよ」って言わなきゃいけなくてさ。
君の言う通り、書き方って個性的だよね。AIが書くと最適化された特定のスタイルになっちゃう。文法修正とかにはAIもアリだけど、自分の文章って感じは欲しいじゃん?
良いブログ記事を書くのに英語力なんてそこまでいらないし、AIに頼りすぎるのは正直悲しいよ。書くのは時間かかるけど、その価値はある!
P.S.: AIっぽい書き方で誤解される人もいるだろうけど、問題はAIかどうかより、そのスタイルが味気ないってことかもね。
AIには文法とスペル修正だけ頼んで、変更は自分で手動で適用してるよ。つまり、y2k以降のワードプロセッサとやってること変わらないんだよね?
AIヘルプについてグチグチ言ってるの、AI自体よりもよっぽどうざいし気が散るんだけど。
「この記事はすごく面白いのにAIが書いた気がしてならないんだよね。文体にそれっぽい特徴が全部出てる」ってさ。
悲しいことに、AIの文章が世に溢れたら、人間もAIみたいに話し始めるんだろうね。それが新しいコミュニケーションの標準になるんだよ。
「書き終わる頃には、まるで自分が書いたみたいに聞こえる」って言うけど、作家の僕からしたらすごく悲しいね。
僕が自分らしい文章を書く方法は、自分で書くことだよ。それが僕を作家にしてるんだから。君のやり方は文章を作るのには生産的だけど、それは君が“書いたもの”じゃないだろ?
ふーん、なんでそんなこと言わなきゃいけないの?CVって、超完璧に仕上げるものだし、他の文章と一貫してる必要なんてなくない?
じゃあ、普通のワードプロセッサ使えばよくない?そっちの方が楽そうじゃん(僕が見落としてるメリットがあるなら別だけど)。ワードプロセッサの校正機能って、承認・拒否機能付きのUIがあるから、勝手に段落いじられたりしないしね。
君のコメント、AIが生成したみたいだね。使われてる言葉とか、これまで見たAIエッセイから分かるよ。
でも真面目な話、誰だって適当に「これAIだろ」って言えちゃうんだよね。ちゃんと読んでるか分からないし。特定の記号(例: /—/)でAIって決めつける人もいるし、ただ長いからって生成されたって思う人もいるんだよ。
https://xkcd.com/3126/
個人的には、AIの投稿(元の記事じゃなくてね)は禁止かフラグ付けして消してほしいな。安っぽいコンテンツマーケティングの個人版みたいなもんだよ。
AIが出る前は、マーケターが書いた空虚な宣伝記事がトップページに来るなんてなかったし。今や誰でもそういうスパムまがいの言葉を使えるからって、許される理由にはならないはずだろ。
次回は元の執筆とプロンプトだけ投稿すればいいんじゃない?
LLMでの変換って、読者の時間を無駄にする以外にどんな価値があるんだ?
全く同意。みんな落ち着けよ。コメントで詐欺について議論されるかと思ったのに、残念ながら全然ない。読むの時間の無駄だし、元の記事よりずっとイライラするわ。
大事なのはね、すぐに質問するとLLMは自分の声を使っちゃうんだ。でも、自分の文章から大量のデータを与えて、話し方のパターンを学習させると、もっと筆者の声に似せてくれる。Trumpのモノマネができるのと同じで、大量の例が必要ってこと。LLMは良いアウトプットを出すには大量のインプットが必要なんだよ。
AIがAIっぽいかを判断できるってのは信じないね。何度もAIが書いたダメな文章を食わせても、AIじゃないって言い張るんだから。こういう流れはPRレビューでインターンがやったような感じで、何か投げつけたくなる。どうか自分の言葉を使ってくれ。君の言葉は素晴らしいし、思ってるよりずっと良いんだよ。
GPTを使うと、AIっぽいって感じるのは本当だよね。どのAIもAIっぽい文章を出すけど、GPTが一番悪名高い。10倍はひどいね。「明らかにAI」って文章に出くわすと、「手書きしてくれたらなあ」じゃなくて、「おいおい、Claudeくらい使えよ!」って思っちゃう。(本当の解決策はベーステキストモデルだけど、それはまた別の話だね。)
だったらなんでわざわざそんなことするんだ?俺には、今まで書いたあらゆる文章で訓練された言語モデルが、耳の間に座ってるんだぜ。
みんな自分の文章に自信がないことが多いよね。でも、LLMに食わせて一貫性のある文章が出てくるなら、君の文章は十分公開できるレベルってことだよ。
いくつかのタイプの間違いを検出するのにWordよりはるかに優れてる。Wordは基本的な文法を超えたハードコードされたルールしか持ってない。LLMは意味論に基づいて動作するから、「文法的に正しいけど、文脈からして明らかに間違った言葉を使ってる」みたいなエラーも拾ってくれるんだ。
https://chatgpt.com/share/68f065f4-f5ac-8010-81c1-faf4218e5c…
https://chatgpt.com/share/68f0666a-2bf0-8010-9d35-2ac4bdc870…
この記事は2020年に書かれたものなんだ。
https://chatgpt.com/share/68f06775-c570-8010-af7b-29531a22fd…
元の記事
https://www.yourmembership.com/blog/tips-effective-board-mee…
GeminiやGrokからのリンクは共有できないけど、両方とも最初の記事はAI生成、2番目は人間が書いた可能性が高いってすぐにフラグ立てたよ。ここではChatGPTに2010年の古いPDF「97 Things a software engineer should know」の形式で書き直すよう指示しただけで、GrokにAI生成っぽく聞こえるか聞いたら(そう聞こえた)、GrokにAIの特徴を削除するよう頼んで(やっぱりemダッシュは残ってた)、それをChatGPTに戻したんだ。
https://chatgpt.com/share/68f06cec-3a20-8010-8178-a69695db16…
少し人間が編集したり、より良いプロンプトを使ったりしたら、見分けられると思う?
もし直接聞かれたら、特に面接なんかでは正直に答えるべきだね。そうすればAI使用に関する揚げ足取りは止まって、自分のスキルに集中できるでしょ。
口で言うなら自分もやれよ。情報があるのに的外れな非難する意味ないじゃん。このスレッドで著者が返信してるんだからさ。反論する必要ないし、非難は根拠なしじゃないよ。
https://news.ycombinator.com/item?id=45594554
そんなことLLMに任せるなんて無理だね。正しいことを間違ったことに変えるように説得されることの方が、本当の間違いを見つけるより多いと思うよ。まあ人それぞれだけどね。
外国人の部下がいるんだけど、Englishの話し方が個性的でよかったんだ。でも、書く文の個性がなくなってきたから、LLM使ってるか聞いたらそうだった。
ネイティブだから俺は楽だけど、彼らは大変だよね。元のスタイルに戻るようLLMの使い方は変えてくれたけど、マネージャーとして言うべきだったか今でも悩むよ。
君が自分の声を保っててくれて嬉しいよ。
LinkedInのMykola Yanchiiってプロフ、全然本物っぽくないよ!
「もっと見る」→「このプロフィールについて」で見ると怪しい点だらけ。
2025年5月参加、連絡先や写真が最近更新とかね。LinkedIn認証マークがPersonaで検証されてるのも怪しい。
Personaのサービス自体に問題があって、Cyber犯罪者が悪用してるかも。
職歴が古くても1年未満の履歴でPersonalチェックマークがあるプロフは信用しちゃダメだよ。
https://www.linkedin.com/in/mykola-yanchii-430883368/overlay…
アカウント作って、時間をかけて育てればいいんだよ。
古参アカウントはLinkedInだけじゃなく、いろんな分野で信用されるための良い指標だからね。
例えば、俺はweb.archive.orgで会社のドメインの歴史を調べたりするよ。HNでも、若いアカウント(緑色のテキスト)は、何年もいる人たちより、荒らしたりデマを広めたりすることが多いんだ。
もっとコメントを表示(2)
古参アカウントが多くの分野で良い指標ってのは、その通り。
アメリカの3大信用情報機関もこれで身元を確認してるんだよ。
居住履歴とか分散型インターネットでの存在って、偽造するのが一番難しいからね。
PSA: LinkedInにログインしててプロフをクリックすると、オーナーに訪問が登録されるから気をつけてね。
新しいターゲットを集めるのに使われちゃうかもよ。
あと、この偽名が変って言うけど、ウクライナ語の「ニコライ・ヤンチー」の音訳だよ。この名前のリアルな人もいるしね。
https://life.ru/p/1490942
設定を変えれば、誰が見たか相手にバレないように表示できるよ。
認証バッジをクリックすると、その人が職務経歴の認証を持ってるか確認できるよ。
もし認証してないなら、それは怪しいサインだね。
俺も今まで気にしてなかったけど、これからは注意するわ。
プロフィールを操作してた人がDFEしたっぽいな。だから、ちゃんとアーカイブしとくべきなんだよ。
でも、金払えばまた自分のプロフィールに誰がクリックしたか全部見れるようになるんじゃないの?
2025年にFacebookで10年以上活動してたアカウントが、いきなりBANされたり削除されたりしたやつらがお前を称えるよ、ってことかな。
DFEは「deleted everything」のことだよ。このURLで詳細が見れるよ:https://www.urbandictionary.com/define.php?term=dfe
へー、LinkedInにそんな仕組みがあるなんて知らなかったよ!これって前の雇用主がやるものなの?
なんで答えを検閲するんだよ?FはFuckingのFだよ。つまりDFEはDelete Fucking Everythingってことだろ。
UKでも同じような状況で、Digital IDがまた問題になってるんだ。EU諸国みたいに暗号署名が身元と紐付いてないから、5年分の住所履歴とか公共料金の請求書、銀行の明細、パスポート、運転免許証が必要になるんだよ。Experianとかが全部情報を持ってるし、身元調査機関もそれに頼ってるんだ。
これって正確じゃないと思うな。プライバシー設定でセミプライベートかプライベートモードにすれば、LinkedIn Premium会員のプロフィールを見ても自分の閲覧履歴は表示されないよ。でも、その大きなデメリットは、非会員の場合、自分のプロフィール解析が全く見れなくなることだね。このヘルプ記事に詳しく載ってるよ:https://www.linkedin.com/help/linkedin/answer/a568195/
俺の10年以上使ってる唯一のRedditアカウントも、内容が全部削除されて「これはエラーでした、異議申し立てが認められました」ってなったことあるよ。この先、カフカ的なBlack Mirrorみたいな信頼や評判の問題が起こるんじゃないかって心配だね。
「経験豊富なアカウントは信頼できる」って言うけどさ、Google、Ebay、Amazonみたいな大手企業はアカウントの古さとか信頼性なんて全然気にしてないんだよ。俺がトラブルになった時も、長年使ってたアカウントなのに何の考慮もされずに、Googleからは32日間ロックアウト、Ebayからは切り捨てられた。企業は顧客のことなんかどうでもよくて、儲けと法的なことしか考えてないってのが本音なんだよ。
まさにこれ。詐欺師の手口はいくつかあるけど、最終的には必ず「技術的な」面接で、変なリポジトリのコードを実行させるって流れになるんだよな。最近は念のため、ほぼ全員のLinkedInプロフィール作成日をチェックしてる。もし数年以内に作られたプロフィールなら、もうその時点でやり取りは終わりにしてるわ。
「居住歴とかネット上の存在って偽装が一番難しい」って言うけど、それってちゃんと計画すればできるよ。昔の映画か何かで、何十年もかけて架空の身分を作り上げて売るってキャラがいたし、デジタルのことなら自動化すれば簡単だろうな。
投稿者のLinkedInの投稿にある地図、これAIが作ったやつだろうな。UAEをバングラデシュに置いてるし。https://www.linkedin.com/posts/mykola-yanchii-430883368_hiri…
とにかく、面接で課題とかプロジェクトを要求するのって良くないって理由に、今回の件も追加だね。
いつか企業も、良いカスタマーサービスが実は儲かるって気づけば、めっちゃ成功するだろうにね。残念ながら、今はみんな顧客をぞんざいに扱ってる。俺、Google Fiの「Enshittification」について論文書こうかと思ってるんだよ。誰かアイデアを探してるなら、サービスってさ、実は穴場なんだぜ。
面接にはEC2インスタンスを立ち上げるだけだよ。
やばい、このチーム写真、幽霊みたいな指があるぞ。https://www.linkedin.com/feed/update/urn:li:activity:7379209…
LinkedInの会社写真見るときは、指が変じゃないかチェックしとけよ。
「アカウント作って寝かせとけ」って言うけど、それってそういう「アカウント熟成」サービスを雇うってこと?だって、3年もアカウントを更新し続けて、色々な情報も最新にして、やっと利益を得られるって、現実的じゃないだろ。
まともな政府なら、今頃は手動の身元管理とか、NSAによるソフトウェアの防御強化、独禁法、郵便銀行、自動確定申告、そして様々なデータ保護法とか、色々やってるはずなのにね。Equifaxのデータ漏洩なんて、株主は全株失うか、起訴されてもおかしくなかった。結局、企業の力に頼ってる年老いた自己愛的な指導者たちのせいで、ファシズムが入り込んできてるんだよ。