AIが書いたブログ記事を読むのは侮辱だ!その理由が深すぎる
引用元:https://news.ycombinator.com/item?id=45722069
AIが生成したプルリクエスト(PR)を読むのも同じくらい侮辱的だよ。また“dart-on-target”の絵文字を見たら…こっちは100%の脳と時間を使ってコードをレビューしてるのに、お前は同じ基準を守る気ないのか?
PRもAIにレビューさせればいいじゃん、そんな頑固になるなって。俺の職場じゃ、同僚と俺は完全にAIでPRを生成してAIでレビューしてるよ。
なんでLLMはこんなPR(とか)書き方しちゃったんだろ?LLM登場前はGitHubやRedditでこのスタイルは主流じゃなかったはずだよね?AIのスタイルって見分けやすいのが変。もしLLMが訓練中に一番よく見たスタイルを真似してるだけなら、もっと見分けにくいハズじゃない?
同僚にレビューしてもらうCopilotのPRは、まず自分で完全にレビューしてからじゃないと出さないよ。でも、それが済んでるなら、なんでダメなの?
これ全然意味わかんないし、そう思うやつはバカだよ。AIのPRが良ければレビューなんていらないはず。レビューが必要なら、AIは最初からダメなのに信用できるわけないじゃん?自分のPRをレビューするようなもんで、完全に意味がない。違うモデルを使っても解決しない。ただアホを重ねてるだけで、結果が賢くなるなんて祈ってるだけだろ。
これってコードレビューの価値をぶち壊し、レビュアーの時間を無駄にする。コードレビューは経験が伝わる場なんだよ。気の利いたコメントしても「わかんない。AIにやらせただけ」とか言われたらガッカリするだろ。「AIの出力」をレビューするだけなら、プロンプトを送ってくれた方がマシだわ。
絵文字が可愛いと思ってたミレニアル世代のヒップスターと、彼らが書いたJavaScriptライブラリの増殖のおかげだね。やがて可愛い絵文字はボットやツールが使うテンプレートに入り込み、インターネット中にカラフルなゲロ紙吹雪みたいに爆発した。この絵文字まみれのテキストを見ると、LLMじゃなくて、分厚い伊達メガネかけたきつい服着たヒップスターがSegwayに乗りながらSoy Latte飲んでる姿を思い出すよ。
完全に同意。うちのチームはgraphite.devを使い始めたんだけど、AIが生成するPRの説明がムダな内容で肥大化しすぎて、もう無視することにしたよ。問題は、コード変更から人間が読める説明を逆推論してるから、実際の変更意図を捉えられてないってことだね。
「済んでるなら、なぜダメ?」AIコードの責任は誰?選択の理由も聞けない。チームでの重要文脈が欠ける。「AIがやった」はインターンと同じ。正直に「知らない」と言った方が尊敬できる。AIはコード全体を読めても、お前は何百時間も費やしてるんだぞ。自分を過小評価するな。
AIのPRレビューは良いが、良いコードを書く文脈はない。ジュニアのように目の前の問題しか直せず、先見性はない。コードで苦戦し、学びや洞察を得てほしい。AIが書くコードは量より質だ。
コードレビューは変更内容じゃなくて、その理由や背景、そこから何を学んだかを伝えるためにあるんだぜ。現状はツールの使い方を間違ってるってこと。
コードレビューは経験を伝える場なのに、今は全然活用されてないのが残念だよね。俺はクソなスタートアップで5年間ほとんど成長しなかったけど、今のチームで丁寧なレビューを受けて、たった6ヶ月でめちゃくちゃ成長したんだ。
自分で書いたコードなら「なぜ」そう書いたか理解できるけど、AIが書いたコードだと、その「なぜ」は永遠に分からないんだ。AI自体も、訓練データにあったからとしか知らないのさ。
わかるわ。コードレビューって、実際に書いた開発者と対面でやらないと、その価値はほぼゼロになっちゃうんだよな。
LLMが特定のスタイルで書くのは、公開前にモデルがファインチューニングされてるからだよ。人間と区別できないPRも書けるし、絵文字なしのコードも書けるんだ。規制を遅らせるために、わざと世間を怖がらせないような「毒された」モデルを出してるだけだよ。
おいおい、AIでPRレビューもできるの知ってるか?俺の職場じゃ、PRは全部AIが生成して、AIが全部レビューしてるんだぜ。
このコメントが本気なのか、それともパロディなのか、続きを読んで判断しようとしてるところ。
この(絵文字を使う)スタイルって、Apple製品から始まった印象なんだよな。LLMが登場するずっと前から、JavaScriptフレームワークとかのコマンドラインアプリで、ターミナルで絵文字が表示されてたのを覚えてる。もしかしたらもっと別の所が起源かもしれないけど。
公平に言えばさ、AIツールが登場する前から、変更の目的や解決策のアイデアを説明せずに大量の変更を出す問題はあったんだ。AIツールはそれを単に悪化させただけだよな。
AIがコードを書いた理由が分からないって意見には完全に同意できないな。俺がAIに指示したから、俺は「なぜ」そうしたいか分かってる。もしLLMにコードの書き方を任せっきりなら、それは使い方を間違ってるし、理解できないのは当然だよ。
LLMはただのパターンマッチで、人間より速くテキストを出せるだけ。頭を使う部分はまだ俺の仕事で、タイピングが減っただけさ。
これはあくまで推測だけど、AIが書いた文章に絵文字が付いてると、人間がレビューする時に正しいって思いがちなんじゃないかな。
LLMは、人間の手で出力レビューをして微調整されてるから、無意識に正しく見えるように訓練されちゃったのかもね。『Boom! タスク完了!他に何か手伝おうか?』みたいなメッセージで、無意識に『正しい』って思っちゃうんだ。
言いたいことは分かるけど、自分のPRをレビューするのはすごく良いことだよ。
AIが作ったPRをレビューもせずに提出して、人間が確認してくれるのを期待するのは失礼だけど、レビューアが見るであろう画面を開いて確認しないのも同じくらい失礼だね。俺はいつもそうしてるし、コードに没頭してる時には見えなかった小さな発見がよくあるんだ。
絵文字を多用するのは、”awesome”という言葉に夢中なJavaScriptライブラリの作成者たちと、より広範なインクルーシビティ運動が原因だと思ってたんだ。
なぜか、みんなREADMEに絵文字をたくさん使うと、ドキュメントがもっとインクルーシブになるって考えてるみたいだね。
うん、PRテンプレートの”何が変わったか”っていうセクションは本当に難しいよね。君の意見には賛成だけど、俺はたいてい、PRテンプレートの期待に応えるために、変更内容をすごく凝縮した要約を載せるようにしてるよ。悪くない妥協点だと思ってる。
> なぜか、みんなREADMEに絵文字をたくさん使うと、ドキュメントがもっとインクルーシブになるって考えてるみたいだね。
なんでそう思うの?俺はアクセシビリティコミュニティ(インクルーシブってそういう意味?)に関わるようにしてるけど、絵文字よりテキストを推奨する人なんて聞いたことないよ?
ChatGPTが出る前の、GitHub Actionsを学んでた時(俺のブログだと2021年だった)、最終段階で”done”ってリンゴの絵文字があったのを覚えてるよ。
他にもあったと思うけど思い出せないな。
でも、過度な絵文字やたくさんの表、そして単に冗長な表現は、今となっては(AI生成の)兆候だってのは同意だね。
> AIのPRが良いものなら、レビューなんて必要ない。
え、じゃあ、役立つAIの最低条件って、常に完璧で、人類史上最高のプログラマーであるってこと?
コーディングエージェントは基本的にインターンみたいなもんだよ。バカなミスもするけど、95%正しくても開発プロセスにはめちゃくちゃ価値がある。
人間がAIツールを使って一般的なミスをすぐ見つけて修正を提案できる。これは全然問題ないし、むしろ良いことだ。
AIが生成するPRの要約は、俺は全面的に支持するよ。それはすごく役立つツールの使い方だと思うね。
自分のPRにハイパーリンク付きの参照を付けるために時間を使うなんて、絶対にしないから。
これは疑問だね。俺は大規模モデルでAIのアノテーション作業をしたことがあるんだ。
俺の仕事の一部は、2つのモデル出力を比較してどちらが良いか評価し、詳細な基準でその理由を説明することだった。(HFの部分だよ。)
もし後でモデルを『毒する』ようなことをするなら、彼らがやってる高価な作業を無視してることになるんだ。
LLMが登場する前から、ドキュメントや、うーん、CLIプログラムの出力で絵文字が人気になってたのを覚えてるよ。
このトレンドはJavaScriptエコシステムから始まったって確信してるんだけどね。
AIサービス提供者はがっぽり儲けて笑いが止まらないだろうね。
これって単なる逸話だけど、2015~2020年頃に流行ったミームなんだ。特定の仲間内での情報共有や仲間意識の証であって、情報アクセシビリティ向上への真剣な試みじゃないと思う。僕の意見は、”インクルーシビティ”コミュニティとアクセシビリティコミュニティはあまり重ならないっていう君の意見と一致してるよ。後者は応用科学、前者は人文・社会理論が中心だね。
もっとコメントを表示(1)
個人的にはブログ記事がAI生成かどうかなんて気にしないな。大事なのはコンテンツだけ。僕はChatGPTで色々学んでるから、誰かが面白いプロンプトでChatGPTに調べさせた内容をまとめて共有してくれたら、それは僕にとって意味のあるコンテンツだよ。
記事で”文法修正とかに使っちゃダメ”って言ってたけど、それならブログ記事を手書きする方がもっと人間的だよね。これは良い議論だとは思えないな。執筆ツールは思考伝達を簡単にするべきで、それ自体に価値があるんだ。
LLMに”手直し”させるだけでも、テキストにLLMの”声”が乗っちゃう。一般的にその声は望ましくない。LinkedIn、HRからの警告、アフィリエイトマーケティングの詐欺師みたいな連想があるからね。”中古車販売員みたいに話す”現代版だよ。みんなが気づくわけじゃないけど、よく考えた方がいい。
>僕はChatGPTで色々学んでる
なんでその出力を信用するの?Chatbotはすごく不正確だから、わざわざ自分で間違った情報を仕入れに行ってるようなものじゃない?
>ブログ記事を手書きする方がもっと人間的
”Blog”は”web log”の略だろ。ウェブ上にあるならデジタルだし、ブログが手書きだった時代なんてないよ。
>執筆ツールは思考伝達を簡単にするべき
LLMにテキストを吐き出させてるなら、それは君の考えじゃないし、君が書いてるわけでもない。うまく伝達してることにならないよ。プロンプトをそのまま人に見せればいいんじゃない?
Chatbotは、幅広い研究分野のトピックに関して、君が質問できる人の95%よりも信頼できるよ。
僕もChatGPTの”声”は好きじゃないけど、HRの”声”とは全然違うよ。LLMの文章は能動態で明確なトピックセンテンスが多いから、企業特有の言い回しよりは10倍マシな文章だね。
ああ、それはCoke ZeroとDiet Cokeみたいなもんだね。風味は10倍、カロリーも10倍って感じ。
”僕の声で書いて”って言うのは全然難しくないよ。特に君の文章をたくさん学習したLLMならね。
みんな、自分で読みもしないLLM製のブログ記事やREADMEを出しちゃって、それがHacker Newsのトップに上がってる。元の作者の面白いアイデアもLLMが消し去って、何が本物で何がゴミか分からなくなってるんだ。自分もコンテンツが大事だけど、LLMを使ったブログ記事やREADMEはフィルターをすり抜けて、どんどん質の低い情報が目に入ってくる。特にひどいのは、良い内容をLLMに入れたのに、出てきたのはゴミだったってケースだね。LLMを使いつつも、ちゃんと自分で内容を精査して発信する人もいるんだろうけど、最近はそういう粗悪なコンテンツに溺れそうだよ。
”ブログ記事を手書きする方が人間らしい”って意見もあるけど、それが良い議論だとは思わないな。文章作成ツールを使えば考えが伝わりやすくなるし、それ自体が価値あることだよ。手書きだろうがPCで打とうが、読んでほしい文字を生成してるのは自分だ。でもAIに書かせたら、それは自分の文字じゃない。手書きかタイピングかの違いより、こっちの方がずっと重要な区別だよ。”あなたの考え”って?いや、違うでしょ!AIに記事を書かせたら、それはあなたの考えじゃないんだから。それが問題だよ!
法律を知りたいなら弁護士に聞くし、配管なら配管工に聞く。文章について知りたいなら作家に聞く。その道の専門家は、95%の一般人よりもずっと優れてるんだ。何百もの専門職があって、ほとんどが習得に一生の大部分を費やすし、毎日新しい洞察がある。その全ての情報をAIに突っ込んだからって、深く研究してきた1%未満の人たちを上回るなんて期待できないよ。映画”Idiocracy”が出た時、すごく面白かったけど、今は笑えないね。本当にバカをトップに据えてて、どういうわけか「質の量」が「質の高さ」を凌駕すると思ってる。今年出版される科学論文のうち、AIが生成した間違いだらけの粗悪なものがどれくらいあるか想像するだけで恐ろしいね。きっとかなりの数になるだろうな。
”LLMを使って文章を吐き出させたら、それはあなたの考えじゃない”って言うけど、僕が文章に入れる考えは、それが書かれている文や言語とはほとんど関係ないよ。完全に独立してるわけじゃないけど、考えが文章(つまり言語)に完全に依存してるって主張するのはナンセンスだ。”プロンプトを公開すればいいじゃん”って?たくさんの変更履歴を見ても価値ある?同じ論理なら、すべての下書きも公開すべきってことになる?
”読んでほしい文字を生成してるのは自分だ。AIに書かせたら、それは違う。この区別は、他のどんな違いよりもはるかに重要だ”って意見だけど、どうやら多くの人にとってはそうじゃないみたいだね。
うん…聞くべきは、その上位5%の専門家だよ。もしあなたが適当な素人に専門的なアドバイスを求める癖があるなら、バカなchatbotがアップグレードに見えるのも無理はないね。
質問に答えてくれる時間のある専門家にアクセスできるなら、わざわざAIに聞かないはずだよ、きっと。
1食あたり0.4カロリーって、四捨五入でゼロになるけど、全然「ほぼゼロ」じゃないって言いたいんだよね。
何を信じるか自分で判断するようにしてる。人間が書いたものが必ず正しいってわけじゃないし、ChatGPTは情報源を確認できるから、たまに事実確認に使えるのがいいんだよな。
0.4kcalが「全然ほぼゼロじゃない」って、どういう意味?150kcalの普通のコーラと比べたら、ほぼゼロじゃない?
正直、最初から入力がゴミじゃなかったって仮定してるよね。気づくのは、それが明白だからかも。機械翻訳も、おかしいところが明白じゃないと気づかないのと一緒だよ。
LLMで文章作るのは自分の考えじゃないし、コミュニケーションできてない。プロンプト渡せばいいじゃん。
バッハのPrelude in C from WTCIも、つまらないコード進行で同じメロディパターンを繰り返してるだけだろ?C言語のforループで書けるわ。負け犬!
バッハだってコピペが多いんだから。LLMブログが好きなら、Robo-Bachでも聴きながら俺に低評価押しとけ!
「思考は言語と関係ない」なんて嘘だ!言葉にする過程で、曖昧さ、トーン、前提を選ぶのが人間的で大事なんだ。
それができないなら読む意味ない。AI肯定派は、文脈なしの情報抽出が可能だと誤解してるよ。
「Lord of the flies」を短くまとめると、莫大な情報が失われるだろ?テキスト圧縮以上の要約は、情報や文脈を失うってことだよ。
俺が書いたブログ記事だって、誰も読んでくれないんだよな。
好奇心で聞くんだけど、SF小説がAIか人間か、どっちが書いたか気にする?
「ブログが手書きだった時代はない」って言うけど、俺は手書きのJPEGスキャン画像や筆記体フォントのブログを見たことあるよ。
有名な作家で、黄色いリーガルパッドに筆記体で原稿提出してた人がいたな。編集者は大変だっただろうね。
s/important/significant/をs/重要な/意味深い/にするって言えば、俺の言いたいこと、もっとハッキリするかな。記事が人間かLLMのどっちが書いたかなんて客観的にどうでもいいって言える気はしないけど、手書きとタイピングの例とは違って、少なくとも「種類の大きな違い」があるのは誰でもわかるはず。それを認めないやつは知的にも誠実じゃないか、LLMに思考を乗っ取られてるかのどっちかだよ。この「種類の違い」ってのは、道具を使って椅子を作るのと、店に行って買うのくらい違うんだ。
ChatGPTがあるんだからさ。(本を読むなって言ってるわけじゃないけど、マジで、ショートカットってあるんだぜ)
ChatGPTとちょっとしたアイデアを出し合うのは楽しいけど、他の人がChatGPTで作ったものなんて読みたくないんだよね。LLMに関するバカげた行動の多くは、「プロンプトを共有する」って戦略で解決できるんじゃないかな。誰かが箇条書きからメールを作って送ってきても、箇条書きだけ送ってくれれば、俺がLLMに渡せばいいし。面白いプロンプトに基づいたブログ記事?だったらプロンプトを共有してくれよ。結局テキスト補完なんだからさ、読者がプロンプトの作者よりそのトピックに詳しければ、プロンプトを調整することだってできるんだ。そうしない唯一の理由は生成のエネルギーを節約することだけど、トレーニングに比べたら推論って安くない?それに地球はもうどうせダメだろうから、楽しんで乗っかるのもアリだ。
俺はこういうのを白黒はっきりさせるのが好きじゃないんだ。一番良い質問は、編集プロセスの結果を自分が所有しているか、ってことだと思うね。この記事はなんで存在するの?君独自の視点を表してる?最高の君が、自分の洞察を世界と共有しようとしてる?もしそうなら、公開する価値はおそらくあるよ。紙とインクを使ったか、テキストエディタか、スペルチェッカーか、LLMに助けてもらったかなんて気にしない。一方で、もし誰でもLLMに全く同じテキストを作らせられたり、読者に批判的思考を丸投げしているなら、うん、そりゃ軽蔑されても仕方ないと思う。それはコンテンツファームのSEOスパムと何ら変わらないよ。ちなみに、俺は昔ながらのコンテンツクリエイターって言われるタイプ。Gen AIには複雑な気持ちがあるって言ったら控えめすぎるな。でも、これが他人に要求する一番筋の通った方法だと感じるんだ。時間を無駄にしたり、インターネットを汚染したりする人には腹が立つけど、間違った方法で役立つコンテンツを作ってる人には腹を立てることはできないと思う。
全くその通りだね。もしそれが実質的に書き手自身の考えや言葉なら、LLMだろうと、オートコンプリートだろうと、スペル/文法チェッカーだろうと、友達だろうと、同僚だろうと、Fiverrの誰かだろうと、協力したって誰が気にする?これはただ、不満に思うための恣意的な理由を探してるだけだよ。もしそれが実質的に彼ら自身の文章やアイデアじゃないなら、そりゃそんなふうに偽って個人の著作権を主張すべきじゃない。それは全く別の問題だ。でももし誰かが「GPT-5でこのニッチなトピックを50個のプロンプトで深く掘り下げてみたら、面白いことを学んだよ。以下に引用するレスポンスは、俺がファクトチェックしたソースに基づいている」とか、「r/AskHistoriansに投稿したら、u/jerryseinfeldからこんな魅力的な返答が来た」って共有したいだけなら、俺はそれを尊重できるね。どっちにしても、誰かが質の低いコンテンツを投稿してるなら、使ったツールじゃなくて、作者を責めるべきだ。OOPは「vimで書かれたブログ記事しか読みたくない。emacsユーザーはインターネットから消えろ」って言ってるようなもんじゃないか。俺にはゲートキーピングする意味がわからないんだ。もし誰かが価値あるものを共有したいなら、利用できるあらゆるリソースを自由に使って、提供される価値を最大限に高めるべきだよ。もしAIを使うことで、文法的・事実的な間違いだらけの長文の下書きが、より読みやすく情報密度の高い、半分の長さで不正確な点の少ない記事になるなら、AIを使うべきだ。
俺の経験だと、AIの声がすぐにわかる文章は、何も新しい情報を提供してないし、ほとんどの場合、積極的に間違ってるか、自分を重要に見せようとしたり、オーナーが利害関係を持ってる何かを売りつけようとしてるんだ。これが他の人にも当てはまるかはわからないけど、個人的な経験では、読んで時間を無駄にしなきゃよかったって思うようなサインになることがほとんどだね。決して本質的に悪いわけじゃないんだけど、俺にとっては有用な品質基準になってるんだ。
もっとコメントを表示(2)
それが俺の本質的な見解だったね。問題はAIが使われたかどうかじゃなくて、読者がAIが使われたことを正確に推測できるかどうかだ。誰かがAIを巧みに使えば、彼らが言わない限り、君は決して気づかないだろうね。
この比較は以前にも見たことがあるような気がするけど、LLMは、使うならオートチューンのように適用するのが一番いいよ。大手(そしてインディーズの)レーベルからリリースされるボーカル録音の99%には、ある程度のオートチューンが適用されてるんだ。正しく行われれば、気づかない(1dBのコンプレッションやわずかなEQの変化を聞き取れるベテランエンジニアなら別だけど)。それがMAXまでかけられてたり、手抜きで使われたりするときだけ、全体的な製品を損なうんだ。
「間違った方法で役立つコンテンツを作ってる人には腹を立てることはできないと思う」って?じゃあ盗作はどうなの?もし誰かが、役立つとは言えるけど半分を他の人から盗作したブログ記事を適当に作ったとしたら、それは君にとって許容できる?それが機械化されてる場合だけ許容できるの?GenAIに反対する議論の一つは、その出力が基本的に他のソースからの盗作だってことなんだ。もちろんGenAIの場合は単純化されすぎてるけど、他人のコンテンツを大量に吸い上げて、そこから「学んだ」ことに基づいて別のコンテンツを(大規模に)生成するのがGenAIのやることだ。GenAIツールの環境への影響や、GenAI企業の慣行(そしてそれらの企業の動機)は、それをたくさん使おうが少し使おうが同じままなんだ。もしGenAIの倫理に異議があるなら、そりゃ「二元的な見方」になっちゃうだろうね。悪魔との取引は悪魔との取引だよ。「ちょっとサタンと関わっただけだよ」なんてのは、GenAIの現状に断固として反対する人々にとっては、何の慰めにもならないんだ。俺のGenAIに対する見方は「悪魔との取引」よりはもう少しニュアンスがあるけど、そんなに多くはない。でも、俺以上に反対する人々もいることを尊重するし、彼らの視点からすれば、どんな使用も多すぎるってことに同意するよ。
俺のGen AIに関する個人的な考えは複雑なんだ。俺の公開作品の多くがGen AIに吸い上げられたのに、それから何の本当の利益も得てない。でもテキストに関しては、もうその議論には負けたと思うね。一般の人にとってLLMは便利すぎて、「人間が本で訓練するのはOKだけど、ロボットはダメ」みたいな、最終的には曖昧な議論でLLMを拒否するのは無理だよ。これ書くのは辛いけどさ。もうその船は出航したと思う。音楽や視覚芸術とかでは、まだその議論をするチャンスがあると思うな。そのほとんどは実用的で、ほとんどの人はどこから来たかなんて気にしないけど、手作りの品が大量生産品よりも価値があるって認識する文化的な遺産は残ってるからね。
AIがNFTや仮想通貨みたいに主流になるかは疑問だね。俺はセルフレジも使わないし、人間が仕事を失うくらいなら、ちょっと待ってでも人間に仕事があってほしいんだ。GenAIやLLMが絶対じゃないって思うよ。
「もう手遅れ」って意見、俺もそう思うよ。だから自分の作品は全部ネットから消したんだ。AIの悪用から作品を守る効果的な方法なんて、ネットにはないからね。
LLMはテック業界以外じゃ、普通の人には役立たないよ。
「人間が本で訓練するのはOKだけどロボットはダメ」って変な話だよね。人間は本を読んで学ぶし感情も感じるけど、LLMは帰属表示なしで模倣するために訓練するんだ。全然違うことだよ。
盗作って良い例えだよ。学生は何か学んだって主張するかもしれないけど、基本的にはダメだろ。LLMが作ったものも、同じ理由で拒否されるべきだと思うんだ。
AIっぽいって感じたら、すぐに「戻る」ボタン押しちゃうんだよね。AIかどうかわかんなくても、単に文章がひどかったら結局「戻る」ボタン押しちゃうから、どっちにしても同じことさ。
AIには「不気味の谷」があるけど、俺たちが読んでるものの多くが実はAI生成で、全然気づいてない可能性も十分あるよね。この記事だって、AIが書いたって言われてもおかしくない(違うけどね)。
「もし見分けがつかないなら、本物であることって重要じゃないってこと?」っていう哲学的なテーマへの入り口だね。
俺は重要だと思うよ。ロボットがオランダの巨匠みたいに描いても、それは本物の巨匠じゃないし。
完璧なレンブラントのロボット模倣より、村の店で描いてるおじさんの船の絵の方が良いな。意図って大事なんだ。書くことって人間特有のコミュニケーションだから、それを機械に任せたり、機械が書いたものを読んだりしたくないんだよね。
ピアノ習ってるんだけど、音楽でも同じことを感じるんだ。機械が完璧に演奏しても、何かが物足りないんだよね。マスターピアニストのライブ演奏は、小さなミスや解釈があるからこそ、ずっと楽しめるし、何ヶ月も練習したって知ってることも深みになる。
このコメント、ピアノの例えがすごく良いね。俺も下手でも自分で弾くのが楽しいんだ。プロのホッケーを見るより、自分でやる方が楽しいのと同じだよ。旅が大事なんだ。スター・トレックTNGのデータ少佐も、バイオリンやシェイクスピアの朗読で、完璧な技術だけじゃダメで、人間的な感情が深みを与えるって話してたよね。
詩の引用だね。「人間の手の届く範囲は、掴んだものを超えるべきだ。さもないと、天国は何のためにある?」って詩だよ。AI記事へのコメントとして、示唆深いね。https://www.poetryfoundation.org/poems/43745/andrea-del-sart…
『The Matrix』(1999)で主人公が赤いピルを選んだ理由もこれだよね。厳しい現実と向き合うか、幸せな幻想に戻るかの選択。AI記事に納得感を持たせる例えだね。
サイファーのキャラも悲劇的だったよね。彼の現実がひどすぎて、意識的に嘘の人生に戻ることを選んで、その選択自体を忘れ去るって。本当に『The Matrix』は色々な意味で最高だよね。
続編が作られなかったのは残念だよね(皮肉)。
俺もほとんど同じスタンスだよ。「これ面白くないな」って思ったら、AIが書いたかどうかは気にしない。面白ければ読むし、面白くなければ読まない。AIってバレバレな時もあるけど、結局は内容が全てだよね。
俺もAIについて文句を言ってるブログ記事には同じスタンスだよ。この話題についてはもう言うことないって感じ。意見の対立線は引かれてて、あとはみんながどう行動するかを見るだけだね。
文法修正や翻訳こそがAIの最高の使い方だと思うな。Spell CheckersやTranslation Integrationsはずっと前からあるし、AIでさらに便利になっただけだろ?特にグローバル市場で働くNon-Native Speakersにとっては必須ツールだよ。使わない理由はないよね?
文法を直すだけじゃなくて、なんかスパムっぽい響きになっちゃうからダメなんだよ。
いや、そんなことないでしょ?文法修正だけお願いすれば、ちゃんとしたモデルなら余計なことせずに直してくれるよ。俺の経験ではね。大幅な書き直しを頼まなければ大丈夫だし、もちろん結果は自分で確認する必要はあるけど。
もしその言語でちゃんとコミュニケーションできないなら、AIがbotみたいに聞こえないかどうかなんて、どうやって評価するんだい?