AI時代にマジでヤバいスキル低下問題!放置すると取り返しつかないぞ
引用元:https://news.ycombinator.com/item?id=43791474
教科書の問題を写真に撮って、答えや議論がなくても、LLMに聞けば理解を深められるってことだね。自分の解答が正しいかとか、どう検証すればいいかとか。LLMはただの後押しで、結局は本人次第。学びたいって気持ちがあるなら最高じゃん!無料でスキルを身につけるのがこんなに簡単になったんだから。でも、見せかけだけでごまかしたいなら、脳みそ腐るのがマジで早くなるよ。
俺たちはAIの最初のユーザー世代だよね。LLMに適切な質問をするスキルはもう持ってる。昔ながらの自学の経験もあるし。だから、スキルが衰えないように気をつければいいだけ。でも、AIが当たり前の世代はどうなるんだろう?AIに頼りっぱなしで、自分で考える経験を積まない人が増えて、世代的なスキル低下が起こる可能性も十分あるよね。
今あるAIが最悪の形だってことだね。これからどんどん良くなるんだから。そうなると、昔ながらの自学はマジで意味なくなるかも。
俺たちはインターネットと一緒に育ったけど、今の若い世代は苦労してる。写真の発明後も同じで、ポスト真実で大騒ぎになってるし。解決策は教育システムを変えること。デジタル衛生を教えるべき。なんで今でもラテン語を教えて、Pythonを教えないんだ?極端な例だけど、Pythonを、テクノロジーとうまく付き合うために必要なもの全部に置き換えて考えてみて。
結局は本人のやる気次第ってことだよね。やる気がある人とない人の格差が広がるだけ。やる気がない人はさらに楽をして、何も学ばなくなる。やる気がある人は、もっと効率的に学べるようになる。良いLLMがあるおかげで、今まで面倒だったことにも挑戦できるようになった。自分に合ったレベルで、好きな形式で説明してくれるから。仕事以外でも、砂糖が食品を保存する仕組みとか、ちょっとした科学の雑学も気軽に調べられる。以前ならそのままスルーしてたような好奇心も満たせるようになった。
LLMに異議あり。ひどい間違いが多いし、説明を読んだだけで学んだ気になるのは危ないよ。問題から解決策を自分で考える過程こそが学びなんだ。説明はただの解決策の描写にすぎない。言葉を知ってるだけじゃ、学んだことにはならない。それは学習のシミュレーションだよ。しかも、LLMの説明がいつも正しいとは限らないから、間違ったことを覚えてしまうリスクもある。
テクノロジーは範囲が広すぎて、従来のカリキュラムでは全部教えられないからってのも理由の一つかも。何が重要かを決めるのも難しいし、時代によって変わるしね。
もうすでに世代的なスキル低下は起きてると思う。若い世代はキーボードで文字を打てないし、ワープロソフトの使い方も知らない。ファイルの保存方法も知らない人も多い。おじいちゃんおばあちゃんと同じように、基本的なPC操作から教える必要があるんだ。“テックに詳しい”ことと“テックを使いこなせる”ことは違うってことだね。
教科書の問題ね…答えはどこにでもあるけど。自分で考えて答えを出すのと、説明を読むだけじゃ、脳の神経回路の繋がり方が違うんじゃないかな?
最近、サイドプロジェクトで新しいクラウドフレームワークを勉強してて、長年そのフレームワークを使ってるお父さんに聞いてみようと思ったんだ。何かアドバイスをもらえるかなって期待したんだけど、「DeepSeekって結構いいよ。もう試した?」って言われただけ。だからDeepSeekを使ったら、1日でプロジェクトの25%が終わった。でも、プログラミングが全く楽しくなかった。ただの作業だった。しかもサイドプロジェクトなのに。LLMの方が、エンジニアの父親よりコードの話に興味を持ってくれるみたい。だから、浮いた時間で楽器を練習するわ。「趣味としてのプログラミング」は、何か作りたいアプリがある時だけにする。
ちょっと気になるんだけど、これって全体的に危険じゃない? LLMって、もっともらしい嘘をつくのが得意だから、それを使って学んでる人はどうやって騙されないようにするの?初心者なのに、LLMの’知恵’だけを頼るって、災難のもとじゃないかな。
その意見は違うと思うな。もしみんなに教えるTech系の何かを選ぶなら、Pythonはかなり良い選択肢だよ。完璧な解決策はないけど、不完全な試みでも、何もしないよりはマシだよ。
もし、しつけがなってない人がツールを自分を傷つけるような使い方をする可能性があるなら、ツールを作るのを避けるべきなの?
そうは思わないな。写真と同じだよ。
https://en.m.wikipedia.org/wiki/On_Photography
もし盲目的に記号を信じるなら、それは危険だよ。でも、あり得る答えとして扱うなら、問題ない。潜在的な検索空間の領域を理解し、答えをキュレーションし、生成された情報を検証するのは、依然として自分の仕事だよ。楽な方法はない。LLMは生活を楽にするために作られたんじゃない。意味の創造という重要なことに集中できるように作られたんだ。
大学で言語を教えてるんだけど、丸暗記翻訳に’助け’を求める学生も同じように考えてるよ。「自分の訳をチェックするために翻訳を使ってるだけ。提出するのは自分の訳だ」ってね。でも、初めて読む文章を翻訳させると、翻訳を使わせないから、どうすればいいかわからなくなるんだ。これらの学生の中には、嘘をつく人もいるけど、そうでない人も多い。自分の提出物が自分のものだと本当に信じてるんだ。これらのツールは脳を腐らせるし、本当の勉強の妨げになるよ。
普通の人が使うコンピューター環境で動かないから、悪い選択肢だと思うな。Pythonアプリを書いて、普通の知り合いに渡しても、動かすことができない。スマホでも、ウェブブラウザでも動かない。だから、Tech系じゃない人に、自分の仕事を強化したり、渡したりするために、Pythonを教えるのは難しい。
多くの社会システムが、それに対応できてないと思うな。
採用プロセスはAIを考慮してないから、優秀な人を見抜けないだろうし、才能を失うだろう。
警察は、サイバー詐欺に関する苦情に対応できないだろう。Techに疎い人が、匿名のLLMシステムに騙されるから。
大学や学校は、LLMが作成した課題を提出する学生に対応できないから、教育目標を達成できないだろう。
政治システムは、FBのような非倫理的なオンラインエンターテイメントプラットフォームを使った扇動的なキャンペーンに対応できない。
それらは全部、特定のIT関連のスキルだよ。もし次の世代がそれらの方法を知らなくても、それは必要がないからだよ。できないからじゃない。
>これからもっと良くなる
この仮定を強調したい。なぜなら、それは真実の記述ではなく、仮定だからだ。一つには、AIの現在の技術が、あなたが言ってる’もっと良くなる’までスケールするようには見えない。同じアルゴリズムにお金を注ぎ込んでも、過去に見られたような飛躍的な進歩は生まれないんだ。AIプロバイダー企業は無限に成長できる企業ではないかもしれないし、未来の成長という考えに基づいて自由に株を印刷できなくなったら、財布の紐を締め、実際にコストがかかる金額を請求し始めるかもしれない。昔ながらの学習モデルは、しばらくの間、価格競争力を維持するだろうと確信している。
一部の学生はズルしてるかもね。でも多くは違うと思うよ。もし最終的な課題をLLMにやらせてるなら、それは全部ごまかしだよね。気づいてる人もいれば、そうでない人もいるだろうけど。
課題が自分のものだって本当に信じてたり、自分が本当にやったと思ってたり、言語を学んでると思ってる人もいるかもね。でも実際は違うんだよね。\nLLMを「問題の理解が足りないところを教えてくれるか」「自分の解決策は妥当か」「どう検証できるか」を確認するために使う、っていう明確な意図について話してるんだ。先生は、LLMが自分の代わりになるように使うものじゃないってことを生徒に示す良い機会だよ。LLMの使用を禁止するのは現実的じゃないから、健全な関係を築くように促す方がいいよね。\nそれに、LLMは万能薬じゃないし。言語学習には向かないかもしれないけど、それが全ての学習に悪いってわけじゃないよ。\nガイドとして使うなら良いけど、代わりにするなら脳みそが腐る一方だね。ナイフが人を癒したり傷つけたりするように、LLMも学習に使えたり、ごまかしに使えたりするんだ。大切なのは自分自身を知ることだね。
AI好きってわけじゃないけど、ちょっと気になるのは、AIをヘルパーとして使うために必要な経験を積む人が減って、AIに頼りっぱなしになることで、将来的にスキルが低下する可能性があるってことだよね。
家畜の世話とか、豚や牛をさばく準備とか、全然知らないんだよね。学べばできるけど、楽な方を選んで肉屋から買うだろうな。もっと技術的な例で言うと、マザーボードから起動できるOSを自分で作る方法を学ぶ必要はないし、学んだからって、k8sクラスターをデプロイしたり、アプリをコーディングしたりするのをやめる理由にはならないよね。
学校はずっと前からカンニングと戦ってきたんだから、持ち込み禁止の試験が普通になってるでしょ。
人生で初めてプログラミングが全然楽しくないって思ったんだ。
履歴書のためだけに最新技術を学ぶのが楽しいの?もし最新の$LATEST_FADの複雑さを学ぶのが楽しいなら、AI時代に仕事を見つけるのは難しいと思うよ。アルゴリズムとかデータ構造とか、それが実際にどう使えるかを学ぶのが楽しいなら、AI時代でも引く手あまただよ。
教科書の問題を写真に撮ればOKってことだね。\nその通り!LLMは独学者の夢だよ。僕は物理の本を読んでて、問題につまずいたんだ。そしたら、その本の説明が下手で、ChatGPT+を使って分かりやすい解説にたどり着いたんだ。問題の言い回しが悪かったこともAIが教えてくれたし、Latexのドキュメントまで作ってくれたんだ!それに、人に迷惑かけるのを気にせずに、納得いくまで質問できるしね。だから、僕にとっては、AIは脳みそを腐らせるんじゃなくて、パワーアップさせてくれるものなんだ。本当にすごい技術だと思うよ。
もうどうでもいいんじゃないかな。AIがプログラマーとかエンジニアに取って代わるって意味じゃなくて、それが現実なんだよ。GPSが紙の地図のナビゲーションスキルに取って代わったみたいに。
嘘ってすごく便利だよね。どんな問題でも解決してくれる魔法みたいなものを、子供に使うなってどう教えるの? C.K. Louisが言ってたけど、嘘をLLMに置き換えても、負け戦にしかならないと思う。
Jaron Lanierはファイルがコンピューティングに不可欠だっていう考え方を批判してたんだ。
キーボードで入力したり、ファイルを使ったり、ワープロで書いたりするのは、たまたま身についたスキルであって、本当に必要なスキルじゃないんだ。筆記体みたいなもので、僕らはそれを学んだから、みんなも当然そうすべきだと思って、「最近の子供たちは筆記体を使わないなんて嘆かわしい」って言うんだ。でも、子供たちは必要ないんだよ。だって、ファイルがなくても、少なくともユーザーに見えなくても、十分なコンピューティングシステムがあるからね。\nAIなしでコードを書いたり理解したりすることが、今日のアセンブリ言語みたいに、たまたま身についたスキルになるかもしれないね。将来的には必要なくなるかもしれない。
ほとんどの人は、検証をちょっとでもサボるチャンスがあればサボるだろうね。それが一番怖い。
先生は、LLMが自分の代わりになるように使うものじゃないってことを生徒に示す良い機会だよ。LLMの使用を禁止するのは現実的じゃないから、健全な関係を築くように促す方がいいよね。
LLMの使用について生徒と議論するのは絶対に避けたい。そんなことに時間を使いたくないよ。教育者は、生徒の代わりに宿題をやるツール(つまりカンニング)の使用を禁止すべきだし、禁止しなければならない。\nLLMは学習にとって常に悪いものだよ。絶対に。精神的な努力を肩代わりして、ショートカットしてしまうからね。
GPSで地図スキルが衰えるって話だけど、ちょっと違う意見。うちの親父はGPS世代じゃないから、運転しながらナビを見るのが苦手。でもGPS世代は、運転しながらナビの指示を処理するスキルを身につけてるんだよね。これは練習が必要で、最初は間違ったラウンドアバウトに出たりもしたけど。今じゃGPSなしでタクシーとか運転できないでしょ?だから、スキルが下がったんじゃなくて、レベルが上がったんだと思う。AIとプログラミングも同じで、失われるものばかりじゃなくて、AIをどう使いこなすかっていう新しいスキルが生まれてるんじゃないかな。
もっとコメントを表示(1)
自動運転の時代には、車がキルしようとする0.1%の時間に、ちゃんと対応できるスキルが必要になるね。
コメントのAIを“インターン”や“新入社員”に置き換えてみて。そしたら、AIを使うには別のスキルが必要だって気づくはず。マネージャーが違えば、同じチームでも成果が全然違うでしょ?それと同じで、AIを使いこなすスキルを学ぶ価値はあるんだよ。
LLMを使ってて気づいたのは、自分の意図を明確に説明する必要があるってこと。皮肉なことに、LLMを使うことで、以前よりもしっかり考えるようになった。LLMはコードを書くのを早くしてくれるけど、同時に質の低いコードも早く作ってしまう。だから、システム要件を詳細に説明する必要がある。Rustみたいな言語だと、構文を忘れてしまうかもしれないけど、より抽象的なレベルでシステムを理解する必要があるんだよね。
文章を書くことは、思考を整理するのに役立つよね。業界では一般的じゃないのが残念だけど。「ハンモックタイム」は、プログラマーがやるべきこと。前もって計画することで、後々の修正コストを減らせるのに、なぜか軽視されてる。AIが人間のプログラマーに勝ってしまったのは残念だけど、自動化されるのも仕方ないのかもね。
ハンモックタイムは、人によっては考えすぎになっちゃうこともあるから注意が必要。大事なのはバランス。最近は、最初にじっくり考えるよりも、行動しながらフィードバックを得る方が多いよね。LLMは、コードを書くよりは早いけど、自分の頭の中で考えるよりはアクティブっていう、いい中間地点なのかも。
優秀なソフトウェアエンジニアはみんな知ってることだけどね。使わない言語の構文を気にする必要はない。参考書があるから。それよりも、問題を解決する能力や、正確な解決策を定義する能力を高めるべき。コードを書くのは、それを翻訳するだけ。重要なのは、それが全ての場合でうまくいくか?効率的に動くか?他の人が理解しやすいか?要件の変更に簡単に対応できるか?ってこと。
LLMのおかげで、新しい開発者がソフトウェア仕様書を書くことの美しさを学んでるんだね。
LLMってマジでソフトウェアエンジニアリングをゲームみたいにしてくれるんだよね。フィードバックがめっちゃ早いから、良い仕様書書いたり、テスト増やしたり、モジュール小さくしたりするメリットがすぐわかるんだ。
でも時間かかるんだよね。ちゃんとソフトウェアエンジニアリングのコース行ったり、良い本読んだりするのって、ゲームのチュートリアルみたいなもんで、LLM使うのはそれをスキップする感じ。前者の方が早く目的達成できるし、ちゃんとプレイする方法学べる。後者は楽しいかもしれないけど、何年も費やしてアドホックな戦略しか得られないかも。
しかも包括的なテストスイートを作るのがめっちゃ簡単になってる。もう苦行って感じじゃないんだよね。
コード書くのがボトルネックって感じたことないんだけど…
マジか!俺も統計分析でやりたいことうっすらあった時に同じこと思ったわ。
OPの意見はもっともだけど、権力者たちがスキル低下を意図してるってことを無視してるのが残念。人件費下がるからね。AIに投資しまくってるのは、生産性向上よりもコスト削減のため。AIを健全に使おうが、C-SuiteがAIと安い労働力で同じアウトプットを出せるならそっちを選ぶ。知識は力なのに、AIで知識を萎縮させて力を一部に集中させてるんだ。
コスト削減はAIの大きな目的の一つなのは間違いない。でも、C-Suiteがスキル低下を意図してるとは思えないな。それは人間をコンピューターに置き換えることの不幸な副産物でしょ。スキル低下は人件費を大幅に下げるわけじゃない。人を減らす方が効果的。
スキル低下は人件費を大幅に下げるわけじゃない。人を減らす方が効果的。
人の価値を下げることはもっと効果的。価値がないと思わせるものは全部彼らに有利に働く。スキルが低下してなくても、そう思わせるだけで価値は下がる。知識の価値が下がる時代に入ってる。法律で守られた医者や弁護士は大丈夫だろうけど、ソフトウェアエンジニアはヤバい。
ソフトウェアエンジニアが完全にオワコンになる前に、AIが完全にソフトウェア製品を書いて、デプロイして、管理できるようになる必要があるけどね。他の業界みたいに俺たちを守ってくれるものはないし。
AI騒動はただのゴールドラッシュだよ。貧しい人々がカリフォルニアに命がけで向かう代わりに、金と影響力がないと競争にすら参加できない。誰も“勝つ”ことはない。最終的に勝つのは、会社の上層部だけ。やつらは大金持ちになって、計画が頓挫して規模を縮小する前に、さらに世代を超えて富を築き上げるんだ。3年前のNFTブームを覚えてる?同じことだよ。AIが得意な小さな問題を解決することに集中してる人たちが、持続可能なビジネスを実際に作るだろう。汎用AIなんてのは、おしゃべりだけど判断力の悪い検索エンジンだよ。
知識は力って言うけど、力は力だよ。知識なんて買えばいいし、そんな高くないし。ヘンリー・フォードも「なんで本なんか読むんだ?詳しいやつ雇えばいいじゃん」って言ってるし。
それってちょっと変な意見じゃない?映画「Trading Places」じゃ、知識の差がめちゃくちゃ重要だったじゃん。金持ちのMortemer兄弟ですらそうだったのに。
大規模なソフトウェアプロジェクトを作るには、高度なスキルが必要だよ。未来のビデオネイティブなコーダーには無理だし、競争も減るんじゃない?
結局、問題は技術的なものじゃなくて社会的なものなんだよね。社会はテクノ封建制に逆戻りしてるんだよ([1]を見て)。一部のテック領主と、彼らに頼って利益を得るエンジニアギルド、そして大量の低スキルな使い捨てネオ農民がいるって構図。AIの規制はSkynetを防ぐためだけじゃなくて、社会の退行を防ぐためにも必要。[1] https://www.goodreads.com/book/show/75560037-techno-feudalis…
技術革新で特定のスキルが不要になるのはよくあること。役割が変わるにつれて、新しいスキルが必要になるんだよね。コスト削減だけ考えるならそうかもだけど、普通は成長企業はそこで浮いたお金を人材に再投資するよ。問題は、それをどうやって管理するかだね。
コストは生産性の一部。生産性はマジ重要。生産性の高い国は、低い国に勝つ。
AIだけじゃないよね。クリティカルシンキングとか人間の知性が必要なものを標準化しようとする動きはずっとある。リスクを嫌うレントシーカーにとって、人間のスキルは負債なんだよ。人的資源を交換可能な歯車として扱うのが基本。さもないと、会議中に考えなきゃいけなくなるからね。脳みそ使って考えるとかマジ勘弁/s。
LLMはスキルアップに最適だよ。特にLeetCodeみたいなデータが豊富な分野ではね。Gemini 2.5 Proに指示すると、世界最高のLeetCode先生が現れるよ。どんな言語や疑似コードでも使えるし、チェックしてくれるし、改善点も教えてくれる。全部間違えた時だけ答えを教えてくれる。親切で視覚的に説明してくれるし。LLMは認知能力を磨くのに役立つけど、使いすぎると考えるのをAIに任せちゃうから注意。
Claudeを使ってアイデアを練ったり、自分の考えの穴を探したりしてるよ。「何が足りない?」「何に注意すべき?」「どんな選択肢がある?」って聞くと、よく見落としてたことに気づかされる。自分がアーキテクトで、何を聞くべきか、何を知らないかを知っておく必要がある。そうすれば、Claudeは最高の相棒になるよ。Active Directoryを使ったコードなのにリポジトリパターンを提案してくるけどね。理解することに近道はない。
紙の地図で道案内できなくなる例ってマジでわかるわー。地図読むスキル維持してても、周りがそれを軽視すると影響出てくるんだよね。今どきマトモな地図見つけるのさえ難しいし。GPSが使えなくなったら、地図売ってるところ聞いても誰も教えてくれないかも。スキルがあっても、環境が変わると役に立たなくなるのがマジで心配。自分の努力じゃどうにもならないってことじゃん?
このコメント良いね。GPSのアナロジーで他の意見も説明できるじゃん。LLMが思考や学習を助けるって言うのは、GPSで地図読みスキルを上げてるって言ってるのと同じ。でも、結局は最初のコメントみたいになるってことだよね。
てか、地図を読むのは簡単じゃん?地図を見て、ランドマークとか曲がり角を全部覚えて、地図を見なくても運転できるようになるのが難しいんだと思うけど。
一番難しいのは、今自分が地図のどこにいるかを見つけることだったりする。
もっとコメントを表示(2)
そんな時は車降りて人に聞くわ。
GPSが町全体で使えなくなるってどういう状況?
戦争とかじゃない?現代の電撃戦なら、敵の航空機を妨害するためにGPS信号を妨害すると思うよ。実際、テルアビブでGoogle Maps開いたら、ベイルートとかヨルダンとか地中海にいることになってる事例が何回もあったらしい。タクシー呼べなくなったり、フードデリバリーが混乱したり、交通渋滞が起きたりするかも。GPSなしじゃ現代社会は成り立たないよ。
GPSが一部の地域だけで使えなくなるってわけじゃないと思うけどね。重要なのは、どうしてそうなったかじゃなくて、そうなった時にどうなるかじゃない?たとえ広範囲な携帯電話の通信障害が起きただけでも、必要な地域をダウンロードしてなかったら、住所を検索できないかも。地元の人ならキャッシュに残ってたりして、地図が手に入る場所への行き方を教えてくれるかもね。
ミサイル防衛のためのGPS妨害とかで、ウクライナでは日常茶飯事なんじゃない?
スキルの低下だけじゃないよね。人間の知識の均質化も心配。経験的な主観に基づいた知識が、LLMによって強化された“常識”になっちゃうかも。身の回りのローカルな問題も、感覚的な情報に基づかない一般的な解決策で済まされるようになるかもね。
アルゴリズムのプロセスを通して、これと似たようなことはもうたくさん見てきたよね。集団の知恵は、考え方の多様性が減ってきてるから、効果がどんどん薄れてきてる気がする。
最近、英語じゃない昔の文学を読むのが楽しいんだよね。普遍的な文化的参照が少ないし、ユニークな視点が見つかることが多いんだ。
言いたいことがよく分からないんだけど、この人に読書の幅を広げるなって言いたいわけ?昔の小説を読むなって?
過去のVHSテープみたいになるんじゃなくて、過去の知識をちょっとだけ意識して、自分だけのカスタムバージョンを作ればいいんじゃないかって言ってるんだ。スペースオペラを全部読む必要はないでしょ。昔の哲学も同じ。誰かが自分の人生のクレオール語を書き留めただけ。まあ、魅力があるのは分かるけどね。結局は、自動化された贅沢な社会では、アイデアなんてほとんど意味がないんだよ。ただの現実逃避で、保守主義にくるまってるだけ。それが俺の考え。嫌いでもいいけど、誰にも強制はしないよ。
え?あなたの理屈だと、何も学習できなくなっちゃうじゃん。脳みそは「慣れる」けど、それが大事なんだよ。新しい状態に慣れるんだから、昔の状態に戻るわけじゃない。目新しいものがそうじゃなくなるのは、大体2つの理由がある。1経験を積むから、もう新しくなくなる。2抽象化しすぎたり、誤解したりして、目新しさに気づかない。後者はよくあることで、細かいところまで掘り下げる必要があるんだよね。とにかく、状態を変えるのが大事なんだよ。脳みそを新しい情報で満たしたいんだ。それは成功であって、失敗じゃない。
もう刺激を感じないなら、もっと頑張る必要があるってことだよ。どんなテーマでも無限の深さがあるんだから、広げるのが嫌なら、もっと深く掘り下げればいい。それか、12世紀の海賊が歌うRick AstleyのNever Gonna Give You Upをやってみたら?いつも楽しいよ。試してみるべきだよ。
ここ10年くらい、AIのせいで文化が均質化するんじゃないかって心配してるんだよね。例えば、LLMで会話するほど英語が均質化するとかね。LLMがLLMから学習したらさらに加速するし。これって昔から言われてて、2017年にブログにも書いたんだ。
平均IQは今後10年で少なくとも10ポイントは下がるだろうね。でもみんなAIが生成したブログで生産性が上がったとか書くんだろうな。
大衆がバカになるって心配は、本の大量印刷が始まった頃からずっと言われてることで、新しい技術が出るたびに繰り返されてるよね。
アメリカのIQはインターネットが始まった頃から低下してるらしいよ。1990年代までは上がってたのにね。原因はまだ議論中みたいだけど。AIから直接パクるのに比べたら、インターネットはまだマシかもね。少なくとも記事とかRFCとか探すじゃん。
プラトンはパイドロスでこう書いた。「文字の発明は、それを使う人々の心に忘れっぽさを生み出すだろう。なぜなら、彼らは記憶を練習しないからだ。彼らの外にある文字への信頼は、彼ら自身の内にある記憶の使用を妨げるだろう。」
IQスコアは下がってるかもしれないけど、測ろうとしてるもの(g、つまり一般知能)が実際に下がってるかは確かじゃないんだよね。
それって白人ナショナリストのJordan Laskerって人の記事じゃん。Emil Kirkegaardの協力者だし。Cosma Shaliziって人が統計的に”g”について面白い考察をしてるよ。
百科事典を読んで育った身としては、LLMは史上最高の発明だと思うよ。もしWikipediaが最初のチャットAIをリリースしてたら、知識の新時代だって持て囃されてたはず。プログラマーが自分の仕事を自動化しようとしたのが始まりなのが皮肉だよね。