MITの研究で判明!AI使いすぎると脳が書き換えられ、認知機能が低下する衝撃事実!
引用元:https://news.ycombinator.com/item?id=45114753
大学院の時、尊敬してた先輩は論文を読んだらコードを書いて実装してて、その練習のおかげでコーディングも論文分析も爆速になったって話。俺も今はコード書かないけど、新しいコードとかに手を動かして苦労するのは超大事だと思う。「プロンプトいじるだけ」の奴らは何も学んでないよ。
スキルの二極化がマジで起きてるよな。(1)概念を深く理解して、コードで実装できる奴らと、(2)機械に丸投げして能力を失っていく奴ら。今はまだ差がないけど、数年後にはヤバいことになるぜ。
コンパイラみたいに、俺たちは抽象化のレベルを上げてるだけだろ。個々のコードじゃなくて、アーキテクチャとかテストとか契約が大事。AIに高いハードルを超えさせれば、俺の仕事は仕様と実際の機能のズレを見つけて、新しい仕様を作ることだけになる。
他の奴も言ってたけど、LLMは抽象化じゃないんだよ。抽象化ってのは、Aを渡せば必ずBが返ってくる決定論的なもん。だからそれに頼って上位レベルに行ける。でもLLMは確率的だから、Aを渡してもBが返ってくるか確信できない。結局、返ってきたBが正しいかチェックしなきゃいけないから、元の実装と変わらないくらい手間がかかるんだよ。
じゃあそれは委任(delegation)ってことか。好きな言葉を使えばいいけど、カテゴリをどう呼ぶかで世界をコントロールできるわけじゃないだろ。
20年のキャリアで、コンパイラが出したAssemblyなんて数えるほどしか見たことないし、機械語なんて自分で書いた時以外は一度もない。でもLLMを使うのは全然違う。だってLLMは抽象化じゃないんだもん。絶対そうはならないよ。
「プロンプトをいじるだけ」の奴らが学習を逃してるって言うけど、違うことを学んでるだけかもよ。抽象化のレベルは上がってるんだから。今のAIモデルが底辺で天井じゃないってなんで分かんないんだ?Gary Marcusみたいな反対者もいるけど、AIの進化は全然止まってない。もし将来、人間の仕事が残るなら、AIに正確に動いてもらう能力だろうね。
知性の委任(Delegation of intelligence)ってこと?つまり、片方が賢くなると、もう片方はバカになるってことか?
抽象化が委任(delegation)と違うって議論の一つは、プログラマーが抽象化を使う場合、それなしでも作業できるし、自分で抽象化を作れることを期待するだろってこと。でも委任(delegation)にはそんな期待しないよね。
「リアルなプログラマーはアセンブリを手書きする」なんて幻想には気をつけなよ。コンパイラが出たらプログラムを理解できないプログラマーが増えるって言われたけど、ある意味それは本当だ。でも、何かを構築するっていう実際のプロジェクトでは、ほとんど誰もそれが重要だなんて思ってない。
考えるのをやめたら、そりゃ学ぶことは減るよ。でも、もし次の抽象レベルで考えるなら、細かいことはいつも重要じゃないかもしれない。
大学の問題は、”次のレベル”がないことだ。知識の伝達を促すために手作業で厳選されたアイデアの羅列にすぎない。会社を立ち上げて何かを作るのとは違う。そっちなら時間を確保できればもっと大きな問題に取り組める。
もちろん、これが全てのPhDに当てはまるわけじゃない。分野によっては詳細を学ぶことが重要かもしれないけど、俺たちはかなり専門化してるから、全体的に見ればこれは有利になると思うね。
まだ初期段階だからだよ。まだ十分良いってわけじゃないし、信頼も足りてないんだ。コードのチェックにもまだリソースが割かれてるしね。
昨日、Braveブラウザの新しいタブがバックグラウンドで70MBのRAMを使ってる投稿を見たけど、最適化できるコードがあるのは確かでも、誰も気にしやしないよ。細かいことだし、今のPCは十分パワフルだから問題ないんだ。瑣末なコードは抽象化のおかげで消え去ったのさ。
ほとんどのプログラマーはアセンブリを知らないから、依存してる抽象化なしでは作業できないんだよ。それって、プログラミング言語は抽象化じゃないって主張してるってことかい?
マジで?失速の兆しはないって?1〜2年前にLLMが登場したとき、同僚は「これすごい、テストケースが作れる!」って言ってたんだ。今は「まだテストケースは作れるよ!それに、”本当に細かく指示したら”小さい関数も作れるようになったよ!」って言ってる。かなり失速してるように見えるけど、俺だけかな。
ぶっちゃけごめん、でもLLM使ってないって言う人の割には、LLMの性能について意見持ちすぎだろ。反対するのはいいけど、もし3年前に使っただけなら、改善があったかなんてわかるわけないだろ。
「LLMはその性質上、確率的だ。確率的なものは決定的ではない。」って言うけど、俺は手を動かす派だけど、そこまで違いがあるのかな?現代のコンパイラもかなり確率的な挙動を含んでるよ。
「抽象化は決定的で純粋な関数で、Aが与えられれば常にBを返す。」って言うけど、それは間違いだよ。抽象化が厳密に機能的とか決定的であるべきってルールはないんだ。実際、最初の抽象化はおそらく言語だっただろうけど、それは明らかにどちらでもない。一番きれいで扱いやすい抽象化はそういった特性を持ってるけど、必須じゃないんだ。
ゼロサムゲームじゃないよ。全ての関係者が時間をかけて、より賢くなれるんだから。
学習プロセスを強化するためにAIを使う人たちはどうなの?俺は、誰にも聞きたくない「くだらない」質問や、既存の情報源にはないニッチな質問をAIに聞けることで、新しい概念をよりよく理解できると感じてるよ。もし答えをただ受け入れて次に進むだけなら、そりゃ苦労するだろうけどさ。でも、答えを批判的に吟味して情報を統合するなら、深く理解したい人にとって、これ以上良い時代はないと思うけどね。
「LLMはその性質上、確率的だ。」って言うけどさ、人間だって確率的なのに、みんな人にお金を払ってコードを書かせてるじゃん。
相手は賢くならないし、任せた側もバカにはならないよ。ただ、自分で作業する人間と比べたら、賢くなるチャンスを失うってだけのことさ。
これは抽象化の問題だよ。AIのプロンプトが内部でどう動くか見る人もいるけど、全員じゃないよね。アセンブリ言語と同じで、見たことなくても使う人はいるし、同じ議論もできる。将来的には、この境界線はすごく曖昧になるはずさ。
そうかもしれないけど、君がコメントしてるのは、研究結果で「そうはならない」って示されてる記事のことだよ。
>コンパイラみたいに抽象化が進んでるって意見だけど、違うよ。AIの出力コードは毎回チェックしなきゃいけないからね。コンパイラはコンパイル過程を全部チェックする必要なかったし、テスト可能なコードだった。AIは英語入力からの非決定的な出力だからさ。
>現在の仕様と意図した機能の違いを見つけ、新しい仕様で修正するのが仕事、って話だけど、これを効率よく「正しく」やるには、実装評価の膨大な経験と、その実装が望む結果にどう影響するか想像する能力が要る。LLMを使うと、この経験が蝕まれるよ。算数や代数が苦手だと、微積分みたいな高度な数学が難しくなるのとそっくりだね。
>「真のプログラマーはアセンブリを手書きする」という誤謬に注意、ってあるけど、これまでの抽象化は正確性を保ってた。PythonはCより遅くても信頼性は同じだ。でもLLMは正確性を保たない。正しいプロンプトでも間違った結果が出るんだよ。これはもうプログラミングじゃなくて、数分前のことも忘れる重度認知症のベテランプログラマーを管理するみたいなものさ。
>LLMはその性質上、確率的だ、ってあるけど、コンパイラもそうだよ。でもみんな問題なく使ってるよね。コンパイラもLLMも決定論的に作れるんだけど、パフォーマンスを優先してその保証を諦めるのが都合がいいんだ。
>「真のプログラマーはアセンブリを手書きする」という誤謬に注意、って話だけど、コンパイラがプログラムの仕組みを理解できないプログラマーを生むと言われたのは確かだ。でも、モノ作りには重要じゃないってのが共通認識だね。肝心なのは、アセンブリまで掘り下げれば無限に精密な制御ができるってこと。Javaでアセンブリを使ったり、JITコンパイラの出力を確認したり、問題あればJITを無効にしたりもできる。高レベル言語使う人がアセンブリやCのメモリ管理の詳細を知らなくても、少しずつ学べるんだ。でもAIは、そうした基礎を蝕むものだよ。
君は、この研究結果が当てはまらない一部の人たちがいる、って議論してるコメントチェーンの中にいるんだよ。
>現代のコンパイラはかなりの確率的挙動を含んでる、って話だけど、いくつか例を挙げてくれるかな?
AIが作るコードは機械語みたいなもんだって思うんだ。厳密な仕様を満たせば、AIが作ったコードはどれも同じ価値ってこと。
もっとコメントを表示(1)
委任には、人を成長させる「再生型」と、価値を搾取する「退行型」があるよね。LLMも産業革命や奴隷制みたいに、人間から価値を搾取する「退行型」になりがち。AIは人間を成長させるように設計すべきだよ。この考えを説明してる記事がこれ→ https://hazelweakly.me/blog/stop-building-ai-tools-backwards
この論文ね、まずarXivだから査読前だよ。参加者も各グループ18人で合計54人。しかもMITの若者に偏ってるから、結果の再現性や一般性は疑わしいね。脳スキャンとかも非日常的だし、実験内容もバレやすいんじゃないかな。
元の論文はこちら→ https://arxiv.org/pdf/2506.08872
査読前論文に「話半分で聞け」って言うのはもうやめようよ。査読って結構問題だらけで、リリースの邪魔になるし。オープン査読とかにすべきだよ。この論文の結論が話題作り先行で時期尚早ってのは同意するけどね。
研究の参加者54人っていう規模と、ボストンの大学生中心っていう構成は、確かに限界だね。でも、これは「再現性や一般化が難しい」って理由じゃなくて、もっと大規模で多様な研究をやるべき理由だと思うな。
この話を聞くと、Dunning Kruger Effectの論文を思い出すよ。あれも参加者少なくて方法論に問題あったけど、みんな信じちゃった。AIが脳をダメにするっていうのも、「SNS→ゲーム→テレビが脳をダメにする」っていう昔からの心配事の繰り返しだよね。キャッチーな見出しって強力なんだ。
お願いだからやめてくれ。室温超伝導の馬鹿げた騒ぎが長引いたの覚えてるだろ?ああいうのを、みんなで避けようよ。
たしかに規模を広げれば一般化はできるけど、再現性とはまた別問題だよ。多くの心理学や神経科学の研究は、サンプルが少なかったり、実験が現実離れしてたりして、再現できないことが多いんだ。この研究も、再現性の壁にぶつかる可能性が高いと思うね。
参加者約54人の研究全部に対してそう思うの?GLP-1脳がんの研究とかも?
みんな「AI」って言うけど、これLLMのことだよね。画像や動画を作るAIが認知機能低下につながるとは思えないな。LLMは、覚えることとかをサボらせて、知的怠惰を引き起こすかもね。
「AIで脳が」論文は、プレプリントでのオープンピアレビューで反証されたんだって。クローズドピアレビューって、トップジャーナル以外だとひどいこと多いしね。オープンは科学に良い影響を与えるよ。今回の論文は方法も内容もイマイチだと思うけどさ。
どの研究か特定してほしいな。N(参加者数)が少ない研究は、母集団レベルの主張を裏付けるにはNが多い研究より劣るんだ。統計的検出力が低くて、効果を見逃したり、結果が不安定になりやすいからね。高品質な低N研究には、とんでもなく大きな効果量が必要だよ。
この研究、ChatGPTがエッセイ執筆スキルに与える影響に特化してたんだって。練習しないとスキルが落ちるってだけで、AIが有害ってわけじゃないよ。あと、元の論文は「認知負債」であって「認知機能低下」じゃないから、解釈には注意が必要だね。全てのLLM/AIが脳に有害だと結論づけるのは時期尚早だと思うな。
再現性危機の今、ピアレビューってどれくらい効果があるんだろうね?詐欺や質の悪い科学をどれだけ見抜けてるの?
「AIが脳を腐らせる」みたいなヘッドラインは、みんなが信じたいから強力だよね。ソーシャルメディア、ゲーム、テレビ…機械が人を愚かにするって心配は昔からあるんだ。紀元前2800年頃のアッシリアの粘土板にも「最近の世は堕落してる、世界の終わりが近い」って書いてあったらしいよ。いつの時代も同じだね。
https://quoteinvestigator.com/2012/10/22/world-end/
https://www.youtube.com/watch?v=5IsSpAOD6K8
サンプルサイズが必要かどうかは効果量次第だよ。この研究では、AIユーザーは引用を全く思い出せなかったのに、非AIユーザーは50%以上思い出せたって。これだけ大きな効果量なら、54人でも統計的に十分有意だと言えるし、この研究が検出力不足だったとは言えないね。
論文を読んだけど、実験の妥当性に疑問があるな。「脳」グループが普段と違うやり方(ChatGPT使用)をした時、脳が同じ認知負荷を期待してたってことじゃない?エッセイの質が目的なのに、LLM使用グループのエッセイは「高評価」だったんでしょ?些細なことを大げさに騒いでるだけじゃないかな。
ソクラテスも『パイドロス』で、読み書き能力が人を愚かにするって言ってたよね。あれ、今も真実だと思うよ。新しい技術って、使い方次第で賢くも愚かにもなるんだから。
もっと多様な学校から参加者を選んでほしいな。今の参加者はすごく選抜された層だから、ごく一部の人口しか見てないことになるよ。
なんでみんな、少ない人数の研究を発表するんだろう?
査読って、仲間内の馴れ合いで、再現性も確認されないこと多いよね。もし自分の経歴が懸かってるなら、みんな論文を承認するのかな?皮肉だけど、AIがこういう手抜きや馴れ合いを見抜いて自動化してくれるのを待ってるんだ。
不正論文は1%どころじゃないと思うよ。NIHの論文を長年読んで、学ぶためにしてたけど、もっと多いと確信してる。あからさまな不正は報告して、時々論文が取り下げられることもあるけど、このプロセスには悪いインセンティブが多すぎて、きっともっと悪くなるだろうね。
ソクラテスは正しかったんだ。彼の時代、記憶は貴重で、アイデアを結びつけたり、引用したり、議論を組み立てたりするのに使われた。でも、書くことによって記憶機能は急速に低下するんだ。脳は怠け者だからね。
新しい場所に行くと「ここって〇〇にそっくりだ」って脳が言うのは、脳の怠惰さの表れだよ。「解決したから休もう」って。でも、その観察は決して正確じゃないんだ。
パターン認識は時間を節約して、生き残るのを助けてくれるけど、人類には害になるショートカットにもつながるんだ。
ソクラテスは脳のこういう特性を認識してて、ショートカットが推論力や理解力に与えるダメージを警告しようとしたんだ。彼の時代には、家系図全体や条約を暗記して引用できる人が珍しくなかった。人類は圧倒的にこれらの能力を失ってしまったよね。外部記憶に頼りすぎて、名前や大事な日付、時間や季節、さっきしてたことさえ忘れちゃう!
ソクラテスが正しかったんだ。書くことは人間をバカにするよ。トークンの上限を減らし、ページングテーブルのサイズを減らし、会話の全体の長さを減らすんだ。今はもっと学習してるかもしれないけど、それを得るために何を諦めたんだろうね?
この実験設定は望みがないくらい欠陥があるよ。LLMがある状況でも、人のタスクが変わらないって仮定してるんだからね。
もしコンピュータがエッセイを書くなら、良いエッセイを作る責任がある人は、新しい(たぶんもっと幅広い)スキルをすごく早く身につけるはずだよ。
君の仮説は、すごく頭の良い人ほど、LLMの助けを借りて書いたエッセイからの引用を覚えられないってこと?
俺はそうは思わないな。
「査読前の論文は疑ってかかるべきという意見はやめるべき」という主張に、絶対ノーだね。俺は査読の擁護者で、欠点があっても大きな価値があると思ってる。個人的な経験では、査読は俺が関わった論文の100%を改善してきたか、ボツにしてきたんだ。これは良いアイデアに価値があることを示してる。
俺が査読した論文も同じように改善されたよ。誰もが全てを知ってるわけじゃないし、知識がある人が意見を加えてくれるのは助けになるんだ。たとえその査読者が気難しいことを言ってもね。完璧なプロセスじゃないことは認めるけど(悪い査読者や編集者もいるし、アイデアを盗む奴もいる)、だからこそジャーナルを超えた「アイデアの市場(marketplace of ideas)」があるんだ。
「科学はアイデアの市場になるべき」というけど、これはすでに行われてるんだ。学術界は資源に関してはサバンナみたいなもので、豊かに見えるけど、実はすごく制約されてる。くだらないアイデアは、それが「象」から来たものでも、引き裂かれることになるよ。
それがペイウォールの裏で行われてるのが大きな問題で、インセンティブの構造は変える必要があるね。でも、あからさまなインチキが横行するのを望まないなら、品質チェックは必要だよ。
[0] https://x.com/JustinWolfers/status/591280547898462209?lang=e… 車が原稿だったらって話。
全体として、論文の弱点については君に同意するけど、その結果への懐疑心には同意しないな。
俺たちの体は、やってることに自然に適応するんだ。何かをすれば、体がそれを強化して、もっと高度なことができるようになる。何もしなければ、そのスキルや筋肉は時間とともに衰える傾向がある。
LLMに(このケースのように)エッセイを書かせるのは、自分で実際にエッセイを書くよりも桁違いに簡単だよ。だから、LLMを使ってエッセイを書くことが、自分の書く能力を徐々に低下させるのはかなり自明だと思うんだ。もちろん、何かの理由でそうじゃない可能性もあるけど、それはかなり驚きだね。
テレビやビデオゲームに過度に触れると問題があるのは明らかだし、AIの過度な使用にも同じような問題があるのは間違いないね。子どもを持つ大人なら誰でも、その中毒性や行動上の悪影響をはっきり見て取れるよ。
君の言う通り、俺の知る限り、その論文が却下されたのは、誰かが注意深く読んだからじゃなくて、人々がそれを再現しようとしたからなんだよね。査読は再現性を確認しないんだ。査読の数を減らして、結果を実際に再現するのにもっと時間を費やすべきだと思う。だから、再生産性の危機っていう時代があったんだよ。
でも、エッセイを書く目的ってエッセイの質じゃないの?
教育の文脈で書くことのほとんどは、学習が目的で、価値あるものを作り出すことじゃないんだ。学習の文脈での生産性は、たいてい間違った見方だよ。仕事での学習も同じで、経験が少ないうちは生産性が低いのが普通で、時間とともに増えるべきだとされてるんだ。
この研究、統計的にはまだ微妙だね。コホートサイズや有意水準、効果量の話だと、99%レベルではクリアしてるけど、99.9%だと足りない。あと、学校や学生のバイアス、本当にランダムだったか?って問題もあるから、もっと大規模な研究が必要。一部の学生にしか当てはまらないし、まだ決定打じゃないってこと。
AIが脳をダメにするっていう話、新聞の時代からずーっと言われてるじゃん?少なくとも5世代前からね。政治家への不満とか、古代の数学の間違いの話もそうだけど、新しいものへの懸念って、いつも似たような感じで繰り返されるんだよね。たぶん全部繋がってるんだろうな。
もっとコメントを表示(2)
ほとんどの論文って、実際には再現されないんだよね。だから、すごく大規模でめちゃくちゃ厳密な研究じゃない限り、『たぶん再現されないだろうな』って思っておくのが普通だよ。
この記事、元の論文の内容を全然理解してないし、論文の著者が使わないでって言ってる言葉(“stupid”とか“dumb”とか“brain rot”とかね)を平気で使ってるのがダメだよね。認知バイアスの良い例だよ。
1. https://www.brainonllm.com/
2. https://www.brainonllm.com/faq
HNがRedditみたいにクリックベイトだらけになってるって感じるよ。この研究も何度も再投稿されてるしね。ChatGPTを4ヶ月でたった4回使った18人の研究なんて、ノイズが多すぎて信用できないよ。AI使いすぎると良くないってのは分かるけど、これはただのクリックベイトだね。
皮肉にも、君は前のコメントみたいに、サンプルサイズが小さいって批判してるね。でもサンプルサイズはこれで十分だよ。心理学の研究って大規模にするのが難しいから、これくらいは普通なんだ。それに、グループ間の差がすごく大きいから、ノイズがあったとしても結果が覆るほどじゃないはずだよ。
私も、続報とか新しい研究かなって期待しちゃったんだけど、それもAIが有害だっていう考えに同情する自分のバイアスだね。本当は『まだ分からないから調査中だよ』って言えばいいんだけど、そういう世の中じゃないのが残念だよ。
皮肉なことに、AIを使わないことがRedditでどう認知機能低下に繋がるか、別の研究が必要なんじゃないかな。プログラミングのサブレディットでは、AIツールに反対しすぎて、もはやエンジニアリングの感覚を失って宗教じみてるよ。
HNがReddit化してるって?『9月で、9月は終わらない』ってことだね。
誰も論文読んでないのバレバレだよ。LLMを使ったグループの脳の結合性低下は、セッション4でLLMを使えなくなったからで、パフォーマンスが落ちただけで、バカになったわけじゃないんだ。Extended Mindの考え方が重要だね。一番面白かったのは、LLMを使ってなかったグループがセッション4でLLMを与えられたときに、脳がすごく活性化したって結果だよ。
論文はAIを「バカ」にするような言葉は使ってない、ジャーナリストも使うなって言うけど、俺はChatGPTを8ヶ月使ってコード書いたら、マジで脳の働きが遅くなった気がするんだ。
あの研究は納得だね。でも、AIに都合の悪い研究は出てこないだろうな。
個人の経験は大事だけど、それをみんなに当てはめるのは無理があるよ。
人は自分の考えに合うと、批判的に物事を見なくなるから気をつけよう。
今はまだAIが脳にどう影響するか分かんないから、もっと研究が必要だね。
研究は出るだろうけど、AIの進化が早すぎて質の確保が大変そう。
俺はLLMに文章を書かせたり修正させたりすべきじゃないと思うな。
アイデア出しやフィードバックに使うのがいい。AIに頼りすぎると、脳が乗っ取られちゃうよ。
プログラミングでAIツール使いすぎると、認知機能が落ちるって実感がある。
エラーをコピペで解決するのは楽だけど、学ぶことは少なくなるんだ。自力で考える意志力が大事だね。
俺は逆の経験をしてるよ。AIの答えをただコピペするんじゃなくて、なんでそれが動くのか、深く掘り下げて聞くんだ。
例えば、コマンドの各フラグの意味とかね。
そのおかげで、個々の知識を学ぶ時間は減るけど、より多くの問題解決を経験できて、結果的にたくさんのことを学べるんだ。
AIの答えを深掘りするやり方、試したけど幻覚(ハルシネーション)が多いんだよね。
俺はまずGoogleで調べて、LLMは最後の手段って感じ。
検索エンジンで分かることなら、LLMっている?
この前、systemdのExecStart=後のコロンの意味を聞いたら、もっともらしいけど間違った答えばかりだったよ。
これってトレードオフだよね。ChatGPTを使い込むと、幻覚を見抜く勘が磨かれるんだ。
「なんで?」って掘り下げると、説明が妥当か分かるし、専門知識も役立つ。
ファクトチェックと実践を組み合わせれば、かなり正確になるよ。
Google検索だって完璧じゃないしね。
この前、Incusのcloud-initで詰んだとき、ChatGPTで速攻解決して時間節約できた経験があるんだ。
AIに直接答えさせるより、答えを見つける方法を教えてもらう方がいいんじゃない?
例えば、この件なら「man systemd.service
を見て、ExecStart=
とか”COMMAND LINES”
で検索すれば分かるよ」って教えてもらうとかさ。
それはすごくいい方法だね。LLMが情報源じゃなくなるからさ。
でも、残念ながら、その機能がちゃんと文書化されてるときしか使えないんだよね。
今回のケースはそうじゃなかったし。
ExecStart
の行でコロンを使ってる例って教えてもらえる?
Googleで探しても資料が見つからないし、俺のsystemdユニットファイルにもそんな例はないんだよね。
うん、それがなぜか文書化されてないんだよね。
どこで見たか覚えてないけど、例えばこんな感じ。[Service]
ExecStart=/bin/echo $PATH
だと環境変数が出て、[Service]
ExecStart=:/bin/echo $PATH
だと文字列の$PATH
がそのまま出力されるんだ。
学校の授業で先生が問題解くの見てても、自分でやらないと試験じゃ解けないよな。練習で自分から取り組まなきゃ、試験に落ちるってこと。
それは学ぶ内容によるでしょ。教科書読んで覚えるだけで多くの試験パスしてきたよ。数学みたいのは別だけどね。先生が板書するのをただ見るのと、LLMとかに質問して深く理解するのとは全然違うよ。
LLMが正しい情報返してるか確認するのが問題だよね。信頼できる情報で確認する頃にはもうLLM要らないじゃん。
Firefoxのオートコレクトでスペルがめちゃくちゃ良くなった経験があるよ。LLMも開発者ならもっと早く学習して、結論出すのに使えるはず。特に過去の解決策を思い出せない時とか便利。LLMを良いエンジニアになるためにどう使うか、自分たちでちゃんと考えるべきだよね。
GPSとかGoogle Mapsを常に使うのと似てるよね。めちゃ便利だけど、空間認識能力とか地理的な記憶は衰える。判断力も鈍るんだ。データが間違ってたり古かったりすると、最悪行き詰まることもある。盲目的に使うと死者も出てるんだよ。紙の地図でも問題はあったけど、失敗のモードが違うんだよね。
LLMに文章書かせるのは怠惰だし、結果もイマイチだと思うな(脳の衰えは分かんないけど)。でも、自分で下書き作ってからLLMに添削してもらったり、盲点や表現の改善点を聞くのはすごく良い使い方だと思うよ。
まさにこれが問題だよね。でも、自分の専門外の技術分野をサッと理解して、知識不足に足を引っ張られない「ちょうどいい」場所もあるんだ。例えば、C言語で水中音響の信号処理をすぐにできたけど、別にその道のプロになるつもりはない。とりあえず動くもの作って、次の仕事に進めたのは良かったね。前だったらコードを読みまくってたよ。
仕事以外だとLLMを使って、はんだ付けとか回路構築とか、ソーラーパネルやLoRaに関するあれこれを学んでるよ。全部実践してさらに知識を深めてるんだ。上手くいかなくてもAIが原因究明を手伝ってくれるから、質問しまくって理解してる。YouTubeもいいけど動画は苦手だし、分厚い教科書も僕の目的に合わない。失敗しながら学ぶのが好きで、LLMのおかげで安価な電子工作でもそれができるようになったんだ!
前の人がなんでAIを選ぶのか気になるな。テキストで学ぶのは一番難しい方法だと思うんだけど。はんだ付けの感覚とか、良い悪い仕上がりってどんな感じか、文字じゃ分からないじゃん。良い動画の方が断然分かりやすいよ(見つけるの難しくなってるけどね)。
僕はテキスト情報の方が処理しやすいからAIを使ってるんだ。動画は刺激が多すぎたり、関係ない内容が多かったり、巻き戻しが面倒でね。LLMなら全体像を把握できるし、手持ちの材料で具体的なアイデアももらえる。はんだ付けもテキストで分かりやすく学べたし、写真アップしてレビューしてもらって練習したよ。早くプロジェクトを進められたのが良かったな。あと、LLMにバカな質問やエッジケースを聞けるのも最高。自分でデザイン提案して、LLMに評価してもらったり、変更したらどうなるかとか、リスクやトレードオフをインタラクティブに教えてもらえるのが、一番理解を深めるのに役立つんだ。