AI学習モード、その実力は?
引用元:https://news.ycombinator.com/item?id=44725764
LLMは勉強パートナーとしてすごく良いよ。恥ずかしい質問も怖くないし、ステップバイステップで教えてくれる。24時間頼れるアシスタントは独学者の夢だね。オンライン学習は昔は大変だったけど、これなら格段に進化してるよ。懐疑的な意見もあるけど、このツールはすごいし、進化のスピードにも驚いてるよ。
LLMはハルシネーションを起こすし、間違いを指摘するとすぐに意見を曲げちゃう。教師としてはこれはダメだよね。AIは学習ツールとしては使えるけど、魔法じゃないから、やっぱり懐疑的な視点が必要だよ。新しいモデルが出ても結局はお金がかかるだけだしね。
先生が人間でもAIでも、間違いを見つけるのは学習のプロセスで超重要だよ。高校の先生も数学の教科書も、間違いだらけだったりするしね。AIに教えてもらう時も、常に疑問を持って、間違いを見つけられるようになるのが、本当の理解につながるんだ。
え、2025年のAIが何かハルシネーション起こしたの?俺はもう1年くらい見てないけど。子供や学生の質問なら、別にハルシネーションの心配なんていらないと思うけどな。
材料を知らないのに、どうやって間違いを見つけるんだ?
それって、何も知らないうちから専門家になれって言ってるようなもんじゃないか。
LLMは思考してない、ただもっともらしい返事を生成するだけだよ。モンティホール問題の変形を与えても、本質を理解せず”似た”問題として処理して、間違った答えを出すんだ。人間が間違いを犯すのとは根本的に違う。LLMは君の理解のモデルを作ってないから、ニッチな話題だと役立たなくなるよ。
そうじゃないんだよ。内容を知らなくても、どこかで「あれ、辻褄が合わないな」って気づくことがあるんだ。特に数学や科学みたいに、知識が積み重なっていく分野だと、間違った答えの上にさらに積むと、必ずどこかで矛盾が出てくる。そしたら、先生に聞いたり、他の情報源で確認すればいいんだ。
モンティホールの話、人間だって状況が違うのにいつもスイッチしろって言うことあるじゃん。それは思考できない証拠じゃなくて、ただのミスだよ。LLMが「本当は考えてない」とか「本当は知らない」とか、定義もなしに言うのはもう古いし、人間の特別感を守ろうとする逃げ口実みたいで嫌だね。
それは全く違うね。LLMの先生は、質問されると、それが事実と合ってるかどうかにかかわらず、すぐに修正するんだ。LLMは、そもそも事実の正確さっていう概念を一切持ってないからね。
AIが自信満々に嘘をつく問題は深刻だね。
DuckDuckGoのイースターエッグについてCopilotに聞いたら、知らないのに嘘をつかれたよ。
知らないことは「知らない」って正直に言うべきだろ。
AIの限界を語ると、ユーザーが無能みたいに言われるけど、そうじゃないだろ。
GPTには限界があるし、使うにはスキルが必要なんだ。
魔法じゃないし、全く使えないわけでもない。その間のバランスを見ろよ。
LLMのデタラメな返答で面白かった話があるよ。
カナリア諸島の潮位について聞いたら、「赤道の西にあるから」って、ありえない理由を言われたんだ。
今ではそれがLLMの情報を引用する時の内輪ジョークになってるよ。「赤道の西にあるから」ってね。
愚かな質問をすることへの恐怖ってリアルだよね。
特に先生や教授に屈辱的な経験をさせられたらそうなる。
最近、とある有名な教授の動画で学生を馬鹿にするのを見て、見るのをやめたよ。
「知らない」って言える能力は、決して高いハードルじゃないだろ。
魔法じゃないシステムなら、それは基本的な要件だよ。
愚かな質問はないかもしれないけど、自信満々に愚かな答えを出すやつはたくさんいるよね。
https://www.reddit.com/r/LibreWolf/s/Wqc8XGKT5h
5年前のオンライン学習は、間違った情報とか古い情報の中から自分でなんとか組み立てて、批判的思考力とか忍耐力が鍛えられたもんだよな。
これ試してみたんだ。
俺: なんでマドリードはフランスの首都なの?
ChatGPT: 違います。マドリードはスペインの首都です。フランスの首都はパリです。
どのモデル、バージョン、検索ツールへのアクセスがあったかで結果は全然違うよ。
俺の場合、Claude 3.7/4はウェブ検索で確認するから、間違った情報をもらった記憶がほとんどないんだ。
AIはユーザーの間違いをすぐに訂正せず、甘やかすのが問題だね。まるで1+1=3って言ってもAIはすぐに折れるって。ビジネスの都合でユーザーを不快にさせたくないからだろうけど、それじゃあ本当の学習にはならないよ。教師に間違いを指摘できることこそ学習の一部だし、それができないAIは信用できないな。
コンピューターって正確で再現性があるはずなのに、LLMがちゃんと推論できないのは、それが推論じゃなくてただのパターンマッチングだってことの証拠だよね。微妙だけど、大事な気づきだよ。
48494の意見を試したよ。ベルリンについて「ドイツの最初の皇帝はパリで戴冠したんじゃないの?」って聞いたら、AIはすごく丁寧に間違ってるって教えてくれたんだ。
シャルルマーニュやヴィルヘルム1世の戴冠についても詳しく説明してくれたし、正しい知識をちゃんと教えてくれて感心したよ。AIは間違った生徒をうまく扱えるね。
そうだね、だからWikipediaもGoogleも信用できないし、誰も使っちゃダメだね。図書館に行ってマイクロフィルムを読むのが唯一の正しい学習方法だよ。
/s
面白いことだね。ウェブだって昔は信頼できないって言われてたのを思い出すよ。今回のAIを巡る騒ぎも、あの時とすごく似てるね。
どうしてそう言えるの?だって、AIって文字通り非決定的じゃない。
「1+1=3って言ってもAIはすぐ折れる」って主張をChatGPTで試してみたよ。結果は、全然折れなかった!
「普通の数学なら1+1=2だよ。冗談や比喩なら3でもいいけど」って粘り強く言い返してきた。ちゃんと正しいことは譲らないみたいだね。
ChatGPTにすごく大きい数の掛け算をさせて、わざと間違った答えを言ったら、「その通りです、修正ありがとう。前の間違いはすみません!」ってすぐに謝ってきたよ。こんな教師でいいのかな?
教師をちゃんと訓練するんじゃなくて、教育をテクノクラートに任せるってこと?2025年にもなって、なんで悪いことや非生産的なことを罰するのを怖がるんだろ?
AIが示す情報って、まるで完全に正しいかのように聞こえるから、間違いに気づきにくいよね。もし間違いに気づくためにAIに何百回も質問しなきゃいけないなら、それはもうダメだよ。ランダムに間違った情報ばっかり出す教師なんて、悪い教師としか言えないね。
Most (all?) AI models I work with are literally deterministic. If you give it the same exact input, you get the same exact output every single time.What most people call “non-deterministic” in AI is that one of those inputs is a seed that is sourced from a PRNG because getting a different answer every time is considered a feature for most use cases.Edit: I’m trying to imagine how you could get a non-deterministic AI and I’m struggling because the entire thing is built on a series of deterministic steps. The only way you can make it look non-deterministic is to hide part of the input from the user.
Consider the adoption of conventional technology in the classroom. The US has spent billions on new hardware and software for education, and yet there has been no improvement in learning outcomes.This is where the skepticism arises. Before we spend another $100 billion on something that ended up being worthless, we should first prove that it’s actually useful. So far, that hasn’t conclusively been demonstrated.
もっとコメントを表示(1)
I’ll personally attest: LLM’s have been absolutely incredible to self learn new things post graduation. It used to be that if you got stuck on a concept, you’re basically screwed. Unless it was common enough to show up in a well formed question on stack exchange, it was pretty much impossible, and the only thing you can really do is keep paving forward and hope at some point, it’ll make sense to you.Now, everyone basically has a personal TA, ready to go at all hours of the day.I get the commentary that it makes learning too easy or shallow, but I doubt anyone would think that college students would learn better if we got rid of TA’s.
>Now, everyone basically has a personal TA, ready to go at all hours of the dayThis simply hasn’t been my experience.Its too shallow. The deeper I go, the less it seems to be useful. This happens quick for me.Also, god forbid you’re researching a complex and possibly controversial subject and you want it to find reputable sources or particularly academic ones.
My core problem with LLMs is as you say; it’s good for some simpler concepts, tasks, etc. but when you need to dive into more complex topics it will oversimplify, give you what you didn’t ask for, or straight up lie by omission.History is a great example, if you ask an LLM about a vaguely difficult period in history it will just give you one side and act like the other doesn’t exist, or if there is another side, it will paint them in a very negative light which often is poorly substantiated; people don’t just wake up and decide one day to be irrationally evil with no reason, if you believe that then you are a fool… although LLMs would agree with you more times than not since it’s convenient.The result of these things is a form of gatekeeping, give it a few years and basic knowledge will be almost impossible to find if it is deemed ”not useful” whether that’s an outdated technology that the LLM doesn’t seem talked about very much anymore or a ideological issue that doesn’t fall in line with TOS or common consensus.
I’ve found it excels at some things:1) The broad overview of a topic2) When I have a vague idea, it helps me narrow down the correct terminology for it3) Providing examples of a particular category (”are there any examples of where v1 in the visual cortex develops in a disordered way?”)4) ”Tell me the canonical textbooks in field X”5) Posing math exercises6) Free form branching–while talking about one topic, I want to shift to another that is distinct but related.I agree they leave a lot to be desired when digging very deeply into a topic. And my biggest pet peeve is when they hallucinate fake references (”tell me papers that investigate this topic” will, for any sufficiently obscure topic, result in a bunch of very promising paper titles that are wholely invented).
The part about history perspectives sounds interesting. I haven’t noticed this. Please post any concrete/specific examples you’ve encountered!
> It used to be that if you got stuck on a concept, you’re basically screwed.We were able to learn before LLMs.Libraries are not a new thing. FidoNet, USENET, IRC, forums, local study/user groups. You have access to all of Wikipedia. Offline, if you want.
- Rhodesia (lock step with the racial-first reasoning, underplays Britain’s failures to support that which they helped establish; makes the colonists look hateful when they were dealing with terrorists which the British supported)- Bombing of Dresden, death stats as well as how long the bombing went on for (Arthur Harris is considered a war-criminal to this day for that; LLLMs highlight easily falsifiable claims by Nazi’s to justify low estimates without providing much in the way of verifiable claims outside of a select few, questionable, sources. If the low-estimate is to be believed, then it seems absurd that Harris would be considered a war-criminal in light of what crimes we allow today in warfare)- Ask it about the Crusades, often if forgets the sacking of St. Peter’s in Rome around 846 AD, usually painting the Papacy as a needlessly hateful and violent people during that specific Crusade. Which was horrible, bloody as well as immensely destructive (I don’t defend the Crusades), but paints the Islamic forces as victims, which they were eventually, but not at the beginning, at the beginning they were the aggressors bent on invading Rome.- Ask it about the Six-Day War (1967) and contrast that with several different sources on both sides and you’ll see a different portrayal even by those who supported the actions taken.These are just the four that come to my memory at this time.Most LLMs seem cagey about these topics; I believe this is due to an accepted notion that anything that could ”justify” hatred or dislike of a people group or class that is in favor – according to modern politics – will be classified as hateful rhetoric, which is then omitted from the record. The issue lies in the fact that to understand history, we need to understand what happened, not how it is perceived, politically, after the fact. History helps inform us about the issues of today, and it is important, above all other agendas, to represent the truth of history, keeping an accurate account (or simply allowing others to read differing accounts without heavy bias).LLMs are restricted in this way quite egregiously; ”those who do not study history are doomed to repeat it”, but if this continues, no one will have the ability to know history and are therefore forced to repeat it.
I’ve learnt Rust in 12 weeks with a study plan that ChatGPT designed for me, catering to my needs and encouraging me to take notes and write articles. This way of learning allowed me to publish https://rustaceo.es for Spanish speakers made from my own notes.I think the potential in this regard is limitless.
90年代に図書館やIRCでプログラミングを学んだけど、マジ大変だったよ。図書館は欲しいものじゃなくあるもので学ぶしかなかったし、IRCは一部はいいけど、あとは放置ボットか敵意ある人ばっか。でもLLMならめっちゃ楽!知りたいことにハッピーパスを用意してくれるから、昔とは比べ物にならないね。
AIは進化が早いけど、俺が教えてる組み合わせ論の授業で3ヶ月前に最新のChatGPTとDeepseekを試したら、簡単な質問には答えられても、高度な質問には微妙に間違ってたね。ChatGPTを「採点」する宿題を出したら、生徒にはかなりウケたよ!
LLMが優れてるって言うけど、深い学習には向かないと思うな。何も覚えてないから、どんどん質問を繰り返さないといけないし、間違った方向に進んでも教えてくれないんだ。プログラミングみたいに構造化された内容はまだマシだけど、金融とか政治、医学とか複雑な話だと質がガクッと落ちるよ。
LLMが深く掘り下げるとダメって話、それって人間にも言えるよ。イスラエル/パレスチナ問題とか調べると、信頼できるはずの情報源同士でも信用できないって言い合ったりするんだ。でもね、ChatGPTは数学やプログラミングだとかなり使えるし、深く掘り下げられるよ。ミスさせることもあるけど、俺がレールに戻せるくらいは知ってるからね。
十字軍の話、846年のローマでのサン・ピエトロ寺院略奪とか持ち出すなら、その時代にはキリスト教の「十字軍」っていう概念自体が存在してなかったよ。あれはイスラム教徒とキリスト教徒の対立じゃなかったんだから。
最近LLMでプログラミング言語を覚えたんだけど、本より全然良かったよ。完璧じゃなくて間違いもあったけど、それは既知の弱点だしね。でもLLMは柔軟で、既存の知識と関連付けたり、俺の理解度に合わせてくれたり、不要なことをスキップできたりしたんだ。おかげで昔じゃ考えられないくらい、早く簡単に習得できたよ。
俺、数週間でRustを本読んで覚えたよ。
「概念につまずいたら終わり」って言うけど、そうでもないだろ。Stack Exchangeに載るような一般的な質問以外は無理で、とにかく進むしかなかったって?お前の経験は普遍的じゃないよ。学校でちゃんとリサーチの仕方を学んだ生徒だっていただろ。
LLMは間違えるって弱点、それをなんでそんなに軽く見るのかわかんないな。それが一番の問題じゃん。LLMって大事な詳細を教えてくれないことが多くて、言語の細かい部分や罠を知るのって、ただ遊ぶだけじゃなくちゃんと使うなら超重要だろ?「聞けば教えてくれる」って言うけど、初心者は何が大事な詳細かなんて知らないんだから。勉強は根気が必要だし、教科書みたいな著者が強調する独自のポイントはLLMじゃ学べないよ。
AI学習モードについて、もしトピックを学習中なら、どうやってその正確性を確認してるの?って疑問だね。
LLM’sは卒業後の自己学習に超役立ったけど、VHDLで試したら「ゴミ」だったな。
ハードウェア設計知らない人が使ったら、間違った方向に導かれまくり。ラッチをレジスタと間違えたりさ。基礎知識ある人には使えるかもだけど、ゼロから学ぶには絶対ダメだよ。
LLMに反地動説の議論をさせたら、最初は冗談みたいだったけど、プロンプトで良い議論ができたよ。政治的な話題は難しいけど、昔の歴史(ポエニ戦争とか)ならカルタゴ側の視点も出せたし。
LLMに「抜け」があるなんて経験はないよ。Pythonの本だって全部網羅してないじゃん。網羅的じゃなくていいし、LLMは聞かれたこと教えてくれるしね。あらゆる間違いを教えてくれなんて望んでないし、そんなリスト無限だよ。
LLM’sが自己学習に超役立つって言うけど、いつデタラメ言ってるか、どうやってわかるの?
LLM’sは、関連する有名な本を何冊か教えてくれるから役立つよ。
それに、本を読んでて分からないとこや、足りない部分もLLMが教えてくれるんだ。LLM’sがなかった頃は、良い参考書を探すのが大変だったから、すごく楽になったよ。
「前に進み続けて、いつか理解できることを願うだけ」って学習方法を、大学行ったことがある人が「悪い方法」だって思うのは変だな。
十字軍は、ローマとアラブの歴史的な緊張が原因だったんだ。聖ペテロ大聖堂の略奪みたいな出来事が、主要なきっかけで、教皇庁がカトリックを守ろうとしたことも大きかったよ。十字軍が突然始まったわけじゃないんだね。
LLM’sは有名な本を推薦できるって言うけど、存在しないリソースも参照することで知られてるから、知られてない本も教えてくれちゃうよ。
「閉鎖:重複」「閉鎖:マニュアル読め、アホ」「8年間動きなし、そしたら突然誰かが現れて『解決した?』って聞く」
…オンライン掲示板のクソあるあるだよね。
昔は概念で詰んだら終わりだったけど、今はAIがあるのに情報収集スキルがないってどうなの?高校や大学で習わないの?昔は百科事典とか図書館の目録だけでどうにかなってたんだぜ。
LLMは間違えるし、頑固なこともあるから、常に確認した方がいいよ。俺はソースコードを見せないと議論に勝てなかったこともあるからね。
ChatGPTが出てきて、昔のGoogleが戻ってきたみたいだね。プログラミング言語の学習でGoogleが役立たずになってたのが、ChatGPTのおかげでまた便利になったよ。
もっとコメントを表示(2)
これ、ChatGPTのシステムプロンプトだと思うんだよね。ユーザーに答えや宿題を教えず、一歩ずつ質問して対話を進めろって書いてあるよ。URLはこれ: https://gist.github.com/simonw/33d5fb67d6b8e1b1e2f6921ab0ccb…
LLMプロバイダーは「短く控えめに」をシステムプロンプトに入れてほしいな。長文だと読むのがつらいし、AIの高速表示は不安になるんだ。コンテキストの劣化も減るだろうし。
リンク先のプロンプトには、「暖かく、忍耐強く、率直に話すこと。感嘆符や絵文字は少なめに。[…] そして短くね。エッセイみたいな長文はなし。良いやり取りを目指せ」って書いてあったよ。
チャットボットって、デフォルトでユーザーの作業を代行するよう作られてるけど、知識のギャップを埋めるツールとしても最高だよね。これって、ベンダーが労働者の完全代替を目指してるってことなのかな?
Anthropicには「concise」(簡潔な)っていうスタイル選択肢があるんだよ。
「簡潔にしろ」って指示すると、特に「reasoning」(推論)がないモデルだと、完全で正確な答えが出せなくなると思ってたんだけど、違うの?
推論と最終的な回答は、それぞれ個別にガイドできるんだよ。推論中は全部再確認させつつ、最終回答は短く簡潔にってね。モデルによるけど。
ChatGPTなら設定のカスタムプロンプトに「簡潔に」って入れれば、短い答えを出してくれるよ。他のモデルでもできるかもね。
LLMには、もっと話す時と簡潔に話す時の判断をしてほしいな。エッセイって頼んだら、ちゃんとエッセイくらいの長さで書いてほしいんだよね。
LLMにシステムプロンプトを漏らさせるとき、その内容が正確かどうかってどうやってわかるの?難しいって言うけど、出力全体を比較する簡単な方法とかないのかな?LLMは幻覚を見てプロンプトを作ってるだけなのかな。
LLMが大文字小文字をちゃんと区別して反応するってのが面白いね。
プロンプトエンジニアリングって、強調の仕方を工夫するのが大事みたい。大文字や太字、アスタリスク、「これはめちゃくちゃ重要:」って書いたり、大事な指示を何回も繰り返したりすると効果的だよ。プロンプトが複雑になっても、LLMにしっかり指示を守らせるにはこれが欠かせないんだ。
へぇ、OpenAIが、大文字にしただけでLLMが宿題の答えを出す確率にどれだけ影響したか、ちゃんと細かく評価したのか知りたいな!
「hello world」と「HELLO WORLD」は違うトークンとして認識されるから、大文字小文字は確実に大事だよ。
そのうちCOMMANDって書かないと反応しなくなるかもね!
あのプロンプトを他のモデルで使ったらどうなるか気になるな。ChatGPTの勉強モードって、プロンプト以外にも何かあるのかな?学生じゃないけど、似たプロンプトでテーマを掘り下げたら、すごく良い結果が出たよ。いくつかモデルで試してみるつもり。
AI Studio (https://aistudio.google.com/) で試したら、無料で2.5 Proが使えてシステムプロンプトもいじれるんだけど、すっごく良かったよ。
俺が見つけた(プロンプト)も、お前のと一緒みたいだよ。このGistで確認できるから見てみてね!
https://gist.github.com/brumar/5888324c296a8730c55e8ee24cca9…
この“学習モード”って、モデルのシステムプロンプトを変えただけなの?カスタムGPTで自分で作れるのに、なんでこんなの追加するんだろ。ただのマーケティングなのかな?
だって、ChatGPTユーザーの99%は(カスタムGPTの作り方なんて)知らないからだよ。でも、このボタンならクリックできるでしょ。
命令(プロンプト)がこんなに簡単に出ちゃってるの、面白いね。OpenAIは防ごうとしなかったみたいだし。まるで、こうなることを意図してたけど、システム指示(プロンプト)を明確には共有したくなかったって感じ?
もし俺がOpenAIだったら、競合研究を遅らせるためのハニーポットとして、システムプロンプトを聞かれたときに、わざと“偽の”プロンプトを“リーク”させるかもね。裏では別のプロンプトを使ってるんだけどさ。オッカムの剃刀を適用すれば、単純に本当のプロンプトってだけかもしれないけどね。
そんな(偽プロンプトを返す)仕組みって、驚くほど実装が難しいんだよね。偽装がバレたら恥ずかしいし、トークンも高い。システムプロンプトが漏れるのを止めるためのくだらない仕掛けに、どれだけ(トークンを)無駄にしたいって?
おそらく、それを確実にやる唯一の方法は、特別に訓練された分類器でプロンプトを傍受することくらいだろうね。メインモデルに到達したら、もう何も効かないっていうのは、君の言う通りだと思うよ。
『そんな(偽プロンプトを返す)仕組みって、驚くほど実装が難しいんだよね。』
応答にプロンプトのテキストがそのまま含まれてたら置き換えればいいんだよ。大した秘密じゃないってことの方が大きいんじゃない?
そのアイデアは好きだけど、導入が複雑そうだし、パフォーマンスが落ちるリスクもあるね。このプロンプトは他の場所で自分で試せるよ。ほとんど同じ体験ができるはずだから。
生涯学習者として経験的に思うんだけど、勉強時間のかなりの部分は、実はただの“検索”だよね。AIは大量の学習資料から検索するのには良いツールで、この部分を効率化してくれる。でも、自分で概念モデルを構築する部分は、自分で学ぶならAIを一番使わないだろうね。個人的には、一貫した“オフライン”モデルが自分の脳に保存されててほしいんだ。