メインコンテンツへスキップ

LLMの動作が丸わかり!?驚愕の可視化が凄すぎると話題に!

·2 分
2025/09 LLM AI 可視化 機械学習 ディープラーニング

LLMの動作が丸わかり!?驚愕の可視化が凄すぎると話題に!

引用元:https://news.ycombinator.com/item?id=45130260

jkingsman 2025/09/04 20:17:07

うわ、これめちゃくちゃ複雑でめっちゃすごいじゃん!プロセスを可視化するのに最高のやり方だね。

dang 2025/09/04 20:21:38

関連する話題だよ。他に何かある?LLMの可視化について - https://news.ycombinator.com/item?id=38505211 - 2023年12月 (コメント131件)

dpflan 2025/09/04 20:54:57

Georgia Techの研究者によるTransformer可視化の別のアプローチだよ: https://poloclub.github.io/transformer-explainer/
『The Illustrated Transformer』: https://jalammar.github.io/illustrated-transformer/
Sebastian Raschka, PhDのアーキテクチャに関する投稿: https://magazine.sebastianraschka.com/p/from-gpt-2-to-gpt-os
このHNコメントにはたくさんのリソースがあるよ: https://news.ycombinator.com/item?id=35712334

th0ma5 2025/09/04 21:29:05

俺、これ昔から好きだったんだよね。DeepMindの可視化。 https://alphacode.deepmind.com/
(再生ボタン押して、全体表示にして、スマホなら下にスクロールしてね)

its-kostya 2025/09/05 02:14:47

魅力的な可視化だね。プロセス全体は可視化できるのに、モデルの意思決定に関する内部の仕組みは理解できないって考えるとなぁ。これ、1年くらい前に調べた時はそうだったけど、その側面で進展があったかは知らないんだ。

xwolfi 2025/09/05 08:43:35

内部の仕組みは完全に理解できて結果も見れるけど、LLMが意思決定してないで、ただ良い単語を選んで文を完成させてるだけなのに、知的に聞こえるってのが受け入れがたいんだよね。例えば『Strawberry』にはrが2つあるって言うと、『ああ、単なる巨大な統計行列で、本質的な価値はゼロだな』ってなるじゃん。

baq 2025/09/05 09:46:34

ハンマーで料理しようとしても、やっぱり何の価値もないよね。

ares623 2025/09/05 10:12:01

経済から5000億ドルも吸い上げて、実質的に経済を支えているハンマーだよ。製造元や周りのみんなは『料理に最高だ!』って大声で叫んでるけどね。

noisy_boy 2025/09/05 10:19:03

上司の上司とか、オーナーとか投資家とか、そこら中の人が、『もうハンマーで料理してるのか?してないならなんでだ?だって、高価な料理器具を使ってる料理人をどうやって追い出すんだ?』って聞いてくるんだよ。

ares623 2025/09/05 23:08:44

LLM可視化技術は「もしこのハンマーが広告通りに動けば君らはクビになるよ!」って言われて「よし、調べてみます!」と答える高給取りの料理人みたいだね。皮肉が効いてる!

psychoslave 2025/09/05 15:08:03

この動画見てみて!
https://m.youtube.com/watch?v=LhaBkvneMW8

southp 2025/09/05 08:20:20

LLMの知識は乏しいけど、これめちゃくちゃ興味深いね!プロット方法や実際のモデルとの類似性が知りたいな。もしLLMをアルゴリズムでモジュール化できたら、データセンターじゃなくチップに搭載できるようになるのかな?

southp 2025/09/08 09:12:16

「LLMをチップに」ってのは、汎用計算ユニットじゃなく、LLM全体をチップとしてハードワイヤリングする意味で言ってたんだ。シリアライズ可能だから、答えはイエスだろうね。でも、モデルの進化が速いから、今のビジネス価値は低いかも。みんな、返信ありがとう!

visarga 2025/09/05 10:23:49

類似性はかなりいい感じだよ。全部の詳細は無理だけど、肝心な部分は載ってる。モデルはめちゃくちゃシンプルで、アテンションの式はナプキンにも書けちゃうくらいだ。Attention(Q, K, V) = softmax(Q * K^T / sqrt(d_k)) * Vが核心で、Q * Kで類似性を計算してるんだ。

nl 2025/09/05 11:07:40

LLMはもうチップで動いてるよ。スマホでも実行できるんだ。でも、モジュールがCPUオフロードを可能にしてるってのは面白いポイントだね。一部をCPU、他の部分をGPU/NPU/TPUで動かすのはよくある話だよ。パフォーマンスは落ちるけど、柔軟性が上がるんだ。

yapyap 2025/09/05 10:23:42

データセンターは、多くの人がLLMサービスを使えるようにするためのスケーリングと、GPUの制約で訓練に時間がかからないようにするための訓練が主な役割って理解してるよ。LLMをチップで動かすのは、LLMやチップによるけど、もう可能だよ。

xwolfi 2025/09/05 08:39:01

いい感じのLLMなら、MacBookラップトップでも動かせるんだぜ。

psychoslave 2025/09/05 11:50:30

どれのこと?数ヶ月前に試したら、数秒に一単語しか生成されなかったんだけど。あまり深く調べなかったけど、「llm」ツールを入れて、最初に動くってあったやつを使っただけなんだよね。

_1 2025/09/05 11:58:59

デフォルト設定を調整してみる必要があるかもね。Macで最初に試したモデルがめちゃくちゃ遅かったんだけど、それは長いコンテキストウィンドウを事前に確保しようとしてGPUメモリに入りきらず、CPUで動いちゃってたからなんだ。

psychoslave 2025/09/05 12:41:51

誰かチュートリアル教えてくれない?

psychoslave 2025/09/05 13:37:33

自分で見つけたよ: https://github.com/nordeim/running_LLMs_locally

psychoslave 2025/09/05 13:41:34

最初のテストはちょっと期待外れだったな。ollamaでllama2に“平和と愛の詩を書いて”って言ったら、“不適切な内容は生成できません”って謝られちゃったよ。

knowaveragejoe 2025/09/06 00:47:09

llama2はもう古いよ。ollamaでベースモデル名だけだと、性能の低い量子化(llama2:Q_4_M)になっちゃう。おすすめはgemma3モデルだね。VRAMより小さいサイズを選んで。設定をいじれば、もっと少ないリソースでも動かせるよ。
https://ollama.com/library/gemma3/tags

aaa_2006 2025/09/04 22:31:05

これ、すごいじゃん!LLMの可視化が、生成中のアテンションの動きとか、プロンプトで出力がどう変わるかを教えるツールになったら最高だね。インタラクティブなビューがあれば、中の仕組みがもっとよく分かる気がする。

owenversteeg 2025/09/06 00:22:57

この可視化は素晴らしいけど、結局は”テキスト入力 → 線形代数とモデルの重み → マジック!”って感じだよね。アテンションは重要だけど、それがどうアイデアをインテリジェンスにするのか?インテリジェンスをアイデアそのものと見たらどうなるんだろう?

m4r71n 2025/09/05 13:08:19

Karpathyがこの可視化について解説してる動画がこれだよ: https://www.youtube.com/watch?v=7xTGNNLPyMI
見る価値あり!

weego 2025/09/05 12:23:57

この可視化の根底にある抽象的な数学的な部分が知りたいな。前はなかったのか、それとも着目されなかっただけ?人類の知識を全部スクレイピングするってアイデアが最近までなかっただけかな?MLの理解で、最近の研究爆発やパターン発見、改善につながるブレイクスルーって何かあったの?

Viibrant 2025/09/05 12:51:35

俺の理解だと、AIは昔、知識表現が中心だった。専門家が手作業で作ってたけど、限界があったんだ。だから、データから直接表現を学習しようってなったんだよ。それが今の段階で、人類の知識を全部スクレイピングしてる理由だね。計算能力が上がって、データも手に入りやすくなったし、Transformerみたいなスケーラブルなアーキテクチャも登場したからだよ。

blahgeek 2025/09/05 16:20:35

多分、理由は二つあると思う。一つはGPUみたいなハードウェアの進化で計算能力が上がったこと。もう一つは、Transformerみたいな新しいアルゴリズムの発明で、大量のデータを効果的に処理できるようになったことだね。

pkdpic 2025/09/05 04:39:41

これすごい良いね!5歳の息子のコンピュータークラブで見せるつもりだよ。

もっとコメントを表示(1)
keyle 2025/09/05 12:03:45

5歳児がコンピュータークラブに入ってるって?今の子供たちはすごいね!

JackYoustra 2025/09/05 19:23:21

これ、前のHN記事で見たけど、マジで最高な教育ツールの一つだね。

martin-t 2025/09/05 02:04:31

n-gateがあったら、この記事の投票数とコメント数の比率に言及しただろうな。HNでコメントが少ないってことは、質の高い技術的な記事の証拠だよ。これはHNとかアテンションエコノミーの問題を浮き彫りにしてるね。
本題に戻ると、実際のモデルの重みとカスタマイズ可能な入力テキストでこれを見てみたいな。あと、3blue1brownのLLM動画みたいに”意味”のベクトルも探求できたら最高だね。

cellular 2025/09/05 14:41:24

実際のモデルの重みに関する話なら、これを見て。https://youtu.be/KSovbSkARYw
『数字の足し算。緑線は重み。上部の赤丸は不正解、緑丸は正解だよ。NNが学習すると重みが調整されて、緑丸が増えていくよ。』

kittikitti 2025/09/05 05:45:38

これマジで最高だね。深掘りしたい!オブザーバビリティツールと組み合わせれば、”ブラックボックス”って言われてるLLMの謎を解明できるはずだよ。

ksvarma 2025/09/05 05:02:05

うわー、マジで信じられないくらいすごい。これもう芸術作品だね。作ってくれて本当にありがとう!

b0dhimind 2025/09/05 20:30:33

くそー、どのアドオンが邪魔してるか分かんないけど、今のFirefoxプロファイルだとこれ動かないな。別のプロファイルだと大丈夫なのに。

sema4hacker 2025/09/05 21:53:49

素晴らしいグラフィックだね。でもすぐに”こんなごちゃごちゃしたやり方じゃAGIなんて達成できないだろうな”って思っちゃったよ。

nickdothutton 2025/09/05 17:19:13

これって、なんか役に立つし見た目も美しいし、満足感がすごいね。よくやった!

FergusArgyll 2025/09/05 13:49:34

backpropとか訓練シーケンスを理解するのに、これみたいなリソースって他にある?

cellular 2025/09/05 14:15:04

https://youtu.be/DTRNOJBIDMY
これは多層のbackprop(バックプロパゲーション)についてだよ。どのテキストでも違うような難解な添字の専門用語を全部飛ばしてくれてるから分かりやすいよ!

felipelalli 2025/09/05 23:31:17

信じられないくらいすごいね。

gcid73 2025/09/05 06:03:28

ああ、やっと分かったよ。これ、すごいリソースだね。努力に感謝するよ。

navigate8310 2025/09/05 12:49:13

468アップボートでコメントが24って、なんか変じゃない?

FergusArgyll 2025/09/05 13:50:18

それはね、素晴らしい投稿の証拠だと思うよ。議論を呼ばないけど、みんなに愛されてるってことだよね。

記事一覧へ

海外テックの反応まとめ
著者
海外テックの反応まとめ
暇つぶしがてらに読むだけで海外のテックニュースに詳しくなれるまとめサイトです。