メインコンテンツへスキップ

どうやら私も合理主義者になったらしい

·4 分
2025/06 合理主義 Effective Altruism AI 長期主義 倫理

どうやら私も合理主義者になったらしい

引用元:https://news.ycombinator.com/item?id=44317180

contrarian1234 2025/06/19 11:09:17

合理主義運動って、何か引っかかるんだよね。絶対的なトーンとか、みんな自惚れてて「分からない」って言えない感じとか。
特にAIの話になると、謙虚さもなく世界の終わりみたいに騒ぐでしょ?たぶんAIって、みんなが思ってるより無害で面白くないと思うよ。

jandrese 2025/06/19 16:20:06

有効な利他主義の人たちにそっくり!仮説的な論理にどっぷり浸かって、純粋なロジックだけでヘンな結論出しちゃうんだよね。
初期条件が人工的って気づかず、優越感に浸ってる感じ。「お尻に詰まる」って言葉があるけど、若い頃は周りが止めてくれたのに、金とネットがあると聞かなくなるのかな。

troyastorino 2025/06/19 17:05:26

EAと合理主義コミュニティってほぼ同じ人たちだよ。
AIの悲観論はEAの「時間割引」を避ける考えから来てるんだ。未来の人が重要なら、滅亡リスクは小さくても最優先ってロジックね。
彼らは賢いけど、現実って複雑でしょ?歴史や常識とぶつかる結論が出たら、前提を見直せばいいのにね。

dasil003 2025/06/19 18:00:48

知性や合理的な考え方って役に立つけど、万能じゃないよ。
長期的な未来の混沌は予測できないし、合理性で何が最大のリスクか高精度にわかるわけじゃない。
今こうやって考えられるのは豊かな文明のおかげだけど、この状況は不安定なんだ。
50年前の最大リスク(人口過多)の考え方がひっくり返ったみたいにね。

lisper 2025/06/19 20:58:26

合理主義って、ある意味で自己否定的なんだよね。
だって合理的に考えたら、宇宙の根本って非合理なダーウィン進化だって結論になるじゃん。
それは繁殖を最優先するだけで、性差別とかに傾くかもしれない。
本当はダーウィン主義と啓蒙主義理想の対立なのに、合理主義者でこれを真面目に考えてる人を見たことないな。

mettamage 2025/06/19 21:18:01

これって、宇宙の小惑星みたいに自由意志がなくて、全てが決まってるって考え方に似てるかな。
感情的には嫌だけど、合理的に考えたらそうなる。
合理的な人の欠点は、経験を軽視すること。
前提と合理性だけじゃなくて、経験やデータ、自分の直感みたいなのも含めて全体像だと思うんだ。

mitthrowaway2 2025/06/19 15:32:37

「認識論的状態:ほぼ推測」って書いたり、過信の危険性について論じたり、自分の間違いリストを公開したりしてるのって、まさに彼ら合理主義者じゃない?
その人たちのことを、ちょっと決めつけすぎじゃないかな?

NoGravitas 2025/06/19 14:50:21

AIアライメント(AIの目標を人間と一致させること)の心配って、アルゴリズムバイアスとかエネルギーコストとか、AIの現実的な危険性から目をそらすための煙幕みたいだね。
今の問題を軽視して、将来の仮説的な問題ばかりに集中する「長期主義」にもつながってると思う。

cassepipe 2025/06/19 17:54:10

このコメント欄、全部読んだけどさ、結局みんな論点がなくなると人を悪く言ってるだけじゃん。「自分たちの方が上だと思ってる!」とか「時々間違える!」とか。
合理主義者のコミュニティは知らんけど、彼らの文章は考え方の新鮮な空気で、私にはすごく役に立ったんだ。
こういう偽善的なコメント読むのは悲しいけど、だからこそ合理主義者が好きで、他のほとんどの人が好きじゃないって再確認できたよ。

philipov 2025/06/19 15:03:15

そうそう、AIの最大の脅威は、それを独占したい資本家から来るんだよね。

Retric 2025/06/19 21:52:22

「自由意志」ってなんか意味なくね?外から見たらランダムと区別つかんし。別に人間が完全にランダムじゃないのは当たり前じゃん。
別にどっちでもいい時もあるし、自由意志がないと困る何かがあるの?魂?それも決まってたら?量子的な乱数もあるし。
ぶっちゃけ主観的にもよく分かんないし、それが何か違いを生むの?

impossiblefork 2025/06/19 15:09:28

AI開発してる人たちが必ずしも大金持ちになるとは限らないかもね。技術が広まれば、LLMを動かす知識は多くのAI研究者に広まるだろうし、ハードウェアも手が届きやすくなるだろうし。
むしろ儲けるのは、Appleとか自動車メーカーみたいな、普通のだけど動きにくいソフトウェアやハードウェア持ってる会社じゃないかな。
純粋なソフトウェア企業はAIプログラマーが競合になって、利益が減るかも。これはあくまで推測だけどね。CURSORとかは今評価高いけど、将来的にはどうなるかな?

lisper 2025/06/19 22:37:12

量子レベルまで見たら、「客観的現実」なんてないんだよ。この世界がモノでできてて、時間や場所に固定されてるって感覚も、単なる幻想。
でも、すごくリアルな幻想だから、現実世界の99パーセントでは真実として扱っても大丈夫。
自由意志も同じで、脳の仕組みを知らないからそう思う幻想。これも強力な幻想で、少なくともある程度は真実として扱ってOKだよ。

nradov 2025/06/19 15:24:12

昔アメリカ大陸横断鉄道を造ってた会社も、当時はめちゃくちゃ評価高かったんだって。でも、結局ほとんどが潰れたり、安く買収されたりしたらしいよ。
でも、線路は残ってて、今でも使われてるルートが多いんだ。
AIも同じような道をたどるのかもしれないね。

ajkjk 2025/06/19 18:12:28

合理主義者が嫌がられるのは、考え方が危険な結論に繋がりそうだからだよ。
例えば、家族や友達みたいな身近な人への道徳を軽視・否定すること。
これは道徳の基礎だから、ここが崩れると全部おかしくなるんじゃないか、って不安を感じる人が多いんだ。
AI安全より、まずは身近な人を守るべきって考え方だね。
でも、合理主義にも価値はある。批判も価値も両方見て、いいとこ取りするのが大事だよ。

felipeerias 2025/06/19 11:26:00

何でも「第一原理」から考えようとするのは、限界があるんじゃない?
生物とか社会とか文化って、長い時間をかけて自然に進化してきたものだからさ。
単細胞生物からゾウがどうできたか全部考え出すのは無理で、ゾウを見てから遡る方がずっとマシだよ。

pavlov 2025/06/19 16:04:04

今のアメリカの鉄道って、他の国や中国と比べるとイマイチだよね。
派手に盛り上がって崩壊するみたいな資本主義って、何百年もかけて育てるものを作るのには向いてないのかも。
アメリカのAIも、最初はすごかったけど、後で「ただの古びたインフラ」みたいに見られるようになるかもね。

Certhas 2025/06/19 17:04:53

理論をちゃんと調べてない、って意見、わかるわ。
彼ら rationalists は、哲学とか社会学とか、色んな分野にすでにある議論を知らないか、軽視してるように見えるんだよね。
謙虚さもあるかもしれないけど、「俺たちだけが合理的に考えてる!」みたいな傲慢さも感じる。
でも、昔からの考えに縛られずに議論しようとするのは、いいところだと思う。
実際に会った rationalist の人たちは、一緒にいて楽しかったけどね。

lisper 2025/06/19 23:30:28

量子レベルで客観的現実がないってどういうことか知りたい?じゃあ、これを読んでみて。-> https://flownet.com/ron/QM.pdf
動画がいいならこっち。-> https://www.youtube.com/watch?v=dEaecUuEqfc

GoblinSlayer 2025/06/20 08:55:47

それって論理が飛躍してるんじゃない?QITの下では、測定は単に多数の粒子に絡み合った状態が伝播することだっていうけど、eyeroll
それはMWIの変装だよ、でもMWIは量子実在論なんだ。
彼らが話してる幻想ってのは、観測された巨視的な状態がより大きな重ね合わせの一部だということ(不完全な観測)なんだ。
でもそれはバカげてるよ、たとえより大きな状態の一部だとしても、それは作り物じゃなく観測されてるんだから、まだ現実だよ。

lisper 2025/06/20 15:49:40

『MWIが変装』ってのは、GRWがコペンハーゲンの変装って言うのに似てるね。『変装』って言葉に無理させてるから間違いじゃないだけだよ。
『MWIは量子実在論』?違うね、Born ruleを説明できないから。詳しくはここ見てね: https://blog.rongarret.info/2019/07/the-trouble-with-many-wo

Aurornis 2025/06/19 20:22:40

ネットの合理主義の初期から知ってるけど、彼らの『epistemic status』とか『間違ったことリスト』とかの書き方って、身内の合図が多いんだよね。今じゃヘッジとか言い訳を用意して、将来『完全に間違ってたわけじゃない』って言えるようにしてる。
『AI 2027』の破滅シナリオとかまさにそうで、作者のScott Alexanderも『速いシナリオの80パーセンタイル』とか言ってて、外れても『もともと真ん中の予測じゃないし』って言うのが見え見えだよ。
彼らはこの見せかけの謙遜とヘッジで信頼を得ようとしてるんだと思う。

loose-cannon 2025/06/19 11:33:45

還元可能性が知的探求の目標ってことが多いの?それって欠点だとは思わないな。

noname120 2025/06/19 17:52:28

『EAの人たちは仮説的な論理で馬鹿げた結論に達する』って言うけど、それ例ある?
俺が会ったEAの人は地に足がついてて賢い人が多かったよ。例えば最近のニュースレター見てみて: https://us8.campaign-archive.com/?e=7023019c13&u=52b028e7f79
そこに『馬鹿げた結論』に繋がる『仮説的な論理』があるか疑問だな。
『前提が人工的で結論は学術的価値しかない』って言うのも、俺の経験とは真逆。彼らは批判をよく聞いて考え直すし、抽象的な考えの危険性もよく分かってるよ。

9rx 2025/06/19 16:53:24

『米国の鉄道は他の先進国や中国に劣る』ってのはナンセンスだよ。
米国には世界最大の貨物鉄道システムがあって、世界で最も効率的とされてる。
旅客鉄道は少ないけど、それは米国人が貧乏じゃなくて、より良い交通手段を選べるから。
『ブーム&バスト資本主義が進化に不向き』ってのも違う。
旅客鉄道は最初はうまく発展したけど、後に良い選択肢が出てきたから消えたんだ。
日本の平均所得がミシシッピ州の半分くらいで、鉄道が安いから使ってるのとは違うんだよ。

ummonk 2025/06/19 14:50:08

合理主義者にはいつも違和感あるけど、AI破滅論への『たぶん無害かも』って反論は変だよ。
第一原理を気にするなら、予防原則はどうなの?
潜在的に世界を終わらせる技術を、ただ『たぶん無害かも』って理由で進めるのは良い議論じゃないと思うな。

jhbadger 2025/06/19 19:25:30

Adam Beckerの本によると、EAは最初は『できるだけ寄付して、どのチャリティが一番役に立つか調べよう』って合理的だったらしいね。
でも『飢餓の人やマラリア予防よりロケットに資金出す方が大事、だって小惑星が地球に衝突して皆死ぬかもだから』みたいな不条理な結論にハマっちゃったんだって。

ineptech 2025/06/20 00:17:25

EAの『魅力的だけど間違ってる部分』って何?
反対意見のほとんどは、『予防できる病気で人が死んでるのにペットシェルターに寄付すべきじゃない』ってのと、『でもペットシェルターへの寄付の方が気分いいもん!』っていう対立に帰着すると思うな。

Veedrac 2025/06/19 20:50:53

人々の予測が間違ってた証拠を出すなら、将来どうなるか意見が分かれる最近の予測じゃなくて、実際に間違った過去の予測を挙げた方がいいよ。
失敗した予測の言い訳の証拠を出すなら、そうするだろうと予測して責めるんじゃなくて、実際に言い訳をしてるのを見せた方がいい。

baxtr 2025/06/19 14:25:46

オレがこのムーブメントに一番問題だと思うのは、Bayesianismを強調する一方で、Popperian epistemologyをほとんど無視してる点だね。Popperなしには、合理的と非合理的な区別は意味をなさないと思うんだ。PopperはBayesianismだけじゃ見失いがちな、認識論的な謙虚さを注入してくれる。それは君の観察ともよく合ってると思うよ。

もっとコメントを表示(1)
mathattack 2025/06/19 15:22:23

論理ってのは素晴らしいツールで、古代ギリシャの哲学者からコンピューターのゲートまで導いてくれた。純粋な合理主義の課題は、思考の出発点となる最初の原理をどうチェックするかだね。原理が間違ってたり、途中の複雑性を見逃したりすると、論理は間違った方向へ導くことがあるんだ。
間違った最初の原理の例としては、Aristotleを見てみよう。歴史上最も偉大な論理学者の一人なのに、たくさんの間違った結論に至った。
複雑性を見逃した例では、Natural Selectionは経験的な分析から生まれたもので、第一原理思考からじゃないこと。(後者からも来れたかもしれないけど、複雑すぎたんだ)[1]
これは論理を否定するわけじゃなく、答えには常に暫定的な謙虚さが伴うべきだってことを強調してるだけだよ。
そして、オレはScott Aaronsonの超熱狂的なファンだ。[0] https://www.wired.com/story/aristotle-was-wrong-very-wrong-b… [1] https://www.jstor.org/stable/2400494

kragen 2025/06/19 15:28:50

ここで話されてる’合理主義者’グループは、経験論を否定したCartesian合理主義者じゃなくて、Bayesian empiricistsだよ。Bayesian probabilityってのは、Aristotle(名目上は経験論者!)に欠けてた、Boolean logicを連続実確率に拡張した唯一無二のものだってことが分かってるんだ。(彼らが自分たちを”合理主義者”って呼ぶのは、経済学における”合理的なBayesian agent”っていう理想から来てると思うけどね。)
でも、彼らには「宇宙の同時条件付き確率分布について、ただ推論するだけではダメだ」っていうスローガンがある。つまり、AIXIは計算不能だし、AIXIでさえ計算可能な確率分布についてしか推論できないってことさ!

1propionyl 2025/06/19 20:16:48

彼らが自分たちを経験論者と呼ぶのは勝手だけど、彼らに数回接すれば、彼らがそうじゃないっていう確固たる確信(あるいは、priorをアップデートしたとでも言っとこうか?)を持つことになる。第一原理推論や都合の良いpriorの選択が、反復的な経験論の遅くて地道な作業や、あまりに広範な理論的主張をする前に観察にコミットする謙虚さよりも、一貫して優先されてるんだ。
前者は今すぐ何かについて正しそうに見えるようにする。後者はたいていの場合、ずっと後になって自分が間違っている(面白い形でね)と発見することになる。

JamesBarney 2025/06/20 09:58:25

君たちが読んでる合理主義者って一体誰?
オレはNYTもrat blogsもいつも読んでるよ。そして、話題の研究やスタディに深く関わってる可能性がはるかに高いのはNYTじゃないね。

tsimionescu 2025/06/20 08:48:04

Bayesian inferenceは、合理主義者が好きな哲学的/思弁的な議論のタイプで、実際の経験的な研究の代わりに非常によく使われる。それは、in-principleの合理性のレベルを保ちつつ(もちろん、誰かが実際にその現象を研究したらpriorをアップデートするって主張するんだからね)、めちゃくちゃ推測するのにすごく便利なフレームワークなんだ。
現実には、量子力学やポーカーのように確率がほぼ完全に分かっていないと、推論はほぼ即座に破綻する。だから、銀河系内の知的生命体の数(”Drake’s equation”)とか、AIの相対的な知性(”the Singularity”)とか、そういう主題にBayesian推論を適用すると、結局は最初から導きたかったどんな結論でも導けて、そこにたどり着くのに都合の良い前提を見つけられるんだ。

edwardbernays 2025/06/19 17:06:36

論理は真であるもの、そして証明可能であるものの研究だよ。
最も理想的な状況では、これらは同じ。論理はmodel theory(真であるものの研究)とproof theory(証明可能であるものの研究)に分解されてきた。現代の合理主義の多くは、根拠のないproof theoryなんだ。彼らの多くはKantの”The Critique of Pure Reason”を読むと良いだろうね。
残念ながら、我々がしばしば扱う非常に複雑なシステムでは、真であることが証明可能ではないかもしれないし、証明可能な多くのことが真ではないかもしれない。だからこそ、識別力(discernment)のスキルを磨き、推論だけでなくreckoningを実践することが同じくらい重要なんだ。オレはそれを「真実の響きを聞く」と考えてるけど、これは明らかに反証不可能だし、これを聞いたと信じる時でも自分自身に対して懐疑的でいなければならない。それはより深い調査へのガイドであるべきで、最終目的地じゃない。
多くの人が思考に惑わされてる。それは魅力的だ。思考は無意識の完璧さへの道にある、ただの意識的なつまずき石にすぎない、ともっと一般的に言われるべきだね。

jhanschoo 2025/06/20 02:42:19

ちょっとAristotleを弁護させてよ。彼の不完全な論理と形而上学は、それでも彼以前の人々が体系的に行わなかった世界の多くの側面を探求するための強力な基盤を提供したんだ。彼のコミュニティは生物学の経験的な研究を避けてなかった。彼らは皆、いくつかのことでは間違った結論に至ったけど、彼らを責めるよりは、挑戦しなかった後継者たちを責めるべきだろうね。

jrm4 2025/06/19 15:25:33

うん、”tool”って言葉を強調しても強調しきれないね。
それは”ツール”であって、”絶対的な真実への魔法の窓”じゃないんだ。
ツールは仕事に合ってることも、合ってないこともある。続けて。

pjscott 2025/06/21 02:24:40

記事の著者は合理主義者たちの考えをまるで知らないかのように書いた。それで彼らがイラつくのも仕方ないでしょ?
嘘ついて相手を怒らせて得意になってる人とは、かかわりたくないのが普通。
人生は短いんだからさ。

eth0up 2025/06/19 15:50:56

> 暫定的な謙虚さ
これが初の価値あるミームになってほしいね。
「暫定的な謙虚さ」のカルトが必要だ…
pHを、増やさねば。

eth0up 2025/06/19 22:27:20

そうなんだよ。
多くの分野で、謙虚さってマジで足りてないんだよね。
みんなもっと真剣に謙虚さを実践すべき。
前のコメントの「良いアドバイス」ってのに同意して、支持しただけだよ。

samuel 2025/06/19 12:17:56

今、Yudkowskyの「Rationality: from AI to zombies」を読んでる。
最初は難しかったけど、今は楽しんでるよ。
彼の考えはすごく役に立つ。
例えば、言葉の定義が違うだけでケンカになる「セマンティックな議論」とか。
彼の本は、そういうのに気づけるようになるからおすすめ。

greener_grass 2025/06/19 12:49:04

STEM系の人が、哲学とか歴史の基本的なアイデアをうまく見せられて、すごいって思ってるだけじゃない?
Yudkowskyが新しいこと言ってるみたいに聞こえるけど、こういう話は何千年も前から議論されてきたんだから、ちょっと意外だよね。

Bjartr 2025/06/19 14:30:17

合理主義のコミュニティは微妙だけど、思考ツールはマジ使える。
でも大事な注意点が一つ。
「俺、合理主義者だからお前より正しいし」って思った瞬間、合理主義者としては失格。
マジで陥りやすいミスだよ。
ツールを使うなら、前より謙虚にならないと、ただの嫌なやつになるだけ。
「いや、俺が正しいね」より「あれ?もしかして間違ってるかも?」って思う方が多いなら、OK。

FeepingCreature 2025/06/19 17:37:41

AIのファインチューニングみたいに、YudkowskyのSequencesは正しいアイデアを選び出して「これは当然正しい」って自信満々に示すことで、哲学の9割を捨てる。
哲学ってこれをもっと積極的にやるべきだよ。
相容れない議論も、多数派が正しくても、残りの少数派がなぜ間違ってるのか分析しないとね。

elt895 2025/06/19 14:36:50

Yudkowskyみたいに読みやすくて、哲学とか歴史に基づいた他の良い情報源ない?
おすすめ教えてほしいな。
古典哲学は難しすぎるし、自己啓発本は同じことばっかり繰り返してるだけ。
Yudkowskyは問題もあるけど、分かりやすくて面白いんだよね。

the_af 2025/06/19 15:10:47

”自分の方が正しいから合理的だ”なんて思った瞬間、合理主義者としては失格なんだよな。Some of themが”LessWrong”なんて謙遜したサイト名にしてるのが、本当は”MoreRight”って思ってるのがバレバレで、それを物語ってるね。現実には、ただの”大人になったティーンエイジャー”たちが、自分のペット理論をネットに投稿して、”ビッグシンカー”気取ってるだけ。

mariusor 2025/06/19 17:17:12

”you just know they actually mean ”MoreRight”.”について。俺はrationalist communityとは無関係なんだけど、”Less Wrong”って名前は、”being right”が絶対的なのに、”being wrong”には大きなグラデーションがあるって言葉遊びだと思ってたんだ。普通の人が使うのとは違う、特定のBayesian iterative reasoningを使う人たちが、他のやり方より間違いの度合いを少しでも減らせることを強調したかったんじゃないか?
もし俺の解釈が正しければ、あんたの主張も完全に間違いじゃないけど、本当のポイントを見落としてると思うよ。

margalabargala 2025/06/20 04:12:02

補足だけど、compatibilismって、自由意志がSchopenhauerの言う”単なる経験された知覚/錯覚としての自由意志”だって受け入れれば、明らかに正しいだけだよ。自由意志の定義を少し変えるだけで、compatibilismは明らかに間違ってることになる。結局、これは定義をめぐってゴタゴタしてるだけで、哲学の歴史を再発明してるだけなんだ。

FeepingCreature 2025/06/20 04:52:59

公平に言って、哲学で使われる自由意志って、本質的に自己矛盾してるし、分野全体にとって最大の汚点の一つだと思うよ。

the_af 2025/06/19 17:25:06

”I’m not affiliated with the rationalist community, but I always interpreted ”Less Wrong” as word-play on how ”being right” is an absolute binary: you can either be right, nor not be right, while ”being wrong” can cover a very large gradient.”
表面上はそれが彼らの意味するところだって知ってるけど、そこに高レベルの自惚れと偽りの謙遜が伴ってるのはバレバレだよ。”I only know that I know nothing”――そうかもしれないけど、彼らは現代のSocratesなんかじゃなくて、ただネットに自分の考えを投稿してるオタク集団だ。

ashwinsundar 2025/06/19 16:34:21

俺も答えは持ってないけど、HPMORの最初の数章を苦労して読んだ後、Yudkとか他のtech-brosが哲学者ぶってるのって、基本的な哲学思想の、 leaky でdumbed-downされた抽象化でしかないって分かったよ。本物を知りたきゃ、utilitarianismとかdeontologyを直接読むべきだね。YudkはWeb開発で言うとWixみたいなもん――確かにWebサイトは作れるけど、HTML、CSS、Javascriptを学ばなきゃちゃんとしたWeb開発者にはなれない。最悪なのは、 crappyな抽象化が、後でunlearnするのが大変なactively bad patternsを仕込んでくることだ。ほとんどoffensiveだよ――技術者って、哲学を理解する能力がそんなにないのか?だからYudkは、みんなが慣れてるleast common denominator――子供の頃に読んだようなファンタジー世界――にまで還元しないといけないのか?

margalabargala 2025/06/20 13:20:35

なぜそれが?
分かってることはこれ。
・俺たちは自分の視点から自由意志と呼ばれるものを経験してるように見える。これは強い証拠じゃないのは明らかだけどね。
・俺たちは、 varying levels of complexity の予測可能なメカニズムと、quantum mechanicsみたいなfundamentally unpredictableなメカニズムに満ちた世界に住んでることを知ってる。
・俺たちは、自分の経験を完全にmodel化して次のステップを予測するのが、現在unableであることを知ってる。
・俺たちは、脳の emergent property としての意識が、予測可能なメカニズムに完全に根差してるのか、それとも some decree of unknowability があるのか分からないことを知ってる。
つまり結局、”do we have free will”って質問は、意識の性質にかかってるんだ。

FeepingCreature 2025/06/21 20:04:33

いや、この結論には反対だな。この問題は、map/territory splitを意識して、「現実を知覚してるのか、それとも自分の脳のpropertyを知覚してるのか?」と自分に問いかけるだけで、very much solvableだよ。つまり、俺たちは”experience free will”する――これは、俺たちの脳が、multiple possible behaviorsを評価して一つを選んだと報告してるってことだ。でも、これはmultiple behaviorsがphysically possibleだったってことじゃなくて、multiple behaviorsがcognitively evaluatedされたってことを示してるだけ。実際、any deciding algorithmはbehavior listかbehavior treeを評価しなきゃいけないから、これがphysical properties of the world、例えばquantum mechanicsとconnectionがあるなんて全く思う理由はない。(関連するLessWrong sequenceは『How An Algorithm Feels From Inside』 https://www.lesswrong.com/posts/yA4gF5KrboK2m2Xu7/how-an-alg… で、これは自由意志とは関係ないけど、perceptionsが現実に関するfactであるのと同じくらい、いやそれ以上に、自分のcognitionに関するfactsであり得るというアイデアをvery salientにしてくれる。)
そして、その視点を持つと、「待て、なんで脳はquantum physicsにsensitiveなんだ?macroscopic quantum calculationsをするのにはextremely poorly suitedなシステムに見えるけど」って問いかけられる。 once the alternative theory of ”free will is a perception of your cognitive algorithm” is salientになったら、自由意志のentire debateがどんどんpointlessに感じられてきて、 eventually you no longer understand why people think this is a big deal at all, そしてit all feels rather silly。

margalabargala 2025/06/21 21:17:02

”However, this does not indicate that multiple behaviors were physically possible”
OK、分かった、でもmultiple behaviorsがphysically possibleじゃなかったって何が示すんだ?
俺たちの意識って、microscopic cellsのnetworksのemergent propertiesで、molecular levelでthose cellsの周りをchemicalsが動いてるものなんだよ。だから、意識自体がquantum effectsの影響を受けてdeterminismをbelieする可能性は、perfectly reasonableに見えるけどな、だってthose effectsがnoticableなscaleでoperateしてるんだから。

sixo 2025/06/19 14:54:50

Stem-enlightened mindにとっては、そういうアイデアのclassical understanding and pedagogyは、mathematically-rootedなアイデアのprecisionと比べて、 underwhelming, vague, and riddled with language-game problemsなんだよ。彼らがrederiveしてるのは、頑固さからじゃなくて、そっちの方がpreferableだから。俺はrationalism per seとはreally identifyしないけど、この点では彼らにwith themだ――the humanitiesはover-cookedだし、a humanity educationは、現実から切り離されたoutmoded ideasをtedious slogするものになりがち。

FeepingCreature 2025/06/22 03:22:51

人間の自由意志の感覚って、物理的な可能性じゃなくて、脳の認知について測ってるんじゃないの?物理的な可能性が複数あるかどうかに関わらず、人間の自由意志の感覚がそれに関係あるって証明しなきゃダメだし、人間の脳が実際の可能性をどうにかして測ってるって証明しなきゃダメだよ。あるいは、人間の認知的な決定アルゴリズムがどっちの宇宙でも実装不可能だって示さなきゃ。そうじゃないと、人間の自由の感覚が現実じゃなくて人間の認知について測ってる、って考える方がずっともっともらしい。だって脳って普通、脳のスケールで物事を測るもんでしょ、反事実的な事実じゃなくてね。

AnimalMuppet 2025/06/19 17:54:09

元ネタの記事がもっと分かりやすかったらいいのに、って思うよ。Yudkowskyとかは分かりやすい問題があるけど、元ネタはよく分かんないんだよね。(だから何世紀も経っても何を言いたかったのか議論してるんだよ。正しいかどうかだけじゃなくてね。)もっといいのは、明らかに間違ってる部分は省いてほしいな。

margalabargala 2025/06/22 04:00:27

いやいや、君の仮説は、他の誰かが君がどこに動かそうと全てのゴールポストを追いかけない限り真実であるヌル仮説ってわけじゃないんだよ。一瞬考えただけで、専門家の40%がどうにかして見逃したって思うような自明な洞察があったんだろ?(定義を自分が正しいことになるようにして、自分が正しいって宣言するだけ!簡単だ!)でも、そんな単純じゃないんだ。君の議論は基本的には「誰も知らないけど、そうは思わない。でもそれも自明だし、根拠もなく物事に適当に確率を割り当てて、特定のことがありそうだ、って宣言する」ってことなんだ。このスレッドの他の場所を読んだら、まさにそのアプローチがからかわれてるってわかると思うけどね:)

mananaysiempre 2025/06/19 18:51:35

「Less Wrong」っていうのは、「being right」が絶対的な二項対立であることの言葉遊びだ、って俺はいつも解釈してたよ。具体的には(俺が知る限り)アシモフの説明を参照してるんだ。
地球が平らだと思ってた時、彼らは間違ってた。地球が球体だと思ってた時、彼らは間違ってた。でも、地球が球体だと思うのが、地球が平らだと思うのと同じくらい間違ってる、って思うなら、その考えは両方合わせたよりもっと間違ってるんだ。
https://skepticalinquirer.org/1989/10/the-relativity-of-wron

もっとコメントを表示(2)
voidhorse 2025/06/19 19:09:23

まあ、いい返事じゃないけど、言わせてもらうよ:そんな怠けちゃダメだよ。難しいことに苦労して取り組むんだ。俺は逆の経験をした人間としてこう言ってるんだ。そこそこの人文科学の教育は受けたけど、数学の教育はひどくてね。で、今、抽象的な数学に自分で取り組んでるんだ。大変だよ。何回も読まなきゃいけないし、机に座って自分で紙の上で内容を考えなきゃいけない。ある分野が別の分野より簡単だって印象は、たぶん良い先生に恵まれたり、脳が本当に柔らかい時に学ぶ運があったからだろうね。他のことも学べるよ、ただ哲学にも数学にも王道はない、って理解して取り組むんだ。

chipsrafferty 2025/06/22 00:41:12

哲学が議論してるアイデアがとても複雑で、言葉ではそれらのアイデアを表現するのに十分じゃない、って考えたことある?だから、みんな誰かが何を意味したかで言い争ってるんだよ。分かりやすくしたり、あいまいさをなくしたりしても、かえって良くならないんだ。

margalabargala 2025/06/20 04:04:37

>そして、こうすると哲学の90%を歴史的なゴミとして捨てられることがわかる
これはまさに哲学史の物語だよ。何百年も遡る話。カントやヘーゲルを notable examples として見てごらん。

zahlman 2025/06/19 19:24:21

>でも、それが高い度合いの smugness と false modesty を伴うって君は知ってるんだ
いや、俺はそんなこと全然知らないね。そう信じる良い理由がないし、それを打ち消す証拠はたくさんあるからね。

wizzwizz4 2025/06/19 15:12:41

第67章。https://www.readthesequences.com/Knowing-About-Biases-Can-Hu… (そして、本に載ってて、みんな知ってるんだから、明らかに自分たちがそれをやってないってことはない。)

FeepingCreature 2025/06/22 06:18:51

オーケー、わかった?俺の議論はこのままにさせてくれ。君も君の議論はこのままにさせてくれ。どっちがより説得力があるか、見ようぜ。付け加える必要があるとは全く感じないな。追記するなら、こういう議論モードがそこにないことがLess Wrongを魅力的にしてたんだ、ってことかな。「でも実際の答えは何なの?!」ってね。

jay_kyburz 2025/06/19 21:55:12

高校生の子どもたちがいるんだけどさ、たまに数学とか科学の白黒ハッキリした感じと、人文科学の曖昧なグレーの違いについて話すんだ。数学は正しいか間違ってるかだけど、国語には意見があるってね。

mariusor 2025/06/19 19:02:02

たまに賢ぶるのを楽しむ人がいるけど、それは相手を見下したいからじゃなくて、ただ楽しいからだったりするんだよね。ジョークが分からなくても、あんまり気にしないようにして、次はもっと分かるよう頑張ろうって思うことにしてるよ。

HDThoreaun 2025/06/19 15:57:01

Rationalismって、大陸哲学よりもanalytic approachを好むことが多いんだよね。これらのアイデアは別に新しくないんだけど、philosophyとかliterature、history studiesではあんまり主流じゃないんだ。こういう授業は特に探さないと見つからないだろうね。

HDThoreaun 2025/06/19 18:01:37

HPMORはrigorousさがウリじゃないんだよ。rigorousなphilosophyとは違って、entertainingなのが目的なの。Camusの小説だって同じようなこと言えるけど、それじゃ論点がズレるよね。もっとrigorousなものが欲しいなら、Yudkowskyにはそういうのもあるんだから。彼のrigorousな仕事に触れずに、彼がrigorousじゃないって文句言うのはちょっとびっくりだな。

gooseus 2025/06/19 11:35:05

Scott Aaronsonのこと、悪く思ったことないし、たまに見かける彼の仕事には感心することも多かったんだ。でも、この記事で”Galt’s Gultch”にいる皆のこと読んで、「あー、彼も今やRhinoceros(play)になったのかな」って思ったよ。
https://en.wikipedia.org/wiki/Rhinoceros_(play)
みんなにくだらないジョークをひとつ。RationalistとRationalizerの違いって何?
incentivesだけだよ。

NoGravitas 2025/06/19 14:30:34

Scott Aaronsonって、有名なRationalistたちの中で一番マシだと思ってたんだ。だから、Scott Siskindに言われるまで自分がそうだと気づかなかったっていうのが、ちょっと面白いよね。

wizzwizz4 2025/06/19 15:04:15

Simone de Beauvoirとfeminismの話を思い出すな。彼女は(初期の)feminismについてbookを書いたのに、ずっと後になるまで自分をfeministだとは思ってなかったんだ。

dcminter 2025/06/19 11:44:13

劇のlinkにupvote!
あれinterestingだね、知らなかったよ。top-level postに値すると思うな、IMO。

gooseus 2025/06/19 20:37:03

Timothy Snyderの『On Tyranny』10章で元の劇を知ったんだ。11月7日にHNにトップ投稿したんだけど、あまり注目されなくて、政治的な対立に関わる記事は再投稿や「セカンドチャンス」はできないってHNの運営に言われたよ。
https://archive.org/details/on-tyranny-twenty-lessons-from-t
https://news.ycombinator.com/item?id=42071791

DrNosferatu 2025/06/20 14:05:00

「“合理主義者”と“合理化する人”の違いは何かって? ただの動機だけだよ」。これ悪い冗談? そのフレーズ、でっかく額装すべきだね。

lukas099 2025/06/19 18:40:23

これは個人的な直感だけど、合理主義者って、彼らが受けるよりもっとひどい悪口を言われてると思うんだ。振り返ってみて、その仮説は3つあるよ。
1. 彼らはコミュニティだから—内集団があって、それに属さない人は必然的に外集団。人は他の人の外集団にいるのが好きじゃない傾向がある。
2. 彼らは珍しい意見を持ってて、それをオープンにする。人は自分と違う意見を表明する人が好きじゃない傾向がある。
3. 彼らはオタクだ。オタクが昔からいじめられたり疎外されたりした原因と、おそらく同じものを持ってるんだ。

johnfn 2025/06/19 20:20:56

HNって合理性に対してかなり厳しい評価をするよね。ほら、物議を醸す人物と言って間違いないMr. Beastについてのこのスレッド見てよ
https://news.ycombinator.com/item?id=41549649
トップコメントはどれもかなり好意的でしょ?そこの会話とこの記事のコメントを比べるの、かなり面白いよ。
Scott Aaronson—理論的にはHNが大ファンであるべき人物で、評判では超ナイスでめちゃくちゃ頭が良くて、量子力学について驚くほど詳しい人—彼が合理性が好きだって言うと、Mr. Beastよりも寛容さが得られないんだから。なんで?

gjm11 2025/06/19 21:00:40

こんな感じで一致団結してるってこと?
https://www.lesswrong.com/posts/7iAABhWpcGeP5e6SB/it-s-proba
(Less Wrongの投稿で、今のカルマスコアは+442、リチウム説を以前肯定的に扱った投稿は+102と+230だったのに対して—ちなみにそれら二つの投稿のコメントは、私には「懐疑的だけど興味あり」よりも肯定的に見えないけど)
同じ著者による追記の投稿
https://www.lesswrong.com/posts/NRrbJJWnaSorrqvtZ/on-not-get
は今のスコアが+306で、これも他のリチウム仮説肯定派の投稿より高い。
あるいはこれ?
https://substack.com/home/post/p-39247037
(著者が自分を合理主義者だと考えてるか確かじゃないけど、Scott Alexanderがリチウム説について何か書いてないか検索して見つけたリンクなんだ。彼は書いてないみたいだけど、彼の文章専門のsubredditでこれが出てきた。)
そうそう、ACXの助成金をもらった兆候が見つからないんだ。ACX助成金リストの
https://www.astralcodexten.com/p/acx-grants-the-first-half
は見つかったけど、これは基本的に「やあ、助成金は出さなかったけど面白いプロジェクトをいくつか紹介するよ、それぞれの1段落ピッチ付きで」ってやつで、その中にリチウムについて語ってる「Slime Mold Time Mold」がある。ちなみに、そこのコメントもかなり懐疑的だったよ。
だから、このケースでは「他の人に事実として受け入れられる」ってのがあんまり見えないんだ。私には、一部の人がこの仮説を提案して、他の人が「うーん、これは正しくないみたいだな」って言って、合理主義者の態度は主に「面白いアイデアだけど多分間違ってるだろうな」って感じに見えるんだけど。何か見落としてるかな?

foldr 2025/06/19 22:04:32

ほとんどの人は合理的であろうとしてるんだ(成功度は様々だけどね)、そしてそうしようともしない人とは、抽象的な知的議論なんてする価値が実はないんだ。C.S. Lewisが違う文脈で言った皮肉を思い出すよ、「計算をするたびに、ちゃんと正しくやろうとするからって、お祝いされるなんて期待できるのと同じくらいだ」ってやつ。

therealdrag0 2025/06/20 02:55:30

え?彼らは世界の人間開発基金に何百万ドルも寄付して、年間少なくとも5万人以上の命を救ってるんだよ。たぶん、何か物議を醸す講義をした少数の変人をもって、他の全員を代表してると思ってるんじゃないの?

記事一覧へ

海外テックの反応まとめ
著者
海外テックの反応まとめ
暇つぶしがてらに読むだけで海外のテックニュースに詳しくなれるまとめサイトです。