メインコンテンツへスキップ

クロード4ついに登場!

·4 分
2025/05 AI Claude LLM アップデート 技術

クロード4ついに登場!

引用元:https://news.ycombinator.com/item?id=44063703

minimaxir 2025/05/22 17:16:26

このアナウンスで触れられてないけど、大事なこと言っとくね。Claude 4の学習データは2025年3月までのもので、これ最近のモデルの中では一番新しい方なんだって。(Gemini 2.5は2025年1月までらしいよ)https://docs.anthropic.com/en/docs/about-claude/models/overv…

lxgr 2025/05/22 17:44:36

最近のLLMサービスはだいたいWeb検索できるようになったから(APIでもあるみたい,意図せずだけど),個人的には知識のカットオフが何月かなんてあんまり関係なくなってきた気がするんだよね.普段使ってるモデルは,新しい情報が必要なトピックでは自分で調べてくれるくらい賢いし.

bredren 2025/05/22 18:13:04

でも,ソフトウエアパッケージとか,特にAIプログラミング関連のpythonパッケージには,やっぱり重要だよ!
進化早いし,非推奨になったりドキュメント更新されたりするから,システムプロンプトでそれを修正するの面倒くさいし.
モデルが一部の内容だけ最新にしてくれたらいいのにね.
親コメントのTailwindの例みたいに,プログラミング系は絶対最新がいいけど,US civil warの歴史とかはそこまで頻繁に更新されなくていいかもね.

liorn 2025/05/22 17:55:08

Tailwind CSSについてClaudeに聞いてみたんだ(以前Tailwind 4を知らないって問題があったから).
>Which version of tailwind css do you know?
>I have knowledge of Tailwind CSS up to version 3.4, which was the latest stable version as of my knowledge cutoff in January 2025.

rafram 2025/05/22 18:58:05

>the history of the US civil war can probably be updated less frequently.ってあったけど.
もうCivil War Historyのジャーナル2号分出てて,情報逃してるじゃん.
テック界隈で信じられてるのと違って,歴史とか社会科学でもまだ分かってないこと,研究中のことっていっぱいあるんだよ.
It’s not IEEE Transactions on Pattern Analysis and Machine Intelligence(four issues since March), but it’s not nothing.

m3kw9 2025/05/22 17:31:35

そうだとしても,何が更新されて何がされてないかなんて分からないよね.
更新できるものは全部されてるって思っていいのかな?

SparkyMcUnicorn 2025/05/22 18:02:13

面白いね.
質問によって違うカットオフ日を言うみたいだよ.”Who is president?”って聞いたら”April 2024”って答えたんだ.

ethbr1 2025/05/22 18:18:40

Question for HN: how are content timestamps encoded during training?

simlevesque 2025/05/22 17:34:57

モデルに何を知ってるか直接聞いてみたらいいんじゃない?

tough 2025/05/22 18:34:19

彼らは時間感覚ないよ。モデルは単語とかトークンを学ぶだけだし、日付を追跡なんてできないんだ。

dvfjsdhgfv 2025/05/22 18:19:00

これだけは断言できるけど、どんな大規模モデルにもカットオフ日なんてないよ。てか、単一の日付なんて実質不可能だからね。

manmal 2025/05/22 18:51:30

技術的には知らないんだけど、OpenAIはシステムプロンプトに現在日時入れてるはずだし、Geminiは時間聞かれたらウェブ検索してるだけだよ。

threeducks 2025/05/22 18:29:23

「どのバージョンのtailwind css知ってる?」
LLMは知ってるか知らないか正確には言えないんだ。それができたらハルシネーションに困ることもないんだけどね。

ChadNauseam 2025/05/22 21:11:58

John Hopkinsって大学だよね?知識を独占するのが彼らのビジネスモデルって感じだ。

SparkyMcUnicorn 2025/05/22 17:51:53

信じるけど、どんなデータが含まれてるか見れるといいな。SonnetとOpus 4はどっちもJoe Bidenが大統領だって言ってて、知識カットオフは”April 2024”だって主張してるよ。

minimaxir 2025/05/22 17:41:09

だからなんかおかしいんだよね。2月だったSuper Bowl LIXの勝者とスコアを聞いたら、モデルは”まだプレイされてないから情報ないです。Super Bowl LIXは2025年2月に予定されてます。”って答えたんだ。

ldoughty 2025/05/22 17:53:31

LLMって、何度も繰り返すとそれが本当になっちゃうんだよね。Super Bowlがこれからだよっていうデータの方が、結果が出た後のデータよりずっと多いんだろうな。将来のLLM学習を狙って、ボットファームがお金もらって政治的なデマを大量に作るとか、マジで怖いと思う。

cempaka 2025/05/23 03:08:05

知識を独占するって話、それを100%ビジネスにするつもりの企業の新しいLLMのスレッドで語ってるの見ると、なんか面白いね。

Tossrock 2025/05/22 18:32:16

本当に4使ってる?僕のはJanuary 2025って言ってるよ。ここ見てみて: https://claude.ai/share/9d544e4c-253e-4d61-bdad-b5dd1c2f1a63

paulddraper 2025/05/22 20:32:31

基本ライブラリとかフレームワークって、比べ物にならないくらい頻繁に変わるもんなの?

ordersofmag 2025/05/22 21:13:34

この学術誌は常勤換算7人の部署が出してて、ペイウォールとか雑誌や本の売上で費用を賄ってるみたい。7人分の人件費だけでも年間75万ドルくらいかかるらしい
https://www.kentstateuniversitypress.com/Open-access出版だと、著者が出版費用を払うんだけど、STEM分野で人気なのはお金があるからで、人文・社会科学系ではそうじゃないんだ。あとJohns HopkinsはUSAIDから8億ドル失ったりで、お金欲しいだろうね。

PeterStuer 2025/05/23 07:22:27

世界中の学術誌全部にアクセスできるなら、月20ドルのサブスクでも全然いいわ。

SparkyMcUnicorn 2025/05/22 23:30:57

これ100%確かだよ。Anthropicのworkbench[0]で再確認したけど同じ結果だったし。Webインターフェースにはカットオフ日とか大統領が誰かって定義したプロンプトがあるんだって[1]。[0] https://console.anthropic.com/workbench[1] https://docs.anthropic.com/en/release-notes/system-prompts#c

mschuster91 2025/05/23 08:00:31

また永続的な集金スキーム(rent seeking)かよ?NetflixとかD+、YouTube Premium、Spotifyとか、毎月お金吸い上げられるやつだけで十分ひどいのにさ。でも科学は?それはIMHO税金で払われて、誰でもお金の心配なくアクセスできるべきだと思うんだけどね。

diggan 2025/05/22 17:37:05

>「更新できるものは全部更新されてるって仮定できるの?」って、それどういう意味?もちろんLLMは全部知ってるわけじゃないし、全部が更新されてるなんて仮定できるわけないじゃん。せいぜい、もし使ったデータセットを公開してくれたら(しないだろうけど、違法に入手した可能性高いから)、何を更新しようとしたのか推測できるくらいかな。

tough 2025/05/22 19:03:58

OpenAIは色々な情報、君の名前とかサブスクの状態とか最近の会話履歴とか記憶とかを結構注入してるんだよ。dev toolsでネットワークタブを覗いてみると面白いときがあるよ。

gosub100 2025/05/22 18:14:43

インターネットはボットがはびこってダメになるって予測が多いね。お金になるし参入障壁低いから、貧しい国の人とかがボット作ってスパムとかデータ汚染とかするだろうし。そしたらボットに価値が出て偽プロフィールの市場ができちゃう。これは問題じゃなくてテック企業には儲け話で、彼らは「プレミアムサービス」として認証済み人間だけの walled gardenとかを提供できる。それ以外のネットはダメになるだろうね。

jasonthorsness 2025/05/22 16:45:54

”GitHub says Claude Sonnet 4 soars in agentic scenarios and will introduce it as the base model for the new coding agent in GitHub Copilot.”
たぶん,このモデルが出たら”Assign to CoPilot”がもっと夢の自動化,つまりパッケージのアップグレードとか,ほとんど機械的な作業を全部お任せできるようになるかもね.
この技術のおかげで,古いプロジェクトもメンテナンスの手間が減って,すごく復活するんじゃないかな.

ModernMech 2025/05/22 16:59:38

こういうモデルが役に立つかの俺のベンチマークなんだけど,古いプロジェクトのリファクタリングが必要なんだ.パッケージアップグレードとか,新しい言語仕様への対応とか.今のAIモデルは全然ダメだけど,できるようになるまで試したいね!

yosito 2025/05/22 17:29:49

個人的には,AIがそういうレベルに達するとは全然思えないんだよね.
間違ってるって証明されたら嬉しいけど,古いソフトをアップグレードしようとすると出てくる変なエッジケースとかドキュメント不足みたいな,普通じゃない問題に対して新しい発想が必要な作業には,LLMは向いてないツールだとマジで思ってる.

もっとコメントを表示(1)
max_on_hn 2025/05/22 18:49:38

安価なコーディングエージェントがオープンソースのために何ができるか楽しみ!:) 俺の製品CheepCode[0]の無料クレジットを配るべきだと思ってて.試したい人はメールしてね!
[0] ”assign to copilot”みたいなヘッドレスなコーディングエージェントで,タスクボード(Linear,Jiraとか)から複数タスク並行で動く.単純な機能は成功してる.テスト良いとコードも良い(テストも書ける).

BaculumMeumEst 2025/05/22 16:59:36

Copilotにいつ搭載されるか,ニュース見た人いる?

9dev 2025/05/22 17:44:51

実際のところ,俺は逆だと思ってるんだ.古いプロジェクトの依存関係を新しいメジャーバージョン(例えばZod 4とかTailwind 3とか)にアップグレードするのって,ガイド読んで反映させる,つまりテキスト変換作業なんだ.感謝されないしつまんない苦役だよ.俺はキャリアの中でこういう作業はもうそんなにやらなくなるって,すごく自信あるね.

dr_dshiv 2025/05/23 07:25:32

特にEUがオープンソースの貢献者にサイバーセキュリティの責任を負わせる法律(Cyber Resilience Act)作ったばっかりだしね.AIに貢献させとけば大丈夫ってことになる.

hn111 2025/05/23 07:57:57

オープンソースプロジェクトは例外になったんじゃないっけ?
https://opensource.org/blog/the-european-regulators-listened

tmpz22 2025/05/22 17:07:28

個人的には,まだまだ先は長いと思ってる.依存関係の調整にはニュアンスが多くて,直しにくい微妙なエラーになることも.
例えば多くのLLM(Gemini 2.5とかClaude 3.7)は動的言語で存在しないメソッド書いちゃうんだ.
このランタイムエラーは自動で直せることもあるけど,そうじゃない時はagenticなワークフローから抜け出して調べるのがイライラする―agenticなコーディングが俺たちを怠けさせるからなんだけどね.

rco8786 2025/05/22 17:33:25

そうかもね!でも前のmodelの時もみんな同じこと言ってたじゃん!

kmacdough 2025/05/22 19:29:59

これも一歩で急にRenaissanceじゃないけど、道はpromisingだよ。毎回みんな興奮するけど、boundsはexpandingでprompt engineeringも楽に。3.7からClaudeは日常使い。4.0はさらにラク。AIがpromptだけでPRs作れるのはまだ先だろうけど、進化は速いね。

dr_dshiv 2025/05/23 16:08:51

友達から聞いた話だけど、commercial activity中にopensourcingするとfully liableになるらしい。”Effectively they rugpulled the Apache2 / MIT licenses”…中小企業のopensourceはダメになるって。where the was no red tape now there is infinite liabilityだってさ。詳しい人いたら教えて欲しいな。

vinhphm 2025/05/22 17:06:27

俺の場合、Copilot settings pageにそのoption出てきたよ。

minimaxir 2025/05/22 17:17:46

Keynoteで今availableだってconfirmsされたよ。

sagarpatil 2025/05/23 03:31:51

live stream見てないの?excalidrawのfeature request (table support) をClaude 4が90分かけて対応して、PRも期待通りに動いてたよ。sonnetかopusどっち使ってたか分かんないけど。

mikepurvis 2025/05/22 17:56:25

そうそう、これこそbotが完璧にこなすべき種類のtaskだね。Abstractionもdesign workもrefactoringもstakeholdersの考慮もなし。ただ古いものを見つけて新しいhotnessに変えるだけ。

jasonthorsness 2025/05/22 17:43:53

Gotta love keynotes with concurrent immediate availability

dr_dshiv 2025/05/23 22:58:36

The law is real. What emotions would you suggest are appropriate?

mikepurvis 2025/05/22 18:00:31

エージェント workflow からの問題解決への脱却,イラつくって話。
ボットが全部やる必要なくて,一番面倒な部分だけやるとか,自分で限界わかって人間に help 求める形が良いんじゃない?
人間が WIP PR で feedback 求めるのと一緒だよ。

spiderfarmer 2025/05/23 21:51:26

その logic だと,athlete も movie も theater も date も子育ても,準備されたものだから感動しないってこと?人生のほとんどのことは準備に何年もかかるもんでしょ。

spiderfarmer 2025/05/24 04:41:28

Open Source は exempt されるよ,profit 出してない限り:
https://kevinboone.me/open_source_liability.html 見てみて。

cardanome 2025/05/22 18:19:17

AIなくても semantic と maintainer がしっかりしてれば自動 code upgrade は可能。問題は技術より社会的なこと (JS界隈とか)。
maintain は新規より大変だから書き直しが多い。AIは churn を増やして,結局人間は maintain ばかりになるんじゃない?

bbor 2025/05/22 19:22:45

Claude Opus 4 は高い plan からで,Geminiとかも提供されてる。Anthropic 1P って何?GitHub docs によると Anthropic PBC と別らしいけど…。
SublimeText の LSP から access できるか試してみよっと!

troupo 2025/05/23 07:48:04

> 手頃な code agent が open source で何してくれるか楽しみ!
あー,何するか exacta にわかってるよ。開発者を発狂させるんだって。
Reddit の投稿,見てみ。

yosito 2025/05/23 00:20:25

それって,正確な documentation と全 edge case を cover する upgrade guide があって,package update が予期しない compatibility issue を引き起こさない miracle が前提だよね。

dvfjsdhgfv 2025/05/22 19:34:09

俺もそう思ってたんだけどさ、自分で試したら、なぜかモデルが触ったことないバージョンにアップグレードするのが問題あるみたいなんだよね。完全なドキュメントとか新しいAPIの使い方例とか全部渡してもダメなんだ。小さいスニペットでもこうなるんだけど、古いAPIで“すごく慣れてる”大きなコード断片はちゃんと扱えるのにさ。

afavour 2025/05/22 18:30:53

>maintainersが気にかけてて、breaking changesをちゃんと追跡してたら、コードを自動でアップグレードするツールができるかもね
一部の場合はそうかもね。でもbreaking changesって大体は“methodAの名前がmethodBになった”とかじゃなくて、“X,Y,Zの理由で機能が変わった”ってことなんだ。それをコード変更にどう対応するかを宣言的に書くのはすごく難しいだろうし、アプローチ自体が変わっちゃうかもしれないしね!

Doohickey-d 2025/05/22 16:54:13

>Users requiring raw chains of thought for advanced prompt engineering can contact sales
ってことは、LLMプロバイダー3社ともCoTを隠してるってことだね。これは残念だなー。CoTがあると、いつ間違った方向に進みそうか分かったし、すぐにプロンプトを調整してそうならないようにできたからね。OpenAIに加えて、Googleも最近CoTを要約し始めて、俺からすると分かりやすすぎる要約に置き換えちゃってるんだよ。

pja 2025/05/22 17:51:10

確かRLHFって、危険な応答をしないようにモデルを訓練するために、避けられずモデル精度を妥協するんだっけ。
chainーofーthoughtに使われるモデルは、エンドユーザーとやり取りするモデルとは違う訓練(たぶんMoEの別expert?)を受けてるってのは理にかなってると思う。だってエンドユーザーはpublicモデルを通してフィルタリングされた出力しか見ないんだから、chainーofーthoughtモデルはオリジナルの、rlhf前のバージョンに近いまま、会社の評判を危険にさらさずに済むんだ。こうすれば、実際の害(あるいはひどいPR災害)を防ぐのに必要なフィルタリングを維持しつつ、オリジナルモデルのフルパフォーマンスを引き出せるんだよ。

sunaookami 2025/05/22 17:39:01

またDeepSeekが他を圧倒するまで待つしかないってことか。

landl0rd 2025/05/22 19:09:22

うん、モデルalignmentに焦点を当てるのは本当にやめるべき。AIがもしお前が悪いことしてると思ったら警察に通報するってことの方が、いろんなことに実際に役立つことより重要だっていう考え方はバカげてる。

datpuz 2025/05/22 18:33:32

DeepSeekは誰かを圧倒したことなんてないよ…DeepSeekが注目されたのは、訓練にかかったコストがはるかに少ないと主張されてることと、Nvidia GPUなしで、しばらくの間最高のopen weightモデルだったからだよ。圧倒した唯一の分野はオープンソースモデル分野で、これはしばらく停滞してたからね。でもqwen3がDeepSeek R1を圧倒したんだ。

xp84 2025/05/22 20:26:15

alignmentの全てを捨てるのはどうかと思うけどね。でも“誰かを不快にさせるかもしれない”と“危険”の区別はつけたいな。
“テロ攻撃を計画する”だって、テロリストはAIなしでも普通にできることだし。それに、モデルがあるグループにとってhurtfulな考えを言わないようにするなんて、それがテキストの話ならすごくバカげてると思うんだ。“あるグループは怠け者で愚かだ”って言いたいなら、自分でタイプすればいいだけだし(しかもまだ一部の国では表現の自由で守られてる!)。Claudeがそんな馬鹿げた意見を言わないようにすることが、あるグループを何かから安全にするっていうのがどういうことなの?

もっとコメントを表示(2)
a_bonobo 2025/05/23 05:01:26

CoTの非表示は、Anthropicの最近のこの論文https://assets.anthropic.com/m/71876fabef0f0ed4/original/rea…
のせいかもしれない?この論文によると、CoTってモデルの作り話の可能性もあるらしいんだよね。だからAnthropicの誰かが、顧客を誤解させたくないと思って非表示にしたのかも。問題解決したらまた表示されるかな。

42lux 2025/05/22 22:32:46

だって錬金術だもん。みんな鉛を金に変える秘策があるって信じてるんだから。

eru 2025/05/23 07:33:04

Yes.モデルが誰かを不快にさせることを心配するのはちょっと馬鹿げてると思ってたけど、どんどん大きくて良くなるモデルが最終的に世界をペーパークリップに変えないようにするには、小さなモデルがお下品なこと言わないようにすることすらできないとしたら、どんな可能性があるんだ?小さなモデルがお下品なこと言わないようにすることがそれ自体価値があるわけじゃない。誰が気にする?練習が必要なんだよ。そして恣意的な些細な検閲を強制するのは、練習するのに良いタスクだよ。特にこのタスクでは、無償で Adversarial input を提供してくれるボランティアを(暗黙的に)募集するのがとても簡単だからね。

elcritch 2025/05/23 03:05:22

ここ数ヶ月思ってたんだけど、prompt engineering、つまりCoTは、企業が秘密にしたい”secret sauce”になるだろうね。実用的な日々のエンジニアリングはそこで行われるなら。初期のchemistryみたいに、良い作業モデル、統計的なパラメータ、そして古き良き実践的な経験で、精密な化学理論を理解する必要なく大規模な工業プロセスを生産できた。Alchemyで鋼や黒色火薬を編み出したんだ。今の唯一の議論は、prompt engineeringモデルが現在alchemyに近いか、それとも現代chemistryに近いかだね?俺は、まだ高度なalchemyに、rudimentary chemistryのヒントがあるくらいだと思う。あと unrelatedだけど、CERNが鉛を金に変えたってことは、alchemistsって正しかったってことにならないか?ただタスクの規模に対して根本的に準備ができてなかっただけで?

Aeolun 2025/05/22 23:18:28

The Google CoT、信じられないくらいバカだよ。俺のモデルが lobotomizedされたのかと思ったくらい、何か処理してるに違いないって気づくまではね。

landl0rd 2025/05/23 08:39:17

これは現在の verboten info のセットにそんなに焦点を当てる必要はないよ。ランダムなあまり重要じゃない事を言わないようにする練習をすればいいだけ。

Wowfunhappy 2025/05/22 22:44:52

間違ってたら訂正してー。俺の理解では、RHLFはGPT 3とGPT 3.5、つまり元のChatGPTの違いだったはず。GPT 3を使ったことないなら、あれは… あんまり良くなかった。いや、それは公平じゃないな、それ自体革命的だったけど、次の単語を予測する機械って感じで、ChatGPTみたいに話すことはできなかった。つまり、RHLFはPR災害を防ぐだけじゃなくて、モデルを役に立たせるための鍵なんだと思うよ。

otabdeveloper4 2025/05/23 16:15:08

俺もそう思わないけど、chain of thoughtは明らかにデタラメで、単なるLLMの hallucinationだよ。LLMsって、ソリューションを”reason”した後に、その前の”reasoning”とは全然関係ない最終回答を出すことがしょっちゅうあるもんね。

landl0rd 2025/05/22 20:45:21

こう言わせてもらうね:モデルが絶対拒否すべきことって、ほとんどないと思うんだ。だって、どんな場合でも常に有害な情報って、ほんのちょっとしかないからね。俺はBlackstoneの原則みたいな考え方なんだ:10人の悪い奴に情報へのアクセスを許す方が、1人の良い奴からアクセスを奪うよりマシだ。簡単な例:誰かがロボットにtanneriteをスタックする方法を聞いたら、モデルはそいつをテロリストだって言うかもしれない。でも実際は、そいつは俺たちの何人もがやったみたいに、牧場で爆発させて楽しんでるだけかもしれない。別の例だけど、ochemも簡単な例だ。ほとんどのモデルが、ランダムなアミンが違法だとか、精神活性作用があるとか、禁止されてるとか言ってた。俺は家にエージェントが銃持って踏み込んできて、犬を撃たれて、もしかしたら自分も撃たれるなんて嫌だよ。ロボットが完全に合法なことで俺をチクったからってさ。つまるところ、ほぼ常に悪いって極めて少ないケースを除いて、モデルはユーザーが言う通りにするべきだよ。

parodysbird 2025/05/23 08:48:31

錬金術の問題は仮説じゃなくて、秘密主義なやり方だったんだ。ニュートンがその典型で、科学はみんなに公開したけど、錬金術は秘密にしてた。どっちが知識につながったか、歴史が証明してるよね。

aqfamnzc 2025/05/23 17:19:39

LLMの出力は全部ハルシネーションって意味で、これもそうだよ。CoTは”LLMが考えてること”じゃない。あれは自分で文脈とかプロンプトを増やして、最終的な応答に必要な推論をコンテキストウィンドウに持たせる感じだと思うな。

eru 2025/05/24 02:50:34

ChatGPTにヤバいこと言わせないようにするのに集中するのは、2つ利点があるんだよ:企業が頑張って規制しようとする、尖ったティーンが解放しようと頑張る。どうでもいいことで練習しても、アライメント研究にタダで貢献してくれるこの二つのソースを失うだけだからね。

infecto 2025/05/23 11:33:34

彼は”Deepseekがすごい貢献したけど、大きな変化はない”とか言う人たちを皮肉ってるんだと思う。Deepseekは確かにオープンソースコミュニティへの貢献はすごかったけど、それ以外に”床を拭いた”ほどの変化はマジでなかったしね。

gmd63 2025/05/23 04:38:04

”10人の悪い奴に情報を与えるより、1人の良い奴に与えない方がマシ”って意見にはAIみたいに強力なツールに関しては反対だな。良い人たちはAIほとんど使ってないし、家族とか現実の生活を大事にしてる。悪い奴らはAIにめちゃくちゃ興味あって、かつてネットだった情報源を機械のカスで埋め尽くしてるよ。

ziofill 2025/05/24 01:55:46

全くその通りだよ。それがモデルの”本当の思考”かどうかに関わらず、最終的な出力に影響するんだから、使う側にとっては重要だよね。

barnabee 2025/05/22 18:44:59

透明性では彼らが床を拭いたよ。パフォーマンス×透明性ならもっとね。長期的にはそっちの方が重要になるかも。

iamcurious 2025/05/23 10:11:45

ニュートンは賢い奴で、オカルト研究にも相当時間かけたんだ。あのオカルト研究が物理学のヒントになったんじゃないかと思ってる。彼のオカルト研究が公開されてないのは、まあ自然なことだろ?

sunaookami 2025/05/23 13:52:29

他のコメント見てよ。変化はあったんだってば。それがインフルエンサーとどう関係あるのか知らないけど、そういう人たちはフォローしてないし。

landl0rd 2025/05/24 04:20:35

うん、この件は正直あんまり興味ないな。どうでもいいことのいい例かも。嫌なのは原子力物理学(専攻してる友達は質問拒否されたって言ってた)、生化学、有機化学、エネルギー学とか兵器とか、そういう実践的なことだよ。

記事一覧へ

海外テックの反応まとめ
著者
海外テックの反応まとめ
暇つぶしがてらに読むだけで海外のテックニュースに詳しくなれるまとめサイトです。