メインコンテンツへスキップ

Mistralから待望の企業向けAI Le Chatが登場!オンプレミスで利用可能に

·3 分
2025/05 AI エンタープライズ オンプレミス LLM データプライバシー

Mistralから待望の企業向けAI Le Chatが登場!オンプレミスで利用可能に

引用元:https://news.ycombinator.com/item?id=43916098

codingbot3000 2025/05/07 17:41:51

データのプライバシーは企業にとってマジで大事だから、これはヤバいと思うんだよね。ゲームチェンジャーだよ。そうそう、MacでDocker使ってMistralローカルで動かせるらしいよ。

kergonath 2025/05/07 18:08:16

マジでそれな。プライバシー問題でクラウド無理だから、ウチの会社でもオンプレミスで試してるんだよね。アメリカの会社じゃないのもポイント高い。
ローカル実行はオープンモデルだけじゃない?無料モデルはよく使うけど、商用モデルは使ったことないんだ。

distances 2025/05/07 19:05:15

皆どうやってAIをコード書いてるのか不思議だよ。外部AI使うの許可してくれたクライアントいないんだもん。だから俺は検索エンジン代わりに使ってるだけ。コードそのものはAIに入れたり出したりできないな。

fhd2 2025/05/07 19:11:06

クライアントの許可なしにAIでコード書くのは著作権やNDA的にリスク高いと思うよ。AI生成コードの所有権が微妙だし、会社のコードを外部AIに送るのは機密保持違反になるかも。俺は弁護士じゃないけど、やめといた方がいいと思うな。LLMはStackOverflowみたいに、会社のコードは絶対に入れない使い方してるよ。

simonw 2025/05/07 21:02:42

MacでMistral Small 3.1を動かす方法他にもあるよ。Ollama(簡単)とMLXでできるんだ。Ollamaは15GBのでOK。MLXはHugging Faceにある8bitモデルをコマンドで使えるよ。Ollamaは画像入力もいける。詳しいコマンドやリンク貼っとくね。

indigodaddy 2025/05/07 21:38:33

Simonさん、メモリ16GBのM4 Mac Miniでコーディングに使える小さいモデルでおすすめありますか?

simonw 2025/05/07 21:42:54

それは結構キツい質問だね。アプリ動かすメモリも必要だし。
Qwen 3 8BならMLXで5GBメモリで動くけど、コーディングに使えるかは微妙かも。
正直、16GBならホスト型LLM(Claude 3.7 Sonnetとか)の方が安くていいと思うよ。

codetrotter 2025/05/08 01:40:22

M2 Max MacBook Proの64GBメモリならどうですか?コーディング用のローカルモデルでおすすめありますか?
前にDeepSeek R1試したけど、データいっぱい落としたのにうまくいかなかったんです。もし64GB Macで動くDeepSeek R1のサイズとか、他の良いローカルLLM知ってたら教えて欲しいです!

jstummbillig 2025/05/07 21:03:10

AIコードの著作権がヤバいって本気で言ってる人いないでしょ。もし本当に問題なら、とっくに色んな会社がAIでコード書くの止めようと動いてるはずだよ。
何百億ドルも投資してAIコード生成を進めてる大企業があるのに、著作権心配するのは非現実的じゃない?リスクじゃないと思うな。

v3ss0n 2025/05/07 20:58:54

Qwen3とかDeepseekとか、もっとすごいモデルが今動くのに、コレ(Mistral Le Chat)出す意味あるの?

_bin_ 2025/05/08 01:58:06

アメリカとかヨーロッパが中国製のモデル使うのって、目先のことしか考えてないな。人気が出たら長い目で見て結構ヤバいコストがかかるって。中国がAIで勝つなんて、アメリカとかヨーロッパからしたら絶対ダメな結果じゃん。

genghisjahn 2025/05/07 19:59:16

10年前にさ、みんながSOからコードコピペしてた時はどうよ?あの頃著作権とか気にしてた?多分してたのかもしれないけど、俺は覚えてないや。

shmel 2025/05/07 19:44:21

これってクラウドと何が違うの?スタートアップとか、コードはGithubに置いて、サービスの運用はAWSでやって、連絡は全部Gmailでしょ。LLMだけそんなに特別なのかな?

simonw 2025/05/08 03:45:57

俺、Mistral Small 3.1が超お気に入りなんだよね(64GBのM2でも動くし)。Qwen 3もサイズ変えて色々試してみる価値あると思うよ。たださ、これらが一般的なコーディング作業で十分かって言われると分かんないんだよね。Claude 3.7 Sonnetとかo4-mini、Gemini 2.5 ProのAPIに慣れすぎちゃったからさ。

_bin_ 2025/05/07 21:17:52

これって結局、何が証明できるかって話に行き着くよね。NN(ニューラルネットワーク)は説明できないし、裁判で証拠として見せるのは難しいだろうね。

atwrk 2025/05/08 08:46:13

なんでそうなるの?アメリカ人が使いたくないのは分かるけど、ヨーロッパ人が?今の政治状況で、アメリカが openly ヨーロッパの土地を自分のものにしたいとか言ってるのに?俺だったらDeepSeekみたいな自分のとこで動かせるオープンソースのやつの方がいいわ。

tigroferoce 2025/05/08 11:08:27

ヨーロッパ人の俺の意見なんだけどさ、LLMに情報聞く機会が増えてるから、本当の意味で民主的じゃない外国に、俺たちが手に入れる情報を選ばせちゃうのは賢いやり方じゃないと思うんだ。

nicce 2025/05/07 20:42:26

あとさ、MacのDockerモデルランナーの中でもMistralをローカルで動かせるぜ。
効率的に?macOSにはDockerがGPU使うためのAPIなんてないと思ってたんだけど。

distances 2025/05/07 19:46:51

そうなんだよね、まさにその通りだわ。俺はそんなに気にしないけど、ちょっとだけ効率は上がるかもね。でも時間で請求してるから、決まったやり方でやるのも全然平気だよ。

martin_a 2025/05/08 09:10:18

ちょっと変わったアイデアなんだけどさ、家のネットワークで使う良い感じのLLMを動かしたいとしたら、色々なことに使えるモデルにはどのくらいの性能が必要?Raspberry Piとかでいける?古いThinkPadは?フルスペックの最新のMacbook?追記:あの昔のMac Prosとかは?

jychang 2025/05/08 01:41:59

Macで16GBのunified memoryだと、ちゃんとしたコーディングモデルには小さすぎるな。そのマシンだと性能がかなり犠牲になっちゃうよ。たぶん1年後くらいには8GB VRAMに収まるもっと良いモデルが出るかもだけど、今はまだ無理。今、MacでコーディングLLM使うなら、標準はQwen 3 32bで、32gb memory以上のM1 macならすごく良く動く。Qwen 3 235bはもっと良いけど、128gb memory持ってる人は少ないしね。32bより小さいと、質がかなりガクッと落ちるのがわかるよ。16gb memoryならQwen 3 14b Q4_K_Mがベストな選択肢だろうけど、32bに比べると質はだいぶ悪いな。

aukejw 2025/05/08 10:04:32

ピークメモリ使用量ってどうやって測るの? Activity Monitorで見るだけ? モデルごとにコンテキスト長が違うと、必要なメモリ量も違うはずなんだけど、ちゃんとした一覧情報が見当たらないんだよね(#weights * bitsみたいなざっくり計算以外で)。 LM Studioはモデルがメモリに収まるか警告は出してくれるけど、そんな正確じゃないしなー。

fhd2 2025/05/08 05:14:28

証拠?あるよ。あなたが挑戦された時にした発言とかね。あとはコミットログも、ある程度は疑いを抱かせるかもね。まあ、「嘘をつくだけ」って言うかもしれないけど、法廷で気軽な嘘をつく人がどれだけいるかな? 俺は絶対しないな。倫理観は置いといて、報復とか考えたら結構勇気がいることだよ。

mistrial9 2025/05/08 00:41:01

これはコーディング用LLMを提供する側からの「Kool-aid」(盲信)だと思うな。Githubでコードが収集されて、BigCorp$の学習システムに使われてることに、たくさんの人がめちゃくちゃ怒ってるんだから。親コメントはさ、1200年頃にLondon北部の城にいる、ちょっと偉そうなフランス人と、城の外でボロをまとって農具持って怒ってる地元の人々っていう状況を思い出すよ。武装した塔の衛兵がもう一人に「誰もこの土地の支配について真剣に異議を唱えてないよ”って言ってるみたいな発言だね。

chedabob 2025/05/08 09:24:07

Qwen使うのに何使ってるの? 俺はLMStudio入れて、VSCodeでContinue使ってるんだけど、Cursor’s IDEとかGitHub Copilot pluginみたいに機能が豊富って感じがしないんだよね。

raxxorraxor 2025/05/08 08:56:00

vscodeでcontinueとollamaの標準設定で、必要なAIコーディングサポートの99%はもう足りてると思うな。cursorみたいな商用製品よりも良いかも。特に俺が使ってるプロジェクトとか言語ではね。使ってなかったMac Studioを小さなAIステーションとして使ってるよ。コードベースを埋め込むこともできるけど、まだ必要なかった。もっと性能求めるなら強いGPU積んだPC買えばいいけど、オートコンプリートくらいならこれで十分だよ。

reverius42 2025/05/07 22:57:47

AIが生成したものの所有権について、少なくともUSでは、著作権がなく所有権も持てない可能性がかなり高いみたい。つまり所有権も持てないってこと! これが法律的にどう影響するかは、まだこれからシステムを通して明らかになっていくところだけどね。

lolinder 2025/05/07 23:36:57

ゲームチェンジャーっていうのはちょっと言い過ぎかな。すでにオープンソースのツール(Ollama, Open WebUI等)がたくさんある分野だし、既存のものでも多くの機能は実現できてるよ。Le Chatはエンタープライズ向けに上手く作るんだろうけど、鍵は既存の企業システムとのシームレスな連携だね。それが上手くできなければ、他の自己ホスト型ツールと大差ないかも。

crimsoneer 2025/05/08 04:22:38

クライアントってAWSとかAzureとかGCP使ってないの? あそこならプライベートLLMをすぐ使える状態で提供してるけど。

jt_b 2025/05/07 21:27:31

俺はK8Sでollamaとopen-webuiをセットアップして使ってるから、多分これは使わないと思うけど、dockerが1ヶ月前にこれ(Docker Model Runner)を発表したよ:https://www.docker.com/blog/introducing-docker-model-runner

もっとコメントを表示(1)
fhd2 2025/05/07 19:57:47

「時間で請求してる」って部分には同意できないかな。もちろんそうだけど、うちみたいな小さなエージェンシーは、対価として価値を提供してるって考えてるんだ。クライアントには予算があるし、ソフトウェア開発から得られるメリットも限られてる。他のエージェンシーとか、クライアント社内のチームと競争するには、全体的に見てもっと費用対効果が高いサービスを提供する必要があると感じるね。でも、コードをタイプするだけじゃないし、そのコーディングですらLLMでそんなに高速化しないんだ、質や安定性が大事ならね。だから、それでも全然大丈夫だと思うよ。

beernet 2025/05/08 11:08:42

Mistralはさ、StabilityとかEleuther、Aleph Alpha、Nyonic、たぶんBlack Forest Labsとか、政府資金の共同研究とか、他の欧州の超期待されてたAIスタートアップ/集団が達成できなかったことを本当に成し遂げたね。 Mistralよりずっと前に存在してたところも多かったのにさ。彼らにおめでとう、すごい仕事だ。

Palmik 2025/05/08 13:25:36

俺には彼らが一般的なAIコンサルティング&ソリューション会社になったように感じるな。それが悪いビジネスってわけじゃないけど、特に「EU製」って宣伝文句から利益を得られる可能性があるしね(政府との契約とか規制とか、色々あるだろうけど)。もっと性能が良くてコスト効率の良いオープンソースモデルとインフラを使えば、似たようなソリューション(オンプレミス)はもうデプロイできるんだよ。ここでMistralが提供してるのは、そのデプロイを代わりにやってくれることだけど、完全にオープンなスタックで同じことをしてる他の会社を止めるものは何も無いんだ。それに、そういう会社はR&Dにお金を無駄にしないっていうメリットもあるしね。

jamesblonde 2025/05/08 16:35:12

それ、うちがHopsworksでやってることだわ。HopsworksはEU製のAIシステム開発・運用プラットフォームなんだ。うちにはDeepSeek-v3とかLlamaモデルを動かしてる顧客がいるよ。これにChat UIをくっつけて、Chatアプリとして主権AI市場向けの既製品として売るなんて考えたこともなかったけど、ありかもね。

agumonkey 2025/05/08 13:06:01

俺は部外者だけど、上に挙げられてるスタートアップは全然聞いたことなかったんだ。Mistralはopenai/anthropicが爆発的に有名になった後、突然現れて、すぐに技術力で3番目の有力候補だって言われるようになったんだよ。もしかしたら騙されてたのかもしれないけどね。

danielbln 2025/05/08 13:23:18

Black Forest LabsはFLUXを作ったところで、一時期は入手可能な最高のオープン画像モデルだったんだ(そして一般的にかなり強力な画像モデル)。とは言え、今は中国のモデルの波とか、自己回帰型画像モデルの登場で、それがどれだけ真実であり続けるかは分からないけどね。

bobxmax 2025/05/08 14:53:24

Mistralってここで何か特別なことしてる? Llamaモデルはオープンソースだし、Cohereはオンプレミスで動くとかさ。

beernet 2025/05/12 08:51:42

市場での牽引力を示して、製品開発を実行に移したこと。他の挙げられてた会社はどこもそこに到達しなかったんだよ。

85392_school 2025/05/07 17:32:14

この発表はさ,Hacker Newsで話されてる新しい独自モデルのMistral Medium 3と一緒に出たんだって.
詳しくはここ見てね.https://news.ycombinator.com/item?id=43915995

Havoc 2025/05/07 23:39:08

うーん,よくわかんないなー.
なんかローカルサーバーで使う機能っぽい話してるのに,最後はGCPで使えるって書いてあるし.
これって結局APIなわけ?企業が自分とこに置くモデル?それともソフトとモデルの組み合わせ?
企業間の”シナジー”みたいな言葉ばっかりで,結局何売ってるのかぜんぜんわかんないや.

frabcus 2025/05/08 10:52:15

あ,Google Cloud Marketplaceって言ってるね(Google Cloud Platformじゃなくて).
たぶんここにリストされてるやつみたいだよ.https://console.cloud.google.com/marketplace/product/mistral…
ここにはね,”Managed Services are fully hosted, managed and supported by the service providers. Although you register with the service provider to use the service, Google handles all billing.”って書いてある.
だから俺の予想だと,Google Marketplaceは「見つけてもらう」のと「請求」のために使ってて,ホストされるオプションかオンプレミスを選ぶオプションを提供してるんじゃないかな.
うん,でも確かに分かりにくいってのは同意!

tecleandor 2025/05/08 11:00:57

いろんなツールがさ,Google MarketplaceとかAWSの equivalent で請求できるのは,こういう理由なんだよ.
- 他の請求とまとめて払えるから.
- たぶん承認を得やすいんだろうね.
- そして(少なくとも俺らの場合はこれが重要なんだけど),Google Cloud(とかAWS)の契約で決めた費用コミットメントを達成できるし,割引も維持できるからなんだ.
:)

_pdp_ 2025/05/07 18:25:32

俺はMistral応援してるんだけど,個人的にはさ,いろんなモデルにアクセスできることこそがマジで一番使える機能だと思うんだよねー.
コード書きたい時もあれば,文章書きたい時もあるし.それに,どのモデルも同じように作られてるわけじゃないしさ.

the_clarence 2025/05/08 04:07:02

正直言うと,俺は「一つの汎用モデルで全部やっちゃう」ってアプローチが結局は勝つと思うな.
すっごく特別なタスクでもない限り,みんな「このモデルは何が得意で,あのモデルは何が得意で」なんてイチイチ考えたくないだろうし.

_pdp_ 2025/05/08 10:20:32

個人的には,人は「おしゃべりするモデル」じゃなくて,「何かをやってくれるエージェント」とやり取りしたいんだと思うよ.
で,エージェントってのは定義からして専門化されてるから,特定のモデルが必要になるはず.
Mistralだって,一番性能いいモデルが何でもできるわけじゃないのと同じで,全部のタスクに良いとは限らないんじゃないかな.

the_clarence 2025/05/08 20:35:43

エージェントはさ,今はプロンプトとかMCPで専門化されることが多くて,モデルそのもので専門化されることはどんどん少なくなってきてるんだよ.

sschueller 2025/05/08 06:23:30

どのモデルを使ったらいいか判断するために,すっごく軽いモデルを先に置いておく,なんてこともできるんじゃない?

sReinwald 2025/05/08 08:02:07

そのアイデア,理論上はいいんだけど,実際はけっこう大変なんだ.特にみんなで使う環境だとね.今うちの職場でローカルLLMを試してるんだけど,まさにそれでモデルの入れ替え(スワッピング)が遅くて困ってるんだ.
VRAMに全部置けないと入れ替えが必要なんだけど,それがすっごく遅い.
ユーザーは待つの嫌がるから,すぐ使われなくなる可能性が高いよ.
これはMixture-of-Experts (MoE)を手動でやってるようなもんだけど,本物のMoEは内部でうまく処理するようになってる.
遅延を減らすには大量のGPUとVRAMが必要で,コストも複雑さも増えるし,リソースも無駄になりがちだよ.

gustofied 2025/05/08 13:01:49

Semantic router見た?あれならタスクに合った適切なモデルを素早く見つけられるよ。LLMをルーティングに使うのは良くないって意見には同意。金かかるし、時間かかるし、間違ったルートを選びがち。

sReinwald 2025/05/08 16:55:39

Semantic routerは気になってるけど、うちの今のボトルネックはルーティング速度じゃなくてモデルの入れ替えなんだ。Gemma3 4Bで十分だし、これは個人的な探索だから最適化に必死じゃない。Semantic routerは商用APIでコスト削減に良さそう。簡単な処理を安いモデルに振れば、Claude 3.7で.csvフォーマットとかいう無駄遣いをなくせるよ。

F-Lexx 2025/05/08 07:53:53

良いアイデアだね。そしたら、その前に別の軽いモデルを置いて、どのモデルを使えばどのモデルを使うか分かるかを判断するためにどのモデルを使うか判断させる、とかできるじゃん。LLMだらけになるね、 all the way down。

the_clarence 2025/05/08 20:36:34

俺の推測だと、これは basically AIプロバイダーがゆっくり移行してる方向性だと思うな。そして、これはモデルが内部的にMixture of Experts (MoE)で既にやってることみたいだね。

promiseofbeans 2025/05/08 11:37:51

つまりさ、汎用モデルってのはある意味で既にこれやってんだよ、選択したエキスパートにルーティングするって。これってアンサンブル学習のかなり基本的なコンセプトで、実質MOEのエキスパートってそういうことじゃん。もっとルーティングの層を重ねるのもできるけど非効率だね。最適なソリューションは最終的に、 hyper-focusedなエキスパートモデルを訓練・公開する会社が出てきて、ベンダーがそれらを組み合わせて使うようになると思う。スマホ部品みたいに、いろんな会社から買って最高のモデルを組み立てるイメージ。AppleだってSamsungのチップ使ってるじゃん。

downsplat 2025/05/08 13:00:16

俺もAPIで色々なプロバイダー(Mistral, Anthropic, Gemini, OpenAI)にunified clientでアクセスしてるよ。CLIで’aichat’使ってるんだけどめっちゃ便利。モデル切り替えとかログとか簡単。APIは学習に使わない保証付きのはずだし、何よりめっちゃ安い。日に何度も使って月に数€くらいだね。

Deathmax 2025/05/08 13:13:29

Gemini’s free tierは絶対にあなたの入力を学習に使うよ[1]。Mistral’s free tierも同じ[2]。AnthropicとOpenAIはデータ収集にオプトインすると割引価格になったり無料トークンをもらえたりする。[1]: https://ai.google.dev/gemini-api/terms#data-use-unpaid
[2]: https://mistral.ai/terms#privacy-policy

downsplat 2025/05/08 13:27:01

ああ、つまり有料のAPI accessってことね。credit card登録すれば、月末になってもpeanutsみたいなもんだよ。Sorry I didn’t specify。無料サービスだと自分がproductになるって良い reminderだね!

I_am_tiberius 2025/05/07 19:05:43

俺、le chat使うのめっちゃ好き。openaiより情報渡すのずっと安心だって感じる。

dlachausse 2025/05/07 17:56:54

>世界クラスのAIエンジニアリングチームが、価値実現までず~っとサポートしてくれるってさ。

victorbjorklund 2025/05/07 23:08:55

なるほどね。でもきっと結構高いでしょ。それならそのお金で、オープンソースモデルを手伝ってくれる人を雇えばいいじゃん。

disgruntledphd2 2025/05/08 10:22:19

多分「責任の所在を一つにする」っていう考え方がここには当てはまるんだろうね。特にヨーロッパではさ。

もっとコメントを表示(2)
adamsiem 2025/05/12 18:57:55

メール解析か… 紹介動画では他のツールと一緒にメール検索できるって言ってたね。
どんなメールクライアントに対応してるの?これに関連するツールで同じことできるのある?

starik36 2025/05/07 21:28:49

オンプレミス版のハードウェア要件について全然書いてないね。どんなGPU?何個必要?ディスク容量は?

tootie 2025/05/08 00:47:17

多分柔軟なんじゃないかな。Mistralはコンシューマー向けハードでも動く小さいモデルも作ってるし、必要に応じてスケールアップ・ダウンできるのかもね。提供側で何ができるかにもよるだろうけど。

rowanajmarshall 2025/05/08 10:46:00

僕、スマホでMistralモデル動かしてるよ!

dr_kretyn 2025/05/08 15:29:45

もうちょっと詳しく教えてよ?それってGPUコネクタ付きのデカいスマホか小さいラップトップ?それとも小さいモデルなの?

guerrilla 2025/05/07 18:20:11

面白いね。ヨーロッパが本気で対抗しようとしてるのが珍しい。そういうの応援したいな。

fortifAI 2025/05/08 08:34:09

Mistralってぶっちゃけヨーロッパ全体じゃなくてフランスだよね.ヨーロッパにはいくつか計画があるみたいだけど,見る限り本気で競争できるものを作るのが目的じゃないっぽい.目的はEUのデータを企業のためにEU内に留めることで,一方会社に強制されてないユーザーはみんなUSかChinaにデータを送ってるし.

blitzar 2025/05/08 10:59:01

最後にチェックしたけどFranceってEuropeにあるよね.CaliforniaにあるからってGoogleとかAppleはAmericanじゃないって言うようなもんでしょ.

klabb3 2025/05/08 12:46:37

このスレッドの愛国的とかUS州に例える言い方って,US中心的な見方だと思うんだ.誰もEUを連邦国家なんて思ってないし,”ヨーロッパ人”を統一された国民だなんて思ってないよ.EUはせいぜいバカげたことから守ってくれるくらい.NAFTAとかfive eyesに似てるかな.文化的忠誠もUSとanglosphereの関係に似てる.最近は色々急速に変わってるけど.

klabb3 2025/05/08 17:49:01

うん,比喩には違いがあるよね.それに議会ってのは密室での握手よりはマシだよ,完璧じゃなくてもね.州と比較するのはもっと無理があるな.UKは深刻な報復どころか軍事衝突もなくEUを出たじゃん.もしTexasとかCaliforniaが本気で分離しようとしたらどうなると思う?

resource_waste 2025/05/07 18:48:59

このコメントは来ると思ってたよ.MistralはChatGPT,Claude,Llama,Gemini/Gemmaの中でずっと最下位か,少なくともそれに近いね.個人的な経験から,Mistralがひどくて他のLLMがずっと良いのを知ってるんだ.
最高のならChatGPT,ローカルならLlama(たぶんGemma),会社のTOS破るようなことならMistral...でも2025年にはdeepseekに抜かれそう.
Europe以外の人はLLMに愛国心なんてないから,最高のを使うだけだよ.Mistralにはほとんど使い道がないね.

omneity 2025/05/07 19:45:05

>ローカルで使いたい? Llama(たぶんGemma)
LlamaはQwenに替えて,Gemmaはまだまだだね.
>Mistralはずっと最下位か...
Mistralは長いこと”主力オープンウェイトベースモデル”だったし,賢いポジショニングでまた戻ってくるかも.
今はリードしてないけど,外部から見ると(Cohereみたいに)生き残るために革新的なビジネスモデルを探してて,PMFに到達して夢を続けようとしてるのが立派だと思う.この段階ではたくさん実験するだろうね.

drilbo 2025/05/07 21:23:07

>LlamaをQwenに替えて,Gemmaは全然話にならない.
最新のgemma3試した?結構感動したよ.qwen3にすぐ抜かれたけど,まだ無視するのは早い.例えば3~4bとか小さいgemmaは同じサイズのqwenより暴走しにくいみたい.
この分野の最新についていけないのを責められないけど,スマホでも動かせる選択肢が複数あるのはすごいこと.
とにかくMistralは注目する価値あり.他のプレイヤーをオープンウェイトに向かわせたり,小さいモデルが通用することを証明したりですごく貢献したんだ.クローズドモデルは微妙だけど,まだ諦めてないのは良いことだよ.

omneity 2025/05/07 21:44:23

たぶん個人の使い方によるんだろうけど,自分にとってはGemma3はそんなに使い物にならないな(競争力がないか,使う価値がない).自分使い方だとQwen 2.5 14BがGemma 27Bを完全に凌駕してる.Qwen 2.5 3Bも競争力あり.0.6Bモデルが基本的なタスクで使えるって意味で,3シリーズはもっと面白い.
Qwenが物足りないなって思うのは,完全に個性が無いとこだね.

amelius 2025/05/07 20:25:27

個人的には最近いくつか逆の経験があるよ,難しい質問だとMistralがChatgptより性能良かったりしたんだ.

tacker2000 2025/05/07 19:58:06

何が言いたいんだ? 欧州製のLLMにも居場所はあるだろ、”愛国心”だろうとデータ安全だろうとさ。それに、中国人が自分たちのものに”愛国的”じゃないなんて言うなよ。みんな違うやり方があるんだ。もしMistralが市場に合えば、成功するさ。

byefruit 2025/05/07 19:01:39

たぶん低評価されてるのは、モデルの世代とかバージョン(’ChatGPT’とか)を全然出してないからじゃない? それだとあんま信頼できないし。

dismalaf 2025/05/07 19:12:34

最初のコメントで、Mistralを使ったのはライセンスが緩いからって言ってたよね(だから7Bを使ったんだと推測?)。それなのに、最先端の商用モデルと色々比較してるけどさ。Mistralの最新の商用モデルとか試したの?それとも最新のオープンモデルでも?

thrance 2025/05/07 19:28:31

”愛国的なヨーロッパ人”ってのは…興味深い言葉の組み合わせだね。ほぼ矛盾語(oxymoron)って言ってもいいかも。

bluebarbet 2025/05/08 16:20:43

へぇ。俺はね、アメリカ人はヨーロッパ人の共通のアイデンティティを過大評価しがちだと思うんだ。世論調査でも、ほとんどのヨーロッパ人にとって、ヨーロッパ人としてのアイデンティティは二番目に遠く及ばないって。EUはエリート主義プロジェクトで、国民の正当性もゆっくり獲得中。とはいえ、個人的にはすごく愛国的なヨーロッパ人だけどね。

qwertox 2025/05/08 17:56:29

これすごく速くてびっくりしたよ。GeminiとかChatGPTだと返事が終わるまでずーっと待つのに慣れてたから、これは一瞬だ。

amelius 2025/05/08 08:45:41

このセットアップで、どうやってIP(知的財産)を保護するのか気になるね。

記事一覧へ

海外テックの反応まとめ
著者
海外テックの反応まとめ
暇つぶしがてらに読むだけで海外のテックニュースに詳しくなれるまとめサイトです。