メインコンテンツへスキップ

利用者規約とプライバシーポリシーが更新!思わぬ落とし穴はない?

·2 分
2025/08 プライバシー 規約 データ 法務 消費者保護

利用者規約とプライバシーポリシーが更新!思わぬ落とし穴はない?

引用元:https://news.ycombinator.com/item?id=45062683

troad 2025/08/29 11:56:09

オプトアウトできるのにデフォルトでオプトインってのが嫌だね。単純な規約更新に見せかけるのも姑息だし、5年間のデータ保持期間も長すぎるよ。他にも隠し事ありそうだし、これが購読解約の決定打になったわ。

merelysounds 2025/08/29 12:19:45

> オプトイン by default
「デフォルトでオプトイン」って表現は間違いだよ。それは「オプトイン」か「オプトアウト」のどちらか。これはデフォルトで選択されてるから「オプトアウト」が正しい表現だよ。

benterix 2025/08/29 12:42:56

これは揚げ足取りじゃないよ。言葉の意味を勝手に変えることへの当然の反応だ。

troad 2025/08/29 14:40:58

「sane」の本来の意味は「肉体的に健康」で、今は「精神的に健康」が一般的だよ。君はそれを「妥当な」って意味で使ってるけど、言語の進化を禁止するのはいつから?なんでそれが君が習得した時期にちょうど当たるんだ?

JohnnyMarcone 2025/08/29 12:03:11

アプリ開いたら、変更点とオプトアウトの選択肢が書かれたポップアップが出たよ。俺的にはかなり透明性が高いと感じたな。

episteme 2025/08/29 12:07:15

代わりに何を使うんだ?ChatGPT 5は遅いし、4より良い答えが出ないから、俺はClaudeが一番いい感じだと思うよ。

wzdd 2025/08/29 12:16:08

Anthropicの他のインターフェースでは、オン/オフのスイッチは有効だと青、無効だと黒なんだ。でも、この変更の表示だと、スライダーが両方の状態でグレー表示だよ。設定で違いを見てみて!わざわざこんなことしたってのが、がっかりだし悲しいね。

smallerfish 2025/08/29 12:11:28

設定 > プライバシー > プライバシー設定

kossTKR 2025/08/29 12:14:18

これに関連する設定が見つからないんだけど?データのエクスポート、共有チャット、位置情報メタデータ、利用規約の確認と更新しかないよ。俺はEUにいるんだけど、それって何か関係あるのかな?

croes 2025/08/29 12:20:42

「規約を確認して更新する」をクリックした?それも更新の一部だよ。

danans 2025/08/29 14:49:17

言語の進化が禁止されるのは、いつ?まさか、そんなことないよね?
https://en.m.wikipedia.org/wiki/Semantic_change

I_am_tiberius 2025/08/29 12:03:28

”5年間の保持”って言うけど、一度モデルに入ったら永久に残るでしょ。

soraminazuki 2025/08/29 17:16:26

オプトインとオプトアウトの区別を曖昧にするのは、”進化”じゃなくてガスライティングだよ。

troad 2025/08/29 12:12:15

残り2週間で考えるけど、まだ決めかねてる。僕はすべてのツールを使いこなしてたわけじゃないし、ImageMagickみたいなスマート検索や簡単なスクリプトに使ってただけだから、Kagiに付属してるものだけで済むか試してみるかもね。

kossTKR 2025/08/29 12:23:21

なるほど、ありがとう。そういう隠し方はダークデザインパターンだよ。誰もそんなことに興味ないのに、余計な文章を並べて”私たちをより良くするために協力して”とか言ってるけど、それは”もっと稼いで、もしかしたら君の超個人的な情報を売ったり漏洩させたりする”ってことだから嘘つきだね。今すぐ購読をキャンセルしようか考えてるよ。EUには、こんな風に人々の極めて個人的なデータを遡及的に使おうとする企業を、少なくとも禁止するか、高額な罰金を科すことを検討してほしいな。これは完全にやりすぎだよ。

elashri 2025/08/29 12:19:21

”それはとても透明に見える”って?暗黙の同意は透明じゃないし、どんな状況でも違法であるべきだよ。君がオプトアウトしない限り、僕が君のアパートを借りることに同意した、なんて言えないよね。この例は直接比較できないって言うかもしれないけど、全体的な考えは同じだよ。もし僕らが壊れた窓を修理する契約を結んだなら、僕が勝手に暗黙の同意で家の中の他のことを何でもできる、なんてことにはならないでしょ。

card_zero 2025/08/29 17:15:49

見てみろ、目の前で進化してるぞ!「デフォルトでオプトイン」なんていう適応不良な変異は排除されてるんだ。これが今起きてる進化だよ。

riz_ 2025/08/29 12:20:00

多分、一部の国にはボタンやスイッチの見せ方を規制する法律があるからじゃないかな。Cookieバナーみたいに、デカい緑の「同意」ボタンと、設定用の小さい灰色文字ってやつ。

klabb3 2025/08/29 13:00:02

EUとか関係なく、この明らかな利益相反に気づかないのが驚きだよ。AI企業はモデルも作るし、推論も貸してる。つまり、君のデータを一番欲しがって、しかも大量の高品質データも集める企業が、それを使わないとでも期待してるのか?子供にキャンディ預けるようなもんだよ。
法律がちゃんと規制できる社会に住みたいね。あとPonyも欲しい。

troad 2025/08/29 23:49:26

それは寛容じゃなくて、正直言ってちょっとヒステリックな見方だよ。デフォルトでオプトイン。完璧に明確だろ。言葉の目的はコミュニケーションなんだから、君の政治的主張を正当化するためじゃない。

senko 2025/08/29 12:27:04

今やってみたけど、Androidアプリでは期待通りに動いたよ(君が言ってたようなダークパターンじゃなかった)。

troad 2025/08/29 23:41:41

それは進化じゃなくて、創造論を試みてるだけだよ。進化警察なんていないし、これからもずっといないだろうな。

BalinKing 2025/08/29 14:24:22

ウェブサイトでは、両側が灰色になってるのを確認したよ。

soraminazuki 2025/08/30 01:35:54

>デフォルトでオプトイン。完璧に明確。それはオプトアウトのことだよ。まさに俺が言った通り、君はOpt-inとOpt-outが同じだとガスライティングして、概念を台無しにしてる。そんなOrwellianな操作をしておきながら、人を「政治的」と呼ぶなんて信じられないね。言葉の意味を再定義して、概念を伝えられなくしておいて、よく言葉の目的について語れるな?「デフォルトでOpt-in」の本当の意味は、ユーザーが毎回手動で同意することだ。君の定義とは真逆だよ。
俺を「ヒステリック」と決めつけるのは怠慢だね。Googleみたいな企業のPR部門も、君と同じようにOpt-outとOpt-inって言葉を騙すように使ってるんだから。
https://arstechnica.com/gadgets/2024/06/report-new-apple-int
https://github.com/rom1504/img2dataset/issues/293
https://news.ycombinator.com/item?id=37314981

demarq 2025/08/29 12:05:03

Opt-outって、データ学習だけが対象なんじゃないの?データ保持は、このトグルに影響されないみたいだけど。

soulofmischief 2025/08/29 13:58:25

例を教えてくれる?

perihelions 2025/08/29 12:17:04

KagiはLLMプロバイダー(Anthropicとか)にどうやってプライバシー権を強制してるんだ?
Kagiは「データはAI学習に使わないし、アカウント情報も共有しない、スレッドは24時間で消す」って言ってるけど、Anthropic側では5年間データが保持されるとか、AI学習に使われるとか聞くよ? Kagiは特別な契約を結んでるの?
参照: https://help.kagi.com/kagi/ai/assistant.html#privacy

ethagnawl 2025/08/29 14:43:20

新しいT&Cに同意しなかったらどうなるんだろう?
俺、あるアプリで何年も更新されたT&Cの同意を無視し続けてるけど、何も問題ないんだよね。
ちなみに、オプトアウトしたいなら、そのT&Cのモーダル内に切り替えボタンがあるよ。

Syzygies 2025/08/29 13:17:10

俺、Claudeに数学の研究を手伝ってもらってるんだけど、Claudeが俺の未発表のアイデアを学習して、他の人にそれを提案しちゃって、その人が自分のアイデアだって思っちゃうのが心配なんだ。
商業利用はもちろんだけど、個人でもAIを使うならプライバシーは絶対必要だよね。

vdfs 2025/08/29 13:42:47

「Claudeは俺の数学研究を手伝ってくれる」
「Claudeは俺のアイデアを他の人に提案する」
これって、Claudeは自分の学習データしか知らないんだから、他の人の研究を手伝ったってことにならない?

もっとコメントを表示(1)
kmacdough 2025/08/29 17:26:15

アイデアを考えるとき、Claudeは関連情報を探したり、文章の確認を手伝ってくれるだけ。だからアイデアはClaudeのものじゃない。
でも、Claudeが俺のアイデアを学習して、似たアイデアを持った別のユーザーに提案したらどうなる?そのユーザーはそれが新しいアイデアだと思って、先に発表しちゃうかもしれないよね。

simpaticoder 2025/08/29 14:15:40

公開されてるウェブで研究するのと、同僚の個人的なノートや話から研究するのとは、全然違うことだよね。

iaw 2025/08/29 14:12:04

「Claudeは学習データしか知らない」って言うけど、俺はClaudeが俺の入力に基づいて新しい動きをしたり、既存のアイデアを新しい方法で組み合わせたりするのを見てきたよ。
もはやただの記憶じゃないと思うな。

ffsm8 2025/08/29 14:42:40

フィンランドで海を見て空が緑に見えたら、本当に空は緑なの?
自分の視点を客観的な真実だと思っちゃうのは、よくある間違いだよね。

Syzygies 2025/08/29 15:39:25

俺はAIをものすごい「関連付けエンジン」だと見てるんだ。
数学研究だと「誰も知らないアイデア」と「誰かが持ってるアイデア」を見分けるのが大変だったけど、インターネットやAIで変わってきた。
AIって、うまくプロンプトを使えば「点と点をつなぐ」能力もあるんだよ。独創的に見えるアイデアが、実は潜在的なつながりだったりするのって面白いよね。

bluecalm 2025/08/29 14:14:25

数学研究に限らず、特定の分野で俺が最適化したコードとか、うまい解決策みたいな「秘密のソース」が、Claudeを通じてみんなに広まって、みんなが自分のアイデアだって思っちゃうかもしれない。
ビジネスパートナーともこの話をしたけど、うちは秘密の部分はClaudeには見せないようにしてるよ。他の部分はすごく便利だけどね。

Aurornis 2025/08/29 13:18:25

新しい利用規約のポップアップが出たら、「opt out」オプションを選んでね。そうすれば、君のチャットがトレーニングに使われなくなるよ。

Klonoar 2025/08/29 14:07:23

まあ、理論的には使われないだろうね。エンジニアリングチームで働いたことある人なら、「if(doNotDoThisCondition)」のチェック忘れってよくある話だって知ってるでしょ。だからオプトインの方がユーザーを尊重してるってことだよ。

Deegy 2025/08/29 14:15:03

もし自分の仕事が本当に斬新だったら、確率的なモデルで後から出てくる可能性ってすごく低いんじゃない?AIは集合知の総体を出力してるようなもんだし。概念が出てくるには学習データでかなり一般的じゃないとダメでしょ。だからプライバシーやイノベーション的にも、概念が推論で出てくるほど一般的になったら、それはもう公共知識の一部として扱われてもいいんじゃないかな(IPは別として)。

bluecalm 2025/08/29 14:28:10

今後、モデルは新しくて意外な部分に重みをつけて学習を最適化するかもしれないね。モデルが賢くなるほど(予測精度が高まるほど)、予期せぬ新しいアイデアからより多くの価値を得るようになるだろうし。

Deegy 2025/08/29 14:35:37

いい点だね。でも、モデルってそんな振る舞いできるのかな?確率に依存してるんだし、もし新奇な出力に重みをつけすぎたら、信頼できない幻覚マシンになるだけじゃない?一部の人はどう思ってるか知らないけど、モデルは概念の妥当性を推論できないんだよ。繰り返し出てくるデータで何が正しいかを決めてるだけ。
そうは言っても、そうチューニングされたモデルは見てみたいね。「creativity model」として売り出して、ユーザーが大量のゴミみたいな幻覚を受け入れる前提で、概念の妥当性を自分で判断するようなものなら面白いかも。

ceroxylon 2025/08/29 14:51:37

モデルの出力調整ではTemperatureが重要な役割を果たすんだよ。理論的なスイートスポットがあるって指摘は正しいね。詳しくはこの記事をどうぞ: https://towardsdatascience.com/a-comprehensive-guide-to-llm-

bluecalm 2025/08/30 10:00:44

もう起こってると思うよ。ChatGPTは僕のchess.comのプロフィールとHacker Newsの投稿から、僕の名前とプロジェクトを結びつけられたんだ。珍しい問題の解決策をたった一つの入力から学習するのも、そんなに難しいことじゃないんじゃないかな。1000回見た解決策と、1回しか見てない珍しい解決策の両方を参照できるのかもしれないし。

andrewmcwatters 2025/08/29 13:49:06

いま、多くの「いたちごっこ」的な脅威検出開発をしてる人たちは、自分の仕事を公開LLMの外でやってるよ。だから君も僕たちと同じ状況ってことだね。

thisOtterBeGood 2025/08/29 13:51:10

これって、AIが抱える最大のジレンマの一つを完璧に言い表してるよ。AI企業は、自分が所有していない人間の知識をどこまで利用するのをやめるべきか。どこに線引きするべきなんだろうね。どうやら、全く線引きがない可能性もあるみたいだけど。

sneak 2025/08/29 13:55:43

知識は所有できるもんじゃないよ。知的財産権なんて産業を支えるために作った法律上のウソなんだから。知識や情報なんて数字の2みたいに誰のものでもないんだよ。

AvAn12 2025/08/29 20:18:45

じゃあさ、Anthropicは自分とこのソースコードに財産権を持っちゃダメって言いたいの?

wolvesechoes 2025/08/29 15:16:42

そもそも財産権ってものが法律上のウソなんだよ。君が持ってる他の全ての権利だって法律上のウソじゃん。だから何って話だよね。

sneak 2025/08/29 17:47:28

「財産権が法的虚構」って不動産はそうかもね。でもモノの所有は当然の権利だと思うよ。ヨーロッパでアメリカ人がスリに遭うTikTok動画見れば、みんなの気持ちがわかるんじゃない?

mitthrowaway2 2025/08/29 18:45:05

でもさ、稼いでるソフトのソースコードとか、営業の顧客リスト、小説の原稿、秘密のレシピ、頑張った論文とか盗んだスリに対しても、同じ気持ちでいられるの?君の寛大さ、すごいね!

dns_snek 2025/08/29 15:46:34

人間相手なら、君のアイデアを他の人に話したって自由だろ。なんでLLM相手だと違うの?LLMが君のアイデアをそのまま再現するなんて、まずないしね。
人類の進歩のためには、プライバシーを尊重しちゃいけないんだよ。

const_cast 2025/08/30 01:35:20

「LLMと人間の違い」って?LLMはプログラムで人間じゃないからさ。人間は特別なんだよ。なんでかって?だって俺たちが人間で、ルールを作るからね。ハンバーガーと友達の話みたいに、バカげてるよ。

dmbche 2025/08/29 15:53:22

「機密性」って概念に完全に反対してる人を見るの、すっごく好きだよ。

dns_snek 2025/08/29 16:41:16

全然違うよ!俺が反対してるのは偽善だけ。LLM好きは、みんなのアイデアや努力をLLM学習に使うのは正当で、人類の進歩に必要なことだって言うんだ。なのに、その恩恵を受けてる奴らが、自分たちのアイデアだけは別って言うのは偽善だろ。

dmbche 2025/08/29 16:50:23

わかった!同感だよ。皮肉探知機をチェックしないとね。

Ardren 2025/08/29 14:00:06

Claudeが俺の数学研究手伝ってくれてるってさ。自分だけおいしい思いして、後から来た奴には道閉ざしてる感じだよね。

notrealyme123 2025/08/29 15:56:45

未発表の作品と、すでに発表されてる作品の違い、って話だろ。

JCM9 2025/08/29 12:15:43

別に驚かないね。大手AI企業は既存データでの学習が限界で、もうネット中のデータ使い果たしてる。だから今度はみんなのデータが欲しいんだよ。これからどんどん怪しい手を使ってくるさ。

klabb3 2025/08/29 13:10:20

データブローカーと違って、AI企業はすでにみんなのデータを毎日手に入れてるんだからな。利用規約をうまく変更して、ちょっとしたPR問題さえ乗り切れば、みんな一週間で忘れちゃうって。

threetonesun 2025/08/29 14:17:40

企業の法務チームがこの件をすぐ忘れるとは思えないな。俺はいつも、これらの企業が他社のソフトの「Amazon basics」版を作る市場戦略を進めてると思ってたけど、これもその一歩だろ。

もっとコメントを表示(2)
imiric 2025/08/29 14:44:05

うん、これは全然驚かない。AI企業にとってデータは広告技術企業よりもっと金のなる木で、存在そのものに関わるくらい重要なんだ。この二つの業界が交わるところで、本当にヤバい行動が出てくるだろうね。GoogleとかFacebookは、すでにデータをお互いに使っててもおかしくない。

cube00 2025/08/29 13:12:51

新しいモデルが、自分たちが作ったクソみたいなデータで学習して苦しんでるのを見るのは気分がいいね。もっと計画的に、出版社とちゃんと契約するとかしていれば、人間とAIのコンテンツを区別できたはずだ。でも、連中はとにかく急いで全部取り込んだせいで、もう手遅れだよ。

theshackleford 2025/08/29 13:57:15

モデルが自分たちの作ったデータで苦しんでるっていう証拠は全く見てないし、もしそうだとしてもそれが原因だとは思えないな。もし、そういう研究があるならめっちゃ興味あるんだけど。

cube00 2025/08/29 17:43:57

「AIモデルが再帰的に生成されたデータで学習すると崩壊する」って記事、これだよ。
https://news.ycombinator.com/item?id=41058194

theshackleford 2025/08/29 23:06:01

俺が求めてたのはこれじゃない。今のモデルが「苦しんでる」って証拠と、それが自分たちのデータを食い続けたせいだって証拠が欲しいんだよ。何年も前の記事で、現在の状況と関係ない仮説を話されても意味ないんだよな。

cube00 2025/08/31 11:18:16

2023年で止まってる今のモデルのこと?
「訓練データは最新でいつまで?」って聞いたら、ChatGPTは「2023年4月までだよ」って言ってたね。GPT-5でも訓練データを更新したがらない理由があるんだ。
「数年前の記事で、今とは関係ない」っていうけど、今のモデルはもっと古い訓練データが元だから、記事の古さで判断するならそれらも無視すべきじゃない?

freejazz 2025/08/29 14:40:49

コンテンツを盗んだなんて言われてないよ。彼らは法廷で資料を海賊版にしたって言ったんだ。

whamlastxmas 2025/08/29 16:32:06

盗用じゃなくて、侵害だよ :)

xyst 2025/08/29 13:14:45

これがガードレールや規制が必要なさらなる証拠だね。

superposeur 2025/08/29 14:16:55

みんなこの動きに驚いてないみたいだけど、俺は本気でショックを受けてるよ。とんでもない自滅的なビジネス決定だね。Googleだって、悪魔的だとしても、Gmailの内容を検索結果に載せるなんてしないじゃん?そんなことしたら誰もGmailを使わなくなるからね。これはLLM版のそれだよ。俺、何か見落としてる?

rs186 2025/08/29 14:35:09

Gmailは2017年まで何年間も、メールの内容に基づいて広告を出してたんだよ。
https://www.npr.org/sections/thetwo-way/2017/06/26/534451513

skylurk 2025/08/29 14:41:39

それに2010年にはHTTPSをデフォルトにしたんだ。時代が違うんだよ :)

j4hdufd8 2025/08/29 14:51:26

HTTPSはそれに関係ないと思うな。Googleがデータを所有してるから、どう輸送されるかは問題じゃないんだ。ただ、どう保存されるかは重要だね(君しか取り出せない方法で暗号化されてることを願うよ)。

einpoklum 2025/08/29 14:40:08

Googleは君のメールからめちゃくちゃデータを掘り出してて、物を買わせるように操作したり、US政府に通信内容を渡したりと、いろんな目的で使ってるんだ。これはメールを誰でも検索できるようにするのとは違うけど、Claudeにメールを学習させるのも、内容を公開するのとは違うよね。それに、Googleのこういう行動は罰せられてないのが残念だよ。

aleph_minus_one 2025/08/29 14:32:03

Perplexity.aiの記事(https://www.perplexity.ai/page/anthropic-reverses-privacy-st…)によると、Anthropicの規約変更は企業・教育機関ユーザーには適用されないみたいだよ。彼らの言う「自滅的なビジネス決定」って主張は違うかもね。非商用アカウントはAnthropicにとって収益にならず、彼らは「フリーライド」を減らしたいんだろう。近いうちに有料のプライバシー重視サービスを出すんじゃないかな。

ceroxylon 2025/08/29 14:45:40

Anthropicが「フリーライド」を減らすって言ってるけど、ユーザーは数クリックでチャットの学習を拒否できるんだよ。だから、これって要するに、気づかないか気にしない人から簡単にデータを集めてるだけじゃない?

soiltype 2025/08/29 15:00:08

なんか、同じことみたいだね。Anthropicは「それっぽい言い訳」をしてるだけだろうけど、結局は一定のユーザーからそれなりのデータや利益をくすねるつもりでしょ。

827a 2025/08/29 15:00:58

Gmailは無料だけど、それでも無料ユーザーのメール内容をGoogle検索に公開するのはありえないだろ。それにAnthropicの新しいポリシーは、Pro(月20ドル)やMax(月200ドル)プランにも適用されるんだから、「無料だから」って話じゃないんだよ。

layer8 2025/08/29 14:45:10

つまりさ、ビジネス用途のLLMが、プライバシーを気にしない非ビジネスユーザーの入力データで学習されちゃうってことだよな。

KoolKat23 2025/08/29 14:27:51

このデータは強化学習に役立つし、他の企業もみんなやってるよ。それに一番大事なのは、いつでもオプトアウトできるってことだろ。

behnamoh 2025/08/29 14:40:18

みんながやってるからって言って、それが正しいとは限らないだろ。多くのユーザーはAnthropicが他と違うって理由で選んだのにさ。

wolvesechoes 2025/08/29 15:09:34

それってナイーブだよ。遅かれ早かれ、投資家や株主が入ってくれば、みんな同じになるもんなんだよ。

behnamoh 2025/08/29 15:18:03

彼らはもう来てるよ。GoogleはAnthropicの主要な投資家の一つだしね。

記事一覧へ

海外テックの反応まとめ
著者
海外テックの反応まとめ
暇つぶしがてらに読むだけで海外のテックニュースに詳しくなれるまとめサイトです。