NYTのデータ要求にどう対応しユーザープライバシーを守るのか
引用元:https://news.ycombinator.com/item?id=44196850
OpenAIの回答を引用すると、ユーザーデータは安全なシステムに分離され、法的な義務を果たすためだけに使われるらしい。アクセスできるのは監査された少数の法務・セキュリティチームだけって。これって、OpenAI自身がプライバシー保護にめちゃくちゃ努力してるって認めてるってことだよね?
万が一、このデータが漏れてもNYTじゃなくてOpenAIのせいだと思うな。
あと、訴訟を「根拠がない」って繰り返し言ってるのが、ただの自己弁護に見えてイマイチ説得力ないんだよ。怪しいものなんて何もないよ、って言いたいだけみたい。
いやいや、削除したはずのチャットが訴訟のせいで実は削除されてないっていうニュースが話題になってるから、OpenAIはそれに答えなきゃいけないんだよ。
これは訴訟をごまかすためじゃなくて、利用者に安心してもらうためのものだよ。
でもさ、「訴訟は根拠がない」ってわざわざ言うところは完全に自己弁護でしょ。そういうメッセージと混ぜるから、話がややこしくなるんだよ。
NYTの訴訟が客観的に根拠がないわけないじゃん。OpenAIはTimesの記事で学習したし、ChatGPTは学習データから情報を出力してるんだから。それが訴訟の根拠だよ。
NYTが負けるかもしれないし、公正利用と見なされるかもしれない、結局は大した根拠にならない可能性もあるけど、「根拠がない」って(何の裏付けもなく)言うのは自己弁護だし、だからこのメッセージは安心できないんだよ。
いや、これは自己弁護どころじゃないよ、完全に普通の企業の広報活動だよ。訴訟で争ってるなら、基本的にそれしか言えないんだ。
Ford Motor Companyだって同じこと言うだろうね(まあ、「メリットがなく不合理だ」とか言うだろうけど)。
削除しちゃいけないものを削除した結果、今回の命令が出たっていうところも入れるべきだよね、もしこれがスピンじゃないって言うならさ。
まあ、OpenAIにはどんなネガティブなコメントにも、カルトの信者みたいに、どんなに根拠がなくてもすぐさま擁護に飛びつく熱狂的なフォロワーか、何か得してる奴らがいるんじゃないかって最近思い始めてるけど。
「削除しちゃいけないものを削除した結果、今回の命令が出た」って言うところを入れるべき、もしこれがスピンじゃないって言うならね。
裁判の書類から判断するに、すべてを保持するよう裁判官から命令が出る前は、その要求は訴訟を起こした側から来ていて、OpenAIはそれに反対して、その間は応じようとしなかったみたいだよ。
もしそうなら、これを「削除しちゃいけないものを削除した」って言うのは、ちょっと誤解を招く言い方だよね。だって、「すべきだったこと」さえまだ決まってなかったんだから。
OpenAIを「スピン」だと非難してる人からそういう言い方が出てくるなんて、ちょっと面白いね。
いや、これはスピンとは全然違うよ。自分のケースを弁護するための標準的なやり方だ。
アメリカの不法行為訴訟制度では、常に「自分は何も悪くない」って公に言い続けなきゃいけないんだ。少しでも態度を曖昧にしたら、法廷で不利になる可能性があるからね。
OpenAIの視点はそりゃあOpenAIの視点だろうね。
彼らはこの訴訟を根拠がないって言うだろうし、そうじゃなきゃ争ってないよ。
このスレッド面白いね。「いや」って否定してるのに、結局はちょっと言葉を変えて同じことを言ってるだけじゃん。
まるで、進行中の訴訟について企業が公に言うことがスピンじゃないとでも言うみたいにさ。
これって、LLMを通して追加のクレジットか購読料を買うことになって、それがNYTとか出版社にお金として戻るってことだよね。全部パクられたんだよ。もう聞きたくない。この会社は金を払いたくないし、デバイスの発売とか企業向けみたいな追加市場でしっかりした足場ができるまで、この訴訟を長引かせるためにユーザーのプライバシーを危険に晒す気でいるんだよ。
たぶん、「spin」をどう定義するかによるんじゃないかな。個人的には、あんまり言葉を薄めすぎない定義の方がいいと思うけど。
あなたが貼った記事は、OpenAIが学習データを削除した話だよね。今の事件はユーザーの問い合わせについてなのに、どう関係あるの?裁判官がOpenAIに全ユーザー問い合わせを保持しろって命じた件も、この記事の事件には触れてなかったよ。
そうだね。これが言い争いにならないように言うと、この記事は、この会話を追ってる人たちにとって、なぜこれがただの期待じゃなくて裁判所の命令にまでなったのかを説明してるんだよ。
違うんじゃない?「Spin」ってのは、他に言い方があったはずなのにって意味合いがあるでしょ。
あなたの定義を教えてくれる?これは結構不思議なんだよね。だって、私が知る限り「spin」ってのは、自分に都合の良いように物事を提示することと常に結びついてるからさ。例えば何十年も前、「Bill O’Rilley’s No Spin Zone」って番組があったけど、あれはゲストが話を「うまく言い換えて」伝えようとしてるのを論破して、本当の真実(正直あの番組は全部くだらないと思ってたけど、名前は分かりやすかった)を追求するのが前提だった。普通であることがその批判に対する防御になるような「spin」の定義は知らないな。むしろ、普通の企業や政治的なメッセージはものすごく「spun」されてるってのが、あの番組の(架空の)付加価値だったわけだし。
著作権はコンテンツをそのまま複製することにかなり狭く定められてるから、彼らが何か支払うことにはならないと思うよ。
>この記事は、この会話を追ってる人たちにとって、なぜこれが裁判所の命令にまでなったのかを説明してる
それは違うね。あの記事は全く別のデータ削除の事件について話してるんだよ。
間違ってるよ。著作権は派生作品にも適用されるんだ。
心配いらないよ。理解は無理だから。LLMに要約させたよ。NYTの訴訟で、裁判所がOpenAIにユーザーデータを全部保存するように命令したんだ。NYTは著作権侵害の証拠が消えちゃうのを心配してる。前にOpenAIが裁判用のデータをうっかり消しちゃった事故があって、今回の命令はそれに対応したものさ。OpenAIはプライバシーの問題で控訴してるよ。たくさんのソースがある。
[1] OpenAI Appeals Court Order Requiring Retention of Consumer Data https://www.pymnts.com/artificial-intelligence-2/2025/openai…
[2] ‘An Inappropriate Request’: OpenAI Appeals ChatGPT Data Retention Court Order https://www.eweek.com/news/openai-privacy-appeal-new-york-ti…
[3] OpenAI Deletes Legal Data in a Lawsuit From the New York Times https://www.businessinsider.com/openai-delete-legal-data-law…
[4] NYT vs OpenAI case: OpenAI accidentally deleted case data https://www.medianama.com/2024/11/223-new-york-times-openai-…
[5] New York Times Says OpenAI Erased Potential Lawsuit Evidence https://www.wired.com/story/new-york-times-openai-erased-pot…
[6] How we’re responding to The New York Times’ data … - OpenAI https://openai.com/index/response-to-nyt-data-demands/
[7] Why OpenAI Won’t Delete Your ChatGPT Chats Anymore: New York … https://coincentral.com/why-openai-wont-delete-your-chatgpt-…
[8] A Federal Judge Ordered OpenAI to Stop Deleting Data - Adweek https://www.adweek.com/media/a-federal-judge-ordered-openai-…
[9] OpenAI confronts user panic over court-ordered retention of ChatGPT logs https://arstechnica.com/tech-policy/2025/06/openai-confronts…
[10] OpenAI Appeals ‘Sweeping, Unprecedented Order’ Requiring It Maintain All ChatGPT Logs https://gizmodo.com/openai-appeals-sweeping-unprecedented-or…
[11] OpenAI accidentally deleted potential evidence in NY … - TechCrunch https://techcrunch.com/2024/11/22/openai-accidentally-delete…
[12] OpenAI’s Shocking Blunder: Key Evidence Vanishes in NY Times … https://www.eweek.com/news/openai-deletes-potential-evidence…
[13] Judge allows ’New York Times’ copyright case against OpenAI to go … https://www.npr.org/2025/03/26/nx-s1-5288157/new-york-times-…
[14] OpenAI Data Retention Court Order: Implications for Everybody https://hackernoon.com/openai-data-retention-court-order-imp…
[15] Sam Altman calls for ’AI privilege’ as OpenAI clarifies court order to retain temporary and deleted ChatGPT sessions https://venturebeat.com/ai/sam-altman-calls-for-ai-privilege…
[16] Court orders OpenAI to preserve all ChatGPT logs, including deleted … https://techstartups.com/2025/06/06/court-orders-openai-to-p…
[17] OpenAI deleted NYT copyright case evidence, say lawyers https://www.theregister.com/2024/11/21/new_york_times_lawyer…
[18] OpenAI slams court order to save all ChatGPT logs, including … https://simonwillison.net/2025/Jun/5/openai-court-order/
[19] OpenAI accidentally deleted potential evidence in New York Times … https://mashable.com/article/openai-accidentally-deleted-pot…
[20] OpenAI slams court order to save all ChatGPT logs, including deleted chats https://news.ycombinator.com/item?id=44185913
[21] OpenAI slams court order to save all ChatGPT logs, including deleted chats https://arstechnica.com/tech-policy/2025/06/openai-says-cour…
[22] After court order, OpenAI is now preserving all ChatGPT and API logs https://www.reddit.com/r/LocalLLaMA/comments/1l3niws/after_c…
[23] OpenAI accidentally erases potential evidence in training data lawsuit https://www.theverge.com/2024/11/21/24302606/openai-erases-e…
[24] OpenAI ”accidentally” erased ChatGPT training findings as lawyers … https://www.reddit.com/r/aiwars/comments/1gwxr94/openai_acci…
[25] OpenAI appeals data preservation order in NYT copyright case https://www.reuters.com/business/media-telecom/openai-appeal…
顧客を安心させるためって言うけど、両方ありえるよ。OpenAIは明らかに訴訟をごまかしてるね。NYTの言い分は全然出してないし。
OpenAIはプライバシーをちゃんと守ってるって?もしデータが漏れたら、俺はNYTじゃなくてOpenAIを責めるね。俺はOpenAIファンじゃないけど、これは言わせてほしい。情報セキュリティの基本は、システムは破られるし、データを保存しないのが一番安全ってこと。データセキュリティを約束する奴は無能か不正直だよ。
たぶんOpenAIユーザーじゃないからだね。俺はユーザーで金も払ってる。規約以上にデータを保存されたくないよ。裁判官は、NYTなんて気にしない何百万人のユーザーのプライバシーが危うくなるのを理解してないなら、この件を扱うべきじゃないと思うな。
あなたが貼った記事は、今回の裁判とは関係ない別のデータ削除事故の話だよ。ユーザーチャットじゃなく、モデル学習データのこと。その記事が裁判所命令につながった理由を説明してるって言ってたけど、全然説明してないよ。誤解してるみたいだったから二度言ったんだ。そしたらまた関係ないLLMの要約を貼ったんだよね。結局こうなったってわけ。編集:どういうプロンプトで、LLMはその結論になったの?あなたが貼った記事はその結論を裏付けてないけどね。https://techcrunch.com/2024/11/22/openai-accidentally-delete…
それでも、モデルにプロンプトすれば、著作権保護された作品を完全に再現させられる可能性はあるよ。
全部盗まれたものだって言うけど、LLMは巨大なデータ倉庫じゃないよ。大きなモデルでも数TBくらいさ。ChatGPTにNYTの記事を出力させられるからって、NYTの購読やめる人なんていないってば。
彼らは否定しただけじゃなくて、根拠がないって言ったんだ。チャット保存命令が取り消されなかったってことは、根拠がまったくないわけじゃないのは明らかだよ。これがごまかしかって話は、どっちに味方するかって話になってるみたいだね。個人的にはOpenAIが勝つか、軽い罰金で済むと思う。でも、当事者からの情報は、証明されるまでは企業の「ごまかし」だと考えるべき。終わってない裁判を根拠がないって言うのは、ちょっと傲慢だよ!
なんか慌てて返信したせいか、要約ちゃんと読んでないんじゃない?
落ち着いてもう一回読んでみてよ。
2024年の事故が、NYT弁護士の要求や裁判官の命令と直接関係してるって話なんだよ。
俺がリンクした記事は、その2024年の事故についてだよ。
HNだって、揚げ足取りや皮肉ばっかじゃなくていいじゃん。
編集したみたいだね。安心したよ。
元の質問は「OpenAIがデータ保持を命じられたことと、2024年の事故(NYT弁護士データ削除)に何か関係ある?」ってシンプルなことだったんだよ。
OpenAIがさぁ、ZDR(ゼロデータ保持)を申請できるようにしてくれたらマジ助かるんだけどね。
多くのビジネスだと、リクエストを保存したりログに残したりする理由なんて全然ないんだよ。
ドキュメントには申請できるって書いてあるけど、実際には全然無視されるんだよね。
なんかマーケティング目的で言ってるだけみたい。
何回か申請したけど、全く返信来ないんだよ。
フォーラム見てると、こういうのよくあるみたいだね。
なんで承認が必要なの?
それに、今回の裁定の前から、プライバシー最優先でログ取らないのがデフォルトにならなかったのは何で?
OpenAIの「大丈夫だよ”」って言葉は、前から多くの人に疑われてたんだよね。
入力したデータは残されて、分析されて、場合によっては共有されるんじゃないかって思われてたんだ。
マジでプライバシー守りたいなら、やっぱりローカルのLLMを使うしかないんだよ。
俺の理解だと、デフォルトではバグ対応のために30日間ログが残されるんだ。
でも、ドキュメントによると、0日にするようリクエストもできるはずだよ。
もっとコメントを表示(1)
そうそう、「0日にリクエストできる」って話だけどさ。
問題は、そのリクエストが無視されちゃうってことなんだよ。
お金だけじゃないよ。
ログが全然ない状態で、どうやってそのクライアントのサポートに対応するつもり?
サポートしない。
「データ保持を無効にしてるんで、そのリクエストのサポートはできません”」って言えばいいんだよ。
簡単じゃん。
サポートはゼロログでもできるってば。
ユーザーに、どんなクエリ出して、どんな返事来て、どうなってほしかったか聞けばいいんだよ。
そしたら専門家としてすぐ問題がわかるかもしれないし、自分でやってみればいいじゃん。
再現できなくてチケット閉じられる可能性はあるけど、それはログがあっても同じだよ。
ログがないからって、サポート全部やめる必要はないんだ。
APIの返事の中身以外のサポートだってたくさんあるんだしね。
APIクォータ超えてるとか、必須のパラメータが足りないとか、サーバーエラーとか。
ログなくても教えてもらえることは色々あるよ。
あいつら気にしてないよ。まだサポートして欲しいだけで、経営陣は顧客にNOと言う立場をとりたくないんだよ。
… なんで今日ZDRの要求に応じないのが、将来応じられないよりマシなの?
対応すると言ってたのに、無視することで結局顧客にNOと言ってるのと同じじゃない?
もしこれが通っちゃったら、EUではもう商売できないと思うな。
EUからOpenAIサービス使ってる人に、この裁判所の命令が影響するとは思えないな。
EU内のサーバーに繋いでる限りはね。
NYTの記事にあったFAQの引用ね。
>> この命令はGDPRとかEUのプライバシー法に違反する?
>> 今は法律に従うけど、NYTの要求はうちのプライバシー基準と違う。だから争ってるんだ。
OpenAIがどの法律(米国の裁判官の命令かEU法か)に従ってるのか言ってないじゃん。
OpenAIのポリシーにZDRを申請できるって書いてあるけど、許可されるかは別。https://openai.com/en-GB/policies/row-privacy-policy/1
大事なのはデフォルト設定。SVは儲け優先でプライバシー考えてない。OpenAIのデフォルトは保存。出力は勝手に保存される。
だから、訴訟でデータ保存に反対するって言っても、元々保存してるんだから真に受けにくいね。
> ドキュメントには申請できるって書いてあるけど、実際には無視されてるみたい。
承認が必要とか色々あるのは分かるけど、ZDRってマーケティング目的で言ってるだけじゃないの?
サイトに書くだけで実は何も実装してないってのに賭けるわ。
正直、OpenAIのやり方は結構普通に見えるな。
Azureだって、特定の顧客にだけZDR提供して、他は悪用監視のために30日間データ保持してる。
こういうモデルは悪用されやすいから、みんなに特権を与えないのは理にかなってる。自社の法的立場を守るためにもね。
OpenAIの法務が、会話内容自体じゃなくて、ssdeep[1]とかcontent-defined chunks[2]みたいな、コンテンツのファジーハッシュだけ保存するって主張できないかな?
NYTのデータは限られてるし、APIで侵害コンテンツが生成されたか、ハッシュで比較できるはず。
何も保存しないのが一番だけど、広範な命令が出てるから、これが一番の妥協案かも。
[1] https://ssdeep-project.github.io/ssdeep/index.html
[2] https://joshleeb.com/posts/content-defined-chunking.html
全部キラキラしたホワイトペーパーに収まる話だよね。でもふざけるのはやめようよ、ChatGPTのセッションは全部S3 bucketに直行で、3文字の機関が毎月テープにバックアップしてるんだ。Googleアカウントでログインしたバカたちの、正直でタイムスタンプ付きのテキストやり取りのデータベースだよ。これより手っ取り早いターゲットなんてメールを再発明しないと無理でしょ。もちろんバックドアはあるさ、君は俺が間違ってるって証明すら始められないだろうからね。たぶん俺だけかもしれないけど、Sam Altmanの指切りげんまんは俺のデータについて何一つ保証してくれないね。Mark ZuckerbergがWhatsAppがいかに安全かって歌に合わせて踊るシンギングテレグラムと同じくらい安心できるよ。
国家安全保障の観点から何か有用なものを見つけようとしたら、どれだけゴミみたいなやり取りをふるいにかけなきゃいけないか考えてみなよ。データは陳腐さゆえに、実質的に難読化されてるんだ。
そりゃ君が間違ってるって証明を始められないよ。君はunfalsifiableな主張をしてるんだからね。君はsigintのRussell’s Teapotを指してるんだよ。
アメリカのIC、主にNSAがインターネットトラフィックに関する大量のメタデータを収集してるのは周知の事実だ。これにはいくつかの正当化理由があって、TLSが普及した現代では少しマシだけど、それでも概ね最悪だね。でも、アメリカ人の実際の復号化されたコンテンツを直接スパイすることに対する法的保護は、少なくとも理論上はより強力なんだ。
Snowdenのリークは、NSAがGoogleとYahooのデータセンター間リンクを盗聴していたことに言及してる。だから、彼らがリンクを盗聴しなきゃいけなかったってことは、大量の自発的な協力があったとは思えないね。
それに、SlopGenerator9000の膨大で省略なしの出力データを解析するのは、LLMを使って解析しない限り、本当に難しい作業だってことも指摘したいな。
検索エンジンは90年代半ばからこれをやっていて、進化する一方だよ。他のデータと大量にあることでデータが難読化されるなんて考えるのは、せいぜい誤った考えだね。
検索可能?何を検索すべきか知る必要があるし、偽陽性を除外する必要があるね。秘密諜報員のシナリオでロールプレイングしてる人か、実際に何かを企んでる人か、どうやって見分けるんだ?それは検索機能では区別できないことだよ。そのデータをふるいにかけるには人間が必要なんだ。
どうやって秘密諜報員のシナリオでロールプレイングしてる人か、実際に何かを企んでる人か見分けるんだ?
→メタデータと捜査だよ。
それは検索機能では区別できないことだよ。
→最初の大量のデータから大幅に絞り込めることは分かってるだろ。
そのデータをふるいにかけるには人間が必要なんだ。
→うん、データを照合、分析、検索する目的は、最終的な判断を下すことじゃなくて、利用可能なエージェントによる捜査のターゲットを見つけることなんだよ。俺たちがみんな検索エンジンを使うのと同じ理由さ、絞り込むためだよ。意図だけでは求めるものを決して生み出さない、俺たちは結局、最終的な結果を読まなきゃいけないんだ。魔法はまだまだ先の話だよ。
君はまるで、人間を完全にループから自動化できるかのように振る舞ってるけど、それはstraw man論法だよ。AIを使うことで警察や治安機関をなくせると言ってる人がいるか?あるいはAIが警察になるのか、たぶん自動運転車やロボットを使って交通違反を取り締まるのか?それは起こりうるかもしれないけど、ここでそれが何の関係があるか分からないな。
Snowdenのリーク見ると、NSAはGoogleとかYahooのDC間リンク盗聴してたって言ってるじゃん。ってことは、協力なんてほとんどなかったんじゃない?法律も悪くなってるし。
https://www.aclu.org/press-releases/congress-passing-bill-th…
見てみ。
リンク先のページにも書いてあるけどさ、普通のユーザーなら設定でオフにできるし、API使う人ならデータ保存ゼロにもできるらしいよ。
NSAのヘイデン将軍が「メタデータで人を殺す」って言ったらしいね。奴らは生データ、特に時系列のが超好き。Google Mapsのデータとか、一見どうでもよさそうでも、ヤバい奴をヤバい場所で捕まえたりできるし。ChatGPTの会話も一緒で、通信データとか広告データみたいにまとめて監視に使われるってわけ。
これはほとんどセキュリティシアター(見せかけの対策)だよ。調査でそのデータの価値を引き出す手間を考えると、大抵は割に合わないと思う。
データは分かりにくくされてるし、それを使えるようにするコストは、かけた労力に見合わないことが多いんだよね。
こういう技術的な裁判の裁判官って、結構詳しいし、専門用語もちゃんと覚えるんだよ。Oracle 対 Google(Java APIの裁判)とか見たらわかるよ。
たとえ法律でOKでも、こういうヤバいことってほとんどの会社ではバレずにやるのはめちゃくちゃ難しいと思う。MUSCULAR[1]は、暗号化されてないDC間トラフィックだったからできたんだ。Googleの協力なしに、しかもデカい隠蔽工作なしに、似たようなことできるとは思えないな。
[1] https://en.wikipedia.org/wiki/MUSCULAR
裁判官の命令の意図をわざと避けるようにするなんて、かなりヤバい考えだよね。
メタデータはスパイ行為だってブルース・シュナイアーも言ってるよ。CIAが追いかけ回して記録するのと一緒。デジタルでもそうじゃん。たくさんのデジタルシステムがあるのに、一番儲からないシステムがユーザーデータを守ってるってどういう根拠?データを売るって話は他の企業のToSにも書いてある証拠があるのにね。
なのに何十億ドルも使われてるんだよ。データにアクセスできて分析できる専門家集団が、データ保護は無理って考えてお金をかけてる。だからお前のただの主張なんて意味ないんだよ。
もっとコメントを表示(2)
この裁判のウィリアム・アルサップ判事を調べたら、趣味でBasicプログラマーだったみたい。もしそうなら、MNISTを趣味でコード書いたくらいの判事が必要になるかもね。
https://en.wikipedia.org/wiki/William_Alsup
つまりさあ、彼らは著作権があるやつ全部盗んで学習に使ったんでしょ?それなのに、チェックボックスにチェック入れただけで私のデータは使わないなんて信じろと?無理だよ。
私の陰謀論ね。三文字機関が、自分たちは何でも知ってるっていう陰謀論をわざと広めてるってこと。結局自分たちに都合がいいからね。市民にとってのサンタクロースみたい。
令状なしのログバックドア、それに合わせた箝口令、秘密法廷。これ全部、’完全に合法’なんだって。別に想像するの難しくないよね。
>結局彼らの有利になるから。
どうやって?ビビってる犯罪者は見つかりやすいわけないし、当局は従順な市民を調べたいでしょ。なんか逆のこと起きてない?2015年のサンバーナーディーノ事件とか、Tim CookがPRISMに同意した3年後にFBIがiPhoneの情報取るの難しいって言ってたの覚えてる?こういうのってほとんど芝居だよ。もしOpenAIがデータを死活問題と思ってるなら大騒ぎするし、FBIなら絶対表に出さない。この騒ぎはOpenAIがアリバイ作ってるだけじゃない?安全に見せかけたニセモノのストーリーをね。
裏付け資料は見つからないんだけど、裁判所命令見るとOpenAIは代替案出すのに協力的じゃなかったみたいね。ユーザーが消したいデータを分けられるか判事が聞いても、OpenAIは答えなかったんだって。無視したってこと。OpenAIは真剣に対応するより、PRの方を選んだ可能性高いね。
NYTへの奇妙な誹謗中傷だね。もしNYTに正当な理由があって裁判所がそれを認めたなら、その裁判所命令を使ってNYTを貶めるのはおかしい。もし理由がないなら、OpenAIは法廷で自分たちの正当性を証明するチャンスがあるんだから。
NYTは、私の見方だと、米国の法制度の体系的な弱点につけ込んでるね。つまり、無関係な当事者のプライバシーや、争いと関係ない側面をほとんど考慮しない、極めて広範な情報開示要求の法律のことさ。もちろん自己都合のためだけど、これについてはOpenAIに反対するのは難しいと感じるよ。
プライバシーの権利って何?企業とのやり取りがプライベートである権利なんてないし、あるべきでもない。たとえあったとしても、君はOpenAIがデータを使って基本的には何でも好きにしていい(召喚状に応じて裁判所に渡すことも含む)ことに同意してるでしょ。(1) 弁護士や医療記録など、限られた明確な例外はあるけどね。
現代において、多くの重要なやり取りを企業と行うことを考えると、「企業とのやり取りがプライベートである権利はない」って言うのは、事実上「プライバシーの権利なんて全くない」って言うのと同義だよ。私がFaceTimeやiMessageで友達と話すとき、そのやり取りはAppleやインターネットサービスプロバイダー、そして(多分)他の多くの業者を介してるんだから。
\”事実上「プライバシーの権利なんて全くない」って言うのと同義だ”。
他の人も言ってるように、米国では、法的には完全にその通りだよ。アメリカの法律にはプライバシーの権利なんてないんだ。多くの人が第4修正条項が一般的なプライバシーの権利だと思ってるけど、それは間違い。第4修正条項は特に政府の捜索と押収に関するもので、裁判所はそれが企業などの private party との関係には及ばないって一貫して言ってるんだ。
プライバシーの権利が欲しいなら、法律が変わるように主張する必要があるね。今の法律は君にそれを与えてないよ。
いや、それは間違ってるよ。例えば griswold や lawrence といった判例を見てごらん。
それは詭弁だよ、同じ言葉の違う意味やニュアンスを持ち込んでるね。
今のところ、避妊具を使う権利を認めた裁判(A)と、電話会社/ISP/サイトが君の活動記録を売ってはいけないと述べた裁判(B)は等価じゃないんだ。
プライバシーの責任は完全に企業にあるよ。もし Open AI がユーザーのプライバシーを心配してるなら、そんなデータを集めなきゃいいんだ。それだけのことさ。
君の返答は詭弁に基づいているけど、皮肉にも君自身も詭弁を犯してるよ。
プライベートなデータ取引を管理する法的な枠組みがないことと、より広範な憲法上のプライバシーの権利を混同してるんだ。第4修正条項が国家の行動だけを制限するのは本当だけど、Griswold 対 Connecticut 事件や Lawrence 対 Texas 事件のような判例を通じて、米国の憲法は適正手続条項や他の憲法の Penumbras に根差した実体的なプライバシーの権利を明確に認めてるんだ。これは意味のちょっとした違いじゃなくて、司法的に強制力のある明確な権利だよ。
さらに、憲法上の法律を超えて、コモン・ローは不法な侵入、私的事実の公表、虚偽表示、肖像権の侵害といった不法行為を通じてプライバシーを明確に保護してる。これらは私的な主体にも適用されるし、ほぼ全ての米国の司法管轄区で認められてる。
だから、憲法がウェブサイトが君のデータを売るのを禁止しないとしても、他の基本的な文脈ではプライバシーの権利を肯定してるんだ。それを完全に否定するのは法律的に間違ってるよ。
…この記事の全てのポイントは、裁判所が彼らにデータを収集するよう強制しているということだよ。