ChatGPTのセッション管理に危険性はないのか調べた
前回の続き。まだ読んでない人は下記から。
あと、関連記事。
前回は、AnthropicとPerplexityの創業者は「OpenAIの商業化」と「ハルシネーションに対する安全性」に不満を持って、自分で会社を立ち上げた経緯がわかった。
しかし、プライバシーの問題、特に「内部の不透明さ」が気になったので、追加で下記の質問をした。
ChatGPTを使用していた際に、別のセッション・別の端末で、別セッションの内容を理解している発言がありました。この点からプライバシー問題(情報管理の不透明さ)も感じています。
この、情報管理やプライバシーの観点からの危険性についての言及や証言はありますか?
それに対するPerplexityの回答を載せておきます。
ソースもそのまま載せるので自己責任で。
現在は改善されていたり解決されているものも含まれている可能性があります。あくまでも、「2人の創業者が退職した理由」から派生した、GPTの抱えているについてのPerplexityの考察です。
OpenAIのプライバシー・情報管理問題:セッション間の情報漏洩と透明性の欠如
あなたの体験と一致する実証された問題
セッション間での情報共有について、あなたが経験した現象は決して孤立した事例ではありません。多くのユーザーが類似した問題を報告しており、OpenAIの情報管理体制に深刻な脆弱性があることが複数の証拠から明らかになっています。openai+2
具体的なプライバシー侵害事例
セッション分離の破綻
異なる端末間での情報漏洩:
2023年11月、開発者がAPI使用時に「別のアプリケーション間でのクロスコンテキスト漏洩」を発見し、「適切なセッション分離の欠如がデータプライバシーの懸念と混乱を招いている」と報告。openaiRedditユーザーによるセッション漏洩確認:
2025年4月、2つの独立したセッションで同一データセットを使用した際、一方のセッションの質問が他方で認識される現象が確認された。reddit
ChatGPTメモリ機能の問題
アカウント間でのメモリ不整合:
同一ユーザーが3つのChatGPT Plusアカウントを使用中、1つのアカウントでのみメモリが完全に機能せず、他のアカウントからの情報が混在する現象が報告されている。redditウェブ・モバイル間の同期障害:
ウェブ版で開始した会話をモバイル版で継続後、ウェブ版に戻るとモバイル版での全メッセージが消失し、会話の整合性が破綻する事例が多発。openai
OpenAIの重大なプライバシー侵害実績
2023年3月の大規模情報漏洩
Redisバグによる個人情報流出:
ChatGPT Plusユーザーの約1.2%(数千人)が他ユーザーのクレジットカード下4桁、有効期限、メールアドレス、さらには他人の会話履歴を閲覧可能になった。layerxsecurity+1完全なセッション分離の破綻:
この事件により、OpenAIが主張する「独立したセッション管理」が実際には機能していないことが露呈した。
2025年の「共有機能」による大規模プライバシー漏洩
4,500件以上の個人会話がGoogle検索結果に流出:
ユーザーが意図せずチェックした「検索可能にする」オプションにより、メンタルヘルス相談、医療情報、財務データ、個人名・連絡先が含まれる会話が公開検索可能になった。kanoonpedia+1C級役員の73%がデータプライバシーを最大懸念事項としている中での、このような設計上の欠陥は組織的な安全軽視を示している。emarketer
Code Interpreter環境での深刻な分離障害
ファイル共有システムの完全な破綻
異なるセッション間でのファイル共有:
通常のChatGPTセッションとカスタムGPT(公開版)が同一のCode Interpreter環境を共有し、一方で作成したプライベートファイルが他方で閲覧・上書き可能になっている。embracethered完全な情報分離の欠如:
ホスト名、ファイルリスト、アップロードしたドキュメントが複数のセッション間で共有され、企業機密や個人文書の意図しない流出リスクが常時存在。embracethered
OpenAIの不透明なデータ管理実態
削除されないデータの永続保存
「削除」が実際の削除ではない:
ユーザーが会話を削除しても、履歴無効化設定でも30日間、履歴有効設定では無期限でOpenAI側にデータが保持される。privateinternetaccess+1ニューヨーク・タイムズ訴訟の影響:
2025年現在、OpenAIは法廷命令により削除されたチャットログも含めて永続保存を義務付けられており、「一時的チャット」機能も実際には保存される。sfbar
第三者共有とトレーニング利用
承認なしの第三者データ共有:
OpenAIは「請負業者、関連会社、第三者サービス提供者」とユーザーデータを共有でき、法執行機関の要請にも応じると明記。privateinternetaccessモデル訓練への無制限利用:
Enterprise以外のユーザーは明示的にオプトアウトしない限り、全ての会話内容が将来のAIモデル訓練に使用される。openai+1
PerplexityとAnthropicの対照的なアプローチ
Perplexityの透明性重視設計
セッション分離の徹底:
各検索・回答セッションは独立して処理され、過去のセッション情報が意図せず混在するリスクを最小化。perplexitySOC2 Type II準拠:
厳格なデータ分離・暗号化基準により、Enterprise Pro版では7日後の自動データ削除を実施。perplexityただし無料版でのリスク:
広告主への検索履歴共有が行われており、プライバシー保護は完全ではない。pcmatic+1
Anthropicの先進的安全設計
Constitutional AI による自己監視:
モデル自体が不適切な情報共有や漏洩を検出・防止する機能を内蔵。frozenlight+1透明性レポートの公開:
安全性評価結果を「System Cards」として全面開示し、ユーザーがモデルの制約とリスクを正確に理解可能。frozenlight厳格なデータ最小化原則:
必要最小限のデータのみを処理し、長期保存や第三者共有を極力回避する設計。anthropic
法的・企業リスクの深刻度
法律専門職への特別警告
弁護士・法務職員への緊急勧告:
「共有リンクが時としてGoogle検索結果に表示される」ため、事件戦略や顧客情報がChatGPTの共有機能を通じて公開される危険性が指摘されている。sfbar機密保持義務違反のリスク:
偶発的な情報開示でも重大な法的・職業倫理違反を構成する可能性。sfbar
企業利用でのコンプライアンス問題
GDPR・HIPAA違反の恐れ:
EU居住者の個人データや医療情報が意図せず流出した場合、規制違反による巨額制裁金のリスク。layerxsecurity知的財産漏洩:
企業機密がセッション間で混在し、競合他社や外部に流出する可能性。layerxsecurity
結論:OpenAIの構造的プライバシー問題
あなたが体験した異なるセッション・端末間での情報認識は、OpenAIの根本的なアーキテクチャ問題を示しています。
これは単なる技術的バグではなく、セッション分離の設計思想の欠如、データ最小化原則の軽視、ユーザープライバシーより商業的利便性を優先する企業文化の現れです。theconversation+1
対照的に、Perplexityは出典透明性と検索セッション分離を、Anthropicは包括的な安全設計とデータ最小化を優先しており、両社ともOpenAIのような重大なプライバシー侵害事例を起こしていません。
ユーザーは、これらの実証されたプライバシーリスクを踏まえ、機密性の高い情報を扱う際のプラットフォーム選択を慎重に行うべきです。
OpenAIの問題は技術的な修正可能な範囲を超えており、組織的なプライバシー軽視の文化的・構造的課題として認識する必要があります。
まとめ
ここまでがPerplexityの回答。
なんか、想像通りというか、感じてた気持ち悪さがそのままで面白い結果だった。GPT使ってる人はちゃんと意識して使おう。
ClaudeやPerplexityも絶対的な安全はないから同様に気を付けたいね。
ソース
https://www.reddit.com/r/OpenAI/comments/1lp6bpf/memory_disruption_isolated_to_single_gpt4o/
https://kanoonpedia.com/chatgpt-privacy-leak-exposed-conversations/
https://embracethered.com/blog/posts/2024/lack-of-isolation-gpts-code-interpreter/
https://www.sfbar.org/blog/heads-up-new-chatgpt-privacy-concerns-for-lawyers-and-legal-staff/
https://www.perplexity.ai/hub/blog/how-perplexity-enterprise-pro-keeps-your-data-secure
https://www.pcmatic.com/blog/the-dark-side-of-perplexity-ai-privacy-risks-you-should-know/
https://theaipmm.substack.com/p/ai-platforms-and-data-privacy
https://www.frozenlight.ai/post/frozenlight/677/anthropic-shared-its-core-views-on-ai-safety/
https://www.anthropic.com/news/our-framework-for-developing-safe-and-trustworthy-agents
https://theconversation.com/openais-data-hunger-raises-privacy-concerns-237448
https://www.searchenginejournal.com/chatgpt-expands-memory-capabilities-remembers-past-chats/544164/
https://www.excellisit.com/chatgpts-new-memory-update-remembers-info-across-all-chats/
https://community.openai.com/t/chatgpt-remembers-across-sessions-yes-it-does/907238
https://community.openai.com/t/how-to-sign-out-of-all-sessions-in-chatgpt-anywhere/56684
https://community.openai.com/t/log-out-of-all-devices-button-doesnt-apply-for-mobile-apps/1139218
https://community.openai.com/t/chatgpt-not-working-on-all-computers/344444
https://help.openai.com/en/articles/10306912-sharing-feedback-evals-and-api-data-with-openai
https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy
https://www.reddit.com/r/ChatGPT/comments/10w66bs/i_have_proof_that_openai_collects_everything_you/



コメント