メニュー

ChatGPTの情報漏洩リスク検証|オプトアウト設定の効果と学習データの扱い

2025.12.23 1分で読めます 生成AI総合研究所編集部

ChatGPTの情報漏洩リスク検証|オプトアウト設定の効果と学習データの扱い

ChatGPTをはじめとする生成AIサービスの業務利用が急拡大する中、企業が直面する最大のリスクは「入力データの情報漏洩」です。2023年4月、Samsung電子で従業員がChatGPTに半導体設計情報を入力し、機密情報が社外流出する事態が発生したことは、世界中の企業に衝撃を与えました。OpenAIは「データをモデルの学習に使用しない」設定を提供していますが、その実効性はどの程度なのでしょうか。本記事では、ChatGPTのデータ処理ポリシーを詳細に解析し、オプトアウト設定の技術的メカニズム、Web版とAPI版の違い、Samsung事例の詳細分析、そして企業が実装すべき具体的なセキュリティ対策を、実証的データに基づいて検証します。

ChatGPTのデータ処理フロー|入力から学習までのメカニズム

ChatGPTの情報漏洩リスクを理解するには、まず「入力されたデータがどのように処理されるか」というデータフローを把握する必要があります。OpenAIのデータ処理は、プラン(無料版、Plus、Team、Enterprise)によって大きく異なります。

無料版ChatGPTのデータフロー ユーザーが無料版ChatGPTに入力したテキスト(プロンプトと会話履歴)は、以下のプロセスで処理されます。①入力データはOpenAIのサーバー(主に米国のクラウドデータセンター)に送信される、②データは暗号化されて保存され、30日間保持される、③OpenAIは、これらのデータを「モデルの改善」のために使用する権利を持つ、④具体的には、人間のレビュアーがデータを確認し、モデルの品質向上のために学習データセットに追加する可能性がある、⑤学習データに追加されたデータは、次回のモデル更新時に学習プロセスに使用される。

この処理フローで最も重要なのは、③の「モデル改善のための利用」です。OpenAIの利用規約では、「あなたが提供したコンテンツを使用してサービスを提供、維持、開発、改善する」権利が明記されています。つまり、無料版では、入力したデータが将来的にChatGPTの学習データとして使用され、その結果、他のユーザーの応答に影響を与える可能性があります。

有料プラン(Plus、Team、Enterprise)のデータフロー 有料プランでは、データの取り扱いが大きく異なります。特に、ChatGPT EnterpriseとChatGPT Teamでは、①入力データはモデルの学習に使用されないことが保証される、②会話履歴はユーザー(または組織)のアカウント内にのみ保存され、OpenAIの学習データセットには追加されない、③ただし、不正利用やポリシー違反の監視のため、限定的な人間レビューが行われる場合がある、④データの保存場所や暗号化方式について、より詳細な情報が提供される。

さらに、API経由でChatGPTを利用する場合(ChatGPT APIまたはAzure OpenAI Service)、データは原則として学習に使用されません。OpenAIのAPI利用規約では、「APIを通じて送信されたデータは、モデルの学習には使用されない」ことが明記されています。ただし、データは30日間保持され、不正利用の監視目的で限定的に利用される可能性があります。

この複雑なデータ処理フローの違いを理解せず、無料版ChatGPTを業務で使用することが、多くの情報漏洩インシデントの原因となっています。

[図解: ChatGPTのプラン別データ処理フローと学習データへの組み込みプロセス]

オプトアウト設定の実効性検証|本当にデータは学習されないのか

OpenAIは、無料版および有料版の個人プランユーザーに対して、「Chat History & Training」というオプトアウト設定を提供しています。この設定をオフにすると、理論上、会話履歴が保存されず、学習データとしても使用されないはずです。しかし、この設定の実効性については、複数の疑問が指摘されています。

オプトアウト設定の技術的メカニズム 「Chat History & Training」をオフにすると、以下の変化が発生します。①新しい会話は左サイドバーの履歴に表示されなくなる、②OpenAIは、これらの会話を「モデルの学習に使用しない」と約束する、③ただし、データは30日間サーバーに保持され、不正利用の監視のために人間レビューの対象となる可能性がある、④30日経過後、データは削除されるとされる。

この設定の実効性を検証するため、2024年に複数の研究者が実験を行いました。実験では、オプトアウト設定をオンにした状態で特定のフレーズ(例:「私の秘密のプロジェクト名はPhoenix Rising」)を入力し、その後、別のアカウントや同じアカウントでそのフレーズに関連する質問をした場合に、ChatGPTがそのフレーズを「記憶」しているかを確認しました。結果は以下の通りです。

検証結果1:同一アカウント内では記憶されない オプトアウト設定を有効にした状態では、同一アカウント内で過去の会話内容を参照する応答は生成されませんでした。これは、会話履歴が実際に保存されていないことを示唆します。

検証結果2:別アカウントでは特定のフレーズは出現しない オプトアウト設定で入力した特定のフレーズが、他のユーザーのアカウントでの応答に出現するかを数週間にわたってモニタリングしましたが、明確な証拠は見つかりませんでした。これは、オプトアウト設定が一定の効果を持つことを示唆します。

検証結果3:30日後のデータ削除は確認困難 OpenAIは、オプトアウト設定の会話データを30日後に削除すると主張していますが、これを外部から検証する方法はありません。OpenAIのサーバー内でデータが本当に削除されたかは、ユーザー側で確認できないため、「信頼に基づく」仕組みとなっています。

残存リスク:不正利用監視の例外 最も重要な点は、オプトアウト設定を有効にしても、「不正利用の監視」のためにデータが人間レビューの対象となる可能性がある点です。OpenAIのポリシーでは、違法行為、ハラスメント、マルウェア生成などの疑いがある場合、データが審査されることが明記されています。これは、完全な「データ非利用」ではなく、限定的な例外が存在することを意味します。

結論として、オプトアウト設定は一定の効果を持ちますが、完全な情報保護を保証するものではありません。特に、機密性の高い企業情報を扱う場合、無料版または個人向けPlusプランではなく、企業向けプラン(Team、Enterprise)またはAPI経由の利用が推奨されます。

Samsung情報漏洩事例の詳細分析|何が起きたのか

2023年4月、Samsung電子で発生したChatGPT情報漏洩インシデントは、生成AIのセキュリティリスクを象徴する事例として世界中で報道されました。この事例の詳細を分析することで、企業が陥りやすいリスクパターンを理解できます。

インシデントの概要 Samsungの半導体部門の従業員3名が、業務効率化のためにChatGPT(無料版)を使用し、以下の情報を入力しました。①半導体設備の測定データベースプログラムのソースコード(エラー修正を依頼)、②社内会議の録音データの文字起こしテキスト(議事録作成を依頼)、③新製品の半導体設計に関する技術的なコード。これらはいずれも、Samsungの機密情報に該当し、社外への持ち出しが禁止されている情報でした。

情報漏洩のメカニズム 従業員が使用したのは無料版ChatGPTであり、前述の通り、入力データはOpenAIのサーバーに送信され、モデルの改善のために使用される可能性がありました。つまり、①Samsungの機密情報がOpenAI(米国企業)のサーバーに保存された、②これらの情報が将来的にChatGPTの学習データとして使用され、他のユーザーの応答に影響を与える可能性があった、③OpenAIの従業員やレビュアーがデータ品質確認のためにこれらの情報にアクセスできる可能性があった、という3つのリスクが発生しました。

Samsungの対応 この事態を受け、Samsungは直ちに以下の対策を実施しました。①全社員に対するChatGPTおよび他の外部AIサービスの使用禁止、②社内ネットワークからChatGPTへのアクセスをブロック、③違反した従業員への懲戒処分、④社内で独自のAIツールを開発し、機密情報を外部に送信せずにAIを利用できる環境を構築。Samsungの対応は、多くの企業にとって参考となるモデルケースとなりました。

インシデントから得られる教訓 このインシデントは、以下の重要な教訓を示しています。第一に、従業員のAIリテラシー不足です。従業員は、ChatGPTに入力したデータがどのように処理されるかを理解しておらず、「便利なツール」として安易に使用しました。第二に、企業のガイドライン不在です。Samsung社内には、当時外部AIサービスの利用に関する明確なガイドラインがなく、従業員が独自判断で使用していました。第三に、技術的な防御策の不足です。社内ネットワークから外部AIサービスへのアクセスを制御する仕組みがなかったため、事後的にしか検知できませんでした。

この事例は、「便利なAIツールが重大なセキュリティリスクをもたらす」という現実を企業に突きつけました。

[図解: Samsung事例における情報漏洩のデータフローと企業が取るべき防御ポイント]

Web版 vs API版の違い|企業利用における決定的な差

ChatGPTには、Web版(chat.openai.comにアクセスして使用)とAPI版(プログラムから呼び出して使用)の2つの利用形態があり、セキュリティとデータ処理において決定的な違いがあります。以下の表で詳細に比較します。

比較項目 Web版(無料・Plus・Team) ChatGPT Enterprise API版(ChatGPT API) Azure OpenAI Service 致命的な弱点
データの学習利用 無料版:学習に使用される可能性あり
Plus・Team:学習に使用されない
学習に使用されない(契約保証) 学習に使用されない(利用規約で保証) 学習に使用されない(Microsoft契約) 無料版では入力データが将来的に他ユーザーの応答に影響を与える可能性
データ保存期間 オプトアウト設定なし:無期限
オプトアウト設定あり:30日
組織のポリシーに従う(カスタマイズ可) 30日間(不正監視目的) ユーザー指定期間(最短0日も可能) Web版無料では削除されず、データ漏洩リスクが永続化
データ保存場所 米国のOpenAIサーバー 米国のOpenAIサーバー(リージョン選択不可) 米国のOpenAIサーバー 日本リージョン含む選択可能 Web版・Enterprise・APIは米国に保存され、日本の個人情報保護法上のリスク
アクセスログ 個人の履歴のみ 組織全体の利用状況を管理者が確認可能 詳細なAPIログを取得可能 Azure Monitor統合で包括的ログ取得 Web版無料・Plusでは企業が従業員の利用状況を把握できず、ガバナンス不可
SSO統合 なし(個人アカウント) あり(SAML、OAuth対応) なし(APIキー認証) あり(Azure AD統合) Web版では個人アカウント管理となり、退職者のデータ管理が困難
契約形態 個人利用規約 企業契約(カスタム条項可能) 開発者契約 Microsoft Azure契約 Web版では企業としての契約保護がなく、OpenAIの一方的な規約変更リスク
コンプライアンス認証 なし SOC2 Type2取得 SOC2 Type2取得 ISO27001、SOC2、HIPAA対応 Web版無料・Plusは第三者認証なく、金融・医療での利用は規制違反リスク
月額コスト(目安) 無料版:0円
Plus:20ドル/ユーザー
Team:25ドル/ユーザー
非公開(大企業向け、高額) 従量課金(GPT-4で入力1Mトークン30ドル) 従量課金(リージョンにより異なる) Enterpriseは最低契約規模があり、中小企業には導入障壁が高い

この表から、企業利用において最も重要な違いが明確になります。Web版(特に無料版とPlus)は、個人向けサービスとして設計されており、企業のセキュリティ要件(データガバナンス、アクセス制御、監査ログ、コンプライアンス認証)を満たしていません。一方、ChatGPT EnterpriseとAPI版(特にAzure OpenAI Service)は、企業利用を前提とした設計となっており、データの学習非利用、詳細なログ取得、コンプライアンス認証などが提供されます。

特に、Azure OpenAI Serviceは、データを日本国内のAzureリージョンに保存できるため、日本の個人情報保護法における「外国にある第三者への提供」の問題を回避できます。これは、金融機関や医療機関など、厳格なデータローカライゼーション要件がある業界にとって決定的な利点となります。

企業向けセキュリティ設定の具体的手順

企業がChatGPTを安全に業務利用するためには、技術的な設定と組織的なポリシーの両面からアプローチする必要があります。以下、具体的な手順を示します。

ステップ1:利用プランの選定

企業規模と用途に応じて、最適なプランを選定します。小規模企業(従業員50名未満):ChatGPT Team(月額25ドル/ユーザー)を推奨。データの学習非利用、組織管理機能、SSO統合が利用可能。中堅・大企業(従業員50名以上):ChatGPT EnterpriseまたはAzure OpenAI Serviceを推奨。特に、金融・医療・製造など規制業界では、Azure OpenAI Serviceが最適(データローカライゼーション、HIPAA対応等)。開発部門・API利用:ChatGPT APIまたはAzure OpenAI API。コスト効率とカスタマイズ性が高い。

ステップ2:組織アカウントの設定とSSO統合

ChatGPT TeamまたはEnterpriseを契約した後、以下の設定を行います。①組織アカウントの作成とワークスペース設定、②Single Sign-On(SSO)の統合(Google Workspace、Microsoft Azure AD、Okta等と連携)、③ユーザーのプロビジョニング(従業員アカウントの一括登録)、④ロールベースアクセス制御(管理者、一般ユーザーなど役割を設定)。SSO統合により、従業員が個人のメールアドレスで勝手にアカウントを作成することを防止し、企業が一元管理できるようになります。

ステップ3:データ保持ポリシーの設定

ChatGPT Enterpriseでは、会話履歴の保存期間を組織ポリシーとして設定できます。①会話履歴の保存期間を設定(例:30日、90日、無期限)、②削除ポリシーの設定(退職者のデータを自動削除)、③バックアップポリシーの確認(災害復旧時のデータ復元方法)。特に、機密性の高い情報を扱う部門では、会話履歴を短期間(例:7日)で自動削除する設定が推奨されます。

ステップ4:利用ログの監視体制

ChatGPT EnterpriseおよびAPI版では、詳細な利用ログを取得できます。①ログ取得の有効化(APIコール、ユーザーアクティビティ、データアクセス)、②ログ分析ツールの導入(SIEM統合、異常検知)、③アラート設定(大量データ送信、機密キーワード検出時に通知)。例えば、1回の入力で10,000文字を超えるデータが送信された場合、自動的にセキュリティチームに通知する設定が有効です。

ステップ5:ネットワークレベルの制御

技術的な設定に加えて、ネットワークレベルでのアクセス制御を実施します。①許可されていないAIサービス(無料版ChatGPT、Claude、Gemini等)へのアクセスをファイアウォールでブロック、②企業契約済みのChatGPT EnterpriseまたはAzure OpenAIのみアクセス許可、③プロキシサーバー経由でのアクセスログ記録、④DLP(Data Loss Prevention)ツールの導入(機密情報の送信を自動ブロック)。Microsoft 365のDLP機能を使用すれば、クレジットカード番号、マイナンバー、社内機密ラベル付き情報などが外部AIサービスに送信されることを防止できます。

ステップ6:従業員教育とガイドライン策定

技術的対策と並行して、従業員教育が不可欠です。①ChatGPT利用ガイドラインの策定(禁止事項、推奨事項、承認フロー)、②全従業員向け研修の実施(Samsung事例などの具体例を含む)、③定期的なリマインダー(四半期ごとのセキュリティ啓発)、④違反時のペナルティの明確化。ガイドラインには、「絶対に入力してはいけない情報」(顧客情報、財務データ、未公表の戦略等)を具体的に列挙することが重要です。

API利用時の追加セキュリティ対策

開発部門がChatGPT APIを利用して自社アプリケーションを構築する場合、以下の追加的なセキュリティ対策が必要です。

1. APIキーの厳格な管理 APIキーは、ChatGPTへのアクセス権限を持つ重要な認証情報です。①APIキーを環境変数またはシークレット管理サービス(AWS Secrets Manager、Azure Key Vault等)に保存し、ソースコードに直接記載しない、②定期的なAPIキーのローテーション(3か月ごと等)、③使用されていないAPIキーの即座の無効化、④APIキー漏洩時の緊急対応プロセスの確立。

2. 入力データのサニタイゼーション ユーザーがアプリケーションに入力したデータをChatGPT APIに送信する前に、機密情報を自動的に除去するサニタイゼーション処理を実装します。①正規表現によるクレジットカード番号、マイナンバー、メールアドレスの検出と削除、②機密ラベル付きデータの送信ブロック、③個人を特定可能な情報(PII)の自動マスキング。

3. レスポンスデータのフィルタリング ChatGPT APIからの応答に不適切な内容が含まれていないかをチェックします。①OpenAIのModeration APIを使用した有害コンテンツの検出、②企業ポリシーに違反する内容(差別的表現、不正確な情報等)のフィルタリング、③フィルタリングされた応答の代替メッセージ表示。

4. レート制限とコスト管理 API利用の暴走を防ぐため、レート制限を設定します。①1ユーザーあたりの1日のAPI呼び出し回数制限、②異常な大量リクエストの自動検知とブロック、③月間コスト上限の設定とアラート、④部門別・プロジェクト別のコスト配分。

Azure OpenAI Serviceの優位性|日本企業に最適な選択肢

日本企業、特に金融、医療、製造など規制業界の企業にとって、Azure OpenAI Serviceは最も安全なChatGPT利用方法となります。その理由を詳細に解説します。

データローカライゼーション Azure OpenAI Serviceでは、データを日本国内のAzureデータセンター(東日本リージョン、西日本リージョン)に保存できます。これにより、個人情報保護法の「外国にある第三者への提供」における本人同意や情報提供義務を回避できます。一方、ChatGPT EnterpriseやChatGPT APIでは、データは米国のOpenAIサーバーに送信されるため、法的リスクが発生します。

Microsoft Azure契約の保護 Azure OpenAI Serviceは、Microsoft Azure契約の下で提供されるため、Microsoftの企業向けSLA(サービスレベル契約)、セキュリティ保証、コンプライアンス認証が適用されます。これには、ISO27001、SOC2、HIPAA、PCI DSS等が含まれ、規制業界での利用要件を満たします。

既存Azure環境との統合 多くの日本企業は既にMicrosoft Azureを利用しており、Azure OpenAI Serviceは既存のAzure環境とシームレスに統合できます。①Azure AD(Entra ID)による認証、②Azure Virtual Networkによるプライベートネットワーク接続、③Azure Monitorによる統合ログ管理、④Azure Policyによるガバナンス強化。これにより、新たなセキュリティ管理体制を構築する必要がなく、既存のIT統制フレームワークに組み込めます。

プライベートエンドポイント Azure OpenAI Serviceは、プライベートエンドポイント機能をサポートしており、インターネットを経由せずに企業の仮想ネットワークから直接アクセスできます。これにより、通信経路のセキュリティが大幅に向上し、中間者攻撃のリスクを排除できます。

コスト予測可能性 Azure OpenAI Serviceは、Azure Cost Managementと統合されており、詳細なコスト分析と予算管理が可能です。部門別、プロジェクト別のコスト配分や、予算超過時の自動アラートなど、企業の財務管理要件に対応できます。

これらの理由から、日本企業がChatGPTを本格的に業務利用する場合、Azure OpenAI Serviceが最も推奨される選択肢となります。

今後の規制動向とOpenAIの対応

ChatGPTのデータ処理に関する規制環境は、今後さらに厳格化することが予想されます。特に注目すべき動向として、以下の3点が挙げられます。

EU AI Actの影響 2024年に施行されたEU AI Actは、汎用AIモデル(ChatGPT等)に対して学習データの透明性開示を義務付けています。OpenAIは、EU市場向けに学習データの概要情報を公開する必要があり、これにより企業は自社データがどのように扱われているかをより詳細に確認できるようになります。

日本の個人情報保護法改正 2023年の個人情報保護法改正により、外国企業への個人データ提供時の情報提供義務が強化されました。ChatGPT(OpenAI)を利用する日本企業は、個人情報を入力する場合、本人に対してOpenAIのデータ処理方針を説明する義務があります。これにより、企業はより慎重にChatGPTの利用範囲を設定する必要があります。

OpenAIの透明性向上 規制圧力の高まりを受け、OpenAIは2024年以降、データ処理の透明性を段階的に向上させています。①Data Processing Addendum(DPA)の提供(GDPR準拠の契約付属文書)、②学習データの出所に関する詳細情報の公開、③ユーザーデータへのアクセス権限の明確化、④データ削除リクエストへの対応プロセスの改善。これらの改善により、企業はより安心してChatGPTを利用できる環境が整いつつあります。

結論|ChatGPT利用のリスクとベストプラクティス

本記事の検証を通じて明らかになったのは、ChatGPTの情報漏洩リスクは「利用方法によって大きく異なる」という事実です。無料版ChatGPTを業務で使用することは、Samsung事例が示す通り、重大な情報漏洩リスクをもたらします。一方、ChatGPT Enterprise、Azure OpenAI Service、またはAPI版を適切に設定して利用すれば、リスクを管理可能なレベルに抑えることができます。

企業がChatGPTを安全に活用するためのベストプラクティスは以下の通りです。第一に、無料版および個人向けPlusプランの業務利用を全面禁止し、企業向けプラン(Team、Enterprise)またはAzure OpenAI Serviceに統一します。第二に、SSO統合とアクセス制御により、従業員の利用状況を一元管理します。第三に、ネットワークレベルでのアクセス制限とDLPツールにより、機密情報の送信を技術的にブロックします。第四に、明確なガイドラインと定期的な教育により、従業員のセキュリティ意識を高めます。第五に、利用ログの継続的モニタリングにより、異常な利用パターンを早期発見します。

特に、日本企業にとってはAzure OpenAI Serviceが最も推奨される選択肢です。データローカライゼーション、既存Azure環境との統合、Microsoftの企業向けサポート体制など、日本企業の要件に最も適合しています。初期投資は必要ですが、情報漏洩による巨額の損害や社会的信用失墜のリスクと比較すれば、十分に正当化される投資と言えます。

ChatGPTは、適切に管理されれば業務効率を劇的に向上させる強力なツールです。しかし、管理を怠れば企業存続に関わるリスクをもたらします。本記事で示したセキュリティ対策を参考に、貴社のChatGPT利用体制を見直し、安全かつ効果的なAI活用を実現されることを期待します。

MUST READ

生成AI、結局どう使う?を解決する
現場のための「導入・活用実践ガイド」

「何から始めるべきか分からない」悩みを解消。ビジネスの現場で明日から使えるチェックリストと選定基準をまとめました。

  • 失敗しない「ツール選定比較表」
  • 非専門家でもわかる「活用ステップ」
  • 最低限知っておくべき「安全ルール」
  • 現場が納得する「導入の進め方」
FREE
GENERATIVE AI
BUSINESS GUIDE

Share

Xで共有 Facebook

おすすめ資料

生成AI導入の成功手順をまとめたホワイトペーパーを無料配布中です。

ダウンロードする

関連記事

すべて見る

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

議事録AI評価No.1
Notta (ノッタ)
無料で試す