ChatGPTに機密情報を入れても大丈夫?企業のShadow AIリスクとオプトアウト設定

#ai seo #ChatGPT #情報漏洩 #企業セキュリティ #Shadow AI

この記事でわかること

  • 企業の従業員が実際にどのくらいChatGPTへ機密情報を入力しているのか、最新の調査データ
  • ChatGPTに情報を渡すと具体的に何が起きるのか(学習利用・ログ保存・プラグイン連携の3大リスク)
  • ChatGPT / Claude / Gemini のオプトアウト設定の具体手順
  • ChatGPT Team / Enterprise・Claude for Work・Gemini for Workspace の違いと選び方

この記事で避けたいこと

  • 「うちは小さい会社だから関係ない」と放置して、気づいたら顧客情報が外部モデルの学習データに混ざっていること
  • オプトアウト設定をせずに個人アカウントで業務利用を続けて、監査で指摘されること

結論の先取り: 従業員の77%がShadow AIを実行している今、オプトアウト設定+法人プラン+社内規程の3点セットで守らないと、情報漏洩事故は他人事ではありません。

「ChatGPTに社内の議事録を貼り付けて要約させてもいいのか」「顧客リストをプロンプトに入れて分析させたら情報漏洩にならないのか」。企業でAI活用が進むにつれて、現場の担当者から最もよく聞かれる質問のひとつです。

結論から書くと、デフォルト設定のままChatGPTに機密情報を貼り付けるのは、ほとんどの企業にとって推奨できない運用ですが、一方で「AIを一切使うな」という方針も現実的ではありません。本記事では、海外で先行している企業のAI情報漏洩事故の具体例を起点に、リスクの構造とオプトアウト設定、法人プランの選び方、中小企業が実務で回すためのガイドラインまでを整理します。

AI SEOを実務で回していく前提については、ピラー記事「AI SEOとは?AI時代のSEO戦略とChatGPT活用法【2026年保存版】」で全体像を解説していますので、あわせてご覧ください。

はじめに:AI時代の情報漏洩事故はすでに起きている

企業でのChatGPT活用がここ2年ほどで一気に広がる一方、海外ではAIを発端とする情報漏洩事故が具体的に報告されるようになっています。日本語メディアではあまり取り上げられていませんが、実務担当者が意思決定するうえでは、まず固有名詞付きの事例を押さえておく必要があります。

⚠️注意

海外で実際に起きた3つの代表事例

  • Samsung のソースコード漏洩(2023年): Samsung Electronics の半導体部門の開発者が、社内のソースコードや会議の議事録をChatGPTに貼り付けて要約・デバッグを依頼。結果として社外に機密情報が流出した可能性が指摘され、同社は社内でのChatGPT利用を禁止する措置を取りました。
  • ロンドンの製薬会社の研究データ漏洩: 英国の製薬会社の従業員が、臨床試験に関わるデータをChatGPTに貼り付けて分析を依頼したことが内部監査で発覚した事例が報告されています。
  • Microsoft 365 Copilot の「EchoLeak」脆弱性(2025年6月発覚): Microsoft 365 Copilot にゼロクリックで機密情報を抜き出せる脆弱性が報告されました。攻撃者がメールやドキュメントに仕込んだプロンプトにCopilotが反応することで、ユーザー側で何の操作もせずに情報が漏れる構造が指摘されています。

これらはいずれも出典が明確な英語圏の報告事例です(出典: UpGuard – The Shadow AI Data Leak Problem No One's Talking About)。いずれのケースも共通しているのは、悪意ある攻撃ではなく、善意の従業員が業務効率化のためにAIを使った結果として情報が漏れたという点です。

Shadow AIとは何か

Shadow AI(シャドーAI)は、IT部門やセキュリティ部門が把握していないまま、従業員が個人的にAIツールを業務利用している状態で、英語圏のセキュリティ業界で2024〜2025年にかけて急速に定着した概念を指します。従来から「Shadow IT(シャドーIT、IT部門が把握していない私物デバイスや未承認SaaSの業務利用)」という言葉はありましたが、そのAI版と理解してください。

Shadow AIが深刻なのは、単に「未承認ツールを使っている」ことではなく、業務上の機密情報が外部のAIサービスに蓄積されていく構造そのものにあります。ChatGPTに貼り付けたテキストは、無料プランやデフォルト設定のままではモデルの改善に利用される可能性があります。個人アカウントで業務情報を扱っていれば、退職後もそのアカウント内に情報が残り続ける、ログに蓄積され続けるといった状態が発生しやすくなります。

衝撃的な調査データ

Shadow AI の広がりを示す統計は、英語圏のセキュリティ業界で何度も引用されています。

⚠️注意

Shadow AI 実態調査(英語圏・2025年)

  • 従業員の77%が、PII(個人識別情報)や支払い情報を含む機密企業データを、個人アカウントのChatGPTに貼り付けた経験があると回答(LayerX Security 調査)
  • AI侵害を経験した組織の97%が、AIへの適切なアクセス制御を整備していなかった(IBM 2025 AI Security Report)
  • AIツール起因のデータ漏洩を経験した企業の割合も、調査ごとに上昇傾向

出典: UpGuard – Shadow AI Data Leak / IBM Newsroom – 2025 AI Security Report / eSecurity Planet – LayerX Enterprise AI Report

この数字から読み取るべきは「77%の従業員がルール違反をしている」という話ではありません。大半の従業員は悪意なく業務効率化のために使っており、社内ルールが追いついていないだけという現実です。つまり、経営側・IT部門側が「使うな」と言っても抜け道が生まれるのは避けられず、「安全に使える環境を整備する」方向に舵を切らないと事故は防げません。

リスク1:学習利用による情報漏洩

最初に押さえるべきリスクは、入力したテキストが外部AIモデルの学習データに利用される可能性です。

ChatGPTの無料プランや個人向けPlusプランでは、デフォルトでユーザーの入力データがOpenAIのモデル改善に利用される設定になっています。設定画面から明示的にオプトアウト(学習利用を拒否)しない限り、入力したテキストは将来のモデル訓練に使われる可能性があります。

ここで重要なのは、「学習に使われる」=「次の瞬間に他ユーザーに丸見えになる」ということではない、という点です。モデル訓練データは大量のテキストを統計的に処理するため、そのまま検索で他人が参照できるわけではありません。ただし、特徴的な固有名詞・独自の数値・顧客情報といった情報は、将来のモデルの出力に影響を与える可能性があり、第三者がそのモデルから情報を引き出せる懸念はゼロではありません。

企業の機密情報・顧客個人情報・未公開の財務情報・契約書の文面は、NDA(秘密保持契約)や個人情報保護法との関係で問題になり得るため、そもそも入力してはいけません。

リスク2:プロンプト履歴・ログの保存

学習利用とは別のリスクとして、AIベンダー側でプロンプト履歴が一定期間保存されるという点があります。

OpenAI・Anthropic・Google いずれも、不正利用防止やカスタマーサポートの目的で、プロンプトと応答のログを一定期間保存する設計になっています。ログ保存期間はプランや設定によって異なり、Enterprise系プランでは保存期間を短縮・無効化できるケースもあります。

ログが残っているということは、AIベンダー側で重大なインシデントが起きた場合、過去に貼り付けた情報が外部に流出するリスクが論理的には存在するということです。ベンダー側のセキュリティ体制は基本的に堅牢ですが、「外部に預けた時点でゼロリスクではない」という前提で運用する必要があります。

特に、個人アカウントで業務利用すると、退職後もログに情報が残り続け、会社側からは監査も削除もできない状態が発生します。これは監査・コンプライアンスの観点で致命的です。

リスク3:プラグイン・サードパーティ連携

3つ目のリスクは、プラグイン・外部ツール連携経由での情報流出です。前述のMicrosoft 365 Copilot のEchoLeak脆弱性は、このカテゴリの代表例です。

ChatGPTやClaudeには、外部ツールと連携する機能(ChatGPTのGPTs、Claude のMCP連携、各種プラグインなど)が実装されています。便利な反面、連携先のツールのセキュリティ設計次第では、意図しない情報流出の経路になり得ます。

EchoLeakはゼロクリックで機密情報を抜き取れるMicrosoft 365 Copilotの脆弱性で、攻撃者がメールやドキュメントに仕込んだプロンプトにCopilotが反応することで、ユーザー側の操作なしに内部情報が抜き出せる構造が報告されました(出典: UpGuard – Shadow AI Data Leak)。この種の脆弱性は、AIエージェントが自律的に情報を読み取って行動する設計である以上、今後も発生し得ます。

プラグイン連携を有効化する際は、「このプラグインがアクセスできる情報の範囲」「データの処理先」「ベンダーのセキュリティ開示」を確認することが、従来のSaaS導入と同じかそれ以上に重要になります。

オプトアウト設定の具体手順

リスクを理解したうえで、まず誰でもすぐできる対策が学習利用のオプトアウト設定です。主要3サービスの設定場所を整理します。

ChatGPT(OpenAI)のオプトアウト

ChatGPTでは設定画面の Data Controls(データコントロール) から、会話を将来のモデル訓練に利用するかどうかを選択できます。

  • 画面右上のアカウントアイコンから Settings(設定) を開く
  • Data Controls タブを選択
  • Improve the model for everyone(モデル改善への協力)を Off に切り替える
  • あわせて Chat History & Training の設定も確認する

注意点として、この設定はアカウント単位であり、従業員個人が自分で設定する必要があります。会社側から一括で強制する仕組みは無料・個人プランには存在しません。

Claude(Anthropic)のオプトアウト

Claudeは個人向けプランのデフォルト設定で、ユーザーとの会話はモデル訓練に利用されない設計になっています。ただしフィードバック送信(👍👎ボタンを押して報告する機能)経由で送られた会話は訓練に使われる可能性があるため、業務利用時はフィードバックボタンの扱いに注意が必要です。

Claude for Work(法人プラン)では、契約レベルで訓練利用なし・ログ保存期間の短縮などが保証されます。

Gemini(Google)のオプトアウト

Gemini(個人版)では、アプリアクティビティ の設定から会話履歴の保存・学習利用を制御できます。Google アカウントの「マイアクティビティ」画面から Gemini Apps Activity を Off にすることで、学習利用を避けられます。

Google Workspace 契約下で使う Gemini for Workspace では、契約条項上、テナント内のデータはGoogleの生成AIモデルの訓練に利用されないことが明記されています。

法人プラン比較:Team / Enterprise / for Work

オプトアウト設定は必要条件ですが、十分条件ではありません。業務利用するなら法人プランへの移行がほぼ必須と考えてください。主要3サービスの法人プランを比較します。

項目 ChatGPT Team ChatGPT Enterprise Claude for Work Gemini for Workspace
対象規模 2ユーザー〜 150ユーザー〜(目安) チーム〜エンタープライズ Workspace契約下の組織
学習利用 既定でなし 既定でなし 既定でなし 既定でなし
ログ保存 短期+制御可能 保持期間のカスタム カスタム可 Workspace ポリシー準拠
SSO / SAML Enterprise寄り機能は一部 対応 対応 Workspace 標準
管理コンソール チーム管理 監査ログ・DLP連携 Admin Console Workspace 管理コンソール
参考情報源 OpenAI Enterprise Privacy 同左 Anthropic Commercial Terms Google Workspace Gemini

中小企業の現実的な選択としては、まずChatGPT Team(またはClaude for Work のチームプラン、Gemini for Workspace のいずれか既に契約しているもの)から始めるのが入り口になります。ユーザー数が少なくても、「個人アカウント業務利用」から「会社が管理できるアカウント」に移すこと自体が最大の価値です。

💡ポイント

法人プラン移行の本質的な効果

  • アカウント単位で会社側から監査・削除ができる
  • 契約レベルで学習利用なし・データ分離が保証される
  • 退職者のアカウントを確実に無効化できる
  • セキュリティインシデント発生時の責任所在が明確になる

1次情報章:中小企業がAI活用を安全に運用するための実務ガイドライン

ここまで海外の統計と法人プラン比較を中心に整理してきましたが、実際の中小企業の現場では「ルール整備にそんなに時間をかけられない」「セキュリティ担当者もいない」といった実情が多いのが現実です。本章では、ケンランSEOの運用現場および支援先の実務から得た、中小企業が明日から回せる現実的なガイドラインを整理します。

ステップ1:社内規程の最小セット

まず作るべきは、分厚いAI利用ポリシーではなく、A4一枚で済ませられる「やっていいこと・やってはいけないこと」のリストです。完璧主義で作り込むと公開されないので、初期版はシンプルに。

  • 個人アカウント(無料・Plus・Pro)での業務利用を禁止する
  • 法人プラン(Team/Enterprise/for Work)のみを業務利用として許可する
  • 顧客の個人情報・未公開の契約情報・財務情報・認証情報(APIキー等)はプロンプトに貼り付け禁止
  • 公開予定の記事・マーケティング素材・一般的な調査依頼は、法人プラン上で自由に利用してよい
  • プラグイン・外部ツール連携を有効化する場合はIT担当者への相談を必須にする

この5項目で、Shadow AI リスクの大半はカバーできます。重要なのは「AIを使うな」ではなく「どこまで使っていいか」を明示することで、禁止一辺倒のルールは現場で無視されるだけです。

ステップ2:NDA と外部委託先との整合性

SEO業務を外部ライター・代理店に委託している場合、NDAに「生成AIへのデータ入力に関する条項」を追加することを強く推奨します。従来のNDAには想定されていなかった経路で情報が流れる可能性があるためです。

条項の例としては「受託者が本契約に基づき取得した秘密情報を、委託者の事前書面同意なく外部の生成AIサービスに入力してはならない」といった内容になります。これだけで、委託先での善意のShadow AI事故を大幅に防げます。

ステップ3:ログ管理と監査の実務

法人プラン(特にEnterprise系)では、管理コンソールからユーザーごとの利用状況・プロンプト履歴・連携アプリの一覧を確認できます。月次で棚卸しするだけでも、想定外の利用パターンやリスクを早期に発見できます。

中小企業で専任の監査担当者を置くのは現実的ではないため、「四半期に一度、経営層と情シス担当(兼任可)で30分だけログを眺める」レベルの運用でも十分機能します。完璧を目指すより、継続できる粒度で始めることを優先してください。

ケンランSEOにおける設計思想の参考事例

参考までに、ケンランSEOでは「サイトナレッジ注入」という機能を実装しています。これはサイト固有の文脈情報・業界特性・自社の1次情報をケンランSEO内に蓄積し、AI提案エージェント(L3/L4/L5)が提案を生成する際にプロンプト内のコンテキストとして注入する仕組みです。

重要なのは、ケンランSEO内に蓄積されたサイトナレッジや記事データは、外部AIモデル(Claude/GPT等)の学習データには使われない設計になっている点です。ツール内に閉じた形でナレッジを保持し、プロンプトに必要なコンテキストを都度注入することで、1次情報を外部モデルの訓練に流出させずにAI活用を実現しています。

この設計思想は「1次情報を安全にAIに渡すにはどうするか」という問いへのひとつの実装解であり、中小企業・専門サービス業のように「ノウハウが外部に漏れると困る」業種でも導入しやすい設計として位置付けています。自前で仕組みを作らずとも、こうした設計思想を持つツールを選ぶことで、同等の安全性を確保できます。

SEO業務で1次情報をAIに渡す時の運用ルール

SEO業務の現場では、記事ライティングやリライト、キーワード分析の過程で、どうしても社内の1次情報・顧客事例・未公開データをAIに渡したい場面が出てきます。この章では、そうした場面での実務ルールを整理します。

💡ポイント

1次情報をAIに渡す時の4原則

  1. 渡す情報は必ず法人プラン上で扱う:個人アカウントでは扱わない
  2. 匿名化できる情報は匿名化する:顧客名・固有のID・具体的な金額は仮名・概数に置き換える
  3. 「この情報は外部に出してよいか」を一度立ち止まって確認する:公開記事に載せる前提で書くなら、AIに渡しても基本的に問題ないが、未公開情報は慎重に
  4. 連携プラグインを有効化したまま機密情報を扱わない:プラグイン経由の流出リスクを考慮し、機密情報を扱うセッションでは外部連携を無効化する

SEO業務全般でAIをどう組み込むかの戦略的な整理については、LLMOピラー側の関連記事「AI検索時代のSEO戦略とLLMOの位置づけ」もあわせてご覧ください。AI検索側の最適化とSEO業務側のAI活用を両面から整理しています。

また、こうした安全運用の前提を踏まえたうえで、実際にChatGPTでSEO業務を回すためのプロンプト設計や、AIライティングで順位が取れない構造的な理由などは、ピラー記事「AI SEOとは?AI時代のSEO戦略とChatGPT活用法【2026年保存版】」で体系的に扱っています。

まとめ

本記事では、ChatGPT等の生成AIに機密情報を入力する際のリスクと対策を整理しました。要点を振り返ります。

  • Shadow AI は他人事ではない:従業員の77%が個人アカウントで機密データをChatGPTに貼り付けているという調査結果がある
  • リスクは3層構造:学習利用・ログ保存・プラグイン連携、それぞれに固有の対策が必要
  • オプトアウト設定は必要条件であって十分条件ではない:業務利用するなら法人プラン移行がほぼ必須
  • 社内規程はA4一枚から始める:完璧主義でルールを作り込むより、5項目で継続運用するほうが効果的
  • NDAに生成AI条項を追加する:外部委託先経由でのShadow AI事故を防ぐために重要
  • 1次情報を安全にAIに渡す設計思想は、ツール選定段階から意識することで運用負荷を下げられる

AI時代のSEO業務は「効率化の期待」と「情報漏洩の懸念」の両面を抱えています。オプトアウト設定+法人プラン+社内規程の3点セットを整えることが、安心してAIを活用する土台になります。完璧を目指す必要はありません。明日からできるところから始めてください。

あわせて読みたい

ケンランSEO編集部

著者