日本のユーザーは保護対象外? ChatGPT「米国法のわな」と情シスの防衛策7選:CopilotやGeminiにも潜む「データ主権」の死角
米国防総省は、OpenAIとAI利用契約を締結した。契約で注目すべきは、「大規模監視」「完全自律型兵器の開発」の項目で保護の対象が「米国人」のみに適用される可能性だ。では、外国のユーザーはどうなるのか。
2026年3月5日(米国時間)、米国防総省が、人工知能(AI)ツール「Claude」を提供するAnthropicを「国家安全保障上のサプライチェーンリスク」に指定し契約を打ち切った。Anthropicが、同社のAIを「米国民の大規模監視」(large-scale domestic surveillance of U.S. citizens)、「完全自律型兵器の開発」(fully autonomous weapons)に使用することを禁止していることがその背景にある。
一方、Anthropicとの交渉決裂後、米国防総省がサービスの利用契約を結んだのが「ChatGPT」を提供するOpenAIだ。その後、ユーザーの間では、”cancel ChatGPT”(ChatGPTをキャンセルせよ)というメッセージが広がり、ユーザー数の減少や、Claude に乗り換えるユーザーが発生する事態となった。批判を受けたOpenAIは、契約内容を修正。2026年3月には、米国人に対する監視の禁止など、いくつかの制限条項が追加された。
特に注目すべきなのは、契約修正で追加した条項の内容だ。一見、プライバシー保護を強化したように見えるが、その対象範囲を注意深く見ると、ある問題が浮かび上がる。ここで重要になるのが、「誰が保護され、誰が保護されないのか」という点だ。
「米国人に対する監視の禁止」なら外国人は対象外?
OpenAIが追加した契約条項の中で、特に重要なのは「U.S. persons」(米国市民、同国居住者、国内法人を含む米国人)という単語の定義だ。契約では、米国人に対する意図的な監視を禁止している。この定義に沿えば、米国外のユーザーはこの保護対象に含まれない可能性が高い。
背景にある3つの法律
この背景には、米国の情報収集を可能にする法律がある。代表的なものは次の3つだ。
外国情報監視法(FISA:Foreign Intelligence Surveillance Act of 1978)702条
米国外の非米国人を対象とした情報収集を認める法律だ。米国外のユーザーの通信を令状なしで収集できる枠組みを持つ。AIサービスへの入力データも、米国企業のサーバを通過する通信として対象になる可能性がある。
大統領令12333号(Executive Order 12333)
米国の情報機関に、海外での情報収集活動を広く認める枠組み。外国人には米国憲法のプライバシー保護が適用されない。
CLOUD法(CLOUD Act:Clarifying Lawful Overseas Use of Data Act)
米国企業が管理するデータに対して、米国外のサーバに保存されていても米当局がアクセスできる可能性を認める法律。
つまり、自社が利用するAIサービスが日本リージョンで動いていても、運営企業が米国企業である限り米国法の影響を受ける可能性がある。
この問題はOpenAI固有のものではない。Microsoftの「Microsoft 365 Copilot」やGoogleの「Gemini」も米国企業が提供している生成AIツールだ。特にMicrosoft 365 CopilotやGeminiは、メール、文書、会議、ファイルといった社内データを横断してAIが回答を生成する仕組みになっているため、企業の業務基盤と結び付いている。
情シスが取るべき7つの対策
この状況を踏まえて、情シスはAIを便利なツールとしてではなく、ITガバナンスの対象として扱う必要がある。さらに、以下の対策を取ることが有用だ。
シャドーAIの監視と可視化
従業員が個人アカウントでAIを利用すると、機密データが統制外で入力される可能性がある。プロキシログやネットワークログを分析し、AIサービスへのアクセス状況を把握することが重要になる。
エンタープライズ版への集約
企業がAIツールを利用する場合は、個人アカウントではなく管理可能な法人契約へ統一する。ログ管理やデータ保持ポリシーを統制できる環境を整えるためだ。
データ主権の確保
可能な場合はリージョン設定やデータ保持設定を見直し、必要に応じてデータ保持期間の短縮やログ保存制限などの対策を取る。
マルチAI戦略の策定
特定のAIプラットフォームに依存し過ぎないよう、用途ごとに複数のモデルを使い分ける。重要なデータ処理は社内環境で実施し、外部のAIツールには限定的な用途だけを任せるといった設計も検討する。
機密データの「入力禁止ルール」明確化
AIに入力するデータそのものを管理する。「機密情報をAIに入力してはいけない」というルールを運用する企業はあるものの、「何が機密情報に当たるのか」を曖昧にしている場合がある。そこで、未公開の財務情報や顧客データ、契約書、ソースコード、製品設計情報など、AIに入力してはならないデータの範囲を明確に定義することが重要になる。
AIゲートウェイを使った制御
AIサービスへのアクセスを直接許可するのではなく、AIツールと大規模言語モデル(LLM)の間で通信を制御する「AIゲートウェイ」を介してユーザーが利用できるようにするのも1つの手だ。こうした仕組みを使えば、AIサービスへの入力データを検査し、機密情報が含まれている場合は送信をブロックするといった制御が可能になる。さらに、AIサービスの利用ログを一元的に取得できるため、どの部門がどのAIを利用しているのかを可視化することにもつながる。
社内LLMやローカルLLMの併用
社内環境で稼働するLLMを併用することも選択肢の1つだ。機密性の高いデータ処理は社内LLMで実行し、外部のAIツールには一般的な文書作成や情報整理といった用途のみを任せるという使い方もある。社内AIと外部AIを使い分ける「二層構造」を採用することで、データ流出リスクを抑えながらAI活用を進めることができる。
Copyright © ITmedia, Inc. All Rights Reserved.