生成AIツールは作業の自動化など企業にさまざまなメリットをもたらすが、セキュリティのリスクも無視できない。リスクにはどうすれば対抗できるのか。今すぐ着手できる具体的な施策を紹介する。
画像やテキストを自動で生成するAI(人工知能)技術「生成AI」は業務に溶け込みつつある。企業が生成AIツールによって業務改革に取り組む際は、セキュリティリスクも意識して対策を講じることが重要だ。生成AIツール利用による情報漏えいやコンプライアンス(法令順守)違反を防ぐための「7つの対策」とは。
企業は生成AIツールにデータを入力したり、AIモデルの訓練に使用したりする前に、データを分類する必要がある。「どのデータ」が「どのような用途」に適しているかを判断し、それら以外のデータを生成AIツールと共有しないようにする。
訓練データに含まれる個人情報などの機密データを匿名化し、万が一漏えいした際の被害を最小限に抑えることも重要だ。例えば、AIモデルの訓練に患者データを使用する場合、名前や連絡先を中心に、個人を特定できるデータを匿名化する。加え、生成AIツールに関する通信を暗号化し、流出のリスクを減らす。
生成AI関連の攻撃リスクを軽減するために、従業員教育は重要な取り組みだ。責任を持って生成AIツールを安全に利用するためには、従業員にどのようなリスクがあるかを伝え、対策を教えることが欠かせない。
従業員教育のベースになるのは、生成AIツールの利用に関するセキュリティガイドラインだ。ガイドラインの具体的な内容は企業によって異なるが、「AIツールが生成したコンテンツをそのまま使わず、人間が確認して編集する」ことが軸になる。
ガイドラインには、生成AIツールに入力してよいデータと、入力してはならないデータを具体的に記載する必要がある。例えば、知的財産、著作権で保護された資料、個人情報などの入力を禁止するルールを明確に定める必要がある。
生成AIツールを本番環境に展開する前、セキュリティの脆弱(ぜいじゃく)性を特定する必要がある。そのために、セキュリティ監査と定期的なペネトレーション(侵入)テストを実施する。企業は攻撃事例を生成AIツールに入力し、攻撃試行を認識し、耐える能力を訓練することも可能だ。
「最小権限の原則」を適用し、AIモデルの訓練データや基盤となるシステムへのアクセス権限を、許可された従業員に限定する。「IAM」(IDおよびアクセス管理)ツールを使用することで、従業員のアクセス権限を集中管理できる。多要素認証(MFA)も導入すれば、データとインフラへの不正アクセスのリスクを減らせる。
ネットワークを分割し、AIシステムを専用のネットワークセグメントに展開する。これによって、他のネットワークセグメントが攻撃されてもAIシステムへの影響を抑えることができる。インフラとしてクラウドサービスを用いる企業は、クラウドベンダーやサービス内容の信頼性を詳細に確認するといった、厳格なセキュリティコントロールが重要だ。クラウドサービスを利用するための通信は暗号化されていることを確認する。
コンプライアンスに関する規制は絶えず変化しており、生成AIを巡るルールも新たに設けられる可能性がある。そのため、企業は生成AIツールの使用に関連するコンプライアンス規制の変更を注意深く監視する必要がある。ベンダーが提供するAIツールを使用する場合、そのベンダーのセキュリティ管理体制と脆弱性評価を定期的にレビューすることが不可欠だ。この作業は、ベンダーのシステムに存在する脆弱性が自社システムに影響することを防ぐ上で有効だ。
AI関連のセキュリティインシデントに対処するための具体的な手順を作成することが大切だ。効果的なインシデント対処計画には、以下の領域に関する事柄を文書化する必要がある。
生成AIツールを活用する上で、企業はセキュリティ体制を再構築し、業務革新とリスクの両立を図らなければならない。その際、以下の課題の解決に取り組むことが求められる。
AIシステムは、訓練データを標的とした攻撃によって、意図せず機密データを漏えいさせる可能性がある。OpenAIといったAIベンダーは、企業向けにデータフィルタリングやアクセス制御などを実施し、AIツールのセキュリティ向上を目指している。企業はそれだけに頼らず、上記で説明したデータの分類や暗号化など、自社でのセキュリティ対策も欠かせない。
企業はAIツールを安全に利用するために、ガバナンスを構築する必要がある。例えばIBMのAIガバナンスは、バイアス(偏見に基づいたコンテンツ生成)といったことが含まれている。金融機関はAIツールによるローン承認に当たって「説明可能なAI」を採用し、申請者に判断理由を説明できるようにする必要がある。医療機関であれば、診断や治療法の決定にAIツールを取り入れたら、その診断結果を人間がレビューしなければならない。
攻撃者は生成AIツールを利用して、画像や音声の捏造(ねつぞう)によるなりすましといった、高度な攻撃を仕掛けてくる。これに対抗するため、GoogleやMicrosoftはAI技術を取り入れ、AIツールが生成した不正なコンテンツを特定できるよう、自社のセキュリティ製品の強化に取り組んでいる。高度化する脅威に対抗する上で、このようなAI技術を活用したセキュリティ製品を導入することには、一考の余地がある。
Copyright © ITmedia, Inc. All Rights Reserved.
本記事は制作段階でChatGPT等の生成系AIサービスを利用していますが、文責は編集部に帰属します。
なぜクラウド全盛の今「メインフレーム」が再び脚光を浴びるのか
メインフレームを支える人材の高齢化が進み、企業の基幹IT運用に大きなリスクが迫っている。一方で、メインフレームは再評価の時を迎えている。

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...