「Copilotの回答精度を向上させたい」が“あだ”になる? 2つの注意点とは「Microsoft Copilot」安全利用のこつ

MicrosoftのAIアシスタントツール「Copilot」は業務効率化につながる便利な存在だが、気になるのはデータの安全性確保だ。Copilotのセキュリティ事故を防ぐにはどうすればいいのか。

2025年01月06日 05時00分 公開
[Brien PoseyTechTarget]

 Microsoftのさまざまな製品やサービスに組み込まれるAI(人工知能)アシスタントツール「Microsoft Copilot」(以下、Copilot)。質問への回答を生成したり、レポートを要約したり、さまざまな業務に効率化のメリットをもたらす便利な存在だ。ただしその恩恵を享受するにはCopilotが社内データにアクセスする必要があるので、セキュリティリスクは無視できない。セキュリティ事故を防ぐために、Copilotの2つの注意点を知っておく必要がある。

「Copilotのセキュリティ事故」を防ぐための2つの注意点

 Copilotはユーザーが自然言語で作成したプロンプト(質問や命令文)に対し、LLM(大規模言語モデル)を活用して回答を自動生成する。これはAI(人工知能)技術ベンダーOpenAIが開発したチャットbot型AIサービス「ChatGPT」と同様だ。

 Copilotは文書作成ツール「Microsoft Word」や表計算ツール「Microsoft Excel」など、サブスプリプション型のオフィススイート「Microsoft 365」の主要アプリケーションで利用できる。日常的な業務を効率化することに役立つツールだ。

 LLMは回答を生成するに当たり、さまざまなデータを処理する。特にユーザーが複雑な質問を入力した場合は、回答を生成するために複数の情報源からデータを集める必要がある。ユーザー組織はCopilotにデータへのアクセス権限を付与する際、セキュリティやプライバシー、コンプライアンス(法令順守)を考慮しなければならない。

 Copilotを安全に利用するために、大きく2つの注意点がある。

1.従業員のアクセス権限の管理

 Copilotを利用する従業員のアクセス権限を適切に設定することが欠かせない。従業員が昇進したり異動したりしたときは、以前のアクセス権限が残っている場合がある。許可されていないデータを不適切に利用する事態につながりかねないため、昇格や異動があったら迅速に権限を再設定することが重要だ。

2.Copilotによるアクセス範囲の管理

 ユーザー組織は回答の精度を高めるために、Copilotがアクセスできるデータをできる限り多く許可する傾向にある。しかしそのデータに機密情報や従業員の個人情報などが含まれていれば、セキュリティ事故やプライバシー侵害につながる恐れがある。アクセス許可に関しては、データを必要最小限に制限することを鉄則としよう。

 Microsoftは同社のデータガバナンスツール「Microsoft Purview」を使い、該当するデータに機密ラベルを付けることを推奨している。機密ラベルを付けることでそのデータは暗号化され、権限が付与されたユーザーのみが閲覧可能になる。

TechTarget発 世界のインサイト&ベストプラクティス

米国TechTargetの豊富な記事の中から、さまざまな業種や職種に関する動向やビジネスノウハウなどを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

From Informa TechTarget

お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。

ITmedia マーケティング新着記事

news137.png

新成人(二十歳)のTikTok利用率は5年で5倍に その他のSNSの利用動向は?
「芦田愛菜」「鈴木福」「本田望結」といった天才子役で知られた著名人を含むこの世代の...

news051.jpg

TikTokが「米国で禁止」回避へ必死のアピール トランプ氏の反応は?
TikTokは米国での禁止措置回避に向けて、次期大統領であるトランプ氏による救済の可能性...

news164.jpg

2025年正月三が日のテレビCM動向 CM露出タレント3位は「広瀬すず」、2位は「横浜流星」、1位は?
ビデオリサーチは、2024年1月1〜3日の間に関東地区でオンエアされたテレビCM動向(速報値...