検索
特集/連載

イタリアの「ChatGPT」禁止措置は正しかったのか?ChatGPTが招く法律違反【中編】

「ChatGPT」が個人情報を脅かすという懸念から、イタリアのデータ保護規制局は国内でのChatGPT使用を禁じた。当局がOpenAIに求めた措置とは何か。企業がChatGPTを利用することで起こり得る法律違反とは。

Share
Tweet
LINE
Hatena

 人工知能(AI)技術ベンダーOpenAIが手掛けるAIチャットbot(AI技術を活用したチャットbot)「ChatGPT」は、急速に普及した。それと同時に、ChatGPTの機密情報の取り扱いに対して、欧州連合(EU)の一般データ保護規則(GDPR)違反を懸念する声が上がっている。こうした懸念は、イタリアのデータ保護規制局GPDP(Garante per la Protezione dei Dati Personali)が国内でChatGPTを使用禁止したというニュースが出たときに、さらに明白になった。

それでも残る「ChatGPT」の懸念

 報道によると、イタリア当局は「OpenAIが対策を講じれば禁止措置を解除する」と発表。当局はOpenAIに以下の措置を要求した。

  • ChatGPTのデータ処理を支える仕組みをユーザーに公開すること
  • ChatGPTユーザーかどうかにかかわらず、ChatGPTが不正に生成した、個人情報を含むデータを修正または削除できるようにすること
    • データの修正が不可能な場合は、ChatGPTが生成したデータの修正や削除を要求するための仕組みを公開すること
  • ChatGPTを稼働させるためのAIモデルが個人情報を取り扱うことについて、手軽な方法で反対できるようにすること

 2023年4月、OpenAIがイタリア当局の要請に応じたことで、同国内で再びChatGPTが利用できるようになった。

 ただしイタリア当局がOpenAIに求めた措置は、AIモデルを訓練した後のデータを再利用することに対する懸念には対処し切れていない。そのため、これらの措置が個人情報保護に十分かどうかには疑問が残る。

 ChatGPTが採用している「GPT」をはじめ、大規模言語モデル(LLM)は発展途上だ。そのため、人々がLLMの仕組みを正しく理解していない可能性がある。この事実は、AIツール(AI技術を活用したツール)を通じて個人情報を不注意にLLMに送り込むリスクを高めることにつながる。LLMがGDPRに準拠しているとは限らないため、ユーザーは自社やクライアントの情報が漏えいした場合、その責任がどこにあるのかを明確に定める法律はないことを念頭に置く必要がある。

 適切な従業員トレーニングを用意せず、警告もしないままでChatGPTを使用する企業は、知らないうちにGDPRが定めるデータ保護ルールに違反する恐れがある。これは膨大な罰金や企業のイメージダウン、訴訟につながりかねない。つまり十分な従業員トレーニングや規制措置をしないまま、ChatGPTを業務用ツールとして使用するのは、無謀だと言える。


 次回は、ChatGPTをはじめとするAIツールを業務で利用するために、企業が実施すべき項目を紹介する。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る