検索
特集/連載

「ChatGPT」が規制解除になったのはなぜ? OpenAIが応じたイタリアの要求生成AIが直面する規制【中編】

ChatGPTを取り巻くプライバシー問題を受け、同サービスの使用禁止措置を取る国が出てきている。OpenAIはこの問題を解消するため、どのような取り組みを実施することになったのか。

Share
Tweet
LINE
Hatena

 人工知能(AI)技術ベンダーOpenAIが手掛けるAI技術を活用したチャットbot(AIチャットbot)「ChatGPT」について、プライバシー問題をはじめとしたさまざまな懸念が浮上している。イタリアのデータ保護規制局GPDP(Garante per la Protezione dei Dati Personali)はこの問題を受け、2023年3月末に国内におけるChatGPTの使用禁止措置を発表。OpenAIが幾つかの改善策を実施する条件と引き換えに、同年4月に使用禁止措置を解除した。OpenAIは具体的にどのような改善策を実施することになったのか。

プライバシーを守るためにOpenAIがしなければならなくなったこと

 OpenAIは、ChatGPTユーザーのデータを用いたアルゴリズム訓練の法的根拠として、ユーザーの同意の取得または正当な根拠を証明しなければならなくなった。これはEU(欧州連合)全域を対象とするデータプライバシー法の「一般データ保護規則」(GDPR)が定める、説明責任の原則にのっとったものだ。具体的な対処方法を以下に示す。

  • ChatGPTのデータ処理に関する取り決めや論理、ChatGPTのユーザーかどうかを問わないデータ主体の権利を説明する通知を作成すること
    • データ主体は、情報が本来属する持ち主のこと。
    • 通知はオンラインで閲覧可能な状態にしなければならない。
  • イタリアでChatGPTに登録するユーザーが、上記の通知を閲覧し、19歳以上であるか、13歳〜18歳の場合は保護者の同意を得たことを証明できるようにする仕組みを、2023年9月30日までに整えること
    • この仕組みがない限り、イタリアではChatGPTを利用できない。
  • OpenAIが個人データを不正に使用した場合、データ主体がその個人データを消去または修正できるようにすること
  • 非OpenAIユーザーが、個人データの処理方法に異議を唱える権利を行使できるようにすること
    • 同社が正当な根拠を提出している場合でも、権利を行使できるようにする必要がある。

 他にもOpenAIは、イタリアのメディアを介して、同社が取得したデータをアルゴリズムの訓練に使用する可能性があることを告知する啓発キャンペーンの実施が求められている。


 後編は、ChatGPTをはじめとする生成AIが直面する問題を紹介する。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る