「ChatGPT」で気付かないうちに法律違反をしてしまう“危ない使い方”とは?:ChatGPTが招く法律違反【前編】
急速に普及した「ChatGPT」。業務で利用するためには、企業の体制や法律などさまざまな分野での整備が現状は不十分な状態だ。なぜ、どのような問題を生む可能性があるのか。
「ChatGPT」は、人工知能(AI)技術ベンダーOpenAIが手掛けるAIチャットbot(AI技術を活用したチャットbot)だ。2023年3月、イタリア政府がChatGPTを国内で使用禁止にしたことを受け、法律の専門家は、業務におけるAIツール(AI技術を活用したツール)の使用についてのさらなる精査と、安全に使用するための実用的なガイダンスの必要性を訴えている。
そもそも「AIが危ない」と考えるべきなのはなぜ?
併せて読みたいお薦め記事
ChatGPTにまつわる問題
メディアがこぞってChatGPTを取り上げる昨今、懸念事項になっているのは、AI技術でテキストや画像などを自動生成する「ジェネレーティブAI」(生成AI)の仕組みについて、大半の人が十分な知識を備えていないことだ。こうした見識不足は、意図しない機密情報の漏えいを招き、欧州連合(EU)の一般データ保護規則(GDPR)違反を引き起こす恐れがある。
ChatGPTが事業拡大や効率向上に役立つことを期待して、さまざまな業種の企業がChatGPTを活用し始めている。一方で従業員が不注意によって、患者情報や顧客情報などの機密情報をChatGPTに送信するケースが発生していることから、不安の声も上がっている。医療、教育などの業種の企業にとっては、ChatGPT使用時に従業員がコンプライアンスを確実に順守できるようにする対策が不可欠だ。
セキュリティベンダーCyberhavenは、同社製品のユーザー企業に所属する1600万人を対象に、2022年11月から2023年4月にかけてのChatGPTの利用状況を調査した。それによると、調査対象となった従業員がChatGPTに入力する情報のうち11%を機密情報が占めていた。中には医師が患者の個人情報をChatGPTに入力した事例があったという。
こうした状況を背景に、ChatGPT使用時におけるGDPRの順守と機密情報保持に対する深刻な懸念が生まれている。主な懸念は、ChatGPTが採用している「GPT」をはじめとした大規模言語モデル(LLM)に関するものだ。具体的にはLLMの訓練における個人情報の使い方や、AIモデルが個人情報を出力する可能性を心配する声がある。懸念される問題の例は以下の通りだ。
- 医師がChatGPTに患者の機密情報を入力し、その後別のユーザーが同じ患者に関する質問をChatGPTに投げ掛けた場合、ChatGPTがその患者の機密情報を出力する可能性がある
- 従業員がChatGPTにクライアントの機密情報を入力した場合、クライアントとの秘密保持契約に危険が及ぶ可能性がある
- 従業員がChatGPTに規約や経営計画といった企業の機密情報を入力することによって、情報が漏えいし、従業員が契約上の義務に違反する可能性がある
次回は、イタリアにおけるChatGPT規制の概要を取り上げる。
Computer Weekly発 世界に学ぶIT導入・活用術
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.