急速に普及した「ChatGPT」。業務で利用するためには、企業の体制や法律などさまざまな分野での整備が現状は不十分な状態だ。なぜ、どのような問題を生む可能性があるのか。
「ChatGPT」は、人工知能(AI)技術ベンダーOpenAIが手掛けるAIチャットbot(AI技術を活用したチャットbot)だ。2023年3月、イタリア政府がChatGPTを国内で使用禁止にしたことを受け、法律の専門家は、業務におけるAIツール(AI技術を活用したツール)の使用についてのさらなる精査と、安全に使用するための実用的なガイダンスの必要性を訴えている。
メディアがこぞってChatGPTを取り上げる昨今、懸念事項になっているのは、AI技術でテキストや画像などを自動生成する「ジェネレーティブAI」(生成AI)の仕組みについて、大半の人が十分な知識を備えていないことだ。こうした見識不足は、意図しない機密情報の漏えいを招き、欧州連合(EU)の一般データ保護規則(GDPR)違反を引き起こす恐れがある。
ChatGPTが事業拡大や効率向上に役立つことを期待して、さまざまな業種の企業がChatGPTを活用し始めている。一方で従業員が不注意によって、患者情報や顧客情報などの機密情報をChatGPTに送信するケースが発生していることから、不安の声も上がっている。医療、教育などの業種の企業にとっては、ChatGPT使用時に従業員がコンプライアンスを確実に順守できるようにする対策が不可欠だ。
セキュリティベンダーCyberhavenは、同社製品のユーザー企業に所属する1600万人を対象に、2022年11月から2023年4月にかけてのChatGPTの利用状況を調査した。それによると、調査対象となった従業員がChatGPTに入力する情報のうち11%を機密情報が占めていた。中には医師が患者の個人情報をChatGPTに入力した事例があったという。
こうした状況を背景に、ChatGPT使用時におけるGDPRの順守と機密情報保持に対する深刻な懸念が生まれている。主な懸念は、ChatGPTが採用している「GPT」をはじめとした大規模言語モデル(LLM)に関するものだ。具体的にはLLMの訓練における個人情報の使い方や、AIモデルが個人情報を出力する可能性を心配する声がある。懸念される問題の例は以下の通りだ。
次回は、イタリアにおけるChatGPT規制の概要を取り上げる。
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
「日本の食料自給率38%」への不安感は8割越え
クロス・マーケティングは、大気中の二酸化炭素濃度や紫外線量の増加による地球温暖化の...
「マツキヨココカラ公式アプリ」が「Temu」超えの初登場1位 2024年のEコマースアプリトレンド
AdjustとSensor Towerが共同で発表した「モバイルアプリトレンドレポート 2024 :日本版...
「RevOps」に関する実態調査 収益向上への実感やCROの設置率は?
ウイングアーク1stが実施した「RevOpsに関する実態調査」の結果です。