検索
特集/連載

リスクまみれの「生成AI」 “安直な使用禁止”が逆にリスクを招いてしまう訳生成AIが直面する規制【後編】

「ChatGPT」をはじめとする生成AIを使ったサービスは、プライバシー問題などのさまざまな懸念を抱えている。しかし安易に生成AIを使用禁止にすると、別の問題が生じる可能性がある。何が起こり得るのか。

Share
Tweet
LINE
Hatena

 人工知能(AI)技術ベンダーOpenAIのAI技術を活用したチャットbot(AIチャットbot)「ChatGPT」をはじめとする生成AIを基にしたサービスは、プライバシー問題などのさまざまな問題を抱えている。一方で、リスクがあるという理由で安易に使用禁止にすると、別のリスクを呼び込んでしまう危険性もある。

「生成AI」の使用禁止がリスクを招く?

 生成AIは、人々のデータ収集や意思決定の方法に革命を起こしている。ChatGPTはAI技術を活用してテキストを生成するチャットbotサービスだ。Googleも、AIチャットbot「Bard」を提供している。

 一方で生成AIを取り巻く懸念が強まっているのも事実だ。2023年3月末、イタリアのデータ保護規制局GPDP(Garante per la Protezione dei Dati Personali)は国内におけるChatGPTの使用禁止措置を発表。OpenAIがプライバシー問題に関する改善策を実施することを条件に、同年4月に使用禁止措置を解除した。

 セキュリティベンダーImmuniwebの創設者で、欧州刑事警察機構(Europol)のデータ保護専門家コミュニティー「Data Protection Experts Network」のメンバーでもあるイリア・コロチェンコ氏は、「プライバシー問題は、ChatGPTをはじめとした生成AIを使ったサービスが抱える問題の、ほんの一部に過ぎない」と話す。

 AI技術による差別の撲滅、AI技術の説明可能性、透明性、公平性を確保するため、世界各国がAI技術に関する新しい法律制定に取り組んでいる。「注目すべき点は、AI技術関連の規制を定める潮流が欧州特有のものではないことだ」とコロチェンコ氏は話す。例えば米国では、米連邦取引委員会(FTC)がAI技術の誇大広告を規制する取り組みを実施している。

 コロチェンコ氏は、生成AIの懸念の一つとして「学習データの処理方法」を挙げる。現状大半のAI技術ベンダーは、コンテンツクリエイターや個人の許可なしに「スクレイピング」(Webサイトからデータを収集して使いやすく加工すること)をしている。この問題に対して、原稿執筆時点ではIP(知的財産)法による保護はほぼないに等しい。「大規模なスクレイピング行為は、デジタルリソースの利用規約に違反する可能性や、訴訟に発展する可能性がある」と同氏は警告する。

 生成AIの使用や研究開発を禁止する措置に対して、コロチェンコ氏は否定的だ。順法精神が強く、生成AIの禁止措置を取る国がある一方で、国際社会を脅かす国家や主体は研究開発を続けている。「その結果、前者はAI技術開発の国際競争で劣勢に立たされてしまう」と同氏は懸念を示す。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る