AIの基礎から法律・倫理まで幅広い領域が問われる資格「G検定」。試験範囲の中でも重要度の高いテーマを1問ずつ取り上げ、理解の定着に役立つポイントを確認していきます。今回は、「ChatGPT」を利用する際の秘密情報や個人情報の取り扱いに関する基本的な考え方を取り上げます。
「G検定」(ジェネラリスト検定)は、AI(人工知能)技術全般、特に機械学習やディープラーニングの基礎を体系的に学ぶ資格試験です。AI人材の需要の高まりとともに受験者数は年々増加しており、企業でも従業員への取得を奨励する動きが広がっているそうです。
本記事はSBクリエイティブ刊『ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]』(ヤン・ジャクリン 著)から、G検定の出題範囲を踏まえた問題と解説を1問1答形式で紹介します。今回は、「ChatGPT」を利用する際の秘密情報や個人情報の取り扱いに関する基本的な考え方を押さえる1問です。
ディープラーニングG検定(ジェネラリスト)
最強の合格問題集[第2版]
著者:ヤン・ジャクリン
SBクリエイティブ 2,805円
究極の332問+模試2回(PDF)
G検定の問題集の決定版がパワーアップ!
効率的に1発合格をサポートします。
OpenAI社によって提供される文章生成AIサービスChatGPTを使用する上で、秘密情報の扱い方として、最も不適切な選択肢を1つ選べ。
1.APIを経由してChatGPTに入力した情報はモデルチューニングに使用されることはない。
2.APIを経由してChatGPTに入力した情報には、第三者がアクセスすることはないので、個人情報をはじめとする秘密情報の漏えいを防止する上で効果的といえる。
3.いかなる使い方をしても、ChatGPTへの個人情報の入力は基本的にOpenAI社への個人情報の提供という行為に該当する。
4.APIを介さずにChatGPTのUIを介して利用する場合でも、プロンプトに含まれる情報がモデルの改善に利用されないように防止する手段がある。
――答えは分かりましたか?
ChatGPTのAPIを利用して自社の独自サービスを開発した場合、そこに秘密情報を入力した際に情報の保護は保証されるとは限りません。APIを介して情報がOpenAI社に「第三者提供」されており、OpenAI社の社員が、不正監視や悪用防止などの目的でその秘密情報にアクセスすることは可能です。利用の形態によらず、秘密情報を入力すると漏えいのリスクがあることを意識しなくてはいけません。
現時点(2024年9月時点)では、OpenAI社は、API経由での利用の場合は入力した情報をモデルの学習に利用しないとしています(選択肢1、今後の規約改定には要注意)。
一方、APIを使用せずChatGPTをUIから使用した場合、プロンプトを通じて提供されたデータがChatGPTモデルを改善(チューニング)するために使用されることがあるとされています。ただし、「オプトアウト」の制度が用意されており、その手続きを行うことにより、ChatGPTに入力したデータがモデルの学習に使用されるのを回避可能です(選択肢4)。
ChatGPTに他者の個人情報を入力することは、情報処理の担当企業であるOpenAI社などに対しての「個人情報の第三者への提供」に該当します。その場合、原則として個人情報の開示元からの許可が必要となります。
※この記事はSBクリエイティブ刊『ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]』から、アイティメディアが出版社の許可を得て一部加筆編集の上、転載したものです(無断転載禁止)。
Copyright © ITmedia, Inc. All Rights Reserved.
なぜクラウド全盛の今「メインフレーム」が再び脚光を浴びるのか
メインフレームを支える人材の高齢化が進み、企業の基幹IT運用に大きなリスクが迫っている。一方で、メインフレームは再評価の時を迎えている。

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...