【G検定】画像に“見えない改変”を加えてAIを惑わせる攻撃、正しい呼び方は?:『ディープラーニングG検定 最強の合格問題集』出張版
AIの基礎から法律・倫理まで幅広い領域が問われる資格「G検定」。試験範囲の中でも重要度の高いテーマを1問ずつ取り上げ、理解の定着に役立つポイントを確認していきます。今回は、画像データに人間には判別できないほどの微小な変更を加え、AIの分類結果を誤らせる手法について取り上げます。
「G検定」(ジェネラリスト検定)は、AI(人工知能)技術全般、特に機械学習やディープラーニングの基礎を体系的に学ぶ資格試験です。AI人材の需要の高まりとともに受験者数は年々増加しており、企業でも従業員への取得を奨励する動きが広がっているそうです。
本記事はSBクリエイティブ刊『ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]』(ヤン・ジャクリン 著)から、G検定の出題範囲を踏まえた問題と解説を1問1答形式で紹介します。今回は今回は、画像データに人間には判別できないほどの微小な変更を加え、AIの分類結果を誤らせる手法を押さえる1問です。
書籍紹介
ディープラーニングG検定(ジェネラリスト)
最強の合格問題集[第2版]
著者:ヤン・ジャクリン
SBクリエイティブ 2,805円
究極の332問+模試2回(PDF)
G検定の問題集の決定版がパワーアップ!
効率的に1発合格をサポートします。
問題
以下の文章を読み、(ア)に入る概念として、最もよくあてはまる選択肢を1つ選べ。
画像データに人間から見て変化がわからない程度のノイズや変更を加えた(ア)は、機械学習モデルに誤分類を引き起こす可能性がある。
1.Noisy Sample
2.Deep Fake Example
3.Adversarial Example
4.Contaminated Example
――答えは分かりましたか?
正解と解説
正解は「3.Adversarial Example」
Adversarial Example(敵対的サンプル)とは、学習済みモデルが誤った出力をするように、特定の入力データを恣意的に加工したものです。具体的には、機械学習モデルを混乱させるような、人間の目で識別できない程度の微小なノイズを入力データに付与します。このような行為を敵対的攻撃といいます。他の選択肢は存在しない、誤った用語です。
データ汚染と敵対的攻撃の違い
- データ汚染:学習データにノイズを付与し、それを用いてモデルを学習する。
- 敵対的攻撃:学習済みモデルに、ノイズを付与したデータを入力し、誤判断させる。
※この記事はSBクリエイティブ刊『ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]』から、アイティメディアが出版社の許可を得て一部加筆編集の上、転載したものです(無断転載禁止)。
Copyright © ITmedia, Inc. All Rights Reserved.
![ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]](https://image.itmedia.co.jp/tt/news/2601/15/yo0490_g-kentei_W190.jpg)