検索
特集/連載

【G検定】画像に“見えない改変”を加えてAIを惑わせる攻撃、正しい呼び方は?『ディープラーニングG検定 最強の合格問題集』出張版

AIの基礎から法律・倫理まで幅広い領域が問われる資格「G検定」。試験範囲の中でも重要度の高いテーマを1問ずつ取り上げ、理解の定着に役立つポイントを確認していきます。今回は、画像データに人間には判別できないほどの微小な変更を加え、AIの分類結果を誤らせる手法について取り上げます。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

 「G検定」(ジェネラリスト検定)は、AI(人工知能)技術全般、特に機械学習やディープラーニングの基礎を体系的に学ぶ資格試験です。AI人材の需要の高まりとともに受験者数は年々増加しており、企業でも従業員への取得を奨励する動きが広がっているそうです。

 本記事はSBクリエイティブ刊『ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]』(ヤン・ジャクリン 著)から、G検定の出題範囲を踏まえた問題と解説を1問1答形式で紹介します。今回は今回は、画像データに人間には判別できないほどの微小な変更を加え、AIの分類結果を誤らせる手法を押さえる1問です。

書籍紹介

ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]

ディープラーニングG検定(ジェネラリスト)
最強の合格問題集[第2版]

著者:ヤン・ジャクリン

SBクリエイティブ 2,805円

究極の332問+模試2回(PDF)

G検定の問題集の決定版がパワーアップ!

効率的に1発合格をサポートします。

購入ページはこちら


問題

以下の文章を読み、(ア)に入る概念として、最もよくあてはまる選択肢を1つ選べ。

画像データに人間から見て変化がわからない程度のノイズや変更を加えた(ア)は、機械学習モデルに誤分類を引き起こす可能性がある。

1.Noisy Sample

2.Deep Fake Example

3.Adversarial Example

4.Contaminated Example


――答えは分かりましたか?



正解と解説

正解は「3.Adversarial Example」

 Adversarial Example(敵対的サンプル)とは、学習済みモデルが誤った出力をするように、特定の入力データを恣意的に加工したものです。具体的には、機械学習モデルを混乱させるような、人間の目で識別できない程度の微小なノイズを入力データに付与します。このような行為を敵対的攻撃といいます。他の選択肢は存在しない、誤った用語です。

データ汚染と敵対的攻撃の違い

  • データ汚染:学習データにノイズを付与し、それを用いてモデルを学習する。
  • 敵対的攻撃:学習済みモデルに、ノイズを付与したデータを入力し、誤判断させる。

※この記事はSBクリエイティブ刊『ディープラーニングG検定(ジェネラリスト)最強の合格問題集[第2版]』から、アイティメディアが出版社の許可を得て一部加筆編集の上、転載したものです(無断転載禁止)。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る