Appleが設計した画像スキャン技術は、本来の児童ポルノを検出する目的ではない悪質な行為に悪用される可能性があると専門家が警告する。技術のどこに“欠陥”があるのか。専門家の指摘に沿って解説する。
Appleは児童ポルノを摘発するための取り組みとして、スマートフォン「iPhone」内の画像を自動でスキャンし、該当画像があればAppleや法執行機関に報告する機能の実装を計画している。この機能の中核は、送信前にデータをスキャンしてテンプレートと照合する技術「クライアントサイドスキャン」(CSS:Client-Side Scanning)だ。この機能に対して専門家チームが論文を発表し、同社の取り組みと機能設計に問題があることを主張した。
当初のAppleの計画では、画像スキャン機能は「知覚ハッシング」技術を利用して、クラウドストレージサービス「iCloud」内の画像と、政府が供給した指紋画像のライブラリを照合するものだった。知覚ハッシング技術とは、画像をビット単位で厳密に一致しているかどうかを調べるのではなく、類似性を調べる技術を指す。
「NeuralHash」は、Appleが2021年8月に発表した、児童ポルノ画像を安全かつ確実に検出するための技術だ。だがNeuralHashが誤検知をすることや、この技術をリバースエンジニアリングして悪用可能なことを、同社の画像スキャン機能に批判的な研究者チームが実証した。
研究者チームは、iPhoneのOS「iOS 14」に組み込まれたNeuralHashを2週間でリバースエンジニアリングした。その結果、画像スキャンの回避や誤検知が発生した。NeuralHashが全く異なる2つの写真画像を「一致する」と判断した例を、あるチームが示したことで、NeuralHashは評判を落とすことになる。その発表の1カ月後、AppleはNeuralHashの取り組みを後退させた。
画像スキャン機能が利用する機械学習は「さらに脆弱(ぜいじゃく)だ」と、Appleを批判する論文を発表した専門家チームは考える。機械学習のモデルとトレーニングエンジンは、膨大な数のクライアントデバイスでの運用を通じて洗練される。これを悪用した攻撃者が、特別な細工を施したデータセットで、トレーニングアルゴリズムを汚染させる恐れがあるからだ。
これらの理由から、専門家チームは「人々のプライバシーと安全を不当な危険にさらすことなく、法執行機関に大きなメリットを提供する機能を設計することは難しい」という見解で一致している。技術の「段階的変化」であるクライアントサイドスキャンに対して、専門家チームは「保護を著しく損ない、われわれ皆の安全と安心を揺るがす」と述べた上で、「これは危険な技術だ」と結論付ける。
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
ハロウィーンの口コミ数はエイプリルフールやバレンタインを超える マーケ視点で押さえておくべきことは?
ホットリンクは、SNSの投稿データから、ハロウィーンに関する口コミを調査した。
なぜ料理の失敗写真がパッケージに? クノールが展開する「ジレニアル世代」向けキャンペーンの真意
調味料ブランドのKnorr(クノール)は季節限定のホリデーマーケティングキャンペーン「#E...
業界トップランナーが語る「イベントDX」 リアルもオンラインも、もっと変われる
コロナ禍を経て、イベントの在り方は大きく変わった。データを駆使してイベントの体験価...