iPhone「児童ポルノスキャン」計画の実現は「難しい」と専門家が断言する理由Appleの児童ポルノ対策が抱える問題【第4回】

Appleが設計した画像スキャン技術は、本来の児童ポルノを検出する目的ではない悪質な行為に悪用される可能性があると専門家が警告する。技術のどこに“欠陥”があるのか。専門家の指摘に沿って解説する。

2021年12月20日 05時00分 公開
[Duncan CampbellTechTarget]

関連キーワード

Apple | データ分析 | iPhone | 脆弱性


 Appleは児童ポルノを摘発するための取り組みとして、スマートフォン「iPhone」内の画像を自動でスキャンし、該当画像があればAppleや法執行機関に報告する機能の実装を計画している。この機能の中核は、送信前にデータをスキャンしてテンプレートと照合する技術「クライアントサイドスキャン」(CSS:Client-Side Scanning)だ。この機能に対して専門家チームが論文を発表し、同社の取り組みと機能設計に問題があることを主張した。

iPhone「児童ポルノスキャン」計画の実現を阻む“欠陥”

 当初のAppleの計画では、画像スキャン機能は「知覚ハッシング」技術を利用して、クラウドストレージサービス「iCloud」内の画像と、政府が供給した指紋画像のライブラリを照合するものだった。知覚ハッシング技術とは、画像をビット単位で厳密に一致しているかどうかを調べるのではなく、類似性を調べる技術を指す。

 「NeuralHash」は、Appleが2021年8月に発表した、児童ポルノ画像を安全かつ確実に検出するための技術だ。だがNeuralHashが誤検知をすることや、この技術をリバースエンジニアリングして悪用可能なことを、同社の画像スキャン機能に批判的な研究者チームが実証した。

 研究者チームは、iPhoneのOS「iOS 14」に組み込まれたNeuralHashを2週間でリバースエンジニアリングした。その結果、画像スキャンの回避や誤検知が発生した。NeuralHashが全く異なる2つの写真画像を「一致する」と判断した例を、あるチームが示したことで、NeuralHashは評判を落とすことになる。その発表の1カ月後、AppleはNeuralHashの取り組みを後退させた。

 画像スキャン機能が利用する機械学習は「さらに脆弱(ぜいじゃく)だ」と、Appleを批判する論文を発表した専門家チームは考える。機械学習のモデルとトレーニングエンジンは、膨大な数のクライアントデバイスでの運用を通じて洗練される。これを悪用した攻撃者が、特別な細工を施したデータセットで、トレーニングアルゴリズムを汚染させる恐れがあるからだ。

 これらの理由から、専門家チームは「人々のプライバシーと安全を不当な危険にさらすことなく、法執行機関に大きなメリットを提供する機能を設計することは難しい」という見解で一致している。技術の「段階的変化」であるクライアントサイドスキャンに対して、専門家チームは「保護を著しく損ない、われわれ皆の安全と安心を揺るがす」と述べた上で、「これは危険な技術だ」と結論付ける。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

ITmedia マーケティング新着記事

news148.jpg

天候と位置情報を活用 ルグランとジオロジックが新たな広告サービスを共同開発
ルグランとジオロジックが新たな「天気連動型広告」を共同開発した。ルグランが気象デー...

news130.jpg

“AI美女”を広告に起用しない ユニリーバ「Dove」はなぜそう決めたのか
Unilever傘下の美容ケアブランド「Dove」は、「Real Beauty」の20周年を機に、生成AIツー...

news099.png

有料動画サービス 34歳以下では過半数が利用経験、4割は1日1回以上利用
「ニールセン・ビデオコンテンツ アンド アド レポート 2024」を基に、テレビ画面での動...