2021年12月20日 05時00分 公開
特集/連載

iPhone「児童ポルノスキャン」計画の実現は「難しい」と専門家が断言する理由Appleの児童ポルノ対策が抱える問題【第4回】

Appleが設計した画像スキャン技術は、本来の児童ポルノを検出する目的ではない悪質な行為に悪用される可能性があると専門家が警告する。技術のどこに“欠陥”があるのか。専門家の指摘に沿って解説する。

[Duncan Campbell,TechTarget]

関連キーワード

Apple | データ分析 | iPhone | 脆弱性


 Appleは児童ポルノを摘発するための取り組みとして、スマートフォン「iPhone」内の画像を自動でスキャンし、該当画像があればAppleや法執行機関に報告する機能の実装を計画している。この機能の中核は、送信前にデータをスキャンしてテンプレートと照合する技術「クライアントサイドスキャン」(CSS:Client-Side Scanning)だ。この機能に対して専門家チームが論文を発表し、同社の取り組みと機能設計に問題があることを主張した。

 当初のAppleの計画では、画像スキャン機能は「知覚ハッシング」技術を利用して、クラウドストレージサービス「iCloud」内の画像と、政府が供給した指紋画像のライブラリを照合するものだった。知覚ハッシング技術とは、画像をビット単位で厳密に一致しているかどうかを調べるのではなく、類似性を調べる技術を指す。

iPhone「児童ポルノスキャン」計画の実現を阻む“欠陥”

 「NeuralHash」は、Appleが2021年8月に発表した、児童ポルノ画像を安全かつ確実に検出するための技術だ。だがNeuralHashが誤検知をすることや、この技術をリバースエンジニアリングして悪用可能なことを、同社の画像スキャン機能に批判的な研究者チームが実証した。

 研究者チームは、iPhoneのOS「iOS 14」に組み込まれたNeuralHashを2週間でリバースエンジニアリングした。その結果、画像スキャンの回避や誤検知が発生した。NeuralHashが全く異なる2つの写真画像を「一致する」と判断した例を、あるチームが示したことで、NeuralHashは評判を落とすことになる。その発表の1カ月後、AppleはNeuralHashの取り組みを後退させた。

 画像スキャン機能が利用する機械学習は「さらに脆弱(ぜいじゃく)だ」と、Appleを批判する論文を発表した専門家チームは考える。機械学習のモデルとトレーニングエンジンは、膨大な数のクライアントデバイスでの運用を通じて洗練される。これを悪用した攻撃者が、特別な細工を施したデータセットで、トレーニングアルゴリズムを汚染させる恐れがあるからだ。

 これらの理由から、専門家チームは「人々のプライバシーと安全を不当な危険にさらすことなく、法執行機関に大きなメリットを提供する機能を設計することは難しい」という見解で一致している。技術の「段階的変化」であるクライアントサイドスキャンに対して、専門家チームは「保護を著しく損ない、われわれ皆の安全と安心を揺るがす」と述べた上で、「これは危険な技術だ」と結論付ける。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

ITmedia マーケティング新着記事

news194.jpg

残念なブランド体験で8割の顧客は「もう買わない」――Sitecore調査
消費者にとって不都合な事象が発生した際にも、ブランドを好きでいられるのは10人に1人。

news131.jpg

ナイキとアディダスに学ぶ ファンを増やす企業文化とは?
スポーツにおけるトップブランドの座を巡ってし烈な競争を繰り広げてきたナイキとアディ...

news046.jpg

DXにおける「コンサルティング力」とは?
DXが加速する中でコンサルティング人材へのニーズが高まっています。DXにおける「コンサ...