Microsoftが語る機械学習の成果と懸念:機械学習でBad Rabbitを発見
「Bad Rabbit」をわずか14分で悪意のあるマルウェアであると立証するなど、Microsoftの機械学習利用は成果を上げている。だがサイバーセキュリティ分野のCTOのケリー氏は機械学習に懸念を抱いている。
セキュリティオペレーションセンターは、何兆件ものセキュリティシグナルを収集している。これらのシグナルが本格的なサイバー攻撃に変わる前に、それを悪意のあるアクティビティーとして警告する機械学習がある。この機械学習がなければ、こうしたシグナルを理解するのはセキュリティアナリストにとって途方もない作業になる。
例えば「Microsoft Azure」(以下、Azure)では、毎日6兆5000億件ものセキュリティシグナルが生まれる。同社には数百人のセキュリティ担当者がいる。だが、このように多くのデータポイントを解析することは人間の能力を超えている。そう話すのは、同社でサイバーセキュリティ分野のCTO(最高技術責任者)を務めるダイアナ・ケリー氏だ。
同氏はシンガポールで開催された「RSA Conference 2019 Asia Pacific & Japan」で本誌のインタビューに答えて次のように話した。「このような場合に役立つのが機械学習だ。攻撃についての情報の早期検出をサポートし、人間には見えないものを見つける」
Microsoftは複合検知やモンテカルロシミュレーションなどの技法を使って、正確性の低いシグナルを正確性の高いシグナルへと変えている。コンピュータは学習するにつれ、人間には分からないセキュリティイベントを検知するようになる。
関連記事
- 「AIは物理学を理解するのではない。パターンを理解する」が持つ重大な意味
- 米国にまん延する「AIでセキュリティの課題は解決」論の危険性
- Alexa対Googleアシスタント、完成度が高いのは?
- GPUより低コスト、ハイパフォーマンスのFPGAが抱える“泣きどころ”
- パターンを学習する「機械学習」でできること、できないこと
機械学習は、脅威対策のサイクルを速めるのに役立つ。だが、機械学習に携わる多様なチームを用意しなければ、データと脅威のモデルにバイアスが生まれ、犯罪者に攻撃の経路を与える恐れがある。
ケリー氏は、データに無意識のバイアスが生まれることを懸念している。ケリー氏は、履歴書を解析して候補者を特定する機械学習ツールを例に挙げた。男性従業員が多い企業の場合、データには既にバイアスが存在するという。
「コンピュータエンジニアリングやサイバーセキュリティの分野には男性が多い。男性従業員が多ければ、ツールは男性を優れた候補者であると判断するだろう」と同氏は話す。
「こうした現象は、ユーザーに金融情報を提供するオンラインサイトでも生じる。これまで男性の投資家が多かったという理由で、女性の投資家は投資の新しいチャンスについての情報が得にくい」(ケリー氏)
サイバー攻撃者は、被害者の判断を誤らせるために機械学習モデルが利用するデータを既に操作し始めている。
「攻撃者は、分類予定の画像の画素を単純に変えるなど、注目すべき攻撃を幾つか試している。その結果、人間に提供される分類が変わる恐れがある。攻撃者は分類方法の理解を試み、分類に影響を与えようとしている」とケリー氏は話す。
調査会社Gartnerによると、セキュリティに機械学習を早くから導入しているのは、マルウェア、ユーザー行動分析、エンドポイントセキュリティなどの分野だという。同社は、2025年までに機械学習をセキュリティ戦略に含めるのが当たり前になると予測する。
Copyright © ITmedia, Inc. All Rights Reserved.