予想的セキュリティの可能性と実現への壁Computer Weekly製品ガイド

AI(人工知能)は、予測的なセキュリティ対策や自動対応を実現できるといわれる。そうした見方がどの程度正確なのかを検証する。

2020年12月02日 08時00分 公開
[Paddy FrancisComputer Weekly]

 かつて、セキュリティ専門家がパケットのキャプチャーやログ分析を通じて不正侵入の発見や診断を試みていた時代があった。だが、未知のサイバー侵入を見つけ出すことは、干し草の山の中に散らばった針ほどの大きさの未知の物体を探そうとするようなものだと言った方が正確だ。

 現代のシステムは、参照して分析すべきイベント数が毎秒8000〜1万件、1日当たりでは10億件近くに達することもある。そうしたイベントの分析によって潜在的な攻撃を洗い出すためには、自動化が欠かせない。アラートを見たアナリストが、事態を掘り下げて把握できるようにその結果を視覚化し、アラートを理解して対策を立てられるようにする必要もある。

 SOC(セキュリティ運用センター)のほとんどは、定義ファイルベースのウイルス対策システムやIDS(侵入検知システム)から、ホストとネットワークの監視に基づいて異常を検知し、攻撃の兆候を探すAI(人工知能)ベースのツールに至るまで、さまざまな検出ツールや分析ツールを利用する。

 意思決定に対する支援も以前から存在している。ルールブックやシステムに関する知識(例えばネットワークアーキテクチャ、重要なサービスの提供や重要データの保存に使われているサーバ、特定の領域へのトラフィックを遮断するためのファイアウォールやプロキシ、IDSといったセキュリティ機能の配置など)に基づいて、ユーザーが取るべき行動を推奨できることもある。

 一部のプラットフォームは、人間の決定に従うことによって、あるいは人間を一切その枠組みから締め出すことによって、そうした行動を自動化し始めている。完全な自動化は分析時間の短縮につながるが、自動化された反応が予測可能になるリスクもある。

 その予測可能性を攻撃者が利用すれば、自分たちが検知されていることを察知したり、真の意図からそらせたり、攻撃を偽装することでサービスを妨害することさえできる。今のところ、それが起きていることを裏付ける証拠はない。だが間違いなく可能であり、可能性は非常に大きい。

AIの種類

 ウイルス対策やIDSなど、シグネチャ(定義ファイル)をベースとしたツールは今も幅広く使われているが、新しいツールのAI対応は今やほぼ必須となった。AIにはさまざまな種類があり、その中で最も一般的なのは機械学習だ。他にもニューラルネットワークや機械推論などがAIに分類される。一般的に、全てが決定論的ツールと確率論的ツールの2つの分類に当てはまる。シグネチャや分析的ユースケース、機械推論は判断の追跡が可能で結果が一貫していることから決定論に分類される。機械学習は統計や可能性に基づくことから確率論に分類される。

 機械学習は、大量のデータのパターン学習に基づいており、データセットは一般的に「良いデータ」の代表と「悪いデータ」の代表で構成される。データの量が多く、データの代表性が高いほど、結果の精度は高まる。この学習から引き出されたアルゴリズムは実世界のデータ処理に使われて、それが「良いデータ」か「悪いデータ」のどちらに見えるかを判断する。

 この結果は少なくとも数十の変数に基づいており、それぞれが独自の基準を持っている。これは顔認識やがんのスキャン検査の分析といった、定義が明確な問題には十分通用するが、うまく定義されていない問題、特に文脈が重要な問題にはあまり通用しない。

 顔認識を例に取ると、自分が探していること、すなわち特定の顔を探していることははっきりしており、顔はわずか80の節点で定義できる。それでも一部のシステムは誤認識率が高い。サイバー攻撃はこれに比べると複雑性が高く、個々のシステムの文脈も必要とする。

 だからAIは使うべきではないと言っているわけではない。個々のツールの機能やそのツールが提供するもの、全体の中でどうフィットするのかを理解して、そのタスクのために適切なツールを選ばなければならない。

 さらに、機械学習ベースのツールがどの程度効果的なのかは、導入した後でなければ判断できない。誤検出率はトレーニングデータと特定のネットワーク特性の一致次第で幅がある。もしも誤検知率が引き合いに出されたら、その数字を引き出すためにどんなデータが使われたのかを理解することが重要だ。

 アラートが出たときは、そのアラートを発生させているイベントをアナリストに調査してもらうことが不可欠になる。機械学習システムは、特定のシステムに順応する助けになり得るが、使える状態になるまでには一定の学習期間を必要とする。

 別のAI技術に基づく異常検知システムにも同じことが言える。異常はシステムの文脈やユーザーの種類、事業の性質によって大きく異なる。

 それでもわれわれは、検知や意思決定、反応といった分野でAIベースのシステムへの依存性を強めている。攻撃にできる限り迅速に対応することは重要であり、AIシステムは急速に進化しつつあるものの、その位置付けはアナリストが潜在的攻撃を発見するためのサポートツールや、意思決定を支援するツールにとどまる。

 攻撃への対応に関する意思決定には、単なる技術的見地だけでなく、ビジネス的な文脈も求められる。CEOが経営上の重大な交渉を行っている最中に、誤検知が原因で会議システムが自動的にダウンしたら、安泰でいられるCISO(最高情報セキュリティ責任者)はいないはずだ。

予想的セキュリティ

 AIと自動化が提案されているもう一つの分野は予測的セキュリティだ。そうしたシステムはまだ登場したばかりで、その仕組みに関して現実的な判断ができるほどの十分な情報は存在しない。

 2001年7月初め、私は「Internet Information Services」(IIS)に対する潜在的脅威に関する情報を目にした。これは、誰かが新しい悪用コードをテストしているらしいという情報に基づいていた。私はこれを自分のプレゼンテーションに盛り込み、IISに対する大規模な攻撃が2週間以内に起きるだろうと予測した。

 その年の7月19日までに、IISを実行していた35万台以上のマシンが「Code Red」に襲われた。予測とタイミングに関してこれほど幸運だったことはない。予測システムが見つけて活用しようとしているのは、この種の初期の動向だと思う。

 このコンセプトは、脆弱(ぜいじゃく)性管理の自動化にやや似ている。AIを使えば、世界中の何十万というエンドポイントから大量のデータをかき集めて検索し、脆弱性悪用の兆候を見つけて脆弱なエンドポイントを特定できる。そうすればパッチを適用したり、緩和策を講じたりすることができる。

 この戦略が成功する可能性はあるが、大量のデータを必要とするので現実的には一部の大手サイバーセキュリティ企業によるサービスとしてしか提供できない。そのデータは、世界中から収集する必要があり、事業内容や政治制度には可能な限りの多様性を持たせなければならない。

 これは司法当局(中でも米国の司法当局)が犯罪や犯罪者を予測するために利用する予測的セキュリティともある程度の類似性がある。そうしたシステムに関する予測的サイバーセキュリティの問題は、GDPR(EU一般データ保護規則)や個々のホストから収集してクラウドで分析するデータから引き出される個人情報の保護に関わる倫理的なものになりそうだ。これは間違いなく、GDPRの観点からの検証を必要とする。誤検知と自動化のリスクも依然として残る。

慎重な歩み

 サイバーセキュリティにおける機械学習の利用は過去数年で大きく進歩し、重要性は確実に増大しつつある。だが、ちまたには大量のソリューションが存在しており、中には検証が難しいものやうたい文句通りとは思えないものもある。適切な技術を使うように慎重を期すこと、導入する前に性能を見極めることが大切だ。

 意思決定支援は重要だが、その意思決定プロセスからアナリストを外す前に確信を強めておく必要がある。予測的セキュリティはプライバシー問題ももたらす。だがそうしたシステムは大きな威力が実証されるかもしれない。その予測の方が私の予測より大きな成功を収めるということだけは、私にも予測できる。

ITmedia マーケティング新着記事

news077.jpg

「気候危機」に対する理解 日本は米国の3分の1
SDGsプロジェクトはTBWA HAKUHODOのマーケティング戦略組織である65dB TOKYOと共同で、「...

news058.jpg

アドビ、Adobe Firefly機能搭載の「Adobe Express」モバイル版アプリを一般提供
アドビは、生成AI「Adobe Firefly」の機能を利用できる「Adobe Express」モバイル版アプ...

news141.jpg

2度あることは3度あった GoogleのサードパーティーCookie廃止再延期にアドテク各社がコメント
Googleは2024年末までに完了する予定だったWebブラウザ「Chrome」でのサードパーティーCo...