検索
特集/連載

ChatGPTは「セキュリティの敵」だからこそ頼れる? その理由とはAIは誰にとっても「武器」になる【前編】

企業に大きな変化をもたらしている人工知能(AI)技術は、セキュリティの在り方も変えようとしている。リスクを生み出すAI技術とは、企業にとってどのような存在なのか。

Share
Tweet
LINE
Hatena

 2023年3月、人工知能(AI)技術ベンダーOpenAIの大規模言語モデル(LLM)「GPT-4」が公開された。AI技術の進化は企業のセキュリティに新たな可能性をもたらすものの、攻撃に悪用される恐れもある。セキュリティの観点から、AI技術を巡る可能性と課題を整理しよう。

ChatGPTが敵だからこそ頼れるのはなぜ?

 2023年4月に米国で開催されたセキュリティイベント「RSA Conference 2023」では、AI技術が主要なトピックとなった。セキュリティ専門家は、攻撃への悪用や偽情報の生成など、AI技術によるリスクを指摘した。例えば、人の心理を操る「ソーシャルエンジニアリング」攻撃の実施に当たり、GPT-4の前身である「GPT-3.5」がフィッシングメールの作成に使われた事例があるという。

 一方でAI技術には、セキュリティ強化に生かせる側面もある。セキュリティベンダーCybereasonのバイスプレジデント兼CISO(最高情報セキュリティ責任者)のグレッグ・デイ氏は、「AIチャットbot『ChatGPT』はもろ刃の剣だ」と述べる。同氏によると、AI技術はペネトレーションテスト(侵入テスト)に活用することで、安全なアプリケーション開発に役立てることができる。

 RSA Conference 2023のセッションでバージニア大学(University of Virginia)4年生のポール・バン氏はGPT-4について「GPT-3.5よりソースコード生成の効率が高く、自らの判断に対する説明も充実している」と語った。AI技術をセキュリティの強化に利用するに当たり、OpenAI のツール「Playground」が有効だと同氏は説明する。

 Playgroundは、AIチャットbotのモデルや、微調整のために再学習を受けたモデルなど、さまざまな種類のLLMと対話するためのツールだ。ユーザーはこれを使うことで、複数のモデルの組み合わせをテストできる。バン氏は、「自社独自のAIモデルを構築するとき、セキュリティの強化を目指したチューニングが可能だ」と言う。


 中編は、MicrosoftがAI技術をどのように製品に取り入れているかを紹介する。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る