ChatGPTをはじめとする生成AIツールは、企業にメリットだけではなくセキュリティリスクをもたらす可能性がある。サイバー攻撃者は、生成AIをどのように悪用しようとたくらんでいるのか。
テキストや画像などを自動生成するAI(人工知能)技術「ジェネレーティブAI」(生成AI)は、企業にどのような脅威をもたらすのか。サイバー攻撃者が、生成AIをどのように悪用する可能性があるのかをまとめる。
OpenAIが提供するAI技術を活用したチャットbot「ChatGPT」は、ソースコードの補完や要約、バグ検出の自動化に活用可能だ。企業は、攻撃者がこの能力に目を付け、脆弱(ぜいじゃく)性の特定に生成AIを悪用するのではないかと懸念し始めている。
他にも攻撃者は、「WhatsApp」のようなメッセージングアプリケーションやショートメッセージサービス(SMS)、メールを悪用した攻撃で生成AIを活用可能だ。こうした攻撃を通じて攻撃者は、標的とメッセージを自動でやりとりして信頼関係を築き、機密情報を入手する可能性がある。機密情報は文面で要求することも、標的にマルウェアのダウンロードリンクをクリックさせ、そのマルウェアを通じて収集することも可能だ。攻撃者はなりすましを目的として、以下のコンテンツ生成に生成AIを悪用する可能性もある。
一方で「攻撃者が生成AIを使ってマルウェアを開発できる」というのは短絡的な考えに過ぎない。現状、生成AIのプログラミング能力は限定的だ。例えば生成AIが作成した、関数型プログラミング(数学的な関数を組み合わせたプログラミング)のソースコードは、不正確であることが少なくない。プログラミング用に調整された生成AIであっても、プログラミング言語「Python」で簡単なソースコードは作成できるが、複雑なプログラミング言語やソースコードになると悪戦苦闘する場合が大半だ。
生成AIを用いたPythonでのマルウェア開発事例もあるが、開発用途における生成AIの実用性は、まだ限定的だという見方が強い。現状、攻撃者はマルウェア開発に生成AIを利用しても、既存のツールや技法を上回るメリットはほぼ得ることができない。
ただし生成AIがもたらす脅威を無視するわけにはいかない。ChatGPTの中核である「GPT」をはじめとする大規模言語モデル(LLM)は、人の会話を模倣することにおいて非常に優れている。生成AIが作成したテキストと人の会話を区別することは簡単ではない。
今後、より信頼性のあるAIモデルが誕生する可能性はある。生成AIがもたらす脅威に対処するには、先を見越して備えておくべきだ。
後編は、生成AIのリスクを防ぐために企業が取れるアプローチを紹介する。
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。
「α世代」はマーケターにとってなぜ重要なのか?
Razorfishのレポートによると、α世代の中でも比較的年齢が高い層は美容製品に強い関心を...
【B2Bマーケター困惑】資料請求サイト経由のリードの商談化率は10%以下 有効活用するには?
資料請求サイトを活用するのは費用対効果が合わないのでしょうか。また、商談につなげる...
「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年3月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。