検索
特集/連載

「とりあえず生成AI」が会社を潰す――情シスが急ぐべき“4つの統制”AI活用を阻むリスクの正体

AI導入を進める企業が増える中、技術・運用・倫理・規制の各側面でリスクが顕在化している。本稿は、設計・開発から保守・監視までの各段階に潜む課題と対策を整理する。

Share
Tweet
LINE
Hatena

 人工知能(AI)ツールの導入をとにかく進めたい経営層や現場の従業員。一方で、情報システム部門的にはさまざまなリスクが思い浮かぶ――。

 本稿は、AIのリスクを「技術」「運用」「倫理」「規制」の4種類に分け、「設計・開発」「展開」「保守・監視」の各段階に存在するリスクを対策とともに整理する。

会社を潰す4つのAIリスク

技術に関するリスク

 AIのリスク管理でまず大切なのは、段階ごとに論点を切り分けることだ。設計・開発段階では、学習データの質が結果を左右する。データが不完全だったり偏っていたり、改ざんされていたりすると、モデルは誤った出力を返す。医療診断AIが不十分なデータで学習すれば、患者に危険な判断を返す恐れがある。

 サイバー犯罪者がAIモデルへの指示に不正な命令を紛れ込ませる手法「プロンプトインジェクション」、LLMに入力した内容と出力された内容を基に、モデルを複製したり知的財産を盗み出したりする攻撃もある。そこで、AI固有のサイバー攻撃を前提にした運用の設計が必要だ。

運用面でのリスク

 運用面では、既存システムとの統合と継続監視が焦点になる。顧客対応用のAIツールとCRM(顧客関係管理)ツールが連携できなければ、顧客情報は分断される。

 保守・監視段階では、性能低下や時間の経過とともにデータが現実の状況を正確に反映しなくなる「モデルドリフト」に気付かなければ、誤った判断を長く出力し続ける。

倫理的なリスク

 採用で使うAIツールが特定のカテゴリの人々を不当に扱うバイアス(偏見)に基づいた出力をする恐れがある。監視カメラや医療システムのように、顔画像や診療情報を扱うAIツールではプライバシー侵害の懸念もある。AIツールが誤った判断をしたとき、誰が責任を負うのかを曖昧にしないことも大切だ。

規制面でのリスク

 以下に準拠せずにAIツールを使用している場合、訴訟のリスクやレピュテーションリスクを抱え続けることになる。問題が発生した場合に備えて、説明できるように準備しておく意味は大きい。

  • EU(欧州連合)の一般データ保護規則(GDPR)
  • 米国立標準技術研究所(NIST)のAIリスク管理フレームワーク「NIST AI Risk Management Framework」(AI RMF)
  • 国際標準化機構(International Organization for Standardization)が定めるISO/IEC 42001
    • AI管理システムの確立や実装、維持、継続的な改善を通じて、AI技術の透明性と倫理的利用を確保するための国際標準規格。

 では、何をすればいいのか。例えば金融機関の与信AIにバイアスがあれば、不当な審査結果が出力され、結果的に罰金刑や売り上げの減少、顧客離れ、訴訟が起こり得る。そこで、AIツールを使うことで発生する可能性があるリスクと事業内容で優先順位を付け、現状を把握し施策を検討する。

 対策もリスクに合わせて考える。技術面では、データの検証や暗号化が不可欠だ。説明可能なAIモデルを導入することも大切になる。そうしたAIモデルを実現する手法の一例である「LIME」(Local Interpretable Model-agnostic Explanations)は、AIモデルへの入力データを少しずつ変化させてその出力結果を分析することで、どの要素がAIモデルの意思決定に影響を与えているのかを可視化する手法だ。複雑なAIモデルの予測根拠を各入力要素の貢献度として算出し、人間が直感的に理解できる形にする手法「SHAP」(SHapley Additive exPlanations)も有用だ。

 運用面では、LLMの性能の監視、障害が発生した場合の対応計画、人間が介入する基準を明文化するといった対策を立てておく。

 倫理面では、学習データと出力の定期的な監査、製品やサービスの企画段階から個人情報の保護を考慮した上で開発を進める「プライバシーバイデザイン」、重要な判断における人間の最終確認を欠かさないようにする。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る