検索
特集/連載

AIブームの「後始末」に備えよ IT部門が今から取り組むべき“4つの急務”「AIの尻拭い」をさせられるのは誰か

IT部門が今目を向けるべき事項は、「AIに仕事を奪われる」という懸念よりも、ブーム沈静化後の「後始末」だ。IT部門に押し付けられる「新たな責任」と、組織崩壊を防ぐために今すぐ打つべき「4つの防衛策」とは。

Share
Tweet
LINE
Hatena

関連キーワード

人工知能 | CIO | IT部門


 AI(人工知能)技術や自動化技術は、単なる業務効率化の手段ではない。これらはアプリケーション開発やネットワーク運用、データ管理における「IT担当者の責任範囲」を根本から変えようとしている。

 「IT担当者の仕事がAIに奪われる」という悲観的な予測があるが、現場の現実は異なる。AI技術の限界が露呈したとき、その穴を埋めるのは人間でなければならないからだ。CIO(最高情報責任者)やIT部門長は、いずれ訪れるAIブームの「揺り戻し」(過度な期待の修正)に備え、組織を再構築する必要がある。

 本稿は、IT運用におけるAI技術の台頭に伴ってIT部門が直面する「責任範囲のシフト」と、組織崩壊を防ぐために今すぐ着手すべき「4つのアクション」を解説する。

「AI失業」が起きない2つの理由

 AI技術による急速な自動化が進んでも、IT担当者の大半がAIツールに代替されることはないと考えられる。その理由は主に2つある。

  • 人材の再配置
    • 定型業務から解放された人材を、より人手を必要とする高付加価値な領域に再配置できるため。
  • AIの限界
    • 2027、2028年ごろまでに、AIブームの熱狂が冷め、技術的な限界や弱点が露呈するという見方がある。その際、欠陥を補完し、トラブルを収拾する「人間の能力」が不可欠になるため。

 AI技術への過度な依存は、将来的にIT部門への大きな技術的負債となる恐れがある。これら2つの視点に基づき、具体的に何が変わるのかを見ていこう。

IT業務における責任範囲のシフト

 AI技術と自動化技術の影響を最も受けやすいのは、アプリケーション開発とシステム運用だ。アプリケーション開発では、最低限のソースコードを記述する「ローコード開発ツール」、ソースコードを記述しない「ノーコード開発ツール」がAI技術を採用するようになっている。これによって、エンドユーザーは開発チームの手を借りずに自身でアプリケーションを開発できるようになる。システム運用においては、監視や定型処理の大部分が自動化される見通しだ。

 こうした変化を受けてアプリケーション開発者やシステム運用担当者が職を失う可能性はあるが、現実は異なる。彼らはリスキリング(新しい知識やスキルの習得)を経て、別の役割に再配置されることになる。

 人材のリスキリングと再配置を支持する根拠は強力だ。IT部門は慢性的な人材不足状態にあり、CIO(最高情報責任者)が予算会議で増員を要求することはますます難しくなっている。システム運用のメンバーをリスキリングし、ネットワークやITインフラの担当として再配置できれば、誰にとってもメリットのある解決策になる。

 同様の状況はアプリケーション開発者にも当てはまる。ローコード/ノーコード開発ツールの普及で人間の開発者が不要になれば、アプリケーション開発者はより高度な技術が必要な開発領域やデータ管理、AIシステム開発、品質保証(QA)、ITインフラといったアプリケーション周辺領域への転換が可能だ。

 こうした人材をリスキリングして維持する価値は、アプリケーション開発者やシステム運用担当者が持つ「自社とそのシステムに関する既存知識」にある。これは、新規採用者が持ち得ない貴重な資産だ。

迫り来るAIの「揺り戻し」

 分散コンピューティングやシステムの仮想化、クラウドコンピューティングがそうであったように、AI技術も目新しさや初期の熱狂が冷める時期が必ず訪れる。その時こそ、企業はAI技術が実務でどれほど機能しているかを冷静に検証し始めるだろう。

 すでにその兆候は表れている。企業がAIモデルの「ハルシネーション」(もっともらしいうそ)や事実誤認を認め始めたことはその一例だ。エンドユーザーや顧客が、人間との対話や複雑なビジネスプロセス、例外処理において「期待通りに動かない」AIツールや自動化ツールに失望するケースも出てきている。

 これらは新たな課題であり、その解消のために、アプリケーション開発者やQA(品質保証)担当者は従来のシステム管理とは異なるアプローチでAIシステムに関与しなければならない。CIOもこの状況を認識しており、大局的には業務責任の変化や従業員のリスキリングが身近な課題になることを理解している。では、その過程で発生し得る従業員の不安を、どうすれば軽減できるのか。

AIによる「業務と役割の変化」に備える4つのアクション

アクション1.従業員への情報共有を徹底する

 職務が再定義され、新しいスキルが求められるようになれば、従業員は不安を感じるものだ。不安を和らげる最善の方法は、オープンかつ頻繁にコミュニケーションを取ることだ。配置転換や責任範囲の変更対象となる従業員には今後のキャリアプランを提示し、技術変革の中で彼らがどこに位置付けられるのかを示す必要がある。

 万が一、役割を解かざるを得ない場合でも、社内で別の職を見つけるための機会を提供する。それが難しい場合は、社外での再就職を支援する。従業員は、こうした企業の姿勢をしっかりと見ているものだ。

アクション2.AIツール、自動化ツールの導入ペースに合わせてリスキリングを進める

 AIツールや自動化ツールが、一夜にして企業を変革するわけではない。そのため、IT担当者がリスキリングをする時間は十分にある。まずは、AIツールと自動化ツールの導入、活用に必要となるスキルや、各ツールの評価から始めよう。

 必要なスキルを特定できたら、現在のIT担当者を評価し、社内に該当するスキルを持つ人材がいるかどうかを確認する。いない場合は、誰がその領域のトレーニングを受けるべきかを決定する。AIツールや自動化ツールによる業務刷新が本格化する前に、IT担当者のリスキリングを先行して進めることで、企業の準備態勢を整えることができる。

アクション3.新たなガバナンスとセキュリティ慣行を定義する

 AI技術活用においては、既存のITガバナンスとセキュリティフレームワークの改訂が不可欠だ。AI倫理に関する政府や産業界のガイドラインは、現状ではまだ十分に整備されていない。そのため、企業は独自のガイドラインを策定し、従業員教育を実施する必要がある。

 AIモデルやデータに対するセキュリティ脅威も、ネットワークやシステムに対する従来の脅威とは異なる。AIモデル特有のセキュリティ侵害としては、悪意のあるプロンプト(指示)を与えて不正な操作を試みる「プロンプトインジェクション」、学習データを汚染する「データポイズニング」がある。こうした脅威からシステムを守るため、セキュリティ担当者はAI技術に適応した新たな検出、対処策を講じなければならない。

アクション4.QAのアプローチを見直す

 アプリケーションの本番稼働前には、IT部門とエンドユーザーがプロトタイプを検証し、自動テストスクリプトや負荷テストを用いて最終的な品質を確認するのが一般的だ。AIアプリケーションでは品質の目標基準が異なるため、この従来手法だけでは不十分だ。

 AIアプリケーションの実用化における目標基準としては、「同分野の専門家の回答を正解とした場合の正答率が95%を達成すること」などが挙げられる。もし精度が95%を下回り始めた場合、AIモデルの更新が必要になる可能性がある。

 AIモデルの精度が低下する理由はデータ品質の劣化、不適切なプロンプト、外部のビジネス環境の急激な変化など多岐にわたる。精度低下の原因が技術的なものか運用的なものかを見極めるには、QA部門とエンドユーザーが協力して対処に当たらなければならない。これからのQA担当者には、リリース後もAIアプリケーションを常時監視し続けること、問題解決のためにエンドユーザーとこれまで以上に密接に連携することが求められる。この役割を果たすために、QA担当者は対人スキルやAIツールへの習熟に取り組む必要がある。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る