検索
特集/連載

生成AIが「賢くも危険でもない」と専門家が語るのはなぜ?データセンターは生成AIでどう変わるのか【後編】

生成AIの導入は、企業に業務効率化といったメリットだけではなく、リスクももたらすという見方がある。企業は生成AIを活用する際、何に気を付ければよいのか。業界関係者の見方を紹介する。

Share
Tweet
LINE
Hatena

関連キーワード

人工知能 | データセンター | 機械学習


 入力された指示を基にテキストや画像を生成する人工知能(AI)技術「生成AI」(ジェネレーティブAI)を企業のデータセンターで活用するための取り組みが進みつつある。ただし生成AIの活用をリスクだと捉える風潮もあり、生成AIとの向き合い方はさまざまだ。業界関係者は現状をどう見ているのか。

生成AIは賢くも危険でもないのか?

併せて読みたいお薦め記事

連載:データセンターは生成AIでどう変わるのか


 英国のコンサルティング企業BML Digitalで最高技術責任者を務めるジャコ・フェルミューレン氏は次のように説明する。「生成AIは、基本的にはデータベースの検索以上に高度なシステムへのアクセス権限を必要としない。LLM(大規模言語モデル)を用いた生成AIツールでデータを処理する場合、分析結果の解釈やモデル開発の工程には人間が介在する必要があるが、その作業そのものはセキュリティリスクではない」

 生成AIは、学習済みのデータから特定のデータを選び出して出力するシステムに過ぎない。「ユーザー企業のニーズに合わせた学習データを用意しなければ、どのような生成AIツールを利用しても、ほぼ同じ出力結果を導き出す」とフェルミューレン氏は説明する。

 コンサルティング会社Profusionでエンジニアリング部門の責任者を務めるロブ・ファロー氏によれば、大半のAIモデルの学習では同じ手法を繰り返す。AIモデルの学習データを自動生成したり、自己学習したりする能力の開発が進めば、AIツールがフェイルセーフ(故障や誤作動があった場合の安全性を確保すること)機能やキルスイッチ(安全確保のための緊急停止)を必要とするほどの脅威になる可能性がある。ただしファロー氏は、それが10年以内に実現する可能性は低いとみており、「AIモデルには人間に危険を及ぼすほどの複雑さや、人間の知性のようなものはない」と語る。

データセンターで生成AI技術を利用するときの注意点

 生成AIツールの複雑さが増すことで、ツールが意図しない挙動を起こす可能性が増す。このことはソフトウェアの開発中に、ソフトウェアの動作や開発工程の透明性を高める必があることを示している。作成するソースコードの量を減らし、可能な限りシンプルな構造にすることは、AIツールの透明性を高めるのに役立つ可能性がある。ただしこうした構造にすることで、ツールの機能が限られる可能性があるとファロー氏は指摘する。

 ファロー氏は、大規模なデータ処理が可能なインフラを用意せずに生成AIプロジェクトを開始することに警鐘を鳴らす。それと同時に、データセンターで機械学習などのAI技術を使って将来起こり得ることの予測精度を高め、システム全体でのコスト削減を実現することで、電力や処理能力、ストレージへの影響に対処することを提案している。

 「Amazonの一部のデータセンターには数千台のバッテリーを備えるソーラーパネルがある。このパネルは機械学習技術を使い、効率的に太陽エネルギーを取り込んでいる」(ファロー氏)

 ファロー氏は次のように警告する。「企業がやみくもに生成AI技術や機械学習技術に飛び付くと、AIモデルのトレーニングや学習データの収集に失敗したり、AIシステムの監査や透明性の確保がうまくいかなかったりする可能性がある」

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る