検索
特集/連載

アクセンチュアが考える「生成AI」の“リスク“こそ大切な理由AIを取り巻くリスクとチャンス【前編】

ビジネスにおいて生成AIを活用する動きが広がる中で、生成AIのリスクに適切に対処することが欠かせなくなりつつある。専門家が特に懸念する生成AIのリスクを解説する。

Share
Tweet
LINE
Hatena

関連キーワード

人工知能 | データ


 本連載は、ITコンサルティング会社Accenture(アクセンチュア)で責任あるAIのグローバルリードを務めるアルナブ・チャクラボルティ氏と、データとAI部門のトップセンティル・ラマーニ氏による寄稿を基にしている。

 テキストや画像などを自動生成するAI(人工知能)技術「生成AI」(ジェネレーティブAI)は、人々にとって身近な存在になった。AIベンダーOpenAIの「Chat GPT」をはじめとするAIチャットbotは急速に普及し、Microsoftのオフィススイート「Microsoft Office」が搭載する生成AIツール「Microsoft 365 Copilot」は、文書や表の作成を代行するようになった。

 ビジネスにおける生成AI活用は待ったなしだ。Accenture(アクセンチュア)が2021年8月〜9月にかけて1615人の経営幹部を対象に実施した調査では、企業が成長のために投資する技術分野としてAI技術がトップになった。

 生成AIを扱う企業はそのリスクや規制動向にも目を向ける必要がある。Accentureが2022年4月〜5月にかけて1700人の幹部を対象に実施した調査では、97%の経営者が「生成AIに関する規制は企業に一定の影響を与える」と予測した。

なぜ「生成AI」の“リスク”こそ大切なのか?

 生成AIをビジネスに取り入れる企業が注意すべきリスクには、以下のようなものがある。

  • 大規模言語モデル(LLM)に入力した機密データの漏えい
  • ディープフェイク(本物の人物を偽装する偽情報)
  • 生体認証の不正操作
  • データポイズニング(AIモデルの学習データに誤ったデータを混入させる攻撃手法)

 特にディープフェイクを検出する技術はまだ発展途上であり、専門家は強い懸念を示している。複数のAIベンダーやユーザー企業は生成AIが生成したコンテンツに「電子透かし」を付ける提案をするなど、解決策を探っている。

 学習データの偏りについても考慮する必要がある。スタンフォード大学(Stanford University)が2023年5月に発表した研究では、生成AIを用いて文章中の盗用箇所を検出する盗用検出ツールの事例が取り上げられた。この盗用検出ツールを用いると、英語が母国語の著者による文章についてはほぼ正確に盗用か否かを評価できた一方で、母国語が英語以外の著者が作成した文章については判定精度が劣り、盗用と誤判断しやすい傾向があったという。AIモデルは基本的にアルゴリズムとデータに依存するため、学習用のデータセットが偏見や差別、社会的に不適切な要素を含む場合、その動作や出力結果も偏見や差別を助長してしまう可能性があるのだ。

 上述した懸念を抑制し、生成AIの価値を最大限引き出してビジネスを成功させるために重要なのが「責任あるAI」(AI技術の利用において公平性や透明性、安全性の確保を考慮すること)だ。企業は責任あるAIのフレームワーク(枠組み)を確立し、AI技術の設計や運用に関する明確なガイドラインを提供することが不可欠だ。AI技術の信頼性を高めることで、企業の積極的な生成AI利用、ひいてはイノベーション促進といったポジティブな影響を社会にもたらすことにつながる。


 後編は、責任あるAIを実現する上で必要になることと、経営幹部の生成AIに対する視点を解説する。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る