あの業界が「生成AI」をまだ使わないのは当然? “焦りは禁物”の訳:用心深さが「生成AI」成功の鍵【前編】
生成AIの利用が急速に拡大している。ただし早急な導入にはリスクが伴うため、特定の業界は生成AIの導入を慎重に進める必要がある。特にどのような点に注意が必要なのか。
テキストや画像などを自動生成するAI(人工知能)技術「生成AI」(ジェネレーティブAI)は、日常生活の一部として浸透しつつある。生成AIツールとしては、OpenAIの「ChatGPT」やGoogleの「Bard」などがある。ChatGPTは2023年1月末時点で1億人以上のアクティブユーザーを獲得するなど、生成AIツールは急速に普及している。
こうした状況を踏まえて、企業が「すぐにでも生成AIを使用したい」と考えるのは自然だが、焦りは禁物だ。まず企業が考えなければならないリスクや規制動向がある。
あの業界は「生成AI」導入をどう進めるか
併せて読みたいお薦め記事
生成AIと各業界
法律事務所Ropes & Grayでパートナーを務めるレジーナ・サム・ペンティ氏は、科学技術誌「MIT Technology Review」が2023年5月に開催したカンファレンス「EmTech Digital 2023」のパネルディスカッションで、次のように語った。「ビジネスプロセスの中には、生成AIの活用が明らかに理にかなっているものもあれば、より繊細で慎重な意思決定を必要とするものもある」
既存の法律や規制の大半は、バイアス(偏見)など、AI技術の潜在的なリスクについて明確には言及していない。だが規制が強化される動きはある。米国における公正な取引を監督、監視する政府機関の米連邦取引委員会(FTC)は、例えば以下の点について調査を進めている。
- AI技術の不適切な使用による公正信用報告法(FCRA)や信用機会均等法(ECOA)の違反があるかどうか
- 消費者信用や雇用、住宅、保険を取り扱う企業が、偏っているか説明性に欠けたアルゴリズムを使用していないかどうか
AI技術に関する規制が厳格化する状況を踏まえると、規制の厳格な順守が求められる金融業界や医療業界で生成AI導入がなかなか進まないのは当然と言える。一方で、大量の機密データを扱うこれらの業界にとって生成AIや大規模言語モデル(LLM)は無視できない存在だ。そのため適切に管理されているツールを使用して、リスクを軽減する仕組みを検討すべきだ。
生成AI導入を検討する企業はリスクを抑えるために、具体的に以下のようなポイントに注意する必要がある。
- 透明性
- 生成AIは質問や問い合わせごとに異なる回答を出力する傾向がある。このような生成AIの特性は、ビジネスの意思決定にリスクをもたらす可能性がある。
- 教師データの新しさ
- 一般的に生成AIの回答は過去の情報に基づいているため、回答内容が古い場合がある。例えばChatGPTのトレーニングに使われる学習データは2021年9月時点の情報に基づいているため、最新の情報を反映していない回答を生成する可能性がある。
- 正確性
- 生成AIはしばしば誤った情報を出力する。ユーザーは、生成AIから望ましい出力を得るための適切なプロンプト(情報生成のための質問や指示)を開発することで問題への対処を試みる。
- 運用コスト
- 生成AIを利用すると運用コストが膨らむ場合がある。例えばChatGPTはMicrosoftのクラウドサービス群「Microsoft Azure」で利用できるが、Microsoft Azureの利用にはその分の利用料金が必要になる。
後編は、銀行大手JPMorgan Chaseが生成AI導入をどう進めるのか、事例を紹介する。
TechTarget発 世界のインサイト&ベストプラクティス
米国TechTargetの豊富な記事の中から、さまざまな業種や職種に関する動向やビジネスノウハウなどを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.