2023年11月30日 08時00分 公開
特集/連載

「生成AI」が招く“4大リスク”とは? 医療現場は要注意医療現場の「生成AI」活用例と注視すべき点【後編】

コミュニケーションが頻発する医療現場では、対話が可能な生成AIへの期待が高まりつつある。ただし医療機関が生成AIを活用するに当たっては、幾つかの課題を考慮する必要がある。4つのリスクにまとめて紹介する。

[John BurkeTechTarget]

関連キーワード

人工知能 | チャットbot | 医療IT | 機械学習


 社会のさまざまな場面で、テキストや画像などのデータを自動的に生成するAI(人工知能)技術「生成AI」(ジェネレーティブAI)を活用する動きが広がりつつある。患者や介護者とのコミュニケーションが頻繁に発生する医療分野も例外ではなく、生成AIを活用できる可能性がある。ただし、使用に当たって考慮すべき4つのリスクがある。

1.間違った情報

 AIベンダーOpenAIが開発したチャットbot型AIサービス「ChatGPT」をはじめとした生成AIツールが使用する大規模言語モデル(LLM)は、事実と異なる回答の基になる可能性がある。医療分野で生成AIを使うに当たっては、事実と異なる回答を見過ごすことはできない。「この患者はペニシリンに対してアレルギーがない」と生成AIが回答したものの、事実はその逆であった場合、致命的なことになりかねないからだ。

2.コスト

 生成AIツールや、それを稼働させるデータセンターの運用に掛かる費用は膨らみがちだ。特に医学的なコミュニケーションを実施可能なAIチャットbotは、一般的な話題を扱うAIチャットbotよりも、導入と維持に掛かる費用が高くなる可能性がある。

3.プライバシー

 サイバー攻撃者がAIチャットbotに侵入し、患者個人を特定できるような個人情報を流出させる場合がある。サイバー犯罪者がAIチャットbotで取得する情報の中には、患者がAIチャットbotに話した質問や回答も含まれる。患者の健康記録に関するデータが流出した場合は、病院や薬局が訴訟や罰金のリスクにさらされることになる。

4.法的な枠組み

 AI技術を搭載するソフトウェアが、医療分野において重要な情報を扱ったり自律的な役割を担ったりすることを正当化する、法的な枠組みや規制は存在しない。AI技術を搭載するソフトウェアを使用する企業が被る可能性のある損失を軽減する保険の仕組みも整っていない。

 医療業界では、生成AIに期待する声が少なくない。生成AIの活用拡大に向けて、生成AIに関する規制やポリシーの策定が必要だ。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news180.jpg

電通「2023年 日本の広告費」 総広告費、インターネット広告費は2年連続で過去最高に
電通が「2023年 日本の広告費」を発表しました。主なトピックスを抜粋して紹介します。

news041.jpg

2024年の広告業界大予測(無料eBook)
Forrester Researchは2024年を「大手メディアが活気を取り戻す瞬間」としています。マー...

news196.jpg

アニメ世界の「ワクドナルド」が公式に McDonald'sが日本人アーティストのAcky Bright氏と始めたこと
McDonald'sがアニメやマンガでよく描かれる「WcDonald's(ワクドナルド)」をオマージュ...