「生成AI」が招く“4大リスク”とは? 医療現場は要注意医療現場の「生成AI」活用例と注視すべき点【後編】

コミュニケーションが頻発する医療現場では、対話が可能な生成AIへの期待が高まりつつある。ただし医療機関が生成AIを活用するに当たっては、幾つかの課題を考慮する必要がある。4つのリスクにまとめて紹介する。

2023年11月30日 08時00分 公開
[John BurkeTechTarget]

関連キーワード

人工知能 | チャットbot | 医療IT | 機械学習


 社会のさまざまな場面で、テキストや画像などのデータを自動的に生成するAI(人工知能)技術「生成AI」(ジェネレーティブAI)を活用する動きが広がりつつある。患者や介護者とのコミュニケーションが頻繁に発生する医療分野も例外ではなく、生成AIを活用できる可能性がある。ただし、使用に当たって考慮すべき4つのリスクがある。

1.間違った情報

 AIベンダーOpenAIが開発したチャットbot型AIサービス「ChatGPT」をはじめとした生成AIツールが使用する大規模言語モデル(LLM)は、事実と異なる回答の基になる可能性がある。医療分野で生成AIを使うに当たっては、事実と異なる回答を見過ごすことはできない。「この患者はペニシリンに対してアレルギーがない」と生成AIが回答したものの、事実はその逆であった場合、致命的なことになりかねないからだ。

2.コスト

 生成AIツールや、それを稼働させるデータセンターの運用に掛かる費用は膨らみがちだ。特に医学的なコミュニケーションを実施可能なAIチャットbotは、一般的な話題を扱うAIチャットbotよりも、導入と維持に掛かる費用が高くなる可能性がある。

3.プライバシー

 サイバー攻撃者がAIチャットbotに侵入し、患者個人を特定できるような個人情報を流出させる場合がある。サイバー犯罪者がAIチャットbotで取得する情報の中には、患者がAIチャットbotに話した質問や回答も含まれる。患者の健康記録に関するデータが流出した場合は、病院や薬局が訴訟や罰金のリスクにさらされることになる。

4.法的な枠組み

 AI技術を搭載するソフトウェアが、医療分野において重要な情報を扱ったり自律的な役割を担ったりすることを正当化する、法的な枠組みや規制は存在しない。AI技術を搭載するソフトウェアを使用する企業が被る可能性のある損失を軽減する保険の仕組みも整っていない。

 医療業界では、生成AIに期待する声が少なくない。生成AIの活用拡大に向けて、生成AIに関する規制やポリシーの策定が必要だ。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news061.png

高齢男性はレジ待ちが苦手、女性は待たないためにアプリを活用――アイリッジ調査
実店舗を持つ企業が「アプリでどのようなユーザー体験を提供すべきか」を考えるヒントが...

news193.jpg

IASがブランドセーフティーの計測を拡張 誤報に関するレポートを追加
IASは、ブランドセーフティーと適合性の計測ソリューションを拡張し、誤報とともに広告が...

news047.png

【Googleが公式見解を発表】中古ドメインを絶対に使ってはいけない理由とは?
Googleが中古ドメインの不正利用を禁止を公式に発表しました。その理由や今後の対応につ...