検索
特集/連載

医療関係者が知っておくべき「生成AI」の“4大リスク”とは?医療分野での「生成AI」活用例【後編】

医療分野における生成AIの活用が広がる中で、医療関係者は生成AI活用に伴うさまざまなリスクを知っておく必要がある。生成AI活用において注意すべきリスクとは。

Share
Tweet
LINE
Hatena

関連キーワード

人工知能 | 医療IT | 機械学習


 画像や文章を生成するAI(人工知能)技術「生成AI」(ジェネレーティブAI)は、医療現場の業務を大きく変える可能性を秘めている。生成AIを使うことで、業務にかかる時間が大幅に短縮したり、人間が判断するよりも多くのデータを基にして判断を下したりできるようになると期待できる。

 ただし医療現場で生成AIを使う場合に考慮すべき点は、明るい面ばかりではない。生成AIの進化が医療現場にもたらすリスクや、負の側面についても幾つか押さえておくべきポイントがある。

医療における生成AI活用で注視すべきリスク

 医療分野での生成AI活用には期待が集まる一方、患者の健康や生命を扱う分野で使用するという理由から、リスクが伴う。医療技術の専門家は、医療分野における生成AIの使用に対して、厳格なガバナンスと監視が必要だと強調する。

 「他の業界と比べて、医療分野での生成AIの活用はより多くのリスクを伴うため、慎重な検討が必要だ」。コンサルティング企業Ernst & Young Global(EY)でグローバルチーフイノベーションオフィサーを務めるジェフ・ウォン氏は、そうした意見を示した上で、「規制の問題に加えて、人々の健康や生活といった医療の本質を脅かさないことが前提だ」と強調する。ウォン氏が例示するのは、以下のリスクだ。

  1. プライバシーの侵害
    • 医療分野で生成AIを使用するには患者のデータが必要になるが、患者のデータの取り扱いにはプライバシーの保護やセキュリティ上の問題が伴う。アフカミ氏によると、HIPAA(米国における医療保険の相互運用性と説明責任に関する法令)をはじめとした規制は、データの取り扱いに対して厳格なガイドラインの順守と、患者のプライバシーを保護することを義務付けている。生成AIの使用においても、そうした規則を順守しなければならない。
  2. データの偏り
    • 生成AIが出力するデータの正確さは、基となるAIモデルの訓練データに依存する。訓練データに不完全さや偏りがあった場合、出力するデータにも偏りが出る可能性がある。
  3. 不正確な結果とハルシネーション
    • 生成AIは偏った結果だけではなく、不正確な結果や幻覚(ハルシネーション)を生むことがある。そのような結果に基づいた処置や治療は大きな問題を引き起こす可能性があり、医療における生成AI利用の重大なリスクだと言える。
  4. コスト
    • 米国の医療費は同国における政策の論点の一つだ。生成AIは医療費削減の可能性を秘めている。一方で、生成AIの開発、訓練、管理、更新には、時間や人材、資金といった莫大(ばくだい)なリソースが必要だ。全医療機関がそのコストを負担できるかどうかには疑問の余地がある。かかる病院によって、患者が質の高い医療を享受する機会に差が生じる恐れもある。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る