検索
PR

生成AIの“野放し利用”が招くリスク 安全に活用するためにできること導入が進む生成AI、活用時のリスクに備えよ

従業員が企業の許可なく生成AIツールを利用する「シャドーAI」が後を絶たない。進化が速く、「規定のひな型」が存在しない生成AIツールに対して、効果的な利用ガイドラインを作る近道と、リスク管理の要所を解説する。

PC用表示
Share
Tweet
LINE
Hatena

 企業の生成AI(人工知能)活用は、試行フェーズを終えて本格的な活用フェーズへと移行しつつある。情報漏えいなどのセキュリティリスクを考慮して、自社で生成AIシステムを構築する動きが見られる一方、従業員が勝手に外部の生成AIツールを業務利用する「シャドーAI」も目立つ。これに対して、セキュリティリスクを懸念する声が上がっている。

 AI技術は進化が速く、用途やデータ管理ポリシー、法規制によって気を付けるべき点が異なる。そのため、利用方法に画一的な“ルール”は存在しない。企業は自社の要件を踏まえて、生成AIツールの利用を管理するための基準を作る必要がある。生成AI活用に伴うさまざまなリスクに、企業はどう対策を取るべきなのか。


提供:株式会社日立ソリューションズ
アイティメディア営業企画/制作:アイティメディア編集局

ページトップに戻る