ニュース
AWS、AIの偏見を防ぐ「Amazon SageMaker Clarify」を発表 AI倫理問題に対処:TechTarget発 世界のITニュース
AWSが発表した「Amazon SageMaker Clarify」は、機械学習モデルに内在するバイアスを検出する。昨今議論が激化している、AI技術に内在する差別問題への対処を支援する。
Amazon Web Services(以下、AWS)は2020年12月8日(現地時間) 、同社が提供する機械学習モデル構築ツール「Amazon SageMaker」の新たな機能「Amazon SageMaker Clarify」(以下、SageMaker Clarify)を発表した。SageMaker Clarifyを使うことで、エンドユーザーは機械学習モデルに含まれるバイアス(偏見)を軽減できるという。
併せて読みたいお薦め記事
技術は差別を助長するか
人工知能のバイアスを考える
- Amazon、Facebookも批判の的に 「公平・公正なAI」はなぜ難しいのか
- “偏り”がプラスに作用することも 「AI」のバイアスとどう向き合うか
- 採用担当者が認識すべき「AIのバイアス」という問題
「AI倫理」に関する議論の激化が背景に
機械学習では、モデルのトレーニングに使われたデータの偏りやアルゴリズムから、データにバイアスが生じる可能性がある。バイアスが存在すると、機械学習による予測精度は落ちる。
Copyright © ITmedia, Inc. All Rights Reserved.