AIの技術的限界「表情は読めるが、感情は読めない」がもたらす深刻な問題「感情分析AI」の倫理的問題【後編】

感情分析にAI技術を生かそうとする動きがある。一方で幾つかの研究は、AI技術が人の感情を正確に判断できていない可能性を示唆している。こうした中で起こり得る問題とは。

2022年07月15日 05時00分 公開
[Mike GleasonTechTarget]

 感情を分析するAI(人工知能)技術の効果や倫理に関する議論は尽きない。たとえAI技術を実装したソフトウェアが人の表情を正確に読み取ったとしても、その感情を正確に判断できない可能性がある。

「感情分析AI」の限界とは 研究結果の気になる中身

 ノースイースタン大学(Northeastern University)の心理学教授リサ・フェルドマン・バレット氏のチームが2019年に発表した論文「Emotional Expressions Reconsidered: Challenges to Inferring Emotion From Human Facial Movements」によれば、顔の表情の信頼性には限界がある。例えば、しかめ面は怒りだけではなく、困惑や集中を表している可能性がある。文化や個々の状況も、人の感情表現に影響を与え得る。

 顔認識AIツールは人種の分析も苦手としている。メリーランド大学(University of Maryland)のローレン・ルー氏が2018年に発表した論文「Racial Influence on Automated Perceptions of Emotions」によれば、顔認識ソフトウェアが「負の感情を持っている」と判断する頻度は、白人よりも黒人の方が高かった。

 「AI技術をベースとした感情分析機能を導入するということは、何百万人ものエンドユーザーが利用する業務用ソフトウェアに、間違いだらけのツールを組み込むことを意味する」。各人権団体は、Zoom Video Communicationsの感情分析研究の中止を訴える共同書簡の中で、こう指摘する。

 Zoom Video CommunicationsはWeb会議の価値を高める目的でAI技術に注目している。同社が2022年4月に発表した営業チーム向けツール「Zoom IQ」は、見込み客の質問数といったデータを使ってWeb会議の内容を分析し、相手が乗り気かどうかを判断する。同社はZoom IQを皮切りに、AI技術でWeb通話のパフォーマンスを高めるアドオンを提供する計画を立てている。

 Fight for the Futureのキャンペーンディレクター、ケイトリン・シーリー・ジョージ氏は、Zoom IQの感情分析ですら「問題がある」と指摘する。Zoom IQは障害者や文化背景が異なる人、英語を母国語としない人のデータを読み誤る可能性があるという。「Zoom Video Communicationsのように、絶大な影響力を持つベンダーは、自分たちがどのような機能を提供するのか、自分たちが認識しない形でいかに損害を発生させ得るのかに関して批判的になる必要がある」(ジョージ氏)

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news038.jpg

生活者の生成AI利用動向 10代後半はすでに5割近くが経験――リクルート調査
テキスト型生成AIサービスの利用経験者の割合は若い年代ほど高く、特に10代後半はすでに5...

news108.jpg

今度の「TikTok禁止」はこれまでとどう違う?
米国ではまたしてもTikTok禁止措置が議論されている。これまでは結局実現に至らなかった...