検索
特集/連載

Zoom「感情分析AI」に人権団体が抗議 何を心配しているのか?「感情分析AI」の倫理的問題【前編】

複数の人権保護団体が、Zoom Video Communicationsに対して「感情を分析するAI技術」の研究中止を求めて共同書簡を提出した。どのような懸念があるのか。

Share
Tweet
LINE
Hatena

 30組織以上の人権団体がZoom Video CommunicationsのCEOエリック・ユアン氏に対して、ある研究の中止を要求している。顔の表情や声を手掛かりとして、エンドユーザーの感情を分析するAI(人工知能)技術の研究だ。

感情分析AIは「人を傷つける」

 米国自由人権協会(ACLU:American Civil Liberties Union)や電子プライバシー情報センター(EPIC:Electronic Privacy Information Center)などの団体は、Zoom Video Communicationsの感情分析技術には「悪用の恐れがある」と主張。Web会議ツール「Zoom」のエンドユーザーにとって「害になる可能性がある」と考えている。

 人権団体のFight for the Futureは、このキャンペーンを始めたきっかけとして、PROTOCOLが運営するWebメディア「Protocol」が2022年4月に公開した記事「Companies are using AI to monitor your mood during sales calls. Zoom might be next」を挙げる。同メディアはZoom Video Communicationsが自社製品に感情分析技術を組み込むことを計画していると報じていた。Fight for the Futureは「Zoom Video Communicationsは業界のリーダーとして、こうした問題のある技術から一般ユーザーを守る責任がある」と主張する。

 「感情分析技術による監視は人を傷つけ、従業員のプライバシーや人権を侵害する」と複数の人権団体は主張する。例えば企業がこの技術を使えば、会議の様子を検証し、場違いな感情を見せた従業員を罰することもできるようになる。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る