検索
特集/連載

「Appleは信頼を失いかねない」 Apple“人の心を読むAI”を専門家が不安視Apple「感情分析AIモデル」の可能性と課題【後編】

Appleはさまざまな生体データを分析して人の感情を判別する感情分析AIモデルを開発している。こうしたAI技術を開発する研究者やベンダーには、検討すべきことがあると専門家は指摘する。それは何か。

Share
Tweet
LINE
Hatena

関連キーワード

Apple | データ分析


 Appleとカリフォルニア大学ロサンゼルス校(UCLA:University of California, Los Angeles)、製薬会社Biogenは、人の心の健康状態や感情を検出するAI(人工知能)モデル(以下、感情分析AIモデル)の開発を進めている。Appleの感情分析AIモデルに対する関心は、AI技術を使って感情を読み取る技術を扱うEmotientを2016年に買収したことから始まった。

 「複数種類のデータに照準を据えているという点で、Appleの感情分析AIモデルは他社とは異なる」。南カリフォルニア大学(University of Southern California)の心理学准教授で、神経科学技術ベンダーImmersion Neuroscienceの最高セキュリティ責任者(CSO)を務めるホルヘ・バラサ氏はこう指摘する。感情分析AI技術の研究は一般的に、

  • 笑顔やしかめ面といった表情を特定する「顔分析」
  • 声の調子や話す単語を特定する「音声分析」

のいずれかのみを対象とする。これに対して、Appleらの研究チームは顔分析と音声分析の両方に加え、心拍や睡眠パターンなども使って感情を特定する。

信頼を失う可能性も 「感情分析AIモデル」が直面するハードル

 人々が自分の心の健康状態に対する認識を深める上で、Appleの感情分析AIモデルは有用だ。ただし「データを用いた感情分析には、依然として疑いの余地が残る」とバラサ氏は言う。例えばユーザー企業が、ベンダーの意図通りに感情分析AI技術を使わない可能性がある。自社の従業員にとって不利益な形で使ったり、誤ってデータを解釈したりする可能性も否定できない。

 文化によって異なる感情の見方や解釈をどう扱うかも課題だ。調査会社Constellation Researchの創業者でプリンシパルアナリストのレイ・ワン氏は、特定の文化や集団、年齢層の微妙な違いを見極めるのは「非常に難しい」と指摘。「感情分析のAI技術ベンダーにとっては、どのくらいのデータが集まればAIモデルが判断を下すのに十分なのかを見極めることが課題だ」と話す。

 感情分析AI技術の検出ミスを防ぐためには、研究者が「どの程度の精度があればよいのか」を決めなければならないというのがワン氏の意見だ。加えて「データセットの中のどこに、偏見や誤判断を招くデータが存在しそうか」も見極める必要があるという。「感情に影響を与え得る文化的違いや方言、人種の違いを判断基準に含めることが必要だ」と同氏は言い添える。

 大手モバイルデバイスメーカーとしてのAppleには、同社製品ユーザーの巨大なネットワークがある。そのネットワークに広まれば、同社の感情分析AIモデルが成功するチャンスはある。「感情分析AIモデルは始まったばかりだが、いずれは軌道に乗る」とワン氏はみる。ただし同社が感情分析AIモデルの公開や普及を急ぎ過ぎると「人々の信頼や信用を失うリスクがある」と同氏は警鐘を鳴らす。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る