Gartnerは、数年後にはパーソナル端末がユーザーの感情を分析できるようになると主張している。
調査会社Gartnerによれば、スピーカー型の仮想音声アシスタント(VPA:Virtual Personal Assistants)は、人間の感情も理解できるレベルに進化するという。
本記事は、プレミアムコンテンツ「Computer Weekly日本語版 2月21日号」(PDF)掲載記事の抄訳版です。本記事の全文は、同プレミアムコンテンツで読むことができます。
なお、同コンテンツのEPUB版およびKindle(MOBI)版も提供しています。
2022年までに、パーソナル端末はユーザーの家族よりも的確にユーザーの感情を捉えることができるようになると同社は予測している。「AIはさまざまな場面で画期的な成果を挙げ始めており、パーソナルテクノロジーによって人間同士のやりとりの方法は根本的に変わりつつある」と同社は説明する。
「感情AIシステムとアフェクティブ(感情、情緒)コンピューティングによって、われわれが日頃使っている日用品が、人の感情の状態や気分をその場で検出し、分析し、適切な反応をするようになるので、現場の状況を改善し、各人の性質に応じてパーソナライズした体験を提供できる」と話すのは、Gartnerのリサーチディレクター、ロバータ・コッツァ氏だ。
ただしこのテクノロジーは今なお発展途上であり、既存技術は理解度が低いとユーザーは感じている。「感情分析システムはまだ開発の初期段階だ」とコッツァ氏は説明する。
それでも、プロトタイプが既に市販されていると同氏は付け加える。例えば、ニューヨークを本拠地とする新興企業のEmoshapeは、感情データの処理に最適化した独自のCPUを開発した。このテクノロジーはコンピュータゲーム、仮想現実(VR)、拡張現実(AR)などのアプリケーションを(大きく)変える可能性があると同氏は期待する。
コッツァ氏によると、音声テクノロジーの価値に着目するユーザーが現れ始めているという。Googleが導入を進めている「Googleアシスタント」は、目下のライバルであるAmazonの「Alexa」よりも「問い掛けに対する反応の的確さでは一枚上手だが、感情をサポートするためにはもっと進化が必要だ」と同氏は話す。
Google、Amazon、Microsoft、Appleなど、音声認識分野の主要プレイヤーがこぞって、将来の競争を見越して、この感情分析に投資しているのが現状だとコッツァ氏は指摘する。現在の技術は、ユーザーを取り巻くコンテキスト(文脈)をまだほとんど考慮しないからだ。
本記事は抄訳版です。全文は、以下でダウンロード(無料)できます。
■Computer Weekly日本語版 最近のバックナンバー
Computer Weekly日本語版 2月7日号 キャッシュレス先進国の現実
Computer Weekly日本語版 1月24日号 “侵入者をだますセキュリティ”のススメ
Computer Weekly日本語版 1月10日号 “マルチクラウド”は幻想にすぎない
Copyright © ITmedia, Inc. All Rights Reserved.
お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。
2025年のバレンタインのトレンドを購買実態から分析 「カカオショック」の影響は?
読売広告社は、ショッパーインサイトの食品ID-POS購買行動データベース「real shopper SM...
生成AIへの期待値の変化 DeepSeek台頭がマーケターに突きつける課題とは?
AI 生成の広告に対する反発が続いた1年を経て、マーケターはパフォーマンス結果重視で非...
2024年に視聴者が検索したテレビCM 2位は中国のあのEVメーカー、1位は?
2024年にテレビCMを通して視聴者が気になりWeb検索したものは何だったのか。ノバセルが発...