「Amazon Lex」は“スマートスピーカー”Amazon Echoの「Alexa」と何が違うのか?:Alexaの可能性を拡大
「Amazon Echo」で利用されている音声アシスタント「Alexa」。この可能性をより広い用途に広げるのが「Amazon Lex」だ。その仕組みを見ていこう。
Amazon Web Services(AWS)のイベント「AWS re:Invent 2016」で紹介された会話型インタフェース構築用サービス「Amazon Lex」は、自動音声認識と自然言語認識機能を使って音声やテキストを処理し、それに従ってリクエストに答える。
Amazon Lexは、クラウドベースの音声アシスタントサービス「Alexa」の技術を利用している。Alexaは、Amazon.comのスピーカー型機器「Amazon Echo」でも利用されているサービスだ。
AWSは、Alexaをデバイスで実行するためのアプリケーションプログラミングインタフェース(API)を提供している。このAPIの大部分は、音声を聴き取って文字に変換し、コマンドを実行する機能に限定される。
このAlexaの技術をもっと幅広い開発用途向けに解放することが、Amazon Lexの狙いだ。Amazon Lexは、機能豊富な会話型インタフェースをアプリケーションに組み込みたい開発者を支援する。
併せて読みたいお薦め記事
「Alexa」「Amazon Echo」についてもっと詳しく
- Amazonの音声アシスタント「Alexa」に対話型インタフェースの未来を見た
- 「Amazon Echo」の成功を裏付けたIoT UXデザイン、3つの特徴
- ハードウェアを飲み込んだソフトウェアが機械学習に飲み込まれる
音声認識の可能性と課題
Lexの頭脳
AlexaのSkillと、Amazon Lexで開発したボットの「Bot」は、用語や全般的な構造に関する限りは同一に近い。
開発者はAmazon Lexを使って複数のBotを開発し、各Botに「Intent」(意図)、すなわちアプリケーションに処理してもらいたいリクエストを付加することが可能だ。エンドユーザーが1つあるいは複数の単語、または「Utterance」(発話)という呼び出し用フレーズを声に出すと、Intentが起動する。
Copyright © ITmedia, Inc. All Rights Reserved.