Amazon Web Services(AWS)のイベント「AWS re:Invent 2016」で紹介された会話型インタフェース構築用サービス「Amazon Lex」は、自動音声認識と自然言語認識機能を使って音声やテキストを処理し、それに従ってリクエストに答える。
Amazon Lexは、クラウドベースの音声アシスタントサービス「Alexa」の技術を利用している。Alexaは、Amazon.comのスピーカー型機器「Amazon Echo」でも利用されているサービスだ。
AWSは、Alexaをデバイスで実行するためのアプリケーションプログラミングインタフェース(API)を提供している。このAPIの大部分は、音声を聴き取って文字に変換し、コマンドを実行する機能に限定される。
このAlexaの技術をもっと幅広い開発用途向けに解放することが、Amazon Lexの狙いだ。Amazon Lexは、機能豊富な会話型インタフェースをアプリケーションに組み込みたい開発者を支援する。
AlexaのSkillと、Amazon Lexで開発したボットの「Bot」は、用語や全般的な構造に関する限りは同一に近い。
開発者はAmazon Lexを使って複数のBotを開発し、各Botに「Intent」(意図)、すなわちアプリケーションに処理してもらいたいリクエストを付加することが可能だ。エンドユーザーが1つあるいは複数の単語、または「Utterance」(発話)という呼び出し用フレーズを声に出すと、Intentが起動する。
超リッチなイーロン・マスク氏の「言論の自由」は、あなたのそれと同じなのか?
Twitter買収の大義名分とされる「言論の自由」。しかし、同じことを語っているつもりでも...
新卒の営業職が仕事をやりたくない時期、最多は「5月」 ―― RevComm調査
新卒営業社員は5月に最初の「壁」を感じるようです。
「メタバース」でどうやってもうけるの? Meta(旧Facebook)が考える収益化への道
Metaの中核をなすメタバースプラットフォームのマネタイズ計画が明確になりつつある。高...