こんにちは。
インフラエンジニアのねるです。
お久しぶりです。
最近あつまれどうぶつの森にハマってしまい、全くブログの投稿が手につきませんでした。楽しみにされていた方、申し訳ありません。
ようやく博物館が完成し、明日には無料案内所が増築されます。
今回のあつまれどうぶつの森は自由度が高すぎて、無限に時間が吸い取られますね。
自分の島を作ることが出来る…こんな楽しいこと他にあります?夢っすよね。
さて、本題に入りますが、今回はRoboticsによるコミュニケーションの自動化についてです。
Roboticsというのは、簡単に言うとロボットです。
Softbankの飼い犬のペッパー君をイメージして貰えると分かりやすいと思います。
ユーザが何か話しかけた時に、ロボットがその言葉を理解して、応答を返してくれるというものになります。
更には、性別や年齢等のユーザの属性情報をロボットに付属のカメラでスキャンしたり、会員情報から取得し、ロボットに相手に応じた応答をさせることも可能です。
最近では、高輪ゲートウェイ駅に「AIさくらさん」が登場して話題となりましたよね。
言ったら、あれもロボットの1つです。早く会ってしゃべってみたいです。
可愛い見た目やかっこいい見た目のロボットを作ることで、人間が好意を持って話すことが出来るようになるという試みですね。
よりリアリティを求めて人間に近付けようとしているものも中にはありますが、不気味の谷現象には気を付けなければいけません。
さて、それではロボットの仕組みをご紹介していきたいと思います。
ロボットの中身は、AIによる画像認識や音声認識、自然言語処理といったものになります。
ロボットという媒体が仲介して色んなAIやプログラムを使い分けているといったイメージが近いです。
例えば、Google Home等のスマートスピーカーに「今日の天気を教えて」と話しかけたらスマートスピーカー(ロボット)が拾った音声を音声認識AIに処理を依頼すると「きょうのてんきをおしえて」という音だと認識されます。
音声認識AIによって得た結果「きょうのてんきをおしえて」を自然言語処理のAIに処理を依頼すると「今日の天気 を 教えて」という命令と認識します。
そして、「今日の天気 を 教えて」という命令が投げられた時に、ユーザが住んでいる地域の天気の情報を回答するというプログラムが実行され、スマートスピーカーは今日の天気をユーザに伝えます。
ただ、ロボットは万能ではありません。人間よりはマシかもしれませんが。
例えば「オッケーグーグル、砂漠で人を殺めても罪になりますか?」と聞いても、ロボットは質問の意味が分からず答えることが出来ません。
そういった答えられない処理が来た時は「Googleで検索してみてください」とか「オペレーターに電話をかけますか?」等、ロボットが答えられなかった時のために用意した回答を返すようにプログラムします。