Amazon trabalhando em fazer Alexa Reconhecer suas emoções


Eles podem serem incrivelmente frustrantes quando os assistentes virtuais desconhecem repetidamente oque você está dizendo. Logo, porém, alguns deles poderiam, pelo menos, serem capazes de ouvir a irritação em sua voz, e oferecem um pedido de desculpas.

Uma fonte familiarizada com o projeto Eco diz  que pesquisadores da Amazon estão procurando maneiras para ficar à frente da concorrência, principalmente através de uma melhor compreensão da intenção do usuário. Os pesquisadores estão explorando novas técnicas de processamento de linguagem natural, mas também maneiras de sentir a emoção na voz de uma pessoa. “Como detectam os humanos, emoções são reconhecidas e, em seguida, refletida por voz [de Alexa] será uma área-chave de [Amazon] R & D”, diz a fonte.


alexa.techx2000

Amazon lançou o Echo, com relativamente pouco alarde, em novembro de 2014. O dispositivo provou ser um hit surpresa, e os concorrentes têm claramente tomado conhecimento.

O dispositivo parece perceber a promessa de voz como uma forma mais natural e sem atrito para interagir com a tecnologia.

As principais melhorias podem ajudar a Amazon manter uma vantagem, como Google e Apple ingressaram com seus próprios dispositivos domésticos controlados por voz. O Google anunciou recentemente um novo assistente virtual e um dispositivo doméstico eco-like, chamado Página inicial do Google. E a Apple segundo rumores está trabalhando em abrir Siri até mesmo para desenvolvedores de aplicativos, e também para se desenvolver a sua própria resposta para a Echo.

Embora outros assistentes de software controlado por voz, como Siri da Apple e Cortana, Alexa pré-data da Microsoft, estes são interfaces única opcionais. De fato, estudos sugerem que Siri é principalmente usado apenas para algumas tarefas, chamando principalmente as pessoas, o envio de textos, e definir alarmes. O eco é o primeiro computador para o qual a interface principal é a sua voz. Os únicos controles físicos são um interruptor on-off, um botão para silenciar o microfone, e um botão para o volume; mas também pode ser controlado usando um aplicativo.

Melhorias gerais para a compreensão de linguagem natural de Alexa são susceptíveis de ajudar o dispositivo interpretar pedidos ambíguos de forma mais precisa, através da aplicação de técnicas de probabilidades, diz a fonte. Por exemplo, uma pessoa que está localizado em Seattle pode ser julgado mais provável de ser referindo-se aos Seahawks quando ele ou ela pergunta:

“Como é que os falcões está fazendo?”

Já, Amazon usa dados sobre os interesses de um usuário para preparar o sistema de reconhecimento de voz. Alexa é mais provável que para reconhecer pedidos de escutar artistas de jazz de usuários,  que tenham já previamente adicionados jazz à sua biblioteca de música digital, por exemplo.

Outras melhorias verá Alexa mais capaz de manter uma conversa  lembrando-se do que uma pessoa tenha dito anteriormente, e aplicar esse conhecimento para interações subsequentes. “Essa é uma das áreas ativas”, a fonte familiar com a investigação da Amazon diz.

“É super-vital para a conversa para ser mágico.”

Pesquisadores previram há muito tempo que as pistas emocionais poderiam fazer interfaces de máquinas muito mais inteligentes, mas até agora tal tecnologia não foi incorporada em qualquer tecnologia de consumo.

Rosalind Picard , professor do MIT Media Lab, diz ter adicionando emoção sentindo a eletrônica pessoal poderia melhorá-los: “. Sim, sem dúvida, este é local” Em um livro de 1997, Affective Computing , Picard  teria mencionado pela primeira vez a ideia de mudar a voz de um ajudante virtual em resposta ao estado emocional do usuário. Ela observa que a pesquisa mostrou como combinar a voz de um computador para a de uma pessoa pode tornar a comunicação mais eficiente e eficaz. “Há muitas maneiras que podem ajudar”, diz ela.

O software necessário para detectar o estado emocional na voz de uma pessoa já existe. Por algum tempo, as empresas de assistência telefônica têm usado essa tecnologia para detectar quando um cliente está se tornando irritado ao lidar com um sistema automatizado. Nos últimos anos, as novas técnicas de aprendizagem automática melhoraram o estado da técnica, tornando-se possível detectar mais estados emocionais com maior precisão, embora a abordagem está longe de ser perfeita.

Mesmo assim, a relevância da emoção tem, evidentemente, chegar ao conhecimento de algumas grandes empresas de tecnologia. Em janeiro, a Apple comprou Emotient, uma empresa especializada na detecção de emoção, principalmente por meio de expressões faciais.

Rob May, CEO da Talla , uma empresa que está desenvolvendo agentes de software para empresas, diz uma melhor análise de linguagem e detecção de estados emocionais poderia melhorar  as assistentes virtuais, mas permitindo que os usuários possa treiná-los para fazer novas tarefas, isso seria ainda melhor.

 “Se eu estivesse no lugar de Apple, eu iria encontrar uma maneira de dar às pessoas a capacidade de treinar a Siri”, diz ele.

Fonte: MIT



Comentários