Uma nova desmontagem do Google app, realizada por 9to5Google, parece apontar para um novo recurso chamado “Look and Talk” que reduziria interações acidentais com a IA no Nest Hub do Google. O recurso, localizado no aplicativo do Google – no canal beta, versão 13.14 – funciona como sua marca sugere.
Ou seja, com o Look and Talk ativado, o recurso combinaria um usuário olhando para o dispositivo e sua voz para responder. Isso é diferente de simplesmente responder sempre que a palavra de ativação “Ei” ou “Ok Google” for ouvida.
Com o recurso ativado, os monitores inteligentes habilitados para câmera poderão ver se o usuário está olhando para o dispositivo. Em seguida, poderia determinar se o usuário pretendia ou não ativar o Google Assistant. Ou, inversamente, se a palavra de ativação que ouviu foi circunstancial e não se destinava a ativar o Assistente.
Isso vai além de apenas conversar com o Nest Hub, graças à parte “Look” da equação
Agora, esse recurso não apenas pode aparecer e ajudar a reduzir as ativações acidentais do Assistente. Isso se o Google finalmente o lançar em um canal estável. Também pode ser usado para melhorar como os usuários ativam os recursos orientados por IA, para começar.
Isso é baseado na explicação relatada do Google sobre recursos adicionais. Resumidamente, os usuários também poderão ativar o Google Assistant em monitores inteligentes habilitados para câmera sem a voz.
Assim como os recursos mais gerais do “Look and Talk” mencionado acima, um dispositivo Nest Hub usaria sua câmera para verificar o usuário. No caso da aparência, isso seria tanto a voz quanto o rosto. Assim, os usuários precisariam de sua conta vinculada ao sistema. Mas o gigante das buscas diz que a câmera sozinha pode reconhecer quando os usuários precisam do Google Assistant.
Especificamente, a câmera pode reconhecer um usuário olhando diretamente para a tela do Assistente de uma distância de até um metro e meio. Ele compararia o rosto deles com o reconhecimento facial salvo. E use um algoritmo para determinar se eles estão tentando ativar a IA. Assim, os usuários não precisariam usar sua voz.
O melhor de tudo é que, como o processamento de reconhecimento de voz e rosto ocorre localmente, nenhum dado é enviado pela nuvem. Todo o processo aconteceria no dispositivo.