masterThesis
Reconhecimento de fala em tempo real para robôs móveis
Registro en:
HUAMPO, Eulogio Gutierrez. Reconhecimento de fala em tempo real para robôs móveis. 2020. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2020.
Autor
HUAMPO, Eulogio Gutierrez
Institución
Resumen
O reconhecimento de fala para robôs é um campo multidisciplinar que envolve processamento de sinais e novos modelos de aprendizagem de máquina. Entre suas aplicações, podemos citar o controle de uma cadeira de rodas por comandos de voz, para ajudar pessoas com restrições de mobilidade. O objetivo deste trabalho é propor e implementar modelos de reconhecimento de comandos de voz em tempo real, fazendo ênfase em aprendizagem on-line e a integração ao robô TIAGo, a fim de executar tarefas de navegação. Modelos independentes do locutor são implementados baseados numa nova base de dados de vocabulário limitado, o extrator de características MFCC e a implementação das redes neurais MLP e oiSGNG, que vem do inglês online incremental Supervised Growing Neural Gas, para os quais no treinamento emprega-se a adição de ruído branco e colorido para melhorar seu desempenho. Nos resultados, em termos de taxa de acertos e tempo de processamento, o melhor caso é o MLP, mas requer alterar a estrutura e ajustar os parâmetros para aprender novas categorias. Por outro lado, o classificador oiSGNG não tem esses problemas. Neste caso, apresentamos duas contribuições: (i) nodos inseridos de acordo a uma função exponencial, desse jeito, gera-se uma taxa de acertos mais alta com menos nodos, o que implica menor latência; (ii) aprendizagem on-line de comandos de voz, uma nova implementação, o modelo aprende novos comandos ao mesmo tempo em que os grava. Nos experimentos, a navegação do robô é efetuada via comandos de voz, isto é, movimento da base do robô através dos comandos de velocidade. Para evitar positivos falsos e interferência do ambiente ruidoso, emprega-se uma palavra-chave associada ao comando, no caso do MLP empregamos limiar de ativação. Além disso, os modelos são avaliados para ambientes com ruído acústico, quer dizer, teste com adição de ruído de ventilador e ruído balbuciante. Em geral, a taxa de acertos é mais alta para os comandos gravados com detecção de som em tempo real e, a latência do processamento é menor que 15 ms, portanto, podemos concluir que o reconhecimento de comandos de voz é efetuado em tempo real. PAEC OEA/GCUB Speech recognition in robotics is a multidisciplinary field that involves signal processing and new models of machine learning. Among its applications, we can mention the control of a wheelchair by voice commands, to help people with mobility restrictions. The objective of this work is to propose and implement voice recognition models in real time, emphasizing online learning and integration with the TIAGo robot, in order to perform navigation tasks. Speaker-independent models are implemented based on a new limited vocabulary database, the Mel-Frequency Cepstral Coefficients (MFCC) and neural networks. In this case, the Multi-Layer Perceptron (MLP) and the online incremental Supervised Growing Neural Gas (oiSGNG) are implemented, using additive white and color noise to improve their performance. In results, in terms of accuracy rate and processing time, the best case is the MLP, but it requires changing the structure and adjusting the parameters to learn new categories. On the other hand, the oiSGNG classifier does not have these problems. So, for this case, we present two contributions: (i) nodes inserted according to an exponential function, that results in a higher accuracy rate with fewer nodes, which implies less latency; (ii) online learning of voice commands, a novel implementation, the model learns new commands at the same time that it records them. In experiments, robot navigation is performed via voice commands, that is, moving the robot base through velocity commands. To avoid false positives and interference from the noisy environment, a keyword associated with the command is used, in the case of MLP we use activation threshold. In addition, the models are evaluated for environments with acoustic noise, that is to say, test with the additive fan and babble noise. In general, the accuracy rate is higher for commands recorded with real-time sound detection, and processing latency is less than 15 ms, so we can conclude that the voice command recognition is performed in real time.