OTIMIZAÇÃO DO ALGORITMO EXPECTATION MAXIMIZATION PARA O MODELO DE MISTURAS GAUSSIANAS USANDO CUDA

Hendrik Macedo, Elaynne Torres, Marco Chella, Leonardo Matos

Resumo


Este artigo descreve técnicas de otimização realizadas no algoritmo Expectation Mazimization (EM) para o treinamento de Modelo de Misturas de Gaussianas (GMM) utilizando a arquitetura CUDA disponível em GPUs da NVIDIA. O objetivo é o de reduzir o tempo de processamento deste treinamento em aplicações que façam uso do reconhecimento de fala contínuo (Continuous Speech Recognition - CSR) para a língua portuguesa do Brasil. Os experimentos foram conduzidos em 5 (cinco) diferentes bases de dados e variados tamanhos de gaussianas. Resultados mostram redução de quase 90% do tempo de execução E-passo de treinamento se comparado com trabalhos anteriores.

 


Palavras-chave


CUDA; GPU; Expectation Maximization; Modelo de Misturas de Gaussianas; Reconhecimento automático de fala contínuo

Texto completo: PDF

Todo conteúdo da revista está sob a licença 

Revista de Sistemas e Computação. ISSN 2237-2903