Inteligência artificial
Pesquisadores desenvolvem modelo de reconhecimento de fala humana com redes neurais profundas

Um grupo de pesquisadores da Alemanha está explorando um novo modelo de reconhecimento de fala humana baseado em aprendizado de máquina e redes neurais profundas. O novo modelo poderia ajudar a melhorar significativamente o reconhecimento da fala humana.
Algoritmos de aparelhos auditivos são geralmente usados para melhorar o reconhecimento da fala humana e são avaliados por meio de vários experimentos que determinam a relação sinal-ruído na qual um determinado número de palavras é reconhecido. No entanto, esses experimentos costumam ser demorados e caros.
O novo modelo foi detalhado em pesquisa publicada na O Jornal da Sociedade Acústica da América.
Previsões para ouvintes com deficiência auditiva
Jana Roßbach é uma das autoras da Carl Von Ossietzky University.
“A novidade do nosso modelo é que ele fornece boas previsões para ouvintes com deficiência auditiva para tipos de ruído com complexidade muito diferente e mostra erros baixos e altas correlações com os dados medidos”, disse Roßbach.
A equipe de pesquisadores calculou quantas palavras por frase um ouvinte poderia entender por meio do reconhecimento automático de fala (ASR). Ferramentas de reconhecimento de fala como Alexa e Siri contam com esse ASR, que está amplamente disponível.
O Estudo e Resultados
O estudo realizado pela equipe envolveu oito normo-ouvintes e 20 deficientes auditivos. Os ouvintes foram expostos a muitos ruídos complexos diferentes que ocultavam a fala, e os ouvintes com deficiência auditiva foram categorizados em três grupos, dependendo do nível de perda auditiva relacionada à idade.
Por meio do novo modelo, os pesquisadores puderam prever o desempenho do reconhecimento de fala humana de ouvintes com deficiência auditiva com diferentes graus de perda auditiva. Eles foram capazes de fazer essas previsões para vários mascaradores de ruído com diferentes complexidades na modulação temporal e como eles eram semelhantes à fala real. Tudo isso possibilitou que cada pessoa fosse observada e analisada individualmente quanto a possíveis perdas auditivas.
“Ficamos muito surpresos que as previsões funcionaram bem para todos os tipos de ruído. Esperávamos que o modelo tivesse problemas ao usar um único locutor concorrente. No entanto, não foi esse o caso”, disse Roßbach.
Como o modelo foi focado na audição de um ouvido, a equipe agora procurará criar um modelo binaural para audição de dois ouvidos. Eles também dizem que o novo modelo pode ser usado para prever o esforço auditivo ou a qualidade da fala.












