Apresentador : Pedro Henrique D Almeida Giberti Rissato
Filiação: DCM
Data: 09/03/2022
Horário: 09:00
às 13:00
Local: Modo remoto: https://meet.google.com/yhf-dpyr-ahz
Descrição: RESUMO: A capacidade de comunicar-se por meio da fala é essencial para qualquer ser humano.
Decorrências de anomalias genéticas, associadas ou não com Síndrome de Down (SD), Transtorno do
Espectro Autista ou deficit intelectual podem ocasionar diversas dificuldades físicas e/ou cognitivas que
geram atraso na fala, desordem fonética, desordem fonológica, apraxia de fala na infância que
desencadeiam a necessidade de terapias fonoaudiológicas.Com o intuito de acompanhar esse
desenvolvimento, o profissional de fonoaudiologia realiza treinamentos orofaciais para fortalecer
músculos essenciais da fala. Nesse contexto, os movimentos e sons não articulatórios como, por
exemplo, sopro, estalo de língua ou beijo, exercitam e fortalecem boca, lábios, língua e bochechas que
apoiam e sustentam afala. As áreas de Visão Computacional, de Aprendizado de Máquina e outras áreas
da Computação podem auxiliar no desenvolvimento de aplicativos que apoiem o treinamento da fala,
inclusive o treinamento de sons não articulatórios. Explorando essas áreas, um método capaz de
identificar e classificar os movimentos torna-se importante para apoiara fala. O objetivo desta pesquisa é apresentar um método para desenvolver um modelo generalizado capaz de realizar a classificação entre
os padrões de beijos, estalos de língua e sopro. A contribuição desse reconhecimento é compor,
posteriormente, um software para o sistema operacional Android com o intuito de prover ao usuário final um modelo acercado movimento correto e auxiliar o profissional fonoaudiólogo no tratamento do paciente com SD. Por meio do método apresentado neste trabalho, foi possível induzir um modelo capaz de
classificar entre as classes: (i) beijo e estalo; (ii) estalo e sopro e (iii) beijo e sopro, com uma acurácia de 93%, 93% e 65%, respectivamente.