Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina

Registro completo de metadados
MetadadosDescriçãoIdioma
Autor(es): dc.contributorAscari, Soelaine Rodrigues-
Autor(es): dc.contributorCasanova, Dalcimar-
Autor(es): dc.contributorPola, Ives Renê Venturini-
Autor(es): dc.contributorAscari, Rúbia Eliza de Oliveira Schultz-
Autor(es): dc.contributorAscari, Soelaine Rodrigues-
Autor(es): dc.contributorCasanova, Dalcimar-
Autor(es): dc.creatorLima, Luiz Ricardo Brumati de-
Data de aceite: dc.date.accessioned2025-08-29T11:59:59Z-
Data de disponibilização: dc.date.available2025-08-29T11:59:59Z-
Data de envio: dc.date.issued2025-03-12-
Data de envio: dc.date.issued2025-03-12-
Data de envio: dc.date.issued2025-02-13-
Fonte completa do material: dc.identifierhttp://repositorio.utfpr.edu.br/jspui/handle/1/36065-
Fonte: dc.identifier.urihttp://educapes.capes.gov.br/handle/capes/1087144-
Descrição: dc.descriptionIn cases where speech disorders resulting from motor difficulties pose significant barriers to verbal communication, Speech therapy provides support to help individuals improve their communication skills. However, patients often face difficulties or even lack motivation when attempting to practice therapeutic exercises outside the clinical environment, without the direct and continuous assistance of a speech therapist. Given this scenario, this study proposed a tool to support therapeutic follow-up by allowing patients to record their exercise executions and receive an automated evaluation on a three-level scale based on the quality of execution. To achieve this goal, the MediaPipe FaceMesh Convolutional Neural Network model was used to extract key facial landmarks, which were preprocessed and used as input for a Long Short-Term Memory (LSTM) neural network. For model development, hyperparameter optimization techniques were applied, and evaluation was performed using K-Fold Cross-Validation. To verify the replicability of this approach, three models were generated for the movements of lip puckering, mouth opening, and lip stretching. The results confirmed that movement evaluation could be performed. To enable the use of the generated models, a mobile application was developed with a focus on usability, aiming to provide an intuitive user experience while allowing patients to track their consistency in performing the activities. The study successfully achieved its objective of developing a solution that can complement speech therapy while also suggesting future research possibilities within this context.-
Descrição: dc.descriptionEm cenários em que transtornos de fala decorrentes de limitações motoras representam barreiras significativas para a comunicação verbal, a Terapia de Motricidade Orofacial oferece suporte para ajudar indivíduos a aprimorar suas habilidades de comunicação. No entanto, muitas vezes o paciente enfrenta dificuldades, ou, mesmo, desmotivação ao tentar praticar os exercícios terapêuticos fora do ambiente clínico, sem a assistência direta e contínua do fonoaudiólogo. Diante desse cenário, este trabalho propôs uma ferramenta para auxiliar o acompanhamento terapêutico ao permitir que o paciente grave a execução dos exercícios e receba uma avaliação automatizada que varia em uma escala de três níveis, de acordo com a qualidade da execução. Para atingir esse objetivo, foi utilizado o modelo MediaPipe FaceMesh para extrair pontos-chave (landmarks) da região facial, de modo que estes foram pré-processados e utilizados como entrada de uma Rede Neural do tipo Long Short-Term Memory (LSTM). Para o desenvolvimentodo modelo, foram utilizadas técnicas de otimização de hiperparâmetros e avaliação por meio de K-Fold Cross-Validation. Como método de verificação da replicabilidade dessa abordagem, três modelos foram gerados, para o movimento de beijo, abertura bucal e estiramento labial, de modo que os resultados comprovaram que é possível realizar a avaliação dos movimentos. A fim de viabilizar o uso dos modelos gerados, foi desenvolvida uma aplicação móvel com enfoque em usabilidade e com o objetivo de proporcionar uma experiência intuitiva ao usuário, permitindo o acompanhamento de sua consistência ao longo da realização das atividades. O trabalho atingiu o seu objetivo de desenvolver uma solução que pode ser utilizada como complemento à terapia fonoaudiológica, além de sugerir possibilidades de pesquisas futuras dentro desse contexto.-
Formato: dc.formatapplication/pdf-
Idioma: dc.languagept_BR-
Publicador: dc.publisherUniversidade Tecnológica Federal do Paraná-
Publicador: dc.publisherPato Branco-
Publicador: dc.publisherBrasil-
Publicador: dc.publisherDepartamento Acadêmico de Informática-
Publicador: dc.publisherEngenharia de Computação-
Publicador: dc.publisherUTFPR-
Direitos: dc.rightsopenAccess-
Direitos: dc.rightshttp://creativecommons.org/licenses/by/4.0/-
Palavras-chave: dc.subjectInteração humano-máquina-
Palavras-chave: dc.subjectAprendizado do computador-
Palavras-chave: dc.subjectVisão por computador-
Palavras-chave: dc.subjectHuman-computer interation-
Palavras-chave: dc.subjectMachine learning-
Palavras-chave: dc.subjectComputer vision-
Palavras-chave: dc.subjectCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO-
Título: dc.titleDesenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina-
Título: dc.titleDevelopment of a mobile application for automated evaluation of oral motor exercises using Computer vision and machine learning-
Tipo de arquivo: dc.typelivro digital-
Aparece nas coleções:Repositorio Institucional da UTFPR - RIUT

Não existem arquivos associados a este item.