Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.contributor | Ascari, Soelaine Rodrigues | - |
Autor(es): dc.contributor | Casanova, Dalcimar | - |
Autor(es): dc.contributor | Pola, Ives Renê Venturini | - |
Autor(es): dc.contributor | Ascari, Rúbia Eliza de Oliveira Schultz | - |
Autor(es): dc.contributor | Ascari, Soelaine Rodrigues | - |
Autor(es): dc.contributor | Casanova, Dalcimar | - |
Autor(es): dc.creator | Lima, Luiz Ricardo Brumati de | - |
Data de aceite: dc.date.accessioned | 2025-08-29T11:59:59Z | - |
Data de disponibilização: dc.date.available | 2025-08-29T11:59:59Z | - |
Data de envio: dc.date.issued | 2025-03-12 | - |
Data de envio: dc.date.issued | 2025-03-12 | - |
Data de envio: dc.date.issued | 2025-02-13 | - |
Fonte completa do material: dc.identifier | http://repositorio.utfpr.edu.br/jspui/handle/1/36065 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/capes/1087144 | - |
Descrição: dc.description | In cases where speech disorders resulting from motor difficulties pose significant barriers to verbal communication, Speech therapy provides support to help individuals improve their communication skills. However, patients often face difficulties or even lack motivation when attempting to practice therapeutic exercises outside the clinical environment, without the direct and continuous assistance of a speech therapist. Given this scenario, this study proposed a tool to support therapeutic follow-up by allowing patients to record their exercise executions and receive an automated evaluation on a three-level scale based on the quality of execution. To achieve this goal, the MediaPipe FaceMesh Convolutional Neural Network model was used to extract key facial landmarks, which were preprocessed and used as input for a Long Short-Term Memory (LSTM) neural network. For model development, hyperparameter optimization techniques were applied, and evaluation was performed using K-Fold Cross-Validation. To verify the replicability of this approach, three models were generated for the movements of lip puckering, mouth opening, and lip stretching. The results confirmed that movement evaluation could be performed. To enable the use of the generated models, a mobile application was developed with a focus on usability, aiming to provide an intuitive user experience while allowing patients to track their consistency in performing the activities. The study successfully achieved its objective of developing a solution that can complement speech therapy while also suggesting future research possibilities within this context. | - |
Descrição: dc.description | Em cenários em que transtornos de fala decorrentes de limitações motoras representam barreiras significativas para a comunicação verbal, a Terapia de Motricidade Orofacial oferece suporte para ajudar indivíduos a aprimorar suas habilidades de comunicação. No entanto, muitas vezes o paciente enfrenta dificuldades, ou, mesmo, desmotivação ao tentar praticar os exercícios terapêuticos fora do ambiente clínico, sem a assistência direta e contínua do fonoaudiólogo. Diante desse cenário, este trabalho propôs uma ferramenta para auxiliar o acompanhamento terapêutico ao permitir que o paciente grave a execução dos exercícios e receba uma avaliação automatizada que varia em uma escala de três níveis, de acordo com a qualidade da execução. Para atingir esse objetivo, foi utilizado o modelo MediaPipe FaceMesh para extrair pontos-chave (landmarks) da região facial, de modo que estes foram pré-processados e utilizados como entrada de uma Rede Neural do tipo Long Short-Term Memory (LSTM). Para o desenvolvimentodo modelo, foram utilizadas técnicas de otimização de hiperparâmetros e avaliação por meio de K-Fold Cross-Validation. Como método de verificação da replicabilidade dessa abordagem, três modelos foram gerados, para o movimento de beijo, abertura bucal e estiramento labial, de modo que os resultados comprovaram que é possível realizar a avaliação dos movimentos. A fim de viabilizar o uso dos modelos gerados, foi desenvolvida uma aplicação móvel com enfoque em usabilidade e com o objetivo de proporcionar uma experiência intuitiva ao usuário, permitindo o acompanhamento de sua consistência ao longo da realização das atividades. O trabalho atingiu o seu objetivo de desenvolver uma solução que pode ser utilizada como complemento à terapia fonoaudiológica, além de sugerir possibilidades de pesquisas futuras dentro desse contexto. | - |
Formato: dc.format | application/pdf | - |
Idioma: dc.language | pt_BR | - |
Publicador: dc.publisher | Universidade Tecnológica Federal do Paraná | - |
Publicador: dc.publisher | Pato Branco | - |
Publicador: dc.publisher | Brasil | - |
Publicador: dc.publisher | Departamento Acadêmico de Informática | - |
Publicador: dc.publisher | Engenharia de Computação | - |
Publicador: dc.publisher | UTFPR | - |
Direitos: dc.rights | openAccess | - |
Direitos: dc.rights | http://creativecommons.org/licenses/by/4.0/ | - |
Palavras-chave: dc.subject | Interação humano-máquina | - |
Palavras-chave: dc.subject | Aprendizado do computador | - |
Palavras-chave: dc.subject | Visão por computador | - |
Palavras-chave: dc.subject | Human-computer interation | - |
Palavras-chave: dc.subject | Machine learning | - |
Palavras-chave: dc.subject | Computer vision | - |
Palavras-chave: dc.subject | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO | - |
Título: dc.title | Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina | - |
Título: dc.title | Development of a mobile application for automated evaluation of oral motor exercises using Computer vision and machine learning | - |
Tipo de arquivo: dc.type | livro digital | - |
Aparece nas coleções: | Repositorio Institucional da UTFPR - RIUT |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: