
Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
| Metadados | Descrição | Idioma |
|---|---|---|
| Autor(es): dc.contributor | Lacerda, Wilian Soares | - |
| Autor(es): dc.contributor | Nepomuceno, Erivelton Geraldo | - |
| Autor(es): dc.contributor | Ferreira, Danton Diego | - |
| Autor(es): dc.creator | Machado, William | - |
| Data de aceite: dc.date.accessioned | 2026-02-09T12:04:15Z | - |
| Data de disponibilização: dc.date.available | 2026-02-09T12:04:15Z | - |
| Data de envio: dc.date.issued | 2022-06-21 | - |
| Data de envio: dc.date.issued | 2022-06-21 | - |
| Data de envio: dc.date.issued | 2022-06-21 | - |
| Data de envio: dc.date.issued | 2020-02-20 | - |
| Fonte completa do material: dc.identifier | https://repositorio.ufla.br/handle/1/50285 | - |
| Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/capes/1153672 | - |
| Descrição: dc.description | There are thousands of people in the world with disabilities who have special needs. With urban development, difficulties arise in locomotion on public roads and access to public transport. Each type of disability requires a certain type of adaptation for the individual to be able to perform their daily tasks. A very common problem in the day-to-day life of the hearing impaired is the difficulty in detecting the direction of sound signals from sound sources. Often, the hearing impaired cannot distinguish which side (right or left) an audible alert was issued. In order to offer an alternative to this problem, the present work proposes a system that assists the hearing impaired. The system is based on the time lag of the sound signal captured by two sound sensors (microphones), where each sensor is located on the user's shoulder. The sound signals captured from the surroundings by the sensors will have a time lag between them due to the difference in distance between the sound source and the sensors (microphones). This lag will be calculated by the software running on a microcontroller that will determine the direction (right or left) of the sound source in relation to the user according to the acquired lag. The microcontroller, in use of this information, will activate the vibracall engine placed on each shoulder of the user to alert him of the direction coming of the sound.The results obtained through the simulation proved to be promising, since the Neural Network One Step Secant (OSS) presented 96.3% of acuraccy in detecting the direction of different types of sound sources. The algorithm simulation test using the Sum of Absolute Differences showed 100% acuraccy and the tests in real environments showed a acuraccy rate of up to 85.5%. Thus, the development of work values accessibility, its social character, low cost and inclusive, as it is possible to make accessible and assist the hearing impaired in locomotion in the urban environment, avoiding accidents, in addition to providing comfort and a sense of belonging to spaces in which everyone circulates. | - |
| Descrição: dc.description | Existem milhares de pessoas no mundo portadoras de deficiência e que possuem necessidades especiais. Com o desenvolvimento urbano, surgem as dificuldades de locomoção nas vias públicas e de acesso aos transportes públicos. Cada tipo de deficiência exige certo tipo de adaptação para o indivíduo poder realizar suas tarefas diárias. Um problema muito comum no dia-a-dia dos deficientes auditivos é a dificuldade de detectar a direção de sinais sonoros provenientes de fontes sonoras. Muitas vezes, os deficientes auditivos não conseguem distinguir de qual lado (direito ou esquerdo) um alerta sonoro foi emitido. Com o objetivo de oferecer uma alternativa para este problema, o presente trabalho propõe um sistema que auxilia o deficiente auditivo. O sistema baseia-se no defasamento temporal do sinal sonoro captado por dois sensores de som(microfones), onde cada sensor é localizado no ombro do usuário. Os sinais sonoros captados do ambiente pelos sensores terão um defasamento temporal entre si devido à diferença da distância da fonte sonora com os sensores (microfones). Este defasamento será calculado pelo software executado em um microcontrolador que determinará a direção (direita ou esquerda) da fonte sonora em relação ao usuário de acordo com o defasamento obtido. O microcontrolador, de posse desta informação, ativará o motor vibracall colocados em cada ombro do usuário para alertá-lo da direção proveniente do som. Os resultados obtidos através da simulação mostraram-se promissores, uma vez que a Rede Neural One Step Secant (OSS) apresentou 96,3% de acertos na detecção da direção de diferentes tipos de fontes de sinal sonoro. O teste da simulação do algoritmo utilizando Somatório das Diferenças Absolutas apresentou 100% de acerto e os testes em ambientes reais mostraram uma taxa de acerto de até 85,5%. Deste modo, o desenvolvimento do trabalho preza pela acessibilidade, pelo seu caráter social, baixo custo e inclusivo, pois com ele é possível tornar acessível e auxiliar o deficiente auditivo na locomoção no ambiente urbano evitando acidentes, além de proporcionar conforto e sensação de pertencimento dos espaços nos quais todos circulam. | - |
| Formato: dc.format | application/pdf | - |
| Idioma: dc.language | pt_BR | - |
| Publicador: dc.publisher | Universidade Federal de Lavras | - |
| Publicador: dc.publisher | Programa de Pós-Graduação em Engenharia de Sistemas e Automação | - |
| Publicador: dc.publisher | UFLA | - |
| Publicador: dc.publisher | brasil | - |
| Publicador: dc.publisher | Departamento de Engenharia | - |
| Direitos: dc.rights | acesso aberto | - |
| Palavras-chave: dc.subject | Redes naturais artificiais | - |
| Palavras-chave: dc.subject | Detector de sinal sonoro | - |
| Palavras-chave: dc.subject | Somatório de diferenças absolutas | - |
| Palavras-chave: dc.subject | Acessibilidade | - |
| Palavras-chave: dc.subject | Deficientes auditivos | - |
| Palavras-chave: dc.subject | Direção sonora | - |
| Palavras-chave: dc.subject | Artificial neural networks | - |
| Palavras-chave: dc.subject | Sound detector | - |
| Palavras-chave: dc.subject | Sum of the absolute differences | - |
| Palavras-chave: dc.subject | Acessibility | - |
| Palavras-chave: dc.subject | Deaf | - |
| Palavras-chave: dc.subject | Sound direction | - |
| Palavras-chave: dc.subject | Automação Eletrônica de Processos Elétricos e Industriais | - |
| Título: dc.title | Sistema de identificação de direção de fonte sonora para auxiliar deficientes auditivos | - |
| Tipo de arquivo: dc.type | dissertação | - |
| Aparece nas coleções: | Repositório Institucional da Universidade Federal de Lavras (RIUFLA) | |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: