Treinamento Ético de Redes Neurais: Conjuntos de Dados, Viés e Privacidade na Detecção de Deepfakes

Registro completo de metadados
MetadadosDescriçãoIdioma
Autor(es): dc.contributorRCMOS - Revista Científica Multidisciplinar o Saberpt_BR
Autor(es): dc.contributor.authorde Oliveira Pereira Paula, Matheus-
Data de aceite: dc.date.accessioned2025-12-22T20:30:13Z-
Data de disponibilização: dc.date.available2025-12-22T20:30:13Z-
Data de envio: dc.date.issued2025-12-22-
Fonte completa do material: dc.identifierhttps://submissoesrevistacientificaosaber.com/index.php/rcmos/article/view/1871-
identificador: dc.identifier.otherÉtica dos datasets para deepfakespt_BR
Fonte: dc.identifier.urihttp://educapes.capes.gov.br/handle/capes/1133751-
Resumo: dc.description.abstractA detecção automatizada de deepfakes, fundamentada no uso intensivo de redes neurais profundas, consolidou-se como um imperativo contemporâneo para a proteção da integridade informacional em ecossistemas digitais cada vez mais mediados por algoritmos. Contudo, o principal ponto de fragilidade dessas arquiteturas não reside exclusivamente na sofisticação técnica dos modelos empregados, mas, sobretudo, nos processos de constituição, seleção e curadoria dos conjuntos de dados utilizados em seu treinamento. Tais datasets são frequentemente permeados por vieses estruturais de raça, gênero e geopolítica, além de práticas problemáticas relacionadas à privacidade, ao uso não consentido de imagens biométricas e à exploração assimétrica de dados provenientes de populações vulnerabilizadas. Este artigo propõe uma análise crítica dos dilemas éticos associados à construção de datasets para sistemas de detecção de deepfakes, a partir de uma abordagem epistemológica e tecnopolítica. Parte-se do pressuposto de que os dados não são entidades neutras, mas produtos de escolhas sociais, políticas e econômicas que influenciam diretamente os resultados e impactos dos sistemas algorítmicos. Com base em estudos contemporâneos sobre justiça algorítmica, governança de dados e ética da inteligência artificial, examina-se como falhas na composição dos conjuntos de treinamento podem reproduzir e amplificar formas históricas de opressão, aprofundar desigualdades sociais e comprometer a legitimidade democrática das tecnologias voltadas ao enfrentamento da desinformação. Argumenta-se que detectores de deepfakes treinados a partir de bases de dados enviesadas correm o risco de operar de maneira discriminatória, gerar falsas assimetrias de proteção e minar a confiança pública nos próprios mecanismos de verificação de autenticidade. Nesse sentido, a eficácia técnica desses sistemas não pode ser dissociada de sua legitimidade ética e política.pt_BR
Tamanho: dc.format.extent650 KBpt_BR
Tipo de arquivo: dc.format.mimetypePDFpt_BR
Idioma: dc.language.isopt_BRpt_BR
Direitos: dc.rightsAttribution-NonCommercial-ShareAlike 3.0 Brazil*
Licença: dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/3.0/br/*
Palavras-chave: dc.subjectDeepfakespt_BR
Palavras-chave: dc.subjectÉtica algorítmicapt_BR
Palavras-chave: dc.subjectGovernança de dadospt_BR
Palavras-chave: dc.subjectJustiça algorítmicapt_BR
Título: dc.titleTreinamento Ético de Redes Neurais: Conjuntos de Dados, Viés e Privacidade na Detecção de Deepfakespt_BR
Tipo de arquivo: dc.typetextopt_BR
Aparece nas coleções:Textos

Não existem arquivos associados a este item.

Este item está licenciado sob uma Licença Creative Commons Creative Commons