“Ratanabá” e o sequestro da atenção: o papel do algoritmo na recomendação de desinformação no YouTube

Registro completo de metadados
MetadadosDescriçãoIdioma
Autor(es): dc.contributorOliveira, Thaiane-
Autor(es): dc.contributorAlbuquerque, Afonso-
Autor(es): dc.contributorAlves, Marcelo-
Autor(es): dc.contributorSantini, Rose-
Autor(es): dc.contributorhttp://lattes.cnpq.br/1574211507094356-
Autor(es): dc.creatorLeitão, Ana Carollina-
Data de aceite: dc.date.accessioned2024-07-11T17:24:45Z-
Data de disponibilização: dc.date.available2024-07-11T17:24:45Z-
Data de envio: dc.date.issued2024-02-29-
Data de envio: dc.date.issued2024-02-29-
Fonte completa do material: dc.identifierhttp://app.uff.br/riuff/handle/1/32484-
Fonte: dc.identifier.urihttp://educapes.capes.gov.br/handle/capes/749738-
Descrição: dc.descriptionO sistema de recomendação do YouTube, que personaliza sugestões de vídeos de acordo com gostos e preferências do usuário com o objetivo de produzir audiência, tem sido pesquisado quanto ao seu potencial de recomendar conteúdos extremistas e narrativas alternativas sobre o mundo. Em junho de 2022, a falsa história de “Ratanabá”, uma cidade que teria sido descoberta por pesquisadores na Amazônia, foi mais buscada no YouTube que as informações sobre o assassinato do indigenista brasileiro Bruno Pereira e do jornalista britânico Dom Phillips. O crime aconteceu na Terra Indígena Vale do Javari no estado do Amazonas e contou com repercussão nacional e internacional. Quase um ano depois desses acontecimentos, esta pesquisa investiga o que os usuários encontram no YouTube ao buscar por “Ratanabá” e “Bruno e Dom”. A partir disso, discute-se o papel do sistema de recomendação do YouTube no que diz respeito à curadoria algorítmica e ao seu potencial para recomendar – por meio de suas affordances – e recompensar – por meio da monetização – a desinformação. Para tanto, foram criados dois perfis de usuário especificamente para este trabalho, um simulando um espectador interessado em divulgação científica, e outro mais voltado à desinformação. Isso permitiu: (i) investigar se a recomendação de desinformação pelo YouTube varia conforme personalização; (ii) observar se a desinformação leva a mais vídeos desinformativos segundo cada perfil; (iii) mapear táticas de captura da atenção do usuário; (iv) e examinar evidências de publicidade e de recursos de monetização. Os dados foram analisados em duas etapas. A análise das recomendações foi realizada a partir da aplicação de um tripé analítico, cujos pilares epistêmico, tecnológico e econômico discutem a relação entre desinformação, curadoria algorítmica e economia da atenção. Posteriormente, a análise de redes permitiu mapear a rede de vídeos relacionados pelo sistema de recomendação do YouTube. Observou-se uma diferenciação entre os resultados de busca por perfil e por termo-chave. Contudo, os achados mostram que: (i) a personalização não impediu que a desinformação fosse recomendada ao perfil interessado em divulgação científica; (ii) a história de “Ratanabá” levou a outros modos epistêmicos; e (iii) os vídeos com títulos desinformativos apresentam mais evidências de monetização dos criadores de conteúdo via recursos do YouTube Partners Program. Isso significa que a recomendação de desinformação pelo YouTube varia conforme cada perfil, com a personalização sendo um aspecto importante, mas não determinante. Quanto à formação de bolhas desinformativas, os rastros digitais não oferecem conclusões totalizantes, mas apontam relações que favorecem a desinformação. Em relação à publicidade e táticas de monetização, foi observado que os vídeos sobre “Ratanabá” estão mais inseridos na economia da atenção do YouTube, seja por características relativas aos metadados (título e descrição do vídeo) ou ao uso dos recursos de monetização da plataforma.-
Descrição: dc.descriptionYouTube recommendation system customizes video suggestions according to the user's preferences in order to produce an audience. In the last years, it has been researched for its potential to recommend extremist content and alternative narratives about the world. In June 2022, a false story of “Ratanabá”, a town allegedly discovered by researchers in the Brazilian Amazon, was most searched on YouTube than information about the murder of Brazilian indigenist Bruno Pereira and British journalist Dom Phillips. The crime took place in the Vale do Javari Indigenous Land in the Brazilian state of Amazonas and it had national and international repercussions. Almost a year after these events, this research investigates what users find on YouTube when searching for “Ratanabá” and “Bruno e Dom”. From this, we discuss the role of the YouTube recommendation system with regard to algorithmic curation and its potential to recommend – through its affordances – and reward – through monetization – disinformation. To this end, two user profiles were created specifically for this work, one simulating a spectator interested in scientific content, and another more focused on disinformation content. This allowed: (i) to investigate whether disinformation recommendation by YouTube varies according to personalization; (ii) observe whether disinformation leads to more disinformation videos according to each profile; (iii) map user attention capture tactics; (iv) and examine evidence of advertising and monetization features. Data were analyzed in two steps. The analysis of the recommendations was carried out based on the application of an analytical tripod, whose epistemic, technological and economic pillars discuss the relationship between disinformation, algorithmic curation and the economy of attention. Subsequently, network analysis allowed mapping the network of videos related by the YouTube recommendation system. A difference was observed between search results by profile and by keyword. However, the findings show that: (i) personalization did not prevent disinformation from being recommended to the profile interested in scientific content; (ii) the story of “Ratanabá” led to other epistemic modes; and (iii) videos with uninformative titles provide more evidence of creator monetization via YouTube Partners Program resources. This means that YouTube's disinformation recommendation varies from profile to profile, with personalization being an important but not decisive aspect. As for the formation of disinformation bubbles, the digital traces do not offer final conclusions, however point out to relationships that favor disinformation. Regarding advertising and monetization tactics, it was observed that videos about “Ratanabá” are more inserted in YouTube’s attention economy, either due to characteristics related to metadata (video title and description) or the use of the platform’s monetization resources.-
Descrição: dc.description173 p.-
Formato: dc.formatapplication/pdf-
Idioma: dc.languagept_BR-
Direitos: dc.rightsOpen Access-
Direitos: dc.rightsCC-BY-SA-
Palavras-chave: dc.subjectDesinformação-
Palavras-chave: dc.subjectYouTube-
Palavras-chave: dc.subjectSistema de Recomendação-
Palavras-chave: dc.subjectEconomia da Atenção-
Palavras-chave: dc.subjectAlgoritmo-
Palavras-chave: dc.subjectTeoria da Conspiração-
Palavras-chave: dc.subjectFake news-
Palavras-chave: dc.subjectYouTube (Recurso eletrônico)-
Palavras-chave: dc.subjectDisinformation-
Palavras-chave: dc.subjectYouTube-
Palavras-chave: dc.subjectRecommender System-
Palavras-chave: dc.subjectAttention Economy-
Palavras-chave: dc.subjectAlgorithm-
Palavras-chave: dc.subjectConspiracy Theory-
Título: dc.title“Ratanabá” e o sequestro da atenção: o papel do algoritmo na recomendação de desinformação no YouTube-
Título: dc.title“Ratanabá” and the attention trap: the role of algorithms in recommending disinformation on YouTube-
Tipo de arquivo: dc.typeDissertação-
Aparece nas coleções:Repositório Institucional da Universidade Federal Fluminense - RiUFF

Não existem arquivos associados a este item.