Por favor, use este identificador para citar o enlazar este ítem:
http://191.252.194.60:8080/handle/fdv/1948| metadata.dc.type: | Tese |
| Título : | Racismo algorítmico e ferramentas de policiamento preditivo: proteção de direitos fundamentais ou um retorno a Cesare Lombroso? |
| metadata.dc.creator: | Moreira Júnior, Ronaldo Félix |
| metadata.dc.contributor.advisor1: | Moreira, Nelson Camatta |
| metadata.dc.contributor.referee1: | Pedra, Adriano Sant’Ana |
| metadata.dc.contributor.referee2: | Carvalho , Raphael Boldt de |
| metadata.dc.contributor.referee3: | Espindola , Angela Araujo da Silveira |
| metadata.dc.contributor.referee4: | Rubio, David Sanchez |
| metadata.dc.description.resumo: | Este trabalho investiga a relação existente entre inteligência artificial (IA), racismo algorítmico e colonialismo digital, com foco na análise de ferramentas de policiamento preditivo. O estudo demonstra como os algoritmos treinados com dados derivados de experiências humanas (como abordagens policiais) refletem preconceitos e estereótipos, reforçando um racismo já presente durante a persecução penal. Com efeito, sistemas de policiamento preditivo (como o PredPol e Palantir, apresentados no decorrer da tese), exemplificam essas práticas ao basear suas previsões delitivas em dados enviesados, o que, consequentemente, possui o potencial de aumentar a vigilância e até mesmo a violência praticada pelo Estado contra grupos já tradicionalmente marginalizados. O presente estudo se insere na linha de pesquisa “Democracia, Cidadania e Direitos Fundamentais”, do Programa de Pós-Graduação em Direitos e Garantias Fundamentais da Faculdade de Direito de Vitória, e tem como escopo demonstrar que a adoção por parte de países em desenvolvimento dessas tecnologias, sob um discurso de neutralidade, pode ser encarada como um reflexo do colonialismo digital e um retorno aos preceitos da criminologia lombrosiana do séc. XIX. Ao examinar essas questões a partir de uma metodologia predominantemente qualitativa e bibliográfica, a pesquisa também apresenta a hipótese de que é viável (e possível) a criação de ferramentas não violadoras de garantias, até mesmo no campo da persecução penal, partindo da premissa de que a IA pode ser desenvolvida e aplicada de forma a observar direitos humanos e fundamentais. Nesse sentido, em conclusão, como forma de comprovar a hipótese fundante, a tese apresenta projetos concretos de desenvolvimento de inteligências artificiais a partir de uma comunicação com o conceito de direitos humanos instituintes, destacando a importância de uma abordagem regulatória estatal que evite a reprodução de preconceitos históricos e culturais nesses sistemas tecnológicos |
| Resumen : | This work investigates the relationship between artificial intelligence (AI), algorithmic racism, and digital colonialism, focusing on the analysis of predictive policing tools. The study demonstrates how algorithms trained with data derived from human experiences (such as police interactions) reflect stereotypes, reinforcing existing racism within criminal prosecution processes. Indeed, predictive policing systems (such as PredPol and Palantir, discussed throughout the thesis) exemplify these practices by basing their crime predictions on biased data, which can potentially increase surveillance and even state violence against historically marginalized groups. This study falls within the study area "Democracy, Citizenship, and Fundamental Rights" of the Graduate Program in Rights and Fundamental Guarantees at the Faculdade de Direito de Vitória. Its aim is to demonstrate that the adoption of these technologies by developing countries under a rhetoric neutrality can be seen as a reflection of digital colonialism and a return to the precepts of 19th-century Lombrosian criminology. By examining these issues through a predominantly qualitative and bibliographic methodology, the research also hypothesizes that the creation of non- violating tools respecting fundamental guarantees is feasible, particularly in the field of criminal prosecution, with the premise that AI can be developed and applied in a way that upholds human and fundamental rights. To support this hypothesis, the thesis concludes by presenting concrete AI development projects aligned with the concept of foundational human rights, emphasizing the need for a state regulatory framework that prevents the perpetuation of historical and cultural biases in technological systems |
| Palabras clave : | Colonialismo digital Direitos humanos instituintes Inteligência artificial Policiamento preditivo Racismo algorítmico |
| metadata.dc.subject.cnpq: | CNPQ::CIENCIAS SOCIAIS APLICADAS::DIREITO |
| metadata.dc.language: | por |
| metadata.dc.publisher.country: | Brasil |
| Editorial : | Faculdade de Direito de Vitoria |
| metadata.dc.publisher.initials: | FDV |
| metadata.dc.publisher.department: | Departamento 2 |
| metadata.dc.publisher.program: | PPG1 |
| Citación : | MOREIRA JÚNIOR, Ronaldo Félix. Racismo algorítmico e ferramentas de policiamento preditivo: proteção de direitos fundamentais ou um retorno a Cesare Lombroso? Orientador: Nelson Camatta Moreira. 2025. 160 f. Tese (Doutorado em Direitos e Garantias Fundamentais) - Programa de Pós-Graduação em Direitos e Garantias Fundamentais, Faculdade de Direito de Vitória, Vitória, 2025. |
| metadata.dc.rights: | Acesso Aberto |
| URI : | http://191.252.194.60:8080/handle/fdv/1948 |
| Fecha de publicación : | 12-mar-2025 |
| Aparece en las colecciones: | Teses |
Ficheros en este ítem:
| Fichero | Descripción | Tamaño | Formato | |
|---|---|---|---|---|
| Tese - Ronaldo Felix Moreira Júnior.pdf | 1.11 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.