A Lógica do Esquecimento

poder, governança de dados e a crítica decolonial da inteligência artificial

Autores

DOI:

https://doi.org/10.46230/lef.v17i3.16015

Palavras-chave:

inteligência artificial, vieses algorítmicos, invisibilidade social, justiça algorítmica

Resumo

A expansão da Inteligência Artificial (IA) em domínios críticos como saúde e segurança levanta questões urgentes sobre equidade e justiça. Este artigo argumenta que vieses algorítmicos não são meros erros técnicos , mas manifestações de desigualdades estruturais históricas, refletidas em bases de dados que funcionam como artefatos sociotécnicos. A pesquisa investiga dois mecanismos centrais de exclusão: a representação distorcida, que inclui grupos de modo estereotipado , e a invisibilidade seletiva, que apaga sistematicamente populações inteiras dos registros. Através de um quadro teórico que articula os Estudos Críticos de Algoritmos, o Feminismo de Dados e a crítica Decolonial , analisamos um mosaico de casos emblemáticos, incluindo reconhecimento facial , recrutamento automatizado e a omissão de dados LGBTQIA+. Demonstra-se a existência de um ciclo de retroalimentação da desigualdade , argumentando que soluções técnicas de "debiasing" são insuficientes. Por fim, o artigo propõe diretrizes estruturais para a justiça algorítmica, focadas na soberania dos dados , na contestabilidade efetiva e na governança democrática. 

Downloads

Não há dados estatísticos.

Biografia do Autor

Jefferson Igor Duarte Silva, Instituto Federal do Rio Grande do Norte (IFRN)

Possui graduação em Redes de Computadores pelo Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte (2013) e Mestrado em Sistemas e Computação pela UFRN (PPgsC/UFRN). Atualmente é Professor na área de Redes de Computadores do Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte. Tem experiência na área de Ciência da Computação, com ênfase em Indústria 4.0 e aprendizado de máquina. 

Akynara Aglaé Rodrigues Santos da Silva Burlamaqui, Universidade Federal Rural do Semi-Árido (UFERSA)

Professora Adjunta da Universidade Federal Rural do Semi-Árido (UFERSA, Centro Multidisciplinar de Angicos). Professora do quadro permanente do Programa de Pós-Graduação em Inovação em Tecnologias Educacionais (IMD- UFRN). Coordenadora do Laboratório de Tecnologias da Informação e Comunicação Aplicadas ao Contexto Educacional (LATIC - UFERSA, Angicos). Líder do grupo de Estudos e Pesquisa em Educação, Inovação, Tecnologias e Acessibilidade (EITA).Coordenadora de área do Programa Institucional de Bolsas de Iniciação à Docência (Pibid) - LCI, UFERSA, Angicos. Vice coordenadora do Curso de Pedagogia (UFERSA, Angicos). Co-fundadora da RoboEduc, Escola de Programação e Robótica, Natal, RN. Participa como pesquisadora do Laboratório de Tecnologias Educacionais, Assistivas e Multimídia (Npiti, IMD, UFRN). Participa de projetos de pesquisa / extensão envolvendo Psicologia Educacional, Aprendizagem Criativa, Tecnologias Educacionais, Formação e Prática Docente.

Aquiles Medeiros Filgueira Burlamaqui, Universidade Federal do Rio Grande do Norte (UFRN)

Possui Graduação em Ciências da Computação pela UFRN(Universidade Federal do Rio Grande do Norte) em 2003, Mestrado em Sistemas e Computação pela UFRN (2004). Doutor em Engenharia da Computação pela UFRN. Atualmente é professor Associado da UFRN, atuando na graduação na ECT(Escola de Ciências e Tecnologia) e na pós-graduação na ECT e IMD(Instituto Metrópole Digital). É pesquisador e coordenador nos laboratórios LAR(Laboratório de Automação e Robótica) e TEAM(Laboratório de Tecnologias Educacionais, Assistivas e Multimídia), atuando principalmente nos seguintes temas: Metaverso, Ambientes Virtuais Colaborativos Massivos, TV Digital Interativa, Sistemas Web, Aplicações de Robótica, Realidade Virtual, Engenharia de Software e Arte Telemática. Vem atuando fortemente na formação de pessoas para atuarem em ambientes de Inovação e Empreendedorismo. Já participou da formação de mais de 10 startups, incluindo a Roboeduc e Faceponto.

Referências

AJALA, F.; NYERERE, I. Digital Harvests, Digital Shadows: the risks of data colonialism in african smallholder agriculture. Nairobi: African Centre for Technology Studies, 2022.

AMOORE, L. Cloud Ethics: algorithms and the attributes of ourselves and others. Durham: Duke University Press, 2020. DOI: https://doi.org/10.1515/9781478009276

BAROCAS, S.; HARDT, M.; NARAYANAN, A. Fairness and Machine Learning: limitations and opportunities. Cambridge: MIT Press, 2019. Disponível em: https://fairmlbook.org. Acesso em: 22 out. 2025.

BENJAMIN, R. Race After Technology: abolitionist tools for the new Jim Code. Cambridge: Polity Press, 2019.

BIRHANE, A. Algorithmic Colonization of Africa. SCRIPTed, v. 17, n. 2, p. 389-405, 2020. Disponível em: https://script-ed.org/article/algorithmic-colonization-of-africa/. Acesso em: 23 out. 2025. DOI: https://doi.org/10.2966/scrip.170220.389

BOLUKBASI, T.; CHANG, K-W.; ZOU, J.; SALIGRAMA V.; KALAI A. Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings. In: Conference On Neural Information Processing Systems, 30., 2016, Barcelona. p. 4349–4357, 2016. Disponível em: https://papers.nips.cc/paper/2016/hash/a486cd07e4ac3d270571622f4f316ec5-Abstract.html. Acesso em: 22 out. 2025.

BUOLAMWINI, J.; GEBRU, T. Gender Shades: intersectional accuracy disparities in commercial gender classification. In: Conference On Fairness, Accountability, And Transparency, 2018, New York. Proceedings [...]. Cambridge: PMLR, 2018. v. 81, p. 77-91.

CARROLL, S. R.; GARBA, I.; FIGUEROA-RODRÍGUEZ, O. L.; HOLBROOK, J.; LOVETT, R.; MATERECHERA, S.; PARSONS, M.; RASEROKA, K.; RODRIGUEZ-LONEBEAR, D.; ROWE, R.; SARA, R.; WALKER, J. D.; ANDERSON, J.; HUDSON, M. The CARE principles for indigenous data governance. Data science journal, v. 19, p. 2-12 2020. Disponível em: https://datascience.codata.org/articles/1158/files/submission/proof/1158-1-8528-2-10-20201104.pdf. Acesso em: 28 out. 2025.

CARVALHO, A. A. de; BARRETO, R. C. V. A invisibilidade das pessoas LGBTQIA+ nas bases de dados: novas possibilidades na Pesquisa Nacional de Saúde 2019?. Ciência & Saúde Coletiva, v. 26, p. 4059-4064, 2021. Disponível em: https://www.scielo.br/j/csc/a/rwDkNhDCdyY5xdfyXNxmmGH/?format=html&lang=pt. Acesso em: 28 out. 2025. DOI: https://doi.org/10.1590/1413-81232021269.12002021

CITRON, D. K. Technological due process. Wash. UL Rev., v. 85, p. 1249, 2007. Disponível em: https://openscholarship.wustl.edu/cgi/viewcontent.cgi?article=1166&context=law_lawreview. Acesso em: 28 out. 2025.

COSTANZA-CHOCK, S. Design justice: community-led practices to build the worlds we need. The MIT Press, 2020. DOI: https://doi.org/10.7551/mitpress/12255.001.0001

COULDRY, N.; MEJIAS, U. A. The Costs of Connection: how data is colonizing human life and appropriating it for capitalism. Stanford: Stanford University Press, 2019. DOI: https://doi.org/10.1515/9781503609754

CRAWFORD, K. Atlas of AI: power, politics, and the planetary costs of artificial intelligence. New Haven: Yale University Press, 2021. DOI: https://doi.org/10.12987/9780300252392

DASTIN, J. Amazon scraps secret AI recruiting tool that showed bias against women. Reuters, 10 out. 2018. Disponível em: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G. Acesso em: 7 jul. 2025.

DE LIMA VIANA, G. M.; SPERANDEO DE MACEDO, C. Inteligência artificial e a discriminação algorítmica: : uma análise do caso amazon. Direito & TI, [S. l.], v. 1, n. 19, p. 39–62, 2024. DOI: 10.63451/ti.v1i19.212. Disponível em: https://www.direitoeti.com.br/direitoeti/article/view/212. Acesso em: 4 nov. 2025. DOI: https://doi.org/10.63451/ti.v1i19.212

DENIS, C.; ELIE R.; HEBIRI, M.; HU F. Fairness guarantees in multi-class classification with demographic parity. Journal of Machine Learning Research, v. 25, n. 130, p. 1- 46, 2024. Disponível em: https://arxiv.org/abs/2109.13642. Acesso em: 28 out. 2025.

D'IGNAZIO, C.; KLEIN, L. F. Data Feminism. Cambridge: The MIT Press, 2020. DOI: https://doi.org/10.7551/mitpress/11805.001.0001

FERRETTI, V.; MONTIBELLER, G.; VON WINTERFELDT, D. Testing the effectiveness of debiasing techniques to reduce overprecision in the elicitation of subjective continuous probability distributions. European Journal of Operational Research, v. 304, n. 2, p. 661-675, 2023. Disponível em: https://www.sciencedirect.com/science/article/pii/S0377221722003046. Acesso em 28 out. 2025. DOI: https://doi.org/10.1016/j.ejor.2022.04.008

FJELD, J.; ACHTEN, N.; HILLIGOSS, H.; NAGY, A. C.; SRIKUMAR, M. Principled artificial intelligence: Mapping consensus in ethical and rights-based approaches to principles for AI. Berkman Klein Center Research Publication, n. 2020-1, 2020. Disponível em: https://www.researchgate.net/publication/339138141_Principled_Artificial_Intelligence_Mapping_Consensus_in_Ethical_and_Rights-Based_Approaches_to_Principles_for_AI. Acesso em: 28 out. 2025. DOI: https://doi.org/10.2139/ssrn.3518482

GEBRU, T.; MORGENSTERN, J.; VECCHIONE B.; VAUGHAN, J. W. WALLACH, H.; DAUMÉ III, H.; CRAWFORD, K. Datasheets for Datasets. Communications of the ACM, New York, v. 64, n. 12, p. 86–92, dez. 2021. Disponível em: https://arxiv.org/abs/1803.09010. Acesso em: 28 out. 2025. DOI: https://doi.org/10.1145/3458723

GUPTA, N.; MUJUMDAR, S.; PATEL, H.; MASUDA, S.; PANWAR, N.; BANDYOPADHYAY, S.; MEHTA, S.; GUTTULA, S.; AFZAL, S.; MITTAL, R. S.; MUNIGALA, V. Data quality for machine learning tasks. In: Proceedings of the 27th ACM SIGKDD conference on knowledge discovery & data mining. The ACM Digital Library. KDD '21, p. 4040-4041. 2021. Disponível em: https://dl.acm.org/doi/abs/10.1145/3447548.3470817. Acesso em: 30 out. 2025. DOI: https://doi.org/10.1145/3447548.3470817

HARDT, M.; PRICE, E.; SREBRO, N. Equality of opportunity in supervised learning. In: Proceedings of the 30th International Conference on Neural Information Processing Systems. v. 29, p. 3323–3331, 2016. Disponível em: https://dl.acm.org/doi/abs/10.5555/3157382.3157469. Acesso em: 30 out. 2025.

HATZENBUEHLER, M. L; LATTANNER, M. R; MCKETTA, S.; PACHANKIS, J. E. Structural stigma and LGBTQ+ health: a narrative review of quantitative studies. The Lancet Public Health, [S.L.], v. 9, n. 2, p. 109-127, fev. 2024. Elsevier BV. http://dx.doi.org/10.1016/s2468-2667(23)00312-2. Disponível em: https://www.thelancet.com/action/showPdf?pii=S2468-2667%2823%2900312-2. Acesso em: 04 nov. 2025. YIN, R. K. Case Study Research and Applications: design and methods. 6. ed. Thousand Oaks: Sage, 2018. DOI: https://doi.org/10.1016/S2468-2667(23)00312-2

HEEKS, R.; RENKEN, J. Data justice for development: What would it mean? Information Development, v. 34, n. 1, p. 90-102, 2018. Disponível em: https://journals.sagepub.com/doi/abs/10.1177/0266666916678282. Acesso em: 30 out. 2025. DOI: https://doi.org/10.1177/0266666916678282

IYER, N.; ACHIENG, G.; BOROKINI, F.; LUDGER, U. Automated imperialism, expansionist dreams: exploring digital extractivism in Africa. POLLICY, 2021. Disponível em: https://archive.pollicy.org/wp-content/uploads/2021/06/Automated-Imperialism-Expansionist-Dreams-Exploring-Digital-Extractivism-in-Africa.pdf. Acesso em: 30 out. 2025.

MBEMBE, A. Necropolítica. São Paulo: n-1 Edições, 2019.

MEHRABI, N.; MORSTATTER, F.; SAXENA, N.; LERMAN, K.; GALSTYAN, A. A survey on bias and fairness in machine learning. ACM computing surveys (CSUR), v. 54, n. 6, p. 1-35, 2021. Disponível em: https://dl.acm.org/doi/10.1145/3457607. Acesso em: 30 out. 2025. DOI: https://doi.org/10.1145/3457607

MITCHELL, M.; WU, S.; ZALDIVAR, A.; BARNES, P.; VASSERMAN, L.; HUTCHINSON, B.; SPITZER, E.; RAJI, I. D.; GEBRU, T. Model Cards for Model Reporting. In: Conference On Fairness, Accountability, And Transparency, 2019, Atlanta. Proceedings [...]. New York: ACM, 2019. p. 220–229. Disponível em: https://arxiv.org/abs/1810.03993. Acesso em: 30 out. 2025. DOI: https://doi.org/10.1145/3287560.3287596

NOBLE, S. U. Algorithms of Oppression: how search engines reinforce racism. New York: New York University Press, 2018. DOI: https://doi.org/10.18574/nyu/9781479833641.001.0001

ORR, W.; CRAWFORD, K. The social construction of datasets: on the practices, processes, and challenges of dataset creation for machine learning. New Media & Society, v. 26, n. 9, p. 4955-4972, 2024. DOI: https://doi.org/10.1177/14614448241251797

PASQUALE, F. The Black Box Society: the secret algorithms that control money and information. Cambridge: Harvard University Press, 2015. DOI: https://doi.org/10.4159/harvard.9780674736061

QUIJANO, A. A colonialidade do saber: eurocentrismo e ciências sociais. Perspectivas latino-americanas. Buenos Aires: CLACSO, p. 117-142, 2005. Disponível em: https://ufrb.edu.br/educacaodocampocfp/images/Edgardo-Lander-org-A-Colonialidade-do-Saber-eurocentrismo-e-ciC3AAncias-sociais-perspectivas-latinoamericanas-LIVRO.pdf. Acesso em: 30 out. 2025.

RAJI, I. D.; BUOLAMWINI, J. Actionable Auditing: investigating the impact of publicly naming biased performance results of commercial AI products. In: AAAI/ACM Conference On Ai, Ethics, And Society, 2019, Honolulu. Proceedings [...]. New York: ACM, 2019. p. 429-435. Disponível em: https://www.media.mit.edu/publications/actionable-auditing-investigating-the-impact-of-publicly-naming-biased-performance-results-of-commercial-ai-products/. Acesso em: 30 out. 2025. DOI: https://doi.org/10.1145/3306618.3314244

RAMIRO, A.; CRUZ, L. The grey-zones of public-private surveillance: Policy tendencies of facial recognition for public security in Brazilian cities. Internet Policy Review, v. 12, n. 1. p. 1-28, 2023. Disponível em: https://policyreview.info/pdf/policyreview-2023-1-1705.pdf. Acesso em: 30 out. 2025. DOI: https://doi.org/10.14763/2023.1.1705

REDE de Observatórios Da Segurança. Pele Alvo: a cor da violência policial. [S.l.]: Rede de Observatórios da Segurança, 2021. Disponível em: https://redeobservatorios.com.br/wp-content/uploads/2022/08/Pele-Alvo-A-cor-da-violencia-policial.pdf. Acesso em: 7 jul. 2025.

ROCHE, C.; WALL, P. J.; LEWIS, D. Ethics and diversity in artificial intelligence policies, strategies and initiatives. AI and Ethics, v. 3, n. 4, p. 1095-1115, 2023. Disponível em: https://pubmed.ncbi.nlm.nih.gov/36246014/. Acesso em: 30 out. 2025. DOI: https://doi.org/10.1007/s43681-022-00218-9

ROSA, A. M. da; GUASQUE, B. Inteligência artificial, vieses algorítmicos e racismo: o lado desconhecido da justiça algorítmica. Opinión Jurídica, v. 23, n. 50, p. 1-23, 2024. Disponível em: http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S1692-25302024000200008. Acesso em: 30 out. 2025. DOI: https://doi.org/10.22395/ojum.v23n50a49

SELBST, A. D. Disparate impact in big data policing. Ga. L. Rev., v. 52, p. 109, 2017. Disponível em: https://dlg.usg.edu/record/ugalaw_glr_vol52-iss1-6. Acesso em: 30 out. 2025.

SCHEUERMAN, M. K.; JIANG, J. A.; FIESLER, C.; BRUBAKER, J. R. ‘What is it about ‘lesbian’ that is so scary?’: How AI-driven content moderation systems fail LGBTQ+ creators. Proceedings of the ACM on Human-Computer Interaction, New York, v. 5, n. CSCW2, art. 422, p. 368:1–35, out. 2021. Disponível em: https://arxiv.org/pdf/2108.04401. Acesso em: 30 out. 2025. DOI: https://doi.org/10.1145/3479512

VERMA, S.; RUBIN, J. Fairness definitions explained. In: IEEE/ACM INTERNATIONAL WORKSHOP ON SOFTWARE FAIRNESS, 2018, Gotemburgo. Proceedings [...]. New York: IEEE, 2018. p. 1-7. Disponível em: https://dl.acm.org/doi/10.1145/3194770.3194776. Acesso em: 01 nov. 2025. DOI: https://doi.org/10.1145/3194770.3194776

WANG, A.; RAMASWAMY, V. V.; RUSSAKOVSKY, O. Towards intersectionality in machine learning: including more identities, handling underrepresentation, and performing evaluation. In: Proceedings of the 2022 ACM conference on fairness, accountability, and transparency. 2022. p. 336-349. Disponível em: https://dl.acm.org/doi/fullHtml/10.1145/3531146.3533101. Acesso em: 01 nov. 2025. DOI: https://doi.org/10.1145/3531146.3533101

YIN, R. K. Case Study Research and Applications: design and methods. 6. ed. Thousand Oaks: Sage, 2018.

Downloads

Publicado

2025-12-10

Como Citar

SILVA, J. I. D.; BURLAMAQUI, A. A. R. S. da S.; BURLAMAQUI, A. M. F. A Lógica do Esquecimento: poder, governança de dados e a crítica decolonial da inteligência artificial. Revista Linguagem em Foco, Fortaleza, v. 17, n. 3, p. 70–90, 2025. DOI: 10.46230/lef.v17i3.16015. Disponível em: https://revistas.uece.br/index.php/linguagememfoco/article/view/16015. Acesso em: 15 dez. 2025.