Algorithm

bias, power, and ethics in the age of Artificial Intelligence

Authors

DOI:

https://doi.org/10.46230/lef.v17i3.16081

Keywords:

algorithms, neutrality discourse, bias verification, mitigation

Abstract

Through the exploration of a real database, we conducted an empirical study to try to answer the research questions: whether discriminatory biases exist and can be identified in AI, and, in a second stage, whether mitigation is possible. The methodological procedure adopted includes a bias identification phase, through the application of three types of processing techniques to the database (pre-processing, in-processing, and post-processing), in which the results were compared and the decisions made by the model were verified, resulting in an Explainable AI, whose data can be understood, scrutinized, and challenged according to the values described in our 1988 Constitution. In the future phase of proposing actions, in order to bring constitutional ethics closer to algorithm development, we intend to "train the machine" to include the foundations, values, and principles of the Brazilian Federal Constitution and see if the system makes the database less biased. The immediate linguistic objective is to deconstruct the belief in the infallibility of automation and propose future improvements for system operators. To better understand the biases/discriminations reproduced by AI, the theoretical framework of Critical Discourse Analysis and Decolonial Theory served as a compass. The contributions are multiple and fall within the scrutiny of a discourse that was imagined to be free from social ills and in bringing machine operators closer to a more tangible ethic, foreseen in a reliable Document. The results are still preliminary and only account for the bias identification phase, as we were able to demonstrate their existence and point them out in the chosen database. The offering of coping tools will be left for the opportunity to complete the postgraduate course. For now, we share the certainty of abuses produced in technological means, in line with others existing in other areas of our society.

Downloads

Download data is not yet available.

Author Biographies

Elaine Maria Gomes de Abrantes, Universidade Estadual do Rio Grande do Norte (UERN)

Doutora em Letras pela Universidade do Estado do Rio Grande do Norte (UERN). Mestre em Gestão Pública pela Universidade Federal de Pernambuco (UFPE). Especialista em Gestão da Administração Pública pela Universidade Federal de Campina Grande (UFCG). Graduada em Direito pela Universidade Federal da Paraíba (UFPB). Licenciada em Letras pelo Instituto Federal da Paraíba (IFPB). É Analista Judiciária no Tribunal de Justiça da Paraíba (TJPB). Atuou como docente na UFCG, no Centro de Conciliação e Mediação de Sousa (CCM), no Curso de Tecnologia em Gestão Pública da UERN, na Faculdade Evolução Alto Oeste Potiguar - FACEP, na Faculdade São Francisco - FSF e na Escola Superior da Magistratura da Paraíba - ESMA/PB.

Leandra Oliveira Silva, Universidade Federal de Campina Grande (UFCG)

Mestranda em Inteligência Artificial pela UFCG - Universidade Federal de Campina Grande. Tem experiência na área de Ciência da Computação, desenvolvimento web e backend com experiência nas tecnologias HTML5, CSS3, React, JavaScript, Python e java. E possui conhecimentos específicos em teoria dos grafos, utilizando as tecnologias de java, jGraphT e Neo4J

Erick Araken Vieira Gomes, Universidade Federal de Campina Grande (UFCG)

Mestrando em Inteligência Artificial pela UFCG - Universidade Federal de Campina Grande. 

References

ARRATIBEL, A. J. Paola Ricaurte talks about the future of inclusive AI. TecScience, june 2025. Disponível em: https://tecscience.tec.mx/en/human-social/paola-ricaurte/. Acesso em: 15 nov. 2025.

BRASIL. [Constituição (1988)]. Constituição da República Federativa do Brasil de 1988. Brasília, DF: Presidente da República, [2016].

BRASIL. Lei nº 13.146, de 6 de julho de 2015. Institui a Lei Brasileira de Inclusão da Pessoa com Deficiência (Estatuto da Pessoa com Deficiência). Diário Oficial da União, Brasília, DF, 7 jul. 2015. Disponível em: http://www.planalto.gov.br/ccivil_03/_Ato2015-2018/2015/Lei/L13146.htm . Acesso em: 31 jul. 2025.

GOMES, V. H. dos S.; SILVA, R. C. A.; NERI, T. C. da S. Ética em sistemas de IA: um olhar sobre a injustiça algorítmica e a deficiência. Revista IDeAS, [S. l.], v. 12 n. 2, p. 238- 260, 2023. DOI: https://doi.org/10.51359/2317-0115.2023.260751. Disponível em: https://periodicos.ufpe.br/revistas/index.php/RMP/article/view/260751. Acesso em: 20 jul. 2025. DOI: https://doi.org/10.51359/2317-0115.2023.260751

GORENC, N. AI embedded bias on social platforms. International Review of Sociology, v. 35, n. 1, p. 1–20, 2025. Disponível em: https://doi.org/10.1080/03906701.2025.2489056. Acesso em: 31 jul. 2025. DOI: https://doi.org/10.1080/03906701.2025.2489056

HASHIGUTI, S. T.; FAGUNDES, I. Z. Z. O algoritmo como materialidade discursiva em um contexto de educação linguística. Letras & Letras, v. 38, p. 1-21, 2023. DOI: https://doi.org/10.14393/LL63-v38-2022-27. Disponível em: https://seer.ufu.br/index.php/letraseletras/article/view/68123. Acesso em: 20 jul. 2025. DOI: https://doi.org/10.14393/LL63-v38-2022-27

LISBOA, C. A.; PASSOS, E. G.; FERREIRA, J. da S. Desvendando vieses em IA: um estudo sobre reconhecimento facial e futuros feministas. Temáticas, Campinas, v. 33, n. 65, p. 1–20, 2025. DOI: https://doi.org/10.20396/tematicas.v33i65.19932. Disponível em: https://econtents.bc.unicamp.br/inpec/index.php/tematicas/article/download/19932/14811/58245. Acesso em: 20 jul. 2025. DOI: https://doi.org/10.20396/tematicas.v33i65.19932

MOURA, I. Encoding normative ethics: on algorithmic bias and disability. First Monday, v. 28, n. 1, p. 1-23, 2023. Disponível em: https://firstmonday.org/ojs/index.php/fm/article/view/12905. Acesso em: 20 jul. 2025.

OLIVEIRA, Cyntia Barbosa. Racismo algorítmico e inteligência artificial: a discriminação nos sistemas de videomonitoramento. Em Tese, Florianópolis, v. 22, n. 1, p. 1-20, 2025. DOI: https://doi.org/10.5007/1806-5023.2025.e105023. Disponível em: https://periodicos.ufsc.br/index.php/emtese/article/view/105023. Acesso em: 20 jul. 2025. DOI: https://doi.org/10.5007/1806-5023.2025.e105023

REQUIÃO, M.; COSTA, D. Discriminação algorítmica: ações afirmativas como estratégia de combate. Civilistica.com, v. 11, n. 3, p. 1–24, 25 dez. 2022. Disponível em: https://civilistica.emnuvens.com.br/redc/article/download/804/650/1832. Acesso em: 20 jul. 2025.

ROSENTHAL-VON DER PÜTTEN, A. M.; SACH, A. Michael is better than Mehmet: exploring the perils of algorithmic biases and selective adherence to advice from automated decision support systems in hiring. Frontiers in Psychology, v. 15, p. 1-19, 2024. Disponível em: https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2024.1416504/full. Acesso em: 31 jul. 2025. DOI: https://doi.org/10.3389/fpsyg.2024.1416504

SILVA, F. dos S. R. Nada mais sobre nós sem nós: escurecendo o debate sobre a regulação de IA no Brasil e pensando mecanismos de combate ao racismo algorítmico. Relatório de Pesquisa – Programa Líderes LACNIC 2.0. Brasil: LACNIC, 2023. Disponível em: https://www.lacnic.net/innovaportal/file/6974/1/regulacao-de-ia-e-discriminacao-algoritmica-informe-de-investigacion-pt.pdf. Acesso em: 20 jul. 2025.

SILVA, F. S. R.; SILVA, T. (orgs.). Artificial intelligence and racial discrimination in Brazil: key issues and recommendations. Belo Horizonte: Institute for Research on Internet and Society, 2024. Disponível em: https://bit.ly/4dGXxVi. Acesso em: 20 jul. 2025.

SILVA, P. B. M. e. Racismo algoritmo: a nova face da injustiça penal. São Paulo: Migalhas, 2025. Disponível em: https://www.migalhas.com.br/depeso/429528/racismo-algoritmo-a-nova-face-da-injustica-penal. Acesso em: 20 jul. 2025.

SILVA, T. O racismo algorítmico é uma espécie de atualização do racismo estrutural. Rio de Janeiro: Centro de Estudos Estratégicos da Fiocruz, 2021. Disponível em: https://cee.fiocruz.br/?q=Tarcizio-Silva-O-racismo-algoritmico-e-uma-especie-de-atualizacao-do-racismo-estrutural. Acesso em: 20 jul. 2025.

SOARES, T. A.; GUMIEL, Y. B.; JUNQUEIRA, R.; GOMES, T.; PAGANO, A. Viés de gênero na tradução automática do GPT-3.5 turbo: avaliando o par linguístico inglês-português. In: Simpósio Brasileiro de Tecnologia da Informação e da Linguagem Humana (STIL), 14., 2023, Belo Horizonte. Anais [...]. Porto Alegre: Sociedade Brasileira de Computação, 2023. p. 167–176. DOI: https://doi.org/10.5753/stil.2023.234186. Acesso em: 20 jul. 2025. DOI: https://doi.org/10.5753/stil.2023.234186

TASO, F. T. de S.; REIS, V. Q.; MARTINEZ, F. H. V. Discriminação algorítmica de gênero: estudo de caso e análise no contexto brasileiro. In: Women In Information And Computing Sciences (WICS), 2022, [S. l.]. Sociedade Brasileira de Computação, 2022. Disponível em: https://sol.sbc.org.br/index.php/wics/article/download/24825/24646/. Acesso em: 20 jul. 2025.

TAVARONE, P. G. A utilização de tecnologias nas investigações criminais e o racismo algorítmico: implicações para os direitos fundamentais. 2025. 60 f. Trabalho de Conclusão de Curso (Bacharelado em Direito) – Universidade Anhembi Morumbi, São Paulo, 2025. Disponível em: https://repositorio.animaeducacao.com.br/bitstreams/02170548-56ab-4f6e-8772-d00653555c73/download. Acesso em: 20 jul. 2025.

TOOSI, A. twitter-sentiment-analysis-hatred-speech: repositório de código para análise de sentimentos e discurso de ódio no Twitter*. 2018. Disponível em: https://www.kaggle.com/datasets/tooso/twitter-sentiment-analysis-hatred-speech. Acesso em: 31 jul. 2025.

VIANA, G. M. de L.; MACEDO, C. S. de. Inteligência artificial e a discriminação algorítmica: uma análise do caso Amazon. Direito & TI, [S. l.], v. 1, n. 19, p. 39–62, 2024. DOI: https://doi.org/10.63451/ti.v1i19.212. Disponível em: https://direitoeti.com.br/direitoeti/article/view/212. Acesso em: 31 jul. 2025. DOI: https://doi.org/10.63451/ti.v1i19.212

VIEIRA, J. R. B. F. Violência digital: deepfakes o novo rosto da opressão contra mulheres. São Paulo: Migalhas, 2025. Disponível em: https://www.migalhas.com.br/depeso/430699/violencia-digital-deepfakes-o-novo-rosto-da-opressao-contra-mulheres. Acesso em: 20 jul. 2025.

VOTELGBT. IA+LGBT – Nossa inteligência contra a violência política. [S. l.]: VoteLGBT, [202–]. Disponível em: https://www.votelgbt.org/inteligencia. Acesso em: 20 jul. 2025.

WENDEHORST, C. Bias in algorithms: artificial intelligence and discrimination. 1. ed. Luxembourg: Publications Office of the European Union, 2022. 106 p. Disponível em: https://fra.europa.eu/sites/default/files/fra_uploads/fra-2022-bias-in-algorithms_en.pdf. Acesso em: 31 jul. 2025.

Published

2025-12-10

How to Cite

ABRANTES, E. M. G. de; SILVA, L. O.; GOMES, E. A. V. Algorithm: bias, power, and ethics in the age of Artificial Intelligence. Linguagem em Foco Scientific Journal, Fortaleza, v. 17, n. 3, p. 51–69, 2025. DOI: 10.46230/lef.v17i3.16081. Disponível em: https://revistas.uece.br/index.php/linguagememfoco/article/view/16081. Acesso em: 15 dec. 2025.