Algoritmo

viés, poder e ética na era da Inteligência Artificial

Autores

DOI:

https://doi.org/10.46230/lef.v17i3.16081

Palavras-chave:

algoritmos, discurso de neutralidade, comprovação de vieses, mitigação

Resumo

Através da exploração de um banco de dados real, realizamos um estudo empírico para tentar responder às perguntas de pesquisa: se existe e se é possível identificarmos vieses discriminatórios na IA, bem como, em uma segunda etapa, se há possibilidade de mitigação. O procedimento metodológico adota,do inclui a fase de identificação de vieses, através da aplicação no banco de dados de três tipos de técnicas de processamento (pre-processing, in-processing e post-processing), em que os resultados foram comparados e após verificadas quais as decisões tomadas pelo modelo, resultando numa IA Explicável, cujos dados podem ser compreendidos, escrutinados e contestados conforme os valores descritos em nossa Carta Magna de 1988. Na fase futura de proposição de ações, a fim de aproximar a ética constitucional do fazer algoritmo, pretendemos “treinar a máquina” para incluir os fundamentos, valores e princípios da Constituição Federal brasileira e ver se o sistema torna o banco de dados menos enviesado. O objetivo linguístico imediato é desconstruir a crença na infalibilidade da automação e propor melhorias futuras aos operadores de sistemas. Para melhor compreensão dos preconceitos/discriminações reproduzidos pela IA, o quadro teórico da Análise Crítica do Discurso e na Teoria Decolonial serviu de bússola. As contribuições são múltiplas e se inserem no escrutínio de um discurso que se imaginava isento das mazelas sociais e na aproximação dos operadores de máquinas de uma ética mais palpável, prevista em um Documento confiável. Os resultados ainda são preliminares e só dão conta da fase de identificação de vieses, pois conseguimos demonstrar sua existência e apontá-los no banco de dados escolhido. O oferecimento de ferramentas de enfrentamento ainda ficará para a oportunidade de conclusão da pós-graduação. Por hora, partilhamos a certeza de abusos produzidos nos meios tecnológicos, em consonância com os outros existentes nas outras áreas de nossa sociedade.

Downloads

Não há dados estatísticos.

Biografia do Autor

Elaine Maria Gomes de Abrantes, Universidade Estadual do Rio Grande do Norte (UERN)

Doutora em Letras pela Universidade do Estado do Rio Grande do Norte (UERN). Mestre em Gestão Pública pela Universidade Federal de Pernambuco (UFPE). Especialista em Gestão da Administração Pública pela Universidade Federal de Campina Grande (UFCG). Graduada em Direito pela Universidade Federal da Paraíba (UFPB). Licenciada em Letras pelo Instituto Federal da Paraíba (IFPB). É Analista Judiciária no Tribunal de Justiça da Paraíba (TJPB). Atuou como docente na UFCG, no Centro de Conciliação e Mediação de Sousa (CCM), no Curso de Tecnologia em Gestão Pública da UERN, na Faculdade Evolução Alto Oeste Potiguar - FACEP, na Faculdade São Francisco - FSF e na Escola Superior da Magistratura da Paraíba - ESMA/PB.

Leandra Oliveira Silva, Universidade Federal de Campina Grande (UFCG)

Mestranda em Inteligência Artificial pela UFCG - Universidade Federal de Campina Grande. Tem experiência na área de Ciência da Computação, desenvolvimento web e backend com experiência nas tecnologias HTML5, CSS3, React, JavaScript, Python e java. E possui conhecimentos específicos em teoria dos grafos, utilizando as tecnologias de java, jGraphT e Neo4J

Erick Araken Vieira Gomes, Universidade Federal de Campina Grande (UFCG)

Mestrando em Inteligência Artificial pela UFCG - Universidade Federal de Campina Grande. 

Referências

ARRATIBEL, A. J. Paola Ricaurte talks about the future of inclusive AI. TecScience, june 2025. Disponível em: https://tecscience.tec.mx/en/human-social/paola-ricaurte/. Acesso em: 15 nov. 2025.

BRASIL. [Constituição (1988)]. Constituição da República Federativa do Brasil de 1988. Brasília, DF: Presidente da República, [2016].

BRASIL. Lei nº 13.146, de 6 de julho de 2015. Institui a Lei Brasileira de Inclusão da Pessoa com Deficiência (Estatuto da Pessoa com Deficiência). Diário Oficial da União, Brasília, DF, 7 jul. 2015. Disponível em: http://www.planalto.gov.br/ccivil_03/_Ato2015-2018/2015/Lei/L13146.htm . Acesso em: 31 jul. 2025.

GOMES, V. H. dos S.; SILVA, R. C. A.; NERI, T. C. da S. Ética em sistemas de IA: um olhar sobre a injustiça algorítmica e a deficiência. Revista IDeAS, [S. l.], v. 12 n. 2, p. 238- 260, 2023. DOI: https://doi.org/10.51359/2317-0115.2023.260751. Disponível em: https://periodicos.ufpe.br/revistas/index.php/RMP/article/view/260751. Acesso em: 20 jul. 2025. DOI: https://doi.org/10.51359/2317-0115.2023.260751

GORENC, N. AI embedded bias on social platforms. International Review of Sociology, v. 35, n. 1, p. 1–20, 2025. Disponível em: https://doi.org/10.1080/03906701.2025.2489056. Acesso em: 31 jul. 2025. DOI: https://doi.org/10.1080/03906701.2025.2489056

HASHIGUTI, S. T.; FAGUNDES, I. Z. Z. O algoritmo como materialidade discursiva em um contexto de educação linguística. Letras & Letras, v. 38, p. 1-21, 2023. DOI: https://doi.org/10.14393/LL63-v38-2022-27. Disponível em: https://seer.ufu.br/index.php/letraseletras/article/view/68123. Acesso em: 20 jul. 2025. DOI: https://doi.org/10.14393/LL63-v38-2022-27

LISBOA, C. A.; PASSOS, E. G.; FERREIRA, J. da S. Desvendando vieses em IA: um estudo sobre reconhecimento facial e futuros feministas. Temáticas, Campinas, v. 33, n. 65, p. 1–20, 2025. DOI: https://doi.org/10.20396/tematicas.v33i65.19932. Disponível em: https://econtents.bc.unicamp.br/inpec/index.php/tematicas/article/download/19932/14811/58245. Acesso em: 20 jul. 2025. DOI: https://doi.org/10.20396/tematicas.v33i65.19932

MOURA, I. Encoding normative ethics: on algorithmic bias and disability. First Monday, v. 28, n. 1, p. 1-23, 2023. Disponível em: https://firstmonday.org/ojs/index.php/fm/article/view/12905. Acesso em: 20 jul. 2025.

OLIVEIRA, Cyntia Barbosa. Racismo algorítmico e inteligência artificial: a discriminação nos sistemas de videomonitoramento. Em Tese, Florianópolis, v. 22, n. 1, p. 1-20, 2025. DOI: https://doi.org/10.5007/1806-5023.2025.e105023. Disponível em: https://periodicos.ufsc.br/index.php/emtese/article/view/105023. Acesso em: 20 jul. 2025. DOI: https://doi.org/10.5007/1806-5023.2025.e105023

REQUIÃO, M.; COSTA, D. Discriminação algorítmica: ações afirmativas como estratégia de combate. Civilistica.com, v. 11, n. 3, p. 1–24, 25 dez. 2022. Disponível em: https://civilistica.emnuvens.com.br/redc/article/download/804/650/1832. Acesso em: 20 jul. 2025.

ROSENTHAL-VON DER PÜTTEN, A. M.; SACH, A. Michael is better than Mehmet: exploring the perils of algorithmic biases and selective adherence to advice from automated decision support systems in hiring. Frontiers in Psychology, v. 15, p. 1-19, 2024. Disponível em: https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2024.1416504/full. Acesso em: 31 jul. 2025. DOI: https://doi.org/10.3389/fpsyg.2024.1416504

SILVA, F. dos S. R. Nada mais sobre nós sem nós: escurecendo o debate sobre a regulação de IA no Brasil e pensando mecanismos de combate ao racismo algorítmico. Relatório de Pesquisa – Programa Líderes LACNIC 2.0. Brasil: LACNIC, 2023. Disponível em: https://www.lacnic.net/innovaportal/file/6974/1/regulacao-de-ia-e-discriminacao-algoritmica-informe-de-investigacion-pt.pdf. Acesso em: 20 jul. 2025.

SILVA, F. S. R.; SILVA, T. (orgs.). Artificial intelligence and racial discrimination in Brazil: key issues and recommendations. Belo Horizonte: Institute for Research on Internet and Society, 2024. Disponível em: https://bit.ly/4dGXxVi. Acesso em: 20 jul. 2025.

SILVA, P. B. M. e. Racismo algoritmo: a nova face da injustiça penal. São Paulo: Migalhas, 2025. Disponível em: https://www.migalhas.com.br/depeso/429528/racismo-algoritmo-a-nova-face-da-injustica-penal. Acesso em: 20 jul. 2025.

SILVA, T. O racismo algorítmico é uma espécie de atualização do racismo estrutural. Rio de Janeiro: Centro de Estudos Estratégicos da Fiocruz, 2021. Disponível em: https://cee.fiocruz.br/?q=Tarcizio-Silva-O-racismo-algoritmico-e-uma-especie-de-atualizacao-do-racismo-estrutural. Acesso em: 20 jul. 2025.

SOARES, T. A.; GUMIEL, Y. B.; JUNQUEIRA, R.; GOMES, T.; PAGANO, A. Viés de gênero na tradução automática do GPT-3.5 turbo: avaliando o par linguístico inglês-português. In: Simpósio Brasileiro de Tecnologia da Informação e da Linguagem Humana (STIL), 14., 2023, Belo Horizonte. Anais [...]. Porto Alegre: Sociedade Brasileira de Computação, 2023. p. 167–176. DOI: https://doi.org/10.5753/stil.2023.234186. Acesso em: 20 jul. 2025. DOI: https://doi.org/10.5753/stil.2023.234186

TASO, F. T. de S.; REIS, V. Q.; MARTINEZ, F. H. V. Discriminação algorítmica de gênero: estudo de caso e análise no contexto brasileiro. In: Women In Information And Computing Sciences (WICS), 2022, [S. l.]. Sociedade Brasileira de Computação, 2022. Disponível em: https://sol.sbc.org.br/index.php/wics/article/download/24825/24646/. Acesso em: 20 jul. 2025.

TAVARONE, P. G. A utilização de tecnologias nas investigações criminais e o racismo algorítmico: implicações para os direitos fundamentais. 2025. 60 f. Trabalho de Conclusão de Curso (Bacharelado em Direito) – Universidade Anhembi Morumbi, São Paulo, 2025. Disponível em: https://repositorio.animaeducacao.com.br/bitstreams/02170548-56ab-4f6e-8772-d00653555c73/download. Acesso em: 20 jul. 2025.

TOOSI, A. twitter-sentiment-analysis-hatred-speech: repositório de código para análise de sentimentos e discurso de ódio no Twitter*. 2018. Disponível em: https://www.kaggle.com/datasets/tooso/twitter-sentiment-analysis-hatred-speech. Acesso em: 31 jul. 2025.

VIANA, G. M. de L.; MACEDO, C. S. de. Inteligência artificial e a discriminação algorítmica: uma análise do caso Amazon. Direito & TI, [S. l.], v. 1, n. 19, p. 39–62, 2024. DOI: https://doi.org/10.63451/ti.v1i19.212. Disponível em: https://direitoeti.com.br/direitoeti/article/view/212. Acesso em: 31 jul. 2025. DOI: https://doi.org/10.63451/ti.v1i19.212

VIEIRA, J. R. B. F. Violência digital: deepfakes o novo rosto da opressão contra mulheres. São Paulo: Migalhas, 2025. Disponível em: https://www.migalhas.com.br/depeso/430699/violencia-digital-deepfakes-o-novo-rosto-da-opressao-contra-mulheres. Acesso em: 20 jul. 2025.

VOTELGBT. IA+LGBT – Nossa inteligência contra a violência política. [S. l.]: VoteLGBT, [202–]. Disponível em: https://www.votelgbt.org/inteligencia. Acesso em: 20 jul. 2025.

WENDEHORST, C. Bias in algorithms: artificial intelligence and discrimination. 1. ed. Luxembourg: Publications Office of the European Union, 2022. 106 p. Disponível em: https://fra.europa.eu/sites/default/files/fra_uploads/fra-2022-bias-in-algorithms_en.pdf. Acesso em: 31 jul. 2025.

Downloads

Publicado

2025-12-10

Como Citar

ABRANTES, E. M. G. de; SILVA, L. O.; GOMES, E. A. V. Algoritmo: viés, poder e ética na era da Inteligência Artificial. Revista Linguagem em Foco, Fortaleza, v. 17, n. 3, p. 51–69, 2025. DOI: 10.46230/lef.v17i3.16081. Disponível em: https://revistas.uece.br/index.php/linguagememfoco/article/view/16081. Acesso em: 15 dez. 2025.