Algoritmo
viés, poder e ética na era da Inteligência Artificial
DOI:
https://doi.org/10.46230/lef.v17i3.16081Palavras-chave:
algoritmos, discurso de neutralidade, comprovação de vieses, mitigaçãoResumo
Através da exploração de um banco de dados real, realizamos um estudo empírico para tentar responder às perguntas de pesquisa: se existe e se é possível identificarmos vieses discriminatórios na IA, bem como, em uma segunda etapa, se há possibilidade de mitigação. O procedimento metodológico adota,do inclui a fase de identificação de vieses, através da aplicação no banco de dados de três tipos de técnicas de processamento (pre-processing, in-processing e post-processing), em que os resultados foram comparados e após verificadas quais as decisões tomadas pelo modelo, resultando numa IA Explicável, cujos dados podem ser compreendidos, escrutinados e contestados conforme os valores descritos em nossa Carta Magna de 1988. Na fase futura de proposição de ações, a fim de aproximar a ética constitucional do fazer algoritmo, pretendemos “treinar a máquina” para incluir os fundamentos, valores e princípios da Constituição Federal brasileira e ver se o sistema torna o banco de dados menos enviesado. O objetivo linguístico imediato é desconstruir a crença na infalibilidade da automação e propor melhorias futuras aos operadores de sistemas. Para melhor compreensão dos preconceitos/discriminações reproduzidos pela IA, o quadro teórico da Análise Crítica do Discurso e na Teoria Decolonial serviu de bússola. As contribuições são múltiplas e se inserem no escrutínio de um discurso que se imaginava isento das mazelas sociais e na aproximação dos operadores de máquinas de uma ética mais palpável, prevista em um Documento confiável. Os resultados ainda são preliminares e só dão conta da fase de identificação de vieses, pois conseguimos demonstrar sua existência e apontá-los no banco de dados escolhido. O oferecimento de ferramentas de enfrentamento ainda ficará para a oportunidade de conclusão da pós-graduação. Por hora, partilhamos a certeza de abusos produzidos nos meios tecnológicos, em consonância com os outros existentes nas outras áreas de nossa sociedade.
Downloads
Referências
ARRATIBEL, A. J. Paola Ricaurte talks about the future of inclusive AI. TecScience, june 2025. Disponível em: https://tecscience.tec.mx/en/human-social/paola-ricaurte/. Acesso em: 15 nov. 2025.
BRASIL. [Constituição (1988)]. Constituição da República Federativa do Brasil de 1988. Brasília, DF: Presidente da República, [2016].
BRASIL. Lei nº 13.146, de 6 de julho de 2015. Institui a Lei Brasileira de Inclusão da Pessoa com Deficiência (Estatuto da Pessoa com Deficiência). Diário Oficial da União, Brasília, DF, 7 jul. 2015. Disponível em: http://www.planalto.gov.br/ccivil_03/_Ato2015-2018/2015/Lei/L13146.htm . Acesso em: 31 jul. 2025.
GOMES, V. H. dos S.; SILVA, R. C. A.; NERI, T. C. da S. Ética em sistemas de IA: um olhar sobre a injustiça algorítmica e a deficiência. Revista IDeAS, [S. l.], v. 12 n. 2, p. 238- 260, 2023. DOI: https://doi.org/10.51359/2317-0115.2023.260751. Disponível em: https://periodicos.ufpe.br/revistas/index.php/RMP/article/view/260751. Acesso em: 20 jul. 2025. DOI: https://doi.org/10.51359/2317-0115.2023.260751
GORENC, N. AI embedded bias on social platforms. International Review of Sociology, v. 35, n. 1, p. 1–20, 2025. Disponível em: https://doi.org/10.1080/03906701.2025.2489056. Acesso em: 31 jul. 2025. DOI: https://doi.org/10.1080/03906701.2025.2489056
HASHIGUTI, S. T.; FAGUNDES, I. Z. Z. O algoritmo como materialidade discursiva em um contexto de educação linguística. Letras & Letras, v. 38, p. 1-21, 2023. DOI: https://doi.org/10.14393/LL63-v38-2022-27. Disponível em: https://seer.ufu.br/index.php/letraseletras/article/view/68123. Acesso em: 20 jul. 2025. DOI: https://doi.org/10.14393/LL63-v38-2022-27
LISBOA, C. A.; PASSOS, E. G.; FERREIRA, J. da S. Desvendando vieses em IA: um estudo sobre reconhecimento facial e futuros feministas. Temáticas, Campinas, v. 33, n. 65, p. 1–20, 2025. DOI: https://doi.org/10.20396/tematicas.v33i65.19932. Disponível em: https://econtents.bc.unicamp.br/inpec/index.php/tematicas/article/download/19932/14811/58245. Acesso em: 20 jul. 2025. DOI: https://doi.org/10.20396/tematicas.v33i65.19932
MOURA, I. Encoding normative ethics: on algorithmic bias and disability. First Monday, v. 28, n. 1, p. 1-23, 2023. Disponível em: https://firstmonday.org/ojs/index.php/fm/article/view/12905. Acesso em: 20 jul. 2025.
OLIVEIRA, Cyntia Barbosa. Racismo algorítmico e inteligência artificial: a discriminação nos sistemas de videomonitoramento. Em Tese, Florianópolis, v. 22, n. 1, p. 1-20, 2025. DOI: https://doi.org/10.5007/1806-5023.2025.e105023. Disponível em: https://periodicos.ufsc.br/index.php/emtese/article/view/105023. Acesso em: 20 jul. 2025. DOI: https://doi.org/10.5007/1806-5023.2025.e105023
REQUIÃO, M.; COSTA, D. Discriminação algorítmica: ações afirmativas como estratégia de combate. Civilistica.com, v. 11, n. 3, p. 1–24, 25 dez. 2022. Disponível em: https://civilistica.emnuvens.com.br/redc/article/download/804/650/1832. Acesso em: 20 jul. 2025.
ROSENTHAL-VON DER PÜTTEN, A. M.; SACH, A. Michael is better than Mehmet: exploring the perils of algorithmic biases and selective adherence to advice from automated decision support systems in hiring. Frontiers in Psychology, v. 15, p. 1-19, 2024. Disponível em: https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2024.1416504/full. Acesso em: 31 jul. 2025. DOI: https://doi.org/10.3389/fpsyg.2024.1416504
SILVA, F. dos S. R. Nada mais sobre nós sem nós: escurecendo o debate sobre a regulação de IA no Brasil e pensando mecanismos de combate ao racismo algorítmico. Relatório de Pesquisa – Programa Líderes LACNIC 2.0. Brasil: LACNIC, 2023. Disponível em: https://www.lacnic.net/innovaportal/file/6974/1/regulacao-de-ia-e-discriminacao-algoritmica-informe-de-investigacion-pt.pdf. Acesso em: 20 jul. 2025.
SILVA, F. S. R.; SILVA, T. (orgs.). Artificial intelligence and racial discrimination in Brazil: key issues and recommendations. Belo Horizonte: Institute for Research on Internet and Society, 2024. Disponível em: https://bit.ly/4dGXxVi. Acesso em: 20 jul. 2025.
SILVA, P. B. M. e. Racismo algoritmo: a nova face da injustiça penal. São Paulo: Migalhas, 2025. Disponível em: https://www.migalhas.com.br/depeso/429528/racismo-algoritmo-a-nova-face-da-injustica-penal. Acesso em: 20 jul. 2025.
SILVA, T. O racismo algorítmico é uma espécie de atualização do racismo estrutural. Rio de Janeiro: Centro de Estudos Estratégicos da Fiocruz, 2021. Disponível em: https://cee.fiocruz.br/?q=Tarcizio-Silva-O-racismo-algoritmico-e-uma-especie-de-atualizacao-do-racismo-estrutural. Acesso em: 20 jul. 2025.
SOARES, T. A.; GUMIEL, Y. B.; JUNQUEIRA, R.; GOMES, T.; PAGANO, A. Viés de gênero na tradução automática do GPT-3.5 turbo: avaliando o par linguístico inglês-português. In: Simpósio Brasileiro de Tecnologia da Informação e da Linguagem Humana (STIL), 14., 2023, Belo Horizonte. Anais [...]. Porto Alegre: Sociedade Brasileira de Computação, 2023. p. 167–176. DOI: https://doi.org/10.5753/stil.2023.234186. Acesso em: 20 jul. 2025. DOI: https://doi.org/10.5753/stil.2023.234186
TASO, F. T. de S.; REIS, V. Q.; MARTINEZ, F. H. V. Discriminação algorítmica de gênero: estudo de caso e análise no contexto brasileiro. In: Women In Information And Computing Sciences (WICS), 2022, [S. l.]. Sociedade Brasileira de Computação, 2022. Disponível em: https://sol.sbc.org.br/index.php/wics/article/download/24825/24646/. Acesso em: 20 jul. 2025.
TAVARONE, P. G. A utilização de tecnologias nas investigações criminais e o racismo algorítmico: implicações para os direitos fundamentais. 2025. 60 f. Trabalho de Conclusão de Curso (Bacharelado em Direito) – Universidade Anhembi Morumbi, São Paulo, 2025. Disponível em: https://repositorio.animaeducacao.com.br/bitstreams/02170548-56ab-4f6e-8772-d00653555c73/download. Acesso em: 20 jul. 2025.
TOOSI, A. twitter-sentiment-analysis-hatred-speech: repositório de código para análise de sentimentos e discurso de ódio no Twitter*. 2018. Disponível em: https://www.kaggle.com/datasets/tooso/twitter-sentiment-analysis-hatred-speech. Acesso em: 31 jul. 2025.
VIANA, G. M. de L.; MACEDO, C. S. de. Inteligência artificial e a discriminação algorítmica: uma análise do caso Amazon. Direito & TI, [S. l.], v. 1, n. 19, p. 39–62, 2024. DOI: https://doi.org/10.63451/ti.v1i19.212. Disponível em: https://direitoeti.com.br/direitoeti/article/view/212. Acesso em: 31 jul. 2025. DOI: https://doi.org/10.63451/ti.v1i19.212
VIEIRA, J. R. B. F. Violência digital: deepfakes o novo rosto da opressão contra mulheres. São Paulo: Migalhas, 2025. Disponível em: https://www.migalhas.com.br/depeso/430699/violencia-digital-deepfakes-o-novo-rosto-da-opressao-contra-mulheres. Acesso em: 20 jul. 2025.
VOTELGBT. IA+LGBT – Nossa inteligência contra a violência política. [S. l.]: VoteLGBT, [202–]. Disponível em: https://www.votelgbt.org/inteligencia. Acesso em: 20 jul. 2025.
WENDEHORST, C. Bias in algorithms: artificial intelligence and discrimination. 1. ed. Luxembourg: Publications Office of the European Union, 2022. 106 p. Disponível em: https://fra.europa.eu/sites/default/files/fra_uploads/fra-2022-bias-in-algorithms_en.pdf. Acesso em: 31 jul. 2025.
Downloads
Publicado
Como Citar
Edição
Seção
Licença
Copyright (c) 2025 Elaine Maria Gomes de Abrantes; Leandra Oliveira Silva, Erick Araken Vieira Gomes

Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.
Os autores que publicam na Linguagem em Foco concordam com os seguintes termos:
- Os autores mantêm os direitos autorais e concedem à revista o direito de primeira publicação. Os artigos estão simultaneamente licenciados sob a Creative Commons Attribution License que permite a partilha do trabalho com reconhecimento da sua autoria e da publicação inicial nesta revista.
- Os conceitos emitidos em artigos assinados são de absoluta e exclusiva responsabilidade de seus autores. Para tanto, solicitamos uma Declaração de Direito Autoral, que deve ser submetido junto ao manuscrito como Documento Suplementar.
- Os autores têm autorização para disponibilizar a versão do texto publicada na Linguagem em Foco em repositórios institucionais ou outras plataformas de distribuição de trabalhos acadêmicos (ex. ResearchGate, Academia.edu).


















