Representações algorítmicas da deficiência

uma análise de imagens geradas por Inteligência Artificial

Autores

DOI:

https://doi.org/10.46230/lef.v17i3.16013

Palavras-chave:

inteligência artificial, deficiência, vieses algorítmicos

Resumo

Este artigo investiga como sistemas de Inteligência Artificial Generativa (IAG) representam — ou omitem — pessoas com deficiência, buscando revelar como essas tecnologias reforçam padrões normativos e contribuem para a exclusão simbólica de corporalidades e vivências divergentes. A pesquisa está fundamentada nos estudos sobre viés algorítmico (Faustino; Lippold, 2023; Noble, 2018; Silva, 2022; Tevissen, 2024) e sobre justiça algorítmica aplicada à deficiência (Packin, 2021; Guimarães, 2024), com atenção especial aos efeitos das ausências e estereótipos nos sistemas de geração de imagens. A metodologia adotada é a Análise de Conteúdo, conforme Bardin (2011), estruturada em categorias baseadas no modelo biopsicossocial com definições adotadas pela Pesquisa Nacional de Saúde (PNS). O corpus foi composto por textos e imagens geradas a partir de prompts nas ferramentas de IA ChatGPT e Gemini, com o objetivo de representar pessoas com deficiência. A análise revelou uma predominância de invisibilização e estigmatização, evidenciando a reprodução de imaginários capacitistas e a ausência de referências visuais inclusivas nos modelos de treinamento. Os resultados indicam que tais tecnologias refletem vieses sociais e os amplificam, exigindo uma revisão ética e técnica no desenvolvimento desses sistemas, com a inclusão ativa de pessoas com deficiência em todas as etapas do processo.

Downloads

Não há dados estatísticos.

Biografia do Autor

Talita Souza Magnolo, Universidade Federal de Juiz de Fora (UFJF)

Pesquisadora Associada do PPGCOM/UFJF. Professora Substituta na Faculdade de Comunicação da Universidade Federal de Juiz de Fora (mai/2023 - abr/2025). Coordenadora do Projeto de Extensão "MemórIA". Pesquisadora Associada no PPGCOM/UFJF. Doutora pelo Programa de Pós-Graduação em Comunicação pela Universidade Federal de Juiz de Fora, na linha "Competência Midiática, Estética e Temporalidade", sob orientação da Profa. Dra. Christina Ferraz Musse. Mestre em Comunicação pela Universidade Federal de Juiz de Fora, na linha de pesquisa "Cultura, Narrativas e Produção de Sentido", em 2018, sob orientação da Profa. Dra. Christina Ferraz Musse. International Visiting Research Fellow na Universidade de Brown, em Providence, Estados Unidos, no departamento de História, sob orientação do professor James N. Green. Coordenadora do Prêmio José Marques de Melo, da Rede Alcar (2023-2027). Pós-Graduada pela Universidade Federal de Juiz de Fora em 2014, no curso MBA em Marketing e Negócios.Graduada em Comunicação Social, com especialização em Publicidade e Propaganda pelo Centro de Ensino Superior de Juiz de Fora, em 2012. Bolsista Capes (2019-2023).Vice-líder do Grupo de Pesquisa (CNPQ) "Comunicação, Cidade e Memória". Membro da Comissão de Audiovisual do PPGCOM da UFJF (2019-2023).Membro do corpo editorial do Jornal da Alcar (2019-2022).

Daniele da Silva Garcez Novaes, Fundação Oswaldo Cruz (Fiocruz)

Doutoranda em Informação e Comunicação em Saúde (PPGICS/Icict/Fiocruz). Mestra em Comunicação e Cultura (PPGCOM/UFRJ). Especialista em Comunicação e Saúde (Icict/FIOCRUZ). Especialista em Direitos Humanos, Saúde, Acessibilidade e Inclusão (ENSP/Fiocruz). Bacharel em Ciências Sociais (IFCS/UFRJ). Colaboradora do Núcleo de Informação, Políticas Públicas e Inclusão Social (NIPPIS/Icict/Fiocruz) e da Plataforma de Ciencias de Dados aplicada à Saúde (PCDaS/Icict/Fiocruz).

Referências

BARON, I. Eu fui testar o aplicativo do momento para criar minha própria versão na inteligência artificial e, pasmem, encontrei um Ivan nada a ver com o da realidade. É esse o avanço que teremos no futuro? Instagram, 5 jul. 2023. Disponível em: https://eNA74V.short.gy/Cf2n8U. Acesso em: 18 jul 2025.

BARDIN, L. Análise de conteúdo. São Paulo: Edições 70, 2011.

BODEN, M. Inteligência Artificial - uma brevíssima introdução. São Paulo: Editora Unesp, 2020.

BRASIL. Decreto nº 6.949, de 25 de agosto de 2009. Promulga a Convenção Internacional sobre os Direitos das Pessoas com Deficiência e seu Protocolo Facultativo, assinados em Nova York, em 30 de março de 2007. Brasília: Casa Civil [2009]. Disponível em: https://eNA74V.short.gy/eQVc2U. Acesso em: 16 jul 2025.

BRASIL. Lei nº 13.146, de 6 de julho de 2015. Institui a Lei Brasileira de Inclusão da Pessoa com Deficiência (Estatuto da Pessoa com Deficiência). Brasília: Congresso Nacional, [2015]. Disponível em: https://eNA74V.short.gy/gwkGsk. Acesso em: 16 jul 2025.

CARVALHO, P. Perfis em redes exploram síndrome de Down por engajamento. DW, 06 jul 2025. Disponível em: https://eNA74V.short.gy/PV07SC. Acesso em: 8 jul 2025.

CONVERSION. Pesquisa Inteligência Artificial 2025: Dados e insights sobre o impacto da inteligência artificial na vida dos brasileiros. São Paulo, 2025. Disponível em: https://eNA74V.short.gy/AuCzh3. Acesso em: 20 jul 2025.

COUTURE, S.; TOUPIN, S. What does the notion of “sovereignty” mean when referring to the digital? New Media & Society, v. 21, n. 10, p. 2305–2322, out. 2019. DOI: https://doi.org/10.1177/1461444819865984

FARIAS, N.; BUCHALLA, C. M. A classificação internacional de funcionalidade, incapacidade e saúde da organização mundial da saúde: conceitos, usos e perspectivas. Revista Brasileira de Epidemiologia, [S. l.], v. 8, p. 187–193, jun. 2005. Disponível em: https://eNA74V.short.gy/Q4F6rT. Acesso em: 16 jul. 2025. DOI: https://doi.org/10.1590/S1415-790X2005000200011

FAUSTINO, D.; LIPPOLD, W. Colonialismo digital: por uma crítica hacker-fanoniana. São Paulo: Boitempo, 2023.

GIUSTI, I. Usuários do TikTok criam filtro simulando deficiência como piada. Nós, 16 jun

Disponível em: https://eNA74V.short.gy/4nRwN6. Acesso em: 18 jul. 2025.

GROHMANN, R.; ARAÚJO, W. F. Beyond Mechanical Turk: the work of brazilians on global ai platforms. In: VERDEGEM, P. (ed.) IA para todos? Perspectivas Críticas. 2021. Londres: University of Westminster Press, 2021. p. 247–266. DOI: https://doi.org/10.16997/book55.n

GUIMARÃES, L. R. Inteligência artificial e enviesamento algorítmico: novas formas de discriminação contra pessoas com deficiência. Civilistica.com, Rio de Janeiro, v. 13, n. 2, p. 1–25, 2024. Disponível em: https://eNA74V.short.gy/k0OE3b. Acesso em: 14 jul. 2025.

HUTCHINSON, B.; PRABHAKARAN, V.; DENTON, E.; YUZHONG K. W.; DENUYL, S. 2020. Social Biases in NLP Models as Barriers for Persons with Disabilities. In: Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, p. 5491–5501. 2020. Association for Computational Linguistics. Disponível em: https://aclanthology.org/2020.acl-main.487/. Acesso em: 11 jul. 2025. DOI: https://doi.org/10.18653/v1/2020.acl-main.487

Instituto Brasileiro de Geografia e Estatística (IBGE). Pesquisa Nacional de Saúde 2019: ciclos de vida. Brasília: IBGE, 2021. Disponível em: https://eNA74V.short.gy/glJgnF. Acesso em: 16 jul 2025.

KITCHIN, R.; LAURIAULT, T. Towards critical data studies: Charting and unpacking data assemblages and their work. In: THATCHER, J.; ECKERT, J.; SHEARS, A. (org.). Thinking Big Data in Geography. New Regimes, New Research. Lincoln/London: University of Nebraska Press, 2014. p. 83–94.

MALTA, D. C.; STOPA, S. R.; CANUTO, R.; GOMES, N. L.; MENDES V. L. F.; GOULART, B. N. G. de; MOURA, L. de. Prevalência autorreferida de deficiência no Brasil, segundo a Pesquisa Nacional de Saúde, 2013. Ciência & Saúde Coletiva, [S. l.], v. 21, p. 3253–3264, out. 2016. Disponível em: https://eNA74V.short.gy/LDvWQ4. Acesso em: 16 jul. 2025. DOI: https://doi.org/10.1590/1413-812320152110.17512016

NEWMAN-GRIFFIS, D.; RAUCHBERG, J. S.; ALHARBI, R.; HICKMAN, L.; HOCHHEISER, H. Definition drives design: disability models and mechanisms of bias in AI technologies. First Monday, v. 28, n. 1, 2 Janeiro de 2022. Disponível em: https://firstmonday.org/ojs/index.php/fm/article/view/12903/10796. Acesso em: 11 jul. 2025.

NOBLE, S. U. Algorithms of oppression: How search engines reinforce racism. New York: NYU Press, 2018. DOI: https://doi.org/10.18574/nyu/9781479833641.001.0001

PACKIN, N. G. Disability discrimination using artificial intelligence systemns and social scoring: can we disable digital bias? Journal of International and Comparative Law, Hong Kong, v. 8, n. 2, p. 487-512, 2021.

SILVA, T. Racismo Algorítmico: inteligência artificial e discriminações nas redes digitais. São Paulo: São Paulo: Edições Sesc, 2022.

SADEGHIANI, A. Generative AI Carries Non‑Democratic Biases and Stereotypes: representation of women, black individuals, age groups, and people with disability in AI‑generated images across occupations. Arxiv. Cornell University. p. 1-25, 2024. Disponível em: https://arxiv.org/pdf/2409.13869?. Acesso em: 11 jul. 2025. DOI: https://doi.org/10.5947/jeod.2025.006

TEVISSEN, Y. Disability Representations: finding biases in automatic image generation. Moments Lab Research. Arxiv. Cornell University, 2024. Disponível em: https://arxiv.org/pdf/2406.14993. Acesso em: 11 jul. 2025.

WINQUES, K.; MAGNOLO, T. Como a IA Enxerga Seus Trabalhadores? Um Retrato Enviesado da Precarização dos Anotadores de Dados. Revista Latinoamericana de Ciencias de la Comunicación, [S. l.], v. 23, n. 46, 2024. DOI: 10.55738/alaic.v23i46.1143. Disponível em: https://revista.pubalaic.org/index.php/alaic/article/view/1143. Acesso em: 27 jul. 2025. DOI: https://doi.org/10.55738/alaic.v23i46.1143

World Health Organization (WHO). World Report on Disability 2011. Geneva: World Health Organization, 2011(WHO Guidelines Approved by the Guidelines Review Committee). Disponível em: https://eNA74V.short.gy/aJdnbx. Acesso em: 16 jul. 2025.

Downloads

Publicado

2025-12-10

Como Citar

MAGNOLO, T. S.; NOVAES, D. da S. G. Representações algorítmicas da deficiência: uma análise de imagens geradas por Inteligência Artificial. Revista Linguagem em Foco, Fortaleza, v. 17, n. 3, p. 210–229, 2025. DOI: 10.46230/lef.v17i3.16013. Disponível em: https://revistas.uece.br/index.php/linguagememfoco/article/view/16013. Acesso em: 15 dez. 2025.