https://revistas.uece.br/index.php/linguagememfoco/issue/feedRevista Linguagem em Foco2025-12-10T15:08:30-03:00Antonia Dilamar Araújo | Débora Liberato Arruda Hissalinguagememfoco@uece.brOpen Journal Systems<p>A revista<strong> Linguagem em Foco</strong> é um periódico do Programa de Pós-Graduação em Linguística Aplicada da UECE, dirigido a pesquisadores, docentes e estudantes de pós-graduação. A revista divulga trabalhos (de doutores, mestres, doutorandos e mestrandos em coautoria com seus orientadores) sobre a linguagem numa perspectiva interdisciplinar, abordando questões e enfoques teórico-metodológicos no campo da Linguística Aplicada. Trata-se de uma <strong>publicação contínua</strong>, que admite números especiais (com chamadas ou expedientes específicos). São aceitos artigos e ensaios inéditos; entrevistas; resenhas de livros e teses recém-publicados. </p> <p><span style="vertical-align: inherit;">Qualis Capes 2017-2020: A4 Linguística<br />Prefixo DOI: 10.46230<br />e-ISSN: 2674-8266 | ISSN: 2176-7955</span></p>https://revistas.uece.br/index.php/linguagememfoco/article/view/16821Editorial v. 17, n. 3, 2025.2025-12-08T17:24:41-03:00Júlio Araújo araujo@ufc.brKleber Aparecido da Silvakleberunicamp@yahoo.com.brPaulo Boa Sortepauloboasorte@academico.ufs.brEduardo Mouradumoura@unicamp.br<p style="margin: 0cm; margin-bottom: .0001pt; text-align: justify; text-indent: 35.4pt; line-height: 150%;"><span style="color: black;">Este dossiê reúne pesquisas que, cada uma à sua maneira, recusam a fantasia confortável de uma “inteligência” artificial neutra e asséptica. Em vez disso, tomam os algoritmos como textos, inscritos em histórias coloniais, atravessados por relações de poder, corporais e situados, para perguntar, em diferentes campos: quem é incluído, quem é silenciado, quem é deformado e quem é esquecido. Desse modo, pensamos o dossiê como uma cartografia insurgente do Sul Global, um mapa que se redesenha a partir das bordas, das travessias e das margens onde os algoritmos também operam controle e apagamento. São essas cartografias de exclusão e reexistência que orientam o percurso do dossiê, cujos textos estão categorizados em cinco blocos, como mostramos subsequentemente.</span></p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Júlio Araújo , Kleber Aparecido da Silva, Paulo Boa Sorte, Eduardo Mourahttps://revistas.uece.br/index.php/linguagememfoco/article/view/15992(Des)inteligência artificial e exclusão digital2025-12-10T15:08:26-03:00Alejandro Knaesel Arrabalarrabal@furb.brPaulo Junior Trindade dos Santospjtrindades@hotmail.comCristhian Magnus De Marcocristhian.demarco@unoesc.edu.br<p>O artigo propõe uma reflexão crítica sobre os sistemas de inteligência artificial (IA) e suas implicações como vetores de exclusão digital. A partir de uma abordagem multidisciplinar e de uma epistemologia aberta, argumenta-se que a IA, moldada por racionalidades tecnicistas e interesses econômicos (Barraud, 2019; Han, 2017a) que reforçam a dependência de automatismos e reduz a participação humana ativa (Larson, 2022; Zuboff, 2021), opera como uma forma sofisticada e silenciosa de exclusão, o que, para o presente estudo, denomina-se (des)inteligência artificial. Evidencia-se que, quanto mais a IA é concebida e utilizada sob premissas facilitaristas e tecnocráticas, maior a perda de autonomia de agência crítica dos sujeitos. Como resposta, propõe-se o fortalecimento de uma consciência auto-eco-política (Morin, 2011) sobre a dimensão tecno-informacional, voltada à inclusão significativa, o que exige a articulação de uma agenda pública educacional para a compreensão emancipadora sobre tecnologia, com especial contribuição da linguística aplicada, em sintonia com o compromisso social de profissionais e empresas do setor de tecnologias digitais da informação. Contudo, essa perspectiva enfrenta grandes obstáculos, dadas as atuais condições político-econômicas que sustentam o desenvolvimento das TDICs.</p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Alejandro Knaesel Arrabal, Paulo Junior Trindade dos Santos, Cristhian Magnus De Marcohttps://revistas.uece.br/index.php/linguagememfoco/article/view/16042A não-neutralidade dos algoritmos e o seu uso pelas plataformas digitais2025-12-10T15:08:20-03:00Antonio Celestinoantonio.celestino@ufjf.brStanley Cunha Teixeirastanley_teixeira@yahoo.com.br<p>Este artigo explana sobre a mediação algorítmica das atividades cotidianas na sociedade atual pelas plataformas digitais. Analisamos a composição básica de um código algorítmico, o qual contém <em>scripts</em> que podem revelar vieses moldados aos interesses políticos e econômicos do seu proprietário. Para exemplificar esses <em>scripts,</em> criamos dois trechos de algoritmos determinísticos semelhantes, mas que executam duas ações opostas: uma de exclusão e outra de inclusão com relação à população de baixa renda em um hipotético sistema de concessão de crédito. Constatamos que esse viés excludente/includente faz parte da tomada de decisão a ser executada pelo código e elimina qualquer neutralidade. Na investigação sobre a não-neutralidade dos algoritmos, realizamos pesquisa bibliográfica centrada na teoria do capitalismo de plataforma, que nos fornece reflexão sobre o modo de produção baseado no uso dos dados e dos algoritmos pelas plataformas digitais. Ao concluir que os algoritmos não são neutros, propomos, em uma abordagem decolonial, um questionamento sobre quais são os vieses dos sistemas algorítmicos das plataformas digitais que utilizamos, em especial as plataformas de mídia digital.</p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Antonio Celestino, Stanley Teixeirahttps://revistas.uece.br/index.php/linguagememfoco/article/view/16081Algoritmo2025-12-10T15:08:16-03:00Elaine Maria Gomes de Abranteselamar.esmapb@gmail.comLeandra Oliveira Silvaleandra.silva@ccc.ufcg.edu.brErick Araken Vieira Gomeserick.gomes@ccc.ufccg.edu.br<p>Através da exploração de um banco de dados real, realizamos um estudo empírico para tentar responder às perguntas de pesquisa: se existe e se é possível identificarmos vieses discriminatórios na IA, bem como, em uma segunda etapa, se há possibilidade de mitigação. O procedimento metodológico adota,do inclui a fase de identificação de vieses, através da aplicação no banco de dados de três tipos de técnicas de processamento (pre-processing, in-processing e post-processing), em que os resultados foram comparados e após verificadas quais as decisões tomadas pelo modelo, resultando numa IA Explicável, cujos dados podem ser compreendidos, escrutinados e contestados conforme os valores descritos em nossa Carta Magna de 1988. Na fase futura de proposição de ações, a fim de aproximar a ética constitucional do fazer algoritmo, pretendemos “treinar a máquina” para incluir os fundamentos, valores e princípios da Constituição Federal brasileira e ver se o sistema torna o banco de dados menos enviesado. O objetivo linguístico imediato é desconstruir a crença na infalibilidade da automação e propor melhorias futuras aos operadores de sistemas. Para melhor compreensão dos preconceitos/discriminações reproduzidos pela IA, o quadro teórico da Análise Crítica do Discurso e na Teoria Decolonial serviu de bússola. As contribuições são múltiplas e se inserem no escrutínio de um discurso que se imaginava isento das mazelas sociais e na aproximação dos operadores de máquinas de uma ética mais palpável, prevista em um Documento confiável. Os resultados ainda são preliminares e só dão conta da fase de identificação de vieses, pois conseguimos demonstrar sua existência e apontá-los no banco de dados escolhido. O oferecimento de ferramentas de enfrentamento ainda ficará para a oportunidade de conclusão da pós-graduação. Por hora, partilhamos a certeza de abusos produzidos nos meios tecnológicos, em consonância com os outros existentes nas outras áreas de nossa sociedade.</p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Elaine Maria Gomes de Abrantes; Leandra Oliveira Silva, Erick Araken Vieira Gomeshttps://revistas.uece.br/index.php/linguagememfoco/article/view/16015A Lógica do Esquecimento2025-12-10T15:08:22-03:00Jefferson Igor Duarte Silvajefferson.igorbr@gmail.comAkynara Aglaé Rodrigues Santos da Silva Burlamaquiakynara.aglae@ufersa.edu.brAquiles Medeiros Filgueira Burlamaquiaquilesburlamaqui@gmail.com<p>A expansão da Inteligência Artificial (IA) em domínios críticos como saúde e segurança levanta questões urgentes sobre equidade e justiça. Este artigo argumenta que vieses algorítmicos não são meros erros técnicos , mas manifestações de desigualdades estruturais históricas, refletidas em bases de dados que funcionam como artefatos sociotécnicos. A pesquisa investiga dois mecanismos centrais de exclusão: a representação distorcida, que inclui grupos de modo estereotipado , e a invisibilidade seletiva, que apaga sistematicamente populações inteiras dos registros. Através de um quadro teórico que articula os Estudos Críticos de Algoritmos, o Feminismo de Dados e a crítica Decolonial , analisamos um mosaico de casos emblemáticos, incluindo reconhecimento facial , recrutamento automatizado e a omissão de dados LGBTQIA+. Demonstra-se a existência de um ciclo de retroalimentação da desigualdade , argumentando que soluções técnicas de "debiasing" são insuficientes. Por fim, o artigo propõe diretrizes estruturais para a justiça algorítmica, focadas na soberania dos dados , na contestabilidade efetiva e na governança democrática. </p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Jefferson Igor Duarte Silva, Akynara Aglaé Rodrigues Santos da Silva Burlamaqui, Aquiles Medeiros Filgueira Burlamaquihttps://revistas.uece.br/index.php/linguagememfoco/article/view/15815Autoria crítica e captura discursiva na IA generativa2025-12-10T15:08:28-03:00Vitor Nunes Lagesvitornlages@gmail.comRafael Fernandes de Mesquitarafael.fernandes@ifpi.edu.br<p>A expansão da inteligência artificial generativa (IAG) redefine as fronteiras entre linguagem, autoria e poder, desafiando as ciências humanas e sociais a repensar o papel da escrita e da crítica no capitalismo digital. Este artigo analisa como a IAG transforma os modos de dizer e reconhecer, convertendo a escrita em campo de disputa entre captura discursiva e autoria crítica. Fundamentado na tradição marxista e frankfurtiana e em estudos contemporâneos sobre inteligência artificial generativa, o estudo investiga a IAG como dispositivo de automação da linguagem e de extração de valor, articulando dimensões simbólicas e materiais. Estruturado em três eixos, o texto discute: (1) a erosão da autonomia crítica diante da simulação algorítmica de afeto e sentido; (2) as infraestruturas digitais privadas que sustentam regimes de dominação, colonialidade e extrativismo ambiental e de dados; e (3) práticas insurgentes de reapropriação tecnológica orientadas por uma ética de justiça social e soberania informacional. Sugere-se que resistir à captura discursiva implica afirmar a linguagem como espaço de dissenso e a autoria como gesto coletivo e inacabado de criação, responsabilidade e justiça social.</p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Vitor Nunes Lages, Rafael Fernandes de Mesquitahttps://revistas.uece.br/index.php/linguagememfoco/article/view/16067Desafios éticos e sociais da inteligência artificial na educação2025-12-10T15:08:18-03:00Nayara Rocha Fernandesnayara_sje@hotmail.comThiago Henrique Barnabé Corrêacorrea.uftm@gmail.comJosé Lucas Pedreira Buenolucas.bueno@uftm.edu.br<p>As inovações tecnológicas provocam grandes transformações na sociedade contemporânea, modificando costumes e comportamentos nas interações sociais, culturais e educacionais. Essas transformações impactam diretamente as mudanças e demandas em diferentes contextos, inclusive no campo educacional, com as altas gamas de ferramentas tecnológicas presentes na sociedade. A utilização crescente da Inteligência Artificial (IA) pela sociedade contemporânea cria possibilidades que podem potencializar diversas práticas, mas também levanta preocupações, uma vez que é necessário que o uso dessas ferramentas seja de forma equilibrada, crítica e reflexiva. O uso excessivo e inconsciente das ferramentas de IA pode gerar dependências tecnológicas, perpetuar discriminações por vieses algorítmicos e promover a ampliação das desigualdades sociais e educacionais. Nesse sentido, o presente artigo discute os desafios do uso da IA na educação no que diz respeito à desigualdade de acesso, aos vieses algorítmicos e à dependência tecnológica na sociedade e, consequentemente, no campo educacional. Por fim, aponta-se a necessidade de ações, investimentos e políticas educacionais que orientem o uso ético, crítico e reflexivo da IA visando a um uso humanizado dessas tecnologias na educação, para que todos tenham acesso adequado a ferramentas tecnológicas inovadoras, independentemente da região ou classe social.</p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Nayara Rocha Fernandes, Thiago Henrique Barnabé Corrêa, José Lucas Pedreira Buenohttps://revistas.uece.br/index.php/linguagememfoco/article/view/15885Ensino de inglês com o gênero e-mail de convite e o uso de Inteligência Artificial generativa na escrita2025-12-10T15:08:27-03:00Adriana Almeida Fernandesadrianaalmeida@uern.brTatiana Lourenço de Carvalho Carvalhotatianacarvalho@uern.br<p>Este estudo apresenta uma proposta metodológica para o ensino da escrita em inglês como língua adicional (ILA) centrada no gênero <strong>e-mail de convite</strong> e no uso do ChatGPT como recurso de apoio. Fundamentada na noção bakhtiniana de dialogismo, em particular nos conceitos de responsividade, autoria e gênero discursivo, a proposta organiza-se em cinco etapas: diagnóstico inicial, estudo do gênero, produção preliminar, interação com o ChatGPT e reescrita responsiva com socialização. O objetivo é oferecer um roteiro didático que favoreça a reflexão crítica sobre escolhas linguísticas e a tomada de decisão autoral. O referencial teórico abrange contribuições sobre escrita em ILA (Brown; Lee, 2015; Flower; Hayes, 1981; Tribble, 1996; Richards; Rodgers, 2014), gênero e-mail de convite (Marcuschi, 2008) e uso de tecnologias de Inteligência Artificial (IA) no ensino de idiomas (Godwin-Jones, 2022; Gill <em>et al</em>., 2024; Alharbi, 2023; Vicente-Yagüe-Jara <em>et al</em>., 2023; Ricart-Vayá, 2024; Santos; Pereira; Matos, 2025). Discutimos os potenciais didáticos e as limitações da ferramenta, incluindo riscos como respostas imprecisas ou enviesadas, e o papel do professor como mediador crítico. O texto visa contribuir com práticas adaptáveis a diferentes contextos de ensino, sem apresentar aqui aplicação empírica, mas indicando caminhos para avaliação futura.</p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Adriana Almeida Fernandes, Tatiana Lourenço de Carvalho Carvalhohttps://revistas.uece.br/index.php/linguagememfoco/article/view/16068Filtros de imagem e padronizações raciais2025-12-10T15:08:17-03:00Inês Cortes da Silvainescortesdasilva@gmail.comGiulia Pereira Santosgpsantos1@uefs.brJayne dos Santos Oliveirajaynesantosoliv@gmail.com<p>O uso de filtros de imagem, potencializado por tecnologias de inteligência artificial (IA), tornou-se prática comum em redes sociais. Construídos com tecnologias de Realidade Aumentada (RA), esses filtros sobrepõem elementos digitais ao mundo físico em tempo real (Peddie, 2017) e, ao mesmo tempo em que entretêm, reforçam padrões estéticos excludentes (Noble, 2018). Ao favorecer traços embranquecidos, essas ferramentas podem afetar negativamente a autoestima de pessoas negras, produzindo formas de racismo algorítmico (Silva, 2020). Motivado pelo uso recorrente dessas tecnologias por estudantes negros, este artigo busca compreender como uma educação decolonial (Canagarajah, 1999; Josiowicz <em>et al</em>., 2025; Landulfo; Matos, 2022) pode contribuir para desconstruir estereótipos racistas reproduzidos por esses recursos. Para isso, desenvolvemos um ensaio autoetnográfico (Chang, 2008; Adams; Jones; Ellis, 2015; Silva, 2022), de abordagem qualitativa e natureza descritiva (Paiva, 2019), dialogando com nossas vivências pedagógicas e digitais. A sequência didática construída promoveu o debate sobre identidade racial e imagem, revelando que estudantes negros se sentem invisibilizados ou alterados por filtros que não reconhecem suas feições. Também identificamos que o uso crítico da língua inglesa, aliado à escuta sensível e à análise de códigos visuais, favorece a ressignificação dessas experiências. Concluímos que é por meio do diálogo, da representatividade e da problematização crítica que uma educação decolonial pode transformar a aula de língua inglesa em espaço de resistência, pertencimento e reconstrução identitária (Pinheiro, 2023).</p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Inês Cortes da Silva, Giulia Pereira Santos, Jayne dos Santos Oliveirahttps://revistas.uece.br/index.php/linguagememfoco/article/view/16010A adequação das legendas automáticas do aplicativo CapCut em vídeos verticais para Legendagem para Surdos e Ensurdecidos2025-12-10T15:08:25-03:00Alexssandro da Silva Pereiraalexssandrobr@gmail.comAlexandra Frazão Seoanealexandra.frazao@uece.br<p><em>Softwares</em> de criação de legenda automática têm ganhado destaque com o aumento do consumo de vídeos verticais em plataformas digitais. Embora aplicativos como o <em>CapCut</em> ofereçam essa funcionalidade, viabilizada por sistema de Inteligência Artificial (IA), sua eficácia frente aos critérios da Legendagem para Surdos e Ensurdecidos (LSE) ainda é pouco investigada e abre um debate sobre o impacto dessa tecnologia na acessibilidade digital. Diferentemente de produções cinematográficas e televisivas, que contam com diretrizes como o <em>Guia para Produções Audiovisuais Acessíveis</em> (Naves <em>et al.</em>, 2016), vídeos verticais ainda carecem de parâmetros específicos. Esta pesquisa preliminar, cujo objetivo foi investigar as legendas automáticas geradas pelo <em>CapCut</em> em vídeos verticais, analisando sua adequação aos parâmetros da LSE, baseados na Tradução Audiovisual Acessível (TAVa) e nos estudos de Vieira (2016), Monteiro (2016) Naves <em>et al</em>. (2016) e Assis (2021), analisou a qualidade das legendas automáticas geradas pelo <em>CapCut</em> em vídeos curtos do TikTok, do perfil “Ciência Divertida”. As legendas foram avaliadas quanto a possíveis falhas, incluindo erros de transcrição, segmentação inadequada e velocidade de legendagem. Os resultados confirmam limitações já apontadas na literatura (Selvatici, 2011; Karakanta <em>et al.</em>, 2022; Hagström; Pedersen, 2022; Koglin <em>et al</em>., 2023), como dificuldades na transcrição de palavras homófonas, legendas mal segmentadas e tempo insuficiente de leitura, o que pode intensificar a exclusão digital da comunidade surda. Como proposta inicial, com base neste estudo preliminar, sugerimos manter o uso de até duas linhas por legenda, com um total de no máximo 23 caracteres, incluindo espaços e pontuação.</p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Alexssandro da Silva Pereira, Alexandra Frazão Seoanehttps://revistas.uece.br/index.php/linguagememfoco/article/view/16165Quando o silêncio vira meme2025-12-10T15:08:13-03:00Júlio Araújoaraujo@ufc.brBruno Cariocabruno06carioca@gmail.com<p>Este artigo propõe o conceito de <strong>audismo algorítmico</strong> como ferramenta analítica para compreender como a fonocentralidade atua nos regimes de visibilidade das plataformas digitais. A partir da noção de <strong>necroalgoritmização </strong>(Araújo, 2025a), investigamos de que modo algoritmos reproduzem e intensificam exclusões dirigidas à comunidade Surda. O estudo ancora-se em abordagens críticas do discurso (Fairclough, 2001; Pennycook, 2006) e analisa a paisagem linguístico-semiótica do Instagram, com ênfase na circulação pejorativa do termo “mudinho”. A metodologia consistiu em análise crítica de enunciados multimodais, emojis, legendas e imagens, que revelam práticas de escárnio e silenciamento, articuladas a mecanismos de curadoria algorítmica. Os resultados evidenciam que as práticas do audismo algorítmico não são neutras, mas performam exclusões naturalizadas, transformando o riso viral em ferramenta de desumanização. Argumenta-se que o audismo algorítmico integra uma estética da necroalgoritmização, operando como dispositivo de poder que delimita os regimes do dizível e invisibiliza corpos Surdos. Concluímos que nomear esse fenômeno amplia os Estudos Críticos da Linguagem e contribui para a promoção de justiça epistêmica, reconhecendo a pluralidade das linguagens humanas, suas estéticas dissidentes e modos legítimos de existência. os objetivos, referencial teórico, metodologia, análise e conclusões.</p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Júlio Araújo, Bruno Cariocahttps://revistas.uece.br/index.php/linguagememfoco/article/view/16013Representações algorítmicas da deficiência2025-12-10T15:08:24-03:00Talita Souza Magnolotalita.magnolo@yahoo.com.brDanielle da Silva Garcez Novaesdanielenovaes@gmail.com<p>Este artigo investiga como sistemas de Inteligência Artificial Generativa (IAG) representam — ou omitem — pessoas com deficiência, buscando revelar como essas tecnologias reforçam padrões normativos e contribuem para a exclusão simbólica de corporalidades e vivências divergentes. A pesquisa está fundamentada nos estudos sobre viés algorítmico (Faustino; Lippold, 2023; Noble, 2018; Silva, 2022; Tevissen, 2024) e sobre justiça algorítmica aplicada à deficiência (Packin, 2021; Guimarães, 2024), com atenção especial aos efeitos das ausências e estereótipos nos sistemas de geração de imagens. A metodologia adotada é a Análise de Conteúdo, conforme Bardin (2011), estruturada em categorias baseadas no modelo biopsicossocial com definições adotadas pela Pesquisa Nacional de Saúde (PNS). O <em>corpus</em> foi composto por textos e imagens geradas a partir de <em>prompts</em> nas ferramentas de IA<em> ChatGPT</em> e <em>Gemini</em>, com o objetivo de representar pessoas com deficiência. A análise revelou uma predominância de invisibilização e estigmatização, evidenciando a reprodução de imaginários capacitistas e a ausência de referências visuais inclusivas nos modelos de treinamento. Os resultados indicam que tais tecnologias refletem vieses sociais e os amplificam, exigindo uma revisão ética e técnica no desenvolvimento desses sistemas, com a inclusão ativa de pessoas com deficiência em todas as etapas do processo.</p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Talita Souza Magnolo, Danielle da Silva Garcez Novaeshttps://revistas.uece.br/index.php/linguagememfoco/article/view/16028“Respeite meus cabelos, brancos!”2025-11-03T09:26:27-03:00Marco Túlio Câmaramarcotuliocamara@gmail.comMayelle Batista da Silvamayellepsi@gmail.com<p>O presente trabalho tem como objetivo apontar como o racismo algorítmico se manifesta em bancos de imagens digitais, especialmente nas representações sobre beleza feminina. Trata-se de uma pesquisa quali-quantitativa e exploratória, ancorada no conceito de racismo algorítmico e em sua relação com racismo estrutural, inteligência artificial e colonialidade de dados. Para a análise, escolheram-se os três principais sites de banco de imagens utilizados no Brasil: Shutterstock, Getty Images e Canva, a partir da busca das palavras-chave “beleza”, “skin care” e “beleza cabelo”. Desse universo, foi aplicada a análise de conteúdo sobre os primeiros resultados apresentados pelas próprias plataformas, considerando que tais escolhas são feitas por algoritmos. As análises mostram que a maioria das imagens coletadas são de mulheres brancas e de cabelos lisos, na contramão da realidade miscigenada e de maioria negra no país. Esses achados evidenciam a necessidade de repensar o funcionamento dos algoritmos e suas relações sociais e, principalmente, raciais. Além disso, acredita-se ser indispensável ampliar o debate sobre as representações midiáticas que sustentam apagamentos e violências simbólicas, demonstrados, aqui, pelo racismo algorítmico.</p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Marco Túlio Câmara, Mayelle Batista da Silvahttps://revistas.uece.br/index.php/linguagememfoco/article/view/15583Algoritmos racistas no banco de imagens do Google2025-12-10T15:08:30-03:00Sanny Kellen Anjos Cavalcante Canutosannykellen2728@gmail.comBárbara Cristina Gallardobarbarag@unemat.br<p>Os debates em torno de temas étnico-raciais têm ganhado cada vez mais força na sociedade contemporânea, ao problematizarem e combaterem comportamentos enraizados na lógica da colonialidade. Esse movimento se deve, sobretudo, à atuação dos coletivos e movimentos negros antirracistas, que se desenvolvem cotidianamente nos espaços online e offline. Nesse contexto, este trabalho busca refletir e questionar as práticas algorítmicas do Google Imagens que perpetuam o discurso racista antinegro. Para isso, recorremos aos postulados interdisciplinares da Linguística Aplicada, que permitem o diálogo com teorias de outras áreas do conhecimento, como os Estudos de Plataforma (D'Andréa, 2020) e o conceito de Antinegritude (Vargas, 2020). Em termos metodológicos, trata-se de um estudo qualitativo de caráter exploratório, fundamentado no método de estudo de caso, tendo como objeto o banco de imagens do Google, dada sua acessibilidade e ampla utilização por pessoas de diferentes faixas etárias. As buscas foram organizadas em duas categorias — estética e econômica — a partir de comandos comparativos e individuais, como “pessoas bem-sucedidas x pessoas pobres”, “mulheres lindas” e “mulher com o cabelo bonito”. Os resultados demonstram que os discursos visibilizados por meio dessas buscas ajudam a perpetuar estereótipos racistas, na medida em que os algoritmos não são neutros, permitindo que práticas sociais nocivas, outrora restritas ao ambiente analógico, sejam facilmente transpostas e amplificadas nos espaços digitais pelo alcance da internet.</p> <p> </p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Sanny Kellen Anjos Cavalcante Canuto, Bárbara Cristina Gallardohttps://revistas.uece.br/index.php/linguagememfoco/article/view/16045Racismo algorítmico2025-12-10T15:08:19-03:00Mariolinda Rosa Romera Ferrazmariolinda.ferraz1970@gmail.com<p>O presente artigo recapitula a literatura sobre as perspectivas fundacional e pós-moderna de homem/humanidade, a fim de traçar o percurso (meta)narrativo do racismo. Embora já se fale em pós-humanidade ou pós-humanismo, em decorrência da personalização de agências e de agentes robótico-algorítmicos, isto é, da Inteligência Artificial, persiste-se nas duas perspectivas anteriores, pois, defendemos a superioridade da inteligência humana em detrimento de quaisquer outras inteligências generativas (ou não). A atualização do texto se mostra quando aplico os conceitos das duas perspectivas dando ênfase à (nova) concepção de racismo algorítmico, termo surgido a partir da evolução digital e de sistemas de Inteligência Artificial. Assim, este artigo tem por objetivo articular teoria e prática na análise de imagens que revelam a perspectiva fundacional e racista contra os povos indígenas. Para geração de dados e, posterior, análise qualitativa e interpretativa, foi solicitada a criação de imagens, com foco nos povos indígenas, a partir de diversos prompts/comandos de produção, às IA: ChatGPT, Freepik, Leonardo IA, Playground IA. Além disso, a análise baseia-se em três categorias do racismo algorítmo, a saber: representação de estereótipos; objetificação e sensualização (objeto de prazer, desejo e sexo); marginalização geográfica e de direitos (Silva, 2022). Os resultados, indubitavelmente, trazem à tona (1) a complexa e truncada interação sociocomunicativa entre humanos “comuns”, ou seja, leigos na norma culta computacional, e tais agentes tecno-discursivos; (2) a manutenção do racismo, da branquitude e, sobretudo, de uma visão eurocentrada de homem.</p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Mariolinda Rosa Romera Ferrazhttps://revistas.uece.br/index.php/linguagememfoco/article/view/15740 A algoritmização da beleza2025-12-10T15:08:29-03:00Morgana Machadomorganam.machado@gmail.comMaria Catarina Zaninizanini.ufsm@gmail.com<p>Uma relação complexa entre padrões de beleza, harmonização facial (HF) e inteligência artificial (IA) se manifesta na sociedade ocidental contemporânea. A IA, ao oferecer ferramentas para personalizar imagens faciais e simular tratamentos estéticos, corre o risco de reforçar padrões de beleza irreais e intensificar a pressão social sobre os indivíduos. Neste contexto, o presente estudo busca compreender a relação entre os denominados “algoritmos da beleza” e os processos de simulação estética, práticas que condicionam estilos de vida e subjetividades contemporâneas. O referencial teórico ancora-se criticamente no Capitalismo de Vigilância (Zuboff, 2019) e na crítica materialista da IA (Crawford, 2025), que a define não como neutra, mas como uma estruturação de poder que amplifica vieses sociopolíticos e opera por meio de tecnologias de classificação herdadas. Utilizando metodologias documentais (análise do e-<em>book</em> “Faces da Vida”) e experimentais (diálogo interativo com o ChatGPT), em uma abordagem analítica que articula a Linguística Textual (Araújo, 2025) e a Interseccionalidade (Collins; Bilge, 2020), o estudo conclui que os algoritmos da beleza atuam como enunciados performativos que comoditizam a estética e reforçam padrões eurocêntricos e heteronormativos de beleza. Os resultados demonstram que a personalização simulada da beleza, mediada pela IA, restringe a autonomia estética ao propor planos de HF que visam a “individualidade uniformizada” , condicionando as práticas de cuidado de si (Foucault, 2004) aos interesses mercadológicos do campo da estética.</p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Morgana Machado, Maria Catarinahttps://revistas.uece.br/index.php/linguagememfoco/article/view/16163Racismo algorítmico, justiça epistêmica e reexistência digital2025-10-27T15:18:55-03:00Júlio Araújoaraujo@ufc.brKleber Silvakleberunicamp@yahoo.com.brPaulo Boa Sortepauloboasorte@academico.ufs.brEduardo de Moura Almeidadumoura@gmail.com<p style="font-weight: 400;">Nesta entrevista concedida aos organizadores do dossiê “Inteligência Artificial, racismo algorítmico e outras exclusões”, o pesquisador Tarcízio Silva compartilha reflexões centrais de sua obra seminal Racismo Algorítmico: inteligência artificial e discriminação nas redes digitais (Edições Sesc, 2022), uma das primeiras sistematizações críticas sobre o tema no Brasil. A conversa percorre as bases conceituais e políticas do racismo algorítmico, analisando como sistemas digitais, de tecnologias de reconhecimento facial a plataformas de recomendação, reproduzem e aprofundam desigualdades raciais sob a aparência de neutralidade técnica. O livro, nesse sentido, sistematiza o debate sobre racismo algorítmico e tensiona os limites entre técnica e política na era dos dados. O pesquisador também comenta os desafios da escrita e da curadoria de saberes negros na era dos dados, as tensões entre regulação, ativismo e justiça epistêmica, bem como as possibilidades de resistência gestadas nas brechas da política algorítmica.</p>2025-12-10T00:00:00-03:00Copyright (c) 2025 Júlio Araújo, Kleber Silva, Paulo Boa Sorte, Eduardo de Moura Almeidahttps://revistas.uece.br/index.php/linguagememfoco/article/view/16841Expediente v. 17, n. 3, 20252025-12-10T15:02:16-03:002025-12-10T00:00:00-03:00Copyright (c) 2025