#radioliberal #tvliberal #rádioliberal #radioliberaltamboril #tvliberaltamboril google.com, pub-5239301657948637, DIRECT, f08c47fec0942fa0

88 981415662

NO AR

Show da Tarde

Com Yarley

Tecnologia

‘Algoritmos não cometem só erros técnicos, eles produzem apagamentos e racismo’, alerta pesquisador

Em entrevista ao Diário do Nordeste, o professor do Departamento de Letras Vernáculas da UFC, Júlio Araújo, fala sobre o tema.

Publicada em 21/11/25 às 10:11h - 19 visualizações

por DN


Compartilhe
 

Link da Notícia:

 (Foto: Shutterstock)

Pegar o celular e fazer perguntas simples a sistemas de Inteligência Artificial (IA), pedir explicações sobre temas diversos, solicitar ajuda para entender o contexto de um fato, gerar imagens, identificar dúvidas sobre assuntos públicos, resumir documentos, consumir conteúdos digitais que trazem sugestões personalizadas ou mesmo usar o desbloqueio por reconhecimento facial. Ações rápidas e cada vez mais rotineiras para boa parte da população, mediadas por IAs em uma atuação quase invisível. 

Nos últimos anos, é justamente nesses processos que as IAs avançam e, com elas, os algoritmos, que são códigos desenvolvidos para executar tarefas. Mas como esses sistemas interferem no nosso dia a dia? E, mais que isso, eles podem reproduzir preconceitos sociais e com isso influenciar usuários de forma sutil e quase imperceptível?

Estudos no campo da Linguística, como as desenvolvidas pelo pesquisador cearense, doutor em Linguística e professor do Departamento de Letras Vernáculas da Universidade Federal do Ceará (UFC), Júlio Araújo, indicam que sim. Pesquisas de Júlio destacam que esses mecanismos não são apenas ferramentas técnicas, mas também participam da construção da linguagem e das relações sociais

Logo, as IAs, ressalta Júlio, não funcionam apenas como “um jogo de pergunta e resposta” e “algoritmos produzem apagamentos e racismo”. Isso porque esses dispositivos têm potencial para moldar discursos, influenciando a forma como as pessoas são representadas e tratadas digitalmente, incluindo populações historicamente marginalizadas, como negros, moradores da periferia e mulheres, entre outros.

No mês da Consciência Negra, o Diário do Nordeste entrevista o pesquisador que tem destacados estudos na área que conecta a relação entre tecnologias, IAs e problemas como racismo, viés, exclusão e distorções de percepção. No livro “Necroalgoritmização: notas para definir o racismo algorítmico”, lançado em agosto de 2025, o pesquisador propõe o conceito de necroalgoritmização e amplia a ideia de necropolítica do intelectual camaronês Achille Mbembe. 

Ao abordar as formulações apresentadas na publicação e em seus demais estudos, Júlio reforça: “as decisões sobre quem aparece e quem desaparece (na vida digital) já não pertencem exclusivamente ao debate humano. Elas se deslocam para sistemas treinados por séculos de desigualdade”.

Ao Diário do Nordeste, Júlio falou sobre o conceito formulado por ele, como esse fenômeno se manifesta no cotidiano; a ausência de neutralidade nesses sistemas; a necessidade de letramento digital e do apagamento gerado por esse conjunto de dispositivos e acrescentou: “em análises de textualidade algorítmica, quando examino prompts, respostas e funcionamento interno dos modelos, percebo como associações estatísticas carregam imaginários raciais e coloniais. Palavras como ‘negro’, ‘favela’ ou ‘periferia’ acionam roteiros visuais de violência, perigo ou marginalidade.

Confira a entrevista completa:

No seu livro, o conceito de necroalgoritmização é central. Como o senhor define esse termo e em que ele se diferencia de abordagens como viés algorítmico ou racismo algorítmico?

Eu defino necroalgoritmização como o processo pelo qual sistemas algorítmicos participam da gestão da vida e da morte de determinados grupos. É quando um algoritmo estabelece rotinas estruturais de apagamento, silenciamento, precarização e violência dirigidas a certos corpos, territórios e modos de existir.

Enquanto o debate sobre “viés algorítmico” costuma se concentrar em erros técnicos, resultados enviesados, bases de dados desbalanceadas, e o racismo algorítmico enfatiza a reprodução de hierarquias raciais nos sistemas de IA, a necroalgoritmização dá um passo além, pois ela pergunta o que esses erros fazem com as condições concretas de viver. A necroalgoritmização é mais ampla e o racismo algorítmico é uma de suas manifestações. 

Em diálogo com a necropolítica de Achille Mbembe, eu sustento que há algoritmos que, ao negar crédito, bloquear conteúdo, associar rostos negros à criminalidade ou invisibilizar determinadas línguas e corpos, produzem zonas de não existência, zonas em que a pessoa é sempre suspeita, sempre descartável, sempre menos crível.

O racismo algorítmico é uma dimensão central desse processo, mas a necroalgoritmização o amplia para um quadro em que a máquina se torna um dos dispositivos que administram quem pode aparecer, falar, circular, e quem é sistematicamente empurrado para a borda ou para fora do campo social. 

É possível então dizer que a necroalgoritmização aponta um fenômeno concreto? Como esse processo aparece no cotidiano e de que formas ele pode ser identificado?

Estamos vivendo um momento histórico em que a antiga Sociedade do Cansaço, formulada por Byung-Chul Han (filósofo sul-coreano), já não consegue explicar a profundidade das violências que estruturam o nosso tempo. 

Durante muito tempo insistimos que o problema central era o excesso de produtividade. Hoje o cenário se desloca, pois não se trata apenas de exaustão. Vivemos a emergência daquilo que denomino Sociedade da Necroalgoritmização.

Nessa nova configuração, a violência não nasce no colapso subjetivo de quem não acompanha o ritmo da produtividade. Ela se origina muito antes, na própria infraestrutura que permite a existência do mundo digital. 

A necroalgoritmização se inscreve nos corpos que extraem terras raras, cobalto, silício, lítio e outros minerais em contextos de exploração profunda. Ela atravessa trabalhadores do Sul Global, muitos deles negros, indígenas e migrantes, cujas vidas são tratadas como combustíveis descartáveis para manter aceso o brilho das telas. 

Também se manifesta na devastação ambiental provocada pelo uso massivo de água potável para resfriar data centers, como se os recursos hídricos do planeta fossem ilimitados. Antes que qualquer linha de código-fonte seja escrita, vidas já foram empurradas para zonas de morte. O drone que sobrevoa e mata, como nas guerras em Gaza, apenas atualiza uma lógica de violência que começou bem antes desse voo.

Quando observamos o nível político percebemos que a necroalgoritmização não apenas desgasta. Ela corrói a própria possibilidade de vida democrática. Os sistemas algorítmicos modulam visibilidade, amplificam ódio, silenciam ativistas e escritores.

A esfera pública passa a ser reorganizada por cálculos que reproduzem assimetrias históricas. A Sociedade da Necroalgoritmização implode o espaço em que o comum deveria ser construído. As decisões sobre quem aparece e quem desaparece já não pertencem exclusivamente ao debate humano. Elas se deslocam para sistemas treinados por séculos de desigualdade.

A necroalgoritmização opera de forma interseccional e isso significa que ela não atinge apenas um tipo de corpo ou identidade. Ela se concretiza pelo racismo algorítmico, pela transfobia e pela homofobia automatizadas, pela misoginia reproduzida em larga escala, pelo audismo que apaga as línguas de sinais e as pessoas Surdas, pelo etarismo, pelo capacitismo, pela gordofobia, pela islamofobia e pela xenofobia digital. 

São sistemas que inferem quem é legível como dado e quem sequer merece existir na superfície das plataformas. Na Sociedade do Cansaço o sujeito era pressionado a performar. Na Sociedade da Necroalgoritmização muitos sequer alcançam esse ponto, pois são apagados antes de serem reconhecidos como sujeitos.

Em alguns ocasiões, o senhor já abordou o Triângulo Discursivo da Textualidade Algorítmica (TDTA) que, de modo simplificado é uma proposta que aponta que para entender como a IA funciona, é preciso olhar para o que o usuário escreve, o que o algoritmo faz e qual resposta entrega. Na prática, como esse método ajuda as pessoas a entenderem que as máquinas não são neutras?

Elaborei uma abordagem que eu chamo de Triângulo Discursivo da Textualidade Algorítmica (TDTA) e, conforme a minha concepção, esse instrumento nos ajuda a revelar que a inteligência artificial não funciona como um simples jogo de pergunta e resposta, como a maioria das pessoas ainda acredita. 

Segundo as minhas pesquisas, é muito importante divulgar que, entre o que o usuário pede e o que a máquina devolve, existe um território opaco em que escolhas técnicas se misturam com decisões históricas, políticas e ideológicas. É nesse território invisível que a neutralidade tecnológica se desfaz.

O processo começa pelo Texto-Prompt, que tradicionalmente é compreendido como aquilo que o usuário escreve de forma consciente quando faz uma busca, envia uma mensagem, preenche um cadastro ou formula um comando para uma IA generativa. Esse é o que chamo de prompt voluntário. 

Mas, para compreender a profundidade do funcionamento algorítmico, é indispensável reconhecer outro modo de entrada de dados que opera de forma silenciosa e permanente: o prompt involuntário, um regime de captura de rastros digitais que se realiza sem consciência ou consentimento. 




ATENÇÃO:Os comentários postados abaixo representam a opinião do leitor e não necessariamente do nosso site. Toda responsabilidade das mensagens é do autor da postagem.

Deixe seu comentário!

Nome
Email
Comentário
0 / 500 caracteres


Insira os caracteres no campo abaixo:


 
Enquete
Qual dessas Redes Sociais voce acessa?

 Facebook
 Instagram
 Tik Tok
 Youtube







.

Mande aquele alô pra gente!

88 981415662

Visitas: 84416
Usuários Online: 18
Copyright (c) 2025 - RÁDIO LIBERAL - Tamboril/CE
Converse conosco pelo Whatsapp!