Imagem, Algoritmo e Poder

Publicado por GEICT em

Por Nina da Hora

Nina da Hora é cientista da computação (PUC - Rio), hacker antirracista e pesquisadora de mestrado do Laboratório de Inteligência Artificial (Recod.ai/IC/Unicamp) e do DPTC/IG/Unicamp. Fundadora do Instituto da Hora.

Introdução

Na contemporaneidade digital, testemunhamos uma transformação radical na forma como as imagens são criadas, distribuídas e interpretadas. Sistemas de inteligência artificial generativa revolucionaram a produção visual ao criar imagens complexas a partir de simples descrições textuais. Essa revolução tecnológica, aparentemente neutra e objetiva, carrega consigo questões profundas sobre representação, poder e exclusão social que Walter Benjamin (1936) já antecipava em sua análise sobre a reprodutibilidade técnica.

Segundo Zhou e Nabus (2023), esses sistemas combinam padrões aprendidos em vastos bancos de dados através de redes neurais profundas. Como explicam LeCun, Bengio e Hinton (2015), o funcionamento desses sistemas é puramente estatístico, baseado em probabilidades e correlações matemáticas. No entanto, essa aparente objetividade matemática esconde processos sociais complexos que Benjamin já identificava na fotografia: a mediação técnica como veículo de ideologia.

Pesquisas recentes, como as conduzidas por Buolamwini e Gebru (2018), demonstram que sistemas de reconhecimento facial frequentemente falham na identificação correta de pessoas negras. Noble (2018) aprofunda essa análise ao demonstrar que os algoritmos não são ferramentas neutras, mas artefatos culturais que carregam as marcas das sociedades que os produziram – exatamente como Benjamin argumentava sobre a câmera fotográfica.

É neste contexto que a obra de Walter Benjamin se torna surpreendentemente atual. Sua análise sobre a reprodutibilidade técnica oferece insights fundamentais para compreendermos os dilemas contemporâneos da produção algorítmica de imagens. Este artigo propõe uma leitura crítica que demonstra como a reprodução técnica evoluiu para uma síntese algorítmica que não apenas desloca a aura da obra, mas reconstrói a própria realidade visual segundo padrões hegemônicos, realizando o que Benjamin temia: a completa expropriação da experiência autêntica.

A Reprodutibilidade Técnica em Benjamin: Da Aura ao Algoritmo

Walter Benjamin, em “A obra de arte na era de sua reprodutibilidade técnica” (BENJAMIN, 1936), estabeleceu as bases para compreendermos as transformações que a tecnologia imprime sobre a arte e a cultura. Para Benjamin, a reprodução técnica transforma fundamentalmente a natureza da experiência estética e social, deslocando o que ele chamou de “aura”  a singularidade, autenticidade e presença única que uma obra de arte original possui.

O conceito de aura está intrinsecamente ligado ao “aqui e agora” da obra, sua existência é única neste lugar. Sua inserção em um contexto específico de tradição e ritual. Quando uma pintura é fotografada e reproduzida milhares de vezes, algo essencial se perde. Benjamin observava que a fotografia e o cinema não apenas reproduziam a realidade, mas a reconstruíam segundo lógicas próprias através de enquadramentos, ângulos e escolhas sobre o que incluir ou excluir do campo visual.

Essa percepção benjaminiana ganha nova relevância quando consideramos a inteligência artificial generativa. Se a fotografia já representava uma mediação técnica entre o olhar humano e a realidade, a IA generativa adiciona camadas ainda mais complexas de mediação. 

A distinção entre IA preditiva e generativa ecoa diretamente a análise benjaminiana sobre reprodução técnica e percepção. Para Benjamin, a fotografia não era mera cópia, mas uma reconstrução ideológica da realidade através de enquadramentos. Da mesma forma, podemos identificar dois regimes distintos de mediação algorítmica:

IA Preditiva opera como a câmera fotográfica analisada por Benjamin: reproduz o existente, mas com vieses de enquadramento. Ela mantém uma relação, ainda que mediada, com um referente externo. Corresponde à primeira fase da reprodutibilidade técnica – a mediação humana traduzida em algoritmos. Quando falha em identificar rostos negros, está reproduzindo os vieses do mundo real, mas ainda está vinculada a ele.

IA Generativa vai além, realizando o que Benjamin temia e Baudrillard (1991) posteriormente teorizou: cria realidades sem original, baseadas em correlações estatísticas de datasets colonizados. Realiza o simulacro perfeito – uma imagem sem aura e sem história. Se para Benjamin a reprodução em massa diluía o “aqui e agora” da obra, a IA generativa produz imagens completamente desenraizadas, que cristalizam hierarquias sem consciência histórica.

Foto: Ron Lach. Fonte: Pexels.
Foto: Ron Lach. Fonte: Pexels.

A tabela abaixo, agora integrada à teoria benjaminiana, explicita essa diferença fundamental:

Conceito BenjaminianoIA PreditivaIA Generativa
ReprodutibilidadeReproduz com vieses (reconhecimento facial falho)Gera sem referente (médicos sempre brancos)
Status da AuraAura diluída (ainda há conexão com o real)Aura inexistente (puro simulacro)
Mediação IdeológicaEnquadramentos humanos codificadosPadrões históricos naturalizados como “objetivos”
Relação com o RitualMantém vestígios do contexto originalCria novos rituais de exclusão automatizados
Tipo de ViolênciaInvisibilização (não reconhece)Impossibilidade (não consegue imaginar)
ExpropriaçãoDa capacidade de ser vistoDa capacidade de existir no imaginário

Para Benjamin, a arte pré-moderna tinha função ritualística – estava inserida em contextos de culto e tradição. Com a reprodutibilidade técnica, essa função ritual se dissolve. Paradoxalmente, a IA generativa cria novos rituais.

Quando o Stable Diffusion gera “pessoas felizes” predominantemente brancas, ele não está sendo “neutro”, está reproduzindo o ritual colonial ocidental de associar felicidade à branquitude, agora matematizado em distribuições de probabilidade. Cada iteração do algoritmo é uma repetição ritual dessa associação, cristalizando-a como verdade estatística.

Saidiya Hartman (2008) desenvolveu o conceito de “escravidão visual” ao analisar como fotografias do século XIX não apenas documentavam, mas perpetuavam a violência através do olhar colonial. Ela propõe “virar a câmera” – expor a violência do olhar que criou essas imagens. Na IA podemos exemplificar três exemplos atuais deste conceito de Hartman:

  1. Google Photos (2015) – A Desumanização Matemática O sistema classificou pessoas negras como “gorilas”. Tecnicamente, a rede neural convolucional havia sido treinada com pouquíssimas imagens de pessoas negras. Sem dados suficientes, o algoritmo ‘defaultou’ para a categoria mais “próxima” em seu espaço matemático – uma desumanização literal codificada em números. Benjamin diria: a técnica não apenas reproduz, mas intensifica a violência simbólica.
  2. CEOs Imaginários (2023) – O Teto de Vidro Digital Sistemas generativos produzem quase exclusivamente homens brancos quando solicitados a gerar “CEO brasileiro”. O processo de difusão parte de ruído aleatório e o transforma seguindo padrões aprendidos. Como a correlação “CEO = homem branco” domina estatisticamente, o algoritmo realiza o que Benjamin chamaria de “expropriação da imaginação” – ele não consegue conceber alternativas ao padrão hegemônico.
  3. Filtros de “Beleza” (2020-presente) – A Eugenia Algorítmica Aplicativos clareiam automaticamente a pele de pessoas negras ao “melhorar” selfies. Os algoritmos foram treinados para maximizar métricas de “qualidade” definidas por datasets majoritariamente brancos. É o que Benjamin alertava: a reprodução técnica não é neutra, ela carrega e amplifica os valores da sociedade que a produziu.

A Atualidade de Benjamin no Século XXI

A travessia teórica empreendida neste artigo revela a atualidade surpreendente de Walter Benjamin para compreendermos os dilemas éticos e políticos da inteligência artificial generativa. Se o diagnóstico benjaminiano sobre a perda da aura na reprodução técnica nos serviu de bússola, os casos analisados – do Google Photos aos CEOs algorítmicos – demonstram que a IA generativa opera uma mutação qualitativa: não mais a reprodução que desloca, mas a síntese que inventa realidades distópicas a partir dos arquivos coloniais do digital.

Foto: Beyza Kaplan. Fonte: Pexels.
Foto: Beyza Kaplan. Fonte: Pexels.

Os três eixos que estruturam nossa análise – (1) a metamorfose da aura em simulacro estatístico, (2) a matematização da violência colonial e (3) os novos rituais de exclusão automatizada – convergem para um paradoxo crucial: quanto mais “realistas” as imagens geradas por IA, mais elas escamoteiam seu caráter ideológico. A lição de Hartman e Kilomba nos ensina que essa não é uma falha do sistema, mas sua operação perfeita.

A proposta de uma estética da resistência algorítmica aqui esboçada não sugere meros ajustes técnicos, mas exige:

  1. A desnaturalização radical dos datasets como artefatos políticos
  2. A criação de protocolos de desobediência visual
  3. A reapropriação coletiva da imaginação computacional

Quando Benjamin nos alertava sobre a estetização da política, não podia prever seu desdobramento algorítmico: a política da estética computacional, onde cada imagem gerada é um ato de governamentalidade. O desafio que se coloca não é de otimização, mas de reinvenção – não como corrigir os algoritmos, mas como ressignificar coletivamente o que é visível, imaginável e, portanto, possível.

Se a fotografia, segundo Benjamin, nos privou da ‘aura’ das obras de arte ao reproduzi-las mecanicamente, a inteligência artificial generativa vai além: ela ameaça nos impedir até mesmo de perceber essa perda. Nesse contexto onde as imagens artificiais substituem a realidade, devemos construir novas formas de ver. O grande desafio atual não é técnico, mas político: como transformar algoritmos que reproduzem desigualdades em ferramentas de libertação? Isso exigirá não apenas análise, mas ação criativa, não para recuperar um passado idealizado, mas, para criar uma autenticidade digital onde a justiça visual seja regra, não exceção.

Referências

BAUDRILLARD, J. Simulacros e simulação. Lisboa: Relógio d’Água, 1991.

BENJAMIN, R. Race after technology: abolitionist tools for the new Jim code. Cambridge: Polity Press, 2019.

BENJAMIN, W. A obra de arte na era de sua reprodutibilidade técnica. In: Obras escolhidas I: Magia e técnica, arte e política. São Paulo: Brasiliense, 1936.

BUOLAMWINI, J.; GEBRU, T. Gender shades: intersectional accuracy disparities in commercial gender classification. Proceedings of Machine Learning Research, v. 81, p. 77-91, 2018.

CRAWFORD, K. Atlas of AI: power, politics, and the planetary costs of artificial intelligence. New Haven: Yale University Press, 2021.

GEBRU, T. et al. On the dangers of stochastic parrots: can language models be too big? FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, p. 610-623, 2021.

HARTMAN, S. Scenes of subjection: terror, slavery, and self-making in nineteenth-century America. Oxford: Oxford University Press, 2008.

KILOMBA, G. Memórias da plantação: episódios de racismo cotidiano. Rio de Janeiro: Cobogó, 2019.

NOBLE, S. U. Algorithms of oppression: how search engines reinforce racism. New York: New York University Press, 2018.

LECUN, Y.; BENGIO, Y.; HINTON, G. Deep learning. Nature, v. 521, n. 7553, p. 436-444, 2015.

ZHOU, K.-Q.; NABUS, H. The ethical implications of DALL-E: opportunities and challenges. Mesopotamian Journal of Computer Science, v. 7, p. 16-21, 2023.


0 comentário

Deixe um comentário

Avatar placeholder

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *