“Nosso” sonho: Alucinação algorítmica e o esvaziamento da escolha

Publicado por GEICT em

Por Maria Júlia Denega

Maria Júlia Denega é pesquisadora nas áreas de Comunicação e Linguagem, Educação Popular e Economia Solidárias. Colabora com a Incubadora Tecnológica de Cooperativas Populares da Universidade Federal do Paraná (ITCP - UFPR) investigando tecnologias educacionais e populares.

O que tornaria uma máquina capaz de opinar sobre como devemos ser? A promessa das inteligências artificiais generativas não está apenas na automação de tarefas, mas na capacidade de fornecer respostas prontas sobre o mundo, sobre outros e sobre nós mesmos. De conselhos profissionais à terapia, cresce o apelo por soluções oferecidas por sistemas que, na prática, operam como espelhos – ainda que distorcidos (BENDER et al., 2021). 

A característica de uma IA operar como um espelho não é apenas uma associação estética, mas um efeito estrutural dos sistemas informacionais antigos, que se desdobram também na atualidade. Luciano Floridi (2010) aponta que toda informação é produzida, mediada e interpretada a partir de filtros e seus contextos, não existindo dado “puro” ou neutro. No caso das IAs generativas, esses filtros são formados por bases de dados, regras estatísticas e modelos de linguagem que moldam, distorcem e até completam lacunas quando as informações disponíveis se mostram insuficientes. O que chamamos de “alucinação” não é um acidente isolado, mas um subproduto inevitável da arquitetura desses sistemas, que estão cada dia mais presentes no nosso cotidiano.

Foto: Tara Winsted. Fonte: Pexels.

Segundo o Google Cloud (2024), essa “alucinação” acontece quando um modelo de linguagem cria dados ou narrativas que soam como verdades, mas são, na prática, construções fictícias geradas pelas limitações do sistema. No entanto, como aponta Sérgio Silveira (2020), as alucinações nos revelam algo maior: uma sociedade cada vez mais disposta a aceitar o repetido discurso informacional dos sistemas como uma instância de autoridade. Se a IA erra e não se redime, mas nós seguimos consultando-a como um oráculo, o que isso diz sobre nós mesmos? 

Assim delegamos às máquinas não apenas desejos, sonhos e funções, mas agência: esperamos que elas definam o tom de voz ideal, otimizem emoções em linguagem performática, filtrem o que é socialmente aceito e indiquem o que é adequado sentir ou dizer (e de que forma dizer). Em vez de mediação, temos orientação e decisão.

Foto: Ron Lach. Fonte: Pexels.

Como sugere Latour (2013, apud STIVAL, 2021), sempre estivemos enredados com nossas técnicas, que são expressões de nossas escolhas e valores. Então, cabe perguntar: o que está em jogo quando renunciamos à hesitação, à escuta e à contradição em nome da eficiência comunicacional algorítmica? Que subjetividades se apagam quando deixamos que modelos de linguagem – treinados a partir de padrões passados – ditem o futuro de nossas escolhas? 

Em tempos em que a saúde mental ganha visibilidade, cresce também o uso dessas ferramentas como substitutos da conexão humana e do acolhimento. Segundo reportagem da Folha de São Paulo (2025), o estado norte-americano de Illinois proibiu temporariamente o uso de IAs em terapia por considerar risco a saúde e a privacidade dos cidadãos, enquanto outros estados iniciam investigações sobre a ética e a segurança dos chatbots na saúde mental de adultos e adolescentes. 

Os riscos são aumentados para os mais jovens, que por menor maturidade emocional e psicológica, podem interpretar as falhas e alucinações como uma orientação final, sem filtros críticos, desencadeando mais crises em vez de amenizá-las (GUERRA, 2025).

Foto: Ron Lach. Fonte: Pexels.

Se esses modelos alucinam, talvez o maior delírio seja o nosso: crer que há neutralidade em um compilado informacional que só repete o que já foi dito, só que sem silêncios, ambiguidades e vulnerabilidade. No fundo, talvez o que mais tememos não seja o que a máquina pode vir a pensar, mas a possibilidade de pensarmos diferente dela. 

Assim, o risco maior não reside tanto nos eventuais descompassos dessas máquinas, mas na renúncia voluntária à inerente complexidade humana. Escolha que pode, paradoxalmente, nos tornar mais vulneráveis às falhas de um sistema que, embora sofisticado, continua alicerçado em um repertório do passado. 

REFERÊNCIAS BIBLIOGRÁFICAS

BENDER, Emily M. et al. On the dangers of stochastic parrots: Can language models be too big?. Proceedings of the 2021 Association of Computing Machinery Conference on fairness, accountability, and transparency. 2021. p. 610-623.

BORELLI, Patrícia Capelini; SENISE, Pâmela Garrido. Agricultura Digital: uma Análise a Partir do Colonialismo de Dados. Mediações, v. 29, n. 2, p. e50058, 2024. Disponível em: <https://www.scielo.br/j/mediacoes/a/MFX3s7JqtQ8yXBbhrB3gKWk/?format=pdf&lang=pt>. Acesso em 19 maio 2025. 

DA SILVEIRA, Sérgio Amadeu. Sistemas algorítmicos, subordinação e colonialismo de dados. Algoritarismos, p. 158, 2020. 

FLORIDI, Luciano. Information: A very short introduction. Oxford University Press, 2010. Disponível em: <https://academic.oup.com/book/410>. Acesso em 10 ago. 2025.

WU, Daniel. Estado dos EUA proíbe psicoterapia com uso de inteligência artificial. The Washington Post, 2025. Republicado em: Folha de São Paulo, 2025. Disponível em: <https://www1.folha.uol.com.br/equilibrioesaude/2025/08/illinois-proibe-terapia-com-ia-enquanto-alguns-estados-comecam-a-examinar-chatbots.shtml>. Acesso em: 12 ago. 2025.

GOOGLE CLOUD. O que são alucinações de IA? 2024. Disponível em: <https://cloud.google.com/discover/what-are-ai-hallucinations?hl=pt-BR>. Acesso em: 21 maio 2025. 

GUERRA, Arthur. Os Riscos Ocultos Da Terapia via IA para Adolescentes. Forbes Saúde, 2025. Disponível em: <https://forbes.com.br/forbessaude/2025/08/arthur-guerra-os-riscos-ocultos-da-terapia-via-ia-para-adolescentes/>. Acesso em: 13 ago. 2025. 

HARAWAY, Donna. Saberes localizados: a questão da ciência para o feminismo e o privilégio da perspectiva parcial. Cadernos pagu, n. 5, p. 7-41, 1995. 

SILVA, Tarcízio. Colonialidade automatizada: algoritmos e aprendizado de máquina nas plataformas de mídias sociais. In: E-book Congresso 2021. Outubro de 2021. Disponível em: <https://www.researchgate.net/profile/Tarcizio-Silva-3/publication/355169930_Colonialidade_ automatizada_algoritmos_e_aprendizado_de_maquina_nas_plataformas_de_midias_sociais /links/6163a908e7993f536cbe2a9e/Colonialidade-automatizada-algoritmos-e-aprendizado-d e-maquina-nas-plataformas-de-midias-sociais.pdf>. Acesso em: 21 maio 2025. 

STIVAL, M. L.. Da arqueologia às redes: jamais fomos modernos?. Trans/Form/Ação, v. 44, n. 2, p. 255–276, abr. 2021.


0 comentário

Deixe um comentário

Avatar placeholder

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *