“O pesadelo da esquizofrenia é não saber o que é verdade”, diz o Dr. Rosen à esposa de John Nash no filme Uma Mente Brilhante, dirigido por Ron Howard. A frase descreve um dos sintomas mais angustiantes dessa doença e, usada aqui em sentido metafórico e não clínico, nos oferece um ponto de partida para refletir sobre uma complexidade muito real da sociedade do século XXI. Uma cultura visual de circulação vertiginosa nas redes sociais, onde abundam imagens e vídeos que parecem verdadeiros, mas são completamente falsos e alimentam dinâmicas poderosas de desinformação.
Se falássemos apenas de dados imprecisos, o problema seria manejável. Mas quando essas peças falsas são inseridas em conflitos entre países — como Israel-Palestina ou Rússia-Ucrânia — e são projetadas para suscitar temor, repúdio, estigmatização ou divisão, a situação muda de escala. Não se trata só de erros informativos, mas de dispositivos que modelam emoções, identidades e posições políticas. Aqui vale a pena parar e nos perguntar até que ponto a inteligência artificial (IA) generativa está reconfigurando a cultura, a vida cotidiana e a própria ideia de verdade compartilhada.
Na América Latina, a fronteira entre o verdadeiro e o falso deixou de ser um dilema futurista. O Brasil estreou regras contra os deepfakes em suas eleições locais de 2024, enquanto circulavam montagens; no México, o ciclo eleitoral daquele mesmo ano foi marcado por debates sobre áudios e vídeos sintéticos; e o mundo corporativo já enfrentou tentativas de fraude com vozes e rostos clonados. O resultado é uma vida cotidiana mais incerta, em que a verificação geralmente chega tarde e o dano se espalha rapidamente: primeiro circulam as emoções, depois — com sorte — aparecem as evidências.
Nesse contexto, propomos interpretar o fenômeno como uma espécie de “esquizofrenia social” induzida pela IA generativa: um desalinhamento entre o que vemos e ouvimos e o que podemos acreditar, com efeitos políticos, econômicos e culturais em grande escala.
Chamamos de “esquizofrenia social” — insistimos, em um sentido metafórico e não clínico — a dessincronização coletiva entre percepção e confiança que ocorre quando sistemas técnicos geram, a baixo custo e em grande escala, representações plausíveis de algo que nunca aconteceu. Pelo menos três mecanismos contribuem para isso.
Primeiro, o mimetismo sensorial: as IAs conseguem vozes, rostos e cenas que “passam” por reais e são consumidas na velocidade do feed, reduzindo drasticamente a janela para dúvidas. Segundo, a economia da atenção: as plataformas otimizam a exposição e o engajamento; as peças sintéticas, por seu dramatismo e novidade, competem vantajosamente por cliques, reações e padrões. Terceiro, as assimetrias institucionais: a capacidade de verificar, regular e sancionar sempre fica atrás da capacidade de gerar e distribuir conteúdo.
Na região, órgãos e tribunais eleitorais começaram a responder, mas os incentivos do ecossistema informacional — político, comercial e midiático — continuam premiando a viralidade acima do cuidado democrático. A consequência é uma erosão da confiança interpessoal e institucional, com impactos desiguais: alguns grupos populacionais específicos costumam ser alvos preferenciais de montagens e campanhas de ódio, enquanto a mídia enfrenta um duplo desafio de sustentabilidade e verificação. Reverter esse desalinhamento exige políticas públicas, tecnologias responsáveis e alfabetização midiática e visual que reequilibrem a relação entre ver, acreditar e agir.
Para entender como chegamos a confiar tanto nas imagens — a ponto de a IA poder deslocar nossa percepção —, é útil recuperar algumas ideias dos Estudos Visuais. A partir daí, podemos questionar a relação entre imagem, olhar e realidade, e entender o terreno em que hoje circulam imagens criadas ou manipuladas pela IA.
Gérard Wajcman, em O olho absoluto (2010), afirma que vivemos em uma sociedade que idolatra a imagem. Esperamos que a realidade se entregue completamente ao nosso olhar, que nada permaneça oculto. Daí a onipresença de câmeras em telefones, computadores e dispositivos de vigilância. Sob a premissa de que aquilo que não tem imagem facilmente se torna boato, acabamos confiando nas imagens como se elas garantissem, por si mesmas, a verdade do que mostram, mesmo sabendo que podem ser manipuladas. Primeiro foi a fotografia, depois os programas de edição digital; agora, as imagens produzidas ou transformadas com IA. Em todos esses casos, mantém-se uma confiança quase automática no visível.
Wajcman ilustra essa pulsação de ver tudo com o exemplo de um grupo de cientistas da Universidade de Hiroshima que tornou transparentes alguns sapos para observar seus órgãos sem abrir seus corpos. Além do que poderia parecer um avanço científico, o gesto revela um desejo de antecipar qualquer ameaça — como o crescimento de células malignas — por meio de um olho externo que produz informações constantes. Essa lógica ajuda a compreender por que hoje normalizamos tecnologias que prometem vigiar, prever e controlar o futuro a partir de imagens e dados visuais.
Por sua vez, Guy Debord, em A sociedade do espetáculo (1967), argumenta que, nas sociedades modernas, a vida social se organiza como uma enorme acumulação de espetáculos. O que antes era vivido de forma direta é deslocado para sua representação, para sua encenação. O espetáculo não é simplesmente um conjunto de imagens, mas uma forma de relação social mediada por essas imagens e pelos dispositivos que as difundem. A economia e o poder, aponta Debord, se legitimam por meio desse regime visual que molda a maneira como percebemos o mundo e a nós mesmos.
Nesse contexto, a visualidade está cada vez mais associada à vigilância, ao voyeurismo e ao espetáculo, e cada vez menos à reflexão crítica. Se antes se falava de um “olho inquisidor”, agora nos deparamos com um olho cheio de dúvidas: um olho saturado pela proliferação de imagens manipuladas ou geradas por IA, que torna extremamente difícil distinguir entre o verdadeiro e o falso, entre a realidade e a ficção.
A “esquizofrenia social” de nosso tempo não consiste apenas em duvidar do que vemos, mas em que essa dúvida corrói laços já frágeis em sociedades atravessadas por desigualdade, violência e instituições fracas, como tantas na América Latina. Permitir que a IA generativa opere sem contrapesos neste contexto significa agravar a confusão e a polarização; colocá-la a serviço da democracia, por outro lado, implica fortalecer os sistemas de verificação, promover a alfabetização visual e midiática desde a escola e abrir a discussão pública sobre os usos legítimos das imagens sintéticas. Em última análise, o que está em jogo não é apenas o estatuto da verdade visual, mas a possibilidade de manter um mínimo de confiança compartilhada que torne a vida em comum habitável.
Tradução automática revisada por Isabel Lima











