A irrupção da inteligência artificial (IA) no ecossistema eleitoral acelerou dinâmicas que já conhecíamos — automação administrativa, segmentação de mensagens, monitoramento de redes — e criou outras completamente novas, como a produção em massa de deepfakes hiper-realistas e campanhas coordenadas de desinformação. Para os órgãos eleitorais e a sociedade civil, o desafio não é decidir se a IA “entra” ou não nas eleições, mas enfrentar seu uso malicioso — quando alguns atores buscam desacreditar autoridades ou influenciar resultados — e, paralelamente, aproveitar seus benefícios para gerenciar melhor as eleições e fortalecer a integridade informativa. Um relatório recente do Instituto Internacional para a Democracia e Assistência Eleitoral (International IDEA) sintetiza bem essa agenda: a IA abre oportunidades em todo o ciclo eleitoral, mas também exige planos de resposta, supervisão humana e estruturas de transparência para não minar a confiança pública.
O lado sombrio: deepfakes, bots e narrativas fabricadas
Na América Latina, um dos casos mais recentes é o da Argentina. Em maio de 2025, circularam deepfakes que atribuíam a figuras como o ex-presidente Mauricio Macri e o governador da província de Buenos Aires, Axel Kicillof, mensagens falsas em plena campanha. A verificação jornalística documentou o alcance e a intencionalidade dessas peças, divulgadas mesmo durante o “período de silêncio”, com a óbvia pretensão de influenciar o voto e semear confusão. O próprio Macri denunciou publicamente os vídeos, e bancos de dados de incidentes sobre IA registraram o episódio como uma tentativa de manipulação informativa no dia das eleições.
O Equador passou por algo similar, mas com um formato mais inquietante: “noticiários” falsos gerados com IA que imitavam a grafia, o tom e os apresentadores da mídia real. O resultado é uma simulação de autoridade jornalística a serviço de conteúdos enganosos. Monitoramentos e verificações de meios de comunicação como DW e France 24 descreveram essas peças — inclusive com “apresentadores” apócrifos —, um lembrete de que a tecnologia não apenas distorce o que é dito pelos candidatos, mas também suplanta marcas informativas para “parasitar” sua credibilidade.
Nos Estados Unidos, no ano passado, a novidade não foi um vídeo, mas um áudio: um robocall com uma voz clonada de Joe Biden pediu para não votar nas primárias de New Hampshire. A Comissão Federal de Comunicações (FCC) declarou ilegais as chamadas automáticas com vozes geradas por IA e, posteriormente, impôs uma multa milionária ao consultor por trás da operação, além de punir uma operadora telefônica que transmitiu as chamadas. É um exemplo de como a regulamentação, a investigação e a punição podem desincentivar o uso malicioso da IA em processos eleitorais reais.
A Bolívia, em seu ciclo eleitoral de 2025, mostrou o outro lado da moeda: deepfakes, pesquisas inventadas e ataques coordenados, com verificadores locais relatando centenas de peças enganosas desde o início do ano. O primeiro turno, realizado em agosto deste ano, foi marcado por narrativas fabricadas e conteúdos sintéticos virais, o que obrigou as organizações de verificação e a imprensa a redobrar os esforços para conter a bola de neve informativa. A conclusão é clara: o custo marginal de produzir falsidades “verossímeis” caiu, enquanto o custo de verificá-las continua alto e com um efeito muito limitado.
Saindo da região, encontramos a mesma realidade: a Moldávia (República da Moldávia), uma ex-república soviética, oferece um laboratório a céu aberto de interferências. Na véspera das eleições, foram documentados deepfakes dirigidos contra a presidente Maia Sandu e campanhas coordenadas ligadas a redes pró-russas. Observatórios europeus e meios de comunicação especializados relataram vídeos manipulados que buscavam minar a credibilidade de líderes pró-europeus, uma tática já conhecida na região. Aqui, a lição é geopolítica: a IA potencializa operações de influência transnacional que excedem a capacidade de resposta de qualquer autoridade eleitoral isolada.
O lado virtuoso: logística, registros, revisão documental e resposta à desinformação
A mesma tecnologia que barateia o engano pode — se bem projetada e governada — melhorar a administração eleitoral. Na província de Buenos Aires, a justiça eleitoral aplicou IA para realocar centenas de milhares de eleitores, visando aproximar as mesas e equilibrar as capacidades das escolas. A mudança gerou debate — toda modificação massiva do cadastro eleitoral gera isso —, mas ilustra um uso legítimo: algoritmos para otimizar a logística do dia e, potencialmente, reduzir tempos de deslocamento e saturação dos locais. O segredo é comunicar com antecedência, auditar critérios e manter canais de reclamação eficazes.
O Peru, por sua vez, introduziu o EleccIA, uma ferramenta para o Conselho Nacional Eleitoral que utiliza processamento de linguagem natural para revisar planos governamentais e arquivos de candidatos. A promessa é reduzir drasticamente os tempos de leitura e encontrar omissões ou inconsistências com maior consistência. É um uso típico da IA em back-office: menos glamour, mais impacto em procedimentos que atualmente consomem semanas humanas e que, automatizados com supervisão, podem liberar capacidade para supervisão e resolução de disputas.
Em paralelo, as autoridades podem usar a IA para responder — não só reagir — à desinformação. Painéis que combinam análise de rede com a detecção de coordenação anômala, mecanismos de busca semântica para localizar rumores crescentes e laboratórios de digital forensics para rotular manipulações audiovisuais já fazem parte do manual contemporâneo de integridade da informação. Experiências comparativas e diretrizes de entidades como a Comissão de Assistência Eleitoral dos Estados Unidos, bem como centros de pesquisa e think tanks, convergem em melhores práticas: protocolos de resposta rápida, parcerias com plataformas para rotular conteúdo sintético e estratégias de alfabetização voltadas para segmentos vulneráveis.
O que funciona quando tudo acelera
Em ambientes hipervelozes, a diferença não é feita por slogans a favor ou contra a tecnologia, mas pelas capacidades institucionais:
Governança e rastreabilidade. Se uma organização usa IA para limpar cadastros eleitorais, atribuir locais ou priorizar auditorias, ela deve ser capaz de explicar o porquê e o como: critérios, dados de treinamento, avaliação de viés, controles humanos. A explicabilidade ex ante é a melhor política contra suspeitas ex post. O relatório IDEA insiste na supervisão humana e nos procedimentos de auditoria; não é um detalhe técnico, é uma garantia democrática.
Janelas de comunicação. Os cidadãos aceitam melhor a tecnologia quando entendem seu propósito e limites. Mudanças logísticas como as de Buenos Aires exigem campanhas educativas, simuladores de locais de votação e canais de reclamação ágeis.
Regras e consequências. O caso estadunidense mostra que, diante de danos concretos — o robocall com a voz de Biden — as respostas regulatórias e sancionatórias podem ser ativadas rapidamente, enviando sinais dissuasivos.
Ecossistemas de verificação. Nenhuma autoridade pode, sozinha, seguir o ritmo da manipulação sintética. Uma rede de verificadores de fatos, universidades, observatórios e plataformas deve se coordenar para detonar rumores e compartilhar assinaturas técnicas de deepfakes que possam ser reutilizadas em toda a região. Os casos do Equador e da Bolívia demonstram que a checagem distribuída de fatos reduz o tempo de exposição de uma falsidade.
O que vem a seguir: IA, uma aliada da integridade
Se olharmos para o mapa — Argentina e Equador com deepfakes virais, Estados Unidos com sanções exemplares, Bolívia com campanhas coordenadas de conteúdo fabricado, Moldávia sob cerco de redes pró-Rússia — fica claro que a IA não é um acessório eleitoral. É um determinante estrutural da confiança. Mas também é uma oportunidade para profissionalizar a administração: alocação de recursos mais eficiente, revisão de documentos mais rápida e monitoramento mais inteligente da conversa pública. A questão não é se a IA “serve”, mas para qual propósito e sob quais regras.
Para órgãos eleitorais e a sociedade civil, o caminho razoável combina três vetores: uso estratégico (automatização onde há gargalos, com supervisão humana explícita), defesa informacional (detectar e neutralizar conteúdo sintético coordenado antes que ele amadureça) e transparência para o público (explicar cada decisão algorítmica em linguagem acessível e com trilhas de auditoria). Esta é a ponte entre uma tecnologia que pode ser uma arma e uma ferramenta que, bem governada, melhora os resultados da democracia.
Tradução automática revisada por Isabel Lima