La irrupción de la inteligencia artificial (IA) en el ecosistema electoral ha acelerado dinámicas que ya conocíamos —automatización administrativa, segmentación de mensajes, monitoreo de redes— y ha creado otras completamente nuevas, como la producción masiva de deepfakes hiperrealistas y las campañas coordinadas de desinformación. Para los organismos electorales y la sociedad civil, el reto no es decidir si la IA “entra” o no en las elecciones, sino enfrentar su uso malicioso —cuando algunos actores buscan desacreditar autoridades o inclinar resultados— y, en paralelo, aprovechar sus beneficios para gestionar mejor los comicios y fortalecer la integridad informativa. Un reciente informe del International Institute for Democracy and Electoral Assistance (International IDEA) sintetiza bien esta agenda: la IA abre oportunidades en todo el ciclo electoral, pero también exige planes de respuesta, supervisión humana y marcos de transparencia para no erosionar la confianza pública.
La cara oscura: deepfakes, bots y narrativas fabricadas
En América Latina, uno de los casos más recientes es el de Argentina. En mayo de 2025 circularon deepfakes que atribuían a referentes como el expresidente Mauricio Macri y el gobernador de la Provincia de Buenos Aires, Axel Kicillof, mensajes falsos en plena campaña. La verificación periodística documentó el alcance y la intencionalidad de esas piezas, difundidas incluso durante la “veda”, con la obvia pretensión de incidir en el voto y sembrar confusión. El propio Macri denunció públicamente los videos, y bases de incidentes sobre IA registraron el episodio como un intento de manipulación informativa en la jornada electoral.

Ecuador vivió algo similar, pero con un formato más inquietante: “noticieros” falsos generados con IA que imitaban grafismos, tono y presentadores de medios reales. El resultado es una simulación de autoridad periodística puesta al servicio de contenidos engañosos. Monitoreos y verificaciones de medios como DW y France 24 describieron estas piezas —incluso con “presentadores” apócrifos—, un recordatorio de que la tecnología no solo deforma lo dicho por candidatos, sino que también suplanta marcas informativas para “parasitar” su credibilidad.
En Estados Unidos, el año pasado la novedad no fue un video sino un audio: un robocall con una voz clonada de Joe Biden llamó a no votar en las primarias de New Hampshire. La Comisión Federal de Comunicaciones (FCC) declaró ilegales las llamadas automáticas con voces generadas por IA y, más tarde, impuso una multa millonaria al consultor detrás de la operación, además de sancionar a una telefónica que transmitió las llamadas. Es un ejemplo de cómo regulación, investigación y sanción pueden desincentivar el uso malicioso de IA en procesos electorales reales.
Bolivia, en su ciclo electoral de 2025, mostró la otra cara de la misma moneda: deepfakes, encuestas inventadas y ataques coordinados, con verificadores locales reportando cientos de piezas engañosas desde el inicio del año. La primera vuelta celebrada en agosto de este año estuvo marcada por narrativas fabricadas y contenidos sintéticos virales, lo que obligó a organizaciones de verificación y a la prensa a redoblar esfuerzos para frenar la bola de nieve informativa. La conclusión es clara: el costo marginal de producir falsedades “verosímiles” cayó, mientras que el costo de chequearlas sigue siendo alto y con un efecto muy limitado.
Saliendo de la región encontramos la misma realidad: Moldavia (República de Moldova), una ex república soviética, ofrece un laboratorio a cielo abierto de interferencias. En la antesala de sus comicios, se documentaron deepfakes dirigidos contra la presidenta Maia Sandu y campañas coordinadas vinculadas a redes prorrusas. Observatorios europeos y medios especializados reportaron videos manipulados que buscaban erosionar la credibilidad de liderazgos proeuropeos, una táctica ya conocida en la región. Aquí la lección es geopolítica: la IA potencia operaciones de influencia transnacional que desbordan la capacidad de respuesta de cualquier autoridad electoral aislada.
La cara virtuosa: logística, padrones, revisión documental y respuesta a la desinformación
La misma tecnología que abarata el engaño puede —si se diseña y gobierna bien— mejorar la administración electoral. En la Provincia de Buenos Aires, la justicia electoral aplicó IA para reubicar a cientos de miles de electores, con el objetivo de acercar mesas y equilibrar capacidades de escuelas. El cambio generó debate —toda modificación masiva del padrón operativo lo genera—, pero ilustra un uso legítimo: algoritmos para optimizar la logística de la jornada y, potencialmente, reducir tiempos de traslado y saturación de locales. La clave es comunicar con anticipación, auditar criterios y mantener vías de reclamo efectivas.
Perú, por su parte, presentó EleccIA, una herramienta del Jurado Nacional de Elecciones que aplica procesamiento de lenguaje natural para revisar planes de gobierno y expedientes de candidaturas. La promesa es reducir drásticamente los tiempos de lectura y encontrar omisiones o incongruencias con mayor consistencia. Es un uso típicamente back office de la IA: menos glamur, más impacto en trámites que hoy consumen semanas humanas y que, automatizados con supervisión, pueden liberar capacidades para la fiscalización y la resolución de controversias.
En paralelo, las autoridades pueden usar IA para responder —no solo reaccionar— a la desinformación. Tableros que combinen análisis de redes con detección de coordinaciones anómalas, motores de búsqueda semántica para ubicar rumores en ascenso y laboratorios de digital forensics para etiquetar manipulaciones audiovisuales son ya parte del manual contemporáneo de integridad informativa. La experiencia comparada y los lineamientos de entidades como la Comisión de Asistencia Electoral de Estados Unidos, así como centros de investigación y think tanks, convergen en buenas prácticas: protocolos de respuesta rápida, alianzas con plataformas para etiquetar contenidos sintéticos y estrategias de alfabetización dirigidas a segmentos vulnerables.
Qué funciona cuando todo se acelera
En entornos hiperveloces, la diferencia no la marcan eslóganes a favor o en contra de la tecnología, sino capacidades institucionales:
- Gobernanza y trazabilidad. Si un organismo usa IA para depurar padrones, asignar locales o priorizar auditorías, debe poder explicar el porqué y el cómo: criterios, datos de entrenamiento, evaluación de sesgos, controles humanos. La explicabilidad ex ante es la mejor póliza contra sospechas ex post. El informe de IDEA insiste en la supervisión humana y en procedimientos de auditoría; no es un detalle técnico, es una garantía democrática.
- Ventanas de comunicación. La ciudadanía recibe mejor la tecnología cuando entiende su propósito y límites. Cambios logísticos como los de Buenos Aires exigen campañas pedagógicas, simuladores de local de votación y canales ágiles de reclamo.
- Reglas y consecuencias. El caso estadounidense muestra que, ante un daño concreto —el robocall con la voz de Biden—, la respuesta regulatoria y sancionatoria se puede activar con rapidez, enviando señales disuasorias.
- Ecosistemas de verificación. Ninguna autoridad puede, sola, seguir el ritmo de la manipulación sintética. Red de verificadores, universidades, observatorios y plataformas deben coordinarse para detonar rumores y compartir signatures técnicas de deepfakes que puedan reutilizarse en toda la región. Los casos de Ecuador y Bolivia demuestran que el fact-checking distribuido reduce el tiempo de exposición de una falsedad.
Lo que viene: IA aliada de la integridad
Si miramos el mapa —Argentina y Ecuador con deepfakes virales, Estados Unidos con sanciones ejemplificadoras, Bolivia con campañas coordinadas de contenido fabricado, Moldavia bajo el asedio de redes prorrusas— queda claro que la IA no es un accesorio electoral. Es un condicionante estructural de la confianza. Pero también es una oportunidad para profesionalizar la administración: asignación de recursos más eficiente, revisión documental más rápida, monitoreo de conversación pública más inteligente. La cuestión no es si la IA “sirve”, sino para qué y bajo qué reglas.
Para organismos electorales y sociedad civil, el camino razonable combina tres vectores: uso estratégico (automatizar donde hay cuello de botella, con supervisión humana explícita), defensa informativa (detectar y neutralizar contenidos sintéticos coordinados antes de que maduren) y transparencia hacia el público (explicar cada decisión algorítmica con lenguaje accesible y canales de auditoría). Ese es el puente entre una tecnología que puede ser un arma y una herramienta que, bien gobernada, mejora los resultados de la democracia.