Imagine enviar un currículo para optar a un puesto en una empresa de comercio digital. Dos días después una respuesta automática: “Gracias por postular. Su perfil no fue seleccionado”. No hay explicación, no hay interlocutor humano, sólo un correo. Detrás de ello, un sistema de inteligencia artificial evalúa formación, redes sociales, el patrón de empleabilidad… pero descarta la candidatura sin que sepamos por qué.
Ahora piense en una gran avenida donde se activan cámaras con reconocimiento facial que comparan datos de miles de personas al día. Una mujer camina por dicha avenida, y su imagen se compara con bases de datos diseñadas en otro continente. La norma que regula la verificación no se discutió en un parlamento local, sino que se ajusta a estándares técnicos internacionales, códigos elaborados por comités globales.

Esa es la cara oculta de la IA, sistemas que deciden aspectos cruciales de nuestras vidas basados en reglas que ni elegimos ni comprendemos.
¿Quién escribe las reglas de la IA?
Más allá de propuestas legislativas conocidas como el Reglamento europeo de IA (AI Act), las reglas, tanto técnicas como éticas, para sistemas de IA se están definiendo en organismos como la Organización Internacional de Normalización (ISO) y la Comisión Electrotécnica Internacional (IEC por sus siglas en inglés) a través de su comité conjunto ISO/IEC JTC 1/SC 42 (“Artificial Intelligence”). Estos foros producen estándares técnicos sobre gobernanza, riesgos, auditoría de IA y verificación de sistemas. Por ejemplo, el estándar ISO/IEC 42001:2023 acaba de adoptarse en Colombia como el primer país latinoamericano que habilita certificaciones para gestión de sistemas de IA.
En paralelo, grandes plataformas tecnológicas y consorcios industriales como el Institute of Electrical and Electronics Engineers (IEEE) definen especificaciones técnicas que terminan siendo de facto normas operativas globales aunque no tengan carácter vinculante. Muchas de estas normas, en apariencia técnicas, terminan definiendo los requisitos, no sólo técnicos de sistemas de IA, sino también sus líneas éticas.
La invisibilidad latinoamericana en las mesas donde se deciden las reglas
A diferencia de Europa, que coordina su gobernanza técnica a través de los organismos regionales CEN y CENELEC (por ejemplo, a través del comité conjunto JTC 21 que está trabajando en estándares de desarrollo de las obligaciones contenidas en el AI Act), o de Asia, que ha impulsado foros regionales en el marco de la ASEAN la APEC para armonizar enfoques sobre IA en la región, América Latina carece todavía de un espacio regional estable para debatir y proponer normas técnicas comunes.
Los países avanzan de manera fragmentada, con iniciativas nacionales que reproducen marcos externos sin una arquitectura regional de coordinación. Por ejemplo, un análisis de cuatro países latinoamericanos (Brasil, Colombia, Chile y Uruguay) concluye que el protagonismo de la ciudadanía en el diseño de esas estrategias llegó sólo al nivel de “consulta”, sin verdaderas decisiones compartidas. Por otro lado, aunque países como Brasil participan en los comités técnicos, la influencia efectiva y la voz de contexto latinoamericano siguen siendo débiles.
Este déficit no es sólo simbólico. Significa que América Latina importa reglas, procedimientos y marcos de evaluación que fueron pensados para realidades muy distintas. Cuando esos estándares se aplican en la región, pueden generar impactos adversos: sesgos, exclusión, decisiones que no comprenden la diversidad social, lingüística y cultural de Latinoamérica.
En este sentido, un análisis reciente concluye que la cooperación regional es “crucial” para la seguridad y la gobernanza de la IA, precisamente porque hoy no existe aún una voz colectiva capaz de incidir en los foros donde se escriben las reglas del futuro digital. Esta ausencia institucional explica que la región dependa de estándares foráneos (principalmente europeos, estadounidenses o chinos) para definir qué se considera una IA “segura” o “responsable”.
Por ejemplo, un análisis de 38 implementaciones de reconocimiento facial público en nueve países latinoamericanos reveló que en la mayoría de los casos no hubo consulta ni análisis de impacto de derechos humanos. En Buenos Aires y São Paulo, por ejemplo, se desplegaron sistemas de vigilancia biométrica sin marcos legales adecuados; en la capital argentina se registraron millones de cotejos entre 2019 y 2022 sin participación ciudadana sustantiva.
Dependencia no sólo tecnológica
Esto da lugar a un tipo de dependencia normativa. Es decir, mientras se compra la tecnología, también se acepta el marco que viene con ella y muchas veces ese marco reproduce valores, prioridades o riesgos de contextos diferentes al latinoamericano. Esa ausencia de voz no sólo afecta los derechos, sino también la economía. Una empresa latinoamericana que desarrolla soluciones de IA debe ajustarse a estándares diseñados fuera para poder operar en mercados globales. Esto eleva las barreras de entrada para la innovación local y consolida la posición de la región como consumidora de tecnología, no como coproductora.
El problema, por tanto, se amplifica. Los marcos regulatorios que se adoptan importados suelen pasar por alto la informalidad laboral, la presencia de comunidades indígenas y afrodescendientes, la heterogeneidad de infraestructura, la brecha digital rural-urbana, lo que produce una nueva desigualdad tecnológica y de datos.
Los datos confirman este vacío. Según el mapeo regulatorio de Access Now, la mayoría de los marcos sobre IA en América Latina replican modelos externos sin adaptar los criterios técnicos ni las salvaguardas a los contextos locales. Incluso los proyectos más avanzados, como las estrategias nacionales de Brasil o Chile, se basan en directrices de la OCDE o la Unión Europea. Mientras tanto, iniciativas como el Índice Latinoamericano de Inteligencia Artificial (ILIA) se concentran en medir el grado de adopción tecnológica más que en construir estándares propios.
Hacia una voz latinoamericana en la gobernanza de la IA
La diversidad política, económica y cultural de América Latina hace más difícil conformar un estándar común, lo que posiblemente ha desincentivado el impulso hacia un organismo técnico unificado a nivel regional. No obstante, América Latina tiene una oportunidad. La región por su biodiversidad, riqueza cultural, energías renovables y diversidad demográfica podría construir un modelo propio para la IA, no solo de adopción.
Para ello, se necesita avanzar en tres frentes: primero, mayor participación en los comités internacionales de estándares, para que la voz, contexto y valores latinoamericanos estén representados. Segundo, promover estándares regionales o adaptaciones de los globales: ¿por qué no un sello latinoamericano de “IA confiable” que contemple las realidades de la región? Y tercero, educar y movilizar a la ciudadanía: cuando la IA tiene un impacto tan importante, la sociedad debe preguntar, opinar, diseñar y controlar.
En este sentido, América Latina también podría aportar algo que hoy falta en el debate global: una visión ética basada en inclusión, justicia social y sostenibilidad. Su historia de pensamiento crítico y de movimientos comunitarios puede inspirar una inteligencia artificial más humana, menos extractiva y más solidaria.
En consecuencia, la democracia en la era digital no se reduce al voto cada cuatro años. Es también preguntar quién programa, quién valida y quién excluye.
*Este texto se enmarca en la colaboración entre la Organización de Estados Iberoamericanos para la Educación, la Ciencia y la Cultura (OEI) y Latinoamérica21 para la difusión de la plataforma Voces de Mujeres Iberoamericanas. Conoce y únete AQUÍ a la Plataforma.











