Cada vez más en América Latina y el Caribe (ALC) se utiliza la inteligencia artificial (IA) en la toma de decisiones cotidianas que afectan a millones de personas: procesos de selección de becas, subsidios, alertas de servicios sociales, identificación biométrica, incluso orientación a víctimas de violencia.
Pero, como lo advierte el Informe Regional sobre Desarrollo Humano 2025, la IA se consolida en una región con desigualdades persistentes, y los datos que alimentan estos sistemas reflejan inevitablemente los sesgos arraigados en la sociedad. Si los algoritmos aprenden de estas realidades, el sesgo de género deja de ser un fallo de laboratorio y se convierte en un problema de desarrollo: puede excluir a quienes menos aparecen en los registros —como las mujeres pobres, indígenas, migrantes o rurales— lo que erosionaría aún más la confianza institucional.

Pero la misma tecnología que puede profundizar desigualdades también sirve para proteger, informar y abrir oportunidades, en especial para grupos tradicionalmente excluidos. El desafío es reducir ese sesgo y apostar por controles verificables que prioricen la equidad para ampliar derechos, mejorar la focalización de políticas y fortalecer un crecimiento más inclusivo.
Un problema “técnico” que ya es de desarrollo
Uno de los principales usos de la inteligencia artificial se basa en identificar patrones en grandes volúmenes de datos para optimizar decisiones. Sin embargo, los modelos que “promedian” poblaciones diversas pueden desfavorecer a los grupos subrepresentados y reproducir patrones históricos de discriminación. En programas de protección social, por ejemplo, varios países de ALC han incorporado modelos automatizados para clasificar personas y asignar beneficios, pero los sistemas de puntaje pueden perpetuar la exclusión si se alimentan de datos donde las mujeres u otros grupos no están equitativamente representados.
El sesgo de género aparece en decisiones concretas y la seguridad pública ofrece un contrapunto igual de ilustrativo. La región ha adoptado rápidamente tecnologías biométricas y de reconocimiento facial, pero estudios muestran que los falsos positivos pesan más sobre las mujeres, y en particular sobre mujeres racializadas. Estos errores de identificación comprometen libertades, pueden activar detenciones injustas y amplificar desigualdades.
Paralelamente, cuando los algoritmos de contratación replican historiales laborales masculinizados o cuando el crédito se otorga con modelos que penalizan trayectorias femeninas según los criterios de la banca tradicional, se reducen las oportunidades para las mujeres, se pierde productividad y se limita el emprendimiento. La región no puede permitirse tecnologías que excluyan talento femenino de mercados ya segmentados.
Invertir en datos representativos y fortalecer marcos regulatorios del uso de la IA, incorporando métricas de equidad y mecanismos de rendición de cuentas, son pasos clave para usar esta tecnología de forma responsable e inclusiva. Así, la inteligencia artificial puede convertirse en una oportunidad no solo para mejorar la eficiencia en la toma de decisiones, sino también para ampliar la base de beneficiarias de la innovación, acelerar la adopción digital y promover la inclusión laboral y financiera.
También conviene revisar el plano simbólico: la feminización por defecto de asistentes virtuales o chatbots —a través de sus nombres, voces y avatares— reproduce jerarquías. Esto puede estar justificado en servicios específicos, pero como norma refuerza estereotipos sobre el rol de las mujeres en la sociedad. El diseño de interfaces, cada vez más usado para mejorar la provisión de servicios públicos, también es un elemento de política pública.
Liderazgo femenino: de “outliers” a diseñadoras
Los principios de no discriminación, transparencia y supervisión humana ya figuran entre las estrategias y marcos de varios países de la región. El reto es traducirlos en controles verificables: documentar la composición demográfica de los datos; evaluar el desempeño por subgrupos (mujeres por edad, origen, condición migratoria o ruralidad); monitorear los resultados tras el despliegue de los sistemas; y exigir auditorías independientes obligatorias en sistemas de alto impacto (como aquellos usados para protección social, salud, justicia, y seguridad). Con estos controles la IA se vuelve auditable y gobernable.
Debido a exclusiones históricas y baja visibilidad en datos formales, los sistemas tienden a clasificar a las mujeres como “outliers”, un término que en estadística define un valor atípico, es decir, una observación que es numéricamente distante del resto de los datos. Desde un enfoque estrictamente estadístico, los resultados de conjuntos de datos con valores atípicos pueden conducir a conclusiones erróneas, por lo que generalmente se evitan. Sin embargo, esto no siempre aplica en contextos más sutiles, como solicitudes de crédito, vacantes laborales o programas sociales, donde las características de las mujeres pueden diferir de las de los hombres, pero no deberían ser motivo de exclusión de los procesos de selección.
Pero las mujeres de la región no solo son usuarias de la IA, sino también líderes en la creación de soluciones: marcos feministas de desarrollo de IA, herramientas abiertas para detectar estereotipos en modelos de lenguaje e iniciativas que incorporan perspectiva de género en el trabajo en plataformas. Colocar a las mujeres en el centro —como diseñadoras, auditoras, reguladoras y usuarias— mejora la calidad técnica de los sistemas y acelera su aceptación social. Esta es, además, una política de innovación.
En definitiva, reducir el sesgo de género multiplica retornos: políticas sociales más precisas y legítimas; seguridad compatible con derechos; mercados laborales y financieros más inclusivos y productivos; y mayor confianza en instituciones capaces de gobernar tecnologías complejas. Esto se traduce en desarrollo humano: más capacidades reales —salud, educación, participación, trabajo digno— y más agencia para incidir en la propia vida y el entorno.
La IA no es neutra, pero puede ser justa. Para lograrlo, América Latina y el Caribe necesita abrazar un estándar mínimo ya al alcance: datos representativos y documentados, métricas de equidad por subgrupos, auditorías independientes y vías de reparación cuando hay daño. Reducir el sesgo de género no solo abre oportunidades a las mujeres, sino que impulsa el desarrollo para toda la región.
Este artículo se basa en los hallazgos del Informe Regional sobre Desarrollo Humano 2025, titulado “Bajo presión: Recalibrando el futuro del desarrollo”, elaborado por el Programa de las Naciones Unidas para el Desarrollo (PNUD) en América Latina y el Caribe.