{"id":52448,"date":"2025-10-22T09:00:00","date_gmt":"2025-10-22T12:00:00","guid":{"rendered":"https:\/\/latinoamerica21.com\/?p=52448"},"modified":"2025-10-21T19:39:27","modified_gmt":"2025-10-21T22:39:27","slug":"inteligencia-artificial-com-vieses-reais-novos-desafios-para-a-igualdade-de-genero-na-america-latina-e-no-caribe","status":"publish","type":"post","link":"https:\/\/latinoamerica21.com\/pt-br\/inteligencia-artificial-com-vieses-reais-novos-desafios-para-a-igualdade-de-genero-na-america-latina-e-no-caribe\/","title":{"rendered":"Intelig\u00eancia artificial com vieses reais: novos desafios para a igualdade de g\u00eanero na Am\u00e9rica Latina e no Caribe"},"content":{"rendered":"\n<p>Cada vez mais, na Am\u00e9rica Latina e no Caribe (ALC) utiliza a intelig\u00eancia artificial (IA) na tomada de decis\u00f5es cotidianas que afetam milh\u00f5es de pessoas: processos de sele\u00e7\u00e3o de bolsas de estudo, subs\u00eddios, alertas de servi\u00e7os sociais, identifica\u00e7\u00e3o biom\u00e9trica e inclusive a orienta\u00e7\u00e3o a v\u00edtimas de viol\u00eancia.<\/p>\n\n\n\n<p>Mas, como adverte o <a href=\"https:\/\/www.undp.org\/es\/latin-america\/informe-regional-sobre-desarrollo-humano-2025\">Relat\u00f3rio Regional sobre Desenvolvimento Humano 2025<\/a>, a IA se consolida em uma regi\u00e3o com desigualdades persistentes, e os dados que alimentam esses sistemas refletem inevitavelmente os vieses arraigados na sociedade. <a href=\"https:\/\/www.undp.org\/latin-america\/publications\/gender-bias-ai-risks-and-opportunities-latin-america-and-caribbean\">Se os algoritmos aprendem com essas realidades, o vi\u00e9s de g\u00eanero deixa de ser uma falha de laborat\u00f3rio e se torna um problema de desenvolvimento<\/a>: pode excluir quem menos aparece nos registros \u2014 como mulheres pobres, ind\u00edgenas, migrantes ou rurais \u2014 o que corroeria ainda mais a confian\u00e7a institucional.<\/p>\n\n\n\n<p>Mas a mesma tecnologia que pode aprofundar as desigualdades tamb\u00e9m serve para proteger, informar e <a href=\"https:\/\/www.undp.org\/es\/latin-america\/blog\/nuevas-oportunidades-o-prosperidad-precaria-las-dos-caras-de-la-economia-gig-en-america-latina\">abrir oportunidades, em especial para grupos tradicionalmente exclu\u00eddos<\/a>. O desafio \u00e9 reduzir esse vi\u00e9s e apostar em controles verific\u00e1veis que priorizem a equidade para ampliar direitos, melhorar o foco das pol\u00edticas e fortalecer um crescimento mais inclusivo.<\/p>\n\n\n\n<p><strong>Um problema \u201ct\u00e9cnico\u201d que j\u00e1 \u00e9 de desenvolvimento<\/strong><\/p>\n\n\n\n<p>Um dos principais usos da intelig\u00eancia artificial baseia-se em identificar padr\u00f5es em grandes volumes de dados para otimizar decis\u00f5es. No entanto, os modelos que \u201ccalculam a m\u00e9dia\u201d de popula\u00e7\u00f5es diversas podem desfavorecer grupos sub-representados e reproduzir padr\u00f5es hist\u00f3ricos de discrimina\u00e7\u00e3o. Em programas de prote\u00e7\u00e3o social, por exemplo, v\u00e1rios pa\u00edses da ALC incorporaram modelos automatizados para classificar pessoas e atribuir benef\u00edcios, mas os sistemas de pontua\u00e7\u00e3o podem perpetuar a exclus\u00e3o se alimentados com dados onde as mulheres ou outros grupos n\u00e3o est\u00e3o equitativamente representados.<\/p>\n\n\n\n<p>O vi\u00e9s de g\u00eanero aparece em decis\u00f5es concretas, e a seguran\u00e7a p\u00fablica oferece um contraponto igualmente ilustrativo. A regi\u00e3o adotou rapidamente tecnologias biom\u00e9tricas e de reconhecimento facial, mas estudos mostram que os falsos positivos pesam mais sobre as mulheres, e em particular sobre as mulheres racializadas. Esses erros de identifica\u00e7\u00e3o comprometem liberdades, podem levar a deten\u00e7\u00f5es injustas e amplificar desigualdades.<\/p>\n\n\n\n<p>Paralelamente, quando os algoritmos de contrata\u00e7\u00e3o replicam hist\u00f3ricos laborais masculinizados ou quando o cr\u00e9dito \u00e9 concedido com modelos que penalizam as trajet\u00f3rias femininas segundo os crit\u00e9rios do sistema banc\u00e1rio tradicional, reduzem-se as oportunidades para as mulheres, perde-se a produtividade e limita-se o empreendedorismo. A regi\u00e3o n\u00e3o pode se permitir adotar tecnologias que excluam o talento feminino de mercados j\u00e1 segmentados.<\/p>\n\n\n\n<p>Investir em dados representativos e fortalecer os marcos regulat\u00f3rios do uso da IA, incorporando m\u00e9tricas de equidade e mecanismos de presta\u00e7\u00e3o de contas, s\u00e3o passos essenciais para usar essa tecnologia de forma respons\u00e1vel e inclusiva. Assim, a intelig\u00eancia artificial pode se tornar uma oportunidade n\u00e3o s\u00f3 para melhorar a efici\u00eancia na tomada de decis\u00f5es, mas tamb\u00e9m para ampliar a base de benefici\u00e1rias da inova\u00e7\u00e3o, acelerar a ado\u00e7\u00e3o digital e promover a inclus\u00e3o laboral e financeira.<\/p>\n\n\n\n<p>Tamb\u00e9m conv\u00e9m revisar o plano simb\u00f3lico: a feminiza\u00e7\u00e3o por padr\u00e3o de assistentes virtuais ou chatbots \u2014 atrav\u00e9s de seus nomes, vozes e avatares \u2014 reproduz hierarquias. Isso pode ser justificado em servi\u00e7os espec\u00edficos, mas, como norma, refor\u00e7a estere\u00f3tipos sobre o papel das mulheres na sociedade. O design de interfaces, cada vez mais usado para melhorar a presta\u00e7\u00e3o de servi\u00e7os p\u00fablicos, tamb\u00e9m \u00e9 um elemento de pol\u00edtica p\u00fablica.<\/p>\n\n\n\n<p><strong>Lideran\u00e7a feminina: de \u201coutliers\u201d a designers<\/strong><\/p>\n\n\n\n<p>Os princ\u00edpios de n\u00e3o discrimina\u00e7\u00e3o, transpar\u00eancia e supervis\u00e3o humana j\u00e1 figuram entre as estrat\u00e9gias e marcos de v\u00e1rios pa\u00edses da regi\u00e3o. O desafio \u00e9 traduzi-los em controles verific\u00e1veis: documentar a composi\u00e7\u00e3o demogr\u00e1fica dos dados; avaliar o desempenho por subgrupos (mulheres por idade, origem, condi\u00e7\u00e3o migrat\u00f3ria ou ruralidade); monitorar os resultados ap\u00f3s a implanta\u00e7\u00e3o dos sistemas; e exigir auditorias independentes obrigat\u00f3rias em sistemas de alto impacto (como aqueles usados para prote\u00e7\u00e3o social, sa\u00fade, justi\u00e7a e seguran\u00e7a). Com esses controles, a IA se torna audit\u00e1vel e govern\u00e1vel.<\/p>\n\n\n\n<p>Devido a exclus\u00f5es hist\u00f3ricas e baixa visibilidade em dados formais, os sistemas tendem a classificar as mulheres como \u201c<em>outliers<\/em>\u201d, um termo que em estat\u00edstica define um valor at\u00edpico, ou seja, uma observa\u00e7\u00e3o que \u00e9 numericamente distante do resto dos dados. A partir de um enfoque estritamente estat\u00edstico, os resultados de conjuntos de dados com valores at\u00edpicos podem levar a conclus\u00f5es erradas, por isso geralmente s\u00e3o evitados. No entanto, isso nem sempre se aplica a contextos mais sutis, como solicita\u00e7\u00f5es de cr\u00e9dito, vagas de emprego ou programas sociais, onde as caracter\u00edsticas das mulheres podem diferir das dos homens, mas n\u00e3o devem ser motivo para exclus\u00e3o de processos seletivos.<\/p>\n\n\n\n<p>Mas as mulheres na regi\u00e3o n\u00e3o s\u00e3o s\u00f3 usu\u00e1rias de IA, mas tamb\u00e9m l\u00edderes na cria\u00e7\u00e3o de solu\u00e7\u00f5es: marcos feministas para o desenvolvimento de IA, ferramentas abertas para detectar estere\u00f3tipos em modelos de linguagem e iniciativas que incorporam uma perspectiva de g\u00eanero no trabalho em plataformas. Colocar as mulheres no centro \u2014 como designers, auditoras, reguladoras e usu\u00e1rias \u2014 melhora a qualidade t\u00e9cnica dos sistemas e acelera sua aceita\u00e7\u00e3o social. Esta tamb\u00e9m \u00e9 uma pol\u00edtica de inova\u00e7\u00e3o.<\/p>\n\n\n\n<p>Em \u00faltima an\u00e1lise, a redu\u00e7\u00e3o do vi\u00e9s de g\u00eanero multiplica os retornos: pol\u00edticas sociais mais precisas e leg\u00edtimas; seguran\u00e7a compat\u00edvel com direitos; mercados de trabalho e financeiros mais inclusivos e produtivos; e maior confian\u00e7a em institui\u00e7\u00f5es capazes de governar tecnologias complexas. Isso se traduz em desenvolvimento humano: mais capacidades reais \u2014 sa\u00fade, educa\u00e7\u00e3o, participa\u00e7\u00e3o, trabalho decente \u2014 e mais ag\u00eancia para impactar a pr\u00f3pria vida e o entorno.<\/p>\n\n\n\n<p>A IA n\u00e3o \u00e9 neutra, mas pode ser justa. Para atingir esse objetivo, a Am\u00e9rica Latina e o Caribe precisam adotar um padr\u00e3o m\u00ednimo j\u00e1 ao seu alcance: dados representativos e documentados, m\u00e9tricas de equidade para subgrupos, auditorias independentes e vias de repara\u00e7\u00e3o quando h\u00e1 danos. Reduzir o vi\u00e9s de g\u00eanero n\u00e3o s\u00f3 abre oportunidades para as mulheres, mas tamb\u00e9m impulsiona o desenvolvimento de toda a regi\u00e3o.<\/p>\n\n\n\n<p><em><sup>Este artigo<a href=\"https:\/\/www.undp.org\/latin-america\/publications\/gender-bias-ai-risks-and-opportunities-latin-america-and-caribbean\"> baseia-se nas conclus\u00f5es<\/a> do Relat\u00f3rio Regional de Desenvolvimento Humano de 2025, intitulado \u201cSob Press\u00e3o: Recalibrando o Futuro do Desenvolvimento\u201d, elaborado pelo Programa das Na\u00e7\u00f5es Unidas para o Desenvolvimento (PNUD) na Am\u00e9rica Latina e no Caribe.<\/sup><\/em><\/p>\n\n\n\n<p><em><sup>Tradu\u00e7\u00e3o autom\u00e1tica revisada por Isabel Lima<\/sup><\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Em uma regi\u00e3o marcada por profundas desigualdades, a intelig\u00eancia artificial reflete e amplifica os vieses de g\u00eanero da sociedade, transformando um desafio tecnol\u00f3gico em um problema de desenvolvimento humano.<\/p>\n","protected":false},"author":820,"featured_media":52433,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"episode_type":"","audio_file":"","cover_image":"","cover_image_id":"","duration":"","filesize":"","filesize_raw":"","date_recorded":"","explicit":"","block":"","itunes_episode_number":"","itunes_title":"","itunes_season_number":"","itunes_episode_type":"","footnotes":""},"categories":[17078,16782],"tags":[15839],"gps":[],"class_list":{"0":"post-52448","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-inteligencia-artificial-pt-br","8":"category-genero-pt-br","9":"tag-ideias-pt-br"},"acf":[],"_links":{"self":[{"href":"https:\/\/latinoamerica21.com\/pt-br\/wp-json\/wp\/v2\/posts\/52448","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/latinoamerica21.com\/pt-br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/latinoamerica21.com\/pt-br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/latinoamerica21.com\/pt-br\/wp-json\/wp\/v2\/users\/820"}],"replies":[{"embeddable":true,"href":"https:\/\/latinoamerica21.com\/pt-br\/wp-json\/wp\/v2\/comments?post=52448"}],"version-history":[{"count":0,"href":"https:\/\/latinoamerica21.com\/pt-br\/wp-json\/wp\/v2\/posts\/52448\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/latinoamerica21.com\/pt-br\/wp-json\/wp\/v2\/media\/52433"}],"wp:attachment":[{"href":"https:\/\/latinoamerica21.com\/pt-br\/wp-json\/wp\/v2\/media?parent=52448"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/latinoamerica21.com\/pt-br\/wp-json\/wp\/v2\/categories?post=52448"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/latinoamerica21.com\/pt-br\/wp-json\/wp\/v2\/tags?post=52448"},{"taxonomy":"gps","embeddable":true,"href":"https:\/\/latinoamerica21.com\/pt-br\/wp-json\/wp\/v2\/gps?post=52448"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}