Imagine enviar um currículo para se candidatar a uma vaga em uma empresa de comércio digital. Dois dias depois, recebe uma resposta automática: “Obrigado por se candidatar. Seu perfil não foi selecionado”. Não há explicação, não há interlocutor humano, só um e-mail. Por trás disso, um sistema de inteligência artificial avalia a formação, as redes sociais, o padrão de empregabilidade… mas descarta a candidatura sem que saibamos o motivo.
Agora pense em uma grande avenida onde são ativadas câmeras com reconhecimento facial comparam dados de milhares de pessoas por dia. Uma mulher caminha por essa avenida e sua imagem é comparada com bases de dados projetadas em outro continente. A norma que regula a verificação não foi discutida em um parlamento local, mas se ajusta a padrões técnicos internacionais, códigos elaborados por comitês globais.
Essa é a face oculta da IA, sistemas que decidem aspectos cruciais de nossas vidas baseados em regras que não escolhemos nem compreendemos.
Quem escreve as regras da IA?
Além de propostas legislativas conhecidas como o Regulamento Europeu de IA (AI Act), as regras, tanto técnicas quanto éticas, para sistemas de IA estão sendo definidas em organismos como a Organização Internacional de Normalização (ISO) e a Comissão Eletrotécnica Internacional (IEC, sigla em inglês) através de seu comitê conjunto ISO/IEC JTC 1/SC 42 (“Artificial Intelligence”). Esses fóruns produzem normas técnicas sobre governança, riscos, auditoria de IA e verificação de sistemas. Por exemplo, a norma ISO/IEC 42001:2023 acaba de ser adotada na Colômbia como o primeiro país latino-americano a habilitar certificações para gestão de sistemas de IA.
Em paralelo, grandes plataformas tecnológicas e consórcios industriais, como o Institute of Electrical and Electronics Engineers (IEEE), definem especificações técnicas que acabam se tornando normas operacionais globais de fato, embora não tenham caráter vinculante. Muitas dessas normas, aparentemente técnicas, acabam definindo os requisitos, não só técnicos dos sistemas de IA, mas também suas linhas éticas.
A invisibilidade latino-americana nas mesas onde se decidem as regras
Diferente da Europa, que coordena sua governança técnica através dos organismos regionais CEN e CENELEC (por exemplo, através do comitê conjunto JTC 21, que está trabalhando em padrões de desenvolvimento das obrigações contidas na Lei de IA), ou da Ásia, que impulsionou fóruns regionais no âmbito da ASEAN e da APEC para harmonizar enfoques sobre IA na região, a América Latina ainda carece de um espaço regional estável para debater e propor normas técnicas comuns.
Os países avançam de forma fragmentada, com iniciativas nacionais que reproduzem marcos externos sem uma arquitetura regional de coordenação. Por exemplo, uma análise de quatro países latino-americanos (Brasil, Colômbia, Chile e Uruguai) conclui que o protagonismo da cidadania na concepção dessas estratégias atingiu só o nível de “consulta”, sem verdadeiras decisões compartilhadas. Por outro lado, embora países como o Brasil participem de comitês técnicos, a influência efetiva e a voz do contexto latino-americano continuam fracas.
Esse déficit não é só simbólico. Significa que a América Latina importa regras, procedimentos e marcos de avaliação que foram pensados para realidades muito distintas. Quando esses padrões são aplicados na região, podem gerar impactos adversos: preconceitos, exclusão, decisões que não compreendem a diversidade social, linguística e cultural da América Latina.
Nesse sentido, uma análise recente conclui que a cooperação regional é “crucial” para a segurança e a governança da IA, justamente porque ainda não existe uma voz coletiva capaz de incidir nos fóruns onde se escrevem as regras do futuro digital. Essa ausência institucional explica por que a região depende de padrões estrangeiros (principalmente europeus, estadunidenses ou chineses) para definir o que é considerado uma IA “segura” ou “responsável”.
Por exemplo, uma análise de 38 implementações de reconhecimento facial público em nove países latino-americanos revelou que, na maioria dos casos, não houve consulta ou análise de impacto sobre os direitos humanos. Em Buenos Aires e São Paulo, por exemplo, foram implantados sistemas de vigilância biométrica sem marcos legais adequados; na capital argentina, foram registrados milhões de comparações entre 2019 e 2022 sem participação cidadã substancial.
Dependência não apenas tecnológica
Isso dá lugar a um tipo de dependência normativa. Ou seja, ao adquirir a tecnologia, também se aceita o marco que vêm com ela e, muitas vezes, esse marco reproduz valores, prioridades ou riscos de contextos diferentes do latino-americano. Essa ausência de voz não afeta só os direitos, mas também a economia. Uma empresa latino-americana que desenvolve soluções de IA precisa aderir a padrões concebidos no exterior para operar em mercados globais. Isso cria barreiras à entrada para a inovação local e reforça a posição da região como consumidora de tecnologia, e não como coprodutora.
O problema, portanto, se amplifica. Os marcos regulatórios importados frequentemente ignoram o emprego informal, a presença de comunidades indígenas e afrodescendentes, a heterogeneidade da infraestrutura e a disparidade digital entre áreas rurais e urbanas, levando a novas desigualdades tecnológicas e de dados.
Os dados confirmam essa lacuna. Segundo o mapeamento regulatório da Access Now, a maioria dos marcos de IA na América Latina replica modelos externos sem adaptar critérios técnicos ou salvaguardas aos contextos locais. Mesmo os projetos mais avançados, como as estratégias nacionais do Brasil e do Chile, baseiam-se em diretrizes da OCDE ou da União Europeia. Enquanto isso, iniciativas como o Índice Latino-Americano de Inteligência Artificial (ILIA) focam em mensurar o grau de adoção da tecnologia em vez de desenvolver padrões locais.
Em direção a uma voz latino-americana na governança da IA
A diversidade política, econômica e cultural da América Latina torna mais difícil estabelecer um padrão comum, o que provavelmente desestimulou a criação de um órgão técnico regional unificado. No entanto, a América Latina tem uma oportunidade. A região, com sua biodiversidade, riqueza cultural, energias renováveis e diversidade demográfica, poderia construir seu próprio modelo para IA, e não apenas para adoção.
Para isso, é necessário avançar em três frentes: primeiro, maior participação em comitês internacionais de padronização, para que as vozes, os contextos e os valores latino-americanos sejam representados. Segundo, promover padrões regionais ou adaptações de padrões globais: por que não um selo latino-americano de “IA confiável” que reflita as realidades da região? E terceiro, educar e mobilizar os cidadãos: quando a IA tem um impacto tão significativo, a sociedade deve questionar, opinar, planejar e controlar.
Nesse sentido, a América Latina também poderia contribuir com algo que hoje falta no debate global: uma visão ética baseada na inclusão, na justiça social e na sustentabilidade. Sua trajetória de pensamento crítico e movimentos comunitários pode inspirar uma inteligência artificial mais humana, menos exploradora e mais solidária.
Consequentemente, a democracia na era digital não se reduz ao voto a cada quatro anos. Significa também questionar quem programa, quem valida e quem exclui.
*Este texto faz parte da colaboração entre a Organização dos Estados Ibero-Americanos para a Educação, a Ciência e a Cultura (OEI) e a Latinoamérica21 para a difusão da plataforma Vozes de Mulheres Ibero-Americanas. Conheça e participe da plataforma AQUI.
Tradução automática revisada por Isabel Lima










