Uma região, todas as vozes

L21

|

|

Leer en

Inteligência artificial: deveríamos correr o risco de perder o controle de nossa civilização?

O último salto da inteligência artificial (IA) é frequentemente ilustrado ao ser descrito como IA “generativa”. Já não se limita mais a um tipo de software ou programação disponível por meio de algoritmos, ou seja, procedimentos lógicos voltados para a obtenção de resultados alcançados por meio de estruturas sequenciais, seletivas, e que permitem ciclos de repetição. O software agora incorpora um salto “generativo”, ou seja, uma capacidade de aprendizado que lhe permite produzir novas respostas ou instruções, para além daquelas previstas.

Até que ponto essa dissociação pode ir? As conjecturas futuristas são abundantes. Mas o que é certo é que, devido à mencionada inovação, os dispositivos dotados de IA (potenciada pelos avanços maciços no desenvolvimento da memória e na velocidade de processamento de dados) podem fazer contribuições notáveis em inúmeras áreas.

Ao mesmo tempo, a IA generativa traz consigo sérias ameaças em várias frentes. Há numerosas pesquisas que argumentam sobre a substituição progressiva de atividades laborais por dispositivos automatizados nos mais diversos setores. 

No entanto, é preciso observar outros danos que afetariam a população em geral, embora de forma mais difusa e imperceptível. A IA, ainda mais em sua modalidade generativa, intervém sem a necessidade de ser usada voluntariamente, de modo que as pessoas podem ser manipuladas tanto por motivos comerciais como de controle social.

Em uma carta aberta recente intitulada “Pause Giant AI Experiments: An Open Letter”, renomados pesquisadores foram lapidares. “A IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com o cuidado e os recursos correspondentes. Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo” (…) “Nos últimos meses, os laboratórios de IA entraram em uma corrida fora de controle para desenvolver e aplicar mentes digitais cada vez mais poderosas, sem que seus criadores consigam entendê-las, prevê-las ou controlá-las de forma confiável….”. Por isso, os signatários chegam a se fazer perguntas tão pertinentes como: “Devemos correr o risco de perder o controle da nossa civilização?

Diante de tal nível de incerteza, a carta requer a adoção de medidas destinadas à garantia da segurança, da transparência, da robustez e da confiabilidade dos sistemas de IA. Além disso, propõe a todos os laboratórios de IA que suspendam o treinamento de sistemas mais potentes que o GPT-4 por pelo menos seis meses.

Nesse contexto, vale a pena perguntar: a suspensão de seis meses seria suficiente para deter a corrida feroz que as corporações vêm implementando? E que valores ou finalidades altruístas finalmente prevaleceriam?

Esses valores ou metas dificilmente prevaleceriam quando, em seu próprio trabalho, muitos pesquisadores mostram sinais de messianismo tecnocrático. No livro Infocracia, o autor Byung-Chul Han lembra que Alex Pentland, ex-diretor do Human Dynamics Lab, do Instituto Tecnológico de Massachusetts (MIT, por suas siglas em inglês), escreveu: “Se tivéssemos um ‘olho divino’, uma visão global, poderíamos obter uma verdadeira compreensão de como a sociedade funciona e tomar medidas para resolver nossos problemas”.

A UE indica o caminho para uma normativa multilateral

Considerando os riscos associados à IA, parece que uma ordem disciplinar internacional será imposta, algo difícil, tendo em conta o caráter vertiginoso das transformações tecnológicas. Daí os alertas, mas também o enfoque prudente da proposta de regulamento do Parlamento Europeu e do Conselho “que estabelece normas harmonizadas no campo da inteligência artificial (lei de inteligência artificial) e alteram determinados atos legislativos da União”. O regulamento foi adotado pelo Parlamento em 14 de junho de 2023 e agora está aberto a instância de negociação com os Estados-Membros.

Ao classificar a IA de acordo com diferentes níveis de risco e contemplando várias hipóteses de exceção e de transitoriedade, a iniciativa da UE é vista como um teste inicial de uma futura normativa multilateral ou plurilateral na matéria.

Um dos principais aspectos considerados pela UE e que mereceria atenção especial dos governos latino-americanos é o funcionamento global da economia digital, que agora se apoia na IA generativa. Como é sabido, a partir da produção e do fornecimento de conteúdo, os programas operam em redes à medida que funcionam e se atualizam, remetendo a bancos de dados por meio de fluxos transfronteiriços que muitas vezes são gerenciados na nuvem. Um pequeno número de corporações transnacionais (big tech) tende a concentrar o capital gerado por esses negócios.

Consequentemente, a regulamentação incipiente da UE leva em consideração a possível localização extraterritorial dos provedores. Assim, a regulamentação também se aplicará a provedores e usuários de sistemas de IA estabelecidos em um terceiro país, quando a informação de saída for usada na UE. 

Da mesma forma, os países em desenvolvimento devem proteger os usuários localizados em seus territórios de operações que seriam proibidas ou restritas a provedores de tais ofertas tecnológicas nos países industrializados. Mas como fazer isso?

Até que alguma ordem multilateral ou plurilateral seja formalizada, parece estar se abrindo uma fase de transição. Durante esse período, as regulamentações nacionais ou sub-regionais adotadas pelos países latino-americanos teriam que buscar acordos com os governos dos países industrializados. Isso assumiria a forma de acordos de reconhecimento mútuo sobre procedimentos para avaliar a conformidade com as regulamentações estabelecidas para operações de IA consideradas de alto risco.

De tal modo, isso inibiria as operações transfronteiriças que buscam introduzir nos mercados latino-americanos provedores de software de IA generativa quando o nível de risco é inaceitável nos países de origem.

Não é suficiente regular

Já é possível imaginar como o limiar dos mecanismos de defesa psíquica contra a digitalização da mente humana (mind uploading) poderia ser ultrapassado quando o conteúdo mental e os dispositivos digitais estiverem articulados. Na mesma linha, a nova geração de robótica busca integrar o comportamento das pessoas com as quais os dispositivos interagem por meio de sensores, de acordo com experimentos de empresas como a Embodied e a Alphabet (matriz do Google).

Mas, sem querer nos aprofundar no futuro próximo, devemos rever o que está acontecendo há alguns anos. A lógica digital tem como objetivo alinhar as funções cognitivas com o funcionamento dos dispositivos digitais. Em outras palavras, as mentes de bilhões de pessoas já foram “digitalizadas”, reduzindo assim o pensamento lógico socrático e dialético e, por extensão, o pensamento crítico.

Não é novidade que o treinamento destinado a instalar a lógica digital é patrocinado pelas mesmas big tech em seu caráter de provedoras de conteúdo. Seu objetivo consiste em promover o consumo em massa por meio da execução de programas concebidos a partir de plataformas virtuais que estabelecem opções dicotômicas: aceitação ou rejeição.

As comunicações eletrônicas fazem parte da fala e, nesse sentido, a relação assimétrica entre o usuário pressionado a se definir e cada opção apresentada a ele na frente do dispositivo é particularmente relevante. O especialista em segurança de informática, Patrick Wardle, afirma nesse sentido: “Sempre penso nos telefones como nossa alma digital”.

Ao aconselhar uma maior ênfase nas iniciativas educacionais, deve-se observar que não se trata mais de promover uma maior alfabetização digital, pois isso está sendo feito com eficiência pelos provedores de dispositivos e conteúdo. É uma questão de elaborar políticas educacionais que promovam o desenvolvimento do pensamento lógico socrático e dialético e, por extensão, do pensamento crítico.

Nesse ponto, os governos latino-americanos enfrentam um desafio do qual não deveriam se esquivar.

Autor

Otros artículos del autor

Professor and researcher at the Center for International Studies of the Univ. Institute of Lisbon (CEI/IUL). PhD in Contemporary Political Processes from the Univ. of Salamanca. Specialist in corruption, illegal markets and criminality.

spot_img

Postagens relacionadas

Você quer colaborar com L21?

Acreditamos no livre fluxo de informações

Republicar nossos artigos gratuitamente, impressos ou digitalmente, sob a licença Creative Commons.

Marcado em:

COMPARTILHE
ESTE ARTIGO

Mais artigos relacionados