Una región, todas las voces

L21

|

|

Leer en

Inteligencia artificial: ¿deberíamos arriesgarnos a perder el control de nuestra civilización?

El último salto de la inteligencia artificial (IA) suele ilustrarse adjetivándola como IA “generativa”. Ya no se limita a un tipo de software o programación disponible mediante algoritmos, esto es, procedimientos lógicos que están orientados hacia la obtención de resultados a los que se llega recurriendo a estructuras secuenciales, selectivas, y que prevén ciclos de repetición. Ahora el software incorpora un salto “generativo”, es decir, una capacidad de aprendizaje que lo habilita para producir respuestas o instrucciones novedosas, más allá de las previstas.

¿Hasta dónde puede llegar semejante desacoplamiento? Abundan las conjeturas futuristas. Pero lo cierto es que, debido a la mencionada innovación, los dispositivos dotados de IA (potenciada por los ingentes avances en el desarrollo de la memoria y en la velocidad para el procesamiento de datos) pueden hacer contribuciones notables en innumerables áreas.

Simultáneamente, la IA generativa trae consigo serias amenazas en distintos órdenes. Hay numerosas investigaciones que argumentan la sustitución progresiva de actividades laborales en los más diversos sectores a manos de dispositivos automatizados.

Sin embargo, deben advertirse otros daños que afectarían a la población en general, aunque de manera más difusa e imperceptible. La IA, y más aún con su modalidad generativa, interviene sin necesidad de recurrir voluntariamente a ella, de modo que las personas pueden ser manipuladas por motivos tanto comerciales como de control social.

En una reciente carta abierta titulada “Pause Giant AI Experiments: An Open Letter”, reconocidos investigadores fueron lapidarios. “La IA avanzada podrá representar un cambio profundo en la historia de la vida en la Tierra y debe planificarse y administrarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo” (…) “En los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar y aplicar mentes digitales cada vez más poderosas, sin que sus creadores las puedan entender, predecir o controlar de manera fiable…”. De ahí que los firmantes lleguen a formularse preguntas tan acuciantes como: “¿Deberíamos arriesgarnos a perder el control de nuestra civilización?”.

Ante tal nivel de incertidumbre, la carta reclama la adopción de medidas destinadas a garantizar la seguridad, transparencia, robustez y confiabilidad de los sistemas de IA. Además, se propone a todos los laboratorios de IA que suspendan durante al menos seis meses el entrenamiento de sistemas más potentes que el GPT-4.

En este contexto, cabe preguntarse: ¿alcanzarían los seis meses de suspensión para frenar la feroz carrera que vienen librando las corporaciones? ¿Y qué valores o finalidades altruistas se impondrían finalmente?

Difícilmente, prevalecerían tales valores o finalidades cuando en su propio quehacer muchos investigadores dan muestras de mesianismo tecnocrático. En el libro Infocracia, su autor, Byung-Chul Han, recuerda que Alex Pentland, exdirector del Human Dynamics Lab, del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés), escribió: “Si tuviéramos un ‘ojo divino’, una visión global, podríamos lograr una verdadera comprensión del funcionamiento de la sociedad y tomar medidas para resolver nuestros problemas”.

La UE señala el camino para una normativa multilateral

Debido a los riesgos que conlleva la IA, pareciera que se impondrá un orden disciplinario internacional, algo difícil teniendo en cuenta el carácter vertiginoso de las transformaciones tecnológicas. De ahí las alertas, pero también el enfoque prudente de la propuesta de reglamento del Parlamento Europeo y del Consejo por el que se “establecen normas armonizadas en materia de inteligencia artificial (ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión”. El reglamento fue aprobado por el Parlamento el 14 de junio de 2023 y ahora se ha abierto la instancia de negociación con  los Estados miembros.

Al calificar a la IA según distintos niveles de riesgo y contemplando varias hipótesis de excepción y de transitoriedad, la iniciativa de la UE se plantea como ensayo germinal de una futura normativa multilateral o plurilateral en la materia.

Uno de los principales aspectos considerados por la UE y que merecería especial atención de los Gobiernos latinoamericanos es el funcionamiento global de la economía digital y que ahora cabalga sobre la IA generativa. Como es sabido, a partir de la producción y suministro de contenidos, los programas operan en red al funcionar y actualizarse, remitiendo a bases de datos a través de flujos transfronterizos que suelen ser administrados en la nube. Un reducido número de corporaciones transnacionales (big tech) tiende a concentrar el capital generado por estos negocios.

En consecuencia, la incipiente regulación de la UE toma debida nota sobre la posible localización extraterritorial de los proveedores. Así, el reglamento también se aplicará a proveedores y usuarios de sistemas de IA establecidos en un tercer país, cuando la información de salida sea usada en la UE.

Del mismo modo, los países en vías de desarrollo deberían proteger a los usuarios localizados en sus territorios frente a operaciones que hubieran sido prohibidas o restringidas a los proveedores de dichas ofertas tecnológicas en los países industrializados. Ahora bien, ¿cómo hacerlo?

Hasta tanto algún ordenamiento multilateral o plurilateral quede formalizado, parece abrirse una etapa de transición. En este tiempo las regulaciones nacionales o subregionales adoptadas por los países latinoamericanos tendrían que apuntar a concertaciones con Gobiernos de países industrializados. Esto se haría mediante acuerdos de reconocimiento mutuo sobre procedimientos de evaluación de conformidad a los reglamentos establecidos para operaciones de IA consideradas de alto riesgo.

De tal modo, se inhibirían las operaciones transfronterizas que pretendieran introducir en los mercados latinoamericanos proveedores de software de IA generativa cuando el nivel de riesgo fuese inadmisible en los países de origen.

No es suficiente con regular

Ya es posible imaginar cómo se traspasaría el umbral de los mecanismos de defensa psíquica frente a la digitalización de la mente humana (mind uploading) al articularse los contenidos mentales y los dispositivos digitales. En el mismo sentido, la nueva generación de la robótica procura integrar el comportamiento de las personas con las que interactúan los dispositivos mediante sensores, según experimentos de empresas como Embodied y Alphabet (matriz de Google).

Pero sin la pretensión de hurgar en el futuro próximo, habría que repasar lo que viene ocurriendo desde hace algunos años. La lógica digital tiene por objeto alinear las funciones cognoscitivas con el funcionamiento de los dispositivos digitales. Es decir, la mente de miles de millones de personas ya ha sido “digitalizada”, cercenando, con ello, el pensamiento lógico socrático y dialéctico y, por extensión, el pensamiento crítico.

No es novedad que el entrenamiento destinado a instalar la lógica digital está auspiciado por las mismas big tech en su carácter de proveedoras de contenidos. Su objetivo consiste en promover consumos masivos ejecutando programas concebidos desde plataformas virtuales que fijan opciones dicotómicas: aceptación o rechazo.

Las comunicaciones electrónicas forman parte del habla y, en tal sentido, cobra particular relevancia la relación asimétrica entre el usuario apremiado para definirse y cada opción que se le presenta frente al dispositivo. El experto en seguridad informática, Patrick Wardle, afirma en este sentido: “Siempre pienso en los teléfonos como nuestra alma digital”.

Cuando se aconseja poner mayor énfasis en las iniciativas educativas habría que advertir que ya no es cuestión de promover una mayor alfabetización digital, porque de eso se ocupan con eficiencia los proveedores de dispositivos y de contenidos. Se trata de concebir políticas educativas que promuevan el desarrollo del pensamiento lógico socrático y dialéctico y, por extensión, del pensamiento crítico.

En este punto, los Gobiernos latinoamericanos tienen por delante un desafío que no deberían soslayar.

Autor

Otros artículos del autor

Sociólogo. Doctor por la Univ. Nacional de Córdoba (Argentina). Consultor de organismos internacionales de integración y cooperación. Investigador y docente en el Instituto de Integración Latinoamericana de la Univ. Nacional de La Plata.

spot_img

Artículos relacionados

¿Quieres colaborar con L21?

Creemos en el libre flujo de información

Republique nuestros artículos libremente, en impreso o digital, bajo la licencia Creative Commons.

Etiquetado en:

COMPARTÍR
ESTE ARTÍCULO

Más artículos relacionados