La semana pasada, el internet brasileño conoció a la presentadora Marisa Maiô, una mujer regordeta que viste únicamente un traje de baño negro y tacones altos, y que conduce un programa de entrevistas vespertino típico de la televisión abierta. Con humor ácido y comentarios directos, Marisa presenta atractivos bastante cuestionables: desde mujeres mayores que compiten por ser las primeras en caer en una estafa de celular, hasta una madre obligada a entregar a su hijo como castigo por responder mal una pregunta de un cuestionario, entre otras situaciones absurdas. Resulta que Marisa, el programa y sus invitados son creaciones de inteligencia artificial, producidas con el nuevo generador de video Veo 3 de Google, a partir de una idea del guionista Raony Phillips.
El video, editado como si fuera una recopilación de partes de un programa real, se viralizó rápidamente en plataformas digitales y aplicaciones como Telegram y WhatsApp, donde fue marcado como «reenviado varias veces», lo que indica un alcance masivo. Sus méritos técnicos son innegables; sus expresiones faciales, su habla coloquial portuguesa, su acento y su prosodia son tan convincentes que incluso quienes estén familiarizados con los vídeos sintéticos podrían pasar por alto su origen artificial.
La semana anterior, vídeos con un nivel de realismo similar ya circulaban en grupos de WhatsApp, también con alta viralidad. Representaban personajes bíblicos como influencers digitales, como Noé quejándose de las dificultades de construir el arca, un hebreo narrando la separación del Mar Rojo en directo y la saga de la Virgen María embarazada en su viaje a Belén. La diferencia radica en que, en estos casos, la imposibilidad histórica de los teléfonos móviles en la antigüedad dejó clara su naturaleza ficticia.
El punto que me gustaría destacar no es solo la gran verosimilitud de los videos y el efecto social de indistinguibilidad con la realidad que generan, cada vez con mayor realismo en cada nueva generación de inteligencia artificial. Los videos creados mediante programación generativa han alimentado intensos debates sobre el futuro de los medios audiovisuales. Desde un punto de vista estético, surgen nuevas posibilidades creativas, como la producción de efectos complejos a costos insignificantes gracias a la popularización de herramientas antes restringidas a las grandes productoras, lo que permite experimentos lingüísticos antes impensables.
En el ámbito legal, surgen cuestiones urgentes en torno a los derechos de autor, como el caso de Marisa Maiô, cuyo personaje fue replicado por terceros en nuevos vídeos e incluso utilizado por una cadena minorista en campañas publicitarias, sin compensación para la creadora original.
Además, crece la preocupación por el impacto en el mercado laboral. Al fin y al cabo, toda la cadena de producción audiovisual, desde los actores hasta el personal técnico, incluyendo editores y guionistas, se enfrenta al despido de trabajadores provocado por la automatización creativa.
Sensacionalismo virtual
Pero ¿qué ocurre cuando los vídeos se adentran en un territorio donde los límites ya no son técnicos, sino esencialmente éticos? Los programas de entrevistas populares tienen un historial de transgredir estas fronteras, creando deliberadamente una zona gris entre el entretenimiento y la información, con sketches sensacionalistas, llamamientos emocionales exacerbados y la frecuente trivialización de la violencia, tanto verbal como física. Como analiza Muniz Sodré en “A Comunicação do Grotesco”, lo bizarro en los medios constituye un lenguaje simbólico que desestabiliza las fronteras entre lo real y lo ficticio, entre lo ético y lo sensacionalista. El lenguaje de estos programas construye un espacio de desorden controlado, en el que la disfunción social se convierte en espectáculo.
Aun así, los medios tradicionales de radio y televisión, incluso con sus recurrentes excesos y tensiones éticas, siempre han enfrentado algún tipo de cuestionamiento cuando lo absurdo y lo grotesco sobrepasaban los límites. Cabe recordar la feroz competencia por los ratings dominicales en la década de 1990 entre Fausto Silva (Globo) y Gugu Liberato (SBT), que generó espectáculos verdaderamente insípidos, así como la antigua rivalidad entre Chacrinha y Flávio Cavalcanti en la década de 1970.
Sin embargo, estos abusos se vieron en cierta medida frenados por el hecho de que las concesiones de radio y televisión eran públicas y estaban reguladas. Este mecanismo, aunque imperfecto, impuso cierto autocontrol a las emisoras, motivado por la necesidad de preservar su imagen ante el público general, los anunciantes y los organismos reguladores, además de una mínima preocupación por la credibilidad institucional.
El programa de ficción de Marisa Maiô satiriza precisamente los tenues límites éticos que las empresas de medios están dispuestas a cruzar en su búsqueda de audiencias. En este sentido, Marisa Maiô actualiza, en términos algorítmicos, la tradición de la televisión grotesca. Esta puesta en escena del escándalo como forma de mantener la atención del público fue descrita por Danilo Angrimani, en “Aprieta que sale sangre” (1994), como parte de una “dramaturgia del dolor” estructurada por la lógica del sensacionalismo. La diferencia, en el caso de los videos sintéticos, es que esta lógica está automatizada por sistemas cuyo único criterio de efectividad es la interacción, liberando completamente el contenido de cualquier anclaje en la realidad o responsabilidad ética.
En el video de Marisa Maiô, la provocación ética alcanza su clímax ácido cuando dos invitados se involucran en una pelea generalizada, mientras el presentador, en tono cínico, declara: “Lo bueno aquí es que no hay seguridad y no los separamos”. El espectáculo del absurdo alcanza nuevas cotas en otra escena, cuando una mujer triste aparece junto a un ataúd cubierto de tela negra, mientras Miriam anuncia que dentro se encuentra un familiar suyo, recientemente fallecido, y que la identidad del fallecido se revelará en directo a todo el público.
La naturalización a través de la trivialización del absurdo
Además de la ambigüedad entre simulación y realidad, el episodio revela algo más preocupante: cómo el absurdo, al presentarse con frecuencia y de forma convincente, puede contribuir a su naturalización en la sociedad, volviéndose socialmente aceptable. Sin ningún tipo de regulación técnica o ética, sin preocuparse por la credibilidad de la empresa ni por los impactos comerciales negativos que esto pueda causar, la producción algorítmica puede traspasar los límites morales sin vacilar, trivializando lo grotesco y el cinismo como prácticas sociales.
De hecho, el modelo de negocio actual de las plataformas digitales favorece el contenido extremo, ya que su monetización responde a criterios de engagement y capacidad de atención de la audiencia, sin ninguna consideración ética relacionada con la calidad de los productos. Debido a este factor económico, es inevitable que surjan otros vídeos más extremos, basados en la apelación a lo absurdo, y no necesariamente graciosos.
La hipersegmentación de las redes digitales puede aprovecharse para ofrecer productos a la medida de los deseos macabros de la audiencia. Así, los noticieros policiales, que suelen exponer la violencia y el discurso antiderechos humanos, pueden ir aún más allá de los principios básicos de la ética periodística y mostrar imágenes artificiales de ejecuciones y torturas contra ciberdelincuentes.
Del mismo modo, el vasto abanico sexual de internet puede albergar material perverso con una amplia variedad de violencia sexual extrema y pedofilia, por ejemplo. Los programas de noticias falsas pueden informar hechos irreales contra líderes políticos o estigmatizar a grupos sociales, explotando el sesgo de confirmación que ya existe en su contra. Todo bajo la apariencia de ser «solo una simulación». Dada su creciente probabilidad, se habla de la necesidad de etiquetar los vídeos producidos por IA para alertar a la audiencia de que no son contenido real. Sin embargo, esta medida es incapaz de contrarrestar la lógica que deliberadamente adopta la recepción y el consumo de desinformación como una práctica cultural.
Incluso existe una perversidad inherente al mismo reconocimiento de que no hay seres humanos reales allí y, por lo tanto, nadie está siendo torturado ante las cámaras, violado ni expuesto a la execración pública por acusaciones inexistentes. Saber que se trata de contenido sintético puede servir como una justificación conveniente para su consumo (y reproducción), sin sentimiento de aversión ni culpa. Después de todo, por muy violento que sea el vídeo, nadie está sufriendo «realmente».
Los deepfakes ya han suscitado preocupación por la erosión de la verdad, pero el caso de Marisa Maiô apunta a algo más profundo: la trivialización de las desviaciones éticas como algo que puede entenderse como divertido, gracioso e incluso bienvenido. Con herramientas cada vez más accesibles, cualquiera puede crear vídeos hiperrealistas que normalizan lo inaceptable. El riesgo no es solo el de impulsar otras formas de desinformación, sino también el de producir una subjetividad moldeada por el absurdo, donde la violencia, la crueldad y el sinsentido se vuelven aceptables como parte de la vida cotidiana y se incorporan a la propia cultura visual. Esto, por supuesto, tiene consecuencias prácticas y colectivas en el ejercicio de la ciudadanía.
Con la proliferación de estas herramientas, y sin la aplicación de filtros éticos a su uso, es previsible que internet se vea inundada de contenido que desafía los límites éticos, y que este fenómeno contribuya a la naturalización de estándares éticos menos rigurosos entre el público. Las consecuencias de una subjetividad anclada en el absurdo son impredecibles. Banalizado e incorporado a la vida cotidiana, el absurdo impacta la sensibilidad social y la capacidad de distinguir entre ficción y realidad, profundizando el desprecio por la verdad factual propio de la posverdad. Más aún, comienza a contaminar el ejercicio de la ciudadanía, estableciendo una zona de ambigüedad moral sustentada por la trivialización de diversas formas de violencia.
En Brasil, el Congreso debate actualmente la regulación de la inteligencia artificial a través del Proyecto de Ley 2338/23, aprobado por el Senado en diciembre de 2024 y actualmente en trámite en la Cámara de Diputados. La propuesta aporta importantes avances, como la protección de los derechos de autor y la prohibición de sistemas que generen contenido que involucre abuso o explotación sexual de niños, niñas y adolescentes, clasificado como de “riesgo excesivo”.
Sin embargo, el debate se enfrenta al poderoso lobby de los conglomerados digitales, que adulan a los parlamentarios e impulsan una regulación más débil, alineada con sus intereses económicos y políticos, con normas que no mitigan los riesgos sociales de estas herramientas. Además de las cuestiones legales y tecnológicas, el debate público debe afrontar las dificultades objetivas de cómo detener y exigir responsabilidades por los efectos nocivos difusos que el contenido generado por IA produce en el tejido social, especialmente los vídeos y audios que desafían los límites éticos e impactan la constitución de la subjetividad.