United Unknown: «Estamos a punto de no distinguir entre un vídeo real y otro artificial»
United Unknown es un colectivo que comenzó haciendo humor y sátira política en el año 2010 con fotomontajes “cortando caras en Photoshop”. “Era muy sencillo”, dijo Sebastián Puiggrós, que impartió, el día 23 de mayo, en la sala José Saramago el taller Creación de imágenes y vídeos con inteligencia artificial. Tenían necesidad de “canalizar la rabia interior de esa época después de la crisis” y hacían memes con políticos.
En la primera parte del taller, Puiggrós explicó la trayectoria del colectivo. Ya en 2012 comenzaron a colaborar con la revista Mongolia con sus primeros trabajos profesionales. En 2015 llegaron los primeros vídeos, “recortando cabezas de forma tediosa, fotograma a fotograma”. Después vino la televisión, en los programas Leit Motiv, Locomundo o El día después, entre otros.
En 2018 empezaron a hacer deepfakes, aunque tuvieron que dedicar un año a aprender un programa “muy complejo hecho por un ruso”. Eso les permitió que les encargaran spots generados ya con Inteligencia Artificial (IA) a partir de instrucciones de texto. Los de Amnistía Internacional, Greenpeace o la Fundació Arrels tuvieron gran impacto. “Nos dimos cuenta de que podíamos pensar cualquier cosa y crearla en imágenes”. “Todo lo que imagines, la inteligencia artificial lo puede convertir en realidad, para bien y para mal”, añadió.
El taller había comenzado exponiendo tres imágenes: una supuesta foto de Van Gogh, un supuesto autorretrato y un cuadro parecido a Los Girasoles. Las tres generadas por IA. “La Inteligencia Artificial -explicó-, hace lo mismo que hacemos nosotros, analiza patrones a través de datos y los reproduce, hace predicciones. Combina referencias. Sin la IA, crear esas imágenes sería una misión imposible”. “Antes no lo habíamos podido ni soñar”.
Finalizó la primera parte del taller, tras repasar toda su trayectoria, explicando de forma resumida cómo funcionaba ese proceso de generación de deepfakes. Los procesos de cálculo tardan varios días porque para un vídeo se necesitan entre 5.000 y 10.000 imágenes. El programa extrae las caras y las analiza. Tiene una vía que reconoce las auténticas y otra que genera datos falsos. La IA va aprendiendo del error hasta que es capaz de generar una imagen falsa que parece auténtica.
En la segunda parte del taller explicó los detalles, los pros y los contras, de los tres principales generadores de imágenes: Dall-e, de Open AI; Midjourney y Stable Diffusion. Dall-e está dentro de Chat GPT y es el único en el que se puede escribir en español. Midjourney ofrece un modelo cerrado en el que hay poco control de la imagen y Stable Diffusion tiene un modelo abierto, sin restricciones. No tiene límites.
También explicó cuatro elementos o conceptos básicos en la generación de imágenes, que son comunes a todos los programas. Un prompt es la estructura de la instrucción que se le da al programa. Seed, la semilla, es un identificador de una imagen concreta, como si fuera la matrícula de un coche. Inpainting significa pintar dentro de la imagen y Outpainting, fuera de ella, en su entorno.
Stable Diffusion es “la gran revolución”. Dentro de él se puede trabajar con diferentes programas, como Freepik, que es español, Lexica, o Ideogram, que incluye textos en las imágenes. Photoshop, uno de los programas de imagen más populares, ya ha incorporado la inteligencia artificial a sus herramientas, “aunque ha sido reticente porque la mayoría de sus clientes son ilustradores y fotógrafos y tienen problemas con los derechos de autor”. Runway “es un programa de generación de vídeos, creado por cuatro chavales, que en solo cuatro años ya ha superado a Photoshop”. Repasó los principales programas generadores de vídeo, como el propio Runway, Krea, Pika Labs y Kyber.
Finalmente, en la tercera parte del taller, habló sobre ética y valores. La Inteligencia Artificial analiza los datos y tiene los mismos sesgos que la sociedad: racismo, sexismo, edadismo o un determinado canon de belleza. “Lo que hace es amplificar y multiplicar nuestros sesgos, así que el problema es nuestro, no de la Inteligencia Artificial”, afirmó. Puiggrós apostó por cambiar antes la sociedad para permitir una IA más diversa o inclusiva. “Es como un espejo en el que mirarnos y que nos ayude a cambiar”. La IA utiliza millones de imágenes y audios, para sus predicciones, así que existe un malestar por parte de actores, dobladores, ilustradores o fotógrafos porque se usa su trabajo para generar todas esas imágenes. Puiggrós expresó que entiende todas esas reivindicaciones y que esos artistas deberían recibir una remuneración. En cualquier caso, ya existe la posibilidad de que un artista se apunte a una lista en la que se excluye a su obra, del generador de imágenes.
Afirmó que es difícil predecir el futuro de la inteligencia artificial, no ya a largo plazo, sino también a corto plazo, porque los avances son muy rápidos. Como ejemplo, expuso una demo de generación de vídeos de Sora, de OpenAI, que aún no está al alcance del público y que con un sencillo prompt crea un vídeo muy realista. “Estamos a punto de no distinguir entre un vídeo real y otro artificial”, declaró. Apuntó, así mismo, que el futuro camina hacia la inteligencia multimedia a tiempo real y a que la IA pueda realizar “aquellas ideas que tenemos sin grandes medios” pero también señaló que “siempre, detrás de todo esto, es necesaria una mente que piense.”
Más información: Nota de prensa
Díptico completo: Díptico del taller
Freitag, der 24. Mai 2024