Samsung puede generar un video a partir de una foto

0

La inteligencia artificial desarrollada por un laboratorio de Samsung en Rusia puede generar un video a partir de una sola foto, incluso de una pintura. Egor Zakharov.

Imagínate a alguien creando un video falso de ti con solamente robarte una fotografía de tu perfil de Facebook. Por fortuna ningún delincuente tiene acceso a esta tecnología. Todavía.

Sin embargo, Samsung ha ideado la manera de hacer eso posible.  

El software para crear lo que se conoce como <em>deepfakes</em> —generar un video en la que alguien aparece haciendo o diciendo cosas que nunca hizo ni dijo— suele requerir el uso de mucha información de imágenes para poder crear una falsificación creíble. Ahora, Samsung ha desarrollado un nuevo sistema de inteligencia artificial que puede generar un video falso a partir de una sola fotografía.

La tecnología, por supuesto, puede usarse para diversión, como darle vida a una pintura clásica. La Mona Lisa, cuya enigmática sonrisa es animada en tres videos distintos para demostrar que la nueva tecnología requiere una sola una imagen. Un laboratorio de inteligencia artificial de Samsung en Rusia desarrolló la tecnología, que fue detallada en un documento a inicios de semana. 

La mala noticia: Este tipo de técnicas y su rápido desarrollo también generan riesgos de desinformación, alteración en una elección y fraude, de acuerdo con Hany Farid, un investigador en Dartmouth especializado en ciencia forense de medios de comunicación para descubrir deepfakes.

“Siguiendo la tendencia del año pasado, esta y otras técnicas relacionadas requieren cada vez menos datos y están generando contenido cada vez más sofisticado y atractivo”, dijo Farid. A pesar de que el proceso de Samsung puede crear fallos (o glitches) visuales, “estos resultados son un paso más en la evolución de las técnicas … que llevan a la creación de contenido multimedia que en algún momento no se podrá distinguir del real”.

Como un Photoshop para video en esteroides, el software deepfake genera falsos videos usando aprendizaje artificial para generar una convincente imagen humana que habla y se mueve. Aunque la manipulación por computadora en video ha existido durante décadas, los sistemas deepfake han facilitado hacer videos falsos no solo de manera sencilla, sino más difíciles de detectar. Piensen en ellos como realistas marionetas digitales.

Muchos deepfakes, como esta animación de la Mona Lisa, son diversión inofensiva. La tecnología ha hecho posible un género entero de memes, incluyendo uno en que se ve la cara de Nicolas Cage en películas y programas de televisión donde él no estaba. Pero la tecnología deepfake también puede ser perniciosa, como si es usada para colocar el rostro de una persona en situaciones comprometedoras, una técnica a veces usada en lo que se conoce como porno de venganza. 

El el papel, el laboratorio de AI de Samsung llama a sus creaciones “realistas neurales cabezas parlantes”. El término “cabezas parlantes” (talking heads) se refiere al género de video que el sistema puede crear; es similar a esas cajas de videos de los expertos que se ven en las noticias. La palabra “neurales” (neural) es en relación con las redes neurales, un tipo de motor de aprendizaje que imita al cerebro humano. 

Los investigadores vieron su logro utilizado en gran cantidad de aplicaciones, incluyendo videojuegos, películas y televisión. “Esta capacidad tiene aplicaciones prácticas para la telepresencia, que incluyen videoconferencia y juegos multijugador, así como la industria de efectos especiales”, escribieron.

El documento se acompañó de un video que muestra la creación del equipo, que además fue acompañada por una banda sonora emocionante. 

Usualmente, una cabeza parlante sintetizada requiere que entrenes al sistema de inteligencia artificial con una amplia base de imágenes de una persona. Debido a que se necesitan muchas fotos de un individuo, usualmente los videos deepfake son de figuras públicas, como celebridades o políticos. 

El sistema de Samsung utiliza un truco que parece inspirado en la famosa cita de Alexander Graham Bell: “Antes que cualquier otra cosa, la preparación es la base del éxito”. El sistema empieza con una robusta “etapa de metaaprendizaje” en la que observa muchos videos de movimientos faciales de humanos. Luego aplica lo aprendido a una sola foto o a un puñado de fotos o para producir un video razonablemente realista. 

A diferencia de un verdadero video deepfake, el resultado de una sola foto o un pequeño número de imágenes se falsea cuando se reproducen los detalles finos. Por ejemplo, una versión falsa de Marilyn Monroe en el laboratorio de Samsung se olvidó del icónico lunar de la actriz, de acuerdo con Siwei Lyu, un profesor de ciencias computacionales en la Universidad de Albany, en Nueva York, que se especializa en ciencias forenses de medios de comunicación y aprendizaje artificial. También significa que los videos sintetizados tienden a retener cierto parecido de quien haya jugado el papel de marioneta digital. Es por eso que cada Mona Lisa del ejemplo pareciera una persona ligeramente diferente.

Por lo general, un sistema deepfake busca eliminar esos pequeños fallos visuales. Eso requiere mucho tiempo de entrenamiento de información tanto del video original como de la persona a imitar. 

El aspecto de pocas tomas o de una sola toma de este enfoque es útil, dijo Lyu, porque significa que una gran red puede ser entrenada en una gran cantidad de videos, que es la parte que lleva mucho tiempo. Este tipo de sistemas se puede adaptar rápidamente a una nueva persona objetivo utilizando solo unas pocas imágenes sin un entrenamiento exhaustivo, dijo. “Esto ahorra tiempo en concepto y hace que el modelo se pueda generalizar”.

El rápido avance de la inteligencia artificial significa que cada vez que un investigador comparta un gran avance en la creación deepfake, los malos actores pueden comenzar a juntar sus propias herramientas para imitarlo. Es probable que los avances de Samsung encuentren su camino a manos de más personas en poco tiempo.

Los fallos en los videos falsos hechos con el nuevo desarrollo de Samsung pueden ser claros y obvios. Pero eso no será mucho consuelo para alguien que termine en un video deepfake generado a partir de su foto de perfil de Facebook.

Vía: www.cnet.com