Mona Lisa cobra vida, ‘retratos vivientes’ generados por computadora

La enigmática y pintada sonrisa de la “Mona Lisa” es conocida en todo el mundo, pero esa famosa cara mostró recientemente una sorprendente nueva gama de expresiones, cortesía de la inteligencia artificial (AI).

La semana pasada, un “retrato en vivo” generado por Inteligencia Artificial (AI) de la ‘Mona Lisa‘ de Leonardo da Vinci comenzó a aparecer en la web, muchas personas se sobresaltaron cuando el famoso retrato movió los labios y miró a su alrededor.

Fue creada por una red neuronal convolucional, un tipo de IA que procesa la información de la misma manera que lo hace un cerebro humano, para analizar y procesar imágenes.

El retrato animado de Lisa Gherardini fue uno de varios nuevos “modelos de cabezas parlantes“, más conocidos como “deepfake“, creados por investigadores de AI de Samsung. Usando solo unos pocos marcos de referencia o incluso una sola imagen, los investigadores también hicieron profundas imitaciones de celebridades como Oprah, trajeron a la vida instantáneas únicas de Marilyn Monroe y Albert Einstein.

Los investigadores del Centro en Moscú y el Instituto de Ciencia y Tecnología de Skolkovo, publicaron su método, al que denominan “few shot learning“, en YouTube y en un documento que aún no se ha revisado en el repositorio de preimpresión arXiv.org.

Los investigadores entrenaron el algoritmo para entender las formas generales de los rasgos faciales y cómo se comportan entre sí, y luego aplicar esa información a las imágenes fijas. El resultado fue una secuencia de vídeo realista de nuevas expresiones faciales desde un solo cuadro.

Para producir los retratos vivientes, un tipo de inteligencia artificial llamada red neuronal convolucional se entrena a sí misma (AI) mediante el análisis de imágenes de referencia. Luego aplica los movimientos faciales de una serie de cuadros a una imagen estática, como la Mona Lisa. Cuantos más ángulos e imágenes de referencia tenga, mejor se vuelve el retrato vivo.

Y más imágenes de origen proporcionaron un resultado aún más detallado en la animación final. Los vídeos creados a partir de 32 imágenes, en lugar de solo una, lograron “realismo perfecto” en un estudio de usuarios, escribieron los científicos.

Fuente: Smithsonian.com


No te pierdas nuestro periódico digital de este martes 4 de junio del 2019; lee el contenido completo o descarga la versión PDF aquí:

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s