¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo baxulaft@gmai.com no ha sido verificado. VERIFICAR CORREO

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí.

Novedades Tecnología

Una inteligencia artificial es capaz de 'vestir' y 'desvestir'

DensePose se trata de un nuevo proyecto de la división de inteligencia artificial de Facebook que puede sobreponer máscaras y 'cambiar la piel' de las personas en un video

DensePose se trata de un nuevo proyecto de la división de inteligencia artificial de Facebook que puede sobreponer máscaras y 'cambiar la piel' de las personas en un video

Foto:DensePose

Reproducir Video

Una tecnología desarrollada por Facebook virtualiza personas y anima movimiento sin usar sensores

Katherine Patiño
Si la posibilidad de reemplazar rostros de famosas en falsos videos porno causó indignación, el impacto de DensePose, el nuevo proyecto revelado por la división de investigación de inteligencia artificial de Facebook (FAIR), puede generar un escenario de contenidos falsos, pero realistas en un escenario complejo como el de las noticias falsas. 
Desde hace años existen herramientas como Photshop para alterar imágenes fijas. Nuevos desarrollos han extendido las posibilidades de manipulación al video. Pero ahora, con DensePose, es posible poner 'máscaras corporales' (cambiar la piel de las personas, vestirlas o desvestirlas) para generar presencias virtuales, cambiando el aspecto y simulando movimientos, sin necesidad de usar las herramientas de Hollywood. 
Sus familiares cantando el cumpleaños vestidos como personajes de Harry Potter, tropas del Ejército marchando desnudas, o un video del presidente Donald Trump bailando con Vladimir Putin. Eso y más sería posible sin recurrir a cables, cámaras y trajes verdes especializados, sino utilizando tecnologías que permitan cambiar rostros (como FakeApp) y ahora también cuerpos (como DensePose), para situarlos en casi cualquier situación que se le ocurra en la cabeza. Hasta hace poco, el video era un formato difícilmente alterable, incluso con peso de prueba jurídica.
DensePose se trata de una red neuronal creada por Natalia Neverova e Iasonas Kokkinos, investigadores en inteligencia artificial de Facebook, y Riza Alp Güler, investigadora de INRIA. Su sistema puede aplicar 'máscaras' (capas virtuales editables) sobre videos existentes y reemplazar las imágenes originales por otras recreadas virtualmente. En teoría con esto podría situarse un cuerpo desnudo sobre uno vestido. Pero además, en movimiento.
El reconocimiento corporal de DensePose le permite identificar la ubicación exacta en píxeles de determinada parte del cuerpo humano en movimiento y ajustar las máscaras en tiempo real. Para lograrlo utiliza su base de datos entrenada y genera un mapeo virtual de un cuerpo que se logra al dividir la superficie en secciones y establecer puntos de coordenadas para animarlos. A esto lo llaman una "postura humana densa". 
A diferencia de otras redes neuronales de mapeo en 2D, DensePose une los puntos de coordenadas en movimiento sin utilizar un sensor de profundidad en tiempo real y puede mostrar la superficie 3D del cuerpo.
Muestra de la división de la superficie (cuerpo) y de la "correspondencia con un punto determinado".

Muestra de la división de la superficie (cuerpo) y de la "correspondencia con un punto determinado".

Foto:DensePose

Al dividir la superficie de un cuerpo, se logra una 'correspondencia densa' (que cada punto de referencia contenga información sobre a qué parte de la superficie pertenece y en que lugar de la parametrización 2D de la parte determinada corresponde). Esa posibilidad identifica hasta seis diferentes posiciones de la misma parte y no requiere del movimiento de rotación que es utilizado normalmente en la animación.
Según su video de presentación, la tecnología también cuenta con la capacidad de aislar a múltiples humanos en un video y procesar escenas con varias personas en múltiples frames por segundo en la misma GPU. Un ejemplo de su uso podría ser el analizar la representación de la red para identificar lenguaje corporal o patrones de movimiento sospechosos en lugares públicos utilizando el video original de cámaras de vigilancia.
Aunque su desarrollo gráfico no es tan óptimo, así como ocurrió con FakeApp, DensePose puede convertirse en una herramienta creada con un fin lícito que termina siendo usada lamentablemente para la creación de 'FakeNews' - o falsos videos porno-.
Por el momento, su desarrollo se enfoca en lograr la sincronización en tiempo real. Según un artículo investigativo sobre el proyecto, también tiene los ojos puestos en la industria de los videojuegos. Con un desarrollo gráfico más avanzado podría sustituir al modelado de personajes en los videojuegos o la animación de películas. Incluso podría facilitar la creación de personajes en ambientes de realidad aumentada más realistas.

Los detalles técnicos

El sistema se ejecuta en una GPU de tarjeta gráfica GTX 1080 y opera a 25 fotogramas por segundo (fps) en imágenes de 320 x 240 mpx y de 4 a 5 fps en imágenes de 800 x 1100 mpx. 
En la primera etapa, DensePose fue alimentado con contribuciones de anotadores humanos. Los anotadores debía delimitar las partes visibles del cuerpo (por ejemplo la cabeza y el torax). Luego, en vez de adivinar cómo se ven el cuerpo bajo la ropa o la parte trasera, los anotadores probaron las regiones delimitadas (cabeza o torax) con un conjunto de puntos que se encontraban equidistantes.
Los anotadores se encargaron de dar sus anotaciones en más de cincuenta millones de imágenes. Para hacerlo se apoyaron en la capacidad de la red que da hasta seis vistas pre-renderizadas de una misma parte del cuerpo. Con ello, los anotadores podían ubicar puntos de referencia en cualquiera zona y eligir el punto de vista más conveniente entre las seis opciones en lugar de rotar manualmente la superficie, como se hace tradicionalmente en una animación. El conjunto de datos obtenido logró establecer los más de 5 millones de puntos de referencia que alimentan la red "totalmente convolucional" (un tipo de código de detección de errores).
Después de entender cómo los humanos ven a otros humanos, el sistema reconocía a las personas. El resultado se trata pues de una inteligencia artificial que usando una imagen en 2D como entrada puede aplicar la referencia a cualquier número de humanos en un video. Con el sistema se podría cambiar la apariencia de las personas en movimiento como si se estuviera editando una máscara de Photoshop, pero en un programa de video.
 
REDACCIÓN TECNÓSFERA
@TecnosferaET
Katherine Patiño
icono el tiempo

DESCARGA LA APP EL TIEMPO

Personaliza, descubre e informate.

Nuestro mundo

COlombiaInternacional
BOGOTÁMedellínCALIBARRANQUILLAMÁS CIUDADES
LATINOAMÉRICAVENEZUELAEEUU Y CANADÁEUROPAÁFRICAMEDIO ORIENTEASIAOTRAS REGIONES
horóscopo

Horóscopo

Encuentra acá todos los signos del zodiaco. Tenemos para ti consejos de amor, finanzas y muchas cosas más.

Crucigrama

Crucigrama

Pon a prueba tus conocimientos con el crucigrama de EL TIEMPO