Los probadores virtuales del futuro

 
 
Investigación
(10/03/2021)

Un equipo del Instituto de Matemática de la UB (IMUB) y del Centro de Visión por Computador (CVC) ha desarrollado CLOTH3D, el primer conjunto de datos sintéticos 3D a gran escala orientado al desarrollo del aprendizaje profundo para simular prendas sobre diferentes formas corporales. Este conjunto de datos, creados artificialmente y publicados en acceso abierto, es el primer paso para mejorar los probadores virtuales de ropa.

 
 
Investigación
10/03/2021

Un equipo del Instituto de Matemática de la UB (IMUB) y del Centro de Visión por Computador (CVC) ha desarrollado CLOTH3D, el primer conjunto de datos sintéticos 3D a gran escala orientado al desarrollo del aprendizaje profundo para simular prendas sobre diferentes formas corporales. Este conjunto de datos, creados artificialmente y publicados en acceso abierto, es el primer paso para mejorar los probadores virtuales de ropa.

Cada día son más las personas que compran la ropa a través de plataformas virtuales y esta tendencia se está acelerando por la actual situación de pandemia. Las ventajas de esta nueva forma de comprar son evidentes, pero también tiene algunos inconvenientes. Uno de los más importantes es que no es posible probarse la ropa antes de recibirla en casa. Para solucionar este problema, se ha acudido al modelado y la generación de prendas en 3D, en los que son clave la inteligencia artificial y el aprendizaje profundo (deep learning). Estos modelos, que facilitarán el trabajo de los diseñadores y animadores de imágenes, supondrán una gran mejora en la experiencia que proporcionan los probadores virtuales.

Hoy día, existen modelos para simular prendas sobre distintas formas del cuerpo, pero la mayoría son en 2D. El motivo es que los modelos en 3D necesitan una enorme cantidad de datos, y los que hay disponibles actualmente son muy escasos. Hay tres estrategias principales para producir datos 3D de personas vestidas: los escaneos 3D, la generación de imágenes 3D a partir de imágenes convencionales y la generación sintética. Los escaneos 3D son costosos e incapaces de diferenciar el cuerpo de la ropa, es decir, como mucho pueden extraer la forma 3D como si cuerpo y ropa fueran un único objeto. Por su parte, los conjuntos de datos que infieren la geometría 3D de la ropa a partir de imágenes convencionales son inexactos y no pueden modelar adecuadamente la dinámica de la prenda. En cambio, los datos sintéticos son fáciles de generar y están libres de errores de medida.

Investigadores del Grupo Human Pose Recovery and Behavior Analysis, del Centro de Visión por Computador (CVC) y la Universidad de Barcelona (UB), eligieron ese último camino y desarrollaron CLOTH3D, el primer conjunto de datos sintéticos a gran escala de secuencias humanas en 3D vestidas, que se ha publicado recientemente en la revista Computer Vision - ECCV 2020 Workshops. «Como se necesitan muchos datos para desarrollar modelos 3D, decidimos generar nuestros propios datos. Hemos diseñado y publicado el mayor conjunto de datos de este tipo con una gran variedad de vestuario y un amplio rango de movimientos de la ropa», explica Hugo Bertiche (UB - CVC).

Con más de 2 millones de muestras, CLOTH3D es único en términos de variabilidad, tanto en el tipo de prenda, como en forma, tamaño, tirantez y tejido. El vestuario se puede simular sobre miles de posturas y formas corporales diversas, lo que genera una dinámica de la ropa muy realista. «Desarrollamos una línea de generación que crea un conjunto único para cada secuencia en términos de tipo de pieza, topología, forma, tamaño, ajuste y tejido. Mientras que otros conjuntos de datos contienen pocas piezas diferentes, el nuestro tiene miles», señala Sergio Escalera, investigador del CVC y catedrático de la Facultad de Matemáticas e Informática.

La industria textil no es la única que podría aprovechar este conjunto de datos: «También podría beneficiarse de él la industria del entretenimiento, dado que las películas con imágenes generadas por computador y los videojuegos podrían ser aún más realistas», argumenta Bertiche. No obstante, todavía hay mucho trabajo por hacer: «El modelado de las piezas 3D a través del aprendizaje profundo aún se encuentra en sus primeras etapas. Por un lado, si bien nuestro conjunto de datos cubre la mayor parte de la variabilidad de la ropa del día a día, los estilos de atuendo solo están limitados por la imaginación. El diseño de piezas más rápido, automático e inteligente podría dar lugar a muchas aplicaciones muy interesantes. Por otra parte, la dinámica de la ropa es extremadamente compleja, y se está empezando a abordar de manera muy ingeniosa. Explorar más es una necesidad para esta comunidad», remata Bertiche. Asimismo, las prendas reales son mucho más complejas que las que suelen proporcionar los simuladores, por lo que el aprendizaje profundo todavía tiene que encontrar la forma adecuada de modelar detalles extremadamente finos y caóticos, como las arrugas, y también objetos de geometría arbitraria relacionados con los vestidos, como sombreros, gafas, guantes, zapatos o bisutería.


Artículo de referencia:

Bertiche, H.; Madadi, M., y Escalera, S. «CLOTH3D: Clothed 3D Humans». Computer Vision - ECCV 2020. Lecture Notes in Computer Science, noviembre de 2020, vol. 12540. DOI: 10.1007/978-3-030-58565-5_21