Cualquiera que haya visto una película animada en 3D, o haya jugado a videojuegos durante el tiempo suficiente, probablemente haya notado algo acerca de la relación entre los personajes y la ropa: nunca los vemos ponerse la ropa. La razón de esto es que animar a un personaje en 3D colocando un trozo de tela a menudo conduce a resultados desastrosos con el personaje o la tela que no parecen "realistas".
Los investigadores del Instituto de Tecnología de Georgia han intentado remediar este problema, y sus resultados son impresionantes, aunque un poco tontos.
En el video que se encuentra en el encabezado podemos ver varios clips cortos de modelos humanoides que intentan ponerse ropa. Mientras que las animaciones están lejos de ser naturales, Karen Liu de GIT y su equipo intentan encontrar una manera de interactuar con la tela con modelos en 3D animados a mano sin la necesidad de que los animadores se aseguren de que cada fibra no se enganche ni se pegue en el modelo de personaje.
El hecho de permitir que el agua y la tela sean renderizados por un motor de física generalmente ha ahorrado a los animadores una gran cantidad de tiempo y ahora la investigación de GIT podría proporcionar mayor realismo en películas y videojuegos en 3D.
"Lo más cercano a ponerte la ropa que verás en una película animada es Los Increíbles ponerse capas, y eso sigue siendo un caso muy simple porque en realidad no implica mucho contacto físico entre los personajes y la tela. [...] Este es el problema que queremos abordar porque generar este tipo de escena implica la interacción física entre dos sistemas físicos muy diferentes ". - Karen Liu, jefa del equipo de investigación de GIT sobre prácticas actuales de animación de ropa
Uno de los mayores desafíos para el equipo de Karen Liu es desarrollar un algoritmo de búsqueda de caminos que sea realista y fluido. Según Liu, "el personaje tiene que tomar la decisión correcta sobre cómo moverá las extremidades, por lo que tiene un camino claro hacia la apertura". Esto es difícil por varias razones, ya que los humanos hacen muchos movimientos que realmente no pensamos cuando nos vestimos.
Estos incluyen movimientos incómodos, como un movimiento de la muñeca, o agitar los brazos a través de las mangas. Sin estas animaciones, un personaje 3D puede alcanzar extraños niveles de movimiento en segundos, incluso si visiblemente no podemos ver algo malo.
Si bien el equipo de Liu se ha acercado a resolver el problema con los espacios 3D pre-renderizados, también quieren ver cómo aplicar sus resultados a 3D en tiempo real. Esto significa que podríamos ver estos algoritmos utilizados en los videojuegos en breve. También quieren aplicar su investigación a los robots: la mayoría de los robots están diseñados para evitar colisiones, pero el proceso de ponerse una camisa requiere muchas colisiones pequeñas para lograrlo.
Pero, ¿qué significa esto para el mundo del juego?
Actualmente en la mayoría de los videojuegos, si no todas, las escenas de vestimenta están pre-renderizadas. Los ejemplos más cercanos de desvestirse y vestirse en el juego por lo general involucran un desvanecimiento a negro o un personaje que se esconde detrás de algún tipo de bloqueo visual antes de cambiar de ropa mágicamente.
El más infame de estos cambios es "Los Sims" con personajes girando inexplicablemente rápido antes de reaparecer con un nuevo conjunto de ropa. Si bien ponerse ropa puede parecer poco importante para jugar, estos desarrollos pueden ayudar con la inmersión en videojuegos que dependen en gran medida de los cambios de ropa o la desnudez para contar historias. Ciertas escenas de El Brujo y Efecto masivo se me ocurre.
Ciertamente podría ver animaciones como esta siendo usadas en escenas entre padres e hijos, o entre dos personajes adultos
Personalmente creo que este será un concepto interesante para el futuro de los videojuegos. Incluso si los desarrolladores de juegos no utilizan esta investigación como una forma de animar la ropa, podríamos verla como útil para otras aplicaciones. Por ejemplo, podríamos ver nuevos videojuegos en los que el objeto de un juego podría ser que un personaje coloque un objeto renderizado en física sobre otro objeto renderizado que no sea de física. No estoy seguro de qué harían con este concepto, pero estoy seguro de que los desarrolladores de juegos podrían pensar en algo.
¿Qué opinas sobre esta investigación? ¿Es una pérdida de tiempo? ¿Se te ocurre algún uso en el futuro de los juegos?