Crear humanos virtuales hiperrealistas, en minutos: la tecnología de los padres de 'Fortnite'
La tecnología permite crear animaciones faciales hiperrealistas en personas en cuestión de minutos y cambiar hasta de modelos.
23 marzo, 2023 12:06Desde hace al menos un par de años, Epic Games se ha esmerado en la creación de réplicas hiperrealistas de personas humanas, los llamados 'MetaHumans'. La primera vez que Epic Games (desarrolladora del popular juego Fortnite: Battle Royale) lanzó estas herramientas de creación fue en 2021, como una forma de optimizar el proceso de creación y hacerlo más fácil para los usuarios. Ahora, en el State of Unreal de la GDC de 2023, la firma lo ha llevado más allá, permitiendo crear animaciones faciales realistas usando vídeos capturados en un iPhone.
En 2021, Epic hizo un especial hincapié en la posibilidad de crear estos humanos hiperrealistas en poco tiempo y desde cualquier plataforma. Sin ir más lejos, abrió la tecnología MetaHuman para hacerla gratuita, y requiriendo que los usuarios tan solo tuvieran que usar el navegador de su ordenador. Un poder computacional tremendamente útil para desarrolladores.
En la demostración de esta GDC, Epic ha mostrado en un metraje usando esta tecnología en colaboración con Melina Juergens, actual actriz de Senua, protagonista principal del videojuego Hellblade: Senua's Sacrifice. La demostración ha aprovechado las capacidades de la actriz y la tecnología de animación facial para revelar cómo será este proceso en el futuro.
Humanos creados con un iPhone
En la demostración, Epic ha mostrado el proceso de animación facial para crear avatares MetaHuman usando únicamente una actriz y un metraje usando un iPhone. De esta forma, era posible animar expresiones faciales reflejadas en modelos de última generación en cuestión de minutos, casi en tiempo real.
Y es que recordemos que realizar una animación facial, especialmente si es una de carácter hiperrealista, puede ser un proceso que se demore meses. A eso se le suma todo el trabajo de actuación, que pasa por capturar hasta el más mínimo gesto o expresión de los actores. Todo ello, además, necesitando equipamiento especial y desarrolladores que puedan explotarlo.
Pero lo más sorprendente de esta demostración no es solo eso. Mientras la actriz habla, se crean nuevos avatares sobre la misma, que manteniendo la voz, integra modelos completamente distintos. Es decir, que se cambia el modelo a uno completamente diferente, pero manteniendo de nuevo la impresionante animación facial. Todo ello, desde un iPhone.
Esta herramienta se lanzará a mediados de este año y visto el potencial en la demostración con Melina Juergens, todo apunta a que esta será una herramienta revolucionaria para los desarrolladores y que aliviará una importante carga a los animadores faciales.