Argentinos al Oscar por “Irishman” y el futuro de los VFX - Los Angeles Times
Anuncio

Argentinos al Oscar por “Irishman” y el futuro de los VFX

Los argentinos Pablo Helman, a la derecha, y Nelson Sepúlveda-Fauser llegan al almuerzo anual para los nominados al Oscar el lunes 27 de enero del 2020 en Los Angeles. Helman y Sepúlveda-Fauser están postulados al Premio de la Academia a los mejores efectos visuales junto con su compartiota Leandro Estebecorena y el francés Stephane Grabli por su trabajo en "The Irishman" de Martin Scorsese.
Los argentinos Pablo Helman, a la derecha, y Nelson Sepúlveda-Fauser llegan al almuerzo anual para los nominados al Oscar el lunes 27 de enero del 2020 en Los Angeles. Helman y Sepúlveda-Fauser están postulados al Premio de la Academia a los mejores efectos visuales junto con su compartiota Leandro Estebecorena y el francés Stephane Grabli por su trabajo en “The Irishman” de Martin Scorsese.
(Jordan Strauss/Jordan Strauss/Invision/AP)
Share via

NUEVA YORK (AP) — Pasaron años desarrollando una tecnología de rejuvenecimiento facial para la épica de mafiosos “The Irishman” (“El irlandés”) de Martin Scorsese, y este domingo llegarán al Oscar satisfechos de que su invención les facilitará el trabajo a próximas generaciones de actores, directores y cinefotógrafos, ganen el premio o no.

Los argentinos Pablo Helman, Leandro Estebecorena y Nelson Sepúlveda-Fauser, junto con el francés Stephane Grabli (todos de la empresa Industrial Light & Magic, o ILM), están nominados al Premio de la Academia a los mejores efectos visuales por haber creado una especie de “monstruo de tres cabezas”: una plataforma con tres cámaras (una principal y dos testigo) filmando de manera simultánea y luz infrarroja.

La idea era que Robert De Niro, Al Pacino y Joe Pesci pudieran interpretar sus papeles libremente, sin distracciones como los marcadores en la cara que suelen usarse para lograr este tipo de efectos. El equipo encabezado por Helman se encargaría después de rejuvenecer a los protagonistas según la etapa de la vida representada en la película, que se desarrolla entre 1949 y el 2000.

Anuncio

Esta es la tercera nominación para Helman, quien fue previamente postulado por “War of the Worlds” (“Guerra de los mundos”) en 2006 y “Star Wars: Episode II - Attack of the Clones” (“Star Wars: Episodio II - El ataque de los clones”) en 2003, y la primera para Estebecorena y Sepúlveda-Fauser, todos con una amplia trayectoria en Hollywood.

En una entrevista reciente con The Associated Press, los artistas conversaron sobre los retos que implicó este trabajo y el futuro de los efectos visuales. Helman y Estebecorena lo hicieron en una llamada telefónica conjunta; Sepúlveda-Fauser, quien no pudo acompañarlos, envió sus respuestas más tarde vía email.

AP: ¿Qué representa esta nominación para ustedes?

HELMAN: Para mí, la tercera es la vencida (risas). Lo más importante como dicen todos es ser nominados, es la parte más difícil; lo que pasa después es una lotería. Pero de todas formas pensamos que la vamos a pasar muy bien y estamos preparados para lo que pase.

SEPÚLVEDA-FAUSER: Cuando empezamos este proyecto sabíamos que no teníamos lugar para error, que la película dependía en nuestra ejecución de una tecnología que nadie había intentado y que por muchísimas razones es sumamente difícil de ejecutar. Este proyecto representa todo lo mejor de ILM, los años de dedicación a la innovación y la tenacidad de mis compañeros. ¡También representa un tremendo orgullo ser uno de TRES argentinos nominados! Cuando vine a Hollywood a los 11 años fui introducido a la Academia y a Hollywood, pero la idea de que un día sería yo nominado era solamente un sueño.

AP: Me imagino que no resultó para nada sorpresiva la candidatura, pues la película ha sido ampliamente elogiada por su tecnología de rejuvenecimiento y el llamado “monstruo de tres cabezas”.

ESTEBECORENA: El principal problema que teníamos es que, si hacemos el trabajo bien en este tipo de películas, como que no se nota. Había que mostrar muchos ejemplos de before-after (antes-después) para que se entendiera el calibre de lo que hicimos. Para mí una prueba de eso, y una gran satisfacción, fue escuchar que de los papeles de reparto este año, dos de los nominados fueron Pacino y Pesci, (cuya interpretación) pasó por nuestro trabajo.

AP: ¿Tienen planes de usar esta nueva plataforma para otros proyectos? Me imagino que mucha gente ahora querrá usar su tecnología.

Hollywood ya tiene listo todo para la gran fiesta del domingo

Feb. 7, 2020

HELMAN: Sí, estamos pensando en usarlo para muchos proyectos, pero la tecnología siempre va muy muy rápido, así que la tecnología está cambiando. La cámara, que es tan grande, ahora se está haciendo más pequeña, el programa de computación se está haciendo más rápido. Pienso que todo el desarrollo que pusimos ahí durante los tres o cuatro años que estuvimos trabajando ahora va a dar frutos.

AP: Justo quería preguntarles sobre el tamaño de la plataforma, que supongo habrá tenido sus limitaciones. ¿Cómo ven la tecnología evolucionando en el futuro para hacer lo mismo de una manera más fácil?

ESTEBECORENA: El tamaño obviamente va a ser reducido y estamos ya viendo otro tipo de hardware. Una cosa para considerar: en la película, los primeros tests (pruebas) que hicimos son de 2015, y para ese momento había que digamos sacar la tecnología adelante, usar lo que estaba en ese momento disponible y tomar decisiones para que el rodaje fuera eficiente y seguro a la vez, porque era todo muy territorial. Pero después de que vimos cómo funcionó, surgieron varias ideas para reducirlo de tamaño y hacerlo más eficiente. ¡Pero son cuatro años!

AP: ¿Cómo se les ocurrió usar dos cámaras testigo y luz infrarroja? ¿Habían hecho algo parecido antes?

HELMAN: No, todo esto es nuevo, completamente nuevo. La razón por la cual tuvimos cámaras testigo es que, si no nos dan la oportunidad de traquear las actuaciones con marcadores en la cara, entonces la única forma de generar geometría en 3D es tener la mayor información posible. Cuando tenemos tres cámaras se puede hacer una triangulación de la matemática, digamos. Es un proyecto (como) de la NASA. Y como el programa de computación trabaja mejor cuando no tiene sombra en la cara, tuvimos que cambiar las cámaras testigo en infrarrojo, porque de esa forma, al tirar luz infrarroja al actor, no hay sombras.

ESTEBECORENA: La luz viene de un anillo que está alrededor del lente.

AP: Ya podemos simular convincentemente fuego, agua, piel de animales, envejecer, rejuvenecer a actores. ¿Cuál es la próxima frontera en efectos visuales en su opinión?

HELMAN: Lo que pasa es que todos tenemos diferentes ideas (risas). Pienso que, para mí, lo más importante, lo próximo que viene, es, bueno dos cosas: una es la cuestión de inteligencia artificial, que nos va a ayudar a hacer el rejuvenecimiento mucho más rápido, pero la otra cosa es que se haga el rejuvenecimiento en tiempo real, al mismo tiempo que la persona está actuando. En este momento no se puede hacer porque se necesita mucho tiempo para hacer los renders y eso, pero la parte de tiempo real va a ser importante en los próximos tres o cuatro años.

SEPÚLVEDA-FAUSER: En mi opinión lo que logramos es solamente un paso rudimentario en lo que es posible. Hay muchísimo para explorar con humanos digitales. El futuro es complejo y brillante. No puedo esperar lo que lograremos en los próximos años.

AP: ¿Qué otras innovaciones en tecnología esperan con ansias para mejorar la labor del director de cinematografía en el futuro?

HELMAN: Pienso que esta aplicación de no marcadores para los actores se puede usar para otras cosas también, no necesariamente para hacer un rejuvenecimiento. Se puede hacer un rendering de una criatura o de otro tipo de cosas. La razón por la cual nosotros hicimos lo que hicimos fue para hacerles un favor a los actores, digamos. Porque de esa forma los actores no tienen marcadores en la cara y pueden hacer las actuaciones como se deben hacer. Las tomas son muchísimo mejor si los actores no están preocupados por la tecnología que está en el medio de su actuación.

SEPÚLVEDA-FAUSER: En el futuro inmediato: escenarios virtuales. Lo que ILM está haciendo con “The Mandalorian”, por ejemplo, va a abrir caminos para toda clase de innovación. Aprendizaje de máquinas también. En el futuro (lejano): Quantum computing, ¡photon computing! ¡Cámaras con la capacidad de capturar información de luz al nivel de fotones! O capturar el ambiente en 3D y crear geometría instantánea. ¡Hay TANTO para explorar!

Anuncio