COMPOSITOR ULTIMATTE TRANSFORMA EFECTOS VISUALES EN LA SERIE DOCUMENTAL “SHARK ATTACK 360” DE DISNEY+

Descubre cómo Little Shadow creó un estudio virtual para esta serie documental de Disney+, de la mano del compositor Ultimatte, el programa DaVinci Resolve y Unreal Engin.

Compartir esta noticia:

Blackmagik Design anunció que el compositor Ultimatte transformó los efectos visuales de «Shark Attack 360» que indaga en el verdadero comportamiento de los tiburones e investiga por qué atacan a los humanos. La serie documental de Disney+, que forma parte del SharkFest de National Geographic, está compuesta por ocho episodios de 60 minutos que muestran evidencia, relatos personales y efectos visuales de vanguardia al explorar los factores conducentes a ataques de tiburones.

La productora Arrow Media, con sede en Londres, encomendó la realización de los gráficos y efectos visuales tridimensionales a «Little Shadow», un estudio especializado en este rubro. Como parte de su labor, la productora debió darles vida a imágenes virtuales interactivas y montar un laboratorio de tiburones en 360 grados, donde poder mostrar el movimiento y la anatomía de estos individuos.

Encontrar el lugar de rodaje ideal fue esencial para conseguir imágenes sofisticadas para la segunda temporada. «Encontramos el Collins’ Music Hall, en Islington, un teatro alternativo que nunca se terminó de construir. Era un sitio ideal para establecer el laboratorio virtual de tiburones en 360 grados, utilizando imágenes reales y otras computarizadas», comentó Simon Percy, Director de Little Shadow.

«Inicialmente, utilizamos un escáner LiDAR con la idea de desarrollar un modelo 3D del lugar y así poder planificar y crear el proyecto a escala», añadió Percy. «La réplica digital del recinto nos permitió organizar todo en detalle y previsualizar las imágenes para asegurarnos de que las tomas se pudiesen generar con antelación, y así agilizar tanto el rodaje como la edición».

A pesar de que el teatro satisfacía los requisitos de iluminación, la falta de aislamiento acústico y la disposición de los espacios prestó algunos desafíos. «Todo hacía eco y cualquier sonido de los equipos se amplificaba, así que montamos las unidades de trabajo centrales lejos del escenario. Esto implicó enviar una señal 4K a lo largo de 110 metros y cuatro pisos mediante un cable BNC», explicó.

En lugar de usar pantallas de ledes gigantescas, Little Shadow empleó una combinación de sistemas personalizados y otras herramientas para facilitar la realización de superposiciones en vivo sobre un fondo verde. A la hora de desarrollar la dinámica de trabajo, Percy trabajó de cerca con el experimentado artista de efectos visuales Lucas Zoltowski y el director de fotografía de la serie, Matthew Beckett.

«Necesitábamos una solución flexible para captar imágenes reales e integrar gráficos computarizados que reproducíamos en una consola de producción virtual a fin de conseguir un entorno visual al instante. Esto fue crucial a la hora de crear un ambiente inmersivo subacuático», observó.

El estuche de transporte se creó con un equipo informático, usando Unreal Engine y un procesador para composiciones Ultimatte 12 4K, a fin de realizar las superposiciones en el momento. La gestión de señales se llevó a cabo con una matriz de conmutación Blackmagic Videohub 20×20 12G, y a la par se utilizaron varios grabadores HyperDeck Studio 4K para la captura y reproducción de contenidos. «Esto fue vital para tomar decisiones instantáneamente en el set, revisar las imágenes grabadas de inmediato y garantizar que las tomas y los ajustes fuesen óptimos», observó Percy.

«Para que las escenas subacuáticas cobraran vida, usamos un fondo verde y el compositor Ultimatte, lo cual nos permitió integrar los elementos tridimensionales virtuales en las pantallas mediante herramientas de realidad aumentada. Esto brindó al presentador la posibilidad de interactuar con los tiburones en tiempo real y dar lugar a una experiencia más atrapante para el espectador», continuó diciendo.

Uno de los principales desafíos que enfrentó la producción fue gestionar los movimientos de cámara complejos inherentes a esta modalidad híbrida. Esto exigió un seguimiento exhaustivo y técnicas de rotoscopia a fin de fusionar a la perfección el material grabado en directo con fondos virtuales, en particular en cuanto a los detalles más pequeños, tales como el cabello o las interacciones cercanas con tiburones virtuales.

«El compositor Ultimatte fue esencial para hacer superposiciones sobre fondos verdes, ya que guio los movimientos de la cámara en función de los elementos virtuales y, gracias a esto, todos en el set podían ver las imágenes en tiempo real. Nos dio más espacio para experimentar con distintas posibilidades y ser más creativos en las escenas y garantizar que todos compartiéramos la misma visión para luego trabajar en la etapa de posproducción», explicó Percy.

Sin embargo, algunas tomas y correcciones no implicaron el uso de fondos verdes. «Las herramientas de inteligencia artificial de DaVinci Resolve Studio, que incluyen prestaciones como la función Máscara mágica para aplicar técnicas de rotoscopia fueron inmensamente efectivas en estos casos. Continuamos explorando con el programa DaVinci Resolve Studio y Fusion, ya que nuestra labor nos está llevando por ese camino. Es increíblemente rápido al trabajar con archivos EXR y todo está dinamizado por GPU, que es asombroso. En este proyecto, verdaderamente ayudó a definir la estética y a aplicar cierto desenfoque para unificar las imágenes computarizadas con las tomas reales», añadió al finalizar.

Noticias relacionadas