Coup d'œil sur les 85e Oscars des meilleurs films nominés aux effets spéciaux

Ceci est une brève introduction sur la manière dont les aspects les plus remarquables de chaque film nominé dans la catégorie Meilleurs effets visuels pour la 85ème cérémonie des Academy Awards ont été réalisés. Cet article décrit la réalisation de films: Prométhée, Les Vengeurs, La vie de Pi, Blanche-Neige et Le Chasseur et Le Hobbit.


Prométhée (2012)

Équipe VFX

  • Richard Stammers
  • Trevor Wood
  • Charley Henley
  • Martin Hill

Développement des effets visuels

Planet LV-223

LV-223 est la planète où le vaisseau spatial Prométhée arrive. Les artistes ont créé de nombreuses images de concepts pour prévisualiser l’aspect de la planète LV-223. Afin de créer l'atmosphère de la planète, l'équipe a réalisé des prises de vues aériennes en Islande, qui ont ensuite été combinées à des arrière-plans de nuages ​​réalisés par l'équipe VFX. Après avoir examiné en profondeur les images conceptuelles, l'équipe a découvert un paysage approprié, adapté à leur vision, appelé Wadi Rum, situé en Jordanie..

L’équipe a analysé la zone à l’aide d’images satellitaires de Google Earth et, avec des fichiers numériques d’altitude, a reconstitué le paysage à Maya. Pour les textures, elle a photographié des images haute résolution HDRI 360 des vallées de Wadi Rum, créant ainsi l’environnement numérique. . Toujours pour prendre des photos de la planète au niveau du sol, l’équipe s’est rendue sur le terrain volcanique de Hekla, situé en Islande..

Source: http://www.moving-picture.com/

L'ingénieur

L'ingénieur est présenté comme une créature ressemblant à un humain idéalisé, venu sur terre pour l'ensemencer de vie. Procéder à un humanoïde numérique photoréal très proche de la caméra était un grand défi. La première tâche consistait à améliorer leurs algorithmes de diffusion sous-surface (SSS) afin de produire un travail réaliste sur les caractères rapprochés. Ils sont donc passés à un modèle de diffusion quantifiée par translucidité (QD), ce qui leur permet de ressembler à une combinaison complexe de peau composée de propriétés de surface avec précision. De son côté, l’équipe a eu beaucoup de mal à faire correspondre les mouvements d’un acteur physique assis sur une plaque avec une combinaison prothétique en silicium à ceux du personnage numérique, en ajoutant que tout le film a été tourné en stéréo. L’équipe avait besoin d’atténuer et d’améliorer la façon dont elle manipulait normalement les muscles, mais aussi de prolonger la durée de vie de la prothèse..

Source: Image extraite de la copie originale Blu-ray

L'orrery

The Orrery est une carte 3D interactive de l'univers connu. Cette représentation 3D de l'univers comprend entre 80 et 100 millions de polygones. La scène où apparaît Orrery a été filmée sur la scène James Bond ???? 007, l'acteur n'interagissant qu'avec une sphère, qui a ensuite été supprimée numériquement pour simuler l'une des planètes. Il a fallu plusieurs semaines à ces plans pour rendre un plan complet. Il intégrait donc les outils de composition profonds de Nuke, qui au lieu de restituer des cadres plats, permettait de restituer des données 3D, qui étaient ensuite combinées dans un espace 3D, réduisant de cette façon le temps de rendu. L’équipe a mis environ 7 mois à produire les environnements, les effets et les personnages, puis à les intégrer aux séquences stéréoscopiques 3D en direct, puis.

Source: http://www.fuelvfx.com/


Vidéo VFX Breakdown

Cette vidéo vous montrera les incroyables scènes VFX, comment elles ont été réalisées et certaines scènes de composition.


Les Vengeurs (2012)

Équipe VFX

  • Janek Sirrs
  • Jeff White
  • Guy Williams
  • Dan Sudick

Développement des effets visuels

Conception de décors CG

Des extensions de jeux CG étaient nécessaires pour la plupart des scènes de ce film. Luma Pictures, Fuel VFX et Trixter en étaient responsables. Pour la séquence de bataille de New York, l’équipe a construit un ensemble au Nouveau-Mexique, qui en contenait 40 ???? des écrans verts de chaque côté, des voitures endommagées, de la poussière et des débris.

L’équipe a construit la ville autour du décor en photographiant près de 2 000 sphères de carreaux, créant une sorte de vue Google Street en haute résolution, en ajoutant de la poussière, des débris, de la fumée, des braises, et chaque fenêtre a été remplacée par une version CG aux reflets améliorés. pour éviter que l'environnement ne paraisse trop statique.

L’équipe a construit une bibliothèque d’actifs numériques, qui a été utilisée pour peupler les rues de New York, peignant toutes les personnes, les voitures et les objets afin d’obtenir une texture claire..

Source: http://www.youtube.com/watch?v=MnQLjZSX7xM

Hulk

Pour créer ce personnage, l'équipe a commencé par créer des doubles numériques de Mark Ruffalo, en commençant par une numérisation en direct de l'acteur, qui a ensuite été modifiée dans ZBrush pour devenir The Hulk, tout en conservant l'aspect de l'acteur original. Ceci a été réalisé en étudiant Ruffalo jusqu'au niveau des pores, ils lui ont fait mouler ses dents, lui ont tiré les coins des yeux, lui ont pris des images de ses gencives, de l'espace entre les doigts, même de chaque cheveu, taupe ou cicatrice, sa peau réelle a été scannée. et jeté sur The Hulk.

Une des difficultés majeures était de gérer la couleur de sa peau. Après l’apparence initiale de la peau dans différents environnements (intérieur, bleu ciel, etc.), sa couleur changeait tellement à chaque coup que l’équipe devait travailler dur pour maintenir la cohérence. Les mouvements du visage et du corps étaient une intégration transparente de la capture de mouvement et de l'animation par images clés. Il fallait beaucoup de travail pour que la performance de l'acteur soit lue correctement et que le poids du mouvement du personnage soit correct.

Source: http://marvel.com/avengers_movie

L'hélicarrier

Le S.H.I.E.L.D Helicarrier est certainement l’atout le plus important en termes d’effet visuel du film. L'astuce pour créer un véhicule aussi crédible consistait à incorporer des aspects et des caractéristiques présents dans la réalité. C'est pourquoi sa conception était basée sur un porte-avions, ce qui donnait une base que le public serait familier. L'ajout de pistes de lancement, de portes anti-souffle et de câbles d'arrêt, de véhicules en mouvement et d'une équipe numérique sur le plateau permet de vendre la taille du véhicule. Tous les modèles ont été créés en combinaison de Maya et 3ds Max.

À l’aide de Flowline, l’équipe a réalisé plusieurs types de simulations d’eau, allant d’un océan plat à une formation de bulles et au dribble lorsque l’engin quitte la mer, avec un composite à effet arc-en-ciel avec Nuke. Pour les écrans intérieurs du navire, plusieurs panneaux de verre vides ont été filmés, pour l'ajout ultérieur d'éléments 2D et 3D générés dans After Effects et Cinema 4d par Cantina..

Source: http://marvel.com/avengers_movie


Vidéo VFX Breakdown

Cette vidéo vous montrera les incroyables scènes VFX, comment elles ont été réalisées et certaines scènes de composition.


La vie de pi (2012)

Équipe VFX

  • Bill Westenhofer
  • Guillaume Rocheron
  • Erik-Jan de Boer
  • Donald R. Elliott

Développement des effets visuels

Richard Parker

Richard Parker est le tigre du Bengale, qui accompagne le personnage tout au long de son naufrage. Rhythm & Hues était chargé de créer ce tigre réaliste. L’équipe a commencé à étudier des centaines d’heures de référence de vrais tigres, et pour chacun des clichés, il serait fait référence, en évitant ainsi la possibilité de faire réagir le tigre comme un humain, ce qui serait contre du point entier du film.

Près de 90% de Richard Parker est en CG. De vrais tigres ont été utilisés que pour quelques coups, y compris celui où le tigre nage dans l'océan pour manger un poisson.

L'équipe a commencé avec le squelette, pour contrôler les mouvements de base, puis a ajouté un système de muscles. Le visage était l'un des aspects les plus importants de Richard Parker; son calage facial était une combinaison d'une sous-couche plus musclée avec plus de formes de mélange sur le dessus, qui ont été partiellement reconstituées de manière procédurale. Un autre aspect important est la peau et le pelage. L’équipe a eu recours à la diffusion sous la surface qui a légèrement adouci le poil, de sorte que la lumière a pénétré plus profondément dans le tigre et son pelage. La plupart du temps, il s'agissait de lancer de rayons et l'équipe a utilisé le plus possible HDRI pour que Richard Parker reflète pleinement son environnement. Tous ces aspects font de Richard Parker l’un des meilleurs animaux CG photoréalistes jamais créés.

Source: http://www.flickr.com/photos/lifeofpimovie/8020528490/in/photostream/

L'océan

Les scènes dans l'océan ont été filmées dans un réservoir générateur de vagues de 230 pieds par 100 pieds situé à Taiwan et contenaient 1,7 million de gallons d'eau…

Pendant plus de 50 minutes du film, le personnage est seul dans l'océan avec un tigre du Bengale, du nom de Richard Parker, et comme le disait Westenhofer, le défi pour l'équipe était de dépeindre l'océan le plus possible. Les scènes dans l'océan ont été filmées dans un réservoir générateur de vagues de 230 pieds par 100 situé à Taïwan et contenaient 1,7 million de gallons d'eau. L'ensemble était entièrement entouré d'écrans bleus et d'une grille peinte pour faciliter le suivi..

L’équipe a collaboré avec Scanline à la mise en œuvre d’une nouvelle méthode de simulation de surface appelée "Refined Sheet" pour Flowline, qui utilisait la géométrie animée comme couche de base pour la simulation, créée à l’intérieur de Maya à l’aide de déformateurs de vagues Tessendorf et Gestner, suivie de l’émission de une mince feuille de voxels dessus pour résoudre le problème du débit d’eau et des interactions. Cela leur a permis d'augmenter la quantité de détails sur la surface de l'eau, en terminant par la simulation de ce qu'ils appellent "les éléments", les embruns sur la crête des vagues, qui deviendraient des brouillards s'ils étaient attrapés par le vent, des bulles deviendraient écume en remontant à la surface. La mise en équilibre de ces éléments s’est révélée être très importante pour obtenir le look et les détails requis par ces plans longs, simulant des centaines de millions de particules à chaque coup..

Source: http://www.flickr.com/photos/lifeofpimovie/8020537924/in/photostream/

Stéréo 3D

Ce film contient d'innombrables moments qui vous couperont le souffle grâce aux compétences en 3D, mettant en scène toutes sortes d'animaux et d'objets, mais aussi d'explorer les profondeurs de l'océan et d'autres environnements incroyables. L’un des défis de l’équipe a été de filmer en stéréo de la vie sur l’eau, car l’eau est très réfléchissante. Selon votre point de vue, vous obtiendrez des réflexions différentes, pour résoudre ce problème, des outils automatiques traitent les cartes de disparité et un studio de contrôle de qualité stéréo manuellement. vérifié chaque scène et les a corrigés.

Le ciel est un autre aspect qui fait que vous sentez que vous êtes vraiment là-bas. R & H a utilisé son outil personnalisé, Rampage, qui est un logiciel de cartographie de projection 3D qui permet à l’équipe de remplacer facilement le ciel avec ses propres peintures mates à chaque coup. généré plus de 110 ciels Full HDRI en 3D stéréo. Avec Rampage, l’équipe a pu projeter ses peintures mates personnalisées sur une géométrie 3D de base et les réviser en temps réel, générant ainsi des images de référence lumineuses aux autres équipes..

Source: http://www.eonline.com/news/364868/life-of-life-of-pi-5-reasons-the-movie-was-deas-unfilmable


Vidéo VFX Breakdown

Cette vidéo vous montrera les incroyables scènes VFX, comment elles ont été réalisées et certaines scènes de composition.


Blanche Neige et le Chasseur (2012)

Équipe VFX

  • John Knoll
  • Hal Hickel
  • Charles Gibson
  • John Frazier

Développement des effets visuels

L'homme miroir

L'un des effets les plus remarquables du film est la scène dans laquelle la reine pose sa fameuse question: "Qui est la plus belle de toutes?" à un Mirror Man liquide et métallique qui sort de son mur.

L'idée pour l'homme est venue lorsque le réalisateur a vu une sculpture de Kevin Francis Gray appelée Face-Off, et lui a demandé de la remodeler pour le film..

L’équipe a organisé une journée de tournage en studio pour enregistrer de nombreux liquides au ralenti, afin d’explorer comment différents types de matériaux réagiraient dans le monde réel. L'usine a utilisé Maya nCloth pour la simulation de la forme liquide de Mirror Man et de nombreuses autres forces coutumières visant à contrôler la forme de la toile jusqu'à ce qu'elle atteigne la silhouette pleine. Sur le tournage, Charlize Theron était devant un accessoire réfléchissant avec une caméra Red Epic à l'intérieur pour capturer la performance de l'actrice. Ceci a ensuite été utilisé pour les réflexions sur le Mirror Man en utilisant des normales UV et une position de point dans l'espace mondial pour contrôler le look, mais la vraie réflexion physique l'aurait rendue presque invisible, alors ils l'ont triché et développé un shader qui avait beaucoup de différences. flou des reflets, des oxydations et des petites rayures.

Source: http://www.snowwhiteandthehuntsman.com/

Briser les soldats

Pixomondo était chargé de donner vie aux incroyables batailles du film opposant l’armée noire et les chevaliers. En utilisant 3DS Max, Vray et Thinking Particles, vous obtiendrez le look de l’Armée noire, qui se briserait en éclats noirs lorsqu’ils seraient frappés par un chevalier. Penser Particles a permis à l’équipe de mettre en place un système de contrôle du volume qui correspond au mouvement du sabre, à l’angle et à la vélocité lorsqu’il frappe à la surface. Les soldats se cassaient de manière dynamique pendant que le chevalier continuait à s'animer. La fragmentation traversant tout le corps, produisant ainsi un effet plus fluide, plus de 130 000 fragments contribuent à la simulation dynamique d'une seule scène..

L’équipe a utilisé Massive avec une animation ciblée sur les mains pour l’ensemble de l’armée composée de plus de 1 500 soldats. Pour les chevaliers environnants, l’équipe a utilisé un scénario qui sélectionnait au hasard des clips d’animation à partir d’une source d’environ 1 000 images, et les plaçait le champ à une échelle et une rotation aléatoires pour obtenir un effet unique.

Source: http://www.dexigner.com/news/25213

Créatures

Rhythm & Hues a été chargé de créer de nombreuses créatures et plantes pour le film, notamment celles qui peuplent les bois, un cerf mystique, un renard, un blaireau, des lapins, des hérissons, des oiseaux, des serpents, des champignons, des scarabées fluorescents, des fées et d'autres, y compris la séquence de signatures de film du troll, utilisant la capture de mouvement pour son mouvement du corps et l'animation de la main pour son visage. Le reste de son corps est constitué de roches et de racines ressemblant à des muscles et d'une texture de peau grossière.

Sur le tournage, la production a été filmée avec des arceaux et des canons à air avec des éclaboussures d’eau pour donner à l’actrice un indice sur la réaction qu’elle devrait avoir. D'autre part, Double Negative créa les créatures de la sombre forêt, des arbres et des branches tordus, des muscles suintants, une créature chauve-souris et les fées sombres évoquées par la reine, composées d'environ 30 000 fragments d'obidienne. Utilisation de Houdini et d’un ensemble d’outils FX pour l’animation permettant aux artistes de chorégraphier le mouvement et permettant aux fragments de se déplacer et de se détacher de certaines manières.

Source: http://www.snowwhiteandthehuntsman.com/


Vidéo VFX Breakdown

Cette vidéo vous montrera les incroyables scènes VFX, leur création et certaines scènes de composition..


Le Hobbit: Un voyage inattendu (2012)

Équipe VFX

  • Joe Letteri
  • Eric Saindon
  • David Clayton
  • R. Christopher White

Développement des effets visuels

Tournage en 3D HFR

L'un des aspects les plus remarquables de ce film est que Peter Jackson a décidé de le tourner en utilisant le format HFR (High Frame Rate). Les productions HFR de 48 ips enregistrent et lisent des effets visuels deux fois plus vite que le jour actuel, soit 24 ips. Le film a été tourné avec 48 caméras Epic Red à 48 ips en résolution 5K. Pour capturer des images 3D, l’équipe a demandé à 3ality de construire une plate-forme dans laquelle une caméra tire directement et l’autre est pointée vers un miroir. Cette opération était nécessaire car les caméras 3D devaient être montées à la même distance entre vos yeux, ce qui n'est pas possible étant donné la taille des caméras Epic Red. En plus de cela, l’équipe a dû tout sur-colorer car les Epic Cameras ont tendance à désaturer les images.

Source: http://youtu.be/gHF536TJ0iE

Création des trolls

Quand Bilbo et les nains marchent dans la forêt de Trollshaw, ils trébuchent avec trois trolls affamés. Cette scène est venue vivre par la main de Weta Digital. Avant de commencer tout tournage, l’équipe l’a pré-visualisé afin d’élaborer des rythmes et d’aider au tournage. Les créatures ont été modelées et habillées avec un système de tissu permettant la simulation des muscles, de la graisse et de la peau, tandis que les animateurs obtenaient la performance des acteurs sur des combinaisons de capture de mouvement qui seraient ensuite redirigées pour la représentation des Trolls de quatre mètres..

Chez HFR, ils ont dû faire plus attention aux détails tels que la synchronisation labiale et le clignotement. De leur côté, Martin Freeman et les acteurs Duarf ont filmé leur rôle dans un décor forestier, à l’aide de sphères placées sur les pôles des lignes oculaires des Trolls, qui ont ensuite été ajoutées numériquement à la scène. Enfin, les compositeurs combinent les CG Trolls, les acteurs d’action réelle, la forêt, le feu numérique, l’éclairage interactif, entre autres effets, pour compléter la séquence..

Source: http://www.youtube.com/watch?v=kYeQNH6gJhE

Gollum 2.0

C'était un défi pour lui de jouer un Gollum légèrement plus jeune parce qu'il devait pratiquement désapprendre tout ce qui s'était passé sur LOTR..

Dans ce film, nous avons la chance de revoir Gollum dix ans après Le Seigneur des Anneaux. Andy Serkis a eu la chance de rejouer son rôle de créature torturée. C'était un défi pour lui de jouer un Gollum un peu plus jeune, car il devait pratiquement désapprendre tout ce qui s'était passé sur LOTR..

En raison de la nature HFR et stéréo du film, il fallait beaucoup plus de détails. C'est pourquoi le personnage a été complètement remodelé et compte maintenant environ dix fois plus de polygones et trois fois plus de formes faciales qu'auparavant. L’artiste avait pour tâche de s’assurer que l’attrait et la convivialité du personnage étaient identiques à ceux d’il ya 10 ans. Tandis qu’ils amélioraient son look et sa façon de bouger, ils portaient une attention particulière aux commandes de son pantin pour le visage, qui suivent le système de codage des actions faciales FACS). Un changement important a été la capacité de jouer sur place dans une combinaison de capture de mouvement, qui intègre également une caméra de capture faciale.

Source: http://www.thehobbit.com/#content=gallery


Vidéo VFX Breakdown

Cette vidéo vous montrera les incroyables scènes VFX, leur création et certaines scènes de composition..


Selon vous, lequel va gagner?


Les sources vidéo pour toutes les vidéos peuvent être téléchargées ici.