Emmanuel Hiriart- Directeur de la Photographie

Articles tagués “red one

The Tree Of Life, Malick et Lubezki écrivent un nouveau dogme

Après avoir soutenu à travers deux articles récents, que le seul but de nos métiers était la création et donc sa partie artistique et non pas l’éphémère conviction de liberté ou d’émancipation due à de récentes et sophistiquées technologies, je voudrais aujourd’hui appuyer mon propos par l’étude d’un cas d’école voire d’un chef d’oeuvre. J’ai eu la chance de découvrir « The Tree of life » à Cannes lors de mon séjour sur la croisette pour les webséries « Mon Premier Cannes » et « États Critiques » pour le journal Le Monde.

http://www.lemonde.fr/festival-de-cannes/video/2011/05/21/etats-critiques-1-4-a-propos-de-the-tree-of-life_1525667_766360.html

C’est notamment quelques conversations avec Jean Luc Douin, journaliste du Monde qui m’ont apportées un éclairage nouveau sur le Cinéma de Terrence Malick. Voilà pourquoi j’ai profité de sa sortie en salles pour revoir le film qui depuis avait reçu la Palme d’or, et j’ai pu étancher ma soif de comprendre le film grâce notamment à un article de American Cinematographer auquel je fais référence ici car de toute façon les interviews de Malick sont trop rares et celles sur le travail autour de ces films aussi.

Et afin de creuser les raisons d’un tel film, je me tourne et c’est bien naturel pour un directeur de la photographie vers les explications de Emmanuel Lubezki qui a officé sur de nombreux films de Malick et a pu ainsi écrire avec lui les pages d’un « nouveau dogme » dont je vais commencer par exposer les règles afin de montrer à travers des cas concrets dans ce film référence ce que peut être un point de vue filmique tant dans la réalisation que dans la lumière.

Tout d’abord qui est Emmanuel Lubezki ? Le directeur de la photographie né au Mexique en 1964 fut nommé 4 fois pour les Oscars, en 1996 pour Little Princess, en 2000 pour Sleepy Hollow, en 2006 pour The New World de Terrence Malick et en 2007 pour le très bon Children of Men. L’homme est discret et la liste complète des très bons films sur lesquels il a travaillé est longue je n’en citerai que deux, symptomatiques, selon moi, de toute la palette dont il est capable, The Assassination of Richard Nixon ou encore Burn After Reading.

On sait l’homme capable de tous les défis, dont les plus fous, filmer avec un diaph constant, et l’on comprendra mieux encore le film « odyssey » de Malick à la lecture du travail qu’il a pu effectuer avec le réalisateur à l’occasion de ce film.

En se fixant des règles de conduites aussi simples apparemment que tourner en lumière naturelle le plus possible, au point que les lumières artificielles leurs paraissaient étranges à regarder. Chercher à conserver de « vrais noirs » sans jamais sous exposer. Préserver tout la latitude de l’image et de la pellicule et  garder un maximum de résolution pour un minimum de grain, éviter les flares ou l’utilisation de couleurs primaires dans l’image, le tandem Malick et Lubezki va élaborer une méthode de travail qui va aboutir d’un film évènement à bien des niveaux, un chef d’oeuvre selon moi, dont je délivre ici les dessous sous un aspect technique.

Tout d’abord l’homme nous avoue son amour pour la pellicule et souhaiterait plus que tout que le tournage se suffise à lui même sans être obligé d’en passer par une étape de numérisation. L’affection qu’il porte au film démontre sa grande connaissance du métier et de l’art de restituer toute la profondeur d’un film sur un négatif. A l’heure où dès le tournage on entend trop souvent dire que l’on réglera plus tard en post-production le ou les problèmes rencontrés sur le plateau, Lubezki paraît être un homme à l’ancienne qui excelle dans son art et dont le point de vue n’est jamais une posture ou une tendance mais une action réfléchie qui aura un impact sur l’histoire, sur le jeu de acteurs, sur le spectateur.

Sur The Tree of Life, il va utiliser 3 caméras Arri, deux Arricams Lite et une petite Arri 235 pour les actions à l’épaule. La plupart des scènes sont tournées ainsi ou au SteadyCam, opéré par Joerg Widmer, seules dix pour cent du métrage le sont au trépied. Et tout cela non pas dans le but de donner un effet bougé mais bien pour donner toute la liberté aux acteurs et notamment aux enfants d’évoluer et de mener finalement la danse de cette très belle chorégraphie. Pour répondre à la problématique de la résolution et du grain de l’image le choix va se porter sur de la pellicule KodakVision 2 50T 5218 et 200T 5217 mais aucun filtre, à part un polarisant ne sera utiliser pour ne pas altérer la lumière et la qualité de l’image naturelle et le film sera capturé au format 1.85 :1 en 4 perfs toujours dans un soucis d’éviter le grain du super 35 car la majorité des scènes sont des plans très serrés des enfants ou des visages.

Une autre règle va aussi très vite se mettre en place sur la plateau, aucune marque au sol ne viendra signifier aux acteurs où se placer. Ceci dans le seul but de leur laisser toute liberté de mouvement et que leurs jeux (au sens propre, ceux des enfants) mais aussi leurs émotions et leurs envies s’expriment sans entraves et qu’ils mènent la danse avec la caméra et les opérateurs. Ceux-ci vont alors s’autoriser des mouvements de caméra suivant tous les axes et s’adaptant au mieux à la scène et à la façon dont les acteurs la joueront. L’espace ne sera pas rigide et on sera libre de s’y promener, acteurs et opérateurs formant un couple évoluant dans une sorte de valse.

Et afin de restituer au mieux cette émotion et cette sensation de flottement de la caméra, Lubezki va utiliser des objectifs grands angles. Les séries Arri ou ZeissUltra Primes de 14mm à 27mm qui lui permettront de rester au plus près de ces visages, rarement plus de 80 cm en réalité.

Enfin les trois caméras seront toujours prêtes et chargées, l’opérateur faisant la mise au point étant équipé d’un système sans fil configuré pour toutes les caméras, ainsi sans « casser » la dynamique de la scène les opérateurs passaient d’une caméra à l’autre ou simplement permutaient leurs places à la fin d’un magasin. En passant ainsi du steadycam à la Arri235 le tandem permettait ainsi une très grande fluidité et conservait au tournage toute son atmosphère et son energie. Un de ces rares tournages sur lequel on filme plus que l’on attend selon Jack Fish qui a travaillé avec Malick depuis Badlans en 1993, qui reconnaît que le réalisateur a bien une pratique assez unique de la direction d’acteur et de l’organisation des tournages. Il tourne en fait peu de filme ce qui lui laisse le temps de méditer pendant de longues années sur un film, pour autant il veut aussi y adjoindre un aspect « non préparé » et plus émotionnel qui ne peut se dégager que lors du tournage en lui-même.

Cette gymnastique autour des acteurs et autour des caméras n’allait pas sans poser des problèmes de diaph notamment, Lubezki appliquant à la lettre la règle voulant que l’on tourne quasi exclusivement à la lumière naturelle venant de l’extérieur il lui arrive de débuter une prise à T8 et de la terminer à T1.3 afin de contre balancer l’arrivé de nuages dans le ciel.  Mais plus encore le choix de ne pas disposer de réflecteurs afin de laisser le champ libre aux acteurs et à la caméra, et de ne jamais sous exposer un plan oblige le directeur de la photographie à faire des choix afin de filmer toute la famille autour d’une même table alors de 2 diaph séparent la bonne exposition des visages de chacun, et que l’extérieur qui apparaît par les fenêtres nécessiterait T64, pourtant à l’image tout paraît justement éclairé et tous les détails apparaissent, y compris ceux du ciel ou de l’herbe.

Pour se permettre de tourner de telles scènes Malick va utiliser un subterfuge assez simple, utiliser trois maisons quasi identiques mais orientées différemment afin de pouvoir tourner à plusieurs moments de la journée sans se soucier du temps qui passe et là aussi ne pas trop casser l’essence de chaque prise.

Concernant les extérieurs jour Lubezki va jouer avec les contre jour d’une part car il pense que cela apporte une profondeur dans l’image mais aussi afin de permettre les raccords au montage plus facilement entre deux scènes tournées à deux moment très différents voire dans des endroits éloignés. Quand je parle ici d’endroits différents il faut comprendre aussi des scènes baignées par une lumière hivernale du matin ou estivale du soir. Et selon lui, c’est en évitant au spectateur de pouvoir percevoir ces différences de qualité de lumière de manière directe sur le visage des acteurs que le montage peut être cohérent.

Au point d’avoir parfois placé dans une même scène les deux acteurs à contre jour alors qu’ils sont sensés être face à face à l’écran. Ainsi revoyez la séquence ou Jack (Brad Pitt) apprend à son fils à se battre et notez que cette impossibilité physique fonctionne en terme de montage et de récit filmique.

Lors des intérieurs nuit aussi l’on peut considérer que Lubezki va se jouer de la lumière et donc du spectateur car il choisira un seul dispositif portable de type Chimera 2K qu’un assistant promènera au fur et à mesure de l’évolution de la caméra et des acteurs dans la pièce recréant ainsi cet effet de lumière mouvante que pourtant, le spectateur ne perçoit pas au premier coup d’œil.

Enfin il faut noter le grand travail de colorisation effectué par Steve Scott de EFilm afin de d’abord de restituer la latitude et les détails dans les blancs perdus selon Lubezki du fait du trop grand contraste présent sur les négatifs qui nécessitent désormais un passage obligé par de la numérisation, mais aussi afin d’intégrer la séquence de 20 minutes nommée « Création ». Tout le matériel se rapportant à cet unique scène provenant en effet de sources aussi nombreuses que différentes allant du 65mm au 35mm en passant par du 4K d’une RED One ou encore du HD d’une Phantom ou de clichés RAW d’un Canon.

Si l’œuvre est magique sur le fond vous en savez désormais un peu plus sur la forme et sur l’un des artistes qui personnellement me fait aimer mon travail mais aussi et surtout aller au cinéma. Le film est sorti au moment où j’écris ces lignes, en DvD mais j’hésite à reproduire l’expérience sur un simple téléviseur aussi bon soit-il, de peur de dénaturer une partie du film. Et afin de ne pas trop abîmer l’image je vous conseille d’acquérir plutôt le BluRay version États-Unis édité par 20th Century Fox dont l’encodage est bien meilleur que celui en version française de Europa, pour exemple le débit moyen sur le premier est de 33725 Kbps contre seulement 25431 Kbps pour le second.

Pour terminer un conseil de lecture sur le sujet, le mémoire de fin d’étude de Benjamin Roux présenté à l’école nationale supérieure Louis Lumière en 2009 sur : « Lumière naturelle, entre réalisme et émotions. » où il est bien sur question de Terrence Malick.

Publicités

Mise à jour du capteur Red Dragon 6K (un goût de noël avant l’heure, mais après tout c’est l’Aïd)

Difficile de s’en tenir au seul « making of » comme annoncé dans le précédent billet lorsque Red annonce la sortie, ou plutôt la mise à jour de son capteur Dragon 6K. Alors voilà quelques détails techniques pour faire saliver ceux qui seraient sur les rangs pour passer ce cap réservé aux seules Epic, la Scarlet et en effet limitée dans cette mise à jour, à 5K pour un maximum de 60 ips, surement pour justifier des différences de prix et un placement marketing (je rappelle que les limitations de la Scarlet sont en effet purement liées au logiciel interne).

Tout d’abord le dernier né des capteurs de chez Red est donc un 6K 6144 (h) x 3160 (v), soit pour ceux qui auraient comme base du HD (1920×1080), 9 fois plus de résolutions. L’idée est simple, on se rapproche d’une part de la qualité du 35mm et surtout on a un format plus grand que celui de la diffusion qui semble se diriger vers le 4K aussi bien dans les salons que dans les meilleures salles de projection publiques.

Blacklistfilms-RED-DRAGON-Still-Frame-2

Le capteur de 19 millions de pixels permettra même de filmer en 6k à une cadence de 100 images par secondes (120 ips à 5K, 200ips à 4k et 300ips à 2K), un peu comme si votre meilleur appareil photographique avait une fonction rafale de cette puissance (le mien ne fait guère mieux que 12 images par seconde) et que vous puissiez en plus éditer cela en tant que fichier vidéo Raw mais selon le codec R3d qui permet une compression pas inutile lorsque l’on passe à la gestion des fichiers en post-production.

comme l’on parle de procédé Raw et donc d’un traitement de l’image, de sa débayérisation non pas dans la caméra mais par un ordinateur il vous faudra aussi penser à investir dans une carte permettant ce calcul plus rapidement et pour cela Jannard le patron de Red a annoncé aussi une nouvelle RedRocket X cinq fois plus rapide que le premier modèle, ainsi qu’une version de RedCine-X Pro encore améliorée.

Blacklstfilms-RED-DRAGON-Still-Frame-1

Pour en revenir aux détails techniques du capteur, il dispose et c’est là la vraie nouveauté et l’énorme amélioration d’une sensibilité efficace de 250 jusqu’à 2000 ISO et d’une plage dynamique de 16,5+ stops. en fait le capteur gagne plus de 3 stops de dynamique par rapport à son prédécesseur, un dans les hautes lumières et deux dans les noirs. L’avantage est que l’on peut se retrouver dans des situations extrêmes de contre jour ou de différentiel d’exposition dans une même scène sans pour autant perdre des informations dans les parties sombres ou trop éclairées.

On pourra dès lors aussi pousser un peu plus la sensibilité en post production comme au tournage, selon les premiers essais il semble que des valeurs autour de 4000 ISO ne provoquent pas autant de bruit que l’on pourrait s’y attendre. Donc en parallèle on pourra aussi compresser un peu plus l’image mais obtenir un résultat comparable à une compression faible en utilisant le capteur MX. On parle ici d’une équivalence entre du 17:1 avec le Dragon et du 8:1 avec une Red MX sans affecter les teintes,les nuances, les noirs ou les blancs. On peut pousser cette compression de 3:1 à 18:1 en 12 ou 16 bit Raw.

La caméra (brain only) set annoncé à 29.000$ quand la mise à jour pour les possesseur d’Epic X ou M coutera un peu moins de 10.000$.


Comprendre le Raw, au début était la courbe de Gamma

De plus en plus de caméras « Raw » font leur apparition sur  le marché, de quoi faire perdre la tête à pas mal de production, à quelques heures/jours/semaines/mois de la sortie tant attendue du capteur Dragon de chez Red. Voilà donc tout un petit billet pour s’y retrouver dans cette jungle révolutionnaire, on y parlera technique et courbe de Gamma dans un premier temps avant de faire un état des lieux de l’offre réelle de ce marché en question, pour voir ce que va changer la dernière née de chez Jim Jannard. Mais en guise d’introduction, après les déboires passagers de Aaton, me vient une nouvelle de mes amis de Ikonoskop qui annoncent arrêter un temps leur production, après maintes chutes des prix de leur petite caméra, les voilà peut être eux aussi face à un problème financier de trop.

 

A l’origine, le signal d’une télévision, et donc de sa capacité à recevoir de l’information par onde, nécessitait de réduire au maximum les informations produites par la « large » plage dynamique d’une image issue d’une caméra. Il faut comprendre que la bande passante transportant ces informations est limitée dès 1930 et dans les décennies qui suivent l’invention de la télévision hertzienne.

A chaque ouverture d’un diaph supplémentaire par exemple on double la luminosité par rapport au diaph précédent. Donc, en parallèle, on devrait doubler la bande passante requise pour transférer (ou enregistrer) le surplus d’information obtenu. Mais en pratique la bande passante n’évoluera pas, elle est en faite constante et déjà à son maximum.

La mauvaise qualité de cette méthode de transmission télévisée sans intervention aurait abouti à ne transmettre qu’une petite bande ou partie de cette plage dynamique de l’image.Le choix se porta donc, sur la réduction d’information. Et pour conserver une image diffusible et acceptable, on choisi de sacrifier les hautes lumières tendant ainsi à préserver les noirs et les tons moyens, ceux du visages. On comprendra qu’en télévision le plus important était donc le sujet et que l’on pouvait sacrifier l’arrière fond sans pour autant transformer dramatiquement l’image de base ainsi diffusée.

Red-Dragon-1024x575

 

Voilà comment et pourquoi apparu la courbe gamma dont le travail consiste à préserver la lecture d’une image en réduisant les données des seules hautes lumières d’une image enregistrée ou diffusée, et donc en maitrisant la bande passante . Cette courbe s’ajuste au fur et à mesure de l’ouverture du diaph pour compenser cet afflux de données et donc faire disparaitre du même coup tout un tas d’informations dans les blancs, pourtant nécessaires à la lecture des éléments les plus clairs. Les noirs et les skintones, eux, ne sont pas vraiment concernés par l’opération et à force de s’habituer à ces amputations de l’image l’oeil finit par dire qu’il n’y voit pas de différence, bref, c’est diffusible sur le ondes.

Toutes les caméras vidéos utilisaient alors ce système de compression du signal qui empêchait y compris en post production de récupérer les informations perdus lors d’une surexposition sur un visage ou un ciel. Problème, les caméras gardaient le même système de compression et d’enregistrement alors même que leurs capteurs gagnaient eux en dynamique. Résultat, on perdait encore plus d’informations pour respecter la bande passante maximale du procédé d’enregistrement ou de diffusion. Paradoxalement plus les capteurs devaient restituer tout un plan des noirs au hautes lumières, plus on compressait ces dernières et plus le travail en post production devenait impossible du fait de la perte plus importante d’informations dans cette partie de l’image. On préférait donc une caméra ayant une moins grande dynamique d’image mais qui de fait la détruisait moins une fois gravée sur son support. Le mieux techniquement n’était pas l’ami du bien.

 

L’évolution nécessitait alors de se détourner ou de contourner cette courbe de Gamma afin de profiter pleinement des capacités des capteurs disposant de plus grandes  plages dynamiques. C’est là qu’entre en jeu le filtre de Bayer (même si la technique aboutissant au Raw n’est pas limité à un seul type de capteur), il s’agit d’un seul capteur qui dispose d’un filtre lui permettant de reproduire le plus fidèlement possible les couleurs de l’image captée en bénéficiant de toute la dynamique de l’image.Le système consistant alors à convertir les informations de lumière en un signal vidéo couleur. Le processus multiplie l’information de lumière en la traitant pour chacune des couleurs primaires. La multiplication de traitement qu’opère ce filtre, composé de rouge, de vert et de bleu, n’est pas réalisée de manière égale en cela que les filtres verts sont deux fois plus présents que leurs homologues bleus ou rouges, afin de reproduire une image qui correspond le mieux à ce qu’un oeil naturellement.

 

Mais à nouveau après ce traitement arrive le problème de bande passante, car concernant un capteur de 4K, soit 4096×2160 pixels il faut enregistrer plus de 8 millions d’informations (8,8 millions pour être précis) à chaque image capturée. D’autant plus que si le traitement doit s’effectuer à ce moment là, il faudrait encore le répéter pour chacune des couleurs primaires qui divisent l’information et transforme la lumière en couleur. Soit un total après traitement de 26,5 millions d’informations par image.

L’idée du Raw suppose une simplification de ce traitement qui normalement vient en plus s’enrichir des ajustements fait par la caméra ou l’utilisateur au moment de l’enregistrement, tels les balances des blancs et les choix de gain qui pourtant n’affectent pas la manière de travailler pour le capteur. Car quelque soit le réglage utilisateur pour reproduire l’image qu’il voit et qu’il veut diffuser seul compte la quantité de lumière qui vient frapper le capteur et se transformer en signal vidéo couleur (RVB) qui sera ensuite modulé (ou mixé) en fonction du gain ou du degré Kelvin choisi et aboutira à une image plus ou moins bleu, verte ou rouge et plus ou moins « lumineuse » après traitement.

 

 

 

Le Raw consiste donc à ne pas traiter de la sorte le signal mais à le conserver dans l’état qu’il connait au sortir du capteur et donc à ne pas dé-Bayériser, et donc à ne pas utiliser une courbe Gamma. La somme de données informatiques est donc moins considérable que si l’on procédait à tout ces ajustements ou traitements, et permet de ne pas le « compresser ». Pour ce qui concerne les caméras, photo ou vidéo, dédiées au seul noir et blanc (Ikonoskop, Red, Leica M) là aussi le procédé consiste à simplifier le traitement en retirant le filtre de Bayer, qui nous l’avons compris ne sert qu’à injecter des informations de couleurs dans le traitement de la lumière reçue par le capteur. Cela rajoute du piqué et de la définition à l’image monochrome qui dispose de tous ses capteurs pour travailler sans être déformée par l’effet de Bayérisation. Le traitement étant extériorisé les premières Red ne pouvaient même pas relire leurs propres images, et l’utilisation d’une carte vidéo RedRocket est fortement conseillée pour pouvoir lire et transcoder ces images. Cependant les capteurs agrandissant leurs diagonales se voient aussi améliorés dans leurs capacités à capter les hautes lumières. en un mot il est maintenant utile d’avoir une très grande plage dynamique de l’image. C’est ce que le capteur Dragon de chez Red nous promet avec plus de 20 Stops de dynamique.

RedDragonDR-650x298

Pourtant on devra toujours passer par l’étape de dé-Bayerisation pour lire cette image, ce temps de traitement et de calcul est donc repoussé à plus tard. Mais on pourra aussi y ajuster le gain, ou la balance des blancs en fonction de ses propres choix. D’autant plus, rappelons le, que désormais on dispose des informations totales de l’image dans les noirs, les skintones ou les hautes lumières. Mais à ce niveau là il faudra encore choisir entre caméras disposant d’un très large capteur, celles proposant du Raw, ou du DNG, entre celles disposant d’un encodage parfois médiocre en interne mais offrant d’autres possibilités en externe, ou compressant de manière habile les fichiers afin de pouvoir réduire aussi les couts en post production, stockage et autres sans pour autant nuire réellement à l’image vue par un oeil humain. Le RedCode est le seul procédé connu et autorisé à ce jour qui permet de réduire les données de ces images Raw (Red est le seul à posséder la licence Raw pour la vidéo, les autres ne le font qu’à travers du CineDNG ou un « Raw » Maison comme Sony ou Arri. Il permet un taux de compression plus ou moins variable afin de ne pas se retrouver avec des Téra-octects de données pour un film de 5 minutes. On revient sur cela dans un prochain billet.

post-7-1329838390,0755


Autopromotion

Je profite du NAB 2013 pour faire un peu d’autopromotion du travail que j’ai pu effectuer ces derniers temps notamment pour des télévisions et clients au Moyen Orient mais aussi en Europe. Ces images proviennent de quelques beaux voyages à Singapour avec Benny Ong, à Jakarta, en Europe du nord ou de l’est, à Paris pour des timelapses , au Liban, dans des camps de réfugiés avec l’UNRWA  et jusque sur quelques plages Cannoises aussi avec Clémence Poesy.  Dans le déluge d’annonce du salon mondial de Las Vegas dont je promets de faire prochainement un petit compte rendu et une analyse des tendances voilà un peu de nostalgie et un retour sur un peu plus d’un an de travail et de rencontres.