Emmanuel Hiriart- Directeur de la Photographie

Post-Production

Comprendre le Raw, au début était la courbe de Gamma

De plus en plus de caméras « Raw » font leur apparition sur  le marché, de quoi faire perdre la tête à pas mal de production, à quelques heures/jours/semaines/mois de la sortie tant attendue du capteur Dragon de chez Red. Voilà donc tout un petit billet pour s’y retrouver dans cette jungle révolutionnaire, on y parlera technique et courbe de Gamma dans un premier temps avant de faire un état des lieux de l’offre réelle de ce marché en question, pour voir ce que va changer la dernière née de chez Jim Jannard. Mais en guise d’introduction, après les déboires passagers de Aaton, me vient une nouvelle de mes amis de Ikonoskop qui annoncent arrêter un temps leur production, après maintes chutes des prix de leur petite caméra, les voilà peut être eux aussi face à un problème financier de trop.

 

A l’origine, le signal d’une télévision, et donc de sa capacité à recevoir de l’information par onde, nécessitait de réduire au maximum les informations produites par la « large » plage dynamique d’une image issue d’une caméra. Il faut comprendre que la bande passante transportant ces informations est limitée dès 1930 et dans les décennies qui suivent l’invention de la télévision hertzienne.

A chaque ouverture d’un diaph supplémentaire par exemple on double la luminosité par rapport au diaph précédent. Donc, en parallèle, on devrait doubler la bande passante requise pour transférer (ou enregistrer) le surplus d’information obtenu. Mais en pratique la bande passante n’évoluera pas, elle est en faite constante et déjà à son maximum.

La mauvaise qualité de cette méthode de transmission télévisée sans intervention aurait abouti à ne transmettre qu’une petite bande ou partie de cette plage dynamique de l’image.Le choix se porta donc, sur la réduction d’information. Et pour conserver une image diffusible et acceptable, on choisi de sacrifier les hautes lumières tendant ainsi à préserver les noirs et les tons moyens, ceux du visages. On comprendra qu’en télévision le plus important était donc le sujet et que l’on pouvait sacrifier l’arrière fond sans pour autant transformer dramatiquement l’image de base ainsi diffusée.

Red-Dragon-1024x575

 

Voilà comment et pourquoi apparu la courbe gamma dont le travail consiste à préserver la lecture d’une image en réduisant les données des seules hautes lumières d’une image enregistrée ou diffusée, et donc en maitrisant la bande passante . Cette courbe s’ajuste au fur et à mesure de l’ouverture du diaph pour compenser cet afflux de données et donc faire disparaitre du même coup tout un tas d’informations dans les blancs, pourtant nécessaires à la lecture des éléments les plus clairs. Les noirs et les skintones, eux, ne sont pas vraiment concernés par l’opération et à force de s’habituer à ces amputations de l’image l’oeil finit par dire qu’il n’y voit pas de différence, bref, c’est diffusible sur le ondes.

Toutes les caméras vidéos utilisaient alors ce système de compression du signal qui empêchait y compris en post production de récupérer les informations perdus lors d’une surexposition sur un visage ou un ciel. Problème, les caméras gardaient le même système de compression et d’enregistrement alors même que leurs capteurs gagnaient eux en dynamique. Résultat, on perdait encore plus d’informations pour respecter la bande passante maximale du procédé d’enregistrement ou de diffusion. Paradoxalement plus les capteurs devaient restituer tout un plan des noirs au hautes lumières, plus on compressait ces dernières et plus le travail en post production devenait impossible du fait de la perte plus importante d’informations dans cette partie de l’image. On préférait donc une caméra ayant une moins grande dynamique d’image mais qui de fait la détruisait moins une fois gravée sur son support. Le mieux techniquement n’était pas l’ami du bien.

 

L’évolution nécessitait alors de se détourner ou de contourner cette courbe de Gamma afin de profiter pleinement des capacités des capteurs disposant de plus grandes  plages dynamiques. C’est là qu’entre en jeu le filtre de Bayer (même si la technique aboutissant au Raw n’est pas limité à un seul type de capteur), il s’agit d’un seul capteur qui dispose d’un filtre lui permettant de reproduire le plus fidèlement possible les couleurs de l’image captée en bénéficiant de toute la dynamique de l’image.Le système consistant alors à convertir les informations de lumière en un signal vidéo couleur. Le processus multiplie l’information de lumière en la traitant pour chacune des couleurs primaires. La multiplication de traitement qu’opère ce filtre, composé de rouge, de vert et de bleu, n’est pas réalisée de manière égale en cela que les filtres verts sont deux fois plus présents que leurs homologues bleus ou rouges, afin de reproduire une image qui correspond le mieux à ce qu’un oeil naturellement.

 

Mais à nouveau après ce traitement arrive le problème de bande passante, car concernant un capteur de 4K, soit 4096×2160 pixels il faut enregistrer plus de 8 millions d’informations (8,8 millions pour être précis) à chaque image capturée. D’autant plus que si le traitement doit s’effectuer à ce moment là, il faudrait encore le répéter pour chacune des couleurs primaires qui divisent l’information et transforme la lumière en couleur. Soit un total après traitement de 26,5 millions d’informations par image.

L’idée du Raw suppose une simplification de ce traitement qui normalement vient en plus s’enrichir des ajustements fait par la caméra ou l’utilisateur au moment de l’enregistrement, tels les balances des blancs et les choix de gain qui pourtant n’affectent pas la manière de travailler pour le capteur. Car quelque soit le réglage utilisateur pour reproduire l’image qu’il voit et qu’il veut diffuser seul compte la quantité de lumière qui vient frapper le capteur et se transformer en signal vidéo couleur (RVB) qui sera ensuite modulé (ou mixé) en fonction du gain ou du degré Kelvin choisi et aboutira à une image plus ou moins bleu, verte ou rouge et plus ou moins « lumineuse » après traitement.

 

 

 

Le Raw consiste donc à ne pas traiter de la sorte le signal mais à le conserver dans l’état qu’il connait au sortir du capteur et donc à ne pas dé-Bayériser, et donc à ne pas utiliser une courbe Gamma. La somme de données informatiques est donc moins considérable que si l’on procédait à tout ces ajustements ou traitements, et permet de ne pas le « compresser ». Pour ce qui concerne les caméras, photo ou vidéo, dédiées au seul noir et blanc (Ikonoskop, Red, Leica M) là aussi le procédé consiste à simplifier le traitement en retirant le filtre de Bayer, qui nous l’avons compris ne sert qu’à injecter des informations de couleurs dans le traitement de la lumière reçue par le capteur. Cela rajoute du piqué et de la définition à l’image monochrome qui dispose de tous ses capteurs pour travailler sans être déformée par l’effet de Bayérisation. Le traitement étant extériorisé les premières Red ne pouvaient même pas relire leurs propres images, et l’utilisation d’une carte vidéo RedRocket est fortement conseillée pour pouvoir lire et transcoder ces images. Cependant les capteurs agrandissant leurs diagonales se voient aussi améliorés dans leurs capacités à capter les hautes lumières. en un mot il est maintenant utile d’avoir une très grande plage dynamique de l’image. C’est ce que le capteur Dragon de chez Red nous promet avec plus de 20 Stops de dynamique.

RedDragonDR-650x298

Pourtant on devra toujours passer par l’étape de dé-Bayerisation pour lire cette image, ce temps de traitement et de calcul est donc repoussé à plus tard. Mais on pourra aussi y ajuster le gain, ou la balance des blancs en fonction de ses propres choix. D’autant plus, rappelons le, que désormais on dispose des informations totales de l’image dans les noirs, les skintones ou les hautes lumières. Mais à ce niveau là il faudra encore choisir entre caméras disposant d’un très large capteur, celles proposant du Raw, ou du DNG, entre celles disposant d’un encodage parfois médiocre en interne mais offrant d’autres possibilités en externe, ou compressant de manière habile les fichiers afin de pouvoir réduire aussi les couts en post production, stockage et autres sans pour autant nuire réellement à l’image vue par un oeil humain. Le RedCode est le seul procédé connu et autorisé à ce jour qui permet de réduire les données de ces images Raw (Red est le seul à posséder la licence Raw pour la vidéo, les autres ne le font qu’à travers du CineDNG ou un « Raw » Maison comme Sony ou Arri. Il permet un taux de compression plus ou moins variable afin de ne pas se retrouver avec des Téra-octects de données pour un film de 5 minutes. On revient sur cela dans un prochain billet.

post-7-1329838390,0755


Autopromotion

Je profite du NAB 2013 pour faire un peu d’autopromotion du travail que j’ai pu effectuer ces derniers temps notamment pour des télévisions et clients au Moyen Orient mais aussi en Europe. Ces images proviennent de quelques beaux voyages à Singapour avec Benny Ong, à Jakarta, en Europe du nord ou de l’est, à Paris pour des timelapses , au Liban, dans des camps de réfugiés avec l’UNRWA  et jusque sur quelques plages Cannoises aussi avec Clémence Poesy.  Dans le déluge d’annonce du salon mondial de Las Vegas dont je promets de faire prochainement un petit compte rendu et une analyse des tendances voilà un peu de nostalgie et un retour sur un peu plus d’un an de travail et de rencontres.


Le Moyent Orient vu d’Hollywood, une mise au point nécessaire.

Une fois n’est pas coutume je laisse la technique des oeuvres que je vais aborder ici pour m’arrêter à l’image au sens de la représentation qu’elle donne du Moyen Orient.

Si vous avez vu Argo, de Ben Affleck, récemment et que cela vous a donné envie de découvrir l’Iran tant mieux, mais vous risquez d’être un peu surpris en arrivant à Téhéran, pas seulement parce que l’action se passe il y a une trentaine d’années, mais surtout parce que pas une seule image ne provient de de la capitale iranienne alors que la majorité du film s’y passe théoriquement.

En effet c’est la Turquie qui fut choisie majoritairement pour ressembler à l’Iran, pour y reconstituer ses rues et ses ambiances, mais également l’aéroport d’Ontario ou le parc Hancock et l’hôpital « Veteran Affairs » de Los Angeles qui vont servir de décor à Argo pour y tourner les scènes dans l’aéroport ou aux abords de l’ambassade US. Pour le reste, tous les arrières plans du film sont en fait des créations numériques que l’on doit à un bataillon d’entreprises spécialisées dont : Shade VFX, Christov Effects and Design, Pixel Playground, Furious FX et Method Los Angeles et Vancouver. Toutes se sont inspirées de ce qu’elles savaient ou pouvaient voir de Téhéran, et Google Earth fut donc mis à contribution au même titre que des archives photographiques datant des années 70. Sur ce plan, trouver des images d’époque et finalement plus facile que des vues contemporaines.

La photographie générale du film contribue parfaitement à rendre crédible ce récit censé se dérouler dans le passé mais l’écueil reste comme dans Syriana il y a quelques années ou Spy Game, que l’ambiance du Moyen Orient est surtout basée sur des « clichés » que l’on doit à des analystes (militaires pour la plupart) n’ayant jamais quittés leurs bunker » diplomatiques à Beyrouth notament.  Argo n’évite pas cet écueil mais l’atténue  (sauf si l’on regarde le film du point de vue iranien ou moins nord américain bien sur mais c’est un autre débat) en basant son histoire il y a quelques 33 ans.

On ne peut pas en dire autant de Homeland dont la saison deux (une saison trois est déjà au programme) se passe pour quelques épisodes au Liban en 2012. Loin de moi l’idée de vouloir que l’on tourne toujours dans les décors réels, même si je l’avoue, j’aime surtout tourner des documentaires, mais vouloir faire ressembler Beyrouth à ce que l’on voit dans la série, adaptée de « Prisonnier of war« , en dit beaucoup sur la vision nord-américaine de la région. Vous n’avez jamais mis les pieds au Liban, Claires Danes non plus; qui joue pourtant très bien l’ex agent de la CIA qui doit y rencontrer une femme d’un dirigeant de Hezbollah prête à trahir son camp et son mari. En effet si Argo à choisi la Turquie et les effets spéciaux, Homeland a porté son choix sur le Maroc et les décors naturels de Casablanca semble t-il, et cela ne fonctionne pas du tout. Une simple recherche sur Google images aurait permis aux auteurs de voir un autre Liban, moins caricatural.

Ils auraient pu choisir le Mexique, moins loin de Hollywood car étant donné la vision approximative qu’ils ont du Liban, à savoir une sorte de pays plus proche de l’Afghanistan, où Haifa Wehbe n’existerait visiblement pas ils auraient fait des économies. Claire Danes doit se teindre en brune, porter des lentilles marrons et se voiler pour que, la blonde qu’elle est, puisse naviguer au sein d’une peuplade portant keffieh et barbe. D’ailleurs dès l’aéroport, où un portrait de Saad Hariri nous fait penser qu’il serait donc premier ministre, on comprend que l’on va devoir en avaler beaucoup sans rire.

L’apothéose étant que le Hezbollah et al qaida seraient en fait la même chose, et que, au passage, la rue Hamra, qu il n’est pas dur pourtant de visiter, d’y obtenir une autorisation de tournage voir des photographies contemporaines, n’est pas un quartier où des jeeps équipées de mitrailleuses lourdes viennent sécuriser des réunions salafisto-hezbollah. Ah! dans ce monde où Haifa Wehbe n’existerait pas, les USA mélangent à peu près tout (l’Afghanistan, l’Iran, Beyrouth en 1982) et se bloquent sur une vision des années 70/80 ce qui colle parfaitement à une reconstitution historique dans Argo (d’un point de vue occidental) mais pas à une fiction des temps moderne.

La faute peut être à ce renfermement et cet ethnocentrisme y compris à ceux qui ont l’air d’être les plus ouverts sur le continent américain. Ainsi Clooney ou Affleck ne paraissent pas connus pour être des faucons ignorants, mais tout de même, à l’image de Keanu Reeves (pourtant né au Liban) qui lorsqu’il fait un documentaire (Side by Side) au demeurant très intéressant sur le cinéma numérique oublie juste de jeter un oeil en Europe, en Asie et finalement ailleurs qu’à Hollywood ou New York.


En tournage avec la Sony F3 et un Cinedeck (mise à jour)

Retour d’expérience avec la caméra son F3 alliée à un enregistreur externe cinedeck.

Tout d’abord pour tous ceux qui ont déjà eu à utiliser une Sony de type ex cam on se retrouve vite dans le fonctionnement, le positionnement des boutons et le menu permettant de configurer la caméra. On est chez sony comme à la maison avec tous les défauts d’ailleurs des caméras de la gamme (viewfinder pitoyable et inexploitable du fait de son positionnement arrière, panneau de réglage du son et du slow motion qui n’étant pas protégés viennent se dérégler ou s’enclencher au fur et à mesure de la journée et des portages).

On regrette d’abord juste l’enregistrement interne en 8bits 4:2:0 à 35Mb/s et bien sur la mise à jour payante du firmware pour avoir accès au S-Log 10 bits 4:4:4:4. Pourquoi acheter un tel objet pour se voir délivrer un codec peu honorable, pour le prix on aurait aimé une solution interne qui servent à autre chose qu’un proxy douteux.

Car si l’achat d’un enregistreur externe va délester le porte monnaie, l’ajout du Cinedeck et de batteries approuvées par la marque pour faire fonctionner la bête plutôt énergivore et c’est la caméra que l’on vient de lester de quelques kilogrammes. Et si l’on adjoint des optiques PL on arrive à un poids plutôt excessif compte tenu que l’on enregistre en HD à partir d’une caméra à la base plutôt légère.

Le Cinedeck lui, fonctionne sous windows, consomme on l’a dit beaucoup de batteries et met longtemps à s’allumer ou à s’éteindre (on doit quitter l’application puis éteindre windows).

Facile à régler, le Cinedeck confirme bien qu’il est connecté selon la méthode choisie et qu’il reçoit un flux. ensuite on sélectionne le codec en fonction de ses gouts. Tout va bien à part quelques pertes de son (via le cable hd-sdi) lors du tournage, le SSD fonctionne bien la machine chauffe un peu, le seul problème fut de trouver une place adéquat pour l’engin afin qu’il ne déséquilibre pas tout l’édifice et qu’il permette le portage de la caméra par la poignée, et sa mise à l’épaule. Enfin, il fallait aussi avoir suffisamment de place pour changer les batteries (celles de la Sony et celles de l’enregistreur) et les cartes SxS ou le SSD, tout en étant capable de manipuler l’écran tactile et les touches. Un casse tête au début et un surpoids difficile à amortir mais l’on s’habitue à tout, dommage vraiment que le 10 bits (ou 12 bits soyons réalistes) interne ne soit pas possible. Quand je pense que parfois je tourne en 4K avec simplement une RED scarlet, des revolts un moniteur tactile et des SSD pour un poids ridicule difficile de penser que l’on vient de construire tout cela pour shooter en HD et en Proress. Surtout lorsque l’on s’aperçoit que l’accès au viewfinder se fera difficilement en condition de tournage. Heureusement le vectorscope et autre parade du Cinedeck aideront grandement pour le choix du diapo.

Au final c’est tout de même assez lourd à porter mais aussi à exporter car les fichiers (pour mon cas en Proress HQ 4:4:4:4) certes assez joliment détaillés grâce au S-Log gagnent en lattitude et l’on profite alors d’une très belle caméra et d’un très bon capteur. Il y a des similitudes avec ce que l’on obtient avec une Alexa, peut être mais le bijou d’Arri est tout de même plus compact et ergonomique. Certes le prix n’est pas le même mais j’ose à peine chiffrer celui de la F3 que j’ai utilisé. Pour ce prix là, à titre personnel, je ne vois pas d’autre choix qu’une Scarlet qui propose du 4K (à mon sens une bonne base pour amortir une caméra dans les années à venir) de moins en moins cher. Le mois de novembre doit voir une nouvelle annonce de Sony concernant sa gamme F et donc la F3 en question qui devrait  être remplacée, après quelques mois de loyaux services on est vite obsolète aujourd’hui Monsieur.  On parle d’une F7 qui peut être nativement embarquera un SSD ou bien sera capable de sortir un flux 4K via un enregistreur externe qui rendra le Cinedeck obsolète aussi. D’ici là vous pourrez acheter une GoPro qui plus légère et moins gourmande vous délivrera du 4K à 15 i/s et du 2,7K à 30i/s, en tout automatique et sur une carte mini sd pour moins de 400$. L’avenir?

En parlant de SSD il me faut aussi vous conter mes problèmes lors de la relecture des images en post-production. En effet, celles-ci semblaient atteinte de drop frame, pourtant rien n’avait l’air d’avoir occasionné cela sur le terrain et l’appareil s’il avait parfois signalé des erreurs ne l’avait pas fait à ces moments là. Il semblerait (mais l’enquête est en cours) que le problème ne vienne ni de la caméra (qui elle enregistre en interne sans aucun saut) ni des câbles (dual links 1,5g). Les regards se tournent alors vers le Cinedeck et selon la maison mère de l’engin il faudrait soupçonner le formatage du SSD qui doit se faire sous Windows 7 et pas directement sous le XP installé sur l’appareil. N’ayant pas de Pc sous la main pour faire ces tests j’ai du déléguer à de courageux possesseurs de systèmes d’exploitation de ce genre. Par ailleurs le transfert des rushes du SSD vers de petits disques durs type 5400tr/m sous firewire 800 semble aussi problématique. On semble se tourner vers une solution (sous Mac) assez onéreuse via des disques Thunderbolt. Voilà pour être complet et honnête sur la question.


Tournage et post production en 4K et plus : un cas d’école « The girl with the dragon tatoo »

Afin d’exprimer encore mieux la réalité du travail en RAW, en 4K et plus, avec des caméras types RED ou ARRI quoi de mieux qu’un exemple parlant en se basant sur l’expérience des équipes ayant pu travailler notamment sur le film de David Fincher, « the girl with the dragon tattoo » aux côtés de Jeff Cronenweth le directeur de la photographie mais aussi de Peter Mavromates le superviseur de la post-production.

Le choix de ce film comme témoignage d’un tournage (et de sa post-production) en 4K me parait en effet parlant et significatif étant donné qu’il a « essuyé les plâtres » et que les techniciens et spécialistes qui se sont relayés sur l’opération ont par ailleurs parfaitement documentés leurs expériences.

Le tournage :

En septembre 2010 lors du début du tournage en Suède, l’Epic n’était pas encore achevée et allait commencer ses premiers tests (en 3D) dans la belle ville de Los Angeles sur l’homme araignée. Dès lors Cronenweth a photographié les deux tiers du film en RED One MX (4352×2176) et seulement un tiers avec l’Epic (5210×2560) une fois celle-ci stabilisée.

Le transfert de données :

The Girl with Dragon Tattoo comporte pas moins de 230.000 images pour un poids représentant un peu plus de 1Go de données par seconde de film. Le tout a été « débayérisé » (traitement RAW de l’image correspondant au développement de la pellicule pour un enregistrement numérique en quelque sorte) en DPX 10 bits en 4 et 5K dans un format d’image au ratio 2:1. Notons ici que le choix du travail en 5K représente ni plus ni moins 33% de plus de données que le 4K.

A ce stade là l’on imagine vite la place de stockage dont on a besoin, pour autant au prix du Go qui se situait alors à 20 centimes de Dollars ceci n’était pas la préoccupation des techniciens ingérant les images. Car il aurait fallu pour capturer la totalité des rushes des disques pour un équivalent de 55 To. Soit un investissement de 25.000 $. Le problème était alors plutôt d’avoir une capacité de stockage mais une unité de stockage capable de lire 1Go par seconde afin de pouvoir réaliser un playback.

Pour obtenir de telles performances les disques (configurés en Raid afin de protéger les images, mais selon un procédé qui ralentie les vitesses d’écriture et de lecture) doivent être optimisés pour pouvoir faire un playback effectif à plus de 1,5Go par seconde et surtout ne jamais être remplis à plus de 60% afin de toujours garder leurs performances.

Mais il faut aussi en passer par l’étape de transfert des données sur des disques sans vouloir y faire tourner les images pour un play-back, il faut toutefois que le temps consacré à ces transferts ne soient pas consommateurs d’un temps trop précieux lors d’un tournage. Je le sais d’autant mieux que personnellement je transfert mes rushes quels qu’ils soient sur des petits disques portables en firewire ou eSata et qu’à une vitesse maximum de 300 Mo/s soit dans notre cas d’école 3 fois le temps réel. Cette solution ne satisfaisait pas les équipes de Peter Mavromates qui avaient initialement prévues de travailler en temps réel. La solution fut apportée par MAXX Digital qui ont su optimisé ce qu’ils ont appelé la boite à chaussure, une combinaison de disques en SAS qui pouvait atteindre la vitesse maximum de 600Mo/s, on était loin du temps réel mais on s’en approchait. Le temps est de l’argent y compris quand on le passe à transférer les images, le soir au coin du petit bureau de la chambre d’hôtel, ou à l’arrière du camion.

Recadrage :

Pour tous ceux qui viennent du monde « étriqué » de la HD, il n’est pas question de recadrage dans l’image car le format ne le permet pas. C’est bien différent lorsque l’on dispose d’un format numérique de 5 millions de pixels par image, c’est en fait déjà le cas avec une caméra 2K lorsque le produit final sera aux normes HD. Ainsi l’on considère qu’il existe en 5K une marge correspondant à 20% de l’image filmée disponible pour ces opérations de recadrages et autres stabilisations. Mais autre point non négligeable cette zone supplémentaire de matériel permet aussi une meilleure transition entre les différents formats de livraison du film. Ainsi le film fut tourné comme je le disais plus haut avec un ration de 2:1, pour être diffusé en salle selon le ratio de 2.40:1 mais les normes broadcast demandant une livraison en 1.78:1 afin de correspondre au 16:9 de nos télévisions de salons. Et en suivant une telle méthode et grâce au 5K et 4K the girl with thé dragon tattoo est surement ce qui se fait de mieux en matière de résultat lors du passage au format bluray. La logique est donc de tourner en 5K pour n’en utiliser que 4K, et contrairement à ce que l’on pourrait croire on y gagne en définition car en effet on se sert de toute la capacité et la taille du capteur plutôt que de zoomer dedans.

Alors voilà encore un aspect souvent peu clair des coûts « cachés » d’une Red, étant un utilisateur de ces caméras depuis leurs sorties et ayant une pratique souvent nomade de celles-ci du fait de tournages de documentaires il me semblait intéressant de témoigner de ces quelques détails techniques un peu extérieurs à notre métier, quoi que?


Tourner en Raw, un parcours « brut ».

Il y a quelques années, qui peuvent paraitre des décennies tellement les choses évoluent vite dans notre domaine, un ami libanais réalisateur notamment de séries télévisées pour des chaines locales me demander de venir le rejoindre sur un projet qu’il comptait tourner avec une RED, il voulait mon expertise. Jusqu’ici son expérience l’avait conduit jusqu’au HD avec des caméras de type Sony EXCam ou Panasonic HVX et HPX, je l’avais d’ailleurs aidé avec celles-ci à construire un workflow efficace. Il était novateur dans cette région de travailler avec de tels formats car y compris les télévisions étaient encore au format 4:3. Si les séries télévisées sont très célèbres, les couts de production sont souvent assez serrés contrairement au vidéo clip qui lui connait des budgets exceptionnels.

Il était d’ailleurs passé un jour sur un tournage d’un clip que nous faisions et il décidait de se lancer dans l’aventure du Raw, tellement l’image lui paraissait belle. Après une longue discussion je lui conseillais d’abandonner cette idée tellement les couts de stockage et les temps de traitement ne s’adaptaient pas à son calendrier ni à son budget. Aujourd’hui que la Scarlet va « démocratiser » le Raw, la question se pose t-elle encore pour ce type de production? Était-ce une simple question de coût ou bien un choix logique que celui de rester en HD?

Qu’est ce que le RAW?

Un format que beaucoup on d’abord rencontré dans le monde de la photographie à l’époque où l’on tournait encore avec des caméras en définition standard en interpolé. Le format « brut » est directement issu des informations du capteur qui va encoder selon son propre mode propriétaire le fichier dans une dynamique bien supérieure à celle très limitée du Jpeg (8bits) dans le monde de la photo, pour être décompresser, un peu comme l’on développerait un négatif numérique comme l’on faisait avec de l’argentique jusque là.

On accède avec le Raw y compris en vidéo à un fichier qui n’a pas compressé l’image autrement que par la limitation de dynamique qui se situe à 16bits dans le meilleur des cas. Le fichier est donc compressé mais « sans perte », on maitrise la suite du traitement et donc de la post-production grâce à des images qui contiennent plus d’informations mais aussi des métadonnées. On pourra ainsi réajuster la balance des blancs, l’exposition ou d’autres paramètres comme si l’on était au tournage. On peut toujours régler tous ces éléments avec la caméra mais il s’agit alors plus d’options de monitoring, afin de se rendre compte d’un style qui a pu être choisi avec le réalisateur.

La taille du capteur, sa résolution, sa composition en terme de photopiles mais aussi sa dynamique et sa colorimétrie sont donc ici très importants et le fait de pouvoir travailler dans un espace de 12 à 16 bits par pixel et par couleur restitue pleinement l’image que l’on capture.

Tout d’abord dans quelle mesure peut-on parler de RAW? Quelles caméras proposent ce format?

J’ai toujours du mal à utiliser le terme de « Raw » pour parler d’images capturées ainsi, et je m’en explique, un peu de mathématiques viennent contrarier cette appellation générique qui cache en fait un secret très bien gardé par RED depuis le début, à savoir l’utilisation d’un algorithme de compression dérivé du Jpeg 2000. Car si l’on partait à l’époque de la RED One (qui écrivait ses données sur des cartes CF) et de son capteur de base de utilisé en format 4K 16/9 soit 4096 par 2304 pixels soit 9,368,064 pixels par images. Que l’on mutipliait ce chiffre par le nombre de bits à savoir 12 et que l’on rapportait tout cela en Mega Octets puis que l’on multiplié par le nombre d’images dans une secondes (24 au cinema) on obtenait le chiffre démesuré de 2573 Mb/s. Or à l’époque pas si lointaine que cela du REDCode 36 on enregistré plutôt à un débit de  240 Mb/s soit un ratio de compression de 10:1, on peut certes descendre à 3:1 avec l’Epic, mais, au jour où mon ami réalisateur me demandait ce qu’était le Raw voilà ce que je devais lui dire. Le RAW RED Code est avant tout un mode de compression qui pour ton projet sera toujours trop volumineux et trop lourd à traiter d’autant plus que son projet se tournait à deux caméras. Mais lorsque je tournais avec une Phantom à 2K j’avais des fichiers 8 fois plus volumineux à l’époque qu’avec ma RED. Il y a donc un débat sur la justesse du « Raw » pour traiter des fichiers .r3d. Mais RED est pourtant bien la seule compagnie de caméras ayant le brevet permettant d’utiliser le Raw avec compression…

Et pour le reste tous les dispositifs « non compressé » ou solution de type Raw ne sont pas techniquement du Raw et sont le plus souvent limitées par le fait que l’on utilise le ou les sorties HD-SDI de la caméra qui sont limitées à 10 bits. Pour autant dans cet espace restreint par rapport à du 16bits on va capturer une image dans un format que l’on pourra aussi manipuler et auquel on pourra appliquer des LUT ou bien travailler en étalonnage bien plus confortablement que dans le codes natif de la caméra au prix certes d’un matériel et d’un logiciel interne à la caméra que l’on doit souvent acheter en sus.

Ainsi la Alexa dispose de deux Codex sur le marché qui enregistre sur des SSD à raison de 15Go la minute des images qui se rapprochent techniquement du Raw mais via le T-Link de l’allemande. Il s’agit bien là d’un système assez couteux mais non compressé et sans piste audio, permettant aussi de doper la définition jusqu’à du 3K. L’image en sortie d’une telle machine devrait peser 7Mb à la capture pour arriver à 19Mb lors de son traitement. Reste à signaler que le cout d’un tel dispositif double presque celui de la caméra.

Panavision ou Sony aussi ont créé un enregistreur externe propre respectivement aux caméras haut de gamme destinées au cinéma (la Genesis ou la F35) qui ne fournissent pas de Raw et donc via le sLog et la double sortie HD-SDI on va fabriquer desimages en DPX.

Ensuite, il existe des enregistreur externes de marques tierces comme convergent design ou black magic design qui toujours en étant limité à ces 10 bits profitent pleinement des doubles sorties HD-SDI pour compenser ou bien permettent l’encodage en 4:4:4:4 afin de restituer un maximum d’informations de lumière et de couleurs. La qualité du Pro Res 4444 se situe juste en dessous du HDCam SR de Sony soit 130Gb/h

D’autres appareils eux encodent dans des codecs plus ou moins destructeurs en MXF ou en AppleProRes 422 qui peuvent aussi servir de proxys pour le montage. D’ailleurs Arri conseille la capture sur les cartes SxS en ProRes en plus du Codex à cette fin. Avec la RED j’utilise depuis peu un enregistreur externe le PIX 240 de Sound Devices qui dispose de SSD et d’un écran de contrôle et depuis une mise à jour récente se couple parfaitement avec ma caméra en cela que l’enregistrement sur ma caméra provoque celui en HD en ProRes automatiquement. Ce procédé me permet une relecture sur le plateau de mes plans mais aussi d’utiliser une seule caméra pour tous mes projets du 5K au HD.

J’en profite pour faire à nouveau une petite publicité pour cette petite caméra de type Super 16 Ikonoscop qui enregistre selon un codec CineDNG de type RAW de 12 bits pour un taux de compression assez bon mais en simple haute définition traditionnelle.

Pour autant tout ce qui est RED Code RAW n’est pas vraiment du brut. Certes on en a fini avec les compression de 42:1 mais il reste que la Scarlet ne proposera au mieux que du 6:1, l’Epic propose du 3:1 alors qu’il s’agit du même capteur ce qui laisse à penser que RED a choisi de limiter les possibilités de sa dernière production en la bridant volontairement afin de justifier le prix de la Epic.

Le crop factor lors du passage à 3K, 2K voire 1K :

On n’a pas toujours besoin d’une image capturée à 4 ou 5K, et par ailleurs l’on sait que pour tourner à plus grande vitesse on a besoin aussi de réduire à la taille de l’image afin de compenser le travail du processeur et de permettre une écriture des données sur le média. RED propose donc la possibilité de réduire la taille du capteur utile pour gagner en vitesse allant sur la Scarlet jusqu’à proposer de tourner à 1K. Mais pour être raccord dans un même plan entre l’un tourné à 4K et l’autre à 2 ou 1K il faudra aussi changer d’optique car réduire la taille du capteur induit un effet multiplicateur de la focale. Car l’on retombe d’un super 35mm à un super 16mm voire moins. il faut donc savoir jongler avec ces ratios et de savoir à l’avance que les très grands angles de certaines optiques favorisent aussi des distorsions dans l’image et que cela peut poser problème. Je souffre de cela avec l’Ikonscop qui multiplie par 2.7 toutes les valeurs de mes focales et l’utiliser en grand angle n’est pas si facile que cela. Concernant la RED voilà donc à quoi s’attendre en terme de facteur multiplicateur lorsque l’on filme à 4K, on a l’équivalent d’un APS-C donc 1,6x. à 3K c’est un capteur 4/3″ donc le facteur est 2,0x. Pour une utilisation à 2K (2048×1080)  on se retrouve à utiliser un capteur 2/3″ soit un facteur 3,9x. Enfin à 1K (1024×540 pixels) on doit multiplier par 6,4x.

Une avancée au sein du RAW le HDRx :

Comme le RAW, vous avez peut-être croisé le HDR (High Dynamique Range) dans le monde de la photographie. On est loin du temps où notre caméra filmait une demie image et la combinait avec la suivante pour restituer une pleine image par interpolation. Là aussi RED vous propose depuis la Epic de profiter de ce mode de tournage qui pour faire vite agrandit la dynamique en la poussant à 18 Stops en capturant non pas une image mais en combinant deux, la première où l’on favorise les parties sombres (+3 ou +6 stops) et la seconde où l’on va chercher des détails dans les parties de hautes lumières (-3 ou -6 stops). Ce qui se traduit par une dynamique de 18 stops quand bien des caméras sont limitées à 13,5 stops. Le prix à payer pour obtenir ces images très détaillées et permettant une nouvelle forme de prise de vues, est double, en espace matériel pour les stocker mais aussi en temps pour les traiter.

Car il existe en réalité deux formes de HDR, le Easy qui combine (mapping) ces deux images en une seule lors de la capture et donc a une influence sur la compression de chacune d’elles pour garder le le rythme de processeur, le RED Code 50 et 100 sont là pour répondre à ces cas de figure. Même effet négatif avec le HDRx qui, lui conserve sur les médias les deux images sous exposées et sur exposées en laissant le traitement lors de la post-production, mais il faudra aussi disposer d’un espace de stockage conséquent lors du tournage puis lors du montage ou de l’étalonnage mais aussi en ce qui concerne les copies de sécurité. Toutes ces questions sont aussi primordiales et doivent rentrer en ligne de compte lors du choix de tourner en RAW.

Quel Workflow pour quelle utilisation?

On en revient à la discussion avec mon ami libanais afin de voir que le parcours d’un tel tournage en RAW est long et couteux je vous dresse rapidement 3 workflows types qui prennent en compte les copies de sauvegardes, les exports et copies finales, et les ressources matériels ou logiciels afin de traiter de telles images.

Workflow RAW de bout en bout :

Tournage et montage RAW, avec LUT, conformation puis étalonnage toujours en RAW pour enfin exporter en DPX. Ceci est possible depuis peu notamment grâce à des logiciels tels que Da Vinci, Lustre ou Scratch qui gèrent ce format dans ces différentes étapes. C’est en partie une raison qui m’a poussé à me tourner vers Da Vinci afin de maitriser une chaine lors de mes tournages avec la RED, Color ne me permettant que l’étalonnage 2K et oblige le recours à des proxys, et le manque d’informations de Apple quant au futur de son programme d’étalonnage me fait opter pour une solution de repli contraignante du fait de l’exigence en terme de carte graphique de la part de BlackMagic.

Workflow Basse et haute définition :

Tournage RAW puis conversion DPX pour un montage basse définition DPX puis conformation haute définition DPX, étalonnage puis export.

Workflow transcodage en DNX ou AppleProREs :

Tournage RAW puis conversion DNX ou AppleProREs 4:2:2 ou 4:4:4 pour montage puis conformation RAW mais étalonnage en DNX ou ProRes puis export DPX

On voit que si de nombreux allers et retours sont possibles pour convenir à presque tous les processus de création, il faut aussi compter en temps de conversion et de traitement de ces images. Auquel il faut rajouter et depuis la phase de tournage un temps de copie de sauvegarde des médias sur lesquels on tourne. Il y a donc une double problématique de stockage et d’archivage tant en terme de volume que de temps passé à acquérir et dupliquer. Le projet de série dont mon ami me parlait incluait deux caméras et je fis vite le calcul en taille et en temps que cela couterait à sa production sachant qu’il tournait les épisodes les uns à la suite des autres et que son délai était compté car il n’avait pas pris en compte ce facteur au départ, la diffusion par la chaine obligeait à un rythme de montage assez rapide et les moyens de production étant limités il aurait vite été noyé dans les copies et les disques durs pleins de rushes. Tous ces couts là auraient du être négociés en amont de son contrat avec le diffuseur mais aussi le prestataire de post production. Car lorsqu’il passait du beta numérique à la haute définition en AppleProREs 422 ou 4444 il avait, en fait, franchi le gap maximal dont il était capable en tant petite production.

Pour ce qui est du Raw, il faut traiter, stocker et sécurisé des données importantes et en cela un peu comme au bon vieux temps du film, seul un laboratoire en est capable. Car, n’oublions pas que, si de plus en plus de logiciels nous permettent de travailler à moindre cout sur de tels images, la seule façon de pouvoir exploiter celles-ci dans les années à venir , et donc avec d’encore meilleurs logiciels et codecs qui vont avec, c’est de stocker en attendant.

Voilà donc où nous en sommes dans cette course à l’armement dans le seul but de rattraper la qualité que nous donne le film 35mm, et si le tout numérique nous offre beaucoup de garanties et de possibilités il n’a pas encore enterré son ancêtre. Se rajoute à cela les assureurs qui sur de nombreux projets n’acceptent pas de valider certains workflows ou certaines caméras, j’ai par exemple du mal à imposer la RED sur certains longs métrages et il n’est pas rare que de nombreux confrères habitués à des Sony ou des Alexa souffrent des mêmes réticences de la part d’assureurs qui finissent par leurs imposer leurs outils de travail ce qui est une question primordiale mais dont il s’agit de traiter ultérieurement.


La planète des Singes

Vous apprendrez très vite que je suis un fan inconditionnel de science-fiction, pour autant n’ayez crainte, ce site ne va pas devenir un blog dédié à ce thème. Mais il pourra m’arriver de vous faire part de quelques lectures qui m’accompagne sur des tournages lointains, mais plus encore des films passés ou à venir dont le sujet est donc science-fictionnesque. Le dernier en date que j’ai vu, « The rise of planet of the Apes » me permet surtout de parler de sa partie post production notamment en vous indiquant un excellent article de FxGuide (comme souvent) qui met en avant le travail de deux des nombreux studios ayant travaillé sur le film, Image Engine et Pixel Liberation Front.

http://www.fxguide.com/featured/rise-of-the-previs/

Le seul nom de ce dernier studio méritait bien que je vous fasse un petit topo sur leur travail, car les pixels comme tant d’autres choses que nous manipulons toute la journée méritent bien un front de libération.

Mais pour en revenir à nos Singes on est désormais bien loin de l’oeuvre de Pierre Boule (1963) que j’avais pu lire dans ma jeunesse, et l’on s’est aussi éloigné des différentes adaptations pour le cinéma ou la télévision qu’à connu le roman. Au total pas moins de 7 longs métrages depuis 1968 dont ce dernier en date mais aussi celui de Tim Burton en 2001. Une série animée de 13 épisodes pour la NBC et une série télévisée  de 14 épisodes que j’avais vu enfant sur une chaine française, et que j’ai revu il y a peu grâce à des sites de fans et aux sites de partage de films (est ce encore un sujet tabou?).

On s’est donc éloigné du discours du romancier dans lequel les singes à force d’évolution parvenaient à dépasser l’homme et pas seulement à le singer. Pour autant le film m’a moins désenchanté que la tentative de Tim Burton et celle un peu trop psychédélique de Ted Post en 1970, où une secte de singes voue un culte à la bombe nucléaire. Surement un peu trop marqué par son époque à la fois guerre froide et acides.

Ici le pari était plus technologique dans la mesure ou les animaux sont tous réalisés en 3d (je ne parle pas là de film en relief ) et c’est donc le studio de Venice en Californie, pixel liberation front qui s’est, avec une multitude de studios hollywoodiens, collé à la tâche. Plutôt bien fait. Mais on avait déjà trouvé nos amis au générique de Iron Man 1& 2, Avatar, Green Lantern ou Terminator Salvation, I-Robot et Matrix pour les plus anciens.

 

 

 


A l’essai sur DaVinci Resolve

La « mauvaise » nouvelle du passage à FinalCut Pro X qui certes baissait de prix, mais perdait son précieux compagnon Color, sur lequel je passais pourtant de nombreuses heures, me fit comprendre qu’il était temps de regarder à la concurrence. Je vous rassure pas du coté de Avid ou Edius, non je gardais ma suite Apple mais j’allais sur le site de BlackMagicDesign afin de télécharger la version Lite de DaVinci resolve et m’y faire la main.

Essayé c’était quasiment l’adopter, je m’apprêtais au passage à sa version payante afin de « retoucher » quelques images pour mes productions personnelles sur lesquelles un passage onéreux en post production n’est pas possible. Par ailleurs si je ne revendique pas être coloriste, les outils tels que Color ou DaVinci me permettent d’explorer cette voie à titre amateur et d’y passer un temps à lire et à regarder différent. Bref une passion abordable désormais que je vous ferai partager au fur et à mesure de mes avancées dans ce domaine.