Emmanuel Hiriart- Directeur de la Photographie

Post-Production

Comprendre le Raw, au début était la courbe de Gamma

De plus en plus de caméras « Raw » font leur apparition sur  le marché, de quoi faire perdre la tête à pas mal de production, à quelques heures/jours/semaines/mois de la sortie tant attendue du capteur Dragon de chez Red. Voilà donc tout un petit billet pour s’y retrouver dans cette jungle révolutionnaire, on y parlera technique et courbe de Gamma dans un premier temps avant de faire un état des lieux de l’offre réelle de ce marché en question, pour voir ce que va changer la dernière née de chez Jim Jannard. Mais en guise d’introduction, après les déboires passagers de Aaton, me vient une nouvelle de mes amis de Ikonoskop qui annoncent arrêter un temps leur production, après maintes chutes des prix de leur petite caméra, les voilà peut être eux aussi face à un problème financier de trop.

 

A l’origine, le signal d’une télévision, et donc de sa capacité à recevoir de l’information par onde, nécessitait de réduire au maximum les informations produites par la « large » plage dynamique d’une image issue d’une caméra. Il faut comprendre que la bande passante transportant ces informations est limitée dès 1930 et dans les décennies qui suivent l’invention de la télévision hertzienne.

A chaque ouverture d’un diaph supplémentaire par exemple on double la luminosité par rapport au diaph précédent. Donc, en parallèle, on devrait doubler la bande passante requise pour transférer (ou enregistrer) le surplus d’information obtenu. Mais en pratique la bande passante n’évoluera pas, elle est en faite constante et déjà à son maximum.

La mauvaise qualité de cette méthode de transmission télévisée sans intervention aurait abouti à ne transmettre qu’une petite bande ou partie de cette plage dynamique de l’image.Le choix se porta donc, sur la réduction d’information. Et pour conserver une image diffusible et acceptable, on choisi de sacrifier les hautes lumières tendant ainsi à préserver les noirs et les tons moyens, ceux du visages. On comprendra qu’en télévision le plus important était donc le sujet et que l’on pouvait sacrifier l’arrière fond sans pour autant transformer dramatiquement l’image de base ainsi diffusée.

Red-Dragon-1024x575

 

Voilà comment et pourquoi apparu la courbe gamma dont le travail consiste à préserver la lecture d’une image en réduisant les données des seules hautes lumières d’une image enregistrée ou diffusée, et donc en maitrisant la bande passante . Cette courbe s’ajuste au fur et à mesure de l’ouverture du diaph pour compenser cet afflux de données et donc faire disparaitre du même coup tout un tas d’informations dans les blancs, pourtant nécessaires à la lecture des éléments les plus clairs. Les noirs et les skintones, eux, ne sont pas vraiment concernés par l’opération et à force de s’habituer à ces amputations de l’image l’oeil finit par dire qu’il n’y voit pas de différence, bref, c’est diffusible sur le ondes.

Toutes les caméras vidéos utilisaient alors ce système de compression du signal qui empêchait y compris en post production de récupérer les informations perdus lors d’une surexposition sur un visage ou un ciel. Problème, les caméras gardaient le même système de compression et d’enregistrement alors même que leurs capteurs gagnaient eux en dynamique. Résultat, on perdait encore plus d’informations pour respecter la bande passante maximale du procédé d’enregistrement ou de diffusion. Paradoxalement plus les capteurs devaient restituer tout un plan des noirs au hautes lumières, plus on compressait ces dernières et plus le travail en post production devenait impossible du fait de la perte plus importante d’informations dans cette partie de l’image. On préférait donc une caméra ayant une moins grande dynamique d’image mais qui de fait la détruisait moins une fois gravée sur son support. Le mieux techniquement n’était pas l’ami du bien.

 

L’évolution nécessitait alors de se détourner ou de contourner cette courbe de Gamma afin de profiter pleinement des capacités des capteurs disposant de plus grandes  plages dynamiques. C’est là qu’entre en jeu le filtre de Bayer (même si la technique aboutissant au Raw n’est pas limité à un seul type de capteur), il s’agit d’un seul capteur qui dispose d’un filtre lui permettant de reproduire le plus fidèlement possible les couleurs de l’image captée en bénéficiant de toute la dynamique de l’image.Le système consistant alors à convertir les informations de lumière en un signal vidéo couleur. Le processus multiplie l’information de lumière en la traitant pour chacune des couleurs primaires. La multiplication de traitement qu’opère ce filtre, composé de rouge, de vert et de bleu, n’est pas réalisée de manière égale en cela que les filtres verts sont deux fois plus présents que leurs homologues bleus ou rouges, afin de reproduire une image qui correspond le mieux à ce qu’un oeil naturellement.

 

Mais à nouveau après ce traitement arrive le problème de bande passante, car concernant un capteur de 4K, soit 4096×2160 pixels il faut enregistrer plus de 8 millions d’informations (8,8 millions pour être précis) à chaque image capturée. D’autant plus que si le traitement doit s’effectuer à ce moment là, il faudrait encore le répéter pour chacune des couleurs primaires qui divisent l’information et transforme la lumière en couleur. Soit un total après traitement de 26,5 millions d’informations par image.

L’idée du Raw suppose une simplification de ce traitement qui normalement vient en plus s’enrichir des ajustements fait par la caméra ou l’utilisateur au moment de l’enregistrement, tels les balances des blancs et les choix de gain qui pourtant n’affectent pas la manière de travailler pour le capteur. Car quelque soit le réglage utilisateur pour reproduire l’image qu’il voit et qu’il veut diffuser seul compte la quantité de lumière qui vient frapper le capteur et se transformer en signal vidéo couleur (RVB) qui sera ensuite modulé (ou mixé) en fonction du gain ou du degré Kelvin choisi et aboutira à une image plus ou moins bleu, verte ou rouge et plus ou moins « lumineuse » après traitement.

 

 

 

Le Raw consiste donc à ne pas traiter de la sorte le signal mais à le conserver dans l’état qu’il connait au sortir du capteur et donc à ne pas dé-Bayériser, et donc à ne pas utiliser une courbe Gamma. La somme de données informatiques est donc moins considérable que si l’on procédait à tout ces ajustements ou traitements, et permet de ne pas le « compresser ». Pour ce qui concerne les caméras, photo ou vidéo, dédiées au seul noir et blanc (Ikonoskop, Red, Leica M) là aussi le procédé consiste à simplifier le traitement en retirant le filtre de Bayer, qui nous l’avons compris ne sert qu’à injecter des informations de couleurs dans le traitement de la lumière reçue par le capteur. Cela rajoute du piqué et de la définition à l’image monochrome qui dispose de tous ses capteurs pour travailler sans être déformée par l’effet de Bayérisation. Le traitement étant extériorisé les premières Red ne pouvaient même pas relire leurs propres images, et l’utilisation d’une carte vidéo RedRocket est fortement conseillée pour pouvoir lire et transcoder ces images. Cependant les capteurs agrandissant leurs diagonales se voient aussi améliorés dans leurs capacités à capter les hautes lumières. en un mot il est maintenant utile d’avoir une très grande plage dynamique de l’image. C’est ce que le capteur Dragon de chez Red nous promet avec plus de 20 Stops de dynamique.

RedDragonDR-650x298

Pourtant on devra toujours passer par l’étape de dé-Bayerisation pour lire cette image, ce temps de traitement et de calcul est donc repoussé à plus tard. Mais on pourra aussi y ajuster le gain, ou la balance des blancs en fonction de ses propres choix. D’autant plus, rappelons le, que désormais on dispose des informations totales de l’image dans les noirs, les skintones ou les hautes lumières. Mais à ce niveau là il faudra encore choisir entre caméras disposant d’un très large capteur, celles proposant du Raw, ou du DNG, entre celles disposant d’un encodage parfois médiocre en interne mais offrant d’autres possibilités en externe, ou compressant de manière habile les fichiers afin de pouvoir réduire aussi les couts en post production, stockage et autres sans pour autant nuire réellement à l’image vue par un oeil humain. Le RedCode est le seul procédé connu et autorisé à ce jour qui permet de réduire les données de ces images Raw (Red est le seul à posséder la licence Raw pour la vidéo, les autres ne le font qu’à travers du CineDNG ou un « Raw » Maison comme Sony ou Arri. Il permet un taux de compression plus ou moins variable afin de ne pas se retrouver avec des Téra-octects de données pour un film de 5 minutes. On revient sur cela dans un prochain billet.

post-7-1329838390,0755

Publicités

Autopromotion

Je profite du NAB 2013 pour faire un peu d’autopromotion du travail que j’ai pu effectuer ces derniers temps notamment pour des télévisions et clients au Moyen Orient mais aussi en Europe. Ces images proviennent de quelques beaux voyages à Singapour avec Benny Ong, à Jakarta, en Europe du nord ou de l’est, à Paris pour des timelapses , au Liban, dans des camps de réfugiés avec l’UNRWA  et jusque sur quelques plages Cannoises aussi avec Clémence Poesy.  Dans le déluge d’annonce du salon mondial de Las Vegas dont je promets de faire prochainement un petit compte rendu et une analyse des tendances voilà un peu de nostalgie et un retour sur un peu plus d’un an de travail et de rencontres.


Le Moyent Orient vu d’Hollywood, une mise au point nécessaire.

Une fois n’est pas coutume je laisse la technique des oeuvres que je vais aborder ici pour m’arrêter à l’image au sens de la représentation qu’elle donne du Moyen Orient.

Si vous avez vu Argo, de Ben Affleck, récemment et que cela vous a donné envie de découvrir l’Iran tant mieux, mais vous risquez d’être un peu surpris en arrivant à Téhéran, pas seulement parce que l’action se passe il y a une trentaine d’années, mais surtout parce que pas une seule image ne provient de de la capitale iranienne alors que la majorité du film s’y passe théoriquement.

En effet c’est la Turquie qui fut choisie majoritairement pour ressembler à l’Iran, pour y reconstituer ses rues et ses ambiances, mais également l’aéroport d’Ontario ou le parc Hancock et l’hôpital « Veteran Affairs » de Los Angeles qui vont servir de décor à Argo pour y tourner les scènes dans l’aéroport ou aux abords de l’ambassade US. Pour le reste, tous les arrières plans du film sont en fait des créations numériques que l’on doit à un bataillon d’entreprises spécialisées dont : Shade VFX, Christov Effects and Design, Pixel Playground, Furious FX et Method Los Angeles et Vancouver. Toutes se sont inspirées de ce qu’elles savaient ou pouvaient voir de Téhéran, et Google Earth fut donc mis à contribution au même titre que des archives photographiques datant des années 70. Sur ce plan, trouver des images d’époque et finalement plus facile que des vues contemporaines.

La photographie générale du film contribue parfaitement à rendre crédible ce récit censé se dérouler dans le passé mais l’écueil reste comme dans Syriana il y a quelques années ou Spy Game, que l’ambiance du Moyen Orient est surtout basée sur des « clichés » que l’on doit à des analystes (militaires pour la plupart) n’ayant jamais quittés leurs bunker » diplomatiques à Beyrouth notament.  Argo n’évite pas cet écueil mais l’atténue  (sauf si l’on regarde le film du point de vue iranien ou moins nord américain bien sur mais c’est un autre débat) en basant son histoire il y a quelques 33 ans.

On ne peut pas en dire autant de Homeland dont la saison deux (une saison trois est déjà au programme) se passe pour quelques épisodes au Liban en 2012. Loin de moi l’idée de vouloir que l’on tourne toujours dans les décors réels, même si je l’avoue, j’aime surtout tourner des documentaires, mais vouloir faire ressembler Beyrouth à ce que l’on voit dans la série, adaptée de « Prisonnier of war« , en dit beaucoup sur la vision nord-américaine de la région. Vous n’avez jamais mis les pieds au Liban, Claires Danes non plus; qui joue pourtant très bien l’ex agent de la CIA qui doit y rencontrer une femme d’un dirigeant de Hezbollah prête à trahir son camp et son mari. En effet si Argo à choisi la Turquie et les effets spéciaux, Homeland a porté son choix sur le Maroc et les décors naturels de Casablanca semble t-il, et cela ne fonctionne pas du tout. Une simple recherche sur Google images aurait permis aux auteurs de voir un autre Liban, moins caricatural.

Ils auraient pu choisir le Mexique, moins loin de Hollywood car étant donné la vision approximative qu’ils ont du Liban, à savoir une sorte de pays plus proche de l’Afghanistan, où Haifa Wehbe n’existerait visiblement pas ils auraient fait des économies. Claire Danes doit se teindre en brune, porter des lentilles marrons et se voiler pour que, la blonde qu’elle est, puisse naviguer au sein d’une peuplade portant keffieh et barbe. D’ailleurs dès l’aéroport, où un portrait de Saad Hariri nous fait penser qu’il serait donc premier ministre, on comprend que l’on va devoir en avaler beaucoup sans rire.

L’apothéose étant que le Hezbollah et al qaida seraient en fait la même chose, et que, au passage, la rue Hamra, qu il n’est pas dur pourtant de visiter, d’y obtenir une autorisation de tournage voir des photographies contemporaines, n’est pas un quartier où des jeeps équipées de mitrailleuses lourdes viennent sécuriser des réunions salafisto-hezbollah. Ah! dans ce monde où Haifa Wehbe n’existerait pas, les USA mélangent à peu près tout (l’Afghanistan, l’Iran, Beyrouth en 1982) et se bloquent sur une vision des années 70/80 ce qui colle parfaitement à une reconstitution historique dans Argo (d’un point de vue occidental) mais pas à une fiction des temps moderne.

La faute peut être à ce renfermement et cet ethnocentrisme y compris à ceux qui ont l’air d’être les plus ouverts sur le continent américain. Ainsi Clooney ou Affleck ne paraissent pas connus pour être des faucons ignorants, mais tout de même, à l’image de Keanu Reeves (pourtant né au Liban) qui lorsqu’il fait un documentaire (Side by Side) au demeurant très intéressant sur le cinéma numérique oublie juste de jeter un oeil en Europe, en Asie et finalement ailleurs qu’à Hollywood ou New York.


En tournage avec la Sony F3 et un Cinedeck (mise à jour)

Retour d’expérience avec la caméra son F3 alliée à un enregistreur externe cinedeck.

Tout d’abord pour tous ceux qui ont déjà eu à utiliser une Sony de type ex cam on se retrouve vite dans le fonctionnement, le positionnement des boutons et le menu permettant de configurer la caméra. On est chez sony comme à la maison avec tous les défauts d’ailleurs des caméras de la gamme (viewfinder pitoyable et inexploitable du fait de son positionnement arrière, panneau de réglage du son et du slow motion qui n’étant pas protégés viennent se dérégler ou s’enclencher au fur et à mesure de la journée et des portages).

On regrette d’abord juste l’enregistrement interne en 8bits 4:2:0 à 35Mb/s et bien sur la mise à jour payante du firmware pour avoir accès au S-Log 10 bits 4:4:4:4. Pourquoi acheter un tel objet pour se voir délivrer un codec peu honorable, pour le prix on aurait aimé une solution interne qui servent à autre chose qu’un proxy douteux.

Car si l’achat d’un enregistreur externe va délester le porte monnaie, l’ajout du Cinedeck et de batteries approuvées par la marque pour faire fonctionner la bête plutôt énergivore et c’est la caméra que l’on vient de lester de quelques kilogrammes. Et si l’on adjoint des optiques PL on arrive à un poids plutôt excessif compte tenu que l’on enregistre en HD à partir d’une caméra à la base plutôt légère.

Le Cinedeck lui, fonctionne sous windows, consomme on l’a dit beaucoup de batteries et met longtemps à s’allumer ou à s’éteindre (on doit quitter l’application puis éteindre windows).

Facile à régler, le Cinedeck confirme bien qu’il est connecté selon la méthode choisie et qu’il reçoit un flux. ensuite on sélectionne le codec en fonction de ses gouts. Tout va bien à part quelques pertes de son (via le cable hd-sdi) lors du tournage, le SSD fonctionne bien la machine chauffe un peu, le seul problème fut de trouver une place adéquat pour l’engin afin qu’il ne déséquilibre pas tout l’édifice et qu’il permette le portage de la caméra par la poignée, et sa mise à l’épaule. Enfin, il fallait aussi avoir suffisamment de place pour changer les batteries (celles de la Sony et celles de l’enregistreur) et les cartes SxS ou le SSD, tout en étant capable de manipuler l’écran tactile et les touches. Un casse tête au début et un surpoids difficile à amortir mais l’on s’habitue à tout, dommage vraiment que le 10 bits (ou 12 bits soyons réalistes) interne ne soit pas possible. Quand je pense que parfois je tourne en 4K avec simplement une RED scarlet, des revolts un moniteur tactile et des SSD pour un poids ridicule difficile de penser que l’on vient de construire tout cela pour shooter en HD et en Proress. Surtout lorsque l’on s’aperçoit que l’accès au viewfinder se fera difficilement en condition de tournage. Heureusement le vectorscope et autre parade du Cinedeck aideront grandement pour le choix du diapo.

Au final c’est tout de même assez lourd à porter mais aussi à exporter car les fichiers (pour mon cas en Proress HQ 4:4:4:4) certes assez joliment détaillés grâce au S-Log gagnent en lattitude et l’on profite alors d’une très belle caméra et d’un très bon capteur. Il y a des similitudes avec ce que l’on obtient avec une Alexa, peut être mais le bijou d’Arri est tout de même plus compact et ergonomique. Certes le prix n’est pas le même mais j’ose à peine chiffrer celui de la F3 que j’ai utilisé. Pour ce prix là, à titre personnel, je ne vois pas d’autre choix qu’une Scarlet qui propose du 4K (à mon sens une bonne base pour amortir une caméra dans les années à venir) de moins en moins cher. Le mois de novembre doit voir une nouvelle annonce de Sony concernant sa gamme F et donc la F3 en question qui devrait  être remplacée, après quelques mois de loyaux services on est vite obsolète aujourd’hui Monsieur.  On parle d’une F7 qui peut être nativement embarquera un SSD ou bien sera capable de sortir un flux 4K via un enregistreur externe qui rendra le Cinedeck obsolète aussi. D’ici là vous pourrez acheter une GoPro qui plus légère et moins gourmande vous délivrera du 4K à 15 i/s et du 2,7K à 30i/s, en tout automatique et sur une carte mini sd pour moins de 400$. L’avenir?

En parlant de SSD il me faut aussi vous conter mes problèmes lors de la relecture des images en post-production. En effet, celles-ci semblaient atteinte de drop frame, pourtant rien n’avait l’air d’avoir occasionné cela sur le terrain et l’appareil s’il avait parfois signalé des erreurs ne l’avait pas fait à ces moments là. Il semblerait (mais l’enquête est en cours) que le problème ne vienne ni de la caméra (qui elle enregistre en interne sans aucun saut) ni des câbles (dual links 1,5g). Les regards se tournent alors vers le Cinedeck et selon la maison mère de l’engin il faudrait soupçonner le formatage du SSD qui doit se faire sous Windows 7 et pas directement sous le XP installé sur l’appareil. N’ayant pas de Pc sous la main pour faire ces tests j’ai du déléguer à de courageux possesseurs de systèmes d’exploitation de ce genre. Par ailleurs le transfert des rushes du SSD vers de petits disques durs type 5400tr/m sous firewire 800 semble aussi problématique. On semble se tourner vers une solution (sous Mac) assez onéreuse via des disques Thunderbolt. Voilà pour être complet et honnête sur la question.