Emmanuel Hiriart- Directeur de la Photographie

Articles tagués “red one

The Tree Of Life, Malick et Lubezki écrivent un nouveau dogme.

Après avoir soutenu à travers deux articles récents, que le seul but de nos métiers était la création et donc sa partie artistique et non pas l’éphémère conviction de liberté ou d’émancipation due à de récentes et sophistiquées technologies, je voudrais aujourd’hui appuyer mon propos par l’étude d’un cas d’école voire d’un chef d’oeuvre. J’ai eu la chance de découvrir « The Tree of life » à Cannes lors de mon séjour sur la croisette pour les webséries « Mon Premier Cannes » et « États Critiques » pour le journal Le Monde.

http://www.lemonde.fr/festival-de-cannes/video/2011/05/21/etats-critiques-1-4-a-propos-de-the-tree-of-life_1525667_766360.html

C’est notamment quelques conversations avec Jean Luc Douin, journaliste du Monde qui m’ont apportées un éclairage nouveau sur le Cinéma de Terrence Malick. Voilà pourquoi j’ai profité de sa sortie en salles pour revoir le film qui depuis avait reçu la Palme d’or, et j’ai pu étancher ma soif de comprendre le film grâce notamment à un article de American Cinematographer auquel je fais référence ici car de toute façon les interviews de Malick sont trop rares et celles sur le travail autour de ces films aussi.

Et afin de creuser les raisons d’un tel film, je me tourne et c’est bien naturel pour un directeur de la photographie vers les explications de Emmanuel Lubezki qui a officé sur de nombreux films de Malick et a pu ainsi écrire avec lui les pages d’un « nouveau dogme » dont je vais commencer par exposer les règles afin de montrer à travers des cas concrets dans ce film référence ce que peut être un point de vue filmique tant dans la réalisation que dans la lumière.

Tout d’abord qui est Emmanuel Lubezki ? Le directeur de la photographie né au Mexique en 1964 fut nommé 4 fois pour les Oscars, en 1996 pour Little Princess, en 2000 pour Sleepy Hollow, en 2006 pour The New World de Terrence Malick et en 2007 pour le très bon Children of Men. L’homme est discret et la liste complète des très bons films sur lesquels il a travaillé est longue je n’en citerai que deux, symptomatiques, selon moi, de toute la palette dont il est capable, The Assassination of Richard Nixon ou encore Burn After Reading.

On sait l’homme capable de tous les défis, dont les plus fous, filmer avec un diaph constant, et l’on comprendra mieux encore le film « odyssey » de Malick à la lecture du travail qu’il a pu effectuer avec le réalisateur à l’occasion de ce film.

En se fixant des règles de conduites aussi simples apparemment que tourner en lumière naturelle le plus possible, au point que les lumières artificielles leurs paraissaient étranges à regarder. Chercher à conserver de « vrais noirs » sans jamais sous exposer. Préserver tout la latitude de l’image et de la pellicule et  garder un maximum de résolution pour un minimum de grain, éviter les flares ou l’utilisation de couleurs primaires dans l’image, le tandem Malick et Lubezki va élaborer une méthode de travail qui va aboutir d’un film évènement à bien des niveaux, un chef d’oeuvre selon moi, dont je délivre ici les dessous sous un aspect technique.

Tout d’abord l’homme nous avoue son amour pour la pellicule et souhaiterait plus que tout que le tournage se suffise à lui même sans être obligé d’en passer par une étape de numérisation. L’affection qu’il porte au film démontre sa grande connaissance du métier et de l’art de restituer toute la profondeur d’un film sur un négatif. A l’heure où dès le tournage on entend trop souvent dire que l’on réglera plus tard en post-production le ou les problèmes rencontrés sur le plateau, Lubezki paraît être un homme à l’ancienne qui excelle dans son art et dont le point de vue n’est jamais une posture ou une tendance mais une action réfléchie qui aura un impact sur l’histoire, sur le jeu de acteurs, sur le spectateur.

Sur The Tree of Life, il va utiliser 3 caméras Arri, deux Arricams Lite et une petite Arri 235 pour les actions à l’épaule. La plupart des scènes sont tournées ainsi ou au SteadyCam, opéré par Joerg Widmer, seules dix pour cent du métrage le sont au trépied. Et tout cela non pas dans le but de donner un effet bougé mais bien pour donner toute la liberté aux acteurs et notamment aux enfants d’évoluer et de mener finalement la danse de cette très belle chorégraphie. Pour répondre à la problématique de la résolution et du grain de l’image le choix va se porter sur de la pellicule KodakVision 2 50T 5218 et 200T 5217 mais aucun filtre, à part un polarisant ne sera utiliser pour ne pas altérer la lumière et la qualité de l’image naturelle et le film sera capturé au format 1.85 :1 en 4 perfs toujours dans un soucis d’éviter le grain du super 35 car la majorité des scènes sont des plans très serrés des enfants ou des visages.

Une autre règle va aussi très vite se mettre en place sur la plateau, aucune marque au sol ne viendra signifier aux acteurs où se placer. Ceci dans le seul but de leur laisser toute liberté de mouvement et que leurs jeux (au sens propre, ceux des enfants) mais aussi leurs émotions et leurs envies s’expriment sans entraves et qu’ils mènent la danse avec la caméra et les opérateurs. Ceux-ci vont alors s’autoriser des mouvements de caméra suivant tous les axes et s’adaptant au mieux à la scène et à la façon dont les acteurs la joueront. L’espace ne sera pas rigide et on sera libre de s’y promener, acteurs et opérateurs formant un couple évoluant dans une sorte de valse.

Et afin de restituer au mieux cette émotion et cette sensation de flottement de la caméra, Lubezki va utiliser des objectifs grands angles. Les séries Arri ou ZeissUltra Primes de 14mm à 27mm qui lui permettront de rester au plus près de ces visages, rarement plus de 80 cm en réalité.

Enfin les trois caméras seront toujours prêtes et chargées, l’opérateur faisant la mise au point étant équipé d’un système sans fil configuré pour toutes les caméras, ainsi sans « casser » la dynamique de la scène les opérateurs passaient d’une caméra à l’autre ou simplement permutaient leurs places à la fin d’un magasin. En passant ainsi du steadycam à la Arri235 le tandem permettait ainsi une très grande fluidité et conservait au tournage toute son atmosphère et son energie. Un de ces rares tournages sur lequel on filme plus que l’on attend selon Jack Fish qui a travaillé avec Malick depuis Badlans en 1993, qui reconnaît que le réalisateur a bien une pratique assez unique de la direction d’acteur et de l’organisation des tournages. Il tourne en fait peu de filme ce qui lui laisse le temps de méditer pendant de longues années sur un film, pour autant il veut aussi y adjoindre un aspect « non préparé » et plus émotionnel qui ne peut se dégager que lors du tournage en lui-même.

Cette gymnastique autour des acteurs et autour des caméras n’allait pas sans poser des problèmes de diaph notamment, Lubezki appliquant à la lettre la règle voulant que l’on tourne quasi exclusivement à la lumière naturelle venant de l’extérieur il lui arrive de débuter une prise à T8 et de la terminer à T1.3 afin de contre balancer l’arrivé de nuages dans le ciel.  Mais plus encore le choix de ne pas disposer de réflecteurs afin de laisser le champ libre aux acteurs et à la caméra, et de ne jamais sous exposer un plan oblige le directeur de la photographie à faire des choix afin de filmer toute la famille autour d’une même table alors de 2 diaph séparent la bonne exposition des visages de chacun, et que l’extérieur qui apparaît par les fenêtres nécessiterait T64, pourtant à l’image tout paraît justement éclairé et tous les détails apparaissent, y compris ceux du ciel ou de l’herbe.

Pour se permettre de tourner de telles scènes Malick va utiliser un subterfuge assez simple, utiliser trois maisons quasi identiques mais orientées différemment afin de pouvoir tourner à plusieurs moments de la journée sans se soucier du temps qui passe et là aussi ne pas trop casser l’essence de chaque prise.

Concernant les extérieurs jour Lubezki va jouer avec les contre jour d’une part car il pense que cela apporte une profondeur dans l’image mais aussi afin de permettre les raccords au montage plus facilement entre deux scènes tournées à deux moment très différents voire dans des endroits éloignés. Quand je parle ici d’endroits différents il faut comprendre aussi des scènes baignées par une lumière hivernale du matin ou estivale du soir. Et selon lui, c’est en évitant au spectateur de pouvoir percevoir ces différences de qualité de lumière de manière directe sur le visage des acteurs que le montage peut être cohérent.

Au point d’avoir parfois placé dans une même scène les deux acteurs à contre jour alors qu’ils sont sensés être face à face à l’écran. Ainsi revoyez la séquence ou Jack (Brad Pitt) apprend à son fils à se battre et notez que cette impossibilité physique fonctionne en terme de montage et de récit filmique.

Lors des intérieurs nuit aussi l’on peut considérer que Lubezki va se jouer de la lumière et donc du spectateur car il choisira un seul dispositif portable de type Chimera 2K qu’un assistant promènera au fur et à mesure de l’évolution de la caméra et des acteurs dans la pièce recréant ainsi cet effet de lumière mouvante que pourtant, le spectateur ne perçoit pas au premier coup d’œil.

Enfin il faut noter le grand travail de colorisation effectué par Steve Scott de EFilm afin de d’abord de restituer la latitude et les détails dans les blancs perdus selon Lubezki du fait du trop grand contraste présent sur les négatifs qui nécessitent désormais un passage obligé par de la numérisation, mais aussi afin d’intégrer la séquence de 20 minutes nommée « Création ». Tout le matériel se rapportant à cet unique scène provenant en effet de sources aussi nombreuses que différentes allant du 65mm au 35mm en passant par du 4K d’une RED One ou encore du HD d’une Phantom ou de clichés RAW d’un Canon.

Si l’œuvre est magique sur le fond vous en savez désormais un peu plus sur la forme et sur l’un des artistes qui personnellement me fait aimer mon travail mais aussi et surtout aller au cinéma. Le film est sorti au moment où j’écris ces lignes, en DvD mais j’hésite à reproduire l’expérience sur un simple téléviseur aussi bon soit-il, de peur de dénaturer une partie du film. Et afin de ne pas trop abîmer l’image je vous conseille d’acquérir plutôt le BluRay version États-Unis édité par 20th Century Fox dont l’encodage est bien meilleur que celui en version française de Europa, pour exemple le débit moyen sur le premier est de 33725 Kbps contre seulement 25431 Kbps pour le second.

Pour terminer un conseil de lecture sur le sujet, le mémoire de fin d’étude de Benjamin Roux présenté à l’école nationale supérieure Louis Lumière en 2009 sur : « Lumière naturelle, entre réalisme et émotions. » où il est bien sur question de Terrence Malick.


Mise à jour du capteur Red Dragon 6K (un goût de noël avant l’heure, mais après tout c’est l’Aïd)

Difficile de s’en tenir au seul « making of » comme annoncé dans le précédent billet lorsque Red annonce la sortie, ou plutôt la mise à jour de son capteur Dragon 6K. Alors voilà quelques détails techniques pour faire saliver ceux qui seraient sur les rangs pour passer ce cap réservé aux seules Epic, la Scarlet et en effet limitée dans cette mise à jour, à 5K pour un maximum de 60 ips, surement pour justifier des différences de prix et un placement marketing (je rappelle que les limitations de la Scarlet sont en effet purement liées au logiciel interne).

Tout d’abord le dernier né des capteurs de chez Red est donc un 6K 6144 (h) x 3160 (v), soit pour ceux qui auraient comme base du HD (1920×1080), 9 fois plus de résolutions. L’idée est simple, on se rapproche d’une part de la qualité du 35mm et surtout on a un format plus grand que celui de la diffusion qui semble se diriger vers le 4K aussi bien dans les salons que dans les meilleures salles de projection publiques.

Blacklistfilms-RED-DRAGON-Still-Frame-2

Le capteur de 19 millions de pixels permettra même de filmer en 6k à une cadence de 100 images par secondes (120 ips à 5K, 200ips à 4k et 300ips à 2K), un peu comme si votre meilleur appareil photographique avait une fonction rafale de cette puissance (le mien ne fait guère mieux que 12 images par seconde) et que vous puissiez en plus éditer cela en tant que fichier vidéo Raw mais selon le codec R3d qui permet une compression pas inutile lorsque l’on passe à la gestion des fichiers en post-production.

comme l’on parle de procédé Raw et donc d’un traitement de l’image, de sa débayérisation non pas dans la caméra mais par un ordinateur il vous faudra aussi penser à investir dans une carte permettant ce calcul plus rapidement et pour cela Jannard le patron de Red a annoncé aussi une nouvelle RedRocket X cinq fois plus rapide que le premier modèle, ainsi qu’une version de RedCine-X Pro encore améliorée.

Blacklstfilms-RED-DRAGON-Still-Frame-1

Pour en revenir aux détails techniques du capteur, il dispose et c’est là la vraie nouveauté et l’énorme amélioration d’une sensibilité efficace de 250 jusqu’à 2000 ISO et d’une plage dynamique de 16,5+ stops. en fait le capteur gagne plus de 3 stops de dynamique par rapport à son prédécesseur, un dans les hautes lumières et deux dans les noirs. L’avantage est que l’on peut se retrouver dans des situations extrêmes de contre jour ou de différentiel d’exposition dans une même scène sans pour autant perdre des informations dans les parties sombres ou trop éclairées.

On pourra dès lors aussi pousser un peu plus la sensibilité en post production comme au tournage, selon les premiers essais il semble que des valeurs autour de 4000 ISO ne provoquent pas autant de bruit que l’on pourrait s’y attendre. Donc en parallèle on pourra aussi compresser un peu plus l’image mais obtenir un résultat comparable à une compression faible en utilisant le capteur MX. On parle ici d’une équivalence entre du 17:1 avec le Dragon et du 8:1 avec une Red MX sans affecter les teintes,les nuances, les noirs ou les blancs. On peut pousser cette compression de 3:1 à 18:1 en 12 ou 16 bit Raw.

La caméra (brain only) set annoncé à 29.000$ quand la mise à jour pour les possesseur d’Epic X ou M coutera un peu moins de 10.000$.


Comprendre le Raw, au début était la courbe de Gamma

De plus en plus de caméras « Raw » font leur apparition sur  le marché, de quoi faire perdre la tête à pas mal de production, à quelques heures/jours/semaines/mois de la sortie tant attendue du capteur Dragon de chez Red. Voilà donc tout un petit billet pour s’y retrouver dans cette jungle révolutionnaire, on y parlera technique et courbe de Gamma dans un premier temps avant de faire un état des lieux de l’offre réelle de ce marché en question, pour voir ce que va changer la dernière née de chez Jim Jannard. Mais en guise d’introduction, après les déboires passagers de Aaton, me vient une nouvelle de mes amis de Ikonoskop qui annoncent arrêter un temps leur production, après maintes chutes des prix de leur petite caméra, les voilà peut être eux aussi face à un problème financier de trop.

 

A l’origine, le signal d’une télévision, et donc de sa capacité à recevoir de l’information par onde, nécessitait de réduire au maximum les informations produites par la « large » plage dynamique d’une image issue d’une caméra. Il faut comprendre que la bande passante transportant ces informations est limitée dès 1930 et dans les décennies qui suivent l’invention de la télévision hertzienne.

A chaque ouverture d’un diaph supplémentaire par exemple on double la luminosité par rapport au diaph précédent. Donc, en parallèle, on devrait doubler la bande passante requise pour transférer (ou enregistrer) le surplus d’information obtenu. Mais en pratique la bande passante n’évoluera pas, elle est en faite constante et déjà à son maximum.

La mauvaise qualité de cette méthode de transmission télévisée sans intervention aurait abouti à ne transmettre qu’une petite bande ou partie de cette plage dynamique de l’image.Le choix se porta donc, sur la réduction d’information. Et pour conserver une image diffusible et acceptable, on choisi de sacrifier les hautes lumières tendant ainsi à préserver les noirs et les tons moyens, ceux du visages. On comprendra qu’en télévision le plus important était donc le sujet et que l’on pouvait sacrifier l’arrière fond sans pour autant transformer dramatiquement l’image de base ainsi diffusée.

Red-Dragon-1024x575

 

Voilà comment et pourquoi apparu la courbe gamma dont le travail consiste à préserver la lecture d’une image en réduisant les données des seules hautes lumières d’une image enregistrée ou diffusée, et donc en maitrisant la bande passante . Cette courbe s’ajuste au fur et à mesure de l’ouverture du diaph pour compenser cet afflux de données et donc faire disparaitre du même coup tout un tas d’informations dans les blancs, pourtant nécessaires à la lecture des éléments les plus clairs. Les noirs et les skintones, eux, ne sont pas vraiment concernés par l’opération et à force de s’habituer à ces amputations de l’image l’oeil finit par dire qu’il n’y voit pas de différence, bref, c’est diffusible sur le ondes.

Toutes les caméras vidéos utilisaient alors ce système de compression du signal qui empêchait y compris en post production de récupérer les informations perdus lors d’une surexposition sur un visage ou un ciel. Problème, les caméras gardaient le même système de compression et d’enregistrement alors même que leurs capteurs gagnaient eux en dynamique. Résultat, on perdait encore plus d’informations pour respecter la bande passante maximale du procédé d’enregistrement ou de diffusion. Paradoxalement plus les capteurs devaient restituer tout un plan des noirs au hautes lumières, plus on compressait ces dernières et plus le travail en post production devenait impossible du fait de la perte plus importante d’informations dans cette partie de l’image. On préférait donc une caméra ayant une moins grande dynamique d’image mais qui de fait la détruisait moins une fois gravée sur son support. Le mieux techniquement n’était pas l’ami du bien.

 

L’évolution nécessitait alors de se détourner ou de contourner cette courbe de Gamma afin de profiter pleinement des capacités des capteurs disposant de plus grandes  plages dynamiques. C’est là qu’entre en jeu le filtre de Bayer (même si la technique aboutissant au Raw n’est pas limité à un seul type de capteur), il s’agit d’un seul capteur qui dispose d’un filtre lui permettant de reproduire le plus fidèlement possible les couleurs de l’image captée en bénéficiant de toute la dynamique de l’image.Le système consistant alors à convertir les informations de lumière en un signal vidéo couleur. Le processus multiplie l’information de lumière en la traitant pour chacune des couleurs primaires. La multiplication de traitement qu’opère ce filtre, composé de rouge, de vert et de bleu, n’est pas réalisée de manière égale en cela que les filtres verts sont deux fois plus présents que leurs homologues bleus ou rouges, afin de reproduire une image qui correspond le mieux à ce qu’un oeil naturellement.

 

Mais à nouveau après ce traitement arrive le problème de bande passante, car concernant un capteur de 4K, soit 4096×2160 pixels il faut enregistrer plus de 8 millions d’informations (8,8 millions pour être précis) à chaque image capturée. D’autant plus que si le traitement doit s’effectuer à ce moment là, il faudrait encore le répéter pour chacune des couleurs primaires qui divisent l’information et transforme la lumière en couleur. Soit un total après traitement de 26,5 millions d’informations par image.

L’idée du Raw suppose une simplification de ce traitement qui normalement vient en plus s’enrichir des ajustements fait par la caméra ou l’utilisateur au moment de l’enregistrement, tels les balances des blancs et les choix de gain qui pourtant n’affectent pas la manière de travailler pour le capteur. Car quelque soit le réglage utilisateur pour reproduire l’image qu’il voit et qu’il veut diffuser seul compte la quantité de lumière qui vient frapper le capteur et se transformer en signal vidéo couleur (RVB) qui sera ensuite modulé (ou mixé) en fonction du gain ou du degré Kelvin choisi et aboutira à une image plus ou moins bleu, verte ou rouge et plus ou moins « lumineuse » après traitement.

 

 

 

Le Raw consiste donc à ne pas traiter de la sorte le signal mais à le conserver dans l’état qu’il connait au sortir du capteur et donc à ne pas dé-Bayériser, et donc à ne pas utiliser une courbe Gamma. La somme de données informatiques est donc moins considérable que si l’on procédait à tout ces ajustements ou traitements, et permet de ne pas le « compresser ». Pour ce qui concerne les caméras, photo ou vidéo, dédiées au seul noir et blanc (Ikonoskop, Red, Leica M) là aussi le procédé consiste à simplifier le traitement en retirant le filtre de Bayer, qui nous l’avons compris ne sert qu’à injecter des informations de couleurs dans le traitement de la lumière reçue par le capteur. Cela rajoute du piqué et de la définition à l’image monochrome qui dispose de tous ses capteurs pour travailler sans être déformée par l’effet de Bayérisation. Le traitement étant extériorisé les premières Red ne pouvaient même pas relire leurs propres images, et l’utilisation d’une carte vidéo RedRocket est fortement conseillée pour pouvoir lire et transcoder ces images. Cependant les capteurs agrandissant leurs diagonales se voient aussi améliorés dans leurs capacités à capter les hautes lumières. en un mot il est maintenant utile d’avoir une très grande plage dynamique de l’image. C’est ce que le capteur Dragon de chez Red nous promet avec plus de 20 Stops de dynamique.

RedDragonDR-650x298

Pourtant on devra toujours passer par l’étape de dé-Bayerisation pour lire cette image, ce temps de traitement et de calcul est donc repoussé à plus tard. Mais on pourra aussi y ajuster le gain, ou la balance des blancs en fonction de ses propres choix. D’autant plus, rappelons le, que désormais on dispose des informations totales de l’image dans les noirs, les skintones ou les hautes lumières. Mais à ce niveau là il faudra encore choisir entre caméras disposant d’un très large capteur, celles proposant du Raw, ou du DNG, entre celles disposant d’un encodage parfois médiocre en interne mais offrant d’autres possibilités en externe, ou compressant de manière habile les fichiers afin de pouvoir réduire aussi les couts en post production, stockage et autres sans pour autant nuire réellement à l’image vue par un oeil humain. Le RedCode est le seul procédé connu et autorisé à ce jour qui permet de réduire les données de ces images Raw (Red est le seul à posséder la licence Raw pour la vidéo, les autres ne le font qu’à travers du CineDNG ou un « Raw » Maison comme Sony ou Arri. Il permet un taux de compression plus ou moins variable afin de ne pas se retrouver avec des Téra-octects de données pour un film de 5 minutes. On revient sur cela dans un prochain billet.

post-7-1329838390,0755


Autopromotion

Je profite du NAB 2013 pour faire un peu d’autopromotion du travail que j’ai pu effectuer ces derniers temps notamment pour des télévisions et clients au Moyen Orient mais aussi en Europe. Ces images proviennent de quelques beaux voyages à Singapour avec Benny Ong, à Jakarta, en Europe du nord ou de l’est, à Paris pour des timelapses , au Liban, dans des camps de réfugiés avec l’UNRWA  et jusque sur quelques plages Cannoises aussi avec Clémence Poesy.  Dans le déluge d’annonce du salon mondial de Las Vegas dont je promets de faire prochainement un petit compte rendu et une analyse des tendances voilà un peu de nostalgie et un retour sur un peu plus d’un an de travail et de rencontres.


Tournage et post production en 4K et plus : un cas d’école « The girl with the dragon tatoo »

Afin d’exprimer encore mieux la réalité du travail en RAW, en 4K et plus, avec des caméras types RED ou ARRI quoi de mieux qu’un exemple parlant en se basant sur l’expérience des équipes ayant pu travailler notamment sur le film de David Fincher, « the girl with the dragon tattoo » aux côtés de Jeff Cronenweth le directeur de la photographie mais aussi de Peter Mavromates le superviseur de la post-production.

Le choix de ce film comme témoignage d’un tournage (et de sa post-production) en 4K me parait en effet parlant et significatif étant donné qu’il a « essuyé les plâtres » et que les techniciens et spécialistes qui se sont relayés sur l’opération ont par ailleurs parfaitement documentés leurs expériences.

Le tournage :

En septembre 2010 lors du début du tournage en Suède, l’Epic n’était pas encore achevée et allait commencer ses premiers tests (en 3D) dans la belle ville de Los Angeles sur l’homme araignée. Dès lors Cronenweth a photographié les deux tiers du film en RED One MX (4352×2176) et seulement un tiers avec l’Epic (5210×2560) une fois celle-ci stabilisée.

Le transfert de données :

The Girl with Dragon Tattoo comporte pas moins de 230.000 images pour un poids représentant un peu plus de 1Go de données par seconde de film. Le tout a été « débayérisé » (traitement RAW de l’image correspondant au développement de la pellicule pour un enregistrement numérique en quelque sorte) en DPX 10 bits en 4 et 5K dans un format d’image au ratio 2:1. Notons ici que le choix du travail en 5K représente ni plus ni moins 33% de plus de données que le 4K.

A ce stade là l’on imagine vite la place de stockage dont on a besoin, pour autant au prix du Go qui se situait alors à 20 centimes de Dollars ceci n’était pas la préoccupation des techniciens ingérant les images. Car il aurait fallu pour capturer la totalité des rushes des disques pour un équivalent de 55 To. Soit un investissement de 25.000 $. Le problème était alors plutôt d’avoir une capacité de stockage mais une unité de stockage capable de lire 1Go par seconde afin de pouvoir réaliser un playback.

Pour obtenir de telles performances les disques (configurés en Raid afin de protéger les images, mais selon un procédé qui ralentie les vitesses d’écriture et de lecture) doivent être optimisés pour pouvoir faire un playback effectif à plus de 1,5Go par seconde et surtout ne jamais être remplis à plus de 60% afin de toujours garder leurs performances.

Mais il faut aussi en passer par l’étape de transfert des données sur des disques sans vouloir y faire tourner les images pour un play-back, il faut toutefois que le temps consacré à ces transferts ne soient pas consommateurs d’un temps trop précieux lors d’un tournage. Je le sais d’autant mieux que personnellement je transfert mes rushes quels qu’ils soient sur des petits disques portables en firewire ou eSata et qu’à une vitesse maximum de 300 Mo/s soit dans notre cas d’école 3 fois le temps réel. Cette solution ne satisfaisait pas les équipes de Peter Mavromates qui avaient initialement prévues de travailler en temps réel. La solution fut apportée par MAXX Digital qui ont su optimisé ce qu’ils ont appelé la boite à chaussure, une combinaison de disques en SAS qui pouvait atteindre la vitesse maximum de 600Mo/s, on était loin du temps réel mais on s’en approchait. Le temps est de l’argent y compris quand on le passe à transférer les images, le soir au coin du petit bureau de la chambre d’hôtel, ou à l’arrière du camion.

Recadrage :

Pour tous ceux qui viennent du monde « étriqué » de la HD, il n’est pas question de recadrage dans l’image car le format ne le permet pas. C’est bien différent lorsque l’on dispose d’un format numérique de 5 millions de pixels par image, c’est en fait déjà le cas avec une caméra 2K lorsque le produit final sera aux normes HD. Ainsi l’on considère qu’il existe en 5K une marge correspondant à 20% de l’image filmée disponible pour ces opérations de recadrages et autres stabilisations. Mais autre point non négligeable cette zone supplémentaire de matériel permet aussi une meilleure transition entre les différents formats de livraison du film. Ainsi le film fut tourné comme je le disais plus haut avec un ration de 2:1, pour être diffusé en salle selon le ratio de 2.40:1 mais les normes broadcast demandant une livraison en 1.78:1 afin de correspondre au 16:9 de nos télévisions de salons. Et en suivant une telle méthode et grâce au 5K et 4K the girl with thé dragon tattoo est surement ce qui se fait de mieux en matière de résultat lors du passage au format bluray. La logique est donc de tourner en 5K pour n’en utiliser que 4K, et contrairement à ce que l’on pourrait croire on y gagne en définition car en effet on se sert de toute la capacité et la taille du capteur plutôt que de zoomer dedans.

Alors voilà encore un aspect souvent peu clair des coûts « cachés » d’une Red, étant un utilisateur de ces caméras depuis leurs sorties et ayant une pratique souvent nomade de celles-ci du fait de tournages de documentaires il me semblait intéressant de témoigner de ces quelques détails techniques un peu extérieurs à notre métier, quoi que?


La tueuse de HDSLR? Complément d’information.

Je disais dans mon post précédent que la petite caméra de Blackmagic Design serait une « tueuse » de 5D et autres C300 parce que notamment elle enregistrait en RAW en interne et qu’en cela elle remplaçait la Scarlet annoncée à l’époque 3K à 3.000$ par Jim Jannard. Ayant reçu beaucoup de commentaires depuis cet article je reviens sur ces deux informations car je vous dois des explications sur la forme comme sur le fond. Tout d’abord j’ai eu la chance de pouvoir tourner avec bon nombre de caméras existantes depuis le HI8 et l’Umatic, le DV et le Beta alors qu’en parallèle j’apprenais à manier du film 35 et 16mm sur des Arri et autres Panavision.

J’ai été comme beaucoup d’entre nous choqué et intrigué par la sortie de la Red One qui annonçait un bouleversement notable dans nos métiers en cela que le numérique pouvait faire jeu égal pour un budget bien moindre avec la pellicule. Très vite j’ai eu l’occasion de pouvoir utiliser l’engin sur des tournages et le voir évoluer ainsi que son workflow qui reste souvent méconnu des gens pressés de vouloir tourner en Red sans en connaitre la face cachée. A mon sens cela vient du fait que l’on a à faire d’une part à des clients qui ne connaissent rien à nos métiers mais on entendu parler ici ou là de la machine qu’ils veulent donc utiliser sur leur tournage (pub, clip…) voire des utilisateurs bercés au seul son du numérique qui pense non seulement rivaliser mais dépasser la qualité de la pellicule qui serait à l’image d’un film en noir et blanc d’une autre époque… À coté de ce développement à gros budget s’instaurait celui du HD, après un court passage par le presque HD à 720p, et surtout celui des médias à mémoire qui enterraient les bandes et les cassettes. Pour autant même si les modèles HVX de Panasonic ou XDCam « cinéalta » de Sony étaient alors utilisés dans quelques films (REC, District 9… aux cotés de RED notamment ) cela restait de bonnes caméras pour un format télévision mais le capteur et les codecs semblaient un peu juste pour une exploitation autre.

À cela est venu s’ajouter une petite trouvaille du secteur photographie recherche et développement de Canon qui arrivait à filmer avec son appareil au capteur CMOS full frame ou APS. Dès lors et malgré la piètre qualité du codec et donc du résultat final (moiré, aliasing et autres rolling shunter, le tout en H264) le petit gadget envahissait nos tournages et devenait même un must have. Aujourd’hui si l’on sait utiliser ces machines correctement (quand elles sont utiles) on peut faire de belles images je n’en doute pas mais l’ergonomie et l’horreur du codec nous font souvent regretter une caméra d’épaule Beta numérique. Voilà pourquoi la sortie de la petite blackmagic ou de l’ikonoskop me semble une bonne nouvelle, en cela que si le capteur est plus petit que les dslr de Canon, mais assez proches du GH2 de Panasonic, au moins on peut obtenir un fichier RAW nativement et travailler en 2,5K dans la cas de la blackmagic (Ikonoskop se limitant à du 1080P). Je rappelais que seul RED possède le brevet pour utiliser nativement du RAW sur ses caméras, c’est toujours vrai en cela que Arri doit utiliser un enregistreur externe pour accéder au saint graal et que nos petits amis cités plus haut se limitent au format 12 bits CineDNG d’Adobe.

Alors en quoi cette petite machine au look un peu rétro peut elle tuer malgré ses défauts (batterie intégrée et absence d’entrée XLR…) le HDSLR?

Le codec tout d’abord et bien meilleur rien à dire, il n’y a qu’à utiliser du RAW pour ne plus vouloir revenir à autre chose et le DNG est bon, de toute façon il est incomparable avec du H264 8 bits 4:2:0. Et pour ceux qui le 4:2:2 10 bits suffit ils auront le choix entre des fichiers AVid ou FinalCut dans un Codec reconnu par toutes les plateformes de post production.

Les métadonnées et l’apparition de mots clés, bien pratique et plus encore lorsque l’on passe en post production. L’enregistrement interne sur des SSD de 2,5 pouces de moins en moins chers.

La monture EF et ZF qui donne accès aux optiques abordables.

L’ultrascope en Thunderbolt, un plus qui change la vie lorsque l’on veut monitorer ses images de manière plus réaliste que sur un simple écran de 5D.

Le capteur serait, aux dires de nombreux commentateurs, un point à mettre dans la colonne des moins. Pourtant il permet une dynamique de 13 Stops dans l’image et contrairement aux idées reçues il ne s’agit pas d’un capteur au format 16mm, le BMD est supérieur et se situe entre un super 16mm et celui qui équipe un GH2. Il s’agit donc plutôt d’un 4/3 de pouce.

Le format d’image de 2,5K se situe en réalité en dessous du 2K en cela qu’il est plus étendu mais donc moins haut. On est bien loin du 4K qui reste de toute façon bien loin du 35mm voire de l’Imam. On dispose d’un format certes atypique mais assez proche de ce que l’on pourra diffuser avec les normes numériques qui s’imposent à nous dans le salles de cinéma qui ont investie dans des projecteurs 2K.

Certains commentateurs me rappellent que j’annonçais une norme à 4K dans les années à venir, je le pense toujours mais je sais aussi que depuis que je tourne en RED et en Alexa nombre de productions se satisfont d’une simple HD pour des raisons de budget tant au tournage qu’en post production. Pour conclure si je suis amené à décliner l’utilisation de cette caméra ce sera pour des raisons d’ergonomie ou de batterie mais pas pour des raisons de qualités de son capteur ou de son codec, je reste favorable à des caméras petits budgets plutôt qu’à des machins peu pratique et ressemblant à des arbres de noel pour filmer en 4K mais… Je n’oublie pas que le Film n’a pas encore de concurrent direct en tournage et en diffusion du moins dans les normes qui nous sont proposés aujourd’hui par l’industrie.


The price we pay

Quelques retours d’expériences avec la Red Scarlet afin de se faire une idée plus précise du prix réel de la chose.

Je sais que nombre de visiteurs de ce blog se posent la question (y compris sur google) de l’utilité d’acheter une Scarlet, ils viennent chercher ici aussi quelques arguments ou expériences rassurantes afin de confirmer leur envie assez onéreuse. Cela me pousse à vous livrer mes impressions de tournages d’un point de vue technique afin que chacun puisse en tirer les conséquences qu’il voudra et également chiffrer un peu la réalité des faits. En me basant sur les prix publics de nos amis de Red et notamment sur le fait que le package de la Scarlet en monture Canon pourrait paraitre à première vue, une offre de départ intéressante pour de nombreux petits producteurs ou directeurs de la photographie désirant s’équiper afin de pouvoir proposer leurs services en 4k, qui parait être la norme à venir pour la télévision de demain.

Quels sont dès lors les coûts financiers qui vont venir s’adjoindre à cette offre qui pour 16.000$ vous propose d’acquérir un corps et une mouture Canon EF, deux batteries, un chargeur, un SSD de 64Go,un écran tactile de 5 pouces et un câble vidéo pour celui-ci. Peut-on considérer cela comme un prêt à tourner? Soyons sérieux vous n’irez pas bien loin ainsi alors quels sont les étapes qui vont venir alourdir la note.

Premier point sur lequel il faut s’arrêter, le coût réel d’un tel investissement. Car une telle machine si on l’utilise à plein régime en 4k avec le ratio de compression le plus bas va vous dévorer de l’espace de stockage aussi bien pour enregistrer sur des SSD de 1,8 pouces que pour sauvegarder ces images sur des disques durs rapides et dotés d’une grande capacité. Ainsi, en utilisant le R6:1, la plus basse compression offerte à séjour par Red sur cette caméra il faudra compter que le moins cher des SSD de la marque d’une capacité de 64Go enregistrera 23 minutes dans un format de 4k en 24 images par seconde. Ce même support verra sa capacité passer à 46 minutes en augmentant la compression à 12:1 toujours dans le format maximum et pour la même fréquence d’image.

En parlant de fréquence souvenez vous aussi que si la Epic filme elle, en 5k, la Scarlet se contente de photographier 12 images par seconde à ce format. On doit faire face ici un bridage logiciel afin de justifier la différence de prix. En 4k on atteint enfin les 25 images par seconde, pour seulement 12 en HDRx. Si le mode HDRx vous intéresse sachez que vous devrez tourner en 3k ce qui vous délivrera la fréquence minimum de 25 images par seconde.  Et si vous avez besoin de 60 images par seconde en mode normal alors il faudra réduire le format à 2k. Voilà la triste réalité de la très haute définition. Attention également au temps nécessaire pour copier les SSD sur vos disques de sauvegarde ou de travail. En tournage loin de ma station de montage et de sa RedRocket (valeur près de 5000$) qui va vous permettre de transcoder vos fichiers RAW « quasiment » en temps réel, il faut bien 7 minutes pour transférer le matériel d’un SSD de 64Go sur un disque externe relié à mon MacBookPro. Inutile de vous dire que je n’ai même jamais eu l’idée de tenter une conversion RAW sur cette machine mais j’imagine que ça doit prendre une journée et la nuit qui va avec.

Remettons nous un instant dans les conditions d’un documentaire que j’ai tourné avec la Scarlet récemment, outre le fait que mon hôtel ne me laissait en tout et pour tout que deux prises de courant électrique dans ma chambre et que je devais jongler avec les chargeurs,  le chargeur de ma Scarlet n’accepte qu’une batterie à la fois.  La Red ayant un grand appétit et consommant chaque demie heure de tournage une petite RedVolt, prévoyez donc un maximum de batteries (le pack de 4 coute dans les 750$) et ne pensez pas qu’en passant comme moi par des batterie V-Mount via un adaptateur cela ira mieux il vous en faudra aussi quelques kilogrammes.Sachant que je tournais environ une heure et demie par jour d’images car j’avais pas mal d’interviews à faire. Il me fallait donc un minimum de 5 SSD, valeur à l’unité 950$, afin de pouvoir tourner cela, et le soir un bon nombre de disques durs externes en doublant ces 300Go quotidien sur deux supports. Il vous reste, c’est vrai toujours la possibilité de descendre en qualité tant d’image que de compression pour être moins dévoreur d’espace mais l’on aborde alors un autre aspect de la chose.

Car il existe un autre revers de cette méthode qui se situe dans le facteur multiplicateur de chaque format. En effet, en réduisant le format image sur la Red on réduit la taille effective du capteur en utilisant qu’une partie de celui-ci et donc on modifie la profondeur de champ d’une part mais surtout on augmente la valeur nominale de la focale en la multipliant par 1,6 à 4k et jusqu’à 6,4 à 1k.  Si vous devez tourner à ce format pour des raisons par exemple de HDRx ou de fréquence d’images alors votre 50mm en plein format (5k) sera devenu un 320mm du fait du capteur utile de 1024 X 540 pixels. À ce rythme là, même le plus large de mes grands angles, un 14mm f1.4 se transforme en un 89,6mm. Ça laisse rêveur sur les possibilités de tourner un plan large.

Puis il faudra aussi accessoiriser votre caméra pour lui adjoindre du son, un moniteur, un viewfinder, un enregistreur externe et que sais encore, et je ne parle pas là d’une mattebox ou d’un follow focs. L’idéal pour pouvoir rajouter ces éléments est de posséder une « cage » qui venant se fixer autour du corps de la caméra pourra accueillir vos extensions. Bien sur vous ne serez pas obligé à ce stade là de passer par le site de Red, beaucoup d’autres possibilités moins onéreuses s’offrent dont ce modèle assez solide et pratique qui devrait se vendre bien moins cher que celui sigle de rouge.

Voilà pourquoi une fois tous ces facteurs pris en compte il vous faudra savoir si le jeu en vaut la chandelle. La Scarlet reste une très belle machine qui je l’espère saura vous séduire, même si tout à un prix. Je vous ai déjà présenté des moyens de l’utiliser sur de nombreux tournages notamment en haute défintion grâce au Pix 240 de soundevice et j’en suis sur vous trouverez aussi des manières de l’accessoiriser afin qu’elle puisse s’adapter à tous vos besoins.


Tourner en Raw, un parcours « brut ».

Il y a quelques années, qui peuvent paraitre des décennies tellement les choses évoluent vite dans notre domaine, un ami libanais réalisateur notamment de séries télévisées pour des chaines locales me demander de venir le rejoindre sur un projet qu’il comptait tourner avec une RED, il voulait mon expertise. Jusqu’ici son expérience l’avait conduit jusqu’au HD avec des caméras de type Sony EXCam ou Panasonic HVX et HPX, je l’avais d’ailleurs aidé avec celles-ci à construire un workflow efficace. Il était novateur dans cette région de travailler avec de tels formats car y compris les télévisions étaient encore au format 4:3. Si les séries télévisées sont très célèbres, les couts de production sont souvent assez serrés contrairement au vidéo clip qui lui connait des budgets exceptionnels.

Il était d’ailleurs passé un jour sur un tournage d’un clip que nous faisions et il décidait de se lancer dans l’aventure du Raw, tellement l’image lui paraissait belle. Après une longue discussion je lui conseillais d’abandonner cette idée tellement les couts de stockage et les temps de traitement ne s’adaptaient pas à son calendrier ni à son budget. Aujourd’hui que la Scarlet va « démocratiser » le Raw, la question se pose t-elle encore pour ce type de production? Était-ce une simple question de coût ou bien un choix logique que celui de rester en HD?

Qu’est ce que le RAW?

Un format que beaucoup on d’abord rencontré dans le monde de la photographie à l’époque où l’on tournait encore avec des caméras en définition standard en interpolé. Le format « brut » est directement issu des informations du capteur qui va encoder selon son propre mode propriétaire le fichier dans une dynamique bien supérieure à celle très limitée du Jpeg (8bits) dans le monde de la photo, pour être décompresser, un peu comme l’on développerait un négatif numérique comme l’on faisait avec de l’argentique jusque là.

On accède avec le Raw y compris en vidéo à un fichier qui n’a pas compressé l’image autrement que par la limitation de dynamique qui se situe à 16bits dans le meilleur des cas. Le fichier est donc compressé mais « sans perte », on maitrise la suite du traitement et donc de la post-production grâce à des images qui contiennent plus d’informations mais aussi des métadonnées. On pourra ainsi réajuster la balance des blancs, l’exposition ou d’autres paramètres comme si l’on était au tournage. On peut toujours régler tous ces éléments avec la caméra mais il s’agit alors plus d’options de monitoring, afin de se rendre compte d’un style qui a pu être choisi avec le réalisateur.

La taille du capteur, sa résolution, sa composition en terme de photopiles mais aussi sa dynamique et sa colorimétrie sont donc ici très importants et le fait de pouvoir travailler dans un espace de 12 à 16 bits par pixel et par couleur restitue pleinement l’image que l’on capture.

Tout d’abord dans quelle mesure peut-on parler de RAW? Quelles caméras proposent ce format?

J’ai toujours du mal à utiliser le terme de « Raw » pour parler d’images capturées ainsi, et je m’en explique, un peu de mathématiques viennent contrarier cette appellation générique qui cache en fait un secret très bien gardé par RED depuis le début, à savoir l’utilisation d’un algorithme de compression dérivé du Jpeg 2000. Car si l’on partait à l’époque de la RED One (qui écrivait ses données sur des cartes CF) et de son capteur de base de utilisé en format 4K 16/9 soit 4096 par 2304 pixels soit 9,368,064 pixels par images. Que l’on mutipliait ce chiffre par le nombre de bits à savoir 12 et que l’on rapportait tout cela en Mega Octets puis que l’on multiplié par le nombre d’images dans une secondes (24 au cinema) on obtenait le chiffre démesuré de 2573 Mb/s. Or à l’époque pas si lointaine que cela du REDCode 36 on enregistré plutôt à un débit de  240 Mb/s soit un ratio de compression de 10:1, on peut certes descendre à 3:1 avec l’Epic, mais, au jour où mon ami réalisateur me demandait ce qu’était le Raw voilà ce que je devais lui dire. Le RAW RED Code est avant tout un mode de compression qui pour ton projet sera toujours trop volumineux et trop lourd à traiter d’autant plus que son projet se tournait à deux caméras. Mais lorsque je tournais avec une Phantom à 2K j’avais des fichiers 8 fois plus volumineux à l’époque qu’avec ma RED. Il y a donc un débat sur la justesse du « Raw » pour traiter des fichiers .r3d. Mais RED est pourtant bien la seule compagnie de caméras ayant le brevet permettant d’utiliser le Raw avec compression…

Et pour le reste tous les dispositifs « non compressé » ou solution de type Raw ne sont pas techniquement du Raw et sont le plus souvent limitées par le fait que l’on utilise le ou les sorties HD-SDI de la caméra qui sont limitées à 10 bits. Pour autant dans cet espace restreint par rapport à du 16bits on va capturer une image dans un format que l’on pourra aussi manipuler et auquel on pourra appliquer des LUT ou bien travailler en étalonnage bien plus confortablement que dans le codes natif de la caméra au prix certes d’un matériel et d’un logiciel interne à la caméra que l’on doit souvent acheter en sus.

Ainsi la Alexa dispose de deux Codex sur le marché qui enregistre sur des SSD à raison de 15Go la minute des images qui se rapprochent techniquement du Raw mais via le T-Link de l’allemande. Il s’agit bien là d’un système assez couteux mais non compressé et sans piste audio, permettant aussi de doper la définition jusqu’à du 3K. L’image en sortie d’une telle machine devrait peser 7Mb à la capture pour arriver à 19Mb lors de son traitement. Reste à signaler que le cout d’un tel dispositif double presque celui de la caméra.

Panavision ou Sony aussi ont créé un enregistreur externe propre respectivement aux caméras haut de gamme destinées au cinéma (la Genesis ou la F35) qui ne fournissent pas de Raw et donc via le sLog et la double sortie HD-SDI on va fabriquer desimages en DPX.

Ensuite, il existe des enregistreur externes de marques tierces comme convergent design ou black magic design qui toujours en étant limité à ces 10 bits profitent pleinement des doubles sorties HD-SDI pour compenser ou bien permettent l’encodage en 4:4:4:4 afin de restituer un maximum d’informations de lumière et de couleurs. La qualité du Pro Res 4444 se situe juste en dessous du HDCam SR de Sony soit 130Gb/h

D’autres appareils eux encodent dans des codecs plus ou moins destructeurs en MXF ou en AppleProRes 422 qui peuvent aussi servir de proxys pour le montage. D’ailleurs Arri conseille la capture sur les cartes SxS en ProRes en plus du Codex à cette fin. Avec la RED j’utilise depuis peu un enregistreur externe le PIX 240 de Sound Devices qui dispose de SSD et d’un écran de contrôle et depuis une mise à jour récente se couple parfaitement avec ma caméra en cela que l’enregistrement sur ma caméra provoque celui en HD en ProRes automatiquement. Ce procédé me permet une relecture sur le plateau de mes plans mais aussi d’utiliser une seule caméra pour tous mes projets du 5K au HD.

J’en profite pour faire à nouveau une petite publicité pour cette petite caméra de type Super 16 Ikonoscop qui enregistre selon un codec CineDNG de type RAW de 12 bits pour un taux de compression assez bon mais en simple haute définition traditionnelle.

Pour autant tout ce qui est RED Code RAW n’est pas vraiment du brut. Certes on en a fini avec les compression de 42:1 mais il reste que la Scarlet ne proposera au mieux que du 6:1, l’Epic propose du 3:1 alors qu’il s’agit du même capteur ce qui laisse à penser que RED a choisi de limiter les possibilités de sa dernière production en la bridant volontairement afin de justifier le prix de la Epic.

Le crop factor lors du passage à 3K, 2K voire 1K :

On n’a pas toujours besoin d’une image capturée à 4 ou 5K, et par ailleurs l’on sait que pour tourner à plus grande vitesse on a besoin aussi de réduire à la taille de l’image afin de compenser le travail du processeur et de permettre une écriture des données sur le média. RED propose donc la possibilité de réduire la taille du capteur utile pour gagner en vitesse allant sur la Scarlet jusqu’à proposer de tourner à 1K. Mais pour être raccord dans un même plan entre l’un tourné à 4K et l’autre à 2 ou 1K il faudra aussi changer d’optique car réduire la taille du capteur induit un effet multiplicateur de la focale. Car l’on retombe d’un super 35mm à un super 16mm voire moins. il faut donc savoir jongler avec ces ratios et de savoir à l’avance que les très grands angles de certaines optiques favorisent aussi des distorsions dans l’image et que cela peut poser problème. Je souffre de cela avec l’Ikonscop qui multiplie par 2.7 toutes les valeurs de mes focales et l’utiliser en grand angle n’est pas si facile que cela. Concernant la RED voilà donc à quoi s’attendre en terme de facteur multiplicateur lorsque l’on filme à 4K, on a l’équivalent d’un APS-C donc 1,6x. à 3K c’est un capteur 4/3″ donc le facteur est 2,0x. Pour une utilisation à 2K (2048×1080)  on se retrouve à utiliser un capteur 2/3″ soit un facteur 3,9x. Enfin à 1K (1024×540 pixels) on doit multiplier par 6,4x.

Une avancée au sein du RAW le HDRx :

Comme le RAW, vous avez peut-être croisé le HDR (High Dynamique Range) dans le monde de la photographie. On est loin du temps où notre caméra filmait une demie image et la combinait avec la suivante pour restituer une pleine image par interpolation. Là aussi RED vous propose depuis la Epic de profiter de ce mode de tournage qui pour faire vite agrandit la dynamique en la poussant à 18 Stops en capturant non pas une image mais en combinant deux, la première où l’on favorise les parties sombres (+3 ou +6 stops) et la seconde où l’on va chercher des détails dans les parties de hautes lumières (-3 ou -6 stops). Ce qui se traduit par une dynamique de 18 stops quand bien des caméras sont limitées à 13,5 stops. Le prix à payer pour obtenir ces images très détaillées et permettant une nouvelle forme de prise de vues, est double, en espace matériel pour les stocker mais aussi en temps pour les traiter.

Car il existe en réalité deux formes de HDR, le Easy qui combine (mapping) ces deux images en une seule lors de la capture et donc a une influence sur la compression de chacune d’elles pour garder le le rythme de processeur, le RED Code 50 et 100 sont là pour répondre à ces cas de figure. Même effet négatif avec le HDRx qui, lui conserve sur les médias les deux images sous exposées et sur exposées en laissant le traitement lors de la post-production, mais il faudra aussi disposer d’un espace de stockage conséquent lors du tournage puis lors du montage ou de l’étalonnage mais aussi en ce qui concerne les copies de sécurité. Toutes ces questions sont aussi primordiales et doivent rentrer en ligne de compte lors du choix de tourner en RAW.

Quel Workflow pour quelle utilisation?

On en revient à la discussion avec mon ami libanais afin de voir que le parcours d’un tel tournage en RAW est long et couteux je vous dresse rapidement 3 workflows types qui prennent en compte les copies de sauvegardes, les exports et copies finales, et les ressources matériels ou logiciels afin de traiter de telles images.

Workflow RAW de bout en bout :

Tournage et montage RAW, avec LUT, conformation puis étalonnage toujours en RAW pour enfin exporter en DPX. Ceci est possible depuis peu notamment grâce à des logiciels tels que Da Vinci, Lustre ou Scratch qui gèrent ce format dans ces différentes étapes. C’est en partie une raison qui m’a poussé à me tourner vers Da Vinci afin de maitriser une chaine lors de mes tournages avec la RED, Color ne me permettant que l’étalonnage 2K et oblige le recours à des proxys, et le manque d’informations de Apple quant au futur de son programme d’étalonnage me fait opter pour une solution de repli contraignante du fait de l’exigence en terme de carte graphique de la part de BlackMagic.

Workflow Basse et haute définition :

Tournage RAW puis conversion DPX pour un montage basse définition DPX puis conformation haute définition DPX, étalonnage puis export.

Workflow transcodage en DNX ou AppleProREs :

Tournage RAW puis conversion DNX ou AppleProREs 4:2:2 ou 4:4:4 pour montage puis conformation RAW mais étalonnage en DNX ou ProRes puis export DPX

On voit que si de nombreux allers et retours sont possibles pour convenir à presque tous les processus de création, il faut aussi compter en temps de conversion et de traitement de ces images. Auquel il faut rajouter et depuis la phase de tournage un temps de copie de sauvegarde des médias sur lesquels on tourne. Il y a donc une double problématique de stockage et d’archivage tant en terme de volume que de temps passé à acquérir et dupliquer. Le projet de série dont mon ami me parlait incluait deux caméras et je fis vite le calcul en taille et en temps que cela couterait à sa production sachant qu’il tournait les épisodes les uns à la suite des autres et que son délai était compté car il n’avait pas pris en compte ce facteur au départ, la diffusion par la chaine obligeait à un rythme de montage assez rapide et les moyens de production étant limités il aurait vite été noyé dans les copies et les disques durs pleins de rushes. Tous ces couts là auraient du être négociés en amont de son contrat avec le diffuseur mais aussi le prestataire de post production. Car lorsqu’il passait du beta numérique à la haute définition en AppleProREs 422 ou 4444 il avait, en fait, franchi le gap maximal dont il était capable en tant petite production.

Pour ce qui est du Raw, il faut traiter, stocker et sécurisé des données importantes et en cela un peu comme au bon vieux temps du film, seul un laboratoire en est capable. Car, n’oublions pas que, si de plus en plus de logiciels nous permettent de travailler à moindre cout sur de tels images, la seule façon de pouvoir exploiter celles-ci dans les années à venir , et donc avec d’encore meilleurs logiciels et codecs qui vont avec, c’est de stocker en attendant.

Voilà donc où nous en sommes dans cette course à l’armement dans le seul but de rattraper la qualité que nous donne le film 35mm, et si le tout numérique nous offre beaucoup de garanties et de possibilités il n’a pas encore enterré son ancêtre. Se rajoute à cela les assureurs qui sur de nombreux projets n’acceptent pas de valider certains workflows ou certaines caméras, j’ai par exemple du mal à imposer la RED sur certains longs métrages et il n’est pas rare que de nombreux confrères habitués à des Sony ou des Alexa souffrent des mêmes réticences de la part d’assureurs qui finissent par leurs imposer leurs outils de travail ce qui est une question primordiale mais dont il s’agit de traiter ultérieurement.


Encore un peu de bruit autour de la Canon C300

Un bon Capteur mais pas en 4K et un processeur grand public?

Le capteur tout d’abord sur lequel Canon a l’air d’avoir beaucoup investi mais aussi parié quant au succès de cette caméra, il est équipé de 4 photosites qui vont traiter le vert, le rouge et le bleu de la manière suivante, un est dédié au bleu, un autre pour le rouge et deux sont attachés au traitement du vert qui selon eux donne ainsi une meilleure résolution de l’image par cette prédominance.

Par contre si la capteur est meilleur que la concurrence notamment chez Sony avec sa F3, le traitement de l’image par le processeur ne délivre que de 8 bits non seulement en sortie HD-SDI mais aussi en interne, surement du fait du très lourd calcul imposé par la quantité d’information venant du capteur. Mais on se retrouve donc avec une caméra plus proche du modèle XF305 de la marque japonaise, ce dernier camescope a reçu l’agrément de tournage de la part de la BBC et l’on connait la qualité exigée par la chaine britannique pour ses productions, il s’agit là d’un ticket d’entrée pour la télévision en haute définition. Mais en terme de traitement de l’image il est dommage qu’on ne puisse pas obtenir du 10 bits, touts ceux qui ne destinent pas leurs productions au Web et qui ont envie de faire de la colorimétrie ou de compositing vont être un peu limité par ceci.

Alors si la capteur n’est pas en 4K afin de concurrencer la Scarlet voire en 2K pour se hisser au niveau de la Alexa, la Canon C300 ne tourne pas non plus à 60p en HD. Je signale que j’ai eu la surprise d’utiliser un Sony NEX 5N pour faire des photos il y peu et celui-ci délivre du 60P mais certes dans un encodage plus destructeur, mais je pensais Canon capable de telles performances.

Pour le reste on disposera de deux filtres Nd intégrés équivalents à un Nd 0,8 (perte de 2 diaph) et un Nd 2 (perte de 6 diaph). Le capteur serait nativement calibré à 850 ipso, soit l’équivalent de +2,5 dB et serait capable de descendre jusqu’à 320 ipso, soit -6dB et de monter à 30dB ce qui correspond à 20000 ipso tout de même..

Enfin on disposer de 8 pictures profiles mais pas de Technicolor CineStyle que j’avais pourtant apprécié, on se contentera du Cinema Canon Log et du EOS Standart qui correspond aux réglages basiques du 5D Mark II.

Des prix et des Gadgets qui vont avec?

Je rajoute à cela le prix des zooms que j’ai présenté hier qui tourneront autour de 47,000$ chacun, et j’en termine avec l’annonce de l’appareil sans nom officiel capable de 4k mais tournant en APS-H, soit 80% de la surface totale du dit Full Frame et qui surtout encodera en Motion Jpeg qui n’est pas pour me réjouir tant ce codec ne m’a pas convaincu jusqu’ici. L’appareil sera capable d’être maitrisé par WiFi grâce notamment à son appendice Canon WFT-E6A qui permettra à un IPad de contrôler la prise de vue, quand on voit de plus en plus de moniteurs de référence sur les plateaux de tournage on se dit que vraiment on n’a pas envie d’avoir à travailler avec l’écran brillant et taché d’un tel gadget, enfin comme Apple de son coté à l’air de vouloir stopper la production des MacPro on va devoir se faire à l’idée de pratiquer nos métiers ainsi, avec des outils chers couplés à d’autres grand public.

 La caméra, et son prix, font-ils de moi un bon chef opérateur?

Car c’est bien une tendance assez embarrassante dans nos métiers que de vouloir travailler et acquérir du matériel onéreux, à la mode et parfois tape à l’oeil. On valorise de plus en plus la caméra et de moins en moins le travail de l’opérateur et du directeur de la photographie (et je ne parle pas ici de ceux du réalisateur, du scénariste…)

Un ami me faisait cette confidence que je partage, le plus souvent on me contacte pour ma caméra et non pas pour moi. Et depuis que je possède des caméras de ce type je ressemble de plus en plus à une société de location, alors que je travaille avec celles-ci et que je n’ai pas cette vocation bien sûr.

Combien de fois n’avons nous pas entendu sur les plateaux ou sur en post-production : »la caméra fait vraiment de superbe images! ». Si j’ai appris à rester très modeste je ne peux m’empêcher de penser que la caméra fait avant tout ce que son opérateur lui fait faire, et que la technologie n’est pas tout, le temps passer à réfléchir au cadre et à la lumière sont pour bonne part dans cette image sublime.

Le marketing ne donne pas une belle image de notre avenir en tout cas.


Scarlet et Canon C300 : premières impressions.

Voilà donc les 2 petites caméras tant attendues dans notre milieu, à défaut de les avoir utilisées je me contenterai donc d’un simple exposé de leurs qualités (ou manques?) techniques et des premières impressions que cela me fait sachant qu’il est sûr que très vite j’aurai à tourner des images avec.

La Canon C300 d’abord annoncée pour 16 000$.

Je devrais dire les Canon car il s’agit de deux modèles, l’un en PL Mount, l’autre en EF Mount qui reprend un peu (malheureusement) le design des vieux camescopes de poing, mais y ajoute une technologie assez au point et suffisante pour bien des projets à savoir du 4:2:2 en codec XF Mpeg2 Long GOP à 50 Mbps enveloppé dans du MXF, le tout s’enregistrant sur des cartes CF à une cadence maximale de 30 fps, il y a deux emplacements à cet effet. et peut enregistrer simultanément sur les deux cartes, 160 minutes pour 64 Go. Il s’agit là je pense du minimum acceptable pour pouvoir livrer des images à la BBC selon leurs normes internes, que je tente d’appliquer à mes productions et aux clients pour qui je travaille même lorsqu’il ne s’agit pas de la BBC. Enfin des filtres ND sont intégrés et l’on peut retirer la poignée ou le viewfinder, deux entrées XLR sont présentes ainsi que deux sorties HD-SDI.

Le capteur de 8.3 MP lui est modelé sur un Super 35mm 3-Perf dont la taille est de 24,6 par 13,8mm.Il est sensé avoir une très belle sensibilité et dégager peu de bruit, réduire l’effet rolling shutter. On dispose aussi d’entrées pour un time code, un genlock . Voilà pour faire vite les quelques chiffres qui nous présentent la Japonaise. Bien sur les deux modèles arrivent tout équipés avec batterie, chargeur, cables et accessoires, du prêt à l’emploi ou presque comme Canon nous a habitué à le faire. Pour ceux qui voudraient en profiter pour investir dans des optiques PL ou EF, Canon va mettre sur le marché différentes focales fixes ou zooms sur lesquelles je reviendrai très vite car je dois en recevoir en test très vite. En voici la liste :

Un zoom 14,5-60mm T2.6, un téléobjectif 30-300mm T2.95-3.7, un 24mm T1.5, un 50mm T1.3 et un 85mm T 1.3.

Et puis une annonce un peu floue est venue nous vendre du rêve à savoir un appareil photographique 4K full frame, filmant à 24 images secondes mais en Motion Jpeg dans un angle de champ plus serré équivalent à un APS-H. Je vous laisse songeur comme je le suis avec un cliché de ce à quoi devrait ressembler le futur engin qui a l’air de nous rejouer l’histoire du 5D Mark II.

Pour ce qui est de nos amis de RED, la Scarlet X est enfin là, ou presque, en fait elle devrait être disponible en Décembre de cette année, au prix allant de 10 00 à 15 000$ selon les versions. Comme prévu le capteur de 14 MP est un S35(Mysterium X de 27,7mm par 14,6mm) de 5K (5210 par 2700). Équipé soit d’une monture EF soit PL, avec un option sur une monture EF en titane. Elle pourra tourner donc en 5K full frame mais seulement de 1 à 12 fps, puis, déclinera différents mode, 4K à 30 fps, 3K jusqu’à 48 fps, 1080P jusqu’à 60 fps et 1K, le tout enregistré en REDCODE RAW et pour une sensibilité équivalente à celle de la EPIC, seul distinguo, le  ratio de compression un peu plus destructeur que sa grande soeur, à savoir 6:1. Elle devrait être capable de gérer le HDRx et de tourner à 120 fps à 1K, mais les utilisateurs de Twixtor devraient pouvoir s’y retrouver à des cadences plus lentes et à un meilleur format lors du tournage.

La monture Canon supportera l’autofocus et les autres accessoires et modules de chez RED seront aussi compatibles avec ce modèle d’entré de gamme.Il faudra donc compter lui ajouter outre les batteries qui devraient être plus économes sur ce modèle, un écran tactile 5 pouces, un EVF de type Bomb assez couteux pour l’instant, une Redmote et un grip et ses nombreux boutons paramétrables.

Elle bénéficera d’une sortie SDI, clean feed en 4:2:2  en 1080P, et enregistrera sur des SSD de 1,8 pouces d’une capacité maximale pour l’instant de 256 Go. L’audio, qui pour une fois n’est pas le parent pauvre de l’opération accepte 2 canaux non compressés, 24 bits en 48KHz.

De mon coté il est évident que c’est plutôt vers la Scarlet me coeur balance, d’autant plus qu’en « complément » d’une EPIC en PL mount cette petite dernière pourrait recevoir toutes mes optiques Canon, y compris les derniers zooms annoncés plus haut et permettre un travail en post production identique ou presque que j’ai décidé de tourner en 5k ou en 2K, les deux machines me permettant aussi d’y adjoindre un Sound Devices PIX 240 pour faire du 1080P (auquel je consacrerai très vite un petit article tant sa mise à jour pour fonctionner avec la RED est simple et efficace, il embarque des SSD 2,5 pouces et capture en 4:2:2 en AppleProREs et en plus s’accompagne d’un petit écran de contrôle pour à peine plus cher que le KIPro de AJA). Je dois d’ailleurs choisir quel matériel m’accompagnera sur le tournage d’une série documentaire très prochainement il est à parier que cela pourrait être une Scarlet dès 2012, si elle arrive dans les temps?


Une petite boite et de grands rêves.

Alors que la plupart d’entre nous attend les annonces respectives de Canon et de RED ce même 3 Novembre fut choisit par Lomo (la petite société qui fait des appareils photo analogiques amusants et en plastique) pour nous révéler son dernier petit jouet à 80$, le Lomokino. Un petit boitier équipé d’un objectif de 25mm permettant manuellement d’enregistrer presque une minute de film super 35 (144 images par rouleau contenu dans la « magicbox ») dans un format de 24mm par 8,5mm avec un shutter d’une vitesse de 1/100 et un diaph d’une ouverture maximale de F/5.6. Biensur pas de son, pas d’effet si ce n’est le pur produit de votre esprit et l’histoire que vous voudrez bien mettre en scène grâce à cette simple boite.

Outre le format et le prix qui me donne envie de l’emmener un peu partout avec moi j’ai grand plaisir à tourner plein de petites séquences et de redécouvrir le plaisir simple de la pellicule. Pas de gadget, pas de 3D, pas de technologie, pas de software couteux, pour quelques dollars de plus vous pouvez même acquérir de quoi le projeter pour vos amis. Un simple objet revenant à faire des films comme Chaplin, Eisenstein un siècle plus tard et avec moins de talent ou d’audace, mais si l’audace et le talent ne sont pas là, à quoi bon investir dans un caméra à 50.000$ ou plus?

Un peu d’histoire en relief.

Parce que c’est bien là, la question qui nous reste sur les bras, à l’heure où l’industrie cinématographique agonise et tente de nous vendre sa technologie 3D/Relief, et que visiblement le public semble assimiler le concept si c’est en 3D c’est que c’est mauvais…

Car avec la 3D il semblerait que l’industrie du cinéma au sens large s’est bien moqué de nous :

Ainsi il faut se souvenir que la « technologie » 3D date de 1893 et que les lunettes bicolores que j’ai découvert petit pour visionner le monstre du Lac Vert à la télévision servaient déjà à donner du relief aux photographies de l’époque grâce à un brevet de stéréoscopie polarisante. Lorsque le Cinématographe arrive il est alors normal que les frères Lumière filment « l’arrivée du train » selon cette méthode. Plus tard de nombreux succès notamment de Hitchcock vont reprendre ce procédé afin de donner encore plus d’impact et de spectateurs à leurs oeuvres.

Je me souviens aussi que gamin j’en ai pris plein les yeux dans les cinéma IMAX grâce à la technologie de projection alternée, et que l’arrivée du numérique va bien sur continuer sur ce chemin déjà centenaire.

Un second souffle pour l’industrie.

De nombreux grands noms du cinéma vont tenter l’expérience, le plus connu d’entre eux est surement James Cameron dont Avatar (qui est tourné en simple HD) va avoir le succès que l’on connait et faire croire à l’industrie toute entière qu’ils ont là une solution à tous leurs problèmes, piratage et manque d’audience. Il est utile de noter dès maintenant qu’il semblerait que Avatar soit aussi le film le plus piraté (en 2D) de l’histoire récente du partage de films sur internet.

A l’heure de la sortie de Tintin de Spielberg, il faut aussi revenir sur le parcours des films qui ont tout joué sur la 3D pour se faire une place au box office dans le sillage du film en trompe l’oeil de Cameron.

Le pire exemple étant surement « Le Choc des Titans » dont il est de notoriété public qu’il a été tourné en 2D puis repassé à la moulinette numérique pour se présenter à nous en relief, le scénario avait du ne pas survivre à ce procédé et la médiocrité technique du résultat a du faire fuir plus d’un spectateur. La liste est devenue longue des films que l’on ose pas aller voir (même avec ses cousins) tellement on est sur que ce sont des navets et que la 3D n’est là que pour sauver les apparences. Au prix du ticket d’entrée déjà scandaleusement élevé qui va connaitre avec ce tour de magie une inflation de 10%, on comprend que beaucoup se disent que le téléchargement fera aussi bien l’affaire.

Je ne me désespère pas d’autant plus que j’ai vu au moins deux très bons films en relief depuis cette période (la créature du lac vert reste un très bon souvenir mais je vais essayer de me consacrer à des films récents).

« Pina » de Wim Wenders et « La grotte des rêves perdus » de Werner Herzog, dans les deux cas on est subjugué par les images et l’on se dit que la technique sert l’histoire comme jamais. Je suis un fidèle défenseur du cinéma et de ses salles, du rite quasi sacré auquel on se prête en rentrant dans l’obscurité et en visionnant dans le noir et le silence un film sur grand écran. Je ne considère pas que lorsque je voyage en train ou en avion  je regarde un film sur mon petit écran ridicule et dans une ambiance tout juste bonne à rater une partie de sudoku. Voilà pourquoi je retourne au cinéma pour voir, pour regarder pour écouter, pas sur à ce titre que j’ai envie de m’équiper d’un téléviseur 3D pour visionner les dernières productions, pas sur non plus que j’ai envie de filmer en 3D sauf à avoir l’occasion de travailler avec Werner Herzog. Vous me direz qu’à l’arrivée de la couleur sur nos écrans beaucoup pensaient comme moi et que l’histoire prouve qu’ils ont eu tort? Pas si sûr au moment où je filme une petite séquence en noir et blanc sur de la pellicule 35mm sur mon LomoKino. Et ce soir j’irai voir la version « longue » et restaurée de « Métropolis »…


les 7 péchés capitaux de RED.

Je dois faire un dernier retour sur cette notion de « révolution » à faire vous même tellement l’actualité (y compris à travers le décès de Steve Jobs) nous ramène ces temps-ci à ce topic. Car la mort de l’icone de l’informatique et du marketing moderne ne doit pas nous faire oublier qu’il doit beaucoup au HomeBrew Computer club, cher à Steve Wozniak, du temps où de simples amateurs éclairés ont transformé l’informatique pour la faire rentrer dans une nouvelle ère, qui depuis à pris le chemin que l’on connait, reniant par là même l’identité et la morale du club amateur pour verser dans les brevets et la propriété intellectuelle. Certains diront que la fin de cette époque du DIY (fais le toi même) à mis fin aussi à un modèle qui n’avait pas de place dans le capitalisme ambiant. Pourtant quelques marques font persister ou perdurer cet esprit ou s’en revendique, et parfois s’en serve aussi comme argument commercial : « Nous sommes différent, parce que nos créations sont le fruit d’une énergie et d’une organisation qui n’est pas celle des simples produits que vous pouvez acheter par ailleurs », voilà en résumé plus qu’un modèle économique, une idéologie que l’on peut prendre pour révolutionnaire.

Et beaucoup sont les utilisateurs qui en viennent à aimer une marque aussi parce qu’elle est différente, voire révolutionnaire.

Aujourd’hui, Jim Jannard, le patron de RED tente de nous expliquer par une message en 7 points sur le forum de la marque pourquoi « nous n’aimons pas RED ». Il voudrait par ce petit message dont la tonalité lui est propre nous dire que c’est parce que RED est différent et innovant dans bien des domaines que justement nous lui portons une affection particulière. Le problème étant que ni lui ni les utilisateurs du forum en question en semblent répondre réellement aux attentes « basiques » que nous devrions avoir vis à vis d’une caméra avec laquelle nous estimons faire l’image la plus belle possible.

Ainsi ses 7 points rappellent des vérités : ils ne sont pas représentatifs du modèle économique et institutionnel de l’industrie globale, ils parlent trop, ils ne tiennent pas les délais, et ceux-ci sont trop longs, ils feraient trop de mise à jour, ils changent trop de stratégies, et ne donnent pas assez de détails ou de documents notamment écrits à leurs utilisateurs…

Mais aucune de ces vérités ne semble vraiment écorner l’image de la marque, en effet sauf à penser que certains points peuvent nous faire penser qu’ils sont trop amateurs, et qu’ils ne savent pas vraiment où ni comment ils vont, le simple fait que leurs caméras sont utilisés par tel ou tel grand nom de l’industrie, puis que pour le prix nous pourrons nous aussi filmer non pas en 1080P mais en 4 ou 5K, nous font oublier que si nous aimons les belles images nous aimons aussi les beaux objets, et qu’en tant que travailleur de cet industrie nous voulons aussi des conditions de travail si ce n’est confortable en tout cas efficaces. Parce que Jim semble oublier totalement le design de sa caméra dans « ses critiques » et son ergonomie voire son incapacité à fonctionner réellement au moment où nous la recevons. Que dire d’une caméra qui aurait soit un view finder soit un moniteur mais pas les deux en même temps, d’une caméra qui chaufferait tant qu’on devrait la refroidir avec de la glace, d’une caméra qui serait livrée sans ses batteries… Tous ces délais et améliorations du firmware notamment sont en fait un moyen de nous faire croire que nous participons à l’écriture de belles pages du cinéma. Ainsi en me donnant l’illusion que je suis privilégié car j’ai enfin recu ma caméra (non complète) avant les autres au prix fort et après un attente presque désespérée j’ai cette impression de faire partie d’une famille là où je ne suis qu’un client. En devant essuyer les platres au cours des premières heures, et en constatant que ces heures là sont telle une journée sans fin, je pense etre un ami de Jim voire un réalisateur qui compte et qui fait avancer les choses, alors que je me tue en tournage puis en post-production à chercher des solutions. L’absence de documentation ou d’informations précise m’obligeant à chercher tel un geek que je deviens sur le net la moindre petite indication qui me permettra d’utiliser ma machine…

Et cela est bien confirmé par les réponses des utilisateurs face à Jim le Gourou (malgré lui?) pour qui j’ai le plus grand respect par ailleurs mais dont je regrette qu’aucun de ses points ne parlent de l’ergonomie et l’utilisation de sa caméra dans le seul but de faire des images avec un bel objet capable, et puissant mais pas seulement.

Quelques jours après la mort de Steve Jobs je sais qu’il n’est pas bon de tirer sur les mythes et les « grands hommes » de notre industrie et ça n’est d’ailleurs pas mon propos, leurs produits ont changé ma façon de travailler et ma conception même du travail mais il est alors de notre devoir de ne pas nous laisser émerveiller par des effets d’annonce et de la poudre aux yeux, leurs péchés ne sont pas tant ceux là, nous devons leur dire, n’oubliez pas le but même de vos machines, à savoir créer.


Révolution numérique?

Lorsque la RED est sortie je me souviens que les discussion autour de moi tournaient surtout sur la taille du capteur et sur le format 4K qui allait avec. Rares étaient les commentaires sur l’ergonomie ou les quelques défauts de la caméra, même si les premières versions chauffées au point de nécessiter des « bains » de glace entre deux prises. Le prix de la bête faisait oublier bon nombre de ces problèmes et puis le modèle économique et l’ambiance de la société et de son président, Jim Jannard, notamment faisait que ce « work in progrès » devenait une règle. Alors que ce milieu était jusque là (à mon sens) très fermé et conservateur il s’ouvrait à une mentalité qui lui faisait accepter de tourner avec une caméra peu stable à ses début et dont la qualité d’encodage de ses fichiers n’étaient pas tout à fait ce qui était promis à la base. Tout cela pour être monté dans le train de la révolution en marche, encore fallait il prendre le bon train.

Car vous savez quand deux trains sont à quai et que l’un démarre les passagers de l’autre toujours au point mort ont l’impression que ce sont eux qui se déplacent. Cette impression, que j’appellerai l’illusion d’une révolution, se répandit un peu partout dans le monde de l’image. On ne parlait plus que de cela et le simple fait de tourner avec ce nouveau type de caméra faisait presque que l’on devait aller voir tel ou tel film. Pourtant tout ce qui bouge n’est pas rouge et parfois le rouge ne fait pas à lui seul une révolution.

Ensuite vint le temps des moins fortunés qui eurent enfin aussi accès à des caméras « que l’on monte soit même » et qui donne l’illusion que l’on a tourné avec une vrai caméra sauf si l’on y regarde de plus prêt. Canon en effet sortait presque malgré lui un hdslr, la 5d qui pouvait faire des fichiers vidéos et les encoder en H264, un format qu’on employait alors pour mettre son showreel sur internet ou pour encoder des films pour son ipod, je plaisante à peine. J’aimerais aussi rappeler qu’au départ tout était quasiment automatique, même si Canon ou Magic Lantern ont sur faire évoluer le firmware de ce très bon appareil photographique. Mais il n’y a toujours rien d’acceptable pour contourner cet encodage (pas de sortie celant via le hdmi) ou pour pouvoir l’utiliser sans que la petite bête ne devienne un mécano ou un jeu de Lego selon qu’on est plus brique ou bout de ferraille.

Aujourd’hui RED et Canon nous promettent, le même jour, une annonce qui va changer le monde de l’image digitale, et le 3 novembre je n’en doute pas, moi aussi  je ferai un petit mot pour m’émerveiller (tout ou partie de moi même, je le sais, sera subjuguée). Pourtant ces effets d’annonce depuis la Californie (et notamment le retard important prit par les gens de chez RED) devraient nous faire réfléchir sur la prochaine vraie révolution que nous utilisateurs de caméras voulons voir arriver.

Si je ne renie pas mon plaisir à tourner avec la RED One et plus récemment avec la Epic, ni même d’avoir était bluffé par quelques plans à la 5d, voire avec un Olympus Pen 1, notamment dans quelques films comme « Black Swan » (Matthew Libatique, scène dans le métro),  « Secretariat » (Dean Semler, plan rapproché de chevaux en pleine course)) ou « Road to Nowhere » de Monte Helman. Pour autant cette course aux gros capteurs et aux résolutions démesurées, me rappellent un peu la course à l’armement du temps de la guerre froide. En se figeant sur des chiffres ont en oublie le design et donc l’utilisation de notre outil de travail. (Et je ne veux pas aborder ici l’absence de scénario sous prétexte que le film est en relief) Pour avoir du tourner à nouveau avec une 5d le long d’un champ de course hier encore, je vous le dis, autant j’ai du plaisir à faire des photos HDR avec mon Canon, autant tourner des images vidéos est un calvaire qui relève du masochisme, même avec des équipements venant « aider » à la tâche.

D’autant plus qu’une autre révolution, un peu plus ancienne, pas si vieille que cela tout de même, nous permet de travailler sur des ordinateurs simples et efficaces avec une pomme dessus et de profiter d’outils de montage et de post production à la portée de presque tous et dont les capacités n’ont fait qu’étendre notre créativité depuis la version 1.0 de finalcut pro (sous l’ère de mac os 9) et de ses acolytes, color et motion pour ne parler que d’eux.

J’étais jusque là sous le charme de ces outils et de leurs possibilités, je ne me plaignais même que très rarement de leurs défauts et de leurs prix, l’industrie me permettait de rentabiliser mes G3 bleu et verts ou G4 titanium. Puis est venu finalcut pro X et avec lui un « appstore » où je sens que de créatif à qui l’on propose des outils de travail dans un environnement joli et efficace, je suis devenu peu à peu un simple consommateur d’une usine à faire des ipad/pod/phone mais de moins en moins des ordinateurs. Il y a même des gens qui vont me dire qu’avec un ipad j’ai un ordinateur et en plus une sorte de moniteur externe pour mon 5D et qu’en plus je pourrai monter le tout sur imovie, pardon finalcut X.

Désolé mais ça n’était pas tout à fait ce pourquoi j’avais signé au début de la « révolution ». Je pensais qu’on irait vers autre chose permettant plus de souplesse et à des moindres cout que le film 35 mm mais avec la même qualité de finition, mais non, on nous a fait le coup des compagnies « low cost » et nous sommes montés dans les « usines à gaz » en nous félicitant de la bonne affaire. Le prix réel de la chose aura été de fermer les yeux sur notre réalité de notre métier dans ces conditions là.

Au jour où j’écris ces lignes il y a pourtant quelques contres exemples et qui malheureusement confirme cette règle. La Arri Alexa, qui est superbe et d’une simplicité d’utilisation, mais à qui l’on reproche la manque de résolution. Et la A-Cam dII de Ikonoskop qui avec son capteur de 16mm souffre aussi des mêmes critiques. Je peux entendre certains me disant que le cout de la Arri la limite à de riches productions. Mais pourquoi y aurait-il un engouement si fort autour des hdslr et à l’inverse la petite caméra Suédoise dont le capteur Kodak CCD 16mm assez efficace, enregistre en RAW 12 bits au format CinemaDNG, souffrirait d’un silence cruel notamment au près de son coeur de cible, les petites réalisations indépendantes. Rien dans son fonctionnement ou son mode de distribution, dans la qualité de ses images ou dans son prix (moins de 8000 euros) ne justifient qu’on lui préfère un appareil photographique, et pourtant… D’autant que beaucoup de belles réalisations cinématographiques actuelles sont toujours tournées en 16mm (Benjamin Button, Black Swan, pour ne citer qu’eux)

Alors le 3 novembre prochain en Californie on nous annoncera surement du 4K, des capteurs surdimensionnés et d’autres mots qui font rêver mais en réalité nous le savons tous, nous ne rêvons pas d’une caméra contre productive, que nous devons changer tous les 3 ans et peu utilisable, nous voulons parce que nous sommes révolutionnaires, un outil de travail simple et efficace, le moins cher possible et le plus ouvert sur le monde qui nous entoure, à nous de faire le reste, à nous de le faire savoir.

Enfin pour finir en ces temps d’espionnage industriel avéré ou pas chez RED, il semble que la grosse annonce du 3 novembre concerne surtout un projecteur 4 K a technologie Laser qui diffusera du 2D ou du 3D. L’information me venant de gens de Element Technica qui semblent plus que sous le charme de l’engin. A suivre pour une nouvelle révolution?


Enfin « Scarlet » arrive…le 3 novembre.

C’est Jim le propriétaire des établissements « RED » qui nous a confié ce matin que notre attente serait récompensée, car le 3 novembre il n’y aura pas que Canon à faire une révélation, la caméra Scarlet (la plus petite de la gamme RED) devrait être officiellement « disponible » selon les termes de la société, on l’attendait depuis l’automne 2009 sa première date de sortie… Alors pour avoir déjà pu travailler avec une Epic et être convaincu qu’il s’agit là d’une caméra répondant parfaitement à mes attentes je suis tout de même curieux de voir ce que donne ce nouveau concept « low cost »  et son capteur 2/3 capable de faire des images en 3K en utilisant un codec beaucoup moins ravageur que la red one. Nous verrons bien si elle est toujours aussi mignonne que lorsque nous l’avons croisée dans les mains de Ted Schilowitz au cours des derniers mois. Mais surtout ce que les productions indépendantes en feront car ça n’est qu’un outil à mettre entre de bonnes mains et alors le miracle s’accomplira.

Nous verons bien ce que les Japonais de Canon vont nous sortir de leurs usines en espérant que cela se rapproche plus d’une vraie caméra à gros capteur mais dont l’ergonomie sera acceptable et dont le codec sera lui tout simplement exploitable. Car lorsque j’ai à réutiliser une 5D après quelques tournages avec une Alexa je dois avouer qu’il m’arrive de pleurer, mais le tarif n’est pas le même et c’est bien là tout le problème.


Bienvenue

Voici un petit tour de mon travail en tant que Directeur de la Photographie – Chef Opérateur. J’ai cette chance d’exercer mon métier à travers le monde,

en filmant des clips, des documentaires, des interviews, des films institutionnels ou de sport (ski et mountainbike notamment). De ces voyages, des ces rencontres naissent d’autres projets et ainsi va la vie. Ici, vous pourrez suivre l’évolution de mon travail et y découvrir pourquoi pas l’envers du décor ainsi que de nombreux liens vers l’industrie de la production et de la post production, du cinéma.

Enfin ma géolocalisation entre l’Europe et le Moyen-Orient vous donnera peut être à découvrir d’autres horizons et cultures. Comme vous le constaterez je travaille avec des caméras digitales telle que la Arri Alexa, la Red One MX, la gamme des Sony XD & EX Cam HD, mais aussi des HDSLR comme le Canon 5D voire des GoPro HD lorsque le temps est à l’action sur l’eau ou sous la neige. Mes choix de tournages se portent essentiellement sur des rencontres et des envies, je navigue entre Dubai, Paris, Beyrouth, Téhéran et ailleurs en tout cas le Moyen Orient est un parfait terrain de jeu dont la lumière est splendide.

N’hésitez pas à jeter un coup d’oeil à mon showreel ou à rentrer en contact avec moi.

Merci

Emmanuel Hiriart