Emmanuel Hiriart- Directeur de la Photographie

Articles tagués “emmanuel hiriart

The Tree Of Life, Malick et Lubezki écrivent un nouveau dogme.

Après avoir soutenu à travers deux articles récents, que le seul but de nos métiers était la création et donc sa partie artistique et non pas l’éphémère conviction de liberté ou d’émancipation due à de récentes et sophistiquées technologies, je voudrais aujourd’hui appuyer mon propos par l’étude d’un cas d’école voire d’un chef d’oeuvre. J’ai eu la chance de découvrir « The Tree of life » à Cannes lors de mon séjour sur la croisette pour les webséries « Mon Premier Cannes » et « États Critiques » pour le journal Le Monde.

http://www.lemonde.fr/festival-de-cannes/video/2011/05/21/etats-critiques-1-4-a-propos-de-the-tree-of-life_1525667_766360.html

C’est notamment quelques conversations avec Jean Luc Douin, journaliste du Monde qui m’ont apportées un éclairage nouveau sur le Cinéma de Terrence Malick. Voilà pourquoi j’ai profité de sa sortie en salles pour revoir le film qui depuis avait reçu la Palme d’or, et j’ai pu étancher ma soif de comprendre le film grâce notamment à un article de American Cinematographer auquel je fais référence ici car de toute façon les interviews de Malick sont trop rares et celles sur le travail autour de ces films aussi.

Et afin de creuser les raisons d’un tel film, je me tourne et c’est bien naturel pour un directeur de la photographie vers les explications de Emmanuel Lubezki qui a officé sur de nombreux films de Malick et a pu ainsi écrire avec lui les pages d’un « nouveau dogme » dont je vais commencer par exposer les règles afin de montrer à travers des cas concrets dans ce film référence ce que peut être un point de vue filmique tant dans la réalisation que dans la lumière.

Tout d’abord qui est Emmanuel Lubezki ? Le directeur de la photographie né au Mexique en 1964 fut nommé 4 fois pour les Oscars, en 1996 pour Little Princess, en 2000 pour Sleepy Hollow, en 2006 pour The New World de Terrence Malick et en 2007 pour le très bon Children of Men. L’homme est discret et la liste complète des très bons films sur lesquels il a travaillé est longue je n’en citerai que deux, symptomatiques, selon moi, de toute la palette dont il est capable, The Assassination of Richard Nixon ou encore Burn After Reading.

On sait l’homme capable de tous les défis, dont les plus fous, filmer avec un diaph constant, et l’on comprendra mieux encore le film « odyssey » de Malick à la lecture du travail qu’il a pu effectuer avec le réalisateur à l’occasion de ce film.

En se fixant des règles de conduites aussi simples apparemment que tourner en lumière naturelle le plus possible, au point que les lumières artificielles leurs paraissaient étranges à regarder. Chercher à conserver de « vrais noirs » sans jamais sous exposer. Préserver tout la latitude de l’image et de la pellicule et  garder un maximum de résolution pour un minimum de grain, éviter les flares ou l’utilisation de couleurs primaires dans l’image, le tandem Malick et Lubezki va élaborer une méthode de travail qui va aboutir d’un film évènement à bien des niveaux, un chef d’oeuvre selon moi, dont je délivre ici les dessous sous un aspect technique.

Tout d’abord l’homme nous avoue son amour pour la pellicule et souhaiterait plus que tout que le tournage se suffise à lui même sans être obligé d’en passer par une étape de numérisation. L’affection qu’il porte au film démontre sa grande connaissance du métier et de l’art de restituer toute la profondeur d’un film sur un négatif. A l’heure où dès le tournage on entend trop souvent dire que l’on réglera plus tard en post-production le ou les problèmes rencontrés sur le plateau, Lubezki paraît être un homme à l’ancienne qui excelle dans son art et dont le point de vue n’est jamais une posture ou une tendance mais une action réfléchie qui aura un impact sur l’histoire, sur le jeu de acteurs, sur le spectateur.

Sur The Tree of Life, il va utiliser 3 caméras Arri, deux Arricams Lite et une petite Arri 235 pour les actions à l’épaule. La plupart des scènes sont tournées ainsi ou au SteadyCam, opéré par Joerg Widmer, seules dix pour cent du métrage le sont au trépied. Et tout cela non pas dans le but de donner un effet bougé mais bien pour donner toute la liberté aux acteurs et notamment aux enfants d’évoluer et de mener finalement la danse de cette très belle chorégraphie. Pour répondre à la problématique de la résolution et du grain de l’image le choix va se porter sur de la pellicule KodakVision 2 50T 5218 et 200T 5217 mais aucun filtre, à part un polarisant ne sera utiliser pour ne pas altérer la lumière et la qualité de l’image naturelle et le film sera capturé au format 1.85 :1 en 4 perfs toujours dans un soucis d’éviter le grain du super 35 car la majorité des scènes sont des plans très serrés des enfants ou des visages.

Une autre règle va aussi très vite se mettre en place sur la plateau, aucune marque au sol ne viendra signifier aux acteurs où se placer. Ceci dans le seul but de leur laisser toute liberté de mouvement et que leurs jeux (au sens propre, ceux des enfants) mais aussi leurs émotions et leurs envies s’expriment sans entraves et qu’ils mènent la danse avec la caméra et les opérateurs. Ceux-ci vont alors s’autoriser des mouvements de caméra suivant tous les axes et s’adaptant au mieux à la scène et à la façon dont les acteurs la joueront. L’espace ne sera pas rigide et on sera libre de s’y promener, acteurs et opérateurs formant un couple évoluant dans une sorte de valse.

Et afin de restituer au mieux cette émotion et cette sensation de flottement de la caméra, Lubezki va utiliser des objectifs grands angles. Les séries Arri ou ZeissUltra Primes de 14mm à 27mm qui lui permettront de rester au plus près de ces visages, rarement plus de 80 cm en réalité.

Enfin les trois caméras seront toujours prêtes et chargées, l’opérateur faisant la mise au point étant équipé d’un système sans fil configuré pour toutes les caméras, ainsi sans « casser » la dynamique de la scène les opérateurs passaient d’une caméra à l’autre ou simplement permutaient leurs places à la fin d’un magasin. En passant ainsi du steadycam à la Arri235 le tandem permettait ainsi une très grande fluidité et conservait au tournage toute son atmosphère et son energie. Un de ces rares tournages sur lequel on filme plus que l’on attend selon Jack Fish qui a travaillé avec Malick depuis Badlans en 1993, qui reconnaît que le réalisateur a bien une pratique assez unique de la direction d’acteur et de l’organisation des tournages. Il tourne en fait peu de filme ce qui lui laisse le temps de méditer pendant de longues années sur un film, pour autant il veut aussi y adjoindre un aspect « non préparé » et plus émotionnel qui ne peut se dégager que lors du tournage en lui-même.

Cette gymnastique autour des acteurs et autour des caméras n’allait pas sans poser des problèmes de diaph notamment, Lubezki appliquant à la lettre la règle voulant que l’on tourne quasi exclusivement à la lumière naturelle venant de l’extérieur il lui arrive de débuter une prise à T8 et de la terminer à T1.3 afin de contre balancer l’arrivé de nuages dans le ciel.  Mais plus encore le choix de ne pas disposer de réflecteurs afin de laisser le champ libre aux acteurs et à la caméra, et de ne jamais sous exposer un plan oblige le directeur de la photographie à faire des choix afin de filmer toute la famille autour d’une même table alors de 2 diaph séparent la bonne exposition des visages de chacun, et que l’extérieur qui apparaît par les fenêtres nécessiterait T64, pourtant à l’image tout paraît justement éclairé et tous les détails apparaissent, y compris ceux du ciel ou de l’herbe.

Pour se permettre de tourner de telles scènes Malick va utiliser un subterfuge assez simple, utiliser trois maisons quasi identiques mais orientées différemment afin de pouvoir tourner à plusieurs moments de la journée sans se soucier du temps qui passe et là aussi ne pas trop casser l’essence de chaque prise.

Concernant les extérieurs jour Lubezki va jouer avec les contre jour d’une part car il pense que cela apporte une profondeur dans l’image mais aussi afin de permettre les raccords au montage plus facilement entre deux scènes tournées à deux moment très différents voire dans des endroits éloignés. Quand je parle ici d’endroits différents il faut comprendre aussi des scènes baignées par une lumière hivernale du matin ou estivale du soir. Et selon lui, c’est en évitant au spectateur de pouvoir percevoir ces différences de qualité de lumière de manière directe sur le visage des acteurs que le montage peut être cohérent.

Au point d’avoir parfois placé dans une même scène les deux acteurs à contre jour alors qu’ils sont sensés être face à face à l’écran. Ainsi revoyez la séquence ou Jack (Brad Pitt) apprend à son fils à se battre et notez que cette impossibilité physique fonctionne en terme de montage et de récit filmique.

Lors des intérieurs nuit aussi l’on peut considérer que Lubezki va se jouer de la lumière et donc du spectateur car il choisira un seul dispositif portable de type Chimera 2K qu’un assistant promènera au fur et à mesure de l’évolution de la caméra et des acteurs dans la pièce recréant ainsi cet effet de lumière mouvante que pourtant, le spectateur ne perçoit pas au premier coup d’œil.

Enfin il faut noter le grand travail de colorisation effectué par Steve Scott de EFilm afin de d’abord de restituer la latitude et les détails dans les blancs perdus selon Lubezki du fait du trop grand contraste présent sur les négatifs qui nécessitent désormais un passage obligé par de la numérisation, mais aussi afin d’intégrer la séquence de 20 minutes nommée « Création ». Tout le matériel se rapportant à cet unique scène provenant en effet de sources aussi nombreuses que différentes allant du 65mm au 35mm en passant par du 4K d’une RED One ou encore du HD d’une Phantom ou de clichés RAW d’un Canon.

Si l’œuvre est magique sur le fond vous en savez désormais un peu plus sur la forme et sur l’un des artistes qui personnellement me fait aimer mon travail mais aussi et surtout aller au cinéma. Le film est sorti au moment où j’écris ces lignes, en DvD mais j’hésite à reproduire l’expérience sur un simple téléviseur aussi bon soit-il, de peur de dénaturer une partie du film. Et afin de ne pas trop abîmer l’image je vous conseille d’acquérir plutôt le BluRay version États-Unis édité par 20th Century Fox dont l’encodage est bien meilleur que celui en version française de Europa, pour exemple le débit moyen sur le premier est de 33725 Kbps contre seulement 25431 Kbps pour le second.

Pour terminer un conseil de lecture sur le sujet, le mémoire de fin d’étude de Benjamin Roux présenté à l’école nationale supérieure Louis Lumière en 2009 sur : « Lumière naturelle, entre réalisme et émotions. » où il est bien sur question de Terrence Malick.


Retour à l’ergonomie allemande

Alors que Sony sort un modèle 4K grand public, Arri vient de présenter sa nouvelle caméra, la Amira dont les spécificités ont l’air d’être à la fois un pari de ne pas proposer un produit 4K malgré l’émergence de ce marché mais de mettre (enfin) à la disposition d’un public plutôt axé sur la production télévisée, le film institutionnel et le documentaire, une caméra d’épaule ergonomique, dotée d’un capteur de 35mm, d’un workflow simple comme c’est l’habitude chez les allemands délivrant des images en HD ou en 2K jusqu’à 200fps.

J’ai hâte d’en savoir plus sur l’engin et de pouvoir le tester car les 14 Stops de latitude annoncés de son capteur associé au design de la Amira semble pouvoir me séduire pour de nombreux projets. Elle supporte les 3D LUTs  afin de donner des « looks » aux images et l’on pourra bien sur en importer depuis un logiciel de color grading et les ajuster aussi en cours de tournage y compris pendant l’enregistrement.

Arri_Amira-Side-Blacklistfilms

La Amira dispose d’un viseur oled d’une résolution confortable de 1280×1024 pixels qui cache un petit écran LCD de 3,2″ escamotable qui permet la navigation dans les menus. Contrairement à de nombreux concurrents la caméra disposera aussi de filtres nd intégrés et motorisés ainsi que d’un zébra. Côté codecs on pourra faire du Prores dans toutes ses déclinaisons, jusqu’à 4:4:4 en HD sur des cartes CFast 2.0 (une carte CF nouveau genre dont la mise à jour permet une rapidité jusqu’à 450Mbs en lecture, pour 350Mbs en écriture. La caméra hébergera deux fentes destinées à ces cartes et associées à des prises USB pour les décharger. La carte disposera en plus d’un numéro de série et donc d’un support client de la part de son constructeur (SanDisk) qui laisse croire que le consommateur ne sera pas seul au milieu du désert lorsque son médium sans prix renfermant toute une journée de labeur sera incapable de monter ou d’être lue correctement. Si Arri est pour l’instant le seul constructeur à prendre ce chemin il semble que Canon soit tenté par l’expérience concernant leurs caméras et DSLR 4K.

Dans le pur style caméra d’épaule des boutons sont assignables afin d’avoir accès à des réglages rapidement sur le terrain. Et énorme plus aujourd’hui sur ce segment, l’audio est intégré, la Amira enregistre 4 canaux de 24 bits 48Hz via des ports XLR 3 et XLR 5.

Arri_Amira-Blacklistfilms

On pourra, selon Arri, y connecter toutes les montures PL possédant un connectique 12 pin pour contrôler le diaph automatiquement et l’enregistrement depuis le bouton de la poignée. Et rien ne sera oublié car la monture sera aussi compatible avec la connectivité LDS. Arri assure une compatibilité avec les optiques B4 2/3″, habituelles sur les caméras d’épaule, et EF. Le tout dans un fonctionnement silencieux, moins de 20Db annoncé.

C’est prometteur on attend plus que le prix et la disponibilité car souvent ces deux facteurs tuent un peu le rêve. Bien qu’ici les responsables de Arri s’ils ne dévoilent pas le tarif de vente, s’engagent sur une caméra dont le prix se situera bien en dessous de la Alexa avec qui, elle partage le capteur et le design, de très bonne augure. Comment dit-on « vivement 2014 » ne allemand?


Mise à jour du capteur Red Dragon 6K (un goût de noël avant l’heure, mais après tout c’est l’Aïd)

Difficile de s’en tenir au seul « making of » comme annoncé dans le précédent billet lorsque Red annonce la sortie, ou plutôt la mise à jour de son capteur Dragon 6K. Alors voilà quelques détails techniques pour faire saliver ceux qui seraient sur les rangs pour passer ce cap réservé aux seules Epic, la Scarlet et en effet limitée dans cette mise à jour, à 5K pour un maximum de 60 ips, surement pour justifier des différences de prix et un placement marketing (je rappelle que les limitations de la Scarlet sont en effet purement liées au logiciel interne).

Tout d’abord le dernier né des capteurs de chez Red est donc un 6K 6144 (h) x 3160 (v), soit pour ceux qui auraient comme base du HD (1920×1080), 9 fois plus de résolutions. L’idée est simple, on se rapproche d’une part de la qualité du 35mm et surtout on a un format plus grand que celui de la diffusion qui semble se diriger vers le 4K aussi bien dans les salons que dans les meilleures salles de projection publiques.

Blacklistfilms-RED-DRAGON-Still-Frame-2

Le capteur de 19 millions de pixels permettra même de filmer en 6k à une cadence de 100 images par secondes (120 ips à 5K, 200ips à 4k et 300ips à 2K), un peu comme si votre meilleur appareil photographique avait une fonction rafale de cette puissance (le mien ne fait guère mieux que 12 images par seconde) et que vous puissiez en plus éditer cela en tant que fichier vidéo Raw mais selon le codec R3d qui permet une compression pas inutile lorsque l’on passe à la gestion des fichiers en post-production.

comme l’on parle de procédé Raw et donc d’un traitement de l’image, de sa débayérisation non pas dans la caméra mais par un ordinateur il vous faudra aussi penser à investir dans une carte permettant ce calcul plus rapidement et pour cela Jannard le patron de Red a annoncé aussi une nouvelle RedRocket X cinq fois plus rapide que le premier modèle, ainsi qu’une version de RedCine-X Pro encore améliorée.

Blacklstfilms-RED-DRAGON-Still-Frame-1

Pour en revenir aux détails techniques du capteur, il dispose et c’est là la vraie nouveauté et l’énorme amélioration d’une sensibilité efficace de 250 jusqu’à 2000 ISO et d’une plage dynamique de 16,5+ stops. en fait le capteur gagne plus de 3 stops de dynamique par rapport à son prédécesseur, un dans les hautes lumières et deux dans les noirs. L’avantage est que l’on peut se retrouver dans des situations extrêmes de contre jour ou de différentiel d’exposition dans une même scène sans pour autant perdre des informations dans les parties sombres ou trop éclairées.

On pourra dès lors aussi pousser un peu plus la sensibilité en post production comme au tournage, selon les premiers essais il semble que des valeurs autour de 4000 ISO ne provoquent pas autant de bruit que l’on pourrait s’y attendre. Donc en parallèle on pourra aussi compresser un peu plus l’image mais obtenir un résultat comparable à une compression faible en utilisant le capteur MX. On parle ici d’une équivalence entre du 17:1 avec le Dragon et du 8:1 avec une Red MX sans affecter les teintes,les nuances, les noirs ou les blancs. On peut pousser cette compression de 3:1 à 18:1 en 12 ou 16 bit Raw.

La caméra (brain only) set annoncé à 29.000$ quand la mise à jour pour les possesseur d’Epic X ou M coutera un peu moins de 10.000$.


De quoi Aaton est-il le nom?

La France se targue d’être un grand pays de cinéma ou du cinéma selon que l’on aille jusqu’à penser qu’elle l’a inventé et qu’elle se situe au centre de ce monde. Pourtant c’est bien à l’écart de tout cela loin en périphérie que se trouve sa place en matière de développement et de fabrication de caméras ou d’enregistreur sonore.

Beauviala_Aaton

Jean-Pierre Beauviala, ingénieur conseil chez Éclair-caméras fonda il y a quarante ans la société Aaton afin de proposer des caméras ergonomiques et de grande qualité ainsi que le Cantar un enregistreur numérique. Voilà pour l’histoire rapide, mais dernièrement Aaton tentait de sortir sa première caméra numérique en cherchant à proposer un matériel suivant le même cahier des charges que pour celles utilisant la pellicule. Beauviala désirant avec sa Pénélope-Delta, pouvoir rivaliser avec la qualité d’une image analogique et avouait que pour atteindre ce but il s’était tourné vers le meilleur capteur au monde. Le dispositif et la démarche semblent intéressants je vais donc les résumer ici. Tout d’abord le constructeur en question fut Dalsa, une entreprise canadienne spécialisée dans le domaine des capteurs et des semi-conducteurs, créée en 1980 et, propriété, depuis 2010 du groupe Teledyne Technologies. La sonde Curiosity et de nombreux satellites de la NASA sont en effet équipés de capteursDalsa restituant, parait-il, une colorimétrie parfaite nécessaire à la lecture des masses rocheuses de Mars.

Autre ajout technologique voulu par Aaton et qui en dit long sur leur philosophie, un procédé d’imitation de la pellicule et de sa manière de capter les photons. Le capteur numérique devait mimer les grains sensibles à la lumière grâce à un cadre en titane souple mais très robuste permettant un déplacement aléatoire du capteur à chaque image (de l’ordre de un demi pixel, qui est recalculé est donc corrigé par la suite). Pas de 3D, pas de capteur surdimensioné, pas de haute fréquence d’images par seconde, Aaton devait séduire son public sur la base de ces caméras argentiques et de son savoir faire en la matière. Beauviala défendait alors le cinéma comme une interprétation de la réalité et non pas comme une reproduction naturaliste.

Penelope interface

Si Aaton est rentrée tardivement sur le marché du numérique c’est avant tout par amour de la pellicule, mais aussi parce que cette vision qualitative de l’image de cinéma entrainait forcément une critique acerbe mais étudiée de celle produite par les concurrents passés ou créé à l’ère numérique. Cette vision un peu passéiste Beauviala la revendiquait presque en affirmant que la « révolution numérique est venue par la projection en salles ».  S’il ne se trompait pas dans son constat sur cette imposition et ses raisons par les grands studios il oubliait toutefois que avant de pouvoir être projeté ainsi le numérique existait en tant que caméra et que Dalsa par exemple proposait en 2006 déjà un engin capable de 4K. Qu’il ait voulu dès lors rentrer dans l’arène de cette révolution en cherchant à développer une caméra ergonomique et de qualité reste un point que l’on ne peut reprocher à Beauviala.  Pour le reste c’est bien la recherche est développement qui a plongée Aaton dans le gouffre, car le problème vint du capteur en question qui a vouloir trop en faire n’était pas capable de restituer une image de qualité. La caméra numérique n’est pas (plus) une simple conversion d’un modèle argentique en un modèle sur lequel on a placé un capteur mais bien une conception à part entière avec un cahier des charges bien précis. Et c’est donc ces choix techniques qui aujourd’hui coutent à Aaton d’être placée en redressement judiciaire.

Aaton est donc le nom d’un concept « du chat sur l’épaule » concurrencé par des usines à gaz numérique, véritable jeu de mécanos très dur à équilibrer et à aimer en tant qu’objet. Des caméras au large capteur qui encode parfois en 8bits , mais les productions ne se posent pas ce genre de questions, et qui à l’air de couter si peu que tout le monde à en une au fond d’un tiroir. Aaton est le nom de la fin d’une époque, celle de la pellicule et des laboratoires notamment en France. Aaton est le nom d’une industrie qui en passant au numérique à tout prix, le fait surtout sur le dos de la qualité. Aaton est le nom d’un monde où il est dur de trouver désormais de la pellicule pour des projets et des caméras alternatifs. Aaton est le nom d’une jolie société qui a pensé que si elle savait faire (plutôt bien) des caméras elle passerait sans problème à la commercialisation d’un modèle numérique mais qui a du se rendre à l’évidence que son fournisseur de capteurs, lui n’était pas à la hauteur, mais un peu trop tard. Aaton est le nom qu’on aimait bien d’un temps où l’on connaissait encore le nom de l’ingénieur qui développait le matériel qu’on utilisait avec plaisir, aussi parce qu’il avait de la gueule et que le résultat, après développement se projetait sur un bel écran dans un format un peu plus beau et grand que le 2 ou 4K que notre salon accueillera l’année prochaine.

Le Cinéma français qui s’offusque des salaires de ses acteurs, qui comprend mal comment un projet largement financé par ailleurs vient tout de même quémander une participation des internautes pour boucler son budget, et dans notre cas qui ne comprend pas pourquoi le troisième pays du cinéma n’est pas capable de proposer une caméra française, devrait surtout se poser la question du modèle économique de son industrie et de sa capacité à investir dans la recherche et le développement et à soutenir une industrie de pointe. Aaton reste viable souhaitons leur le meilleur et de traverser cette crise (une de plus) pour enfin nous délivrer leur projet de petite caméra numérique de documentaire visé reflex type A-Minima c’est le plus grand mal que l’on se souhaite.

Loin de cette ambiance de fin de séance dans un tribunal qui jugera de la faisabilité et du projet du futur repreneur de Aaton je voulais profiter de ce billet pour vanter les qualités d’un petit produit simpliste néozélandais d’origine que j’ai adopté pour les timelapses que je devais réaliser avec un appareil photographique reflex numérique.

Syrp_Genie

Le Syrp c’est son nom, combine un moteur capable de rotation à 360° ou de travelling le long d’une petite cordelette et un cerveau-logiciel, capable de communiquer avec n’importe quel hdslr du marché afin de déclencher l’appareil après chaque mouvement à la vitesse voulu par l’utilisateur. Un petit compagnon idéal pour les pans parfaits et les travellings impossibles, la caméra fixée sur un simple skateboard tracté par une corde attachée à un arbre…

Vous l’aurez compris on est loin de la technicité du capteur Dalsa dont on parlait plus haut, mais, la robustesse et le plaisir de se construire des plateformes que l’on pourra rendre mobile grâce à ce petit boitier qui va piloter lui même le timelapse donne envie d’aller vous poser au bord d’un beau paysage après quelques construction de mécanos et de lancer l’enregistrement en Raw et pourquoi pas en HDR (si vous avez la patience de combiner, fusionner et ajuster autant d’images nécessaires à votre film). Voilà à quoi je passe mon temps en ce moment même. Un grand merci à Syrp pour leur petite invention sans prétention dont j’espère pouvoir vous faire un compte rendu complet au cours d’un tournage à venir. Aller à la pêche aux informations sur leur site vous tomberez sous le charme.

http://syrp.co.nz/products/


Course (sans fin) à l’armement

Voilà moins d’un an que je lançais ce blog afin de relater mon travail d’une part mais aussi d’informer bien modestement sur les nouvelles technologies liées au caméras numériques professionnelles que nous utilisons sur les plateaux et les tournages dans nos métiers. L’utilité d’un tel blog est du en fait au changement constat de ces technologies et matériels. Car il y a quelques mois j’annonçais la nouvelle venue la Scarlet, la C300 ou encore les premiers tests avec une Sony F3 et quelques milliers de lecteurs plus loin mais moins d’un an après je dois faire des mises à jour constantes afin de coller au marché et aux annonces et autres nouveautés. En effet un peu comme l’année passée lorsque Canon et Red se disputaient un jour commun pour lancer leurs produits la C300 et la Scarlet il y aura bousculade le 31 octobre du coté de chez RED mais aussi de chez Sony pour savoir par quel nouveau produit il faudra jurer pour être tendance. Chez Jim Jannard peu de mystère ce ne sera qu’une baisse de prix substantielle qui rendra beaucoup plus abordable l’Epic et presque accessible pour tous la Scarlet (surement sous les 8.000$). Une bonne nouvelle pour les nouveaux acquéreurs ou ceux désirant passer de la plus petite à la plus grosse caméra sans avoir à trop se saigner (preuve il en est que la Scarlet n’est qu’une version bridée de sa grande soeur).Mais malheur à ceux qui ont investi il y peu et qui auront le plus grand mal à amortir ce prix et à digérer cette baisse tragique de la valeur marchande de leur caméra.

En cherchant à en savoir plus sur la Sony F55 on trouve des pépites sur le net.

Ce sera aussi surement le cas de nombreuses productions qui auront misé sur Sony et sa F3 à peine vieille d’un an et quelques (on en a entendu parler la première fois au NAB 2010, mais quand est elel arrivée vraiment sur le terrain des tournages?) qui avec son codec intra en 8bits 4:2:0 mais son grand capteur aura surement séduit des gens bluffés par les HDSLR mais cherchant une caméra et pas un appareil photo, afin d’avoir du son, un shutter, un viewfinder (ah non pas encore) et peut être un codec autre qu’un pauvre h264 avec la possibilité en externe de profiter du fameux 4:4:4:4 notamment aux conditions que j’expliquais dans mon billet précédent. Car tous les acquéreurs de cette petite Sony auront surement une larme à l’oeil lorsqu’ils découvriront la probable F7, car la F3 va voir sa production arrêtée. En moins de 2 ans. Le géant japonais va annoncer l’enterrement en grande pompe de sa F3 en cela que le Codec XAVC va remplacer celui de utilisé jusque là en interne sur les XDCam. Et celui-ci pourra gérer du 10 bits 4:2:2 à 100Mb/s de série. Adieu à ce stade là, enregistreur externe et couteuse mise à jour du Firmware. La caméra que l’on disait capable de rivaliser avec la Alexa en terme de dynamique et de piqué d’image, se voit destinée à un musée alors que la petite Arri elle fait toujours des heureux sur les tournages.

Pour autant la caméra capable de 4K (probablement la future norme pour les mois ou les années à venir aussi bien en enregistrement qu’en diffusion) nécessitera toujours un module externe mais Sony devrait en proposer un made in Japan il permettra le 2K à 120 im/s et le 4K.

Je me mets alors à la place de petites structures qui viennent (18 mois c’était hier) d’investir dans une F3 et qui vont se retrouver avec un bel objet bien dépassé technologiquement, la faute aussi au fait qu’on ait accueilli cette caméra avec les honneurs alors même qu’en interne elle ne proposait rien d’autre que ce que la EX1 ou EX3 faisait déjà (à savoir du 8 bits 4:2:0). L’effet de mode du gros capteur va se poursuivre mais il semble que celui-ci soit enfin rattrapé par la technologie qui permet enfin d’enregistrer son flux correctement en interne.

Notons au passage que c’est toute la gamme F qui va subir un ravalement et qu’une F55 semble aussi pointer son nez, dès que l’on aura les spécificités de celle-ci je reviendrai c’est promis nous mettre l’eau à la bouche. Avant qu’un autre produit lui vole la vedette, mais, je suis sur qu’on trouvera bien un objet capable de faire des films pendant de longues années sans avoir à le jeter à chaque fashion week.

Un descriptif de la future F5 complet et la mise à jour des pilotes pour gérer les fichiers Raw de la F65 pour Avid et Première, rien ne semble penser que FinalCut X sera concerner par cette option, à croire que Sony ne voit pas dans le logiciel une alternative professionnelle?


Le mythe et la révolution forcée du tout numérique.

L’actualité des salles et des sorties cinéma a su faire le point au moment du festival de Cannes et à la lecture de quelques études voilà un triste constat.

Je rappelle donc que je parlais de la mort des laboratoires français spécialisés dans le traitement des bobines de polyester que l’on appelle film. Ainsi le groupe Quinta et sa filiale LTC licenciait ses 150 salariés au prétexte de l’évolution de la profession et du passage autour numérique qui rendait son activité inutile et de toute façon déficitaire (du fait aussi des lourdes factures en suspend de la part des principales productions françaises).

En parallèle de cela on nous promettait une baisse des couts de copie des films grâce qui devait permettre une plus large diffusion. Effectivement on devait passer de 1000€ à 100€ par copie. Pourtant toutes les études nous montre que les couts réels semblent être bien différents. Ainsi le prix d’une copie numérique semble plutôt se situer entre 100 et 200€. Mais surtout à cela vient s’ajouter le prix du projecteur numérique, qui en plus de limiter la diffusion à du petit 2K nécessite un contrat de maintenance qui jusqu’alors était la fonction du projectionniste. Les lampes de ces projecteurs dont j’ignore le prix, doivent être changées tous les 7 ans contre 30 ans du temps du 35mm. Enfin il a fallu aux salles de projection envisager de nombreux travaux (climatisation, agrandissement, tableau électrique, raccord ADSL voire installation d’une antenne satellite) pour se mettre aux normes et je ne parle pas là de vouloir passer à de la diffusion 3D stéréoscopique.

Me basant sur des études européennes indépendantes mais surtout sur celle commandité par le lobby des diffuseurs aux USA  (Motion Picture of America) il ressort que le cout moyen par salle se situerait autour de 80.000 euros (le seul cout du serveur et du projecteur 2K serait de 60.000 Euros). On comprend par avance que les petites structures n’auront jamais un telle somme à disposition pour investir dans la diffusion de films, ce qu’elles faisaient déjà depuis fort longtemps avec la technologie mécanique du 35mm.  Les grands multiplexes bien aidé par la vente de popcorn et les films à succès pourront eux faire le grand saut et l’objectif du tout numérique pour 2014 sera donc tenu peu importe les résistants ou les moins fortunés. Ainsi le groupe Pathé qui détient 740 écrans en France serait en train d’investir 150 millions d’euros pour la production et la rénovation de salles soit plus de 200.000 Euros par salle.

De cette « numérisation à marche forcée » dont parlait les Cahiers du Cinéma en juillet 2011 on voit aussi que l’ensemble des débats a été épuré des questions de qualité de projection. Quid des projections en 4K et 8K pour se hisser au même niveau de résolution que le 35mm? Quid des choix sur la nature et la qualité des écrans, de la luminescence des projecteurs… Mais surtout pas un mot sur le fait que la seule solution d’archivage proposée par ce nouveau système sera… une copie 35mm. Du moins en France où cette opération est encore nécessaire pour le dépôt légal par le CNC.

S’ajoute encore une question celle des choix de programmation et des mesures de rétorsions de la part des distributeurs qui via le système de téléchargement et surtout la clé d’activation du film numérique (KDM Key delivery message) qui met en place un moyen de vérification et contrôle des heures et du nombre de projection par la salle.

En effet si le distributeur a su se placer dans une position de force mais aussi instaurer un nouveau modèle économique à son avantage et créant ainsi un nouvel acteur, à deux têtes le tiers collecteur ou le tiers investisseur (entité économique qui permet le financement d’une installation numérique et qui redistribue aux exploitant les « Frais de copies virtuels » (VPF) qui sont le fruit d’une part des économies que les distributeurs réalisent eux lors du passage au numérique (copie physique, transport, stockage…)

On a vu se créer des intermédiaires qui ont pu bénéficier de cette manne financière de redistribution mais aussi dans bien des cas notamment en France des aides publiques nationale ou régionale qui vont aussi tenter de permettre cette transition technique aux 5.400 salles de cinéma du pays (ce qui place la France au quatrième rang mondial derrière les USA, l’Inde et la Chine) diffusant 575 films pour les seules sorties de l’année 2010.

Le cas de la France est un peu à part et, sans rentrer dans le détail, on peut dire ici que l’Europe s’est faite sans harmoniser du tout « son » cinéma. Ainsi l’on va de la Norvège où la grande majorité des salles sont municipales, à l’Allemagne qui aide la production par notamment, une taxe spécifique sur le chiffre d’affaire des exploitants, à l’Espagne qui dans le domaine est très peu portée sur l’aide à la création et à la diffusion d’oeuvres qui ont surtout du succès à l’étranger. Pourtant tous ces pays vont passer d’ici à 2014 au tout numérique et tous vont avoir recours aux intermédiaires et aux distributeurs pour se mettre aux normes décidées par ces derniers.

Il existe bien sur de nombreux moyens pour restructurer ce secteur, mais les règles de la concurrence étant valables partout et pour tous, ce ne furent pas les projets de mutualisation ni même celui favorisant le recours à des logiciels libres qui finiront par être choisi.  Ces institutions privées et plutôt spécialisées dans le seul financement vont dès lors jouer un rôle prépondérant auprès de l’industrie du film. Si l’on peut noter la grande rapidité avec laquelle s’est mise en place ce nouveau « champ organisationnel », il faut surtout y voir une opportunité économique d’un coté, aidé sur le plan « technique » par le mythe de la 3D stéréoscopique et du tout numérique relayés notamment par des leaders d’opinion qui ont su argumenter les avantages supposés (souplesse, innovations, facilités, coût…) du tout numérique en oubliant de préciser le sort réservé aux professionnels, (un projectionniste sera désormais un « téléchargeur » en charge de 4 à 10 salles), aux petites salles, aux films 35mm et à l’archivage de ces supports numériques estimés tout au plus à 5 ans selon les normes actuelles de l’industrie.

Amusant, lorsqu’après un tel bilan, on à la chance de lire une interview de Christopher Nolan, qui refuse de passer, lui, au numérique lors de ses tournages préférant le 35mm voire le procédé IMAX qui malheureusement seront bien à l’étroit dans une salle équipée selon la norme 2K. Vous me direz que Sony vient d’annoncer un projecteur 4K (SRX-515) permettant la 2D ou la 3D et étant compatible avec les futurs films tournés à 48 images par seconde? Oui mais à ce jeu là que deviennent les salles déjà équipées, elles rachètent un projecteur tous les deux ans lorsque l’industrie du film change de format de tournage?

Ah oui j’oubliais dans les avantages que les lobbys ont su nous vendre pour accueillir le mirage/miracle du numérique, l’un d’entre eux fut que les programmes d’avant séance seraient alors plus faciles à diffuser selon les heures et les films, le public  concerné… J’ai cru un instant qu’ils parlaient de courts métrages comme au temps de mon enfance, mais je pense qu’il s’agissait en fait de publicité ciblée. Naïf que je suis.


Tournage et post production en 4K et plus : un cas d’école « The girl with the dragon tatoo »

Afin d’exprimer encore mieux la réalité du travail en RAW, en 4K et plus, avec des caméras types RED ou ARRI quoi de mieux qu’un exemple parlant en se basant sur l’expérience des équipes ayant pu travailler notamment sur le film de David Fincher, « the girl with the dragon tattoo » aux côtés de Jeff Cronenweth le directeur de la photographie mais aussi de Peter Mavromates le superviseur de la post-production.

Le choix de ce film comme témoignage d’un tournage (et de sa post-production) en 4K me parait en effet parlant et significatif étant donné qu’il a « essuyé les plâtres » et que les techniciens et spécialistes qui se sont relayés sur l’opération ont par ailleurs parfaitement documentés leurs expériences.

Le tournage :

En septembre 2010 lors du début du tournage en Suède, l’Epic n’était pas encore achevée et allait commencer ses premiers tests (en 3D) dans la belle ville de Los Angeles sur l’homme araignée. Dès lors Cronenweth a photographié les deux tiers du film en RED One MX (4352×2176) et seulement un tiers avec l’Epic (5210×2560) une fois celle-ci stabilisée.

Le transfert de données :

The Girl with Dragon Tattoo comporte pas moins de 230.000 images pour un poids représentant un peu plus de 1Go de données par seconde de film. Le tout a été « débayérisé » (traitement RAW de l’image correspondant au développement de la pellicule pour un enregistrement numérique en quelque sorte) en DPX 10 bits en 4 et 5K dans un format d’image au ratio 2:1. Notons ici que le choix du travail en 5K représente ni plus ni moins 33% de plus de données que le 4K.

A ce stade là l’on imagine vite la place de stockage dont on a besoin, pour autant au prix du Go qui se situait alors à 20 centimes de Dollars ceci n’était pas la préoccupation des techniciens ingérant les images. Car il aurait fallu pour capturer la totalité des rushes des disques pour un équivalent de 55 To. Soit un investissement de 25.000 $. Le problème était alors plutôt d’avoir une capacité de stockage mais une unité de stockage capable de lire 1Go par seconde afin de pouvoir réaliser un playback.

Pour obtenir de telles performances les disques (configurés en Raid afin de protéger les images, mais selon un procédé qui ralentie les vitesses d’écriture et de lecture) doivent être optimisés pour pouvoir faire un playback effectif à plus de 1,5Go par seconde et surtout ne jamais être remplis à plus de 60% afin de toujours garder leurs performances.

Mais il faut aussi en passer par l’étape de transfert des données sur des disques sans vouloir y faire tourner les images pour un play-back, il faut toutefois que le temps consacré à ces transferts ne soient pas consommateurs d’un temps trop précieux lors d’un tournage. Je le sais d’autant mieux que personnellement je transfert mes rushes quels qu’ils soient sur des petits disques portables en firewire ou eSata et qu’à une vitesse maximum de 300 Mo/s soit dans notre cas d’école 3 fois le temps réel. Cette solution ne satisfaisait pas les équipes de Peter Mavromates qui avaient initialement prévues de travailler en temps réel. La solution fut apportée par MAXX Digital qui ont su optimisé ce qu’ils ont appelé la boite à chaussure, une combinaison de disques en SAS qui pouvait atteindre la vitesse maximum de 600Mo/s, on était loin du temps réel mais on s’en approchait. Le temps est de l’argent y compris quand on le passe à transférer les images, le soir au coin du petit bureau de la chambre d’hôtel, ou à l’arrière du camion.

Recadrage :

Pour tous ceux qui viennent du monde « étriqué » de la HD, il n’est pas question de recadrage dans l’image car le format ne le permet pas. C’est bien différent lorsque l’on dispose d’un format numérique de 5 millions de pixels par image, c’est en fait déjà le cas avec une caméra 2K lorsque le produit final sera aux normes HD. Ainsi l’on considère qu’il existe en 5K une marge correspondant à 20% de l’image filmée disponible pour ces opérations de recadrages et autres stabilisations. Mais autre point non négligeable cette zone supplémentaire de matériel permet aussi une meilleure transition entre les différents formats de livraison du film. Ainsi le film fut tourné comme je le disais plus haut avec un ration de 2:1, pour être diffusé en salle selon le ratio de 2.40:1 mais les normes broadcast demandant une livraison en 1.78:1 afin de correspondre au 16:9 de nos télévisions de salons. Et en suivant une telle méthode et grâce au 5K et 4K the girl with thé dragon tattoo est surement ce qui se fait de mieux en matière de résultat lors du passage au format bluray. La logique est donc de tourner en 5K pour n’en utiliser que 4K, et contrairement à ce que l’on pourrait croire on y gagne en définition car en effet on se sert de toute la capacité et la taille du capteur plutôt que de zoomer dedans.

Alors voilà encore un aspect souvent peu clair des coûts « cachés » d’une Red, étant un utilisateur de ces caméras depuis leurs sorties et ayant une pratique souvent nomade de celles-ci du fait de tournages de documentaires il me semblait intéressant de témoigner de ces quelques détails techniques un peu extérieurs à notre métier, quoi que?


La tueuse de HDSLR? Complément d’information.

Je disais dans mon post précédent que la petite caméra de Blackmagic Design serait une « tueuse » de 5D et autres C300 parce que notamment elle enregistrait en RAW en interne et qu’en cela elle remplaçait la Scarlet annoncée à l’époque 3K à 3.000$ par Jim Jannard. Ayant reçu beaucoup de commentaires depuis cet article je reviens sur ces deux informations car je vous dois des explications sur la forme comme sur le fond. Tout d’abord j’ai eu la chance de pouvoir tourner avec bon nombre de caméras existantes depuis le HI8 et l’Umatic, le DV et le Beta alors qu’en parallèle j’apprenais à manier du film 35 et 16mm sur des Arri et autres Panavision.

J’ai été comme beaucoup d’entre nous choqué et intrigué par la sortie de la Red One qui annonçait un bouleversement notable dans nos métiers en cela que le numérique pouvait faire jeu égal pour un budget bien moindre avec la pellicule. Très vite j’ai eu l’occasion de pouvoir utiliser l’engin sur des tournages et le voir évoluer ainsi que son workflow qui reste souvent méconnu des gens pressés de vouloir tourner en Red sans en connaitre la face cachée. A mon sens cela vient du fait que l’on a à faire d’une part à des clients qui ne connaissent rien à nos métiers mais on entendu parler ici ou là de la machine qu’ils veulent donc utiliser sur leur tournage (pub, clip…) voire des utilisateurs bercés au seul son du numérique qui pense non seulement rivaliser mais dépasser la qualité de la pellicule qui serait à l’image d’un film en noir et blanc d’une autre époque… À coté de ce développement à gros budget s’instaurait celui du HD, après un court passage par le presque HD à 720p, et surtout celui des médias à mémoire qui enterraient les bandes et les cassettes. Pour autant même si les modèles HVX de Panasonic ou XDCam « cinéalta » de Sony étaient alors utilisés dans quelques films (REC, District 9… aux cotés de RED notamment ) cela restait de bonnes caméras pour un format télévision mais le capteur et les codecs semblaient un peu juste pour une exploitation autre.

À cela est venu s’ajouter une petite trouvaille du secteur photographie recherche et développement de Canon qui arrivait à filmer avec son appareil au capteur CMOS full frame ou APS. Dès lors et malgré la piètre qualité du codec et donc du résultat final (moiré, aliasing et autres rolling shunter, le tout en H264) le petit gadget envahissait nos tournages et devenait même un must have. Aujourd’hui si l’on sait utiliser ces machines correctement (quand elles sont utiles) on peut faire de belles images je n’en doute pas mais l’ergonomie et l’horreur du codec nous font souvent regretter une caméra d’épaule Beta numérique. Voilà pourquoi la sortie de la petite blackmagic ou de l’ikonoskop me semble une bonne nouvelle, en cela que si le capteur est plus petit que les dslr de Canon, mais assez proches du GH2 de Panasonic, au moins on peut obtenir un fichier RAW nativement et travailler en 2,5K dans la cas de la blackmagic (Ikonoskop se limitant à du 1080P). Je rappelais que seul RED possède le brevet pour utiliser nativement du RAW sur ses caméras, c’est toujours vrai en cela que Arri doit utiliser un enregistreur externe pour accéder au saint graal et que nos petits amis cités plus haut se limitent au format 12 bits CineDNG d’Adobe.

Alors en quoi cette petite machine au look un peu rétro peut elle tuer malgré ses défauts (batterie intégrée et absence d’entrée XLR…) le HDSLR?

Le codec tout d’abord et bien meilleur rien à dire, il n’y a qu’à utiliser du RAW pour ne plus vouloir revenir à autre chose et le DNG est bon, de toute façon il est incomparable avec du H264 8 bits 4:2:0. Et pour ceux qui le 4:2:2 10 bits suffit ils auront le choix entre des fichiers AVid ou FinalCut dans un Codec reconnu par toutes les plateformes de post production.

Les métadonnées et l’apparition de mots clés, bien pratique et plus encore lorsque l’on passe en post production. L’enregistrement interne sur des SSD de 2,5 pouces de moins en moins chers.

La monture EF et ZF qui donne accès aux optiques abordables.

L’ultrascope en Thunderbolt, un plus qui change la vie lorsque l’on veut monitorer ses images de manière plus réaliste que sur un simple écran de 5D.

Le capteur serait, aux dires de nombreux commentateurs, un point à mettre dans la colonne des moins. Pourtant il permet une dynamique de 13 Stops dans l’image et contrairement aux idées reçues il ne s’agit pas d’un capteur au format 16mm, le BMD est supérieur et se situe entre un super 16mm et celui qui équipe un GH2. Il s’agit donc plutôt d’un 4/3 de pouce.

Le format d’image de 2,5K se situe en réalité en dessous du 2K en cela qu’il est plus étendu mais donc moins haut. On est bien loin du 4K qui reste de toute façon bien loin du 35mm voire de l’Imam. On dispose d’un format certes atypique mais assez proche de ce que l’on pourra diffuser avec les normes numériques qui s’imposent à nous dans le salles de cinéma qui ont investie dans des projecteurs 2K.

Certains commentateurs me rappellent que j’annonçais une norme à 4K dans les années à venir, je le pense toujours mais je sais aussi que depuis que je tourne en RED et en Alexa nombre de productions se satisfont d’une simple HD pour des raisons de budget tant au tournage qu’en post production. Pour conclure si je suis amené à décliner l’utilisation de cette caméra ce sera pour des raisons d’ergonomie ou de batterie mais pas pour des raisons de qualités de son capteur ou de son codec, je reste favorable à des caméras petits budgets plutôt qu’à des machins peu pratique et ressemblant à des arbres de noel pour filmer en 4K mais… Je n’oublie pas que le Film n’a pas encore de concurrent direct en tournage et en diffusion du moins dans les normes qui nous sont proposés aujourd’hui par l’industrie.


Retour à la réalité.

De mon coté j’étais en tournage à Chypre, coté grec puis à Istambul pour une série de programmes courts partant à la découverte des villes d’Europe et d’Occident pour une télévision du Qatar. Nous tournons les premiers épisodes avec une Sony EXcam EX3 malgré son codec interne LongGop à 35 Mb/s et une 5D (et son horrible H264) vient faire office de caméra B pour les interviews.

En revenant sur des tournages avec des caméras de type ExCam on se souvient comme il est appréciable d’avoir un outil assez ergonomique, peu couteux, stable et doté d’un workflow des plus simples. Après de nombreuses galères ou malentendus avec notamment des RED qui malgré leurs grandes qualités peuvent parfois causer des angoisses voire poser des problèmes, de son, d’allumage, de workflow ou d’autonomie.

Pourtant mon choix pour l’année à venir est bien d’essayer de ne travailler qu’avec une RED, en l’espèce la Scarlet et de pouvoir ainsi délivrer des films allant du format 4K au HD. En effet je vous ai déjà conté les mérites du petit enregistreur externe pix 240 de sound device et c’est bien grâce à lui que ce choix est possible.

Capable d’enregistrer en 10 bits, 4:2:2 et en AppleProRes comme en DnxHD (pour les monteurs en Avid) jusqu’à 220mb/s dans les deux codes, sur des SSD de 2,5 pouces (dont le prix baisse de plus en plus et dont la qualité est très bonne y compris dans des tournages compliqués en présence de poussières, d’embruns, de neige…) mais aussi sur des cartes CF. On alimente ce petit bloc très compact et solide par la caméra elle même ou via des batteries Sony L, on pourra alors se plaindre d’une autonomie un peu courte car il faut toujours qu’on se plaigne. Pour le reste, à part l’écran qui ne restitue pas vraiment la colorimétrie des images que l’on tourne, un défaut de balance des blancs récurrents sur tous les modèles que j’ai utilisé. Mais comme l’on dispose d’entrées mais aussi de sortie en HD-SDI et HDMI on branchera un moniteur de contrôle. Mon small HD faisant alors parfaitement l’affaire. Du coté du son, on peut faire confiance au pré-ampli de sound device pour s’occuper parfaitement des canaux audio notamment à travers les entrés XLR que l’on peut configurer et monitorer comme on le souhaite.  Les différents upgrades de l’engin nous permettent désormais de ne plus avoir à appuyer sur la touche enregistrer de l’appareil et c’est bien pratique. Je m’en explique, une fois relié à la caméra c’est le bouton de cette dernière qui pilote l’enregistrement sur le pix 240 évitant d’avoir à déclencher deux fois mais surtout d’interrompre par inadvertance par pression des grosses touches du boitier externe.

C’est donc un boitier qui a su me conquérir car il me donne une certaine sérénité dans le travail, quelque soit la caméra que j’utilise, le codec est toujours le même et le haut débit d’écriture donne un peu plus de qualité à mes images y compris en provenance de caméra 1/3 de pouce ou d’un demi pouce.

Pour exemple sur ce type de tournage pour le Qatar à travers le monde (il est prévu de faire escale à Paris, Londres, Prague, Berlin, Amsterdam, Barcelone et New York City dans un premier temps) il me permet de proposer un meilleur codec à la production qui tient à tourner la chose en ExCam (ils disposent déjà d’un parc de caméras de ce type) et de disposer l’air de rien de 2 canaux audio supplémentaires, et d’une copie de sauvegarde sur cartes SxS en plus de la duplication des rushes sur deux disques durs chaque soir.  Je voyage l’esprit tranquille, le workflow est des plus simple, l’ergonomie est bonne et le tout étant solide et compact l’appareil se loge dans un sac à dos dans une petite housse et depuis le temps n’a pas pris un coup.

Les SSD sont un bonheur en terme de rapidité et de fiabilité (j’utilise des SSD Samsung 830 et des OCZ Vertex 3). Les monteurs sont ravis de posséder les images en AppleProRes ou en DnxHD selon leurs demandes, et enfin je peux proposer à mon tour des tournages avec la Scarlet voir l’Ikonoscop sans être tenu à un workflow plus long et couteux en temps et en matériel. C’est donc un achat certes un peu couteux (on le trouve en France à 3500 euros mais son prix devrait baisser) mais qui permet aussi de rentabiliser une caméra comme la RED en permettant de l’utiliser lors de tous les tournages ou presque ce qui n’est pas rien lorsque l’on voit le cout d’un tel achat. Voilà comment je vais donc proposer à la production de tourner la saison 2 de ces programmes courts en Scarlet et de leur délivrer les rushes en HD 10 bits à 220mb/s afin que cela ne nuise pas en temps et en argent à la post production.

Par ailleurs le 4K semble devoir devenir la prochaine norme de diffusion du moins si l’on écoute les différents bruits venant de chez Sony qui annonce ni plus ni moins vouloir devenir leader sur le marché du 4K tant en captation qu’en diffusion en étant capable de fournir des caméras et des HDSLR dotés de tels capteurs et de processeurs capables de traiter un tel flux et de la diffuser sur un projecteur vidéo de salon en l’occurrence le modèle VPL-VW1000ES dont on en connait pas encore le prix qui sera aussi capable de convertir des sources en 2K ou en simple HD. La NHK elle, vient de révéler qu’elle travaillait sur un capteur de 8K, le futur semble s’inscrire dans une course à l’armement technologique que les japonais n’ont aucune intention de laisser aux USA ou aux européens. Enfin si ces normes n’atterriront pas dans nos salons avant 2016 sachez que les codecs vidéos permettant de tels encodages sont déjà à l’étude en vu de remplacer notamment le H264, ainsi le H265 (en fait le High Efficiency Video Coding HEVC) sera capable de réduire la taille des fichiers de 40% à qualité égale mais surotut prendra en charge des formats jusqu’à 7680X4320 pixels. C’est en effet le format (Ultra High Definition Television UHDT) 4320p ou 8K qui semble avoir était retenu. On en saura plus dans un an lorsqu’en janvier 2013 lorsque l’Internation Telecommunication Union et MPEG-LA dévoileront les spécifications sur successeur du H264, sans regret.


Changer le cadre et le regard dans l’Interview.

Lorsque l’on fait beaucoup de documentaires on est amené à tourner des interviews et donc à se poser la question de la mise en place, de l’éclairage et du cadre notamment lorsque l’on capte à une seule caméra. Comment coller au sujet et à l’ambiance générale tout en « innovant » en apportant une vision et un style différents.

Hormis de nombreuses recherches personnelles visant à varier l’éclairage pour coller aux propos, à l’émotion et à l’ambiance du film, ou à chercher un cadre et un décor favorisant la concentration sur les propos des intervenants, c’est en regardant de nombreux films que je peux trouver certaines influences. S’il peut sembler que depuis le temps on aurait fait le tour du sujet notamment en matière d’éclairage ou de cadre il faut constater que certains projets récents et ambitieux nous ont apportés de quoi réfléchir à nouveau à la façon de filmer cet exercice.

Vous pensez déjà que cela nécessite une grosse mise en place et de couteux accessoires? Il n’en est rien, un peu de bricolage et quelques kinos, rien de plus, à quoi l’on rajoute effectivement un petit accessoire, le eye-liner qui permet de « voir » l’intervieweur dans l’axe de la lentille de la caméra ainsi l’interviewé porte son regard non plus de coté mais bien droit dans les yeux de son auditoire. Le procédé m’intéresse suffisamment pour que j’ai envie de l’utiliser depuis longtemps pour une série documentaire sur laquelle je travaille avec une nouvelle télévision. Je vais donc détailler cette méthodologie afin de démontrer que l’on peut encore faire progresser l’interview à une seule caméra.

Si le procédé est donc connu et qu’il vous suffit d’acquérir ou de louer l’Eye-liner pour quelques euros ou dollars et que le système de miroir encore faut il que votre sujet nécessite ou ne contre dise pas que l’axe du regard soit droit dans l’objectif de votre caméra. Le meilleur exemple en la matière est surement le travail de Logan Schneider pour « America in Prime Time », série de portrait de grands noms de Hollywood qui se confient face caméra pour raconter l’envers du décor que vous pouvez retrouver sur PBS en ce moment. Vous pouvez d’ailleurs retrouver cette interview de Logan Schneider dans le numéro de Novembre de American Cinematographer.

Logan a utilisé une très belle caméra, une Arri D21 et un seul zoom Angénieux 24-290mm 2.8T signifiant que les moyens de la production étaient à la hauteur de leurs ambitions. Ils disposaient d’ailleurs de deux studios identiques, l’un à New York City, l’autre à Los Angeles. Mais ce choix assez simple et léger est souvent celui auquel on est confronté sur un tel projet. C’est en tout cas un choix matériel que je fais souvent lorsque j’ai a tourner ce genre de projet, un seul zoom, une seule caméra et comme souvent la production lui demandant de livrer son produit dans un format et un codec de très bonne qualité et en 4:2:2 il va adjoindre un enregistreur externe Sony HDCam SR afin d’avoir un workflow cohérent et pratique.

 

Coté éclairage, de même, il va utiliser quelques kinos  dont celui faisant office de Key Light est placé de 3/4 et largement diffusé, et celui en Back Light vient contraster le côté opposé du visage de l’interviewé. Son arrière plan, éclairé par touches, est lui, composé de plaques de Plexiglas, une matière que l’on retrouve dans le premier plan, donnant ainsi plus de profondeur à l’image à travers des tubes qu’il a placé de chaque côté de sa mattebox afin de donner cette illusion de flou et de diffusion de la lumière autour du sujet. Ce dernier, située à presque 3 mètres du Eye-liner, regardant donc droit dans l’axe de la caméra. L’éclairage très contrasté et chaleureux accompagné de ce décor et de ce procédé donne donc à l’ensemble une atmosphère propice à des confessions, Schneider se contentant parfois de jouer avec le zoom pour varier lors de l’interview le cadre de celle-ci. C’est à travers des exemples ingénieux et assez simples que l’on peut se questionner pratiquement sur notre manière traditionnelle de travailler et de faire un cadre et une belle photographie sans pour autant avoir besoin d’une débauche de matériel et de technologie. Cela me donne encore plus envie d’essayer sur une prochaine production cette technique afin de donner encore plus de fond aux propos des intervenants.

Enfin je voudrais terminer en signalant que , suite à la journée de conférence  » Le fabuleux destin de la couleur » du 3 novembre dernier à l’école nationale supérieur Louis Lumière vous pouvez retrouver sur le site de Colorpipe.org différentes analyses et retour d’expériences sur les nouvelles normes et technologies en matière de colorimétrie et d’étalonnage.


« Mon Premier Cannes : Clemence Poesy » à propos de Jeanne Captive de Philippe Ramos

Tout est dit dans le titre, j’ai tourné, en compagnie de Isabelle Renier journaliste au Monde dont voici le blog : Film Bazar. Cet épisode de Mon Premier Cannes en Mai dernier avec Clémence Poésy qui m’avait accordé du temps et beaucoup de gentillesse et des propos clairs sur comment préparer un tel rôle notamment quand le personnage souffre d’une aura pas forcément facile à endosser. Jeanne captive était présenté à la quinzaine des réalisateurs.

Par ailleurs Philippe Ramos a fait lui même la lumière et le cadre mais aussi les décors, et nous livre un film particulier et beau que j’ai hâte de trouver en DvD faute de sortie dans les pays que je sillonne en ce moment.

De mon côté j’avais tourné cela avec des Canon 5d MarkII et des optiques Canon série L.


Tourner en Raw, un parcours « brut ».

Il y a quelques années, qui peuvent paraitre des décennies tellement les choses évoluent vite dans notre domaine, un ami libanais réalisateur notamment de séries télévisées pour des chaines locales me demander de venir le rejoindre sur un projet qu’il comptait tourner avec une RED, il voulait mon expertise. Jusqu’ici son expérience l’avait conduit jusqu’au HD avec des caméras de type Sony EXCam ou Panasonic HVX et HPX, je l’avais d’ailleurs aidé avec celles-ci à construire un workflow efficace. Il était novateur dans cette région de travailler avec de tels formats car y compris les télévisions étaient encore au format 4:3. Si les séries télévisées sont très célèbres, les couts de production sont souvent assez serrés contrairement au vidéo clip qui lui connait des budgets exceptionnels.

Il était d’ailleurs passé un jour sur un tournage d’un clip que nous faisions et il décidait de se lancer dans l’aventure du Raw, tellement l’image lui paraissait belle. Après une longue discussion je lui conseillais d’abandonner cette idée tellement les couts de stockage et les temps de traitement ne s’adaptaient pas à son calendrier ni à son budget. Aujourd’hui que la Scarlet va « démocratiser » le Raw, la question se pose t-elle encore pour ce type de production? Était-ce une simple question de coût ou bien un choix logique que celui de rester en HD?

Qu’est ce que le RAW?

Un format que beaucoup on d’abord rencontré dans le monde de la photographie à l’époque où l’on tournait encore avec des caméras en définition standard en interpolé. Le format « brut » est directement issu des informations du capteur qui va encoder selon son propre mode propriétaire le fichier dans une dynamique bien supérieure à celle très limitée du Jpeg (8bits) dans le monde de la photo, pour être décompresser, un peu comme l’on développerait un négatif numérique comme l’on faisait avec de l’argentique jusque là.

On accède avec le Raw y compris en vidéo à un fichier qui n’a pas compressé l’image autrement que par la limitation de dynamique qui se situe à 16bits dans le meilleur des cas. Le fichier est donc compressé mais « sans perte », on maitrise la suite du traitement et donc de la post-production grâce à des images qui contiennent plus d’informations mais aussi des métadonnées. On pourra ainsi réajuster la balance des blancs, l’exposition ou d’autres paramètres comme si l’on était au tournage. On peut toujours régler tous ces éléments avec la caméra mais il s’agit alors plus d’options de monitoring, afin de se rendre compte d’un style qui a pu être choisi avec le réalisateur.

La taille du capteur, sa résolution, sa composition en terme de photopiles mais aussi sa dynamique et sa colorimétrie sont donc ici très importants et le fait de pouvoir travailler dans un espace de 12 à 16 bits par pixel et par couleur restitue pleinement l’image que l’on capture.

Tout d’abord dans quelle mesure peut-on parler de RAW? Quelles caméras proposent ce format?

J’ai toujours du mal à utiliser le terme de « Raw » pour parler d’images capturées ainsi, et je m’en explique, un peu de mathématiques viennent contrarier cette appellation générique qui cache en fait un secret très bien gardé par RED depuis le début, à savoir l’utilisation d’un algorithme de compression dérivé du Jpeg 2000. Car si l’on partait à l’époque de la RED One (qui écrivait ses données sur des cartes CF) et de son capteur de base de utilisé en format 4K 16/9 soit 4096 par 2304 pixels soit 9,368,064 pixels par images. Que l’on mutipliait ce chiffre par le nombre de bits à savoir 12 et que l’on rapportait tout cela en Mega Octets puis que l’on multiplié par le nombre d’images dans une secondes (24 au cinema) on obtenait le chiffre démesuré de 2573 Mb/s. Or à l’époque pas si lointaine que cela du REDCode 36 on enregistré plutôt à un débit de  240 Mb/s soit un ratio de compression de 10:1, on peut certes descendre à 3:1 avec l’Epic, mais, au jour où mon ami réalisateur me demandait ce qu’était le Raw voilà ce que je devais lui dire. Le RAW RED Code est avant tout un mode de compression qui pour ton projet sera toujours trop volumineux et trop lourd à traiter d’autant plus que son projet se tournait à deux caméras. Mais lorsque je tournais avec une Phantom à 2K j’avais des fichiers 8 fois plus volumineux à l’époque qu’avec ma RED. Il y a donc un débat sur la justesse du « Raw » pour traiter des fichiers .r3d. Mais RED est pourtant bien la seule compagnie de caméras ayant le brevet permettant d’utiliser le Raw avec compression…

Et pour le reste tous les dispositifs « non compressé » ou solution de type Raw ne sont pas techniquement du Raw et sont le plus souvent limitées par le fait que l’on utilise le ou les sorties HD-SDI de la caméra qui sont limitées à 10 bits. Pour autant dans cet espace restreint par rapport à du 16bits on va capturer une image dans un format que l’on pourra aussi manipuler et auquel on pourra appliquer des LUT ou bien travailler en étalonnage bien plus confortablement que dans le codes natif de la caméra au prix certes d’un matériel et d’un logiciel interne à la caméra que l’on doit souvent acheter en sus.

Ainsi la Alexa dispose de deux Codex sur le marché qui enregistre sur des SSD à raison de 15Go la minute des images qui se rapprochent techniquement du Raw mais via le T-Link de l’allemande. Il s’agit bien là d’un système assez couteux mais non compressé et sans piste audio, permettant aussi de doper la définition jusqu’à du 3K. L’image en sortie d’une telle machine devrait peser 7Mb à la capture pour arriver à 19Mb lors de son traitement. Reste à signaler que le cout d’un tel dispositif double presque celui de la caméra.

Panavision ou Sony aussi ont créé un enregistreur externe propre respectivement aux caméras haut de gamme destinées au cinéma (la Genesis ou la F35) qui ne fournissent pas de Raw et donc via le sLog et la double sortie HD-SDI on va fabriquer desimages en DPX.

Ensuite, il existe des enregistreur externes de marques tierces comme convergent design ou black magic design qui toujours en étant limité à ces 10 bits profitent pleinement des doubles sorties HD-SDI pour compenser ou bien permettent l’encodage en 4:4:4:4 afin de restituer un maximum d’informations de lumière et de couleurs. La qualité du Pro Res 4444 se situe juste en dessous du HDCam SR de Sony soit 130Gb/h

D’autres appareils eux encodent dans des codecs plus ou moins destructeurs en MXF ou en AppleProRes 422 qui peuvent aussi servir de proxys pour le montage. D’ailleurs Arri conseille la capture sur les cartes SxS en ProRes en plus du Codex à cette fin. Avec la RED j’utilise depuis peu un enregistreur externe le PIX 240 de Sound Devices qui dispose de SSD et d’un écran de contrôle et depuis une mise à jour récente se couple parfaitement avec ma caméra en cela que l’enregistrement sur ma caméra provoque celui en HD en ProRes automatiquement. Ce procédé me permet une relecture sur le plateau de mes plans mais aussi d’utiliser une seule caméra pour tous mes projets du 5K au HD.

J’en profite pour faire à nouveau une petite publicité pour cette petite caméra de type Super 16 Ikonoscop qui enregistre selon un codec CineDNG de type RAW de 12 bits pour un taux de compression assez bon mais en simple haute définition traditionnelle.

Pour autant tout ce qui est RED Code RAW n’est pas vraiment du brut. Certes on en a fini avec les compression de 42:1 mais il reste que la Scarlet ne proposera au mieux que du 6:1, l’Epic propose du 3:1 alors qu’il s’agit du même capteur ce qui laisse à penser que RED a choisi de limiter les possibilités de sa dernière production en la bridant volontairement afin de justifier le prix de la Epic.

Le crop factor lors du passage à 3K, 2K voire 1K :

On n’a pas toujours besoin d’une image capturée à 4 ou 5K, et par ailleurs l’on sait que pour tourner à plus grande vitesse on a besoin aussi de réduire à la taille de l’image afin de compenser le travail du processeur et de permettre une écriture des données sur le média. RED propose donc la possibilité de réduire la taille du capteur utile pour gagner en vitesse allant sur la Scarlet jusqu’à proposer de tourner à 1K. Mais pour être raccord dans un même plan entre l’un tourné à 4K et l’autre à 2 ou 1K il faudra aussi changer d’optique car réduire la taille du capteur induit un effet multiplicateur de la focale. Car l’on retombe d’un super 35mm à un super 16mm voire moins. il faut donc savoir jongler avec ces ratios et de savoir à l’avance que les très grands angles de certaines optiques favorisent aussi des distorsions dans l’image et que cela peut poser problème. Je souffre de cela avec l’Ikonscop qui multiplie par 2.7 toutes les valeurs de mes focales et l’utiliser en grand angle n’est pas si facile que cela. Concernant la RED voilà donc à quoi s’attendre en terme de facteur multiplicateur lorsque l’on filme à 4K, on a l’équivalent d’un APS-C donc 1,6x. à 3K c’est un capteur 4/3″ donc le facteur est 2,0x. Pour une utilisation à 2K (2048×1080)  on se retrouve à utiliser un capteur 2/3″ soit un facteur 3,9x. Enfin à 1K (1024×540 pixels) on doit multiplier par 6,4x.

Une avancée au sein du RAW le HDRx :

Comme le RAW, vous avez peut-être croisé le HDR (High Dynamique Range) dans le monde de la photographie. On est loin du temps où notre caméra filmait une demie image et la combinait avec la suivante pour restituer une pleine image par interpolation. Là aussi RED vous propose depuis la Epic de profiter de ce mode de tournage qui pour faire vite agrandit la dynamique en la poussant à 18 Stops en capturant non pas une image mais en combinant deux, la première où l’on favorise les parties sombres (+3 ou +6 stops) et la seconde où l’on va chercher des détails dans les parties de hautes lumières (-3 ou -6 stops). Ce qui se traduit par une dynamique de 18 stops quand bien des caméras sont limitées à 13,5 stops. Le prix à payer pour obtenir ces images très détaillées et permettant une nouvelle forme de prise de vues, est double, en espace matériel pour les stocker mais aussi en temps pour les traiter.

Car il existe en réalité deux formes de HDR, le Easy qui combine (mapping) ces deux images en une seule lors de la capture et donc a une influence sur la compression de chacune d’elles pour garder le le rythme de processeur, le RED Code 50 et 100 sont là pour répondre à ces cas de figure. Même effet négatif avec le HDRx qui, lui conserve sur les médias les deux images sous exposées et sur exposées en laissant le traitement lors de la post-production, mais il faudra aussi disposer d’un espace de stockage conséquent lors du tournage puis lors du montage ou de l’étalonnage mais aussi en ce qui concerne les copies de sécurité. Toutes ces questions sont aussi primordiales et doivent rentrer en ligne de compte lors du choix de tourner en RAW.

Quel Workflow pour quelle utilisation?

On en revient à la discussion avec mon ami libanais afin de voir que le parcours d’un tel tournage en RAW est long et couteux je vous dresse rapidement 3 workflows types qui prennent en compte les copies de sauvegardes, les exports et copies finales, et les ressources matériels ou logiciels afin de traiter de telles images.

Workflow RAW de bout en bout :

Tournage et montage RAW, avec LUT, conformation puis étalonnage toujours en RAW pour enfin exporter en DPX. Ceci est possible depuis peu notamment grâce à des logiciels tels que Da Vinci, Lustre ou Scratch qui gèrent ce format dans ces différentes étapes. C’est en partie une raison qui m’a poussé à me tourner vers Da Vinci afin de maitriser une chaine lors de mes tournages avec la RED, Color ne me permettant que l’étalonnage 2K et oblige le recours à des proxys, et le manque d’informations de Apple quant au futur de son programme d’étalonnage me fait opter pour une solution de repli contraignante du fait de l’exigence en terme de carte graphique de la part de BlackMagic.

Workflow Basse et haute définition :

Tournage RAW puis conversion DPX pour un montage basse définition DPX puis conformation haute définition DPX, étalonnage puis export.

Workflow transcodage en DNX ou AppleProREs :

Tournage RAW puis conversion DNX ou AppleProREs 4:2:2 ou 4:4:4 pour montage puis conformation RAW mais étalonnage en DNX ou ProRes puis export DPX

On voit que si de nombreux allers et retours sont possibles pour convenir à presque tous les processus de création, il faut aussi compter en temps de conversion et de traitement de ces images. Auquel il faut rajouter et depuis la phase de tournage un temps de copie de sauvegarde des médias sur lesquels on tourne. Il y a donc une double problématique de stockage et d’archivage tant en terme de volume que de temps passé à acquérir et dupliquer. Le projet de série dont mon ami me parlait incluait deux caméras et je fis vite le calcul en taille et en temps que cela couterait à sa production sachant qu’il tournait les épisodes les uns à la suite des autres et que son délai était compté car il n’avait pas pris en compte ce facteur au départ, la diffusion par la chaine obligeait à un rythme de montage assez rapide et les moyens de production étant limités il aurait vite été noyé dans les copies et les disques durs pleins de rushes. Tous ces couts là auraient du être négociés en amont de son contrat avec le diffuseur mais aussi le prestataire de post production. Car lorsqu’il passait du beta numérique à la haute définition en AppleProREs 422 ou 4444 il avait, en fait, franchi le gap maximal dont il était capable en tant petite production.

Pour ce qui est du Raw, il faut traiter, stocker et sécurisé des données importantes et en cela un peu comme au bon vieux temps du film, seul un laboratoire en est capable. Car, n’oublions pas que, si de plus en plus de logiciels nous permettent de travailler à moindre cout sur de tels images, la seule façon de pouvoir exploiter celles-ci dans les années à venir , et donc avec d’encore meilleurs logiciels et codecs qui vont avec, c’est de stocker en attendant.

Voilà donc où nous en sommes dans cette course à l’armement dans le seul but de rattraper la qualité que nous donne le film 35mm, et si le tout numérique nous offre beaucoup de garanties et de possibilités il n’a pas encore enterré son ancêtre. Se rajoute à cela les assureurs qui sur de nombreux projets n’acceptent pas de valider certains workflows ou certaines caméras, j’ai par exemple du mal à imposer la RED sur certains longs métrages et il n’est pas rare que de nombreux confrères habitués à des Sony ou des Alexa souffrent des mêmes réticences de la part d’assureurs qui finissent par leurs imposer leurs outils de travail ce qui est une question primordiale mais dont il s’agit de traiter ultérieurement.


A Day at Race

Comme notre ami et Gourou Philipp Bloom avait en son temps réalisé un film court nommé ainsi pour tester sa 7D et ses optiques, je me suis dit de mon côté, pourquoi ne pas profiter d’un champ de course pour tester des profiles d’images (Marvels, Cine Style ou Panavision) et se faire la main une fois de plus sur Da Vinci Resolve voire FinalCut X. Me voilà réveillé aux aurores et quelques instant plus tard je rejoignais l’hippodrome de Beyrouth où les différentes écuries m’ouvraient leurs portes (je dois ici remercier Monsieur Nabil Nasrallah le directeur de l’établissement qui a permis ce tournage) afin de capturer avec une 5d les premiers moments de la journée. J’ai globalement utilisé uniquement la 5D avec des optiques Canon de la série L, à savoir un zoom 70-200mm 2,8 non stabilisé, un zoom 24-70mm et un 50mm, des filtres Nd une fois le soleil levé. J’ai pu faire ainsi pendant les 4 heures de tournages une centaine de petits clips en jonglant avec les « pictures profiles » afin de juger au montage et en post production du meilleur réglages pour mes prochains tournages avec cette caméra.

A part le fait que la lumière mit un temps précieux à vraiment se lever et que les entrainements débutent, eux, vraiment tôt, rien à redire, j’ai pu tester les 3 « pictures profiles » dans les conditions d’éclairages différents, de nuit avec des éclairages tantôt 5600K tantôt 3200K puis au levé du jour puis en plein soleil. J’ai terminer  à 9H00 ce qui correspond en fait la fin des entrainements pour les jockeys et les chevaux.

La deuxième étape consiste à filmer la course dimanche prochain afin d’en faire une histoire je l’espère, jolie à regarder, puis de travailler les couleurs aussi bien dans Color que dans Resolve afin d’en sortir deux styles différents et de continuer mon apprentissage chez Da Vinci. Dès que tout cela sera terminé, le film sera sur Vimeo afin que mes collègues coloristes et autres utilisateurs de Canon puissent me dire ce qu’ils en pensent et me donner conseils et avis sur les « pictures profiles » voire sur les techniques de retouches. Avancer en partageant.

Vous l’aurez compris c’était un jour de repos à Beyrouth.


Next Music Station au Festival du Film de Donostia (San Sebastian)

Il y a un peu plus d’un an maintenant mon ami Fermin Muguruza chanteur célèbre pas seulement au Pays Basque mais aussi réalisateur de l’excellent « CheckPoint Rock Palestine » me proposait de travailler avec lui sur un projet de série documentaire pour Al Jazeera: « Next Music Station ».

Le but faire le tour des pays arabes pour en dresser un portrait musicographique. Je ne pouvais refuser, le plaisir fut encore plus grand de travailler avec Jordi Abusada qui officiait en tant que directeur de la photographie sur l’ensemble du projet.

Le résultat est une série de 13 films de 52 minutes que vous pouvez voir sur Al Jazeera. Les 2 épisodes tournés au Liban sont en compétition au Festival du Film de Donostia (le nom  basque de San Sebastian) si vous êtes dans le coin allez y, le festival a lieu du 16 au 24 Septembre.. Sinon allez voir du côté de Fermin pour connaitre ses prochains projets et les horaires de diffusion des films sur Jazeera english par exemple.

http://www.muguruzafm.com/

Nous avions tourné avec deux caméras, EX1 & EX3 de chez Sony. La lumière était belle sur le bord de mer de Beyrouth mais aussi dans le camp de réfugiés de Borg el Barajneh pour la séquence avec le groupe de Rap palestinien I-Voice. Un vrai plongeon dans la musique arabe.

http://www.sansebastianfestival.com/index2.html


Bienvenue

Voici un petit tour de mon travail en tant que Directeur de la Photographie – Chef Opérateur. J’ai cette chance d’exercer mon métier à travers le monde,

en filmant des clips, des documentaires, des interviews, des films institutionnels ou de sport (ski et mountainbike notamment). De ces voyages, des ces rencontres naissent d’autres projets et ainsi va la vie. Ici, vous pourrez suivre l’évolution de mon travail et y découvrir pourquoi pas l’envers du décor ainsi que de nombreux liens vers l’industrie de la production et de la post production, du cinéma.

Enfin ma géolocalisation entre l’Europe et le Moyen-Orient vous donnera peut être à découvrir d’autres horizons et cultures. Comme vous le constaterez je travaille avec des caméras digitales telle que la Arri Alexa, la Red One MX, la gamme des Sony XD & EX Cam HD, mais aussi des HDSLR comme le Canon 5D voire des GoPro HD lorsque le temps est à l’action sur l’eau ou sous la neige. Mes choix de tournages se portent essentiellement sur des rencontres et des envies, je navigue entre Dubai, Paris, Beyrouth, Téhéran et ailleurs en tout cas le Moyen Orient est un parfait terrain de jeu dont la lumière est splendide.

N’hésitez pas à jeter un coup d’oeil à mon showreel ou à rentrer en contact avec moi.

Merci

Emmanuel Hiriart