Emmanuel Hiriart- Directeur de la Photographie

Articles tagués “red

Mise à jour du capteur Red Dragon 6K (un goût de noël avant l’heure, mais après tout c’est l’Aïd)

Difficile de s’en tenir au seul « making of » comme annoncé dans le précédent billet lorsque Red annonce la sortie, ou plutôt la mise à jour de son capteur Dragon 6K. Alors voilà quelques détails techniques pour faire saliver ceux qui seraient sur les rangs pour passer ce cap réservé aux seules Epic, la Scarlet et en effet limitée dans cette mise à jour, à 5K pour un maximum de 60 ips, surement pour justifier des différences de prix et un placement marketing (je rappelle que les limitations de la Scarlet sont en effet purement liées au logiciel interne).

Tout d’abord le dernier né des capteurs de chez Red est donc un 6K 6144 (h) x 3160 (v), soit pour ceux qui auraient comme base du HD (1920×1080), 9 fois plus de résolutions. L’idée est simple, on se rapproche d’une part de la qualité du 35mm et surtout on a un format plus grand que celui de la diffusion qui semble se diriger vers le 4K aussi bien dans les salons que dans les meilleures salles de projection publiques.

Blacklistfilms-RED-DRAGON-Still-Frame-2

Le capteur de 19 millions de pixels permettra même de filmer en 6k à une cadence de 100 images par secondes (120 ips à 5K, 200ips à 4k et 300ips à 2K), un peu comme si votre meilleur appareil photographique avait une fonction rafale de cette puissance (le mien ne fait guère mieux que 12 images par seconde) et que vous puissiez en plus éditer cela en tant que fichier vidéo Raw mais selon le codec R3d qui permet une compression pas inutile lorsque l’on passe à la gestion des fichiers en post-production.

comme l’on parle de procédé Raw et donc d’un traitement de l’image, de sa débayérisation non pas dans la caméra mais par un ordinateur il vous faudra aussi penser à investir dans une carte permettant ce calcul plus rapidement et pour cela Jannard le patron de Red a annoncé aussi une nouvelle RedRocket X cinq fois plus rapide que le premier modèle, ainsi qu’une version de RedCine-X Pro encore améliorée.

Blacklstfilms-RED-DRAGON-Still-Frame-1

Pour en revenir aux détails techniques du capteur, il dispose et c’est là la vraie nouveauté et l’énorme amélioration d’une sensibilité efficace de 250 jusqu’à 2000 ISO et d’une plage dynamique de 16,5+ stops. en fait le capteur gagne plus de 3 stops de dynamique par rapport à son prédécesseur, un dans les hautes lumières et deux dans les noirs. L’avantage est que l’on peut se retrouver dans des situations extrêmes de contre jour ou de différentiel d’exposition dans une même scène sans pour autant perdre des informations dans les parties sombres ou trop éclairées.

On pourra dès lors aussi pousser un peu plus la sensibilité en post production comme au tournage, selon les premiers essais il semble que des valeurs autour de 4000 ISO ne provoquent pas autant de bruit que l’on pourrait s’y attendre. Donc en parallèle on pourra aussi compresser un peu plus l’image mais obtenir un résultat comparable à une compression faible en utilisant le capteur MX. On parle ici d’une équivalence entre du 17:1 avec le Dragon et du 8:1 avec une Red MX sans affecter les teintes,les nuances, les noirs ou les blancs. On peut pousser cette compression de 3:1 à 18:1 en 12 ou 16 bit Raw.

La caméra (brain only) set annoncé à 29.000$ quand la mise à jour pour les possesseur d’Epic X ou M coutera un peu moins de 10.000$.


Comprendre le Raw, au début était la courbe de Gamma

De plus en plus de caméras « Raw » font leur apparition sur  le marché, de quoi faire perdre la tête à pas mal de production, à quelques heures/jours/semaines/mois de la sortie tant attendue du capteur Dragon de chez Red. Voilà donc tout un petit billet pour s’y retrouver dans cette jungle révolutionnaire, on y parlera technique et courbe de Gamma dans un premier temps avant de faire un état des lieux de l’offre réelle de ce marché en question, pour voir ce que va changer la dernière née de chez Jim Jannard. Mais en guise d’introduction, après les déboires passagers de Aaton, me vient une nouvelle de mes amis de Ikonoskop qui annoncent arrêter un temps leur production, après maintes chutes des prix de leur petite caméra, les voilà peut être eux aussi face à un problème financier de trop.

 

A l’origine, le signal d’une télévision, et donc de sa capacité à recevoir de l’information par onde, nécessitait de réduire au maximum les informations produites par la « large » plage dynamique d’une image issue d’une caméra. Il faut comprendre que la bande passante transportant ces informations est limitée dès 1930 et dans les décennies qui suivent l’invention de la télévision hertzienne.

A chaque ouverture d’un diaph supplémentaire par exemple on double la luminosité par rapport au diaph précédent. Donc, en parallèle, on devrait doubler la bande passante requise pour transférer (ou enregistrer) le surplus d’information obtenu. Mais en pratique la bande passante n’évoluera pas, elle est en faite constante et déjà à son maximum.

La mauvaise qualité de cette méthode de transmission télévisée sans intervention aurait abouti à ne transmettre qu’une petite bande ou partie de cette plage dynamique de l’image.Le choix se porta donc, sur la réduction d’information. Et pour conserver une image diffusible et acceptable, on choisi de sacrifier les hautes lumières tendant ainsi à préserver les noirs et les tons moyens, ceux du visages. On comprendra qu’en télévision le plus important était donc le sujet et que l’on pouvait sacrifier l’arrière fond sans pour autant transformer dramatiquement l’image de base ainsi diffusée.

Red-Dragon-1024x575

 

Voilà comment et pourquoi apparu la courbe gamma dont le travail consiste à préserver la lecture d’une image en réduisant les données des seules hautes lumières d’une image enregistrée ou diffusée, et donc en maitrisant la bande passante . Cette courbe s’ajuste au fur et à mesure de l’ouverture du diaph pour compenser cet afflux de données et donc faire disparaitre du même coup tout un tas d’informations dans les blancs, pourtant nécessaires à la lecture des éléments les plus clairs. Les noirs et les skintones, eux, ne sont pas vraiment concernés par l’opération et à force de s’habituer à ces amputations de l’image l’oeil finit par dire qu’il n’y voit pas de différence, bref, c’est diffusible sur le ondes.

Toutes les caméras vidéos utilisaient alors ce système de compression du signal qui empêchait y compris en post production de récupérer les informations perdus lors d’une surexposition sur un visage ou un ciel. Problème, les caméras gardaient le même système de compression et d’enregistrement alors même que leurs capteurs gagnaient eux en dynamique. Résultat, on perdait encore plus d’informations pour respecter la bande passante maximale du procédé d’enregistrement ou de diffusion. Paradoxalement plus les capteurs devaient restituer tout un plan des noirs au hautes lumières, plus on compressait ces dernières et plus le travail en post production devenait impossible du fait de la perte plus importante d’informations dans cette partie de l’image. On préférait donc une caméra ayant une moins grande dynamique d’image mais qui de fait la détruisait moins une fois gravée sur son support. Le mieux techniquement n’était pas l’ami du bien.

 

L’évolution nécessitait alors de se détourner ou de contourner cette courbe de Gamma afin de profiter pleinement des capacités des capteurs disposant de plus grandes  plages dynamiques. C’est là qu’entre en jeu le filtre de Bayer (même si la technique aboutissant au Raw n’est pas limité à un seul type de capteur), il s’agit d’un seul capteur qui dispose d’un filtre lui permettant de reproduire le plus fidèlement possible les couleurs de l’image captée en bénéficiant de toute la dynamique de l’image.Le système consistant alors à convertir les informations de lumière en un signal vidéo couleur. Le processus multiplie l’information de lumière en la traitant pour chacune des couleurs primaires. La multiplication de traitement qu’opère ce filtre, composé de rouge, de vert et de bleu, n’est pas réalisée de manière égale en cela que les filtres verts sont deux fois plus présents que leurs homologues bleus ou rouges, afin de reproduire une image qui correspond le mieux à ce qu’un oeil naturellement.

 

Mais à nouveau après ce traitement arrive le problème de bande passante, car concernant un capteur de 4K, soit 4096×2160 pixels il faut enregistrer plus de 8 millions d’informations (8,8 millions pour être précis) à chaque image capturée. D’autant plus que si le traitement doit s’effectuer à ce moment là, il faudrait encore le répéter pour chacune des couleurs primaires qui divisent l’information et transforme la lumière en couleur. Soit un total après traitement de 26,5 millions d’informations par image.

L’idée du Raw suppose une simplification de ce traitement qui normalement vient en plus s’enrichir des ajustements fait par la caméra ou l’utilisateur au moment de l’enregistrement, tels les balances des blancs et les choix de gain qui pourtant n’affectent pas la manière de travailler pour le capteur. Car quelque soit le réglage utilisateur pour reproduire l’image qu’il voit et qu’il veut diffuser seul compte la quantité de lumière qui vient frapper le capteur et se transformer en signal vidéo couleur (RVB) qui sera ensuite modulé (ou mixé) en fonction du gain ou du degré Kelvin choisi et aboutira à une image plus ou moins bleu, verte ou rouge et plus ou moins « lumineuse » après traitement.

 

 

 

Le Raw consiste donc à ne pas traiter de la sorte le signal mais à le conserver dans l’état qu’il connait au sortir du capteur et donc à ne pas dé-Bayériser, et donc à ne pas utiliser une courbe Gamma. La somme de données informatiques est donc moins considérable que si l’on procédait à tout ces ajustements ou traitements, et permet de ne pas le « compresser ». Pour ce qui concerne les caméras, photo ou vidéo, dédiées au seul noir et blanc (Ikonoskop, Red, Leica M) là aussi le procédé consiste à simplifier le traitement en retirant le filtre de Bayer, qui nous l’avons compris ne sert qu’à injecter des informations de couleurs dans le traitement de la lumière reçue par le capteur. Cela rajoute du piqué et de la définition à l’image monochrome qui dispose de tous ses capteurs pour travailler sans être déformée par l’effet de Bayérisation. Le traitement étant extériorisé les premières Red ne pouvaient même pas relire leurs propres images, et l’utilisation d’une carte vidéo RedRocket est fortement conseillée pour pouvoir lire et transcoder ces images. Cependant les capteurs agrandissant leurs diagonales se voient aussi améliorés dans leurs capacités à capter les hautes lumières. en un mot il est maintenant utile d’avoir une très grande plage dynamique de l’image. C’est ce que le capteur Dragon de chez Red nous promet avec plus de 20 Stops de dynamique.

RedDragonDR-650x298

Pourtant on devra toujours passer par l’étape de dé-Bayerisation pour lire cette image, ce temps de traitement et de calcul est donc repoussé à plus tard. Mais on pourra aussi y ajuster le gain, ou la balance des blancs en fonction de ses propres choix. D’autant plus, rappelons le, que désormais on dispose des informations totales de l’image dans les noirs, les skintones ou les hautes lumières. Mais à ce niveau là il faudra encore choisir entre caméras disposant d’un très large capteur, celles proposant du Raw, ou du DNG, entre celles disposant d’un encodage parfois médiocre en interne mais offrant d’autres possibilités en externe, ou compressant de manière habile les fichiers afin de pouvoir réduire aussi les couts en post production, stockage et autres sans pour autant nuire réellement à l’image vue par un oeil humain. Le RedCode est le seul procédé connu et autorisé à ce jour qui permet de réduire les données de ces images Raw (Red est le seul à posséder la licence Raw pour la vidéo, les autres ne le font qu’à travers du CineDNG ou un « Raw » Maison comme Sony ou Arri. Il permet un taux de compression plus ou moins variable afin de ne pas se retrouver avec des Téra-octects de données pour un film de 5 minutes. On revient sur cela dans un prochain billet.

post-7-1329838390,0755


Autopromotion

Je profite du NAB 2013 pour faire un peu d’autopromotion du travail que j’ai pu effectuer ces derniers temps notamment pour des télévisions et clients au Moyen Orient mais aussi en Europe. Ces images proviennent de quelques beaux voyages à Singapour avec Benny Ong, à Jakarta, en Europe du nord ou de l’est, à Paris pour des timelapses , au Liban, dans des camps de réfugiés avec l’UNRWA  et jusque sur quelques plages Cannoises aussi avec Clémence Poesy.  Dans le déluge d’annonce du salon mondial de Las Vegas dont je promets de faire prochainement un petit compte rendu et une analyse des tendances voilà un peu de nostalgie et un retour sur un peu plus d’un an de travail et de rencontres.


En tournage avec la Sony F3 et un Cinedeck (mise à jour)

Retour d’expérience avec la caméra son F3 alliée à un enregistreur externe cinedeck.

Tout d’abord pour tous ceux qui ont déjà eu à utiliser une Sony de type ex cam on se retrouve vite dans le fonctionnement, le positionnement des boutons et le menu permettant de configurer la caméra. On est chez sony comme à la maison avec tous les défauts d’ailleurs des caméras de la gamme (viewfinder pitoyable et inexploitable du fait de son positionnement arrière, panneau de réglage du son et du slow motion qui n’étant pas protégés viennent se dérégler ou s’enclencher au fur et à mesure de la journée et des portages).

On regrette d’abord juste l’enregistrement interne en 8bits 4:2:0 à 35Mb/s et bien sur la mise à jour payante du firmware pour avoir accès au S-Log 10 bits 4:4:4:4. Pourquoi acheter un tel objet pour se voir délivrer un codec peu honorable, pour le prix on aurait aimé une solution interne qui servent à autre chose qu’un proxy douteux.

Car si l’achat d’un enregistreur externe va délester le porte monnaie, l’ajout du Cinedeck et de batteries approuvées par la marque pour faire fonctionner la bête plutôt énergivore et c’est la caméra que l’on vient de lester de quelques kilogrammes. Et si l’on adjoint des optiques PL on arrive à un poids plutôt excessif compte tenu que l’on enregistre en HD à partir d’une caméra à la base plutôt légère.

Le Cinedeck lui, fonctionne sous windows, consomme on l’a dit beaucoup de batteries et met longtemps à s’allumer ou à s’éteindre (on doit quitter l’application puis éteindre windows).

Facile à régler, le Cinedeck confirme bien qu’il est connecté selon la méthode choisie et qu’il reçoit un flux. ensuite on sélectionne le codec en fonction de ses gouts. Tout va bien à part quelques pertes de son (via le cable hd-sdi) lors du tournage, le SSD fonctionne bien la machine chauffe un peu, le seul problème fut de trouver une place adéquat pour l’engin afin qu’il ne déséquilibre pas tout l’édifice et qu’il permette le portage de la caméra par la poignée, et sa mise à l’épaule. Enfin, il fallait aussi avoir suffisamment de place pour changer les batteries (celles de la Sony et celles de l’enregistreur) et les cartes SxS ou le SSD, tout en étant capable de manipuler l’écran tactile et les touches. Un casse tête au début et un surpoids difficile à amortir mais l’on s’habitue à tout, dommage vraiment que le 10 bits (ou 12 bits soyons réalistes) interne ne soit pas possible. Quand je pense que parfois je tourne en 4K avec simplement une RED scarlet, des revolts un moniteur tactile et des SSD pour un poids ridicule difficile de penser que l’on vient de construire tout cela pour shooter en HD et en Proress. Surtout lorsque l’on s’aperçoit que l’accès au viewfinder se fera difficilement en condition de tournage. Heureusement le vectorscope et autre parade du Cinedeck aideront grandement pour le choix du diapo.

Au final c’est tout de même assez lourd à porter mais aussi à exporter car les fichiers (pour mon cas en Proress HQ 4:4:4:4) certes assez joliment détaillés grâce au S-Log gagnent en lattitude et l’on profite alors d’une très belle caméra et d’un très bon capteur. Il y a des similitudes avec ce que l’on obtient avec une Alexa, peut être mais le bijou d’Arri est tout de même plus compact et ergonomique. Certes le prix n’est pas le même mais j’ose à peine chiffrer celui de la F3 que j’ai utilisé. Pour ce prix là, à titre personnel, je ne vois pas d’autre choix qu’une Scarlet qui propose du 4K (à mon sens une bonne base pour amortir une caméra dans les années à venir) de moins en moins cher. Le mois de novembre doit voir une nouvelle annonce de Sony concernant sa gamme F et donc la F3 en question qui devrait  être remplacée, après quelques mois de loyaux services on est vite obsolète aujourd’hui Monsieur.  On parle d’une F7 qui peut être nativement embarquera un SSD ou bien sera capable de sortir un flux 4K via un enregistreur externe qui rendra le Cinedeck obsolète aussi. D’ici là vous pourrez acheter une GoPro qui plus légère et moins gourmande vous délivrera du 4K à 15 i/s et du 2,7K à 30i/s, en tout automatique et sur une carte mini sd pour moins de 400$. L’avenir?

En parlant de SSD il me faut aussi vous conter mes problèmes lors de la relecture des images en post-production. En effet, celles-ci semblaient atteinte de drop frame, pourtant rien n’avait l’air d’avoir occasionné cela sur le terrain et l’appareil s’il avait parfois signalé des erreurs ne l’avait pas fait à ces moments là. Il semblerait (mais l’enquête est en cours) que le problème ne vienne ni de la caméra (qui elle enregistre en interne sans aucun saut) ni des câbles (dual links 1,5g). Les regards se tournent alors vers le Cinedeck et selon la maison mère de l’engin il faudrait soupçonner le formatage du SSD qui doit se faire sous Windows 7 et pas directement sous le XP installé sur l’appareil. N’ayant pas de Pc sous la main pour faire ces tests j’ai du déléguer à de courageux possesseurs de systèmes d’exploitation de ce genre. Par ailleurs le transfert des rushes du SSD vers de petits disques durs type 5400tr/m sous firewire 800 semble aussi problématique. On semble se tourner vers une solution (sous Mac) assez onéreuse via des disques Thunderbolt. Voilà pour être complet et honnête sur la question.


Retour à la normale

 

La saison estivale, pourtant studieuse, ne m’a pas donné le temps de mettre à jour le blog comme je le souhaitais. Pourtant il y a du nouveau, du matériel tout d’abord malgré le léger faux bond de BlackMagicDesign qui nous laisse attendre sa petite caméra depuis Juillet, toujours pas de nouveau MacPro et même plus de MacBookPro 17 pouces, de ce coté là rien de bon.

Mais je m’en vais tourner une série « genre Thalassa » pour les Émirats et la sony F3 sera du voyage avec un Cinedeck pour enregistrer en S-Log 10 bits 4:4:4 accompagnée d’une série PL de chez Cooke.

 

Une occasion de vous faire un petit comparatif dans ce segment (Red Scarlet, Blackmagicdesign, Sony F3…) et du coté des enregistreurs externes (Atomos, Sound Device, Cinedeck et blackmagicdesign).

Enfin, un petit article sera aussi consacré aux Lut de la Sony suite à une série de demandes en ce sens et, pour que la rentrée soit complète je ferai aussi une petite sélection des nouveautés de l’IBC 2012.

Bref c’était les vacances…


Scarlet et Canon C300 : premières impressions.

Voilà donc les 2 petites caméras tant attendues dans notre milieu, à défaut de les avoir utilisées je me contenterai donc d’un simple exposé de leurs qualités (ou manques?) techniques et des premières impressions que cela me fait sachant qu’il est sûr que très vite j’aurai à tourner des images avec.

La Canon C300 d’abord annoncée pour 16 000$.

Je devrais dire les Canon car il s’agit de deux modèles, l’un en PL Mount, l’autre en EF Mount qui reprend un peu (malheureusement) le design des vieux camescopes de poing, mais y ajoute une technologie assez au point et suffisante pour bien des projets à savoir du 4:2:2 en codec XF Mpeg2 Long GOP à 50 Mbps enveloppé dans du MXF, le tout s’enregistrant sur des cartes CF à une cadence maximale de 30 fps, il y a deux emplacements à cet effet. et peut enregistrer simultanément sur les deux cartes, 160 minutes pour 64 Go. Il s’agit là je pense du minimum acceptable pour pouvoir livrer des images à la BBC selon leurs normes internes, que je tente d’appliquer à mes productions et aux clients pour qui je travaille même lorsqu’il ne s’agit pas de la BBC. Enfin des filtres ND sont intégrés et l’on peut retirer la poignée ou le viewfinder, deux entrées XLR sont présentes ainsi que deux sorties HD-SDI.

Le capteur de 8.3 MP lui est modelé sur un Super 35mm 3-Perf dont la taille est de 24,6 par 13,8mm.Il est sensé avoir une très belle sensibilité et dégager peu de bruit, réduire l’effet rolling shutter. On dispose aussi d’entrées pour un time code, un genlock . Voilà pour faire vite les quelques chiffres qui nous présentent la Japonaise. Bien sur les deux modèles arrivent tout équipés avec batterie, chargeur, cables et accessoires, du prêt à l’emploi ou presque comme Canon nous a habitué à le faire. Pour ceux qui voudraient en profiter pour investir dans des optiques PL ou EF, Canon va mettre sur le marché différentes focales fixes ou zooms sur lesquelles je reviendrai très vite car je dois en recevoir en test très vite. En voici la liste :

Un zoom 14,5-60mm T2.6, un téléobjectif 30-300mm T2.95-3.7, un 24mm T1.5, un 50mm T1.3 et un 85mm T 1.3.

Et puis une annonce un peu floue est venue nous vendre du rêve à savoir un appareil photographique 4K full frame, filmant à 24 images secondes mais en Motion Jpeg dans un angle de champ plus serré équivalent à un APS-H. Je vous laisse songeur comme je le suis avec un cliché de ce à quoi devrait ressembler le futur engin qui a l’air de nous rejouer l’histoire du 5D Mark II.

Pour ce qui est de nos amis de RED, la Scarlet X est enfin là, ou presque, en fait elle devrait être disponible en Décembre de cette année, au prix allant de 10 00 à 15 000$ selon les versions. Comme prévu le capteur de 14 MP est un S35(Mysterium X de 27,7mm par 14,6mm) de 5K (5210 par 2700). Équipé soit d’une monture EF soit PL, avec un option sur une monture EF en titane. Elle pourra tourner donc en 5K full frame mais seulement de 1 à 12 fps, puis, déclinera différents mode, 4K à 30 fps, 3K jusqu’à 48 fps, 1080P jusqu’à 60 fps et 1K, le tout enregistré en REDCODE RAW et pour une sensibilité équivalente à celle de la EPIC, seul distinguo, le  ratio de compression un peu plus destructeur que sa grande soeur, à savoir 6:1. Elle devrait être capable de gérer le HDRx et de tourner à 120 fps à 1K, mais les utilisateurs de Twixtor devraient pouvoir s’y retrouver à des cadences plus lentes et à un meilleur format lors du tournage.

La monture Canon supportera l’autofocus et les autres accessoires et modules de chez RED seront aussi compatibles avec ce modèle d’entré de gamme.Il faudra donc compter lui ajouter outre les batteries qui devraient être plus économes sur ce modèle, un écran tactile 5 pouces, un EVF de type Bomb assez couteux pour l’instant, une Redmote et un grip et ses nombreux boutons paramétrables.

Elle bénéficera d’une sortie SDI, clean feed en 4:2:2  en 1080P, et enregistrera sur des SSD de 1,8 pouces d’une capacité maximale pour l’instant de 256 Go. L’audio, qui pour une fois n’est pas le parent pauvre de l’opération accepte 2 canaux non compressés, 24 bits en 48KHz.

De mon coté il est évident que c’est plutôt vers la Scarlet me coeur balance, d’autant plus qu’en « complément » d’une EPIC en PL mount cette petite dernière pourrait recevoir toutes mes optiques Canon, y compris les derniers zooms annoncés plus haut et permettre un travail en post production identique ou presque que j’ai décidé de tourner en 5k ou en 2K, les deux machines me permettant aussi d’y adjoindre un Sound Devices PIX 240 pour faire du 1080P (auquel je consacrerai très vite un petit article tant sa mise à jour pour fonctionner avec la RED est simple et efficace, il embarque des SSD 2,5 pouces et capture en 4:2:2 en AppleProREs et en plus s’accompagne d’un petit écran de contrôle pour à peine plus cher que le KIPro de AJA). Je dois d’ailleurs choisir quel matériel m’accompagnera sur le tournage d’une série documentaire très prochainement il est à parier que cela pourrait être une Scarlet dès 2012, si elle arrive dans les temps?


Une petite boite et de grands rêves.

Alors que la plupart d’entre nous attend les annonces respectives de Canon et de RED ce même 3 Novembre fut choisit par Lomo (la petite société qui fait des appareils photo analogiques amusants et en plastique) pour nous révéler son dernier petit jouet à 80$, le Lomokino. Un petit boitier équipé d’un objectif de 25mm permettant manuellement d’enregistrer presque une minute de film super 35 (144 images par rouleau contenu dans la « magicbox ») dans un format de 24mm par 8,5mm avec un shutter d’une vitesse de 1/100 et un diaph d’une ouverture maximale de F/5.6. Biensur pas de son, pas d’effet si ce n’est le pur produit de votre esprit et l’histoire que vous voudrez bien mettre en scène grâce à cette simple boite.

Outre le format et le prix qui me donne envie de l’emmener un peu partout avec moi j’ai grand plaisir à tourner plein de petites séquences et de redécouvrir le plaisir simple de la pellicule. Pas de gadget, pas de 3D, pas de technologie, pas de software couteux, pour quelques dollars de plus vous pouvez même acquérir de quoi le projeter pour vos amis. Un simple objet revenant à faire des films comme Chaplin, Eisenstein un siècle plus tard et avec moins de talent ou d’audace, mais si l’audace et le talent ne sont pas là, à quoi bon investir dans un caméra à 50.000$ ou plus?

Un peu d’histoire en relief.

Parce que c’est bien là, la question qui nous reste sur les bras, à l’heure où l’industrie cinématographique agonise et tente de nous vendre sa technologie 3D/Relief, et que visiblement le public semble assimiler le concept si c’est en 3D c’est que c’est mauvais…

Car avec la 3D il semblerait que l’industrie du cinéma au sens large s’est bien moqué de nous :

Ainsi il faut se souvenir que la « technologie » 3D date de 1893 et que les lunettes bicolores que j’ai découvert petit pour visionner le monstre du Lac Vert à la télévision servaient déjà à donner du relief aux photographies de l’époque grâce à un brevet de stéréoscopie polarisante. Lorsque le Cinématographe arrive il est alors normal que les frères Lumière filment « l’arrivée du train » selon cette méthode. Plus tard de nombreux succès notamment de Hitchcock vont reprendre ce procédé afin de donner encore plus d’impact et de spectateurs à leurs oeuvres.

Je me souviens aussi que gamin j’en ai pris plein les yeux dans les cinéma IMAX grâce à la technologie de projection alternée, et que l’arrivée du numérique va bien sur continuer sur ce chemin déjà centenaire.

Un second souffle pour l’industrie.

De nombreux grands noms du cinéma vont tenter l’expérience, le plus connu d’entre eux est surement James Cameron dont Avatar (qui est tourné en simple HD) va avoir le succès que l’on connait et faire croire à l’industrie toute entière qu’ils ont là une solution à tous leurs problèmes, piratage et manque d’audience. Il est utile de noter dès maintenant qu’il semblerait que Avatar soit aussi le film le plus piraté (en 2D) de l’histoire récente du partage de films sur internet.

A l’heure de la sortie de Tintin de Spielberg, il faut aussi revenir sur le parcours des films qui ont tout joué sur la 3D pour se faire une place au box office dans le sillage du film en trompe l’oeil de Cameron.

Le pire exemple étant surement « Le Choc des Titans » dont il est de notoriété public qu’il a été tourné en 2D puis repassé à la moulinette numérique pour se présenter à nous en relief, le scénario avait du ne pas survivre à ce procédé et la médiocrité technique du résultat a du faire fuir plus d’un spectateur. La liste est devenue longue des films que l’on ose pas aller voir (même avec ses cousins) tellement on est sur que ce sont des navets et que la 3D n’est là que pour sauver les apparences. Au prix du ticket d’entrée déjà scandaleusement élevé qui va connaitre avec ce tour de magie une inflation de 10%, on comprend que beaucoup se disent que le téléchargement fera aussi bien l’affaire.

Je ne me désespère pas d’autant plus que j’ai vu au moins deux très bons films en relief depuis cette période (la créature du lac vert reste un très bon souvenir mais je vais essayer de me consacrer à des films récents).

« Pina » de Wim Wenders et « La grotte des rêves perdus » de Werner Herzog, dans les deux cas on est subjugué par les images et l’on se dit que la technique sert l’histoire comme jamais. Je suis un fidèle défenseur du cinéma et de ses salles, du rite quasi sacré auquel on se prête en rentrant dans l’obscurité et en visionnant dans le noir et le silence un film sur grand écran. Je ne considère pas que lorsque je voyage en train ou en avion  je regarde un film sur mon petit écran ridicule et dans une ambiance tout juste bonne à rater une partie de sudoku. Voilà pourquoi je retourne au cinéma pour voir, pour regarder pour écouter, pas sur à ce titre que j’ai envie de m’équiper d’un téléviseur 3D pour visionner les dernières productions, pas sur non plus que j’ai envie de filmer en 3D sauf à avoir l’occasion de travailler avec Werner Herzog. Vous me direz qu’à l’arrivée de la couleur sur nos écrans beaucoup pensaient comme moi et que l’histoire prouve qu’ils ont eu tort? Pas si sûr au moment où je filme une petite séquence en noir et blanc sur de la pellicule 35mm sur mon LomoKino. Et ce soir j’irai voir la version « longue » et restaurée de « Métropolis »…


Enfin « Scarlet » arrive…le 3 novembre.

C’est Jim le propriétaire des établissements « RED » qui nous a confié ce matin que notre attente serait récompensée, car le 3 novembre il n’y aura pas que Canon à faire une révélation, la caméra Scarlet (la plus petite de la gamme RED) devrait être officiellement « disponible » selon les termes de la société, on l’attendait depuis l’automne 2009 sa première date de sortie… Alors pour avoir déjà pu travailler avec une Epic et être convaincu qu’il s’agit là d’une caméra répondant parfaitement à mes attentes je suis tout de même curieux de voir ce que donne ce nouveau concept « low cost »  et son capteur 2/3 capable de faire des images en 3K en utilisant un codec beaucoup moins ravageur que la red one. Nous verrons bien si elle est toujours aussi mignonne que lorsque nous l’avons croisée dans les mains de Ted Schilowitz au cours des derniers mois. Mais surtout ce que les productions indépendantes en feront car ça n’est qu’un outil à mettre entre de bonnes mains et alors le miracle s’accomplira.

Nous verons bien ce que les Japonais de Canon vont nous sortir de leurs usines en espérant que cela se rapproche plus d’une vraie caméra à gros capteur mais dont l’ergonomie sera acceptable et dont le codec sera lui tout simplement exploitable. Car lorsque j’ai à réutiliser une 5D après quelques tournages avec une Alexa je dois avouer qu’il m’arrive de pleurer, mais le tarif n’est pas le même et c’est bien là tout le problème.


Bienvenue

Voici un petit tour de mon travail en tant que Directeur de la Photographie – Chef Opérateur. J’ai cette chance d’exercer mon métier à travers le monde,

en filmant des clips, des documentaires, des interviews, des films institutionnels ou de sport (ski et mountainbike notamment). De ces voyages, des ces rencontres naissent d’autres projets et ainsi va la vie. Ici, vous pourrez suivre l’évolution de mon travail et y découvrir pourquoi pas l’envers du décor ainsi que de nombreux liens vers l’industrie de la production et de la post production, du cinéma.

Enfin ma géolocalisation entre l’Europe et le Moyen-Orient vous donnera peut être à découvrir d’autres horizons et cultures. Comme vous le constaterez je travaille avec des caméras digitales telle que la Arri Alexa, la Red One MX, la gamme des Sony XD & EX Cam HD, mais aussi des HDSLR comme le Canon 5D voire des GoPro HD lorsque le temps est à l’action sur l’eau ou sous la neige. Mes choix de tournages se portent essentiellement sur des rencontres et des envies, je navigue entre Dubai, Paris, Beyrouth, Téhéran et ailleurs en tout cas le Moyen Orient est un parfait terrain de jeu dont la lumière est splendide.

N’hésitez pas à jeter un coup d’oeil à mon showreel ou à rentrer en contact avec moi.

Merci

Emmanuel Hiriart