Emmanuel Hiriart- Directeur de la Photographie

Articles tagués “ikonoskop

Comprendre le Raw, au début était la courbe de Gamma

De plus en plus de caméras « Raw » font leur apparition sur  le marché, de quoi faire perdre la tête à pas mal de production, à quelques heures/jours/semaines/mois de la sortie tant attendue du capteur Dragon de chez Red. Voilà donc tout un petit billet pour s’y retrouver dans cette jungle révolutionnaire, on y parlera technique et courbe de Gamma dans un premier temps avant de faire un état des lieux de l’offre réelle de ce marché en question, pour voir ce que va changer la dernière née de chez Jim Jannard. Mais en guise d’introduction, après les déboires passagers de Aaton, me vient une nouvelle de mes amis de Ikonoskop qui annoncent arrêter un temps leur production, après maintes chutes des prix de leur petite caméra, les voilà peut être eux aussi face à un problème financier de trop.

 

A l’origine, le signal d’une télévision, et donc de sa capacité à recevoir de l’information par onde, nécessitait de réduire au maximum les informations produites par la « large » plage dynamique d’une image issue d’une caméra. Il faut comprendre que la bande passante transportant ces informations est limitée dès 1930 et dans les décennies qui suivent l’invention de la télévision hertzienne.

A chaque ouverture d’un diaph supplémentaire par exemple on double la luminosité par rapport au diaph précédent. Donc, en parallèle, on devrait doubler la bande passante requise pour transférer (ou enregistrer) le surplus d’information obtenu. Mais en pratique la bande passante n’évoluera pas, elle est en faite constante et déjà à son maximum.

La mauvaise qualité de cette méthode de transmission télévisée sans intervention aurait abouti à ne transmettre qu’une petite bande ou partie de cette plage dynamique de l’image.Le choix se porta donc, sur la réduction d’information. Et pour conserver une image diffusible et acceptable, on choisi de sacrifier les hautes lumières tendant ainsi à préserver les noirs et les tons moyens, ceux du visages. On comprendra qu’en télévision le plus important était donc le sujet et que l’on pouvait sacrifier l’arrière fond sans pour autant transformer dramatiquement l’image de base ainsi diffusée.

Red-Dragon-1024x575

 

Voilà comment et pourquoi apparu la courbe gamma dont le travail consiste à préserver la lecture d’une image en réduisant les données des seules hautes lumières d’une image enregistrée ou diffusée, et donc en maitrisant la bande passante . Cette courbe s’ajuste au fur et à mesure de l’ouverture du diaph pour compenser cet afflux de données et donc faire disparaitre du même coup tout un tas d’informations dans les blancs, pourtant nécessaires à la lecture des éléments les plus clairs. Les noirs et les skintones, eux, ne sont pas vraiment concernés par l’opération et à force de s’habituer à ces amputations de l’image l’oeil finit par dire qu’il n’y voit pas de différence, bref, c’est diffusible sur le ondes.

Toutes les caméras vidéos utilisaient alors ce système de compression du signal qui empêchait y compris en post production de récupérer les informations perdus lors d’une surexposition sur un visage ou un ciel. Problème, les caméras gardaient le même système de compression et d’enregistrement alors même que leurs capteurs gagnaient eux en dynamique. Résultat, on perdait encore plus d’informations pour respecter la bande passante maximale du procédé d’enregistrement ou de diffusion. Paradoxalement plus les capteurs devaient restituer tout un plan des noirs au hautes lumières, plus on compressait ces dernières et plus le travail en post production devenait impossible du fait de la perte plus importante d’informations dans cette partie de l’image. On préférait donc une caméra ayant une moins grande dynamique d’image mais qui de fait la détruisait moins une fois gravée sur son support. Le mieux techniquement n’était pas l’ami du bien.

 

L’évolution nécessitait alors de se détourner ou de contourner cette courbe de Gamma afin de profiter pleinement des capacités des capteurs disposant de plus grandes  plages dynamiques. C’est là qu’entre en jeu le filtre de Bayer (même si la technique aboutissant au Raw n’est pas limité à un seul type de capteur), il s’agit d’un seul capteur qui dispose d’un filtre lui permettant de reproduire le plus fidèlement possible les couleurs de l’image captée en bénéficiant de toute la dynamique de l’image.Le système consistant alors à convertir les informations de lumière en un signal vidéo couleur. Le processus multiplie l’information de lumière en la traitant pour chacune des couleurs primaires. La multiplication de traitement qu’opère ce filtre, composé de rouge, de vert et de bleu, n’est pas réalisée de manière égale en cela que les filtres verts sont deux fois plus présents que leurs homologues bleus ou rouges, afin de reproduire une image qui correspond le mieux à ce qu’un oeil naturellement.

 

Mais à nouveau après ce traitement arrive le problème de bande passante, car concernant un capteur de 4K, soit 4096×2160 pixels il faut enregistrer plus de 8 millions d’informations (8,8 millions pour être précis) à chaque image capturée. D’autant plus que si le traitement doit s’effectuer à ce moment là, il faudrait encore le répéter pour chacune des couleurs primaires qui divisent l’information et transforme la lumière en couleur. Soit un total après traitement de 26,5 millions d’informations par image.

L’idée du Raw suppose une simplification de ce traitement qui normalement vient en plus s’enrichir des ajustements fait par la caméra ou l’utilisateur au moment de l’enregistrement, tels les balances des blancs et les choix de gain qui pourtant n’affectent pas la manière de travailler pour le capteur. Car quelque soit le réglage utilisateur pour reproduire l’image qu’il voit et qu’il veut diffuser seul compte la quantité de lumière qui vient frapper le capteur et se transformer en signal vidéo couleur (RVB) qui sera ensuite modulé (ou mixé) en fonction du gain ou du degré Kelvin choisi et aboutira à une image plus ou moins bleu, verte ou rouge et plus ou moins « lumineuse » après traitement.

 

 

 

Le Raw consiste donc à ne pas traiter de la sorte le signal mais à le conserver dans l’état qu’il connait au sortir du capteur et donc à ne pas dé-Bayériser, et donc à ne pas utiliser une courbe Gamma. La somme de données informatiques est donc moins considérable que si l’on procédait à tout ces ajustements ou traitements, et permet de ne pas le « compresser ». Pour ce qui concerne les caméras, photo ou vidéo, dédiées au seul noir et blanc (Ikonoskop, Red, Leica M) là aussi le procédé consiste à simplifier le traitement en retirant le filtre de Bayer, qui nous l’avons compris ne sert qu’à injecter des informations de couleurs dans le traitement de la lumière reçue par le capteur. Cela rajoute du piqué et de la définition à l’image monochrome qui dispose de tous ses capteurs pour travailler sans être déformée par l’effet de Bayérisation. Le traitement étant extériorisé les premières Red ne pouvaient même pas relire leurs propres images, et l’utilisation d’une carte vidéo RedRocket est fortement conseillée pour pouvoir lire et transcoder ces images. Cependant les capteurs agrandissant leurs diagonales se voient aussi améliorés dans leurs capacités à capter les hautes lumières. en un mot il est maintenant utile d’avoir une très grande plage dynamique de l’image. C’est ce que le capteur Dragon de chez Red nous promet avec plus de 20 Stops de dynamique.

RedDragonDR-650x298

Pourtant on devra toujours passer par l’étape de dé-Bayerisation pour lire cette image, ce temps de traitement et de calcul est donc repoussé à plus tard. Mais on pourra aussi y ajuster le gain, ou la balance des blancs en fonction de ses propres choix. D’autant plus, rappelons le, que désormais on dispose des informations totales de l’image dans les noirs, les skintones ou les hautes lumières. Mais à ce niveau là il faudra encore choisir entre caméras disposant d’un très large capteur, celles proposant du Raw, ou du DNG, entre celles disposant d’un encodage parfois médiocre en interne mais offrant d’autres possibilités en externe, ou compressant de manière habile les fichiers afin de pouvoir réduire aussi les couts en post production, stockage et autres sans pour autant nuire réellement à l’image vue par un oeil humain. Le RedCode est le seul procédé connu et autorisé à ce jour qui permet de réduire les données de ces images Raw (Red est le seul à posséder la licence Raw pour la vidéo, les autres ne le font qu’à travers du CineDNG ou un « Raw » Maison comme Sony ou Arri. Il permet un taux de compression plus ou moins variable afin de ne pas se retrouver avec des Téra-octects de données pour un film de 5 minutes. On revient sur cela dans un prochain billet.

post-7-1329838390,0755

Publicités

La tueuse de HDSLR? Complément d’information.

Je disais dans mon post précédent que la petite caméra de Blackmagic Design serait une « tueuse » de 5D et autres C300 parce que notamment elle enregistrait en RAW en interne et qu’en cela elle remplaçait la Scarlet annoncée à l’époque 3K à 3.000$ par Jim Jannard. Ayant reçu beaucoup de commentaires depuis cet article je reviens sur ces deux informations car je vous dois des explications sur la forme comme sur le fond. Tout d’abord j’ai eu la chance de pouvoir tourner avec bon nombre de caméras existantes depuis le HI8 et l’Umatic, le DV et le Beta alors qu’en parallèle j’apprenais à manier du film 35 et 16mm sur des Arri et autres Panavision.

J’ai été comme beaucoup d’entre nous choqué et intrigué par la sortie de la Red One qui annonçait un bouleversement notable dans nos métiers en cela que le numérique pouvait faire jeu égal pour un budget bien moindre avec la pellicule. Très vite j’ai eu l’occasion de pouvoir utiliser l’engin sur des tournages et le voir évoluer ainsi que son workflow qui reste souvent méconnu des gens pressés de vouloir tourner en Red sans en connaitre la face cachée. A mon sens cela vient du fait que l’on a à faire d’une part à des clients qui ne connaissent rien à nos métiers mais on entendu parler ici ou là de la machine qu’ils veulent donc utiliser sur leur tournage (pub, clip…) voire des utilisateurs bercés au seul son du numérique qui pense non seulement rivaliser mais dépasser la qualité de la pellicule qui serait à l’image d’un film en noir et blanc d’une autre époque… À coté de ce développement à gros budget s’instaurait celui du HD, après un court passage par le presque HD à 720p, et surtout celui des médias à mémoire qui enterraient les bandes et les cassettes. Pour autant même si les modèles HVX de Panasonic ou XDCam « cinéalta » de Sony étaient alors utilisés dans quelques films (REC, District 9… aux cotés de RED notamment ) cela restait de bonnes caméras pour un format télévision mais le capteur et les codecs semblaient un peu juste pour une exploitation autre.

À cela est venu s’ajouter une petite trouvaille du secteur photographie recherche et développement de Canon qui arrivait à filmer avec son appareil au capteur CMOS full frame ou APS. Dès lors et malgré la piètre qualité du codec et donc du résultat final (moiré, aliasing et autres rolling shunter, le tout en H264) le petit gadget envahissait nos tournages et devenait même un must have. Aujourd’hui si l’on sait utiliser ces machines correctement (quand elles sont utiles) on peut faire de belles images je n’en doute pas mais l’ergonomie et l’horreur du codec nous font souvent regretter une caméra d’épaule Beta numérique. Voilà pourquoi la sortie de la petite blackmagic ou de l’ikonoskop me semble une bonne nouvelle, en cela que si le capteur est plus petit que les dslr de Canon, mais assez proches du GH2 de Panasonic, au moins on peut obtenir un fichier RAW nativement et travailler en 2,5K dans la cas de la blackmagic (Ikonoskop se limitant à du 1080P). Je rappelais que seul RED possède le brevet pour utiliser nativement du RAW sur ses caméras, c’est toujours vrai en cela que Arri doit utiliser un enregistreur externe pour accéder au saint graal et que nos petits amis cités plus haut se limitent au format 12 bits CineDNG d’Adobe.

Alors en quoi cette petite machine au look un peu rétro peut elle tuer malgré ses défauts (batterie intégrée et absence d’entrée XLR…) le HDSLR?

Le codec tout d’abord et bien meilleur rien à dire, il n’y a qu’à utiliser du RAW pour ne plus vouloir revenir à autre chose et le DNG est bon, de toute façon il est incomparable avec du H264 8 bits 4:2:0. Et pour ceux qui le 4:2:2 10 bits suffit ils auront le choix entre des fichiers AVid ou FinalCut dans un Codec reconnu par toutes les plateformes de post production.

Les métadonnées et l’apparition de mots clés, bien pratique et plus encore lorsque l’on passe en post production. L’enregistrement interne sur des SSD de 2,5 pouces de moins en moins chers.

La monture EF et ZF qui donne accès aux optiques abordables.

L’ultrascope en Thunderbolt, un plus qui change la vie lorsque l’on veut monitorer ses images de manière plus réaliste que sur un simple écran de 5D.

Le capteur serait, aux dires de nombreux commentateurs, un point à mettre dans la colonne des moins. Pourtant il permet une dynamique de 13 Stops dans l’image et contrairement aux idées reçues il ne s’agit pas d’un capteur au format 16mm, le BMD est supérieur et se situe entre un super 16mm et celui qui équipe un GH2. Il s’agit donc plutôt d’un 4/3 de pouce.

Le format d’image de 2,5K se situe en réalité en dessous du 2K en cela qu’il est plus étendu mais donc moins haut. On est bien loin du 4K qui reste de toute façon bien loin du 35mm voire de l’Imam. On dispose d’un format certes atypique mais assez proche de ce que l’on pourra diffuser avec les normes numériques qui s’imposent à nous dans le salles de cinéma qui ont investie dans des projecteurs 2K.

Certains commentateurs me rappellent que j’annonçais une norme à 4K dans les années à venir, je le pense toujours mais je sais aussi que depuis que je tourne en RED et en Alexa nombre de productions se satisfont d’une simple HD pour des raisons de budget tant au tournage qu’en post production. Pour conclure si je suis amené à décliner l’utilisation de cette caméra ce sera pour des raisons d’ergonomie ou de batterie mais pas pour des raisons de qualités de son capteur ou de son codec, je reste favorable à des caméras petits budgets plutôt qu’à des machins peu pratique et ressemblant à des arbres de noel pour filmer en 4K mais… Je n’oublie pas que le Film n’a pas encore de concurrent direct en tournage et en diffusion du moins dans les normes qui nous sont proposés aujourd’hui par l’industrie.


Nouveauté Blackmagic Design, une caméra 2,5K cette année

Mon premier billet vous faisait savoir, à l’époque, que je collaborais avec Blackmagic Design,  notamment après l’abandon par Apple de son logiciel Color,  je me tournais vers une solution appelée Da Vinci Resolve alors tombée dans l’escarcelle des magiciens noirs. Mais c’est toute une gamme de matériel qui m’interessait aussi, dont l’Ultrascope, l’Ultra studio, l’Hyperdeck Shuttle et toute la gamme des Intensity ce qui permettait à mes Macs de communiquer via le port Thunderbolt. avec des écrans, des caméras et autres… J’apprenais alors que dans les cartons se cachait une caméra et aujourd’hui en voilà les détails techniques :

La caméra Blackmagic de 1,7 kg  est construite autour d’un capteur de 16,64mm x 14,04 mm pour une surface active de 15,6 mm x 8,8 mm soit un capteur de 2592×2192 pixels pour un enregistrement en format 2.5K avec 13 stops de dynamique sur des SSD de 2,5 pouces en 2 formats : 2432×1366 RAW 12 bits en DNG  ou en HD 1080p en Appelprores ou en Avid DNxHD. On devrait pouvoir enregistrer un peu moins de 30 minutes à 24 images seconde sachant que chaque image fera un poids de 5Mo en RAW DNG , et donc 5 fois plus en HD dans l’un des deux formats Avid ou Apple. Enfin, nous disposerons d’une sortie HD-SDI en 4:2:2 pour un moniteur externe, un viewfinder voire un enregistreur externe.

Elle sera équipée en monture EF et ZF dont la caméra pourra contrôler le diaphragme électronique cher à Canon et possédant un LCD tactile pour monitorer (quoi que la résolution de 800 x 600 le résume à un écran de paramétrage). C’est notamment grâce à ce LCD qui émulera un clavier que l’on pourra entrer un maximum de metadonnées (dont des mots clés) et procéder aux réglages. La caméra disposera d’un microphone intégré en mono et d’une sortie casque ainsi que d’un haut parleur. Les entrées son sont au nombre de deux mais au format discutable  jack avec une option pour choisir entre ligne ou microphone. Ici autant dire qu’on aurait préféré du XLR mais une fois raccordé à un enregistreur externe digne de ce nom on aura résolu cet inconvénient. L’appareil devra donc s’équiper de composants annexes en configuration de tournage et tous les câbles sortiront par le coté gauche de la caméra. Reste aussi le flou qui entoure les batteries, d’un format « propriétaire » à Blackmagic dont on sait pas encore le prix et la possibilité de sans passer pour choisir une option déjà connue et éprouvée?

L’appareil disposera d’une fonctionUltrascope  via son port thunderbolt qui une fois relié à, par exemple un MacBookPro, délivrera toutes les informations nécessaires (vectorscope, parade, histogramme et waveform). Enfin une télécommande viendra s’ajouter à l’appareil lui permettant de lancer l’enregistrement à distance mais aussi de contrôler le diaph et le focus… à voir concrètement comment cela sera pratique et efficace.

Et cerise sur la gâteau, Blackmagic Resolve vendu avec la caméra. disponible en Juillet pour moins de 3000 dollars cela enfonce la concurrence et notamment nos amis de Bolex ou d’ikonoskop, à n’en pas douter cela va remplacer la 5D  voire la F3 et la C300 dans les coeurs de beaucoup, en espérant que l’ergonomie soit au rendez vous car au niveau du format d’enregistrement la différence plaide déjà en faveur de Blackmagic.


Filmer avec une Bolex 16mm en 2012, en numérique?

Il y a des jours comme cela où à force d’aller et venir entre Viméo et Kickstarter (où je dois déposer un projet dont je parlerai très bientôt) on tombe sur une chose à peine croyable. Et c’est donc en menant de telles activités que je suis tombé sur cet autre projet, totalement fou, puisqu’il s’agit de relancer une caméra super 16 Bolex, numérique, la D16 au capteur CCD Kodak capable d’enregistrer en 2K (2048 X 1152 pixels en 12 bits 4:4:4. Amusant car la bolex paillard fut une des premières caméras que j’ai pu posséder, la B8 si mes souvenirs sont bons, simple et robuste. Ceci expliquant surement mon affection toute particulière pour ce format et pour la pellicule.

Originellement créée par Jacques Bogopolsky en 1927 la Bolex auto ciné connue bien des évolutions en 8 et 16mm notamment avec la H16 dès 1941, première caméra grand public a connaitre un succès de masse. Puis en 1952 lorsque la marque introduira la première caméra 3D. En vendant ses brevets et sa marque à Paillard, jusque là spécialisé dans les mécaniques de montres et les boites à musique, la nouvelle entité connue sous le nom de Bolex Paillard va commercialiser des projecteurs et des caméras de 1930 à 1975 entres autres les séries H, B ou C, qui vont être utilisées pour la télévision, le documentaire et l’animation.

Aujourd’hui, demain en fait, cet été pour être précis, digitalbolex envisage donc de ressortir une bolex dans son design « olé schéol » avec poignée et manivelle, capable d’enregistrer sur des cartes CF ou sur des SSD en format Adobe Cinema DNG à l’image de nos amis d’Ikonoskop qui font un très beau travail eux aussi dans le style 16mm mais dont la caméra se limite elle à de la HD. Ici on aura en plus deux entrées XLR et une alimentation 4pin xlr 12V.

On devrait pouvoir monter pas mal d’optique puisque le C-Mount viendra en standard mais que le PL, EF et B4 seront des options via des adaptateurs. Elle disposera d’un view finder d’une toute petite diagonale de 2,4″ de 320 X 240 pixels mais selon les informations que j’ai pu obtenir une sortie HD-SDI serait dans les cartons à dessins.

La bonne nouvelle est que cela ne devrait pas couter très cher, ne pas peser lourd et que d’une part on aura un vrai capteur CCD, et non pas un vulgaire CMOS et d’autre part que le format RAW proposé ici permettra de pouvoir traiter une très belle image en 2K 4:4:4 certes un peu lourde (3 MB par image) mais dans un codec tolérant et à peu de frais.

Je suis ce projet de près, je vous tiens au courant dès que je reçois mon exemplaire, parce que l’idée est trop belle pour ne pas en faire partie. Vous pouvez lire ici les données techniques de la chose et pour en voir quelques images produites c’est ici sur Viméo