Emmanuel Hiriart- Directeur de la Photographie

industrie

Retour à l’ergonomie allemande

Alors que Sony sort un modèle 4K grand public, Arri vient de présenter sa nouvelle caméra, la Amira dont les spécificités ont l’air d’être à la fois un pari de ne pas proposer un produit 4K malgré l’émergence de ce marché mais de mettre (enfin) à la disposition d’un public plutôt axé sur la production télévisée, le film institutionnel et le documentaire, une caméra d’épaule ergonomique, dotée d’un capteur de 35mm, d’un workflow simple comme c’est l’habitude chez les allemands délivrant des images en HD ou en 2K jusqu’à 200fps.

J’ai hâte d’en savoir plus sur l’engin et de pouvoir le tester car les 14 Stops de latitude annoncés de son capteur associé au design de la Amira semble pouvoir me séduire pour de nombreux projets. Elle supporte les 3D LUTs  afin de donner des « looks » aux images et l’on pourra bien sur en importer depuis un logiciel de color grading et les ajuster aussi en cours de tournage y compris pendant l’enregistrement.

Arri_Amira-Side-Blacklistfilms

La Amira dispose d’un viseur oled d’une résolution confortable de 1280×1024 pixels qui cache un petit écran LCD de 3,2″ escamotable qui permet la navigation dans les menus. Contrairement à de nombreux concurrents la caméra disposera aussi de filtres nd intégrés et motorisés ainsi que d’un zébra. Côté codecs on pourra faire du Prores dans toutes ses déclinaisons, jusqu’à 4:4:4 en HD sur des cartes CFast 2.0 (une carte CF nouveau genre dont la mise à jour permet une rapidité jusqu’à 450Mbs en lecture, pour 350Mbs en écriture. La caméra hébergera deux fentes destinées à ces cartes et associées à des prises USB pour les décharger. La carte disposera en plus d’un numéro de série et donc d’un support client de la part de son constructeur (SanDisk) qui laisse croire que le consommateur ne sera pas seul au milieu du désert lorsque son médium sans prix renfermant toute une journée de labeur sera incapable de monter ou d’être lue correctement. Si Arri est pour l’instant le seul constructeur à prendre ce chemin il semble que Canon soit tenté par l’expérience concernant leurs caméras et DSLR 4K.

Dans le pur style caméra d’épaule des boutons sont assignables afin d’avoir accès à des réglages rapidement sur le terrain. Et énorme plus aujourd’hui sur ce segment, l’audio est intégré, la Amira enregistre 4 canaux de 24 bits 48Hz via des ports XLR 3 et XLR 5.

Arri_Amira-Blacklistfilms

On pourra, selon Arri, y connecter toutes les montures PL possédant un connectique 12 pin pour contrôler le diaph automatiquement et l’enregistrement depuis le bouton de la poignée. Et rien ne sera oublié car la monture sera aussi compatible avec la connectivité LDS. Arri assure une compatibilité avec les optiques B4 2/3″, habituelles sur les caméras d’épaule, et EF. Le tout dans un fonctionnement silencieux, moins de 20Db annoncé.

C’est prometteur on attend plus que le prix et la disponibilité car souvent ces deux facteurs tuent un peu le rêve. Bien qu’ici les responsables de Arri s’ils ne dévoilent pas le tarif de vente, s’engagent sur une caméra dont le prix se situera bien en dessous de la Alexa avec qui, elle partage le capteur et le design, de très bonne augure. Comment dit-on « vivement 2014 » ne allemand?


Mise à jour du capteur Red Dragon 6K (un goût de noël avant l’heure, mais après tout c’est l’Aïd)

Difficile de s’en tenir au seul « making of » comme annoncé dans le précédent billet lorsque Red annonce la sortie, ou plutôt la mise à jour de son capteur Dragon 6K. Alors voilà quelques détails techniques pour faire saliver ceux qui seraient sur les rangs pour passer ce cap réservé aux seules Epic, la Scarlet et en effet limitée dans cette mise à jour, à 5K pour un maximum de 60 ips, surement pour justifier des différences de prix et un placement marketing (je rappelle que les limitations de la Scarlet sont en effet purement liées au logiciel interne).

Tout d’abord le dernier né des capteurs de chez Red est donc un 6K 6144 (h) x 3160 (v), soit pour ceux qui auraient comme base du HD (1920×1080), 9 fois plus de résolutions. L’idée est simple, on se rapproche d’une part de la qualité du 35mm et surtout on a un format plus grand que celui de la diffusion qui semble se diriger vers le 4K aussi bien dans les salons que dans les meilleures salles de projection publiques.

Blacklistfilms-RED-DRAGON-Still-Frame-2

Le capteur de 19 millions de pixels permettra même de filmer en 6k à une cadence de 100 images par secondes (120 ips à 5K, 200ips à 4k et 300ips à 2K), un peu comme si votre meilleur appareil photographique avait une fonction rafale de cette puissance (le mien ne fait guère mieux que 12 images par seconde) et que vous puissiez en plus éditer cela en tant que fichier vidéo Raw mais selon le codec R3d qui permet une compression pas inutile lorsque l’on passe à la gestion des fichiers en post-production.

comme l’on parle de procédé Raw et donc d’un traitement de l’image, de sa débayérisation non pas dans la caméra mais par un ordinateur il vous faudra aussi penser à investir dans une carte permettant ce calcul plus rapidement et pour cela Jannard le patron de Red a annoncé aussi une nouvelle RedRocket X cinq fois plus rapide que le premier modèle, ainsi qu’une version de RedCine-X Pro encore améliorée.

Blacklstfilms-RED-DRAGON-Still-Frame-1

Pour en revenir aux détails techniques du capteur, il dispose et c’est là la vraie nouveauté et l’énorme amélioration d’une sensibilité efficace de 250 jusqu’à 2000 ISO et d’une plage dynamique de 16,5+ stops. en fait le capteur gagne plus de 3 stops de dynamique par rapport à son prédécesseur, un dans les hautes lumières et deux dans les noirs. L’avantage est que l’on peut se retrouver dans des situations extrêmes de contre jour ou de différentiel d’exposition dans une même scène sans pour autant perdre des informations dans les parties sombres ou trop éclairées.

On pourra dès lors aussi pousser un peu plus la sensibilité en post production comme au tournage, selon les premiers essais il semble que des valeurs autour de 4000 ISO ne provoquent pas autant de bruit que l’on pourrait s’y attendre. Donc en parallèle on pourra aussi compresser un peu plus l’image mais obtenir un résultat comparable à une compression faible en utilisant le capteur MX. On parle ici d’une équivalence entre du 17:1 avec le Dragon et du 8:1 avec une Red MX sans affecter les teintes,les nuances, les noirs ou les blancs. On peut pousser cette compression de 3:1 à 18:1 en 12 ou 16 bit Raw.

La caméra (brain only) set annoncé à 29.000$ quand la mise à jour pour les possesseur d’Epic X ou M coutera un peu moins de 10.000$.


Comprendre le Raw, au début était la courbe de Gamma

De plus en plus de caméras « Raw » font leur apparition sur  le marché, de quoi faire perdre la tête à pas mal de production, à quelques heures/jours/semaines/mois de la sortie tant attendue du capteur Dragon de chez Red. Voilà donc tout un petit billet pour s’y retrouver dans cette jungle révolutionnaire, on y parlera technique et courbe de Gamma dans un premier temps avant de faire un état des lieux de l’offre réelle de ce marché en question, pour voir ce que va changer la dernière née de chez Jim Jannard. Mais en guise d’introduction, après les déboires passagers de Aaton, me vient une nouvelle de mes amis de Ikonoskop qui annoncent arrêter un temps leur production, après maintes chutes des prix de leur petite caméra, les voilà peut être eux aussi face à un problème financier de trop.

 

A l’origine, le signal d’une télévision, et donc de sa capacité à recevoir de l’information par onde, nécessitait de réduire au maximum les informations produites par la « large » plage dynamique d’une image issue d’une caméra. Il faut comprendre que la bande passante transportant ces informations est limitée dès 1930 et dans les décennies qui suivent l’invention de la télévision hertzienne.

A chaque ouverture d’un diaph supplémentaire par exemple on double la luminosité par rapport au diaph précédent. Donc, en parallèle, on devrait doubler la bande passante requise pour transférer (ou enregistrer) le surplus d’information obtenu. Mais en pratique la bande passante n’évoluera pas, elle est en faite constante et déjà à son maximum.

La mauvaise qualité de cette méthode de transmission télévisée sans intervention aurait abouti à ne transmettre qu’une petite bande ou partie de cette plage dynamique de l’image.Le choix se porta donc, sur la réduction d’information. Et pour conserver une image diffusible et acceptable, on choisi de sacrifier les hautes lumières tendant ainsi à préserver les noirs et les tons moyens, ceux du visages. On comprendra qu’en télévision le plus important était donc le sujet et que l’on pouvait sacrifier l’arrière fond sans pour autant transformer dramatiquement l’image de base ainsi diffusée.

Red-Dragon-1024x575

 

Voilà comment et pourquoi apparu la courbe gamma dont le travail consiste à préserver la lecture d’une image en réduisant les données des seules hautes lumières d’une image enregistrée ou diffusée, et donc en maitrisant la bande passante . Cette courbe s’ajuste au fur et à mesure de l’ouverture du diaph pour compenser cet afflux de données et donc faire disparaitre du même coup tout un tas d’informations dans les blancs, pourtant nécessaires à la lecture des éléments les plus clairs. Les noirs et les skintones, eux, ne sont pas vraiment concernés par l’opération et à force de s’habituer à ces amputations de l’image l’oeil finit par dire qu’il n’y voit pas de différence, bref, c’est diffusible sur le ondes.

Toutes les caméras vidéos utilisaient alors ce système de compression du signal qui empêchait y compris en post production de récupérer les informations perdus lors d’une surexposition sur un visage ou un ciel. Problème, les caméras gardaient le même système de compression et d’enregistrement alors même que leurs capteurs gagnaient eux en dynamique. Résultat, on perdait encore plus d’informations pour respecter la bande passante maximale du procédé d’enregistrement ou de diffusion. Paradoxalement plus les capteurs devaient restituer tout un plan des noirs au hautes lumières, plus on compressait ces dernières et plus le travail en post production devenait impossible du fait de la perte plus importante d’informations dans cette partie de l’image. On préférait donc une caméra ayant une moins grande dynamique d’image mais qui de fait la détruisait moins une fois gravée sur son support. Le mieux techniquement n’était pas l’ami du bien.

 

L’évolution nécessitait alors de se détourner ou de contourner cette courbe de Gamma afin de profiter pleinement des capacités des capteurs disposant de plus grandes  plages dynamiques. C’est là qu’entre en jeu le filtre de Bayer (même si la technique aboutissant au Raw n’est pas limité à un seul type de capteur), il s’agit d’un seul capteur qui dispose d’un filtre lui permettant de reproduire le plus fidèlement possible les couleurs de l’image captée en bénéficiant de toute la dynamique de l’image.Le système consistant alors à convertir les informations de lumière en un signal vidéo couleur. Le processus multiplie l’information de lumière en la traitant pour chacune des couleurs primaires. La multiplication de traitement qu’opère ce filtre, composé de rouge, de vert et de bleu, n’est pas réalisée de manière égale en cela que les filtres verts sont deux fois plus présents que leurs homologues bleus ou rouges, afin de reproduire une image qui correspond le mieux à ce qu’un oeil naturellement.

 

Mais à nouveau après ce traitement arrive le problème de bande passante, car concernant un capteur de 4K, soit 4096×2160 pixels il faut enregistrer plus de 8 millions d’informations (8,8 millions pour être précis) à chaque image capturée. D’autant plus que si le traitement doit s’effectuer à ce moment là, il faudrait encore le répéter pour chacune des couleurs primaires qui divisent l’information et transforme la lumière en couleur. Soit un total après traitement de 26,5 millions d’informations par image.

L’idée du Raw suppose une simplification de ce traitement qui normalement vient en plus s’enrichir des ajustements fait par la caméra ou l’utilisateur au moment de l’enregistrement, tels les balances des blancs et les choix de gain qui pourtant n’affectent pas la manière de travailler pour le capteur. Car quelque soit le réglage utilisateur pour reproduire l’image qu’il voit et qu’il veut diffuser seul compte la quantité de lumière qui vient frapper le capteur et se transformer en signal vidéo couleur (RVB) qui sera ensuite modulé (ou mixé) en fonction du gain ou du degré Kelvin choisi et aboutira à une image plus ou moins bleu, verte ou rouge et plus ou moins « lumineuse » après traitement.

 

 

 

Le Raw consiste donc à ne pas traiter de la sorte le signal mais à le conserver dans l’état qu’il connait au sortir du capteur et donc à ne pas dé-Bayériser, et donc à ne pas utiliser une courbe Gamma. La somme de données informatiques est donc moins considérable que si l’on procédait à tout ces ajustements ou traitements, et permet de ne pas le « compresser ». Pour ce qui concerne les caméras, photo ou vidéo, dédiées au seul noir et blanc (Ikonoskop, Red, Leica M) là aussi le procédé consiste à simplifier le traitement en retirant le filtre de Bayer, qui nous l’avons compris ne sert qu’à injecter des informations de couleurs dans le traitement de la lumière reçue par le capteur. Cela rajoute du piqué et de la définition à l’image monochrome qui dispose de tous ses capteurs pour travailler sans être déformée par l’effet de Bayérisation. Le traitement étant extériorisé les premières Red ne pouvaient même pas relire leurs propres images, et l’utilisation d’une carte vidéo RedRocket est fortement conseillée pour pouvoir lire et transcoder ces images. Cependant les capteurs agrandissant leurs diagonales se voient aussi améliorés dans leurs capacités à capter les hautes lumières. en un mot il est maintenant utile d’avoir une très grande plage dynamique de l’image. C’est ce que le capteur Dragon de chez Red nous promet avec plus de 20 Stops de dynamique.

RedDragonDR-650x298

Pourtant on devra toujours passer par l’étape de dé-Bayerisation pour lire cette image, ce temps de traitement et de calcul est donc repoussé à plus tard. Mais on pourra aussi y ajuster le gain, ou la balance des blancs en fonction de ses propres choix. D’autant plus, rappelons le, que désormais on dispose des informations totales de l’image dans les noirs, les skintones ou les hautes lumières. Mais à ce niveau là il faudra encore choisir entre caméras disposant d’un très large capteur, celles proposant du Raw, ou du DNG, entre celles disposant d’un encodage parfois médiocre en interne mais offrant d’autres possibilités en externe, ou compressant de manière habile les fichiers afin de pouvoir réduire aussi les couts en post production, stockage et autres sans pour autant nuire réellement à l’image vue par un oeil humain. Le RedCode est le seul procédé connu et autorisé à ce jour qui permet de réduire les données de ces images Raw (Red est le seul à posséder la licence Raw pour la vidéo, les autres ne le font qu’à travers du CineDNG ou un « Raw » Maison comme Sony ou Arri. Il permet un taux de compression plus ou moins variable afin de ne pas se retrouver avec des Téra-octects de données pour un film de 5 minutes. On revient sur cela dans un prochain billet.

post-7-1329838390,0755


Le cinéma iranien, troisième partie : entre reflet de la société et outil diplomatique.

En plus d’avoir pour décor les magnifiques et très variés paysages d’Iran il arrive parfois que le cinéma s’intéresse aussi à ces populations périphériques ou minoritaires, les kurdes pour « Un temps pour l’ivresse des chevaux » ou les tribus nomades du sud-est du pays (L’Iran est le deuxième pays au monde en nombre de nomades après la Mongolie).  Ou, comme le fit Mohsen Makhmalbâf avec « Gabbeh« en 1995 en suivant les tribulations d’une tribu Qashqâ’is (leurs noms aujourd’hui est malheureusement associé à un modèle de voiture Nissan). Il raconte une histoire d’amour entre une jeune fille et un cavalier, mais avant tout, fait de ce mode de vie une oeuvre à part entière. Un peu comme avait tenté de le faire en 1925 Merian C.Cooper (qui réalisera « King Kong » en 1933) le réalisateur originaire de Floride fait de « Grass » une oeuvre à mi-chemin entre l’ethnographie, le documentaire et le journalisme. Il y suit la transhumance des Bakhtiâris, véritable force politique dans l’Iran d’alors, cette tribu très hiérarchisée et liée aux intérêts étrangers notamment aux compagnies pétrolières anglaises, ce que l’auteur semble ignorer en voulant partir avec sa caméra à la rencontre d’un « peuple oublié ». Malgré ces erreurs, et loin des effets spéciaux, du Cinérama ou du Technicolor, qu’il utilisera pus tard, ce document noir et blanc, muet, filmé dans des conditions extrêmes et montré sur une musique traditionnelle persane est alors loin des clichés hollywoodiens qui seront plus tard servis sur l’Iran.

merian cooper_grass

Encore une fois, et surement signe de sa grande vitalité, la cinéma iranien va muter. Il était jusque là un cinéma d’auteurs, subventionné, dont les personnages était souvent des enfants, et va devenir un cinéma de productions privées et surtout de vedettes (qui vont contribuer à l’essor de l’industrie qui se maintiendra pourtant toujours à l’écart du cinéma commercial d’avant la révolution).

Lors de cette mutation apparaissent de nouveaux thèmes dont un cinéma de comédie porté par exemple par des réalisateurs comme Latifi ou Tahmâseb. Des sujets tabous sont désormais abordés de manière poétique, et, des histoires d’amour sont désormais mis en scène comme le fut « La mariée » de Afkahmi.

Les réalisateurs doivent faire preuve d’une mise en scène audacieuse pour compenser dans leurs histoires notamment sentimentales, l’interdiction de contact entre un homme et une femme. Pour palier à cela ils vont utiliser toute une sémiologie qui va créer une grande intensité et une belle poésie à l’image. Tout d’abord, à travers un jeu de regards subtile et fondamentale. Ainsi dans le « Foulard bleu » l’ouvrière détourne la tête lorsqu’elle s’adresse à son patron, mais le dévore des yeux dès qu’elle pense qu’il ne la voit pas. Dans « Le ruban rouge » la même situation entraine un comportement inverse ou la femme fixe l’homme et le défi jusqu’à ce qu’il capitule en baissant les yeux.

Ensuite il est courant que le montage avorte un mouvement, un contact entre des corps masculins et féminins, en laissant imaginer la fin du geste par le spectateur. Pour combler ce vide à l’image il n’est pas rare que les personnages, lors de scènes d’adieu, reviennent l’un vers l’autre alors que leurs conversations sont terminées, juste pour que ce subterfuge rende le récit moins froid et plus réaliste. Il s’agit du même procédé lorsque les caresses ou les contacts se font par l’intermédiaire à l’écran d’objet (un piano, une valise, un ruban, des fleurs) voire de la chevelure d’un enfant, le couple ne se touche pas directement mais leur affection se matérialise par le biais de leur fille. Pour revenir au doublage des films étrangers, il n’était pas rare après la révolution qu’afin de faire correspondre ces productions à la morale islamique on transforme des amoureux en proche parents afin de justifier une trop grande proximité.

Enfin c’est le hors champ qui est très utilisé pour masquer une partie du corps qui devrait rentrer en contact entre deux personnes. Toutes ces techniques font parties de la grammaire du cinéma iranien et y rajoute une grande poésie. Je me permets ici une comparaison osée, car il est en effet quasiment impossible de trouver en Iran un quelconque cinéma de genre, que ce soit de science-fiction, d’horreur ou même d’action, mais j’ai une affection particulière par « Jaws » de Spielberg et notamment parce qu’il a réussi à faire peur à des générations de spectateurs sans montrer le requin avant plus de 45 minutes de film. Or le script initial devait faire apparaitre le mangeur d’homme dès la scène d’ouverture de la baignade de nuit. Mais la maquette du grand blanc, malgré des test en piscine, ne fonctionnait plus dans l’eau salée. Il dut trouvé un palliatif, que furent la musique et la caméra subjective, le hors champ, le regard.

tournage téhéran

 

Autre fait important de cette période et de cette évolution l’ouverture de l’industrie aux femmes. Jusqu’ici  seule la poétesse Forough Farokhzâd, réalisatrice notamment de « La maison noire » en 1962, représentait le cinéma iranien.  C’est d’ailleurs un fait souvent ignoré et assez contradictoire avec l’idée que l’on se fait de l’Iran révolutionnaire, mais les femmes voilées ont eu un accès plus grand et plus libre à l’espace public, à l’université et au monde de l’entreprise (y compris celle du cinéma) ou au militantisme politique et aux fonctions qui en découlent que sous le Shâh. Ainsi, des salles réservées au public féminin ouvriront dès 1928 à Téhéran mais faute de spectatrices fermeront très vite. Le reste des salles étant mixte mais les hommes et les femmes occupant chacun un coté de la pièce de manière séparée.

Dès 1987 on avait pu apprécier « Le petit oiseau du bonheur » de Pourân Derakhshandeh puis en 1989 Tahmineh Milâni s’interroge sur le divorce et sur ses effets sur les enfants, enfin, en 1993 Rakhshân Bani-e’temâd questionne le spectateur sur les inégalités hommes-femmes  dans « Le foulard bleu« , qui met en scène un amour scandaleux entre une ouvrière et son patron. En parallèle de ce questionnement sur la société révolutionnaire et ses rapports de classe, le secteur culturel se « privatise » en cela que les subventions publiques se réduisent et que les productions privées se multiplient, mais l’industrie se dote en 1993 d’un syndicat, le foyer du cinéma (Khâneye cinéma).

Le XXIème siècle va offrir un cinéma encore plus diversifié et productif, qui va, en allant  puiser dans la richesse des cultures iraniennes, connaitra de grands succès internationaux. Ainsi, Bahman Ghobâdi va installer sa caméra dans l’ouest du pays, au Kurdistan, et va s’intéresser au sort de ses populations à la fois très pauvres économiquement, et riches de traditions millénaires, le tout dans un décor fait de paysages fantastiques et sur une musique du grand compositeur Alizâdeh. « Un temps pour l’ivresse des chevaux« , un des plus beaux films que j’ai eu à voir,  obtiendra d’ailleurs la caméra d’or à Cannes en 2000.

ivresse_chevaux_WEB

 

Enfin, comment ne pas évoquer « Sous le clair de lune » réalisé en 2001 par Mir Karimi, lui même réalisateur très religieux, qui va suivre les pas d’un « Rohâni » (diplômé d’une école religieuse et qui doit aller faire appliquer les décrets de l’Islam dans la société) et sa caméra va nous montrer cette vie simple, ordinaire et si mystérieuse pour bien des spectateurs et, d’autre part, véhiculer un message de responsabilité lourd envers les dirigeants de l’Iran révolutionnaire. Le film met, ainsi, en scène toutes les contradictions entre tradition et modernité. Si les films persans d’inspiration indienne ou égyptienne n’avait aucun lien avec une quelconque réalité iranienne, ce nouveau cinéma, lui, est directement ancré dans son territoire, dans sa société et dans ses nouvelles moeurs.

Le cinéma iranien comme outils diplomatique?

Dès les années 90 le cinéma iranien accède au succès mondial et de la reconnaissance par ses pairs. Grâce principalement au génial Abbâs Kiârostami qui avait fait ses premiers pas auprès du Kânoun et dont Kurosawa le maître japonais dira  de lui: « Les mots ne peuvent traduire mes émotions et je vous conseille simplement de voir ses films« .

Il va enchainer les succès très rapidement, quasiment un film par an. Dès 1989 on découvre « Où est la maison de mon ami« , puis « Close up« , « La vie continue« , en 1994 le très beau « Au travers des oliviers » (qui met en abîme l’utilisation d’acteurs amateurs dans les films iraniens)  et trois ans plus tard, la Palme d’or récompensera enfin « Le goût de la cerise » qui confirme le statut du cinéma iranien au niveau mondial, deux avant « Ballon blanc« réalisé par Jafar Panahi qui avait déjà obtenu la caméra d’or toujours à Cannes et en 1996 c’est  un documentaire, »Une histoire vraie » de Yek dastan-e vaghe’i qui fut récompensée au Festival des trois continents de Nantes. Certains pourront croire qu’il s’agit là de films justement calibrés pour les festivals et la critique internationale mais, il suffit de très peu de temps au spectateur pour plonger dans cet univers de cinéma véridique et indispensable.

abbas-kiarostami

Plus encore cette fusion cinématographique de la fiction et de la réalité doit énormément à l’oeuvre de Majid Majidi qui filme le chagrin des gens ordinaires et l’innocence des enfants dans des paysages de campagne splendides plein de nuances. Ainsi, « Les enfants du ciel »  qui concourra en 1998 à l’Oscar du meilleur film étranger et plus encore « La couleur du paradis » qui met en scène un enfant aveugle qui vit avec son père peu affectueux parcourant le pays à cheval, le temps des vacances, afin de rentrer dans son village natal du nord de l’Iran, depuis son école pour aveugles située à Téhéran. Une fois de plus les paysages iraniens sont au coeur de l’oeuvre.

On l’a dit, la production filmique est depuis la révolution l’oeuvre de l’état qui, même s’il s’est ouvert à une certaine privatisation, garde un oeil censeur sur les créations et les sorties en salles. Pour produire et contrôler, le pouvoir dispose de nombreux outils, notamment des ministères, des fondations (la fondation Fârâbi était en 1990 le plus grand producteur cinématographique du pays, si son rôle a diminué il reste important dans le contrôle des importations, des exportations et du financements des films), ou des institutions étatiques comme la filiale de la télévision gouvernementale (IRIB), Simā Films qui produit essentiellement des fictions dramatiques ou des comédies.

Une institution comme le Kanoun va également « survivre » à la révolution islamique et de nombreux films iraniens lui doivent leurs succès tant en Iran qu’à l’International. En parallèle l’Organisation de propagande islamique (OPI) produit sans subir de censure plusieurs dizaines de films par an depuis 1980 qui après avoir largement traité des années de guerres sont aujourd’hui tournés vers un cinéma populaire destiné à la jeunesse du pays.

 

En Iran nous l’avons dit, un festival « international », celui de Fajr,  récompense du Simorgh de cristal chaque année les meilleurs films iraniens mais aussi étrangers. Pourtant les réalisateurs de ces films internationaux sont rarement présents et leurs oeuvres rarement projetées dans leur intégralité. Certains cinéastes iraniens comme Parviz Shahbâzi déclarant même que « la section internationale du Festival n’a qu’une fonction décorative« . Cela s’oppose à l’esprit du premier festival de cinéma fondé en Iran en 1950 qui lui ne diffusait que des productions britanniques et françaises. Pourtant, le festival de Fajr est malgré tout, aujourd’hui une occasion unique pour les spectateurs de visionner de tels films du répertoire mondial.

20 ans après la mise en place du Festival l’Iran va se doter d’un musée du cinéma, que le Président de la République Mohamad Khâtami va inaugurer en 2002. Il possède une grande salle de projection et de nombreuses archives, très riches, sur les précurseurs du cinéma iranien, dont des documents ayant appartenu à l’ancien régime (la République n’a pas fait table rase ici). Les techniciens et leurs matériels (dont ceux des ingénieurs du son qui ont permis de capturer lors du tournage la voix des acteurs pour se défaire des doublages post-synchronisés), les réalisateurs et les acteurs  du cinéma contemporain sont aussi mis à l’honneur, ainsi que les films ayant obtenus des consécrations internationales dans des festivals à travers le monde.

Fajr festival Iran

 

Le cinéma iranien dans son ensemble est donc célébré comme pour montrer que l’objectif de la révolution est atteint, celui de faire connaitre et reconnaitre son identité à travers un cinéma respectant la « guidance islamique » dans une industrie moderne et mondialisée largement dominée par l’occident. À cela de nombreuses voix s’indignent de la censure que connaissent les réalisateurs iraniens.

Mais rappelons le, la censure cinématographique exista dès 1900 en Iran où les « lecteurs » de commentaires changeaient le fond des textes insérés dans les films muets pour respecter la morale ou le pouvoir en place. Sous le Shâh elle s’officialise en mettant en place un officier municipal qui doit viser le film avant sa diffusion. Puis va être créée une commission de projection qui doit écarter les oeuvres heurtant la religion, la morale, la monarchie, l’unité nationale voire des puissances étrangères ou plus étrange encore celles « nivelant par le bas le gout du public ». C’est aussi, souvent, en modifiant le doublage que les diffuseurs de films étrangers s’en sortent en modifiant certes le scénario mais aucun studio indien, égyptien ou occidental n’avait l’air de s’en plaindre.

Aujourd’hui la censure et le cadre législatif restrictif modifient donc plutôt en amont la manière de faire un film. Y compris malheureusement par le choix de certains cinéastes de s’exiler.


Le cinéma Iranien (Première Partie) : Des origines à la Nouvelle vague

L’Iran, devrais je dire la République Islamique d’Iran fait l’actualité de la presse internationale quotidiennement, sur le nucléaire, sur ses élections, ses dirigeants, ses forces armées ou que sais-je encore. Mais, loin de ces clichés, le pays reste mystérieux et souvent incompris. Du fait, bien sur, de son isolement imposé, mais aussi de sa langue (que l’on tend à rendre « incompréhensible » en l’appelant Farsi alors qu’on devrait l’appeler Persan) ou encore de son régime politique. Or, afin de mieux comprendre un pays, sa culture et son histoire, avant d’y voyager, j’aime m’y plonger en lisant quelques livres, de la littérature, des récits de voyages, des ouvrages plus politiques ou géopolitiques voire géographiques tout simplement. Mais lorsque l’occasion se présente, le meilleur voyage « initiatique » reste celui de se plonger dans son cinéma. Et dans le cas présent, le pays possède une histoire riche et profonde, un cinéma moderne qui étonne chaque fois un peu plus. Je me devais, après mon billet concernant Argo, de faire une petite mise au point, qui permettra dans un prochain article de faire un état des lieux de la production cinématographique iranienne.

Le cinéma iranien donc, est né à peine cinq ans après les tout premiers tours de manivelles des frères Lumières à Paris. Le 13 Avril 1900 le roi d’Iran Mozaffar Aldin Shâh Qâdjâr est en visite en France. Il y découvre l’appareil de cinématographie inventé il y peu (qu’il appelle cinémaphotographie dans ses mémoires) exposé à la foire internationale de Contrexéville. Étant accompagné de son photographe officiel, qui ouvrira la première salle de cinéma en 1904 en Iran, il lui ordonne de l’acquérir et de lui en faire une démonstration le soir même. Il est subjugué par le 7ème art et va permettre son développement « relatif » en Iran, en y ramenant ce matériel, de chez Gaumont. La quinzaines de films Pathé, qu’il a rapporté dans ses bagages, se limitent alors à des « scènes de rue »et, le public se satisfait alors de cette pure reproduction du réel dans sa durée, sans commentaires ni montage spécifique. Trente ans après son introduction dans le royaume on dénombrera plus de 2000 films produits et réalisés en Iran, pour la majeur partie des courts métrages d’actualité, mais l’essentiel est là, le cinéma est installé dans le pays.

Premières caméras à Téhéran

A l’exemple de ceux tournés par Khan Baba Mo’tazedi qui avait travaillé pour Gaumont en France en tant que cadreur, les films muets de l’époque sont agrémentés de titres ou de commentaires écrits afin de comprendre l’intrigue mais, le public de tradition orale et analphabète  pour la grande majorité réclame qu’un commentateur raconte à voix haute l’histoire pendant la diffusion. C’est par le doublage en persan, aussi bien celui fait  ainsi lors de la projection que celui venant d’une piste audiophonique que le cinéma va devenir populaire.

Le cinéma Palace va diffuser le premier film parlant en 1931 et il faudra attendre encore deux ans pour que Ardechir Irani réalise « La fille de la tribu Lor » le premier film iranien de l’ère moderne, mais, celui-ci est tourné en Inde, pays qui dispose de plus grandes capacités de production cinématographique.  Ce n’est en fait qu’à partir de 1947 que des fictions iraniennes seront effectivement tournées dans le pays qui ne cessera dès lors,  de développer son industrie.

Si les années trente ont vu la création des premières écoles mixtes d’acteurs de film (Parvareshgāh-e artist-e sinemā)  les films projetés sont encore majoritairement des films d’actualité essentiellement consacrés à la vie passionante du souverain. Puis, dès l’occupation conjointe du pays en 1941 par la Grande Bretagne et la Russie, apparaissent des films de propagande doublés en persan pour faire comprendre à l’opinion publique le point de vue des alliés. Le régime hitlérien ne fut pas en reste dans ce domaine en engageant Esmâ’il Koushân, le speaker de la radio iranienne libre, afin de doubler des films documentaires allemands. Ne pouvant rentrer en Iran du fait de son engagement auprès des nazis il continuera son oeuvre depuis Istambul où il doublera d’abord « Premier rendez-vous » une comédie française de Henri Decoin, qui s’appellera « La jeune fugitive » en version persane, puis, « La gitallina » de Fernando Delgado, connu pour ses scènes de danse, qu’il rebaptisera « La tzigane ».  Le 25 avril 1946 à son retour à Téhéran il organisera d’ailleurs une projection de ces deux films pour les notables de la ville. Nous sommes au début d’une période très prolifique d’importation de films étrangers qui seront tous doublés en persan et qui vont rencontrer un succès populaire de l’après guerre jusqu’à la Révolution Islamique et à n’en pas douter la langue persane à jouer un rôle primordial dans ce phénomène.

Début du cinéma en Iran

 

L’étude de l’histoire cinématographique du pays permet d’en comprendre trois phases essentielles : La première donc, allant des années 30 à la révolution, celle du « film persan », n’étant pas forcément la plus intéressante.

C’est un cinéma de divertissement populaire à l’oriental, utilisant les codes des cinémas indien, turc et égyptien, teinté d’un grand moralisme et reproduisant quasiment à l’identique un scénario, sans aucune emprise avec le réel, dans lequel les danses et les chants succèdent à des scènes de bagarres pour finir par un heureux mariage entre un « Louti » et la femme qu’il a pu sauvé, grâce à ses exploits, de la misère ou de la luxure à laquelle elle était vouée. On y oppose souvent le travailleur des campagnes si pure à d’odieux citadins corrompus.

Cette formule de fil-e fârsi (film persan) marquera pourtant pour longtemps le cinéma iranien car il s’agit des seuls films qui sont diffusés dans le royaume dans les 524 salles en activitées jusque dans les années 70.

Esmâ’il Koushân, toujours lui, fonda dès 1947 la première société de production iranienne, Pârs Film qui sera le principal studio de création jusqu’à la révolution islamique. Il y produit le premier mélodrame parlant iranien « La tempête de la vie » (Toufân-e Zendegi) qui sera annonciateurs du succès de ce style cinématographique dans le pays. L’engouement pour le 7ème art fut tel dans le pays que de nombreuses salles ouvraient en provinces, dans lesquelles on pouvait compter jusqu’à 6 séances quotidienne. Plus de 8 studios de doublage co-existaient dans la capitale, concurrencés par celui de Alex Aghâbâbiân, un arméno-iranien qui depuis l’Italie va doubler de nombreux succès d’origine transalpine.

En 1959 on compte plus de 180 films doublés projetés dans le pays où l’on recense plus de 22 sociétés de production. Cet art du doublage va contribuer au succès populaire du cinéma à tel point que même les films produits en Iran y auront le droit afin de palier aux nombreux problèmes techniques rencontrés lors du tournage, que ce soit par un doublage par les acteurs eux mêmes ou par une post synchronisation par des doubleurs professionnels. Ceux-ci officiaient déjà pour les productions étrangères et notamment les westerns pour lesquels ils faisaient preuve d’un certain talent pour adapter les paroles « exotiques » au contexte local. Il ne faut pas oublier aussi que le pouvoir politique allait trouver dans cet art populaire doublé en persan un moyen de promouvoir une langue officielle commune, dans cette même optique le persan sera utilisé comme langue principale à la télévision iranienne.

 

le film persan

Si c’est bien, on l’aura compris, la Révolution islamique qui va modifier définitivement la face du cinéma iranien, il y a eu, ne l’oublions pas, quelques films marquant dès les années 60 jusqu’à l’époque pré-révolutionnaire qui vont enclencher, en quelque sorte cette transformation, un peu à l’image de celle que traverse le pays et ses institutions. Il s’agit là d’une première phase distinctive en cela qu’elle se définit elle même de la sorte. Ce cinéma « différent » (cinemâ-ye motafâvet) apparait donc dans les années soixante. Il s’agit d’un cinéma sérieux ou d’auteur, plus intellectuel dont les réalisateurs sont d’une part des bons connaisseurs de la littérature iranienne et internationale mais aussi du cinéma mondial, de ses codes et de ses techniques, car pour la plupart ils ont fait leurs études à l’étranger. La qualité tant des scripts que de la fabrication des films sur un plan technique s’améliore grandement à cette époque.

 

la « naissance » du cinéma iranien?

Première figure de cette « nouvelle vague iranienne », le réalisateur Farrokh Ghaffâri qui fut l’assistant de Henri Langlois et va d’ailleurs fonder la cinémathèque iranienne. En 1964 il s’inspire des « Milles et une nuits » pour réaliser « La nuit du bossu » (Shab-e Ghouzi) une comédie qui dénonce l’hypocrisie de la société et qui reçoit les honneurs du public et de la critique notamment de Hajir Dârioush (également réalisateur) qui n’hésite pas à écrire qu’il s’agit là de « la naissance du cinéma iranien ».

Aux côtés de Ghaffâri et de Dârioush on trouve, dès 1963, le poète Fereydoun Râhnamâ réalisateur de « Siâvosh à Persépolis » ou un an plus tard, l’écrivain Ebrâhim Golestân avec « La brique et le miroir« , premier film à s’attaquer à la situation miséreuse des classes populaires mais surtout à dépasser le cliché habituel de l’image de la femme qui, jusque là était soit vertueuse soit impudique, à la manière dont on opposait aussi l’urbain au rural.

Cette période prérévolutionnaire voit aussi la création de l’Institut pour le développement intellectuel des enfants et des jeunes adultes (Kânoun), un centre éducatif et artistique dont la section cinéma accueille notamment Bahrâm Beyzâ’i ou Abbâs Kiârostami. Ce dernier va y réaliser de nombreux courts métrages dont « Le pain et la rue » en 1970 ou « La récréation » l’année suivante.

Deux films vont particulièrement marquer les iraniens et les messages qu’ils véhiculent ne sont surement pas étrangers à leurs succès populaires : « Gheysar » de Massoud Kimiâi et « La vache » (Gâv) de Dârious Mehrju’i, une adaptation d’une nouvelle éponyme de l’écrivain Gholâmhossein Sâ’edi. Les deux films, à leurs manières, sont des appels à un changement de régime et une critique forte du déshonneur de la société.

Les années 70 verront apparaitre beaucoup de chef d’oeuvres du cinéma iranien dont certains sont notamment des hommages au cinéma français et à sa nouvelle vague et qui obtiendront des récompenses internationales. Ainsi  « Les Mongols » de Parviz Kimiâvi ou « Un simple événement » puis « Nature morte » de Sohrâb Shahid-Sâles (Ours d’argent à Berlin en 1975) succèdent aux autres créations de Kimiyâi « Rezâ le motard » puis « Dâsh Akol« , ou celle de Mehrju’i « Monsieur naïf » et enfin l’excellent « Adieu camarade » de Nâderi.

La vache

 

Cette « nouvelle vague » iranienne est le fait de quelques réalisateurs qui vont quitter le syndicat officiel de la profession, mis en place dès 1964 pour créer, le groupe des réalisateurs progressifs. Et si l’on devait n’en garder qu’un pour comprendre la société iranienne de l’époque prérévolutionnaire ce serait surement « La tranquillité en présence des autres » réalisé en 1974 par Nasser Taghvâ’i. Le film, qui sera censuré et interdit pendant quatre ans, une adaptation d’un nouvelle de Sâ’edi, raconte la déshérence d’une famille et de son entourage qui sombre dans la débauche à l’image de l’Iran de l’époque. Désormais la censure et l’ambiance politique marquent non seulement un déclin dans la production cinématographique (malgré les sorties du « Cercle » de Mehrju’i en 1978 ou un an auparavant des « Endoloris » de Ali Hâtami) mais c’est en fait à la mort « d’un certain cinéma » iranien que l’on assiste car celui qui va lui succéder après la révolution sera bien différent.

Cette période aura vu la réalisation de près d’un millier de film se réclamant de cette nouvelle vague, dont un grand nombre sont surement des chefs d’oeuvres malheureusement inconnus en occident.


De quoi Aaton est-il le nom?

La France se targue d’être un grand pays de cinéma ou du cinéma selon que l’on aille jusqu’à penser qu’elle l’a inventé et qu’elle se situe au centre de ce monde. Pourtant c’est bien à l’écart de tout cela loin en périphérie que se trouve sa place en matière de développement et de fabrication de caméras ou d’enregistreur sonore.

Beauviala_Aaton

Jean-Pierre Beauviala, ingénieur conseil chez Éclair-caméras fonda il y a quarante ans la société Aaton afin de proposer des caméras ergonomiques et de grande qualité ainsi que le Cantar un enregistreur numérique. Voilà pour l’histoire rapide, mais dernièrement Aaton tentait de sortir sa première caméra numérique en cherchant à proposer un matériel suivant le même cahier des charges que pour celles utilisant la pellicule. Beauviala désirant avec sa Pénélope-Delta, pouvoir rivaliser avec la qualité d’une image analogique et avouait que pour atteindre ce but il s’était tourné vers le meilleur capteur au monde. Le dispositif et la démarche semblent intéressants je vais donc les résumer ici. Tout d’abord le constructeur en question fut Dalsa, une entreprise canadienne spécialisée dans le domaine des capteurs et des semi-conducteurs, créée en 1980 et, propriété, depuis 2010 du groupe Teledyne Technologies. La sonde Curiosity et de nombreux satellites de la NASA sont en effet équipés de capteursDalsa restituant, parait-il, une colorimétrie parfaite nécessaire à la lecture des masses rocheuses de Mars.

Autre ajout technologique voulu par Aaton et qui en dit long sur leur philosophie, un procédé d’imitation de la pellicule et de sa manière de capter les photons. Le capteur numérique devait mimer les grains sensibles à la lumière grâce à un cadre en titane souple mais très robuste permettant un déplacement aléatoire du capteur à chaque image (de l’ordre de un demi pixel, qui est recalculé est donc corrigé par la suite). Pas de 3D, pas de capteur surdimensioné, pas de haute fréquence d’images par seconde, Aaton devait séduire son public sur la base de ces caméras argentiques et de son savoir faire en la matière. Beauviala défendait alors le cinéma comme une interprétation de la réalité et non pas comme une reproduction naturaliste.

Penelope interface

Si Aaton est rentrée tardivement sur le marché du numérique c’est avant tout par amour de la pellicule, mais aussi parce que cette vision qualitative de l’image de cinéma entrainait forcément une critique acerbe mais étudiée de celle produite par les concurrents passés ou créé à l’ère numérique. Cette vision un peu passéiste Beauviala la revendiquait presque en affirmant que la « révolution numérique est venue par la projection en salles ».  S’il ne se trompait pas dans son constat sur cette imposition et ses raisons par les grands studios il oubliait toutefois que avant de pouvoir être projeté ainsi le numérique existait en tant que caméra et que Dalsa par exemple proposait en 2006 déjà un engin capable de 4K. Qu’il ait voulu dès lors rentrer dans l’arène de cette révolution en cherchant à développer une caméra ergonomique et de qualité reste un point que l’on ne peut reprocher à Beauviala.  Pour le reste c’est bien la recherche est développement qui a plongée Aaton dans le gouffre, car le problème vint du capteur en question qui a vouloir trop en faire n’était pas capable de restituer une image de qualité. La caméra numérique n’est pas (plus) une simple conversion d’un modèle argentique en un modèle sur lequel on a placé un capteur mais bien une conception à part entière avec un cahier des charges bien précis. Et c’est donc ces choix techniques qui aujourd’hui coutent à Aaton d’être placée en redressement judiciaire.

Aaton est donc le nom d’un concept « du chat sur l’épaule » concurrencé par des usines à gaz numérique, véritable jeu de mécanos très dur à équilibrer et à aimer en tant qu’objet. Des caméras au large capteur qui encode parfois en 8bits , mais les productions ne se posent pas ce genre de questions, et qui à l’air de couter si peu que tout le monde à en une au fond d’un tiroir. Aaton est le nom de la fin d’une époque, celle de la pellicule et des laboratoires notamment en France. Aaton est le nom d’une industrie qui en passant au numérique à tout prix, le fait surtout sur le dos de la qualité. Aaton est le nom d’un monde où il est dur de trouver désormais de la pellicule pour des projets et des caméras alternatifs. Aaton est le nom d’une jolie société qui a pensé que si elle savait faire (plutôt bien) des caméras elle passerait sans problème à la commercialisation d’un modèle numérique mais qui a du se rendre à l’évidence que son fournisseur de capteurs, lui n’était pas à la hauteur, mais un peu trop tard. Aaton est le nom qu’on aimait bien d’un temps où l’on connaissait encore le nom de l’ingénieur qui développait le matériel qu’on utilisait avec plaisir, aussi parce qu’il avait de la gueule et que le résultat, après développement se projetait sur un bel écran dans un format un peu plus beau et grand que le 2 ou 4K que notre salon accueillera l’année prochaine.

Le Cinéma français qui s’offusque des salaires de ses acteurs, qui comprend mal comment un projet largement financé par ailleurs vient tout de même quémander une participation des internautes pour boucler son budget, et dans notre cas qui ne comprend pas pourquoi le troisième pays du cinéma n’est pas capable de proposer une caméra française, devrait surtout se poser la question du modèle économique de son industrie et de sa capacité à investir dans la recherche et le développement et à soutenir une industrie de pointe. Aaton reste viable souhaitons leur le meilleur et de traverser cette crise (une de plus) pour enfin nous délivrer leur projet de petite caméra numérique de documentaire visé reflex type A-Minima c’est le plus grand mal que l’on se souhaite.

Loin de cette ambiance de fin de séance dans un tribunal qui jugera de la faisabilité et du projet du futur repreneur de Aaton je voulais profiter de ce billet pour vanter les qualités d’un petit produit simpliste néozélandais d’origine que j’ai adopté pour les timelapses que je devais réaliser avec un appareil photographique reflex numérique.

Syrp_Genie

Le Syrp c’est son nom, combine un moteur capable de rotation à 360° ou de travelling le long d’une petite cordelette et un cerveau-logiciel, capable de communiquer avec n’importe quel hdslr du marché afin de déclencher l’appareil après chaque mouvement à la vitesse voulu par l’utilisateur. Un petit compagnon idéal pour les pans parfaits et les travellings impossibles, la caméra fixée sur un simple skateboard tracté par une corde attachée à un arbre…

Vous l’aurez compris on est loin de la technicité du capteur Dalsa dont on parlait plus haut, mais, la robustesse et le plaisir de se construire des plateformes que l’on pourra rendre mobile grâce à ce petit boitier qui va piloter lui même le timelapse donne envie d’aller vous poser au bord d’un beau paysage après quelques construction de mécanos et de lancer l’enregistrement en Raw et pourquoi pas en HDR (si vous avez la patience de combiner, fusionner et ajuster autant d’images nécessaires à votre film). Voilà à quoi je passe mon temps en ce moment même. Un grand merci à Syrp pour leur petite invention sans prétention dont j’espère pouvoir vous faire un compte rendu complet au cours d’un tournage à venir. Aller à la pêche aux informations sur leur site vous tomberez sous le charme.

http://syrp.co.nz/products/


L’évolution technologique dans l’industrie du cinéma, une bataille perdue d’avance par les salles de cinéma?

Je racontais dans des billets précédents comment le cinéma et sa diffusion en salle se tirait une balle dans la jambe en projetant des films en 3d relief ou pas (au scénario et la réalisation souvent sans relief)  dans un format numérique grâce à des projecteurs 2K très proches de fait de la qualité des meilleurs écrans de télévisions actuels et bien en deçà des futurs dalles 4K.

En effet cette future norme appelée UltraHD (sur la base d’un Codec H265) semble, d’une part marquer une étape décisive dans nos standards de tournage et de diffusion, mais aussi, rendre obsolète ces projecteurs 2K dans lesquels les salles auront investi  de larges sommes pour se mettre à jour sans que ce matériel puisse être amorti ni même diffuser dignement les classiques qui ne seront pas numérisés (ou numérisés dans une autre norme). Ni même concurrencer un futur homecinéma. Car sur ce terrain là les salles obscures semblent prendre le chemin des laboratoires (qui ne restaurent, ni ne numérisent les films sur celluloïd qui, pourtant, représenteraient un réel marché). Et pendant ce temps, de nombreux acteurs de notre métier, de la captation à la diffusion, préparent des outils de tournage en 6K et des moyens de diffuser ces images sur des téléviseurs 4K (Si bon nombre de constructeurs de dalles LCD, Plasma ou Oled proposent déjà des écrans 4K, RED devrait aussi officialiser son projecteur et son diffuseur de contenu en 4K au prochain NAB) voire du téléchargement du contenu dans ce format d’ici deux ans tout au plus, si l’on en croit les dernières déclarations de Neil Hunt (chef de produit chez Netflix). On dit à se propos qu’il ne se vendra en 2013 que 2,6 millions de téléviseurs 4K, une « goutte d’eau » qui pourrait vite faire déborder le vase de notre petit monde.

Tournage House of cards

Car la donne changera aussi, on l’a vu en contre exemple avec la 3d relief, lorsque des contenus en quantité et en qualité suffisantes seront à disposition du public. Et à ce titre là l’internet pourrait aussi révolutionner nos habitudes. Les quelques problèmes techniques encore présents aujourd’hui, notamment ceux liés au coût d’utilisation de bandes passantes qui opposent Free, Google, Youtube, Apple et autres, pourraient, en effet,  trouver,  très vite, une solution à travers l’installation de fermes de serveurs chez les opérateurs eux mêmes, qui serviront de point de distribution de ces contenus.

Cette technologie appelée Open connect va permettre une baisse des couts de ce moyen de diffusion et également une meilleure qualité et vitesse de téléchargement pour le client de ces réseaux privé, payants et pour l’instant strictement occidentaux voire anglophone. Pour l’instant, la France n’est pas concernée par le projet Netflix qui n’est pas accessible depuis l’hexagone. Une fois cette question épineuse, des couts, réglée, et celle de la rétribution des auteurs légaux de ces contenus. A ce titre l’accord récent entre la Sacem et Youtube semble indiquer que tous les acteurs de l’industrie reconnaissent la viabilité de cette diffusion et donc que ce concurrent déloyal qu’était l’internet est bel est bien rentré dans la cour des grands diffuseurs. Si d’ici un an ou deux comme l’annonce Netflix celle-ci est effectivement capable de diffuser en streaming un épisode d’une future saison de House of cards  (David Fincher) par exemple, dans le format d’origine de tournage, à savoir du 4K (depuis une Epic de chez Red), alors on aura effectivement fait un grand pas technologique, un saut qui créera un grand vide entre cette diffusion et celle proposée par les cinéma ayant du investir il y a peu dans le 2K.

David Fincher et Epic sur le plateau de House of cards

Dès lors, quid de ces salles de cinéma, si les contenus sont disponibles sur ces réseaux  plus rapidement, de manière moins onéreuse et surtout dans une meilleure qualité et partout en même temps. La fin des labos et la fin de l’apprentissage des métiers liés à la pellicule dans les écoles de photographie et de cinéma et dans les formations techniques notamment celle de projectionniste, tous ces facteurs indiquent que les salles de cinéma ont bien un grave souci à affronter sans disposer d’armes adaptées à cette menace bien réelle. Car elle seront à armes inégales dans la diffusion d’oeuvres récentes et incapables de rediffuser des « classiques » sur pellicule.

L’industrie devra aussi délivrer des films disposant d’une meilleure qualité de tournage et se mettre d’accord sur les formats « intermédiaires » afin de remplacer le, déjà totalement obsolète, 1080P même à près de 100Mb/s en MPEG-2 ou H264. Que personne ne va regretter j’en suis sur.

Sans parler que les premiers tâtonnements sur les hautes fréquences d’images (48 ou 60 voire 120P ) doivent aussi trouver une norme commune afin de s’adapter au matériel à venir (le HDMI est incapable de diffuser à 120P aujourd’hui).

Le prochain NAB devra surement nous apporter quelques outils en développement que nous utiliserons après demain mais en espérant aussi que nous n’aurons pas besoin d’investir tous les deux ans pour satisfaire aux avancées technologiques un peu comme nous changeons de téléphone portable aujourd’hui pour simplement pouvoir appeler comme en 1998 mais avec un firmware à jour et de nombreux « avantages » couteux.

Samsara tournage

Pour appuyer ce propos et à la fois défendre paradoxalement le métier traditionnel qui est le notre, je vous invite à aller voir en salle,  Samsara de Ron Fricke, qui a su capturer, comme l’avait fait le premier opus, Baraka en 1992, la beauté du monde. De manière peut être plus urbaine, Samsara visite ansi 25 pays lors d’un tournage qui a duré plus de cinq ans grâce à une caméra Panavision HSSM 5 perf-65mm. Et, il y a beaucoup à méditer du choix de tourner en pellicule de la part du réalisateur. En effet, en 2006 seule une caméra numérique était capable de 4K, la Dalsa, encore à l’état de prototype et la caméra utilisée sur Baraka (todd-AO AP 65) n’était plus elle, disponible. Dès lors, le choix judicieux de Fricke se portera sur une caméra construite à la main, en 1959, selon une technologie haute vitesse Mitchell datant de 1930. En pratique pourtant les réalisateurs ne dépasseront guère 48 images par seconde sur cette antiquité capable de monter à 72im/s, dont le viewfinder sera tout de même modifié pour apporter un plus grand confort moderne au caméraman. Ils durent modifier de manière artisanale les magasins de la pellicule et affronter des altitudes ou des températures extrêmes pour ce long tournage et dans les quelques rares occasions où la caméra tombait en panne ils la répareraient eux même sur place.Une pratique que l’on est plus prêt de trouver lors de nos tournages.

Enfin le résultat final fut scanné à 8K sur un Imagica 12K Bigfoot 65mm (200 Mo/image) et « réduit » à 4K pour les effets spéciaux et la diffusion dans ce format au sein d’un réseau nord américain disposant de 11.000 salles acquises à ce format numérique, en europe et notamment en France bon nombre de salles sont je le disais équipées en 2K. Tout en sachant que rares seraient les salles capables de proposer le film dans son format d’origine pourtant splendide.


Le Moyent Orient vu d’Hollywood, une mise au point nécessaire.

Une fois n’est pas coutume je laisse la technique des oeuvres que je vais aborder ici pour m’arrêter à l’image au sens de la représentation qu’elle donne du Moyen Orient.

Si vous avez vu Argo, de Ben Affleck, récemment et que cela vous a donné envie de découvrir l’Iran tant mieux, mais vous risquez d’être un peu surpris en arrivant à Téhéran, pas seulement parce que l’action se passe il y a une trentaine d’années, mais surtout parce que pas une seule image ne provient de de la capitale iranienne alors que la majorité du film s’y passe théoriquement.

En effet c’est la Turquie qui fut choisie majoritairement pour ressembler à l’Iran, pour y reconstituer ses rues et ses ambiances, mais également l’aéroport d’Ontario ou le parc Hancock et l’hôpital « Veteran Affairs » de Los Angeles qui vont servir de décor à Argo pour y tourner les scènes dans l’aéroport ou aux abords de l’ambassade US. Pour le reste, tous les arrières plans du film sont en fait des créations numériques que l’on doit à un bataillon d’entreprises spécialisées dont : Shade VFX, Christov Effects and Design, Pixel Playground, Furious FX et Method Los Angeles et Vancouver. Toutes se sont inspirées de ce qu’elles savaient ou pouvaient voir de Téhéran, et Google Earth fut donc mis à contribution au même titre que des archives photographiques datant des années 70. Sur ce plan, trouver des images d’époque et finalement plus facile que des vues contemporaines.

La photographie générale du film contribue parfaitement à rendre crédible ce récit censé se dérouler dans le passé mais l’écueil reste comme dans Syriana il y a quelques années ou Spy Game, que l’ambiance du Moyen Orient est surtout basée sur des « clichés » que l’on doit à des analystes (militaires pour la plupart) n’ayant jamais quittés leurs bunker » diplomatiques à Beyrouth notament.  Argo n’évite pas cet écueil mais l’atténue  (sauf si l’on regarde le film du point de vue iranien ou moins nord américain bien sur mais c’est un autre débat) en basant son histoire il y a quelques 33 ans.

On ne peut pas en dire autant de Homeland dont la saison deux (une saison trois est déjà au programme) se passe pour quelques épisodes au Liban en 2012. Loin de moi l’idée de vouloir que l’on tourne toujours dans les décors réels, même si je l’avoue, j’aime surtout tourner des documentaires, mais vouloir faire ressembler Beyrouth à ce que l’on voit dans la série, adaptée de « Prisonnier of war« , en dit beaucoup sur la vision nord-américaine de la région. Vous n’avez jamais mis les pieds au Liban, Claires Danes non plus; qui joue pourtant très bien l’ex agent de la CIA qui doit y rencontrer une femme d’un dirigeant de Hezbollah prête à trahir son camp et son mari. En effet si Argo à choisi la Turquie et les effets spéciaux, Homeland a porté son choix sur le Maroc et les décors naturels de Casablanca semble t-il, et cela ne fonctionne pas du tout. Une simple recherche sur Google images aurait permis aux auteurs de voir un autre Liban, moins caricatural.

Ils auraient pu choisir le Mexique, moins loin de Hollywood car étant donné la vision approximative qu’ils ont du Liban, à savoir une sorte de pays plus proche de l’Afghanistan, où Haifa Wehbe n’existerait visiblement pas ils auraient fait des économies. Claire Danes doit se teindre en brune, porter des lentilles marrons et se voiler pour que, la blonde qu’elle est, puisse naviguer au sein d’une peuplade portant keffieh et barbe. D’ailleurs dès l’aéroport, où un portrait de Saad Hariri nous fait penser qu’il serait donc premier ministre, on comprend que l’on va devoir en avaler beaucoup sans rire.

L’apothéose étant que le Hezbollah et al qaida seraient en fait la même chose, et que, au passage, la rue Hamra, qu il n’est pas dur pourtant de visiter, d’y obtenir une autorisation de tournage voir des photographies contemporaines, n’est pas un quartier où des jeeps équipées de mitrailleuses lourdes viennent sécuriser des réunions salafisto-hezbollah. Ah! dans ce monde où Haifa Wehbe n’existerait pas, les USA mélangent à peu près tout (l’Afghanistan, l’Iran, Beyrouth en 1982) et se bloquent sur une vision des années 70/80 ce qui colle parfaitement à une reconstitution historique dans Argo (d’un point de vue occidental) mais pas à une fiction des temps moderne.

La faute peut être à ce renfermement et cet ethnocentrisme y compris à ceux qui ont l’air d’être les plus ouverts sur le continent américain. Ainsi Clooney ou Affleck ne paraissent pas connus pour être des faucons ignorants, mais tout de même, à l’image de Keanu Reeves (pourtant né au Liban) qui lorsqu’il fait un documentaire (Side by Side) au demeurant très intéressant sur le cinéma numérique oublie juste de jeter un oeil en Europe, en Asie et finalement ailleurs qu’à Hollywood ou New York.


Course (sans fin) à l’armement

Voilà moins d’un an que je lançais ce blog afin de relater mon travail d’une part mais aussi d’informer bien modestement sur les nouvelles technologies liées au caméras numériques professionnelles que nous utilisons sur les plateaux et les tournages dans nos métiers. L’utilité d’un tel blog est du en fait au changement constat de ces technologies et matériels. Car il y a quelques mois j’annonçais la nouvelle venue la Scarlet, la C300 ou encore les premiers tests avec une Sony F3 et quelques milliers de lecteurs plus loin mais moins d’un an après je dois faire des mises à jour constantes afin de coller au marché et aux annonces et autres nouveautés. En effet un peu comme l’année passée lorsque Canon et Red se disputaient un jour commun pour lancer leurs produits la C300 et la Scarlet il y aura bousculade le 31 octobre du coté de chez RED mais aussi de chez Sony pour savoir par quel nouveau produit il faudra jurer pour être tendance. Chez Jim Jannard peu de mystère ce ne sera qu’une baisse de prix substantielle qui rendra beaucoup plus abordable l’Epic et presque accessible pour tous la Scarlet (surement sous les 8.000$). Une bonne nouvelle pour les nouveaux acquéreurs ou ceux désirant passer de la plus petite à la plus grosse caméra sans avoir à trop se saigner (preuve il en est que la Scarlet n’est qu’une version bridée de sa grande soeur).Mais malheur à ceux qui ont investi il y peu et qui auront le plus grand mal à amortir ce prix et à digérer cette baisse tragique de la valeur marchande de leur caméra.

En cherchant à en savoir plus sur la Sony F55 on trouve des pépites sur le net.

Ce sera aussi surement le cas de nombreuses productions qui auront misé sur Sony et sa F3 à peine vieille d’un an et quelques (on en a entendu parler la première fois au NAB 2010, mais quand est elel arrivée vraiment sur le terrain des tournages?) qui avec son codec intra en 8bits 4:2:0 mais son grand capteur aura surement séduit des gens bluffés par les HDSLR mais cherchant une caméra et pas un appareil photo, afin d’avoir du son, un shutter, un viewfinder (ah non pas encore) et peut être un codec autre qu’un pauvre h264 avec la possibilité en externe de profiter du fameux 4:4:4:4 notamment aux conditions que j’expliquais dans mon billet précédent. Car tous les acquéreurs de cette petite Sony auront surement une larme à l’oeil lorsqu’ils découvriront la probable F7, car la F3 va voir sa production arrêtée. En moins de 2 ans. Le géant japonais va annoncer l’enterrement en grande pompe de sa F3 en cela que le Codec XAVC va remplacer celui de utilisé jusque là en interne sur les XDCam. Et celui-ci pourra gérer du 10 bits 4:2:2 à 100Mb/s de série. Adieu à ce stade là, enregistreur externe et couteuse mise à jour du Firmware. La caméra que l’on disait capable de rivaliser avec la Alexa en terme de dynamique et de piqué d’image, se voit destinée à un musée alors que la petite Arri elle fait toujours des heureux sur les tournages.

Pour autant la caméra capable de 4K (probablement la future norme pour les mois ou les années à venir aussi bien en enregistrement qu’en diffusion) nécessitera toujours un module externe mais Sony devrait en proposer un made in Japan il permettra le 2K à 120 im/s et le 4K.

Je me mets alors à la place de petites structures qui viennent (18 mois c’était hier) d’investir dans une F3 et qui vont se retrouver avec un bel objet bien dépassé technologiquement, la faute aussi au fait qu’on ait accueilli cette caméra avec les honneurs alors même qu’en interne elle ne proposait rien d’autre que ce que la EX1 ou EX3 faisait déjà (à savoir du 8 bits 4:2:0). L’effet de mode du gros capteur va se poursuivre mais il semble que celui-ci soit enfin rattrapé par la technologie qui permet enfin d’enregistrer son flux correctement en interne.

Notons au passage que c’est toute la gamme F qui va subir un ravalement et qu’une F55 semble aussi pointer son nez, dès que l’on aura les spécificités de celle-ci je reviendrai c’est promis nous mettre l’eau à la bouche. Avant qu’un autre produit lui vole la vedette, mais, je suis sur qu’on trouvera bien un objet capable de faire des films pendant de longues années sans avoir à le jeter à chaque fashion week.

Un descriptif de la future F5 complet et la mise à jour des pilotes pour gérer les fichiers Raw de la F65 pour Avid et Première, rien ne semble penser que FinalCut X sera concerner par cette option, à croire que Sony ne voit pas dans le logiciel une alternative professionnelle?


Retour à la normale

 

La saison estivale, pourtant studieuse, ne m’a pas donné le temps de mettre à jour le blog comme je le souhaitais. Pourtant il y a du nouveau, du matériel tout d’abord malgré le léger faux bond de BlackMagicDesign qui nous laisse attendre sa petite caméra depuis Juillet, toujours pas de nouveau MacPro et même plus de MacBookPro 17 pouces, de ce coté là rien de bon.

Mais je m’en vais tourner une série « genre Thalassa » pour les Émirats et la sony F3 sera du voyage avec un Cinedeck pour enregistrer en S-Log 10 bits 4:4:4 accompagnée d’une série PL de chez Cooke.

 

Une occasion de vous faire un petit comparatif dans ce segment (Red Scarlet, Blackmagicdesign, Sony F3…) et du coté des enregistreurs externes (Atomos, Sound Device, Cinedeck et blackmagicdesign).

Enfin, un petit article sera aussi consacré aux Lut de la Sony suite à une série de demandes en ce sens et, pour que la rentrée soit complète je ferai aussi une petite sélection des nouveautés de l’IBC 2012.

Bref c’était les vacances…


Le mythe et la révolution forcée du tout numérique.

L’actualité des salles et des sorties cinéma a su faire le point au moment du festival de Cannes et à la lecture de quelques études voilà un triste constat.

Je rappelle donc que je parlais de la mort des laboratoires français spécialisés dans le traitement des bobines de polyester que l’on appelle film. Ainsi le groupe Quinta et sa filiale LTC licenciait ses 150 salariés au prétexte de l’évolution de la profession et du passage autour numérique qui rendait son activité inutile et de toute façon déficitaire (du fait aussi des lourdes factures en suspend de la part des principales productions françaises).

En parallèle de cela on nous promettait une baisse des couts de copie des films grâce qui devait permettre une plus large diffusion. Effectivement on devait passer de 1000€ à 100€ par copie. Pourtant toutes les études nous montre que les couts réels semblent être bien différents. Ainsi le prix d’une copie numérique semble plutôt se situer entre 100 et 200€. Mais surtout à cela vient s’ajouter le prix du projecteur numérique, qui en plus de limiter la diffusion à du petit 2K nécessite un contrat de maintenance qui jusqu’alors était la fonction du projectionniste. Les lampes de ces projecteurs dont j’ignore le prix, doivent être changées tous les 7 ans contre 30 ans du temps du 35mm. Enfin il a fallu aux salles de projection envisager de nombreux travaux (climatisation, agrandissement, tableau électrique, raccord ADSL voire installation d’une antenne satellite) pour se mettre aux normes et je ne parle pas là de vouloir passer à de la diffusion 3D stéréoscopique.

Me basant sur des études européennes indépendantes mais surtout sur celle commandité par le lobby des diffuseurs aux USA  (Motion Picture of America) il ressort que le cout moyen par salle se situerait autour de 80.000 euros (le seul cout du serveur et du projecteur 2K serait de 60.000 Euros). On comprend par avance que les petites structures n’auront jamais un telle somme à disposition pour investir dans la diffusion de films, ce qu’elles faisaient déjà depuis fort longtemps avec la technologie mécanique du 35mm.  Les grands multiplexes bien aidé par la vente de popcorn et les films à succès pourront eux faire le grand saut et l’objectif du tout numérique pour 2014 sera donc tenu peu importe les résistants ou les moins fortunés. Ainsi le groupe Pathé qui détient 740 écrans en France serait en train d’investir 150 millions d’euros pour la production et la rénovation de salles soit plus de 200.000 Euros par salle.

De cette « numérisation à marche forcée » dont parlait les Cahiers du Cinéma en juillet 2011 on voit aussi que l’ensemble des débats a été épuré des questions de qualité de projection. Quid des projections en 4K et 8K pour se hisser au même niveau de résolution que le 35mm? Quid des choix sur la nature et la qualité des écrans, de la luminescence des projecteurs… Mais surtout pas un mot sur le fait que la seule solution d’archivage proposée par ce nouveau système sera… une copie 35mm. Du moins en France où cette opération est encore nécessaire pour le dépôt légal par le CNC.

S’ajoute encore une question celle des choix de programmation et des mesures de rétorsions de la part des distributeurs qui via le système de téléchargement et surtout la clé d’activation du film numérique (KDM Key delivery message) qui met en place un moyen de vérification et contrôle des heures et du nombre de projection par la salle.

En effet si le distributeur a su se placer dans une position de force mais aussi instaurer un nouveau modèle économique à son avantage et créant ainsi un nouvel acteur, à deux têtes le tiers collecteur ou le tiers investisseur (entité économique qui permet le financement d’une installation numérique et qui redistribue aux exploitant les « Frais de copies virtuels » (VPF) qui sont le fruit d’une part des économies que les distributeurs réalisent eux lors du passage au numérique (copie physique, transport, stockage…)

On a vu se créer des intermédiaires qui ont pu bénéficier de cette manne financière de redistribution mais aussi dans bien des cas notamment en France des aides publiques nationale ou régionale qui vont aussi tenter de permettre cette transition technique aux 5.400 salles de cinéma du pays (ce qui place la France au quatrième rang mondial derrière les USA, l’Inde et la Chine) diffusant 575 films pour les seules sorties de l’année 2010.

Le cas de la France est un peu à part et, sans rentrer dans le détail, on peut dire ici que l’Europe s’est faite sans harmoniser du tout « son » cinéma. Ainsi l’on va de la Norvège où la grande majorité des salles sont municipales, à l’Allemagne qui aide la production par notamment, une taxe spécifique sur le chiffre d’affaire des exploitants, à l’Espagne qui dans le domaine est très peu portée sur l’aide à la création et à la diffusion d’oeuvres qui ont surtout du succès à l’étranger. Pourtant tous ces pays vont passer d’ici à 2014 au tout numérique et tous vont avoir recours aux intermédiaires et aux distributeurs pour se mettre aux normes décidées par ces derniers.

Il existe bien sur de nombreux moyens pour restructurer ce secteur, mais les règles de la concurrence étant valables partout et pour tous, ce ne furent pas les projets de mutualisation ni même celui favorisant le recours à des logiciels libres qui finiront par être choisi.  Ces institutions privées et plutôt spécialisées dans le seul financement vont dès lors jouer un rôle prépondérant auprès de l’industrie du film. Si l’on peut noter la grande rapidité avec laquelle s’est mise en place ce nouveau « champ organisationnel », il faut surtout y voir une opportunité économique d’un coté, aidé sur le plan « technique » par le mythe de la 3D stéréoscopique et du tout numérique relayés notamment par des leaders d’opinion qui ont su argumenter les avantages supposés (souplesse, innovations, facilités, coût…) du tout numérique en oubliant de préciser le sort réservé aux professionnels, (un projectionniste sera désormais un « téléchargeur » en charge de 4 à 10 salles), aux petites salles, aux films 35mm et à l’archivage de ces supports numériques estimés tout au plus à 5 ans selon les normes actuelles de l’industrie.

Amusant, lorsqu’après un tel bilan, on à la chance de lire une interview de Christopher Nolan, qui refuse de passer, lui, au numérique lors de ses tournages préférant le 35mm voire le procédé IMAX qui malheureusement seront bien à l’étroit dans une salle équipée selon la norme 2K. Vous me direz que Sony vient d’annoncer un projecteur 4K (SRX-515) permettant la 2D ou la 3D et étant compatible avec les futurs films tournés à 48 images par seconde? Oui mais à ce jeu là que deviennent les salles déjà équipées, elles rachètent un projecteur tous les deux ans lorsque l’industrie du film change de format de tournage?

Ah oui j’oubliais dans les avantages que les lobbys ont su nous vendre pour accueillir le mirage/miracle du numérique, l’un d’entre eux fut que les programmes d’avant séance seraient alors plus faciles à diffuser selon les heures et les films, le public  concerné… J’ai cru un instant qu’ils parlaient de courts métrages comme au temps de mon enfance, mais je pense qu’il s’agissait en fait de publicité ciblée. Naïf que je suis.


La tueuse de HDSLR? Complément d’information.

Je disais dans mon post précédent que la petite caméra de Blackmagic Design serait une « tueuse » de 5D et autres C300 parce que notamment elle enregistrait en RAW en interne et qu’en cela elle remplaçait la Scarlet annoncée à l’époque 3K à 3.000$ par Jim Jannard. Ayant reçu beaucoup de commentaires depuis cet article je reviens sur ces deux informations car je vous dois des explications sur la forme comme sur le fond. Tout d’abord j’ai eu la chance de pouvoir tourner avec bon nombre de caméras existantes depuis le HI8 et l’Umatic, le DV et le Beta alors qu’en parallèle j’apprenais à manier du film 35 et 16mm sur des Arri et autres Panavision.

J’ai été comme beaucoup d’entre nous choqué et intrigué par la sortie de la Red One qui annonçait un bouleversement notable dans nos métiers en cela que le numérique pouvait faire jeu égal pour un budget bien moindre avec la pellicule. Très vite j’ai eu l’occasion de pouvoir utiliser l’engin sur des tournages et le voir évoluer ainsi que son workflow qui reste souvent méconnu des gens pressés de vouloir tourner en Red sans en connaitre la face cachée. A mon sens cela vient du fait que l’on a à faire d’une part à des clients qui ne connaissent rien à nos métiers mais on entendu parler ici ou là de la machine qu’ils veulent donc utiliser sur leur tournage (pub, clip…) voire des utilisateurs bercés au seul son du numérique qui pense non seulement rivaliser mais dépasser la qualité de la pellicule qui serait à l’image d’un film en noir et blanc d’une autre époque… À coté de ce développement à gros budget s’instaurait celui du HD, après un court passage par le presque HD à 720p, et surtout celui des médias à mémoire qui enterraient les bandes et les cassettes. Pour autant même si les modèles HVX de Panasonic ou XDCam « cinéalta » de Sony étaient alors utilisés dans quelques films (REC, District 9… aux cotés de RED notamment ) cela restait de bonnes caméras pour un format télévision mais le capteur et les codecs semblaient un peu juste pour une exploitation autre.

À cela est venu s’ajouter une petite trouvaille du secteur photographie recherche et développement de Canon qui arrivait à filmer avec son appareil au capteur CMOS full frame ou APS. Dès lors et malgré la piètre qualité du codec et donc du résultat final (moiré, aliasing et autres rolling shunter, le tout en H264) le petit gadget envahissait nos tournages et devenait même un must have. Aujourd’hui si l’on sait utiliser ces machines correctement (quand elles sont utiles) on peut faire de belles images je n’en doute pas mais l’ergonomie et l’horreur du codec nous font souvent regretter une caméra d’épaule Beta numérique. Voilà pourquoi la sortie de la petite blackmagic ou de l’ikonoskop me semble une bonne nouvelle, en cela que si le capteur est plus petit que les dslr de Canon, mais assez proches du GH2 de Panasonic, au moins on peut obtenir un fichier RAW nativement et travailler en 2,5K dans la cas de la blackmagic (Ikonoskop se limitant à du 1080P). Je rappelais que seul RED possède le brevet pour utiliser nativement du RAW sur ses caméras, c’est toujours vrai en cela que Arri doit utiliser un enregistreur externe pour accéder au saint graal et que nos petits amis cités plus haut se limitent au format 12 bits CineDNG d’Adobe.

Alors en quoi cette petite machine au look un peu rétro peut elle tuer malgré ses défauts (batterie intégrée et absence d’entrée XLR…) le HDSLR?

Le codec tout d’abord et bien meilleur rien à dire, il n’y a qu’à utiliser du RAW pour ne plus vouloir revenir à autre chose et le DNG est bon, de toute façon il est incomparable avec du H264 8 bits 4:2:0. Et pour ceux qui le 4:2:2 10 bits suffit ils auront le choix entre des fichiers AVid ou FinalCut dans un Codec reconnu par toutes les plateformes de post production.

Les métadonnées et l’apparition de mots clés, bien pratique et plus encore lorsque l’on passe en post production. L’enregistrement interne sur des SSD de 2,5 pouces de moins en moins chers.

La monture EF et ZF qui donne accès aux optiques abordables.

L’ultrascope en Thunderbolt, un plus qui change la vie lorsque l’on veut monitorer ses images de manière plus réaliste que sur un simple écran de 5D.

Le capteur serait, aux dires de nombreux commentateurs, un point à mettre dans la colonne des moins. Pourtant il permet une dynamique de 13 Stops dans l’image et contrairement aux idées reçues il ne s’agit pas d’un capteur au format 16mm, le BMD est supérieur et se situe entre un super 16mm et celui qui équipe un GH2. Il s’agit donc plutôt d’un 4/3 de pouce.

Le format d’image de 2,5K se situe en réalité en dessous du 2K en cela qu’il est plus étendu mais donc moins haut. On est bien loin du 4K qui reste de toute façon bien loin du 35mm voire de l’Imam. On dispose d’un format certes atypique mais assez proche de ce que l’on pourra diffuser avec les normes numériques qui s’imposent à nous dans le salles de cinéma qui ont investie dans des projecteurs 2K.

Certains commentateurs me rappellent que j’annonçais une norme à 4K dans les années à venir, je le pense toujours mais je sais aussi que depuis que je tourne en RED et en Alexa nombre de productions se satisfont d’une simple HD pour des raisons de budget tant au tournage qu’en post production. Pour conclure si je suis amené à décliner l’utilisation de cette caméra ce sera pour des raisons d’ergonomie ou de batterie mais pas pour des raisons de qualités de son capteur ou de son codec, je reste favorable à des caméras petits budgets plutôt qu’à des machins peu pratique et ressemblant à des arbres de noel pour filmer en 4K mais… Je n’oublie pas que le Film n’a pas encore de concurrent direct en tournage et en diffusion du moins dans les normes qui nous sont proposés aujourd’hui par l’industrie.


La fin des labos, ou comment l’industrie se sauve en se tirant une balle dans le pied

« Qu’un seul prenne le chemin du succès et les autres suivront. Ou l’histoire du numérique dans l’industrie du cinéma à travers le succès commercial de Avatar. »

On vient d’apprendre par divers journaux spécialisés de Hollywood que désormais l’industrie du cinéma aux états unis abandonnée la pellicule pour entrer dans l’ère du tout numérique. C’est grâce au succès du film de Cameron en 3D (tourné en HD) notamment que cette décision fut prise mettant une industrie en proie à des difficultés financières face à une solution à court terme plutôt facile et qui engendrerait selon elle une baisse des couts notamment dans la distribution. En parallèle de cela le géant de la pellicule Kodak se mettait en faillite sans que l’on sache vraiment ce qu’allait devenir son département film et cinéma.

En France même son de cloche puisque  LTC a annoncé sa faillite, ce fut pour nous une occasion de mieux comprendre le rôle des acteurs majeurs de notre industrie dans le torpillage du 7ème art.

Ainsi les labos sont les premières victimes du passage des salles au tout numérique (et l’on revient ici à la problématique due à la qualité réelle du film projeté par des appareils tout juste capables de reproduire du 2K donc à peine mieux que la haute définition de votre home cinéma, alors que le 35mm voire le 65mm équivaudraient à du 4K et beaucoup plus.)

En juin dernier près de 49% du parc français des salles de projections était numérique, afin de pouvoir répondre à cette double problématique du cout de reproduction d’un film sur pellicule et du désintérêt du public pour les salles (au profit selon beaucoup du piratage?) auquel l’industrie n’a su répondre que par hausse des prix du billet et une agression de films en vraie fausse 3D relief.

Pourtant la mort de LTC et de ses filiales nombreuses est aussi due aux acteurs, les productions elles mêmes, qui se sont servies des labos comme de banques en différant leurs paiements à 180 jours voire en ne réglant jamais les sommes réclamées. Car s’il y avait peu de laboratoires sur la place parisiennes (LTC et Éclair) et que l’on craignait presque une situation de monopole car Tarak Ben Ammar, le propriétaire de LTC et actionnaire à 43% de Éclair, voulait faire une fusion entre ces deux entités. C’est en fait une concurrence acharnée qui semble avoir tué le métier. En acceptant de telles facilités de paiement et donc à ce que les producteurs laissent des ardoises se montant à près de 40 millions d’Euros au final, comment pouvait on croire à la viabilité d’une telle entreprise?

Autre poids lourd de notre métier le CNC qui avait en 2002 fait faire un rapport (Couveinhes) suivie en 2006 par celui de Goudineau qui semblaient proposer des pistes pour anticiper cette situation de fin de la pellicule. Pourtant rien n’a été entrepris. L’industrie étant la cinquième roue du carrosse et la législation européenne laissant peu de manoeuvre en terme de fusion des labos ou d’aide de la part du CNC, donc de l’état.

Pourtant en tant que cinéphile vous devez vous poser une question si les salles passent au tout numérique, quid des « vieux films » en celluloide? Un projet devait voir le jour et proposer la numérisation par les laboratoires de 10 000 films du patrimoine français. 10 000 c’est bien peu mais ça donnait déjà un peu d’air au Laboratoire en se basant sur le cout de numérisation d’un long métrage (50 000 euros) le budget total aurait non seulement préservé de l’emploi mais aussi un savoir faire et une industrie sans qui le cinéma et nos métiers pourraient bien disparaitre au profit de nouvelles techniques ou accessoires qui pourraient bien remplacer des techniciens trop couteux…


Le futur du cinéma.

2012 la fin d’un monde?

En guise de billet destiné à vous souhaiter mes meilleurs voeux pour l’année à venir me voilà retombé dans mes travers à savoir la mauvaise humeur et les prédictions de fin du monde (cinématographique mais c’est déjà ça).

En effet, fin d’année oblige je suis tombé sur toute une série d’articles ou d’analyses sur le cinéma et l’industrie tant en Europe qu’au États Unis (ce constat ne traite donc pas de l’Inde qui pourtant produit bien plus de films).

Le bilan de tout cela me laisse un gout amer et en liant les articles les uns aux autres me voilà bien obligé de vous donner mon sentiment sur la question.

Première mauvaise nouvelle, Kodak se prépare à la faillite, l’action en bourse du géant de la pellicule ne vaut pas plus qu’une petite pièce que l’on garde au fond de la poche pour resserrer une vis à pas Kodak faute de mieux.

Avec cette première info les amoureux de l’analogique, de l’argentique déjà orphelins de Ilford vont devoir amener leurs enfants dans des musées pour leur expliquer le bon vieux temps du négatif.

Mais au même moment c’est un second article qui nous annonce la fin du positif et donc de la pellicule dans les salles de projection, au profit là aussi de projecteur numériques. On nous explique que le cout d’une copie numérique est 10 fois moins chère que celle sur celluloïd. Tant pis si l’on perd le charme et la qualité, de toute façon le multiplex dans lequel vous êtes rentré se fait plus d’argent sur les popcorns que sur le film, sauf à vous taxer de quelques euros ou dollars supplémentaires car le film que vous allez voir est en 3D, voire en IMAX 3D.

 

Et avec cette annonce on touche là à un point épineux de la dernière décennie de notre industrie qui est capable du meilleur quand elle s’attache à la restauration et à la ressortie du « Voyage dans la lune » de Méliès. Mais surtout du pire quand elle nous vend sa sauce grâce à des logos sur ses affiches et quelques mensonges sur la qualité, et je ne parle pas ici de celle des « scénarios ».

Comment expliquer que cette technologie du 3D relief qui devait éviter le naufrage aux studios et aux distributeurs voire au diffuseurs devient quasiment un synonyme  de mauvaise qualité et d’arnaque à peine plus crédible qu’un placement financier pyramidal.

En effet nous savons deux trois choses sur les formats de tournages et de projections dont le fait que les films que l’on voit en salles sont souvent projetés grâce à un positif de 35mm et que lorsque l’on parle du procédé IMAX il s’agit d’un 70mm 15 perforations. Dès lors on peut avancer que la qualité minimum d’un projecteur numérique devrait être de 4k pour un équivalent 35mm et je ne sais combien (8K, voire 10K?) pour un équivalent IMAX. Mais l’on sait surtout que les salles sont en réalité équipées de projecteur 2K.

On sait aussi que les films tournés réellement dans ce format sont en fait très rares, si rares que lorsqu’il le sont, pour la plupart ils réservent ce format très couteux à quelques scènes d’actions (Batman de Christopher Nolan en est l’exemple) pour le reste les scènes « normales » étant tournées avec des caméras « normales » donc souvent à peine mieux définies que du HD 2/3 de pouces (Avatar).

On nous vend donc surtout un gonflage artificiel par un scanner d’images classiques ayant une définition d’à peine 2K. Idem pour le 3D relief la plupart des films estampillés de ce logo sont en fait tournés de manière classique en 2D puis regonflés numériquement en 3D. Ce qui fait dire à notre ami David Fincher que la technologie IMAX ne pouvait se prêter à ses films tellement il n’aimerait pas que le format de l’image change d’une scène à l’autre. Car l’IMAX se tournant avec de la pellicule 65mm capturant à l’horizontal, cela change en effet le format et donc le cadre. On en revient à ce vieux problème de diffusion des oeuvres dans un cadre différent que celui voulu par le réalisateur, comme lorsque l’on devait recadrer pour la télévision 4/3.

Donc si je fais le bilan de toutes ces nouvelles, on paye un ticket de cinéma plus cher, pour voir des films en relief voir en imax qui n’en sont pas et de toute façon on regarde un film moins bien définie qu’auparavant du fait du projecteur numérique qui se rapproche de la qualité (je plaisante à peine) d’un écran plasma dans votre salon. Ah! tout de même une bonne nouvelle, la vente des télévisions 3D ne décolle pas en occident la plupart des téléviseurs estampillés ainsi sont acquis en Chine mais très peu ailleurs malgré le consumérisme dont nous sommes capables. La faute peut être au manque de programme 3D qui vient de provoquer (fermeture annoncée le 24 janvier 2012) la fermeture de la chaine 3D de canal+  qui annonce attendre la sortie des télévisions ne nécessitant pas le port de lunettes pour regarder ses programmes.

En attendant je vais répondre à un ami qui se lance dans un projet de film en 8mm. Oui en 2012.


Tourner en Raw, un parcours « brut ».

Il y a quelques années, qui peuvent paraitre des décennies tellement les choses évoluent vite dans notre domaine, un ami libanais réalisateur notamment de séries télévisées pour des chaines locales me demander de venir le rejoindre sur un projet qu’il comptait tourner avec une RED, il voulait mon expertise. Jusqu’ici son expérience l’avait conduit jusqu’au HD avec des caméras de type Sony EXCam ou Panasonic HVX et HPX, je l’avais d’ailleurs aidé avec celles-ci à construire un workflow efficace. Il était novateur dans cette région de travailler avec de tels formats car y compris les télévisions étaient encore au format 4:3. Si les séries télévisées sont très célèbres, les couts de production sont souvent assez serrés contrairement au vidéo clip qui lui connait des budgets exceptionnels.

Il était d’ailleurs passé un jour sur un tournage d’un clip que nous faisions et il décidait de se lancer dans l’aventure du Raw, tellement l’image lui paraissait belle. Après une longue discussion je lui conseillais d’abandonner cette idée tellement les couts de stockage et les temps de traitement ne s’adaptaient pas à son calendrier ni à son budget. Aujourd’hui que la Scarlet va « démocratiser » le Raw, la question se pose t-elle encore pour ce type de production? Était-ce une simple question de coût ou bien un choix logique que celui de rester en HD?

Qu’est ce que le RAW?

Un format que beaucoup on d’abord rencontré dans le monde de la photographie à l’époque où l’on tournait encore avec des caméras en définition standard en interpolé. Le format « brut » est directement issu des informations du capteur qui va encoder selon son propre mode propriétaire le fichier dans une dynamique bien supérieure à celle très limitée du Jpeg (8bits) dans le monde de la photo, pour être décompresser, un peu comme l’on développerait un négatif numérique comme l’on faisait avec de l’argentique jusque là.

On accède avec le Raw y compris en vidéo à un fichier qui n’a pas compressé l’image autrement que par la limitation de dynamique qui se situe à 16bits dans le meilleur des cas. Le fichier est donc compressé mais « sans perte », on maitrise la suite du traitement et donc de la post-production grâce à des images qui contiennent plus d’informations mais aussi des métadonnées. On pourra ainsi réajuster la balance des blancs, l’exposition ou d’autres paramètres comme si l’on était au tournage. On peut toujours régler tous ces éléments avec la caméra mais il s’agit alors plus d’options de monitoring, afin de se rendre compte d’un style qui a pu être choisi avec le réalisateur.

La taille du capteur, sa résolution, sa composition en terme de photopiles mais aussi sa dynamique et sa colorimétrie sont donc ici très importants et le fait de pouvoir travailler dans un espace de 12 à 16 bits par pixel et par couleur restitue pleinement l’image que l’on capture.

Tout d’abord dans quelle mesure peut-on parler de RAW? Quelles caméras proposent ce format?

J’ai toujours du mal à utiliser le terme de « Raw » pour parler d’images capturées ainsi, et je m’en explique, un peu de mathématiques viennent contrarier cette appellation générique qui cache en fait un secret très bien gardé par RED depuis le début, à savoir l’utilisation d’un algorithme de compression dérivé du Jpeg 2000. Car si l’on partait à l’époque de la RED One (qui écrivait ses données sur des cartes CF) et de son capteur de base de utilisé en format 4K 16/9 soit 4096 par 2304 pixels soit 9,368,064 pixels par images. Que l’on mutipliait ce chiffre par le nombre de bits à savoir 12 et que l’on rapportait tout cela en Mega Octets puis que l’on multiplié par le nombre d’images dans une secondes (24 au cinema) on obtenait le chiffre démesuré de 2573 Mb/s. Or à l’époque pas si lointaine que cela du REDCode 36 on enregistré plutôt à un débit de  240 Mb/s soit un ratio de compression de 10:1, on peut certes descendre à 3:1 avec l’Epic, mais, au jour où mon ami réalisateur me demandait ce qu’était le Raw voilà ce que je devais lui dire. Le RAW RED Code est avant tout un mode de compression qui pour ton projet sera toujours trop volumineux et trop lourd à traiter d’autant plus que son projet se tournait à deux caméras. Mais lorsque je tournais avec une Phantom à 2K j’avais des fichiers 8 fois plus volumineux à l’époque qu’avec ma RED. Il y a donc un débat sur la justesse du « Raw » pour traiter des fichiers .r3d. Mais RED est pourtant bien la seule compagnie de caméras ayant le brevet permettant d’utiliser le Raw avec compression…

Et pour le reste tous les dispositifs « non compressé » ou solution de type Raw ne sont pas techniquement du Raw et sont le plus souvent limitées par le fait que l’on utilise le ou les sorties HD-SDI de la caméra qui sont limitées à 10 bits. Pour autant dans cet espace restreint par rapport à du 16bits on va capturer une image dans un format que l’on pourra aussi manipuler et auquel on pourra appliquer des LUT ou bien travailler en étalonnage bien plus confortablement que dans le codes natif de la caméra au prix certes d’un matériel et d’un logiciel interne à la caméra que l’on doit souvent acheter en sus.

Ainsi la Alexa dispose de deux Codex sur le marché qui enregistre sur des SSD à raison de 15Go la minute des images qui se rapprochent techniquement du Raw mais via le T-Link de l’allemande. Il s’agit bien là d’un système assez couteux mais non compressé et sans piste audio, permettant aussi de doper la définition jusqu’à du 3K. L’image en sortie d’une telle machine devrait peser 7Mb à la capture pour arriver à 19Mb lors de son traitement. Reste à signaler que le cout d’un tel dispositif double presque celui de la caméra.

Panavision ou Sony aussi ont créé un enregistreur externe propre respectivement aux caméras haut de gamme destinées au cinéma (la Genesis ou la F35) qui ne fournissent pas de Raw et donc via le sLog et la double sortie HD-SDI on va fabriquer desimages en DPX.

Ensuite, il existe des enregistreur externes de marques tierces comme convergent design ou black magic design qui toujours en étant limité à ces 10 bits profitent pleinement des doubles sorties HD-SDI pour compenser ou bien permettent l’encodage en 4:4:4:4 afin de restituer un maximum d’informations de lumière et de couleurs. La qualité du Pro Res 4444 se situe juste en dessous du HDCam SR de Sony soit 130Gb/h

D’autres appareils eux encodent dans des codecs plus ou moins destructeurs en MXF ou en AppleProRes 422 qui peuvent aussi servir de proxys pour le montage. D’ailleurs Arri conseille la capture sur les cartes SxS en ProRes en plus du Codex à cette fin. Avec la RED j’utilise depuis peu un enregistreur externe le PIX 240 de Sound Devices qui dispose de SSD et d’un écran de contrôle et depuis une mise à jour récente se couple parfaitement avec ma caméra en cela que l’enregistrement sur ma caméra provoque celui en HD en ProRes automatiquement. Ce procédé me permet une relecture sur le plateau de mes plans mais aussi d’utiliser une seule caméra pour tous mes projets du 5K au HD.

J’en profite pour faire à nouveau une petite publicité pour cette petite caméra de type Super 16 Ikonoscop qui enregistre selon un codec CineDNG de type RAW de 12 bits pour un taux de compression assez bon mais en simple haute définition traditionnelle.

Pour autant tout ce qui est RED Code RAW n’est pas vraiment du brut. Certes on en a fini avec les compression de 42:1 mais il reste que la Scarlet ne proposera au mieux que du 6:1, l’Epic propose du 3:1 alors qu’il s’agit du même capteur ce qui laisse à penser que RED a choisi de limiter les possibilités de sa dernière production en la bridant volontairement afin de justifier le prix de la Epic.

Le crop factor lors du passage à 3K, 2K voire 1K :

On n’a pas toujours besoin d’une image capturée à 4 ou 5K, et par ailleurs l’on sait que pour tourner à plus grande vitesse on a besoin aussi de réduire à la taille de l’image afin de compenser le travail du processeur et de permettre une écriture des données sur le média. RED propose donc la possibilité de réduire la taille du capteur utile pour gagner en vitesse allant sur la Scarlet jusqu’à proposer de tourner à 1K. Mais pour être raccord dans un même plan entre l’un tourné à 4K et l’autre à 2 ou 1K il faudra aussi changer d’optique car réduire la taille du capteur induit un effet multiplicateur de la focale. Car l’on retombe d’un super 35mm à un super 16mm voire moins. il faut donc savoir jongler avec ces ratios et de savoir à l’avance que les très grands angles de certaines optiques favorisent aussi des distorsions dans l’image et que cela peut poser problème. Je souffre de cela avec l’Ikonscop qui multiplie par 2.7 toutes les valeurs de mes focales et l’utiliser en grand angle n’est pas si facile que cela. Concernant la RED voilà donc à quoi s’attendre en terme de facteur multiplicateur lorsque l’on filme à 4K, on a l’équivalent d’un APS-C donc 1,6x. à 3K c’est un capteur 4/3″ donc le facteur est 2,0x. Pour une utilisation à 2K (2048×1080)  on se retrouve à utiliser un capteur 2/3″ soit un facteur 3,9x. Enfin à 1K (1024×540 pixels) on doit multiplier par 6,4x.

Une avancée au sein du RAW le HDRx :

Comme le RAW, vous avez peut-être croisé le HDR (High Dynamique Range) dans le monde de la photographie. On est loin du temps où notre caméra filmait une demie image et la combinait avec la suivante pour restituer une pleine image par interpolation. Là aussi RED vous propose depuis la Epic de profiter de ce mode de tournage qui pour faire vite agrandit la dynamique en la poussant à 18 Stops en capturant non pas une image mais en combinant deux, la première où l’on favorise les parties sombres (+3 ou +6 stops) et la seconde où l’on va chercher des détails dans les parties de hautes lumières (-3 ou -6 stops). Ce qui se traduit par une dynamique de 18 stops quand bien des caméras sont limitées à 13,5 stops. Le prix à payer pour obtenir ces images très détaillées et permettant une nouvelle forme de prise de vues, est double, en espace matériel pour les stocker mais aussi en temps pour les traiter.

Car il existe en réalité deux formes de HDR, le Easy qui combine (mapping) ces deux images en une seule lors de la capture et donc a une influence sur la compression de chacune d’elles pour garder le le rythme de processeur, le RED Code 50 et 100 sont là pour répondre à ces cas de figure. Même effet négatif avec le HDRx qui, lui conserve sur les médias les deux images sous exposées et sur exposées en laissant le traitement lors de la post-production, mais il faudra aussi disposer d’un espace de stockage conséquent lors du tournage puis lors du montage ou de l’étalonnage mais aussi en ce qui concerne les copies de sécurité. Toutes ces questions sont aussi primordiales et doivent rentrer en ligne de compte lors du choix de tourner en RAW.

Quel Workflow pour quelle utilisation?

On en revient à la discussion avec mon ami libanais afin de voir que le parcours d’un tel tournage en RAW est long et couteux je vous dresse rapidement 3 workflows types qui prennent en compte les copies de sauvegardes, les exports et copies finales, et les ressources matériels ou logiciels afin de traiter de telles images.

Workflow RAW de bout en bout :

Tournage et montage RAW, avec LUT, conformation puis étalonnage toujours en RAW pour enfin exporter en DPX. Ceci est possible depuis peu notamment grâce à des logiciels tels que Da Vinci, Lustre ou Scratch qui gèrent ce format dans ces différentes étapes. C’est en partie une raison qui m’a poussé à me tourner vers Da Vinci afin de maitriser une chaine lors de mes tournages avec la RED, Color ne me permettant que l’étalonnage 2K et oblige le recours à des proxys, et le manque d’informations de Apple quant au futur de son programme d’étalonnage me fait opter pour une solution de repli contraignante du fait de l’exigence en terme de carte graphique de la part de BlackMagic.

Workflow Basse et haute définition :

Tournage RAW puis conversion DPX pour un montage basse définition DPX puis conformation haute définition DPX, étalonnage puis export.

Workflow transcodage en DNX ou AppleProREs :

Tournage RAW puis conversion DNX ou AppleProREs 4:2:2 ou 4:4:4 pour montage puis conformation RAW mais étalonnage en DNX ou ProRes puis export DPX

On voit que si de nombreux allers et retours sont possibles pour convenir à presque tous les processus de création, il faut aussi compter en temps de conversion et de traitement de ces images. Auquel il faut rajouter et depuis la phase de tournage un temps de copie de sauvegarde des médias sur lesquels on tourne. Il y a donc une double problématique de stockage et d’archivage tant en terme de volume que de temps passé à acquérir et dupliquer. Le projet de série dont mon ami me parlait incluait deux caméras et je fis vite le calcul en taille et en temps que cela couterait à sa production sachant qu’il tournait les épisodes les uns à la suite des autres et que son délai était compté car il n’avait pas pris en compte ce facteur au départ, la diffusion par la chaine obligeait à un rythme de montage assez rapide et les moyens de production étant limités il aurait vite été noyé dans les copies et les disques durs pleins de rushes. Tous ces couts là auraient du être négociés en amont de son contrat avec le diffuseur mais aussi le prestataire de post production. Car lorsqu’il passait du beta numérique à la haute définition en AppleProREs 422 ou 4444 il avait, en fait, franchi le gap maximal dont il était capable en tant petite production.

Pour ce qui est du Raw, il faut traiter, stocker et sécurisé des données importantes et en cela un peu comme au bon vieux temps du film, seul un laboratoire en est capable. Car, n’oublions pas que, si de plus en plus de logiciels nous permettent de travailler à moindre cout sur de tels images, la seule façon de pouvoir exploiter celles-ci dans les années à venir , et donc avec d’encore meilleurs logiciels et codecs qui vont avec, c’est de stocker en attendant.

Voilà donc où nous en sommes dans cette course à l’armement dans le seul but de rattraper la qualité que nous donne le film 35mm, et si le tout numérique nous offre beaucoup de garanties et de possibilités il n’a pas encore enterré son ancêtre. Se rajoute à cela les assureurs qui sur de nombreux projets n’acceptent pas de valider certains workflows ou certaines caméras, j’ai par exemple du mal à imposer la RED sur certains longs métrages et il n’est pas rare que de nombreux confrères habitués à des Sony ou des Alexa souffrent des mêmes réticences de la part d’assureurs qui finissent par leurs imposer leurs outils de travail ce qui est une question primordiale mais dont il s’agit de traiter ultérieurement.


Encore un peu de bruit autour de la Canon C300

Un bon Capteur mais pas en 4K et un processeur grand public?

Le capteur tout d’abord sur lequel Canon a l’air d’avoir beaucoup investi mais aussi parié quant au succès de cette caméra, il est équipé de 4 photosites qui vont traiter le vert, le rouge et le bleu de la manière suivante, un est dédié au bleu, un autre pour le rouge et deux sont attachés au traitement du vert qui selon eux donne ainsi une meilleure résolution de l’image par cette prédominance.

Par contre si la capteur est meilleur que la concurrence notamment chez Sony avec sa F3, le traitement de l’image par le processeur ne délivre que de 8 bits non seulement en sortie HD-SDI mais aussi en interne, surement du fait du très lourd calcul imposé par la quantité d’information venant du capteur. Mais on se retrouve donc avec une caméra plus proche du modèle XF305 de la marque japonaise, ce dernier camescope a reçu l’agrément de tournage de la part de la BBC et l’on connait la qualité exigée par la chaine britannique pour ses productions, il s’agit là d’un ticket d’entrée pour la télévision en haute définition. Mais en terme de traitement de l’image il est dommage qu’on ne puisse pas obtenir du 10 bits, touts ceux qui ne destinent pas leurs productions au Web et qui ont envie de faire de la colorimétrie ou de compositing vont être un peu limité par ceci.

Alors si la capteur n’est pas en 4K afin de concurrencer la Scarlet voire en 2K pour se hisser au niveau de la Alexa, la Canon C300 ne tourne pas non plus à 60p en HD. Je signale que j’ai eu la surprise d’utiliser un Sony NEX 5N pour faire des photos il y peu et celui-ci délivre du 60P mais certes dans un encodage plus destructeur, mais je pensais Canon capable de telles performances.

Pour le reste on disposera de deux filtres Nd intégrés équivalents à un Nd 0,8 (perte de 2 diaph) et un Nd 2 (perte de 6 diaph). Le capteur serait nativement calibré à 850 ipso, soit l’équivalent de +2,5 dB et serait capable de descendre jusqu’à 320 ipso, soit -6dB et de monter à 30dB ce qui correspond à 20000 ipso tout de même..

Enfin on disposer de 8 pictures profiles mais pas de Technicolor CineStyle que j’avais pourtant apprécié, on se contentera du Cinema Canon Log et du EOS Standart qui correspond aux réglages basiques du 5D Mark II.

Des prix et des Gadgets qui vont avec?

Je rajoute à cela le prix des zooms que j’ai présenté hier qui tourneront autour de 47,000$ chacun, et j’en termine avec l’annonce de l’appareil sans nom officiel capable de 4k mais tournant en APS-H, soit 80% de la surface totale du dit Full Frame et qui surtout encodera en Motion Jpeg qui n’est pas pour me réjouir tant ce codec ne m’a pas convaincu jusqu’ici. L’appareil sera capable d’être maitrisé par WiFi grâce notamment à son appendice Canon WFT-E6A qui permettra à un IPad de contrôler la prise de vue, quand on voit de plus en plus de moniteurs de référence sur les plateaux de tournage on se dit que vraiment on n’a pas envie d’avoir à travailler avec l’écran brillant et taché d’un tel gadget, enfin comme Apple de son coté à l’air de vouloir stopper la production des MacPro on va devoir se faire à l’idée de pratiquer nos métiers ainsi, avec des outils chers couplés à d’autres grand public.

 La caméra, et son prix, font-ils de moi un bon chef opérateur?

Car c’est bien une tendance assez embarrassante dans nos métiers que de vouloir travailler et acquérir du matériel onéreux, à la mode et parfois tape à l’oeil. On valorise de plus en plus la caméra et de moins en moins le travail de l’opérateur et du directeur de la photographie (et je ne parle pas ici de ceux du réalisateur, du scénariste…)

Un ami me faisait cette confidence que je partage, le plus souvent on me contacte pour ma caméra et non pas pour moi. Et depuis que je possède des caméras de ce type je ressemble de plus en plus à une société de location, alors que je travaille avec celles-ci et que je n’ai pas cette vocation bien sûr.

Combien de fois n’avons nous pas entendu sur les plateaux ou sur en post-production : »la caméra fait vraiment de superbe images! ». Si j’ai appris à rester très modeste je ne peux m’empêcher de penser que la caméra fait avant tout ce que son opérateur lui fait faire, et que la technologie n’est pas tout, le temps passer à réfléchir au cadre et à la lumière sont pour bonne part dans cette image sublime.

Le marketing ne donne pas une belle image de notre avenir en tout cas.


Une petite boite et de grands rêves.

Alors que la plupart d’entre nous attend les annonces respectives de Canon et de RED ce même 3 Novembre fut choisit par Lomo (la petite société qui fait des appareils photo analogiques amusants et en plastique) pour nous révéler son dernier petit jouet à 80$, le Lomokino. Un petit boitier équipé d’un objectif de 25mm permettant manuellement d’enregistrer presque une minute de film super 35 (144 images par rouleau contenu dans la « magicbox ») dans un format de 24mm par 8,5mm avec un shutter d’une vitesse de 1/100 et un diaph d’une ouverture maximale de F/5.6. Biensur pas de son, pas d’effet si ce n’est le pur produit de votre esprit et l’histoire que vous voudrez bien mettre en scène grâce à cette simple boite.

Outre le format et le prix qui me donne envie de l’emmener un peu partout avec moi j’ai grand plaisir à tourner plein de petites séquences et de redécouvrir le plaisir simple de la pellicule. Pas de gadget, pas de 3D, pas de technologie, pas de software couteux, pour quelques dollars de plus vous pouvez même acquérir de quoi le projeter pour vos amis. Un simple objet revenant à faire des films comme Chaplin, Eisenstein un siècle plus tard et avec moins de talent ou d’audace, mais si l’audace et le talent ne sont pas là, à quoi bon investir dans un caméra à 50.000$ ou plus?

Un peu d’histoire en relief.

Parce que c’est bien là, la question qui nous reste sur les bras, à l’heure où l’industrie cinématographique agonise et tente de nous vendre sa technologie 3D/Relief, et que visiblement le public semble assimiler le concept si c’est en 3D c’est que c’est mauvais…

Car avec la 3D il semblerait que l’industrie du cinéma au sens large s’est bien moqué de nous :

Ainsi il faut se souvenir que la « technologie » 3D date de 1893 et que les lunettes bicolores que j’ai découvert petit pour visionner le monstre du Lac Vert à la télévision servaient déjà à donner du relief aux photographies de l’époque grâce à un brevet de stéréoscopie polarisante. Lorsque le Cinématographe arrive il est alors normal que les frères Lumière filment « l’arrivée du train » selon cette méthode. Plus tard de nombreux succès notamment de Hitchcock vont reprendre ce procédé afin de donner encore plus d’impact et de spectateurs à leurs oeuvres.

Je me souviens aussi que gamin j’en ai pris plein les yeux dans les cinéma IMAX grâce à la technologie de projection alternée, et que l’arrivée du numérique va bien sur continuer sur ce chemin déjà centenaire.

Un second souffle pour l’industrie.

De nombreux grands noms du cinéma vont tenter l’expérience, le plus connu d’entre eux est surement James Cameron dont Avatar (qui est tourné en simple HD) va avoir le succès que l’on connait et faire croire à l’industrie toute entière qu’ils ont là une solution à tous leurs problèmes, piratage et manque d’audience. Il est utile de noter dès maintenant qu’il semblerait que Avatar soit aussi le film le plus piraté (en 2D) de l’histoire récente du partage de films sur internet.

A l’heure de la sortie de Tintin de Spielberg, il faut aussi revenir sur le parcours des films qui ont tout joué sur la 3D pour se faire une place au box office dans le sillage du film en trompe l’oeil de Cameron.

Le pire exemple étant surement « Le Choc des Titans » dont il est de notoriété public qu’il a été tourné en 2D puis repassé à la moulinette numérique pour se présenter à nous en relief, le scénario avait du ne pas survivre à ce procédé et la médiocrité technique du résultat a du faire fuir plus d’un spectateur. La liste est devenue longue des films que l’on ose pas aller voir (même avec ses cousins) tellement on est sur que ce sont des navets et que la 3D n’est là que pour sauver les apparences. Au prix du ticket d’entrée déjà scandaleusement élevé qui va connaitre avec ce tour de magie une inflation de 10%, on comprend que beaucoup se disent que le téléchargement fera aussi bien l’affaire.

Je ne me désespère pas d’autant plus que j’ai vu au moins deux très bons films en relief depuis cette période (la créature du lac vert reste un très bon souvenir mais je vais essayer de me consacrer à des films récents).

« Pina » de Wim Wenders et « La grotte des rêves perdus » de Werner Herzog, dans les deux cas on est subjugué par les images et l’on se dit que la technique sert l’histoire comme jamais. Je suis un fidèle défenseur du cinéma et de ses salles, du rite quasi sacré auquel on se prête en rentrant dans l’obscurité et en visionnant dans le noir et le silence un film sur grand écran. Je ne considère pas que lorsque je voyage en train ou en avion  je regarde un film sur mon petit écran ridicule et dans une ambiance tout juste bonne à rater une partie de sudoku. Voilà pourquoi je retourne au cinéma pour voir, pour regarder pour écouter, pas sur à ce titre que j’ai envie de m’équiper d’un téléviseur 3D pour visionner les dernières productions, pas sur non plus que j’ai envie de filmer en 3D sauf à avoir l’occasion de travailler avec Werner Herzog. Vous me direz qu’à l’arrivée de la couleur sur nos écrans beaucoup pensaient comme moi et que l’histoire prouve qu’ils ont eu tort? Pas si sûr au moment où je filme une petite séquence en noir et blanc sur de la pellicule 35mm sur mon LomoKino. Et ce soir j’irai voir la version « longue » et restaurée de « Métropolis »…


les 7 péchés capitaux de RED.

Je dois faire un dernier retour sur cette notion de « révolution » à faire vous même tellement l’actualité (y compris à travers le décès de Steve Jobs) nous ramène ces temps-ci à ce topic. Car la mort de l’icone de l’informatique et du marketing moderne ne doit pas nous faire oublier qu’il doit beaucoup au HomeBrew Computer club, cher à Steve Wozniak, du temps où de simples amateurs éclairés ont transformé l’informatique pour la faire rentrer dans une nouvelle ère, qui depuis à pris le chemin que l’on connait, reniant par là même l’identité et la morale du club amateur pour verser dans les brevets et la propriété intellectuelle. Certains diront que la fin de cette époque du DIY (fais le toi même) à mis fin aussi à un modèle qui n’avait pas de place dans le capitalisme ambiant. Pourtant quelques marques font persister ou perdurer cet esprit ou s’en revendique, et parfois s’en serve aussi comme argument commercial : « Nous sommes différent, parce que nos créations sont le fruit d’une énergie et d’une organisation qui n’est pas celle des simples produits que vous pouvez acheter par ailleurs », voilà en résumé plus qu’un modèle économique, une idéologie que l’on peut prendre pour révolutionnaire.

Et beaucoup sont les utilisateurs qui en viennent à aimer une marque aussi parce qu’elle est différente, voire révolutionnaire.

Aujourd’hui, Jim Jannard, le patron de RED tente de nous expliquer par une message en 7 points sur le forum de la marque pourquoi « nous n’aimons pas RED ». Il voudrait par ce petit message dont la tonalité lui est propre nous dire que c’est parce que RED est différent et innovant dans bien des domaines que justement nous lui portons une affection particulière. Le problème étant que ni lui ni les utilisateurs du forum en question en semblent répondre réellement aux attentes « basiques » que nous devrions avoir vis à vis d’une caméra avec laquelle nous estimons faire l’image la plus belle possible.

Ainsi ses 7 points rappellent des vérités : ils ne sont pas représentatifs du modèle économique et institutionnel de l’industrie globale, ils parlent trop, ils ne tiennent pas les délais, et ceux-ci sont trop longs, ils feraient trop de mise à jour, ils changent trop de stratégies, et ne donnent pas assez de détails ou de documents notamment écrits à leurs utilisateurs…

Mais aucune de ces vérités ne semble vraiment écorner l’image de la marque, en effet sauf à penser que certains points peuvent nous faire penser qu’ils sont trop amateurs, et qu’ils ne savent pas vraiment où ni comment ils vont, le simple fait que leurs caméras sont utilisés par tel ou tel grand nom de l’industrie, puis que pour le prix nous pourrons nous aussi filmer non pas en 1080P mais en 4 ou 5K, nous font oublier que si nous aimons les belles images nous aimons aussi les beaux objets, et qu’en tant que travailleur de cet industrie nous voulons aussi des conditions de travail si ce n’est confortable en tout cas efficaces. Parce que Jim semble oublier totalement le design de sa caméra dans « ses critiques » et son ergonomie voire son incapacité à fonctionner réellement au moment où nous la recevons. Que dire d’une caméra qui aurait soit un view finder soit un moniteur mais pas les deux en même temps, d’une caméra qui chaufferait tant qu’on devrait la refroidir avec de la glace, d’une caméra qui serait livrée sans ses batteries… Tous ces délais et améliorations du firmware notamment sont en fait un moyen de nous faire croire que nous participons à l’écriture de belles pages du cinéma. Ainsi en me donnant l’illusion que je suis privilégié car j’ai enfin recu ma caméra (non complète) avant les autres au prix fort et après un attente presque désespérée j’ai cette impression de faire partie d’une famille là où je ne suis qu’un client. En devant essuyer les platres au cours des premières heures, et en constatant que ces heures là sont telle une journée sans fin, je pense etre un ami de Jim voire un réalisateur qui compte et qui fait avancer les choses, alors que je me tue en tournage puis en post-production à chercher des solutions. L’absence de documentation ou d’informations précise m’obligeant à chercher tel un geek que je deviens sur le net la moindre petite indication qui me permettra d’utiliser ma machine…

Et cela est bien confirmé par les réponses des utilisateurs face à Jim le Gourou (malgré lui?) pour qui j’ai le plus grand respect par ailleurs mais dont je regrette qu’aucun de ses points ne parlent de l’ergonomie et l’utilisation de sa caméra dans le seul but de faire des images avec un bel objet capable, et puissant mais pas seulement.

Quelques jours après la mort de Steve Jobs je sais qu’il n’est pas bon de tirer sur les mythes et les « grands hommes » de notre industrie et ça n’est d’ailleurs pas mon propos, leurs produits ont changé ma façon de travailler et ma conception même du travail mais il est alors de notre devoir de ne pas nous laisser émerveiller par des effets d’annonce et de la poudre aux yeux, leurs péchés ne sont pas tant ceux là, nous devons leur dire, n’oubliez pas le but même de vos machines, à savoir créer.