Autopromotion
Je profite du NAB 2013 pour faire un peu d’autopromotion du travail que j’ai pu effectuer ces derniers temps notamment pour des télévisions et clients au Moyen Orient mais aussi en Europe. Ces images proviennent de quelques beaux voyages à Singapour avec Benny Ong, à Jakarta, en Europe du nord ou de l’est, à Paris pour des timelapses , au Liban, dans des camps de réfugiés avec l’UNRWA et jusque sur quelques plages Cannoises aussi avec Clémence Poesy. Dans le déluge d’annonce du salon mondial de Las Vegas dont je promets de faire prochainement un petit compte rendu et une analyse des tendances voilà un peu de nostalgie et un retour sur un peu plus d’un an de travail et de rencontres.
Le Moyent Orient vu d’Hollywood, une mise au point nécessaire.
Une fois n’est pas coutume je laisse la technique des oeuvres que je vais aborder ici pour m’arrêter à l’image au sens de la représentation qu’elle donne du Moyen Orient.
Si vous avez vu Argo, de Ben Affleck, récemment et que cela vous a donné envie de découvrir l’Iran tant mieux, mais vous risquez d’être un peu surpris en arrivant à Téhéran, pas seulement parce que l’action se passe il y a une trentaine d’années, mais surtout parce que pas une seule image ne provient de de la capitale iranienne alors que la majorité du film s’y passe théoriquement.
En effet c’est la Turquie qui fut choisie majoritairement pour ressembler à l’Iran, pour y reconstituer ses rues et ses ambiances, mais également l’aéroport d’Ontario ou le parc Hancock et l’hôpital « Veteran Affairs » de Los Angeles qui vont servir de décor à Argo pour y tourner les scènes dans l’aéroport ou aux abords de l’ambassade US. Pour le reste, tous les arrières plans du film sont en fait des créations numériques que l’on doit à un bataillon d’entreprises spécialisées dont : Shade VFX, Christov Effects and Design, Pixel Playground, Furious FX et Method Los Angeles et Vancouver. Toutes se sont inspirées de ce qu’elles savaient ou pouvaient voir de Téhéran, et Google Earth fut donc mis à contribution au même titre que des archives photographiques datant des années 70. Sur ce plan, trouver des images d’époque et finalement plus facile que des vues contemporaines.
La photographie générale du film contribue parfaitement à rendre crédible ce récit censé se dérouler dans le passé mais l’écueil reste comme dans Syriana il y a quelques années ou Spy Game, que l’ambiance du Moyen Orient est surtout basée sur des « clichés » que l’on doit à des analystes (militaires pour la plupart) n’ayant jamais quittés leurs bunker » diplomatiques à Beyrouth notament. Argo n’évite pas cet écueil mais l’atténue (sauf si l’on regarde le film du point de vue iranien ou moins nord américain bien sur mais c’est un autre débat) en basant son histoire il y a quelques 33 ans.
On ne peut pas en dire autant de Homeland dont la saison deux (une saison trois est déjà au programme) se passe pour quelques épisodes au Liban en 2012. Loin de moi l’idée de vouloir que l’on tourne toujours dans les décors réels, même si je l’avoue, j’aime surtout tourner des documentaires, mais vouloir faire ressembler Beyrouth à ce que l’on voit dans la série, adaptée de « Prisonnier of war« , en dit beaucoup sur la vision nord-américaine de la région. Vous n’avez jamais mis les pieds au Liban, Claires Danes non plus; qui joue pourtant très bien l’ex agent de la CIA qui doit y rencontrer une femme d’un dirigeant de Hezbollah prête à trahir son camp et son mari. En effet si Argo à choisi la Turquie et les effets spéciaux, Homeland a porté son choix sur le Maroc et les décors naturels de Casablanca semble t-il, et cela ne fonctionne pas du tout. Une simple recherche sur Google images aurait permis aux auteurs de voir un autre Liban, moins caricatural.
Ils auraient pu choisir le Mexique, moins loin de Hollywood car étant donné la vision approximative qu’ils ont du Liban, à savoir une sorte de pays plus proche de l’Afghanistan, où Haifa Wehbe n’existerait visiblement pas ils auraient fait des économies. Claire Danes doit se teindre en brune, porter des lentilles marrons et se voiler pour que, la blonde qu’elle est, puisse naviguer au sein d’une peuplade portant keffieh et barbe. D’ailleurs dès l’aéroport, où un portrait de Saad Hariri nous fait penser qu’il serait donc premier ministre, on comprend que l’on va devoir en avaler beaucoup sans rire.
L’apothéose étant que le Hezbollah et al qaida seraient en fait la même chose, et que, au passage, la rue Hamra, qu il n’est pas dur pourtant de visiter, d’y obtenir une autorisation de tournage voir des photographies contemporaines, n’est pas un quartier où des jeeps équipées de mitrailleuses lourdes viennent sécuriser des réunions salafisto-hezbollah. Ah! dans ce monde où Haifa Wehbe n’existerait pas, les USA mélangent à peu près tout (l’Afghanistan, l’Iran, Beyrouth en 1982) et se bloquent sur une vision des années 70/80 ce qui colle parfaitement à une reconstitution historique dans Argo (d’un point de vue occidental) mais pas à une fiction des temps moderne.
La faute peut être à ce renfermement et cet ethnocentrisme y compris à ceux qui ont l’air d’être les plus ouverts sur le continent américain. Ainsi Clooney ou Affleck ne paraissent pas connus pour être des faucons ignorants, mais tout de même, à l’image de Keanu Reeves (pourtant né au Liban) qui lorsqu’il fait un documentaire (Side by Side) au demeurant très intéressant sur le cinéma numérique oublie juste de jeter un oeil en Europe, en Asie et finalement ailleurs qu’à Hollywood ou New York.
Retour à la réalité.
De mon coté j’étais en tournage à Chypre, coté grec puis à Istambul pour une série de programmes courts partant à la découverte des villes d’Europe et d’Occident pour une télévision du Qatar. Nous tournons les premiers épisodes avec une Sony EXcam EX3 malgré son codec interne LongGop à 35 Mb/s et une 5D (et son horrible H264) vient faire office de caméra B pour les interviews.
En revenant sur des tournages avec des caméras de type ExCam on se souvient comme il est appréciable d’avoir un outil assez ergonomique, peu couteux, stable et doté d’un workflow des plus simples. Après de nombreuses galères ou malentendus avec notamment des RED qui malgré leurs grandes qualités peuvent parfois causer des angoisses voire poser des problèmes, de son, d’allumage, de workflow ou d’autonomie.
Pourtant mon choix pour l’année à venir est bien d’essayer de ne travailler qu’avec une RED, en l’espèce la Scarlet et de pouvoir ainsi délivrer des films allant du format 4K au HD. En effet je vous ai déjà conté les mérites du petit enregistreur externe pix 240 de sound device et c’est bien grâce à lui que ce choix est possible.
Capable d’enregistrer en 10 bits, 4:2:2 et en AppleProRes comme en DnxHD (pour les monteurs en Avid) jusqu’à 220mb/s dans les deux codes, sur des SSD de 2,5 pouces (dont le prix baisse de plus en plus et dont la qualité est très bonne y compris dans des tournages compliqués en présence de poussières, d’embruns, de neige…) mais aussi sur des cartes CF. On alimente ce petit bloc très compact et solide par la caméra elle même ou via des batteries Sony L, on pourra alors se plaindre d’une autonomie un peu courte car il faut toujours qu’on se plaigne. Pour le reste, à part l’écran qui ne restitue pas vraiment la colorimétrie des images que l’on tourne, un défaut de balance des blancs récurrents sur tous les modèles que j’ai utilisé. Mais comme l’on dispose d’entrées mais aussi de sortie en HD-SDI et HDMI on branchera un moniteur de contrôle. Mon small HD faisant alors parfaitement l’affaire. Du coté du son, on peut faire confiance au pré-ampli de sound device pour s’occuper parfaitement des canaux audio notamment à travers les entrés XLR que l’on peut configurer et monitorer comme on le souhaite. Les différents upgrades de l’engin nous permettent désormais de ne plus avoir à appuyer sur la touche enregistrer de l’appareil et c’est bien pratique. Je m’en explique, une fois relié à la caméra c’est le bouton de cette dernière qui pilote l’enregistrement sur le pix 240 évitant d’avoir à déclencher deux fois mais surtout d’interrompre par inadvertance par pression des grosses touches du boitier externe.
C’est donc un boitier qui a su me conquérir car il me donne une certaine sérénité dans le travail, quelque soit la caméra que j’utilise, le codec est toujours le même et le haut débit d’écriture donne un peu plus de qualité à mes images y compris en provenance de caméra 1/3 de pouce ou d’un demi pouce.
Pour exemple sur ce type de tournage pour le Qatar à travers le monde (il est prévu de faire escale à Paris, Londres, Prague, Berlin, Amsterdam, Barcelone et New York City dans un premier temps) il me permet de proposer un meilleur codec à la production qui tient à tourner la chose en ExCam (ils disposent déjà d’un parc de caméras de ce type) et de disposer l’air de rien de 2 canaux audio supplémentaires, et d’une copie de sauvegarde sur cartes SxS en plus de la duplication des rushes sur deux disques durs chaque soir. Je voyage l’esprit tranquille, le workflow est des plus simple, l’ergonomie est bonne et le tout étant solide et compact l’appareil se loge dans un sac à dos dans une petite housse et depuis le temps n’a pas pris un coup.
Les SSD sont un bonheur en terme de rapidité et de fiabilité (j’utilise des SSD Samsung 830 et des OCZ Vertex 3). Les monteurs sont ravis de posséder les images en AppleProRes ou en DnxHD selon leurs demandes, et enfin je peux proposer à mon tour des tournages avec la Scarlet voir l’Ikonoscop sans être tenu à un workflow plus long et couteux en temps et en matériel. C’est donc un achat certes un peu couteux (on le trouve en France à 3500 euros mais son prix devrait baisser) mais qui permet aussi de rentabiliser une caméra comme la RED en permettant de l’utiliser lors de tous les tournages ou presque ce qui n’est pas rien lorsque l’on voit le cout d’un tel achat. Voilà comment je vais donc proposer à la production de tourner la saison 2 de ces programmes courts en Scarlet et de leur délivrer les rushes en HD 10 bits à 220mb/s afin que cela ne nuise pas en temps et en argent à la post production.
Par ailleurs le 4K semble devoir devenir la prochaine norme de diffusion du moins si l’on écoute les différents bruits venant de chez Sony qui annonce ni plus ni moins vouloir devenir leader sur le marché du 4K tant en captation qu’en diffusion en étant capable de fournir des caméras et des HDSLR dotés de tels capteurs et de processeurs capables de traiter un tel flux et de la diffuser sur un projecteur vidéo de salon en l’occurrence le modèle VPL-VW1000ES dont on en connait pas encore le prix qui sera aussi capable de convertir des sources en 2K ou en simple HD. La NHK elle, vient de révéler qu’elle travaillait sur un capteur de 8K, le futur semble s’inscrire dans une course à l’armement technologique que les japonais n’ont aucune intention de laisser aux USA ou aux européens. Enfin si ces normes n’atterriront pas dans nos salons avant 2016 sachez que les codecs vidéos permettant de tels encodages sont déjà à l’étude en vu de remplacer notamment le H264, ainsi le H265 (en fait le High Efficiency Video Coding HEVC) sera capable de réduire la taille des fichiers de 40% à qualité égale mais surotut prendra en charge des formats jusqu’à 7680X4320 pixels. C’est en effet le format (Ultra High Definition Television UHDT) 4320p ou 8K qui semble avoir était retenu. On en saura plus dans un an lorsqu’en janvier 2013 lorsque l’Internation Telecommunication Union et MPEG-LA dévoileront les spécifications sur successeur du H264, sans regret.
Tourner en Raw, un parcours « brut ».
Il y a quelques années, qui peuvent paraitre des décennies tellement les choses évoluent vite dans notre domaine, un ami libanais réalisateur notamment de séries télévisées pour des chaines locales me demander de venir le rejoindre sur un projet qu’il comptait tourner avec une RED, il voulait mon expertise. Jusqu’ici son expérience l’avait conduit jusqu’au HD avec des caméras de type Sony EXCam ou Panasonic HVX et HPX, je l’avais d’ailleurs aidé avec celles-ci à construire un workflow efficace. Il était novateur dans cette région de travailler avec de tels formats car y compris les télévisions étaient encore au format 4:3. Si les séries télévisées sont très célèbres, les couts de production sont souvent assez serrés contrairement au vidéo clip qui lui connait des budgets exceptionnels.
Il était d’ailleurs passé un jour sur un tournage d’un clip que nous faisions et il décidait de se lancer dans l’aventure du Raw, tellement l’image lui paraissait belle. Après une longue discussion je lui conseillais d’abandonner cette idée tellement les couts de stockage et les temps de traitement ne s’adaptaient pas à son calendrier ni à son budget. Aujourd’hui que la Scarlet va « démocratiser » le Raw, la question se pose t-elle encore pour ce type de production? Était-ce une simple question de coût ou bien un choix logique que celui de rester en HD?
Qu’est ce que le RAW?
Un format que beaucoup on d’abord rencontré dans le monde de la photographie à l’époque où l’on tournait encore avec des caméras en définition standard en interpolé. Le format « brut » est directement issu des informations du capteur qui va encoder selon son propre mode propriétaire le fichier dans une dynamique bien supérieure à celle très limitée du Jpeg (8bits) dans le monde de la photo, pour être décompresser, un peu comme l’on développerait un négatif numérique comme l’on faisait avec de l’argentique jusque là.
On accède avec le Raw y compris en vidéo à un fichier qui n’a pas compressé l’image autrement que par la limitation de dynamique qui se situe à 16bits dans le meilleur des cas. Le fichier est donc compressé mais « sans perte », on maitrise la suite du traitement et donc de la post-production grâce à des images qui contiennent plus d’informations mais aussi des métadonnées. On pourra ainsi réajuster la balance des blancs, l’exposition ou d’autres paramètres comme si l’on était au tournage. On peut toujours régler tous ces éléments avec la caméra mais il s’agit alors plus d’options de monitoring, afin de se rendre compte d’un style qui a pu être choisi avec le réalisateur.
La taille du capteur, sa résolution, sa composition en terme de photopiles mais aussi sa dynamique et sa colorimétrie sont donc ici très importants et le fait de pouvoir travailler dans un espace de 12 à 16 bits par pixel et par couleur restitue pleinement l’image que l’on capture.
Tout d’abord dans quelle mesure peut-on parler de RAW? Quelles caméras proposent ce format?
J’ai toujours du mal à utiliser le terme de « Raw » pour parler d’images capturées ainsi, et je m’en explique, un peu de mathématiques viennent contrarier cette appellation générique qui cache en fait un secret très bien gardé par RED depuis le début, à savoir l’utilisation d’un algorithme de compression dérivé du Jpeg 2000. Car si l’on partait à l’époque de la RED One (qui écrivait ses données sur des cartes CF) et de son capteur de base de utilisé en format 4K 16/9 soit 4096 par 2304 pixels soit 9,368,064 pixels par images. Que l’on mutipliait ce chiffre par le nombre de bits à savoir 12 et que l’on rapportait tout cela en Mega Octets puis que l’on multiplié par le nombre d’images dans une secondes (24 au cinema) on obtenait le chiffre démesuré de 2573 Mb/s. Or à l’époque pas si lointaine que cela du REDCode 36 on enregistré plutôt à un débit de 240 Mb/s soit un ratio de compression de 10:1, on peut certes descendre à 3:1 avec l’Epic, mais, au jour où mon ami réalisateur me demandait ce qu’était le Raw voilà ce que je devais lui dire. Le RAW RED Code est avant tout un mode de compression qui pour ton projet sera toujours trop volumineux et trop lourd à traiter d’autant plus que son projet se tournait à deux caméras. Mais lorsque je tournais avec une Phantom à 2K j’avais des fichiers 8 fois plus volumineux à l’époque qu’avec ma RED. Il y a donc un débat sur la justesse du « Raw » pour traiter des fichiers .r3d. Mais RED est pourtant bien la seule compagnie de caméras ayant le brevet permettant d’utiliser le Raw avec compression…
Et pour le reste tous les dispositifs « non compressé » ou solution de type Raw ne sont pas techniquement du Raw et sont le plus souvent limitées par le fait que l’on utilise le ou les sorties HD-SDI de la caméra qui sont limitées à 10 bits. Pour autant dans cet espace restreint par rapport à du 16bits on va capturer une image dans un format que l’on pourra aussi manipuler et auquel on pourra appliquer des LUT ou bien travailler en étalonnage bien plus confortablement que dans le codes natif de la caméra au prix certes d’un matériel et d’un logiciel interne à la caméra que l’on doit souvent acheter en sus.
Ainsi la Alexa dispose de deux Codex sur le marché qui enregistre sur des SSD à raison de 15Go la minute des images qui se rapprochent techniquement du Raw mais via le T-Link de l’allemande. Il s’agit bien là d’un système assez couteux mais non compressé et sans piste audio, permettant aussi de doper la définition jusqu’à du 3K. L’image en sortie d’une telle machine devrait peser 7Mb à la capture pour arriver à 19Mb lors de son traitement. Reste à signaler que le cout d’un tel dispositif double presque celui de la caméra.
Panavision ou Sony aussi ont créé un enregistreur externe propre respectivement aux caméras haut de gamme destinées au cinéma (la Genesis ou la F35) qui ne fournissent pas de Raw et donc via le sLog et la double sortie HD-SDI on va fabriquer desimages en DPX.
Ensuite, il existe des enregistreur externes de marques tierces comme convergent design ou black magic design qui toujours en étant limité à ces 10 bits profitent pleinement des doubles sorties HD-SDI pour compenser ou bien permettent l’encodage en 4:4:4:4 afin de restituer un maximum d’informations de lumière et de couleurs. La qualité du Pro Res 4444 se situe juste en dessous du HDCam SR de Sony soit 130Gb/h
D’autres appareils eux encodent dans des codecs plus ou moins destructeurs en MXF ou en AppleProRes 422 qui peuvent aussi servir de proxys pour le montage. D’ailleurs Arri conseille la capture sur les cartes SxS en ProRes en plus du Codex à cette fin. Avec la RED j’utilise depuis peu un enregistreur externe le PIX 240 de Sound Devices qui dispose de SSD et d’un écran de contrôle et depuis une mise à jour récente se couple parfaitement avec ma caméra en cela que l’enregistrement sur ma caméra provoque celui en HD en ProRes automatiquement. Ce procédé me permet une relecture sur le plateau de mes plans mais aussi d’utiliser une seule caméra pour tous mes projets du 5K au HD.
J’en profite pour faire à nouveau une petite publicité pour cette petite caméra de type Super 16 Ikonoscop qui enregistre selon un codec CineDNG de type RAW de 12 bits pour un taux de compression assez bon mais en simple haute définition traditionnelle.
Pour autant tout ce qui est RED Code RAW n’est pas vraiment du brut. Certes on en a fini avec les compression de 42:1 mais il reste que la Scarlet ne proposera au mieux que du 6:1, l’Epic propose du 3:1 alors qu’il s’agit du même capteur ce qui laisse à penser que RED a choisi de limiter les possibilités de sa dernière production en la bridant volontairement afin de justifier le prix de la Epic.
Le crop factor lors du passage à 3K, 2K voire 1K :
On n’a pas toujours besoin d’une image capturée à 4 ou 5K, et par ailleurs l’on sait que pour tourner à plus grande vitesse on a besoin aussi de réduire à la taille de l’image afin de compenser le travail du processeur et de permettre une écriture des données sur le média. RED propose donc la possibilité de réduire la taille du capteur utile pour gagner en vitesse allant sur la Scarlet jusqu’à proposer de tourner à 1K. Mais pour être raccord dans un même plan entre l’un tourné à 4K et l’autre à 2 ou 1K il faudra aussi changer d’optique car réduire la taille du capteur induit un effet multiplicateur de la focale. Car l’on retombe d’un super 35mm à un super 16mm voire moins. il faut donc savoir jongler avec ces ratios et de savoir à l’avance que les très grands angles de certaines optiques favorisent aussi des distorsions dans l’image et que cela peut poser problème. Je souffre de cela avec l’Ikonscop qui multiplie par 2.7 toutes les valeurs de mes focales et l’utiliser en grand angle n’est pas si facile que cela. Concernant la RED voilà donc à quoi s’attendre en terme de facteur multiplicateur lorsque l’on filme à 4K, on a l’équivalent d’un APS-C donc 1,6x. à 3K c’est un capteur 4/3″ donc le facteur est 2,0x. Pour une utilisation à 2K (2048×1080) on se retrouve à utiliser un capteur 2/3″ soit un facteur 3,9x. Enfin à 1K (1024×540 pixels) on doit multiplier par 6,4x.
Une avancée au sein du RAW le HDRx :
Comme le RAW, vous avez peut-être croisé le HDR (High Dynamique Range) dans le monde de la photographie. On est loin du temps où notre caméra filmait une demie image et la combinait avec la suivante pour restituer une pleine image par interpolation. Là aussi RED vous propose depuis la Epic de profiter de ce mode de tournage qui pour faire vite agrandit la dynamique en la poussant à 18 Stops en capturant non pas une image mais en combinant deux, la première où l’on favorise les parties sombres (+3 ou +6 stops) et la seconde où l’on va chercher des détails dans les parties de hautes lumières (-3 ou -6 stops). Ce qui se traduit par une dynamique de 18 stops quand bien des caméras sont limitées à 13,5 stops. Le prix à payer pour obtenir ces images très détaillées et permettant une nouvelle forme de prise de vues, est double, en espace matériel pour les stocker mais aussi en temps pour les traiter.
Car il existe en réalité deux formes de HDR, le Easy qui combine (mapping) ces deux images en une seule lors de la capture et donc a une influence sur la compression de chacune d’elles pour garder le le rythme de processeur, le RED Code 50 et 100 sont là pour répondre à ces cas de figure. Même effet négatif avec le HDRx qui, lui conserve sur les médias les deux images sous exposées et sur exposées en laissant le traitement lors de la post-production, mais il faudra aussi disposer d’un espace de stockage conséquent lors du tournage puis lors du montage ou de l’étalonnage mais aussi en ce qui concerne les copies de sécurité. Toutes ces questions sont aussi primordiales et doivent rentrer en ligne de compte lors du choix de tourner en RAW.
Quel Workflow pour quelle utilisation?
On en revient à la discussion avec mon ami libanais afin de voir que le parcours d’un tel tournage en RAW est long et couteux je vous dresse rapidement 3 workflows types qui prennent en compte les copies de sauvegardes, les exports et copies finales, et les ressources matériels ou logiciels afin de traiter de telles images.
Workflow RAW de bout en bout :
Tournage et montage RAW, avec LUT, conformation puis étalonnage toujours en RAW pour enfin exporter en DPX. Ceci est possible depuis peu notamment grâce à des logiciels tels que Da Vinci, Lustre ou Scratch qui gèrent ce format dans ces différentes étapes. C’est en partie une raison qui m’a poussé à me tourner vers Da Vinci afin de maitriser une chaine lors de mes tournages avec la RED, Color ne me permettant que l’étalonnage 2K et oblige le recours à des proxys, et le manque d’informations de Apple quant au futur de son programme d’étalonnage me fait opter pour une solution de repli contraignante du fait de l’exigence en terme de carte graphique de la part de BlackMagic.
Workflow Basse et haute définition :
Tournage RAW puis conversion DPX pour un montage basse définition DPX puis conformation haute définition DPX, étalonnage puis export.
Workflow transcodage en DNX ou AppleProREs :
Tournage RAW puis conversion DNX ou AppleProREs 4:2:2 ou 4:4:4 pour montage puis conformation RAW mais étalonnage en DNX ou ProRes puis export DPX
On voit que si de nombreux allers et retours sont possibles pour convenir à presque tous les processus de création, il faut aussi compter en temps de conversion et de traitement de ces images. Auquel il faut rajouter et depuis la phase de tournage un temps de copie de sauvegarde des médias sur lesquels on tourne. Il y a donc une double problématique de stockage et d’archivage tant en terme de volume que de temps passé à acquérir et dupliquer. Le projet de série dont mon ami me parlait incluait deux caméras et je fis vite le calcul en taille et en temps que cela couterait à sa production sachant qu’il tournait les épisodes les uns à la suite des autres et que son délai était compté car il n’avait pas pris en compte ce facteur au départ, la diffusion par la chaine obligeait à un rythme de montage assez rapide et les moyens de production étant limités il aurait vite été noyé dans les copies et les disques durs pleins de rushes. Tous ces couts là auraient du être négociés en amont de son contrat avec le diffuseur mais aussi le prestataire de post production. Car lorsqu’il passait du beta numérique à la haute définition en AppleProREs 422 ou 4444 il avait, en fait, franchi le gap maximal dont il était capable en tant petite production.
Pour ce qui est du Raw, il faut traiter, stocker et sécurisé des données importantes et en cela un peu comme au bon vieux temps du film, seul un laboratoire en est capable. Car, n’oublions pas que, si de plus en plus de logiciels nous permettent de travailler à moindre cout sur de tels images, la seule façon de pouvoir exploiter celles-ci dans les années à venir , et donc avec d’encore meilleurs logiciels et codecs qui vont avec, c’est de stocker en attendant.
Voilà donc où nous en sommes dans cette course à l’armement dans le seul but de rattraper la qualité que nous donne le film 35mm, et si le tout numérique nous offre beaucoup de garanties et de possibilités il n’a pas encore enterré son ancêtre. Se rajoute à cela les assureurs qui sur de nombreux projets n’acceptent pas de valider certains workflows ou certaines caméras, j’ai par exemple du mal à imposer la RED sur certains longs métrages et il n’est pas rare que de nombreux confrères habitués à des Sony ou des Alexa souffrent des mêmes réticences de la part d’assureurs qui finissent par leurs imposer leurs outils de travail ce qui est une question primordiale mais dont il s’agit de traiter ultérieurement.
Vous devez être connecté pour poster un commentaire.