Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 16 octobre 2019Mediakwest - Post

Immersive Ways présentera son logiciel d'édition vidéo 360/VR professionnel en avant-première sur le SATIS 2019

Immersive Ways présente son logiciel de montage vidéo 360/ VR professionnel en avant-première sur le SATIS 2019 © DR

INSIDE, Le logiciel de montage destiné aux créateurs d’expériences immersives en vidéo 360° et réalité virtuelle développé par Immersive Ways sera présenté en avant-première les 5 et 6 Novembre prochains sur le SATIS.

 

INSIDE combine la puissance et la technologie d’un moteur 3D avec une interface de montage intuitive et hybride 2D/VR, pour rendre accessible à tous la création de médias immersifs en vidéo 360°, hybrides « flat » /360° et VR.  

Ce logiciel a la particularité d’intégrer un player permettant de mélanger des médias « flat » aux médias immersifs, et offre la possibilité d’ajouter des overlays fixes avec suivi du regard sur les médias à 360° (utile pour les titrages, sous-titres et logos). INSIDE est conçu comme une solution modulable et agile sur laquelle peuvent s’ajouter des fonctionnalités sous forme de plugins, adaptable aux besoins des utilisateurs.

  

Suite à une phase de Bêta-test, INSIDE est décliné dans une version Freemium depuis Octobre 2019. La version PRO permettra d’ajouter de l’interactivité et des scènes et objets 3D dans les vidéos à 360°, elle est aussi ouverte à la communauté mondiale de développeurs.

Les expériences conçues sur INSIDE s’exportent sur les plateformes Desktop & VR pour la version FREEMIUM, et sur toutes plateformes dans la version PRO (Desktop, VR, mobiles et web). Ces logiciels sont disponibles sur Windows et MacOs

  

Pour en savoir plus découvrez la vidéo de démonstration ici...

Vous pourrez découvrir INSIDE au SATIS sur le stand IMMERSIVE WAYS dans l’espace Screen4ALL et sur le stand VISUAL IMPACT France.

  

Caractéristiques d’INSIDE FREEMIUM 

  • Montage médias 360°
  • Montage hybride médias immersifs à 360° et média « flat » avec VR Head Tracking sur médias flat
  • Ajout d'overlays fixes avec suivi de mouvement (Head Tracking) dans la vidéo 360° (titres, sous-titres, logos, graphismes…)
  • Export VR & Desktop
  • Gratuit

 

 Disponible depuis Octobre 2019, téléchargeable ici... 

 

 

Caractéristiques d’INSIDE PRO 

  • Montage médias 360°
  • Montage hybride médias immersifs à 360° et média « flat » avec VR Head Tracking sur médias flat.
  • Ajout d'overlays fixes avec suivi de mouvement dans la vidéo 360° (titres, sous-titres, logos, graphismes…)
  • Ajout d’interactivité
  • Export multiplateforme
  • A partir de 25€/mois

 

Disponible début Novembre 2019, téléchargeable ici... 

Les logiciels sont disponibles sur Windows et MacOs.

  • 16 octobre 2019 à 17:00
À partir d’avant-hierMediakwest - Post

Bonjour le Monde !, minutie et poésie en stop motion (Web TV)

Bonjour le Monde !, minutie et poésie animale en stop motion (Web TV) © Nathalie Klimberg

Cet été, les réalisateurs Anne-Lise Koehler et Eric Serre présentaient sur Série Séries Bonjour le Monde !, une série d’animation et aujourd'hui un long-métrage - sorti en salle ce 2 Octobre - produits par Normaal Animation en stop motion. La production des 90 minutes d'animation nécessaires au film et à la série s'est déroulée sur 15 mois et a monopolisé une équipe de 15 personnes avec, à la clé, une histoire à la fois onirique et réelle qui n'aurait pas pu prendre vie sans un pipeline numérique mûrement réfléchi. Rencontre avec les deux créateurs qui nous dévoilent les coulisses et les procédés de fabrication...

 

Eric Serre, co-réalisateur de la série Bonjour le Monde ! : "Bonjour le Monde ! est initialement une série en marionnettes diffusée sur France 5 et produite par Normaal Animation. Pour nos dix épisodes de neuf minutes, nous avons fabriqué 90 minutes d’animation en stop motion avec des marionnettes en papier modelé. Tout ce qui est à l’écran est fabriqué a partir de la même technique, la végétation et les animaux. Cela donne un regard sur la nature, je pense, attentionné, rigoureux et en même temps, poétique..."

 

Anne-Lise Koehler, auteure et co-réalisatrice de Bonjour le Monde ! : "Je suis fascinée par les animaux et j’avais envie de faire quelque chose qui ne soit pas un documentaire animalier et donc d’utiliser la spécificité du stop motion, cette technique permet un décalage poétique pour parler du règne animal et pour donner une vision empathique sur la nature."

 

Pour savoir pourquoi ces créateurs ont utilisé le stop motion et découvrir le pipeline industriel de la production… regardez la vidéo !

 

 

BONJOUR LE MONDE !

Comment naît-on oiseau, pourquoi naît-on insecte, mammifère ou poisson ? Les sculptures de papier de Bonjour le Monde animent le spectacle de la vie sauvage.

Idée originale : Anne-Lise Koehler

Réalisateurs : Anne-Lise Koehler, Eric Serre

Compositeur : Standaard (studio son)

Production : Normaal avec la participation de France Télévisions & RTS

Producteur : Alexis Lavillat

Diffuseur : France Télévisions (France 5)

 

Bonjour le Monde ! était diffusé tous les samedis matin à 10h sur France 5 entre le 18 mai et le 29 juin 2019. L'adaptation de la série au cinéma est sortie sur grand écran le 2 octobre 2019...

  • 9 octobre 2019 à 17:00

Le scan 3D et la data capture, un nouveau département innovant chez Be4Post

Jérôme Battistelli et Matthieu Straub de Be4Post. © DR

Matthieu Straub qui était directeur d’exploitation de cette société à l'époque où nous avons réalisé l'interview (il est aujourd'hui chez FilmLight) et Jérôme Battistelli, superviseur du récent département de scan 3D, nous  font découvrir ces métiers émergents, au carrefour du tournage et des effets spéciaux.

 

Mediakwest : Matthieu, peux-tu nous présenter Be4Post ?

Matthieu Straub : La société Be4Post a vu le jour en juin 2014 ; c’est l’association de DIT (ingénieur de la vision de fiction) et d’une société de location RVZ. Pour préciser la genèse de l’entreprise, Christophe Hustache-Marmon, Guillaume Poirson et moi-même, les trois DIT concepteurs de Be4Post, nous étions partis d’un constat commun de frustration lorsque nous louions du matériel chez les autres prestataires, très souvent des loueurs de caméras. Nous passions un temps trop important à monter nos stations de travail, il nous fallait récupérer un ordinateur à droite, un écran à gauche et assembler le tout avec des alimentations dans tous les sens et des câbles partout. Tout cela allait à l’encontre de notre conception du métier de DIT.

Nous voulions proposer des solutions compactes, légères et proches de la caméra. De là est née notre décision de monter nos propres machines ; mais plutôt que d’en prévoir trois (nous avons de nombreux copains !), nous en avons conçu une dizaine, afin de pouvoir répondre à toutes les demandes, mais aussi parce que nous avons des besoins de configurations différentes : une petite sur un bateau ou une énorme pour des prestations avec quatre caméras et pleins d’effets spéciaux. Nous voulions créer une société pour avoir cette latitude là.

C’est à ce moment que nous avons rencontré Evelyne Madaoui, directrice générale de RVZ, par le biais de Samuel Renollet. Elle a eu envie de jouer le jeu et de prendre le pari. Be4Post, c’est donc les trois DIT concepteurs de la société et, chez RVZ, Evelyne Madaoui, Samuel Renollet et Anne Bouin notre gérante. Nous partageons les locaux de RVZ et une partie de notre activité s’accomplit avec eux, mais nous avons dès le début souhaité rester très ouverts et travaillons également avec d’autres loueurs de caméras, TSF, Vantage Films, Panavision, Transpacam, etc.

La société comporte bientôt cinq salariés permanents ; toute la partie gérance et commercialisation étant mutualisée avec RVZ. Cette mutualisation nous permet de nous concentrer sur nos métiers, les personnes embauchées à temps plein étant dédiées à la recherche ou à la technique, plutôt qu’à la comptabilité et la commercialisation.

 

 

M. : Pouvez-vous me parler des origines de ce nouveau département scan 3D et data capture au sein de Be4Post ?

M. S. : L’aventure a commencé en juillet 2017. Dès la création de Be4Post, les fondateurs de la société souhaitaient compléter l’activité de location de roulantes DIT par une offre de prestation différente ciblant de nouveaux marchés. On a mis beaucoup de temps à trouver.

À force de discussions et de visites sur des plateaux de tournage, on a vu qu’il y avait souvent des gens qui venaient faire du scan et du tracking, principalement sur des films étrangers et plus principalement américains. Cela nous semblait être une bonne façon de conserver la philosophie de Be4Post : le lien entre le tournage et la postproduction. Ce genre d’outils représentait exactement le lien entre le tournage et les studios d’effets spéciaux. C’est la genèse de notre département de data capture et de scan 3D ; le but premier étant de récupérer l’ensemble des métadonnées disponibles sur un tournage : les hauteurs de caméras, les inclinaisons et les mouvements.

C’est à cette date que nous avons fait l’acquisition du scanner Faro, aidés dans le choix de ce matériel par Youenn Denis, superviseur VFX très ouvert à la 3D, et qui est un de nos amis. Après nos premiers essais en interne, nous avons compris que la possession de l’outil n’était rien sans compétences suffisantes en 3D. Il nous semblait également primordial de conserver le côté plateau : on cherchait quelqu’un qui connaisse à la fois le tournage et les effets spéciaux. Nous avons en effet été trop souvent confrontés, sur des tournages, à des superviseurs VFX devant faire face à de grandes difficultés pour obtenir ne serait-ce qu’un quart d’heure pour prendre des clichés ou une HDRI ; les tournages devenant alors des moments difficiles pour les superviseurs VFX.

On souhaitait donc envoyer un professionnel des plateaux qui pourrait réaliser toutes ces mesures et également être capable de préparer très rapidement la prévisualisation de ce qu’il était en train de faire pour que les gens du tournage puissent voir : « Ah ouais d’accord ! Il est en train de scanner un décor et quelques minutes après il est capable de montrer ce décor en 3D dans un ordi ! » Il y a toute une partie éducation que l’on avait intégrée dès le début du projet.

 

 

M. : Quelle est précisément l’offre de ce département ?

M. S. : Même si elle reste en perpétuelle évolution, au bout de six mois d’existence du département, nous avions structuré une offre claire sur trois aspects : le repérage de lieux, la tech-visualisation et la numérisation de décors pour les effets spéciaux.

Pour le repérage des lieux, nous proposons le scan très rapide d’endroits difficilement accessibles. En prenant l’exemple d’un décor parisien, des productions étrangères ou des productions, souhaitant éviter d’envoyer des chefs de postes sur place, pourront appréhender le décor et faire des repérages à la façon d’une visite virtuelle. En récupérant le fichier que nous leur fournissons, ils accèderont à un site Internet qui leur permet de tout mesurer : les surfaces, les hauteurs, pour masquer, par exemple, un mur ou trouver la largeur des portes pour vérifier le passage d’une Dolly ou d’une grue. Il est également possible de simuler très rapidement des petits mouvements de caméras pour prévisualiser des plans « en mode brouillon ».

La deuxième partie de notre offre est la tech-visualisation ; je vais l’illustrer par l’exemple. Imaginons que je doive tourner à l’Assemblée nationale : je veux un « top-shot » de mon personnage, de quelle focale ai-je besoin ? de quelle grue ? est-ce qu’elle va passer par l’encadrement de la porte ? Pour cela nous utilisons des librairies incluant un très grand nombre de caméras, d’optiques de Dolly, de grues, etc. On peut alors les assembler, pour les intégrer dans le décor numérisé afin de simuler les mouvements de caméras. Le système est tellement évolué qu’on peut actionner des manivelles ou des petits joysticks et répéter virtuellement un plan dans le décor et même ajouter des personnages. Ce n’est pas de la prévisualisation parce qu’on ne calcule pas forcément les mouvements, c’est de la tech-visualisation.

Pour la troisième offre, la numérisation d’un décor en vue d’effets spéciaux, nous mettons en œuvre l’ensemble de nos technologies (scanner, photos hautes résolutions avec DSLR, drones) afin de préparer un objet 3D le plus propre possible avec des textures hyperréalistes pour livrer des studio VFX ; cela devient vraiment du travail de postproduction. Nous rassemblons, durant le tournage, toutes les informations permettant de connaître, lors du travail de l’effet spécial, l’exact environnement du tournage, avec les textures déjà posées, les hauteurs de caméras et les focales.

 

 

M. : Jérôme, en postproduction, comment exploites-tu les informations que tu récupères ?

Jérôme Battistelli : J’utilise un logiciel dédié, vendu avec le scanner, pour transformer les fichiers bruts produits par l’appareil en données éditables ; puis via un second logiciel, Reality Capture, je mélange la photogrammétrie et les données du scanner avec les clichés de mon reflex. La plate-forme de visualisation Sketchfab nous permet de montrer sur un navigateur Internet les modèles 3D que l’on peut réaliser, en obtenant un aperçu rapide de ce que l’on a scanné pour le présenter à nos clients.

Nous échangeons au cas par cas avec les studios pour définir les livrables, incluant généralement un modèle 3D pouvant être découpé en plusieurs parties selon les besoins. Nous fournissons également des textures 3D appliquées aux objets, complétées à la demande de photos HDRI du lieu et des fichiers de « nuages de points » lorsque les clients souhaitent retravailler la 3D eux-mêmes. Il nous est également possible de faire du nettoyage, d’effacer des éléments. Le métier est passionnant parce qu’il mixe vraiment les parties tournage et VFX.

 

 

M. : Pouvez-vous nous parler de vos premiers projets ?

M. S. : Notre premier projet avait pour sujet un thème absolument passionnant : le château de Guédelon dans l’Yonne, un château médiéval en construction depuis vingt ans selon les méthodes du Moyen Âge. Nous sommes allés le numériser en sept étapes, pour permettre de voir l’évolution de la construction, pouvoir également le reconstruire en vidéo et y associer des animations. C’était très intéressant, cela nous a permis de rencontrer les domaines de l’archéologie, de l’architecture et les sites de patrimoines.

Les constructeurs ont été impressionnés par les résultats, principalement par le modèle en nuages de points qui procure la sensation d’avoir passé le bâtiment aux rayons X. Le château comprend un logis, sorte de grande pièce avec un assemblage de poutres hyper alignées qui avait été pour eux un véritable cauchemar. Grâce au scan, ils retrouvaient toute l’esthétique de cet alignement d’une manière incroyable. C’était à la fois une reconnaissance de leur travail enfin visible, et surtout cela leur a permis de tirer des plans à partir des relevés et de documenter leurs travaux.

 

J. B. : Nous avons ensuite travaillé sur le scan de la cathédrale d’Orléans, plus particulièrement sur la façade. La société Whatsit, spécialisée dans la conception de projection mapping, souhaitait déterminer les contraintes techniques de découpages et d’agencement des vidéoprojecteurs. Ils avaient pour cela besoin d’un scan 3D de grande précision, fidèle au bâtiment aussi bien en termes de géométrie que de qualité des textures. Lors de projections sur la pierre, il y a besoin d’une précision qu’ils nous ont dit avoir trouvée avec nous. Ils travaillaient préalablement avec des géomètres qui n’ont pas forcément le regard et la culture de la 3D. Ils ont été heureux de pouvoir aller plus loin en termes de rendu et de problématiques liées à la 3D.

 

M. S. : Le projet Séance 129 produit par Cinétévé est un projet VR sur lequel nous sommes intervenus. Mis en place pour les 100 ans de l’armistice de 1918, il a pour sujet le discours de Georges Clemenceau à l’Assemblée nationale. Nous devions numériser complètement l’hémicycle de l’assemblée, un acteur jouant le rôle de Georges Clemenceau étant filmé en train de parler sur le perchoir. Nous avions accepté le défi passionnant de numériser toute l’assemblée nationale en quatre heures, le temps qui nous avait été imparti : à 9 h 00 la porte s’ouvrait, à 13 h 00 nous étions sortis. En complément de la numérisation avec le scanner, nous avons photographié la totalité de l’Assemblée.

Nous avons ensuite travaillé avec le studio Saint-Georges en charge de la postproduction, en instaurant une fois encore un vrai échange pour déterminer les rôles de chacun dans l’intérêt de la production, nous avons effacé des micros et des téléviseurs. La production était très contente du résultat final et de nos méthodes de travail.

 

 

M. : Pouvez-vous évoquer la concurrence nationale et internationale ?

M. S. : La partie photogrammétrie avec des appareils photos est très utilisée par les studios VFX, qui maîtrisent cette technologie. Ce sont donc nos concurrents et nos clients à la fois lorsqu’ils ont des besoins d’une plus grande précision.

La seule concurrence directe en Europe, vient d’Angleterre. Une société propose ces mêmes services ; étant complètement dédiée à cela, elle dispose d’outils que nous ne possédons pas pour l’instant et qui font partie de nos projets de développement : par exemple des rigs 3D pour personnages. Nous aimerions concevoir des outils similaires transportables avec des capacités de mobilité qui n’existent pas aujourd’hui. Ce sont des rigs avec une centaine d’appareils photo et des câbles dans tous les sens. On revient un peu à l’histoire de Be4Post et son obsession de la simplification des outils.

 

 

M. : Tu parles déjà de développements, avez-vous d’autres pistes ?

M. S. : Nous souhaitons continuer à développer notre offre pour le patrimoine, l’architecture et la création de plans de bâtiments existants. Nous dialoguons avec des sociétés comme Iconem qui fait de la numérisation de sites en danger. En effet s’il nous est possible de numériser entièrement une église qui va s’effondrer de manière imminente, il sera possible de la reconstruire dans 50 ans, grâce à un scan au millimètre et à toutes les informations et les textures que nous aurons captées.

Ce n’était pas forcément le but au départ, mais si nous réalisons un scan d’un monument parisien pour le patrimoine ou pour un film il est simple de l’exploiter pour les deux domaines. Nous sommes des gens de l’image, donc nous apportons un soin particulier à la lumière afin de mettre en valeur les lieux et ceci quelle que soit la finalité de nos travaux ; nous recherchons la meilleure texture.

J’aime l’idée d’être léger ; le scanner et son équipement sont dans un sac à dos. Il suffit à Jérôme de prendre le train ou l’avion, il est autonome et réactif. Nous disposons également d’un pilote de drone free-lance lié à l’entreprise, il nous a accompagnés dans toutes les étapes légales (inscription DGAC…) et a développé ses compétences en photogrammétrie avec un drone.

 

 

M. : Souhaitez-vous aborder le sujet du budget ?

M. S. : Concernant les tarifs, nos prestations sont plus abordables que ce qu’on pourrait penser. Le documentaire est un domaine avec lequel nous pourrions collaborer. Pour donner des idées, sur un lieu compliqué comme le château de Guédelon, notre intervention sur place a duré une journée, complétée de trois jours de travail en postproduction pour un budget avoisinant les 5 000 €. Sur un projet documentaire, nous pourrions scanner un lieu avec tous les axes et y inclure très simplement des habillages en 3D pour le vieillir, ajouter des éléments, en enlever d’autres.

Le secteur de la pub est également intéressé, surtout pour les productions étrangères, pour les repérages et les VFX. Il nous serait simple, même en termes d’autorisations, grâce à notre légèreté, de scanner la place Vendôme pour y garer une voiture.

Il existe une infinité d’applications que les productions n’ont pas encore imaginées ; c’est à nous maintenant de communiquer et d’expliquer le champ des possibles ouvert par notre nouveau département.

 

Extrait de notre article paru pour la première fois dans Mediakwest #31, p.12/14. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 9 octobre 2019 à 17:00

Bonjour le Monde !, minutie et poésie en stop motion (Web TV)

Bonjour le Monde !, minutie et poésie animale en stop motion (Web TV) © Nathalie Klimberg

Cet été, les réalisateurs Anne-Lise Koehler et Eric Serre présentaient sur Série Séries Bonjour le Monde !, une série d’animation et aujourd'hui un long-métrage - sorti en salle ce 2 Octobre - produits par Normaal Animation en stop motion. La production des 90 minutes d'animation nécessaires au film et à la série s'est déroulée sur 15 mois et a monopolisé une équipe de 15 personnes avec, à la clé, une histoire à la fois onirique et réelle qui n'aurait pas pu prendre vie sans un pipeline numérique mûrement réfléchi. Rencontre avec les deux créateurs qui nous dévoilent les coulisses et les procédés de fabrication...

 

Eric Serre, co-réalisateur de la série Bonjour le Monde ! : "Bonjour le Monde ! est initialement une série en marionnettes diffusée sur France 5 et produite par Normaal Animation. Pour nos dix épisodes de neuf minutes, nous avons fabriqué 90 minutes d’animation en stop motion avec des marionnettes en papier modelé. Tout ce qui est à l’écran est fabriqué a partir de la même technique, la végétation et les animaux. Cela donne un regard sur la nature, je pense, attentionné, rigoureux et en même temps, poétique..."

 

Anne-Lise Koehler, auteure et co-réalisatrice de Bonjour le Monde ! : "Je suis fascinée par les animaux et j’avais envie de faire quelque chose qui ne soit pas un documentaire animalier et donc d’utiliser la spécificité du stop motion, cette technique permet un décalage poétique pour parler du règne animal et pour donner une vision empathique sur la nature."

 

Pour savoir pourquoi ces créateurs ont utilisé le stop motion et découvrir le pipeline industriel de la production… regardez la vidéo !

 

 

BONJOUR LE MONDE !

Comment naît-on oiseau, pourquoi naît-on insecte, mammifère ou poisson ? Les sculptures de papier de Bonjour le Monde animent le spectacle de la vie sauvage.

Idée originale : Anne-Lise Koehler

Réalisateurs : Anne-Lise Koehler, Eric Serre

Compositeur : Standaard (studio son)

Production : Normaal avec la participation de France Télévisions & RTS

Producteur : Alexis Lavillat

Diffuseur : France Télévisions (France 5)

 

Bonjour le Monde ! était diffusé tous les samedis matin à 10h sur France 5 entre le 18 mai et le 29 juin 2019. L'adaptation de la série au cinéma est sortie sur grand écran le 2 octobre 2019...

  • 2 octobre 2019 à 17:00

IBC 2019 : Adobe Premiere Pro industrialise le multi formats…

Adobe Premiere Pro industrialise la déclinaison multi formats… © Nathalie Klimberg

Aujourd’hui plus de 300 partenaires technologiques participent à l’extension de la plateforme de production (grâce à son API et ses SDKs ouverts) avec des axes de développement qui tracent leur voie autour des exigences de la narration pour le film et la TV ainsi que la productivité pour les news et le sport…

Tous les ans, Adobe annonce des centaines de nouvelles fonctionnalités pour sa plateforme d’édition et cette année, l’éditeur de Première Pro n’a pas dérogé à la règle avec 500 améliorations dont une performance augmentée en termes d’accélération de calcul (la vitesse de tracking de masque a été multipliée par 4) et plus de 700 plugs in et extensions…

La solution supporte encore de nouveaux codecs (HEVC, Sony Venice V3…) pour permettre au monteur de poser son media sur la timeline sans se poser de questions de compatibilité. Une intégration poussée entre Premiere et After Effects permet désormais l’utilisation de templates de motion graphique sans sortir de Première, l’interface a aussi évolué pour travailler l’audio plus rapidement avec le panel Essential Sound…

 

Mais l’une des fonctionnalités les plus impressionnantes à venir cette année repose sur Sensei, le moteur d’intelligence artificielle et de machine learning d’Adobe dévoilé en 2016… Il s’agit de la mise à jour d’Auto Reframe. Cette fonctionnalité présentée pour la première fois à Adobe MAX 2018 sous le nom de Smooth Operator utilise la technologie Sensei pour recadrer et reformater intelligemment le contenu vidéo selon différents formats d'image, du carré au vertical en passant par le 16:9.

 

Auto Reframe permettra notamment aux utilisateurs d’automatiser la tâche fastidieuse de recadrage manuel du contenu, lors des déclinaisons multiplateformes. Cette nouvelle fonctionnalité pourra être appliquée sous forme d'effet sur des clips individuels ou sur des séquences entières.  

 

A l’écoute permanente de ses utilisateurs finaux, Adobe a beaucoup travaillé pour faire de Premiere, un logiciel de montage mainstream dans les univers de l’industrie cinéma et du broadcast. Et les efforts ont payés ! En 2014, on dénombrait notamment 9 films montés sur Première à Sundance, en 2019, ils étaient 98…

  • 9 octobre 2019 à 17:00

HDR, du tournage à l’étalonnage : la parole à un étalonneur (Partie 5)

Rémi Berge en action sur le pupitre Blackmagic DaVinci advanced. © DR

Afin de vous présenter des mises en œuvre et des réflexions concrètes autour des technologies du HDR, nous avons donné la parole à des acteurs de la production audiovisuelle et cinématographique française s’intéressant de près à cette évolution que nous considérons, avec eux, comme majeure. Après le passionnant échange que vous avez pu découvrir dans les colonnes du précédent numéro de Mediakwest*, et sur lequel vous avez été nombreux à réagir, nous donnons aujourd’hui la parole à un étalonneur suivant au plus près les techniques et usages artistiques. Rémi Berge est affectueusement surnommé par certains de ses amis Monsieur HDR.

 

Le HDR en quelques lignes

Le HDR, c’est une évolution technique du signal vidéo sur deux critères. Le contraste d’abord : jusqu’à aujourd’hui le signal vidéo était basé sur une valeur de luminance maximale définie à 100 nits, selon les possibilités des écrans à tubes cathodiques « de l’époque ». En HDR le contraste est largement augmenté et selon les normes et les technologies d’affichage et de production le niveau de luminance peut aller jusqu’à 10 000 nits. Le second critère qui évolue parallèlement est l’espace colorimétrique qui grandit également fortement passant du Rec. 709 pour la HD jusqu’au Rec. 2020. Pour plus de détails, nous vous invitons à lire nos précédents articles*.

 

 

Mediakwest : Quels types de films étalonnes-tu en HDR ?

Rémi Berge : Pour les longs-métrages, les seules solutions actuellement exploitées sont proposées par Eclair (EclairColor) et Dolby (DolbyVision). En France, il y a peu de projets « fiction » étalonnés en HDR. J’étalonne donc en HDR des documentaires et des magazines. J’ai également préparé des produits pour Apple TV, des boucles d’une heure sur l’Afrique du Sud, la Polynésie, l’Indonésie, etc.

 

 

M. : Nous avions échangé sur un projet de téléfilm (« Mon frère bien aimé » - production Neyrac Films) que tu devais étalonner en HDR ; qu’en est-il ?

R. B. : Sur ce téléfilm, nous avons fait des tests avec le directeur photo, mais à l’époque (en 2016), des problématiques de coût et le manque de maturité des outils nous ont contraints à abandonner l’idée. En effet, les exigences, notamment sur les tons « chair », nous auraient imposé la réalisation de deux étalonnages. À ce moment, l’intérêt porté à cette technologie n’était pas assez important et le différentiel en termes de cibles potentielles n’est pas assez intéressant.

Les productions peuvent être intéressées par le 4K HDR pour le potentiel de vente des programmes à Netflix, mais cela reste incertain. Le surcoût d’un étalonnage HDR lorsque votre principal client diffuse et demande du SDR n’est alors pas justifié. Sur ce projet, le directeur photo était attiré par l’idée, nous avons donc fait des essais en pensant réaliser le produit principal en SDR via un « downconvert ». Le résultat n’était pas à la hauteur d’un étalonnage spécifique SDR.

La conversion de films HDR en SDR est possible. Il existe même des outils dédiés, et les logiciels de postproduction permettent des transcodages depuis des sources encodées suivant une courbe PQ dans un espace Rec. 2020 vers des médias Rec. 709, Gamma 2,4 ; mais sans l’intervention d’un coloriste le résultat est très moyen. J’aimerais étalonner plus de fiction en HDR ; pour moi il n’y a pas de différence entre étalonner de la fiction et étalonner des documentaires.

 

 

M. : Quelle quantité de films étalonnes-tu en HDR ?

R. B. : J’étalonne beaucoup de films. Cette année j’ai étalonné douze 52 min. et sept 26 min. en HDR, dont de nombreux programmes d’excellente qualité pour The Explorers. C’est un tournant, je n’ai jamais autant étalonné en HDR ; avant ce n’était que des essais par-ci, par-là.

 

 

M. : Actuellement, quand tu fais un film en HDR, est-ce en supplément du SDR ?

R. B. : En fait, c’est l’inverse ! Ce sont les étalonnages SDR qui sont réalisés en supplément. Sur l’ensemble des films HDR que j’ai étalonnés, deux ont fait l’objet d’une version HDR, à partir du master SDR, au cas où. Tous les autres étaient une véritable demande d’étalonnage HDR.

 

 

M. : Quelle est ton expérience des différentes normes HDR coexistantes ?

R. B. : Il y a au moins « trois HDR ». J’ai fait des essais en HLG. La NHK et la BBC ont retenu cette norme, pour des raisons pratiques évidentes de rétrocompatibilité en diffusion. Deux téléspectateurs, l’un équipé en HDR et l’autre en SDR, pourront tous les deux profiter de la même source. La courbe hybride Log-Gamma s’adapte en effet toute seule dans le récepteur ; et cela fonctionne parfaitement. Cependant le rendu, tout en étant sensiblement mieux qu’en SDR est beaucoup moins bluffant qu’en HDR 10. Il y a une plus grande dynamique, mais on n’obtient pas l’effet « waouh » ! Pour Dolby, l’investissement financier conséquent dans les licences et la presque obligation de terminer son film chez Dolby freine considérablement son adoption.

Principalement, moi je fais du HDR 10 qui est le format le plus commun. C’est le format de postproduction pour préparer des masters destinés au pressage de Blu-ray par exemple ou pour du broadcast « hors live », du magazine ou du documentaire. Le format HLG de son côté a un intérêt ; c’est la seule solution pour faire du HDR en live : je ne vois actuellement pas d’autres solutions pour le live, même si le rendu n’est effectivement pas aussi bluffant qu’avec une courbe PQ.

Si on revient sur le Dolby Vision, ses grandes forces sont d’être encodé sur 12 bits, là où le HDR 10 se limite à 10 bits, et de pouvoir transporter les métadonnées indiquant les valeurs moyennes et maximales d’intensité lumineuse pour chaque plan du film. On peut donc dire qu’en HDR 10, 8 bits de quantification sont destinés à l’image « normale » et 2 bits sont dédiés aux hautes lumières : le signal de base (SDR) étant encodé uniquement sur 8 bits.

Avec les mêmes comparaisons, en Dolby Vision on dédie une plage de quantification de 10 bits pour l’image « traditionnelle » et 2 bits pour les hautes lumières. C’est pour cette raison que lorsque j’exporte mon master HDR 10, je le fais en 12 ou 16 bits plutôt qu’en 10 afin de m’octroyer une marge qualitative pour la réalisation de mon master SDR (préparé à partir du master HDR repris en source et découpé dans le logiciel DaVinci Resolve). Je pourrais réaliser l’étalonnage SDR à partir du projet d’origine, mais cela reviendrait finalement à étalonner à nouveau le programme et provoquerait un dépassement des limites de temps imposées par le budget.

 

 

M. : Quelles sont les contraintes sur les sources d’images qu’on te fournit pour étalonner un programme en HDR ?

R. B. : Les caméras sont les mêmes pour le HDR et le SDR, les modèles de caméras récentes disposent d’une plage dynamique suffisante. Mais les problématiques que l’on rencontre sont la très grande diversité et le mélange des médias fournis. Pour les magazines, il est courant de travailler à partir d’images issues de trois, quatre ou cinq caméras différentes ; et parmi elles on peut avoir des sources enregistrées dans l’espace colorimétrique réduit Rec. 709. Souvent une ou deux belles caméras sont utilisées, auxquelles viennent se greffer des appareils à la dynamique très éloignée, comme les stabilisateurs DJI Osmo. Il est alors nécessaire de réinterpréter ces médias pour adapter leur dynamique. On s’aperçoit alors très vite du manque d’informations : les hautes lumières sont brûlées. Le HDR supporte mal les aplats et le manque de matière obtenus.

 

 

M. : Il est de coutume de dire que le complément de dynamique apporté par le HDR est là pour offrir toute leur place aux hautes lumières plutôt que pour donner une luminosité générale plus grande à l’image, peux-tu nous préciser ce qu’il en est dans la pratique ?

R. B. : Si je peux me permettre cette comparaison : lorsqu’on a un grand lit, on a quand même tendance à s’étaler un peu dedans. Même si en théorie la dynamique supplémentaire est prévue pour les pics de lumière, lorsqu’on travaille en HDR on étalonne des images légèrement plus lumineuses qu’en SDR ; c’est souvent la demande des clients. Mais même si on me dit : « il faut que ça pète », je me limite parce que les images doivent rester naturelles et homogènes.

 

 

M. : En fonction de la technologie des écrans, seule une zone limitée peut être affichée en haute luminosité, notamment pour des raisons de limitation de consommation et d’écologie. Est-ce que c’est une contrainte pour toi ?

R. B. : Absolument pas, je n’ai pas envie de travailler avec des lunettes de soleil, et si je souhaite bronzer, je préfère aller dehors. Afficher des images à 1 000 nits sur une dalle entière présente peu d’intérêt. Cela doit juste être pris en considération pour des effets d’explosion par exemple. Lorsque dans certains films, on a demandé au monteur d’insérer des flashs au blanc, les écrans Oled réagissent bizarrement ; ils ne sont capables d’afficher ces images que pendant un très court instant ; l’écran a alors tendance à « pomper » ; d’autre part il faut garder à l’esprit que peu d’écrans grand public sont capables d’afficher plus de 800 nits (et encore moins sur toute leur surface).

Cela me permet d’évoquer le sujet de la place du blanc. En HDR, son niveau ne doit pas forcément être réglé à 100 %, et en est même sensiblement éloigné, contrairement au SDR. Je dois donc baisser les niveaux des « flashs au blanc ». La réflexion est la même pour les titrages, je règle leur luminosité à environ la moitié de la courbe de luminosité.

 

 

M. : Regardes-tu ce qui est produit en HDR, par exemple sur Netflix ?

R. B. : Nous regardons régulièrement des programmes HDR sur Netflix avec un écran grand public de qualité. Lors de notre dernier visionnage « critique », sur dix programmes HDR un seul nous semble avoir été étalonné en HDR au départ. Les autres ont certainement été « gonflés » en HDR avec pour résultat des images hyper agressives, des hautes lumières excessivement lumineuses, et des titrages « explosifs » : c’est de l’aberration commerciale.

Certaines productions commencent cependant à penser à la pérennité de leurs films. J’ai étalonné un documentaire diffusé sur Arte, donc en HD et en SDR. L’étalonnage HDR a été pensé pour les futures distributions : c’est un investissement. Pour ce documentaire, j’ai fait l’étalonnage en HDR suivi d’une passe en SDR à partir du master HDR. C’est pour moi la meilleure solution actuelle, tant technique que commerciale.

Je pourrais choisir de travailler en ACES (une technologie qui adapte le traitement du signal vidéo en fonction des caractéristiques des différents étages de la chaîne de production : sources, outils de travail, écrans, etc.) et de préparer deux sorties différentes en adaptant l’étalonnage, mais cela revient finalement quasiment à réaliser deux étalonnages différents.

Il serait également envisageable de travailler d’abord en SDR et d’étalonner le programme HDR dans un second temps. Dans ce sens, la problématique la plus importante se situe dans le passage de l’espace colorimétrique Rec. 709 à l’espace Rec. 2020, ou plus précisément à l’espace DCI P3 au sein de l’espace Rec. 2020 (cf. la suite de l’article).

Pour préparer l’étalonnage SDR à partir d’un master HDR il faut être attentif à la quantification du signal. Pour simplifier, on peut dire qu’en SDR, on travaille sur 10 bits de 0 à 1 023, alors qu’en HDR c’est très différent. La courbe PQ prévoit un niveau théorique maximum de 10 000 nits, qui ne sont pour l’instant affichés par aucun écran, le BVM X300 affichant 1 000 nits maximum.

Sachant que dans le signal du HDR on travaille le signal « habituel » dans une plage entre 0 et 300 nits, et que le reste est consacré au traitement des hautes lumières, on n’utilise qu’une petite partie de la plage de quantification pour la majorité du signal utile. C’est la raison pour laquelle je prépare mes masters HDR en 12 ou 16 bits avant d’appliquer ma courbe de réduction (LUT) sur le film entier et de faire une adaptation de l’étalonnage plan par plan. Dans ce sens, l’adaptation colorimétrique se passe plutôt bien.

 

 

M. : Tu te contrains dans l’espace colorimétrique DCI P3 pour l’étalonnage en HDR, peux-tu nous en expliquer la raison ?

R. B. : J’étalonne dans l’espace colorimétrique Rec. 2020, mais je me limite à l’espace DCI P3 à l’intérieur de cet espace Rec. 2020. Le matériel grand public n’affiche pas du tout le Rec. 2020 et même si de nombreux modèles récents s’en rapprochent, tous n’affichent pas l’entièreté de l’espace DCI P3 non plus, il en résulte trop de fausses couleurs en cas de sur-saturation. Les derniers modèles Oled le font. Mais l’espace DCI P3 est déjà bien plus large que le Rec. 709. Les couleurs situées entre le Rec. 709 et le Rec. 2020 sont des couleurs extrêmes, des verts très saturés et hyper lumineux.

Moi, cette contrainte ne me gêne pas beaucoup, je n’ai jamais senti mes couleurs se « tordre » sauf en cherchant volontairement les limites. À partir d’un fond coloré, en « tirant » sur les réglages, à partir d’un certain seuil on voit des choses étranges apparaître, des couleurs qui dérivent ou qui ne peuvent pas être affichées. Mais globalement pour les images « naturalistes » on ne ressent pas l’obligation, ni même l’intérêt d’un espace encore plus large. Sauf cas extrême, lorsqu’on filme par exemple un soleil de face avec des rouges flamboyants que l’on ne peut pas observer habituellement.

J’ai passé les vingt dernières années à étalonner des images et à essayer de les contraindre dans une dynamique et un espace colorimétrique relativement faible.

 

 

M. : Ne penses-tu pas qu’en travaillant avec un espace colorimétrique plus large tel que le Rec. 2020, tes clients et les spectateurs trouvent le rendu de l’image « trop vidéo » ?

R. B. : Associer le caractère cinématographique à la désaturation est uniquement « culturel » ; en effet l’espace colorimétrique du cinéma est plus large que celui de la vidéo. Dès que mes clients demandent un rendu vraiment cinématographique, très désaturé, c’est donc vraiment une notion « culturelle ».

Au cinéma, on fait ce qu’on veut. Les blockbusters tels que « Transformers » nous montrent des couleurs éclatantes sans que l’on se dise : « Hollywood, non, ce n’est pas très cinématographique ». Mais il est vrai que c’est une demande récurrente. Je viens de finaliser l’étalonnage d’un long-métrage où on m’a demandé un rendu Agfacolor. On m’a apporté des livres d’exemples du style voulu, et si on observe bien, les images présentées ne sont pas si désaturées que ça : notre étalonnage sera lui encore plus désaturé. Les couleurs un peu pastel servent à ramener à l’époque… Mais je ne sais pas pourquoi : les gens ne voyaient pas pastel à l’époque ! C’est un rendu… on se fait des films ! On peut aussi faire des films de cinéma avec beaucoup de couleur !

 

 

M. : Travailles-tu en HDR différemment dans ton rapport avec les équipes ? As-tu une interaction particulière avec la production ou interviens-tu uniquement à la fin en récupérant ce que l’on veut bien te donner ?

R. B. : On arrive de toute façon à la fin et on récupère ce qu’on nous donne. Ça a toujours été et ce sera toujours ainsi ! La discussion peut cependant débuter en amont. Les gens sont inquiets parce qu’ils ne savent pas ce qu’il est possible de faire. Tu peux alors leur montrer les possibilités offertes par le HDR ; mais les contraintes de production restent les mêmes. Un tournage peut par exemple débuter idéalement avec deux F55. Très souvent, pour répondre à des besoins supplémentaires, les équipes sont séparées pour couvrir plusieurs actions simultanées, ou filmer plusieurs sujets. Et du coup au lieu de deux F55 pour le champ et le contrechamp, la F55 principale est complétée par un appareil photo.

Le client est alors surpris de ne pas obtenir les mêmes images. C’est simple, tu as une belle image avec de la dynamique et l’autre avec des hautes lumières explosées, des aplats sur les carnations. Les fichiers issus de ces caméras sont en H264, souvent en 8 bits, offrant des possibilités très limitées. Donc tu es contraint à « pourrir un peu » la belle image pour essayer de la raccorder avec l’image de plus belle qualité ; le contraire étant impossible.

 

 

M. : Lorsqu’on te propose un projet HDR, demandes-tu des caméras particulières ?

R. B. : Je n’ai rien à imposer : ce que je peux dire c’est qu’en 12 ou 16 bits et en log c’est bien, en 8 bits et en Rec. 709 c’est très risqué, c’est beaucoup moins bien ! Ce langage, je l’ai toujours eu, parce que c’est toujours vrai, même si c’est encore plus vrai lorsque l’on prétend étendre ses images dans une plage dynamique plus grande.

 

 

M. : Et pour le montage, y a-t-il un workflow différent ?

R. B. : Pas du tout ! Les monteurs travaillent en Rec. 709 et voient l’image telle quelle. Contrairement au SDR où l’étalonnage de documentaires ou de magazines est souvent réalisé à partir d’un mixdown du programme préalablement découpé, pour le HDR je repars systématiquement des sources.

J’étalonne souvent sur DaVinci Resolve de Blackmagic Design. Comme le logiciel est disponible à moindre coût, les productions peuvent prendre en charge la conformation en interne et me fournir un projet prêt à l’emploi. Cela leur coûte moins cher.

 

 

M. : Peux-tu nous parler de ta configuration pour l’étalonnage des programmes en HDR sur DaVinci Resolve ?

R. B. : Je travaille donc sur une station DaVinci Studio de Blackmagic Design. L’écran est le modèle BVM-X300 de Sony. La majorité des programmes que j’étalonne en HDR est en 4K DCI (4 096 x 2 160) et en 50p. Les volumes de médias à traiter sont donc importants. Pour obtenir un affichage temps réel, je ne peux pas me contenter d’un iMac, ni même d’un iMac Pro. J’ai donc dû configurer une station Linux appuyée par un boîtier hébergeant plusieurs puissantes cartes graphiques.

Avec DaVinci, on peut choisir de travailler à partir de LUT (sortes de courbes appliquées au signal vidéo). On peut également utiliser un mode plus évolué, le DaVinci YRGB color managed. C’est un « mode de management colorimétrique » qui permet de choisir les Gamma et Gamut des sources, timelines et destinations.

Après avoir testé de nombreuses solutions, notamment via la fabrication de mes propres LUT, et le travail en ACES, je trouve que la solution la plus simple et la plus efficace est celle du color management. L’intérêt de l’ACES c’est de ramener les sources dans un espace colorimétrique commun, avec des transpositions d’espaces colorimétriques que je trouve assez efficaces. Mais le fait de travailler en ACES dans le logiciel modifie la réaction des outils ; je trouve alors que l’étalonnage peut devenir plus complexe à réaliser.

Je travaille dans une timeline contrainte en DCI P3, avec un point blanc D65. Le film est ensuite encodé dans l’espace Rec. 2020 dont on n’utilise du coup qu’une partie restreinte. C’est une demande des broadcasters, dont Orange et Netflix, et, à l’origine, des fabricants de téléviseurs, de ne pas dépasser l’espace DCI P3, limite des écrans actuels. On se contraint donc dans du P3 pour des raisons de matériel en bout de chaîne.

J’avais étalonné mes premiers films HDR dans l’espace Rec. 2020 total. En fait je ne débordais pas beaucoup de l’espace DCI P3. Ce qui est intéressant à observer cependant, c’est qu’au vu de la différence entre les deux espaces, on obtient en Rec. 2020 des couleurs étonnantes qui ne peuvent être créées que dans ce mode ; et je parle là non pas d’une saturation plus élevée des couleurs mais de tonalités et nuances différentes. Notamment dans les verts, dans les forêts, j’obtenais des résultats intéressants et un rendu très particulier.

Le matériel va évoluer, mais le Rec. 2020 ne va pas être disponible rapidement sur les téléviseurs grand public ; les pics de luminosité évolueront en premier. La luminosité est actuellement plus forte sur les écrans LCD, mais le rendu dans les noirs est beaucoup plus subtil avec les écrans Oled.

 

 

M. : Le HDR et le réalisme…

R. B. : Je trouve que d’afficher les images de façon naturelle est un véritable plus. Les hautes lumières ne sont pas encore celles de la vraie vie ; mais dans la vraie vie l’œil et le cerveau font usage de différents procédés d’adaptation pour s’adapter aux différences de lumières de la scène, et on ne souhaite pas que le spectateur doive fermer son iris pour voir une partie de l’image.

Avec le HDR, lorsqu’un point brillant est présent dans l’image, lorsqu’un reflet ou un flare traverse l’écran, on peut les afficher naturellement. Bien entendu on n’étalonne pas les visages à 1 000 nits. Un visage reste éclairé de la même manière en SDR et en HDR, on arrive facilement à le rendre correctement sur un écran. C’est lorsque l’on souhaite donner une certaine luminosité à une scène, une luminosité naturelle, que le HDR nous ouvre de nouvelles possibilités en nous évitant de tout compresser dans les hautes lumières. On dispose des « densités » depuis le début ; le fait de pouvoir afficher la dynamique, c’est vraiment bien.

Concernant l’espace colorimétrique disponible, plus il sera étendu, plus on sera heureux. Après on n’est pas obligé de s’étaler dedans copieusement ! En SDR, une fois posé le niveau lumineux des carnations, on compresse le reste au-dessus et on est systématiquement obligé de bricoler l’image pour afficher un ciel, pour conserver les hautes lumières ou éviter que les fenêtres en arrière-plan soient « brûlées ».

 

 

M. : Parlons artistique. Quelle est ta technique de travail sur le HDR ? Est-ce qu’on peut dire que tu étalonnes ton image de la même manière sur 70 % de ton signal et que c’est au-dessus que tout change ? Est-ce que toute ta méthode de travail est modifiée ?

R. B. : On peut dire ça ! Je fais à peu près la même chose dans le bas de la courbe. Mais on a quand même tendance à être plus lumineux, parce qu’on a plus de place et qu’on s’étale vite dedans ! Maintenant j’essaye de faire quelque chose de joli, l’outrancier ne m’intéresse pas. Il y a quelques années, les premières démos HDR sur les salons faisaient mal aux yeux. On te présentait deux images, avant/après, sur deux moniteurs. Et finalement tu te disais presque que tu préférais le … avant ! parce que l’après était « too much ».

Le HDR réduit le carcan, mais toutes les images ne sont pas naturellement lumineuses, et ne doivent pas être étalonnées exagérément lumineuses. Par contre, tu peux avoir des images denses et d’un seul coup un point lumineux qui apparaît peut vraiment être lumineux ! On reste cependant loin de la lumière naturelle. Dans la rue, le reflet d’un soleil sur une voiture est mesuré à 20 000 nits, loin des 1 000 nits que peut afficher un écran HDR actuellement.

 

 

M. : Tu fais une véritable veille technologique sur le HDR. As-tu suivi les évolutions matérielles pour le HDR dans les salles de cinéma ?

R. B. : Pour les salles de cinéma, Eclair pousse sa solution EclairColor. Mais au cinéma, les niveaux de luminosité sont naturellement beaucoup plus faibles, du fait de la projection, comparativement aux niveaux des écrans (moniteurs ou téléviseurs). En SDR le niveau du blanc est prévu à 48 nits seulement et en HDR à 105 nits. Une nouvelle génération d’écrans est en train d’arriver sur le marché. Ils sont constitués de panneaux à technologie Microled s’assemblant par modules pour créer des écrans de tailles variables. Ils permettent de dépasser les limites inhérentes à la projection. C’est inéluctable, à terme les écrans de projection n’existeront plus. Dans une salle de cinéma, on est dans le noir, donc 48 nits c’est bien en SDR, 105 c’est bien en HDR, mais pourquoi ne pas aller plus loin, 1 000, 4 000 nits, ou plus.

 

 

M. : As-tu opéré des changements dans ta salle d’étalonnage pour le HDR ?

R. B. : Il y a longtemps que j’ai arrêté de travailler dans le noir. Quand j’avais 20 ans, je travaillais dans l’obscurité totale, et je ne voulais surtout pas de lumière qui pût se refléter sur l’écran ; il est vrai cependant que les tubes étaient très sensibles aux reflets. Aujourd’hui j’étalonne avec une petite source lumineuse modulable placée au-dessus de moi, j’utilise également deux « phares réglables » correctement calibrés à 6 500K dirigés vers une toile (un écran de projection), au fond de la salle, derrière mon moniteur. Lorsque je travaille en SDR, je les baisse et je les monte en HDR. Une journée d’étalonnage en HDR étant déjà plus fatigante, c’est bien de se sauvegarder un peu.

 

 

M. : Pour illustrer nos propos, nous avons passé en revue quelques exemples de programmes étalonnés en HDR…

R. B. : Pour cet entretien, après une demi-heure à observer des images en HDR, le retour au SDR est difficile ; il provoque une sensation de manque. On a juste du mal à revenir en arrière. La tonalité des images reste la même, mais de nombreux éléments disparaissent ; il manque une impression de relief. Comme cette image d’un hélicoptère traversant de superbes paysages : en HDR on voit nettement la petite lumière clignoter ; elle disparaît totalement en SDR.

 

 

Un grand merci à Rémi Berge qui s’est prêté avec enthousiasme à ce grand débat technologique et artistique.

 

Article paru pour la première fois dans Mediakwest #31, p.106/110. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

 

 

* LISEZ NOS AUTRES ARTICLES DÉJÀ PARUS DANS LE MAGAZINE MEDIAKWEST ET DISPONIBLES EN LIGNE :

 HDR : les premières clés du high dynamic range (partie 1)

• HDR : les nouveaux termes apparus (Partie 2)

• HDR : Comment peut-on en profiter ? (Partie 3)

HDR : Du tournage à l’étalonnage - La production (Partie 4)

  • 25 septembre 2019 à 17:05

Merging+ présente les pouvoirs d'Anubis !

Merging+ présente les pouvoirs d'Anubis ! © DR

MERGING + ANUBIS est un véritable produit différent qui s'adresse à des marchés très divers. Il s’adresse à la clientèle traditionnelle de Merging dans les domaines de la radiodiffusion, de la post-production et de l'enregistrement haut de gamme, en tant que puissant complément de leur installation existante. Plus important encore, il fournit des fonctionnalités uniques à tout propriétaire de studio ou à tout musicien recherchant une unité AD/DA compacte qui offre la qualité que vous attendez de Merging, ou un contrôleur de moniteur complet qui s’intègre à n’importe quelle station de travail audio numérique (DAW).

 

Anubis introduit un nouveau concept de « Modular by Software ». Effectivement, le même matériel peut être utilisé pour des flux de travail totalement différents ou ce que nous avons choisi d'appeler « missions ». Une mission pourrait gérer votre monitoring multicanal dans la salle de contrôle et une autre mission pourrait vous enregistrer en studio. Le Monitor Mission nécessite le contrôle de plusieurs haut-parleurs et des casques avec des fonctions de talkback intégrées, de la gestion des basses et de l’alignement temporel, ainsi que de nombreuses autres fonctionnalités indispensables à la gestion de votre environnement d’écoute. Le Music Mission nécessiterait un mixage à faible temps de latence, un contrôle des sources de signal, des plug-ins innovants, de superbes presets micro et toutes les fonctionnalités nécessaires pour être le partenaire indispensable du musicien.  

 

Cette flexibilité peut être attribuée au fait qu'Anubis est le premier produit maison à utiliser la puissante technologie de transport de média ZMAN, déjà utilisée par les clients OEM. ZMAN ne se contente pas de gérer la connectivité AES67, il dispose également d'un important traitement DSP/FPGA embarqué qui fournit une multitude d'autres fonctionnalités programmables.

 

La mise en place d’Anubis est proposée dans son rôle de Mission Monitor et la proximité immédiate de divers événements permet des lancements simultanés des deux côtés de l’Atlantique. La première présentation publique est fixée au 21 mars à la Convention AES à Dublin, sur le stand 404, où le PDG de Merging, Claude Cellier, se tiendra sur un stand partagé avec PSI Audio et Sonosax. Cette présentation sera immédiatement suivie dès le 2 Avril par Prolight + Sound sur le stand 8.0 C19. La semaine suivante, le NAB 2019 qui démarrera le 8 Avril, permettra le lancement dans la région nord-américaine sur le stand #3035, dans le hall central.

 

D'une certaine façon, Anubis peut être considéré comme une amélioration très significative de la gamme extrêmement populaire de l’interface audio en réseau de Merging. Cette interface audio exceptionnellement compacte est un convertisseur A/D et D/A de 32 bits autonome, capable de gérer des entrées micro ou de niveaux de lignes, et quatre sorties de lignes analogiques, plus deux sorties casque de haute qualité. Le grand encodeur rotatif permet un contrôle précis du volume de contrôle, mais il facilite également le réglage des paramètres, tandis que l’affichage multi-touch et les boutons dédiés permettent une sélection intuitive de tout ce qui doit être contrôlé. Le talkback intégré, les circuits de repère et les fonctions de gestion des haut-parleurs en font une unité idéale dans toutes les salles de contrôle.

 

Le véritable pouvoir d’Anubis devient évident dès qu’il fait partie d’un réseau plus vaste. Conçu pour s'intégrer dans un environnement AES67 ou ST2110, il est remarquablement évolutif lorsqu'il est associé aux unités Hapi ou Horus de Merging, voire à tout autre périphérique AES67. À ce stade, les E/S supplémentaires permettent à Anubis de devenir le centre d’une matrice allant jusqu’à 256 x 256, avec le contrôle des flux entrants et sortants. Instantanément, des tâches telles que le contrôle du moniteur audio immersif deviennent extrêmement simples. En plus des E/S audio, Anubis possède également une connectivité GPIO ou MIDI, une gamme de pilotes couvrant MacOS, Windows et Linux, le décodage Ambisonic et la réduction du « cough cut » sur chaque entrée. Bien que la liste complète des fonctionnalités ne puisse pas être détaillée ici, il convient de noter qu'Anubis offre le choix du taux d'échantillonnage et de la qualité audio que vous attendez d'un produit Merging, avec comme exemple la plage dynamique d'entrée de ligne généralement de 139 dB (pondérée A).

 

La clientèle traditionnelle de Merging a toujours été motivée par un son de qualité. L'enregistrement sur DSD et DXD a donc toujours été une caractéristique de nos produits. Il en est de même avec Anubis. Deux modèles sont disponibles. Pro : gère les fréquences d’échantillonnage jusqu’à 192 kHz, Premium : offre un son haute résolution jusqu’à 384 kHz, DXD et tous les types de DSD jusqu’à 256. Anubis est à un prix très compétitif avec des prix de détail recommandés avant taxes et coûts d'importation respectivement de 1345.50 euros et de 1795.50 euros    

 

Les utilisations pratiques d’ANUBIS + MONITOR sont notamment le contrôle des moniteurs dans les studios, les camions de production à distance et les salles de montage, la surveillance des flux audio AES67 entrants, l’enregistrement de voix off ou en tant que complément très mobile pour l’enregistrement sur le terrain. Anubis peut fonctionner grâce à sa propre alimentation, par batterie et/ou PoE (Power over Ethernet) si une redondance est requise et il peut être placé sur un bureau ou monté sur un pied de microphone standard.

 

Le concept de « Modular by Software » déjà mentionné est essentiel à l’évolution future d’Anubis. Cela signifie que l'unité matérielle identique peut être reconfigurée pour remplir une fonction complètement différente en chargeant des programmes alternatifs. Il modifie l'interface utilisateur pour l'adapter au flux de travail idéal et il reconfigure le moteur Anubis pour le programme choisi, en vous offrant encore plus de fonctionnalités. Cela apporte à l'utilisateur non seulement un utilitaire supplémentaire, mais cela permet également un chemin de mise à niveau simple vers les applications futures. Même si le Monitor Mission et le Music Mission sont planifiés pour 2019, le calendrier prévoit l’introduction future de plusieurs autres missions, afin de répondre aux différents marchés.

 

L'extrême flexibilité du matériel Anubis, sa taille compacte, sa qualité audio exceptionnelle et l'évolutivité, en particulier dans un environnement en réseau, caractérisent à coup sûr MERGING + ANUBIS comme étant « unique en son genre ».

  • 24 septembre 2019 à 17:00

IBC 2019 : les nouveautés micro et monitoring de Sennheiser et Neumann

IBC 2019 : les nouveautés microphones et solutions de monitoring de Sennheiser et Neumann © Nathalie Klimberg

Systèmes sans fil, technologies audio immersives ou équipements de studio d'excellence : les solutions qui étaient exposées par Sennheiser et Neumann au salon IBC garantissent une qualité audio aux productions de tout type et de toute taille. Ont été présentés les systèmes sans fil numériques d’entrée de gamme XS Wireless Digital 2,4 GHz de Sennheiser pour caméras DSLR/DSLM ; le mini émetteur de poche UHF professionnel SK 6212 et le récepteur pour caméra EK 6042 pour les productions en extérieur et en studio ; ainsi que le caisson de basse Neumann KH 750 DSP et les casques de monitoring de studio Neumann NDH 20...

 

Producteurs et créateurs qui ont visité le stand pouvaient y découvrir un large choix de microphones sans fil, notamment des séries XSW-D, AVX, évolution wireless, et Digital 6000 et Digital 9000. Ces systèmes assurent une transmission sans fil de grande qualité dans différentes gammes de fréquences, 2,4 GHz, 1,9 GHz et UHF, pour les professionnels et les utilisateurs éclairés.

Dans la catégorie des micros filaires pour caméra, le stand a mis en avant la série Sennheiser MKE et les micros-canons standard MKH 8060 et MKH 416 de Sennheiser, ainsi que les modèles Neumann KMR 81 i et KMR 82 i.

 

Monitoring de studio et d’extérieur

Les casques Neumann NDH 20 sont des solutions d’une précision exceptionnelle pour le monitoring de studio. A ceux-ci s’ajoutent les casques et micro-casques HD 25 et HD/HMD 300 de Sennheiser pour studio de production et tournage vidéo.

Les systèmes de monitoring de studio Neumann sont un incontournable des solutions audio présentées à l’IBC. Deux configurations stéréo étaient exposées : deux enceintes de monitoring KH 80 DSP avec un caisson de basses KH 750 DSP et deux enceintes de monitoring KH 310 avec KH 750 DSP. Les deux installations sont contrôlées par l’application Neumann.Control.

Sur le stand, Neumann exposait ses microphones de studio BCM 104, KM 184, TLM 103 et U 67.



AMBEO Immersive Audio

La zone consacrée à l’expérience audio immersive AMBEO a mis en avant deux workflows de bout en bout pour le multicanal et des productions Ambisonics. Les visiteurs ont eu l’occasion de créer un mix audio pour les deux workflows en VR, via l’interface immersive dearVR SPATIAL CONNECT de Dear Reality.

Fut également présent sur le stand, le prototype du microphone AMBEO Sports Microphone Array pour les prises de son 360º lors des rencontres sportives.

Dans le cadre du programme de partenariat AMBEO for VR, Solid State Logic a fait une démonstration d’un enregistrement live immersif de mix pour la télévision réalisé avec le micro Sennheiser AMBEO VR et plusieurs microphones d’appoint.

  • 25 septembre 2019 à 18:37

Doug Delaney, coloriste sur « Captain Marvel »

« Nous avons utilisé certains des nouveaux outils de Baselight, tel Base Grade, qui offre un moyen vraiment unique de peaufiner l’image. Base Grade a révolutionné la manière dont j’aborde l’étalonnage de contenus en HDR et EDR

La finition de « Captain Marvel », la superproduction sortie au début de l’année, a été effectuée chez Technicolor sous la direction de Doug Delaney. Nous avons rencontré Doug sur le stand Filmlight durant le NAB.

 

Doug Delaney a commencé sa carrière dans le domaine des effets spéciaux avant de se spécialiser dans la finition numérique, avec de nombreux longs-métrages à son palmarès. Son but a toujours été de développer toujours plus ses compétences, ses techniques et ses méthodes.

C’est relativement tard dans la postproduction de Captain Marvel que Doug a rejoint l’équipe. « C’est un film très technique, avec énormément d’effets visuels, dit-il. Je suis intervenu sur la couleur à un stade beaucoup plus avancé que dans mes autres projets. L’univers cinématographique Marvel possède un langage visuel bien établi. Certains éléments ont une couleur définie : par exemple, le costume de l’héroïne doit être d’une couleur précise quel que soit l’environnement, parce qu’il représente un personnage emblématique. »

Lorsqu’un film comporte autant d’effets complexes, les pipelines d’effets visuels sont créés environ un an avant le début de la postproduction proprement dite. Cette préparation inclut le « look development », qui relève autant des effets visuels que du tournage lui-même. Les effets font l’objet d’un grand soin.

« Le look development et les LUT existent déjà et ont été distribués pour des intervenants dans le monde entier qui travaillent sur ces projets en même temps. Les éléments visuels généraux ont été approuvés par les réalisateurs et par le responsable des effets visuels, avant la finition. C’est un processus différent des autres films, pour lesquels le look development ne commence qu’au moment de l’étalonnage final. Pour Captain Marvel, à l’inverse, mon rôle était plutôt d’appliquer des effets qui avaient été décidés à l’avance. »

« Doug Delaney veillait donc à ce que le résultat soit conforme au cahier des charges, ce qui peut passer par un travail sur l’uniformité des séquences ou, bien entendu, par l’amélioration et l’enrichissement d’éléments visuels. « Mais en général, il ne faut pas que l’étalonneur ait la main trop lourde, car cela se ressentirait sur la qualité des effets d’un point de vue créatif, précise-t-il. Nous avons utilisé certains des nouveaux outils de Baselight, par exemple Base Grade, qui offre un moyen vraiment unique de peaufiner l’image. Base Grade a révolutionné la manière dont j’aborde l’étalonnage de contenus en HDR et EDR. »

Pour un film comme Captain Marvel, il faut accorder un grand soin à la transition entre les différents effets visuels. Le coloriste a donc fait appel aux puissants outils de manipulation de l’éclairage disponibles dans Baselight, afin de « fluidifier » les effets au service de l’intrigue. Ainsi il peut y avoir une séquence qui marche déjà très bien, mais à laquelle on ajoutera de la lumière dynamique pour améliorer la transition entre les effets visuels d’un plan à l’autre.

 

Une solution tout-en-un

Un autre changement important dans la manière dont les effets visuels sont créés aujourd’hui, c’est que la solution d’étalonnage prend également en charge une grande partie du compositing et de la finition. « Nous ne sommes plus simplement des coloristes : nous assurons toute la finition », insiste Doug.

Le coloriste principal n’est donc pas seulement responsable du look final du film : il doit être à la tête d’une équipe d’experts qui œuvrent ensemble vers un but commun en utilisant le système de catégories et de notes intégré à Baselight pour communiquer leurs besoins, créer des listes de tâches, et suivre l’évolution du projet.

Doug Delaney et Chris Townsend, le superviseur des effets visuels, étaient les principaux responsables du look final de Captain Marvel. En tant que superviseur de la finition, cependant, Doug s’appuyait sur toute son équipe créative.

« Chris et moi faisions l’étalonnage et présentions notre travail aux réalisateurs et à l’équipe créative de Marvel, se souvient Doug. Jeff Pantaleo, l’assistant coloriste, m’a aidé pour la version 2D. Il y avait ensuite d’autres spécialistes – Gray Marshall, Dave Franks, Travis Flynn et Jason Fabbro – pour le tracking, la rotoscopie, le travail technique intermédiaire ou encore les versions DVD et Blu-ray. »

L’équipe a également aidé à la production des différents livrables, qui font partie intégrante du travail de finition d’une superproduction comme celle-ci. « On commence la version 3D stéréoscopique avant que la version 2D ne soit complètement terminée, donc certains membres de l’équipe changent de tâche en cours de route. Ensuite, on commence les versions EDR, projection laser, HDR, Imax et ainsi de suite, avant d’avoir terminé la version 3D : au final, il peut y avoir dix versions du même film, voire plus, souligne Doug. Je dis souvent que c’est un peu comme de jongler avec des assiettes tournantes. Plus il y a d’assiettes, plus c’est compliqué, et il faut donc toute une équipe pour que tout se passe bien. »

 

Doug Delaney vante également les fonctions de Baselight permettant d’assurer l’uniformité des couleurs entre les différentes versions. « Nous finissions la version 2D, puis l’importions dans la version stéréoscopique. Ensuite, si nous remarquions un changement à apporter, nous le faisions dans la version 2D avant de le répercuter dans les autres. Sans Baselight, le processus aurait été extrêmement complexe. »

Baselight a également fait ses preuves en tant que puissant outil de finition et a été utilisé pour la conformation de Captain Marvel en plus de l’étalonnage. « C’est pratiquement la seule manière de faire les choses, parce que ça vous permet de propager toute l’information à travers toutes les versions, qu’il s’agisse de la couleur, de l’incrustation ou des effets visuels », explique-t-il.

« Ce qu’il y a d’extraordinaire, avec les films de Marvel, c’est que leurs créateurs cherchent sans cesse à s’améliorer, à atteindre la perfection. C’est également vrai en ce qui concerne le montage : ils font des petits changements jusqu’à la toute dernière minute. En travaillant sur les contenus natifs, nous pouvons donc être très flexibles et faire sans problème tous ces changements. »

 

Nous avons demandé à Doug si, sur un projet de cette ampleur, il avait trouvé certaines scènes particulièrement difficiles ou passionnantes : la première à laquelle il a pensé n’était pas une scène avec des effets visuels, mais une scène qui se déroulait au crépuscule et qui avait été tournée sur plusieurs jours, la lumière étant bien entendu différente à chaque fois.

« Le soleil se couche sur la Louisiane. C’est une scène très émouvante, se souvient-il. Mais les couleurs n’étaient pas vraiment uniformes, alors nous avons fait appel à différentes techniques d’étalonnage pour harmoniser le tout : ainsi, le spectateur s’investit dans la scène sans distractions. En tant que coloristes, nous faisons régulièrement ce type d’ajustement, mais leur effet sur le film peut être aussi important que celui d’une scène riche en effets visuels. »

 

L’autre exemple qu’il évoque est celui de la bataille dans l’espace, vers la fin du film. « Les effets visuels sont extrêmement riches, et ils ont été créés avec beaucoup de soin et d’expertise. Mais il y a également certaines scènes où nous avons beaucoup retouché les couleurs et l’éclairage, faisant presque la finition des effets visuels avec Baselight. Nous ajoutons de la profondeur à ces scènes, par exemple en ajoutant aux plans en contrechamp l’éclairage correspondant à un effet visuel qui apparaissait dans le plan principal, assurant ainsi un bon raccord. »

Le message clair : dans l’univers actuel de la postproduction, Baselight fait plus que la couleur, et si FilmLight met à la disposition des créateurs les outils dont ils ont besoin, c’est parce qu’elle comprend à la fois les facteurs commerciaux, créatifs et techniques du métier.

« Ce que l’on apprécie particulièrement, avec FilmLight, c’est qu’ils nous écoutent, conclut-il. Par exemple, sur ce film, Jacqui Loran et Sam Lempp – de l’équipe d’assistance de FilmLight – étaient en permanence dans le studio avec nous. Ils veulent comprendre les pressions auxquelles sont soumis leurs clients et la manière dont ceux-ci utilisent leurs outils sur le terrain, dans un véritable environnement créatif. Ils font évoluer les fonctions et outils de Baselight pour la gestion des couleurs en fonction de l’évolution des besoins du coloriste et des dernières technologies. »

 

Article paru pour la première fois dans Mediakwest #32, p.104/105. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 9 septembre 2019 à 17:23

Retour sur le NAB 2019 – Spécial audio

© DR

Même si certains fabricants n’attendent pas les salons pour annoncer et présenter leurs nouveaux produits, le NAB de Las Vegas figure malgré tout parmi les rendez-vous importants retenus par les constructeurs audio pour présenter leurs nouveautés sur le sol américain. Et si l’audio immersif, les encodeurs ATSC3 et AC4 restent au centre des préoccupations, notre sélection produits montre une certaine activité du côté du tournage, notamment des enregistreurs.

 

ADOBE

Audition, le logiciel audio d’Adobe revient avec une version 12.1 dotée de quelques améliorations parmi lesquelles une option d’enregistrement Auto Punch avec pré-roll ajustable et décompte visuel et un zoom qui désormais peut s’ajuster de façon à ce que le ou les clips sélectionnés remplissent entièrement l’écran. Également au menu, une fonction de mix automatique de type Ducking qui génère une courbe d’automation que l’on peut affiner dans la section Ducking afin d’atténuer plus ou moins le niveau de la piste musique ou ambiance en fonction du volume de la piste voix, deux raccourcis pour décaler les clips vers la piste inférieure ou supérieure, ainsi que l’ajout et l’édition de points clés.

 

STUDIO TECHNOLOGIES

Studio Technologies profite du NAB pour présenter la 207 eSports Console, un produit conçu pour le marché du e-sport et plus précisément les compétitions de gaming sur PC. Doté d’un micro, d’un convertisseur AD, d’entrées analogiques (XLR 5 broches, jack TRRS, jack TRS) et Dante, ce nouveau pupitre permet l’intégration directe avec le PC des joueurs en réseau. Compatible avec les principaux combinés micro/casque utilisés en broadcast comme chez les gamers, l’appareil propose également une entrée ligne stéréo afin de connecter directement la sortie du PC et la diffuser ensuite en réseau sur deux canaux Dante, tandis qu’un bouton à trois positions permet de choisir parmi les différentes source de monitoring. L’ensemble est alimentable en PoE et configurable via l’application maison STcontroller.

 

BOSE

Évolution du B30, le SoundComm B40 est un micro/casque d’intercom dédié aux applications pro, notamment dans les environnements bruyants. Alimenté par deux piles AA, il comprend un système de réduction de bruit actif, un micro dynamique plus sélectif que dans la version 30 et de surcroît orientable pour permettre le positionnement à gauche ou à droite. Il sera disponible en version mono XLR 4 femelle ou stéréo mâle 5 broches suivant les besoins.

 

PLIANT TECHNOLOGIES

Conçu avec l’idée de simplifier les connectiques XLR utilisées entre les casques intercom et les boîtiers ceinture, la série d’adaptateurs FleXLR de Pliant Technologies permet par exemple de réaliser des liaisons mâles XLR 4 vers mâle XLR 5 broches (référence PAC FLX-45) ou encore mâle XLR 4 vers mâle XLR 4 (référence PAC FLX-44). Toujours chez Pliant, la nouvelle série MicroCom est un système d’intercom simple canal très simple d’utilisation reposant sur un boîtier ceinture opérant sans base et permettant à cinq ou dix utilisateurs (suivant le modèle) de communiquer en full duplex avec une autonomie d’une dizaine d’heures. Une première version opérant dans la bande des 900 sera d’abord disponible sur le marché américain, tandis qu’une version 2,4 GHz conçue pour le marché européen est attendue avant la fin de l’année.

 

ZAXCOM

• Enregistreur Nova

Nouvel enregistreur mixeur compact, le Zaxcom Nova intègre quatre entrées micro/ligne dotées de la technologie NeverClip, deux entrées lignes, quatre entrées AES configurables (AES3 avec SRC, AES42 ou entrées pour récepteurs HF) et six sorties mixtes analogiques ou AES. La section enregistreur peut produire jusqu’à douze canaux 24 bits et travailler à toutes les fréquences normalisées jusqu’en 192 kHz, les fichiers produits au format Marf II ou BWF étant stockés sur une ou deux cartes SD en simultané. Pour commander l’ensemble, la machine propose cinq encodeurs multifonctions (gain d’entrée, gain des émetteur ZaxNet et fader) organisés en quatre banques de cinq. Notons enfin que deux récepteurs doubles Zaxcom QRX212 mono ou stéréo peuvent être enfichés directement dans le Nova, ce qui peut représenter un total de huit canaux HF avec la gestion des fréquences et du scan HF intégrée. Le Nova propose deux entrées redondantes pour l’alimentation et sa disponibilité est annoncée pour cet été.

• Récepteur URX100

Avec l’URX100, Zaxcom revisite le concept de récepteur IFB en présentant un récepteur stéréo UHF utilisant la transmission numérique maison avec time-code et une sortie casque pour l’IFB, mais en y ajoutant un boîtier intercom avec un micro commutable type PTT (Push To Talk) et une entrée Talkie-Walkie. Selon ses concepteurs, l’ensemble peut faire office de lien mixette/caméra avec monitoring casque, liaison perche HF avec intercom entre le perchman et le chef op, ou encore récepteur avec TC pour reflex. Notons que les configurations de routing et de monitoring du circuit d’intercom peuvent s’effectuer via l’App dédiée et que l’autonomie annoncée est de huit heures via trois piles AA alkaline. L’URX100 est dès à présent disponible en quantité limitée.

• Émetteur ZMT3-X

Zaxcom poursuit le développement de la série ZMT3 avec le petit émetteur ZMT3-X qui reprend les principales caractéristiques du ZMT3 standard (enregistrement sur micro SD, émission HF numérique…), mais se singularise avec un boîtier un peu plus épais taillé pour les tournages extrêmes avec son revêtement caoutchouté résistant à l’eau. Autre particularité, il propose deux entrées format microDot pour travailler en mono ou stéréo avec deux Lavalier, et affiche douze heures d’autonomie (48 heures en mode stand by) grâce à sa batterie Motorola BT100 embarquée.

 

MERGING TECHNOLOGIES - ANUBIS

Nouveau concept chez Merging Technologies avec Anubis, un appareil hybride permettant, en fonction des situations, d’assurer la gestion de monitoring jusqu’au 22.2, de jouer le rôle de télécommande et de petite interface audio 4in/4out (2Mic-Line+2 Line-Instrument sur Combo Jack-XLR). Présentée dans un boîtier format desktop, l’ensemble comprend une section Talkback, la connectivité Ravena/AES67, un écran tactile LCD 800 x 480 pixels, deux sorties casque, le GPI et le Midi, tandis que sous le capot, on trouve un traitement DSP assurant le routing et le mixage. L’ergonomie est conçue autour d’un écran tactile, d’un gros encodeur multifonction et de sept boutons paramétrables qui permettent par exemple de gérer les entrées/sorties physiques de l’interface, mais aussi toutes celles présentes sur le réseau AES67/Ravenna. Au bout du compte, l’ensemble peut piloter les entrées et sorties d’un studio, mais également son monitoring grâce à ses capacités de mixage intégré.

 

SOUND DEVICES - SCORPIO

Nouveau haut de gamme chez Sound-Devices, le Scorpio, s’il reprend grosso modo les dimensions de la 688, représente en fait un sacré bond en avant en termes de puissance. Il renferme en effet un mixeur 32 canaux, un enregistreur 36 pistes et se voit doté de 16 entrées micro/ligne, 12 sorties analogiques, mais aussi 32 canaux I/O Dante, un bus 12 voies (deux pour le mix et dix additionnels) tandis que le stockage s’effectue sur un disque SSD interne de 256 Go secondé par deux slots SD. Parmi les choix de formatage pour le stockage, figure l’exFAT qui présente l’avantage de faire tomber la fameuse limite des 4 Go par fichier.

L’assignation des canaux est entièrement libre, mais le nombre d’encodeurs et de faders en face avant étant limité à douze, le contrôle des voies additionnelles se fait soit via l’écran, soit au moyen d’une surface de contrôle USB compatible avec le protocole Midi MCU (Mackie Control Universal) comme la série M+ de chez Icon conseillée par Sound-Devices. On note également la présence d’un port USB-C utilisé pour le transfert de fichiers en USB 3.1. On retrouve sinon un module TC complet, tandis que l’alimentation interne est assurée par deux accus format Sony L ou en externe via un port non pas HiRose mais TA4 car la bête a, paraît-il, des besoins copieux.

Les préamplis procurant 76 dB de gain sont visiblement d’un design nouveau mais, comme toujours chez Sound-Devices, on garde une gestion de la dynamique assurée en premier lieu par un limiteur analogique complété en sortie par des limiteurs numériques réglables sur tous les canaux, ainsi que les traditionnels coupe-bas et retards. Par contre, la Scorpio se distingue avec une nouvelle section EQ complète.

L’ensemble du processing est assuré par trois puces FPGA et trois processeurs Dualcore ARM qui motorisent mixage et traitement en 64 bits, une résolution également disponible pour la production de fichier mono ou poly au format RF64 Waw. L’accès aux fonctions et la visualisation des niveaux est assurée par un LCD tactile 320 x 240, mais le pilotage peut également se faire à distance via USB sur tablette Android et bientôt iOS avec l’App SD-Remote. Le pilote en Bluetooth sera quant à lui disponible ultérieurement, via la prise « antenna » présente sur le boîtier.

Au sein de la connectique analogique, on note six XLR correspondant aux six premières entrées (également configurables en AES3 ou 42) deux mini XLR TA3 et huit TA5 pour les suivantes. Le poids du Scorpio est de 2,6 kg sans batterie ni sacoche.

 

ZOOM F6

Comme son nom le laisse penser, le Zoom F6 annoncé pour juin comprend effectivement six entrées micro, mais une seule sortie stéréo sur minijack. Il reprend le design de préampli et le générateur de TC de son ainé le F8 tandis que la partie enregistreur peut produire des fichiers BWF comprenant jusqu’à six pistes isolées + mix bi-piste en résolutions 24 bits, 32 bits, ou les deux en simultané, mais avec un stockage sur carte SD (un seul lecteur). L’alimentation peut être assurée en interne par quatre piles AA ou, plus confortable, au moyen d’un accu format Sony L pour une autonomie de l’ordre d’une journée. Le F6 peut également être alimenté par une source externe via USB-C. L’ergonomie est assurée par un petit écran couleur et une molette multifonction présente sur le côté droit de la machine.

L’originalité du F6 repose sur sa résolution 32 bits, lui permettant de ne pas intégrer de réglage du niveau d’entrée. Les enregistrements se font donc au gain unitaire micro ou ligne sur lequel on applique un gain via le fader au moment de l’enregistrement ou en postproduction, un moyen de minimiser l’absence de limiteur analogique avant conversion qui était jusqu’alors l’un des points critiqués par certains testeurs. Notons enfin la présence d’une option Automix intégrée et le contrôle à distance via Bluetooth depuis un smartphone muni de l’App maison.

 

RØDE - WIRELESS GO

Aux côtés de la gamme RødeLink, Røde lance le Wireless Go, une liaison sans fil numérique 2,4 GHz comprenant un émetteur clippable avec micro intégré et entrée pour un Lavalier externe, un récepteur à niveau commutable (0 dB, -6 dB, -12 dB) également clippable sur une griffe porte-flash par exemple. Les deux composants sont de la taille d’un briquet zippo et pèsent une trentaine de grammes. Réponse directe à la gamme Sennheiser XSW-Digital, la liaison Wireless Go se lance donc également sur le créneau des liaisons sans fil à 200 euros super simples à utiliser visant principalement le marché des créations de contenu d’entreprise, les youtubers, voire les applications de conférence.

L’ensemble ne comprend pas de micro cravate, mais est livré avec deux bonnettes antivent en fourrure, un câble minijack pour liaison DSLR, les câble USB pour la recharge des accus internes et une pochette de rangement.

 

AUDINATE - DANTE AV MODULE AVEC VIDEO FOR AUDIO

Sur le stand Audinate, c’est bien sûr la venue des intégrations produit autour de la carte Dante AV module et du Dante AV Product Design, son kit de développement associé qui font le buzz, sachant qu’une fois implémentée, la technologie Dante AV permet la distribution IP sur réseau Ethernet 1 Gbit de huit canaux audio en émission et réception et d’un canal vidéo synchrone en 4K@60 Hz incluant HDR, HDCP 2.0, l’EDID et le CEC. Dante AV transmet également l’USB, l’infrarouge et le RS232, ce qui permet de piloter plusieurs sources et diffuseurs à travers le réseau sans boîtier supplémentaire. Par défaut, l’interface vidéo 32 bits intégrée à la carte s’appuie sur le Jpeg 2000, mais apparemment, d’autres codecs sont envisageables.

En parallèle, le distributeur français Pilote Films nous informe d’une baisse de prix sur les petits adaptateurs Audinate AVIO Dante disponibles en analogique, USB ou AES3.

 

SENNHEISER

Pour Sennheiser, les nouveautés NAB reprennent en partie les annonces de l’IBC avec quelques additions comme la nouvelle gamme sans fil XSW-Digital et des avancées dans les disponibilités, notamment pour l’émetteur de poche SK 6212 de la série Digital 6000. Chez Neumann, dans la gamme des enceintes KH, le caisson de basses KH 750 DSP fait son entrée tandis le casque NDH 20 annoncé au Namm entre sur le marché du monitoring studio haut de gamme.

Enfin, dans la gamme Ambeo, Sennheiser présente toujours son prototype de micro Sport Microphone Array ainsi que l’Ambeo SoundBar, une barre de son 5.1.4 haut de gamme dédiée à le reproduction et à la vérification de contenus immersifs, disponible depuis mai dernier.

 

SHURE - MICRO CRAVATE TWINPLEX SERIES

Shure lance la série TwinPlex, une gamme conçue pour les applications demandant qualité et dynamique importante comme la prise de son cinéma, le théâtre et la comédie musicale. La gamme intègre un design à deux capsules annoncé comme peu sensible aux détimbrages hors axe et un câble fin, résistant, pouvant être peint, et insensible aux effets de mémoire de forme. Elle comprend actuellement le micro serre-tête miniature TH53 et le micro-cravate TL45.

 

PRO TOOLS 2019

Pas de version 2019 disponible pour Pro Tools au moment du NAB, mais c’est chose faite depuis début mai où Avid a profité du salon berlinois Superbooth. Pas de bouleversement, ni de killer fonction pour cette nouvelle mouture, mais des évolutions qui devraient se montrer appréciables au quotidien, notamment pour les utilisateurs intensifs.

Parmi elles, figurent la compatibilité Mac OS Mojave et un nommage des pistes plus fonctionnel, mais surtout un nombre de pistes audio disponibles à la lecture en augmentation grâce aux 1 152 Voices implémentées dans Pro Tools Ultimate et aux 384 de la version standard. En outre, afin d’améliorer la fluidité, certaines actions (création, suppression, activation ou désactivation de pistes, insertion ou suppression de plugs-in ou de send, modification des E/S, ajustement d’une sélection ou d’une boucle...) deviennent envisageables sans avoir à stopper la lecture. Enfin, pour les licences multi-utilisateurs, le Multiseat License est une licence flottante PACE sur serveur qui facilite l’administration des licences et élimine la nécessité d’iLoks au sein d’une entreprise ou d’un centre de formation.

D’autre part, avec la nouvelle version de l’App Pro Tools Control, disponible depuis début mai, la gestion de tout système de monitoring compatible EuCon (Pro Tools MTRX, XMON…) devient accessible depuis un iPad. D’autre part, des fonctions facilitant la sélection et la navigation au sein d’un grand nombre de pistes comme les « Scroll to Track » ou « Scroll into View » deviennent présentes dans le protocole EuCon ainsi que dans Pro Tools.

 

GENELEC

Pour Genelec, le NAB fut l’occasion de présenter ses enceintes actives pour les studios professionnels et le home cinema. Au NAB, Genelec mettait en valeur les améliorations des subwoofers de la série F qui offrent désormais un meilleur rendement. L’actualisation porte sur la connectique (entrée numérique optique et coaxiale), un plus grand niveau de pression sonore, un contrôle à distance RF, par câble ou infrarouge et une source d’alimentation améliorée (voltage universel par commutation). Par ailleurs, les subwoofers actifs de la série F1 et F2 complètent les moniteurs actifs deux voies de la série G offrant une qualité de son supérieur, un niveau de pression sonore élevé et un niveau d’amplification de classe D. La connectique analogique n’a pas été abandonnée pour autant. On dispose d’entrées/sorties stéréo analogiques (prises RCA, XLR, LFE/LINK). Ces équipements sont compatibles avec les moniteurs professionnels de studio et une connexion en chaîne de multiples subwoofers.

La série 8000 concerne des moniteurs deux voies professionnels qui bénéficient du système dit « Minimum Diffraction Enclosure (MDE) » réduisant les diffractions. La série SAM (Smart Active Monitor) concerne des moniteurs trois voies compacts. Pour les positionner, il suffit d’utiliser un ordinateur (PC ou Mac) et de télécharger l’application de Genelec qui propose un algorithme expert pour faciliter l’installation dans la salle grâce à un microphone de calibration qui analyse l’environnement. Notons le « Master Smart Monitor » qui délivre un son à très faible distorsion, une réponse plate dotée du « Directivity Control Waveguide (DCW) » qui supprime les diffractions et fournit un son naturel. Même caché, le moniteur attrape l’œil, bien que pour l’auditeur il reste invisible. Cette gamme de subwoofers actifs offre une bonne précision d’image sonore, une réponse en fréquences étendue, un niveau d’écoute agréable pour un long travail de studio.

Enfin, pour les entreprises, la gamme compacte 4010, 4020, 4030 et 4040 comprend des haut-parleurs actifs à deux voies adaptés aux installations commerciales ou professionnelles (salle de cours, par exemple). Tous les modèles intègrent une amplification distincte pour chaque voie. Un choix qui couvre pratiquement tous les besoins de sonorisation.

 

RIEDEL

Il y a dix ans, la société allemande vendait son premier intercom… Aujourd’hui, la société a dépassé la barre des 5 000 unités… Le charismatique Thomas Riedel avait convié la presse et ses clients fidèles à fêter cet anniversaire, mais aussi pour annoncer la sortie d’un nouvel Artist, plus performant que jamais… Avec l’Artist 1024, Riedel propose la plus grosse densité intercom du monde et fait un pas de géant puisque la carte est software defined, c’est-à-dire personnalisable à souhait et en conformité avec la nouvelle norme IP SMPTE 2110-30/31 (AES67). L’Artist 1024, puissante extension de l’écosystème d’intercom Artist, vient compléter une famille qui comprenait les Artists 32, 64, 128 et elle est compatible avec ces versions antérieures.

La nouvelle interface de l’Artist 1024, qui bénéficie d’une prise en charge IP native, redéfinit la connectivité de communication… Proposant non moins de 1 024 ports dans un simple rack 2 RU, l’Artist 1024 offre une série d’innovations s’appuyant sur la puissance des cartes d’interface universelle (UIC) programmables par logiciel. Ce type de carte combine des fonctionnalités de réseau, mélange et gestion et peut être configurée pour fonctionner sous protocole AES67 ou Madi, ou en tant que carte fibre/routeur/processeur Artist. Pour changer de type de connectivité, il suffit d’un clic dans le logiciel de configuration Director.

La trame fournit dix baies pour les UIC, deux d’entre elles étant réservées aux UIC de routage et de mise en réseau. Les huit baies restantes peuvent être équipées de cartes UIC de différentes configurations pour assurer la connectivité des abonnés. Le mélangeur intégré de chaque carte d’abonné peut être dimensionné de 8 à 128 ports par carte et peut accéder aux 1 024 ports.

Le nouveau nœud Artist de Riedel prend en charge plusieurs systèmes de redondance, notamment N + 1, NIC et SMPTE 2022-7. Toutes les liaisons de contrôle et de données au sein du système sont redondantes et une sécurité supplémentaire est fournie par deux unités d’alimentation à partage de charge et un module de ventilation avec des unités de ventilation redondantes. Sa robustesse et sa fiabilité sont donc sans précédent.

L’Artist 1024 introduit également un nouveau schéma de licence flexible avec une licence au niveau de la trame au lieu d’une licence de type connectivité.

 

DOLBY

« Dolby Cinema » est un concept qui allie les technologies Dolby Atmos pour le son et Dolby Vision pour l’image. Le son immersif est à la mode et Dolby veut être leader dans ce type de technologie. Aussi, au NAB, il a mis l’accent sur son procédé audio immersif Atmos qui continue sur sa lancée, avec plus de 4 800 écrans de cinéma équipés en Dolby Atmos dans le monde entier dont plus de 150 en France. Côté contenu, plus de 1 240 titres sont sortis ou annoncés en Dolby Atmos pour le cinéma. Les exploitants de salles de cinéma ont pris conscience de l’importance du son pour le spectateur, car le son crée l’image ! D’où la multiplication de complexes « All Dolby Digital Atmos » dans le monde.

Côté équipement, Dolby présentait le tout nouveau Cinema Processeur CP950 qui offre une qualité de son incroyable associé à une interface évoluée, un écran tactile, une écoute cabine intégrée, et une évolution vers le Dolby Atmos. Par ailleurs, l’IMS3 (Integrated Media Server) et le DMA (Dolby Multi Channel Amplifier) sont quant à eux des solutions Dolby qui permettent de réduire et d’optimiser l’espace physique occupé par les machines, tout en gardant un son de très haute qualité.

Pour convaincre les visiteurs du NAB, Dolby avait installé un car à l’extérieur du « Convention Center » où des démonstrations de capture d’images avec son Atmos étaient présentées, notamment un match de football dans lequel on bénéficiait d’une immersion totale, terriblement réaliste, grâce aux haut-parleurs distribués dessus et autour de soi. Effet garanti !

 

BOYA

C’est une impressionnante gamme audio que ce fabricant chinois présentait au NAB 2019. Boya a développé une gamme spécifique de microphones omni, cardioïdes et super-cardioïdes à condensateur pour smartphone. Ils offrent une bande passante de 25-20 000 Hz et un rapport signal/bruit de 80 dB, de quoi transformer son smartphone en studio de prises de son.

Boya propose un microphone numérique cardioïde (BY-HM2) opérant à 24 bits/96 kHz (20-20 000 Hz ; S/B de 85 dB) et un kit microphone/haut-parleur (BY-BMM400) également pour smartphone. Auxquels s’ajoutent des microphones lavallière numériques pour iPhone, iPad, iOS, Mac et Windows et un récepteur à main pour smartphone (SP-RX12) compatible iOS et Android. Pour les utilisateurs d’appareil photo, de caméscope ou d’enregistreur externe, Boya offre une large gamme de microphones lavallière omnidirectionnels à fil (bande passante de 35-18 KHz), ultra légers, mono ou stéréo, à fixer sur l’appareil.

Pour les prises de son professionnelles, Boya propose une gamme de microphones de studio à condensateur, large diaphragme et directivité variable, complétée par des modèles lavallière haut de gamme à fil (prise XLR). Il commercialise aussi des microphones sans fil, du plus simple système lavallière à 2,4 GHz (BY-WM4 Mark II) au plus sophistiqué en VHF ou UHF pour des applications professionnelles (gamme BY-WFM12). Par ailleurs, le fabricant propose des accessoires (adaptateurs audio pour supporter les microphones, perches, chaussettes anti-vent, alimentations, connectique). Bref, tout pour la prise de son !

Notons que Boya est l’entité Low Cost audio du groupe Jiayz, une structure qui intègre également les marques Saramonic (Son à l’image pour vidéo et DSLR) et Seven Oak (accessoires pour DSLR et smartphone), les trois étant depuis peu distribuées dans l’Hexagone par Dim France.

 

Extrait de notre compte rendu du NAB 2019 paru pour la première fois dans Mediakwest #32, p.42/82. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 2 septembre 2019 à 17:00

Les solutions Flame 2020.1 enrichies de nouveaux outils IA

Les solutions Flame 2020.1 enrichies de nouveaux outils IA © DR

Avec la nouvelle version 2020.1 d’Autodesk Flame, Flare et Flare Assist, de nouveaux outils créatifs permettent d’accélérer les workflows, de renforcer la productivité et de rationaliser l’organisation. Grâce aux nouveaux outils Z Depth Map Generator et Human Face Normal Map Generator, basés sur l’apprentissage machine, Flame 2020.1 offre aux artistes de nombreux moyens uniques d’isoler et de modifier des objets dans des séquences animées pour l’étalonnage et le compositing, y compris avec de nouveaux outils d’extraction du ciel. Plaçant Flame au cœur du workflow des artistes, la version 2020.1 inclut de nouveaux outils d’IA pour la segmentation d’image, la personnalisation de l’environnement de création d’effets et un accès plus aisé pour les scripts Python.

 

« Il fallait que je me débrouille avec des heures d’images filmées par temps couvert : le ciel était soit d’un gris uniforme, soit recouvert de nuages qui ne laissaient pas voir un centimètre de bleu », explique Bob Maple, dirigeant d’Idolum. « J’ai tout simplement lancé la fonction MLSkyExtract en touchant à peine aux réglages par défaut, ce qui m’a permis de faire un ciel bleu avec quelques nuages pour insuffler un peu de vie dans les scènes. Ça m’a évité de devoir créer des masques individuels dans tous les sens. Merci Flame ! »

« Dans la version 2020.1 de Flame, on peut voir toute la puissance de la carte graphique Nvidia RTX et de ses puces Tensor, dédiées aux calculs nécessaires pour les nouvelles fonctions d’apprentissage machine des produits Flame », indique Will Harris, responsable des produits Flame chez Autodesk. « Même si les cartes moins récentes sont également capables d’effectuer ces calculs, le simple passage d’une P6000 à une RTX6000 apporte un important gain de vitesse en termes d’analyse et de calcul pour les algorithmes d’IA et d’apprentissage machine. Bravo Nvidia ! »

 

Parmi les autres nouveautés de Flame 2020.1, on pourra citer :

Outils créatifs

-- « Semantic Keyer » pour l’extraction du ciel : isolez le ciel en un seul clic, pour effectuer la correction de couleurs ou le compositing. L’IA et l’apprentissage machine peuvent extraire des données volumétriques qui permettent d’éliminer des nuages, d’ajouter des effets au ciel, et plus encore.

-- Mode « Motion Vector » pour les AOV : extrayez des caches à partir des vecteurs de mouvement. Les effets peuvent être appliqués de manière sélective, en introduisant des vecteurs – obtenus par rendu ou par analyse – directement dans les scènes 3D pour y être combinés avec des masques.

 

Productivité

-- Environnement d’effets – disposition : réorganisez les différents éléments du logiciel (fenêtres de visualisation, storyboard, panneau média, ligne temporelle, fenêtre de gestion, etc.) à souhait sous forme de dispositions (« layouts ») enregistrables.

-- Environnement d’effets – groupes : la fonction « Groups » permet d’isoler certaines scènes pour des comparaisons et des ajustements immédiats, mettant en place une organisation visuelle entièrement nouvelle.

-- Bibliothèque de scripts Python et de Matchbox sur GitHub : visualisez et téléchargez automatiquement des scripts depuis Flame, pour un accès plus facile. De nouveaux scripts sont disponibles sur la bibliothèque GitHub d’Autodesk, avec une section consacrée à Flame.

-- Sortie AJA KONA 5 6G/12G : prévisualisez des contenus vidéo grâce aux appareils de lecture AJA KONA 5 et AJA Io 4K Plus. Des images en 4K et en UHD peuvent être transmises sur un câble unique 6G SDI pour un signal jusqu’à 30p, ou un câble unique 12G SDI pour un signal jusqu’à 60p.

-- Exportez au format IMF (Interoperable Master Format) directement depuis Flame, en vue d’une distribution à des diffuseurs et services de streaming. L’exportation au format. IMF est un plugin tiers vendu par Fraunhofer IIS, www.easydcp.com.

-- Carte graphique Nvidia RTX : accédez aux cœurs de calcul Tensor des cartes Nvidia RTX, pour des traitements exigeants à base d’apprentissage machine. Les cartes moins récentes sont également capables d’effectuer ces calculs, mais le simple passage d’une P6000 à une RTX6000 apporte un important gain de vitesse en termes d’analyse et de calcul pour les algorithmes d’IA et d’apprentissage machine.

 

Améliorations de Flame basées sur les retours d’utilisateurs

-- Action Schematic Compass : visualisez des zones organisationnelles avec des codes couleurs et des fonctions avancées de nettoyage des nœuds.

-- Bypass : désactivez certains nœuds de manière intuitive et décidez quels canaux sont transmis.

-- Résolution de 16K : un potentiel accru pour la gestion de médias et le compositing à haute résolution, avec une nouvelle limite maximale de 16K pour les projets, les nœuds individuels et les sorties.

  • 28 août 2019 à 17:00

Retour sur le NAB 2019 – Quelles nouveautés en postproduction ?

Blackmagic poursuit son développement et accroit sa visibilité. © DR

La tendance générale est de faire plus avec moins. Un grand écart autorisé par l’automatisation des process. Une automatisation rendue possible par la virtualisation de nombreuses étapes en utilisant l’intelligence artificielle et le cloud. Cette optimisation touche de plus en plus la postproduction. Visite des stands Avid, Filmlight, Sonnet, Blackmagic Design et Marquise Technologies.

 

AVID

Avid a pris l’habitude depuis quelques années d’organiser Avid Conference Connect, le premier week-end du NAB. Cette année a été marquée par de nombreuses nouveautés. Tout d’abord un changement de lieu, passant (pour ceux qui connaissent les mega hotels de Las Vegas) du Wynn au Aria. Un hôtel sans doute moins ostentatoire, plus moderne. L’association derrière cet événement (ACA – Avid Customer Association) compte 38 000 membres dans le monde. Moment symbolique fort important, la présence dans l’assistance de Bill Warner, l’inventeur de Media Composer – un signe !

La conférence a commencé par un tour d’horizon des derniers succès, que ce soit France Télévisions et le déploiement des technologies de studio virtuel et de réalité augmentée, ou bien HBO qui utilise la virtualisation pour les stations de montage. Future is now ! le nouveau slogan apparaît sur l’écran principal, avec enfin des annonces qui étaient clairement attendues depuis plus de trois ans. « L’innovation n’aide personne si elle n’est pas disponible immédiatement » ou bien « Rethink Reinvent et Repeat ». Ensuite, petit rappel sur la ligne des produits Avid First (les logiciels gratuits). À date, environ 1,4 million de téléchargements ont été effectués et il y a 10 000 nouveaux abonnés par trimestre.

Dans les nouveautés, Avid Nexis Cloudspaces qui intègre de manière transparente l’utilisation du cloud dans une configuration matérielle et qui repose sur un partenariat renforcé avec Microsoft Azure. L’interface est simple avec une administration dépouillée qui permet notamment de donner des autorisations à telle ou telle personne. En allouant automatiquement des ressources dans le cloud en fonction de vos besoins, Nexis | Cloudspaces évolue avec votre activité. Tous les systèmes Avid Nexis nouveaux et existants incluront, pour une durée limitée, deux téraoctets d’espace de stockage dans le cloud, afin que les utilisateurs puissent tester le service gratuitement.

Editorial Management 2019 est une plate-forme de gestion des contenus pour la postproduction, accessible par différents intervenants, où qu’ils se trouvent. Les utilisateurs peuvent ainsi rechercher, modifier et partager rapidement des contenus depuis n’importe où, ce qui facilite la gestion de médias, la préparation des projets et la synchronisation des différentes fonctions. Disponible en mai 2019, Editorial Management 2019 permettra aux utilisateurs de préparer et de monter des séquences simples, de regrouper des prises afin de préparer des scènes multicaméras destinées aux monteurs utilisant Media Composer, et d’utiliser Avid | AI avec sa nouvelle option de recherche phonétique. Il s’intègre de plus avec les serveurs vidéo Avid | FastServe pour un montage à la volée pendant le tournage à 23,98 IPS avec plusieurs caméras : les productions en direct filmées sur un plateau peuvent ainsi être traitées plus rapidement.

Six des plus grosses sociétés de média dans le monde utilisent Avid on Demand. Ce sont 600 000 personnes qui se connectent par jour, et sur la carte mondiale des utilisateurs il y en avait un à Wallis et Futuna. Mais l’annonce la plus importante est la version Media Composer 2019 qui enfin revoit en profondeur l’interface graphique qui est moderne et totalement personnalisable (banc d’essai publié dans Mediakwest #32).

Signalons ici que pour les systèmes d’édition non linéaires Avid Media Composer, l’approche innovante de HBO inclut des licences à la demande illimitées. Elle permet au service technique d’adapter à tout moment les ressources de montage pour répondre à la demande des utilisateurs finaux en marketing, sport, documentaire et divertissement afin de créer leurs contenus promotionnels et de commercialiser leurs programmes avec une agilité et une rapidité accrue. Le déploiement virtualisé de Media Composer de HBO s’intègre à ses ressources de stockage Avid Nexis.

« Notre service technique prend en charge des centaines de clients qui créent des promotions et des habillages pour assurer le succès des offres de HBO. Nous avons donc mis en place des ressources à la demande qui correspondent aux besoins variables », déclare Stefan Petrat, vice-président senior de la technologie des médias chez HBO. « Si nécessaire, nous pouvons modifier le nombre de sièges Media Composer et faire en sorte que des centaines d’éditeurs travaillent sur des éléments promotionnels. Lorsque cette opération est terminée, nous pouvons immédiatement réduire nos systèmes excédentaires. »

 

FILMLIGHT

Daylight et la dernière version (5.2) de Baselight prennent désormais en charge de manière native le format ProRes Raw. Le ProRes Raw, un format d’image de haute qualité, disponible par l’intermédiaire des enregistreurs Atomos avec des caméras de nombreux fabricants dont Canon, Panasonic et Nikon ; le DJI Inspire 2, équipé d’une caméra Zenmuse X7, produit également des images ProRes Raw de manière native.

Annoncé lors de l’édition précédente du salon NAB, ce format est basé sur la même technologie que les codecs ProRes existants, offrant à la fois des performances en termes de bande passante et des images superbes, le tout avec la facilité d’utilisation qui a valu à ProRes son succès pour la vidéo traditionnelle. Puisque ProRes Raw contient les images envoyées directement par le capteur (avant dématriçage), il permet d’utiliser les fonctions HDR de Baselight. Ainsi, l’utilisateur peut effectuer des réglages plus fins sur la couleur et le contraste, tout en gardant une taille de fichier raisonnable. Les solutions de FilmLight prennent en charge le format ProRes depuis des années, et l’ajout de ProRes Raw allait donc de soi.

Avec la prise en charge de ProRes Raw dans la version 5.2 de Baselight, ce nouveau format peut être utilisé à toutes les étapes du pipeline. Les clients importent les contenus à l’aide du système Daylight de gestion des rushes, qui produit des copies de visionnage à partir des fichiers sources ProRes Raw ; ils peuvent ensuite continuer le travail dans ce format sur leur système d’étalonnage Baselight.

 

SONNET

Conçu par Sonnet, l’eGFX Breakaway Box 650 est un boîtier d’expansion Thunderbolt 3 vers PCI Express (PCIe) conçu et certifié pour être utilisé avec la carte AMD Radeon Pro WX 9100 et avec d’autres cartes graphiques de pointe : l’outil idéal pour les professionnels de la vidéo qui utilisent des applications graphiques gourmandes en bande passante sur un ordinateur portable compatible eGFX ou sur un autre ordinateur de taille réduite. Le boîtier est connecté à l’ordinateur à l’aide d’un unique câble Thunderbolt 3 et permet d’atteindre une vitesse de transfert de 2 750 Mo/s.

Grâce aux technologies conjuguées de Sonnet, d’Adobe et d’AMD, les créateurs de contenus peuvent réduire de moitié, voire plus, les délais d’exportation de leurs contenus ProRes 422 4K et H.264. Cela peut représenter un atout de taille pour les créateurs qui exportent leurs vidéos sur YouTube. Avec une configuration traditionnelle, il faut environ 70 secondes pour exporter un clip de 15 secondes. Mais grâce au système de Sonnet et à la carte AMD Radeon Pro WX 9100, le délai d’exportation en ProRes 422 4K ou en H.264 n’est que de 29 secondes en moyenne.

 

BLACKMAGIC DESIGN

On en a déjà beaucoup parlé, DaVinci Resolve est la seule solution qui réunit dans un seul logiciel des outils professionnels de montage, d’étalonnage, de finishing audio et d’effets visuels en 8K ! Avec cette version 16, Blackmagic Design introduit des centaines de fonctionnalités demandées par les utilisateurs, voire plus ! La solution propose aujourd’hui des outils multi-utilisateurs pour que monteurs, assistants, étalonneurs, animateurs VFX et ingénieurs son puissent collaborer ensemble sur le même projet ; la nouvelle approche de travail de la page Cut et des fonctions avancées liées à un moteur d’intelligence artificielle en mode deep learning repoussent considérablement ses limites…

Alternative à l’espace de Montage standard, Cut propose une interface simplifiée et de nouveaux outils pour travailler encore plus rapidement… Cette page révolutionne la façon de travailler avec des concepts à la fois innovants et familiers, tels que le mode Source Tape qui propose d’afficher tous les clips du chutier comme sur une seule bande pellicule. Il est alors facile de faire défiler les plans, de trouver les parties dont on a besoin. Cette nouvelle page Cut propose aussi une double timeline : la timeline supérieure montre l’intégralité du programme, tandis que la timeline inférieure affiche la zone de travail.

Le nouveau DaVinci Neural Engine – qui utilise les dernières innovations GPU – s’appuie sur des technologies d’apprentissage automatique et une intelligence artificielle pour opérer de puissantes fonctionnalités, telle la modification de vitesse Speed Warp qui repose sur une estimation de mouvement, la fonction Super Scale pour l’augmentation d’échelle, l’harmonisation des couleurs automatique. On pourra utiliser la reconnaissance faciale pour organiser automatiquement les clips dans les chutiers selon le visage des sujets filmés... Le DaVinci Neural Engine fournira des outils simples permettant de résoudre les problèmes complexes, répétitifs et chronophages rencontrés dans l’industrie !

DaVinci Resolve 16 a aussi répondu concrètement à ses utilisateurs avec la nouvelle fonction Adjustment Clips qui permet d’appliquer des effets et des étalonnages aux clips de toutes les pistes du dessous ou avec la fonction Quick Export qui permet de charger les projets sur YouTube et Vimeo, n’importe où depuis l’application. Les performances de Fusion ont été aussi considérablement améliorées et Fairlight prend en charge l’audio 3D immersif. Bref, DaVinci Resolve 16 est une sortie importante qui comprend des centaines de fonctionnalités demandées par les utilisateurs !

Dans la foulée, Blackmagic a lancé le DaVinci Resolve Editor Keyboard, un nouveau clavier professionnel pour DaVinci Resolve. Doté d’une molette intégrée, son ergonomie améliore considérablement la rapidité du montage, car il est possible d’utiliser ses deux mains pour monter. Les monteurs peuvent se déplacer dans un clip, marquer les points de sortie et d’entrée, effectuer un montage, puis se re-déplacer, et ainsi de suite. Intégrant de multiples paliers à roulement, la molette, très fluide, peut être opérée en mode jog pour scroller dans la timeline de manière naturelle. Le DaVinci Resolve Editor Keyboard sera disponible en août.

 

MARQUISE TECHNOLOGIES

Marquise Technologies enrichit de nouveau ses produits MIST et ICE pour le mastering et la vérification de contenus en 4K HDR, en ajoutant la prise en charge des formats audio immersifs pour le broadcast et la diffusion OTT, entre autres nouveautés.

Lors du NAB, Marquise Technologies a présenté le premier prototype d’intégration Dolby Atmos dans une solution de mastering et de contrôle qualité. La prise en charge de Dolby Atmos inclut les fichiers DAMF, IAB MXF et ADM BWF, et permet l’exportation en IMF et dans d’autres formats. Les utilisateurs de MIST et d’ICE peuvent également visualiser et vérifier les objets audio immersifs à l’aide du nouveau mode de visualisation audio, qui permet de voir en temps réel la position des objets dans l’espace.

MIST, ICE et la solution de transcodage TORNADO possèdent à présent un moteur de rendu de sous-titres entièrement repensé. Celui-ci permet un rendu de haute qualité pour les sous-titres, que ce soit pour l’affichage en temps réel ou l’incrustation dans l’image ; il est également compatible avec la norme IMSC1.1 pour les langues d’Asie et du Moyen-Orient.

Les démonstrations de MIST, d’ICE et de TORNADO présentées sur le salon ont mis l’accent sur le mastering, la gestion des versions, et le contrôle qualité des contenus premium – notamment Dolby Vision et Dolby Atmos –, ainsi que sur la réutilisation de contenus existants, améliorés à l’aide d’outils de conversion HDR et de mise en valeur des scènes à fort contraste.

Afin d’améliorer l’expérience utilisateur dans le cadre de ces workflows, des améliorations ont été apportées à l’interface de MIST et d’ICE, permettant par exemple d’afficher les métadonnées HDR et des objets audio immersifs. Un deuxième écran – sur lequel sont affichés les graphiques d’analyse audio et vidéo – et une double sortie en 4K complètent cette boite à outils de mastering et de contrôle qualité.

Partenaire du programme de workflow COMMA, Marquise Technologies présentera également l’intégration de MIST et d’ICE dans la solution de gestion des contenus Pakanu, par CineCert, ainsi que la solution de contrôle qualité automatisé Pulsar, par Venera Technologies, qui révolutionne la création, le contrôle qualité, et la gestion des contenus.

 

Extrait de notre compte rendu du NAB 2019 paru pour la première fois dans Mediakwest #32, p.42/82. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 26 août 2019 à 17:00

Avid MediaCentral Editorial Management : quoi de neuf ?

Avid MediaCentral Editorial Management : quoi de neuf ? © DR

Media Central Editorial management est un produit sorti il y a un an, qui participe, à l’instar de la modernisation de l’interface de MC 2019, à la démocratisation des outils Avid. Aujourd’hui, il suffit de connecter des stations Media Composer à un stockage partagé pour disposer de fonctionnalités de travail en projets partagés ; c’est ce qui fait la force d’Avid depuis 30 ans. Cela permet de partager les médias et les projets entre les stations, mais il n’y a pas réellement de notions de gestion des médias.

 

Les sociétés de postproduction utilisent souvent ces options de stockage partagé, mais elles hésitent à investir du temps et de l’argent dans une solution de Media Asset Management (MAM) et le stockage reste délicat à administrer. C’est dans le but d’ajouter une offre de gestion supplémentaire qui ne soit ni trop chère ni trop complexe qu’Avid a créé Media Central Editorial Management.

Pour les solutions haut de gamme installées, par exemple, dans certaines chaînes de télévision ou les très grosses sociétés de postproduction, Interplay a évolué vers Media Central Production. Mais pour ce que les Américains appellent « les boutiques », les structures de postproduction disposant de cinq à dix machines, Media Central Editorial Management propose d’utiliser toute la gestion des médias traditionnelle de Media Composer bien connue des utilisateurs.

Avec l’ajout d’un serveur dédié dans leur système, ces structures pourront directement consulter le contenu de leur stockage partagé. Le serveur sera chargé d’indexer le contenu du stockage partagé, que ce soit des médias Avid ou non. Les droits utilisateurs sont basés sur ceux existant au sein du Nexis et ne nécessitent donc pas de nouvelles configurations.

Avid a également présenté à IBC une nouveauté pour Media Central Editorial Management : la possibilité d’effectuer des recherches basées sur l’indexation des médias audio. Cette fonctionnalité est issue de l’option phrase find. Cette fonction permettra de rechercher à partir des éléments à partir de mots.

Media Central Editorial offre en outre la possibilité de créer via un navigateur web, des chutiers, de rajouter, de marquer et même de réaliser son prémontage (ours) et de créer des group clips. Avid commercialise le logiciel Web Media Central Editorial Management pour deux, cinq, dix ou vingt-cinq utilisateurs ; celui-ci devant être installé sur un serveur adapté.

 

Extrait de l’article paru pour la première fois dans Mediakwest #32, p.100/102. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 22 août 2019 à 17:00

Le fonctionnement de la technologie de scan 3D pour les besoins du cinéma

Jérôme Battistelli nous présente le fonctionnement du scan 3D. © DR

Jérôme Battistelli, dont nous détaillons en fin d’entretien le parcours, a rejoint l’équipe de Be4Post en octobre 2017. Devenu superviseur du département de scan 3D, il nous livre ici ses méthodes.

 

Peux-tu nous décrire le fonctionnement du Lidar ?

L’appareil utilisé par Be4Post est le Faro Focus S150. Il capte des points jusqu’à une distance de 150 mètres ; il fonctionne par impulsions laser. Le laser de classe 1 (invisible et inoffensif pour l’œil humain) passe par le miroir avec un mouvement de rotation très rapide. Ce modèle, captant jusqu’à 976 000 points par seconde, les capture avant de les enregistrer. Grâce à une rotation sur 360 degrés, l’appareil permet de reconstituer l’environnement sous forme de nuages de points. À la fin, on obtient un fichier propriétaire décrivant un nuage de points qui servira de base de travail pour créer un objet 3D et reconstituer un environnement.

Les fichiers obtenus restent assez légers (car ce sont des définitions de points qui sont enregistrées), l’enregistrement se fait sur carte SD. Sur des projets « habituels » les fichiers manipulés pèsent environ 2 Go (selon la définition choisie) ; les fichiers pèsent 300 à 400 Mo par point de mesure. La station de scan capte ce qu’elle a en vision directe ; pour compléter les manques il est nécessaire de prévoir un plan de travail et de déplacer le scanner sur plusieurs points de mesure.

 

 

Est-ce toi qui prépares le plan de travail de manière intuitive ?

Oui, il n’y a pas d’outils dédiés pour réaliser le plan de travail, j’améliore mon savoir-faire grâce à l’expérience engrangée au cours des précédentes prestations, je cerne ainsi mieux les difficultés et les bonnes pratiques.

 

 

Une icône wi-fi est sérigraphiée sur l’appareil, est-ce pour le piloter ou pour récupérer les infos ?

Il y a plusieurs manières de faire. On peut le piloter via son smartphone, le lancer, l’arrêter, tout en évitant, grâce à l’application, d’être dans le champ ; et c’est surtout très pratique quand on le place sur des pieds plus hauts. On peut également relier le scanner à un ordinateur portable via wi-fi et ainsi récupérer les données pendant que l’appareil est en fonctionnement pour commencer à traiter les données brutes, et à associer les différentes positions au fur et à mesure.

 

 

Quels sont les réglages disponibles ?

On peut régler la résolution et un paramètre de qualité très utile en cas de présence de matières réfléchissantes (les gaines par exemple). À une distance de dix mètres de la cible, en résolution 1/2 (choix entre 1/2, 1/5, 1/10…), l’appareil mesure un point tous les 3,1 mm, et à vingt mètres un point tous les 6 mm ; ensuite on a une taille de scan qui est de 20 000 x 8 000 points et cela nous donne la quantité de points par position. Le paramètre de qualité autorise plusieurs passages du scanner, qui a tendance à éclater à la surface de la matière, la multiplication des passages permettant le calcul d’une moyenne plus précise pour définir la position du point.

L’appareil fonctionne en deux étapes distinctes : au premier passage le scanner capte le nuage de points et donc la géométrie de la scène, et ensuite l’appareil est équipé d’un capteur photographique qui entre en action pour obtenir la couleur et la projection des textures. Le scanner fournit un fichier en niveau de gris, puis se sert des photos qu’il projette sur le nuage de points pour le coloriser. Ensuite, lorsque l’on reconstruit l’objet 3D, on projette à nouveau les photos dessus. Un mode HDR permet également le réglage de plusieurs expositions (intérieur/extérieur) ; plusieurs petites photos sont stitchées pour créer ce qu’on appelle une HDRI à 360 °. C’est cette photo 360 ° qui est collée sur le nuage de points. Vu le nombre de photos associées, le capteur n’a pas besoin d’être hyper précis ; ici les photos servent à coloriser le scan.

À la base, le Lidar n’est pas forcément prévu pour l’audiovisuel (il est initialement utilisé pour scanner des usines) ; c’est pour cela que lorsqu’on souhaite une meilleure qualité de capteurs, on fait de la photogrammétrie, qui apporte beaucoup plus de qualité, car réalisée à partir d’appareils photos reflex. On aura peut-être une évolution des capteurs dans ce genre d’appareils. En fait dans nos travaux on associe les résultats de deux outils : les nuages de points colorisés obtenus par les scanners avec des photos de boîtiers.

Dans les parties les plus complexes, je réalise un maximum de photos perpendiculairement aux objets pour aider le logiciel à associer les scans et les photos et replacer les photos dans l’espace. Je vais venir quadriller chaque plan de la pièce et les objets complexes à part. Ensuite avec les données du Lidar et les photos, le logiciel recrée un espace 3D avec les nuages de points Lidar augmenté dans l’espace par les photos qu’il arrive à associer. Ensuite à partir des seules informations du Lidar je reconstruis ma pièce en 3D ; j’utilise alors les photos de mon appareil que je projette pour obtenir les textures.

 

 

Comment effectues-tu cette opération ?

Je le fais avec un logiciel de photogrammétrie ; certains intègrent dorénavant cette possibilité. Depuis quelques temps il est également possible d’intégrer les plans de vol des drones ; le logiciel récupère les informations de placement via les logs ou les métadonnées des photos.

 

 

LE PARCOURS DE JÉRÔME BATTISTELLI

« Ma formation a débuté à Arles grâce à l’école d’animation 3D et d’effets spéciaux, MoPA (ex. Supinfocom). Malgré ma passion pour la 3D, mon fort intérêt pour le tournage m’a amené à me diversifier, je voulais éviter de me restreindre à travailler toute la journée derrière un ordinateur. J’ai alors contacté des directeurs photo, des assistants caméra, et on m’a orienté vers le métier de DIT. J’ai eu l’occasion de faire des tournages en tant que data manager et assistant DIT ; c’est un milieu que l’on n’apprend pas à l’école, j’ai fait une formation aux Lapins Bleus Formation et un stage chez RVZ pour appréhender la caméra et le matériel lié au tournage.

" Après quelques tournages et un peu d’expérience, Matthieu et l’équipe de Be4Post m’ont présenté le projet de département de scan 3D et j’ai été séduit par cette possibilité de lier mes deux passions. Ce rapprochement va devenir de plus en plus évident, c’est d’autant plus vrai aux États-Unis grâce aux blockbusters, mais cela arrive également en Europe et en France. Les premiers mois au sein de Be4Post ont été consacrés à la R&D et au développement. Nos outils de travail l’exigent pour appréhender leur utilisation dans une configuration de tournage de cinéma ; il nous a fallu transformer une machine de géomètre en machine pour les studios VFX. »

 

 

Extrait de notre article paru pour la première fois dans Mediakwest #31, p.12/14. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 24 juillet 2019 à 17:00

Postproduction 8K : le mariage de la carte Kona 5 d’Aja et du Mistika Ultima…

Le mariage de la carte Kona 5 d’Aja et du Mistika Ultima… © DR

L’ajout de la carte d’E/S audio et vidéo 12G-SDI Kona 5 d’Aja Video System au Mistika Ultima de SGO simplifiera l’acquisition et le play-out en 8K…

 

Déjà utilisé pour de la diffusion 8K en direct en Asie, le nouveau Mistika Ultima offre un workflow de finition en Full UHD 8K à 60 IPS, y compris dans des formats non compressés. La solution inclut une carte Aja Kona 5 avec des entrées/sorties 12G-SDI, le logiciel Mistika Ultima, une station de travail HP Z8, une solution de stockage SGO à haute performance et des composants matériels standards périphériques.

« La production en 8K est un domaine complexe et exigeant : la carte Kona 5 répond à cette exigence par sa robustesse et sa polyvalente. Ses quatre ports 12G-SDI ont en outre l’avantage de minimiser le câblage requis, » explique Geoff Mills, directeur général de SGO. « Impressionnés par le soutien apporté par l’équipe de développement d’Aja, nous prévoyons à terme d’intégrer les cartes Kona 5 dans toute notre gamme de systèmes de finition », complète-t-il.

La Kona 5 est une carte de pointe PCIe 3.0 à huit connecteurs permettant l’acquisition et la production de signaux avec des E/S en 12G-SDI et une sortie HDMI 2.0. Cette carte est compatible avec le SDK d’Aja sur MacOS, Windows et Linux, qui offre des fonctions telles que la 8K ou la 4K multicanal. La Kona 5 est également compatible avec les outils d’édition les plus courants (Adobe Premiere Pro, Apple Final Cut Pro X, Avid Media Composer) grâce aux pilotes et plugs-in mis au point par Aja pour MacOS et Windows. Les connexions 12G-SDI de la Kona 5 permettent l’enregistrement et la transmission simultanée des signaux…

  • 24 juillet 2019 à 17:00

Un si grand soleil : la fiction haut de gamme au rythme du flux

Étalonnage réalisé sur DaVinci Resolve de Blackmagic. © C. Canis

Pour « Un si grand soleil », l’un des événements de la grille de rentrée 2018 de France 2, Magic Hour a été chargée de la conception et de l’intégration de la plate-forme de postproduction. C’est à Vendargues, à quelques encablures de Montpellier, que se déroulent les tournages. À 750 km de là, aux Studios de Saint-Cloud – quai de Seine, se trouve la plate-forme de postproduction.

 

Gestion des rushes en miroir

« De cette “contrainte géographique” nous avons fait une particularité technique, et avons proposé à France Télévisions de procéder au déchargement des cartes caméras sur une station à Vendargues », précise François Lefebvre, architecte solution chez Magic Hour. Aux Studios de Saint-Cloud, son miroir alimenté via une liaison IBM Aspéra reçoit les rushes. Des opérateurs parisiens procèdent tout au long de la journée à leur ingest dans le système de postproduction architecturé autour d’un serveur Avid Nexis Entreprise de 240 To et d’une solution d’asset management Avid Interplay. Autour du couple Nexis-Interplay gravitent cinq stations de montage et de finishing Avid Media Composer, deux stations Nuke dédiées au VFX, deux stations d’étalonnage DaVinci Resolve. Deux stations de montage son et mix Pro Tools et surface de contrôle S6 viennent compléter le dispositif.

 

 

Robustesse et souplesse de l’infrastructure

Si France Télévisions a fait le choix de solutions Avid, fort de ses expériences sur la postproduction d’autres séries quotidiennes (« Plus belle la vie » sur France 3, « Demain nous appartient » sur TF1), Magic Hour a imaginé un workflow collaboratif autour d’Interplay, et proposé une offre d’intégration incluant l’ingénierie système.

« Un système puissant, fiable et adapté à nos méthodes de travail. Il nous permet de réaliser une fiction quotidienne hautement qualitative alliée au rythme des productions de flux. Un tel workflow contribue chaque jour, cinq fois par semaine, à la création d’un épisode de 22 minutes », précise Olivier Roelens, producteur exécutif.

« Pour garantir ces délais de fabrication, montage, finishing, mixage et étalonnage doivent s’inscrire dans les plus grandes conditions de fluidité et de robustesse. Les outils sont connus de tous, mais notre expertise d’intégration s’est avérée essentielle pour assurer et sécuriser les processes », ajoute François Lefebvre

 

 

Artistique & final cut

Au sommet de la pyramide créative, une station Media Composer et DaVinci Resolve est destinée aux recherches à l’usage de Christophe Canis, directeur artistique postproduction. Également monteur et étalonneur, il met les épisodes à longueur, valide le montage, l’étalonnage et le mixage quotidiennement. « Garant de la continuité éditoriale, visuelle et sonore, je prends en compte les demandes des réalisateurs, des producteurs et de la chaîne, et je m’assure de leur faisabilité en termes techniques et artistiques. Si besoin, je propose des solutions », précise-t-il.

Stade ultime, une station Media Composer est dédiée à l’insertion de l’habillage et des génériques, et aux PAD acheminés en délinéarisé vers le système PAD Def de la chaîne. Parallèlement, l’archivage est effectué sur support LTO associé à un serveur et librairie Quantum Scalar i3 (rushes, masters, éléments d’habillage et épisodes consolidés).

 

 

VFX : un mix 2D/3D pour les découvertes

« Un si grand soleil » est la première série quotidienne française à bénéficier de découvertes truquées. Dans les studios de Montpellier, c’est à la société les Tontons Truqueurs qu’a été confiée la mise en place du système « previz-on-set » de tracking caméra et d’incrustation HalideFx signé Lightcraft Technology.

« Le système permet à ce jour de produire des plans avec découvertes dès le tournage, que nous affinons et enrichissons en postproduction, faisant de « Un si grand soleil » la seule série quotidienne bénéficiant de deux workflows : de flux pour la rapidité des process, et de fiction lourde pour les VFX », souligne Jeanne Marchalot, directrice de la postproduction.

Sur cet aspect VFX, l’équipe de Christophe Canis veille à la pertinence et à la cohérence visuelle de la quinzaine de découvertes présente sur sept décors truqués de la série. « En amont de ce déploiement, ajoute le directeur artistique, nous avons fait les repérages et confié à la société Do The Film la création d’un scan en photogrammétrie d’un quartier de Montpellier pour le recréer en 3D. Nous pouvons ainsi jouer sur les lumières et les cieux, et ajouter des éléments en mouvement pour plus de réalisme. »

 

 

De la compétition à la livraison

« Pour la postproduction, notre cahier des charges était si ambitieux que nous souhaitions nous voir proposer les meilleures solutions, insiste Jean-Philippe Lançon, chef de projet France Télévisions sur l’implantation des moyens de postproduction et contributeur aux cahier des charges. L’appel d’offre initial fut donc organisé sous forme de “dialogue compétitif”, lequel vise à se concentrer sur une shortlist hautement qualifiée. »

En seulement six mois, la plate-forme de postproduction fut parée à traiter les premières images. « Toute l’ingénierie et la configuration se sont déroulées sur notre site de Meudon, avec un précâblage en atelier avant le transfert et le déploiement des équipements à Vendargues et aux Studios de Saint-Cloud. Dernières configurations obligent, France Télévisions a bénéficié d’un démarrage optimal, paré à recevoir les premiers ingests… », conclut François Lefebvre.

 

 

Article paru pour la première fois dans Mediakwest #31, p.68. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 24 juillet 2019 à 17:00

Avid Media Composer 2019, évoluer et rester soi-même !

Jean-Philippe Aguer aux commandes d’Avid Media Composer 2019. © DR

C’est une version majeure d’Avid Media Composer que l’historique et le plus célèbre éditeur de solutions de montage a conçue avec ce nouvel opus. Jean-Philippe Aguer nous a accompagnés dans la découverte de Media Composer 2019 (MC 2019) dans une version Beta quasiment aboutie. Nous avons également pu continuer nos tests à la rédaction pour explorer et prendre en main ces évolutions.

 

Après environ cinq ans de travail, le changement de présentation et d’interface du logiciel est profond. Les monteurs Avid savent à quel point leur éditeur de prédilection est habituellement très précautionneux avant d’entreprendre des modifications de son logiciel phare. Jean-Philippe Aguer : « C’est un vrai changement dans la manière de présenter le logiciel, dans le respect de la philosophie de Media Composer, afin de ne pas effrayer la base des utilisateurs. »

De nombreuses réflexions ont mené à MC 2019. Avid s’est interrogé sur l’opportunité de tout changer, ce qui aurait été un énorme scoop ! Cette refonte a en fait été menée en étroite collaboration avec des utilisateurs de toutes les générations. « On a présenté nos recherches à des auteurs hollywoodiens confirmés pour recueillir leurs réactions, qui nous ont dit : ça c’est bien, ça ce n’est pas possible ! »

De prochaines évolutions sont encore à venir à partir de cette nouvelle mouture d’Avid. Le premier grand chantier a consisté en la redéfinition d’une interface plus moderne et intuitive pour les nouveaux venus, sans effrayer les monteurs « historiques ». Elle se devait d’être efficace et moderne en supprimant des héritages du passé tels que la fenêtre projet.

 

Une interface profondément modernisée

Avid cible un public plus large de millenniums, en assumant un grand écart entre les nouveaux venus et les utilisateurs historiques plus que quarantenaires, soit deux générations à concilier.

Le premier changement radical qui ne manquera pas de surprendre les utilisateurs, c’est la nouvelle conception graphique autour d’une unique fenêtre principale dans laquelle peuvent être accrochés différents outils répartis dans plusieurs fenêtres. De nouveaux espaces de travail sont directement accessibles via des boutons ancrés sur le côté de l’interface, qui peuvent être complétés par des espaces de travail personnalisés.

Montage, effets, correction colorimétrique, audio, ce sont les principales étapes du travail de montage et de postproduction qui sont accessibles via ces nouvelles icônes. La fenêtre projet ayant disparu, on accède directement aux chutiers via un navigateur de « bins » et le nouveau bin containers qui est une fenêtre présentant le contenu du chutier sélectionné. Les chutiers peuvent toujours être détachés, ce qui reste intéressant dans une utilisation double écran, en respectant les habitudes de certains monteurs. En représentation « vignettes », la nouvelle fonction de « Bin Map » permet de se situer dans un chutier comprenant de nombreux médias (cf. illustration). Les modes d’affichage classiques des chutiers sont toujours accessibles, mais les icônes ont étés déplacées en haut de la fenêtre afin d’en améliorer l’accessibilité.

Les fonctionnalités de l’ancienne fenêtre projet ont été réparties dans les différents menus et sont mieux définies. Le menu préférence donne accès aux réglages du format de projet (dont un nouveau choix de travail en MXF OP-atom ou MXF OP-1a). On accède également aux réglages propres à l’utilisateur avec la possibilité d’afficher des listes mieux définies.

Les changements en surface ne modifient pas l’âme de l’outil qui reste un Media Composer. Les réglages continuent à être gérés « au niveau du projet » plutôt qu’au niveau de la séquence : cela signifie qu’avec Media Composer, lorsque l’on souhaite travailler une séquence en HD on paramètre le projet en HD ; pour passer en UHD il suffit de modifier les réglages du projet. D’autres solutions de montage fonctionnent différemment, les réglages techniques étant faits sur la séquence. Bien entendu, Avid conserve la gestion des utilisateurs (users), chacun pouvant personnaliser sa station et définir son clavier. Les réglages de site (site settings) sont également toujours disponibles.

 

Le retour en force de l’haltérophile

C’était presque un emblème, l’haltérophile sérigraphié sur les claviers Avid avait disparu au grand dam des amoureux de la marque. Jean-Philippe Aguer nous livre son impression : « Pour moi cette icône est vraiment l’âme de Media Composer : chaque logiciel a sa marque de fabrique ; l’haltérophile en est une pour Avid. » 

Les chutiers (bin ou dossiers) sont dorénavant représentés par de nouvelles icônes représentant des tiroirs ouverts ou fermés. Un nouvel outil, l’inspecteur tool fait également son apparition. Il offre de manière interactive des précisions sur les éléments sélectionnés ; par exemple pour un clip vidéo : la vitesse, le format audio, la couleur, etc. C’est un outil qui permet de visualiser ou d’inspecter les métadonnées beaucoup plus simplement que ne le permettent les colonnes des chutiers. Une autre icône nous renseigne sur la présence des médias des clips sur le disque interne. Le titreur Avid Titler+ est sorti il y a deux ans ; il permet de taper du texte directement.

 

Smart tool et nouvelles icônes

Les smart tools ont étés déplacés et redessinés et l’audio ducking a fait son apparition parmi les icônes positionnées en haut de la timeline.

Jean-Philippe Aguer a apprécié des échanges lus sur le groupe Facebook Avid editor of Facebook concernant cette icône : « De nombreux anciens utilisateurs se sont interrogé sur la fonction de cette icône, certains ont fait des suppositions amusantes telles que : permet de laver son linge à 30 °. » Dans la commande palette (l’interface graphique permettant de personnaliser les fenêtres de Media Composer ou le clavier d’un utilisateur), on retrouve les outils habituels avec quelques icônes redessinées pour des raisons d’esthétisme. Parallèlement à la simplification de l’interface, de nombreuses librairies QuickTime 32 bits, présentes depuis 1996, ont été nettoyées pour améliorer la rapidité et la stabilité du logiciel.

 

Des media composer simplifiés pour l’entreprise

C’est une demande ancienne et récurrente de structures telles que les grands groupes médias et certaines chaînes de télévision que de pouvoir proposer à certains utilisateurs une version simplifiée de Media Composer. C’est désormais possible avec Media Composer Entreprise qui offre désormais la possibilité de customiser l’intégralité de l’interface.

Un administrateur sera en charge de cette customisation via un serveur centralisé ; il définira les accès des différents rôles : une unique timeline, un chutier, une seule résolution. Bien entendu, des stations complètes restent à la disposition des monteurs.

 

Les exports

Les options d’exports ont également fait l’objet d’une attention particulière pour inclure les nouveaux formats de sortie, notamment pour les OTT tels que Netflix avec des formats de fichiers standard comme l’IMF dans le respect de la cohérence colorimétrique.

 

Calculs déportés via des serveurs centralisés

À l’approche des futurs Jeux olympiques, la NHK souhaitait prévoir les énormes charges de calcul imposées par leur choix de travailler en 16K pour cet évènement. Avid a donc implémenté à leur demande un processus de calcul déporté via des serveurs centralisés : chaque station de travail peut alors envoyer ses calculs sur le serveur qui se chargera de leur répartition vers les serveurs dédiés. Aujourd’hui, c’est une solution accessible pour des grosses productions et des chaînes de télévision, mais pas pour un media composer tout seul.

 

Pipeline HDR 32 bits et certification ACES

Une évolution invisible mais essentielle pour la qualité d’image, Avid a monopolisé de nombreux ingénieurs pour une réécriture en profondeur de l’infrastructure du logiciel afin d’effectuer la totalité des calculs internes en 32 bits virgule flottante. Le but n’était pas nécessairement que MC s’impose en tant qu’outil d’étalonnage, mais qu’un flux entier de production soit supporté en assurant un respect total de l’image. C’est le premier logiciel de montage certifié ACES au niveau du workflow complet de correction colorimétrique, de l’acquisition à l’export. Pour la correction colorimétrique on peut maintenant dessiner des formes (les fameuses patates) et étalonner à l’intérieur ou à l’extérieur de celles-ci.

 

Support du MXF OP-1a

Actuellement, les médias écrits en interne par Media Composer dans ses dossiers de stockage le sont sous un encapsulage MXF OP-atom. Le support du MXF OP-1a a été ajouté pour accélérer les processus d’échanges entre les serveurs vidéo d’acquisition et de diffusion ainsi que les solutions d’archivage. « On souhaite réconcilier Media Composer dans une bulle d’échange plus large. »

Aujourd’hui, avec les systèmes tels que les solutions de Media Asset Management (MAM ou gestion des médias) ou bien encore les solutions d’archivage profondes, de nombreuses conversions sont nécessaires. La gestion native des médias en MXF OP1A dans Media Composer va sensiblement accélérer et simplifier les échanges.

 

Tarifs

Les tarifs sont restés les mêmes, avec, au moment où nous écrivons ces lignes, des offres en location mensuelle débutant à 19 € pour un engagement d’un an et de 189 € sur un abonnement annuel. La location de Media Composer sur un mois sans engagement est proposée à 24 € et des offres avantageuses sont disponibles pour des engagements de deux ou trois ans.

 

Conclusion

Comme nous l’avons évoqué tout au long de l’article, la modernisation d’un outil tel que Media Composer représente un pas beaucoup plus important pour un éditeur historique comme Avid. La stabilité de l’outil et sa longévité (qui se compte en décennies) sont exemplaires. Le travail sur l’interface est remarquable et des modifications en profondeur, telles que le travail en 32 bits virgule flottante et l’intégration du MXF-OP1a en natif, sont également des plus indéniables. Il reste à vérifier si ces modifications attireront les nouveaux publics et pour les plus geeks d’entre nous à surveiller les évolutions en profondeur qui suivront les modifications de l’interface dans les futures versions : peut-être un véritable nouveau départ ? 

 

ET APRÈS ? SUITE DES ÉVOLUTIONS PRÉVUES POUR MEDIA COMPOSER

« Nous avions déjà travaillé sur la dernière version de Media Composer, rappelle Jean-Philippe Auguer, l’outil multicaméra et intégrés des masques dans Symphony, l’option d’étalonnage avancé. Dans les projets à venir, il est prévu de repenser le mode d’effets pour avoir une meilleure gestion des couches d’effets et des prévisualisations qui sont amenées à changer régulièrement dans l’industrie hollywoodienne.

« Avec MC 2019, on assiste à la première grande étape qui était l’interface, le pipeline de correction colorimétrique, les exports (notamment IMF), les calculs déportés et le ciblage d’un nouveau public pouvant être dérouté par un logiciel comme Média Composer. L’outil reste cependant un Media Composer.

« Pour les journalistes, Avid propose les solutions Media Central Cloud UX déjà en place dans certaines chaînes de télévision qui permettent des fonctionnalités de montage basiques et simplifiées via un navigateur web. La version Media Central UX permet au journaliste de débuter le montage, qui sera finalisé par un monteur qui ajoutera, par exemple, des effets sur un Media Composer.

 

Extrait de l’article paru pour la première fois dans Mediakwest #32, p.100/102. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 10 juillet 2019 à 17:00

TitraFilm : dix nouvelles salles pour la post production TV

Le studio A spécialisé dans le mixage cinéma VF. © Benoit Stefani

Suite à son redéploiement sur Saint-Ouen, TitraFilm complète ses moyens techniques avec la création de dix nouvelles salles de travail dédiées à la postproduction TV. Miguel Adélise, directeur technique adjoint pour l’ensemble des moyens audio de TitraFilm, et également responsable technique des Studios de Saint-Ouen, nous fait visiter ces nouvelles installations architecturées autour des technologies d’Audio sur IP.

 

À l’occasion de l’intégration de TVS sur le site de Saint-Ouen, TitraFilm, qui regroupe depuis quelques temps déjà le labo TVS et le spécialiste du doublage film Les Studios de Saint-Ouen (lire plus loin), se dote de dix nouveaux studios qui viennent étoffer son offre. Mise en service en octobre dernier après un ensemble de travaux répartis sur plus de deux ans, cette nouvelle plate-forme technique créée ex nihilo comprend quatre salles de montage, deux cabines Speak, deux studios d’enregistrement et deux studios de mixage.

Partant d’une dalle nue sans aucun câblage, Miguel Adélise s’est appuyé logiquement sur les technologies d’audio sur IP : « Après une première expérience moyennement concluante avec Ravenna, on a finalement fait le choix du Dante, explique t-il. Nous sommes pleinement satisfaits car l’installation est stable, et la récente évolution du Dante vers la vidéo se montre prometteuse. »

 

 

Stockage centralisé et audio sur IP

TitraFilm ne fait pas exception à la tendance actuelle qui pousse vers le stockage centralisé. Ainsi, bien que l’ensemble des installations soit réparti sur deux bâtiments, l’organisation, grâce au déploiement de la fibre sur l’ensemble du site, repose sur un serveur centralisé NAS Dell EMC Isilon qui distribue les sources suivant les besoins. « Une session Pro Tools peut ainsi commencer dans un studio et se poursuivre dans un autre car nous avons fait en sorte de respecter une uniformité d’équipement et de câblage », précise Miguel Adélise. Motorisés par des Pro Tools HD1, les studios son communiquent sur le réseau en Dante grâce à leurs interfaces audio FocusRite RedNet HD32R, tandis que, suivant les salles, on trouve des surfaces de contrôle Avid D Command, C24 ou S6.

Au-delà de la légèreté du câblage et de la suppression des problèmes de buzz et autres parasites qui traditionnellement constituent un vrai casse-tête sur des installations de cette ampleur, notre interlocuteur fait le point sur les changements apportés au quotidien par les technologies IP sur un complexe technique multisalle comme celui de TitraFilm.

« Avant le câblage IP, à chaque changement de console, il fallait prévoir et modifier le câblage pour l’adapter à chaque machine. Aujourd’hui ce n’est plus le cas, le câblage reste identique même si les machines changent. Comme nous avons effectué l’isolation et le traitement acoustique de l’ensemble des salles dès le départ, nous pouvons même envisager de modifier l’activité d’une salle sans changer son câblage. Par exemple, rien ne nous empêche de transformer un studio son pour en faire une salle de cinéma ou de transformer une salle de DCP en un studio son, ou encore l’utiliser ponctuellement pour vérifier un mixage », souligne Miguel Adélise.

Pour le dépannage quotidien et la maintenance, l’audio sur IP offre également plus de souplesse et de nouvelles possibilités grâce à la disponibilité de nouveaux outils. Ainsi, tous les assistants son de la maison sont équipés d’une petite interface AM2 appartenant à la gamme RedNet de FocusRite. Elle est alimentable en PoE et dotée simplement d’une sortie ligne et d’une sortie casque stéréo.

« Avec un casque ou une paire d’enceintes amplifiées, les assistants peuvent récupérer et écouter toute les sources de tous les Pro Tools partout où ils se trouvent. Il suffit juste d’avoir une liaison en RJ-45 jusqu’à un switch, la commutation des écrans claviers souris se faisant via KVM. Avec cette configuration, je peux facilement assister quelqu’un, entendre ce qui se passe sur son système et le dépanner. Plus généralement, comme on n’est plus limité par les longueurs de câbles, cela permet de distribuer de l’audio partout dans la maison et d’écouter au casque ou sur des enceintes. Dans le même esprit, toujours chez FocusRite, il y a aussi la petite interface X2P qui, avec ses deux préamplis micro, permet d’enregistrer un speak de manière autonome directement dans la cabine si tous les studios sont pris… », explique Miguel Adélise.

 

 

Gestion du monitoring centralisée

Pour les enceintes, les Genelec 8240 et 8330 bien connus des mixeurs ont été installées dans les studios son, tandis que dans les salles de montage sont proposées des Dynaudio Air12, ou d’autres marques disponibles sur demande.

« À six mois près, nous aurions pu nous équiper avec des enceintes RJ 45, ce qui aurait encore simplifié l’installation en supprimant les boîtiers de conversion dans les dix salles », regrette Miguel Adélise toujours à l’écoute des dernières tendances, comme par exemple la centralisation de la gestion du monitoring.

En effet, toutes ces fonctionnalités quotidiennement utilisées, comme le fait de passer d’une petite à une grande écoute ou d’un monitoring stéréo à un monitoring multicanal, ou encore d’actionner le talk-back pour communiquer avec le comédien voix en cabine, étaient encore récemment assurées par des consoles. Avec leur disparition progressive, sont apparus sur le marché des processeurs dédiés à ces tâches, apportant parfois le processing et l’optimisation des enceintes, comme c’est le cas chez Trinnov par exemple.

Avec la structure de carte de traitement modulaire d’un produit comme le DAD AX32, une nouvelle étape semble aujourd’hui en passe d’être franchie puisque deux de ces machines suffisent à assurer la gestion centralisée de l’ensemble des nouvelles salles.

« Les DAD récupèrent les entrées/sorties nécessaires au monitoring des salles depuis les stations audio ou vidéo via Dante, soit environ une trentaine de canaux par studio. En fonction des salles, la conversion Dante pour ce monitoring est effectuée soit via le dispositif KVM, soit via le logiciel Audinate Virtual Sound Card. La latence induite par ce procédé est ici acceptable, sachant que la latence d’affichage des moniteurs est de l’ordre de 10 ms et qu’elle reste toujours bien en dessous du quart d’image. La partie processing du monitoring est prise en charge par le système Genelec dans les studios son, et par le DAD AX32 dans les autres salles, notamment grâce à la capacité de traitement des cartes filles SPQ dont les DAD sont équipés », précise Miguel Adélise.

Une fois acheminées et traitées dans le DAD, les sorties sont distribuées vers le Control Room et le monitoring casque de chaque régie suivant les besoins, sachant que, dans chaque salle, un boîtier de télécommande DAD Mom permet d’appeler les sources nécessaires en fonction des configurations demandées (grande, moyenne ou petite écoute, stéréo, 5.1, tall-back, etc.).

Miguel Adélise nous retrace la genèse de cette solution plutôt avant-gardiste : « Acquérir les dix systèmes de gestion de monitoring 5.1 dont nous avions besoin représentait un investissement important. J’ai donc essayé, sans succès, de trouver un système de monitoring 5.1 compatible Dante avant de me tourner vers le DAD AX32 que l’on peut considérer comme une matrice 1 500 x 1 500 capable de router et de véhiculer 512 canaux audio avec SRC sur un simple câble Gigabit Ethernet. Il suffit ensuite d’ajouter les cartes nécessaires pour le processing audio et le Dante. J’ai réparti ensuite le traitement sur deux machines simplement pour avoir une solution de rechange en cas de panne. L’une des forces du DAD est de pouvoir assurer les commutations à toutes les fréquences de façon indépendante grâce à ses conversions SRC intégrées et je n’ai besoin d’acheminer qu’une seule référence PTP distribuée via IP, ce qui simplifie également la distribution d’horloge. »

 

 

Administration, sécurisation

Évidemment, le passage au tout IP ne va sans nécessiter une adaptation aux technologies réseau, créant au passage de nouvelles tâches et soulevant de nouveaux problèmes liés notamment à l’administration et à la sécurisation, un point central pour une société comme TitraFilm dont les clients figurent parmi les plus exigeants en la matière.

Miguel Adélise précise son niveau d’intervention dans la gestion quotidienne du réseau : « Je gère les machines audio dans la plage d’adresses IP qui m’est réservée. À partir du moment où le service informatique me réserve une zone IP pour l’audio, je peux par exemple y déployer un switch. Pour l’exploitation, il faut juste ensuite savoir ouvrir et fermer les ports via des lignes de commande. Par contre, tout ce qui concerne le maillage du réseau, les liens entre switch et la gestion des zones reste l’affaire du service IT. De manière générale, il faut intégrer les bons réflexes en matière de sécurité informatique, afin de savoir qui fait quoi sur le réseau, et d’être capable d’établir le contrôle et la traçabilité des accès exigés par nos clients. Le logiciel Dante Domain Manager me permet de déterminer les zones d’utilisation et les autorisations d’accès en fonction des profils utilisateurs (intervenant extérieur, permanent, etc.), et des projets sur lesquels ils travaillent, sachant que chaque studio est un sous-domaine. Ce besoin de contrôle va encore s’accentuer lorsque la vidéo sera transportable via Dante. »

 

 

De la veille technologique et des idées

Guidées par une veille technologique constante, les idées de chantiers à venir figurant sur la feuille de route ne manquent décidément pas ! Il y aura prochainement le changement de certaines consoles et ordinateurs hôtes qui arrivent en fin de vie et ce sera sans doute l’occasion de réduire l’espace nodal et la consommation électrique des stations audio basées sur des Mac « Cheese-Gater » format tour, sans oublier les nouvelles possibilités qu’offriront bientôt le transport des données audio et vidéo synchrones en Dante sur Ethernet 1 Gbit. En effet, dès que les fabricants auront intégré la nouvelle carte Dante AV Module annoncée par Audinate pour mi-2019, l’ensemble du dispositif permettant le transport et la lecture de l’image vidéo dans les studios devrait s’en trouver allégé. Bref, encore de belles évolutions à venir…

 

 

HISTORIQUE TITRAFILM : DU SOUS-TITRAGE À LA LOCALISATION MONDIALISÉE

Même si, quand on évoque TitraFilm, vient naturellement à l’esprit le sous-titrage qui est à l’origine de la création de la société en 1933, l’activité d’aujourd’hui n’a plus grand-chose à voir avec ce qu’elle a été durant les années d’or de la pellicule.

Parmi les changements importants, on peut citer tout d’abord, en 1991, la création du laboratoire TVS pour permettre de livrer des PAD aux chaînes de télévision, notamment Canal Plus, et également effectuer des Dupli K7 vidéo. Ce labo s’orientera progressivement de plus en plus vers le doublage TV. Parallèlement, avec la disparition de la pellicule et la montée en puissance du fichier, l’activité sous-titrage fond, mais la société fait le choix de rebondir en se repositionnant sur de nouvelles activités prenant en compte ce nouvel environnement technologique.

Au final, après l’acquisition des Studios de Saint-Ouen en 2010 et un recentrage de toute l’activité sur ce nouveau site, TitraFilm devient progressivement un guichet unique capable de proposer un ensemble de services incluant mastering DCP, la localisation tout secteur (TV, film, série) structuré pour répondre à la demande des majors traditionnels, mais aussi aux nouveaux diffuseurs que sont devenus Amazon, Apple ou Netflix.

Évidemment, cette mutation ne se fait pas en un jour et passe par la recherche de partenaires pour la localisation au niveau mondial permettant de proposer 40 langues, la création de la plate-forme de validation MyTitra, sans oublier un travail de sécurisation tant informatique que physique indispensable pour accompagner la révolution du tout fichier, avec une labellisation anti-piratage ISO 27001 et TPN 2018 en cours de validation.

Aujourd’hui TitraFilm est à même de proposer un large panel de services allant de la postproduction audio à la mastersation pour l’animation en passant par la création de voix pré-animatiques, mais aussi le mediaprocessing au sens large (diffusion hertzienne, VOD, DCP…), la localisation, ou encore le stockage et l’archivage (rushes, masters, DCP, projects, sessions…), sans oublier la formation sur certains créneaux spécialisés comme le sous-titrage, la gestion de projet, la détection ou la direction d’acteur...

 

Article paru pour la première fois dans Mediakwest #31, p.54/56. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 10 juillet 2019 à 17:00

Blue Spirit en pleine croissance

La Balade de Yaya, porté par Blue Spirit Productions, est adapté d’une bande dessinée franco-chinoise. © Blue Spirit

Suite au succès de Ma vie de Courgette, Blue Spirit Productions est revenu au Cartoon Movie 2019 avec La Balade de Yaya. Une production qui inaugure le label Sinematik créé par le studio d’animation pour dynamiser la production de longs-métrages. Il fait pendant au label Just Kids dédié aux séries TV d’animation. Explication par Armelle Glorennec, directrice générale et productrice de Blue Spirit.

 

Mediakwest : Pourquoi avoir ouvert Sinematik ?

Armelle Glorennec : Eric Jacquot et moi-même désirions accélérer le développement de longs-métrages. Nous avons 15 ans et n’avons produit que trois films dont le dernier, Le Voyage du prince de Jean-François Laguionie et Xavier Picard, va se terminer (sortie prévue fin 2019/début 2020 par Gebeka). Nous aimerions produire un film tous les deux ans.

Avec ce label (dirigé par Sara Wikler), nous voulons aborder des films qui ne soient plus strictement d’auteur, mais des films jeunesse plus universels et grand public comme La Balade de Yaya. Même après le succès public et critique de Ma vie de Courgette, Le Voyage du prince, un conte philosophique, a été complexe à produire. Ce film, qui ne s’adresse pas vraiment à la jeunesse, n’a pas réussi à convaincre les chaînes de télé (mis à part Ciné+) qui ont des difficultés pour s’investir sur des projets non clairement identifiés « comédie jeune public ».

 

 

M : Vous venez aussi de renforcer votre pôle série TV en reprenant le label Just Kids créé par Muriel Achery...

A. G. : Nous avons aussi engagé Caroline Oustlant pour venir en relais sur la production de séries... En 2018, nous sommes arrivés au sommet d’un cycle initié il y a trois ans. Il y a eu une hausse importante de nos prestations (Gigantosaurus pour Cyber Group Studios, Tom Sawyer...) ainsi que de nos productions (saison 4 de Les merveilleuses cités d’or, Les 4 de Baker Street, Alice § Lewis, Arthur et les enfants de la table ronde, la série full 3D Les Borrowers, Splat & Harry sous le label Just Kids). Cet effet de volume est arrivé soudainement. Nous avons doublé nos effectifs (300 personnes se répartissent entre Angoulême, Paris et Montréal).

 

 

M : Comment votre chaîne de production fait-elle face à cette montée en charge ?

A. G. : Le studio, qui s’est fait une spécialité de la 3D au rendu 2D, dispose d’une chaîne de fabrication efficace (sur 3ds Max). Le suivi de production, Simone, mis au point il y a quelques années et devenu indispensable à la vie du studio, nous permet d’encaisser cette augmentation de volume. Trois développeurs sont dédiés à ce logiciel (en tout neuf personnes en R&D). Nous avons initié cette technique en 2009 sur le film Le Tableau et la série Les merveilleuses cités d’or.

Actuellement, nous expérimentons le moteur temps réel Unity. Nous comptons ainsi rapatrier, dans nos studios, les décors 2D qui se font en Chine et les traiter en 3D avec un rendu 2D.

 

Extrait de l’article paru pour la première fois dans Mediakwest #31, p.124/128. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 9 juillet 2019 à 17:00

Adobe Premiere Rush CC, solution de montage multiplates-formes

Trois étapes de postproduction (étalonnage, transformation et audio) dans Adobe Premiere Rush. © DR

MOJO (mobile journalisme), MOCO (mobile content), ou plus simplement vidéo sur mobile ; des expressions familières à tout professionnel de l’audiovisuel. Si la consommation de la télévision dans sa forme historique est en baisse, les « filmeurs » sont pourtant de plus en plus nombreux. La raison est simple : la vidéo est omniprésente dans notre quotidien, non plus simplement sur un poste de télévision mais sur ordinateur, sur smartphone, dans les transports, au travail ou dans l’intimité d’une chambre. C’est cette nouvelle consommation qui incite à créer du contenu en masse.

Les profils de ces nouveaux vidéastes sont très variés : communicants de tout poil, chefs de petites et moyennes entreprises, youtubeurs, vloggers, formateurs ; et pour ces nouveaux créatifs, de nouveaux outils sont nécessaires. La caméra en premier a changé : le modèle préféré des caméramen mobiles c’est… le smartphone. Pour la simplicité, mais pas uniquement ! Les images produites par les téléphones récents sont excellentes. Après les avoir mises en boîte, il faut monter ces images.

 

 

Un nouveau marché ?

Les grands éditeurs de logiciels ne se sont pas jetés tout de suite dans cette nouvelle bataille : une place vacante rapidement investie par de nouveaux entrants qui se sont attelés à l’optimisation des fonctionnalités vidéo des téléphones. Ils ont proposé des produits de qualité pour filmer (citons la célèbre application Filmic Pro), pour monter (LumaFusion, Kinemaster, Splice), parfois même les deux et bien plus avec la suite d’applications professionnelles CT Pro Mobile Vidéo Suite (lire notre article CTpro : la caméra des Mojo devient outil de montage, de streaming, et régie multicaméra). http://www.mediakwest.com/tournage/item/ctpro-la-camera-des-mojo-devient-outil-de-montage-de-streaming-et-regie-multicamera.html. Adobe Premiere Rush symbolise peut-être le réveil des éditeurs « historiques ».

 

 

Adobe Premiere Rush, c’est quoi ?

C’est avant tout une solution de montage vidéo conçue pour offrir une expérience utilisateur similaire sur tous les supports : smartphone (iPhone et bientôt Android), tablettes et ordinateurs (Mac et PC). Ce nouveau venu vient s’inscrire dans un écosystème existant. Il y a dix ans environ, Adobe avait profité de l’évolution du logiciel Final Cut Pro d’Apple (du 7 au X) pour renforcer sa place dans le secteur de la vidéo en professionnalisant l’outil Adobe Premiere Pro.

Adobe Premiere Rush est conçu autour du moteur de Premiere Pro, ce qui permet une compatibilité ascendante : des projets pourront être débutés sur Rush et poursuivis, améliorés ou complétés avec Premiere Pro. Des monteurs professionnels pourront poursuivre un travail initié sur le terrain. Les possibilités sont nombreuses et les workflows restent à inventer.

Au-delà du public ciblé par l’application, des rédactions plus traditionnelles sont susceptibles de s’emparer de l’outil. Des journalistes pourraient par exemple l’utiliser pour préparer l’ours, ou la maquette de leurs reportages sur le terrain, à l’hôtel, en voiture ou dans le train, avant de donner la main à un monteur. Dans Adobe Premiere Rush, l’utilisateur dispose de quatre pistes vidéo et trois pistes audio.

 

 

L’expérience mobile

Les utilisateurs d’Android pourront profiter prochainement d’Adobe Premiere Rush CC, aujourd’hui disponible sur iPhone. C’est une priorité pour la marque. Sur iOS, l’application s’installe via l’AppStore ; l’utilisateur doit alors renseigner ses identifiants Adobe Creative Cloud avant d’accéder à l’application et de créer son premier projet. On commence un projet en y ajoutant des médias depuis tous les emplacements locaux de l’iPhone (vidéos, photos, audios), ou depuis les espaces de stockage « nuagiques » Adobe Creative Cloud ou Dropbox.

 

 

Filmer à partir d’Adobe Premiere Rush

En plus de ses fonctionnalités de montage auxquelles on pense en premier, Rush propose également une interface simple pour filmer et intégrer les médias au projet ouvert dans le logiciel. Pour l’instant les fonctionnalités sont très simples et il peut être judicieux de conserver son application de tournage préférée, telle Filmic Pro déjà citée.

Il est cependant possible avec Rush de choisir la sensibilité (ISO), de régler la netteté, et la vitesse d’exposition ainsi que la cadence d’image (25 images par seconde par exemple) et de s’assurer qu’elle restera fixe tout au long de la prise de vue (la cadence pouvant varier avec l’application caméra native de l’iPhone).

Au niveau audio, on ne pourra pas choisir le type de source (automatique) ni vérifier les niveaux à l’aide de vumètres. Il y a des options de rack-focus, mais pas d’assistance à la mise au point et on ne dispose pas d’affichage des zones sous ou surexposées. L’application étant très récente, il est possible qu’Adobe développe cette partie dans le futur. Hormis les limitations contraignantes sur l’audio, les autres options de l’application caméra restent suffisantes pour une grande partie des utilisateurs.

 

 

Adobe Premiere Rush sur ordinateur

Que l’on continue un projet entamé sur smartphone ou que l’on en débute un tout neuf, la découverte de l’outil sur ordinateur est très proche. Si le projet est fraîchement commencé sur l’ordinateur, vous êtes invité à lui donner un nom avant de choisir les médias qui seront intégrés à la séquence. Un projet contient en effet une unique séquence. Il vous est alors proposé de copier les médias sur votre disque dur ; si vous avez filmé avec un smartphone, c’est une étape indispensable, complétée par la possibilité de synchronisation avec le compte Creative Cloud de l’utilisateur.

 

 

Silence ! On monte

Comme on pouvait le présager, les outils sont limités à leur strict minimum et le maniement simplifié à l’extrême. On déplace les médias, on les découpe avec une paire de ciseaux. La timeline (frise temporelle commune à tous les logiciels de montage pour organiser vos médias) rappelle ici beaucoup celle de Final Cut Pro X, elle est moderne et « magnétique ». Avec ce dernier terme, on signifie que le déplacement des médias en amont ou en aval de leur position originelle réorganise automatiquement les éléments voisins.

Il est possible d’afficher plus d’options dans la timeline, avec la matérialisation des pistes audio et vidéo et des outils pour bloquer, voir ou entendre sélectivement les pistes. Dans cet entête des pistes, on trouve également l’outil d’enregistrement des voix-off matérialisé par une icône en forme de microphone. Le « trim », l’opération de montage consistant à allonger ou réduire les plans par leurs débuts ou leurs fins, est très intuitif et fluide, bravo !

 

 

Une histoire de compromis

Une fois le montage mis en forme narrativement, il reste à l’améliorer. C’est tout le challenge d’une solution comme celle-ci. Il faut conserver l’attrait de la simplicité et offrir suffisamment de possibilités pour combler les volontés des artistes les plus ambitieux. C’est donc une question de délicats compromis, mais également de technologie. Car la véritable force d’Adobe tient dans ses équipes de développement et dans la transversalité de ses outils.

Il est donc ici fait appel aux puissants modules développés dans les outils dédiés et progressivement déployés dans les logiciels plus généralistes. C’est ainsi que l’on retrouve dans Adobe Premiere Rush les dernières solutions déjà déployées dans Adobe Premiere Pro. Grâce à une interface intuitive, ces outils associent l’intelligence artificielle à de puissants automatismes.

Pour le travail de la couleur, on reconnaît des outils dérivés des modules lumetri d’Adobe Premiere Pro (lumetri est le nom du moteur de rendu d’étalonnage d’Adobe). De puissantes options venues de la fenêtre Audio Essentiel permettent d’optimiser les bandes sons (le module audio essentiel a été développé dans Adobe Audition avant d’être intégré dans Adobe Premiere Pro). Pour le titrage on retrouve l’intégration des modèles d’animation graphique.

 

 

Opérons un arrêt sur image pour observer ses outils un peu plus en détail

À droite de l’interface de Rush, cinq icônes suggestives donnent accès à des fonctionnalités dédiées.

 

• TITRAGE

Pour intégrer un titre, l’utilisateur commence en choisissant un modèle parmi ceux proposés d’usines, les modèles présents dans ses bibliothèques synchronisées sur Adobe Creative Cloud et les modèles disponibles via Adobe Stock (gratuits ou payants). Des modèles d’animations graphiques peuvent également être créés par l’utilisateur ou un prestataire externe.

La préparation des modèles se fait dans la fenêtre objets graphiques essentiels d’Adobe Premiere Pro CC 2019, en profitant des possibilités d’animations et de mise en page des titres et des formes. Les options de la fonctionnalité « Responsive Design » permettent entre autres d’adapter les dimensions des formes créées à la taille des textes. On peut également intégrer aux modèles des médias externes tels des logos, des animations ou même des vidéos. Les modèles d’animations graphiques créés via After Effects seront prochainement compatibles avec Adobe Premiere Rush à l’occasion d’une future mise à jour.

Une fois le modèle choisi et correctement placé dans la vidéo, l’utilisateur peut le modifier selon les options offertes par chacun des modèles : position des titres, polices, tailles, couleur, contour, ombre, graphismes, animations ; tout est possible, même le plus simple.

 

• TRANSITIONS, LE CHOIX DE LA SOBRIÉTÉ

Au menu, fondu enchaîné et fondu au noir ou au blanc. On l’applique via un double clic aux extrémités du plan automatiquement sélectionné sous la tête de lecture, ou on le « drag & drop » depuis la fenêtre des préconfigurations. On peut ensuite aisément en modifier la durée.

 

• ÉTALONNAGE

L’histoire de Lumetri a débuté avec Speedgrade, l’outil d’étalonnage acquis par Adobe pour renforcer sa suite d’outils dédiés à l’audiovisuel. Lumetri était initialement le nom du moteur de rendu de cet outil dédié. La demande étant à l’efficacité avec une certaine dose de simplicité (déjà), c’est au sein de Premiere Pro que l’on a retrouvé Lumetri, les équipes de développement issues de Speedgrade ayant été affectées à la création de deux fenêtres dédiées intitulées Moniteur Lumetri et Couleur Lumetri. C’est donc en partant de cet acquis technologique que l’interface de travail de la couleur d’Adobe Premiere Rush a été développée.

On peut en premier lieu choisir une des préconfigurations intégrées, que l’on pourra doser via une simple glissière. Les réglages « couleurs » principaux sont modifiables via les outils simples issus du module de Premiere Pro : exposition, contraste, température de couleur, saturation, netteté, vignette. Il est possible d’enregistrer des préréglages. La simplicité étant de mise, Adobe a préféré, dans cette version d’Adobe Premiere Rush, proposer les options les plus simples, sans intégrer les outils de réglages automatiques de la balance des blancs ou de correspondance des plans que l’on trouvera dans Adobe Premiere Pro. Si certains utilisateurs souhaitent affiner leur postproduction, la compatibilité ascendante de Rush avec Premiere Pro, permettra d’utiliser les puissants outils de ce logiciel si le besoin s’en fait sentir.

 

• ÉCOUTONS VOIR !

Adobe Premiere Rush est richement pourvu pour le traitement du son. On peut régler automatiquement les niveaux, équilibrer le son, ou réduire le bruit. Le nouvel algorithme de réduction de l’écho est également de la partie. C’est un outil récemment introduit dans l’arsenal d’options proposées aux utilisateurs d’Adobe Audition ; jusqu’alors il existait très peu de solutions pour améliorer les sons trop fortement réverbérés.

Pour le réglage des niveaux audio, on dispose d’une glissière impactant le niveau de l’élément sélectionné. Pour mixer les sons, plutôt que l’utilisation d’images clés, c’est un outil automatique qui a été intégré au logiciel (auto duck). Vous renseignez le type des médias (voix, musique ou autre) et vous demandez à Rush un réglage automatique du niveau de la musique par rapport aux voix.

 

• TRANSFORMATIONS DE L’IMAGE, ANIMATIONS

Des options simples permettent de recadrer des plans, les déplacer ou de modifier leur échelle et leur opacité. On peut ainsi préparer des PIP (picture in picture) ou des animations simples.

 

• UN PETIT PLUS

Le bouton + en haut à gauche de l’interface donne accès aux titres, à l’outil d’enregistrement des voix et à l’explorateur de médias.

 

On exporte et on partage

Une interface est dédiée à l’export et à la diffusion des films sur les réseaux. C’est simple et efficace ; après renseignement des coordonnées YouTube, Facebook, Instagram et/ou Behance, il est possible de sélectionner les différents interrupteurs pour initier les exports et les diffusions. Nul besoin de grandes compétences techniques, les choix qualitatifs et techniques des exports sont très orientés, tel le choix entre la qualité d’export faible, moyenne ou élevée.

 

 

Rush est un outil très récent

Le premier grand chantier d’Adobe pour Rush est la sortie de la version Android. L’autre grand challenge est l’optimisation du compromis entre la simplicité d’utilisation et la mise à disposition d’options suffisamment évoluées directement depuis Rush (sans aller dans Premiere Pro).

Ces choix de développements sont très sérieusement étudiés par Adobe, et pour cela il est directement proposé aux utilisateurs d’interagir avec les équipes de développements d’Adobe. En cliquant sur une petite icône en forme de bulle de bande dessinée, vous pouvez envoyer un commentaire pour demander de futures améliorations ; il est également possible de participer à des votes pour prioriser les évolutions attendues. Actuellement, les utilisateurs souhaitent majoritairement que soient intégrées au logiciel des fonctionnalités de modification de la vitesse des plans (ralentis). Certains demandent également que puissent être ajoutées des images clés pour les animations ou des LUT (look-up tables) comme dans Premiere Pro.

 

 

Le grand rush

Si on osait ce trait d’humour, Adobe ne s’est pas pressé pour nous proposer cet outil dédié aux nouveaux créateurs vidéo. Mais c’est peut-être juste le bon, voire le meilleur moment, pour imposer sa solution. Le produit est fort bien conçu et agréable à utiliser. La prise en main est évidente, que ce soit sur iPhone ou sur ordinateur, et c’est un point primordial.

Le lien avec les autres outils de la suite est l’autre grand atout d’Adobe Premiere Rush : avec Premiere Pro via la compatibilité ascendante et la possibilité de créer des modèles d’animation et avec les logiciels dédiés tels qu’Audition à partir desquels ont été créées les fonctionnalités de postproduction de Premiere Rush. Le Creative Cloud apporte aussi une grande fluidité dans l’utilisation de Premiere Rush : un projet commencé via l’application iPhone pourra être continué sur un ordinateur directement grâce à l’option « synchroniser avec Creative Cloud ».

Question prix, Adobe a également souhaité proposer une offre plus agressive. Adobe Rush est disponible pour les utilisateurs déjà abonnés à l’offre complète Adobe Creative Cloud, et le logiciel seul peut être loué pour un tout petit moins de 12 € par mois. Une formule Starter gratuite limitée (à trois exports) permet de le tester avant d’investir. Adobe nous a confirmé que l’optimisation de Rush serait une priorité pour l’année 2019 ; nous allons suivre cela avec très grand intérêt.

 

 

LE MOT DE L’ÉDITEUR

Voice ce que dit Fred Rolland, Sr. Business Development Manager, Creative Cloud for Enterprise and Video.

« Forts de l’expérience acquise depuis plus de 25 ans avec nos logiciels professionnels que sont Premiere Pro, Audition et After Effects, ainsi que des sept années qui nous ont permis de mettre en place la plate-forme Creative Cloud, le timing était le bon pour lancer Adobe Premiere Rush – une expérience multiplates-formes de création vidéo en ligne. Premiere Rush repose sur les technologies professionnelles d’Adobe pour permettre aux utilisateurs de créer et de publier sur les réseaux sociaux des vidéos de qualité professionnelle, tout en bénéficiant d’une expérience utilisateur complètement revue et simplifiée.

« Nous souhaitons proposer une expérience unifiée quel que soit l’appareil utilisé. La collaboration entre Premiere Rush et Premiere Pro sans friction était évidente, tout comme le partage de ressources graphiques avec les bibliothèques Creative Cloud. Nous sommes vraiment dans un nouveau paradigme où les technologies s’adaptent à l’utilisateur et non le contraire.

« La version 1.0 de Premiere Rush a été très bien accueillie par les utilisateurs, notamment avec la formule Starter gratuite. Adobe a pour ambition de rendre la créativité accessible à tous, Premiere Rush a une feuille de route prometteuse : Adobe Sensei, notre moteur d’IA, va continuer à accélérer notre capacité à faire évoluer cette solution ; et l’application sera disponible sur Android en 2019 ».

 

 

Article paru pour la première fois dans Mediakwest #30, p.90/94. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

 

  • 8 juillet 2019 à 17:00

Terra Willy, Signé TAT Productions

Film d’aventure produit par TAT Productions, Terra Willy d’Eric Tosti sort en France le 3 avril 2019. Avec Bac Films, Logical Pictures, France 3 Cinéma & Master Films. © TAT Productions

« Découvert » en 2006 au Cartoon Forum, TAT Productions y est revenu en 2019 pour présenter son second long-métrage, Terra Willy (à l’affiche en France le 3 avril), film abordant de manière jubilatoire le mythe de Robinson Crusoé façon spatial. Distribué en France (sur une combinaison de 400 copies) et à l’international par Bac Films, Terra Willy devrait s’inscrire dans la lignée des As de la jungle qui a propulsé le studio toulousain sur le devant de la scène (125 personnes actuellement). Rencontre avec le producteur Jean-François Tosti.

 

Mediakwest : Vos productions prouvent que l’on peut fabriquer en France des films à la fois de grande qualité et commerciaux. Comment l’expliquez-vous ?

Jean-François Tosti : Pour mon frère Éric, David Alaux et moi-même, l’animation est un medium servant à raconter des histoires, plus qu’une expression artistique. Nos films, que nous écrivons et fabriquons, doivent être vus par le plus grand nombre. Comme nous ne réalisons pas de prestations, cette démarche nous oblige à avoir une vraie analyse du marché. Dès notre premier projet, l’unitaire Spike, présenté au Cartoon Forum à Pau (en 2006), nous nous sommes aperçus que l’international avait une place importante dans nos montages financiers.

 

 

M : Terra Willy suit-il la même chaîne de production que Les As de la jungle ?

J.-F. T. : Depuis dix ans, notre studio 3D s’appuie sur la base logicielle 3ds Max et la suite Adobe. C’est presque devenu une anomalie de nos jours, mais ces outils nous conviennent très bien ! Nos développeurs créent des extensions pour qu’ils soient encore plus efficaces. Il y a encore des lourdeurs techniques comme le temps d’ouverture d’un fichier, l’affichage d’une preview...

Si nous sommes dans une recherche permanente d’optimisation, nous avons aussi investi dans une ferme de rendu très performante. Cette chaîne de production nous a permis de fabriquer Terra Willy en deux ans (comme Les As de la jungle) pour un budget de 6 millions d’euros.

Sur ce film qu’ Éric a souhaité très coloré, nous avons poussé les textures et les shaders à partir de textures procédurales, mais surtout de sculptures réalisées sur ZBrush et de photos ultra-haute définition de végétaux et peaux d’animaux naturalisés du Muséum d’histoire naturelle de Toulouse.

 

 

M : Allez-vous augmenter votre production de longs-métrages en parallèle à votre activité de production de séries ?

J.-F. T. : Nous sommes actuellement en pré-production du long-métrage Les Aventures de Pil (réalisateur Julien Fournet) en même temps que nous finalisons la saison 3 des As de la jungle. Après ce film, nous prévoyons de livrer un long-métrage tous les ans (en projet Argonautes et Les As de la jungle 2). Cette logique de studio permet de faire des économies d’échelle. Si nous élargissons notre offre (Terra Willy nous a permis d’explorer d’autres directions), nous ne changerons pas notre orientation : produire des films qui plaisent aux enfants et à la famille.

 

Extrait de l’article paru pour la première fois dans Mediakwest #31, p.124/128. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 7 juillet 2019 à 16:00

TitraFilm : dix nouvelles salles pour la post production TV

Le studio A spécialisé dans le mixage cinéma VF. © Benoit Stefani

Suite à son redéploiement sur Saint-Ouen, TitraFilm complète ses moyens techniques avec la création de dix nouvelles salles de travail dédiées à la postproduction TV. Miguel Adélise, directeur technique adjoint pour l’ensemble des moyens audio de TitraFilm, et également responsable technique des Studios de Saint-Ouen, nous fait visiter ces nouvelles installations architecturées autour des technologies d’Audio sur IP.

 

À l’occasion de l’intégration de TVS sur le site de Saint-Ouen, TitraFilm, qui regroupe depuis quelques temps déjà le labo TVS et le spécialiste du doublage film Les Studios de Saint-Ouen (lire plus loin), se dote de dix nouveaux studios qui viennent étoffer son offre. Mise en service en octobre dernier après un ensemble de travaux répartis sur plus de deux ans, cette nouvelle plate-forme technique créée ex nihilo comprend quatre salles de montage, deux cabines Speak, deux studios d’enregistrement et deux studios de mixage.

Partant d’une dalle nue sans aucun câblage, Miguel Adélise s’est appuyé logiquement sur les technologies d’audio sur IP : « Après une première expérience moyennement concluante avec Ravenna, on a finalement fait le choix du Dante, explique t-il. Nous sommes pleinement satisfaits car l’installation est stable, et la récente évolution du Dante vers la vidéo se montre prometteuse. »

 

 

Stockage centralisé et audio sur IP

TitraFilm ne fait pas exception à la tendance actuelle qui pousse vers le stockage centralisé. Ainsi, bien que l’ensemble des installations soit réparti sur deux bâtiments, l’organisation, grâce au déploiement de la fibre sur l’ensemble du site, repose sur un serveur centralisé NAS Dell EMC Isilon qui distribue les sources suivant les besoins. « Une session Pro Tools peut ainsi commencer dans un studio et se poursuivre dans un autre car nous avons fait en sorte de respecter une uniformité d’équipement et de câblage », précise Miguel Adélise. Motorisés par des Pro Tools HD1, les studios son communiquent sur le réseau en Dante grâce à leurs interfaces audio FocusRite RedNet HD32R, tandis que, suivant les salles, on trouve des surfaces de contrôle Avid D Command, C24 ou S6.

Au-delà de la légèreté du câblage et de la suppression des problèmes de buzz et autres parasites qui traditionnellement constituent un vrai casse-tête sur des installations de cette ampleur, notre interlocuteur fait le point sur les changements apportés au quotidien par les technologies IP sur un complexe technique multisalle comme celui de TitraFilm.

« Avant le câblage IP, à chaque changement de console, il fallait prévoir et modifier le câblage pour l’adapter à chaque machine. Aujourd’hui ce n’est plus le cas, le câblage reste identique même si les machines changent. Comme nous avons effectué l’isolation et le traitement acoustique de l’ensemble des salles dès le départ, nous pouvons même envisager de modifier l’activité d’une salle sans changer son câblage. Par exemple, rien ne nous empêche de transformer un studio son pour en faire une salle de cinéma ou de transformer une salle de DCP en un studio son, ou encore l’utiliser ponctuellement pour vérifier un mixage », souligne Miguel Adélise.

Pour le dépannage quotidien et la maintenance, l’audio sur IP offre également plus de souplesse et de nouvelles possibilités grâce à la disponibilité de nouveaux outils. Ainsi, tous les assistants son de la maison sont équipés d’une petite interface AM2 appartenant à la gamme RedNet de FocusRite. Elle est alimentable en PoE et dotée simplement d’une sortie ligne et d’une sortie casque stéréo.

« Avec un casque ou une paire d’enceintes amplifiées, les assistants peuvent récupérer et écouter toute les sources de tous les Pro Tools partout où ils se trouvent. Il suffit juste d’avoir une liaison en RJ-45 jusqu’à un switch, la commutation des écrans claviers souris se faisant via KVM. Avec cette configuration, je peux facilement assister quelqu’un, entendre ce qui se passe sur son système et le dépanner. Plus généralement, comme on n’est plus limité par les longueurs de câbles, cela permet de distribuer de l’audio partout dans la maison et d’écouter au casque ou sur des enceintes. Dans le même esprit, toujours chez FocusRite, il y a aussi la petite interface X2P qui, avec ses deux préamplis micro, permet d’enregistrer un speak de manière autonome directement dans la cabine si tous les studios sont pris… », explique Miguel Adélise.

 

 

Gestion du monitoring centralisée

Pour les enceintes, les Genelec 8240 et 8330 bien connus des mixeurs ont été installées dans les studios son, tandis que dans les salles de montage sont proposées des Dynaudio Air12, ou d’autres marques disponibles sur demande.

« À six mois près, nous aurions pu nous équiper avec des enceintes RJ 45, ce qui aurait encore simplifié l’installation en supprimant les boîtiers de conversion dans les dix salles », regrette Miguel Adélise toujours à l’écoute des dernières tendances, comme par exemple la centralisation de la gestion du monitoring.

En effet, toutes ces fonctionnalités quotidiennement utilisées, comme le fait de passer d’une petite à une grande écoute ou d’un monitoring stéréo à un monitoring multicanal, ou encore d’actionner le talk-back pour communiquer avec le comédien voix en cabine, étaient encore récemment assurées par des consoles. Avec leur disparition progressive, sont apparus sur le marché des processeurs dédiés à ces tâches, apportant parfois le processing et l’optimisation des enceintes, comme c’est le cas chez Trinnov par exemple.

Avec la structure de carte de traitement modulaire d’un produit comme le DAD AX32, une nouvelle étape semble aujourd’hui en passe d’être franchie puisque deux de ces machines suffisent à assurer la gestion centralisée de l’ensemble des nouvelles salles.

« Les DAD récupèrent les entrées/sorties nécessaires au monitoring des salles depuis les stations audio ou vidéo via Dante, soit environ une trentaine de canaux par studio. En fonction des salles, la conversion Dante pour ce monitoring est effectuée soit via le dispositif KVM, soit via le logiciel Audinate Virtual Sound Card. La latence induite par ce procédé est ici acceptable, sachant que la latence d’affichage des moniteurs est de l’ordre de 10 ms et qu’elle reste toujours bien en dessous du quart d’image. La partie processing du monitoring est prise en charge par le système Genelec dans les studios son, et par le DAD AX32 dans les autres salles, notamment grâce à la capacité de traitement des cartes filles SPQ dont les DAD sont équipés », précise Miguel Adélise.

Une fois acheminées et traitées dans le DAD, les sorties sont distribuées vers le Control Room et le monitoring casque de chaque régie suivant les besoins, sachant que, dans chaque salle, un boîtier de télécommande DAD Mom permet d’appeler les sources nécessaires en fonction des configurations demandées (grande, moyenne ou petite écoute, stéréo, 5.1, tall-back, etc.).

Miguel Adélise nous retrace la genèse de cette solution plutôt avant-gardiste : « Acquérir les dix systèmes de gestion de monitoring 5.1 dont nous avions besoin représentait un investissement important. J’ai donc essayé, sans succès, de trouver un système de monitoring 5.1 compatible Dante avant de me tourner vers le DAD AX32 que l’on peut considérer comme une matrice 1 500 x 1 500 capable de router et de véhiculer 512 canaux audio avec SRC sur un simple câble Gigabit Ethernet. Il suffit ensuite d’ajouter les cartes nécessaires pour le processing audio et le Dante. J’ai réparti ensuite le traitement sur deux machines simplement pour avoir une solution de rechange en cas de panne. L’une des forces du DAD est de pouvoir assurer les commutations à toutes les fréquences de façon indépendante grâce à ses conversions SRC intégrées et je n’ai besoin d’acheminer qu’une seule référence PTP distribuée via IP, ce qui simplifie également la distribution d’horloge. »

 

 

Administration, sécurisation

Évidemment, le passage au tout IP ne va sans nécessiter une adaptation aux technologies réseau, créant au passage de nouvelles tâches et soulevant de nouveaux problèmes liés notamment à l’administration et à la sécurisation, un point central pour une société comme TitraFilm dont les clients figurent parmi les plus exigeants en la matière.

Miguel Adélise précise son niveau d’intervention dans la gestion quotidienne du réseau : « Je gère les machines audio dans la plage d’adresses IP qui m’est réservée. À partir du moment où le service informatique me réserve une zone IP pour l’audio, je peux par exemple y déployer un switch. Pour l’exploitation, il faut juste ensuite savoir ouvrir et fermer les ports via des lignes de commande. Par contre, tout ce qui concerne le maillage du réseau, les liens entre switch et la gestion des zones reste l’affaire du service IT. De manière générale, il faut intégrer les bons réflexes en matière de sécurité informatique, afin de savoir qui fait quoi sur le réseau, et d’être capable d’établir le contrôle et la traçabilité des accès exigés par nos clients. Le logiciel Dante Domain Manager me permet de déterminer les zones d’utilisation et les autorisations d’accès en fonction des profils utilisateurs (intervenant extérieur, permanent, etc.), et des projets sur lesquels ils travaillent, sachant que chaque studio est un sous-domaine. Ce besoin de contrôle va encore s’accentuer lorsque la vidéo sera transportable via Dante. »

 

 

De la veille technologique et des idées

Guidées par une veille technologique constante, les idées de chantiers à venir figurant sur la feuille de route ne manquent décidément pas ! Il y aura prochainement le changement de certaines consoles et ordinateurs hôtes qui arrivent en fin de vie et ce sera sans doute l’occasion de réduire l’espace nodal et la consommation électrique des stations audio basées sur des Mac « Cheese-Gater » format tour, sans oublier les nouvelles possibilités qu’offriront bientôt le transport des données audio et vidéo synchrones en Dante sur Ethernet 1 Gbit. En effet, dès que les fabricants auront intégré la nouvelle carte Dante AV Module annoncée par Audinate pour mi-2019, l’ensemble du dispositif permettant le transport et la lecture de l’image vidéo dans les studios devrait s’en trouver allégé. Bref, encore de belles évolutions à venir…

 

 

 

HISTORIQUE TITRAFILM : DU SOUS-TITRAGE À LA LOCALISATION MONDIALISÉE

Même si, quand on évoque TitraFilm, vient naturellement à l’esprit le sous-titrage qui est à l’origine de la création de la société en 1933, l’activité d’aujourd’hui n’a plus grand-chose à voir avec ce qu’elle a été durant les années d’or de la pellicule.

Parmi les changements importants, on peut citer tout d’abord, en 1991, la création du laboratoire TVS pour permettre de livrer des PAD aux chaînes de télévision, notamment Canal Plus, et également effectuer des Dupli K7 vidéo. Ce labo s’orientera progressivement de plus en plus vers le doublage TV. Parallèlement, avec la disparition de la pellicule et la montée en puissance du fichier, l’activité sous-titrage fond, mais la société fait le choix de rebondir en se repositionnant sur de nouvelles activités prenant en compte ce nouvel environnement technologique.

Au final, après l’acquisition des Studios de Saint-Ouen en 2010 et un recentrage de toute l’activité sur ce nouveau site, TitraFilm devient progressivement un guichet unique capable de proposer un ensemble de services incluant mastering DCP, la localisation tout secteur (TV, film, série) structuré pour répondre à la demande des majors traditionnels, mais aussi aux nouveaux diffuseurs que sont devenus Amazon, Apple ou Netflix.

Évidemment, cette mutation ne se fait pas en un jour et passe par la recherche de partenaires pour la localisation au niveau mondial permettant de proposer 40 langues, la création de la plate-forme de validation MyTitra, sans oublier un travail de sécurisation tant informatique que physique indispensable pour accompagner la révolution du tout fichier, avec une labellisation anti-piratage ISO 27001 et TPN 2018 en cours de validation.

Aujourd’hui TitraFilm est à même de proposer un large panel de services allant de la postproduction audio à la mastersation pour l’animation en passant par la création de voix pré-animatiques, mais aussi le mediaprocessing au sens large (diffusion hertzienne, VOD, DCP…), la localisation, ou encore le stockage et l’archivage (rushes, masters, DCP, projects, sessions…), sans oublier la formation sur certains créneaux spécialisés comme le sous-titrage, la gestion de projet, la détection ou la direction d’acteur...

 

Article paru pour la première fois dans Mediakwest #31, p.54/56. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 4 juillet 2019 à 17:34

Les effets visuels de « L’Empereur de Paris »

Le tournage de ‘L’empereur de Paris’, s’est fait sur l’ancien aéroport de Bretigny-sur-Orge (TSF). La séquence de l’Arc de Triomphe fait partie des plus lourdes en terme d’images de synthèse. Un travail remarquable signé la CGEV. © DR

L’Empereur de Paris est un cas d’école intéressant, il illustre comment la technologie, les talents français et le crédit d’impôt permettent de favoriser le maintien du tournage de grosses productions françaises en France.

 

Le tournage de L’Empereur de Paris, réalisé par Jean-François Richet, s’est fait sur une friche de l’ancien aéroport de Bretigny-sur-Orge, dont la gestion a été confiée au groupe TSF. Un décor y a été construit, reprenant des rues du Paris du XIXe siècle. Plus précisément ce sont les rez-de-chaussée et premiers étages des bâtiments qui ont été construits, tout le reste étant de l’extension numérique de décor. Cette méthode permet ainsi de jouer sur le meilleur des deux mondes, celui des décors et celui du numérique, tout en réduisant les coûts de fabrication s’il avait fallu tout reconstruire en plateau en France ou à l’étranger. Ce genre de décor n’est plus disponible en naturel. Une prouesse réalisée par la société CGEV (Compagnie générale des effets visuels).

Le tournage de L’Empereur de Paris s’est déroulé du 25 septembre au 8 décembre 2017. En parallèle, les équipes de la CGEV travaillaient sur les recherches iconographiques, les premières modélisations en totale adéquation avec le chef décorateur sous l’œil du réalisateur : « Jean-François Richet est très exigeant et il connaît parfaitement l’histoire, les détails architecturaux, les métiers de rue de cette époque. Nous avons je pense une image assez fidèle de ce que pouvait être le Paris de cette époque », commente Alain Carsoux, président de la CGEV.

 

Les sociétés d’effets visuels sont habituées à faire des extensions de décor en numérique, le matte painting (ou peinture sur verre) est l’un des fondamentaux des effets visuels, mais dans ce film, cette technologie est portée à son paroxysme.

Habituellement, dans un film d’époque, la caméra est contrainte dans son cadre, dans la taille des plans. Les acteurs sont filmés en gros plan pour éviter les découvertes. Ici, il y a une totale forme de liberté dans la mise en scène ; il revient aux équipes de la CGEV de se débrouiller. Il y a eu aussi très peu de recours aux fonds verts, comme le fait remarquer Alain Carsoux.

« Il était impossible de mettre des fonds verts, car il aurait fallu en construire sur des dizaines de mètres, ce qui économiquement n’était pas viable, ni techniquement car cela demande de la construction. Nous avons donc, hormis pour quelques plans particuliers, tourné sans fond vert. »

 

Le réalisateur a une forme totale de liberté, il filme comme il veut sans se soucier de l’arrière-plan, cela permet de filmer plus rapidement. Toutefois, pour que cela fonctionne bien, il faut être précis en amont. « Plus les plans sont anticipés, plus nous gagnons du temps sur la postproduction, sur l’étalonnage. Le workflow était plutôt fluide et même s’il y a eu des moments de tension, tout s’est plutôt bien passé », souligne Alain Carsoux.

 

 

Tournage hybride

Le film a été tourné de manière hybride en pellicule et numérique. Environ 25 % du film est en 35 mm et le reste a été tourné avec des caméras Arri Alexa. La pellicule a été scannée en 4K et les fichiers Alexa débayrisés pour avoir un look désaturé proche de l’image 35 mm. Certaines séquences ont nécessité jusqu’à trois caméras, soit environ 2,5 To de données par jour. La pellicule était développée chez Hiventy et scannée en HD pour le montage.

Le montage s’est fait au sein de la CGEV avec du matériel fourni par Dum Dum Films et c’est le labo qui a fait l’étalonnage. Le film comprend de nombreux plans truqués (450 plans), ce qui est toujours critique au niveau du montage et de l’étalonnage, mais la synergie et les workflows mis en place entre la CGEV et le labo ont permis de postproduire le film sans douleurs excessives !

Cette méthode de tournage (décor et extension numérique) doit pouvoir se développer sur d’autres projets. Le rapport entre la qualité finale des images et l’investissement n’a aucune commune mesure avec un tournage conventionnel en décors réels ou en plateau. Cette carte de visite devrait permettre à la CGEV d’attirer de nombreux projets, y compris étrangers. 

 

Le budget sur les effets est d’environ 1,5 M € – il y a eu jusqu’à 60 personnes lors des pics de production. Toute la partie modélisation a été faite sur Maya et le rendu avec V Ray. Les séquences les plus complexes ont nécessité jusqu’à 36 heures de calcul (plus de 3 000 frames). Parmi les séquences les plus complexes à réaliser, celle de la construction de l’Arc de Triomphe, le plan de survol du marché et la séquence de fin sur la cour du Louvre.

 

Article paru pour la première fois dans Mediakwest #30, p.88/89. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 26 juin 2019 à 17:00

Le Voyage du Prince, invité de marque à Annecy

Le Voyage du prince de Jean-François Laguionie constitue une suite très libre au Château des Singes réalisé en 1999. © Blue Spirit

Le Voyage du Prince a séduit le public du Festival d'Annecy lors de sa projection dans le cadre des séances événement. Et son réalisateur, Jean-François Laguionie, qui signe ce long métrage d'animation avec Xavier Picard, a été récompensé par un Cristal d'honneur pour toute son œuvre : Gwen, le livre de sable, le Château des Singes, le Tableau, Louise en hiver... Conte philosophique, fable humaniste ou carnet de voyage, Le Voyage du Prince (sortie le 4 décembre 2019) constitue une « suite miroir » du Château des Singes réalisé vingt ans plus tôt. Les rôles se sont en effet inversés : c'est au tour du Prince de Laankos, âgé mais toujours aussi curieux, d'être recueilli par le jeune primate Tom. Et de jouer les Candide devant la civilisation des Nioukos (Nouveau Monde) clinquante et bornée.

 

 

Contre toute attente, les producteurs de Blue Spirit, pourtant auréolés du succès de Ma vie de Courgette (deux Césars, 900 000 entrées), ont eu du mal à financer ce film qui n'est pas un film de divertissement (même s'il s'adresse à toute la famille), et à séduire les télévisions (hormis Ciné+). « C'est un film dont la part de producteur est importante», souligne Armelle Glorennec, cofondatrice de Blue Spirit. Soutenu par le CNC et la Région Nouvelle Aquitaine, le distributeur Gebeka Films et Urban Distribution International (UDI), le film (au budget d'environ 4 millions d'euros) est coproduit par le studio luxembourgeois Mélusine. Enthousiasmé par l'histoire, celui-ci a pris en charge tous les décors 2D (à partir de décors clés réalisés à Paris par Jean Palenstjin) tandis que les équipes Blue Spirit de Paris, Angoulême et Montréal, ravies de se retrouver sur un nouveau film de Laguionie, signent l'animation 3D des personnages et des accessoires.

Pour cette production à la mise en scène sobre et élégante, Blue Spirit a recouru à des plug in maison qui permettent d'obtenir des cernés 2D sur des modélisations 3D (3 ds max). Expérimenté avec succès depuis dix ans sur des séries comme Les mystérieuses Cités d'or (première saison), Ernest et Célestine et Les grandes grandes vacances ainsi que le long métrage Le Tableau, ce procédé donne à l'animation du Voyage du Prince une fluidité particulière. « Les volumes 3D sont modélisés en vue du rendu souhaité », explique Samuel Feuillade, assistant réalisateur chez Blue Spirit et directeur artistique sur la 3D. « Les shaders, le lighting et le cerné contribuent à donner cet effet entre 2D et 3D. Ces effets sont beaucoup retravaillés au compositing (sur Fusion). Nous avons été aussi très vigilants dans l'expressivité des animations faciales. Nous animons « dans la pose », les animations (12 images par seconde) ne sont jamais surjouées.»

  • 23 juin 2019 à 16:00

Cube, dénicheur de talents

Nouvelle franchise pour Cube, le très drôle ‘Pfffirates’, une série pour TF1, avec des pirates gonflées ! © Cube Creative Productions

La société Cube (Cube Production et Cube Creative) a, au fil des dernières années, constitué une équipe de jeunes talents qui sont aujourd’hui la marque de fabrique du studio. La société, qui a déménagé il y a deux ans à Levallois Perret, produit des contenus pour tous les écrans. Une approche de multi-spécialistes capables de créer en 2D, 3D, Relief, VR avec une passion toujours inassouvie et un carnet de commandes garni. Entretien avec Lionel Fages, cofondateur de Cube.

 

Mediakwest : Pouvez-nous faire un retour en arrière sur la création de la société ?

Lionel Fages : Il y a dix-sept ans, Majid Loukil, Bruno Le Levier et moi-même avons fondé Cube, qui comporte deux structures : Cube Productions qui est une société de production, et Cube Creative, une société de prestation de services. Nous avons, depuis l’origine, souhaité que le studio soit capable d’avoir ses propres auteurs-réalisateurs. Cube Creative fabrique pour Cube Production bien entendu, mais aussi pour d’autres. Nous conservons notre ADN qui nous porte à concevoir des choses très différentes : de la pub, de la série TV, du parc d’attractions… C’est cette variété qui nous passionne. Un jour, nous faisons un court-métrage avec Nicolas [Deveaux] sur des girafes qui plongent dans l’eau. Et le lendemain nous sommes interrogés par le Futuroscope pour l’une de leurs nouvelles attractions en 6K.

Nous continuons aussi à aller dans les écoles. Quand nous repérons un jeune qui a le sens de la réalisation, nous l’aidons à concevoir son premier court-métrage. Ce fut ainsi le cas pour Louis Clichy, Rémi Chapotot, Nicolas Deveaux. Nous sommes toujours dans cette quête.

Il y a quatre ans, avec Majid, nous avons décidé de devenir un interlocuteur important pour les chaînes de télé. Nous en sommes très fiers puisque nous avons réussi un grand Chelem, assez unique dans le paysage français. Nous comptons, en effet, une série chez Arte, une autre chez Canal, une troisième chez TF1 et une dernière chez France Télévisions !

Parmi elles, figurent « Tangranimo », avec France Télévisions, et « Athléticus », avec Arte, dont on vient de finir la saison 2.

« Pfffirates », elle, va rejoindre l’histoire des jeunes talents. Elle trouve son origine dans un court-métrage que nous avions découvert à Supinfocom Valenciennes en 2003. C’était l’histoire d’un pirate gonflé, sur un bateau gonflé, qui était attaqué par un oiseau de métal… Fin 2003, je leur ai dit qu’ils tenaient là quelque chose d’intéressant et leur ai proposé qu’on en reparle. Ils viennent me revoir en décembre 2015, soit douze ans après ! Guillaume Herent, un des graphistes d’origine, accompagné d’une illustratrice et d’un scénariste, m’apporte un dossier. Je suis super ému qu’ils se rappellent de moi, je leur confirme mes dires et on achète alors les droits, on dépose une option. Nous avons développé le projet, retravaillé complètement le sujet, œuvré un an et demi et… nous avons réussi !

« Pfffirates » va démarrer en production, la série est très drôle parce que l’ensemble de l’univers est gonflé, c’est-à-dire que les personnages ont une petite valve que tu vois et quand ils ont un coup de pompe (comme cela nous arrive à tous !), ils peuvent se dégonfler. C’est un truc super jouissif. J’essaie toujours que les projets soient intéressants pour les graphistes, comme c’est le cas de « Pfffirates ».

 

 

M. : Et Cube Creative ?

L. F. : Le studio, c’est le Cube originel ! Au départ, il n’y avait que Cube Creative. Nous travaillons sur huit marchés : la pub, la série TV, le grand format, les jeux vidéo, les effets spéciaux de long, un peu de motion design, encore un peu de corporate, un peu de vidéo clip, des pubs. Dans ces cas précis, nous faisons de la prestation. Nous avons un gros contrat, depuis maintenant quatre ans, avec Rovio ; nous avons conçu toutes leurs animations avec les personnages emblématiques et secondaires de « Angry Birds : The Piggies Tales ».

Bien entendu, nous faisons aussi beaucoup de choses pour le jeu. Aujourd’hui, quand tu fais de l’animation 3D, tu as intérêt à établir des contacts avec des professionnels des éditeurs de jeu parce qu’ils sont très demandeurs. Cela ne veut pas dire que Cube fait du jeu, mais plutôt des opérations de communication, des teasers, des trailers.

 

 

M. : Comment qualifieriez-vous vos différentes activités ?

L. F. : Le temps passe, et il est important que le groupe soit pérenne. Nous avons décidé de conserver des opérations de prestations, mais en développant nos propres licences. Et ça a marché ! « Athléticus » est un succès ; « Pfffirates », c’est évident que les personnages gonflés vont marcher parce que c’est drôle ; « Tangranimo », c’est une série pour les enfants qui plaît, et puis c’est France Télévisions.

Nous allons être obligés d’ouvrir un second studio et c’est l’éternel débat. En province ? À Paris ? Nous espérons que l’Île de France va aider les producteurs et les studios à la hauteur de ce que font les régions. C’est quand même ici que se trouve le plus gros potentiel d’emplois et d’employeurs. Dans nos nouveaux plans de financement, nous avons inscrit l’Île-de-France.

Nous faisons une série pour La Cabane Productions. Cette série s’appelle « Mush Mush », elle est très jolie, elle porte sur des champignons qui parlent. Nous sommes très contents de l’avoir remportée, c’est un joli projet. Petite anecdote, c’est la première série de la Cabane Productions et Perrine Gautier, la productrice, a obtenu pour cette première la subvention de l’Île-de-France.

 

 

M. : Cube produit-il tout en France ?

L. F. : Pour le moment, oui. C’est un vrai questionnement que nous avons parce que l’année prochaine, entre maintenant et 2021, nous aurons « Pfffirates », « Tangranimo », « Mush Mush », « Kaeloo 4 » que nous sommes en train de faire et un « Athléticus 3 » sans doute. Il y aura sans doute un « Kaeloo 5 ». Donc un programme chargé !

Personnellement, je me sens très profondément producteur. Je pense que ma rémunération et celle de l’entreprise doivent se faire sur les ventes du catalogue. « Pfffirates » tu peux le vendre dans le monde entier avec de bons vendeurs. J’estime que nous allons parvenir à un ratio de 60 % de fabrication de nos propres contenus et 40 % de prestations. Avec une règle du jeu, c’est que la presta soit profitable.

 

 

M. : Le workflow et l’outil technique se sont-ils également consolidés ?

L. F. : Ceci est extrêmement important, bien entendu, nous avons pris une grande décision : passer tout sur Blender. Les trois nouvelles séries – « Pfffirates », « Tangranimo » et « Mush Mush » - sont faites sur Blender. Il y a deux ans, nous avions une connaissance de Blender très limitée ; en deux ans, nous ne sommes pas devenus « la » référence mais, et cela nous amuse beaucoup, on nous interroge tout le temps à ce sujet. Nous avons fait des conférences à Annecy, nous sommes allés à la Blender Conference à Amsterdam, nous avons parlé aux Radi…

Il est vrai qu’en R&D au studio, ils sont six maintenant. Ils ont énormément travaillé sur cet aspect pour que ce soit aisément utilisable sur notre pipeline et que chacun puisse se former. Nous commençons à très bien maîtriser Blender ; maintenant il est vrai qu’il faut le faire entrer en prod sur les trois séries en même temps.

Nous gardons « Kaeloo » sur 3DS Max parce qu’il comporte trois saisons et qu’il y a tous les assets, mais en ce qui concerne les trois nouvelles séries, elles sont entièrement conçues sur Blender. C’est un vrai changement de cap de s’attaquer à l’open source ! Il est évident que l’étape suivante, ce sera le temps réel. Et on sait que Blender développe un vrai temps réel très intéressant. Auparavant, nous avions fait des tests sur Unity et Unreal.

 

 

M. : En termes de moyens humains, parvenez-vous à trouver de jeunes talents ?

L. F. : La France compte vingt-cinq écoles dotées chacune de quarante élèves, soit au total mille personnes. Jusqu’ici, je n’avais pas réalisé que quand tu dis cela, tu imagines que le nombre de graphistes et d’infographistes est suffisant. Or, comme chacun cherche des animateurs de personnages, en vérité, tu parviens à 200 élèves maximum formés. Et là, tu es face à Mac Guff qui en veut soixante ! Chez nous, cela se passe pourtant plutôt pas mal avec « Kaeloo », « Athléticus », car nous offrons une diversité.

Nous comptons en France quelques très grosses entreprises comme Illumination et Mikros/Technicolor. En dehors d’eux, tu n’as que des entreprises intermédiaires. Et puis tu as des boîtes, comme la nôtre, qui sont encore un peu indépendantes.

Quand tu vas aux Radi [Rencontres Animation Développement Innovation], tu te rends compte que notre métier emploie 6 000 personnes, dont 600 permanents ; nous passerons peut-être à 700 sur 7 000. Ce sont de tout petits métiers, mais qui ont la faveur des gouvernements, parce qu’il s’agit de gens jeunes, au bon pouvoir d’achat. Et puis ce qui est bien dans l’animation, c’est qu’il faut beaucoup de monde. Quand tu lances un projet, il te faut tout de suite entre cinquante et cent personnes, donc tu donnes du travail à beaucoup de personnes !

 

 

Article paru pour la première fois dans Mediakwest #31, p.62/63. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

 

Pour en savoir plus sur Cube - plus particulièrement sur la récente annonce de la prise de participation de Xilam dans son capital - vous pouvez lire notre article du 11/0/19  Business & Animation : XILAM actionnaire majoritaire de CUBE d’ici fin 2019 ! 

  • 20 juin 2019 à 17:00

Performances augmentées avec Dell XPS et Inspiron

Le Dell Inspiron 15 7000 © DR

Dell propose deux nouveaux ordinateurs toujours plus performants... Focus sur le XPS 15 et l'Inspiron 15 7000 entre autonomie et performances...

 

Nouveau XPS 15 : repousser les limites de l’innovation

Le XPS 15 revient avec de multiples améliorations. Ultra-performant, l’ordinateur portable emblématique de Dell, qui est également le plus petit de la catégorie 15,6 pouces, garantit une autonomie inégalée dans son format. Le nouveau modèle gagne en puissance grâce aux processeurs Intel Core i9 de 9e génération jusqu’à huit cœurs, et à une carte graphique NVIDIA GeForce GTX 1650 qui permet une plus grande vitesse pour les applications de design, de photographie et de production de musique.

Le XPS 15 inclut un écran tactile InfinityEdge 15,6 pouces UltraSharp 4K Ultra HD (3840 x 2160) qui assure une luminosité élevée, une bonne saturation des couleurs et des détails précis, libérant tout le potentiel des créateurs de contenu travaillant sur des projets complexes. Comme annoncé lors du CES 2019, il est le premier modèle de la série XPS à proposer un écran OLED en option avec des pixels auto-émissifs qui s’éteignent complètement. Cette technologie permet de créer un noir parfait offrant des contrastes supérieurs et des détails saisissants, particulièrement dans les zones sombres, afin de donner vie au contenu. L’écran 4K associé au Dolby Vision présente un rendu jusqu’à 40 fois plus lumineux et des zones foncées jusqu’à 10 fois plus sombres, pour une qualité d’affichage inégalée.

L’ajout du module Killer AX1650 intégré au jeu de puces Wi-Fi 6 d’Intel offre des performances jusqu’à trois fois plus rapides que celles de la génération précédente, et jusqu’à quatre fois plus de débit dans les environnements surchargés. Avec une mémoire de 64 Go, un SSD PCIe allant jusqu’à 2 To et la plus longue autonomie de tous les ordinateurs portables 15 pouces, le XPS 15 est un modèle hautes performances inégalé.

Enfin, il est doté d’une webcam innovante pour PC portable. Située sur la partie supérieure du châssis, elle laisse toute la place à l’écran InfinityEdge. Le design reste une priorité chez Dell : cette exigence se traduit ainsi par l’utilisation de matériaux de qualité supérieure, comme un aluminium issu d’un usinage CNC (Computer Numerical Control), la fibre de carbone et le verre Gorilla Glass, pour créer un modèle solide tout en étant l’un des plus petits ordinateurs portables 15,6 pouces de sa catégorie.

 

Nouveaux ordinateurs Inspiron : puissance et élégance pour répondre aux besoins de chaque utilisateur

La nouvelle gamme Inspiron de Dell intègre un ensemble d’ordinateurs portables polyvalents, 2-en-1 et tout-en-un. Leur design, leurs fonctionnalités et la gamme de prix ont été repensés pour répondre aux besoins des différents utilisateurs.

Dans cette gamme, le nouvel Inspiron 15 7000 est un ordinateur portable ultra-léger orienté performances. Il est équipé de processeurs Intel Core série H de 9e génération intégrant jusqu’à huit cœurs, d’une mémoire DDR4 allant jusqu’à 16 Go, d’un SSD double port NVMe en option, ainsi que de la dernière carte graphique NVIDIA GTX 1650. Ces composants en font un modèle puissant adapté à un usage quotidien et à des projets créatifs occasionnels. L’alliage de magnésium de l’appareil lui confère une grande légèreté, tout en assurant la solidité et la stabilité de l’aluminium classique. Le bouton d'alimentation intégré au clavier et au lecteur d’empreintes digitales offre un style épuré et libère de l’espace pour un clavier numérique complet. La nouvelle technologie Adaptative Thermals du système détecte l’emplacement de l’ordinateur portable, sur les genoux ou sur un bureau, et adapte son profil thermique en conséquence. Un dissipateur thermique double, les ventilateurs et la charnière se complètent pour refroidir le système en évacuant la chaleur par les entrées d'air dissimulées dans la charnière. Cette conception assure finesse et légèreté au modèle, sans compromis sur la performance.

  

Le Dell Inspiron 15 7000 est disponible dès à présent à partir de 999€.

  • 13 juin 2019 à 17:00

Lucie Hardoin, la femme qui fait du bien au binaural

Lucie Hardoin, la femme qui veut faire du bien au binaural © DR

La première tête de prise de son binaurale a été mise au point 1933... Avec le son binaural, la captation ou la synthèse de sons, reproduits via un casque, plongent l’auditeur dans une sphère auditive immersive. L’enregistrement binaural permet une écoute d’hyper proximité, une externalisation des sources : on a l’impression qu’elles sont en dehors du casque.

 

Qui est Lucie Hardoin ?

Artiste multifacette, musicienne et technicienne, Lucie est diplômée de la MST Image et Son de Brest (devenue l’ISB), études qu’elle a poursuivies, couronnées par un master 2 en son multicanal.

Chef opératrice du son (documentaire et fiction), Lucie intervient dans de nombreuses écoles audiovisuelles de Bretagne : l’ISB, la licence CIAN de Saint-Brieuc, l’ESRA à Rennes et à Paris, le BTS audiovisuel de Lesneven, l’école d’audioprothèse de Fougères et dans des modules audiovisuels de marketing et de com. Elle est aujourd’hui une spécialiste reconnue du son binaural.

C’est Pascal Rueff qui a transmis à Lucie sa passion du son binaural ; il était son professeur à la MST Image et Son de Brest. En 2004, elle est partie à New York pour réaliser des documentaires sur le jazz avec une prise de son assez originale : des micros omnidirectionnels DPA 4060 confortablement lovés dans ses oreilles. Dans le cadre d’un stage, elle fera cette même année de la création binaurale et de la recherche sur des plugins en développement chez France Telecom Lannion (maintenant Orange Labs).

Depuis dix ans Lucie s’attelle à démocratiser les technologies binaurales et à sensibiliser tous les publics à ce son 3D en prenant grand soin d’utiliser le véritable mot de binaural, là où certains utilisent « trompeusement » les termes d’holophonie ou d’holohead.

Nous avons isolé les meilleurs passages d’une interview passionnante. Laissez-vous guider, Lucie nous emmène au cœur du son 3D.

 

 

Le binaural en quelques lignes

« Binaural signifie littéralement ‘lié aux deux oreilles’. C’est notre écoute naturelle ! Dans la vie de tous les jours, un être humain entend en 3D : il est capable d’entendre les sources en latéralité, en profondeur et en élévation.

« Grâce aux différences interaurales d’intensité et de temps, nous localisons les sons en azimut. Depuis l’enfance, nous sommes habitués à identifier les sons éloignés grâce à l’atténuation de leurs hautes fréquences notamment. Pour l’élévation, on parle d’indices monauraux liés en grande partie à la forme du pavillon.

« La tête crée des diffractions, les épaules des réflexions, le pavillon joue un rôle primordial : toute la morphologie humaine entre en jeu dans la localisation des sons.

« Une fonction de transfert mathématique représente cela : la HRTF ou Head Relative Transfer Function. Nous avons deux HRTF, une par oreille. Elles se mesurent en chambre anéchoïque. La prise de son native binaurale est un peu « plug and play » : « j’enregistre en binaural et j’écoute », avec éventuellement l’insertion d’une égalisation entre la prise de son et la restitution. Pour la synthèse binaurale, on utilise des plugins ou des applications indépendantes sur des sources mono ou multicanales. »

 

 

L’explosion du binaural : la miniaturisation de l’image compensée par l’augmentation de la sphère auditive

« Depuis 5 ans, il y a un réel intérêt pour le binaural. Une des raisons est l’augmentation de la qualité des casques d’écoute. La mode des casques à large membrane donne une place de choix au binaural.

« Les appareils utilisés par les consommateurs d’images se sont miniaturisés, iPhone, smartphones et tablettes. Le fait de pouvoir binauraliser du son multicanal permet de compenser cette miniaturisation. Ce n’est donc pas l’amour du son qui est responsable de cet engouement.

« La synthèse représente ainsi la majeure partie des productions actuelles : on binauralise à partir de flux 5.1, 7.2, 22.2 ou Dolby Atmos. Chaque flux est filtré par une paire d’HRTF. On peut également faire du mixage objet pour créer une scène 3D en partant de sources mono spatialisées à l’aide de plugins. Mais la synthèse, notamment à partir de sources 5.1, est peu représentative des possibilités du binaural : la source 5.1 est peu adaptée à l’écoute humaine et réductrice de l’espace sonore (on ne dispose, par exemple, pas de haut-parleurs en hauteur ou au sol). On perd une grande partie de l’intérêt du binaural, celui de jouer sur la sphère d’intimité de l’individu. »

 

 

Le problème de stabilité frontale

« C’est un problème dû aux HRTF. Pour les prises de sons natives, les HRTF utilisées à la captation ne sont, par définition, pas celles de tous les auditeurs. Pour la synthèse, on doit également faire un choix de HRTF. Le résultat sera différent selon l’éloignement entre les HRTF de l’auditeur et ceux de synthèse. Les sons sont alors plus ou moins rabattus sur les côtés ou entendus en haut ou derrière la tête.

« The Barber Shop, une réalisation proposée sur Internet depuis plus de 10 ans, évite élégamment ce problème : chez un coiffeur tout se passe derrière la tête. Deux solutions permettent de résoudre ce problème.

« Il a été prouvé qu’en synthèse binaurale, un système de suivi de casque (head tracking) permet de ramener la localisation frontale. Pour l’instant en natif, la prise de son se faisant par l’intermédiaire d’une paire d’oreilles, il est actuellement impossible d’enlever le HRTF d’origine et de le refiltrer avec une autre paire d’HRTF. Il est donc impossible d’individualiser l’écoute ou de faire du head tracking.

« L’autre solution consiste à implémenter ses propres filtres HRTF, mais il semble difficile de mesurer toute la population ! Un laboratoire acoustique parisien a de son côté mis en évidence qu’il suffirait de sept modèles d’HRTF pour bien correspondre à la majorité des cas, et le fait d’implémenter dans les plugins ces sept modèles permettrait de récupérer la stabilité frontale.

« Ce problème n’est pas ressenti de la même manière selon les auditeurs. De plus, il semblerait qu’une écoute régulière en binaural augmenterait les facultés de discrimination des sources. La plus-value immersive compense les quelques pertes frontales grâce à l’apport des sons latéraux et de l’élévation, ainsi que le très bon fonctionnement à l’arrière. »

 

 

Les configurations de Lucie

« En déambulation, j’utilise les micros dans mes oreilles. Pour la création, la captation de concert, de pièces de théâtre et de fiction sonore, j’utilise la tête Neumann dans laquelle j’ai investi et mon ancienne tête fabriquée avec des micros DPA et des oreilles d’audioprothésistes.

« Le résultat obtenu avec la tête Neumann est plus universel ; l’immersion fonctionne sur plus de gens et la sphère 3D est plus large, l’immersion est mieux retranscrite.

« En tournage, j’ajoute maintenant à ma prise de son binaurale un couple XY ou ORTF ; configuration que j’utilise même pour des tournages de films ou documentaires traditionnels, le mixeur pouvant utiliser la paire (XY ou ORTF) pour les canaux avant et le binaural pour l’arrière.

« J’utilise très peu la synthèse ; elle me sert dans mes créations pour des sources que je ne peux pas faire moi-même. »

 

 

Quels plugins ?

« J’ai commencé à faire de la synthèse avec le spatial audio designer de New Audio Technology, puis le SPAT développé par l’Ircam et commercialisé par Flux. Ce dernier était à l’origine une bibliothèque d’objets pour MaxMSP, avant de devenir un plugin pour les stations de travail audio telles que ProTools.

« Aujourd’hui, j’utilise le SPAT Revolution (une application externe qui communique directement avec le séquenceur), qui permet la virtualisation au casque d’audits existants, ainsi que la réalisation de mixages cinéma en 22.2 par exemple. Tu peux ainsi mixer en binaural comme si tu te trouvais au milieu d’un audit. Le mix sonore est en quelque sorte up-mixable et devient compatible avec une diffusion sur enceinte. »

Le jeu vidéo : environ 30 ans de son binaural

« Les jeux vidéo font appel à de la synthèse, mais également à des captations en binaural natif. Ubisoft fait appel à des ingénieurs du son via la société Audio Gaming (à verifier) pour collecter des ambiances aux quatre coins du monde. »

 

 

Deux grands copains : l’ambisonique et le binaural

« Lorsque des entreprises me contactent pour des projets en réalité virtuelle, je précise rapidement que la prise de son binaurale native ne fonctionne pas : il faudrait une tête multi-oreilles (un modèle existe, il a été développé par 3DIO). Pour ces applications, je conseille de réaliser une prise de son ambisonique, puis de binauraliser avec des plugins (SPAT ou Binauralizer de Charles Verron à Rennes).

« À la restitution, il est possible d’intégrer les HRTF souhaités ; le système de head tracking adaptant la diffusion aux mouvements de la tête de l’auditeur. Aujourd’hui, la très grande majorité des productions binaurales suit ce procédé. »

 

 

La création dramaturgique en son binaural

« Après 15 ans d’expérimentation, ma priorité est dans le partage sonore. Je développe le binaural comme un portail de partage de situations acoustiques. J’ai ainsi commencé la réalisation d’une carte d’immersion sonore offrant des voyages en son binaural. Je souhaite également proposer la découverte d’installations artistiques à sources sonores multiples. Prochainement, je pars au Sénégal pour la réalisation d’un nouveau documentaire sonore, en binaural évidemment. »

 

 

Actualité

« J’ai été récemment contactée par M6 et W9 pour la réalisation de podcasts sonores avec notamment l’adaptation de certaines émissions. Je leur ai proposé, comme je l’avais fait pour le groupe NRJ, de mettre en place des binômes auteurs dramatiques/spécialistes de l’écriture sonore binaurale. Les premiers projets seront basés sur des sons existants que je spatialiserai en les augmentant avec des éléments de ma banque sonore. Ensuite, on devrait écrire dès le début véritablement pour le binaural avec de nouvelles captations natives. »

 

 

En conclusion

« Je veux faire du bien au binaural. C’est pour cela que je souhaite continuer à former les professionnels du son qui vont être confrontés à cette technologie. Je suis également contente, pour la même raison, de travailler avec le groupe M6 pour proposer au plus grand nombre des réalisations binaurales de qualité. »

 

 

QUELQUES RÉFÉRENCES POUR DÉCOUVRIR LE BINAURAL

• Site internet de Lucie Hardoin : sonbinaural.com

• Plate-forme Hyperradio de Radio France : hyperradio.radiofrance.fr

• Sites Internet de Pascal rueff : binaural.fr, technobyl.fr

• Plugins de Charles Verron : noisemakers.fr

 

Article paru pour la première fois dans Mediakwest #29, p.90/91. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 3 juillet 2019 à 19:28

Découvrez les nouvelles fonctionnalités de la version 9.40 d’EDIUS de Grass Valley

Découvrez les nouvelles fonctionnalités de la version 9.40 d’EDIUS de Grass Valley © DR

Grass Valley vient de publier la version 9.40 de sa soluton d’éditon EDIUS. Comme toujours, les utlisateurs d’EDIUS 9 bénéficieront de la mise à jour gratuitement. La version 9.40 inclut de nouvelles fonctionnalités et améliorations majeures qui augmenteront considérablement le flux de travail des utilisateurs d’EDIUS 9.

 

EDIUS 9.40 fournit désormais :

- L’exportation Apple ProRes et l’importaton ProRes Raw

- La fonction multicaméra est améliorée avec des optons de synchronisation nouvellement implémentées (y compris l'annonce de la synchronisaton audio à venir)

- La conversion HDR-SDR est optmisée et confortable avec mappage de tons en clip doux

- Le traqueur de mouvement de masque optmisé

- Import / Export de sous-titres y compris euportés avec la vidéo

- Nouveau décodeur logiciel H.265 haut débit pour une performance améliorée des clips HEVC

- Prise en charge de la dernière technologie Intel QuickSync pour les processeurs tels que i7-9700K ou i9-9900K pour l'accélératon H.264 / H.265

 

En outre, EDIUS 9.40 inclut un certain nombre de fonctionnalités supplémentaires, telles que la prise en charge des nouveaux formats de sources pour Sony Venice Raw, Panasonic P2 8K et les performances plus rapides pour le Canon Cinema Raw Light, ainsi que la prise en charge des nouveaux formats exportés pour les codecs H.264 / H.265 au format MOV.

Au NAB 2019, magic multi media, distributeur d'EDIUS pour la région EMEA et l'Amérique du Nord, a produit un reportage vidéo couvrant toutes les principales fonctionnalités et améliorations. Vous trouverez le reportage et de nombreuses autres informations utiles, ainsi que des tutoriels gratuits, des podcasts, le forum utilisateur EDIUS, des mises à jour et une version d’essai EDIUS gratuite ici

Jusqu'à la fin du mois de mai 2019, toute personne achetant EDIUS 9 reçoit proDAD Vitascene V3 LE (prix normal 167 € + TVA) en bonus gratuit. Cette promotion s'applique à toutes les versions d'EDIUS Pro 9 et de Workgroup 9 : version complète, mise à jour, mise à jour intermédiaire, mise à jour intermédiaire 2 et EDU. Vous trouverez tous les détails sur cette promotion ici.

 

Contrairement aux autres solutions NLE professionnelles, EDIUS est disponible à l'achat et ne force pas l'utilisateur à adopter un modèle d'abonnement non souhaité.

  • 30 mai 2019 à 11:29

Lœdens en route vers la postproduction 4K HDR

L’auditorium principal avec un projecteur 4K Sony, et surface de contrôle DaVinci Advances. © Lœdens Studio

Lœdens est un nouveau prestataire de postproduction qui se spécialise sur les contenus en très haute définition HDR (UHD, 4K, 8K). Parmi ses clients, des producteurs comme Amos Rozenberg qui, depuis plusieurs années, produit en 4K. Au final, une association de compétences de différentes entreprises qui aiment relever les défis technologiques au service de la création.

 

La nouvelle société de prestation technique Lœdens propose ses services de postproduction avec un axe fort sur la 4K et le HDR (HLG, HDR10+) sur du mastering, étalonnage, effets visuels, création de DCP. Le studio travaille beaucoup pour le marché du luxe, de la parfumerie, notamment pour Prada, Valentino. Il est l’aboutissement d’une collaboration de plusieurs années de ses deux fondateurs, Sofiane Benabdallah et Laszlo Chatelard, lesquels ont une formation dans la réalisation et le graphisme.

Travaillant avec de nombreux producteurs au fil des ans, passionnés de cinéma et de belles images au sens large, tous deux ont décidé de donner vie à leur rêve et créé de toutes pièces ce nouveau lieu dans le XVIIe arrondissement parisien, à quelques centaines de mètre de la place Clichy.

 

« Nous avons cherché pendant un an un lieu qui puisse accueillir notre projet, nous avons trouvé un ancien atelier en fond de cour et nous avons effectué six mois de travaux pour que le lieu soit fonctionnel, que nos clients et talents s’y sentent bien », nous relate Sofiane Benabdallah, cofondateur de Lœdens. Au final, un budget de plus d’un million d’euros (achat du site, rénovation, création des espaces et équipements) pour cette société qui prend le pari de la qualité.

 

 

Des équipements taillés pour les projets haute résolution

Le studio est à taille humaine, l’entrée fait penser à une galerie d’art avec sa déco minimaliste et ses affiches graphiques. Une fois poussée l’une des portes, on arrive dans un magnifique auditorium qui bénéficie d’une acoustique soignée. « Nous avons des voisins, et donc il nous a fallu créer une boîte dans une boîte pour isoler au mieux les nuisances sonores possibles lors d’une séance d’étalonnage ou d’une projection », insiste Sofiane.

L’auditorium mesure environ 50 mètres carrés, il fait également office de salle de projection et peut être loué à ce titre. Il comprend un projecteur 4K Sony SRXR510P (DCI), un écran micro-perforé de 5,5 mètres de base, d’une écoute Dolby 7.1. L’étalonnage se fait sur Resolve DaVinci avec un Advanced Panel. Le matériel cinéma a été installé par la société ADDE. Pour le reste du matériel, c’est la société Atreid qui a fourni les stations de travail SuperMicro. Des stations survitaminées car Lœdens Studio travaille sur des projets gourmands en termes de bande passante. L’auditorium comprend également un moniteur Sony BVM -X300/2 4K Grade 1 HDR 1000 nits. « Nous nous focalisons sur des projets en 4K HDR, et également en 8K sur lesquels nous venons de faire les premiers tests », précise Sofiane.

Le DaVinci est relié en SAN avec le nodal situé à l’étage supérieur. La salle sert pour de l’étalonnage de fictions et de films publicitaires, mais récemment Lœdens Studio a signé la postproduction du prochain Palma Show (BlagBuster Production) qui sera diffusé en prime-time pour TF1, et qui a été réalisé en 4K.

 

La seconde salle est orientée broadcast avec un écran de contrôle Eizo CG3145 Prominense 4K et un téléviseur LG Oled 65 pouces pour la vision finale. L’étalonnage se fait également sur DaVinci, mais avec un mini Panel.

Lœdens Studio propose également à ses clients des stations de montage Avid ou Adobe. Elles sont reliées au réseau SAN évolutif de 95 To permettant ainsi l’accès à tous les rushes en temps réel et ce, quelle que soit la résolution (4K et plus) et tout type de compression (ProRes, R3D, ArriRaw, DPX…).

 

 

Des producteurs engagés sur le 4K et 8K

Parmi les clients de la société, Amos Rozenberg qui a plusieurs projets en cours, au travers de ses deux sociétés (Rockstone Films et Paramax). Il vient de finir le tournage d’un long-métrage « Music Hole », tourné en Red Monstro 8K HDR et la série « Cooke S7 » plein format dont un prototype (18 mm ouvrant à 2). Le film, qui comprend de nombreux effets visuels, ne sera finalisé que dans plusieurs mois. Le long-métrage a été tourné en 25 jours et a nécessité 30 To de stockage (x 3 pour les sauvegardes). Les rushes ont été traités par PrestaFilms à Aix-en-Provence.

Pour tester la chaîne 8K, sur un format plus court, Amos Rozenberg a tourné un mini concert improvisé du chanteur Eduardo Ed Motta en 8K 60p. Le film a été tourné sur un bateau-mouche la nuit, juste avec un éclairage d’appoint, et le résultat est spectaculaire.

 

« Nous faisons de nombreuses captations de concerts en grand capteur avec des caméras Red en 4K depuis 5 ans. Nous voulions tester en avant-première le premier workflow 8K HDR, et l’image que nous obtenons est vraiment étonnante. Nous sommes des petites structures, mais grâce à cette collaboration avec Lœdens Studio et Sesama Films, nous pouvons tester grandeur nature les nouveautés technologiques. Nous sommes passionnés par l’innovation et nous voulons aller plus loin dans l’écriture pour ces nouvelles formes visuelles », s’enthousiasme Amos Rozenberg.

Sur le tournage de ce concert, un DIT déchargeait les cartes, copiait les médias sur des baies de disques durs, générait des proxys à la volée pour voir les images en temps réel. Paramax a produit des concerts dont l’image soignée a été saluée par la critique, notamment un concert de l’Orchestre Philharmonique d’Israël qui a été distribué en Blu-ray 4K HDR10. Autre projet, l’opéra Turandot, tourné à Torre del Lago en Italie.

 

Autre partenaire, la société Sesama, dirigée par Christophe Boula, spécialisée dans la location de caméras Red et qui a loué les caméras sur les différents projets d’Amos Rozenberg. La société, outre la location, fait de la production de documentaires, de la captation et également assure des services d’étalonnage, de mastering et de fabrication de DCP.

Lœdens, un nouveau studio de postproduction qui offre une gamme complète de services 4K, 8K en postproduction, mais également en effets visuels, à découvrir en 2019. 

 

 

LŒDENS, EN TERMES D’ÉQUIPEMENTS DE POSTPRODUCTION, C’EST :

• un serveur TigerServe1,

• une baie de stockage Accusys PCIe 3.0,

• deux stations de travail DaVinci Resolve SuperMicro Multi GPU,

• une salle principale avec surface de contrôle DaVinci Advanced,

• une salle secondaire avec Mini Panel DaVinci et référence Eizo CG-3145,

• une solution d’archivage des médias sur bandes LTO

 

 

Article paru pour la première fois dans Mediakwest #30, p.86/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 28 mai 2019 à 23:59

Une collection de vidéos Premium RED Digital chez Pond 5

Pond5 lance une nouvelle collection de contenus Premium RED Digital… © DR

La place de marché mondiale d’images photo et vidéo Pond5 a lancé une toute nouvelle collection de séquences vidéo premium en 8K, 6K, 5K et 4K, tournées exclusivement sur des caméras RED Digital Cinema.

 

Pond5 a dans la foulée développé un nouveau filtre de recherche "RED Camera" pour la vidéo sur son site, permettant aux clients de découvrir facilement des centaines de milliers de clips créés avec les caméras RED dans sa bibliothèque qui compte désormais plus 14 millions de clips vidéo.

« La résolution 8K offre l’avantage d’options illimitées de zoom ou de recadrage dans l’image avec des projets finaux qui peuvent très bien être en 4K ou plus. Avec la résolution 8K qui devrait s'implanter de manière significative sur le marché grand public au cours des quatre prochaines années, les créateurs de vidéos peuvent utiliser ces séquences pour pérenniser leur travail sur les écrans de nouvelle génération. La production et la création vidéo évoluent constamment avec la technologie. Offrir à nos acheteurs des options de la plus haute qualité et des technologies les plus avancées pour leurs projets vidéo fait partie de notre ADN », déclare Jason Teichman, PDG de Pond5 qui propose également sur sa plateforme des séquences d’images VR.

Dans la continuité du lancement de la collection RED de Pond5 et de l’expansion internationale d’une collection Pond5 DJI, la place de marché mondiale Pond5 a annoncé son intention de créer une nouvelle collection de vidéos tournées avec le codec ProRes RAW d’Apple… L’appel à contribution est ouvert !

  • 24 mai 2019 à 06:02
❌