Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierMediakwest - Post

Frame.io simplifie la validation des vidéos

Les vieilles méthodes de validation des vidéos et Frame.io. © DR

Nous sommes pleinement dans l’ère de la dématérialisation, la cassette étant un lointain souvenir. Nous profitons donc naturellement des outils d’Internet pour collaborer avec les différents membres d’une équipe de production, ou avec les clients d’un projet institutionnel. Frame io « ringardise » à son tour ces outils « de l’ancien monde numérique ».

 

Aujourd’hui, pour de nombreuses productions, une fois le film finalisé (ou dans une phase avancée), celui-ci est exporté et chargé sur un service de stockage cloud. Un mail est envoyé aux différents intervenants du processus de validation. Les commentaires viendront en réponse. Et les difficultés commencent ! Comment centraliser les remarques en s’assurant qu’elles parviennent aux destinataires ? Comment être précis dans la description des modifications à effectuer ? Comment gérer les différentes versions du film ? Bref, comment rester « zen » dans cette étape cruciale, consommatrice de temps et humainement délicate du travail ? Hébergée dans le cloud, Frame.io solutionne l’étape de validation avec élégance, et propose des outils complémentaires, adaptés au travail collaboratif.

Frame.io se donne pour objectif de donner du pouvoir à la créativité en fluidifiant l’organisation et la collaboration des productions. Les films et les médias originaux (rushes) sont téléchargeables sur le site de Frame.io, accessible uniquement aux utilisateurs disposant des droits nécessaires définis par les responsables de l’équipe.

 

Frame.io, le HUB de validation

Une fois adopté, Frame.io devient le centre de travail collaboratif des productions. Aussitôt les vidéos chargées sur le site, tous les processus itératifs de validation y sont centralisés ; avec, à la clé, un gain de temps important. Une offre entreprise permet de planifier des purges de médias avec une suppression soft, permettant de les récupérer 30 jours après la date définie pour la purge.

 

Sécurité et paramétrages

Il est possible de gérer la sécurité des comptes et des utilisateurs. Les ressources également peuvent être administrées (allocations, limites des espaces de stockages, nombre de comptes). Frame.io est fier de ses certifications (TPN et SOC 2 Type 2) et affirme investir continuellement dans la sécurité. La marque vante les mérites de sa solution en assurant un chargement sécurisé et fiable, même via les pires connexions wi-fi des « coffee shops ».

 

 

Liens directs avec les stations de montage

En étroite collaboration avec les éditeurs principaux de solutions de montage et de postproduction, Frame.io propose des solutions plus ou moins directement intégrées à Final Cut Pro X (Apple), Premiere Pro (Adobe), DaVinci Resolve (BlackMagic) et propose une solution pour récupérer les remarques des intervenants sur la station de montage pour Avid Media Composer.

• Apple Final Cut Pro X

Après installation d’une application « compagnon » (companion app) téléchargeable sur le site de Frame.io, une icône est intégrée à l’interface de Final Cut Pro X, permettant l’ouverture d’une fenêtre externe, ainsi qu’une option d’export direct vers Frame.io. Après connexion, l’utilisateur accède aux projets hébergés sur les espaces de stockage gérés par Frame.io. Il peut explorer les différents médias et les importer dans ses « événements » au codec natif ou dans un des formats basse résolution nativement préparés pour les différents players. Il peut également visualiser les films accompagnés de leurs annotations en synchronisant la lecture de la timeline Final Cut Pro X à celle du player Frame.io.

Dans le sens inverse, pour envoyer des clips depuis Final Cut Pro X vers Frame.io, il suffit de les « glisser-déposer » depuis un événement de Final Cut Pro X vers l’interface de Frame.io. Le partage d’un projet Final Cut Pro X (une timeline dans le vocabulaire d’Apple) se fait via un simple clic droit, le choix étant alors proposé d’exporter la timeline aplatie, chaque clip de cette dernière, ou les deux. Les annotations des validateurs (à ne pas confondre avec les liquidateurs) peuvent être importées dans la timeline au moyen de plans composés. Les auteurs des commentaires deviennent des rôles, ce qui permet de cibler les travaux à effectuer en priorité (selon la hiérarchie des intervenants).

 

• Intégration avec Adobe Premiere Pro et After Effects

Elle prend la forme d’un panel (interface panel) totalement intégré à l’interface du logiciel de montage. Il permet le téléchargement des médias dans les chutiers de Premiere Pro ou le navigateur d’After Effects et la lecture des films qui ont été exportés depuis les outils d’Adobe. L’export vers Frame.io se fait directement depuis le panel Frame.io, avec le choix des codecs d’export, et des options telles que la prise en compte des remarques associées à des marqueurs et l’autoversioning des films pendant l’avancée du projet. La lecture des films depuis Frame.io, après qu’ils aient été annotés, et la tête de lecture de la timeline d’origine sont synchronisées pour permettre une intervention efficace du monteur.

Les séquences peuvent être envoyées vers Frame.io et encodées avec tous les presets media encoder, presets personnalisés inclus. Les indications ajoutées via des marqueurs dans Premiere Pro sont automatiquement converties en commentaires Frame.io et accessibles via le player de l’application web ou de l’app iPhone. Des membres de l’équipe et des collaborateurs peuvent être ajoutés et gérés depuis la fenêtre Frame.io. Le panel Frame.io constitue un véritable chutier « dans le cloud » à partir duquel plusieurs éditeurs peuvent travailler.

 

• DaVinci Resolve

Avec la dernière version du logiciel de BlackMagic, l’opus 16 de DaVinci Resolve, l’intégration de Frame.io est native dans la version studio du logiciel. Elle a bénéficié du nouvel API Frame.io désormais public. Les « préférences » de DaVinci permettent de renseigner les coordonnées du compte Frame.io de l’utilisateur. La structure cloud de l’utilisateur, son « workspace » complet, est alors disponible depuis la page média dans l’emplacement « espaces de stockage ».

On peut alors importer les médias depuis Frame.io vers le projet DaVinci actif, ces derniers étant directement exploitables en proxy, la bascule sur les médias natifs étant automatique et invisible pour l’utilisateur, une fois le téléchargement effectué. Tous les comptes et projets, toutes les équipes et tous les dossiers de Frame.io sont directement accessibles.

Le moment venu, la première version du film est exportée par le monteur vers Frame.io.

Les membres de l’équipe (« team members ») peuvent alors y accéder. La production peut également envoyer des liens d’accès « présentation » ou « review » destinés à des personnes externes à l’équipe.

Les membres de l’équipe, les collaborateurs et les destinataires de liens review, pourront ajouter des commentaires et des demandes de modifications, associés à des images précisément repérées dans le temps (au timecode) et intégrant des textes, et des dessins si besoin pour préciser les interventions à effectuer sur les plans.

Les visionnages peuvent se faire sur le site de Frame.io ou via l’application iOS (iPhone ou iPad). Le monteur reçoit en temps réel les annotations, dessins compris, sous forme de marqueurs positionnés à l’image près dans la timeline. Il peut également ajouter ses propres remarques, grâce à un marqueur dédié à Frame.io, les collaborateurs les observant en temps réel sur leurs players. Les nouveaux exports générés après les modifications sont automatiquement stockés et numérotés dans une pile de versions accessible en haut à droite des icônes représentant les films dans le « chutier » Frame.io. Il est alors facile de visionner les modifications et de les comparer entre elles avec la vue de comparaison prévue pour cela.

 

• Avid Media Composer

Avec Avid Media Composer, l’intégration est plus restreinte. Le monteur prépare manuellement son export avant de le déposer manuellement sur Frame.io. Il peut éventuellement pour cela utiliser des dossiers de surveillance (lire plus loin).

Après visionnage, les collaborateurs préparent leurs annotations ; elles seront exportées depuis Frame.io sous la forme d’un fichier xml avant d’être importées dans Media Composer via la fenêtre dédiée aux marqueurs et être finalement visibles dans la timeline, les annotations s’inscrivant dans le visualiseur.

 

 

Allez vous coucher, Frame.io s’occupe de tout

Avec l’application gratuite de Watch Folder (dossier surveillé), directement accessible depuis la barre de menu, Frame.io vous assure que l’envoi des médias sera fait, même en cas de coupure de réseau ou en utilisant une connexion wi-fi « douteuse ». C’est la technologie de chargement ci-dessus décrite qui est mise en œuvre dès qu’un média est placé dans un dossier configuré avec l’application. Un dossier « cloud » est créé pour accueillir les médias placés dans le dossier local. Frame.io peut scruter les sous-dossiers des dossiers qu’on lui confie, et conserver (ou non) cette structure.

Le partage de fichier est possible en format compressé, et également aux formats de production Apple Pro Res ou DNxHD. En complément des fichiers vidéo, vous pouvez intégrer des fichiers audio, des images fixes (dont les Raw, CR2 et jpeg) et des PDF (cela permet l’échange de briefs et autres documents créatifs).

 

Utilisation en ligne et player iPhone

En complément de l’intégration aux logiciels de postproduction, les producteurs ou les clients peuvent accéder à Frame.io via une application iPhone très bien notée sur l’appstore (lauréate de l’Apple design award 2016) ou via l’application web. L’utilisation est enfantine : il suffit de créer un compte, sélectionner un plan et créer un projet. Vous pourrez ensuite inviter les membres de votre équipe à collaborer, en choisissant le niveau d’accès et d’intervention que vous leur accordez : doivent-ils recevoir un mail à la mise à jour des projets ? Voulez-vous être alerté lorsqu’ils ajoutent des notes ? peuvent-ils télécharger ou charger du contenu ?

Les films peuvent également être lus côte-à-côte pour comparer les différentes versions et modifications. Même s’ils sont encodés en HTML 5 pour les différents « players », une version non compressée est disponible et téléchargeable. Les personnes en charge de la validation des films peuvent dessiner directement sur les images à modifier pour souligner une perche ou tout élément à modifier. Le player lit plus de 150 formats de fichiers vidéo.

 

Publication sur Vimeo

Vous pouvez profiter de l’accélération des téléchargements de Frame.io pour envoyer directement vos films vers le célèbre hébergeur vidéo apprécié des professionnels.

 

Zapier

Zapier augmente les possibilités de Frame.io, avec un ensemble d’applications (plus de 1 500) permettant par exemple, le lien avec Google Drive ou Google Sheets, l’intégration avec Trello, Slack, Microsoft Excel, Amazon S3, Gmail ou encore Dropbox, pour citer quelques exemples.

 

Et Slack

C’est une plate-forme de travail collaboratif, où se retrouvent les utilisateurs qui partagent, autour de projets communs, des informations, des messages et maintenant des projets Frame.io. Toute l’activité, les annotations, les timecodes, et même les imagettes ainsi que l’ensemble des échanges effectués dans Frame.io, sont accessibles dans Slack, afin de centraliser les outils collaboratifs.

 

Chargement accéléré

La marque reste discrète sur ses secrets de fabrication et annonce une puissance de travail permettant un chargement des fichiers plus rapide que les solutions habituelles : deux fois plus rapide que Signiant, cinq fois plus rapide que Dropbox, Aspera et encore plus comparativement à Vimeo. Pour cela ils découpent les fichiers en morceaux de 20 Mo, avant de les télécharger simultanément par lots de cinq blocs. La rapidité est un avantage fort et la sûreté est également au rendez-vous.

Si une coupure intervient lors du chargement, ce dernier est mis en attente et reprend dès la disponibilité du réseau. Deux très bonnes nouvelles pour tous les monteurs freinés par l’attente d’un chargement important et qui conservent de mauvais souvenirs d’attente devant leur ordinateur de peur que leur chargement s’arrête avant la fin. Frame.io avertit par e-mail les membres de l’équipe lorsque la timeline est rendue et chargée.

 

Qui utilise frame.io ?

Frame.io compte parmi ses clients célèbres d’importantes compagnies telles que Vice, Turner Broadcasting, BuzzFeed et Google. Vice Media produit une grande quantité de contenu quotidien, notamment des news et d’autres produits au timing serré. Le groupe a gagné un temps considérable dans son process de validation qui implique 36 agences à travers le monde et des centaines de comptes Frame.io (400 « team members » et 1 600 collaborateurs externes). L’entreprise a calculé que Frame.io lui a permis le gain d’une centaine de jours de travail.

 

Les team members, les collaborateurs et les différents liens de partage

Les utilisateurs « payants » sont les « team members » et les collaborateurs. Ces derniers pouvant voir et commenter uniquement les projets pour lesquels ils ont reçu une invitation ; ils ne peuvent pas partager de contenu ou ajouter de nouveaux utilisateurs. Les « team members » accèdent à l’ensemble des projets auxquels ils ont étés invités et aux projets publics. Pour envoyer des vidéos à des clients sans compte Frame.io, il est possible de générer des liens de partage (review links) ou des présentations. Le destinataire d’une présentation peut la visionner sans être autorisé à y ajouter de notes. Les liens « review » permettant l’ajout de notes sont accessibles aux utilisateurs externes à l’équipe, mais disposant d’un compte Frame.io.

 

Le coût de cette solution ?

La première option Pro est facturée 19 $/mois pour un « siège » (17 $ avec un engagement annuel).

Pour les équipes, une option trois sièges (version Team) est facturée 49 $/mois et 25 $ par utilisateur supplémentaire (44 $ pour un engagement annuel). La version haut de gamme entreprise donne lieu à devis.

Au sujet du stockage, Frame.io différencie le stockage actif (13 $/mois pour 250 GB de stockage supplémentaire) où sont présents les projets en cours ; et le stockage « archive » (13 $/mois pour 1 TB supplémentaire) à partir duquel on peut rapatrier les projets archivés sous trois à cinq heures.

Les versions Pro et Team incluent 250 GB de stockage actif et 750 GB de stockage archive. Pour la version Enterprise on passe à 1 TB et 1 TB.

Pour les versions Team et Enterprise sont ajoutées des options de personnalisation de l’interface, de commentaires privés, et pour la version entreprise uniquement de gestion de multiples équipes, de purges et de watermarking des médias, et de support dédié.

Les structures désireuses d’adapter la solution à leur workflow et disposant d’une équipe de développement ou travaillant avec des sociétés externes spécialisées peuvent désormais profiter d’une superbe API, celle qui a servi à l’intégration de Frame.io dans DaVinci Resolve.

 

Article paru pour la première fois dans Mediakwest #33, p.34/36. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 24 novembre 2019 à 16:00

Adobe Premiere Pro gagne du terrain… (Web TV Fred Rolland)

Premiere d’Adobe gagne du terrain… (Web TV Fred Rolland) © DR

Premiere, solution phare dans la suite logicielle d’Adobe, propose plusieurs centaines d’implémentations par an. Cette solution logicielle remporte un succès de plus en plus important, notamment dans l’industrie du cinéma. Présent sur le Satis pour une keynote en partenariat avec le media Brut, Fred Rolland, responsable vidéo Europe pour Adobe nous explique les raisons de ce succès grandissant sur la Web TV Satis…

 

« La stratégie d’Adobe, il y a une dizaine d’années, a été de revoir complètement sa solution vidéo et de réécrire complètement Premiere Pro. De là est né un long projet de développement mais aussi par des équipes terrain en proximité directe avec les différents acteurs de l’industrie. L’équipe dont je m’occupe au niveau Europe a pour rôle d’être en relation avec les clients et partenaires stratégiques pour créer du retour et savoir ce que l’industrie a besoin. En développant un produit qui répond aux besoins, les clients utilisent le produit. Ils font confiance à Adope et nous voyons que cette confiance est positive car la base installée augmente énormément. Les enjeux autour de la vidéo sont très importants, ils vont au-delà du marché du film avec l’explosion de la vidéo sur les réseaux sociaux.

Cela a fait appel à des enjeux très forts en terme de qualité vidéo, d’accessibilité à l’outil de montage mais également d’intégration avec des outils graphiques pour pouvoir donner vie à sa vidéo, pouvoir se démarquer et comme beaucoup de personnes qui nous regardent, connaissent le métier historique d’Adobe autour du design pour les clients car leurs enjeux sont autres que de choisir le bon outil, l’enjeu c’est aussi de gagner en création de contenu, produire plus face à cette notion qui est drivée par les réseaux sociaux… »

 

Dans la seconde partie de son interview, Fred Rolland revient sur les annonces d’Adobe MAX 2019 qui se déroulait en même temps que le SATIS et plus particulièrement sur l’annonce de la nouvelle fonctionnalité de reframing automatisée proposée par Adobe Premiere.

 

POUR EN SAVOIR DAVANTAGE… VISIONNEZ L’INTERVIEW VIDEO !

  • 20 novembre 2019 à 17:00

Les fans contrôlent le son avec SupraLive ...

Conçue à l’origine pour les concerts, la solution SupraLive (Augmented Acoustics) s’applique désormais à tout événement live. © Augmented Acoustics

Quel spectateur n’a pas rêvé d’une intimité sonore avec l’événement, qu’il soit musical ou, en l’occurrence, sportif ? Cette expérience immersive est désormais possible grâce à la solution développée sous le nom de SupraLive par Augmented Acoustics, une start-up française qui soufflera en novembre prochain ses cinq bougies.

 

Si, pour l’heure, « SupraLive est un service VIP, réservé notamment aux habitués des loges dans les stades connectés, notre objectif est de l’étendre au plus grand nombre d’utilisateurs, dont les déficients sensoriels », prévient d’emblée Stéphane Dufossé, CEO.

Conçue à l’origine pour les concerts (le service a déjà été exploité sur plus de 125 d’entre eux) afin de permettre aux spectateurs équipés d’un casque et d’une application smartphone d’être au plus près des artistes sur scène grâce à l’interaction multipiste immersive, la solution s’applique désormais à tout événement live.

Ainsi, de la même manière qu’un mélomane peut s’imprégner du jeu de basse en l’écoutant en solo, le spectateur d’un match de foot pourra, en fonction de la disponibilité des sources, éliminer les cris du public adverse, choisir son commentaire, s’il est étranger, ou supporter de l’un des deux camps, voire celui exclusif d’une personnalité pour une expérience premium unique, ou encore entendre les sons du terrain, tels les consignes du banc de touche ou l’intercom des arbitres, pour une meilleure compréhension de l’événement. En résumé, faire son propre mix en temps réel, tout en respectant le travail de l’ingénieur du son.

« Ce que nous proposons, c’est une écoute alternative haute définition en multipiste, sans compression et sans latence. Pour cela, nous utilisons un émetteur C-MA4 qui se connecte à la console de l’ingénieur du son. Ce son “sortie de console” est délivré aux spectateurs via un boîtier contenant l’intelligence du système qui permet de garantir la qualité de service et de corriger la latence en live », détaille Stéphane Dufossé.

Dans le cas d’une retransmission à distance, l’enjeu de latence est différent, mais il en existe un autre : la synchronisation du son multipiste de SupraLive avec le flux vidéo, alors que les deux sources empruntent des canaux distincts. Pour résoudre ce point, « nous utilisons le même principe qu’en live sur le lieu de l’événement. Cela a d’ailleurs fait l’objet d’un dépôt de brevet », se contente de préciser le responsable.

Avec le déploiement prochain de la 5G, la solution va pouvoir s’affranchir du boîtier et Augmented Acoustics proposer le service directement via un téléphone mobile, ce qui va permettre d’étendre son accès au monde entier.

« Aujourd’hui, nous utilisons un boîtier pour qu’il n’y ait pas de décalage entre le son reçu dans le casque de l’utilisateur et le son externe. En live, on ne peut pas se permettre d’attendre que les paquets arrivent. »

Maintenant, poursuit Stéphane Dufossé, « ce qui, pour l’heure, n’est pas possible en wi-fi et 4G sans le boîtier le sera en 5G, grâce au découpage du réseau mobile en tranches (network slicing), qui permettra l’allocation de ressources dédiées pour chaque service, et à la faible latence. »

 

Extrait de l’article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.62/67. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 19 novembre 2019 à 17:00

Les vidéos web de France Médias Monde sous-titrées par la plateforme Eolementhe

Les vidéos web de France Médias Monde sous-titrées par la plateforme Eolementhe © DR

Videomenthe annonce qu’Eolementhe, sa plateforme collaborative de workflow média, a été retenue par France Médias Monde comme solution de sous-titrage multilingue, à l’issue d’une phase de consultation.

 

Le groupe France Médias Monde réunit FRANCE 24, la chaîne d’information continue trilingue; RFI, la radio mondiale; et Monte Carlo Doualiya, la radio en langue arabe. Les trois chaînes émettent depuis Paris à destination des 5 continents, en 14 langues.

France Médias Monde a lancé une consultation pour se doter d’une solution cloud de sous-titrage vidéo, simple et moderne. En effet, le groupe publie sur ses sites web des vidéos courtes (interviews, reportages…) issues de sa production interne, et a comme volonté de faciliter et accélérer le travail des équipes en matière de sous-titrage.

Eolementhe, plateforme collaborative de workflow média, a été retenue par France Médias Monde pour ses fonctionnalités de transcription, traduction et sous-titrage multilingue, mais également pour sa modularité, sa simplicité d’utilisation, et bien entendu son budget.

 

« Avec Eolementhe, nous publions sur le web nos vidéos sous-titrées en plusieurs langues, très rapidement, grâce aux outils automatisés, sans compromis sur la qualité des traductions ! La possibilité de validation humaine, à chaque étape du processus, et en mode collaboratif, est un réel avantage.

Autre point : la disponibilité des équipes Videomenthe, qui nous a notamment permis de travailler ensemble à la personnalisation de la solution », explique Clément Bisset, RFI.

 

Videomenthe a en effet collaboré avec France Médias Monde pour créer un workflow séquentiel répondant au mode de fonctionnement des équipes sur toute la chaîne de production. Des étapes de correction et validation humaines permettent aux différents utilisateurs (journalistes, techniciens, rédacteur en chef…) d’intervenir après chaque étape automatisée (transcription et traductions en plusieurs langues), ce qui garantit fluidité, rapidité et efficacité.

La solution Eolementhe a également été personnalisée : des espaces de travail adaptés à chaque profil ont été créés et un habillage de sous-titres répondant à la charte graphique web de France Médias Monde, a été mis en place.

 

« Nous sommes évidemment ravis d’avoir la confiance de France Médias Monde sur ce projet, passionnant à plus d’un titre. Le contexte « vidéo mobile » tout d’abord, avec la collaboration entre équipes techniques et éditoriales internationales, qui se fait de façon fluide via Eolementhe. Le fait de livrer les contenus vidéo à destination des supports web et réseaux sociaux, ensuite, qui montre la souplesse de la solution en terme de formats. Enfin, l’implication de tous nos interlocuteurs chez France Médias Monde, qui font évoluer la solution de façon très constructive », conclut Muriel le Bellac, Présidente de Videomenthe. 

  • 13 novembre 2019 à 17:13

Avec Resolve, pas de repos pour les zombies en postproduction !

En postproduction, même les zombies ne dorment jamais avec Resolve ! © DR

La société Chimney s’est reposée sur DaVinci Resolve Studio pour faciliter la collaboration en temps réel entre ses bureaux de New York et de Gothenburg dans le cadre de la production des effets visuels du film de The Dead Don’t Die. Cette société internationale de post-production aussi utilisé Fusion Studio, autre solution Black Magic Design...

 

Pour cette comédie de zombies réalisée par Jim Jarmusch, l’équipe de Chimney a produit plus de 300 VFX. Jim Jarmusch et le DP Frederick Elmes étaient à New York et il était indispensable pour les deux équipes de Chimney de collaborer en temps réel afin de prendre en compte la direction artistique du réalisateur et du DP durant la création des VFX.

 

« Ce film représentait le premier projet de Jim aussi riche en VFX et nous voulions qu’il se sente à l’aise durant toute la post production », souligne Sam O’Hare, superviseur des VFX de Chimney.

Chimney a pu compter sur les fonctionnalités collaboratives de DaVinci Resolve Studio pour revoir les séquences EXR en temps réel.

« Il fallait que les équipes de chaque continent puissent regarder les séquences en même temps pour pouvoir en discuter au téléphone. Grâce à DaVinci Resolve Studio, nous avons chargé les séquences EXR de chaque studio dans un projet commun. Nous les diffusions sur un écran en temps réel dans les deux endroits. Alors que Jim et Fred faisaient des commentaires sur les images en direct de New York, Alex Hansson, superviseur des VFX chez Haymaker et Andreas Hylander, créateur de VFX chez Chimney à Gothenburg pouvaient visionner l’image exacte dont ils parlaient », explique O’Hare.

« Comme la plupart des prises avaient été tournées en journée, puis étalonnées afin de donner l’impression qu’elles avaient été filmées de nuit, notre défi était de créer des VFX qui restent clairs et visibles, en dépit de cette ambiance nuit. Les workflows traditionnels avec des LUTs ne fonctionnaient pas, car l’étalonnage comprenait plusieurs masques et incrustations. Comme nous utilisions DaVinci Resolve Studio directement sur les séquences EXR originales, nous pouvions rapidement ajuster l’étalonnage afin de décider s’il fallait refaire le plan VFX ou s’il était possible de le modifier dans l’étalonnage », détaille Hylander.

O’Hare complète : « Grâce à DaVinci Resolve Studio, nous avons pu utiliser les informations colorimétriques de l’étalonnage. Les séquences originales chargées en dessous nous ont aussi permis de facilement comparer les images ce qui était précieux pour ameliorer notre travail. »

Jim Jarmusch a apprécié ce workflow qui facilitait considérablement le processus de finition... « Travailler avec des collaborateurs situés dans des pays différents représente souvent un défi, particulièrement pour des éléments visuels comme les effets. Toutefois, pour The Dead Don’t Die, et grâce à l’utilisation de DaVinci Resolve Studio chez Chimney, nous avons pu échanger des idées immédiatement avec notre équipe en Suède, tout en restant à New York. Cette solution de post production est une petite merveille collaborative ! »

Comme Chimney possède des bureaux dans onze villes dans le monde, la collaboration est aujourd'hui au coeur de tous ses projets. « Une bonne communication ainsi qu'un transfert rapide des données sont essentiels, nous travaillons avec des images non compressées dans tous les sites qui travailllent en synergie », précise O’Hare.

« Nous utilisons souvent la fonction d’étalonnage à distance de DaVinci Resolve Studio pour effectuer des sessions d’étalonnage dans plusieurs endroits, mais c’est la première fois que nous appliquons cette méthode aux VFX », souligne O'Hare. « Pouvoir visionner simultanément toutes les séquences modifiées en pleine résolution, dans deux endroits situés à 6000 km l’un de l’autre était pour nous une véritable révolution. La communication entre le réalisateur, le DP et l’équipe de VFX a été immédiate et parfaite durant toute la post-production Pour une société qui travaille constamment sur des projets dans différents studios, ce niveau de collaboration est crucial. »

 

O’Hare et son équipe ont également utilisé Fusion Studio pour les travaux VFX, dont une scène où un personnage utilise une paire de vieilles jumelles endommagées. « Comme le personnage, Hermit Bob, vit dans la forêt, Jim voulait reproduire la saleté et les fissures des lentilles, quand il regarde à travers ses jumelles. Nous avons utilisé plusieurs outils de Fusion Studio pour obtenir ce rendu, dont des effets de décalage appliqués à des formes rotoscopiques imitant du verre brisé. Nous avons également ajouté une couche émulant de la saleté et aussi divers mattes et incrustations pour créer des reflets internes dans les zones noires situées en dehors des deux cercles des jumelles. Les effets devaient suivre les mouvements de chaque plan, comme si le spectateur regardait à travers du verre brisé. Pour certains plans nous avons créé un tracking dans Fusion Studio en ajoutant des modificateurs Perturb au nœud Transform », conclu O’Hare.

  • 6 novembre 2019 à 17:00

Trophées Satis-Screen4ALL 2019, découvrez les solutions de Postproduction en compétition…

Trophées Satis-Screen4ALL 2019, découvrez les solutions de Postproduction en compétition… © DR

Les Trophées Satis-Screen4ALL 2019 mettent en lumière 58 produits et services innovants que l’on retrouvera la semaine prochaine sur le stand des exposants pendant les deux jours du salon. En tant que professionnel, vous pouvez exprimer vos « coups de cœur » personnels car les votes sont aussi ouverts au public ! La compétition décerne en effet 2 trophées du Public dans 4 catégories : Production & Tournage / Postproduction / Diffusion & Distribution / Services … Votez pour les solutions qui vous semblent les plus adaptées à vos besoins ou à votre vision de l’industrie... Et la semaine prochaine, partez à la rencontre des produits récompensés sur le salon ! Aujourd’hui, partons à la rencontre des 14 finalistes de la catégorie Post-production… Avec un labo en ligne, une prestation live HF 4K HDR, un service de sécurisation spécifiquement adaptés aux streams audiovisuels, un service client sur mesure… Le choix n’est pas évident !

 

 

CATEGORIE POSTPRODUCTION 

 

Workflow VR

Nuendo 10

STEINBERG MEDIA TECHNOLOGIES

 

Nuendo 10 est la meilleure solution professionnelle de production audio pour la post-production télé/cinéma, la production sonore de jeux vidéo et le mixage en réalité virtuelle. De la préparation du projet et de l'import des données brutes jusqu'à la livraison du résultat en passant par l'édition des dialogues, le Sound design et le mixage, mais aussi par la composition de musique, la post-synchro ou la re-conformation, Nuendo offre les meilleures solutions intégrées pour chaque étape du travail, de la production à la post-production et cette nouvelle version 10, grâce à ses avancées technologiques majeures, propulse le logiciel encore plus loin dans les domaines de la réalité virtuelle (VR), de la réalité augmentée (AR) et du son immersif.

Nuendo 10 devient effet la Station de Travail Audionumérique la plus complète en matière de réalité virtuelle (VR), de réalité augmentée (AR) et de son immersif. Son ensemble complet de fonctions est adapté aux utilisateurs qui débutent en réalité virtuelle, notamment ses outils simples qui permettent de créer des projets incroyables sans équipements supplémentaires.

Nuendo est aussi la meilleure solution pour les professionnels de la réalité virtuelle qui créent des champs sonores fortement immersifs dans le cadre d'expériences en VR et AR pour des applications pour consommateurs et entreprises. L'intégration directe avec DearVR Spatial Connect transforme Nuendo en une impressionnante plateforme de création de contenu en VR qui constitue l'environnement de travail en son immersif le plus efficace actuellement disponible.

 

 

 

Principales avancées technologiques de NUENDO 10

 

- Import audio d'enregistreurs nomades

- Import ADM

- Détection des coupes vidéo

- Plugin d'effet Doppler

Le plugin Doppler constitue un moyen rapide et efficace de simuler la perception du mouvement et de la distance

- Compatibilité dearVR Spatial Connect

- Compatibilité ARA

 

Prix : 999 € TTC

 

 

Edition VR

Inside

Immersive Ways

 

INSIDE est un logiciel de création d'expériences immersives en vidéo 360° et réalité virtuelle. Evolutif et modulable, INSIDE PRO propose de nouvelles fonctionnalités pour répondre spécifiquement aux besoins des professionnels de l'audiovisuel. Il combine la technologie d'un moteur 3D avec une interface de montage intuitive pour permettre la création de médias hybrides 2D/3D/VR avec une offre adaptée aux besoins de la communauté.

Évolutif et modulable, INSIDE est un logiciel de montage basé sur la technologie 3D et multiplateforme d'un moteur de jeu vidéo afin de rendre la création immersive et interactive accessible à tous avec un workflow de post-production simplifié pour la création immersive. La solution est modulable et adaptable aux besoins des projets via des fonctionnalités à la carte proposées sous forme de plugins.

 

Prix : 25 €/mois ou 70 €/3 mois

 

 

Transcodage et autres services de labo

Transkoder 2019

COLORFRONT

 

Tranksoder est un incontournable pour traiter des fichiers complexes impactant fortement les temps de traitement dans la chaîne de production (décodage, masterisation HDR, conversion SDR/HDR, encodage 4K, 8K, IMF...).

Outil Idéal pour le labo numérique et les workflows HDR intenses, Transkoder 2019 est LE couteau suisse ultra performant du traitement de fichiers vidéo SDR et HDR, il permet de gérer de très nombreux formats de caméras et de délivrer du contenu pour tous les workflows numériques : plateformes VOD et streaming (Netflix, Amazon, AppleTV..), web, encodage, post production, broadcast… Le jeu d'outils Transkoder inclut le codage-décodage JPEG2000, la prise en charge des dernières Applications Cinema Mezzanine et ProRes IMF, l'édition et la création de fichiers IMF / IMP, le transwrapping, le packaging, la vérification et le contrôle de la qualité, le labeling MCA (Multi-channel Audio), les fichiers de métadonnées sidecar, et EIDR, le système d'identifiant unique universel pour les assets de cinéma et de télévision.

 

Transkoder 2019 intègre de nouveaux outils tels que :

 

- Un nouveau moteur de sous-titres.

- De nouveaux outils pour la masterisation IMF

- Le support de Dolby Vision V4

- Ainsi que nombreuses améliorations.

 

Prix : à partir de 15 000€ HT (en version Mac) – Distribué par Post Logic

 

 

 

Transfert de données

M.2 4x4 PCIe Card

SONNET TECHNOLOGIES

 

En régie, en post-production, au montage, au graphisme, à l'archivage on-line, lorsqu'il est nécessaire d'augmenter le stockage interne d'un ordinateur et que la rapidité des données de travail est critique, ne regardez plus vers les SSD SATA en 2.5", orientez-vous plutôt vers des SSD NVMe. Aujourd'hui les SSD NVMe PCIe offrent des performances immenses, surclassant facilement celles des SSD 2.5" SATA. La nouvelle carte M.2 4x4 PCIe de Sonnet permettra de monter quatre M.2 NVMe SSD PCIe sur une simple carte insérée dans un slot x16 pour transformer la façon dont vous travaillez.

 

Il peut être utilisé comme stockage de media à accès instantané ou comme disque de travail performant avec la carte Sonnet M.2 4x4 PCIe dans la tour de votre Mac Pro; ou dans un ordi PC de bureau ou un serveur sous Windows ou Linux ; ou dans un boÎtier d'extension Thunderbolt pour cartes PCIe avec un slot PCIe 16X disponible. Les utilisateurs de Mac peuvent même installer macOS sur un des SSD pour l'utiliser en disque de boot incroyablement rapide et créer un RAID 0 en agrégat avec les autres SSD sans perte de performances. …Quelqu'en soit l'utilisation, les performances de cette carte sont impressionnantes.

Dotée d'un PCIe Bridge 16x conçu par Sonnet, la carte dédie à chaque SSD la bande passante d'un PCIe 3.0 de 4x. Lorsqu'elle est installée dans un slot PCI 3.0 de PC sous Windows avec quatre SSD formatés en RAID 0 la carte est capable de transferts à 8,500 Mo/s. Des vitesses de transfert cumulées à partir de 4 disques qui ne sont pas en RAID peuvent atteindre jusqu'à 12 000 Mo/s.

 

 

Prix : 400 €

 

 

Production Live

Live Schedule

NEWSBRIDGE

 

La puissance de l'expérience Newsbridge est maintenant disponible sur du flux temps réel avec les fonctionnalités cognitives comme la reconnaissance des personnalités, la transcription automatique de l'audio en texte (speech-to-text) et le clipping des moments forts. Live Schedule permettra de planifier l’enregistrement de flux de contribution vidéo en temps réel depuis un navigateur web. La fonctionnalité cible aussi bien des besoins ponctuels (sports, événements, conférences…) que récurrents (news, media-monitoring, contribution…). Son utilisation permettra la création d’une valeur ajoutée avec la publication accélérée de highlights avec leurs sous-titres vers les réseaux sociaux ; le derushage simplifié des événements sportifs ; le partage et la consultation instantanée des contenus filmés en temps réel.

 

Ce nouveau module permet par ailleurs le pilotage d’une large gamme d’équipements de transmission au sein d’une seule interface. La simplicité de l'expérience utilisateur offre aux monteurs comme aux journalistes la possibilité d’être autonomes sur l’exploitation des contenus en temps réel

La simplicité d’usage, l’accès au contenu en temps réel, et l'indexation automatique grâce à l'IA bénéficie à toute la ligne de production. Disponible depuis cet été, la solution qui remplace des équipements lourds et coûteux par une plateforme web accessible depuis un navigateur a déjà été expérimentée par l’AFP, TF, Viva Technology…

 

Prix : 250 €/flux (à partir de)

 

 

Edition/Remote/Derushage

ADN PLAY

JL MORIZUR ENGINEERING

 

ADN PLAY est un player adaptatif dédié à la remote production et spécifiquement conçu pour le marché dans la mobilité. Il permettra de derusher n’importe où dans le monde depuis un navigateur en proposant plusieurs modes linéaire et non linéaire, avec le timecode natif ou un compteur d’images. L’éditeur propose une visualisation des formes d’onde audio pour simplifier la sélection des plans de coupe.

 

ADN Play communique en outre avec les systèmes tiers (Isis Interplay, Final Cut, Premiere, Xedio, Edius…), avec le module ClipList, il est possible de positionner des segments, de créer son projet puis de l’exporter en un clic.

 

Prix : 15 000 € (à partir de)

 

 

 

 

SERVEUR

Xstreamstore BackPack

B-A INSTRUMENTS

 

Les serveurs de production universels XSTREAMSTORE conjuguent des performances optimales et système de protection des données avancé. Leur interface intuitive permet une gestion simple et fiable des accès et une redondance matérielle à la base du hardware garantit la haute disponibilité de l’ensemble. Les XSTREAMSTORE sont compatibles avec tous les applicatifs couramment utilisés (Avid, Resolve, Adobe Premiere, FinalCut…) et peuvent facilement évoluer en capacité et en bande passante.

 

XSTREAMSTORE BackPack a été pensé pour l’ultramobilité. Scooter, vélo, trottinette, rien ne l’arrête !

Il sera idéal sur les lieux de tournage ou la captation en extérieur, pour le dérushage, le prémontage, la génération de fichiers, l’auto-confo… Il permettra de travailler en collaboratif directement sur le site de production (tournage, événement live…) et facilitera le déplacement de studio de postprod sur des évènements ponctuels et

 

Capacité : 6 To, 12 To, 24 To… Full SSD

Bande passante : 2 Go/s en lecture et écriture

Connectique : 10 Gb/s RJ45 ou SFP+

Dimension en cm (H x L x P) : 21 x 32 x 21 ou 22 x 18 x 30

Poids < 3 kg !

 

Prix : 3 997 € HT (à partir de)

 

 

Live /Streaming/ Remote

Aspera Streaming for Video

IBM

 

Le Streaming for Video IBM Aspera optimisé par FASPStream révolutionne la manière dont la vidéo haute définition live et quasi-live peut être diffusée.

 

S'appuyant sur l'Internet standard au lieu d’utiliser une coûteuse liaison satellite ou d'une fibre dédiée, il garantit l’acheminement de la vidéo et des données en direct sans pertes de paquets. La technologie une production de directs en remote à des débits binaires élevés.

 

IBM Aspera Streaming for Video a récemment été utilisé pour permettre la production à distance en temps réel de la Coupe du Monde Féminine de la FIFA, en France, démontrant ainsi sa fiabilité et son efficacité pour la couverture de tournois sportifs de grande envergure.

 

Pour cette Coupe du Monde Féminine FIFA 2019 par Fox Sports, Aspera a, en collaboration avec Telestream et Levels Beyond, créé un workflow de diffusion en direct pour permettre une véritable production à distance en temps réel et permettre aux équipes de production de Los Angeles de commencer à éditer plusieurs flux de caméra en quelques secondes à peine pour les highlights sportifs. Tout au long du tournoi, la technologie de diffusion en continu IBM Aspera a permis de fournir 607 flux montés en direct sur 52 matches, avec un total de 165 To de contenus, et le transfert d’environ 625 To de contenus dans le cloud pour un stockage objets tant pour l’archivage que l’édition.

 

 

Traitement des images

Flame 2020

AUTODESK

 

Les équipes d'Autodesk Flame continuent à innover et proposent avec cette nouvelle version des outils inédits pour le traitement de l'image, facilitant ainsi l'automatisation de certaines tâches et un gain de productivité en postproduction. Autodesk Flame 2020 représente l'outil incontournable pour la postproduction et le compositing haut de gamme (pub, film). Cette version propose un ensemble de fonctionnalités de traitement de l'image innovantes s'appuyant sur l’apprentissage automatique (Machine Learning) et l'IA : extraction automatique de ciels, masques de vecteurs de mouvements, générateur de masques de profondeur de champ (Z-depth), normal maps pour les visages,... ainsi que de nombreuses nouvelles fonctionnalités.

 

Autodesk est disponible à la location sur Mac OS X ou Linux.

 

Prix : 410 € HT/mois (à partir de) – Distribué Post Logic

 

 

 

Service de Sous titrage

CheckSub

CHECKSUB

 

CheckSub permet à tous les créateurs de contenus vidéos de partager leurs œuvres ou leurs idées à travers le monde (réalisateurs, monteurs, journalistes sans un budget conséquent ! CheckSub est une plateforme permettant de créer des sous-titres de qualité sans connaissance technique. Le processus est opéré en deux étapes : Une technologie de reconnaissance vocale génère une transcription automatique de la vidéo. Grâce à l'éditeur de texte, vous pouvez relire et modifier cette transcription et vous "découpez" les phrases en sous-titres grâce à de simples sauts de lignes. Une fois la synchronisation lancée, la plateforme génère automatiquement les "time codes" de chaque sous-titre. Il n’y a plus qu'à vérifier que le résultat vous convient et faire des ajustements si besoin. Vous pouvez ensuite utiliser cette base pour créer les sous-titres dans des langues étrangères.

 

CheckSub permet en plus de partager un projet de sous-titres avec d'autres personnes grâce à un lien sécurisé et aussi de générer des exportations vidéo en incrustant les sous-titres avec un style personnalisé.

Grâce à cette plateforme, les réalisateurs indépendants vont pouvoir soumettre leur court-métrage à plus de festivals étrangers, les journalistes produisant des vidéos vont capter une plus grande audience sur les réseaux sociaux et il sera aussi plus facile de rendre les œuvres accessibles aux sourds et malentendants...

  

Prix : 54 € (à partir de)

 

 

 

Scanner

Flashscan Nova

MWA NOVA GMBH

 

 

Le Flashscan Nova est un scanner 2.5K ou 4K pour les formats 8, S8, 16, S16 mm (9.5 mm et 17.5mm en option).

 

Il a un système de transport du film unique sans cabestan ni débiteur permettant d'avoir une tension très basse (20 grammes) pour les films abîmés, gondolés, avec retrait, tout en ayant une parfaite stabilité. Une Easy wet gate ou fenêtre à immersion utilisant l'Isopropanol permet d'éliminer les rayures côté support lors de la numérisation. Il est livré avec une station de travail en SSD et 14 TO de stockage en Raid 0 et un logiciel de pilotage permettant aussi de faire des corrections de couleurs primaires, secondaires, réglage de gamma et noirs.

 

Doté d'un zoom complet permettant l'overscan et l'underscan, on peut utiliser la pleine résolution du capteur sur chaque format. La stabilisation se fait par un laser motorisé, et un outil de stabilisation additionnelle électronique est disponible par le logiciel. Des modules audio optiques et magnétiques sont disponibles pour chaque format, évitant ainsi l'utilisation du capteur image pour extraire la piste optique.

 

Impact sur le secteur

Ce scanner permet de numériser les films d'archives muets ou sonores, N&B ou couleurs, Positifs et Négatifs en 2.5 ou 4K ayant un fort retrait ou étant très déformés mécaniquement. L'interface logiciel Flashsuite 2 permet de rattraper les couleurs virées.

 

Prix : 36 000 € (à partir de)

 

 

 

Stockage

Rugged SSD Pro

LACIE

 

Solution SSD NVMe professionnelle THUNDERBOLT 3

 

Exploitez la vidéo 6K et au-delà

Le Rugged SSD Pro associe la rapidité spectaculaire du Seagate FireCuda NVMe SSD à l'interface Thunderbolt 3, pour des vitesses cinq fois plus rapides que les SSD SATA traditionnels, de quoi vous permettre de visionner et de rendre les contenus RAW haut débit les plus exigeants, tels que les fichiers sources 6K, 8K et Super Slow-Motion. Conçu pour les conditions extrêmes de réalisation et de montage, le Rugged SSD Pro convient parfaitement aux réalisateurs et DITs qui cherchent un disque de travail offrant des transferts ultrarapides, il est capable de traiter des séquences 8K haute résolution et Super SlowMotion.

 

Rugged SSD Pro

Rapidité fulgurante avec les vitesses atteignant 2 800 Mo/s des SSD Thunderbolt 3

Compatibilité avec les appareils USB 3.1 de 2e génération

Solidité à toute épreuve avec l'indice IP67 de résistance à l'eau

Utilisation tout terrain grâce à une résistance aux chutes de 3 mètres et à l'écrasement de 2 tonnes

Services de récupération des données Rescue valables 5 ans

Design by Neil Poulton

 

 

Prix : 479,99 € (1TB SSD)

 

  

 

Stockage

Rugged SSD

LACIE

 

Depuis 2005, les disques durs portables LaCie Rugged ont su s'imposer sur les plateaux de tournage, les séances photo et les studios de musique et, en général, auprès des professionnels de la création les plus influents au monde. Sans doute parce que les produits LaCie Rugged comptent parmi les plus fiables du secteur pour stocker et transporter les données sur le terrain.

 

LaCie Rugged SSD donne aux réalisateurs et aux DITs un sérieux coup de pouce grâce aux vitesses de transfert du Seagate FireCuda NVMe allant jusqu'à 950 Mo/s, au chiffrement et à une résistance à la poussière, à l'eau et aux chutes, le tout dans une solution de poche. Sa vaste capacité de 2 To et sa compatibilité Thunderbolt 3, USB-C et USB 3.0 sur les ordinateurs Mac et Windows permettra de finaliser d’ambitieux projets 4K…

 

Principales caractéristiques

Transfert et montage de vidéos au format 4K RAW avec des vitesses pouvant atteindre 950 Mo/s

Compatibilité universelle de l'interface USB Type C

Solidité à toute épreuve avec l'indice IP67 de résistance à l'eau

Utilisation tout terrain grâce à une résistance aux chutes de 3 mètres et à l'écrasement de 2 tonnes

Protection des projets avec la technologie de chiffrement Seagate Secure

Services de récupération des données Rescue valables 5 ans

 

Prix : 219,99 € (pour 500 GB)

 

 

 

Collaboration

US3342 - Sharing Switch

ATEN

 

Ce commutateur de partage ATEN permet de basculer plusieurs périphériques USB entre deux ordinateurs USB-C, en permettant aussi le partage de fichiers entre ces deux ordinateurs, quels que soient leurs systèmes opérationnels.

Il suffit de connecter les ordinateurs portables via le port USB-C à US3342 pour partager des périphériques. Un seul jeu de clavier et de souris suffira aussi pour contrôler de manière transparente les deux systèmes et pour partager des données. Il permet aussi d’utiliser plusieurs périphériques USB sans avoir à brancher et débrancher ou configurer les appareils. L’US3342 dispose de 4 ports USB 3.2 Gen (compatible avec USB 3.1 Gen 1, USB 2.0 et USB 1.1), ce qui lui permet de prendre en charge des transferts de données allant jusqu'à 10 Gps.

  

Prix : 144 €

 

 

 

...La liste des lauréats du vote du public sera publiée sur le site Mediakwest la veille de l’ouverture du SATIS, permettant ainsi aux visiteurs de découvrir, sur les divers stands, les produits primés. 

De son côté, le jury de la rédaction Mediakwest décernera ses propres « Coups de cœur » à un produit dans chaque catégorie. Ses choix seront dévoilés sur le SATIS, mardi 5 novembre à l’ouverture du Salon…

 

 

 

>> Pour voter cliquez  ici

 

Clôture des votes pour les prix du Public : le 4 novembre à 12h00.

 

 

 

SATIS 2019... 

>> Les sujets traités en 2019 : Workflow Ip & Nouveaux Usages • Création & Technologie • Contenus : Monétisation Financement • Blockchain • Les Nouvelles Applications Du Cloud • Réseaux Sociaux • 5g • Intelligence Artificielle & Médias • 4k • 8k : Les Très Hautes Résolutions • Les Liaisons Hf En Tournage (Image Et Son) • Live Event • Protection Des Contenus • Crowdfunding • Univers Immersifs : Vr. Ar. • Mapping • Travail Collaboratif et Interactif  • Communication Unifiée • Digital Signage • Nouveaux Ecrans  • Moteur 3d Temps Réel • Eclairage Led • Stockage Intelligent • Optimiser La Production • Vidéo Volumétrique 

 

DATES ET LIEU : 5 & 6 Novembre 2019 - Docks de Paris, La Plaine Saint-Denis 

Accréditation gratuite

  • 28 octobre 2019 à 17:00

Le long-métrage d'animation "La Traversée" à l’affiche en 2020 !

En s’appuyant sur l’histoire de sa famille, Florence Miailhe livre avec La Traversée une épopée universelle en peinture animée. © Les Films de l’Arlequin

Co-écrit avec Marie Desplechin, La Traversée est le premier long-métrage de Florence Miailhe. Il a fallu plus de sept ans pour produire ce film en peinture animée, près de trois ans de fabrication par les studios Maur Film (Prague), Balance Film (Leipzig) et Xbo Films (Toulouse). Rencontre, à l’occasion du Cartoon Movie 2019, avec sa productrice Dora Benousilio (les Films de l’Arlequin) et Florence Miailhe qui espèrent sortir le film en 2020 !

 

Mediakwest : Comment expliquez-vous cette longueur dans la production ? Qui a-t-il fallu convaincre ?

Dora Benousilio : Tout le monde ! Le film a été beaucoup plus difficile à financer en France qu’en République tchèque. Les diffuseurs mettaient en doute la technique de peinture animée utilisée par Florence dans ses courts-métrages pour un 90 minutes. Nous avons essuyé plusieurs refus avant qu’Arte France Cinéma le prenne.

Florence Miailhe : Je tenais à ce que ce film soit réalisé en peinture animée – et non en papier découpé par exemple – car cette technique permet d’être plus spontané et intuitif, et limite le temps de préparation.

 

 

M : Comment avez-vous adapté cette technique d’animation traditionnelle pour les besoins du long-métrage ?

F. M. : En peinture animée, le décor et les personnages sont dessinés en général sur la même vitre et tout bouge en même temps. Mais, comme il fallait répartir le travail entre plusieurs studios, le décor reste fixe.

D. B. : Nous avons eu le temps d’effectuer des tests, de trouver les bons systèmes de prises de vue et... de nous approvisionner en celluloïd ! Xbo a fait en sorte que le dispositif du banc-titre utilisé par Maur Film puisse être reproduit chez les autres studios. Nous avons aussi eu l’aide du CNC pour les nouvelles technologies afin de faciliter entre autres le détourage lors du compositing (Jean-Christophe Levet, de chez Royal Post, a développé un plug-in pour Natron, ndlr).

 

 

M : Comment s’est réparti le travail entre les studios ?

D. B. : Comme le film comporte six « chapitres », il a été facile de les répartir entre les studios. Maur Film a réalisé 45 minutes, Balance Film 15 minutes et Xbo 15 minutes. Il nous reste à fabriquer 15 minutes d’animation, mais nous tenons le bon bout. Nous espérons sortir l’an prochain. Gebeka se charge de la diffusion en France, Indie Sales à l’international.

F. M. : Pour garder l’homogénéité du film et préparer le travail des animateurs, je réalisais la première image de chaque plan avec le décor et le posing. Chaque chapitre a son unité colorée. Contrairement à mes courts-métrages, le décor est réalisé en amont.

 

 

Extrait de l’article paru pour la première fois dans Mediakwest #31, p.124/128. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 23 octobre 2019 à 17:00

Cinq questions à Yov Moor, l'étalonneur next gen...

Only the Animals de Dominik Moll © DR

Initialement repéré pour son travail sur le film Mustang de Deniz Gamze Ergüven, Yov Moor, étalonneur freelance basé à Paris, continue son chemin sur les tapis rouge du monde entier. Trois de ses nouveaux films ont notamment été projetés à la Mostra de Venise cette année: Only Animals de Dominik Moll, Balloon de Pema Tseden et Revenir de Jessica Palud… L'étalonneur nous livre quelques clés de son savoir faire et de son succès tout en s’exprimant au sujet de l’évolution du métier à l’ère de la démocratisation des outils de post-production…

 

Mediakwest : Trois des films sur lesquels vous avez travaillé se sont retrouvés en compétition à Venise cette année : Balloon, Revenir et Only the Animals. Y a-t-il une recette ?

Yov Moor : Parfois, j’ai de la chance et parfois moins ! En ce qui concerne le cinéma indépendant, il est essentiel d’arriver à une qualité finale qui légitime une sélection en festivals ; le fait que le film puisse être projeté dans une salle de cinéma va ouvrir des portes financières à l’auteur et au producteur…

Il m'a fallu environ 10 jours pour étalonner chacun de ces trois films, et pour chacun je me suis concentré sur la création d'un rendu final étonnant. J'utilise Resolve et je pose fréquemment des nœuds sur toute la longueur du projet pour pouvoir modifier complètement la couleur ou la texture en quelques secondes si le réalisateur et le directeur de la photo en exprime le souhait… Comme ce fut le cas avec le talentueux chef opérateur Lu Songyu sur Balloon. Les films d'art et d'essai ont généralement beaucoup moins de budget que les films commerciaux et le pipeline de travail doit être très fluide et très productif.

 

Mediakwest : Pensez-vous que les étalonneurs peuvent apporter leur contribution en termes d’optimisation et de productivité de pipeline ?

Yov Moor : Oui, tout à fait ! Nous devons offrir plus et travailler plus vite qu’autrefois, cela va dans le sens d’une histoire où les budgets sont de moins en moins confortables et les outils de plus en plus polyvalents. En tous cas, cela fait partie de ma valeur ajoutée : je ne propose pas uniquement un étalonnage mais aussi une économie de temps et d’argent dès que cela est possible…

Par exemple, j’utilise fréquemment la page Fusion de Resolve pour les travaux de cache et de nettoyage, tels que l’effacement rapide des perches de micros ou la génération de particules de fumée, ce que j’ai fait pour Only the Animals. Cela évite une étape d’aller et retour vers la production d’effets visuels, ce qui s’avère assez coûteux. J’accompagne aussi parfois le réalisateur qui veux essayer une nouvelle coupe de montage mais qui n’a tout simplement pas de temps pour un aller-retour en salle de montage. C’est très simple pour moi de travailler directement sur le montage dans Résolve et d’avoir un aperçu du rendu. Ensuite, si cela fonctionne, le réalisateur revient vers le monteur pour intégrer le changement final.

 

Mediakwest : Est-ce que votre façon de travailler a évolué dans le temps ?

Yov Moor : Absolument, et cela se reflète à toutes les étapes. De nos jours, si vous parlez aux réalisateurs, la grande majorité connait Resolve ! Je vois de plus en plus de chefs opérateurs et de réalisateurs ouvrir le logiciel, essayer et tester des ambiances colorimétriques sur le plateau, même sans équipe de DIT. Pour moi, c’est formidable, car je peux connaître très précisément l’intention photographique très en amont…

Cela a été le cas avec le directeur de la photo sur Revenir, Victor Seguin. Nous avons pu parler immédiatement le même langage technique car nous connaissions le même logiciel. Il pouvait me demander d’ajouter un certain effet en sachant exactement combien de temps cela prendrait, quel était son degré de complexité et tout simplement sa faisabilité. Cela facilitait beaucoup le travail.

 

Mediakwest : Est-ce un signe de la disparition des spécialistes?

Yov Moor : Pas vraiment, nous nous engageons dans le même chemin que l’industrie de la musique. Au début, beaucoup de gens ont eu peur du fait qu’il était facile et peu coûteux d’acheter des outils de production audio… Mais au final, il n’y a que les gens talentueux qui restent au premier plan !

Si vous avez du talent, vous n’êtes pas en danger. La nouveauté, c’est que l’étalonnage n’est plus désormais réservé aux personnes disposant d’un budget et d’un accès à un ordinateur hyperpuissant…

 

Mediakwest : Avez-vous des conseils pour les coloristes en herbe ?

Yov Moor : Mon approche n’a jamais été très académique. Je suis autodidacte dans différents domaines du cinéma, et si je peux donner un conseil, c’est d’essayer d’entrer dans l’industrie par toutes les portes possibles. Essayez de devenir un assistant étalonneur et apprenez en demandant d’ajouter une ombre durant une session. Téléchargez Resolve gratuitement et essayez d’étalonner tout ce qui vous tombe sous la main !

C’est comme jouer d’un instrument : plus vous travaillez mieux vous comprenez le processus, le point de vue du réalisateur et la façon dont un coloriste construit ses relations avec les autres interlocuteurs du projet cinématographique. N'hésitez jamais à vous entraîner avec d'autres personnes et essayez de sortir constamment hors de votre zone de confort en jouant avec un maximum de couleurs différentes…

 

 

Only the Animals (Seules les bêtes) sortira au cinéma sur les écrans français le 4 décembre prochain et Revenir de Jessica Palud, le 29 janvier 2020...

  • 23 octobre 2019 à 17:00

Connect Live Paris : les grands enjeux de la postproduction en 2020

Connect Live Paris : les grands enjeux de la postproduction en 2020

Connect Live organisé par Avid revient à Paris le 24 octobre prochain pour une après-midi d’échanges et de table ronde autour de la postproduction, des workflows graphiques aux studios virutels, grands enjeux de la postproduction en 2020 dans l’environnement de production de news dans les medias.

 

Ces rencontres permettront de se familiariser directement avec les solutions et les flux de travail, d’échanger autour d’exemples de réussite dans le secteur audiovisuel.

Connect Live se déroulera en compagnie de l’équipe Avid au Karé, le 24 octobre à partir de 14h. David Marteau, Avid GM & Regional Sales Director Southern EMEA assurera l’introduction et la présentation de l’après-midi de conférences.

 

Retrouvez la programmation et les intervenants :

14h00 - Enregistrements

 

Espace de conférences (Niveau Sceno, 3ème étage)

14h30 - Bienvenue - David Marteau, Avid GM & Regional Sales Director Southern EMEA

15h - France Télévisions : de l’appel d’offre à aujourd’hui - Victor Blanco, Responsable Studios Virtuels, Réalité Augmentée et Habillage chez France Télévisions

15h30 - Un game engine passe à la télé : Unreal sert vos décors sur un plateau - Loïc Le Roux, Intégrateur Graphique chez Luxiris TV

16h - L’importance de l’intégration des solutions Graphiques dans l’environnement de production News et Studio - Raul Alba, Director of Product Management, Broadcast Solutions chez Avid

16h30 - Media Composer family et Distributing Processing - Kate Ketcham, Director Product Management chez Avid

17h - Edit on Demand et cas Disney - Gary Green, Director Product Management chez Avid

17h30 - Table ronde : « Les défis de la postproduction en 2020 » modérée par Stephan Faudeux, Mediakwest avec :

   - Thierry Seux - Directeur Général Digital chez Groupe Transatlantic

   - Emmanuel Pain - Directeur Général chez Groupe Image

 

Espace de démos (Nivo Lego, 2ème étage)

15h/16h30 - Media Composer, les nouveautés - Jean-Philippe Aguer, Spécialiste Solutions

Gérez votre post-production de manière efficace et créative avec MediaCentral | Editorial Management - Jean-Philippe Aguer, Spécialiste Solutions

Découvrez les solutions graphiques intégrées dans Cloud UX - Benjamin Aumont, Spécialiste Solutions

16h30/18h - Workflows graphiques : Maestro, Unreal - Loïc Le Roux – Intégrateur Graphique chez Luxiris TV

 

Espace restauration (Nivo Resto, 4ème étage)

15h/18h30 – Espaces de networking

 

Inscriptions préalables ici

 

  • 18 octobre 2019 à 08:00

Le logiciel d'édition 360/VR INSIDE dévoilé sur le SATIS 2019

Immersive Ways présente son logiciel de montage vidéo 360/ VR professionnel en avant-première sur le SATIS 2019 © DR

INSIDE, Le logiciel de montage destiné aux créateurs d’expériences immersives en vidéo 360° et réalité virtuelle développé par Immersive Ways sera présenté en avant-première les 5 et 6 Novembre prochains sur le SATIS.

 

INSIDE combine la puissance et la technologie d’un moteur 3D avec une interface de montage intuitive et hybride 2D/VR, pour rendre accessible à tous la création de médias immersifs en vidéo 360°, hybrides « flat » /360° et VR.  

Ce logiciel a la particularité d’intégrer un player permettant de mélanger des médias « flat » aux médias immersifs, et offre la possibilité d’ajouter des overlays fixes avec suivi du regard sur les médias à 360° (utile pour les titrages, sous-titres et logos). INSIDE est conçu comme une solution modulable et agile sur laquelle peuvent s’ajouter des fonctionnalités sous forme de plugins, adaptable aux besoins des utilisateurs.

  

Suite à une phase de Bêta-test, INSIDE est décliné dans une version Freemium depuis Octobre 2019. La version PRO permettra d’ajouter de l’interactivité et des scènes et objets 3D dans les vidéos à 360°, elle est aussi ouverte à la communauté mondiale de développeurs.

Les expériences conçues sur INSIDE s’exportent sur les plateformes Desktop & VR pour la version FREEMIUM, et sur toutes plateformes dans la version PRO (Desktop, VR, mobiles et web). Ces logiciels sont disponibles sur Windows et MacOs

  

Pour en savoir plus découvrez la vidéo de démonstration ici...

Vous pourrez découvrir INSIDE au SATIS sur le stand IMMERSIVE WAYS dans l’espace Screen4ALL et sur le stand VISUAL IMPACT France.

  

Caractéristiques d’INSIDE FREEMIUM 

  • Montage médias 360°
  • Montage hybride médias immersifs à 360° et média « flat » avec VR Head Tracking sur médias flat
  • Ajout d'overlays fixes avec suivi de mouvement (Head Tracking) dans la vidéo 360° (titres, sous-titres, logos, graphismes…)
  • Export VR & Desktop
  • Gratuit

 

 Disponible depuis Octobre 2019, téléchargeable ici... 

 

 

Caractéristiques d’INSIDE PRO 

  • Montage médias 360°
  • Montage hybride médias immersifs à 360° et média « flat » avec VR Head Tracking sur médias flat.
  • Ajout d'overlays fixes avec suivi de mouvement dans la vidéo 360° (titres, sous-titres, logos, graphismes…)
  • Ajout d’interactivité
  • Export multiplateforme
  • A partir de 25€/mois

 

Disponible début Novembre 2019, téléchargeable ici... 

Les logiciels sont disponibles sur Windows et MacOs.

  • 23 octobre 2019 à 17:00

Bonjour le Monde !, minutie et poésie en stop motion (Web TV)

Bonjour le Monde !, minutie et poésie animale en stop motion (Web TV) © Nathalie Klimberg

Cet été, les réalisateurs Anne-Lise Koehler et Eric Serre présentaient sur Série Séries Bonjour le Monde !, une série d’animation et aujourd'hui un long-métrage - sorti en salle ce 2 Octobre - produits par Normaal Animation en stop motion. La production des 90 minutes d'animation nécessaires au film et à la série s'est déroulée sur 15 mois et a monopolisé une équipe de 15 personnes avec, à la clé, une histoire à la fois onirique et réelle qui n'aurait pas pu prendre vie sans un pipeline numérique mûrement réfléchi. Rencontre avec les deux créateurs qui nous dévoilent les coulisses et les procédés de fabrication...

 

Eric Serre, co-réalisateur de la série Bonjour le Monde ! : "Bonjour le Monde ! est initialement une série en marionnettes diffusée sur France 5 et produite par Normaal Animation. Pour nos dix épisodes de neuf minutes, nous avons fabriqué 90 minutes d’animation en stop motion avec des marionnettes en papier modelé. Tout ce qui est à l’écran est fabriqué a partir de la même technique, la végétation et les animaux. Cela donne un regard sur la nature, je pense, attentionné, rigoureux et en même temps, poétique..."

 

Anne-Lise Koehler, auteure et co-réalisatrice de Bonjour le Monde ! : "Je suis fascinée par les animaux et j’avais envie de faire quelque chose qui ne soit pas un documentaire animalier et donc d’utiliser la spécificité du stop motion, cette technique permet un décalage poétique pour parler du règne animal et pour donner une vision empathique sur la nature."

 

Pour savoir pourquoi ces créateurs ont utilisé le stop motion et découvrir le pipeline industriel de la production… regardez la vidéo !

 

 

BONJOUR LE MONDE !

Comment naît-on oiseau, pourquoi naît-on insecte, mammifère ou poisson ? Les sculptures de papier de Bonjour le Monde animent le spectacle de la vie sauvage.

Idée originale : Anne-Lise Koehler

Réalisateurs : Anne-Lise Koehler, Eric Serre

Compositeur : Standaard (studio son)

Production : Normaal avec la participation de France Télévisions & RTS

Producteur : Alexis Lavillat

Diffuseur : France Télévisions (France 5)

 

Bonjour le Monde ! était diffusé tous les samedis matin à 10h sur France 5 entre le 18 mai et le 29 juin 2019. L'adaptation de la série au cinéma est sortie sur grand écran le 2 octobre 2019...

  • 9 octobre 2019 à 17:00

Le scan 3D et la data capture, un nouveau département innovant chez Be4Post

Jérôme Battistelli et Matthieu Straub de Be4Post. © DR

Matthieu Straub qui était directeur d’exploitation de cette société à l'époque où nous avons réalisé l'interview (il est aujourd'hui chez FilmLight) et Jérôme Battistelli, superviseur du récent département de scan 3D, nous  font découvrir ces métiers émergents, au carrefour du tournage et des effets spéciaux.

 

Mediakwest : Matthieu, peux-tu nous présenter Be4Post ?

Matthieu Straub : La société Be4Post a vu le jour en juin 2014 ; c’est l’association de DIT (ingénieur de la vision de fiction) et d’une société de location RVZ. Pour préciser la genèse de l’entreprise, Christophe Hustache-Marmon, Guillaume Poirson et moi-même, les trois DIT concepteurs de Be4Post, nous étions partis d’un constat commun de frustration lorsque nous louions du matériel chez les autres prestataires, très souvent des loueurs de caméras. Nous passions un temps trop important à monter nos stations de travail, il nous fallait récupérer un ordinateur à droite, un écran à gauche et assembler le tout avec des alimentations dans tous les sens et des câbles partout. Tout cela allait à l’encontre de notre conception du métier de DIT.

Nous voulions proposer des solutions compactes, légères et proches de la caméra. De là est née notre décision de monter nos propres machines ; mais plutôt que d’en prévoir trois (nous avons de nombreux copains !), nous en avons conçu une dizaine, afin de pouvoir répondre à toutes les demandes, mais aussi parce que nous avons des besoins de configurations différentes : une petite sur un bateau ou une énorme pour des prestations avec quatre caméras et pleins d’effets spéciaux. Nous voulions créer une société pour avoir cette latitude là.

C’est à ce moment que nous avons rencontré Evelyne Madaoui, directrice générale de RVZ, par le biais de Samuel Renollet. Elle a eu envie de jouer le jeu et de prendre le pari. Be4Post, c’est donc les trois DIT concepteurs de la société et, chez RVZ, Evelyne Madaoui, Samuel Renollet et Anne Bouin notre gérante. Nous partageons les locaux de RVZ et une partie de notre activité s’accomplit avec eux, mais nous avons dès le début souhaité rester très ouverts et travaillons également avec d’autres loueurs de caméras, TSF, Vantage Films, Panavision, Transpacam, etc.

La société comporte bientôt cinq salariés permanents ; toute la partie gérance et commercialisation étant mutualisée avec RVZ. Cette mutualisation nous permet de nous concentrer sur nos métiers, les personnes embauchées à temps plein étant dédiées à la recherche ou à la technique, plutôt qu’à la comptabilité et la commercialisation.

 

 

M. : Pouvez-vous me parler des origines de ce nouveau département scan 3D et data capture au sein de Be4Post ?

M. S. : L’aventure a commencé en juillet 2017. Dès la création de Be4Post, les fondateurs de la société souhaitaient compléter l’activité de location de roulantes DIT par une offre de prestation différente ciblant de nouveaux marchés. On a mis beaucoup de temps à trouver.

À force de discussions et de visites sur des plateaux de tournage, on a vu qu’il y avait souvent des gens qui venaient faire du scan et du tracking, principalement sur des films étrangers et plus principalement américains. Cela nous semblait être une bonne façon de conserver la philosophie de Be4Post : le lien entre le tournage et la postproduction. Ce genre d’outils représentait exactement le lien entre le tournage et les studios d’effets spéciaux. C’est la genèse de notre département de data capture et de scan 3D ; le but premier étant de récupérer l’ensemble des métadonnées disponibles sur un tournage : les hauteurs de caméras, les inclinaisons et les mouvements.

C’est à cette date que nous avons fait l’acquisition du scanner Faro, aidés dans le choix de ce matériel par Youenn Denis, superviseur VFX très ouvert à la 3D, et qui est un de nos amis. Après nos premiers essais en interne, nous avons compris que la possession de l’outil n’était rien sans compétences suffisantes en 3D. Il nous semblait également primordial de conserver le côté plateau : on cherchait quelqu’un qui connaisse à la fois le tournage et les effets spéciaux. Nous avons en effet été trop souvent confrontés, sur des tournages, à des superviseurs VFX devant faire face à de grandes difficultés pour obtenir ne serait-ce qu’un quart d’heure pour prendre des clichés ou une HDRI ; les tournages devenant alors des moments difficiles pour les superviseurs VFX.

On souhaitait donc envoyer un professionnel des plateaux qui pourrait réaliser toutes ces mesures et également être capable de préparer très rapidement la prévisualisation de ce qu’il était en train de faire pour que les gens du tournage puissent voir : « Ah ouais d’accord ! Il est en train de scanner un décor et quelques minutes après il est capable de montrer ce décor en 3D dans un ordi ! » Il y a toute une partie éducation que l’on avait intégrée dès le début du projet.

 

 

M. : Quelle est précisément l’offre de ce département ?

M. S. : Même si elle reste en perpétuelle évolution, au bout de six mois d’existence du département, nous avions structuré une offre claire sur trois aspects : le repérage de lieux, la tech-visualisation et la numérisation de décors pour les effets spéciaux.

Pour le repérage des lieux, nous proposons le scan très rapide d’endroits difficilement accessibles. En prenant l’exemple d’un décor parisien, des productions étrangères ou des productions, souhaitant éviter d’envoyer des chefs de postes sur place, pourront appréhender le décor et faire des repérages à la façon d’une visite virtuelle. En récupérant le fichier que nous leur fournissons, ils accèderont à un site Internet qui leur permet de tout mesurer : les surfaces, les hauteurs, pour masquer, par exemple, un mur ou trouver la largeur des portes pour vérifier le passage d’une Dolly ou d’une grue. Il est également possible de simuler très rapidement des petits mouvements de caméras pour prévisualiser des plans « en mode brouillon ».

La deuxième partie de notre offre est la tech-visualisation ; je vais l’illustrer par l’exemple. Imaginons que je doive tourner à l’Assemblée nationale : je veux un « top-shot » de mon personnage, de quelle focale ai-je besoin ? de quelle grue ? est-ce qu’elle va passer par l’encadrement de la porte ? Pour cela nous utilisons des librairies incluant un très grand nombre de caméras, d’optiques de Dolly, de grues, etc. On peut alors les assembler, pour les intégrer dans le décor numérisé afin de simuler les mouvements de caméras. Le système est tellement évolué qu’on peut actionner des manivelles ou des petits joysticks et répéter virtuellement un plan dans le décor et même ajouter des personnages. Ce n’est pas de la prévisualisation parce qu’on ne calcule pas forcément les mouvements, c’est de la tech-visualisation.

Pour la troisième offre, la numérisation d’un décor en vue d’effets spéciaux, nous mettons en œuvre l’ensemble de nos technologies (scanner, photos hautes résolutions avec DSLR, drones) afin de préparer un objet 3D le plus propre possible avec des textures hyperréalistes pour livrer des studio VFX ; cela devient vraiment du travail de postproduction. Nous rassemblons, durant le tournage, toutes les informations permettant de connaître, lors du travail de l’effet spécial, l’exact environnement du tournage, avec les textures déjà posées, les hauteurs de caméras et les focales.

 

 

M. : Jérôme, en postproduction, comment exploites-tu les informations que tu récupères ?

Jérôme Battistelli : J’utilise un logiciel dédié, vendu avec le scanner, pour transformer les fichiers bruts produits par l’appareil en données éditables ; puis via un second logiciel, Reality Capture, je mélange la photogrammétrie et les données du scanner avec les clichés de mon reflex. La plate-forme de visualisation Sketchfab nous permet de montrer sur un navigateur Internet les modèles 3D que l’on peut réaliser, en obtenant un aperçu rapide de ce que l’on a scanné pour le présenter à nos clients.

Nous échangeons au cas par cas avec les studios pour définir les livrables, incluant généralement un modèle 3D pouvant être découpé en plusieurs parties selon les besoins. Nous fournissons également des textures 3D appliquées aux objets, complétées à la demande de photos HDRI du lieu et des fichiers de « nuages de points » lorsque les clients souhaitent retravailler la 3D eux-mêmes. Il nous est également possible de faire du nettoyage, d’effacer des éléments. Le métier est passionnant parce qu’il mixe vraiment les parties tournage et VFX.

 

 

M. : Pouvez-vous nous parler de vos premiers projets ?

M. S. : Notre premier projet avait pour sujet un thème absolument passionnant : le château de Guédelon dans l’Yonne, un château médiéval en construction depuis vingt ans selon les méthodes du Moyen Âge. Nous sommes allés le numériser en sept étapes, pour permettre de voir l’évolution de la construction, pouvoir également le reconstruire en vidéo et y associer des animations. C’était très intéressant, cela nous a permis de rencontrer les domaines de l’archéologie, de l’architecture et les sites de patrimoines.

Les constructeurs ont été impressionnés par les résultats, principalement par le modèle en nuages de points qui procure la sensation d’avoir passé le bâtiment aux rayons X. Le château comprend un logis, sorte de grande pièce avec un assemblage de poutres hyper alignées qui avait été pour eux un véritable cauchemar. Grâce au scan, ils retrouvaient toute l’esthétique de cet alignement d’une manière incroyable. C’était à la fois une reconnaissance de leur travail enfin visible, et surtout cela leur a permis de tirer des plans à partir des relevés et de documenter leurs travaux.

 

J. B. : Nous avons ensuite travaillé sur le scan de la cathédrale d’Orléans, plus particulièrement sur la façade. La société Whatsit, spécialisée dans la conception de projection mapping, souhaitait déterminer les contraintes techniques de découpages et d’agencement des vidéoprojecteurs. Ils avaient pour cela besoin d’un scan 3D de grande précision, fidèle au bâtiment aussi bien en termes de géométrie que de qualité des textures. Lors de projections sur la pierre, il y a besoin d’une précision qu’ils nous ont dit avoir trouvée avec nous. Ils travaillaient préalablement avec des géomètres qui n’ont pas forcément le regard et la culture de la 3D. Ils ont été heureux de pouvoir aller plus loin en termes de rendu et de problématiques liées à la 3D.

 

M. S. : Le projet Séance 129 produit par Cinétévé est un projet VR sur lequel nous sommes intervenus. Mis en place pour les 100 ans de l’armistice de 1918, il a pour sujet le discours de Georges Clemenceau à l’Assemblée nationale. Nous devions numériser complètement l’hémicycle de l’assemblée, un acteur jouant le rôle de Georges Clemenceau étant filmé en train de parler sur le perchoir. Nous avions accepté le défi passionnant de numériser toute l’assemblée nationale en quatre heures, le temps qui nous avait été imparti : à 9 h 00 la porte s’ouvrait, à 13 h 00 nous étions sortis. En complément de la numérisation avec le scanner, nous avons photographié la totalité de l’Assemblée.

Nous avons ensuite travaillé avec le studio Saint-Georges en charge de la postproduction, en instaurant une fois encore un vrai échange pour déterminer les rôles de chacun dans l’intérêt de la production, nous avons effacé des micros et des téléviseurs. La production était très contente du résultat final et de nos méthodes de travail.

 

 

M. : Pouvez-vous évoquer la concurrence nationale et internationale ?

M. S. : La partie photogrammétrie avec des appareils photos est très utilisée par les studios VFX, qui maîtrisent cette technologie. Ce sont donc nos concurrents et nos clients à la fois lorsqu’ils ont des besoins d’une plus grande précision.

La seule concurrence directe en Europe, vient d’Angleterre. Une société propose ces mêmes services ; étant complètement dédiée à cela, elle dispose d’outils que nous ne possédons pas pour l’instant et qui font partie de nos projets de développement : par exemple des rigs 3D pour personnages. Nous aimerions concevoir des outils similaires transportables avec des capacités de mobilité qui n’existent pas aujourd’hui. Ce sont des rigs avec une centaine d’appareils photo et des câbles dans tous les sens. On revient un peu à l’histoire de Be4Post et son obsession de la simplification des outils.

 

 

M. : Tu parles déjà de développements, avez-vous d’autres pistes ?

M. S. : Nous souhaitons continuer à développer notre offre pour le patrimoine, l’architecture et la création de plans de bâtiments existants. Nous dialoguons avec des sociétés comme Iconem qui fait de la numérisation de sites en danger. En effet s’il nous est possible de numériser entièrement une église qui va s’effondrer de manière imminente, il sera possible de la reconstruire dans 50 ans, grâce à un scan au millimètre et à toutes les informations et les textures que nous aurons captées.

Ce n’était pas forcément le but au départ, mais si nous réalisons un scan d’un monument parisien pour le patrimoine ou pour un film il est simple de l’exploiter pour les deux domaines. Nous sommes des gens de l’image, donc nous apportons un soin particulier à la lumière afin de mettre en valeur les lieux et ceci quelle que soit la finalité de nos travaux ; nous recherchons la meilleure texture.

J’aime l’idée d’être léger ; le scanner et son équipement sont dans un sac à dos. Il suffit à Jérôme de prendre le train ou l’avion, il est autonome et réactif. Nous disposons également d’un pilote de drone free-lance lié à l’entreprise, il nous a accompagnés dans toutes les étapes légales (inscription DGAC…) et a développé ses compétences en photogrammétrie avec un drone.

 

 

M. : Souhaitez-vous aborder le sujet du budget ?

M. S. : Concernant les tarifs, nos prestations sont plus abordables que ce qu’on pourrait penser. Le documentaire est un domaine avec lequel nous pourrions collaborer. Pour donner des idées, sur un lieu compliqué comme le château de Guédelon, notre intervention sur place a duré une journée, complétée de trois jours de travail en postproduction pour un budget avoisinant les 5 000 €. Sur un projet documentaire, nous pourrions scanner un lieu avec tous les axes et y inclure très simplement des habillages en 3D pour le vieillir, ajouter des éléments, en enlever d’autres.

Le secteur de la pub est également intéressé, surtout pour les productions étrangères, pour les repérages et les VFX. Il nous serait simple, même en termes d’autorisations, grâce à notre légèreté, de scanner la place Vendôme pour y garer une voiture.

Il existe une infinité d’applications que les productions n’ont pas encore imaginées ; c’est à nous maintenant de communiquer et d’expliquer le champ des possibles ouvert par notre nouveau département.

 

Extrait de notre article paru pour la première fois dans Mediakwest #31, p.12/14. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 9 octobre 2019 à 17:00

Bonjour le Monde !, minutie et poésie en stop motion (Web TV)

Bonjour le Monde !, minutie et poésie animale en stop motion (Web TV) © Nathalie Klimberg

Cet été, les réalisateurs Anne-Lise Koehler et Eric Serre présentaient sur Série Séries Bonjour le Monde !, une série d’animation et aujourd'hui un long-métrage - sorti en salle ce 2 Octobre - produits par Normaal Animation en stop motion. La production des 90 minutes d'animation nécessaires au film et à la série s'est déroulée sur 15 mois et a monopolisé une équipe de 15 personnes avec, à la clé, une histoire à la fois onirique et réelle qui n'aurait pas pu prendre vie sans un pipeline numérique mûrement réfléchi. Rencontre avec les deux créateurs qui nous dévoilent les coulisses et les procédés de fabrication...

 

Eric Serre, co-réalisateur de la série Bonjour le Monde ! : "Bonjour le Monde ! est initialement une série en marionnettes diffusée sur France 5 et produite par Normaal Animation. Pour nos dix épisodes de neuf minutes, nous avons fabriqué 90 minutes d’animation en stop motion avec des marionnettes en papier modelé. Tout ce qui est à l’écran est fabriqué a partir de la même technique, la végétation et les animaux. Cela donne un regard sur la nature, je pense, attentionné, rigoureux et en même temps, poétique..."

 

Anne-Lise Koehler, auteure et co-réalisatrice de Bonjour le Monde ! : "Je suis fascinée par les animaux et j’avais envie de faire quelque chose qui ne soit pas un documentaire animalier et donc d’utiliser la spécificité du stop motion, cette technique permet un décalage poétique pour parler du règne animal et pour donner une vision empathique sur la nature."

 

Pour savoir pourquoi ces créateurs ont utilisé le stop motion et découvrir le pipeline industriel de la production… regardez la vidéo !

 

 

BONJOUR LE MONDE !

Comment naît-on oiseau, pourquoi naît-on insecte, mammifère ou poisson ? Les sculptures de papier de Bonjour le Monde animent le spectacle de la vie sauvage.

Idée originale : Anne-Lise Koehler

Réalisateurs : Anne-Lise Koehler, Eric Serre

Compositeur : Standaard (studio son)

Production : Normaal avec la participation de France Télévisions & RTS

Producteur : Alexis Lavillat

Diffuseur : France Télévisions (France 5)

 

Bonjour le Monde ! était diffusé tous les samedis matin à 10h sur France 5 entre le 18 mai et le 29 juin 2019. L'adaptation de la série au cinéma est sortie sur grand écran le 2 octobre 2019...

  • 2 octobre 2019 à 17:00

IBC 2019 : Adobe Premiere Pro industrialise le multi formats…

Adobe Premiere Pro industrialise la déclinaison multi formats… © Nathalie Klimberg

Aujourd’hui plus de 300 partenaires technologiques participent à l’extension de la plateforme de production (grâce à son API et ses SDKs ouverts) avec des axes de développement qui tracent leur voie autour des exigences de la narration pour le film et la TV ainsi que la productivité pour les news et le sport…

Tous les ans, Adobe annonce des centaines de nouvelles fonctionnalités pour sa plateforme d’édition et cette année, l’éditeur de Première Pro n’a pas dérogé à la règle avec 500 améliorations dont une performance augmentée en termes d’accélération de calcul (la vitesse de tracking de masque a été multipliée par 4) et plus de 700 plugs in et extensions…

La solution supporte encore de nouveaux codecs (HEVC, Sony Venice V3…) pour permettre au monteur de poser son media sur la timeline sans se poser de questions de compatibilité. Une intégration poussée entre Premiere et After Effects permet désormais l’utilisation de templates de motion graphique sans sortir de Première, l’interface a aussi évolué pour travailler l’audio plus rapidement avec le panel Essential Sound…

 

Mais l’une des fonctionnalités les plus impressionnantes à venir cette année repose sur Sensei, le moteur d’intelligence artificielle et de machine learning d’Adobe dévoilé en 2016… Il s’agit de la mise à jour d’Auto Reframe. Cette fonctionnalité présentée pour la première fois à Adobe MAX 2018 sous le nom de Smooth Operator utilise la technologie Sensei pour recadrer et reformater intelligemment le contenu vidéo selon différents formats d'image, du carré au vertical en passant par le 16:9.

 

Auto Reframe permettra notamment aux utilisateurs d’automatiser la tâche fastidieuse de recadrage manuel du contenu, lors des déclinaisons multiplateformes. Cette nouvelle fonctionnalité pourra être appliquée sous forme d'effet sur des clips individuels ou sur des séquences entières.  

 

A l’écoute permanente de ses utilisateurs finaux, Adobe a beaucoup travaillé pour faire de Premiere, un logiciel de montage mainstream dans les univers de l’industrie cinéma et du broadcast. Et les efforts ont payés ! En 2014, on dénombrait notamment 9 films montés sur Première à Sundance, en 2019, ils étaient 98…

  • 9 octobre 2019 à 17:00

HDR, du tournage à l’étalonnage : la parole à un étalonneur (Partie 5)

Rémi Berge en action sur le pupitre Blackmagic DaVinci advanced. © DR

Afin de vous présenter des mises en œuvre et des réflexions concrètes autour des technologies du HDR, nous avons donné la parole à des acteurs de la production audiovisuelle et cinématographique française s’intéressant de près à cette évolution que nous considérons, avec eux, comme majeure. Après le passionnant échange que vous avez pu découvrir dans les colonnes du précédent numéro de Mediakwest*, et sur lequel vous avez été nombreux à réagir, nous donnons aujourd’hui la parole à un étalonneur suivant au plus près les techniques et usages artistiques. Rémi Berge est affectueusement surnommé par certains de ses amis Monsieur HDR.

 

Le HDR en quelques lignes

Le HDR, c’est une évolution technique du signal vidéo sur deux critères. Le contraste d’abord : jusqu’à aujourd’hui le signal vidéo était basé sur une valeur de luminance maximale définie à 100 nits, selon les possibilités des écrans à tubes cathodiques « de l’époque ». En HDR le contraste est largement augmenté et selon les normes et les technologies d’affichage et de production le niveau de luminance peut aller jusqu’à 10 000 nits. Le second critère qui évolue parallèlement est l’espace colorimétrique qui grandit également fortement passant du Rec. 709 pour la HD jusqu’au Rec. 2020. Pour plus de détails, nous vous invitons à lire nos précédents articles*.

 

 

Mediakwest : Quels types de films étalonnes-tu en HDR ?

Rémi Berge : Pour les longs-métrages, les seules solutions actuellement exploitées sont proposées par Eclair (EclairColor) et Dolby (DolbyVision). En France, il y a peu de projets « fiction » étalonnés en HDR. J’étalonne donc en HDR des documentaires et des magazines. J’ai également préparé des produits pour Apple TV, des boucles d’une heure sur l’Afrique du Sud, la Polynésie, l’Indonésie, etc.

 

 

M. : Nous avions échangé sur un projet de téléfilm (« Mon frère bien aimé » - production Neyrac Films) que tu devais étalonner en HDR ; qu’en est-il ?

R. B. : Sur ce téléfilm, nous avons fait des tests avec le directeur photo, mais à l’époque (en 2016), des problématiques de coût et le manque de maturité des outils nous ont contraints à abandonner l’idée. En effet, les exigences, notamment sur les tons « chair », nous auraient imposé la réalisation de deux étalonnages. À ce moment, l’intérêt porté à cette technologie n’était pas assez important et le différentiel en termes de cibles potentielles n’est pas assez intéressant.

Les productions peuvent être intéressées par le 4K HDR pour le potentiel de vente des programmes à Netflix, mais cela reste incertain. Le surcoût d’un étalonnage HDR lorsque votre principal client diffuse et demande du SDR n’est alors pas justifié. Sur ce projet, le directeur photo était attiré par l’idée, nous avons donc fait des essais en pensant réaliser le produit principal en SDR via un « downconvert ». Le résultat n’était pas à la hauteur d’un étalonnage spécifique SDR.

La conversion de films HDR en SDR est possible. Il existe même des outils dédiés, et les logiciels de postproduction permettent des transcodages depuis des sources encodées suivant une courbe PQ dans un espace Rec. 2020 vers des médias Rec. 709, Gamma 2,4 ; mais sans l’intervention d’un coloriste le résultat est très moyen. J’aimerais étalonner plus de fiction en HDR ; pour moi il n’y a pas de différence entre étalonner de la fiction et étalonner des documentaires.

 

 

M. : Quelle quantité de films étalonnes-tu en HDR ?

R. B. : J’étalonne beaucoup de films. Cette année j’ai étalonné douze 52 min. et sept 26 min. en HDR, dont de nombreux programmes d’excellente qualité pour The Explorers. C’est un tournant, je n’ai jamais autant étalonné en HDR ; avant ce n’était que des essais par-ci, par-là.

 

 

M. : Actuellement, quand tu fais un film en HDR, est-ce en supplément du SDR ?

R. B. : En fait, c’est l’inverse ! Ce sont les étalonnages SDR qui sont réalisés en supplément. Sur l’ensemble des films HDR que j’ai étalonnés, deux ont fait l’objet d’une version HDR, à partir du master SDR, au cas où. Tous les autres étaient une véritable demande d’étalonnage HDR.

 

 

M. : Quelle est ton expérience des différentes normes HDR coexistantes ?

R. B. : Il y a au moins « trois HDR ». J’ai fait des essais en HLG. La NHK et la BBC ont retenu cette norme, pour des raisons pratiques évidentes de rétrocompatibilité en diffusion. Deux téléspectateurs, l’un équipé en HDR et l’autre en SDR, pourront tous les deux profiter de la même source. La courbe hybride Log-Gamma s’adapte en effet toute seule dans le récepteur ; et cela fonctionne parfaitement. Cependant le rendu, tout en étant sensiblement mieux qu’en SDR est beaucoup moins bluffant qu’en HDR 10. Il y a une plus grande dynamique, mais on n’obtient pas l’effet « waouh » ! Pour Dolby, l’investissement financier conséquent dans les licences et la presque obligation de terminer son film chez Dolby freine considérablement son adoption.

Principalement, moi je fais du HDR 10 qui est le format le plus commun. C’est le format de postproduction pour préparer des masters destinés au pressage de Blu-ray par exemple ou pour du broadcast « hors live », du magazine ou du documentaire. Le format HLG de son côté a un intérêt ; c’est la seule solution pour faire du HDR en live : je ne vois actuellement pas d’autres solutions pour le live, même si le rendu n’est effectivement pas aussi bluffant qu’avec une courbe PQ.

Si on revient sur le Dolby Vision, ses grandes forces sont d’être encodé sur 12 bits, là où le HDR 10 se limite à 10 bits, et de pouvoir transporter les métadonnées indiquant les valeurs moyennes et maximales d’intensité lumineuse pour chaque plan du film. On peut donc dire qu’en HDR 10, 8 bits de quantification sont destinés à l’image « normale » et 2 bits sont dédiés aux hautes lumières : le signal de base (SDR) étant encodé uniquement sur 8 bits.

Avec les mêmes comparaisons, en Dolby Vision on dédie une plage de quantification de 10 bits pour l’image « traditionnelle » et 2 bits pour les hautes lumières. C’est pour cette raison que lorsque j’exporte mon master HDR 10, je le fais en 12 ou 16 bits plutôt qu’en 10 afin de m’octroyer une marge qualitative pour la réalisation de mon master SDR (préparé à partir du master HDR repris en source et découpé dans le logiciel DaVinci Resolve). Je pourrais réaliser l’étalonnage SDR à partir du projet d’origine, mais cela reviendrait finalement à étalonner à nouveau le programme et provoquerait un dépassement des limites de temps imposées par le budget.

 

 

M. : Quelles sont les contraintes sur les sources d’images qu’on te fournit pour étalonner un programme en HDR ?

R. B. : Les caméras sont les mêmes pour le HDR et le SDR, les modèles de caméras récentes disposent d’une plage dynamique suffisante. Mais les problématiques que l’on rencontre sont la très grande diversité et le mélange des médias fournis. Pour les magazines, il est courant de travailler à partir d’images issues de trois, quatre ou cinq caméras différentes ; et parmi elles on peut avoir des sources enregistrées dans l’espace colorimétrique réduit Rec. 709. Souvent une ou deux belles caméras sont utilisées, auxquelles viennent se greffer des appareils à la dynamique très éloignée, comme les stabilisateurs DJI Osmo. Il est alors nécessaire de réinterpréter ces médias pour adapter leur dynamique. On s’aperçoit alors très vite du manque d’informations : les hautes lumières sont brûlées. Le HDR supporte mal les aplats et le manque de matière obtenus.

 

 

M. : Il est de coutume de dire que le complément de dynamique apporté par le HDR est là pour offrir toute leur place aux hautes lumières plutôt que pour donner une luminosité générale plus grande à l’image, peux-tu nous préciser ce qu’il en est dans la pratique ?

R. B. : Si je peux me permettre cette comparaison : lorsqu’on a un grand lit, on a quand même tendance à s’étaler un peu dedans. Même si en théorie la dynamique supplémentaire est prévue pour les pics de lumière, lorsqu’on travaille en HDR on étalonne des images légèrement plus lumineuses qu’en SDR ; c’est souvent la demande des clients. Mais même si on me dit : « il faut que ça pète », je me limite parce que les images doivent rester naturelles et homogènes.

 

 

M. : En fonction de la technologie des écrans, seule une zone limitée peut être affichée en haute luminosité, notamment pour des raisons de limitation de consommation et d’écologie. Est-ce que c’est une contrainte pour toi ?

R. B. : Absolument pas, je n’ai pas envie de travailler avec des lunettes de soleil, et si je souhaite bronzer, je préfère aller dehors. Afficher des images à 1 000 nits sur une dalle entière présente peu d’intérêt. Cela doit juste être pris en considération pour des effets d’explosion par exemple. Lorsque dans certains films, on a demandé au monteur d’insérer des flashs au blanc, les écrans Oled réagissent bizarrement ; ils ne sont capables d’afficher ces images que pendant un très court instant ; l’écran a alors tendance à « pomper » ; d’autre part il faut garder à l’esprit que peu d’écrans grand public sont capables d’afficher plus de 800 nits (et encore moins sur toute leur surface).

Cela me permet d’évoquer le sujet de la place du blanc. En HDR, son niveau ne doit pas forcément être réglé à 100 %, et en est même sensiblement éloigné, contrairement au SDR. Je dois donc baisser les niveaux des « flashs au blanc ». La réflexion est la même pour les titrages, je règle leur luminosité à environ la moitié de la courbe de luminosité.

 

 

M. : Regardes-tu ce qui est produit en HDR, par exemple sur Netflix ?

R. B. : Nous regardons régulièrement des programmes HDR sur Netflix avec un écran grand public de qualité. Lors de notre dernier visionnage « critique », sur dix programmes HDR un seul nous semble avoir été étalonné en HDR au départ. Les autres ont certainement été « gonflés » en HDR avec pour résultat des images hyper agressives, des hautes lumières excessivement lumineuses, et des titrages « explosifs » : c’est de l’aberration commerciale.

Certaines productions commencent cependant à penser à la pérennité de leurs films. J’ai étalonné un documentaire diffusé sur Arte, donc en HD et en SDR. L’étalonnage HDR a été pensé pour les futures distributions : c’est un investissement. Pour ce documentaire, j’ai fait l’étalonnage en HDR suivi d’une passe en SDR à partir du master HDR. C’est pour moi la meilleure solution actuelle, tant technique que commerciale.

Je pourrais choisir de travailler en ACES (une technologie qui adapte le traitement du signal vidéo en fonction des caractéristiques des différents étages de la chaîne de production : sources, outils de travail, écrans, etc.) et de préparer deux sorties différentes en adaptant l’étalonnage, mais cela revient finalement quasiment à réaliser deux étalonnages différents.

Il serait également envisageable de travailler d’abord en SDR et d’étalonner le programme HDR dans un second temps. Dans ce sens, la problématique la plus importante se situe dans le passage de l’espace colorimétrique Rec. 709 à l’espace Rec. 2020, ou plus précisément à l’espace DCI P3 au sein de l’espace Rec. 2020 (cf. la suite de l’article).

Pour préparer l’étalonnage SDR à partir d’un master HDR il faut être attentif à la quantification du signal. Pour simplifier, on peut dire qu’en SDR, on travaille sur 10 bits de 0 à 1 023, alors qu’en HDR c’est très différent. La courbe PQ prévoit un niveau théorique maximum de 10 000 nits, qui ne sont pour l’instant affichés par aucun écran, le BVM X300 affichant 1 000 nits maximum.

Sachant que dans le signal du HDR on travaille le signal « habituel » dans une plage entre 0 et 300 nits, et que le reste est consacré au traitement des hautes lumières, on n’utilise qu’une petite partie de la plage de quantification pour la majorité du signal utile. C’est la raison pour laquelle je prépare mes masters HDR en 12 ou 16 bits avant d’appliquer ma courbe de réduction (LUT) sur le film entier et de faire une adaptation de l’étalonnage plan par plan. Dans ce sens, l’adaptation colorimétrique se passe plutôt bien.

 

 

M. : Tu te contrains dans l’espace colorimétrique DCI P3 pour l’étalonnage en HDR, peux-tu nous en expliquer la raison ?

R. B. : J’étalonne dans l’espace colorimétrique Rec. 2020, mais je me limite à l’espace DCI P3 à l’intérieur de cet espace Rec. 2020. Le matériel grand public n’affiche pas du tout le Rec. 2020 et même si de nombreux modèles récents s’en rapprochent, tous n’affichent pas l’entièreté de l’espace DCI P3 non plus, il en résulte trop de fausses couleurs en cas de sur-saturation. Les derniers modèles Oled le font. Mais l’espace DCI P3 est déjà bien plus large que le Rec. 709. Les couleurs situées entre le Rec. 709 et le Rec. 2020 sont des couleurs extrêmes, des verts très saturés et hyper lumineux.

Moi, cette contrainte ne me gêne pas beaucoup, je n’ai jamais senti mes couleurs se « tordre » sauf en cherchant volontairement les limites. À partir d’un fond coloré, en « tirant » sur les réglages, à partir d’un certain seuil on voit des choses étranges apparaître, des couleurs qui dérivent ou qui ne peuvent pas être affichées. Mais globalement pour les images « naturalistes » on ne ressent pas l’obligation, ni même l’intérêt d’un espace encore plus large. Sauf cas extrême, lorsqu’on filme par exemple un soleil de face avec des rouges flamboyants que l’on ne peut pas observer habituellement.

J’ai passé les vingt dernières années à étalonner des images et à essayer de les contraindre dans une dynamique et un espace colorimétrique relativement faible.

 

 

M. : Ne penses-tu pas qu’en travaillant avec un espace colorimétrique plus large tel que le Rec. 2020, tes clients et les spectateurs trouvent le rendu de l’image « trop vidéo » ?

R. B. : Associer le caractère cinématographique à la désaturation est uniquement « culturel » ; en effet l’espace colorimétrique du cinéma est plus large que celui de la vidéo. Dès que mes clients demandent un rendu vraiment cinématographique, très désaturé, c’est donc vraiment une notion « culturelle ».

Au cinéma, on fait ce qu’on veut. Les blockbusters tels que « Transformers » nous montrent des couleurs éclatantes sans que l’on se dise : « Hollywood, non, ce n’est pas très cinématographique ». Mais il est vrai que c’est une demande récurrente. Je viens de finaliser l’étalonnage d’un long-métrage où on m’a demandé un rendu Agfacolor. On m’a apporté des livres d’exemples du style voulu, et si on observe bien, les images présentées ne sont pas si désaturées que ça : notre étalonnage sera lui encore plus désaturé. Les couleurs un peu pastel servent à ramener à l’époque… Mais je ne sais pas pourquoi : les gens ne voyaient pas pastel à l’époque ! C’est un rendu… on se fait des films ! On peut aussi faire des films de cinéma avec beaucoup de couleur !

 

 

M. : Travailles-tu en HDR différemment dans ton rapport avec les équipes ? As-tu une interaction particulière avec la production ou interviens-tu uniquement à la fin en récupérant ce que l’on veut bien te donner ?

R. B. : On arrive de toute façon à la fin et on récupère ce qu’on nous donne. Ça a toujours été et ce sera toujours ainsi ! La discussion peut cependant débuter en amont. Les gens sont inquiets parce qu’ils ne savent pas ce qu’il est possible de faire. Tu peux alors leur montrer les possibilités offertes par le HDR ; mais les contraintes de production restent les mêmes. Un tournage peut par exemple débuter idéalement avec deux F55. Très souvent, pour répondre à des besoins supplémentaires, les équipes sont séparées pour couvrir plusieurs actions simultanées, ou filmer plusieurs sujets. Et du coup au lieu de deux F55 pour le champ et le contrechamp, la F55 principale est complétée par un appareil photo.

Le client est alors surpris de ne pas obtenir les mêmes images. C’est simple, tu as une belle image avec de la dynamique et l’autre avec des hautes lumières explosées, des aplats sur les carnations. Les fichiers issus de ces caméras sont en H264, souvent en 8 bits, offrant des possibilités très limitées. Donc tu es contraint à « pourrir un peu » la belle image pour essayer de la raccorder avec l’image de plus belle qualité ; le contraire étant impossible.

 

 

M. : Lorsqu’on te propose un projet HDR, demandes-tu des caméras particulières ?

R. B. : Je n’ai rien à imposer : ce que je peux dire c’est qu’en 12 ou 16 bits et en log c’est bien, en 8 bits et en Rec. 709 c’est très risqué, c’est beaucoup moins bien ! Ce langage, je l’ai toujours eu, parce que c’est toujours vrai, même si c’est encore plus vrai lorsque l’on prétend étendre ses images dans une plage dynamique plus grande.

 

 

M. : Et pour le montage, y a-t-il un workflow différent ?

R. B. : Pas du tout ! Les monteurs travaillent en Rec. 709 et voient l’image telle quelle. Contrairement au SDR où l’étalonnage de documentaires ou de magazines est souvent réalisé à partir d’un mixdown du programme préalablement découpé, pour le HDR je repars systématiquement des sources.

J’étalonne souvent sur DaVinci Resolve de Blackmagic Design. Comme le logiciel est disponible à moindre coût, les productions peuvent prendre en charge la conformation en interne et me fournir un projet prêt à l’emploi. Cela leur coûte moins cher.

 

 

M. : Peux-tu nous parler de ta configuration pour l’étalonnage des programmes en HDR sur DaVinci Resolve ?

R. B. : Je travaille donc sur une station DaVinci Studio de Blackmagic Design. L’écran est le modèle BVM-X300 de Sony. La majorité des programmes que j’étalonne en HDR est en 4K DCI (4 096 x 2 160) et en 50p. Les volumes de médias à traiter sont donc importants. Pour obtenir un affichage temps réel, je ne peux pas me contenter d’un iMac, ni même d’un iMac Pro. J’ai donc dû configurer une station Linux appuyée par un boîtier hébergeant plusieurs puissantes cartes graphiques.

Avec DaVinci, on peut choisir de travailler à partir de LUT (sortes de courbes appliquées au signal vidéo). On peut également utiliser un mode plus évolué, le DaVinci YRGB color managed. C’est un « mode de management colorimétrique » qui permet de choisir les Gamma et Gamut des sources, timelines et destinations.

Après avoir testé de nombreuses solutions, notamment via la fabrication de mes propres LUT, et le travail en ACES, je trouve que la solution la plus simple et la plus efficace est celle du color management. L’intérêt de l’ACES c’est de ramener les sources dans un espace colorimétrique commun, avec des transpositions d’espaces colorimétriques que je trouve assez efficaces. Mais le fait de travailler en ACES dans le logiciel modifie la réaction des outils ; je trouve alors que l’étalonnage peut devenir plus complexe à réaliser.

Je travaille dans une timeline contrainte en DCI P3, avec un point blanc D65. Le film est ensuite encodé dans l’espace Rec. 2020 dont on n’utilise du coup qu’une partie restreinte. C’est une demande des broadcasters, dont Orange et Netflix, et, à l’origine, des fabricants de téléviseurs, de ne pas dépasser l’espace DCI P3, limite des écrans actuels. On se contraint donc dans du P3 pour des raisons de matériel en bout de chaîne.

J’avais étalonné mes premiers films HDR dans l’espace Rec. 2020 total. En fait je ne débordais pas beaucoup de l’espace DCI P3. Ce qui est intéressant à observer cependant, c’est qu’au vu de la différence entre les deux espaces, on obtient en Rec. 2020 des couleurs étonnantes qui ne peuvent être créées que dans ce mode ; et je parle là non pas d’une saturation plus élevée des couleurs mais de tonalités et nuances différentes. Notamment dans les verts, dans les forêts, j’obtenais des résultats intéressants et un rendu très particulier.

Le matériel va évoluer, mais le Rec. 2020 ne va pas être disponible rapidement sur les téléviseurs grand public ; les pics de luminosité évolueront en premier. La luminosité est actuellement plus forte sur les écrans LCD, mais le rendu dans les noirs est beaucoup plus subtil avec les écrans Oled.

 

 

M. : Le HDR et le réalisme…

R. B. : Je trouve que d’afficher les images de façon naturelle est un véritable plus. Les hautes lumières ne sont pas encore celles de la vraie vie ; mais dans la vraie vie l’œil et le cerveau font usage de différents procédés d’adaptation pour s’adapter aux différences de lumières de la scène, et on ne souhaite pas que le spectateur doive fermer son iris pour voir une partie de l’image.

Avec le HDR, lorsqu’un point brillant est présent dans l’image, lorsqu’un reflet ou un flare traverse l’écran, on peut les afficher naturellement. Bien entendu on n’étalonne pas les visages à 1 000 nits. Un visage reste éclairé de la même manière en SDR et en HDR, on arrive facilement à le rendre correctement sur un écran. C’est lorsque l’on souhaite donner une certaine luminosité à une scène, une luminosité naturelle, que le HDR nous ouvre de nouvelles possibilités en nous évitant de tout compresser dans les hautes lumières. On dispose des « densités » depuis le début ; le fait de pouvoir afficher la dynamique, c’est vraiment bien.

Concernant l’espace colorimétrique disponible, plus il sera étendu, plus on sera heureux. Après on n’est pas obligé de s’étaler dedans copieusement ! En SDR, une fois posé le niveau lumineux des carnations, on compresse le reste au-dessus et on est systématiquement obligé de bricoler l’image pour afficher un ciel, pour conserver les hautes lumières ou éviter que les fenêtres en arrière-plan soient « brûlées ».

 

 

M. : Parlons artistique. Quelle est ta technique de travail sur le HDR ? Est-ce qu’on peut dire que tu étalonnes ton image de la même manière sur 70 % de ton signal et que c’est au-dessus que tout change ? Est-ce que toute ta méthode de travail est modifiée ?

R. B. : On peut dire ça ! Je fais à peu près la même chose dans le bas de la courbe. Mais on a quand même tendance à être plus lumineux, parce qu’on a plus de place et qu’on s’étale vite dedans ! Maintenant j’essaye de faire quelque chose de joli, l’outrancier ne m’intéresse pas. Il y a quelques années, les premières démos HDR sur les salons faisaient mal aux yeux. On te présentait deux images, avant/après, sur deux moniteurs. Et finalement tu te disais presque que tu préférais le … avant ! parce que l’après était « too much ».

Le HDR réduit le carcan, mais toutes les images ne sont pas naturellement lumineuses, et ne doivent pas être étalonnées exagérément lumineuses. Par contre, tu peux avoir des images denses et d’un seul coup un point lumineux qui apparaît peut vraiment être lumineux ! On reste cependant loin de la lumière naturelle. Dans la rue, le reflet d’un soleil sur une voiture est mesuré à 20 000 nits, loin des 1 000 nits que peut afficher un écran HDR actuellement.

 

 

M. : Tu fais une véritable veille technologique sur le HDR. As-tu suivi les évolutions matérielles pour le HDR dans les salles de cinéma ?

R. B. : Pour les salles de cinéma, Eclair pousse sa solution EclairColor. Mais au cinéma, les niveaux de luminosité sont naturellement beaucoup plus faibles, du fait de la projection, comparativement aux niveaux des écrans (moniteurs ou téléviseurs). En SDR le niveau du blanc est prévu à 48 nits seulement et en HDR à 105 nits. Une nouvelle génération d’écrans est en train d’arriver sur le marché. Ils sont constitués de panneaux à technologie Microled s’assemblant par modules pour créer des écrans de tailles variables. Ils permettent de dépasser les limites inhérentes à la projection. C’est inéluctable, à terme les écrans de projection n’existeront plus. Dans une salle de cinéma, on est dans le noir, donc 48 nits c’est bien en SDR, 105 c’est bien en HDR, mais pourquoi ne pas aller plus loin, 1 000, 4 000 nits, ou plus.

 

 

M. : As-tu opéré des changements dans ta salle d’étalonnage pour le HDR ?

R. B. : Il y a longtemps que j’ai arrêté de travailler dans le noir. Quand j’avais 20 ans, je travaillais dans l’obscurité totale, et je ne voulais surtout pas de lumière qui pût se refléter sur l’écran ; il est vrai cependant que les tubes étaient très sensibles aux reflets. Aujourd’hui j’étalonne avec une petite source lumineuse modulable placée au-dessus de moi, j’utilise également deux « phares réglables » correctement calibrés à 6 500K dirigés vers une toile (un écran de projection), au fond de la salle, derrière mon moniteur. Lorsque je travaille en SDR, je les baisse et je les monte en HDR. Une journée d’étalonnage en HDR étant déjà plus fatigante, c’est bien de se sauvegarder un peu.

 

 

M. : Pour illustrer nos propos, nous avons passé en revue quelques exemples de programmes étalonnés en HDR…

R. B. : Pour cet entretien, après une demi-heure à observer des images en HDR, le retour au SDR est difficile ; il provoque une sensation de manque. On a juste du mal à revenir en arrière. La tonalité des images reste la même, mais de nombreux éléments disparaissent ; il manque une impression de relief. Comme cette image d’un hélicoptère traversant de superbes paysages : en HDR on voit nettement la petite lumière clignoter ; elle disparaît totalement en SDR.

 

 

Un grand merci à Rémi Berge qui s’est prêté avec enthousiasme à ce grand débat technologique et artistique.

 

Article paru pour la première fois dans Mediakwest #31, p.106/110. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

 

 

* LISEZ NOS AUTRES ARTICLES DÉJÀ PARUS DANS LE MAGAZINE MEDIAKWEST ET DISPONIBLES EN LIGNE :

 HDR : les premières clés du high dynamic range (partie 1)

• HDR : les nouveaux termes apparus (Partie 2)

• HDR : Comment peut-on en profiter ? (Partie 3)

HDR : Du tournage à l’étalonnage - La production (Partie 4)

  • 25 septembre 2019 à 17:05

Merging+ présente les pouvoirs d'Anubis !

Merging+ présente les pouvoirs d'Anubis ! © DR

MERGING + ANUBIS est un véritable produit différent qui s'adresse à des marchés très divers. Il s’adresse à la clientèle traditionnelle de Merging dans les domaines de la radiodiffusion, de la post-production et de l'enregistrement haut de gamme, en tant que puissant complément de leur installation existante. Plus important encore, il fournit des fonctionnalités uniques à tout propriétaire de studio ou à tout musicien recherchant une unité AD/DA compacte qui offre la qualité que vous attendez de Merging, ou un contrôleur de moniteur complet qui s’intègre à n’importe quelle station de travail audio numérique (DAW).

 

Anubis introduit un nouveau concept de « Modular by Software ». Effectivement, le même matériel peut être utilisé pour des flux de travail totalement différents ou ce que nous avons choisi d'appeler « missions ». Une mission pourrait gérer votre monitoring multicanal dans la salle de contrôle et une autre mission pourrait vous enregistrer en studio. Le Monitor Mission nécessite le contrôle de plusieurs haut-parleurs et des casques avec des fonctions de talkback intégrées, de la gestion des basses et de l’alignement temporel, ainsi que de nombreuses autres fonctionnalités indispensables à la gestion de votre environnement d’écoute. Le Music Mission nécessiterait un mixage à faible temps de latence, un contrôle des sources de signal, des plug-ins innovants, de superbes presets micro et toutes les fonctionnalités nécessaires pour être le partenaire indispensable du musicien.  

 

Cette flexibilité peut être attribuée au fait qu'Anubis est le premier produit maison à utiliser la puissante technologie de transport de média ZMAN, déjà utilisée par les clients OEM. ZMAN ne se contente pas de gérer la connectivité AES67, il dispose également d'un important traitement DSP/FPGA embarqué qui fournit une multitude d'autres fonctionnalités programmables.

 

La mise en place d’Anubis est proposée dans son rôle de Mission Monitor et la proximité immédiate de divers événements permet des lancements simultanés des deux côtés de l’Atlantique. La première présentation publique est fixée au 21 mars à la Convention AES à Dublin, sur le stand 404, où le PDG de Merging, Claude Cellier, se tiendra sur un stand partagé avec PSI Audio et Sonosax. Cette présentation sera immédiatement suivie dès le 2 Avril par Prolight + Sound sur le stand 8.0 C19. La semaine suivante, le NAB 2019 qui démarrera le 8 Avril, permettra le lancement dans la région nord-américaine sur le stand #3035, dans le hall central.

 

D'une certaine façon, Anubis peut être considéré comme une amélioration très significative de la gamme extrêmement populaire de l’interface audio en réseau de Merging. Cette interface audio exceptionnellement compacte est un convertisseur A/D et D/A de 32 bits autonome, capable de gérer des entrées micro ou de niveaux de lignes, et quatre sorties de lignes analogiques, plus deux sorties casque de haute qualité. Le grand encodeur rotatif permet un contrôle précis du volume de contrôle, mais il facilite également le réglage des paramètres, tandis que l’affichage multi-touch et les boutons dédiés permettent une sélection intuitive de tout ce qui doit être contrôlé. Le talkback intégré, les circuits de repère et les fonctions de gestion des haut-parleurs en font une unité idéale dans toutes les salles de contrôle.

 

Le véritable pouvoir d’Anubis devient évident dès qu’il fait partie d’un réseau plus vaste. Conçu pour s'intégrer dans un environnement AES67 ou ST2110, il est remarquablement évolutif lorsqu'il est associé aux unités Hapi ou Horus de Merging, voire à tout autre périphérique AES67. À ce stade, les E/S supplémentaires permettent à Anubis de devenir le centre d’une matrice allant jusqu’à 256 x 256, avec le contrôle des flux entrants et sortants. Instantanément, des tâches telles que le contrôle du moniteur audio immersif deviennent extrêmement simples. En plus des E/S audio, Anubis possède également une connectivité GPIO ou MIDI, une gamme de pilotes couvrant MacOS, Windows et Linux, le décodage Ambisonic et la réduction du « cough cut » sur chaque entrée. Bien que la liste complète des fonctionnalités ne puisse pas être détaillée ici, il convient de noter qu'Anubis offre le choix du taux d'échantillonnage et de la qualité audio que vous attendez d'un produit Merging, avec comme exemple la plage dynamique d'entrée de ligne généralement de 139 dB (pondérée A).

 

La clientèle traditionnelle de Merging a toujours été motivée par un son de qualité. L'enregistrement sur DSD et DXD a donc toujours été une caractéristique de nos produits. Il en est de même avec Anubis. Deux modèles sont disponibles. Pro : gère les fréquences d’échantillonnage jusqu’à 192 kHz, Premium : offre un son haute résolution jusqu’à 384 kHz, DXD et tous les types de DSD jusqu’à 256. Anubis est à un prix très compétitif avec des prix de détail recommandés avant taxes et coûts d'importation respectivement de 1345.50 euros et de 1795.50 euros    

 

Les utilisations pratiques d’ANUBIS + MONITOR sont notamment le contrôle des moniteurs dans les studios, les camions de production à distance et les salles de montage, la surveillance des flux audio AES67 entrants, l’enregistrement de voix off ou en tant que complément très mobile pour l’enregistrement sur le terrain. Anubis peut fonctionner grâce à sa propre alimentation, par batterie et/ou PoE (Power over Ethernet) si une redondance est requise et il peut être placé sur un bureau ou monté sur un pied de microphone standard.

 

Le concept de « Modular by Software » déjà mentionné est essentiel à l’évolution future d’Anubis. Cela signifie que l'unité matérielle identique peut être reconfigurée pour remplir une fonction complètement différente en chargeant des programmes alternatifs. Il modifie l'interface utilisateur pour l'adapter au flux de travail idéal et il reconfigure le moteur Anubis pour le programme choisi, en vous offrant encore plus de fonctionnalités. Cela apporte à l'utilisateur non seulement un utilitaire supplémentaire, mais cela permet également un chemin de mise à niveau simple vers les applications futures. Même si le Monitor Mission et le Music Mission sont planifiés pour 2019, le calendrier prévoit l’introduction future de plusieurs autres missions, afin de répondre aux différents marchés.

 

L'extrême flexibilité du matériel Anubis, sa taille compacte, sa qualité audio exceptionnelle et l'évolutivité, en particulier dans un environnement en réseau, caractérisent à coup sûr MERGING + ANUBIS comme étant « unique en son genre ».

  • 24 septembre 2019 à 17:00

IBC 2019 : les nouveautés micro et monitoring de Sennheiser et Neumann

IBC 2019 : les nouveautés microphones et solutions de monitoring de Sennheiser et Neumann © Nathalie Klimberg

Systèmes sans fil, technologies audio immersives ou équipements de studio d'excellence : les solutions qui étaient exposées par Sennheiser et Neumann au salon IBC garantissent une qualité audio aux productions de tout type et de toute taille. Ont été présentés les systèmes sans fil numériques d’entrée de gamme XS Wireless Digital 2,4 GHz de Sennheiser pour caméras DSLR/DSLM ; le mini émetteur de poche UHF professionnel SK 6212 et le récepteur pour caméra EK 6042 pour les productions en extérieur et en studio ; ainsi que le caisson de basse Neumann KH 750 DSP et les casques de monitoring de studio Neumann NDH 20...

 

Producteurs et créateurs qui ont visité le stand pouvaient y découvrir un large choix de microphones sans fil, notamment des séries XSW-D, AVX, évolution wireless, et Digital 6000 et Digital 9000. Ces systèmes assurent une transmission sans fil de grande qualité dans différentes gammes de fréquences, 2,4 GHz, 1,9 GHz et UHF, pour les professionnels et les utilisateurs éclairés.

Dans la catégorie des micros filaires pour caméra, le stand a mis en avant la série Sennheiser MKE et les micros-canons standard MKH 8060 et MKH 416 de Sennheiser, ainsi que les modèles Neumann KMR 81 i et KMR 82 i.

 

Monitoring de studio et d’extérieur

Les casques Neumann NDH 20 sont des solutions d’une précision exceptionnelle pour le monitoring de studio. A ceux-ci s’ajoutent les casques et micro-casques HD 25 et HD/HMD 300 de Sennheiser pour studio de production et tournage vidéo.

Les systèmes de monitoring de studio Neumann sont un incontournable des solutions audio présentées à l’IBC. Deux configurations stéréo étaient exposées : deux enceintes de monitoring KH 80 DSP avec un caisson de basses KH 750 DSP et deux enceintes de monitoring KH 310 avec KH 750 DSP. Les deux installations sont contrôlées par l’application Neumann.Control.

Sur le stand, Neumann exposait ses microphones de studio BCM 104, KM 184, TLM 103 et U 67.



AMBEO Immersive Audio

La zone consacrée à l’expérience audio immersive AMBEO a mis en avant deux workflows de bout en bout pour le multicanal et des productions Ambisonics. Les visiteurs ont eu l’occasion de créer un mix audio pour les deux workflows en VR, via l’interface immersive dearVR SPATIAL CONNECT de Dear Reality.

Fut également présent sur le stand, le prototype du microphone AMBEO Sports Microphone Array pour les prises de son 360º lors des rencontres sportives.

Dans le cadre du programme de partenariat AMBEO for VR, Solid State Logic a fait une démonstration d’un enregistrement live immersif de mix pour la télévision réalisé avec le micro Sennheiser AMBEO VR et plusieurs microphones d’appoint.

  • 25 septembre 2019 à 18:37

Doug Delaney, coloriste sur « Captain Marvel »

« Nous avons utilisé certains des nouveaux outils de Baselight, tel Base Grade, qui offre un moyen vraiment unique de peaufiner l’image. Base Grade a révolutionné la manière dont j’aborde l’étalonnage de contenus en HDR et EDR

La finition de « Captain Marvel », la superproduction sortie au début de l’année, a été effectuée chez Technicolor sous la direction de Doug Delaney. Nous avons rencontré Doug sur le stand Filmlight durant le NAB.

 

Doug Delaney a commencé sa carrière dans le domaine des effets spéciaux avant de se spécialiser dans la finition numérique, avec de nombreux longs-métrages à son palmarès. Son but a toujours été de développer toujours plus ses compétences, ses techniques et ses méthodes.

C’est relativement tard dans la postproduction de Captain Marvel que Doug a rejoint l’équipe. « C’est un film très technique, avec énormément d’effets visuels, dit-il. Je suis intervenu sur la couleur à un stade beaucoup plus avancé que dans mes autres projets. L’univers cinématographique Marvel possède un langage visuel bien établi. Certains éléments ont une couleur définie : par exemple, le costume de l’héroïne doit être d’une couleur précise quel que soit l’environnement, parce qu’il représente un personnage emblématique. »

Lorsqu’un film comporte autant d’effets complexes, les pipelines d’effets visuels sont créés environ un an avant le début de la postproduction proprement dite. Cette préparation inclut le « look development », qui relève autant des effets visuels que du tournage lui-même. Les effets font l’objet d’un grand soin.

« Le look development et les LUT existent déjà et ont été distribués pour des intervenants dans le monde entier qui travaillent sur ces projets en même temps. Les éléments visuels généraux ont été approuvés par les réalisateurs et par le responsable des effets visuels, avant la finition. C’est un processus différent des autres films, pour lesquels le look development ne commence qu’au moment de l’étalonnage final. Pour Captain Marvel, à l’inverse, mon rôle était plutôt d’appliquer des effets qui avaient été décidés à l’avance. »

« Doug Delaney veillait donc à ce que le résultat soit conforme au cahier des charges, ce qui peut passer par un travail sur l’uniformité des séquences ou, bien entendu, par l’amélioration et l’enrichissement d’éléments visuels. « Mais en général, il ne faut pas que l’étalonneur ait la main trop lourde, car cela se ressentirait sur la qualité des effets d’un point de vue créatif, précise-t-il. Nous avons utilisé certains des nouveaux outils de Baselight, par exemple Base Grade, qui offre un moyen vraiment unique de peaufiner l’image. Base Grade a révolutionné la manière dont j’aborde l’étalonnage de contenus en HDR et EDR. »

Pour un film comme Captain Marvel, il faut accorder un grand soin à la transition entre les différents effets visuels. Le coloriste a donc fait appel aux puissants outils de manipulation de l’éclairage disponibles dans Baselight, afin de « fluidifier » les effets au service de l’intrigue. Ainsi il peut y avoir une séquence qui marche déjà très bien, mais à laquelle on ajoutera de la lumière dynamique pour améliorer la transition entre les effets visuels d’un plan à l’autre.

 

Une solution tout-en-un

Un autre changement important dans la manière dont les effets visuels sont créés aujourd’hui, c’est que la solution d’étalonnage prend également en charge une grande partie du compositing et de la finition. « Nous ne sommes plus simplement des coloristes : nous assurons toute la finition », insiste Doug.

Le coloriste principal n’est donc pas seulement responsable du look final du film : il doit être à la tête d’une équipe d’experts qui œuvrent ensemble vers un but commun en utilisant le système de catégories et de notes intégré à Baselight pour communiquer leurs besoins, créer des listes de tâches, et suivre l’évolution du projet.

Doug Delaney et Chris Townsend, le superviseur des effets visuels, étaient les principaux responsables du look final de Captain Marvel. En tant que superviseur de la finition, cependant, Doug s’appuyait sur toute son équipe créative.

« Chris et moi faisions l’étalonnage et présentions notre travail aux réalisateurs et à l’équipe créative de Marvel, se souvient Doug. Jeff Pantaleo, l’assistant coloriste, m’a aidé pour la version 2D. Il y avait ensuite d’autres spécialistes – Gray Marshall, Dave Franks, Travis Flynn et Jason Fabbro – pour le tracking, la rotoscopie, le travail technique intermédiaire ou encore les versions DVD et Blu-ray. »

L’équipe a également aidé à la production des différents livrables, qui font partie intégrante du travail de finition d’une superproduction comme celle-ci. « On commence la version 3D stéréoscopique avant que la version 2D ne soit complètement terminée, donc certains membres de l’équipe changent de tâche en cours de route. Ensuite, on commence les versions EDR, projection laser, HDR, Imax et ainsi de suite, avant d’avoir terminé la version 3D : au final, il peut y avoir dix versions du même film, voire plus, souligne Doug. Je dis souvent que c’est un peu comme de jongler avec des assiettes tournantes. Plus il y a d’assiettes, plus c’est compliqué, et il faut donc toute une équipe pour que tout se passe bien. »

 

Doug Delaney vante également les fonctions de Baselight permettant d’assurer l’uniformité des couleurs entre les différentes versions. « Nous finissions la version 2D, puis l’importions dans la version stéréoscopique. Ensuite, si nous remarquions un changement à apporter, nous le faisions dans la version 2D avant de le répercuter dans les autres. Sans Baselight, le processus aurait été extrêmement complexe. »

Baselight a également fait ses preuves en tant que puissant outil de finition et a été utilisé pour la conformation de Captain Marvel en plus de l’étalonnage. « C’est pratiquement la seule manière de faire les choses, parce que ça vous permet de propager toute l’information à travers toutes les versions, qu’il s’agisse de la couleur, de l’incrustation ou des effets visuels », explique-t-il.

« Ce qu’il y a d’extraordinaire, avec les films de Marvel, c’est que leurs créateurs cherchent sans cesse à s’améliorer, à atteindre la perfection. C’est également vrai en ce qui concerne le montage : ils font des petits changements jusqu’à la toute dernière minute. En travaillant sur les contenus natifs, nous pouvons donc être très flexibles et faire sans problème tous ces changements. »

 

Nous avons demandé à Doug si, sur un projet de cette ampleur, il avait trouvé certaines scènes particulièrement difficiles ou passionnantes : la première à laquelle il a pensé n’était pas une scène avec des effets visuels, mais une scène qui se déroulait au crépuscule et qui avait été tournée sur plusieurs jours, la lumière étant bien entendu différente à chaque fois.

« Le soleil se couche sur la Louisiane. C’est une scène très émouvante, se souvient-il. Mais les couleurs n’étaient pas vraiment uniformes, alors nous avons fait appel à différentes techniques d’étalonnage pour harmoniser le tout : ainsi, le spectateur s’investit dans la scène sans distractions. En tant que coloristes, nous faisons régulièrement ce type d’ajustement, mais leur effet sur le film peut être aussi important que celui d’une scène riche en effets visuels. »

 

L’autre exemple qu’il évoque est celui de la bataille dans l’espace, vers la fin du film. « Les effets visuels sont extrêmement riches, et ils ont été créés avec beaucoup de soin et d’expertise. Mais il y a également certaines scènes où nous avons beaucoup retouché les couleurs et l’éclairage, faisant presque la finition des effets visuels avec Baselight. Nous ajoutons de la profondeur à ces scènes, par exemple en ajoutant aux plans en contrechamp l’éclairage correspondant à un effet visuel qui apparaissait dans le plan principal, assurant ainsi un bon raccord. »

Le message clair : dans l’univers actuel de la postproduction, Baselight fait plus que la couleur, et si FilmLight met à la disposition des créateurs les outils dont ils ont besoin, c’est parce qu’elle comprend à la fois les facteurs commerciaux, créatifs et techniques du métier.

« Ce que l’on apprécie particulièrement, avec FilmLight, c’est qu’ils nous écoutent, conclut-il. Par exemple, sur ce film, Jacqui Loran et Sam Lempp – de l’équipe d’assistance de FilmLight – étaient en permanence dans le studio avec nous. Ils veulent comprendre les pressions auxquelles sont soumis leurs clients et la manière dont ceux-ci utilisent leurs outils sur le terrain, dans un véritable environnement créatif. Ils font évoluer les fonctions et outils de Baselight pour la gestion des couleurs en fonction de l’évolution des besoins du coloriste et des dernières technologies. »

 

Article paru pour la première fois dans Mediakwest #32, p.104/105. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 9 septembre 2019 à 17:23

Retour sur le NAB 2019 – Spécial audio

© DR

Même si certains fabricants n’attendent pas les salons pour annoncer et présenter leurs nouveaux produits, le NAB de Las Vegas figure malgré tout parmi les rendez-vous importants retenus par les constructeurs audio pour présenter leurs nouveautés sur le sol américain. Et si l’audio immersif, les encodeurs ATSC3 et AC4 restent au centre des préoccupations, notre sélection produits montre une certaine activité du côté du tournage, notamment des enregistreurs.

 

ADOBE

Audition, le logiciel audio d’Adobe revient avec une version 12.1 dotée de quelques améliorations parmi lesquelles une option d’enregistrement Auto Punch avec pré-roll ajustable et décompte visuel et un zoom qui désormais peut s’ajuster de façon à ce que le ou les clips sélectionnés remplissent entièrement l’écran. Également au menu, une fonction de mix automatique de type Ducking qui génère une courbe d’automation que l’on peut affiner dans la section Ducking afin d’atténuer plus ou moins le niveau de la piste musique ou ambiance en fonction du volume de la piste voix, deux raccourcis pour décaler les clips vers la piste inférieure ou supérieure, ainsi que l’ajout et l’édition de points clés.

 

STUDIO TECHNOLOGIES

Studio Technologies profite du NAB pour présenter la 207 eSports Console, un produit conçu pour le marché du e-sport et plus précisément les compétitions de gaming sur PC. Doté d’un micro, d’un convertisseur AD, d’entrées analogiques (XLR 5 broches, jack TRRS, jack TRS) et Dante, ce nouveau pupitre permet l’intégration directe avec le PC des joueurs en réseau. Compatible avec les principaux combinés micro/casque utilisés en broadcast comme chez les gamers, l’appareil propose également une entrée ligne stéréo afin de connecter directement la sortie du PC et la diffuser ensuite en réseau sur deux canaux Dante, tandis qu’un bouton à trois positions permet de choisir parmi les différentes source de monitoring. L’ensemble est alimentable en PoE et configurable via l’application maison STcontroller.

 

BOSE

Évolution du B30, le SoundComm B40 est un micro/casque d’intercom dédié aux applications pro, notamment dans les environnements bruyants. Alimenté par deux piles AA, il comprend un système de réduction de bruit actif, un micro dynamique plus sélectif que dans la version 30 et de surcroît orientable pour permettre le positionnement à gauche ou à droite. Il sera disponible en version mono XLR 4 femelle ou stéréo mâle 5 broches suivant les besoins.

 

PLIANT TECHNOLOGIES

Conçu avec l’idée de simplifier les connectiques XLR utilisées entre les casques intercom et les boîtiers ceinture, la série d’adaptateurs FleXLR de Pliant Technologies permet par exemple de réaliser des liaisons mâles XLR 4 vers mâle XLR 5 broches (référence PAC FLX-45) ou encore mâle XLR 4 vers mâle XLR 4 (référence PAC FLX-44). Toujours chez Pliant, la nouvelle série MicroCom est un système d’intercom simple canal très simple d’utilisation reposant sur un boîtier ceinture opérant sans base et permettant à cinq ou dix utilisateurs (suivant le modèle) de communiquer en full duplex avec une autonomie d’une dizaine d’heures. Une première version opérant dans la bande des 900 sera d’abord disponible sur le marché américain, tandis qu’une version 2,4 GHz conçue pour le marché européen est attendue avant la fin de l’année.

 

ZAXCOM

• Enregistreur Nova

Nouvel enregistreur mixeur compact, le Zaxcom Nova intègre quatre entrées micro/ligne dotées de la technologie NeverClip, deux entrées lignes, quatre entrées AES configurables (AES3 avec SRC, AES42 ou entrées pour récepteurs HF) et six sorties mixtes analogiques ou AES. La section enregistreur peut produire jusqu’à douze canaux 24 bits et travailler à toutes les fréquences normalisées jusqu’en 192 kHz, les fichiers produits au format Marf II ou BWF étant stockés sur une ou deux cartes SD en simultané. Pour commander l’ensemble, la machine propose cinq encodeurs multifonctions (gain d’entrée, gain des émetteur ZaxNet et fader) organisés en quatre banques de cinq. Notons enfin que deux récepteurs doubles Zaxcom QRX212 mono ou stéréo peuvent être enfichés directement dans le Nova, ce qui peut représenter un total de huit canaux HF avec la gestion des fréquences et du scan HF intégrée. Le Nova propose deux entrées redondantes pour l’alimentation et sa disponibilité est annoncée pour cet été.

• Récepteur URX100

Avec l’URX100, Zaxcom revisite le concept de récepteur IFB en présentant un récepteur stéréo UHF utilisant la transmission numérique maison avec time-code et une sortie casque pour l’IFB, mais en y ajoutant un boîtier intercom avec un micro commutable type PTT (Push To Talk) et une entrée Talkie-Walkie. Selon ses concepteurs, l’ensemble peut faire office de lien mixette/caméra avec monitoring casque, liaison perche HF avec intercom entre le perchman et le chef op, ou encore récepteur avec TC pour reflex. Notons que les configurations de routing et de monitoring du circuit d’intercom peuvent s’effectuer via l’App dédiée et que l’autonomie annoncée est de huit heures via trois piles AA alkaline. L’URX100 est dès à présent disponible en quantité limitée.

• Émetteur ZMT3-X

Zaxcom poursuit le développement de la série ZMT3 avec le petit émetteur ZMT3-X qui reprend les principales caractéristiques du ZMT3 standard (enregistrement sur micro SD, émission HF numérique…), mais se singularise avec un boîtier un peu plus épais taillé pour les tournages extrêmes avec son revêtement caoutchouté résistant à l’eau. Autre particularité, il propose deux entrées format microDot pour travailler en mono ou stéréo avec deux Lavalier, et affiche douze heures d’autonomie (48 heures en mode stand by) grâce à sa batterie Motorola BT100 embarquée.

 

MERGING TECHNOLOGIES - ANUBIS

Nouveau concept chez Merging Technologies avec Anubis, un appareil hybride permettant, en fonction des situations, d’assurer la gestion de monitoring jusqu’au 22.2, de jouer le rôle de télécommande et de petite interface audio 4in/4out (2Mic-Line+2 Line-Instrument sur Combo Jack-XLR). Présentée dans un boîtier format desktop, l’ensemble comprend une section Talkback, la connectivité Ravena/AES67, un écran tactile LCD 800 x 480 pixels, deux sorties casque, le GPI et le Midi, tandis que sous le capot, on trouve un traitement DSP assurant le routing et le mixage. L’ergonomie est conçue autour d’un écran tactile, d’un gros encodeur multifonction et de sept boutons paramétrables qui permettent par exemple de gérer les entrées/sorties physiques de l’interface, mais aussi toutes celles présentes sur le réseau AES67/Ravenna. Au bout du compte, l’ensemble peut piloter les entrées et sorties d’un studio, mais également son monitoring grâce à ses capacités de mixage intégré.

 

SOUND DEVICES - SCORPIO

Nouveau haut de gamme chez Sound-Devices, le Scorpio, s’il reprend grosso modo les dimensions de la 688, représente en fait un sacré bond en avant en termes de puissance. Il renferme en effet un mixeur 32 canaux, un enregistreur 36 pistes et se voit doté de 16 entrées micro/ligne, 12 sorties analogiques, mais aussi 32 canaux I/O Dante, un bus 12 voies (deux pour le mix et dix additionnels) tandis que le stockage s’effectue sur un disque SSD interne de 256 Go secondé par deux slots SD. Parmi les choix de formatage pour le stockage, figure l’exFAT qui présente l’avantage de faire tomber la fameuse limite des 4 Go par fichier.

L’assignation des canaux est entièrement libre, mais le nombre d’encodeurs et de faders en face avant étant limité à douze, le contrôle des voies additionnelles se fait soit via l’écran, soit au moyen d’une surface de contrôle USB compatible avec le protocole Midi MCU (Mackie Control Universal) comme la série M+ de chez Icon conseillée par Sound-Devices. On note également la présence d’un port USB-C utilisé pour le transfert de fichiers en USB 3.1. On retrouve sinon un module TC complet, tandis que l’alimentation interne est assurée par deux accus format Sony L ou en externe via un port non pas HiRose mais TA4 car la bête a, paraît-il, des besoins copieux.

Les préamplis procurant 76 dB de gain sont visiblement d’un design nouveau mais, comme toujours chez Sound-Devices, on garde une gestion de la dynamique assurée en premier lieu par un limiteur analogique complété en sortie par des limiteurs numériques réglables sur tous les canaux, ainsi que les traditionnels coupe-bas et retards. Par contre, la Scorpio se distingue avec une nouvelle section EQ complète.

L’ensemble du processing est assuré par trois puces FPGA et trois processeurs Dualcore ARM qui motorisent mixage et traitement en 64 bits, une résolution également disponible pour la production de fichier mono ou poly au format RF64 Waw. L’accès aux fonctions et la visualisation des niveaux est assurée par un LCD tactile 320 x 240, mais le pilotage peut également se faire à distance via USB sur tablette Android et bientôt iOS avec l’App SD-Remote. Le pilote en Bluetooth sera quant à lui disponible ultérieurement, via la prise « antenna » présente sur le boîtier.

Au sein de la connectique analogique, on note six XLR correspondant aux six premières entrées (également configurables en AES3 ou 42) deux mini XLR TA3 et huit TA5 pour les suivantes. Le poids du Scorpio est de 2,6 kg sans batterie ni sacoche.

 

ZOOM F6

Comme son nom le laisse penser, le Zoom F6 annoncé pour juin comprend effectivement six entrées micro, mais une seule sortie stéréo sur minijack. Il reprend le design de préampli et le générateur de TC de son ainé le F8 tandis que la partie enregistreur peut produire des fichiers BWF comprenant jusqu’à six pistes isolées + mix bi-piste en résolutions 24 bits, 32 bits, ou les deux en simultané, mais avec un stockage sur carte SD (un seul lecteur). L’alimentation peut être assurée en interne par quatre piles AA ou, plus confortable, au moyen d’un accu format Sony L pour une autonomie de l’ordre d’une journée. Le F6 peut également être alimenté par une source externe via USB-C. L’ergonomie est assurée par un petit écran couleur et une molette multifonction présente sur le côté droit de la machine.

L’originalité du F6 repose sur sa résolution 32 bits, lui permettant de ne pas intégrer de réglage du niveau d’entrée. Les enregistrements se font donc au gain unitaire micro ou ligne sur lequel on applique un gain via le fader au moment de l’enregistrement ou en postproduction, un moyen de minimiser l’absence de limiteur analogique avant conversion qui était jusqu’alors l’un des points critiqués par certains testeurs. Notons enfin la présence d’une option Automix intégrée et le contrôle à distance via Bluetooth depuis un smartphone muni de l’App maison.

 

RØDE - WIRELESS GO

Aux côtés de la gamme RødeLink, Røde lance le Wireless Go, une liaison sans fil numérique 2,4 GHz comprenant un émetteur clippable avec micro intégré et entrée pour un Lavalier externe, un récepteur à niveau commutable (0 dB, -6 dB, -12 dB) également clippable sur une griffe porte-flash par exemple. Les deux composants sont de la taille d’un briquet zippo et pèsent une trentaine de grammes. Réponse directe à la gamme Sennheiser XSW-Digital, la liaison Wireless Go se lance donc également sur le créneau des liaisons sans fil à 200 euros super simples à utiliser visant principalement le marché des créations de contenu d’entreprise, les youtubers, voire les applications de conférence.

L’ensemble ne comprend pas de micro cravate, mais est livré avec deux bonnettes antivent en fourrure, un câble minijack pour liaison DSLR, les câble USB pour la recharge des accus internes et une pochette de rangement.

 

AUDINATE - DANTE AV MODULE AVEC VIDEO FOR AUDIO

Sur le stand Audinate, c’est bien sûr la venue des intégrations produit autour de la carte Dante AV module et du Dante AV Product Design, son kit de développement associé qui font le buzz, sachant qu’une fois implémentée, la technologie Dante AV permet la distribution IP sur réseau Ethernet 1 Gbit de huit canaux audio en émission et réception et d’un canal vidéo synchrone en 4K@60 Hz incluant HDR, HDCP 2.0, l’EDID et le CEC. Dante AV transmet également l’USB, l’infrarouge et le RS232, ce qui permet de piloter plusieurs sources et diffuseurs à travers le réseau sans boîtier supplémentaire. Par défaut, l’interface vidéo 32 bits intégrée à la carte s’appuie sur le Jpeg 2000, mais apparemment, d’autres codecs sont envisageables.

En parallèle, le distributeur français Pilote Films nous informe d’une baisse de prix sur les petits adaptateurs Audinate AVIO Dante disponibles en analogique, USB ou AES3.

 

SENNHEISER

Pour Sennheiser, les nouveautés NAB reprennent en partie les annonces de l’IBC avec quelques additions comme la nouvelle gamme sans fil XSW-Digital et des avancées dans les disponibilités, notamment pour l’émetteur de poche SK 6212 de la série Digital 6000. Chez Neumann, dans la gamme des enceintes KH, le caisson de basses KH 750 DSP fait son entrée tandis le casque NDH 20 annoncé au Namm entre sur le marché du monitoring studio haut de gamme.

Enfin, dans la gamme Ambeo, Sennheiser présente toujours son prototype de micro Sport Microphone Array ainsi que l’Ambeo SoundBar, une barre de son 5.1.4 haut de gamme dédiée à le reproduction et à la vérification de contenus immersifs, disponible depuis mai dernier.

 

SHURE - MICRO CRAVATE TWINPLEX SERIES

Shure lance la série TwinPlex, une gamme conçue pour les applications demandant qualité et dynamique importante comme la prise de son cinéma, le théâtre et la comédie musicale. La gamme intègre un design à deux capsules annoncé comme peu sensible aux détimbrages hors axe et un câble fin, résistant, pouvant être peint, et insensible aux effets de mémoire de forme. Elle comprend actuellement le micro serre-tête miniature TH53 et le micro-cravate TL45.

 

PRO TOOLS 2019

Pas de version 2019 disponible pour Pro Tools au moment du NAB, mais c’est chose faite depuis début mai où Avid a profité du salon berlinois Superbooth. Pas de bouleversement, ni de killer fonction pour cette nouvelle mouture, mais des évolutions qui devraient se montrer appréciables au quotidien, notamment pour les utilisateurs intensifs.

Parmi elles, figurent la compatibilité Mac OS Mojave et un nommage des pistes plus fonctionnel, mais surtout un nombre de pistes audio disponibles à la lecture en augmentation grâce aux 1 152 Voices implémentées dans Pro Tools Ultimate et aux 384 de la version standard. En outre, afin d’améliorer la fluidité, certaines actions (création, suppression, activation ou désactivation de pistes, insertion ou suppression de plugs-in ou de send, modification des E/S, ajustement d’une sélection ou d’une boucle...) deviennent envisageables sans avoir à stopper la lecture. Enfin, pour les licences multi-utilisateurs, le Multiseat License est une licence flottante PACE sur serveur qui facilite l’administration des licences et élimine la nécessité d’iLoks au sein d’une entreprise ou d’un centre de formation.

D’autre part, avec la nouvelle version de l’App Pro Tools Control, disponible depuis début mai, la gestion de tout système de monitoring compatible EuCon (Pro Tools MTRX, XMON…) devient accessible depuis un iPad. D’autre part, des fonctions facilitant la sélection et la navigation au sein d’un grand nombre de pistes comme les « Scroll to Track » ou « Scroll into View » deviennent présentes dans le protocole EuCon ainsi que dans Pro Tools.

 

GENELEC

Pour Genelec, le NAB fut l’occasion de présenter ses enceintes actives pour les studios professionnels et le home cinema. Au NAB, Genelec mettait en valeur les améliorations des subwoofers de la série F qui offrent désormais un meilleur rendement. L’actualisation porte sur la connectique (entrée numérique optique et coaxiale), un plus grand niveau de pression sonore, un contrôle à distance RF, par câble ou infrarouge et une source d’alimentation améliorée (voltage universel par commutation). Par ailleurs, les subwoofers actifs de la série F1 et F2 complètent les moniteurs actifs deux voies de la série G offrant une qualité de son supérieur, un niveau de pression sonore élevé et un niveau d’amplification de classe D. La connectique analogique n’a pas été abandonnée pour autant. On dispose d’entrées/sorties stéréo analogiques (prises RCA, XLR, LFE/LINK). Ces équipements sont compatibles avec les moniteurs professionnels de studio et une connexion en chaîne de multiples subwoofers.

La série 8000 concerne des moniteurs deux voies professionnels qui bénéficient du système dit « Minimum Diffraction Enclosure (MDE) » réduisant les diffractions. La série SAM (Smart Active Monitor) concerne des moniteurs trois voies compacts. Pour les positionner, il suffit d’utiliser un ordinateur (PC ou Mac) et de télécharger l’application de Genelec qui propose un algorithme expert pour faciliter l’installation dans la salle grâce à un microphone de calibration qui analyse l’environnement. Notons le « Master Smart Monitor » qui délivre un son à très faible distorsion, une réponse plate dotée du « Directivity Control Waveguide (DCW) » qui supprime les diffractions et fournit un son naturel. Même caché, le moniteur attrape l’œil, bien que pour l’auditeur il reste invisible. Cette gamme de subwoofers actifs offre une bonne précision d’image sonore, une réponse en fréquences étendue, un niveau d’écoute agréable pour un long travail de studio.

Enfin, pour les entreprises, la gamme compacte 4010, 4020, 4030 et 4040 comprend des haut-parleurs actifs à deux voies adaptés aux installations commerciales ou professionnelles (salle de cours, par exemple). Tous les modèles intègrent une amplification distincte pour chaque voie. Un choix qui couvre pratiquement tous les besoins de sonorisation.

 

RIEDEL

Il y a dix ans, la société allemande vendait son premier intercom… Aujourd’hui, la société a dépassé la barre des 5 000 unités… Le charismatique Thomas Riedel avait convié la presse et ses clients fidèles à fêter cet anniversaire, mais aussi pour annoncer la sortie d’un nouvel Artist, plus performant que jamais… Avec l’Artist 1024, Riedel propose la plus grosse densité intercom du monde et fait un pas de géant puisque la carte est software defined, c’est-à-dire personnalisable à souhait et en conformité avec la nouvelle norme IP SMPTE 2110-30/31 (AES67). L’Artist 1024, puissante extension de l’écosystème d’intercom Artist, vient compléter une famille qui comprenait les Artists 32, 64, 128 et elle est compatible avec ces versions antérieures.

La nouvelle interface de l’Artist 1024, qui bénéficie d’une prise en charge IP native, redéfinit la connectivité de communication… Proposant non moins de 1 024 ports dans un simple rack 2 RU, l’Artist 1024 offre une série d’innovations s’appuyant sur la puissance des cartes d’interface universelle (UIC) programmables par logiciel. Ce type de carte combine des fonctionnalités de réseau, mélange et gestion et peut être configurée pour fonctionner sous protocole AES67 ou Madi, ou en tant que carte fibre/routeur/processeur Artist. Pour changer de type de connectivité, il suffit d’un clic dans le logiciel de configuration Director.

La trame fournit dix baies pour les UIC, deux d’entre elles étant réservées aux UIC de routage et de mise en réseau. Les huit baies restantes peuvent être équipées de cartes UIC de différentes configurations pour assurer la connectivité des abonnés. Le mélangeur intégré de chaque carte d’abonné peut être dimensionné de 8 à 128 ports par carte et peut accéder aux 1 024 ports.

Le nouveau nœud Artist de Riedel prend en charge plusieurs systèmes de redondance, notamment N + 1, NIC et SMPTE 2022-7. Toutes les liaisons de contrôle et de données au sein du système sont redondantes et une sécurité supplémentaire est fournie par deux unités d’alimentation à partage de charge et un module de ventilation avec des unités de ventilation redondantes. Sa robustesse et sa fiabilité sont donc sans précédent.

L’Artist 1024 introduit également un nouveau schéma de licence flexible avec une licence au niveau de la trame au lieu d’une licence de type connectivité.

 

DOLBY

« Dolby Cinema » est un concept qui allie les technologies Dolby Atmos pour le son et Dolby Vision pour l’image. Le son immersif est à la mode et Dolby veut être leader dans ce type de technologie. Aussi, au NAB, il a mis l’accent sur son procédé audio immersif Atmos qui continue sur sa lancée, avec plus de 4 800 écrans de cinéma équipés en Dolby Atmos dans le monde entier dont plus de 150 en France. Côté contenu, plus de 1 240 titres sont sortis ou annoncés en Dolby Atmos pour le cinéma. Les exploitants de salles de cinéma ont pris conscience de l’importance du son pour le spectateur, car le son crée l’image ! D’où la multiplication de complexes « All Dolby Digital Atmos » dans le monde.

Côté équipement, Dolby présentait le tout nouveau Cinema Processeur CP950 qui offre une qualité de son incroyable associé à une interface évoluée, un écran tactile, une écoute cabine intégrée, et une évolution vers le Dolby Atmos. Par ailleurs, l’IMS3 (Integrated Media Server) et le DMA (Dolby Multi Channel Amplifier) sont quant à eux des solutions Dolby qui permettent de réduire et d’optimiser l’espace physique occupé par les machines, tout en gardant un son de très haute qualité.

Pour convaincre les visiteurs du NAB, Dolby avait installé un car à l’extérieur du « Convention Center » où des démonstrations de capture d’images avec son Atmos étaient présentées, notamment un match de football dans lequel on bénéficiait d’une immersion totale, terriblement réaliste, grâce aux haut-parleurs distribués dessus et autour de soi. Effet garanti !

 

BOYA

C’est une impressionnante gamme audio que ce fabricant chinois présentait au NAB 2019. Boya a développé une gamme spécifique de microphones omni, cardioïdes et super-cardioïdes à condensateur pour smartphone. Ils offrent une bande passante de 25-20 000 Hz et un rapport signal/bruit de 80 dB, de quoi transformer son smartphone en studio de prises de son.

Boya propose un microphone numérique cardioïde (BY-HM2) opérant à 24 bits/96 kHz (20-20 000 Hz ; S/B de 85 dB) et un kit microphone/haut-parleur (BY-BMM400) également pour smartphone. Auxquels s’ajoutent des microphones lavallière numériques pour iPhone, iPad, iOS, Mac et Windows et un récepteur à main pour smartphone (SP-RX12) compatible iOS et Android. Pour les utilisateurs d’appareil photo, de caméscope ou d’enregistreur externe, Boya offre une large gamme de microphones lavallière omnidirectionnels à fil (bande passante de 35-18 KHz), ultra légers, mono ou stéréo, à fixer sur l’appareil.

Pour les prises de son professionnelles, Boya propose une gamme de microphones de studio à condensateur, large diaphragme et directivité variable, complétée par des modèles lavallière haut de gamme à fil (prise XLR). Il commercialise aussi des microphones sans fil, du plus simple système lavallière à 2,4 GHz (BY-WM4 Mark II) au plus sophistiqué en VHF ou UHF pour des applications professionnelles (gamme BY-WFM12). Par ailleurs, le fabricant propose des accessoires (adaptateurs audio pour supporter les microphones, perches, chaussettes anti-vent, alimentations, connectique). Bref, tout pour la prise de son !

Notons que Boya est l’entité Low Cost audio du groupe Jiayz, une structure qui intègre également les marques Saramonic (Son à l’image pour vidéo et DSLR) et Seven Oak (accessoires pour DSLR et smartphone), les trois étant depuis peu distribuées dans l’Hexagone par Dim France.

 

Extrait de notre compte rendu du NAB 2019 paru pour la première fois dans Mediakwest #32, p.42/82. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 2 septembre 2019 à 17:00

Les solutions Flame 2020.1 enrichies de nouveaux outils IA

Les solutions Flame 2020.1 enrichies de nouveaux outils IA © DR

Avec la nouvelle version 2020.1 d’Autodesk Flame, Flare et Flare Assist, de nouveaux outils créatifs permettent d’accélérer les workflows, de renforcer la productivité et de rationaliser l’organisation. Grâce aux nouveaux outils Z Depth Map Generator et Human Face Normal Map Generator, basés sur l’apprentissage machine, Flame 2020.1 offre aux artistes de nombreux moyens uniques d’isoler et de modifier des objets dans des séquences animées pour l’étalonnage et le compositing, y compris avec de nouveaux outils d’extraction du ciel. Plaçant Flame au cœur du workflow des artistes, la version 2020.1 inclut de nouveaux outils d’IA pour la segmentation d’image, la personnalisation de l’environnement de création d’effets et un accès plus aisé pour les scripts Python.

 

« Il fallait que je me débrouille avec des heures d’images filmées par temps couvert : le ciel était soit d’un gris uniforme, soit recouvert de nuages qui ne laissaient pas voir un centimètre de bleu », explique Bob Maple, dirigeant d’Idolum. « J’ai tout simplement lancé la fonction MLSkyExtract en touchant à peine aux réglages par défaut, ce qui m’a permis de faire un ciel bleu avec quelques nuages pour insuffler un peu de vie dans les scènes. Ça m’a évité de devoir créer des masques individuels dans tous les sens. Merci Flame ! »

« Dans la version 2020.1 de Flame, on peut voir toute la puissance de la carte graphique Nvidia RTX et de ses puces Tensor, dédiées aux calculs nécessaires pour les nouvelles fonctions d’apprentissage machine des produits Flame », indique Will Harris, responsable des produits Flame chez Autodesk. « Même si les cartes moins récentes sont également capables d’effectuer ces calculs, le simple passage d’une P6000 à une RTX6000 apporte un important gain de vitesse en termes d’analyse et de calcul pour les algorithmes d’IA et d’apprentissage machine. Bravo Nvidia ! »

 

Parmi les autres nouveautés de Flame 2020.1, on pourra citer :

Outils créatifs

-- « Semantic Keyer » pour l’extraction du ciel : isolez le ciel en un seul clic, pour effectuer la correction de couleurs ou le compositing. L’IA et l’apprentissage machine peuvent extraire des données volumétriques qui permettent d’éliminer des nuages, d’ajouter des effets au ciel, et plus encore.

-- Mode « Motion Vector » pour les AOV : extrayez des caches à partir des vecteurs de mouvement. Les effets peuvent être appliqués de manière sélective, en introduisant des vecteurs – obtenus par rendu ou par analyse – directement dans les scènes 3D pour y être combinés avec des masques.

 

Productivité

-- Environnement d’effets – disposition : réorganisez les différents éléments du logiciel (fenêtres de visualisation, storyboard, panneau média, ligne temporelle, fenêtre de gestion, etc.) à souhait sous forme de dispositions (« layouts ») enregistrables.

-- Environnement d’effets – groupes : la fonction « Groups » permet d’isoler certaines scènes pour des comparaisons et des ajustements immédiats, mettant en place une organisation visuelle entièrement nouvelle.

-- Bibliothèque de scripts Python et de Matchbox sur GitHub : visualisez et téléchargez automatiquement des scripts depuis Flame, pour un accès plus facile. De nouveaux scripts sont disponibles sur la bibliothèque GitHub d’Autodesk, avec une section consacrée à Flame.

-- Sortie AJA KONA 5 6G/12G : prévisualisez des contenus vidéo grâce aux appareils de lecture AJA KONA 5 et AJA Io 4K Plus. Des images en 4K et en UHD peuvent être transmises sur un câble unique 6G SDI pour un signal jusqu’à 30p, ou un câble unique 12G SDI pour un signal jusqu’à 60p.

-- Exportez au format IMF (Interoperable Master Format) directement depuis Flame, en vue d’une distribution à des diffuseurs et services de streaming. L’exportation au format. IMF est un plugin tiers vendu par Fraunhofer IIS, www.easydcp.com.

-- Carte graphique Nvidia RTX : accédez aux cœurs de calcul Tensor des cartes Nvidia RTX, pour des traitements exigeants à base d’apprentissage machine. Les cartes moins récentes sont également capables d’effectuer ces calculs, mais le simple passage d’une P6000 à une RTX6000 apporte un important gain de vitesse en termes d’analyse et de calcul pour les algorithmes d’IA et d’apprentissage machine.

 

Améliorations de Flame basées sur les retours d’utilisateurs

-- Action Schematic Compass : visualisez des zones organisationnelles avec des codes couleurs et des fonctions avancées de nettoyage des nœuds.

-- Bypass : désactivez certains nœuds de manière intuitive et décidez quels canaux sont transmis.

-- Résolution de 16K : un potentiel accru pour la gestion de médias et le compositing à haute résolution, avec une nouvelle limite maximale de 16K pour les projets, les nœuds individuels et les sorties.

  • 28 août 2019 à 17:00

Retour sur le NAB 2019 – Quelles nouveautés en postproduction ?

Blackmagic poursuit son développement et accroit sa visibilité. © DR

La tendance générale est de faire plus avec moins. Un grand écart autorisé par l’automatisation des process. Une automatisation rendue possible par la virtualisation de nombreuses étapes en utilisant l’intelligence artificielle et le cloud. Cette optimisation touche de plus en plus la postproduction. Visite des stands Avid, Filmlight, Sonnet, Blackmagic Design et Marquise Technologies.

 

AVID

Avid a pris l’habitude depuis quelques années d’organiser Avid Conference Connect, le premier week-end du NAB. Cette année a été marquée par de nombreuses nouveautés. Tout d’abord un changement de lieu, passant (pour ceux qui connaissent les mega hotels de Las Vegas) du Wynn au Aria. Un hôtel sans doute moins ostentatoire, plus moderne. L’association derrière cet événement (ACA – Avid Customer Association) compte 38 000 membres dans le monde. Moment symbolique fort important, la présence dans l’assistance de Bill Warner, l’inventeur de Media Composer – un signe !

La conférence a commencé par un tour d’horizon des derniers succès, que ce soit France Télévisions et le déploiement des technologies de studio virtuel et de réalité augmentée, ou bien HBO qui utilise la virtualisation pour les stations de montage. Future is now ! le nouveau slogan apparaît sur l’écran principal, avec enfin des annonces qui étaient clairement attendues depuis plus de trois ans. « L’innovation n’aide personne si elle n’est pas disponible immédiatement » ou bien « Rethink Reinvent et Repeat ». Ensuite, petit rappel sur la ligne des produits Avid First (les logiciels gratuits). À date, environ 1,4 million de téléchargements ont été effectués et il y a 10 000 nouveaux abonnés par trimestre.

Dans les nouveautés, Avid Nexis Cloudspaces qui intègre de manière transparente l’utilisation du cloud dans une configuration matérielle et qui repose sur un partenariat renforcé avec Microsoft Azure. L’interface est simple avec une administration dépouillée qui permet notamment de donner des autorisations à telle ou telle personne. En allouant automatiquement des ressources dans le cloud en fonction de vos besoins, Nexis | Cloudspaces évolue avec votre activité. Tous les systèmes Avid Nexis nouveaux et existants incluront, pour une durée limitée, deux téraoctets d’espace de stockage dans le cloud, afin que les utilisateurs puissent tester le service gratuitement.

Editorial Management 2019 est une plate-forme de gestion des contenus pour la postproduction, accessible par différents intervenants, où qu’ils se trouvent. Les utilisateurs peuvent ainsi rechercher, modifier et partager rapidement des contenus depuis n’importe où, ce qui facilite la gestion de médias, la préparation des projets et la synchronisation des différentes fonctions. Disponible en mai 2019, Editorial Management 2019 permettra aux utilisateurs de préparer et de monter des séquences simples, de regrouper des prises afin de préparer des scènes multicaméras destinées aux monteurs utilisant Media Composer, et d’utiliser Avid | AI avec sa nouvelle option de recherche phonétique. Il s’intègre de plus avec les serveurs vidéo Avid | FastServe pour un montage à la volée pendant le tournage à 23,98 IPS avec plusieurs caméras : les productions en direct filmées sur un plateau peuvent ainsi être traitées plus rapidement.

Six des plus grosses sociétés de média dans le monde utilisent Avid on Demand. Ce sont 600 000 personnes qui se connectent par jour, et sur la carte mondiale des utilisateurs il y en avait un à Wallis et Futuna. Mais l’annonce la plus importante est la version Media Composer 2019 qui enfin revoit en profondeur l’interface graphique qui est moderne et totalement personnalisable (banc d’essai publié dans Mediakwest #32).

Signalons ici que pour les systèmes d’édition non linéaires Avid Media Composer, l’approche innovante de HBO inclut des licences à la demande illimitées. Elle permet au service technique d’adapter à tout moment les ressources de montage pour répondre à la demande des utilisateurs finaux en marketing, sport, documentaire et divertissement afin de créer leurs contenus promotionnels et de commercialiser leurs programmes avec une agilité et une rapidité accrue. Le déploiement virtualisé de Media Composer de HBO s’intègre à ses ressources de stockage Avid Nexis.

« Notre service technique prend en charge des centaines de clients qui créent des promotions et des habillages pour assurer le succès des offres de HBO. Nous avons donc mis en place des ressources à la demande qui correspondent aux besoins variables », déclare Stefan Petrat, vice-président senior de la technologie des médias chez HBO. « Si nécessaire, nous pouvons modifier le nombre de sièges Media Composer et faire en sorte que des centaines d’éditeurs travaillent sur des éléments promotionnels. Lorsque cette opération est terminée, nous pouvons immédiatement réduire nos systèmes excédentaires. »

 

FILMLIGHT

Daylight et la dernière version (5.2) de Baselight prennent désormais en charge de manière native le format ProRes Raw. Le ProRes Raw, un format d’image de haute qualité, disponible par l’intermédiaire des enregistreurs Atomos avec des caméras de nombreux fabricants dont Canon, Panasonic et Nikon ; le DJI Inspire 2, équipé d’une caméra Zenmuse X7, produit également des images ProRes Raw de manière native.

Annoncé lors de l’édition précédente du salon NAB, ce format est basé sur la même technologie que les codecs ProRes existants, offrant à la fois des performances en termes de bande passante et des images superbes, le tout avec la facilité d’utilisation qui a valu à ProRes son succès pour la vidéo traditionnelle. Puisque ProRes Raw contient les images envoyées directement par le capteur (avant dématriçage), il permet d’utiliser les fonctions HDR de Baselight. Ainsi, l’utilisateur peut effectuer des réglages plus fins sur la couleur et le contraste, tout en gardant une taille de fichier raisonnable. Les solutions de FilmLight prennent en charge le format ProRes depuis des années, et l’ajout de ProRes Raw allait donc de soi.

Avec la prise en charge de ProRes Raw dans la version 5.2 de Baselight, ce nouveau format peut être utilisé à toutes les étapes du pipeline. Les clients importent les contenus à l’aide du système Daylight de gestion des rushes, qui produit des copies de visionnage à partir des fichiers sources ProRes Raw ; ils peuvent ensuite continuer le travail dans ce format sur leur système d’étalonnage Baselight.

 

SONNET

Conçu par Sonnet, l’eGFX Breakaway Box 650 est un boîtier d’expansion Thunderbolt 3 vers PCI Express (PCIe) conçu et certifié pour être utilisé avec la carte AMD Radeon Pro WX 9100 et avec d’autres cartes graphiques de pointe : l’outil idéal pour les professionnels de la vidéo qui utilisent des applications graphiques gourmandes en bande passante sur un ordinateur portable compatible eGFX ou sur un autre ordinateur de taille réduite. Le boîtier est connecté à l’ordinateur à l’aide d’un unique câble Thunderbolt 3 et permet d’atteindre une vitesse de transfert de 2 750 Mo/s.

Grâce aux technologies conjuguées de Sonnet, d’Adobe et d’AMD, les créateurs de contenus peuvent réduire de moitié, voire plus, les délais d’exportation de leurs contenus ProRes 422 4K et H.264. Cela peut représenter un atout de taille pour les créateurs qui exportent leurs vidéos sur YouTube. Avec une configuration traditionnelle, il faut environ 70 secondes pour exporter un clip de 15 secondes. Mais grâce au système de Sonnet et à la carte AMD Radeon Pro WX 9100, le délai d’exportation en ProRes 422 4K ou en H.264 n’est que de 29 secondes en moyenne.

 

BLACKMAGIC DESIGN

On en a déjà beaucoup parlé, DaVinci Resolve est la seule solution qui réunit dans un seul logiciel des outils professionnels de montage, d’étalonnage, de finishing audio et d’effets visuels en 8K ! Avec cette version 16, Blackmagic Design introduit des centaines de fonctionnalités demandées par les utilisateurs, voire plus ! La solution propose aujourd’hui des outils multi-utilisateurs pour que monteurs, assistants, étalonneurs, animateurs VFX et ingénieurs son puissent collaborer ensemble sur le même projet ; la nouvelle approche de travail de la page Cut et des fonctions avancées liées à un moteur d’intelligence artificielle en mode deep learning repoussent considérablement ses limites…

Alternative à l’espace de Montage standard, Cut propose une interface simplifiée et de nouveaux outils pour travailler encore plus rapidement… Cette page révolutionne la façon de travailler avec des concepts à la fois innovants et familiers, tels que le mode Source Tape qui propose d’afficher tous les clips du chutier comme sur une seule bande pellicule. Il est alors facile de faire défiler les plans, de trouver les parties dont on a besoin. Cette nouvelle page Cut propose aussi une double timeline : la timeline supérieure montre l’intégralité du programme, tandis que la timeline inférieure affiche la zone de travail.

Le nouveau DaVinci Neural Engine – qui utilise les dernières innovations GPU – s’appuie sur des technologies d’apprentissage automatique et une intelligence artificielle pour opérer de puissantes fonctionnalités, telle la modification de vitesse Speed Warp qui repose sur une estimation de mouvement, la fonction Super Scale pour l’augmentation d’échelle, l’harmonisation des couleurs automatique. On pourra utiliser la reconnaissance faciale pour organiser automatiquement les clips dans les chutiers selon le visage des sujets filmés... Le DaVinci Neural Engine fournira des outils simples permettant de résoudre les problèmes complexes, répétitifs et chronophages rencontrés dans l’industrie !

DaVinci Resolve 16 a aussi répondu concrètement à ses utilisateurs avec la nouvelle fonction Adjustment Clips qui permet d’appliquer des effets et des étalonnages aux clips de toutes les pistes du dessous ou avec la fonction Quick Export qui permet de charger les projets sur YouTube et Vimeo, n’importe où depuis l’application. Les performances de Fusion ont été aussi considérablement améliorées et Fairlight prend en charge l’audio 3D immersif. Bref, DaVinci Resolve 16 est une sortie importante qui comprend des centaines de fonctionnalités demandées par les utilisateurs !

Dans la foulée, Blackmagic a lancé le DaVinci Resolve Editor Keyboard, un nouveau clavier professionnel pour DaVinci Resolve. Doté d’une molette intégrée, son ergonomie améliore considérablement la rapidité du montage, car il est possible d’utiliser ses deux mains pour monter. Les monteurs peuvent se déplacer dans un clip, marquer les points de sortie et d’entrée, effectuer un montage, puis se re-déplacer, et ainsi de suite. Intégrant de multiples paliers à roulement, la molette, très fluide, peut être opérée en mode jog pour scroller dans la timeline de manière naturelle. Le DaVinci Resolve Editor Keyboard sera disponible en août.

 

MARQUISE TECHNOLOGIES

Marquise Technologies enrichit de nouveau ses produits MIST et ICE pour le mastering et la vérification de contenus en 4K HDR, en ajoutant la prise en charge des formats audio immersifs pour le broadcast et la diffusion OTT, entre autres nouveautés.

Lors du NAB, Marquise Technologies a présenté le premier prototype d’intégration Dolby Atmos dans une solution de mastering et de contrôle qualité. La prise en charge de Dolby Atmos inclut les fichiers DAMF, IAB MXF et ADM BWF, et permet l’exportation en IMF et dans d’autres formats. Les utilisateurs de MIST et d’ICE peuvent également visualiser et vérifier les objets audio immersifs à l’aide du nouveau mode de visualisation audio, qui permet de voir en temps réel la position des objets dans l’espace.

MIST, ICE et la solution de transcodage TORNADO possèdent à présent un moteur de rendu de sous-titres entièrement repensé. Celui-ci permet un rendu de haute qualité pour les sous-titres, que ce soit pour l’affichage en temps réel ou l’incrustation dans l’image ; il est également compatible avec la norme IMSC1.1 pour les langues d’Asie et du Moyen-Orient.

Les démonstrations de MIST, d’ICE et de TORNADO présentées sur le salon ont mis l’accent sur le mastering, la gestion des versions, et le contrôle qualité des contenus premium – notamment Dolby Vision et Dolby Atmos –, ainsi que sur la réutilisation de contenus existants, améliorés à l’aide d’outils de conversion HDR et de mise en valeur des scènes à fort contraste.

Afin d’améliorer l’expérience utilisateur dans le cadre de ces workflows, des améliorations ont été apportées à l’interface de MIST et d’ICE, permettant par exemple d’afficher les métadonnées HDR et des objets audio immersifs. Un deuxième écran – sur lequel sont affichés les graphiques d’analyse audio et vidéo – et une double sortie en 4K complètent cette boite à outils de mastering et de contrôle qualité.

Partenaire du programme de workflow COMMA, Marquise Technologies présentera également l’intégration de MIST et d’ICE dans la solution de gestion des contenus Pakanu, par CineCert, ainsi que la solution de contrôle qualité automatisé Pulsar, par Venera Technologies, qui révolutionne la création, le contrôle qualité, et la gestion des contenus.

 

Extrait de notre compte rendu du NAB 2019 paru pour la première fois dans Mediakwest #32, p.42/82. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 26 août 2019 à 17:00

Avid MediaCentral Editorial Management : quoi de neuf ?

Avid MediaCentral Editorial Management : quoi de neuf ? © DR

Media Central Editorial management est un produit sorti il y a un an, qui participe, à l’instar de la modernisation de l’interface de MC 2019, à la démocratisation des outils Avid. Aujourd’hui, il suffit de connecter des stations Media Composer à un stockage partagé pour disposer de fonctionnalités de travail en projets partagés ; c’est ce qui fait la force d’Avid depuis 30 ans. Cela permet de partager les médias et les projets entre les stations, mais il n’y a pas réellement de notions de gestion des médias.

 

Les sociétés de postproduction utilisent souvent ces options de stockage partagé, mais elles hésitent à investir du temps et de l’argent dans une solution de Media Asset Management (MAM) et le stockage reste délicat à administrer. C’est dans le but d’ajouter une offre de gestion supplémentaire qui ne soit ni trop chère ni trop complexe qu’Avid a créé Media Central Editorial Management.

Pour les solutions haut de gamme installées, par exemple, dans certaines chaînes de télévision ou les très grosses sociétés de postproduction, Interplay a évolué vers Media Central Production. Mais pour ce que les Américains appellent « les boutiques », les structures de postproduction disposant de cinq à dix machines, Media Central Editorial Management propose d’utiliser toute la gestion des médias traditionnelle de Media Composer bien connue des utilisateurs.

Avec l’ajout d’un serveur dédié dans leur système, ces structures pourront directement consulter le contenu de leur stockage partagé. Le serveur sera chargé d’indexer le contenu du stockage partagé, que ce soit des médias Avid ou non. Les droits utilisateurs sont basés sur ceux existant au sein du Nexis et ne nécessitent donc pas de nouvelles configurations.

Avid a également présenté à IBC une nouveauté pour Media Central Editorial Management : la possibilité d’effectuer des recherches basées sur l’indexation des médias audio. Cette fonctionnalité est issue de l’option phrase find. Cette fonction permettra de rechercher à partir des éléments à partir de mots.

Media Central Editorial offre en outre la possibilité de créer via un navigateur web, des chutiers, de rajouter, de marquer et même de réaliser son prémontage (ours) et de créer des group clips. Avid commercialise le logiciel Web Media Central Editorial Management pour deux, cinq, dix ou vingt-cinq utilisateurs ; celui-ci devant être installé sur un serveur adapté.

 

Extrait de l’article paru pour la première fois dans Mediakwest #32, p.100/102. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 22 août 2019 à 17:00

Le fonctionnement de la technologie de scan 3D pour les besoins du cinéma

Jérôme Battistelli nous présente le fonctionnement du scan 3D. © DR

Jérôme Battistelli, dont nous détaillons en fin d’entretien le parcours, a rejoint l’équipe de Be4Post en octobre 2017. Devenu superviseur du département de scan 3D, il nous livre ici ses méthodes.

 

Peux-tu nous décrire le fonctionnement du Lidar ?

L’appareil utilisé par Be4Post est le Faro Focus S150. Il capte des points jusqu’à une distance de 150 mètres ; il fonctionne par impulsions laser. Le laser de classe 1 (invisible et inoffensif pour l’œil humain) passe par le miroir avec un mouvement de rotation très rapide. Ce modèle, captant jusqu’à 976 000 points par seconde, les capture avant de les enregistrer. Grâce à une rotation sur 360 degrés, l’appareil permet de reconstituer l’environnement sous forme de nuages de points. À la fin, on obtient un fichier propriétaire décrivant un nuage de points qui servira de base de travail pour créer un objet 3D et reconstituer un environnement.

Les fichiers obtenus restent assez légers (car ce sont des définitions de points qui sont enregistrées), l’enregistrement se fait sur carte SD. Sur des projets « habituels » les fichiers manipulés pèsent environ 2 Go (selon la définition choisie) ; les fichiers pèsent 300 à 400 Mo par point de mesure. La station de scan capte ce qu’elle a en vision directe ; pour compléter les manques il est nécessaire de prévoir un plan de travail et de déplacer le scanner sur plusieurs points de mesure.

 

 

Est-ce toi qui prépares le plan de travail de manière intuitive ?

Oui, il n’y a pas d’outils dédiés pour réaliser le plan de travail, j’améliore mon savoir-faire grâce à l’expérience engrangée au cours des précédentes prestations, je cerne ainsi mieux les difficultés et les bonnes pratiques.

 

 

Une icône wi-fi est sérigraphiée sur l’appareil, est-ce pour le piloter ou pour récupérer les infos ?

Il y a plusieurs manières de faire. On peut le piloter via son smartphone, le lancer, l’arrêter, tout en évitant, grâce à l’application, d’être dans le champ ; et c’est surtout très pratique quand on le place sur des pieds plus hauts. On peut également relier le scanner à un ordinateur portable via wi-fi et ainsi récupérer les données pendant que l’appareil est en fonctionnement pour commencer à traiter les données brutes, et à associer les différentes positions au fur et à mesure.

 

 

Quels sont les réglages disponibles ?

On peut régler la résolution et un paramètre de qualité très utile en cas de présence de matières réfléchissantes (les gaines par exemple). À une distance de dix mètres de la cible, en résolution 1/2 (choix entre 1/2, 1/5, 1/10…), l’appareil mesure un point tous les 3,1 mm, et à vingt mètres un point tous les 6 mm ; ensuite on a une taille de scan qui est de 20 000 x 8 000 points et cela nous donne la quantité de points par position. Le paramètre de qualité autorise plusieurs passages du scanner, qui a tendance à éclater à la surface de la matière, la multiplication des passages permettant le calcul d’une moyenne plus précise pour définir la position du point.

L’appareil fonctionne en deux étapes distinctes : au premier passage le scanner capte le nuage de points et donc la géométrie de la scène, et ensuite l’appareil est équipé d’un capteur photographique qui entre en action pour obtenir la couleur et la projection des textures. Le scanner fournit un fichier en niveau de gris, puis se sert des photos qu’il projette sur le nuage de points pour le coloriser. Ensuite, lorsque l’on reconstruit l’objet 3D, on projette à nouveau les photos dessus. Un mode HDR permet également le réglage de plusieurs expositions (intérieur/extérieur) ; plusieurs petites photos sont stitchées pour créer ce qu’on appelle une HDRI à 360 °. C’est cette photo 360 ° qui est collée sur le nuage de points. Vu le nombre de photos associées, le capteur n’a pas besoin d’être hyper précis ; ici les photos servent à coloriser le scan.

À la base, le Lidar n’est pas forcément prévu pour l’audiovisuel (il est initialement utilisé pour scanner des usines) ; c’est pour cela que lorsqu’on souhaite une meilleure qualité de capteurs, on fait de la photogrammétrie, qui apporte beaucoup plus de qualité, car réalisée à partir d’appareils photos reflex. On aura peut-être une évolution des capteurs dans ce genre d’appareils. En fait dans nos travaux on associe les résultats de deux outils : les nuages de points colorisés obtenus par les scanners avec des photos de boîtiers.

Dans les parties les plus complexes, je réalise un maximum de photos perpendiculairement aux objets pour aider le logiciel à associer les scans et les photos et replacer les photos dans l’espace. Je vais venir quadriller chaque plan de la pièce et les objets complexes à part. Ensuite avec les données du Lidar et les photos, le logiciel recrée un espace 3D avec les nuages de points Lidar augmenté dans l’espace par les photos qu’il arrive à associer. Ensuite à partir des seules informations du Lidar je reconstruis ma pièce en 3D ; j’utilise alors les photos de mon appareil que je projette pour obtenir les textures.

 

 

Comment effectues-tu cette opération ?

Je le fais avec un logiciel de photogrammétrie ; certains intègrent dorénavant cette possibilité. Depuis quelques temps il est également possible d’intégrer les plans de vol des drones ; le logiciel récupère les informations de placement via les logs ou les métadonnées des photos.

 

 

LE PARCOURS DE JÉRÔME BATTISTELLI

« Ma formation a débuté à Arles grâce à l’école d’animation 3D et d’effets spéciaux, MoPA (ex. Supinfocom). Malgré ma passion pour la 3D, mon fort intérêt pour le tournage m’a amené à me diversifier, je voulais éviter de me restreindre à travailler toute la journée derrière un ordinateur. J’ai alors contacté des directeurs photo, des assistants caméra, et on m’a orienté vers le métier de DIT. J’ai eu l’occasion de faire des tournages en tant que data manager et assistant DIT ; c’est un milieu que l’on n’apprend pas à l’école, j’ai fait une formation aux Lapins Bleus Formation et un stage chez RVZ pour appréhender la caméra et le matériel lié au tournage.

" Après quelques tournages et un peu d’expérience, Matthieu et l’équipe de Be4Post m’ont présenté le projet de département de scan 3D et j’ai été séduit par cette possibilité de lier mes deux passions. Ce rapprochement va devenir de plus en plus évident, c’est d’autant plus vrai aux États-Unis grâce aux blockbusters, mais cela arrive également en Europe et en France. Les premiers mois au sein de Be4Post ont été consacrés à la R&D et au développement. Nos outils de travail l’exigent pour appréhender leur utilisation dans une configuration de tournage de cinéma ; il nous a fallu transformer une machine de géomètre en machine pour les studios VFX. »

 

 

Extrait de notre article paru pour la première fois dans Mediakwest #31, p.12/14. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 24 juillet 2019 à 17:00

Postproduction 8K : le mariage de la carte Kona 5 d’Aja et du Mistika Ultima…

Le mariage de la carte Kona 5 d’Aja et du Mistika Ultima… © DR

L’ajout de la carte d’E/S audio et vidéo 12G-SDI Kona 5 d’Aja Video System au Mistika Ultima de SGO simplifiera l’acquisition et le play-out en 8K…

 

Déjà utilisé pour de la diffusion 8K en direct en Asie, le nouveau Mistika Ultima offre un workflow de finition en Full UHD 8K à 60 IPS, y compris dans des formats non compressés. La solution inclut une carte Aja Kona 5 avec des entrées/sorties 12G-SDI, le logiciel Mistika Ultima, une station de travail HP Z8, une solution de stockage SGO à haute performance et des composants matériels standards périphériques.

« La production en 8K est un domaine complexe et exigeant : la carte Kona 5 répond à cette exigence par sa robustesse et sa polyvalente. Ses quatre ports 12G-SDI ont en outre l’avantage de minimiser le câblage requis, » explique Geoff Mills, directeur général de SGO. « Impressionnés par le soutien apporté par l’équipe de développement d’Aja, nous prévoyons à terme d’intégrer les cartes Kona 5 dans toute notre gamme de systèmes de finition », complète-t-il.

La Kona 5 est une carte de pointe PCIe 3.0 à huit connecteurs permettant l’acquisition et la production de signaux avec des E/S en 12G-SDI et une sortie HDMI 2.0. Cette carte est compatible avec le SDK d’Aja sur MacOS, Windows et Linux, qui offre des fonctions telles que la 8K ou la 4K multicanal. La Kona 5 est également compatible avec les outils d’édition les plus courants (Adobe Premiere Pro, Apple Final Cut Pro X, Avid Media Composer) grâce aux pilotes et plugs-in mis au point par Aja pour MacOS et Windows. Les connexions 12G-SDI de la Kona 5 permettent l’enregistrement et la transmission simultanée des signaux…

  • 24 juillet 2019 à 17:00

Un si grand soleil : la fiction haut de gamme au rythme du flux

Étalonnage réalisé sur DaVinci Resolve de Blackmagic. © C. Canis

Pour « Un si grand soleil », l’un des événements de la grille de rentrée 2018 de France 2, Magic Hour a été chargée de la conception et de l’intégration de la plate-forme de postproduction. C’est à Vendargues, à quelques encablures de Montpellier, que se déroulent les tournages. À 750 km de là, aux Studios de Saint-Cloud – quai de Seine, se trouve la plate-forme de postproduction.

 

Gestion des rushes en miroir

« De cette “contrainte géographique” nous avons fait une particularité technique, et avons proposé à France Télévisions de procéder au déchargement des cartes caméras sur une station à Vendargues », précise François Lefebvre, architecte solution chez Magic Hour. Aux Studios de Saint-Cloud, son miroir alimenté via une liaison IBM Aspéra reçoit les rushes. Des opérateurs parisiens procèdent tout au long de la journée à leur ingest dans le système de postproduction architecturé autour d’un serveur Avid Nexis Entreprise de 240 To et d’une solution d’asset management Avid Interplay. Autour du couple Nexis-Interplay gravitent cinq stations de montage et de finishing Avid Media Composer, deux stations Nuke dédiées au VFX, deux stations d’étalonnage DaVinci Resolve. Deux stations de montage son et mix Pro Tools et surface de contrôle S6 viennent compléter le dispositif.

 

 

Robustesse et souplesse de l’infrastructure

Si France Télévisions a fait le choix de solutions Avid, fort de ses expériences sur la postproduction d’autres séries quotidiennes (« Plus belle la vie » sur France 3, « Demain nous appartient » sur TF1), Magic Hour a imaginé un workflow collaboratif autour d’Interplay, et proposé une offre d’intégration incluant l’ingénierie système.

« Un système puissant, fiable et adapté à nos méthodes de travail. Il nous permet de réaliser une fiction quotidienne hautement qualitative alliée au rythme des productions de flux. Un tel workflow contribue chaque jour, cinq fois par semaine, à la création d’un épisode de 22 minutes », précise Olivier Roelens, producteur exécutif.

« Pour garantir ces délais de fabrication, montage, finishing, mixage et étalonnage doivent s’inscrire dans les plus grandes conditions de fluidité et de robustesse. Les outils sont connus de tous, mais notre expertise d’intégration s’est avérée essentielle pour assurer et sécuriser les processes », ajoute François Lefebvre

 

 

Artistique & final cut

Au sommet de la pyramide créative, une station Media Composer et DaVinci Resolve est destinée aux recherches à l’usage de Christophe Canis, directeur artistique postproduction. Également monteur et étalonneur, il met les épisodes à longueur, valide le montage, l’étalonnage et le mixage quotidiennement. « Garant de la continuité éditoriale, visuelle et sonore, je prends en compte les demandes des réalisateurs, des producteurs et de la chaîne, et je m’assure de leur faisabilité en termes techniques et artistiques. Si besoin, je propose des solutions », précise-t-il.

Stade ultime, une station Media Composer est dédiée à l’insertion de l’habillage et des génériques, et aux PAD acheminés en délinéarisé vers le système PAD Def de la chaîne. Parallèlement, l’archivage est effectué sur support LTO associé à un serveur et librairie Quantum Scalar i3 (rushes, masters, éléments d’habillage et épisodes consolidés).

 

 

VFX : un mix 2D/3D pour les découvertes

« Un si grand soleil » est la première série quotidienne française à bénéficier de découvertes truquées. Dans les studios de Montpellier, c’est à la société les Tontons Truqueurs qu’a été confiée la mise en place du système « previz-on-set » de tracking caméra et d’incrustation HalideFx signé Lightcraft Technology.

« Le système permet à ce jour de produire des plans avec découvertes dès le tournage, que nous affinons et enrichissons en postproduction, faisant de « Un si grand soleil » la seule série quotidienne bénéficiant de deux workflows : de flux pour la rapidité des process, et de fiction lourde pour les VFX », souligne Jeanne Marchalot, directrice de la postproduction.

Sur cet aspect VFX, l’équipe de Christophe Canis veille à la pertinence et à la cohérence visuelle de la quinzaine de découvertes présente sur sept décors truqués de la série. « En amont de ce déploiement, ajoute le directeur artistique, nous avons fait les repérages et confié à la société Do The Film la création d’un scan en photogrammétrie d’un quartier de Montpellier pour le recréer en 3D. Nous pouvons ainsi jouer sur les lumières et les cieux, et ajouter des éléments en mouvement pour plus de réalisme. »

 

 

De la compétition à la livraison

« Pour la postproduction, notre cahier des charges était si ambitieux que nous souhaitions nous voir proposer les meilleures solutions, insiste Jean-Philippe Lançon, chef de projet France Télévisions sur l’implantation des moyens de postproduction et contributeur aux cahier des charges. L’appel d’offre initial fut donc organisé sous forme de “dialogue compétitif”, lequel vise à se concentrer sur une shortlist hautement qualifiée. »

En seulement six mois, la plate-forme de postproduction fut parée à traiter les premières images. « Toute l’ingénierie et la configuration se sont déroulées sur notre site de Meudon, avec un précâblage en atelier avant le transfert et le déploiement des équipements à Vendargues et aux Studios de Saint-Cloud. Dernières configurations obligent, France Télévisions a bénéficié d’un démarrage optimal, paré à recevoir les premiers ingests… », conclut François Lefebvre.

 

 

Article paru pour la première fois dans Mediakwest #31, p.68. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 24 juillet 2019 à 17:00

Avid Media Composer 2019, évoluer et rester soi-même !

Jean-Philippe Aguer aux commandes d’Avid Media Composer 2019. © DR

C’est une version majeure d’Avid Media Composer que l’historique et le plus célèbre éditeur de solutions de montage a conçue avec ce nouvel opus. Jean-Philippe Aguer nous a accompagnés dans la découverte de Media Composer 2019 (MC 2019) dans une version Beta quasiment aboutie. Nous avons également pu continuer nos tests à la rédaction pour explorer et prendre en main ces évolutions.

 

Après environ cinq ans de travail, le changement de présentation et d’interface du logiciel est profond. Les monteurs Avid savent à quel point leur éditeur de prédilection est habituellement très précautionneux avant d’entreprendre des modifications de son logiciel phare. Jean-Philippe Aguer : « C’est un vrai changement dans la manière de présenter le logiciel, dans le respect de la philosophie de Media Composer, afin de ne pas effrayer la base des utilisateurs. »

De nombreuses réflexions ont mené à MC 2019. Avid s’est interrogé sur l’opportunité de tout changer, ce qui aurait été un énorme scoop ! Cette refonte a en fait été menée en étroite collaboration avec des utilisateurs de toutes les générations. « On a présenté nos recherches à des auteurs hollywoodiens confirmés pour recueillir leurs réactions, qui nous ont dit : ça c’est bien, ça ce n’est pas possible ! »

De prochaines évolutions sont encore à venir à partir de cette nouvelle mouture d’Avid. Le premier grand chantier a consisté en la redéfinition d’une interface plus moderne et intuitive pour les nouveaux venus, sans effrayer les monteurs « historiques ». Elle se devait d’être efficace et moderne en supprimant des héritages du passé tels que la fenêtre projet.

 

Une interface profondément modernisée

Avid cible un public plus large de millenniums, en assumant un grand écart entre les nouveaux venus et les utilisateurs historiques plus que quarantenaires, soit deux générations à concilier.

Le premier changement radical qui ne manquera pas de surprendre les utilisateurs, c’est la nouvelle conception graphique autour d’une unique fenêtre principale dans laquelle peuvent être accrochés différents outils répartis dans plusieurs fenêtres. De nouveaux espaces de travail sont directement accessibles via des boutons ancrés sur le côté de l’interface, qui peuvent être complétés par des espaces de travail personnalisés.

Montage, effets, correction colorimétrique, audio, ce sont les principales étapes du travail de montage et de postproduction qui sont accessibles via ces nouvelles icônes. La fenêtre projet ayant disparu, on accède directement aux chutiers via un navigateur de « bins » et le nouveau bin containers qui est une fenêtre présentant le contenu du chutier sélectionné. Les chutiers peuvent toujours être détachés, ce qui reste intéressant dans une utilisation double écran, en respectant les habitudes de certains monteurs. En représentation « vignettes », la nouvelle fonction de « Bin Map » permet de se situer dans un chutier comprenant de nombreux médias (cf. illustration). Les modes d’affichage classiques des chutiers sont toujours accessibles, mais les icônes ont étés déplacées en haut de la fenêtre afin d’en améliorer l’accessibilité.

Les fonctionnalités de l’ancienne fenêtre projet ont été réparties dans les différents menus et sont mieux définies. Le menu préférence donne accès aux réglages du format de projet (dont un nouveau choix de travail en MXF OP-atom ou MXF OP-1a). On accède également aux réglages propres à l’utilisateur avec la possibilité d’afficher des listes mieux définies.

Les changements en surface ne modifient pas l’âme de l’outil qui reste un Media Composer. Les réglages continuent à être gérés « au niveau du projet » plutôt qu’au niveau de la séquence : cela signifie qu’avec Media Composer, lorsque l’on souhaite travailler une séquence en HD on paramètre le projet en HD ; pour passer en UHD il suffit de modifier les réglages du projet. D’autres solutions de montage fonctionnent différemment, les réglages techniques étant faits sur la séquence. Bien entendu, Avid conserve la gestion des utilisateurs (users), chacun pouvant personnaliser sa station et définir son clavier. Les réglages de site (site settings) sont également toujours disponibles.

 

Le retour en force de l’haltérophile

C’était presque un emblème, l’haltérophile sérigraphié sur les claviers Avid avait disparu au grand dam des amoureux de la marque. Jean-Philippe Aguer nous livre son impression : « Pour moi cette icône est vraiment l’âme de Media Composer : chaque logiciel a sa marque de fabrique ; l’haltérophile en est une pour Avid. » 

Les chutiers (bin ou dossiers) sont dorénavant représentés par de nouvelles icônes représentant des tiroirs ouverts ou fermés. Un nouvel outil, l’inspecteur tool fait également son apparition. Il offre de manière interactive des précisions sur les éléments sélectionnés ; par exemple pour un clip vidéo : la vitesse, le format audio, la couleur, etc. C’est un outil qui permet de visualiser ou d’inspecter les métadonnées beaucoup plus simplement que ne le permettent les colonnes des chutiers. Une autre icône nous renseigne sur la présence des médias des clips sur le disque interne. Le titreur Avid Titler+ est sorti il y a deux ans ; il permet de taper du texte directement.

 

Smart tool et nouvelles icônes

Les smart tools ont étés déplacés et redessinés et l’audio ducking a fait son apparition parmi les icônes positionnées en haut de la timeline.

Jean-Philippe Aguer a apprécié des échanges lus sur le groupe Facebook Avid editor of Facebook concernant cette icône : « De nombreux anciens utilisateurs se sont interrogé sur la fonction de cette icône, certains ont fait des suppositions amusantes telles que : permet de laver son linge à 30 °. » Dans la commande palette (l’interface graphique permettant de personnaliser les fenêtres de Media Composer ou le clavier d’un utilisateur), on retrouve les outils habituels avec quelques icônes redessinées pour des raisons d’esthétisme. Parallèlement à la simplification de l’interface, de nombreuses librairies QuickTime 32 bits, présentes depuis 1996, ont été nettoyées pour améliorer la rapidité et la stabilité du logiciel.

 

Des media composer simplifiés pour l’entreprise

C’est une demande ancienne et récurrente de structures telles que les grands groupes médias et certaines chaînes de télévision que de pouvoir proposer à certains utilisateurs une version simplifiée de Media Composer. C’est désormais possible avec Media Composer Entreprise qui offre désormais la possibilité de customiser l’intégralité de l’interface.

Un administrateur sera en charge de cette customisation via un serveur centralisé ; il définira les accès des différents rôles : une unique timeline, un chutier, une seule résolution. Bien entendu, des stations complètes restent à la disposition des monteurs.

 

Les exports

Les options d’exports ont également fait l’objet d’une attention particulière pour inclure les nouveaux formats de sortie, notamment pour les OTT tels que Netflix avec des formats de fichiers standard comme l’IMF dans le respect de la cohérence colorimétrique.

 

Calculs déportés via des serveurs centralisés

À l’approche des futurs Jeux olympiques, la NHK souhaitait prévoir les énormes charges de calcul imposées par leur choix de travailler en 16K pour cet évènement. Avid a donc implémenté à leur demande un processus de calcul déporté via des serveurs centralisés : chaque station de travail peut alors envoyer ses calculs sur le serveur qui se chargera de leur répartition vers les serveurs dédiés. Aujourd’hui, c’est une solution accessible pour des grosses productions et des chaînes de télévision, mais pas pour un media composer tout seul.

 

Pipeline HDR 32 bits et certification ACES

Une évolution invisible mais essentielle pour la qualité d’image, Avid a monopolisé de nombreux ingénieurs pour une réécriture en profondeur de l’infrastructure du logiciel afin d’effectuer la totalité des calculs internes en 32 bits virgule flottante. Le but n’était pas nécessairement que MC s’impose en tant qu’outil d’étalonnage, mais qu’un flux entier de production soit supporté en assurant un respect total de l’image. C’est le premier logiciel de montage certifié ACES au niveau du workflow complet de correction colorimétrique, de l’acquisition à l’export. Pour la correction colorimétrique on peut maintenant dessiner des formes (les fameuses patates) et étalonner à l’intérieur ou à l’extérieur de celles-ci.

 

Support du MXF OP-1a

Actuellement, les médias écrits en interne par Media Composer dans ses dossiers de stockage le sont sous un encapsulage MXF OP-atom. Le support du MXF OP-1a a été ajouté pour accélérer les processus d’échanges entre les serveurs vidéo d’acquisition et de diffusion ainsi que les solutions d’archivage. « On souhaite réconcilier Media Composer dans une bulle d’échange plus large. »

Aujourd’hui, avec les systèmes tels que les solutions de Media Asset Management (MAM ou gestion des médias) ou bien encore les solutions d’archivage profondes, de nombreuses conversions sont nécessaires. La gestion native des médias en MXF OP1A dans Media Composer va sensiblement accélérer et simplifier les échanges.

 

Tarifs

Les tarifs sont restés les mêmes, avec, au moment où nous écrivons ces lignes, des offres en location mensuelle débutant à 19 € pour un engagement d’un an et de 189 € sur un abonnement annuel. La location de Media Composer sur un mois sans engagement est proposée à 24 € et des offres avantageuses sont disponibles pour des engagements de deux ou trois ans.

 

Conclusion

Comme nous l’avons évoqué tout au long de l’article, la modernisation d’un outil tel que Media Composer représente un pas beaucoup plus important pour un éditeur historique comme Avid. La stabilité de l’outil et sa longévité (qui se compte en décennies) sont exemplaires. Le travail sur l’interface est remarquable et des modifications en profondeur, telles que le travail en 32 bits virgule flottante et l’intégration du MXF-OP1a en natif, sont également des plus indéniables. Il reste à vérifier si ces modifications attireront les nouveaux publics et pour les plus geeks d’entre nous à surveiller les évolutions en profondeur qui suivront les modifications de l’interface dans les futures versions : peut-être un véritable nouveau départ ? 

 

ET APRÈS ? SUITE DES ÉVOLUTIONS PRÉVUES POUR MEDIA COMPOSER

« Nous avions déjà travaillé sur la dernière version de Media Composer, rappelle Jean-Philippe Auguer, l’outil multicaméra et intégrés des masques dans Symphony, l’option d’étalonnage avancé. Dans les projets à venir, il est prévu de repenser le mode d’effets pour avoir une meilleure gestion des couches d’effets et des prévisualisations qui sont amenées à changer régulièrement dans l’industrie hollywoodienne.

« Avec MC 2019, on assiste à la première grande étape qui était l’interface, le pipeline de correction colorimétrique, les exports (notamment IMF), les calculs déportés et le ciblage d’un nouveau public pouvant être dérouté par un logiciel comme Média Composer. L’outil reste cependant un Media Composer.

« Pour les journalistes, Avid propose les solutions Media Central Cloud UX déjà en place dans certaines chaînes de télévision qui permettent des fonctionnalités de montage basiques et simplifiées via un navigateur web. La version Media Central UX permet au journaliste de débuter le montage, qui sera finalisé par un monteur qui ajoutera, par exemple, des effets sur un Media Composer.

 

Extrait de l’article paru pour la première fois dans Mediakwest #32, p.100/102. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 10 juillet 2019 à 17:00

TitraFilm : dix nouvelles salles pour la post production TV

Le studio A spécialisé dans le mixage cinéma VF. © Benoit Stefani

Suite à son redéploiement sur Saint-Ouen, TitraFilm complète ses moyens techniques avec la création de dix nouvelles salles de travail dédiées à la postproduction TV. Miguel Adélise, directeur technique adjoint pour l’ensemble des moyens audio de TitraFilm, et également responsable technique des Studios de Saint-Ouen, nous fait visiter ces nouvelles installations architecturées autour des technologies d’Audio sur IP.

 

À l’occasion de l’intégration de TVS sur le site de Saint-Ouen, TitraFilm, qui regroupe depuis quelques temps déjà le labo TVS et le spécialiste du doublage film Les Studios de Saint-Ouen (lire plus loin), se dote de dix nouveaux studios qui viennent étoffer son offre. Mise en service en octobre dernier après un ensemble de travaux répartis sur plus de deux ans, cette nouvelle plate-forme technique créée ex nihilo comprend quatre salles de montage, deux cabines Speak, deux studios d’enregistrement et deux studios de mixage.

Partant d’une dalle nue sans aucun câblage, Miguel Adélise s’est appuyé logiquement sur les technologies d’audio sur IP : « Après une première expérience moyennement concluante avec Ravenna, on a finalement fait le choix du Dante, explique t-il. Nous sommes pleinement satisfaits car l’installation est stable, et la récente évolution du Dante vers la vidéo se montre prometteuse. »

 

 

Stockage centralisé et audio sur IP

TitraFilm ne fait pas exception à la tendance actuelle qui pousse vers le stockage centralisé. Ainsi, bien que l’ensemble des installations soit réparti sur deux bâtiments, l’organisation, grâce au déploiement de la fibre sur l’ensemble du site, repose sur un serveur centralisé NAS Dell EMC Isilon qui distribue les sources suivant les besoins. « Une session Pro Tools peut ainsi commencer dans un studio et se poursuivre dans un autre car nous avons fait en sorte de respecter une uniformité d’équipement et de câblage », précise Miguel Adélise. Motorisés par des Pro Tools HD1, les studios son communiquent sur le réseau en Dante grâce à leurs interfaces audio FocusRite RedNet HD32R, tandis que, suivant les salles, on trouve des surfaces de contrôle Avid D Command, C24 ou S6.

Au-delà de la légèreté du câblage et de la suppression des problèmes de buzz et autres parasites qui traditionnellement constituent un vrai casse-tête sur des installations de cette ampleur, notre interlocuteur fait le point sur les changements apportés au quotidien par les technologies IP sur un complexe technique multisalle comme celui de TitraFilm.

« Avant le câblage IP, à chaque changement de console, il fallait prévoir et modifier le câblage pour l’adapter à chaque machine. Aujourd’hui ce n’est plus le cas, le câblage reste identique même si les machines changent. Comme nous avons effectué l’isolation et le traitement acoustique de l’ensemble des salles dès le départ, nous pouvons même envisager de modifier l’activité d’une salle sans changer son câblage. Par exemple, rien ne nous empêche de transformer un studio son pour en faire une salle de cinéma ou de transformer une salle de DCP en un studio son, ou encore l’utiliser ponctuellement pour vérifier un mixage », souligne Miguel Adélise.

Pour le dépannage quotidien et la maintenance, l’audio sur IP offre également plus de souplesse et de nouvelles possibilités grâce à la disponibilité de nouveaux outils. Ainsi, tous les assistants son de la maison sont équipés d’une petite interface AM2 appartenant à la gamme RedNet de FocusRite. Elle est alimentable en PoE et dotée simplement d’une sortie ligne et d’une sortie casque stéréo.

« Avec un casque ou une paire d’enceintes amplifiées, les assistants peuvent récupérer et écouter toute les sources de tous les Pro Tools partout où ils se trouvent. Il suffit juste d’avoir une liaison en RJ-45 jusqu’à un switch, la commutation des écrans claviers souris se faisant via KVM. Avec cette configuration, je peux facilement assister quelqu’un, entendre ce qui se passe sur son système et le dépanner. Plus généralement, comme on n’est plus limité par les longueurs de câbles, cela permet de distribuer de l’audio partout dans la maison et d’écouter au casque ou sur des enceintes. Dans le même esprit, toujours chez FocusRite, il y a aussi la petite interface X2P qui, avec ses deux préamplis micro, permet d’enregistrer un speak de manière autonome directement dans la cabine si tous les studios sont pris… », explique Miguel Adélise.

 

 

Gestion du monitoring centralisée

Pour les enceintes, les Genelec 8240 et 8330 bien connus des mixeurs ont été installées dans les studios son, tandis que dans les salles de montage sont proposées des Dynaudio Air12, ou d’autres marques disponibles sur demande.

« À six mois près, nous aurions pu nous équiper avec des enceintes RJ 45, ce qui aurait encore simplifié l’installation en supprimant les boîtiers de conversion dans les dix salles », regrette Miguel Adélise toujours à l’écoute des dernières tendances, comme par exemple la centralisation de la gestion du monitoring.

En effet, toutes ces fonctionnalités quotidiennement utilisées, comme le fait de passer d’une petite à une grande écoute ou d’un monitoring stéréo à un monitoring multicanal, ou encore d’actionner le talk-back pour communiquer avec le comédien voix en cabine, étaient encore récemment assurées par des consoles. Avec leur disparition progressive, sont apparus sur le marché des processeurs dédiés à ces tâches, apportant parfois le processing et l’optimisation des enceintes, comme c’est le cas chez Trinnov par exemple.

Avec la structure de carte de traitement modulaire d’un produit comme le DAD AX32, une nouvelle étape semble aujourd’hui en passe d’être franchie puisque deux de ces machines suffisent à assurer la gestion centralisée de l’ensemble des nouvelles salles.

« Les DAD récupèrent les entrées/sorties nécessaires au monitoring des salles depuis les stations audio ou vidéo via Dante, soit environ une trentaine de canaux par studio. En fonction des salles, la conversion Dante pour ce monitoring est effectuée soit via le dispositif KVM, soit via le logiciel Audinate Virtual Sound Card. La latence induite par ce procédé est ici acceptable, sachant que la latence d’affichage des moniteurs est de l’ordre de 10 ms et qu’elle reste toujours bien en dessous du quart d’image. La partie processing du monitoring est prise en charge par le système Genelec dans les studios son, et par le DAD AX32 dans les autres salles, notamment grâce à la capacité de traitement des cartes filles SPQ dont les DAD sont équipés », précise Miguel Adélise.

Une fois acheminées et traitées dans le DAD, les sorties sont distribuées vers le Control Room et le monitoring casque de chaque régie suivant les besoins, sachant que, dans chaque salle, un boîtier de télécommande DAD Mom permet d’appeler les sources nécessaires en fonction des configurations demandées (grande, moyenne ou petite écoute, stéréo, 5.1, tall-back, etc.).

Miguel Adélise nous retrace la genèse de cette solution plutôt avant-gardiste : « Acquérir les dix systèmes de gestion de monitoring 5.1 dont nous avions besoin représentait un investissement important. J’ai donc essayé, sans succès, de trouver un système de monitoring 5.1 compatible Dante avant de me tourner vers le DAD AX32 que l’on peut considérer comme une matrice 1 500 x 1 500 capable de router et de véhiculer 512 canaux audio avec SRC sur un simple câble Gigabit Ethernet. Il suffit ensuite d’ajouter les cartes nécessaires pour le processing audio et le Dante. J’ai réparti ensuite le traitement sur deux machines simplement pour avoir une solution de rechange en cas de panne. L’une des forces du DAD est de pouvoir assurer les commutations à toutes les fréquences de façon indépendante grâce à ses conversions SRC intégrées et je n’ai besoin d’acheminer qu’une seule référence PTP distribuée via IP, ce qui simplifie également la distribution d’horloge. »

 

 

Administration, sécurisation

Évidemment, le passage au tout IP ne va sans nécessiter une adaptation aux technologies réseau, créant au passage de nouvelles tâches et soulevant de nouveaux problèmes liés notamment à l’administration et à la sécurisation, un point central pour une société comme TitraFilm dont les clients figurent parmi les plus exigeants en la matière.

Miguel Adélise précise son niveau d’intervention dans la gestion quotidienne du réseau : « Je gère les machines audio dans la plage d’adresses IP qui m’est réservée. À partir du moment où le service informatique me réserve une zone IP pour l’audio, je peux par exemple y déployer un switch. Pour l’exploitation, il faut juste ensuite savoir ouvrir et fermer les ports via des lignes de commande. Par contre, tout ce qui concerne le maillage du réseau, les liens entre switch et la gestion des zones reste l’affaire du service IT. De manière générale, il faut intégrer les bons réflexes en matière de sécurité informatique, afin de savoir qui fait quoi sur le réseau, et d’être capable d’établir le contrôle et la traçabilité des accès exigés par nos clients. Le logiciel Dante Domain Manager me permet de déterminer les zones d’utilisation et les autorisations d’accès en fonction des profils utilisateurs (intervenant extérieur, permanent, etc.), et des projets sur lesquels ils travaillent, sachant que chaque studio est un sous-domaine. Ce besoin de contrôle va encore s’accentuer lorsque la vidéo sera transportable via Dante. »

 

 

De la veille technologique et des idées

Guidées par une veille technologique constante, les idées de chantiers à venir figurant sur la feuille de route ne manquent décidément pas ! Il y aura prochainement le changement de certaines consoles et ordinateurs hôtes qui arrivent en fin de vie et ce sera sans doute l’occasion de réduire l’espace nodal et la consommation électrique des stations audio basées sur des Mac « Cheese-Gater » format tour, sans oublier les nouvelles possibilités qu’offriront bientôt le transport des données audio et vidéo synchrones en Dante sur Ethernet 1 Gbit. En effet, dès que les fabricants auront intégré la nouvelle carte Dante AV Module annoncée par Audinate pour mi-2019, l’ensemble du dispositif permettant le transport et la lecture de l’image vidéo dans les studios devrait s’en trouver allégé. Bref, encore de belles évolutions à venir…

 

 

HISTORIQUE TITRAFILM : DU SOUS-TITRAGE À LA LOCALISATION MONDIALISÉE

Même si, quand on évoque TitraFilm, vient naturellement à l’esprit le sous-titrage qui est à l’origine de la création de la société en 1933, l’activité d’aujourd’hui n’a plus grand-chose à voir avec ce qu’elle a été durant les années d’or de la pellicule.

Parmi les changements importants, on peut citer tout d’abord, en 1991, la création du laboratoire TVS pour permettre de livrer des PAD aux chaînes de télévision, notamment Canal Plus, et également effectuer des Dupli K7 vidéo. Ce labo s’orientera progressivement de plus en plus vers le doublage TV. Parallèlement, avec la disparition de la pellicule et la montée en puissance du fichier, l’activité sous-titrage fond, mais la société fait le choix de rebondir en se repositionnant sur de nouvelles activités prenant en compte ce nouvel environnement technologique.

Au final, après l’acquisition des Studios de Saint-Ouen en 2010 et un recentrage de toute l’activité sur ce nouveau site, TitraFilm devient progressivement un guichet unique capable de proposer un ensemble de services incluant mastering DCP, la localisation tout secteur (TV, film, série) structuré pour répondre à la demande des majors traditionnels, mais aussi aux nouveaux diffuseurs que sont devenus Amazon, Apple ou Netflix.

Évidemment, cette mutation ne se fait pas en un jour et passe par la recherche de partenaires pour la localisation au niveau mondial permettant de proposer 40 langues, la création de la plate-forme de validation MyTitra, sans oublier un travail de sécurisation tant informatique que physique indispensable pour accompagner la révolution du tout fichier, avec une labellisation anti-piratage ISO 27001 et TPN 2018 en cours de validation.

Aujourd’hui TitraFilm est à même de proposer un large panel de services allant de la postproduction audio à la mastersation pour l’animation en passant par la création de voix pré-animatiques, mais aussi le mediaprocessing au sens large (diffusion hertzienne, VOD, DCP…), la localisation, ou encore le stockage et l’archivage (rushes, masters, DCP, projects, sessions…), sans oublier la formation sur certains créneaux spécialisés comme le sous-titrage, la gestion de projet, la détection ou la direction d’acteur...

 

Article paru pour la première fois dans Mediakwest #31, p.54/56. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 10 juillet 2019 à 17:00

Blue Spirit en pleine croissance

La Balade de Yaya, porté par Blue Spirit Productions, est adapté d’une bande dessinée franco-chinoise. © Blue Spirit

Suite au succès de Ma vie de Courgette, Blue Spirit Productions est revenu au Cartoon Movie 2019 avec La Balade de Yaya. Une production qui inaugure le label Sinematik créé par le studio d’animation pour dynamiser la production de longs-métrages. Il fait pendant au label Just Kids dédié aux séries TV d’animation. Explication par Armelle Glorennec, directrice générale et productrice de Blue Spirit.

 

Mediakwest : Pourquoi avoir ouvert Sinematik ?

Armelle Glorennec : Eric Jacquot et moi-même désirions accélérer le développement de longs-métrages. Nous avons 15 ans et n’avons produit que trois films dont le dernier, Le Voyage du prince de Jean-François Laguionie et Xavier Picard, va se terminer (sortie prévue fin 2019/début 2020 par Gebeka). Nous aimerions produire un film tous les deux ans.

Avec ce label (dirigé par Sara Wikler), nous voulons aborder des films qui ne soient plus strictement d’auteur, mais des films jeunesse plus universels et grand public comme La Balade de Yaya. Même après le succès public et critique de Ma vie de Courgette, Le Voyage du prince, un conte philosophique, a été complexe à produire. Ce film, qui ne s’adresse pas vraiment à la jeunesse, n’a pas réussi à convaincre les chaînes de télé (mis à part Ciné+) qui ont des difficultés pour s’investir sur des projets non clairement identifiés « comédie jeune public ».

 

 

M : Vous venez aussi de renforcer votre pôle série TV en reprenant le label Just Kids créé par Muriel Achery...

A. G. : Nous avons aussi engagé Caroline Oustlant pour venir en relais sur la production de séries... En 2018, nous sommes arrivés au sommet d’un cycle initié il y a trois ans. Il y a eu une hausse importante de nos prestations (Gigantosaurus pour Cyber Group Studios, Tom Sawyer...) ainsi que de nos productions (saison 4 de Les merveilleuses cités d’or, Les 4 de Baker Street, Alice § Lewis, Arthur et les enfants de la table ronde, la série full 3D Les Borrowers, Splat & Harry sous le label Just Kids). Cet effet de volume est arrivé soudainement. Nous avons doublé nos effectifs (300 personnes se répartissent entre Angoulême, Paris et Montréal).

 

 

M : Comment votre chaîne de production fait-elle face à cette montée en charge ?

A. G. : Le studio, qui s’est fait une spécialité de la 3D au rendu 2D, dispose d’une chaîne de fabrication efficace (sur 3ds Max). Le suivi de production, Simone, mis au point il y a quelques années et devenu indispensable à la vie du studio, nous permet d’encaisser cette augmentation de volume. Trois développeurs sont dédiés à ce logiciel (en tout neuf personnes en R&D). Nous avons initié cette technique en 2009 sur le film Le Tableau et la série Les merveilleuses cités d’or.

Actuellement, nous expérimentons le moteur temps réel Unity. Nous comptons ainsi rapatrier, dans nos studios, les décors 2D qui se font en Chine et les traiter en 3D avec un rendu 2D.

 

Extrait de l’article paru pour la première fois dans Mediakwest #31, p.124/128. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 9 juillet 2019 à 17:00

Adobe Premiere Rush CC, solution de montage multiplates-formes

Trois étapes de postproduction (étalonnage, transformation et audio) dans Adobe Premiere Rush. © DR

MOJO (mobile journalisme), MOCO (mobile content), ou plus simplement vidéo sur mobile ; des expressions familières à tout professionnel de l’audiovisuel. Si la consommation de la télévision dans sa forme historique est en baisse, les « filmeurs » sont pourtant de plus en plus nombreux. La raison est simple : la vidéo est omniprésente dans notre quotidien, non plus simplement sur un poste de télévision mais sur ordinateur, sur smartphone, dans les transports, au travail ou dans l’intimité d’une chambre. C’est cette nouvelle consommation qui incite à créer du contenu en masse.

Les profils de ces nouveaux vidéastes sont très variés : communicants de tout poil, chefs de petites et moyennes entreprises, youtubeurs, vloggers, formateurs ; et pour ces nouveaux créatifs, de nouveaux outils sont nécessaires. La caméra en premier a changé : le modèle préféré des caméramen mobiles c’est… le smartphone. Pour la simplicité, mais pas uniquement ! Les images produites par les téléphones récents sont excellentes. Après les avoir mises en boîte, il faut monter ces images.

 

 

Un nouveau marché ?

Les grands éditeurs de logiciels ne se sont pas jetés tout de suite dans cette nouvelle bataille : une place vacante rapidement investie par de nouveaux entrants qui se sont attelés à l’optimisation des fonctionnalités vidéo des téléphones. Ils ont proposé des produits de qualité pour filmer (citons la célèbre application Filmic Pro), pour monter (LumaFusion, Kinemaster, Splice), parfois même les deux et bien plus avec la suite d’applications professionnelles CT Pro Mobile Vidéo Suite (lire notre article CTpro : la caméra des Mojo devient outil de montage, de streaming, et régie multicaméra). http://www.mediakwest.com/tournage/item/ctpro-la-camera-des-mojo-devient-outil-de-montage-de-streaming-et-regie-multicamera.html. Adobe Premiere Rush symbolise peut-être le réveil des éditeurs « historiques ».

 

 

Adobe Premiere Rush, c’est quoi ?

C’est avant tout une solution de montage vidéo conçue pour offrir une expérience utilisateur similaire sur tous les supports : smartphone (iPhone et bientôt Android), tablettes et ordinateurs (Mac et PC). Ce nouveau venu vient s’inscrire dans un écosystème existant. Il y a dix ans environ, Adobe avait profité de l’évolution du logiciel Final Cut Pro d’Apple (du 7 au X) pour renforcer sa place dans le secteur de la vidéo en professionnalisant l’outil Adobe Premiere Pro.

Adobe Premiere Rush est conçu autour du moteur de Premiere Pro, ce qui permet une compatibilité ascendante : des projets pourront être débutés sur Rush et poursuivis, améliorés ou complétés avec Premiere Pro. Des monteurs professionnels pourront poursuivre un travail initié sur le terrain. Les possibilités sont nombreuses et les workflows restent à inventer.

Au-delà du public ciblé par l’application, des rédactions plus traditionnelles sont susceptibles de s’emparer de l’outil. Des journalistes pourraient par exemple l’utiliser pour préparer l’ours, ou la maquette de leurs reportages sur le terrain, à l’hôtel, en voiture ou dans le train, avant de donner la main à un monteur. Dans Adobe Premiere Rush, l’utilisateur dispose de quatre pistes vidéo et trois pistes audio.

 

 

L’expérience mobile

Les utilisateurs d’Android pourront profiter prochainement d’Adobe Premiere Rush CC, aujourd’hui disponible sur iPhone. C’est une priorité pour la marque. Sur iOS, l’application s’installe via l’AppStore ; l’utilisateur doit alors renseigner ses identifiants Adobe Creative Cloud avant d’accéder à l’application et de créer son premier projet. On commence un projet en y ajoutant des médias depuis tous les emplacements locaux de l’iPhone (vidéos, photos, audios), ou depuis les espaces de stockage « nuagiques » Adobe Creative Cloud ou Dropbox.

 

 

Filmer à partir d’Adobe Premiere Rush

En plus de ses fonctionnalités de montage auxquelles on pense en premier, Rush propose également une interface simple pour filmer et intégrer les médias au projet ouvert dans le logiciel. Pour l’instant les fonctionnalités sont très simples et il peut être judicieux de conserver son application de tournage préférée, telle Filmic Pro déjà citée.

Il est cependant possible avec Rush de choisir la sensibilité (ISO), de régler la netteté, et la vitesse d’exposition ainsi que la cadence d’image (25 images par seconde par exemple) et de s’assurer qu’elle restera fixe tout au long de la prise de vue (la cadence pouvant varier avec l’application caméra native de l’iPhone).

Au niveau audio, on ne pourra pas choisir le type de source (automatique) ni vérifier les niveaux à l’aide de vumètres. Il y a des options de rack-focus, mais pas d’assistance à la mise au point et on ne dispose pas d’affichage des zones sous ou surexposées. L’application étant très récente, il est possible qu’Adobe développe cette partie dans le futur. Hormis les limitations contraignantes sur l’audio, les autres options de l’application caméra restent suffisantes pour une grande partie des utilisateurs.

 

 

Adobe Premiere Rush sur ordinateur

Que l’on continue un projet entamé sur smartphone ou que l’on en débute un tout neuf, la découverte de l’outil sur ordinateur est très proche. Si le projet est fraîchement commencé sur l’ordinateur, vous êtes invité à lui donner un nom avant de choisir les médias qui seront intégrés à la séquence. Un projet contient en effet une unique séquence. Il vous est alors proposé de copier les médias sur votre disque dur ; si vous avez filmé avec un smartphone, c’est une étape indispensable, complétée par la possibilité de synchronisation avec le compte Creative Cloud de l’utilisateur.

 

 

Silence ! On monte

Comme on pouvait le présager, les outils sont limités à leur strict minimum et le maniement simplifié à l’extrême. On déplace les médias, on les découpe avec une paire de ciseaux. La timeline (frise temporelle commune à tous les logiciels de montage pour organiser vos médias) rappelle ici beaucoup celle de Final Cut Pro X, elle est moderne et « magnétique ». Avec ce dernier terme, on signifie que le déplacement des médias en amont ou en aval de leur position originelle réorganise automatiquement les éléments voisins.

Il est possible d’afficher plus d’options dans la timeline, avec la matérialisation des pistes audio et vidéo et des outils pour bloquer, voir ou entendre sélectivement les pistes. Dans cet entête des pistes, on trouve également l’outil d’enregistrement des voix-off matérialisé par une icône en forme de microphone. Le « trim », l’opération de montage consistant à allonger ou réduire les plans par leurs débuts ou leurs fins, est très intuitif et fluide, bravo !

 

 

Une histoire de compromis

Une fois le montage mis en forme narrativement, il reste à l’améliorer. C’est tout le challenge d’une solution comme celle-ci. Il faut conserver l’attrait de la simplicité et offrir suffisamment de possibilités pour combler les volontés des artistes les plus ambitieux. C’est donc une question de délicats compromis, mais également de technologie. Car la véritable force d’Adobe tient dans ses équipes de développement et dans la transversalité de ses outils.

Il est donc ici fait appel aux puissants modules développés dans les outils dédiés et progressivement déployés dans les logiciels plus généralistes. C’est ainsi que l’on retrouve dans Adobe Premiere Rush les dernières solutions déjà déployées dans Adobe Premiere Pro. Grâce à une interface intuitive, ces outils associent l’intelligence artificielle à de puissants automatismes.

Pour le travail de la couleur, on reconnaît des outils dérivés des modules lumetri d’Adobe Premiere Pro (lumetri est le nom du moteur de rendu d’étalonnage d’Adobe). De puissantes options venues de la fenêtre Audio Essentiel permettent d’optimiser les bandes sons (le module audio essentiel a été développé dans Adobe Audition avant d’être intégré dans Adobe Premiere Pro). Pour le titrage on retrouve l’intégration des modèles d’animation graphique.

 

 

Opérons un arrêt sur image pour observer ses outils un peu plus en détail

À droite de l’interface de Rush, cinq icônes suggestives donnent accès à des fonctionnalités dédiées.

 

• TITRAGE

Pour intégrer un titre, l’utilisateur commence en choisissant un modèle parmi ceux proposés d’usines, les modèles présents dans ses bibliothèques synchronisées sur Adobe Creative Cloud et les modèles disponibles via Adobe Stock (gratuits ou payants). Des modèles d’animations graphiques peuvent également être créés par l’utilisateur ou un prestataire externe.

La préparation des modèles se fait dans la fenêtre objets graphiques essentiels d’Adobe Premiere Pro CC 2019, en profitant des possibilités d’animations et de mise en page des titres et des formes. Les options de la fonctionnalité « Responsive Design » permettent entre autres d’adapter les dimensions des formes créées à la taille des textes. On peut également intégrer aux modèles des médias externes tels des logos, des animations ou même des vidéos. Les modèles d’animations graphiques créés via After Effects seront prochainement compatibles avec Adobe Premiere Rush à l’occasion d’une future mise à jour.

Une fois le modèle choisi et correctement placé dans la vidéo, l’utilisateur peut le modifier selon les options offertes par chacun des modèles : position des titres, polices, tailles, couleur, contour, ombre, graphismes, animations ; tout est possible, même le plus simple.

 

• TRANSITIONS, LE CHOIX DE LA SOBRIÉTÉ

Au menu, fondu enchaîné et fondu au noir ou au blanc. On l’applique via un double clic aux extrémités du plan automatiquement sélectionné sous la tête de lecture, ou on le « drag & drop » depuis la fenêtre des préconfigurations. On peut ensuite aisément en modifier la durée.

 

• ÉTALONNAGE

L’histoire de Lumetri a débuté avec Speedgrade, l’outil d’étalonnage acquis par Adobe pour renforcer sa suite d’outils dédiés à l’audiovisuel. Lumetri était initialement le nom du moteur de rendu de cet outil dédié. La demande étant à l’efficacité avec une certaine dose de simplicité (déjà), c’est au sein de Premiere Pro que l’on a retrouvé Lumetri, les équipes de développement issues de Speedgrade ayant été affectées à la création de deux fenêtres dédiées intitulées Moniteur Lumetri et Couleur Lumetri. C’est donc en partant de cet acquis technologique que l’interface de travail de la couleur d’Adobe Premiere Rush a été développée.

On peut en premier lieu choisir une des préconfigurations intégrées, que l’on pourra doser via une simple glissière. Les réglages « couleurs » principaux sont modifiables via les outils simples issus du module de Premiere Pro : exposition, contraste, température de couleur, saturation, netteté, vignette. Il est possible d’enregistrer des préréglages. La simplicité étant de mise, Adobe a préféré, dans cette version d’Adobe Premiere Rush, proposer les options les plus simples, sans intégrer les outils de réglages automatiques de la balance des blancs ou de correspondance des plans que l’on trouvera dans Adobe Premiere Pro. Si certains utilisateurs souhaitent affiner leur postproduction, la compatibilité ascendante de Rush avec Premiere Pro, permettra d’utiliser les puissants outils de ce logiciel si le besoin s’en fait sentir.

 

• ÉCOUTONS VOIR !

Adobe Premiere Rush est richement pourvu pour le traitement du son. On peut régler automatiquement les niveaux, équilibrer le son, ou réduire le bruit. Le nouvel algorithme de réduction de l’écho est également de la partie. C’est un outil récemment introduit dans l’arsenal d’options proposées aux utilisateurs d’Adobe Audition ; jusqu’alors il existait très peu de solutions pour améliorer les sons trop fortement réverbérés.

Pour le réglage des niveaux audio, on dispose d’une glissière impactant le niveau de l’élément sélectionné. Pour mixer les sons, plutôt que l’utilisation d’images clés, c’est un outil automatique qui a été intégré au logiciel (auto duck). Vous renseignez le type des médias (voix, musique ou autre) et vous demandez à Rush un réglage automatique du niveau de la musique par rapport aux voix.

 

• TRANSFORMATIONS DE L’IMAGE, ANIMATIONS

Des options simples permettent de recadrer des plans, les déplacer ou de modifier leur échelle et leur opacité. On peut ainsi préparer des PIP (picture in picture) ou des animations simples.

 

• UN PETIT PLUS

Le bouton + en haut à gauche de l’interface donne accès aux titres, à l’outil d’enregistrement des voix et à l’explorateur de médias.

 

On exporte et on partage

Une interface est dédiée à l’export et à la diffusion des films sur les réseaux. C’est simple et efficace ; après renseignement des coordonnées YouTube, Facebook, Instagram et/ou Behance, il est possible de sélectionner les différents interrupteurs pour initier les exports et les diffusions. Nul besoin de grandes compétences techniques, les choix qualitatifs et techniques des exports sont très orientés, tel le choix entre la qualité d’export faible, moyenne ou élevée.

 

 

Rush est un outil très récent

Le premier grand chantier d’Adobe pour Rush est la sortie de la version Android. L’autre grand challenge est l’optimisation du compromis entre la simplicité d’utilisation et la mise à disposition d’options suffisamment évoluées directement depuis Rush (sans aller dans Premiere Pro).

Ces choix de développements sont très sérieusement étudiés par Adobe, et pour cela il est directement proposé aux utilisateurs d’interagir avec les équipes de développements d’Adobe. En cliquant sur une petite icône en forme de bulle de bande dessinée, vous pouvez envoyer un commentaire pour demander de futures améliorations ; il est également possible de participer à des votes pour prioriser les évolutions attendues. Actuellement, les utilisateurs souhaitent majoritairement que soient intégrées au logiciel des fonctionnalités de modification de la vitesse des plans (ralentis). Certains demandent également que puissent être ajoutées des images clés pour les animations ou des LUT (look-up tables) comme dans Premiere Pro.

 

 

Le grand rush

Si on osait ce trait d’humour, Adobe ne s’est pas pressé pour nous proposer cet outil dédié aux nouveaux créateurs vidéo. Mais c’est peut-être juste le bon, voire le meilleur moment, pour imposer sa solution. Le produit est fort bien conçu et agréable à utiliser. La prise en main est évidente, que ce soit sur iPhone ou sur ordinateur, et c’est un point primordial.

Le lien avec les autres outils de la suite est l’autre grand atout d’Adobe Premiere Rush : avec Premiere Pro via la compatibilité ascendante et la possibilité de créer des modèles d’animation et avec les logiciels dédiés tels qu’Audition à partir desquels ont été créées les fonctionnalités de postproduction de Premiere Rush. Le Creative Cloud apporte aussi une grande fluidité dans l’utilisation de Premiere Rush : un projet commencé via l’application iPhone pourra être continué sur un ordinateur directement grâce à l’option « synchroniser avec Creative Cloud ».

Question prix, Adobe a également souhaité proposer une offre plus agressive. Adobe Rush est disponible pour les utilisateurs déjà abonnés à l’offre complète Adobe Creative Cloud, et le logiciel seul peut être loué pour un tout petit moins de 12 € par mois. Une formule Starter gratuite limitée (à trois exports) permet de le tester avant d’investir. Adobe nous a confirmé que l’optimisation de Rush serait une priorité pour l’année 2019 ; nous allons suivre cela avec très grand intérêt.

 

 

LE MOT DE L’ÉDITEUR

Voice ce que dit Fred Rolland, Sr. Business Development Manager, Creative Cloud for Enterprise and Video.

« Forts de l’expérience acquise depuis plus de 25 ans avec nos logiciels professionnels que sont Premiere Pro, Audition et After Effects, ainsi que des sept années qui nous ont permis de mettre en place la plate-forme Creative Cloud, le timing était le bon pour lancer Adobe Premiere Rush – une expérience multiplates-formes de création vidéo en ligne. Premiere Rush repose sur les technologies professionnelles d’Adobe pour permettre aux utilisateurs de créer et de publier sur les réseaux sociaux des vidéos de qualité professionnelle, tout en bénéficiant d’une expérience utilisateur complètement revue et simplifiée.

« Nous souhaitons proposer une expérience unifiée quel que soit l’appareil utilisé. La collaboration entre Premiere Rush et Premiere Pro sans friction était évidente, tout comme le partage de ressources graphiques avec les bibliothèques Creative Cloud. Nous sommes vraiment dans un nouveau paradigme où les technologies s’adaptent à l’utilisateur et non le contraire.

« La version 1.0 de Premiere Rush a été très bien accueillie par les utilisateurs, notamment avec la formule Starter gratuite. Adobe a pour ambition de rendre la créativité accessible à tous, Premiere Rush a une feuille de route prometteuse : Adobe Sensei, notre moteur d’IA, va continuer à accélérer notre capacité à faire évoluer cette solution ; et l’application sera disponible sur Android en 2019 ».

 

 

Article paru pour la première fois dans Mediakwest #30, p.90/94. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

 

  • 8 juillet 2019 à 17:00

Terra Willy, Signé TAT Productions

Film d’aventure produit par TAT Productions, Terra Willy d’Eric Tosti sort en France le 3 avril 2019. Avec Bac Films, Logical Pictures, France 3 Cinéma & Master Films. © TAT Productions

« Découvert » en 2006 au Cartoon Forum, TAT Productions y est revenu en 2019 pour présenter son second long-métrage, Terra Willy (à l’affiche en France le 3 avril), film abordant de manière jubilatoire le mythe de Robinson Crusoé façon spatial. Distribué en France (sur une combinaison de 400 copies) et à l’international par Bac Films, Terra Willy devrait s’inscrire dans la lignée des As de la jungle qui a propulsé le studio toulousain sur le devant de la scène (125 personnes actuellement). Rencontre avec le producteur Jean-François Tosti.

 

Mediakwest : Vos productions prouvent que l’on peut fabriquer en France des films à la fois de grande qualité et commerciaux. Comment l’expliquez-vous ?

Jean-François Tosti : Pour mon frère Éric, David Alaux et moi-même, l’animation est un medium servant à raconter des histoires, plus qu’une expression artistique. Nos films, que nous écrivons et fabriquons, doivent être vus par le plus grand nombre. Comme nous ne réalisons pas de prestations, cette démarche nous oblige à avoir une vraie analyse du marché. Dès notre premier projet, l’unitaire Spike, présenté au Cartoon Forum à Pau (en 2006), nous nous sommes aperçus que l’international avait une place importante dans nos montages financiers.

 

 

M : Terra Willy suit-il la même chaîne de production que Les As de la jungle ?

J.-F. T. : Depuis dix ans, notre studio 3D s’appuie sur la base logicielle 3ds Max et la suite Adobe. C’est presque devenu une anomalie de nos jours, mais ces outils nous conviennent très bien ! Nos développeurs créent des extensions pour qu’ils soient encore plus efficaces. Il y a encore des lourdeurs techniques comme le temps d’ouverture d’un fichier, l’affichage d’une preview...

Si nous sommes dans une recherche permanente d’optimisation, nous avons aussi investi dans une ferme de rendu très performante. Cette chaîne de production nous a permis de fabriquer Terra Willy en deux ans (comme Les As de la jungle) pour un budget de 6 millions d’euros.

Sur ce film qu’ Éric a souhaité très coloré, nous avons poussé les textures et les shaders à partir de textures procédurales, mais surtout de sculptures réalisées sur ZBrush et de photos ultra-haute définition de végétaux et peaux d’animaux naturalisés du Muséum d’histoire naturelle de Toulouse.

 

 

M : Allez-vous augmenter votre production de longs-métrages en parallèle à votre activité de production de séries ?

J.-F. T. : Nous sommes actuellement en pré-production du long-métrage Les Aventures de Pil (réalisateur Julien Fournet) en même temps que nous finalisons la saison 3 des As de la jungle. Après ce film, nous prévoyons de livrer un long-métrage tous les ans (en projet Argonautes et Les As de la jungle 2). Cette logique de studio permet de faire des économies d’échelle. Si nous élargissons notre offre (Terra Willy nous a permis d’explorer d’autres directions), nous ne changerons pas notre orientation : produire des films qui plaisent aux enfants et à la famille.

 

Extrait de l’article paru pour la première fois dans Mediakwest #31, p.124/128. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 7 juillet 2019 à 16:00
❌