Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierMediakwest - Post

Dans les coulisses du métier de mixeur son cinéma avec Cyril Holtz (Web TV SATIS)

Les particularités du mixage sonore (Web TV Cyril Holtz) © DR

Cyril Holtz faisait partie de l’équipe son du dernier film de Roman Polanski, J’accuse et était à ce titre invité sur l’une des conférences du Satis pour évoquer son travail sur le film. Mixeur cinema, il a travaillé sur plus de 150 longs métrages à ce jour réalisés, pour ne citer qu’eux, par André Téchiné, Cédric Klapisch, Jacques Audiard, Gaspar Noé, Paul Verhoeven, Albert Dupontel, Mélanie Laurent ou encore Amos Gitai. Cyril Holtz revient pour notre Web TV sur le métier de mixeur aujourd’hui et ses évolutions à travers le temps et les innovations technologiques…

 

« Tous les métiers évoluent. La base reste la même évidemment. C’est toujours difficile, les gens sont moins éduqués sur le son que sur l’image, nous avons plus une culture d’image.

Un mixeur est quelqu’un qui mélange des sons comme son nom l’indique. C’est plus facile de comprendre ce qu’il fait par rapport à quelqu’un. Par exemple, un mixeur musique va doser les instruments entre eux. Moi je fais la même chose au cinéma sauf qu’au lieu d’avoir uniquement des instruments, j’ai des dialogues, des effets sonores, des bruitages et de la musique. Mon métier est de mélanger tout cela pour arriver à la bande sonore finale. »  

 

Cyril Holtz s’exprime ensuite sur la notion d’immersion… 

« Il y a cette dimension spectaculaire sur laquelle les industries et les différents services et outils qui nous sont offerts, ont vraiment mis l’accent. Après, ce n’est pas forcément le seul aspect le plus intéressant. C’est vrai qu’il y a cet aspect sensoriel qui est important mais en cinéma, ce qui pour moi est vraiment l’essentiel est la sensibilité de quelqu’un… »  

Dans la suite de l’interview, Cyril Holtz explique ce qui fait un bon mixeur à ses yeux ou à ceux d’un réalisateur…

 

POUR EN SAVOIR PLUS, DECOUVREZ L’INTEGRALITE DE LA VIDEO !

 

 

Retrouvez également l’interview video de Lucien Balibar, chef opérateur son qui a fait équipe avec Cyril Holtz sur le film J’accuse ici

 

  • 8 janvier 2020 à 17:00

Difuze, le futur de la postproduction à Montréal

Le site principal de Difuze se situe rue Sainte Catherine à Montréal. © DR

Il y a quelques mois, nous avons visité la société Difuze à Montréal, premier diffuseur de contenus canadiens, adaptateur de films et séries télé de toute envergure, pionnier en doublage et spécialiste des services de postproduction image et son. Un entretien enrichissant pour découvrir cette entreprise et faire un focus sur le marché canadien. Entretien avec Nicolas Savoie, vice-président, ventes et développement d’affaires et Elizabeth Pélissier, directrice postproduction Image.

 

Mediakwest : Pourquoi et comment êtes-vous passé de Technicolor à Difuze ?

Nicolas Savoie : Le lieu où nous nous trouvons était la propriété de Technicolor depuis une vingtaine d’années. Notre installation comporte trois grandes activités :

- la postproduction image et son ;

- le doublage, surtout historiquement anglais-français ;

- la distribution de contenus. Pas au sens d’un ayant droit qui vend des contenus, mais simplement en termes de livraison, le volet technique de la distribution.

L’essentiel de notre activité réside dans le doublage et la livraison de contenus qui représentent environ les trois-quarts de notre activité. C’est précisément ce type d’activité que Technicolor cherchait à abandonner ou à vendre partout ailleurs dans le monde. Ainsi, en France, le groupe a cédé son activité de doublage à Deluxe.

Graduellement, ces cinq dernières années, il s’est séparé de ses activités destinées à la distribution, que ce soit du doublage ou de la livraison de contenu, pour se concentrer sur les services à la production, en particulier les effets visuels. Et nous, au fil du temps, nous étions de moins en moins en phase avec cette stratégie globale. Ceci à tel point que, à un moment donné, nous leur avons proposé un rachat par l’équipe de gestion. Nous avons conclu cette transaction le 1er septembre 2018. Si, par conséquent, la création de Difuze est récente, elle s’appuie néanmoins sur une installation et une équipe qui existent depuis de longues années.

En parallèle à cette transaction, nous avons procédé à deux autres acquisitions : la maison de doublage SPR et le spécialiste en sous-titrage CNST. Cela, dans le but de consolider notre marché local, d’élargir notre offre de services afin de mieux servir nos clients qui avaient des besoins de distribution. Nous avons donc réuni ces trois entités – l’ancien Technicolor, SPR et CNST – sous le nom de Difuze et créé la société après avoir cherché du financement auprès des banques et institutions canadiennes dédiées à appuyer les entreprises de notre secteur.

 

M. : Qui dirige Difuze et combien êtes-vous au total ?

N. S. : À sa tête, se trouvent deux gestionnaires de l’époque Technicolor, Alain Baccanale et Nicolas Savoie, auxquels s’est joint, lors de la transaction, le président de SPR (François Deschamps), lequel a lui-même présidé Technicolor Canada il y a une dizaine d’années. Une affinité assez naturelle nous réunissait ; il connaissait mon collègue ici, le site, les employés. Il cherchait une relève pour son entreprise dont il était propriétaire. Difuze compte aujourd’hui quelque deux cents-cinquante employés.

 

M. : Dans un seul site ?

N. S. : Non, nous disposons de trois installations. Le plus gros site est celui-ci, mais nous avons aussi deux autres établissements : un dans le vieux Montréal, où nous faisons principalement du doublage et du son original, et un autre à Toronto : nous avons récemment racheté une compagnie pour ouvrir notre propre bureau dans le cœur de l’industrie cinématographique, et proposer nos services de distribution.

 

M. : Comment se répartissent vos trois activités en termes de parts ?

N.S. : Les services à la distribution représentent 80 % de notre activité ; les 20 % restants sont de la postproduction image et son. Nous avons un fonctionnement intéressant dans chacun de nos domaines. En postproduction, nous sommes vraiment reconnus comme le leader pour ce qui est des projets présentant une certaine complexité, par exemple des séries TV à vocation internationale, avec des formats type 4K, HDR, des missions qui demandent une certaine expertise, une certaine envergure dans l’infrastructure, des films d’animation, des longs-métrages.

Nous sommes clairement dans un créneau de projet plus complexe, plus « haut de gamme ». Nous ne touchons pas beaucoup à la série TV locale destinée aux diffuseurs locaux, comme Radio Canada. Nous sommes réellement davantage dans la série plus lourde, internationale, le long-métrage. C’est notre créneau en postproduction, tant image que son.

 

M. : Votre chiffre d’affaires est donc surtout international ?

N. S. : Les clients peuvent être locaux. Leurs projets, quand c’est du long-métrage, sont destinés au marché local, mais généralement, quand il s’agit de séries, à un diffuseur canadien anglais ou un distributeur américain. En ce moment, nous travaillons sur une série TV, une coproduction France-Allemagne dans laquelle est impliqué un producteur canadien. Si l’entité qui nous paie est canadienne, le projet lui-même est destiné à l’international.

Côté distribution, la plupart de nos clients sont à l’international. Ainsi, nous travaillons avec Universal Picture Canada qui est canadien, mais dans le fond c’est Universal. Côté postproduction, nous sommes la première entreprise au Québec à avoir reçu la certification Netflix pour ses programmes NP3. Nous avons aussi la certification Netflix côté distribution pour le doublage vers l’anglais, parce que Netflix a grand besoin de doublages en anglais. Comme ses équipes produisent partout dans le monde maintenant, Netflix veut rapatrier pour sa base d’abonnés…

 

M. : Netflix fait du doublage ? Je croyais qu’elle ne s’occupait que de sous-titrage…

N. S. : Non, Netflix fait faire, mais la plate-forme certifie ses fournisseurs. Son programme de certification s’applique à la postproduction, au doublage, au contrôle de qualité. C’est vrai qu’elle a internalisé le sous-titrage et pas le doublage. Cet autre métier implique des ententes avec les acteurs, il est plus complexe.

Difuze est la première entreprise hors des États-Unis à être certifiée pour le doublage en anglais avec l’accent américain. Notre situation bilingue à Montréal explique que nous ayons accès à un pool anglophone. Nous sommes un centre historique de doublage. Nous sommes, en outre, certifiés iTunes pour tout ce qui est encodage. Plus globalement, les grands studios américains, tel Disney, préfèrent traiter leurs contenus ici en raison de nos critères de sécurité. Notre infrastructure, notre personnel, nos services supportent ces projets. Nous avons une envergure certaine.

 

M. : L’ensemble de vos activités représente quel chiffre d’affaires ?

N.S. : Entre 0 et 50 millions d’euros…

 

M. : Sur un plan global, quel est l’état du marché au Canada ?

N.S. : Il est en pleine transformation, comme partout ailleurs. C’est certain que le marché local souffre de la montée des plates-formes type Netflix. Il existe d’ailleurs des versions canadiennes de ces plates-formes. Crave (qui appartient à Bell Media) et Illico (Québécor), sont de grands acteurs média au Canada. Radio Canada détient son propre service de visionnement streaming par abonnement. Les chaînes traditionnelles, qui font partie de notre clientèle, en souffrent ; les producteurs qui dépendent des chaînes traditionnelles en souffrent également, et eux sont aussi clients chez nous.

Il est donc certain qu’un côté du marché est affecté, et nous affecte par ricochet. Mais la mondialisation présente aussi un côté positif : davantage de projets étrangers sur le marché, plus de demandes pour de l’adaptation de contenu du français vers l’anglais et d’autres langues. On perçoit une effervescence à ce niveau, et grâce à notre offre de services, en termes de distribution, nous en sommes bénéficiaires. De même en postproduction, avec nos projets à dimension internationale.

En conclusion, nous bénéficions de la mondialisation, tout autant que nous en souffrons par l’entremise de nos clients. On le ressent ici avec nombre de consolidations au niveau des producteurs qui se vendent, s’agglomèrent à d’autres groupes. Mais le marché de la production au Québec est tout de même assez tourné vers soi-même. Nos plus grands groupes de production ne sont pas très gros à l’échelle mondiale…

 

M. : Qu’en est-il de la partie tournage, des studios ?

N.S. : Montréal est un marché un peu particulier que j’appellerai un « Tier 2 », si je peux me permettre l’anglicisme. Un marché comme Toronto, Vancouver, Los Angeles sont des « Tier 1 », énormément de productions américaines surtout, qui se font dans ces marchés-là. Quelque 80 % de la production faite à Vancouver vont directement à Los Angeles. Et avec les crédits d’impôt, l’infrastructure sur place très accueillante, le fuseau horaire… c’est merveilleux !

La ville de Toronto, de par sa taille, a toujours été le hub pour la production locale canadienne, puis américaine ; elle est devenue un centre très important, où se créent énormément de productions. Netflix vient d’ailleurs de s’installer à demeure. La plate-forme a, en outre, réservé un ensemble de studios pour très longtemps, elle a sept/huit productions qui roulent en ce moment à Toronto, sept/huit séries ou films.

En comparaison, à Montréal, un seul film de Netflix se fait en ce moment… Montréal, c’est loin, c’est d’abord francophone, il fait froid… Notre saison de tournage est courte comparée à Vancouver, voire Toronto ; nous ne disposons pas de la même infrastructure en matière de studios. Deux grands groupes ont des studios ici, mais à Toronto ils sont peut-être cinq, à Vancouver même chose. Ce qui explique que Montréal soit un peu considéré comme un deuxième choix. Toronto et Vancouver sont pleins ? Allons à Montréal. Si j’ai de la place à Toronto, je reste à Toronto.

 

M. : Vous n’avez pas de business avec New York ?

N. S. : Non, dans le marché « Tier 2 », la Géorgie (américaine), la Louisiane, le Nouveau Mexique, les pays de l’Est… fonctionnent extrêmement bien. Il arrive que des projets hésitent entre tourner à Montréal, Budapest, Roumanie… C’est sur ce point qu’on se bat, un peu contre Toronto aussi, mais il est rare qu’un Américain se demande s’il va tourner à Montréal ou à Toronto. La question se pose davantage entre « Je tourne à L.A. ou à Vancouver ? L.A. ou Toronto ? L.A. ou Londres ? », mais pas « Je tourne à L.A. ou à Montréal ? »…

 

M. : Le crédit d’impôts existe-t-il ici ?

N.S. : Oui, il est même très généreux et se compare favorablement aux autres provinces canadiennes, voire aux autres États. Il y a un crédit d’impôt sur la production étrangère, une bonification d’impôt pour le volet effets visuels, tout ce qui est green screen, effets visuels animation. Montréal tire bien son épingle du jeu en matière d’animation et d’effets visuels. Énormément de sociétés œuvrant dans ce secteur se sont implantées ici au cours de ces dernières années, tous les grands noms.

 

M. : Et en postprod, de combien de salles disposez-vous ?

Elizabeth Pélissier : En termes de salles, nous avons des salles off line mais où l’on peut faire de la finition, on a deux salles de montage finition en Flame (Autodesk). Nous disposons d’une salle Clipster (Rohde & Schwarz) pour tout ce qui est création des DCP ou autres distributions dans les salles de cinéma. S’ajoutent à cela quatre salles d’étalonnage, nous travaillons beaucoup en Baselight (Filmlight), mais certaines salles sont en DaVinci Resolve (Blackmagic Design). Je vous donne tous ces chiffres, mais comme nous sommes tous sur KVM, toutes les salles sont en vérité interchangeables.

Tout se passe en fonction du client, quelle pièce il préfère, mais en étalonnage ce qui est très important en postproduction image, on va vraiment venir décider si c’est un film, une série TV, est-ce que c’est un workflow HDR, un workflow SDR. On va aller dans un auditorium cinéma, dans une salle de type série TV. Nous disposons de salles multimédias qui nous permettent la numérisation et la création de livrables, d’une régie et d’un gros « data center ».

Auparavant, nous étions cinq départements à Montréal : la post sonore, la post image, le off line, le doublage… Quand nous avons pris le parti de tout consolider en une seule unité, nous avons collaboré avec les studios américains et notre département d’ingénierie pour définir nos pratiques et nos procédures de travail, de manière à être le plus sécuritaire possible. Nous avons tout uniformisé en nous basant sur les nombreuses règles de la MPAA (Motion Picture Association of America). Par exemple, tous les ordinateurs, tout le stockage est centralisé dans le « data center ». Nous distribuons partout dans le monde des centaines de fichiers. Puis, bien sûr, nous louons aussi des salles off line. Des producteurs, monteurs nous louent des salles, nous leur aménageons un petit cocon de création !

 

M. : Vous travaillez aussi sur les tournages et faites la gestion des rushes sur ces tournages ?

E.P. : Oui, nous traitons le matériel de tournage dans nos installations afin d’étalonner au besoin, etc. Les équipes qui travaillent sur les tournages réalisés à Montréal, nous apportent le matériel pour que Difuze travaille sur la gestion des « rushes ». La saison de tournage commence à battre son plein avec le retour du beau temps, même si on a eu un printemps tardif. Actuellement, nous sommes amenés à travailler sur la plupart des tournages étrangers : une série de Fox qui commence, une série d’Universal… Nous sommes particulièrement actifs !

 

M. : J’imagine que vous utilisez aussi le cloud, comment les clients ressentent-ils l’utilisation du cloud dans tout ce qui est échange. Est-ce bien entré dans leur esprit ?

N. S. : Cela dépend du secteur d’activité. Dans notre segment livraison de contenu, là où on gère des catalogues pour nos clients pour ensuite les livrer à leurs clients à eux, les plates-formes, l’utilisation du cloud est bien perçue. Des questionnements persistent au niveau de la sécurité, mais nous nous sommes assurés de travailler avec des partenaires solides, très réputés. Nous respectons les paramètres, les balises recommandées par MPAA. Ce qui explique, qu’au final, nous soyons capables d’avoir une offre de gestion de contenu dans le cloud qui rencontre les attentes : sécurisée, très réactive, rapide. Je dirais qu’au niveau de la gestion des librairies, c’est quelque chose qui est de plus en plus accepté. Au niveau du doublage, le cloud plaît moins, parce que le contenu ne reste pas longtemps chez nous, on est surtout dans l’audio, les poids ne sont pas les mêmes.

E. P. : En postproduction, on n’en est pas là encore, c’est vraiment plus en distribution ! En postproduction, avec toutes les règles de sécurité, le client veut du stockage physique, ne pas donner accès à Internet, mais surtout c’est du stockage qu’on peut partitionner. C’est vraiment ce que les studios américains nous demandent, ce n’est pas du stockage accessible sur le cloud, mais des stockages locaux pour la performance quand on travaille en 4K.

N. S. : Dans le cas de la distribution, on travaille avec des produits finis qui, en règle générale, ont déjà été diffusés. La préoccupation vis-à-vis de la sécurité est moindre que quand on traite du contenu qui est loin d’être fini. Par ailleurs, le poids des fichiers n’est pas le même. Gérer une librairie de masters, ce n’est pas comme faire du rendering sur des contenus qui ont été tournés en 4K, 16K, 8K. En vérité, nous n’avons pas encore envisagé la création vers le cloud pour des raisons de sécurité, de coût et de temps de réaction.

On utilise une solution cloud pour le visionnement des rushes de tournage, mais là ce sont des proxys, le poids n’est pas le même. Pour nos clients, c’est très pratique et pas trop coûteux. Mais de là à travailler en production « cloud based »… Encore une fois, nous n’en sommes pas là ! Peut-être qu’on y arrivera un jour, mais ce n’est pas prioritaire à court terme.

En distribution par contre, le cloud se travaille bien. Nous disposons de nos propres systèmes de gestion d’actifs que Technicolor a développés, mais que nous avons obtenus dans le cadre de la transaction qui a mené à la création de Difuze. Nous avons aussi une interface client initialement développée par Technicolor, mais complètement refaite par nos soins depuis. Cela permet à nos clients d’avoir accès au catalogue et de passer des commandes pour se faire livrer, partager des lignes visionnement sécurisées. L’application, le contenu qui est hébergé, tout est dans le cloud. Une partie de notre système de gestion d’actifs est aussi hébergée, l’application même de gestion d’actifs est hébergée dans le cloud. Et nous commençons à regarder des process d’encodage, de gestion de contenu qui pourraient être faits aussi dans le cloud.

En ce moment, tout est fait ici, localement. On restaure, on fait revenir le contenu du cloud pour le travailler localement, puis on le remet. Nous envisageons que, à terme, nous pourrons avoir toute la chaîne de production pour ce qui est du traitement du contenu une fois qu’il est fini. On peut envisager une chaîne assez cloud based, de bout en bout. Ça oui !

 

M. : Avez-vous des projets de développement, de nouvelles activités, d’acquisitions dans les prochains mois ?

N. S. : Cela ne fait pas longtemps que nous existons… pour le moment nous en sommes à digérer nos trois acquisitions ! Nous nous concentrons sur la bonne mise en place de notre entité, cherchons à finir notre intégration, à servir nos clients. Nous sommes très heureux que tous nos clients nous aient suivis dans cette aventure ; on n’en a pas perdu, on en a même gagné ! Je pense que cela témoigne de la pertinence du projet et de la qualité de l’équipe en place, de l’infrastructure.

Nous avions quelques craintes. Nous nous disions : « Ils ont l’habitude de Technicolor, une grande marque, alors… ». À l’inverse, de plus petits clients habitués, eux, à l’approche boutique des deux autres entreprises acquises, auraient pu se dire : « On se retrouve dans un grand groupe, alors… ». Pas du tout, les uns et les autres sont heureux ! Vraiment, c’est un bel accomplissement, la confiance des clients s’est maintenue.

À terme, il est certain que nous allons vouloir poursuivre notre croissance, on n’a pas démarré ce projet pour s’arrêter en si bon chemin ! Avec la mondialisation, le marché, il existe vraiment une opportunité de consolider les activités dans lesquelles nous sommes. Ultimement, nous visons à devenir le numéro 1 au Canada, on devrait par conséquent poursuivre notre croissance. Comment ? Dans quels secteurs ? Nous n’avons pas encore statué.

 

NDLR : Depuis l’entretien, Difuze a procédé à l’acquisition de The Media Concierge, une société de services de gestion de contenus basée à Toronto. Difuze est en bonne voie de devenir le numéro 1 canadien !

 

Article paru pour la première fois dans Mediakwest #34, p.32/35. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 8 janvier 2020 à 17:00

Ayahuasca, l’expérience VR au firmament (Web TV SATIS Rodolphe Chabrier)

Ayahuasca, l’expérience VR qui repousse les limites techniques et artistiques (Web TV Rodolphe Chabrier) © DR

Président de Mac Guff au sein de Small, plus spécialisé VR, AR et technologies immersives, Rodolphe Chabrier, véritable passionné d’images, a supervisé le projet Ayahuasca (Kosmik Journey) de Jan Kounen. Il était l’invité d’une keynote sur le salon Satis à ce propos et est venu également sur le plateau de la Web TV Satis pour nous révéler les dessous de l’expérience technico/chamanique fabriqué en 6 dof qui repousse toutes les limites de la technique et de l'artistique…

 

« C’est un projet qui nous a demandé quelques mois de fabrication ! Il est terminé depuis un petit moment maintenant et tourne principalement dans les festivals de manière mondiale. Il sera sur des plateformes qui peuvent offrir des expériences VR dans les casques haut de gamme dans les jours qui viennent. »

 

C’est un projet qui a une spécificité. Il a une certaine valeur ajoutée technologique…

« Nous sommes à une période maintenant où c’est comme si l’on revenait trente ans en arrière… quand nous avions commencé Mac Guff où nous faisions des images de synthèse avec des moyens raisonnables. La technologie était en train de se fabriquer, tout changeait… Cela redevient le cas aujourd’hui avec la VR et l’AR. Même si nous avons l’impression que c’est une technologie totalement maîtrisée, ce n’est pas le cas du tout. Tout change tout le temps, la puissance des processeurs, la technique de tracking, les modes de diffusion, les résolutions, l’optique etc… Nous sommes donc en train d’expérimenter un maximum de choses ! Et dans Ayahuasca (Kosmik Journey), nous avons dû développer des dispositifs particuliers, surtout visuels. Nous poussons jusqu’au dernier retranchement au niveau visuel ce que nous pouvons faire de par le sujet. Cette pièce de VR réalisée par Jan Kounen que je connais depuis 30 ans avec qui nous avons déjà fait des films qui parlent du sujet, c’est de raconter ce qu’est une transe chamanique quand les indiens Shipibo ou ceux qui essayent, prennent de l’ayahuasca et vont rentrer à l’intérieur d’un nouveau monde, le monde des morts qui est parfaitement réaliste avec ces règles et qui totalement indescriptible. C’est pourtant ce qu’on a essayé de faire avec un casque VR car pour la première fois, nous pouvons mettre les gens dans une immersion très grande, bien plus grande que le cinéma ! »

 

Pour Rodolphe Chabrier, il ne s’agit plus de fabriquer des images mais bien de véritablement fabriquer des mondes !

Pour prendre de l’ayahuasca ou bien entrer dans le monde immersif, enthousiaste et optimiste de Rodolphe Chabrier, pour connaître son point de vue sur l’avenir des marchés de la VR, de l’AR et des moteurs 3D en temps réel… visionnez l’intégralité de son interview vidéo !

  • 8 janvier 2020 à 17:00

Succès foudroyant pour Adobe Rush

Succès foudroyant pour Adobe Rush

Adobe Rush, la solution de montage pour les plates-formes mobiles développée par Adobe, connaît un succès foudroyant avec plus de 10 000 chargements quotidiens. Destinée originellement pour les réseaux sociaux, Adobe Rush est puissante et intelligente. Elle vient s’intégrer parfaitement dans l’écosystème Adobe, car elle se synchronise avec les autres logiciels de la suite Creative Cloud. Ainsi un montage commencé sur Rush peut être finalisé sur Premiere Pro.

 

Il est possible de créer un contenu en trois minutes grâce aux technologies de Machine Learning d’Adobe (Sensei). Même si vous n’avez que quelques connaissances, Rush permet de créer des contenus de qualité, notamment par exemple en utilisant des templates créés par des professionnels. « Ce qui est créé sur Rush s’ouvre automatiquement sur Premiere Pro et il est possible de disposer de plusieurs pistes audio pour finaliser un montage. Nous apprenons beaucoup de Rush et quand nous voyons les progrès des smartphones, nous savons que nous sommes dans la bonne direction », souligne Steve Forde - General Manager, Emerging Products, Digital Video and Audio.

Rush, couplé à Adobe Stock, permet de décupler la créativité ; et 40 % des utilisateurs de Rush sont des professionnels. Toutes les semaines, l’application est mise à jour, que ce soit des correctifs ou l’ajout de nouvelles fonctionnalités comme du Time Rewarping sur la vidéo ou du Speed Ramping sur l’audio. Adobe Rush accepte de nombreux formats de fichiers vidéo et de codec. Sur un ordinateur, Adobe Rush est même compatible 8K !

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 8 janvier 2020 à 17:00

Les tendances 2020 en matière d’audio (Partie II)

Intermédiaire entre la S3 et la S6, la surface de contrôle Avid S4, ici en configuration 24 faders. On aperçoit également différents modules (encodeurs, Pec et Display) disponibles suivant les besoins. © Nathalie Klimberg

Suite de notre compte rendu d’IBC 2019 portant cette fois sur la postproduction sonore. Des nouveautés à suivre en 2020 chez Avid, mais aussi chez PSI Audio, RTW, Ferrofish, Luminex, Wohler et Nugen.

 

AVID

Annoncées au Namm en juin dernier, les surfaces de contrôle Avid S1 et S4 s’intègrent dans la gamme autour de la S3 afin de compléter l’offre du constructeur.

Présentée comme une « petite S6 », l’Avid S4, déjà disponible à la livraison, se veut plus abordable et plus compacte que sa sœur aînée. Sa conception autour d’un châssis non modulaire intégrant alimentation et switch, la rend moins personnalisable, mais aussi plus rapide et plus simple à intégrer. La version de base comprend une section centrale tactile et une section automation à laquelle on peut ajouter ensuite jusqu’à trois modules faders (huit faders ALPS, 4 x 8 encodeurs rotatifs), quatre modules d’écrans et trois modules optionnels (joysticks, encodeurs rotatifs, panneaux PEC/Direct ). Elle peut piloter jusqu’à deux stations audio simultanément. Notons qu’en France, quatre surfaces Avid S4 ont été commandées par France Télévisions pour équiper le mixage News des locaux parisiens.

Succédant à l’Artist Mix, un produit Euphonix ré-étiqueté Avid, la petite Avid S1 s’adresse grosso modo au même public : les free-lances qui travaillent ou préparent leurs séances à la maison ou les studios de petite taille évoluant sur les marchés aussi bien musique que post audio ou vidéo. Comme le Pro Tools Dock avec lequel elle s’associe très simplement, elle est architecturée autour d’un iPad sur lequel aura été installée au préalable l’application Avid Control (voir plus loin). Outre ses huit faders sensitifs 10 cm motorisés, elle propose pour chaque voie un encodeur sensitif, des boutons Mute et Solo, un afficheur LCD dérivé de celui de la S3 et les touches Set et Rec pour modifier le statut d’enregistrement et d’automation.

La S1 propose en outre un ensemble de touches dédiées à la navigation, l’automation, l’accès aux traitements, les raccourcis clavier, les macros utilisateurs. Elle s’adresse aux utilisateurs de Pro Tools bien sûr, mais aussi aux possesseurs d’applications compatibles EuCon tant audio (Nuendo, Pyramix, Logic Pro, Cubase) que vidéo (Media Composer, Premiere Pro…) et dans une moindre mesure aux applications intégrant le protocole Mackie HUI comme Live ou Reaper. L’association de plusieurs S1 (jusqu’à quatre) ou avec le Pro Tools Dock se fait par simple clip magnétique. La disponibilité est prévue pour fin 2019.

Prévu également pour fin 2019 afin accompagner la venue de l’Avid S1, l’application iOS Pro Tools Control devient Avid Control. Offrant désormais une compatibilité avec les tablettes Android, elle pourra également être utilisée sur des smartphones pour des besoins ponctuels comme l’accès à certaines macros par exemple. Parmi les avancées, on note le support des modes portrait ou paysage, l’affichage des niveaux en haute résolution incluant la réduction de gain (GR) opérée par les plugs-in de traitements de dynamique. On y visualise aussi de manière condensée le statut d’automation, les courbes d’EQ, de dynamique et les panoramiques. D’autre part, la section monitoring a été revisitée façon S6 avec une vue qui supporte le multicanal jusqu’au 9.1, ainsi que de nouvelles possibilités comme le contrôle du Talkback et du niveau de chaque enceinte.

Après la version Pro Tools 2019.6 qui apportait la compatibilité Mac OS Mojave et quelques évolutions (nommage des pistes plus fonctionnel, nombre de pistes audio disponibles à la lecture en augmentation, meilleure interactivité avec le logiciel sans arrêter la lecture, option de licence flottante PACE sur serveur Multiseat License sans iLok…), une version 2019.10 est annoncée, avec au menu la lecture aux formats UHD 4K intégrée et l’ajout de cadence vidéo jusqu’à 120 images par seconde.

 

 

PSI AUDIO

Conçue pour une installation horizontale ou verticale, l’enceinte amplifiée A 23-M présentée par le constructeur suisse PSI est un modèle trois voies dédié au monitoring de moyenne distance (à partir de 1,5 m) pour des applications d’enregistrement musique, mixage, mastering, broadcast et postproduction. Un peu en marge de la mode actuelle, elle ne propose ni interface numérique ou réseau, ni DSP, mais reprend le tweeter fait main de la A-25-M et intègre un nouveau HP maison pour le medium. La tri-amplification comprend deux amplis classe G/H pour les basses et le médium (respectivement 140 et 70 W) et un classe A/B de 50 W pour le registre aigu. La bande passante annoncée s’étend de 34 Hz à 23 kHz.

 

 

GENELEC

Trois nouvelles enceintes viennent enrichir la fameuse série The Ones pour s’adapter à des volumes de pièce et des distances du point d’écoute plus étendues.

Haut de gamme de la série The Ones, la 8361A reprend le concept de l’enceinte coaxiale trois voies en proposant des caractéristiques au sommet sur tous les plans. Les dimensions (H 59,3 x W 35,7 x D 34,7 cm), la bande-passante (36 Hz →20 kHz ± 1,5 dB ) et la puissance (amplification 500 W pour le grave, 2 x 150 W pour les médium/aigu) sont donc les plus élevées de la gamme. Elle est équipée du nouveau HP coaxial MDC pour le registre médium/aigu et autorise des distances d’écoute jusqu’à cinq mètres. Comme toute la gamme, elle est doté de sorties AES3AES/EBU, 2 x et RJ45 pour le contrôle et la calibration via le logiciel GLM.

La 8351B est une évolution du modèle A avec, selon Genelec, des performances à la hausse en matière de pression SPL obtenue, d’alignement et de correction acoustique et de réponse dans le haut du spectre. Pour rappel, ses dimensions sont 45,2 x 28,7 x D 27,8 cm pour un poids de 14,3 kg.

Nouveau caisson basse de la gamme, le W371 a été conçu pour étendre le registre de tout système de monitoring de la série The Ones composé à base d’enceintes 8341, 8351 et 8361. Il est équipé de deux woofers (14 et 12 pouces motorisés chacun par un amplificateur 400 W) montés dos à dos, et intervient sur les quatre dernières octaves de la bande-passante, soit 23 → 500 Hz. Il peut opérer suivant trois modes de directivité plus ou moins élargie qui exciteront donc plus ou moins la salle dans laquelle il se trouve installé.

 

 

RTW

Option Immersive Sound Analyzer pour TM7 et TM9. Pour préparer la vraisemblable banalisation du Dolby Atmos dans l’univers broadcast, RTW profite de l’IBC pour proposer la licence ISA (Immersive Sound Analyzer) qui permet aux ingénieurs du son de contrôler les contenus 5.1.2, 5.1.4, 7.1.2 et 7.1.4. Pour y parvenir, le fabricant met en œuvre deux analyseurs multicanaux afin d’analyser et de visualiser simultanément le bed principal 5.1 ou 7.1 ainsi que le bed zénithal 2.0 ou 4.0. ISA est disponible depuis fin octobre pour tous les analyseurs TM7 et TM9 dotés de la version 8-10 ou supérieure ainsi que des licences Multichannel, Loudness, SPL Display et Surround Sound Analyzer.

 

 

FERROFISH

Nouvellement distribué par Audiopole, le catalogue du fabricant allemand Ferrofish comprend notamment des convertisseurs Dante et des convertisseurs/router Madi-analogique-Dante-Adat.

Le Ferrofish A32 Dante est un rack multifonction assurant le rôle de convertisseur depuis ou vers les formats analogique, Madi, Adat et Dante/AES67. Il possède en outre une grille 192 x 192 pour la distribution de signal et peut assurer des fonctionnalités de prémixage. Sa face avant est dotée de quatre afficheurs haute définition TFT permettant de visualiser au choix les bargraphes, la grille XY, ou l’état des entrées/sorties numériques. Le niveau de toutes les entrées et sorties analogiques peut être ajusté directement en face avant en affichant sur l’un des écrans les petits faders virtuels. Jusqu’à cinq mixages différents peuvent être ainsi générés tandis que le monitoring casque permet d’écouter l’ensemble des entrées/sorties en mono ou stéréo. L’unité est dotée de convertisseurs Cirrus Logic 24 bits 192 kHz et un DSP SHARC. Le paramétrage et l’affichage peuvent alternativement être effectués depuis un PC muni du logiciel de télécommande dédié.

 

 

LUMINEX

Le spécialiste belge du switch informatique dédié à l’audiovisuel complète son offre avec Araneo, un logiciel gratuit qui offre une visualisation graphique de l’ensemble du réseau constitué par les produits Luminex. Le but est ici de mettre en évidence de manière simple et graphique les flux de données, de remonter les éventuels problèmes et de les résoudre. Le diagnostic pourra par exemple mettre en évidence des anomalies concernant les connexions, la bande passante ou l’alimentation PoE sans pour autant nécessiter les compétences d’administrateur réseau.

 

 

WOHLER

Le prototype du nouveau rack de monitoring audio et vidéo 12G présenté par Wohler au Nab a été annoncé disponible à l’IBC. Baptisé iAM-Audio-12G-SDI, il se singularise par ses options Dolby Atmos et vidéo-sur-IP (SMPTE 2022 et 2110) ainsi que ses seize indicateurs de niveaux et son écran tactile. Il comprend deux entrées 12G-SDI sur BNC, jusqu’à huit canaux audio AES sur HD-15, et quatre cages SFP, dont deux peuvent au besoin être configurées comme entrées 12G additionnelles.

 

 

NUGEN

Le Loudness Toolkit 2.8 intègre les recommandations publiées par Netflix pour le mixage son. Pour aider les ingénieurs du son à créer des mix « Netflix-ready », Nugen inclut dans son kit trois plugs-in : l’analyseur Loudness VisLM, le limiteur ISL, l’outil de mise en conformité LM-Correct ainsi que l’extension DynApt qui permet de retoucher le LRA sans perdre de vue des paramètres plus subjectifs comme l’intelligibilité des dialogues ou le respect de la progression narrative. Tout un programme ?

 

Retrouvez la première partie de l'article ici...

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 5 janvier 2020 à 16:00

Difuze, le futur de la postproduction à Montréal

Le site principal de Difuze se situe rue Sainte Catherine à Montréal. © DR

Il y a quelques mois, nous avons visité la société Difuze à Montréal, premier diffuseur de contenus canadiens, adaptateur de films et séries télé de toute envergure, pionnier en doublage et spécialiste des services de postproduction image et son. Un entretien enrichissant pour découvrir cette entreprise et faire un focus sur le marché canadien. Entretien avec Nicolas Savoie, vice-président, ventes et développement d’affaires et Elizabeth Pélissier, directrice postproduction Image.

 

Mediakwest : Pourquoi et comment êtes-vous passé de Technicolor à Difuze ?

Nicolas Savoie : Le lieu où nous nous trouvons était la propriété de Technicolor depuis une vingtaine d’années. Notre installation comporte trois grandes activités :

- la postproduction image et son ;

- le doublage, surtout historiquement anglais-français ;

- la distribution de contenus. Pas au sens d’un ayant droit qui vend des contenus, mais simplement en termes de livraison, le volet technique de la distribution.

L’essentiel de notre activité réside dans le doublage et la livraison de contenus qui représentent environ les trois-quarts de notre activité. C’est précisément ce type d’activité que Technicolor cherchait à abandonner ou à vendre partout ailleurs dans le monde. Ainsi, en France, le groupe a cédé son activité de doublage à Deluxe.

Graduellement, ces cinq dernières années, il s’est séparé de ses activités destinées à la distribution, que ce soit du doublage ou de la livraison de contenu, pour se concentrer sur les services à la production, en particulier les effets visuels. Et nous, au fil du temps, nous étions de moins en moins en phase avec cette stratégie globale. Ceci à tel point que, à un moment donné, nous leur avons proposé un rachat par l’équipe de gestion. Nous avons conclu cette transaction le 1er septembre 2018. Si, par conséquent, la création de Difuze est récente, elle s’appuie néanmoins sur une installation et une équipe qui existent depuis de longues années.

En parallèle à cette transaction, nous avons procédé à deux autres acquisitions : la maison de doublage SPR et le spécialiste en sous-titrage CNST. Cela, dans le but de consolider notre marché local, d’élargir notre offre de services afin de mieux servir nos clients qui avaient des besoins de distribution. Nous avons donc réuni ces trois entités – l’ancien Technicolor, SPR et CNST – sous le nom de Difuze et créé la société après avoir cherché du financement auprès des banques et institutions canadiennes dédiées à appuyer les entreprises de notre secteur.

 

M. : Qui dirige Difuze et combien êtes-vous au total ?

N. S. : À sa tête, se trouvent deux gestionnaires de l’époque Technicolor, Alain Baccanale et Nicolas Savoie, auxquels s’est joint, lors de la transaction, le président de SPR (François Deschamps), lequel a lui-même présidé Technicolor Canada il y a une dizaine d’années. Une affinité assez naturelle nous réunissait ; il connaissait mon collègue ici, le site, les employés. Il cherchait une relève pour son entreprise dont il était propriétaire. Difuze compte aujourd’hui quelque deux cents-cinquante employés.

 

M. : Dans un seul site ?

N. S. : Non, nous disposons de trois installations. Le plus gros site est celui-ci, mais nous avons aussi deux autres établissements : un dans le vieux Montréal, où nous faisons principalement du doublage et du son original, et un autre à Toronto : nous avons récemment racheté une compagnie pour ouvrir notre propre bureau dans le cœur de l’industrie cinématographique, et proposer nos services de distribution.

 

M. : Comment se répartissent vos trois activités en termes de parts ?

N.S. : Les services à la distribution représentent 80 % de notre activité ; les 20 % restants sont de la postproduction image et son. Nous avons un fonctionnement intéressant dans chacun de nos domaines. En postproduction, nous sommes vraiment reconnus comme le leader pour ce qui est des projets présentant une certaine complexité, par exemple des séries TV à vocation internationale, avec des formats type 4K, HDR, des missions qui demandent une certaine expertise, une certaine envergure dans l’infrastructure, des films d’animation, des longs-métrages.

Nous sommes clairement dans un créneau de projet plus complexe, plus « haut de gamme ». Nous ne touchons pas beaucoup à la série TV locale destinée aux diffuseurs locaux, comme Radio Canada. Nous sommes réellement davantage dans la série plus lourde, internationale, le long-métrage. C’est notre créneau en postproduction, tant image que son.

 

M. : Votre chiffre d’affaires est donc surtout international ?

N. S. : Les clients peuvent être locaux. Leurs projets, quand c’est du long-métrage, sont destinés au marché local, mais généralement, quand il s’agit de séries, à un diffuseur canadien anglais ou un distributeur américain. En ce moment, nous travaillons sur une série TV, une coproduction France-Allemagne dans laquelle est impliqué un producteur canadien. Si l’entité qui nous paie est canadienne, le projet lui-même est destiné à l’international.

Côté distribution, la plupart de nos clients sont à l’international. Ainsi, nous travaillons avec Universal Picture Canada qui est canadien, mais dans le fond c’est Universal. Côté postproduction, nous sommes la première entreprise au Québec à avoir reçu la certification Netflix pour ses programmes NP3. Nous avons aussi la certification Netflix côté distribution pour le doublage vers l’anglais, parce que Netflix a grand besoin de doublages en anglais. Comme ses équipes produisent partout dans le monde maintenant, Netflix veut rapatrier pour sa base d’abonnés…

 

M. : Netflix fait du doublage ? Je croyais qu’elle ne s’occupait que de sous-titrage…

N. S. : Non, Netflix fait faire, mais la plate-forme certifie ses fournisseurs. Son programme de certification s’applique à la postproduction, au doublage, au contrôle de qualité. C’est vrai qu’elle a internalisé le sous-titrage et pas le doublage. Cet autre métier implique des ententes avec les acteurs, il est plus complexe.

Difuze est la première entreprise hors des États-Unis à être certifiée pour le doublage en anglais avec l’accent américain. Notre situation bilingue à Montréal explique que nous ayons accès à un pool anglophone. Nous sommes un centre historique de doublage. Nous sommes, en outre, certifiés iTunes pour tout ce qui est encodage. Plus globalement, les grands studios américains, tel Disney, préfèrent traiter leurs contenus ici en raison de nos critères de sécurité. Notre infrastructure, notre personnel, nos services supportent ces projets. Nous avons une envergure certaine.

 

M. : L’ensemble de vos activités représente quel chiffre d’affaires ?

N.S. : Entre 0 et 50 millions d’euros…

 

M. : Sur un plan global, quel est l’état du marché au Canada ?

N.S. : Il est en pleine transformation, comme partout ailleurs. C’est certain que le marché local souffre de la montée des plates-formes type Netflix. Il existe d’ailleurs des versions canadiennes de ces plates-formes. Crave (qui appartient à Bell Media) et Illico (Québécor), sont de grands acteurs média au Canada. Radio Canada détient son propre service de visionnement streaming par abonnement. Les chaînes traditionnelles, qui font partie de notre clientèle, en souffrent ; les producteurs qui dépendent des chaînes traditionnelles en souffrent également, et eux sont aussi clients chez nous.

Il est donc certain qu’un côté du marché est affecté, et nous affecte par ricochet. Mais la mondialisation présente aussi un côté positif : davantage de projets étrangers sur le marché, plus de demandes pour de l’adaptation de contenu du français vers l’anglais et d’autres langues. On perçoit une effervescence à ce niveau, et grâce à notre offre de services, en termes de distribution, nous en sommes bénéficiaires. De même en postproduction, avec nos projets à dimension internationale.

En conclusion, nous bénéficions de la mondialisation, tout autant que nous en souffrons par l’entremise de nos clients. On le ressent ici avec nombre de consolidations au niveau des producteurs qui se vendent, s’agglomèrent à d’autres groupes. Mais le marché de la production au Québec est tout de même assez tourné vers soi-même. Nos plus grands groupes de production ne sont pas très gros à l’échelle mondiale…

 

M. : Qu’en est-il de la partie tournage, des studios ?

N.S. : Montréal est un marché un peu particulier que j’appellerai un « Tier 2 », si je peux me permettre l’anglicisme. Un marché comme Toronto, Vancouver, Los Angeles sont des « Tier 1 », énormément de productions américaines surtout, qui se font dans ces marchés-là. Quelque 80 % de la production faite à Vancouver vont directement à Los Angeles. Et avec les crédits d’impôt, l’infrastructure sur place très accueillante, le fuseau horaire… c’est merveilleux !

La ville de Toronto, de par sa taille, a toujours été le hub pour la production locale canadienne, puis américaine ; elle est devenue un centre très important, où se créent énormément de productions. Netflix vient d’ailleurs de s’installer à demeure. La plate-forme a, en outre, réservé un ensemble de studios pour très longtemps, elle a sept/huit productions qui roulent en ce moment à Toronto, sept/huit séries ou films.

En comparaison, à Montréal, un seul film de Netflix se fait en ce moment… Montréal, c’est loin, c’est d’abord francophone, il fait froid… Notre saison de tournage est courte comparée à Vancouver, voire Toronto ; nous ne disposons pas de la même infrastructure en matière de studios. Deux grands groupes ont des studios ici, mais à Toronto ils sont peut-être cinq, à Vancouver même chose. Ce qui explique que Montréal soit un peu considéré comme un deuxième choix. Toronto et Vancouver sont pleins ? Allons à Montréal. Si j’ai de la place à Toronto, je reste à Toronto.

 

M. : Vous n’avez pas de business avec New York ?

N. S. : Non, dans le marché « Tier 2 », la Géorgie (américaine), la Louisiane, le Nouveau Mexique, les pays de l’Est… fonctionnent extrêmement bien. Il arrive que des projets hésitent entre tourner à Montréal, Budapest, Roumanie… C’est sur ce point qu’on se bat, un peu contre Toronto aussi, mais il est rare qu’un Américain se demande s’il va tourner à Montréal ou à Toronto. La question se pose davantage entre « Je tourne à L.A. ou à Vancouver ? L.A. ou Toronto ? L.A. ou Londres ? », mais pas « Je tourne à L.A. ou à Montréal ? »…

 

M. : Le crédit d’impôts existe-t-il ici ?

N.S. : Oui, il est même très généreux et se compare favorablement aux autres provinces canadiennes, voire aux autres États. Il y a un crédit d’impôt sur la production étrangère, une bonification d’impôt pour le volet effets visuels, tout ce qui est green screen, effets visuels animation. Montréal tire bien son épingle du jeu en matière d’animation et d’effets visuels. Énormément de sociétés œuvrant dans ce secteur se sont implantées ici au cours de ces dernières années, tous les grands noms.

 

M. : Et en postprod, de combien de salles disposez-vous ?

Elizabeth Pélissier : En termes de salles, nous avons des salles off line mais où l’on peut faire de la finition, on a deux salles de montage finition en Flame (Autodesk). Nous disposons d’une salle Clipster (Rohde & Schwarz) pour tout ce qui est création des DCP ou autres distributions dans les salles de cinéma. S’ajoutent à cela quatre salles d’étalonnage, nous travaillons beaucoup en Baselight (Filmlight), mais certaines salles sont en DaVinci Resolve (Blackmagic Design). Je vous donne tous ces chiffres, mais comme nous sommes tous sur KVM, toutes les salles sont en vérité interchangeables.

Tout se passe en fonction du client, quelle pièce il préfère, mais en étalonnage ce qui est très important en postproduction image, on va vraiment venir décider si c’est un film, une série TV, est-ce que c’est un workflow HDR, un workflow SDR. On va aller dans un auditorium cinéma, dans une salle de type série TV. Nous disposons de salles multimédias qui nous permettent la numérisation et la création de livrables, d’une régie et d’un gros « data center ».

Auparavant, nous étions cinq départements à Montréal : la post sonore, la post image, le off line, le doublage… Quand nous avons pris le parti de tout consolider en une seule unité, nous avons collaboré avec les studios américains et notre département d’ingénierie pour définir nos pratiques et nos procédures de travail, de manière à être le plus sécuritaire possible. Nous avons tout uniformisé en nous basant sur les nombreuses règles de la MPAA (Motion Picture Association of America). Par exemple, tous les ordinateurs, tout le stockage est centralisé dans le « data center ». Nous distribuons partout dans le monde des centaines de fichiers. Puis, bien sûr, nous louons aussi des salles off line. Des producteurs, monteurs nous louent des salles, nous leur aménageons un petit cocon de création !

 

M. : Vous travaillez aussi sur les tournages et faites la gestion des rushes sur ces tournages ?

E.P. : Oui, nous traitons le matériel de tournage dans nos installations afin d’étalonner au besoin, etc. Les équipes qui travaillent sur les tournages réalisés à Montréal, nous apportent le matériel pour que Difuze travaille sur la gestion des « rushes ». La saison de tournage commence à battre son plein avec le retour du beau temps, même si on a eu un printemps tardif. Actuellement, nous sommes amenés à travailler sur la plupart des tournages étrangers : une série de Fox qui commence, une série d’Universal… Nous sommes particulièrement actifs !

 

M. : J’imagine que vous utilisez aussi le cloud, comment les clients ressentent-ils l’utilisation du cloud dans tout ce qui est échange. Est-ce bien entré dans leur esprit ?

N. S. : Cela dépend du secteur d’activité. Dans notre segment livraison de contenu, là où on gère des catalogues pour nos clients pour ensuite les livrer à leurs clients à eux, les plates-formes, l’utilisation du cloud est bien perçue. Des questionnements persistent au niveau de la sécurité, mais nous nous sommes assurés de travailler avec des partenaires solides, très réputés. Nous respectons les paramètres, les balises recommandées par MPAA. Ce qui explique, qu’au final, nous soyons capables d’avoir une offre de gestion de contenu dans le cloud qui rencontre les attentes : sécurisée, très réactive, rapide. Je dirais qu’au niveau de la gestion des librairies, c’est quelque chose qui est de plus en plus accepté. Au niveau du doublage, le cloud plaît moins, parce que le contenu ne reste pas longtemps chez nous, on est surtout dans l’audio, les poids ne sont pas les mêmes.

E. P. : En postproduction, on n’en est pas là encore, c’est vraiment plus en distribution ! En postproduction, avec toutes les règles de sécurité, le client veut du stockage physique, ne pas donner accès à Internet, mais surtout c’est du stockage qu’on peut partitionner. C’est vraiment ce que les studios américains nous demandent, ce n’est pas du stockage accessible sur le cloud, mais des stockages locaux pour la performance quand on travaille en 4K.

N. S. : Dans le cas de la distribution, on travaille avec des produits finis qui, en règle générale, ont déjà été diffusés. La préoccupation vis-à-vis de la sécurité est moindre que quand on traite du contenu qui est loin d’être fini. Par ailleurs, le poids des fichiers n’est pas le même. Gérer une librairie de masters, ce n’est pas comme faire du rendering sur des contenus qui ont été tournés en 4K, 16K, 8K. En vérité, nous n’avons pas encore envisagé la création vers le cloud pour des raisons de sécurité, de coût et de temps de réaction.

On utilise une solution cloud pour le visionnement des rushes de tournage, mais là ce sont des proxys, le poids n’est pas le même. Pour nos clients, c’est très pratique et pas trop coûteux. Mais de là à travailler en production « cloud based »… Encore une fois, nous n’en sommes pas là ! Peut-être qu’on y arrivera un jour, mais ce n’est pas prioritaire à court terme.

En distribution par contre, le cloud se travaille bien. Nous disposons de nos propres systèmes de gestion d’actifs que Technicolor a développés, mais que nous avons obtenus dans le cadre de la transaction qui a mené à la création de Difuze. Nous avons aussi une interface client initialement développée par Technicolor, mais complètement refaite par nos soins depuis. Cela permet à nos clients d’avoir accès au catalogue et de passer des commandes pour se faire livrer, partager des lignes visionnement sécurisées. L’application, le contenu qui est hébergé, tout est dans le cloud. Une partie de notre système de gestion d’actifs est aussi hébergée, l’application même de gestion d’actifs est hébergée dans le cloud. Et nous commençons à regarder des process d’encodage, de gestion de contenu qui pourraient être faits aussi dans le cloud.

En ce moment, tout est fait ici, localement. On restaure, on fait revenir le contenu du cloud pour le travailler localement, puis on le remet. Nous envisageons que, à terme, nous pourrons avoir toute la chaîne de production pour ce qui est du traitement du contenu une fois qu’il est fini. On peut envisager une chaîne assez cloud based, de bout en bout. Ça oui !

 

M. : Avez-vous des projets de développement, de nouvelles activités, d’acquisitions dans les prochains mois ?

N. S. : Cela ne fait pas longtemps que nous existons… pour le moment nous en sommes à digérer nos trois acquisitions ! Nous nous concentrons sur la bonne mise en place de notre entité, cherchons à finir notre intégration, à servir nos clients. Nous sommes très heureux que tous nos clients nous aient suivis dans cette aventure ; on n’en a pas perdu, on en a même gagné ! Je pense que cela témoigne de la pertinence du projet et de la qualité de l’équipe en place, de l’infrastructure.

Nous avions quelques craintes. Nous nous disions : « Ils ont l’habitude de Technicolor, une grande marque, alors… ». À l’inverse, de plus petits clients habitués, eux, à l’approche boutique des deux autres entreprises acquises, auraient pu se dire : « On se retrouve dans un grand groupe, alors… ». Pas du tout, les uns et les autres sont heureux ! Vraiment, c’est un bel accomplissement, la confiance des clients s’est maintenue.

À terme, il est certain que nous allons vouloir poursuivre notre croissance, on n’a pas démarré ce projet pour s’arrêter en si bon chemin ! Avec la mondialisation, le marché, il existe vraiment une opportunité de consolider les activités dans lesquelles nous sommes. Ultimement, nous visons à devenir le numéro 1 au Canada, on devrait par conséquent poursuivre notre croissance. Comment ? Dans quels secteurs ? Nous n’avons pas encore statué.

 

NDLR : Depuis l’entretien, Difuze a procédé à l’acquisition de The Media Concierge, une société de services de gestion de contenus basée à Toronto. Difuze est en bonne voie de devenir le numéro 1 canadien !

 

Article paru pour la première fois dans Mediakwest #34, p.32/35. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 1 janvier 2020 à 13:33

Plein les yeux avec Paradex ! (Web TV Stéphane Couchoud)

Paradex, le concept décapant qui réinvente l’image ! (Web TV Stéphane Couchoud) © DR

Après un premier épisode de Paradex réalisé à Bora Bora et dévoilé en janvier 2018, Paradex 2, tourné en Chine, a été publié sur Youtube en octobre dernier... Stéphane Couchoud, initiateur du concept et réalisateur, est venu présenter les coulisses de fabrication de cet ovni audiovisuel lors d’une keynote sur le salon Satis.  Il a prolongé son intervention sur le plateau de notre Web TV  et nous a présenté sa démarche…

 

« L’urbex est de l’exploration urbaine. Moi j’ai créé le concept paradex pour la paradise exploration. Le but est de parcourir les lieux les plus paradisiaques et atypiques autour de la planète, d’en faire un condensé d’images en une dizaine de jours et  de faire un montage dynamique destiné à YouTube avec les moyens que nous avons, une très petite équipe. Le tout est d’essayer de faire des choses nouvelles à chaque fois ...Une plage paradisiaque, un lieu atypique, un lieu dangereux… L’idée est de mettre en avant à chaque fois une marque de caméra. Ici en l’occurrence, nous avons utilisé la FS5 et FS5 Mark II de Sony. »

 

Paradex 2 cumule plus de 182 400 vues sur Youtube et la chaîne compte 199 000 abonnés... 

« La communauté de vidéastes grandit de jour en jour. En France, il y a beaucoup de jeunes qui s’investissent dans ce domaine et qui veulent en faire leur métier aussi. Lorsqu’il y a des images qui sortent du lot, c’est vrai que cela fait vite le tour de la toile. La communauté qui suit derrière partage bien et cela créé un effet snowball sur internet ! »

 

Dans la suite de l’interview vidéo, Stéphane Couchoud dévoile les logiciels de postproduction utilisés pour créer ses images hallucinantes ! Paradex 3 sera tourné peut-être en Afrique ou aux Portes de l’Enfer au Turkménistan…

 

 

POUR EN SAVOIR PLUS, DECOUVREZ L’INTEGRALITE DE LA VIDEO !

Vous pouvez également découvrir la keynote de Stéphane Couchoud sur le SATIS ainsi qu'une trentaine d'autres conférences en VOD...

 

 

...Et visionnez ici la vidéo de Paradex 2 qui vaut plus que le détour !

 

  • 18 décembre 2019 à 17:00

Audio Network, tout pour la musique !

Grégoire Boisseau en charge du marketing chez Audio Network et Raphaël Spagnolo, en charge des programmes TV. © Nathalie Klimberg

Audio Network, qui a  cette année soufflé ses 18 bougies, poursuit et développe son activité d’éditeur musical pour l’audiovisuel. « Nous sommes également un label à part entière car nous allons au devant des talents. Nous mettons à disposition de notre plate-forme quelque vingt nouveaux albums chaque mois sur toutes sortes de thématiques », explique Raphaël Spagnolo, en charge des programmes TV.

Un large choix de musiques classiques a également été réorchestré pour une exploitation adaptée au montage (morceaux écourtés, virgules...). Plus de 150 000 titres sont disponibles à l’achat avec des tarifs dépendant bien entendu du type d’exploitation, mais sans limite dans le temps. Les achats peuvent se faire au morceau avec une exploitation universelle (c’est-à-dire pour tout support) pour 295 euros HT ou se négocier au forfait annuel.

France Télévisions, les chaînes RMC ou encore des producteurs de renom (Gédéon, Écrans du monde…) collaborent régulièrement avec Audio Network.

 

Un rachat et de nouvelles perspectives

La société a été rachetée par eOne, un groupe canadien d’ampleur qui couvre la production, la distribution et l’édition musicale. La structure d’entertainment dispose de quelque 80 000 heures de programmes à son catalogue.

« Nous souhaitons communiquer davantage, mais surtout être en contact direct avec les réalisateurs, les producteurs et les diffuseurs. C’est la raison pour laquelle nous considérons que notre présence sur le Sunny Side est très importante », poursuit Grégoire Boisseau en charge du marketing chez Audio Network.

Les deux représentants du label musical audiovisuel mettent en avant la facilité d’utilisation de leur interface de téléchargement, mais également l’intégration directe de l’ensemble de la librairie de titres au sein même du logiciel de postproduction Adobe Premier. Pour cela, il suffit d’implémenter un plug-in dédié.

 

Extrait de l’article paru pour la première fois dans Mediakwest #33, p.96/100. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 16 décembre 2019 à 17:00

Polyson présente son nouvel auditorium Atmos

Vue d’ensemble du nouvel Audi 11 de Polyson : Un volume assez proche d’une salle de ciné, un écran cinémascope, un monitoring Atmos constitué de quarante enceintes DK Audio et une surface de contrôle Avid S6. © DR

Historiquement basée à Montreuil, Polyson s’est ensuite déployée dans le vingtième arrondissement, rue de Bagnolet, puis 200 mètres plus loin, dans deux bâtiments situés au 2 et au 11 villa Riberolle. C’est précisément à cette adresse qu’a été créé l’Audi 11, un auditorium de mixage cinéma de grande taille équipé en Dolby Atmos…

 

Initialement spécialiste du son pour le cinéma, Polyson a progressivement évolué vers le statut de fournisseur de service global de postproduction. La partie labo représente ainsi 30 % de l’activité environ, soit une bonne dizaine de longs-métrages par an, contre 50 à 60 films pour la partie audio. Le prestataire dispose également d’une vingtaine de salles de montage destinées à parts égales pour l’image et le son et d’une salle d’étalonnage cinéma, tandis que deux salles dédiées à la gestion des rushes, aux sauvegardes et à la fabrication des éléments livrables complètent l’offre. L’ensemble est architecturé autour d’un stockage centralisé (360 To en ligne et 800 To pour la sauvegarde NAS) et d’une liaison fibre noire déployée entre les bâtiments. C’est dans ce contexte que Polyson a choisi d’étoffer son offre avec ce nouvel Audi 11 qui porte à cinq le nombre d’auditoriums de mixage…

 

Un volume proche d’une salle de ciné

Dans un volume généreux de 700 m3, assez proche d’une salle de ciné, l’équipe technique nous accueille dans ce nouvel auditorium dont l’acoustique est signée Olivier Guillaume, un ingénieur du son passé par Polyson, également acousticien à ses heures.

« Polyson a toujours eu une culture de l’écoute et a su rester attentive aux attentes », estime le jeune ingénieur du son free-lance : « En tant que mixeur, je suis bien placé pour comprendre l’importance de toutes ces remarques et j’ai essayé de les traduire dans le domaine acoustique. La première demande portant sur l’homogénéité de l’écoute, j’ai donc travaillé l’acoustique de façon à ce que l’on entende la même chose d’un bout à l’autre de la console, mais aussi derrière, sur le canapé. »

Commence alors une étude soignée pour déterminer la forme idéale de l’auditorium effectuée d’abord avec le concours d’une maquette réelle à l’échelle ¼, puis à l’aide de modélisation logicielle. Il en résulte que les murs doivent être implantés de sorte que la zone avant où se trouve l’écran soit plus large que la zone arrière. Une autre demande des mixeurs portait sur l’envie d’avoir une salle dotée d’un volume comparable à une salle de cinéma.

« Ici, on retrouve une taille d’écran, un recul et un volume que l’on n’a pas dans un auditorium plus petit, et ce faible écart entre l’auditorium et la salle permet au mixeur d’être juste plus facilement, de façon à optimiser le passage du mix entre l’audi et la salle de cinéma. »

 

Avid S6 et monitoring DK Audio

L’œil est immédiatement attiré par la zone mixage où trône une surface de contrôle Avid S6 en version 56 faders et neuf encodeurs par voie configurable en mode double poste. L’ensemble est motorisé par trois Pro Tools HDX3, soit 768 pistes audio et 192 entrées/sorties disponibles par Pro Tools. Ne serait-ce pas un peu surdimensionné ? « Pas tant que ça », répondent en chœur les membres de l’équipe, sachant que le Dolby Atmos, avec ses 128 canaux de sortie vers le RMU, peut rapidement se montrer gourmand en ressources. Les interfaces audio sont des Avid HD Madi, et HD I/O afin notamment de pouvoir accueillir des processeurs analogiques que certains mixeurs aiment insérer dans Pro Tools.

« Certaines personnes appartenant à la vieille école ne comprennent pas que l’on ait créé un grand studio en y mettant une S6 dedans ! » lance Nicolas Naegelen, directeur des lieux. « Mon raisonnement était plutôt : installons une S6, et créons autour une boîte afin d’obtenir le plus grand volume possible. Penser qu’un audi haut de gamme doit forcément comporter une console audio est dépassé et devient coûteux. En plus, le fait de reprendre une solution standard devient un atout intéressant pour attirer la clientèle internationale. Les sessions peuvent ainsi facilement traverser l’Atlantique et il devient plus facile d’attirer un mixeur américain chez nous s’il sait qu’il va retrouver l’équipement dont il a l’habitude. »

Le monitoring Dolby Atmos conçu par François Decruck est composé de 40 enceintes passives DK Audio associées à une amplification Ashly. Les enceintes du constructeur français équipent déjà un total de 810 écrans en France dans les réseaux CGR et UGC, mais aussi les festivals de Cannes et de Deauville…

Notre interlocuteur explique ce choix : « On a eu envie de rester proche de l’enceinte de ciné traditionnelle équipée d’un haut-parleur grand diamètre 38 cm et d’une chambre de compression pour l’aigu afin de garder une certaine cohérence avec l’équipement que l’on trouve dans les salles de cinéma. Or, il se trouve que François Decruck développe ce type de produit avec une approche très qualitative et en plus, c’est quelqu’un avec qui on peut échanger et avec qui nous avons une proximité que nous ne pouvons établir avec les constructeurs américains par exemple… ». La gestion du monitoring et la conversion sont assurées par un Dad AX32 qui, grâce à sa grille, permet de basculer très rapidement de l’Atmos au 5.1 et au 7.1 en adaptant parfaitement la calibration.

 

N’oublions pas l’image

Dernière étape après l’étalonnage, le passage en auditorium de mix était il y a encore peu une étape difficile pour le réalisateur confronté à la projection de son film en basse qualité sur grand écran : « Nous sommes heureusement sortis depuis quelque temps de ces années noires qui ont suivi l’abandon de la pellicule où l’image offline était alors uniquement disponible en SD avec une qualité très dégradée, constate Nicolas Naegelen. Aujourd’hui, le Offline a progressé et grâce à la qualité de l’éclairage et de la projection assurée par un vidéoprojecteur Christie 2K CP2215 identique à celui que nous avons en salle d’étalonnage, les réalisateurs apprécient de retrouver un rendu comparable. »

L’équipe technique nous détaille alors le soin apporté à la partie image, à commencer par le système d’éclairage dont la gestion est assurée par un contrôleur DMX qui offre une souplesse de commande comparable à celle d’une salle de spectacle. D’autre part, la luminosité sur la console est plutôt confortable, sans que cela ne semble troubler la partie projection. Renseignements pris, la majeure partie des sources lumineuses viennent du plafond et sont alimentées en fibre optique, ce qui permet d’avoir un éclairage puissant et bien focalisé sur la partie console sans pour autant faire passer de courant, donc sans risque de polluer les câbles des haut-parleurs. Assis sur le canapé, on remarque également que l’écran au format cinémascope reste visible en entier sans qu’aucun moniteur informatique ne viennent gêner la vision, un confort obtenu en surélevant le canapé sur une estrade, qui est d’ailleurs utilisée comme un absorbant de type basstrap grâce à sa conception ouverte…

 

L’auditorium grand volume en question

Déjà doté de quatre auditoriums, Polyson s’adresse visiblement, avec ce nouvel Audi 11, à un marché plus haut de gamme : « Effectivement, nous avons démarré notre activité en proposant des audis plus compacts, et cette approche nous a valu un franc succès, analyse Nicolas Naegelen. Nous avons ainsi pu nous développer jusqu’à un certain point, mais on s’est rendu compte que, malgré tout, l’auditorium de grand volume garde du sens, et que ne pas le proposer nous empêchait d’accéder à un marché plus haut de gamme. Ce qui est amusant, c’est que certains de nos confrères en découpant les très gros audis pour faire des petits dedans adoptent actuellement l’option l’inverse. Personnellement, je crois qu’il y aura toujours un marché de mixage cinéma pour des auditoriums de grande taille. Dans ce contexte, l’Atmos se justifie, car quitte à faire une nouvelle installation, autant la faire directement avec les nouvelles technos, la mise à jour a posteriori serait plus coûteuse. D’autre part, je crois au dispositif Atmos, mais pas uniquement pour son aspect 3D. Effectivement, Dolby, en proposant l’Atmos, en a profité pour revoir à la hausse le cahier des charges de la reproduction sonore dans les salles de cinéma et c’est pour moi un progrès universel. Sachant qu’un exploitant change son équipement tous les vingt ans, et en tenant compte des créations de salles, le parc se met à jour lentement mais sûrement.

Après, il y a effectivement encore une grande frilosité de la production française vis-à-vis de l’Atmos en tant que dispositif esthétique, mais il ne faut pas oublier la présence sur le marché français de films étrangers plus nombreux à utiliser l’Atmos, et que nous voudrions bien attirer chez nous, sachant qu’il y a des dispositifs incitatifs comme le crédit d’impôt international pour localiser une partie du marché international. Le fait que la France soit reconnue à l’international pour la qualité de son industrie technique et son savoir-faire en matière de VFX est également un autre atout qui joue en faveur des studios de grande taille équipés Atmos, car qui dit VFX dit souvent film à grand spectacle et mixage Atmos… ».

 

Un marché en évolution

Depuis son ouverture en mars dernier, l’Audi 11 a recueilli des retours très positifs, notamment de mixeurs qui apprécient l’endroit. Il a déjà vu le mixage de six longs-métrages parmi lesquels Le Portrait de la jeune fille en feu de Céline Sciamma, La Belle Équipe de Mohamed Hamidi et Adults in the room de Costa Gavras, tous trois mixés par Daniel Sobrino, ou encore Deux moi de Cédric Klapisch mixé par Cyril Holtz et #Jesuislà d’Éric Lartigau mixé par Olivier Do Huu.

Mais au-delà de l’activité purement cinéma, d’autres demandes émergent, confirme Nicolas Naegelen : « Notre activité est historiquement liée au cinéma, mais depuis trois ans, le marché change et les productions spécialisées dans le cinéma s’intéressent à la série. Comme nos clients historiques nous sollicitent, nous nous adaptons à ces nouveaux besoins. Nous avons par exemple l’idée de créer un deuxième audi de petite taille équivalent au premier pour pouvoir mixer en parallèle deux épisodes de la même série et réduire ainsi les délais… ».

En tout cas, entre les demandes initiées par de nouveaux acteurs tels que Netflix ou Amazon, l’émergence de l’Atmos qui arrive en télévision et même sur les smartphones, la nécessité d’adaptation est permanente et les projets ne manquent pas… 

 

 

DE L’ATELIER À L’AUDITORIUM

Le bâtiment initial, un atelier spécialisé dans l’usinage de pièces plastique et bakélite, étant suffisamment volumineux, l’empreinte originale a été gardée afin d’y reconstruire une double boîte dans la boîte.

Olivier Guillaume apporte quelques précisions : « Au sol, nous avons une dalle flottante en béton d’une trentaine de centimètres, mais ce qui est moins fréquent, ce sont les murs, construits également en béton. D’habitude, on trouve souvent des structures plus légères, type placo, mais ici, comme nous n’avions pas de contrainte de poids, nous avons choisi le béton car même s’il n’absorbe rien et demande plus de traitement, il apporte en revanche une bonne isolation. »

Nicolas Naegelen ajoute : « La rigidité des parois n’engendre aucune vibration ni comportement aléatoire non prévisible. C’est ce qui fait que le résultat obtenu dans cet audi est vraiment conforme à la modélisation. »

 

INGÉNIERIE MAISON

De l’étude acoustique au câblage en passant par la conception des aménagements, Polyson fait partie des structures relativement autonomes en matière d’ingénierie, nous expliquera en substance David Fontaine, directeur de Vidélio-Cap Ciné, qui revient sur l’installation de ce qui fut pour son département, la trente-sixième Avid S6.

« La préparation du montage de la surface contrôle s’effectue toujours en amont, dans nos locaux, car il faut savoir qu’une S6 à la livraison représente trois palettes de matériel. On se retrouve donc au déballage avec une multitude de cartons de la taille d’une boîte à chaussure contenant l’ensemble des éléments qu’il faut vérifier et enregistrer avant l’assemblage final sur site. Cette partie de meccano peut prendre plusieurs jours, sachant qu’il faut éventuellement procéder aux mises à jour du firmware de chaque élément… ».

 

Article paru pour la première fois dans Mediakwest #34, p.36/37. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 8 décembre 2019 à 16:00

Audiopole devient distributeur Ferrofish

Audiopole devient distributeur Ferrofish

La société allemande Ferrofish est constituée d’une petite équipe de développeurs, ingénieurs et musiciens qui se dédie à la création de produits innovants pour l’audio professionnel avec des convertisseurs Dante et des convertisseurs/routeurs Madi-analogique-Dante-Adat.

 

Le Ferrofish A32 Dante représente notamment un couteau suisse de la conversion audio avec une ergonomie particulièrement ingénieuse… Ce convertisseur, qui peut gérer jusqu’à 32 canaux analogiques et qui possède une grille de 192 x 192, dispose de quatre afficheurs haute définition TFT pour visualiser au choix bargraphs, grille XY, ou les états des entrées/sorties numériques. Son routeur intégré convertit les formats analogiques, Madi, Adat et Dante/AES67. Des presets permettent de rappeler rapidement une configuration et d’utiliser, entre autres, l’A32 comme grille de secours d’autant plus qu’une alimentation redondée est disponible en option.

Avec ses convertisseurs Cirrus Logic 24 bits 192 kHz et un DSP Sharc en interne, la qualité sera au rendez-vous.

  • 3 décembre 2019 à 16:48

Frame.io simplifie la validation des vidéos

Les vieilles méthodes de validation des vidéos et Frame.io. © DR

Nous sommes pleinement dans l’ère de la dématérialisation, la cassette étant un lointain souvenir. Nous profitons donc naturellement des outils d’Internet pour collaborer avec les différents membres d’une équipe de production, ou avec les clients d’un projet institutionnel. Frame io « ringardise » à son tour ces outils « de l’ancien monde numérique ».

 

Aujourd’hui, pour de nombreuses productions, une fois le film finalisé (ou dans une phase avancée), celui-ci est exporté et chargé sur un service de stockage cloud. Un mail est envoyé aux différents intervenants du processus de validation. Les commentaires viendront en réponse. Et les difficultés commencent ! Comment centraliser les remarques en s’assurant qu’elles parviennent aux destinataires ? Comment être précis dans la description des modifications à effectuer ? Comment gérer les différentes versions du film ? Bref, comment rester « zen » dans cette étape cruciale, consommatrice de temps et humainement délicate du travail ? Hébergée dans le cloud, Frame.io solutionne l’étape de validation avec élégance, et propose des outils complémentaires, adaptés au travail collaboratif.

Frame.io se donne pour objectif de donner du pouvoir à la créativité en fluidifiant l’organisation et la collaboration des productions. Les films et les médias originaux (rushes) sont téléchargeables sur le site de Frame.io, accessible uniquement aux utilisateurs disposant des droits nécessaires définis par les responsables de l’équipe.

 

Frame.io, le HUB de validation

Une fois adopté, Frame.io devient le centre de travail collaboratif des productions. Aussitôt les vidéos chargées sur le site, tous les processus itératifs de validation y sont centralisés ; avec, à la clé, un gain de temps important. Une offre entreprise permet de planifier des purges de médias avec une suppression soft, permettant de les récupérer 30 jours après la date définie pour la purge.

 

Sécurité et paramétrages

Il est possible de gérer la sécurité des comptes et des utilisateurs. Les ressources également peuvent être administrées (allocations, limites des espaces de stockages, nombre de comptes). Frame.io est fier de ses certifications (TPN et SOC 2 Type 2) et affirme investir continuellement dans la sécurité. La marque vante les mérites de sa solution en assurant un chargement sécurisé et fiable, même via les pires connexions wi-fi des « coffee shops ».

 

 

Liens directs avec les stations de montage

En étroite collaboration avec les éditeurs principaux de solutions de montage et de postproduction, Frame.io propose des solutions plus ou moins directement intégrées à Final Cut Pro X (Apple), Premiere Pro (Adobe), DaVinci Resolve (BlackMagic) et propose une solution pour récupérer les remarques des intervenants sur la station de montage pour Avid Media Composer.

• Apple Final Cut Pro X

Après installation d’une application « compagnon » (companion app) téléchargeable sur le site de Frame.io, une icône est intégrée à l’interface de Final Cut Pro X, permettant l’ouverture d’une fenêtre externe, ainsi qu’une option d’export direct vers Frame.io. Après connexion, l’utilisateur accède aux projets hébergés sur les espaces de stockage gérés par Frame.io. Il peut explorer les différents médias et les importer dans ses « événements » au codec natif ou dans un des formats basse résolution nativement préparés pour les différents players. Il peut également visualiser les films accompagnés de leurs annotations en synchronisant la lecture de la timeline Final Cut Pro X à celle du player Frame.io.

Dans le sens inverse, pour envoyer des clips depuis Final Cut Pro X vers Frame.io, il suffit de les « glisser-déposer » depuis un événement de Final Cut Pro X vers l’interface de Frame.io. Le partage d’un projet Final Cut Pro X (une timeline dans le vocabulaire d’Apple) se fait via un simple clic droit, le choix étant alors proposé d’exporter la timeline aplatie, chaque clip de cette dernière, ou les deux. Les annotations des validateurs (à ne pas confondre avec les liquidateurs) peuvent être importées dans la timeline au moyen de plans composés. Les auteurs des commentaires deviennent des rôles, ce qui permet de cibler les travaux à effectuer en priorité (selon la hiérarchie des intervenants).

 

• Intégration avec Adobe Premiere Pro et After Effects

Elle prend la forme d’un panel (interface panel) totalement intégré à l’interface du logiciel de montage. Il permet le téléchargement des médias dans les chutiers de Premiere Pro ou le navigateur d’After Effects et la lecture des films qui ont été exportés depuis les outils d’Adobe. L’export vers Frame.io se fait directement depuis le panel Frame.io, avec le choix des codecs d’export, et des options telles que la prise en compte des remarques associées à des marqueurs et l’autoversioning des films pendant l’avancée du projet. La lecture des films depuis Frame.io, après qu’ils aient été annotés, et la tête de lecture de la timeline d’origine sont synchronisées pour permettre une intervention efficace du monteur.

Les séquences peuvent être envoyées vers Frame.io et encodées avec tous les presets media encoder, presets personnalisés inclus. Les indications ajoutées via des marqueurs dans Premiere Pro sont automatiquement converties en commentaires Frame.io et accessibles via le player de l’application web ou de l’app iPhone. Des membres de l’équipe et des collaborateurs peuvent être ajoutés et gérés depuis la fenêtre Frame.io. Le panel Frame.io constitue un véritable chutier « dans le cloud » à partir duquel plusieurs éditeurs peuvent travailler.

 

• DaVinci Resolve

Avec la dernière version du logiciel de BlackMagic, l’opus 16 de DaVinci Resolve, l’intégration de Frame.io est native dans la version studio du logiciel. Elle a bénéficié du nouvel API Frame.io désormais public. Les « préférences » de DaVinci permettent de renseigner les coordonnées du compte Frame.io de l’utilisateur. La structure cloud de l’utilisateur, son « workspace » complet, est alors disponible depuis la page média dans l’emplacement « espaces de stockage ».

On peut alors importer les médias depuis Frame.io vers le projet DaVinci actif, ces derniers étant directement exploitables en proxy, la bascule sur les médias natifs étant automatique et invisible pour l’utilisateur, une fois le téléchargement effectué. Tous les comptes et projets, toutes les équipes et tous les dossiers de Frame.io sont directement accessibles.

Le moment venu, la première version du film est exportée par le monteur vers Frame.io.

Les membres de l’équipe (« team members ») peuvent alors y accéder. La production peut également envoyer des liens d’accès « présentation » ou « review » destinés à des personnes externes à l’équipe.

Les membres de l’équipe, les collaborateurs et les destinataires de liens review, pourront ajouter des commentaires et des demandes de modifications, associés à des images précisément repérées dans le temps (au timecode) et intégrant des textes, et des dessins si besoin pour préciser les interventions à effectuer sur les plans.

Les visionnages peuvent se faire sur le site de Frame.io ou via l’application iOS (iPhone ou iPad). Le monteur reçoit en temps réel les annotations, dessins compris, sous forme de marqueurs positionnés à l’image près dans la timeline. Il peut également ajouter ses propres remarques, grâce à un marqueur dédié à Frame.io, les collaborateurs les observant en temps réel sur leurs players. Les nouveaux exports générés après les modifications sont automatiquement stockés et numérotés dans une pile de versions accessible en haut à droite des icônes représentant les films dans le « chutier » Frame.io. Il est alors facile de visionner les modifications et de les comparer entre elles avec la vue de comparaison prévue pour cela.

 

• Avid Media Composer

Avec Avid Media Composer, l’intégration est plus restreinte. Le monteur prépare manuellement son export avant de le déposer manuellement sur Frame.io. Il peut éventuellement pour cela utiliser des dossiers de surveillance (lire plus loin).

Après visionnage, les collaborateurs préparent leurs annotations ; elles seront exportées depuis Frame.io sous la forme d’un fichier xml avant d’être importées dans Media Composer via la fenêtre dédiée aux marqueurs et être finalement visibles dans la timeline, les annotations s’inscrivant dans le visualiseur.

 

 

Allez vous coucher, Frame.io s’occupe de tout

Avec l’application gratuite de Watch Folder (dossier surveillé), directement accessible depuis la barre de menu, Frame.io vous assure que l’envoi des médias sera fait, même en cas de coupure de réseau ou en utilisant une connexion wi-fi « douteuse ». C’est la technologie de chargement ci-dessus décrite qui est mise en œuvre dès qu’un média est placé dans un dossier configuré avec l’application. Un dossier « cloud » est créé pour accueillir les médias placés dans le dossier local. Frame.io peut scruter les sous-dossiers des dossiers qu’on lui confie, et conserver (ou non) cette structure.

Le partage de fichier est possible en format compressé, et également aux formats de production Apple Pro Res ou DNxHD. En complément des fichiers vidéo, vous pouvez intégrer des fichiers audio, des images fixes (dont les Raw, CR2 et jpeg) et des PDF (cela permet l’échange de briefs et autres documents créatifs).

 

Utilisation en ligne et player iPhone

En complément de l’intégration aux logiciels de postproduction, les producteurs ou les clients peuvent accéder à Frame.io via une application iPhone très bien notée sur l’appstore (lauréate de l’Apple design award 2016) ou via l’application web. L’utilisation est enfantine : il suffit de créer un compte, sélectionner un plan et créer un projet. Vous pourrez ensuite inviter les membres de votre équipe à collaborer, en choisissant le niveau d’accès et d’intervention que vous leur accordez : doivent-ils recevoir un mail à la mise à jour des projets ? Voulez-vous être alerté lorsqu’ils ajoutent des notes ? peuvent-ils télécharger ou charger du contenu ?

Les films peuvent également être lus côte-à-côte pour comparer les différentes versions et modifications. Même s’ils sont encodés en HTML 5 pour les différents « players », une version non compressée est disponible et téléchargeable. Les personnes en charge de la validation des films peuvent dessiner directement sur les images à modifier pour souligner une perche ou tout élément à modifier. Le player lit plus de 150 formats de fichiers vidéo.

 

Publication sur Vimeo

Vous pouvez profiter de l’accélération des téléchargements de Frame.io pour envoyer directement vos films vers le célèbre hébergeur vidéo apprécié des professionnels.

 

Zapier

Zapier augmente les possibilités de Frame.io, avec un ensemble d’applications (plus de 1 500) permettant par exemple, le lien avec Google Drive ou Google Sheets, l’intégration avec Trello, Slack, Microsoft Excel, Amazon S3, Gmail ou encore Dropbox, pour citer quelques exemples.

 

Et Slack

C’est une plate-forme de travail collaboratif, où se retrouvent les utilisateurs qui partagent, autour de projets communs, des informations, des messages et maintenant des projets Frame.io. Toute l’activité, les annotations, les timecodes, et même les imagettes ainsi que l’ensemble des échanges effectués dans Frame.io, sont accessibles dans Slack, afin de centraliser les outils collaboratifs.

 

Chargement accéléré

La marque reste discrète sur ses secrets de fabrication et annonce une puissance de travail permettant un chargement des fichiers plus rapide que les solutions habituelles : deux fois plus rapide que Signiant, cinq fois plus rapide que Dropbox, Aspera et encore plus comparativement à Vimeo. Pour cela ils découpent les fichiers en morceaux de 20 Mo, avant de les télécharger simultanément par lots de cinq blocs. La rapidité est un avantage fort et la sûreté est également au rendez-vous.

Si une coupure intervient lors du chargement, ce dernier est mis en attente et reprend dès la disponibilité du réseau. Deux très bonnes nouvelles pour tous les monteurs freinés par l’attente d’un chargement important et qui conservent de mauvais souvenirs d’attente devant leur ordinateur de peur que leur chargement s’arrête avant la fin. Frame.io avertit par e-mail les membres de l’équipe lorsque la timeline est rendue et chargée.

 

Qui utilise frame.io ?

Frame.io compte parmi ses clients célèbres d’importantes compagnies telles que Vice, Turner Broadcasting, BuzzFeed et Google. Vice Media produit une grande quantité de contenu quotidien, notamment des news et d’autres produits au timing serré. Le groupe a gagné un temps considérable dans son process de validation qui implique 36 agences à travers le monde et des centaines de comptes Frame.io (400 « team members » et 1 600 collaborateurs externes). L’entreprise a calculé que Frame.io lui a permis le gain d’une centaine de jours de travail.

 

Les team members, les collaborateurs et les différents liens de partage

Les utilisateurs « payants » sont les « team members » et les collaborateurs. Ces derniers pouvant voir et commenter uniquement les projets pour lesquels ils ont reçu une invitation ; ils ne peuvent pas partager de contenu ou ajouter de nouveaux utilisateurs. Les « team members » accèdent à l’ensemble des projets auxquels ils ont étés invités et aux projets publics. Pour envoyer des vidéos à des clients sans compte Frame.io, il est possible de générer des liens de partage (review links) ou des présentations. Le destinataire d’une présentation peut la visionner sans être autorisé à y ajouter de notes. Les liens « review » permettant l’ajout de notes sont accessibles aux utilisateurs externes à l’équipe, mais disposant d’un compte Frame.io.

 

Le coût de cette solution ?

La première option Pro est facturée 19 $/mois pour un « siège » (17 $ avec un engagement annuel).

Pour les équipes, une option trois sièges (version Team) est facturée 49 $/mois et 25 $ par utilisateur supplémentaire (44 $ pour un engagement annuel). La version haut de gamme entreprise donne lieu à devis.

Au sujet du stockage, Frame.io différencie le stockage actif (13 $/mois pour 250 GB de stockage supplémentaire) où sont présents les projets en cours ; et le stockage « archive » (13 $/mois pour 1 TB supplémentaire) à partir duquel on peut rapatrier les projets archivés sous trois à cinq heures.

Les versions Pro et Team incluent 250 GB de stockage actif et 750 GB de stockage archive. Pour la version Enterprise on passe à 1 TB et 1 TB.

Pour les versions Team et Enterprise sont ajoutées des options de personnalisation de l’interface, de commentaires privés, et pour la version entreprise uniquement de gestion de multiples équipes, de purges et de watermarking des médias, et de support dédié.

Les structures désireuses d’adapter la solution à leur workflow et disposant d’une équipe de développement ou travaillant avec des sociétés externes spécialisées peuvent désormais profiter d’une superbe API, celle qui a servi à l’intégration de Frame.io dans DaVinci Resolve.

 

Article paru pour la première fois dans Mediakwest #33, p.34/36. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 24 novembre 2019 à 16:00

Adobe Premiere Pro gagne du terrain… (Web TV Fred Rolland)

Premiere d’Adobe gagne du terrain… (Web TV Fred Rolland) © DR

Premiere, solution phare dans la suite logicielle d’Adobe, propose plusieurs centaines d’implémentations par an. Cette solution logicielle remporte un succès de plus en plus important, notamment dans l’industrie du cinéma. Présent sur le Satis pour une keynote en partenariat avec le media Brut, Fred Rolland, responsable vidéo Europe pour Adobe nous explique les raisons de ce succès grandissant sur la Web TV Satis…

 

« La stratégie d’Adobe, il y a une dizaine d’années, a été de revoir complètement sa solution vidéo et de réécrire complètement Premiere Pro. De là est né un long projet de développement mais aussi par des équipes terrain en proximité directe avec les différents acteurs de l’industrie. L’équipe dont je m’occupe au niveau Europe a pour rôle d’être en relation avec les clients et partenaires stratégiques pour créer du retour et savoir ce que l’industrie a besoin. En développant un produit qui répond aux besoins, les clients utilisent le produit. Ils font confiance à Adope et nous voyons que cette confiance est positive car la base installée augmente énormément. Les enjeux autour de la vidéo sont très importants, ils vont au-delà du marché du film avec l’explosion de la vidéo sur les réseaux sociaux.

Cela a fait appel à des enjeux très forts en terme de qualité vidéo, d’accessibilité à l’outil de montage mais également d’intégration avec des outils graphiques pour pouvoir donner vie à sa vidéo, pouvoir se démarquer et comme beaucoup de personnes qui nous regardent, connaissent le métier historique d’Adobe autour du design pour les clients car leurs enjeux sont autres que de choisir le bon outil, l’enjeu c’est aussi de gagner en création de contenu, produire plus face à cette notion qui est drivée par les réseaux sociaux… »

 

Dans la seconde partie de son interview, Fred Rolland revient sur les annonces d’Adobe MAX 2019 qui se déroulait en même temps que le SATIS et plus particulièrement sur l’annonce de la nouvelle fonctionnalité de reframing automatisée proposée par Adobe Premiere.

 

POUR EN SAVOIR DAVANTAGE… VISIONNEZ L’INTERVIEW VIDEO !

  • 20 novembre 2019 à 17:00

Les fans contrôlent le son avec SupraLive ...

Conçue à l’origine pour les concerts, la solution SupraLive (Augmented Acoustics) s’applique désormais à tout événement live. © Augmented Acoustics

Quel spectateur n’a pas rêvé d’une intimité sonore avec l’événement, qu’il soit musical ou, en l’occurrence, sportif ? Cette expérience immersive est désormais possible grâce à la solution développée sous le nom de SupraLive par Augmented Acoustics, une start-up française qui soufflera en novembre prochain ses cinq bougies.

 

Si, pour l’heure, « SupraLive est un service VIP, réservé notamment aux habitués des loges dans les stades connectés, notre objectif est de l’étendre au plus grand nombre d’utilisateurs, dont les déficients sensoriels », prévient d’emblée Stéphane Dufossé, CEO.

Conçue à l’origine pour les concerts (le service a déjà été exploité sur plus de 125 d’entre eux) afin de permettre aux spectateurs équipés d’un casque et d’une application smartphone d’être au plus près des artistes sur scène grâce à l’interaction multipiste immersive, la solution s’applique désormais à tout événement live.

Ainsi, de la même manière qu’un mélomane peut s’imprégner du jeu de basse en l’écoutant en solo, le spectateur d’un match de foot pourra, en fonction de la disponibilité des sources, éliminer les cris du public adverse, choisir son commentaire, s’il est étranger, ou supporter de l’un des deux camps, voire celui exclusif d’une personnalité pour une expérience premium unique, ou encore entendre les sons du terrain, tels les consignes du banc de touche ou l’intercom des arbitres, pour une meilleure compréhension de l’événement. En résumé, faire son propre mix en temps réel, tout en respectant le travail de l’ingénieur du son.

« Ce que nous proposons, c’est une écoute alternative haute définition en multipiste, sans compression et sans latence. Pour cela, nous utilisons un émetteur C-MA4 qui se connecte à la console de l’ingénieur du son. Ce son “sortie de console” est délivré aux spectateurs via un boîtier contenant l’intelligence du système qui permet de garantir la qualité de service et de corriger la latence en live », détaille Stéphane Dufossé.

Dans le cas d’une retransmission à distance, l’enjeu de latence est différent, mais il en existe un autre : la synchronisation du son multipiste de SupraLive avec le flux vidéo, alors que les deux sources empruntent des canaux distincts. Pour résoudre ce point, « nous utilisons le même principe qu’en live sur le lieu de l’événement. Cela a d’ailleurs fait l’objet d’un dépôt de brevet », se contente de préciser le responsable.

Avec le déploiement prochain de la 5G, la solution va pouvoir s’affranchir du boîtier et Augmented Acoustics proposer le service directement via un téléphone mobile, ce qui va permettre d’étendre son accès au monde entier.

« Aujourd’hui, nous utilisons un boîtier pour qu’il n’y ait pas de décalage entre le son reçu dans le casque de l’utilisateur et le son externe. En live, on ne peut pas se permettre d’attendre que les paquets arrivent. »

Maintenant, poursuit Stéphane Dufossé, « ce qui, pour l’heure, n’est pas possible en wi-fi et 4G sans le boîtier le sera en 5G, grâce au découpage du réseau mobile en tranches (network slicing), qui permettra l’allocation de ressources dédiées pour chaque service, et à la faible latence. »

 

Extrait de l’article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.62/67. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 19 novembre 2019 à 17:00

Les vidéos web de France Médias Monde sous-titrées par la plateforme Eolementhe

Les vidéos web de France Médias Monde sous-titrées par la plateforme Eolementhe © DR

Videomenthe annonce qu’Eolementhe, sa plateforme collaborative de workflow média, a été retenue par France Médias Monde comme solution de sous-titrage multilingue, à l’issue d’une phase de consultation.

 

Le groupe France Médias Monde réunit FRANCE 24, la chaîne d’information continue trilingue; RFI, la radio mondiale; et Monte Carlo Doualiya, la radio en langue arabe. Les trois chaînes émettent depuis Paris à destination des 5 continents, en 14 langues.

France Médias Monde a lancé une consultation pour se doter d’une solution cloud de sous-titrage vidéo, simple et moderne. En effet, le groupe publie sur ses sites web des vidéos courtes (interviews, reportages…) issues de sa production interne, et a comme volonté de faciliter et accélérer le travail des équipes en matière de sous-titrage.

Eolementhe, plateforme collaborative de workflow média, a été retenue par France Médias Monde pour ses fonctionnalités de transcription, traduction et sous-titrage multilingue, mais également pour sa modularité, sa simplicité d’utilisation, et bien entendu son budget.

 

« Avec Eolementhe, nous publions sur le web nos vidéos sous-titrées en plusieurs langues, très rapidement, grâce aux outils automatisés, sans compromis sur la qualité des traductions ! La possibilité de validation humaine, à chaque étape du processus, et en mode collaboratif, est un réel avantage.

Autre point : la disponibilité des équipes Videomenthe, qui nous a notamment permis de travailler ensemble à la personnalisation de la solution », explique Clément Bisset, RFI.

 

Videomenthe a en effet collaboré avec France Médias Monde pour créer un workflow séquentiel répondant au mode de fonctionnement des équipes sur toute la chaîne de production. Des étapes de correction et validation humaines permettent aux différents utilisateurs (journalistes, techniciens, rédacteur en chef…) d’intervenir après chaque étape automatisée (transcription et traductions en plusieurs langues), ce qui garantit fluidité, rapidité et efficacité.

La solution Eolementhe a également été personnalisée : des espaces de travail adaptés à chaque profil ont été créés et un habillage de sous-titres répondant à la charte graphique web de France Médias Monde, a été mis en place.

 

« Nous sommes évidemment ravis d’avoir la confiance de France Médias Monde sur ce projet, passionnant à plus d’un titre. Le contexte « vidéo mobile » tout d’abord, avec la collaboration entre équipes techniques et éditoriales internationales, qui se fait de façon fluide via Eolementhe. Le fait de livrer les contenus vidéo à destination des supports web et réseaux sociaux, ensuite, qui montre la souplesse de la solution en terme de formats. Enfin, l’implication de tous nos interlocuteurs chez France Médias Monde, qui font évoluer la solution de façon très constructive », conclut Muriel le Bellac, Présidente de Videomenthe. 

  • 13 novembre 2019 à 17:13

Avec Resolve, pas de repos pour les zombies en postproduction !

En postproduction, même les zombies ne dorment jamais avec Resolve ! © DR

La société Chimney s’est reposée sur DaVinci Resolve Studio pour faciliter la collaboration en temps réel entre ses bureaux de New York et de Gothenburg dans le cadre de la production des effets visuels du film de The Dead Don’t Die. Cette société internationale de post-production aussi utilisé Fusion Studio, autre solution Black Magic Design...

 

Pour cette comédie de zombies réalisée par Jim Jarmusch, l’équipe de Chimney a produit plus de 300 VFX. Jim Jarmusch et le DP Frederick Elmes étaient à New York et il était indispensable pour les deux équipes de Chimney de collaborer en temps réel afin de prendre en compte la direction artistique du réalisateur et du DP durant la création des VFX.

 

« Ce film représentait le premier projet de Jim aussi riche en VFX et nous voulions qu’il se sente à l’aise durant toute la post production », souligne Sam O’Hare, superviseur des VFX de Chimney.

Chimney a pu compter sur les fonctionnalités collaboratives de DaVinci Resolve Studio pour revoir les séquences EXR en temps réel.

« Il fallait que les équipes de chaque continent puissent regarder les séquences en même temps pour pouvoir en discuter au téléphone. Grâce à DaVinci Resolve Studio, nous avons chargé les séquences EXR de chaque studio dans un projet commun. Nous les diffusions sur un écran en temps réel dans les deux endroits. Alors que Jim et Fred faisaient des commentaires sur les images en direct de New York, Alex Hansson, superviseur des VFX chez Haymaker et Andreas Hylander, créateur de VFX chez Chimney à Gothenburg pouvaient visionner l’image exacte dont ils parlaient », explique O’Hare.

« Comme la plupart des prises avaient été tournées en journée, puis étalonnées afin de donner l’impression qu’elles avaient été filmées de nuit, notre défi était de créer des VFX qui restent clairs et visibles, en dépit de cette ambiance nuit. Les workflows traditionnels avec des LUTs ne fonctionnaient pas, car l’étalonnage comprenait plusieurs masques et incrustations. Comme nous utilisions DaVinci Resolve Studio directement sur les séquences EXR originales, nous pouvions rapidement ajuster l’étalonnage afin de décider s’il fallait refaire le plan VFX ou s’il était possible de le modifier dans l’étalonnage », détaille Hylander.

O’Hare complète : « Grâce à DaVinci Resolve Studio, nous avons pu utiliser les informations colorimétriques de l’étalonnage. Les séquences originales chargées en dessous nous ont aussi permis de facilement comparer les images ce qui était précieux pour ameliorer notre travail. »

Jim Jarmusch a apprécié ce workflow qui facilitait considérablement le processus de finition... « Travailler avec des collaborateurs situés dans des pays différents représente souvent un défi, particulièrement pour des éléments visuels comme les effets. Toutefois, pour The Dead Don’t Die, et grâce à l’utilisation de DaVinci Resolve Studio chez Chimney, nous avons pu échanger des idées immédiatement avec notre équipe en Suède, tout en restant à New York. Cette solution de post production est une petite merveille collaborative ! »

Comme Chimney possède des bureaux dans onze villes dans le monde, la collaboration est aujourd'hui au coeur de tous ses projets. « Une bonne communication ainsi qu'un transfert rapide des données sont essentiels, nous travaillons avec des images non compressées dans tous les sites qui travailllent en synergie », précise O’Hare.

« Nous utilisons souvent la fonction d’étalonnage à distance de DaVinci Resolve Studio pour effectuer des sessions d’étalonnage dans plusieurs endroits, mais c’est la première fois que nous appliquons cette méthode aux VFX », souligne O'Hare. « Pouvoir visionner simultanément toutes les séquences modifiées en pleine résolution, dans deux endroits situés à 6000 km l’un de l’autre était pour nous une véritable révolution. La communication entre le réalisateur, le DP et l’équipe de VFX a été immédiate et parfaite durant toute la post-production Pour une société qui travaille constamment sur des projets dans différents studios, ce niveau de collaboration est crucial. »

 

O’Hare et son équipe ont également utilisé Fusion Studio pour les travaux VFX, dont une scène où un personnage utilise une paire de vieilles jumelles endommagées. « Comme le personnage, Hermit Bob, vit dans la forêt, Jim voulait reproduire la saleté et les fissures des lentilles, quand il regarde à travers ses jumelles. Nous avons utilisé plusieurs outils de Fusion Studio pour obtenir ce rendu, dont des effets de décalage appliqués à des formes rotoscopiques imitant du verre brisé. Nous avons également ajouté une couche émulant de la saleté et aussi divers mattes et incrustations pour créer des reflets internes dans les zones noires situées en dehors des deux cercles des jumelles. Les effets devaient suivre les mouvements de chaque plan, comme si le spectateur regardait à travers du verre brisé. Pour certains plans nous avons créé un tracking dans Fusion Studio en ajoutant des modificateurs Perturb au nœud Transform », conclu O’Hare.

  • 6 novembre 2019 à 17:00

Trophées Satis-Screen4ALL 2019, découvrez les solutions de Postproduction en compétition…

Trophées Satis-Screen4ALL 2019, découvrez les solutions de Postproduction en compétition… © DR

Les Trophées Satis-Screen4ALL 2019 mettent en lumière 58 produits et services innovants que l’on retrouvera la semaine prochaine sur le stand des exposants pendant les deux jours du salon. En tant que professionnel, vous pouvez exprimer vos « coups de cœur » personnels car les votes sont aussi ouverts au public ! La compétition décerne en effet 2 trophées du Public dans 4 catégories : Production & Tournage / Postproduction / Diffusion & Distribution / Services … Votez pour les solutions qui vous semblent les plus adaptées à vos besoins ou à votre vision de l’industrie... Et la semaine prochaine, partez à la rencontre des produits récompensés sur le salon ! Aujourd’hui, partons à la rencontre des 14 finalistes de la catégorie Post-production… Avec un labo en ligne, une prestation live HF 4K HDR, un service de sécurisation spécifiquement adaptés aux streams audiovisuels, un service client sur mesure… Le choix n’est pas évident !

 

 

CATEGORIE POSTPRODUCTION 

 

Workflow VR

Nuendo 10

STEINBERG MEDIA TECHNOLOGIES

 

Nuendo 10 est la meilleure solution professionnelle de production audio pour la post-production télé/cinéma, la production sonore de jeux vidéo et le mixage en réalité virtuelle. De la préparation du projet et de l'import des données brutes jusqu'à la livraison du résultat en passant par l'édition des dialogues, le Sound design et le mixage, mais aussi par la composition de musique, la post-synchro ou la re-conformation, Nuendo offre les meilleures solutions intégrées pour chaque étape du travail, de la production à la post-production et cette nouvelle version 10, grâce à ses avancées technologiques majeures, propulse le logiciel encore plus loin dans les domaines de la réalité virtuelle (VR), de la réalité augmentée (AR) et du son immersif.

Nuendo 10 devient effet la Station de Travail Audionumérique la plus complète en matière de réalité virtuelle (VR), de réalité augmentée (AR) et de son immersif. Son ensemble complet de fonctions est adapté aux utilisateurs qui débutent en réalité virtuelle, notamment ses outils simples qui permettent de créer des projets incroyables sans équipements supplémentaires.

Nuendo est aussi la meilleure solution pour les professionnels de la réalité virtuelle qui créent des champs sonores fortement immersifs dans le cadre d'expériences en VR et AR pour des applications pour consommateurs et entreprises. L'intégration directe avec DearVR Spatial Connect transforme Nuendo en une impressionnante plateforme de création de contenu en VR qui constitue l'environnement de travail en son immersif le plus efficace actuellement disponible.

 

 

 

Principales avancées technologiques de NUENDO 10

 

- Import audio d'enregistreurs nomades

- Import ADM

- Détection des coupes vidéo

- Plugin d'effet Doppler

Le plugin Doppler constitue un moyen rapide et efficace de simuler la perception du mouvement et de la distance

- Compatibilité dearVR Spatial Connect

- Compatibilité ARA

 

Prix : 999 € TTC

 

 

Edition VR

Inside

Immersive Ways

 

INSIDE est un logiciel de création d'expériences immersives en vidéo 360° et réalité virtuelle. Evolutif et modulable, INSIDE PRO propose de nouvelles fonctionnalités pour répondre spécifiquement aux besoins des professionnels de l'audiovisuel. Il combine la technologie d'un moteur 3D avec une interface de montage intuitive pour permettre la création de médias hybrides 2D/3D/VR avec une offre adaptée aux besoins de la communauté.

Évolutif et modulable, INSIDE est un logiciel de montage basé sur la technologie 3D et multiplateforme d'un moteur de jeu vidéo afin de rendre la création immersive et interactive accessible à tous avec un workflow de post-production simplifié pour la création immersive. La solution est modulable et adaptable aux besoins des projets via des fonctionnalités à la carte proposées sous forme de plugins.

 

Prix : 25 €/mois ou 70 €/3 mois

 

 

Transcodage et autres services de labo

Transkoder 2019

COLORFRONT

 

Tranksoder est un incontournable pour traiter des fichiers complexes impactant fortement les temps de traitement dans la chaîne de production (décodage, masterisation HDR, conversion SDR/HDR, encodage 4K, 8K, IMF...).

Outil Idéal pour le labo numérique et les workflows HDR intenses, Transkoder 2019 est LE couteau suisse ultra performant du traitement de fichiers vidéo SDR et HDR, il permet de gérer de très nombreux formats de caméras et de délivrer du contenu pour tous les workflows numériques : plateformes VOD et streaming (Netflix, Amazon, AppleTV..), web, encodage, post production, broadcast… Le jeu d'outils Transkoder inclut le codage-décodage JPEG2000, la prise en charge des dernières Applications Cinema Mezzanine et ProRes IMF, l'édition et la création de fichiers IMF / IMP, le transwrapping, le packaging, la vérification et le contrôle de la qualité, le labeling MCA (Multi-channel Audio), les fichiers de métadonnées sidecar, et EIDR, le système d'identifiant unique universel pour les assets de cinéma et de télévision.

 

Transkoder 2019 intègre de nouveaux outils tels que :

 

- Un nouveau moteur de sous-titres.

- De nouveaux outils pour la masterisation IMF

- Le support de Dolby Vision V4

- Ainsi que nombreuses améliorations.

 

Prix : à partir de 15 000€ HT (en version Mac) – Distribué par Post Logic

 

 

 

Transfert de données

M.2 4x4 PCIe Card

SONNET TECHNOLOGIES

 

En régie, en post-production, au montage, au graphisme, à l'archivage on-line, lorsqu'il est nécessaire d'augmenter le stockage interne d'un ordinateur et que la rapidité des données de travail est critique, ne regardez plus vers les SSD SATA en 2.5", orientez-vous plutôt vers des SSD NVMe. Aujourd'hui les SSD NVMe PCIe offrent des performances immenses, surclassant facilement celles des SSD 2.5" SATA. La nouvelle carte M.2 4x4 PCIe de Sonnet permettra de monter quatre M.2 NVMe SSD PCIe sur une simple carte insérée dans un slot x16 pour transformer la façon dont vous travaillez.

 

Il peut être utilisé comme stockage de media à accès instantané ou comme disque de travail performant avec la carte Sonnet M.2 4x4 PCIe dans la tour de votre Mac Pro; ou dans un ordi PC de bureau ou un serveur sous Windows ou Linux ; ou dans un boÎtier d'extension Thunderbolt pour cartes PCIe avec un slot PCIe 16X disponible. Les utilisateurs de Mac peuvent même installer macOS sur un des SSD pour l'utiliser en disque de boot incroyablement rapide et créer un RAID 0 en agrégat avec les autres SSD sans perte de performances. …Quelqu'en soit l'utilisation, les performances de cette carte sont impressionnantes.

Dotée d'un PCIe Bridge 16x conçu par Sonnet, la carte dédie à chaque SSD la bande passante d'un PCIe 3.0 de 4x. Lorsqu'elle est installée dans un slot PCI 3.0 de PC sous Windows avec quatre SSD formatés en RAID 0 la carte est capable de transferts à 8,500 Mo/s. Des vitesses de transfert cumulées à partir de 4 disques qui ne sont pas en RAID peuvent atteindre jusqu'à 12 000 Mo/s.

 

 

Prix : 400 €

 

 

Production Live

Live Schedule

NEWSBRIDGE

 

La puissance de l'expérience Newsbridge est maintenant disponible sur du flux temps réel avec les fonctionnalités cognitives comme la reconnaissance des personnalités, la transcription automatique de l'audio en texte (speech-to-text) et le clipping des moments forts. Live Schedule permettra de planifier l’enregistrement de flux de contribution vidéo en temps réel depuis un navigateur web. La fonctionnalité cible aussi bien des besoins ponctuels (sports, événements, conférences…) que récurrents (news, media-monitoring, contribution…). Son utilisation permettra la création d’une valeur ajoutée avec la publication accélérée de highlights avec leurs sous-titres vers les réseaux sociaux ; le derushage simplifié des événements sportifs ; le partage et la consultation instantanée des contenus filmés en temps réel.

 

Ce nouveau module permet par ailleurs le pilotage d’une large gamme d’équipements de transmission au sein d’une seule interface. La simplicité de l'expérience utilisateur offre aux monteurs comme aux journalistes la possibilité d’être autonomes sur l’exploitation des contenus en temps réel

La simplicité d’usage, l’accès au contenu en temps réel, et l'indexation automatique grâce à l'IA bénéficie à toute la ligne de production. Disponible depuis cet été, la solution qui remplace des équipements lourds et coûteux par une plateforme web accessible depuis un navigateur a déjà été expérimentée par l’AFP, TF, Viva Technology…

 

Prix : 250 €/flux (à partir de)

 

 

Edition/Remote/Derushage

ADN PLAY

JL MORIZUR ENGINEERING

 

ADN PLAY est un player adaptatif dédié à la remote production et spécifiquement conçu pour le marché dans la mobilité. Il permettra de derusher n’importe où dans le monde depuis un navigateur en proposant plusieurs modes linéaire et non linéaire, avec le timecode natif ou un compteur d’images. L’éditeur propose une visualisation des formes d’onde audio pour simplifier la sélection des plans de coupe.

 

ADN Play communique en outre avec les systèmes tiers (Isis Interplay, Final Cut, Premiere, Xedio, Edius…), avec le module ClipList, il est possible de positionner des segments, de créer son projet puis de l’exporter en un clic.

 

Prix : 15 000 € (à partir de)

 

 

 

 

SERVEUR

Xstreamstore BackPack

B-A INSTRUMENTS

 

Les serveurs de production universels XSTREAMSTORE conjuguent des performances optimales et système de protection des données avancé. Leur interface intuitive permet une gestion simple et fiable des accès et une redondance matérielle à la base du hardware garantit la haute disponibilité de l’ensemble. Les XSTREAMSTORE sont compatibles avec tous les applicatifs couramment utilisés (Avid, Resolve, Adobe Premiere, FinalCut…) et peuvent facilement évoluer en capacité et en bande passante.

 

XSTREAMSTORE BackPack a été pensé pour l’ultramobilité. Scooter, vélo, trottinette, rien ne l’arrête !

Il sera idéal sur les lieux de tournage ou la captation en extérieur, pour le dérushage, le prémontage, la génération de fichiers, l’auto-confo… Il permettra de travailler en collaboratif directement sur le site de production (tournage, événement live…) et facilitera le déplacement de studio de postprod sur des évènements ponctuels et

 

Capacité : 6 To, 12 To, 24 To… Full SSD

Bande passante : 2 Go/s en lecture et écriture

Connectique : 10 Gb/s RJ45 ou SFP+

Dimension en cm (H x L x P) : 21 x 32 x 21 ou 22 x 18 x 30

Poids < 3 kg !

 

Prix : 3 997 € HT (à partir de)

 

 

Live /Streaming/ Remote

Aspera Streaming for Video

IBM

 

Le Streaming for Video IBM Aspera optimisé par FASPStream révolutionne la manière dont la vidéo haute définition live et quasi-live peut être diffusée.

 

S'appuyant sur l'Internet standard au lieu d’utiliser une coûteuse liaison satellite ou d'une fibre dédiée, il garantit l’acheminement de la vidéo et des données en direct sans pertes de paquets. La technologie une production de directs en remote à des débits binaires élevés.

 

IBM Aspera Streaming for Video a récemment été utilisé pour permettre la production à distance en temps réel de la Coupe du Monde Féminine de la FIFA, en France, démontrant ainsi sa fiabilité et son efficacité pour la couverture de tournois sportifs de grande envergure.

 

Pour cette Coupe du Monde Féminine FIFA 2019 par Fox Sports, Aspera a, en collaboration avec Telestream et Levels Beyond, créé un workflow de diffusion en direct pour permettre une véritable production à distance en temps réel et permettre aux équipes de production de Los Angeles de commencer à éditer plusieurs flux de caméra en quelques secondes à peine pour les highlights sportifs. Tout au long du tournoi, la technologie de diffusion en continu IBM Aspera a permis de fournir 607 flux montés en direct sur 52 matches, avec un total de 165 To de contenus, et le transfert d’environ 625 To de contenus dans le cloud pour un stockage objets tant pour l’archivage que l’édition.

 

 

Traitement des images

Flame 2020

AUTODESK

 

Les équipes d'Autodesk Flame continuent à innover et proposent avec cette nouvelle version des outils inédits pour le traitement de l'image, facilitant ainsi l'automatisation de certaines tâches et un gain de productivité en postproduction. Autodesk Flame 2020 représente l'outil incontournable pour la postproduction et le compositing haut de gamme (pub, film). Cette version propose un ensemble de fonctionnalités de traitement de l'image innovantes s'appuyant sur l’apprentissage automatique (Machine Learning) et l'IA : extraction automatique de ciels, masques de vecteurs de mouvements, générateur de masques de profondeur de champ (Z-depth), normal maps pour les visages,... ainsi que de nombreuses nouvelles fonctionnalités.

 

Autodesk est disponible à la location sur Mac OS X ou Linux.

 

Prix : 410 € HT/mois (à partir de) – Distribué Post Logic

 

 

 

Service de Sous titrage

CheckSub

CHECKSUB

 

CheckSub permet à tous les créateurs de contenus vidéos de partager leurs œuvres ou leurs idées à travers le monde (réalisateurs, monteurs, journalistes sans un budget conséquent ! CheckSub est une plateforme permettant de créer des sous-titres de qualité sans connaissance technique. Le processus est opéré en deux étapes : Une technologie de reconnaissance vocale génère une transcription automatique de la vidéo. Grâce à l'éditeur de texte, vous pouvez relire et modifier cette transcription et vous "découpez" les phrases en sous-titres grâce à de simples sauts de lignes. Une fois la synchronisation lancée, la plateforme génère automatiquement les "time codes" de chaque sous-titre. Il n’y a plus qu'à vérifier que le résultat vous convient et faire des ajustements si besoin. Vous pouvez ensuite utiliser cette base pour créer les sous-titres dans des langues étrangères.

 

CheckSub permet en plus de partager un projet de sous-titres avec d'autres personnes grâce à un lien sécurisé et aussi de générer des exportations vidéo en incrustant les sous-titres avec un style personnalisé.

Grâce à cette plateforme, les réalisateurs indépendants vont pouvoir soumettre leur court-métrage à plus de festivals étrangers, les journalistes produisant des vidéos vont capter une plus grande audience sur les réseaux sociaux et il sera aussi plus facile de rendre les œuvres accessibles aux sourds et malentendants...

  

Prix : 54 € (à partir de)

 

 

 

Scanner

Flashscan Nova

MWA NOVA GMBH

 

 

Le Flashscan Nova est un scanner 2.5K ou 4K pour les formats 8, S8, 16, S16 mm (9.5 mm et 17.5mm en option).

 

Il a un système de transport du film unique sans cabestan ni débiteur permettant d'avoir une tension très basse (20 grammes) pour les films abîmés, gondolés, avec retrait, tout en ayant une parfaite stabilité. Une Easy wet gate ou fenêtre à immersion utilisant l'Isopropanol permet d'éliminer les rayures côté support lors de la numérisation. Il est livré avec une station de travail en SSD et 14 TO de stockage en Raid 0 et un logiciel de pilotage permettant aussi de faire des corrections de couleurs primaires, secondaires, réglage de gamma et noirs.

 

Doté d'un zoom complet permettant l'overscan et l'underscan, on peut utiliser la pleine résolution du capteur sur chaque format. La stabilisation se fait par un laser motorisé, et un outil de stabilisation additionnelle électronique est disponible par le logiciel. Des modules audio optiques et magnétiques sont disponibles pour chaque format, évitant ainsi l'utilisation du capteur image pour extraire la piste optique.

 

Impact sur le secteur

Ce scanner permet de numériser les films d'archives muets ou sonores, N&B ou couleurs, Positifs et Négatifs en 2.5 ou 4K ayant un fort retrait ou étant très déformés mécaniquement. L'interface logiciel Flashsuite 2 permet de rattraper les couleurs virées.

 

Prix : 36 000 € (à partir de)

 

 

 

Stockage

Rugged SSD Pro

LACIE

 

Solution SSD NVMe professionnelle THUNDERBOLT 3

 

Exploitez la vidéo 6K et au-delà

Le Rugged SSD Pro associe la rapidité spectaculaire du Seagate FireCuda NVMe SSD à l'interface Thunderbolt 3, pour des vitesses cinq fois plus rapides que les SSD SATA traditionnels, de quoi vous permettre de visionner et de rendre les contenus RAW haut débit les plus exigeants, tels que les fichiers sources 6K, 8K et Super Slow-Motion. Conçu pour les conditions extrêmes de réalisation et de montage, le Rugged SSD Pro convient parfaitement aux réalisateurs et DITs qui cherchent un disque de travail offrant des transferts ultrarapides, il est capable de traiter des séquences 8K haute résolution et Super SlowMotion.

 

Rugged SSD Pro

Rapidité fulgurante avec les vitesses atteignant 2 800 Mo/s des SSD Thunderbolt 3

Compatibilité avec les appareils USB 3.1 de 2e génération

Solidité à toute épreuve avec l'indice IP67 de résistance à l'eau

Utilisation tout terrain grâce à une résistance aux chutes de 3 mètres et à l'écrasement de 2 tonnes

Services de récupération des données Rescue valables 5 ans

Design by Neil Poulton

 

 

Prix : 479,99 € (1TB SSD)

 

  

 

Stockage

Rugged SSD

LACIE

 

Depuis 2005, les disques durs portables LaCie Rugged ont su s'imposer sur les plateaux de tournage, les séances photo et les studios de musique et, en général, auprès des professionnels de la création les plus influents au monde. Sans doute parce que les produits LaCie Rugged comptent parmi les plus fiables du secteur pour stocker et transporter les données sur le terrain.

 

LaCie Rugged SSD donne aux réalisateurs et aux DITs un sérieux coup de pouce grâce aux vitesses de transfert du Seagate FireCuda NVMe allant jusqu'à 950 Mo/s, au chiffrement et à une résistance à la poussière, à l'eau et aux chutes, le tout dans une solution de poche. Sa vaste capacité de 2 To et sa compatibilité Thunderbolt 3, USB-C et USB 3.0 sur les ordinateurs Mac et Windows permettra de finaliser d’ambitieux projets 4K…

 

Principales caractéristiques

Transfert et montage de vidéos au format 4K RAW avec des vitesses pouvant atteindre 950 Mo/s

Compatibilité universelle de l'interface USB Type C

Solidité à toute épreuve avec l'indice IP67 de résistance à l'eau

Utilisation tout terrain grâce à une résistance aux chutes de 3 mètres et à l'écrasement de 2 tonnes

Protection des projets avec la technologie de chiffrement Seagate Secure

Services de récupération des données Rescue valables 5 ans

 

Prix : 219,99 € (pour 500 GB)

 

 

 

Collaboration

US3342 - Sharing Switch

ATEN

 

Ce commutateur de partage ATEN permet de basculer plusieurs périphériques USB entre deux ordinateurs USB-C, en permettant aussi le partage de fichiers entre ces deux ordinateurs, quels que soient leurs systèmes opérationnels.

Il suffit de connecter les ordinateurs portables via le port USB-C à US3342 pour partager des périphériques. Un seul jeu de clavier et de souris suffira aussi pour contrôler de manière transparente les deux systèmes et pour partager des données. Il permet aussi d’utiliser plusieurs périphériques USB sans avoir à brancher et débrancher ou configurer les appareils. L’US3342 dispose de 4 ports USB 3.2 Gen (compatible avec USB 3.1 Gen 1, USB 2.0 et USB 1.1), ce qui lui permet de prendre en charge des transferts de données allant jusqu'à 10 Gps.

  

Prix : 144 €

 

 

 

...La liste des lauréats du vote du public sera publiée sur le site Mediakwest la veille de l’ouverture du SATIS, permettant ainsi aux visiteurs de découvrir, sur les divers stands, les produits primés. 

De son côté, le jury de la rédaction Mediakwest décernera ses propres « Coups de cœur » à un produit dans chaque catégorie. Ses choix seront dévoilés sur le SATIS, mardi 5 novembre à l’ouverture du Salon…

 

 

 

>> Pour voter cliquez  ici

 

Clôture des votes pour les prix du Public : le 4 novembre à 12h00.

 

 

 

SATIS 2019... 

>> Les sujets traités en 2019 : Workflow Ip & Nouveaux Usages • Création & Technologie • Contenus : Monétisation Financement • Blockchain • Les Nouvelles Applications Du Cloud • Réseaux Sociaux • 5g • Intelligence Artificielle & Médias • 4k • 8k : Les Très Hautes Résolutions • Les Liaisons Hf En Tournage (Image Et Son) • Live Event • Protection Des Contenus • Crowdfunding • Univers Immersifs : Vr. Ar. • Mapping • Travail Collaboratif et Interactif  • Communication Unifiée • Digital Signage • Nouveaux Ecrans  • Moteur 3d Temps Réel • Eclairage Led • Stockage Intelligent • Optimiser La Production • Vidéo Volumétrique 

 

DATES ET LIEU : 5 & 6 Novembre 2019 - Docks de Paris, La Plaine Saint-Denis 

Accréditation gratuite

  • 28 octobre 2019 à 17:00

Le long-métrage d'animation "La Traversée" à l’affiche en 2020 !

En s’appuyant sur l’histoire de sa famille, Florence Miailhe livre avec La Traversée une épopée universelle en peinture animée. © Les Films de l’Arlequin

Co-écrit avec Marie Desplechin, La Traversée est le premier long-métrage de Florence Miailhe. Il a fallu plus de sept ans pour produire ce film en peinture animée, près de trois ans de fabrication par les studios Maur Film (Prague), Balance Film (Leipzig) et Xbo Films (Toulouse). Rencontre, à l’occasion du Cartoon Movie 2019, avec sa productrice Dora Benousilio (les Films de l’Arlequin) et Florence Miailhe qui espèrent sortir le film en 2020 !

 

Mediakwest : Comment expliquez-vous cette longueur dans la production ? Qui a-t-il fallu convaincre ?

Dora Benousilio : Tout le monde ! Le film a été beaucoup plus difficile à financer en France qu’en République tchèque. Les diffuseurs mettaient en doute la technique de peinture animée utilisée par Florence dans ses courts-métrages pour un 90 minutes. Nous avons essuyé plusieurs refus avant qu’Arte France Cinéma le prenne.

Florence Miailhe : Je tenais à ce que ce film soit réalisé en peinture animée – et non en papier découpé par exemple – car cette technique permet d’être plus spontané et intuitif, et limite le temps de préparation.

 

 

M : Comment avez-vous adapté cette technique d’animation traditionnelle pour les besoins du long-métrage ?

F. M. : En peinture animée, le décor et les personnages sont dessinés en général sur la même vitre et tout bouge en même temps. Mais, comme il fallait répartir le travail entre plusieurs studios, le décor reste fixe.

D. B. : Nous avons eu le temps d’effectuer des tests, de trouver les bons systèmes de prises de vue et... de nous approvisionner en celluloïd ! Xbo a fait en sorte que le dispositif du banc-titre utilisé par Maur Film puisse être reproduit chez les autres studios. Nous avons aussi eu l’aide du CNC pour les nouvelles technologies afin de faciliter entre autres le détourage lors du compositing (Jean-Christophe Levet, de chez Royal Post, a développé un plug-in pour Natron, ndlr).

 

 

M : Comment s’est réparti le travail entre les studios ?

D. B. : Comme le film comporte six « chapitres », il a été facile de les répartir entre les studios. Maur Film a réalisé 45 minutes, Balance Film 15 minutes et Xbo 15 minutes. Il nous reste à fabriquer 15 minutes d’animation, mais nous tenons le bon bout. Nous espérons sortir l’an prochain. Gebeka se charge de la diffusion en France, Indie Sales à l’international.

F. M. : Pour garder l’homogénéité du film et préparer le travail des animateurs, je réalisais la première image de chaque plan avec le décor et le posing. Chaque chapitre a son unité colorée. Contrairement à mes courts-métrages, le décor est réalisé en amont.

 

 

Extrait de l’article paru pour la première fois dans Mediakwest #31, p.124/128. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 23 octobre 2019 à 17:00

Cinq questions à Yov Moor, l'étalonneur next gen...

Only the Animals de Dominik Moll © DR

Initialement repéré pour son travail sur le film Mustang de Deniz Gamze Ergüven, Yov Moor, étalonneur freelance basé à Paris, continue son chemin sur les tapis rouge du monde entier. Trois de ses nouveaux films ont notamment été projetés à la Mostra de Venise cette année: Only Animals de Dominik Moll, Balloon de Pema Tseden et Revenir de Jessica Palud… L'étalonneur nous livre quelques clés de son savoir faire et de son succès tout en s’exprimant au sujet de l’évolution du métier à l’ère de la démocratisation des outils de post-production…

 

Mediakwest : Trois des films sur lesquels vous avez travaillé se sont retrouvés en compétition à Venise cette année : Balloon, Revenir et Only the Animals. Y a-t-il une recette ?

Yov Moor : Parfois, j’ai de la chance et parfois moins ! En ce qui concerne le cinéma indépendant, il est essentiel d’arriver à une qualité finale qui légitime une sélection en festivals ; le fait que le film puisse être projeté dans une salle de cinéma va ouvrir des portes financières à l’auteur et au producteur…

Il m'a fallu environ 10 jours pour étalonner chacun de ces trois films, et pour chacun je me suis concentré sur la création d'un rendu final étonnant. J'utilise Resolve et je pose fréquemment des nœuds sur toute la longueur du projet pour pouvoir modifier complètement la couleur ou la texture en quelques secondes si le réalisateur et le directeur de la photo en exprime le souhait… Comme ce fut le cas avec le talentueux chef opérateur Lu Songyu sur Balloon. Les films d'art et d'essai ont généralement beaucoup moins de budget que les films commerciaux et le pipeline de travail doit être très fluide et très productif.

 

Mediakwest : Pensez-vous que les étalonneurs peuvent apporter leur contribution en termes d’optimisation et de productivité de pipeline ?

Yov Moor : Oui, tout à fait ! Nous devons offrir plus et travailler plus vite qu’autrefois, cela va dans le sens d’une histoire où les budgets sont de moins en moins confortables et les outils de plus en plus polyvalents. En tous cas, cela fait partie de ma valeur ajoutée : je ne propose pas uniquement un étalonnage mais aussi une économie de temps et d’argent dès que cela est possible…

Par exemple, j’utilise fréquemment la page Fusion de Resolve pour les travaux de cache et de nettoyage, tels que l’effacement rapide des perches de micros ou la génération de particules de fumée, ce que j’ai fait pour Only the Animals. Cela évite une étape d’aller et retour vers la production d’effets visuels, ce qui s’avère assez coûteux. J’accompagne aussi parfois le réalisateur qui veux essayer une nouvelle coupe de montage mais qui n’a tout simplement pas de temps pour un aller-retour en salle de montage. C’est très simple pour moi de travailler directement sur le montage dans Résolve et d’avoir un aperçu du rendu. Ensuite, si cela fonctionne, le réalisateur revient vers le monteur pour intégrer le changement final.

 

Mediakwest : Est-ce que votre façon de travailler a évolué dans le temps ?

Yov Moor : Absolument, et cela se reflète à toutes les étapes. De nos jours, si vous parlez aux réalisateurs, la grande majorité connait Resolve ! Je vois de plus en plus de chefs opérateurs et de réalisateurs ouvrir le logiciel, essayer et tester des ambiances colorimétriques sur le plateau, même sans équipe de DIT. Pour moi, c’est formidable, car je peux connaître très précisément l’intention photographique très en amont…

Cela a été le cas avec le directeur de la photo sur Revenir, Victor Seguin. Nous avons pu parler immédiatement le même langage technique car nous connaissions le même logiciel. Il pouvait me demander d’ajouter un certain effet en sachant exactement combien de temps cela prendrait, quel était son degré de complexité et tout simplement sa faisabilité. Cela facilitait beaucoup le travail.

 

Mediakwest : Est-ce un signe de la disparition des spécialistes?

Yov Moor : Pas vraiment, nous nous engageons dans le même chemin que l’industrie de la musique. Au début, beaucoup de gens ont eu peur du fait qu’il était facile et peu coûteux d’acheter des outils de production audio… Mais au final, il n’y a que les gens talentueux qui restent au premier plan !

Si vous avez du talent, vous n’êtes pas en danger. La nouveauté, c’est que l’étalonnage n’est plus désormais réservé aux personnes disposant d’un budget et d’un accès à un ordinateur hyperpuissant…

 

Mediakwest : Avez-vous des conseils pour les coloristes en herbe ?

Yov Moor : Mon approche n’a jamais été très académique. Je suis autodidacte dans différents domaines du cinéma, et si je peux donner un conseil, c’est d’essayer d’entrer dans l’industrie par toutes les portes possibles. Essayez de devenir un assistant étalonneur et apprenez en demandant d’ajouter une ombre durant une session. Téléchargez Resolve gratuitement et essayez d’étalonner tout ce qui vous tombe sous la main !

C’est comme jouer d’un instrument : plus vous travaillez mieux vous comprenez le processus, le point de vue du réalisateur et la façon dont un coloriste construit ses relations avec les autres interlocuteurs du projet cinématographique. N'hésitez jamais à vous entraîner avec d'autres personnes et essayez de sortir constamment hors de votre zone de confort en jouant avec un maximum de couleurs différentes…

 

 

Only the Animals (Seules les bêtes) sortira au cinéma sur les écrans français le 4 décembre prochain et Revenir de Jessica Palud, le 29 janvier 2020...

  • 23 octobre 2019 à 17:00

Connect Live Paris : les grands enjeux de la postproduction en 2020

Connect Live Paris : les grands enjeux de la postproduction en 2020

Connect Live organisé par Avid revient à Paris le 24 octobre prochain pour une après-midi d’échanges et de table ronde autour de la postproduction, des workflows graphiques aux studios virutels, grands enjeux de la postproduction en 2020 dans l’environnement de production de news dans les medias.

 

Ces rencontres permettront de se familiariser directement avec les solutions et les flux de travail, d’échanger autour d’exemples de réussite dans le secteur audiovisuel.

Connect Live se déroulera en compagnie de l’équipe Avid au Karé, le 24 octobre à partir de 14h. David Marteau, Avid GM & Regional Sales Director Southern EMEA assurera l’introduction et la présentation de l’après-midi de conférences.

 

Retrouvez la programmation et les intervenants :

14h00 - Enregistrements

 

Espace de conférences (Niveau Sceno, 3ème étage)

14h30 - Bienvenue - David Marteau, Avid GM & Regional Sales Director Southern EMEA

15h - France Télévisions : de l’appel d’offre à aujourd’hui - Victor Blanco, Responsable Studios Virtuels, Réalité Augmentée et Habillage chez France Télévisions

15h30 - Un game engine passe à la télé : Unreal sert vos décors sur un plateau - Loïc Le Roux, Intégrateur Graphique chez Luxiris TV

16h - L’importance de l’intégration des solutions Graphiques dans l’environnement de production News et Studio - Raul Alba, Director of Product Management, Broadcast Solutions chez Avid

16h30 - Media Composer family et Distributing Processing - Kate Ketcham, Director Product Management chez Avid

17h - Edit on Demand et cas Disney - Gary Green, Director Product Management chez Avid

17h30 - Table ronde : « Les défis de la postproduction en 2020 » modérée par Stephan Faudeux, Mediakwest avec :

   - Thierry Seux - Directeur Général Digital chez Groupe Transatlantic

   - Emmanuel Pain - Directeur Général chez Groupe Image

 

Espace de démos (Nivo Lego, 2ème étage)

15h/16h30 - Media Composer, les nouveautés - Jean-Philippe Aguer, Spécialiste Solutions

Gérez votre post-production de manière efficace et créative avec MediaCentral | Editorial Management - Jean-Philippe Aguer, Spécialiste Solutions

Découvrez les solutions graphiques intégrées dans Cloud UX - Benjamin Aumont, Spécialiste Solutions

16h30/18h - Workflows graphiques : Maestro, Unreal - Loïc Le Roux – Intégrateur Graphique chez Luxiris TV

 

Espace restauration (Nivo Resto, 4ème étage)

15h/18h30 – Espaces de networking

 

Inscriptions préalables ici

 

  • 18 octobre 2019 à 08:00

Le logiciel d'édition 360/VR INSIDE dévoilé sur le SATIS 2019

Immersive Ways présente son logiciel de montage vidéo 360/ VR professionnel en avant-première sur le SATIS 2019 © DR

INSIDE, Le logiciel de montage destiné aux créateurs d’expériences immersives en vidéo 360° et réalité virtuelle développé par Immersive Ways sera présenté en avant-première les 5 et 6 Novembre prochains sur le SATIS.

 

INSIDE combine la puissance et la technologie d’un moteur 3D avec une interface de montage intuitive et hybride 2D/VR, pour rendre accessible à tous la création de médias immersifs en vidéo 360°, hybrides « flat » /360° et VR.  

Ce logiciel a la particularité d’intégrer un player permettant de mélanger des médias « flat » aux médias immersifs, et offre la possibilité d’ajouter des overlays fixes avec suivi du regard sur les médias à 360° (utile pour les titrages, sous-titres et logos). INSIDE est conçu comme une solution modulable et agile sur laquelle peuvent s’ajouter des fonctionnalités sous forme de plugins, adaptable aux besoins des utilisateurs.

  

Suite à une phase de Bêta-test, INSIDE est décliné dans une version Freemium depuis Octobre 2019. La version PRO permettra d’ajouter de l’interactivité et des scènes et objets 3D dans les vidéos à 360°, elle est aussi ouverte à la communauté mondiale de développeurs.

Les expériences conçues sur INSIDE s’exportent sur les plateformes Desktop & VR pour la version FREEMIUM, et sur toutes plateformes dans la version PRO (Desktop, VR, mobiles et web). Ces logiciels sont disponibles sur Windows et MacOs

  

Pour en savoir plus découvrez la vidéo de démonstration ici...

Vous pourrez découvrir INSIDE au SATIS sur le stand IMMERSIVE WAYS dans l’espace Screen4ALL et sur le stand VISUAL IMPACT France.

  

Caractéristiques d’INSIDE FREEMIUM 

  • Montage médias 360°
  • Montage hybride médias immersifs à 360° et média « flat » avec VR Head Tracking sur médias flat
  • Ajout d'overlays fixes avec suivi de mouvement (Head Tracking) dans la vidéo 360° (titres, sous-titres, logos, graphismes…)
  • Export VR & Desktop
  • Gratuit

 

 Disponible depuis Octobre 2019, téléchargeable ici... 

 

 

Caractéristiques d’INSIDE PRO 

  • Montage médias 360°
  • Montage hybride médias immersifs à 360° et média « flat » avec VR Head Tracking sur médias flat.
  • Ajout d'overlays fixes avec suivi de mouvement dans la vidéo 360° (titres, sous-titres, logos, graphismes…)
  • Ajout d’interactivité
  • Export multiplateforme
  • A partir de 25€/mois

 

Disponible début Novembre 2019, téléchargeable ici... 

Les logiciels sont disponibles sur Windows et MacOs.

  • 23 octobre 2019 à 17:00

Bonjour le Monde !, minutie et poésie en stop motion (Web TV)

Bonjour le Monde !, minutie et poésie animale en stop motion (Web TV) © Nathalie Klimberg

Cet été, les réalisateurs Anne-Lise Koehler et Eric Serre présentaient sur Série Séries Bonjour le Monde !, une série d’animation et aujourd'hui un long-métrage - sorti en salle ce 2 Octobre - produits par Normaal Animation en stop motion. La production des 90 minutes d'animation nécessaires au film et à la série s'est déroulée sur 15 mois et a monopolisé une équipe de 15 personnes avec, à la clé, une histoire à la fois onirique et réelle qui n'aurait pas pu prendre vie sans un pipeline numérique mûrement réfléchi. Rencontre avec les deux créateurs qui nous dévoilent les coulisses et les procédés de fabrication...

 

Eric Serre, co-réalisateur de la série Bonjour le Monde ! : "Bonjour le Monde ! est initialement une série en marionnettes diffusée sur France 5 et produite par Normaal Animation. Pour nos dix épisodes de neuf minutes, nous avons fabriqué 90 minutes d’animation en stop motion avec des marionnettes en papier modelé. Tout ce qui est à l’écran est fabriqué a partir de la même technique, la végétation et les animaux. Cela donne un regard sur la nature, je pense, attentionné, rigoureux et en même temps, poétique..."

 

Anne-Lise Koehler, auteure et co-réalisatrice de Bonjour le Monde ! : "Je suis fascinée par les animaux et j’avais envie de faire quelque chose qui ne soit pas un documentaire animalier et donc d’utiliser la spécificité du stop motion, cette technique permet un décalage poétique pour parler du règne animal et pour donner une vision empathique sur la nature."

 

Pour savoir pourquoi ces créateurs ont utilisé le stop motion et découvrir le pipeline industriel de la production… regardez la vidéo !

 

 

BONJOUR LE MONDE !

Comment naît-on oiseau, pourquoi naît-on insecte, mammifère ou poisson ? Les sculptures de papier de Bonjour le Monde animent le spectacle de la vie sauvage.

Idée originale : Anne-Lise Koehler

Réalisateurs : Anne-Lise Koehler, Eric Serre

Compositeur : Standaard (studio son)

Production : Normaal avec la participation de France Télévisions & RTS

Producteur : Alexis Lavillat

Diffuseur : France Télévisions (France 5)

 

Bonjour le Monde ! était diffusé tous les samedis matin à 10h sur France 5 entre le 18 mai et le 29 juin 2019. L'adaptation de la série au cinéma est sortie sur grand écran le 2 octobre 2019...

  • 9 octobre 2019 à 17:00

Le scan 3D et la data capture, un nouveau département innovant chez Be4Post

Jérôme Battistelli et Matthieu Straub de Be4Post. © DR

Matthieu Straub qui était directeur d’exploitation de cette société à l'époque où nous avons réalisé l'interview (il est aujourd'hui chez FilmLight) et Jérôme Battistelli, superviseur du récent département de scan 3D, nous  font découvrir ces métiers émergents, au carrefour du tournage et des effets spéciaux.

 

Mediakwest : Matthieu, peux-tu nous présenter Be4Post ?

Matthieu Straub : La société Be4Post a vu le jour en juin 2014 ; c’est l’association de DIT (ingénieur de la vision de fiction) et d’une société de location RVZ. Pour préciser la genèse de l’entreprise, Christophe Hustache-Marmon, Guillaume Poirson et moi-même, les trois DIT concepteurs de Be4Post, nous étions partis d’un constat commun de frustration lorsque nous louions du matériel chez les autres prestataires, très souvent des loueurs de caméras. Nous passions un temps trop important à monter nos stations de travail, il nous fallait récupérer un ordinateur à droite, un écran à gauche et assembler le tout avec des alimentations dans tous les sens et des câbles partout. Tout cela allait à l’encontre de notre conception du métier de DIT.

Nous voulions proposer des solutions compactes, légères et proches de la caméra. De là est née notre décision de monter nos propres machines ; mais plutôt que d’en prévoir trois (nous avons de nombreux copains !), nous en avons conçu une dizaine, afin de pouvoir répondre à toutes les demandes, mais aussi parce que nous avons des besoins de configurations différentes : une petite sur un bateau ou une énorme pour des prestations avec quatre caméras et pleins d’effets spéciaux. Nous voulions créer une société pour avoir cette latitude là.

C’est à ce moment que nous avons rencontré Evelyne Madaoui, directrice générale de RVZ, par le biais de Samuel Renollet. Elle a eu envie de jouer le jeu et de prendre le pari. Be4Post, c’est donc les trois DIT concepteurs de la société et, chez RVZ, Evelyne Madaoui, Samuel Renollet et Anne Bouin notre gérante. Nous partageons les locaux de RVZ et une partie de notre activité s’accomplit avec eux, mais nous avons dès le début souhaité rester très ouverts et travaillons également avec d’autres loueurs de caméras, TSF, Vantage Films, Panavision, Transpacam, etc.

La société comporte bientôt cinq salariés permanents ; toute la partie gérance et commercialisation étant mutualisée avec RVZ. Cette mutualisation nous permet de nous concentrer sur nos métiers, les personnes embauchées à temps plein étant dédiées à la recherche ou à la technique, plutôt qu’à la comptabilité et la commercialisation.

 

 

M. : Pouvez-vous me parler des origines de ce nouveau département scan 3D et data capture au sein de Be4Post ?

M. S. : L’aventure a commencé en juillet 2017. Dès la création de Be4Post, les fondateurs de la société souhaitaient compléter l’activité de location de roulantes DIT par une offre de prestation différente ciblant de nouveaux marchés. On a mis beaucoup de temps à trouver.

À force de discussions et de visites sur des plateaux de tournage, on a vu qu’il y avait souvent des gens qui venaient faire du scan et du tracking, principalement sur des films étrangers et plus principalement américains. Cela nous semblait être une bonne façon de conserver la philosophie de Be4Post : le lien entre le tournage et la postproduction. Ce genre d’outils représentait exactement le lien entre le tournage et les studios d’effets spéciaux. C’est la genèse de notre département de data capture et de scan 3D ; le but premier étant de récupérer l’ensemble des métadonnées disponibles sur un tournage : les hauteurs de caméras, les inclinaisons et les mouvements.

C’est à cette date que nous avons fait l’acquisition du scanner Faro, aidés dans le choix de ce matériel par Youenn Denis, superviseur VFX très ouvert à la 3D, et qui est un de nos amis. Après nos premiers essais en interne, nous avons compris que la possession de l’outil n’était rien sans compétences suffisantes en 3D. Il nous semblait également primordial de conserver le côté plateau : on cherchait quelqu’un qui connaisse à la fois le tournage et les effets spéciaux. Nous avons en effet été trop souvent confrontés, sur des tournages, à des superviseurs VFX devant faire face à de grandes difficultés pour obtenir ne serait-ce qu’un quart d’heure pour prendre des clichés ou une HDRI ; les tournages devenant alors des moments difficiles pour les superviseurs VFX.

On souhaitait donc envoyer un professionnel des plateaux qui pourrait réaliser toutes ces mesures et également être capable de préparer très rapidement la prévisualisation de ce qu’il était en train de faire pour que les gens du tournage puissent voir : « Ah ouais d’accord ! Il est en train de scanner un décor et quelques minutes après il est capable de montrer ce décor en 3D dans un ordi ! » Il y a toute une partie éducation que l’on avait intégrée dès le début du projet.

 

 

M. : Quelle est précisément l’offre de ce département ?

M. S. : Même si elle reste en perpétuelle évolution, au bout de six mois d’existence du département, nous avions structuré une offre claire sur trois aspects : le repérage de lieux, la tech-visualisation et la numérisation de décors pour les effets spéciaux.

Pour le repérage des lieux, nous proposons le scan très rapide d’endroits difficilement accessibles. En prenant l’exemple d’un décor parisien, des productions étrangères ou des productions, souhaitant éviter d’envoyer des chefs de postes sur place, pourront appréhender le décor et faire des repérages à la façon d’une visite virtuelle. En récupérant le fichier que nous leur fournissons, ils accèderont à un site Internet qui leur permet de tout mesurer : les surfaces, les hauteurs, pour masquer, par exemple, un mur ou trouver la largeur des portes pour vérifier le passage d’une Dolly ou d’une grue. Il est également possible de simuler très rapidement des petits mouvements de caméras pour prévisualiser des plans « en mode brouillon ».

La deuxième partie de notre offre est la tech-visualisation ; je vais l’illustrer par l’exemple. Imaginons que je doive tourner à l’Assemblée nationale : je veux un « top-shot » de mon personnage, de quelle focale ai-je besoin ? de quelle grue ? est-ce qu’elle va passer par l’encadrement de la porte ? Pour cela nous utilisons des librairies incluant un très grand nombre de caméras, d’optiques de Dolly, de grues, etc. On peut alors les assembler, pour les intégrer dans le décor numérisé afin de simuler les mouvements de caméras. Le système est tellement évolué qu’on peut actionner des manivelles ou des petits joysticks et répéter virtuellement un plan dans le décor et même ajouter des personnages. Ce n’est pas de la prévisualisation parce qu’on ne calcule pas forcément les mouvements, c’est de la tech-visualisation.

Pour la troisième offre, la numérisation d’un décor en vue d’effets spéciaux, nous mettons en œuvre l’ensemble de nos technologies (scanner, photos hautes résolutions avec DSLR, drones) afin de préparer un objet 3D le plus propre possible avec des textures hyperréalistes pour livrer des studio VFX ; cela devient vraiment du travail de postproduction. Nous rassemblons, durant le tournage, toutes les informations permettant de connaître, lors du travail de l’effet spécial, l’exact environnement du tournage, avec les textures déjà posées, les hauteurs de caméras et les focales.

 

 

M. : Jérôme, en postproduction, comment exploites-tu les informations que tu récupères ?

Jérôme Battistelli : J’utilise un logiciel dédié, vendu avec le scanner, pour transformer les fichiers bruts produits par l’appareil en données éditables ; puis via un second logiciel, Reality Capture, je mélange la photogrammétrie et les données du scanner avec les clichés de mon reflex. La plate-forme de visualisation Sketchfab nous permet de montrer sur un navigateur Internet les modèles 3D que l’on peut réaliser, en obtenant un aperçu rapide de ce que l’on a scanné pour le présenter à nos clients.

Nous échangeons au cas par cas avec les studios pour définir les livrables, incluant généralement un modèle 3D pouvant être découpé en plusieurs parties selon les besoins. Nous fournissons également des textures 3D appliquées aux objets, complétées à la demande de photos HDRI du lieu et des fichiers de « nuages de points » lorsque les clients souhaitent retravailler la 3D eux-mêmes. Il nous est également possible de faire du nettoyage, d’effacer des éléments. Le métier est passionnant parce qu’il mixe vraiment les parties tournage et VFX.

 

 

M. : Pouvez-vous nous parler de vos premiers projets ?

M. S. : Notre premier projet avait pour sujet un thème absolument passionnant : le château de Guédelon dans l’Yonne, un château médiéval en construction depuis vingt ans selon les méthodes du Moyen Âge. Nous sommes allés le numériser en sept étapes, pour permettre de voir l’évolution de la construction, pouvoir également le reconstruire en vidéo et y associer des animations. C’était très intéressant, cela nous a permis de rencontrer les domaines de l’archéologie, de l’architecture et les sites de patrimoines.

Les constructeurs ont été impressionnés par les résultats, principalement par le modèle en nuages de points qui procure la sensation d’avoir passé le bâtiment aux rayons X. Le château comprend un logis, sorte de grande pièce avec un assemblage de poutres hyper alignées qui avait été pour eux un véritable cauchemar. Grâce au scan, ils retrouvaient toute l’esthétique de cet alignement d’une manière incroyable. C’était à la fois une reconnaissance de leur travail enfin visible, et surtout cela leur a permis de tirer des plans à partir des relevés et de documenter leurs travaux.

 

J. B. : Nous avons ensuite travaillé sur le scan de la cathédrale d’Orléans, plus particulièrement sur la façade. La société Whatsit, spécialisée dans la conception de projection mapping, souhaitait déterminer les contraintes techniques de découpages et d’agencement des vidéoprojecteurs. Ils avaient pour cela besoin d’un scan 3D de grande précision, fidèle au bâtiment aussi bien en termes de géométrie que de qualité des textures. Lors de projections sur la pierre, il y a besoin d’une précision qu’ils nous ont dit avoir trouvée avec nous. Ils travaillaient préalablement avec des géomètres qui n’ont pas forcément le regard et la culture de la 3D. Ils ont été heureux de pouvoir aller plus loin en termes de rendu et de problématiques liées à la 3D.

 

M. S. : Le projet Séance 129 produit par Cinétévé est un projet VR sur lequel nous sommes intervenus. Mis en place pour les 100 ans de l’armistice de 1918, il a pour sujet le discours de Georges Clemenceau à l’Assemblée nationale. Nous devions numériser complètement l’hémicycle de l’assemblée, un acteur jouant le rôle de Georges Clemenceau étant filmé en train de parler sur le perchoir. Nous avions accepté le défi passionnant de numériser toute l’assemblée nationale en quatre heures, le temps qui nous avait été imparti : à 9 h 00 la porte s’ouvrait, à 13 h 00 nous étions sortis. En complément de la numérisation avec le scanner, nous avons photographié la totalité de l’Assemblée.

Nous avons ensuite travaillé avec le studio Saint-Georges en charge de la postproduction, en instaurant une fois encore un vrai échange pour déterminer les rôles de chacun dans l’intérêt de la production, nous avons effacé des micros et des téléviseurs. La production était très contente du résultat final et de nos méthodes de travail.

 

 

M. : Pouvez-vous évoquer la concurrence nationale et internationale ?

M. S. : La partie photogrammétrie avec des appareils photos est très utilisée par les studios VFX, qui maîtrisent cette technologie. Ce sont donc nos concurrents et nos clients à la fois lorsqu’ils ont des besoins d’une plus grande précision.

La seule concurrence directe en Europe, vient d’Angleterre. Une société propose ces mêmes services ; étant complètement dédiée à cela, elle dispose d’outils que nous ne possédons pas pour l’instant et qui font partie de nos projets de développement : par exemple des rigs 3D pour personnages. Nous aimerions concevoir des outils similaires transportables avec des capacités de mobilité qui n’existent pas aujourd’hui. Ce sont des rigs avec une centaine d’appareils photo et des câbles dans tous les sens. On revient un peu à l’histoire de Be4Post et son obsession de la simplification des outils.

 

 

M. : Tu parles déjà de développements, avez-vous d’autres pistes ?

M. S. : Nous souhaitons continuer à développer notre offre pour le patrimoine, l’architecture et la création de plans de bâtiments existants. Nous dialoguons avec des sociétés comme Iconem qui fait de la numérisation de sites en danger. En effet s’il nous est possible de numériser entièrement une église qui va s’effondrer de manière imminente, il sera possible de la reconstruire dans 50 ans, grâce à un scan au millimètre et à toutes les informations et les textures que nous aurons captées.

Ce n’était pas forcément le but au départ, mais si nous réalisons un scan d’un monument parisien pour le patrimoine ou pour un film il est simple de l’exploiter pour les deux domaines. Nous sommes des gens de l’image, donc nous apportons un soin particulier à la lumière afin de mettre en valeur les lieux et ceci quelle que soit la finalité de nos travaux ; nous recherchons la meilleure texture.

J’aime l’idée d’être léger ; le scanner et son équipement sont dans un sac à dos. Il suffit à Jérôme de prendre le train ou l’avion, il est autonome et réactif. Nous disposons également d’un pilote de drone free-lance lié à l’entreprise, il nous a accompagnés dans toutes les étapes légales (inscription DGAC…) et a développé ses compétences en photogrammétrie avec un drone.

 

 

M. : Souhaitez-vous aborder le sujet du budget ?

M. S. : Concernant les tarifs, nos prestations sont plus abordables que ce qu’on pourrait penser. Le documentaire est un domaine avec lequel nous pourrions collaborer. Pour donner des idées, sur un lieu compliqué comme le château de Guédelon, notre intervention sur place a duré une journée, complétée de trois jours de travail en postproduction pour un budget avoisinant les 5 000 €. Sur un projet documentaire, nous pourrions scanner un lieu avec tous les axes et y inclure très simplement des habillages en 3D pour le vieillir, ajouter des éléments, en enlever d’autres.

Le secteur de la pub est également intéressé, surtout pour les productions étrangères, pour les repérages et les VFX. Il nous serait simple, même en termes d’autorisations, grâce à notre légèreté, de scanner la place Vendôme pour y garer une voiture.

Il existe une infinité d’applications que les productions n’ont pas encore imaginées ; c’est à nous maintenant de communiquer et d’expliquer le champ des possibles ouvert par notre nouveau département.

 

Extrait de notre article paru pour la première fois dans Mediakwest #31, p.12/14. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 9 octobre 2019 à 17:00

Bonjour le Monde !, minutie et poésie en stop motion (Web TV)

Bonjour le Monde !, minutie et poésie animale en stop motion (Web TV) © Nathalie Klimberg

Cet été, les réalisateurs Anne-Lise Koehler et Eric Serre présentaient sur Série Séries Bonjour le Monde !, une série d’animation et aujourd'hui un long-métrage - sorti en salle ce 2 Octobre - produits par Normaal Animation en stop motion. La production des 90 minutes d'animation nécessaires au film et à la série s'est déroulée sur 15 mois et a monopolisé une équipe de 15 personnes avec, à la clé, une histoire à la fois onirique et réelle qui n'aurait pas pu prendre vie sans un pipeline numérique mûrement réfléchi. Rencontre avec les deux créateurs qui nous dévoilent les coulisses et les procédés de fabrication...

 

Eric Serre, co-réalisateur de la série Bonjour le Monde ! : "Bonjour le Monde ! est initialement une série en marionnettes diffusée sur France 5 et produite par Normaal Animation. Pour nos dix épisodes de neuf minutes, nous avons fabriqué 90 minutes d’animation en stop motion avec des marionnettes en papier modelé. Tout ce qui est à l’écran est fabriqué a partir de la même technique, la végétation et les animaux. Cela donne un regard sur la nature, je pense, attentionné, rigoureux et en même temps, poétique..."

 

Anne-Lise Koehler, auteure et co-réalisatrice de Bonjour le Monde ! : "Je suis fascinée par les animaux et j’avais envie de faire quelque chose qui ne soit pas un documentaire animalier et donc d’utiliser la spécificité du stop motion, cette technique permet un décalage poétique pour parler du règne animal et pour donner une vision empathique sur la nature."

 

Pour savoir pourquoi ces créateurs ont utilisé le stop motion et découvrir le pipeline industriel de la production… regardez la vidéo !

 

 

BONJOUR LE MONDE !

Comment naît-on oiseau, pourquoi naît-on insecte, mammifère ou poisson ? Les sculptures de papier de Bonjour le Monde animent le spectacle de la vie sauvage.

Idée originale : Anne-Lise Koehler

Réalisateurs : Anne-Lise Koehler, Eric Serre

Compositeur : Standaard (studio son)

Production : Normaal avec la participation de France Télévisions & RTS

Producteur : Alexis Lavillat

Diffuseur : France Télévisions (France 5)

 

Bonjour le Monde ! était diffusé tous les samedis matin à 10h sur France 5 entre le 18 mai et le 29 juin 2019. L'adaptation de la série au cinéma est sortie sur grand écran le 2 octobre 2019...

  • 2 octobre 2019 à 17:00

IBC 2019 : Adobe Premiere Pro industrialise le multi formats…

Adobe Premiere Pro industrialise la déclinaison multi formats… © Nathalie Klimberg

Aujourd’hui plus de 300 partenaires technologiques participent à l’extension de la plateforme de production (grâce à son API et ses SDKs ouverts) avec des axes de développement qui tracent leur voie autour des exigences de la narration pour le film et la TV ainsi que la productivité pour les news et le sport…

Tous les ans, Adobe annonce des centaines de nouvelles fonctionnalités pour sa plateforme d’édition et cette année, l’éditeur de Première Pro n’a pas dérogé à la règle avec 500 améliorations dont une performance augmentée en termes d’accélération de calcul (la vitesse de tracking de masque a été multipliée par 4) et plus de 700 plugs in et extensions…

La solution supporte encore de nouveaux codecs (HEVC, Sony Venice V3…) pour permettre au monteur de poser son media sur la timeline sans se poser de questions de compatibilité. Une intégration poussée entre Premiere et After Effects permet désormais l’utilisation de templates de motion graphique sans sortir de Première, l’interface a aussi évolué pour travailler l’audio plus rapidement avec le panel Essential Sound…

 

Mais l’une des fonctionnalités les plus impressionnantes à venir cette année repose sur Sensei, le moteur d’intelligence artificielle et de machine learning d’Adobe dévoilé en 2016… Il s’agit de la mise à jour d’Auto Reframe. Cette fonctionnalité présentée pour la première fois à Adobe MAX 2018 sous le nom de Smooth Operator utilise la technologie Sensei pour recadrer et reformater intelligemment le contenu vidéo selon différents formats d'image, du carré au vertical en passant par le 16:9.

 

Auto Reframe permettra notamment aux utilisateurs d’automatiser la tâche fastidieuse de recadrage manuel du contenu, lors des déclinaisons multiplateformes. Cette nouvelle fonctionnalité pourra être appliquée sous forme d'effet sur des clips individuels ou sur des séquences entières.  

 

A l’écoute permanente de ses utilisateurs finaux, Adobe a beaucoup travaillé pour faire de Premiere, un logiciel de montage mainstream dans les univers de l’industrie cinéma et du broadcast. Et les efforts ont payés ! En 2014, on dénombrait notamment 9 films montés sur Première à Sundance, en 2019, ils étaient 98…

  • 9 octobre 2019 à 17:00

HDR, du tournage à l’étalonnage : la parole à un étalonneur (Partie 5)

Rémi Berge en action sur le pupitre Blackmagic DaVinci advanced. © DR

Afin de vous présenter des mises en œuvre et des réflexions concrètes autour des technologies du HDR, nous avons donné la parole à des acteurs de la production audiovisuelle et cinématographique française s’intéressant de près à cette évolution que nous considérons, avec eux, comme majeure. Après le passionnant échange que vous avez pu découvrir dans les colonnes du précédent numéro de Mediakwest*, et sur lequel vous avez été nombreux à réagir, nous donnons aujourd’hui la parole à un étalonneur suivant au plus près les techniques et usages artistiques. Rémi Berge est affectueusement surnommé par certains de ses amis Monsieur HDR.

 

Le HDR en quelques lignes

Le HDR, c’est une évolution technique du signal vidéo sur deux critères. Le contraste d’abord : jusqu’à aujourd’hui le signal vidéo était basé sur une valeur de luminance maximale définie à 100 nits, selon les possibilités des écrans à tubes cathodiques « de l’époque ». En HDR le contraste est largement augmenté et selon les normes et les technologies d’affichage et de production le niveau de luminance peut aller jusqu’à 10 000 nits. Le second critère qui évolue parallèlement est l’espace colorimétrique qui grandit également fortement passant du Rec. 709 pour la HD jusqu’au Rec. 2020. Pour plus de détails, nous vous invitons à lire nos précédents articles*.

 

 

Mediakwest : Quels types de films étalonnes-tu en HDR ?

Rémi Berge : Pour les longs-métrages, les seules solutions actuellement exploitées sont proposées par Eclair (EclairColor) et Dolby (DolbyVision). En France, il y a peu de projets « fiction » étalonnés en HDR. J’étalonne donc en HDR des documentaires et des magazines. J’ai également préparé des produits pour Apple TV, des boucles d’une heure sur l’Afrique du Sud, la Polynésie, l’Indonésie, etc.

 

 

M. : Nous avions échangé sur un projet de téléfilm (« Mon frère bien aimé » - production Neyrac Films) que tu devais étalonner en HDR ; qu’en est-il ?

R. B. : Sur ce téléfilm, nous avons fait des tests avec le directeur photo, mais à l’époque (en 2016), des problématiques de coût et le manque de maturité des outils nous ont contraints à abandonner l’idée. En effet, les exigences, notamment sur les tons « chair », nous auraient imposé la réalisation de deux étalonnages. À ce moment, l’intérêt porté à cette technologie n’était pas assez important et le différentiel en termes de cibles potentielles n’est pas assez intéressant.

Les productions peuvent être intéressées par le 4K HDR pour le potentiel de vente des programmes à Netflix, mais cela reste incertain. Le surcoût d’un étalonnage HDR lorsque votre principal client diffuse et demande du SDR n’est alors pas justifié. Sur ce projet, le directeur photo était attiré par l’idée, nous avons donc fait des essais en pensant réaliser le produit principal en SDR via un « downconvert ». Le résultat n’était pas à la hauteur d’un étalonnage spécifique SDR.

La conversion de films HDR en SDR est possible. Il existe même des outils dédiés, et les logiciels de postproduction permettent des transcodages depuis des sources encodées suivant une courbe PQ dans un espace Rec. 2020 vers des médias Rec. 709, Gamma 2,4 ; mais sans l’intervention d’un coloriste le résultat est très moyen. J’aimerais étalonner plus de fiction en HDR ; pour moi il n’y a pas de différence entre étalonner de la fiction et étalonner des documentaires.

 

 

M. : Quelle quantité de films étalonnes-tu en HDR ?

R. B. : J’étalonne beaucoup de films. Cette année j’ai étalonné douze 52 min. et sept 26 min. en HDR, dont de nombreux programmes d’excellente qualité pour The Explorers. C’est un tournant, je n’ai jamais autant étalonné en HDR ; avant ce n’était que des essais par-ci, par-là.

 

 

M. : Actuellement, quand tu fais un film en HDR, est-ce en supplément du SDR ?

R. B. : En fait, c’est l’inverse ! Ce sont les étalonnages SDR qui sont réalisés en supplément. Sur l’ensemble des films HDR que j’ai étalonnés, deux ont fait l’objet d’une version HDR, à partir du master SDR, au cas où. Tous les autres étaient une véritable demande d’étalonnage HDR.

 

 

M. : Quelle est ton expérience des différentes normes HDR coexistantes ?

R. B. : Il y a au moins « trois HDR ». J’ai fait des essais en HLG. La NHK et la BBC ont retenu cette norme, pour des raisons pratiques évidentes de rétrocompatibilité en diffusion. Deux téléspectateurs, l’un équipé en HDR et l’autre en SDR, pourront tous les deux profiter de la même source. La courbe hybride Log-Gamma s’adapte en effet toute seule dans le récepteur ; et cela fonctionne parfaitement. Cependant le rendu, tout en étant sensiblement mieux qu’en SDR est beaucoup moins bluffant qu’en HDR 10. Il y a une plus grande dynamique, mais on n’obtient pas l’effet « waouh » ! Pour Dolby, l’investissement financier conséquent dans les licences et la presque obligation de terminer son film chez Dolby freine considérablement son adoption.

Principalement, moi je fais du HDR 10 qui est le format le plus commun. C’est le format de postproduction pour préparer des masters destinés au pressage de Blu-ray par exemple ou pour du broadcast « hors live », du magazine ou du documentaire. Le format HLG de son côté a un intérêt ; c’est la seule solution pour faire du HDR en live : je ne vois actuellement pas d’autres solutions pour le live, même si le rendu n’est effectivement pas aussi bluffant qu’avec une courbe PQ.

Si on revient sur le Dolby Vision, ses grandes forces sont d’être encodé sur 12 bits, là où le HDR 10 se limite à 10 bits, et de pouvoir transporter les métadonnées indiquant les valeurs moyennes et maximales d’intensité lumineuse pour chaque plan du film. On peut donc dire qu’en HDR 10, 8 bits de quantification sont destinés à l’image « normale » et 2 bits sont dédiés aux hautes lumières : le signal de base (SDR) étant encodé uniquement sur 8 bits.

Avec les mêmes comparaisons, en Dolby Vision on dédie une plage de quantification de 10 bits pour l’image « traditionnelle » et 2 bits pour les hautes lumières. C’est pour cette raison que lorsque j’exporte mon master HDR 10, je le fais en 12 ou 16 bits plutôt qu’en 10 afin de m’octroyer une marge qualitative pour la réalisation de mon master SDR (préparé à partir du master HDR repris en source et découpé dans le logiciel DaVinci Resolve). Je pourrais réaliser l’étalonnage SDR à partir du projet d’origine, mais cela reviendrait finalement à étalonner à nouveau le programme et provoquerait un dépassement des limites de temps imposées par le budget.

 

 

M. : Quelles sont les contraintes sur les sources d’images qu’on te fournit pour étalonner un programme en HDR ?

R. B. : Les caméras sont les mêmes pour le HDR et le SDR, les modèles de caméras récentes disposent d’une plage dynamique suffisante. Mais les problématiques que l’on rencontre sont la très grande diversité et le mélange des médias fournis. Pour les magazines, il est courant de travailler à partir d’images issues de trois, quatre ou cinq caméras différentes ; et parmi elles on peut avoir des sources enregistrées dans l’espace colorimétrique réduit Rec. 709. Souvent une ou deux belles caméras sont utilisées, auxquelles viennent se greffer des appareils à la dynamique très éloignée, comme les stabilisateurs DJI Osmo. Il est alors nécessaire de réinterpréter ces médias pour adapter leur dynamique. On s’aperçoit alors très vite du manque d’informations : les hautes lumières sont brûlées. Le HDR supporte mal les aplats et le manque de matière obtenus.

 

 

M. : Il est de coutume de dire que le complément de dynamique apporté par le HDR est là pour offrir toute leur place aux hautes lumières plutôt que pour donner une luminosité générale plus grande à l’image, peux-tu nous préciser ce qu’il en est dans la pratique ?

R. B. : Si je peux me permettre cette comparaison : lorsqu’on a un grand lit, on a quand même tendance à s’étaler un peu dedans. Même si en théorie la dynamique supplémentaire est prévue pour les pics de lumière, lorsqu’on travaille en HDR on étalonne des images légèrement plus lumineuses qu’en SDR ; c’est souvent la demande des clients. Mais même si on me dit : « il faut que ça pète », je me limite parce que les images doivent rester naturelles et homogènes.

 

 

M. : En fonction de la technologie des écrans, seule une zone limitée peut être affichée en haute luminosité, notamment pour des raisons de limitation de consommation et d’écologie. Est-ce que c’est une contrainte pour toi ?

R. B. : Absolument pas, je n’ai pas envie de travailler avec des lunettes de soleil, et si je souhaite bronzer, je préfère aller dehors. Afficher des images à 1 000 nits sur une dalle entière présente peu d’intérêt. Cela doit juste être pris en considération pour des effets d’explosion par exemple. Lorsque dans certains films, on a demandé au monteur d’insérer des flashs au blanc, les écrans Oled réagissent bizarrement ; ils ne sont capables d’afficher ces images que pendant un très court instant ; l’écran a alors tendance à « pomper » ; d’autre part il faut garder à l’esprit que peu d’écrans grand public sont capables d’afficher plus de 800 nits (et encore moins sur toute leur surface).

Cela me permet d’évoquer le sujet de la place du blanc. En HDR, son niveau ne doit pas forcément être réglé à 100 %, et en est même sensiblement éloigné, contrairement au SDR. Je dois donc baisser les niveaux des « flashs au blanc ». La réflexion est la même pour les titrages, je règle leur luminosité à environ la moitié de la courbe de luminosité.

 

 

M. : Regardes-tu ce qui est produit en HDR, par exemple sur Netflix ?

R. B. : Nous regardons régulièrement des programmes HDR sur Netflix avec un écran grand public de qualité. Lors de notre dernier visionnage « critique », sur dix programmes HDR un seul nous semble avoir été étalonné en HDR au départ. Les autres ont certainement été « gonflés » en HDR avec pour résultat des images hyper agressives, des hautes lumières excessivement lumineuses, et des titrages « explosifs » : c’est de l’aberration commerciale.

Certaines productions commencent cependant à penser à la pérennité de leurs films. J’ai étalonné un documentaire diffusé sur Arte, donc en HD et en SDR. L’étalonnage HDR a été pensé pour les futures distributions : c’est un investissement. Pour ce documentaire, j’ai fait l’étalonnage en HDR suivi d’une passe en SDR à partir du master HDR. C’est pour moi la meilleure solution actuelle, tant technique que commerciale.

Je pourrais choisir de travailler en ACES (une technologie qui adapte le traitement du signal vidéo en fonction des caractéristiques des différents étages de la chaîne de production : sources, outils de travail, écrans, etc.) et de préparer deux sorties différentes en adaptant l’étalonnage, mais cela revient finalement quasiment à réaliser deux étalonnages différents.

Il serait également envisageable de travailler d’abord en SDR et d’étalonner le programme HDR dans un second temps. Dans ce sens, la problématique la plus importante se situe dans le passage de l’espace colorimétrique Rec. 709 à l’espace Rec. 2020, ou plus précisément à l’espace DCI P3 au sein de l’espace Rec. 2020 (cf. la suite de l’article).

Pour préparer l’étalonnage SDR à partir d’un master HDR il faut être attentif à la quantification du signal. Pour simplifier, on peut dire qu’en SDR, on travaille sur 10 bits de 0 à 1 023, alors qu’en HDR c’est très différent. La courbe PQ prévoit un niveau théorique maximum de 10 000 nits, qui ne sont pour l’instant affichés par aucun écran, le BVM X300 affichant 1 000 nits maximum.

Sachant que dans le signal du HDR on travaille le signal « habituel » dans une plage entre 0 et 300 nits, et que le reste est consacré au traitement des hautes lumières, on n’utilise qu’une petite partie de la plage de quantification pour la majorité du signal utile. C’est la raison pour laquelle je prépare mes masters HDR en 12 ou 16 bits avant d’appliquer ma courbe de réduction (LUT) sur le film entier et de faire une adaptation de l’étalonnage plan par plan. Dans ce sens, l’adaptation colorimétrique se passe plutôt bien.

 

 

M. : Tu te contrains dans l’espace colorimétrique DCI P3 pour l’étalonnage en HDR, peux-tu nous en expliquer la raison ?

R. B. : J’étalonne dans l’espace colorimétrique Rec. 2020, mais je me limite à l’espace DCI P3 à l’intérieur de cet espace Rec. 2020. Le matériel grand public n’affiche pas du tout le Rec. 2020 et même si de nombreux modèles récents s’en rapprochent, tous n’affichent pas l’entièreté de l’espace DCI P3 non plus, il en résulte trop de fausses couleurs en cas de sur-saturation. Les derniers modèles Oled le font. Mais l’espace DCI P3 est déjà bien plus large que le Rec. 709. Les couleurs situées entre le Rec. 709 et le Rec. 2020 sont des couleurs extrêmes, des verts très saturés et hyper lumineux.

Moi, cette contrainte ne me gêne pas beaucoup, je n’ai jamais senti mes couleurs se « tordre » sauf en cherchant volontairement les limites. À partir d’un fond coloré, en « tirant » sur les réglages, à partir d’un certain seuil on voit des choses étranges apparaître, des couleurs qui dérivent ou qui ne peuvent pas être affichées. Mais globalement pour les images « naturalistes » on ne ressent pas l’obligation, ni même l’intérêt d’un espace encore plus large. Sauf cas extrême, lorsqu’on filme par exemple un soleil de face avec des rouges flamboyants que l’on ne peut pas observer habituellement.

J’ai passé les vingt dernières années à étalonner des images et à essayer de les contraindre dans une dynamique et un espace colorimétrique relativement faible.

 

 

M. : Ne penses-tu pas qu’en travaillant avec un espace colorimétrique plus large tel que le Rec. 2020, tes clients et les spectateurs trouvent le rendu de l’image « trop vidéo » ?

R. B. : Associer le caractère cinématographique à la désaturation est uniquement « culturel » ; en effet l’espace colorimétrique du cinéma est plus large que celui de la vidéo. Dès que mes clients demandent un rendu vraiment cinématographique, très désaturé, c’est donc vraiment une notion « culturelle ».

Au cinéma, on fait ce qu’on veut. Les blockbusters tels que « Transformers » nous montrent des couleurs éclatantes sans que l’on se dise : « Hollywood, non, ce n’est pas très cinématographique ». Mais il est vrai que c’est une demande récurrente. Je viens de finaliser l’étalonnage d’un long-métrage où on m’a demandé un rendu Agfacolor. On m’a apporté des livres d’exemples du style voulu, et si on observe bien, les images présentées ne sont pas si désaturées que ça : notre étalonnage sera lui encore plus désaturé. Les couleurs un peu pastel servent à ramener à l’époque… Mais je ne sais pas pourquoi : les gens ne voyaient pas pastel à l’époque ! C’est un rendu… on se fait des films ! On peut aussi faire des films de cinéma avec beaucoup de couleur !

 

 

M. : Travailles-tu en HDR différemment dans ton rapport avec les équipes ? As-tu une interaction particulière avec la production ou interviens-tu uniquement à la fin en récupérant ce que l’on veut bien te donner ?

R. B. : On arrive de toute façon à la fin et on récupère ce qu’on nous donne. Ça a toujours été et ce sera toujours ainsi ! La discussion peut cependant débuter en amont. Les gens sont inquiets parce qu’ils ne savent pas ce qu’il est possible de faire. Tu peux alors leur montrer les possibilités offertes par le HDR ; mais les contraintes de production restent les mêmes. Un tournage peut par exemple débuter idéalement avec deux F55. Très souvent, pour répondre à des besoins supplémentaires, les équipes sont séparées pour couvrir plusieurs actions simultanées, ou filmer plusieurs sujets. Et du coup au lieu de deux F55 pour le champ et le contrechamp, la F55 principale est complétée par un appareil photo.

Le client est alors surpris de ne pas obtenir les mêmes images. C’est simple, tu as une belle image avec de la dynamique et l’autre avec des hautes lumières explosées, des aplats sur les carnations. Les fichiers issus de ces caméras sont en H264, souvent en 8 bits, offrant des possibilités très limitées. Donc tu es contraint à « pourrir un peu » la belle image pour essayer de la raccorder avec l’image de plus belle qualité ; le contraire étant impossible.

 

 

M. : Lorsqu’on te propose un projet HDR, demandes-tu des caméras particulières ?

R. B. : Je n’ai rien à imposer : ce que je peux dire c’est qu’en 12 ou 16 bits et en log c’est bien, en 8 bits et en Rec. 709 c’est très risqué, c’est beaucoup moins bien ! Ce langage, je l’ai toujours eu, parce que c’est toujours vrai, même si c’est encore plus vrai lorsque l’on prétend étendre ses images dans une plage dynamique plus grande.

 

 

M. : Et pour le montage, y a-t-il un workflow différent ?

R. B. : Pas du tout ! Les monteurs travaillent en Rec. 709 et voient l’image telle quelle. Contrairement au SDR où l’étalonnage de documentaires ou de magazines est souvent réalisé à partir d’un mixdown du programme préalablement découpé, pour le HDR je repars systématiquement des sources.

J’étalonne souvent sur DaVinci Resolve de Blackmagic Design. Comme le logiciel est disponible à moindre coût, les productions peuvent prendre en charge la conformation en interne et me fournir un projet prêt à l’emploi. Cela leur coûte moins cher.

 

 

M. : Peux-tu nous parler de ta configuration pour l’étalonnage des programmes en HDR sur DaVinci Resolve ?

R. B. : Je travaille donc sur une station DaVinci Studio de Blackmagic Design. L’écran est le modèle BVM-X300 de Sony. La majorité des programmes que j’étalonne en HDR est en 4K DCI (4 096 x 2 160) et en 50p. Les volumes de médias à traiter sont donc importants. Pour obtenir un affichage temps réel, je ne peux pas me contenter d’un iMac, ni même d’un iMac Pro. J’ai donc dû configurer une station Linux appuyée par un boîtier hébergeant plusieurs puissantes cartes graphiques.

Avec DaVinci, on peut choisir de travailler à partir de LUT (sortes de courbes appliquées au signal vidéo). On peut également utiliser un mode plus évolué, le DaVinci YRGB color managed. C’est un « mode de management colorimétrique » qui permet de choisir les Gamma et Gamut des sources, timelines et destinations.

Après avoir testé de nombreuses solutions, notamment via la fabrication de mes propres LUT, et le travail en ACES, je trouve que la solution la plus simple et la plus efficace est celle du color management. L’intérêt de l’ACES c’est de ramener les sources dans un espace colorimétrique commun, avec des transpositions d’espaces colorimétriques que je trouve assez efficaces. Mais le fait de travailler en ACES dans le logiciel modifie la réaction des outils ; je trouve alors que l’étalonnage peut devenir plus complexe à réaliser.

Je travaille dans une timeline contrainte en DCI P3, avec un point blanc D65. Le film est ensuite encodé dans l’espace Rec. 2020 dont on n’utilise du coup qu’une partie restreinte. C’est une demande des broadcasters, dont Orange et Netflix, et, à l’origine, des fabricants de téléviseurs, de ne pas dépasser l’espace DCI P3, limite des écrans actuels. On se contraint donc dans du P3 pour des raisons de matériel en bout de chaîne.

J’avais étalonné mes premiers films HDR dans l’espace Rec. 2020 total. En fait je ne débordais pas beaucoup de l’espace DCI P3. Ce qui est intéressant à observer cependant, c’est qu’au vu de la différence entre les deux espaces, on obtient en Rec. 2020 des couleurs étonnantes qui ne peuvent être créées que dans ce mode ; et je parle là non pas d’une saturation plus élevée des couleurs mais de tonalités et nuances différentes. Notamment dans les verts, dans les forêts, j’obtenais des résultats intéressants et un rendu très particulier.

Le matériel va évoluer, mais le Rec. 2020 ne va pas être disponible rapidement sur les téléviseurs grand public ; les pics de luminosité évolueront en premier. La luminosité est actuellement plus forte sur les écrans LCD, mais le rendu dans les noirs est beaucoup plus subtil avec les écrans Oled.

 

 

M. : Le HDR et le réalisme…

R. B. : Je trouve que d’afficher les images de façon naturelle est un véritable plus. Les hautes lumières ne sont pas encore celles de la vraie vie ; mais dans la vraie vie l’œil et le cerveau font usage de différents procédés d’adaptation pour s’adapter aux différences de lumières de la scène, et on ne souhaite pas que le spectateur doive fermer son iris pour voir une partie de l’image.

Avec le HDR, lorsqu’un point brillant est présent dans l’image, lorsqu’un reflet ou un flare traverse l’écran, on peut les afficher naturellement. Bien entendu on n’étalonne pas les visages à 1 000 nits. Un visage reste éclairé de la même manière en SDR et en HDR, on arrive facilement à le rendre correctement sur un écran. C’est lorsque l’on souhaite donner une certaine luminosité à une scène, une luminosité naturelle, que le HDR nous ouvre de nouvelles possibilités en nous évitant de tout compresser dans les hautes lumières. On dispose des « densités » depuis le début ; le fait de pouvoir afficher la dynamique, c’est vraiment bien.

Concernant l’espace colorimétrique disponible, plus il sera étendu, plus on sera heureux. Après on n’est pas obligé de s’étaler dedans copieusement ! En SDR, une fois posé le niveau lumineux des carnations, on compresse le reste au-dessus et on est systématiquement obligé de bricoler l’image pour afficher un ciel, pour conserver les hautes lumières ou éviter que les fenêtres en arrière-plan soient « brûlées ».

 

 

M. : Parlons artistique. Quelle est ta technique de travail sur le HDR ? Est-ce qu’on peut dire que tu étalonnes ton image de la même manière sur 70 % de ton signal et que c’est au-dessus que tout change ? Est-ce que toute ta méthode de travail est modifiée ?

R. B. : On peut dire ça ! Je fais à peu près la même chose dans le bas de la courbe. Mais on a quand même tendance à être plus lumineux, parce qu’on a plus de place et qu’on s’étale vite dedans ! Maintenant j’essaye de faire quelque chose de joli, l’outrancier ne m’intéresse pas. Il y a quelques années, les premières démos HDR sur les salons faisaient mal aux yeux. On te présentait deux images, avant/après, sur deux moniteurs. Et finalement tu te disais presque que tu préférais le … avant ! parce que l’après était « too much ».

Le HDR réduit le carcan, mais toutes les images ne sont pas naturellement lumineuses, et ne doivent pas être étalonnées exagérément lumineuses. Par contre, tu peux avoir des images denses et d’un seul coup un point lumineux qui apparaît peut vraiment être lumineux ! On reste cependant loin de la lumière naturelle. Dans la rue, le reflet d’un soleil sur une voiture est mesuré à 20 000 nits, loin des 1 000 nits que peut afficher un écran HDR actuellement.

 

 

M. : Tu fais une véritable veille technologique sur le HDR. As-tu suivi les évolutions matérielles pour le HDR dans les salles de cinéma ?

R. B. : Pour les salles de cinéma, Eclair pousse sa solution EclairColor. Mais au cinéma, les niveaux de luminosité sont naturellement beaucoup plus faibles, du fait de la projection, comparativement aux niveaux des écrans (moniteurs ou téléviseurs). En SDR le niveau du blanc est prévu à 48 nits seulement et en HDR à 105 nits. Une nouvelle génération d’écrans est en train d’arriver sur le marché. Ils sont constitués de panneaux à technologie Microled s’assemblant par modules pour créer des écrans de tailles variables. Ils permettent de dépasser les limites inhérentes à la projection. C’est inéluctable, à terme les écrans de projection n’existeront plus. Dans une salle de cinéma, on est dans le noir, donc 48 nits c’est bien en SDR, 105 c’est bien en HDR, mais pourquoi ne pas aller plus loin, 1 000, 4 000 nits, ou plus.

 

 

M. : As-tu opéré des changements dans ta salle d’étalonnage pour le HDR ?

R. B. : Il y a longtemps que j’ai arrêté de travailler dans le noir. Quand j’avais 20 ans, je travaillais dans l’obscurité totale, et je ne voulais surtout pas de lumière qui pût se refléter sur l’écran ; il est vrai cependant que les tubes étaient très sensibles aux reflets. Aujourd’hui j’étalonne avec une petite source lumineuse modulable placée au-dessus de moi, j’utilise également deux « phares réglables » correctement calibrés à 6 500K dirigés vers une toile (un écran de projection), au fond de la salle, derrière mon moniteur. Lorsque je travaille en SDR, je les baisse et je les monte en HDR. Une journée d’étalonnage en HDR étant déjà plus fatigante, c’est bien de se sauvegarder un peu.

 

 

M. : Pour illustrer nos propos, nous avons passé en revue quelques exemples de programmes étalonnés en HDR…

R. B. : Pour cet entretien, après une demi-heure à observer des images en HDR, le retour au SDR est difficile ; il provoque une sensation de manque. On a juste du mal à revenir en arrière. La tonalité des images reste la même, mais de nombreux éléments disparaissent ; il manque une impression de relief. Comme cette image d’un hélicoptère traversant de superbes paysages : en HDR on voit nettement la petite lumière clignoter ; elle disparaît totalement en SDR.

 

 

Un grand merci à Rémi Berge qui s’est prêté avec enthousiasme à ce grand débat technologique et artistique.

 

Article paru pour la première fois dans Mediakwest #31, p.106/110. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

 

 

* LISEZ NOS AUTRES ARTICLES DÉJÀ PARUS DANS LE MAGAZINE MEDIAKWEST ET DISPONIBLES EN LIGNE :

 HDR : les premières clés du high dynamic range (partie 1)

• HDR : les nouveaux termes apparus (Partie 2)

• HDR : Comment peut-on en profiter ? (Partie 3)

HDR : Du tournage à l’étalonnage - La production (Partie 4)

  • 25 septembre 2019 à 17:05

Merging+ présente les pouvoirs d'Anubis !

Merging+ présente les pouvoirs d'Anubis ! © DR

MERGING + ANUBIS est un véritable produit différent qui s'adresse à des marchés très divers. Il s’adresse à la clientèle traditionnelle de Merging dans les domaines de la radiodiffusion, de la post-production et de l'enregistrement haut de gamme, en tant que puissant complément de leur installation existante. Plus important encore, il fournit des fonctionnalités uniques à tout propriétaire de studio ou à tout musicien recherchant une unité AD/DA compacte qui offre la qualité que vous attendez de Merging, ou un contrôleur de moniteur complet qui s’intègre à n’importe quelle station de travail audio numérique (DAW).

 

Anubis introduit un nouveau concept de « Modular by Software ». Effectivement, le même matériel peut être utilisé pour des flux de travail totalement différents ou ce que nous avons choisi d'appeler « missions ». Une mission pourrait gérer votre monitoring multicanal dans la salle de contrôle et une autre mission pourrait vous enregistrer en studio. Le Monitor Mission nécessite le contrôle de plusieurs haut-parleurs et des casques avec des fonctions de talkback intégrées, de la gestion des basses et de l’alignement temporel, ainsi que de nombreuses autres fonctionnalités indispensables à la gestion de votre environnement d’écoute. Le Music Mission nécessiterait un mixage à faible temps de latence, un contrôle des sources de signal, des plug-ins innovants, de superbes presets micro et toutes les fonctionnalités nécessaires pour être le partenaire indispensable du musicien.  

 

Cette flexibilité peut être attribuée au fait qu'Anubis est le premier produit maison à utiliser la puissante technologie de transport de média ZMAN, déjà utilisée par les clients OEM. ZMAN ne se contente pas de gérer la connectivité AES67, il dispose également d'un important traitement DSP/FPGA embarqué qui fournit une multitude d'autres fonctionnalités programmables.

 

La mise en place d’Anubis est proposée dans son rôle de Mission Monitor et la proximité immédiate de divers événements permet des lancements simultanés des deux côtés de l’Atlantique. La première présentation publique est fixée au 21 mars à la Convention AES à Dublin, sur le stand 404, où le PDG de Merging, Claude Cellier, se tiendra sur un stand partagé avec PSI Audio et Sonosax. Cette présentation sera immédiatement suivie dès le 2 Avril par Prolight + Sound sur le stand 8.0 C19. La semaine suivante, le NAB 2019 qui démarrera le 8 Avril, permettra le lancement dans la région nord-américaine sur le stand #3035, dans le hall central.

 

D'une certaine façon, Anubis peut être considéré comme une amélioration très significative de la gamme extrêmement populaire de l’interface audio en réseau de Merging. Cette interface audio exceptionnellement compacte est un convertisseur A/D et D/A de 32 bits autonome, capable de gérer des entrées micro ou de niveaux de lignes, et quatre sorties de lignes analogiques, plus deux sorties casque de haute qualité. Le grand encodeur rotatif permet un contrôle précis du volume de contrôle, mais il facilite également le réglage des paramètres, tandis que l’affichage multi-touch et les boutons dédiés permettent une sélection intuitive de tout ce qui doit être contrôlé. Le talkback intégré, les circuits de repère et les fonctions de gestion des haut-parleurs en font une unité idéale dans toutes les salles de contrôle.

 

Le véritable pouvoir d’Anubis devient évident dès qu’il fait partie d’un réseau plus vaste. Conçu pour s'intégrer dans un environnement AES67 ou ST2110, il est remarquablement évolutif lorsqu'il est associé aux unités Hapi ou Horus de Merging, voire à tout autre périphérique AES67. À ce stade, les E/S supplémentaires permettent à Anubis de devenir le centre d’une matrice allant jusqu’à 256 x 256, avec le contrôle des flux entrants et sortants. Instantanément, des tâches telles que le contrôle du moniteur audio immersif deviennent extrêmement simples. En plus des E/S audio, Anubis possède également une connectivité GPIO ou MIDI, une gamme de pilotes couvrant MacOS, Windows et Linux, le décodage Ambisonic et la réduction du « cough cut » sur chaque entrée. Bien que la liste complète des fonctionnalités ne puisse pas être détaillée ici, il convient de noter qu'Anubis offre le choix du taux d'échantillonnage et de la qualité audio que vous attendez d'un produit Merging, avec comme exemple la plage dynamique d'entrée de ligne généralement de 139 dB (pondérée A).

 

La clientèle traditionnelle de Merging a toujours été motivée par un son de qualité. L'enregistrement sur DSD et DXD a donc toujours été une caractéristique de nos produits. Il en est de même avec Anubis. Deux modèles sont disponibles. Pro : gère les fréquences d’échantillonnage jusqu’à 192 kHz, Premium : offre un son haute résolution jusqu’à 384 kHz, DXD et tous les types de DSD jusqu’à 256. Anubis est à un prix très compétitif avec des prix de détail recommandés avant taxes et coûts d'importation respectivement de 1345.50 euros et de 1795.50 euros    

 

Les utilisations pratiques d’ANUBIS + MONITOR sont notamment le contrôle des moniteurs dans les studios, les camions de production à distance et les salles de montage, la surveillance des flux audio AES67 entrants, l’enregistrement de voix off ou en tant que complément très mobile pour l’enregistrement sur le terrain. Anubis peut fonctionner grâce à sa propre alimentation, par batterie et/ou PoE (Power over Ethernet) si une redondance est requise et il peut être placé sur un bureau ou monté sur un pied de microphone standard.

 

Le concept de « Modular by Software » déjà mentionné est essentiel à l’évolution future d’Anubis. Cela signifie que l'unité matérielle identique peut être reconfigurée pour remplir une fonction complètement différente en chargeant des programmes alternatifs. Il modifie l'interface utilisateur pour l'adapter au flux de travail idéal et il reconfigure le moteur Anubis pour le programme choisi, en vous offrant encore plus de fonctionnalités. Cela apporte à l'utilisateur non seulement un utilitaire supplémentaire, mais cela permet également un chemin de mise à niveau simple vers les applications futures. Même si le Monitor Mission et le Music Mission sont planifiés pour 2019, le calendrier prévoit l’introduction future de plusieurs autres missions, afin de répondre aux différents marchés.

 

L'extrême flexibilité du matériel Anubis, sa taille compacte, sa qualité audio exceptionnelle et l'évolutivité, en particulier dans un environnement en réseau, caractérisent à coup sûr MERGING + ANUBIS comme étant « unique en son genre ».

  • 24 septembre 2019 à 17:00

IBC 2019 : les nouveautés micro et monitoring de Sennheiser et Neumann

IBC 2019 : les nouveautés microphones et solutions de monitoring de Sennheiser et Neumann © Nathalie Klimberg

Systèmes sans fil, technologies audio immersives ou équipements de studio d'excellence : les solutions qui étaient exposées par Sennheiser et Neumann au salon IBC garantissent une qualité audio aux productions de tout type et de toute taille. Ont été présentés les systèmes sans fil numériques d’entrée de gamme XS Wireless Digital 2,4 GHz de Sennheiser pour caméras DSLR/DSLM ; le mini émetteur de poche UHF professionnel SK 6212 et le récepteur pour caméra EK 6042 pour les productions en extérieur et en studio ; ainsi que le caisson de basse Neumann KH 750 DSP et les casques de monitoring de studio Neumann NDH 20...

 

Producteurs et créateurs qui ont visité le stand pouvaient y découvrir un large choix de microphones sans fil, notamment des séries XSW-D, AVX, évolution wireless, et Digital 6000 et Digital 9000. Ces systèmes assurent une transmission sans fil de grande qualité dans différentes gammes de fréquences, 2,4 GHz, 1,9 GHz et UHF, pour les professionnels et les utilisateurs éclairés.

Dans la catégorie des micros filaires pour caméra, le stand a mis en avant la série Sennheiser MKE et les micros-canons standard MKH 8060 et MKH 416 de Sennheiser, ainsi que les modèles Neumann KMR 81 i et KMR 82 i.

 

Monitoring de studio et d’extérieur

Les casques Neumann NDH 20 sont des solutions d’une précision exceptionnelle pour le monitoring de studio. A ceux-ci s’ajoutent les casques et micro-casques HD 25 et HD/HMD 300 de Sennheiser pour studio de production et tournage vidéo.

Les systèmes de monitoring de studio Neumann sont un incontournable des solutions audio présentées à l’IBC. Deux configurations stéréo étaient exposées : deux enceintes de monitoring KH 80 DSP avec un caisson de basses KH 750 DSP et deux enceintes de monitoring KH 310 avec KH 750 DSP. Les deux installations sont contrôlées par l’application Neumann.Control.

Sur le stand, Neumann exposait ses microphones de studio BCM 104, KM 184, TLM 103 et U 67.



AMBEO Immersive Audio

La zone consacrée à l’expérience audio immersive AMBEO a mis en avant deux workflows de bout en bout pour le multicanal et des productions Ambisonics. Les visiteurs ont eu l’occasion de créer un mix audio pour les deux workflows en VR, via l’interface immersive dearVR SPATIAL CONNECT de Dear Reality.

Fut également présent sur le stand, le prototype du microphone AMBEO Sports Microphone Array pour les prises de son 360º lors des rencontres sportives.

Dans le cadre du programme de partenariat AMBEO for VR, Solid State Logic a fait une démonstration d’un enregistrement live immersif de mix pour la télévision réalisé avec le micro Sennheiser AMBEO VR et plusieurs microphones d’appoint.

  • 25 septembre 2019 à 18:37

Doug Delaney, coloriste sur « Captain Marvel »

« Nous avons utilisé certains des nouveaux outils de Baselight, tel Base Grade, qui offre un moyen vraiment unique de peaufiner l’image. Base Grade a révolutionné la manière dont j’aborde l’étalonnage de contenus en HDR et EDR

La finition de « Captain Marvel », la superproduction sortie au début de l’année, a été effectuée chez Technicolor sous la direction de Doug Delaney. Nous avons rencontré Doug sur le stand Filmlight durant le NAB.

 

Doug Delaney a commencé sa carrière dans le domaine des effets spéciaux avant de se spécialiser dans la finition numérique, avec de nombreux longs-métrages à son palmarès. Son but a toujours été de développer toujours plus ses compétences, ses techniques et ses méthodes.

C’est relativement tard dans la postproduction de Captain Marvel que Doug a rejoint l’équipe. « C’est un film très technique, avec énormément d’effets visuels, dit-il. Je suis intervenu sur la couleur à un stade beaucoup plus avancé que dans mes autres projets. L’univers cinématographique Marvel possède un langage visuel bien établi. Certains éléments ont une couleur définie : par exemple, le costume de l’héroïne doit être d’une couleur précise quel que soit l’environnement, parce qu’il représente un personnage emblématique. »

Lorsqu’un film comporte autant d’effets complexes, les pipelines d’effets visuels sont créés environ un an avant le début de la postproduction proprement dite. Cette préparation inclut le « look development », qui relève autant des effets visuels que du tournage lui-même. Les effets font l’objet d’un grand soin.

« Le look development et les LUT existent déjà et ont été distribués pour des intervenants dans le monde entier qui travaillent sur ces projets en même temps. Les éléments visuels généraux ont été approuvés par les réalisateurs et par le responsable des effets visuels, avant la finition. C’est un processus différent des autres films, pour lesquels le look development ne commence qu’au moment de l’étalonnage final. Pour Captain Marvel, à l’inverse, mon rôle était plutôt d’appliquer des effets qui avaient été décidés à l’avance. »

« Doug Delaney veillait donc à ce que le résultat soit conforme au cahier des charges, ce qui peut passer par un travail sur l’uniformité des séquences ou, bien entendu, par l’amélioration et l’enrichissement d’éléments visuels. « Mais en général, il ne faut pas que l’étalonneur ait la main trop lourde, car cela se ressentirait sur la qualité des effets d’un point de vue créatif, précise-t-il. Nous avons utilisé certains des nouveaux outils de Baselight, par exemple Base Grade, qui offre un moyen vraiment unique de peaufiner l’image. Base Grade a révolutionné la manière dont j’aborde l’étalonnage de contenus en HDR et EDR. »

Pour un film comme Captain Marvel, il faut accorder un grand soin à la transition entre les différents effets visuels. Le coloriste a donc fait appel aux puissants outils de manipulation de l’éclairage disponibles dans Baselight, afin de « fluidifier » les effets au service de l’intrigue. Ainsi il peut y avoir une séquence qui marche déjà très bien, mais à laquelle on ajoutera de la lumière dynamique pour améliorer la transition entre les effets visuels d’un plan à l’autre.

 

Une solution tout-en-un

Un autre changement important dans la manière dont les effets visuels sont créés aujourd’hui, c’est que la solution d’étalonnage prend également en charge une grande partie du compositing et de la finition. « Nous ne sommes plus simplement des coloristes : nous assurons toute la finition », insiste Doug.

Le coloriste principal n’est donc pas seulement responsable du look final du film : il doit être à la tête d’une équipe d’experts qui œuvrent ensemble vers un but commun en utilisant le système de catégories et de notes intégré à Baselight pour communiquer leurs besoins, créer des listes de tâches, et suivre l’évolution du projet.

Doug Delaney et Chris Townsend, le superviseur des effets visuels, étaient les principaux responsables du look final de Captain Marvel. En tant que superviseur de la finition, cependant, Doug s’appuyait sur toute son équipe créative.

« Chris et moi faisions l’étalonnage et présentions notre travail aux réalisateurs et à l’équipe créative de Marvel, se souvient Doug. Jeff Pantaleo, l’assistant coloriste, m’a aidé pour la version 2D. Il y avait ensuite d’autres spécialistes – Gray Marshall, Dave Franks, Travis Flynn et Jason Fabbro – pour le tracking, la rotoscopie, le travail technique intermédiaire ou encore les versions DVD et Blu-ray. »

L’équipe a également aidé à la production des différents livrables, qui font partie intégrante du travail de finition d’une superproduction comme celle-ci. « On commence la version 3D stéréoscopique avant que la version 2D ne soit complètement terminée, donc certains membres de l’équipe changent de tâche en cours de route. Ensuite, on commence les versions EDR, projection laser, HDR, Imax et ainsi de suite, avant d’avoir terminé la version 3D : au final, il peut y avoir dix versions du même film, voire plus, souligne Doug. Je dis souvent que c’est un peu comme de jongler avec des assiettes tournantes. Plus il y a d’assiettes, plus c’est compliqué, et il faut donc toute une équipe pour que tout se passe bien. »

 

Doug Delaney vante également les fonctions de Baselight permettant d’assurer l’uniformité des couleurs entre les différentes versions. « Nous finissions la version 2D, puis l’importions dans la version stéréoscopique. Ensuite, si nous remarquions un changement à apporter, nous le faisions dans la version 2D avant de le répercuter dans les autres. Sans Baselight, le processus aurait été extrêmement complexe. »

Baselight a également fait ses preuves en tant que puissant outil de finition et a été utilisé pour la conformation de Captain Marvel en plus de l’étalonnage. « C’est pratiquement la seule manière de faire les choses, parce que ça vous permet de propager toute l’information à travers toutes les versions, qu’il s’agisse de la couleur, de l’incrustation ou des effets visuels », explique-t-il.

« Ce qu’il y a d’extraordinaire, avec les films de Marvel, c’est que leurs créateurs cherchent sans cesse à s’améliorer, à atteindre la perfection. C’est également vrai en ce qui concerne le montage : ils font des petits changements jusqu’à la toute dernière minute. En travaillant sur les contenus natifs, nous pouvons donc être très flexibles et faire sans problème tous ces changements. »

 

Nous avons demandé à Doug si, sur un projet de cette ampleur, il avait trouvé certaines scènes particulièrement difficiles ou passionnantes : la première à laquelle il a pensé n’était pas une scène avec des effets visuels, mais une scène qui se déroulait au crépuscule et qui avait été tournée sur plusieurs jours, la lumière étant bien entendu différente à chaque fois.

« Le soleil se couche sur la Louisiane. C’est une scène très émouvante, se souvient-il. Mais les couleurs n’étaient pas vraiment uniformes, alors nous avons fait appel à différentes techniques d’étalonnage pour harmoniser le tout : ainsi, le spectateur s’investit dans la scène sans distractions. En tant que coloristes, nous faisons régulièrement ce type d’ajustement, mais leur effet sur le film peut être aussi important que celui d’une scène riche en effets visuels. »

 

L’autre exemple qu’il évoque est celui de la bataille dans l’espace, vers la fin du film. « Les effets visuels sont extrêmement riches, et ils ont été créés avec beaucoup de soin et d’expertise. Mais il y a également certaines scènes où nous avons beaucoup retouché les couleurs et l’éclairage, faisant presque la finition des effets visuels avec Baselight. Nous ajoutons de la profondeur à ces scènes, par exemple en ajoutant aux plans en contrechamp l’éclairage correspondant à un effet visuel qui apparaissait dans le plan principal, assurant ainsi un bon raccord. »

Le message clair : dans l’univers actuel de la postproduction, Baselight fait plus que la couleur, et si FilmLight met à la disposition des créateurs les outils dont ils ont besoin, c’est parce qu’elle comprend à la fois les facteurs commerciaux, créatifs et techniques du métier.

« Ce que l’on apprécie particulièrement, avec FilmLight, c’est qu’ils nous écoutent, conclut-il. Par exemple, sur ce film, Jacqui Loran et Sam Lempp – de l’équipe d’assistance de FilmLight – étaient en permanence dans le studio avec nous. Ils veulent comprendre les pressions auxquelles sont soumis leurs clients et la manière dont ceux-ci utilisent leurs outils sur le terrain, dans un véritable environnement créatif. Ils font évoluer les fonctions et outils de Baselight pour la gestion des couleurs en fonction de l’évolution des besoins du coloriste et des dernières technologies. »

 

Article paru pour la première fois dans Mediakwest #32, p.104/105. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 9 septembre 2019 à 17:23

Retour sur le NAB 2019 – Spécial audio

© DR

Même si certains fabricants n’attendent pas les salons pour annoncer et présenter leurs nouveaux produits, le NAB de Las Vegas figure malgré tout parmi les rendez-vous importants retenus par les constructeurs audio pour présenter leurs nouveautés sur le sol américain. Et si l’audio immersif, les encodeurs ATSC3 et AC4 restent au centre des préoccupations, notre sélection produits montre une certaine activité du côté du tournage, notamment des enregistreurs.

 

ADOBE

Audition, le logiciel audio d’Adobe revient avec une version 12.1 dotée de quelques améliorations parmi lesquelles une option d’enregistrement Auto Punch avec pré-roll ajustable et décompte visuel et un zoom qui désormais peut s’ajuster de façon à ce que le ou les clips sélectionnés remplissent entièrement l’écran. Également au menu, une fonction de mix automatique de type Ducking qui génère une courbe d’automation que l’on peut affiner dans la section Ducking afin d’atténuer plus ou moins le niveau de la piste musique ou ambiance en fonction du volume de la piste voix, deux raccourcis pour décaler les clips vers la piste inférieure ou supérieure, ainsi que l’ajout et l’édition de points clés.

 

STUDIO TECHNOLOGIES

Studio Technologies profite du NAB pour présenter la 207 eSports Console, un produit conçu pour le marché du e-sport et plus précisément les compétitions de gaming sur PC. Doté d’un micro, d’un convertisseur AD, d’entrées analogiques (XLR 5 broches, jack TRRS, jack TRS) et Dante, ce nouveau pupitre permet l’intégration directe avec le PC des joueurs en réseau. Compatible avec les principaux combinés micro/casque utilisés en broadcast comme chez les gamers, l’appareil propose également une entrée ligne stéréo afin de connecter directement la sortie du PC et la diffuser ensuite en réseau sur deux canaux Dante, tandis qu’un bouton à trois positions permet de choisir parmi les différentes source de monitoring. L’ensemble est alimentable en PoE et configurable via l’application maison STcontroller.

 

BOSE

Évolution du B30, le SoundComm B40 est un micro/casque d’intercom dédié aux applications pro, notamment dans les environnements bruyants. Alimenté par deux piles AA, il comprend un système de réduction de bruit actif, un micro dynamique plus sélectif que dans la version 30 et de surcroît orientable pour permettre le positionnement à gauche ou à droite. Il sera disponible en version mono XLR 4 femelle ou stéréo mâle 5 broches suivant les besoins.

 

PLIANT TECHNOLOGIES

Conçu avec l’idée de simplifier les connectiques XLR utilisées entre les casques intercom et les boîtiers ceinture, la série d’adaptateurs FleXLR de Pliant Technologies permet par exemple de réaliser des liaisons mâles XLR 4 vers mâle XLR 5 broches (référence PAC FLX-45) ou encore mâle XLR 4 vers mâle XLR 4 (référence PAC FLX-44). Toujours chez Pliant, la nouvelle série MicroCom est un système d’intercom simple canal très simple d’utilisation reposant sur un boîtier ceinture opérant sans base et permettant à cinq ou dix utilisateurs (suivant le modèle) de communiquer en full duplex avec une autonomie d’une dizaine d’heures. Une première version opérant dans la bande des 900 sera d’abord disponible sur le marché américain, tandis qu’une version 2,4 GHz conçue pour le marché européen est attendue avant la fin de l’année.

 

ZAXCOM

• Enregistreur Nova

Nouvel enregistreur mixeur compact, le Zaxcom Nova intègre quatre entrées micro/ligne dotées de la technologie NeverClip, deux entrées lignes, quatre entrées AES configurables (AES3 avec SRC, AES42 ou entrées pour récepteurs HF) et six sorties mixtes analogiques ou AES. La section enregistreur peut produire jusqu’à douze canaux 24 bits et travailler à toutes les fréquences normalisées jusqu’en 192 kHz, les fichiers produits au format Marf II ou BWF étant stockés sur une ou deux cartes SD en simultané. Pour commander l’ensemble, la machine propose cinq encodeurs multifonctions (gain d’entrée, gain des émetteur ZaxNet et fader) organisés en quatre banques de cinq. Notons enfin que deux récepteurs doubles Zaxcom QRX212 mono ou stéréo peuvent être enfichés directement dans le Nova, ce qui peut représenter un total de huit canaux HF avec la gestion des fréquences et du scan HF intégrée. Le Nova propose deux entrées redondantes pour l’alimentation et sa disponibilité est annoncée pour cet été.

• Récepteur URX100

Avec l’URX100, Zaxcom revisite le concept de récepteur IFB en présentant un récepteur stéréo UHF utilisant la transmission numérique maison avec time-code et une sortie casque pour l’IFB, mais en y ajoutant un boîtier intercom avec un micro commutable type PTT (Push To Talk) et une entrée Talkie-Walkie. Selon ses concepteurs, l’ensemble peut faire office de lien mixette/caméra avec monitoring casque, liaison perche HF avec intercom entre le perchman et le chef op, ou encore récepteur avec TC pour reflex. Notons que les configurations de routing et de monitoring du circuit d’intercom peuvent s’effectuer via l’App dédiée et que l’autonomie annoncée est de huit heures via trois piles AA alkaline. L’URX100 est dès à présent disponible en quantité limitée.

• Émetteur ZMT3-X

Zaxcom poursuit le développement de la série ZMT3 avec le petit émetteur ZMT3-X qui reprend les principales caractéristiques du ZMT3 standard (enregistrement sur micro SD, émission HF numérique…), mais se singularise avec un boîtier un peu plus épais taillé pour les tournages extrêmes avec son revêtement caoutchouté résistant à l’eau. Autre particularité, il propose deux entrées format microDot pour travailler en mono ou stéréo avec deux Lavalier, et affiche douze heures d’autonomie (48 heures en mode stand by) grâce à sa batterie Motorola BT100 embarquée.

 

MERGING TECHNOLOGIES - ANUBIS

Nouveau concept chez Merging Technologies avec Anubis, un appareil hybride permettant, en fonction des situations, d’assurer la gestion de monitoring jusqu’au 22.2, de jouer le rôle de télécommande et de petite interface audio 4in/4out (2Mic-Line+2 Line-Instrument sur Combo Jack-XLR). Présentée dans un boîtier format desktop, l’ensemble comprend une section Talkback, la connectivité Ravena/AES67, un écran tactile LCD 800 x 480 pixels, deux sorties casque, le GPI et le Midi, tandis que sous le capot, on trouve un traitement DSP assurant le routing et le mixage. L’ergonomie est conçue autour d’un écran tactile, d’un gros encodeur multifonction et de sept boutons paramétrables qui permettent par exemple de gérer les entrées/sorties physiques de l’interface, mais aussi toutes celles présentes sur le réseau AES67/Ravenna. Au bout du compte, l’ensemble peut piloter les entrées et sorties d’un studio, mais également son monitoring grâce à ses capacités de mixage intégré.

 

SOUND DEVICES - SCORPIO

Nouveau haut de gamme chez Sound-Devices, le Scorpio, s’il reprend grosso modo les dimensions de la 688, représente en fait un sacré bond en avant en termes de puissance. Il renferme en effet un mixeur 32 canaux, un enregistreur 36 pistes et se voit doté de 16 entrées micro/ligne, 12 sorties analogiques, mais aussi 32 canaux I/O Dante, un bus 12 voies (deux pour le mix et dix additionnels) tandis que le stockage s’effectue sur un disque SSD interne de 256 Go secondé par deux slots SD. Parmi les choix de formatage pour le stockage, figure l’exFAT qui présente l’avantage de faire tomber la fameuse limite des 4 Go par fichier.

L’assignation des canaux est entièrement libre, mais le nombre d’encodeurs et de faders en face avant étant limité à douze, le contrôle des voies additionnelles se fait soit via l’écran, soit au moyen d’une surface de contrôle USB compatible avec le protocole Midi MCU (Mackie Control Universal) comme la série M+ de chez Icon conseillée par Sound-Devices. On note également la présence d’un port USB-C utilisé pour le transfert de fichiers en USB 3.1. On retrouve sinon un module TC complet, tandis que l’alimentation interne est assurée par deux accus format Sony L ou en externe via un port non pas HiRose mais TA4 car la bête a, paraît-il, des besoins copieux.

Les préamplis procurant 76 dB de gain sont visiblement d’un design nouveau mais, comme toujours chez Sound-Devices, on garde une gestion de la dynamique assurée en premier lieu par un limiteur analogique complété en sortie par des limiteurs numériques réglables sur tous les canaux, ainsi que les traditionnels coupe-bas et retards. Par contre, la Scorpio se distingue avec une nouvelle section EQ complète.

L’ensemble du processing est assuré par trois puces FPGA et trois processeurs Dualcore ARM qui motorisent mixage et traitement en 64 bits, une résolution également disponible pour la production de fichier mono ou poly au format RF64 Waw. L’accès aux fonctions et la visualisation des niveaux est assurée par un LCD tactile 320 x 240, mais le pilotage peut également se faire à distance via USB sur tablette Android et bientôt iOS avec l’App SD-Remote. Le pilote en Bluetooth sera quant à lui disponible ultérieurement, via la prise « antenna » présente sur le boîtier.

Au sein de la connectique analogique, on note six XLR correspondant aux six premières entrées (également configurables en AES3 ou 42) deux mini XLR TA3 et huit TA5 pour les suivantes. Le poids du Scorpio est de 2,6 kg sans batterie ni sacoche.

 

ZOOM F6

Comme son nom le laisse penser, le Zoom F6 annoncé pour juin comprend effectivement six entrées micro, mais une seule sortie stéréo sur minijack. Il reprend le design de préampli et le générateur de TC de son ainé le F8 tandis que la partie enregistreur peut produire des fichiers BWF comprenant jusqu’à six pistes isolées + mix bi-piste en résolutions 24 bits, 32 bits, ou les deux en simultané, mais avec un stockage sur carte SD (un seul lecteur). L’alimentation peut être assurée en interne par quatre piles AA ou, plus confortable, au moyen d’un accu format Sony L pour une autonomie de l’ordre d’une journée. Le F6 peut également être alimenté par une source externe via USB-C. L’ergonomie est assurée par un petit écran couleur et une molette multifonction présente sur le côté droit de la machine.

L’originalité du F6 repose sur sa résolution 32 bits, lui permettant de ne pas intégrer de réglage du niveau d’entrée. Les enregistrements se font donc au gain unitaire micro ou ligne sur lequel on applique un gain via le fader au moment de l’enregistrement ou en postproduction, un moyen de minimiser l’absence de limiteur analogique avant conversion qui était jusqu’alors l’un des points critiqués par certains testeurs. Notons enfin la présence d’une option Automix intégrée et le contrôle à distance via Bluetooth depuis un smartphone muni de l’App maison.

 

RØDE - WIRELESS GO

Aux côtés de la gamme RødeLink, Røde lance le Wireless Go, une liaison sans fil numérique 2,4 GHz comprenant un émetteur clippable avec micro intégré et entrée pour un Lavalier externe, un récepteur à niveau commutable (0 dB, -6 dB, -12 dB) également clippable sur une griffe porte-flash par exemple. Les deux composants sont de la taille d’un briquet zippo et pèsent une trentaine de grammes. Réponse directe à la gamme Sennheiser XSW-Digital, la liaison Wireless Go se lance donc également sur le créneau des liaisons sans fil à 200 euros super simples à utiliser visant principalement le marché des créations de contenu d’entreprise, les youtubers, voire les applications de conférence.

L’ensemble ne comprend pas de micro cravate, mais est livré avec deux bonnettes antivent en fourrure, un câble minijack pour liaison DSLR, les câble USB pour la recharge des accus internes et une pochette de rangement.

 

AUDINATE - DANTE AV MODULE AVEC VIDEO FOR AUDIO

Sur le stand Audinate, c’est bien sûr la venue des intégrations produit autour de la carte Dante AV module et du Dante AV Product Design, son kit de développement associé qui font le buzz, sachant qu’une fois implémentée, la technologie Dante AV permet la distribution IP sur réseau Ethernet 1 Gbit de huit canaux audio en émission et réception et d’un canal vidéo synchrone en 4K@60 Hz incluant HDR, HDCP 2.0, l’EDID et le CEC. Dante AV transmet également l’USB, l’infrarouge et le RS232, ce qui permet de piloter plusieurs sources et diffuseurs à travers le réseau sans boîtier supplémentaire. Par défaut, l’interface vidéo 32 bits intégrée à la carte s’appuie sur le Jpeg 2000, mais apparemment, d’autres codecs sont envisageables.

En parallèle, le distributeur français Pilote Films nous informe d’une baisse de prix sur les petits adaptateurs Audinate AVIO Dante disponibles en analogique, USB ou AES3.

 

SENNHEISER

Pour Sennheiser, les nouveautés NAB reprennent en partie les annonces de l’IBC avec quelques additions comme la nouvelle gamme sans fil XSW-Digital et des avancées dans les disponibilités, notamment pour l’émetteur de poche SK 6212 de la série Digital 6000. Chez Neumann, dans la gamme des enceintes KH, le caisson de basses KH 750 DSP fait son entrée tandis le casque NDH 20 annoncé au Namm entre sur le marché du monitoring studio haut de gamme.

Enfin, dans la gamme Ambeo, Sennheiser présente toujours son prototype de micro Sport Microphone Array ainsi que l’Ambeo SoundBar, une barre de son 5.1.4 haut de gamme dédiée à le reproduction et à la vérification de contenus immersifs, disponible depuis mai dernier.

 

SHURE - MICRO CRAVATE TWINPLEX SERIES

Shure lance la série TwinPlex, une gamme conçue pour les applications demandant qualité et dynamique importante comme la prise de son cinéma, le théâtre et la comédie musicale. La gamme intègre un design à deux capsules annoncé comme peu sensible aux détimbrages hors axe et un câble fin, résistant, pouvant être peint, et insensible aux effets de mémoire de forme. Elle comprend actuellement le micro serre-tête miniature TH53 et le micro-cravate TL45.

 

PRO TOOLS 2019

Pas de version 2019 disponible pour Pro Tools au moment du NAB, mais c’est chose faite depuis début mai où Avid a profité du salon berlinois Superbooth. Pas de bouleversement, ni de killer fonction pour cette nouvelle mouture, mais des évolutions qui devraient se montrer appréciables au quotidien, notamment pour les utilisateurs intensifs.

Parmi elles, figurent la compatibilité Mac OS Mojave et un nommage des pistes plus fonctionnel, mais surtout un nombre de pistes audio disponibles à la lecture en augmentation grâce aux 1 152 Voices implémentées dans Pro Tools Ultimate et aux 384 de la version standard. En outre, afin d’améliorer la fluidité, certaines actions (création, suppression, activation ou désactivation de pistes, insertion ou suppression de plugs-in ou de send, modification des E/S, ajustement d’une sélection ou d’une boucle...) deviennent envisageables sans avoir à stopper la lecture. Enfin, pour les licences multi-utilisateurs, le Multiseat License est une licence flottante PACE sur serveur qui facilite l’administration des licences et élimine la nécessité d’iLoks au sein d’une entreprise ou d’un centre de formation.

D’autre part, avec la nouvelle version de l’App Pro Tools Control, disponible depuis début mai, la gestion de tout système de monitoring compatible EuCon (Pro Tools MTRX, XMON…) devient accessible depuis un iPad. D’autre part, des fonctions facilitant la sélection et la navigation au sein d’un grand nombre de pistes comme les « Scroll to Track » ou « Scroll into View » deviennent présentes dans le protocole EuCon ainsi que dans Pro Tools.

 

GENELEC

Pour Genelec, le NAB fut l’occasion de présenter ses enceintes actives pour les studios professionnels et le home cinema. Au NAB, Genelec mettait en valeur les améliorations des subwoofers de la série F qui offrent désormais un meilleur rendement. L’actualisation porte sur la connectique (entrée numérique optique et coaxiale), un plus grand niveau de pression sonore, un contrôle à distance RF, par câble ou infrarouge et une source d’alimentation améliorée (voltage universel par commutation). Par ailleurs, les subwoofers actifs de la série F1 et F2 complètent les moniteurs actifs deux voies de la série G offrant une qualité de son supérieur, un niveau de pression sonore élevé et un niveau d’amplification de classe D. La connectique analogique n’a pas été abandonnée pour autant. On dispose d’entrées/sorties stéréo analogiques (prises RCA, XLR, LFE/LINK). Ces équipements sont compatibles avec les moniteurs professionnels de studio et une connexion en chaîne de multiples subwoofers.

La série 8000 concerne des moniteurs deux voies professionnels qui bénéficient du système dit « Minimum Diffraction Enclosure (MDE) » réduisant les diffractions. La série SAM (Smart Active Monitor) concerne des moniteurs trois voies compacts. Pour les positionner, il suffit d’utiliser un ordinateur (PC ou Mac) et de télécharger l’application de Genelec qui propose un algorithme expert pour faciliter l’installation dans la salle grâce à un microphone de calibration qui analyse l’environnement. Notons le « Master Smart Monitor » qui délivre un son à très faible distorsion, une réponse plate dotée du « Directivity Control Waveguide (DCW) » qui supprime les diffractions et fournit un son naturel. Même caché, le moniteur attrape l’œil, bien que pour l’auditeur il reste invisible. Cette gamme de subwoofers actifs offre une bonne précision d’image sonore, une réponse en fréquences étendue, un niveau d’écoute agréable pour un long travail de studio.

Enfin, pour les entreprises, la gamme compacte 4010, 4020, 4030 et 4040 comprend des haut-parleurs actifs à deux voies adaptés aux installations commerciales ou professionnelles (salle de cours, par exemple). Tous les modèles intègrent une amplification distincte pour chaque voie. Un choix qui couvre pratiquement tous les besoins de sonorisation.

 

RIEDEL

Il y a dix ans, la société allemande vendait son premier intercom… Aujourd’hui, la société a dépassé la barre des 5 000 unités… Le charismatique Thomas Riedel avait convié la presse et ses clients fidèles à fêter cet anniversaire, mais aussi pour annoncer la sortie d’un nouvel Artist, plus performant que jamais… Avec l’Artist 1024, Riedel propose la plus grosse densité intercom du monde et fait un pas de géant puisque la carte est software defined, c’est-à-dire personnalisable à souhait et en conformité avec la nouvelle norme IP SMPTE 2110-30/31 (AES67). L’Artist 1024, puissante extension de l’écosystème d’intercom Artist, vient compléter une famille qui comprenait les Artists 32, 64, 128 et elle est compatible avec ces versions antérieures.

La nouvelle interface de l’Artist 1024, qui bénéficie d’une prise en charge IP native, redéfinit la connectivité de communication… Proposant non moins de 1 024 ports dans un simple rack 2 RU, l’Artist 1024 offre une série d’innovations s’appuyant sur la puissance des cartes d’interface universelle (UIC) programmables par logiciel. Ce type de carte combine des fonctionnalités de réseau, mélange et gestion et peut être configurée pour fonctionner sous protocole AES67 ou Madi, ou en tant que carte fibre/routeur/processeur Artist. Pour changer de type de connectivité, il suffit d’un clic dans le logiciel de configuration Director.

La trame fournit dix baies pour les UIC, deux d’entre elles étant réservées aux UIC de routage et de mise en réseau. Les huit baies restantes peuvent être équipées de cartes UIC de différentes configurations pour assurer la connectivité des abonnés. Le mélangeur intégré de chaque carte d’abonné peut être dimensionné de 8 à 128 ports par carte et peut accéder aux 1 024 ports.

Le nouveau nœud Artist de Riedel prend en charge plusieurs systèmes de redondance, notamment N + 1, NIC et SMPTE 2022-7. Toutes les liaisons de contrôle et de données au sein du système sont redondantes et une sécurité supplémentaire est fournie par deux unités d’alimentation à partage de charge et un module de ventilation avec des unités de ventilation redondantes. Sa robustesse et sa fiabilité sont donc sans précédent.

L’Artist 1024 introduit également un nouveau schéma de licence flexible avec une licence au niveau de la trame au lieu d’une licence de type connectivité.

 

DOLBY

« Dolby Cinema » est un concept qui allie les technologies Dolby Atmos pour le son et Dolby Vision pour l’image. Le son immersif est à la mode et Dolby veut être leader dans ce type de technologie. Aussi, au NAB, il a mis l’accent sur son procédé audio immersif Atmos qui continue sur sa lancée, avec plus de 4 800 écrans de cinéma équipés en Dolby Atmos dans le monde entier dont plus de 150 en France. Côté contenu, plus de 1 240 titres sont sortis ou annoncés en Dolby Atmos pour le cinéma. Les exploitants de salles de cinéma ont pris conscience de l’importance du son pour le spectateur, car le son crée l’image ! D’où la multiplication de complexes « All Dolby Digital Atmos » dans le monde.

Côté équipement, Dolby présentait le tout nouveau Cinema Processeur CP950 qui offre une qualité de son incroyable associé à une interface évoluée, un écran tactile, une écoute cabine intégrée, et une évolution vers le Dolby Atmos. Par ailleurs, l’IMS3 (Integrated Media Server) et le DMA (Dolby Multi Channel Amplifier) sont quant à eux des solutions Dolby qui permettent de réduire et d’optimiser l’espace physique occupé par les machines, tout en gardant un son de très haute qualité.

Pour convaincre les visiteurs du NAB, Dolby avait installé un car à l’extérieur du « Convention Center » où des démonstrations de capture d’images avec son Atmos étaient présentées, notamment un match de football dans lequel on bénéficiait d’une immersion totale, terriblement réaliste, grâce aux haut-parleurs distribués dessus et autour de soi. Effet garanti !

 

BOYA

C’est une impressionnante gamme audio que ce fabricant chinois présentait au NAB 2019. Boya a développé une gamme spécifique de microphones omni, cardioïdes et super-cardioïdes à condensateur pour smartphone. Ils offrent une bande passante de 25-20 000 Hz et un rapport signal/bruit de 80 dB, de quoi transformer son smartphone en studio de prises de son.

Boya propose un microphone numérique cardioïde (BY-HM2) opérant à 24 bits/96 kHz (20-20 000 Hz ; S/B de 85 dB) et un kit microphone/haut-parleur (BY-BMM400) également pour smartphone. Auxquels s’ajoutent des microphones lavallière numériques pour iPhone, iPad, iOS, Mac et Windows et un récepteur à main pour smartphone (SP-RX12) compatible iOS et Android. Pour les utilisateurs d’appareil photo, de caméscope ou d’enregistreur externe, Boya offre une large gamme de microphones lavallière omnidirectionnels à fil (bande passante de 35-18 KHz), ultra légers, mono ou stéréo, à fixer sur l’appareil.

Pour les prises de son professionnelles, Boya propose une gamme de microphones de studio à condensateur, large diaphragme et directivité variable, complétée par des modèles lavallière haut de gamme à fil (prise XLR). Il commercialise aussi des microphones sans fil, du plus simple système lavallière à 2,4 GHz (BY-WM4 Mark II) au plus sophistiqué en VHF ou UHF pour des applications professionnelles (gamme BY-WFM12). Par ailleurs, le fabricant propose des accessoires (adaptateurs audio pour supporter les microphones, perches, chaussettes anti-vent, alimentations, connectique). Bref, tout pour la prise de son !

Notons que Boya est l’entité Low Cost audio du groupe Jiayz, une structure qui intègre également les marques Saramonic (Son à l’image pour vidéo et DSLR) et Seven Oak (accessoires pour DSLR et smartphone), les trois étant depuis peu distribuées dans l’Hexagone par Dim France.

 

Extrait de notre compte rendu du NAB 2019 paru pour la première fois dans Mediakwest #32, p.42/82. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 2 septembre 2019 à 17:00

Les solutions Flame 2020.1 enrichies de nouveaux outils IA

Les solutions Flame 2020.1 enrichies de nouveaux outils IA © DR

Avec la nouvelle version 2020.1 d’Autodesk Flame, Flare et Flare Assist, de nouveaux outils créatifs permettent d’accélérer les workflows, de renforcer la productivité et de rationaliser l’organisation. Grâce aux nouveaux outils Z Depth Map Generator et Human Face Normal Map Generator, basés sur l’apprentissage machine, Flame 2020.1 offre aux artistes de nombreux moyens uniques d’isoler et de modifier des objets dans des séquences animées pour l’étalonnage et le compositing, y compris avec de nouveaux outils d’extraction du ciel. Plaçant Flame au cœur du workflow des artistes, la version 2020.1 inclut de nouveaux outils d’IA pour la segmentation d’image, la personnalisation de l’environnement de création d’effets et un accès plus aisé pour les scripts Python.

 

« Il fallait que je me débrouille avec des heures d’images filmées par temps couvert : le ciel était soit d’un gris uniforme, soit recouvert de nuages qui ne laissaient pas voir un centimètre de bleu », explique Bob Maple, dirigeant d’Idolum. « J’ai tout simplement lancé la fonction MLSkyExtract en touchant à peine aux réglages par défaut, ce qui m’a permis de faire un ciel bleu avec quelques nuages pour insuffler un peu de vie dans les scènes. Ça m’a évité de devoir créer des masques individuels dans tous les sens. Merci Flame ! »

« Dans la version 2020.1 de Flame, on peut voir toute la puissance de la carte graphique Nvidia RTX et de ses puces Tensor, dédiées aux calculs nécessaires pour les nouvelles fonctions d’apprentissage machine des produits Flame », indique Will Harris, responsable des produits Flame chez Autodesk. « Même si les cartes moins récentes sont également capables d’effectuer ces calculs, le simple passage d’une P6000 à une RTX6000 apporte un important gain de vitesse en termes d’analyse et de calcul pour les algorithmes d’IA et d’apprentissage machine. Bravo Nvidia ! »

 

Parmi les autres nouveautés de Flame 2020.1, on pourra citer :

Outils créatifs

-- « Semantic Keyer » pour l’extraction du ciel : isolez le ciel en un seul clic, pour effectuer la correction de couleurs ou le compositing. L’IA et l’apprentissage machine peuvent extraire des données volumétriques qui permettent d’éliminer des nuages, d’ajouter des effets au ciel, et plus encore.

-- Mode « Motion Vector » pour les AOV : extrayez des caches à partir des vecteurs de mouvement. Les effets peuvent être appliqués de manière sélective, en introduisant des vecteurs – obtenus par rendu ou par analyse – directement dans les scènes 3D pour y être combinés avec des masques.

 

Productivité

-- Environnement d’effets – disposition : réorganisez les différents éléments du logiciel (fenêtres de visualisation, storyboard, panneau média, ligne temporelle, fenêtre de gestion, etc.) à souhait sous forme de dispositions (« layouts ») enregistrables.

-- Environnement d’effets – groupes : la fonction « Groups » permet d’isoler certaines scènes pour des comparaisons et des ajustements immédiats, mettant en place une organisation visuelle entièrement nouvelle.

-- Bibliothèque de scripts Python et de Matchbox sur GitHub : visualisez et téléchargez automatiquement des scripts depuis Flame, pour un accès plus facile. De nouveaux scripts sont disponibles sur la bibliothèque GitHub d’Autodesk, avec une section consacrée à Flame.

-- Sortie AJA KONA 5 6G/12G : prévisualisez des contenus vidéo grâce aux appareils de lecture AJA KONA 5 et AJA Io 4K Plus. Des images en 4K et en UHD peuvent être transmises sur un câble unique 6G SDI pour un signal jusqu’à 30p, ou un câble unique 12G SDI pour un signal jusqu’à 60p.

-- Exportez au format IMF (Interoperable Master Format) directement depuis Flame, en vue d’une distribution à des diffuseurs et services de streaming. L’exportation au format. IMF est un plugin tiers vendu par Fraunhofer IIS, www.easydcp.com.

-- Carte graphique Nvidia RTX : accédez aux cœurs de calcul Tensor des cartes Nvidia RTX, pour des traitements exigeants à base d’apprentissage machine. Les cartes moins récentes sont également capables d’effectuer ces calculs, mais le simple passage d’une P6000 à une RTX6000 apporte un important gain de vitesse en termes d’analyse et de calcul pour les algorithmes d’IA et d’apprentissage machine.

 

Améliorations de Flame basées sur les retours d’utilisateurs

-- Action Schematic Compass : visualisez des zones organisationnelles avec des codes couleurs et des fonctions avancées de nettoyage des nœuds.

-- Bypass : désactivez certains nœuds de manière intuitive et décidez quels canaux sont transmis.

-- Résolution de 16K : un potentiel accru pour la gestion de médias et le compositing à haute résolution, avec une nouvelle limite maximale de 16K pour les projets, les nœuds individuels et les sorties.

  • 28 août 2019 à 17:00
❌