Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVideo PRO

Pocket 4K and Pocket 6K Owners — BRAW Comes to Premiere Pro

Here's some highly anticipated news for the Pocket 4K and Pocket 6K — you can now use BRAW in Adobe Premiere Pro and Avid.

Free Script Writing Software Options for the Low-Budget Filmmaker

Need to write a script on a no-to-low-budget? Here are some great, free alternatives to the high priced Hollywood standards.

Best selling pico-projectors update (October 2019)

Par : pico

Here's our monthly best-selling pico-projectors list for the beginning of October 2019. We're using data from Amazon.com, which seems to be selling the most wide range of pico projectors. This list does not include embedded modules in mobile phones or cameras.

  1. APEMAN Mini portable projector ($199.99)
  2. Aaxa P1 ($125)
  3. Artlii Movie ($48.99)
  4. Nebula Capsule ($299)
  5. Artlii Movie Yellow ($48.99)
  6. Vamvo Mini projector ($208)
  7. CINEMOOD Portable Movie Theater ($359)
  8. Anker Nebula Capsule Max ($470)
  9. VANKYO Burger 101 Pico Projector ($159)
  10. AKASO Mini Projector ($199)

Helpful Tips for Staying Productive Through Long Exports

How to maximize your productivity. Here's a constructive guide to staying busy — and sane — during long, arduous exports.

Cy-Stem, le pupitre de télécommande RCP universel de CyanView

L’interface Cy-CI0 établit un lien entre les ports série des caméras et le réseau IP du panneau RCP. © CyanView

Lors des tournages multicam, le parc des caméras s’élargit sans cesse pour effectuer des prises de vues spécifiques. À côté des traditionnelles caméras de plateau, cohabitent des mini-caméras, des caméras HF, des modèles PTZ ou des versions durcies. Afin d’aider les ingénieurs vision à harmoniser leurs réglages, la jeune société CyanView a conçu une série d’outils pour regrouper leurs paramétrages sur un panneau RCP universel.

 

Sous la dénomination « caméra de plateau », les fabricants proposent des modèles adaptés aux tournages en mode multicaméra. Leur particularité réside dans l’ajout de deux équipements dédiés, la voie de commande ou CCU (Camera Control Unit) et le pupitre de réglages ou RCP (Remote Control Panel). La fonction de ces deux accessoires est de regrouper en régie, sur un poste de travail unique, tous les réglages électroniques des caméras de manière à ce que l’ingénieur vision puisse les ajuster en permanence, pour obtenir un rendu identique entre toutes les sources. La tête de caméra, le CCU et le RCP sont reliés par des câblages et des protocoles propriétaires et constituent des systèmes indissociables chez chaque constructeur et parfois même incompatibles entre les diverses gammes.

Pour diversifier les angles de prises de vues et placer des caméras à des emplacements inédits, surtout dans le sport, il est devenu habituel de compléter les caméras de plateau avec des modèles spécifiques : mini-caméras, caméras PTZ ou HF, caméras spéciales durcies, etc. Si certaines de ces caméras offrent des performances proches des caméras de plateau avec l’amélioration des capteurs, elles sont pour la plupart démunies de voies de commande ou alors des modèles spéciaux qui demandent un apprentissage et des procédures particulières.

 

 

Un panneau RCP universel

Pour répondre à cette préoccupation de nombreuses équipes de production de « live », la jeune société CyanView a conçu un système de RCP universel dénommé Cy-Stem. Il se décline en une série de boîtiers interfaces, reliés par un réseau IP à un panneau RCP conçu sur mesure, et qui en constitue l’élément le plus visible. Pour ne pas dérouter les habitudes des ingénieurs vision, il est organisé de manière similaire aux modèles les plus répandus et offre un accès direct aux commandes de diaphragme, de niveau de noir, de balance de blancs et de noirs.

En partie supérieure, un écran tactile de 3,5 pouces donne accès à des commandes complémentaires avec une série de touches autour et servant à afficher des menus contextuels selon la fonction choisie. Ce panneau RCP étant relié par réseau IP aux autres équipements, il est capable de gérer un nombre illimité de caméras simultanément, et de piloter également des caméras tourelles PTZ, en particulier la position de la tête et les cadrages, et de les mémoriser.

 

Les mini-caméras comme celles des marques Dreamchip, CIS, IO Industries ou autres modèles industriels de Sony sont souvent équipées de prises de télécommandes de type série. Pour les raccorder en IP à leur RCP, les équipes de CyanView ont conçu un boîtier interface, le Cy-CI0, placé à proximité de la caméra. Il est muni de deux sorties série multiprotocole, au choix RS-232, RS-422, ou RS-485, S-Bus ou Lanc avec le protocole de Canon et Sony, pour piloter soit deux caméras via une liaison unique, ou bien une caméra et son objectif ou la tourelle sur laquelle elle est fixée. L’interface IP est compatible POE + pour éviter de devoir prévoir une alimentation électrique à proximité. Elle est également équipée d’un voyant « tally ».

CyanView enrichit régulièrement les jeux de commandes spécifiques à chaque fabricant de caméras. Le système se configure via un navigateur web depuis un ordinateur raccordé sur le même réseau desservant le RCP et les interfaces. Sont déjà disponibles des jeux de commande pour les caméras Panasonic, Canon, Sony, Hitachi, Blackmagic, CIS, Dreamchip, Toshiba, Marshall, IO Industries, ARC, Camera Corps, Lumens et Arri.

 

 

Piloter les caméras à tourelle PTZ

Les caméras à tourelle PTZ sont dans leur majorité équipées de prises réseau et n’ont donc pas besoin d’interfaces Cy-CI0. Elles se raccordent directement sur le switch réseau desservant le panneau RCP. L’outil Cy-Stem prend déjà en charge les modèles de Lumens, Panasonic, Sony et Marshall. Comme les commandes de position de la tête sont accessibles depuis le RCP avec leurs mémorisations, les pupitres de télécommande spécifiques à chaque constructeur de caméras PTZ ne sont plus nécessaires pour régler la colorimétrie et les rappels simples de positions.

Pour des plateaux hybrides équipés à la fois en caméras PTZ et en caméras traditionnelles, le panneau Cy-RCP de CyanView permet de regrouper et d’associer les commandes électroniques des diverses caméras sur un pupitre unique.

 

L’équipe technique de CyanView a développé aussi les profils de télécommande pour les caméras de reportage à capteurs Super 35, destinées au marché Pro AV, comme les Sony FS5 ou FS7, les Canon C200, C300 et C500 et la récente EVA1 de Panasonic. David Bourgeois, fondateur et PDG de l’entreprise, constate que « ces caméras offrent un niveau de performances élevé. De nombreuses productions les privilégient pour des tournages de documentaires haut de gamme. Hélas leurs panneaux RCP sont assez limités et ne donnent pas accès à tous les paramètres de réglage interne. Beaucoup de productions souhaitent les utiliser en tournage multicam pour des concerts ou des évènements. Avec nos outils, les réglages des caméras sont facilement optimisés et harmonisés. Cela évite un lourd travail d’étalonnage en postproduction. »

CyanView a développé, en partenariat avec Panasonic, le module de réglages pour le modèle EVA1, qui exploite toutes les nouvelles fonctionnalités du firmware 3.0. Ceux pour la FS5 et la FS7 sont en cours de finalisation et les modules destinés aux Canon C200, C300 et C500 seront disponibles au moment du NAB.

 

 

Une passerelle multiréseau et un correcteur colorimétrique

La passerelle (ou gateway) Cy-GWY est le troisième composant au cœur de l’architecture Cy-Stem. Comme son nom l’indique, elle établit les liens vers les caméras via des réseaux externes ou séparés, soit pour des liaisons longue distance ou sans fil (voir ci-après) ou pour dialoguer avec des grilles de commutation ou des correcteurs colorimétriques externes. Ainsi la sélection d’une caméra sur le RCP déclenche l’affichage de son image sur le moniteur de contrôle.

Couplé à un correcteur colorimétrique (AJA, For-A, Lawo, Axon ou greenMachine de Lynx…), le RCP agira directement sur le rendu des images de la caméra sélectionnée et traitée par le correcteur colorimétrique. Exploitant divers protocoles tels qu’Ember +, les outils Cy-Stem peuvent être intégrés dans un système de supervision VSM ou Cerebrum.

 

Enfin, dernier élément du système, CyanView termine la mise au point de son propre correcteur colorimétrique, le Cy-VP4, qui sera présenté en version finale à l’occasion du NAB. Ce processeur vidéo, équipé de quatre voies de traitement 3G-SDI (pouvant être couplées pour traiter des images UHD 50p ou 60p) offre des capacités de correction pour ajuster le gamma dans la zone des noirs, l’écrêtage des blancs, la courbe du knee, la correction de détails et un traitement en mode multimatrice. Il gère également des tables LUT 3D.

Pour ses concepteurs, l’objectif est d’offrir toute la richesse des réglages des caméras plateau haut de gamme à des modèles de production, certes performantes, mais moins dotées au niveau de leurs paramétrages ou sans voie de commande, et d’harmoniser plus aisément leur rendu colorimétrique.

 

 

Contrôler les caméras en mode sans fil

CyanView lance au NAB une nouvelle version de son interface caméra Cy-CI0 qui offre le pilotage à distance ainsi que le contrôle d’autres gammes de caméras comme des action cams reliées en wi-fi ou des caméras de type DSLR connectées en USB. L’objectif est d’avoir le contrôle de tous types de caméras, quelles que soient les configurations d’exploitation. Pour offrir la plus grande universalité possible, les ingénieurs de CyanView ont choisi de l’équiper avec un processeur offrant le contrôle local des caméras et une interaction avec le RCP via différents types de réseaux comme des modems UHF, une transmission wi-fi ou encore une clé 4G à travers Internet.

Ainsi l’interface est libérée de son câble réseau et peut communiquer à distance avec le panneau RCP en mode sans fil. David Bourgeois y voit déjà de multiples applications pour la couverture de marathons ou de courses cyclistes avec des caméras sur motos, et donner néanmoins accès depuis le car régie à tous les réglages de la caméra, diaphragme, gain… sans demander au cadreur d’agir sur ces commandes. Le renvoi des signaux tally vers la caméra l’aidera à savoir s’il est à l’antenne ou pas.

Une autre application concerne également la gestion à distance des caméras raccordées à une unité de transmission 4G comme le LiveU, le TVU ou l’Aviwest. La liaison 4G constitue également une solution innovante pour les drones en offrant le contrôle des DSLR en USB et des gimbals en S-Bus, pilotés depuis le car régie avec un RCP, y compris les commandes PTZ.

 

 

Élargir le Cy-Stem au cinéma numérique

CyanView élargit régulièrement la panoplie des caméras pilotables par son panneau RCP universel. Ses équipes entreprennent le développement des modules de commandes pour les principales caméras de cinéma numérique. Celles-ci sont de plus en plus utilisées lors de captations multicaméras pour des défilés de mode ou des concerts prestigieux.

David Bourgeois milite pour une meilleure collaboration entre les DIT (Digital Imaging Technician) et les ingénieurs vision des cars régies, les premiers venant au début de la production pour définir les calibrations et les profils des caméras, ensuite exploitées par les ingénieurs vision lors de l’enregistrement.

Le fondateur de CyanView a encore de nombreuses idées pour améliorer et enrichir le Cy-Stem avec le développement de mires de calibrage associées à son panneau RCP doté de procédures semi-automatiques pour définir un premier jeu de réglages et pourquoi pas l’enrichir avec de l’IA.

Le système de panneaux RCP de CyanView a déjà été mis en œuvre sur des retransmissions sportives comme les 24 Heures du Mans, des épreuves de ski alpin, sur des matches de la NFL aux États-Unis, la saison de Formula-E, l’émission Ninja Warrior et pour l’American Spelling Bee retransmis par ESPN.

 

En France, CyanView est distribué par la société TEVIOS .

 

 

Article paru pour la première fois dans Mediakwest #31, p.88/89. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

Video Editing 101: How to Add Titles and Subtitles in Premiere Pro

New to Premiere? Find out about the easiest ways to insert a title into your timeline, as well as how to create subtitles for your project.

Review: ERA’s Simple-to-Use Audio Repair Plug-ins

Audio repair tools are always in demand. The ERA 4 Bundle audio repair plug-ins claim to be simple and fast. So, let's put them to the test.

Tourner en 4K avec le nouvel EOS M200

Canon - Nouvel EOS M200 ©DR

Canon annonce l’arrivée du nouveau Canon EOS M200, successeur de l’EOS M100. Les améliorations de cet appareil photo hybride comprennent l’intégration du processeur Canon DIGIC 8, l’ajout d’un autofocus encore plus performant, et la possibilité de filmer en 4K. Avec une interface utilisateur avec assistance, une panoplie complète de fonctions créatives et l’enregistrement vidéo en cadrage vertical, il n’a jamais été aussi facile de tourner avec un appareil photo.

 

Réaliser de belles photos en toute facilité

Idéal pour les débutants puisque son interface propose un guide visuel et des conseils leur permettant de paramétrer l’appareil plus facilement et ainsi obtenir de meilleurs résultats. Doté d’un capteur APS-C de 24,1 millions de pixels, le M200 produit des images détaillées qui restent parfaitement nettes même après un recadrage ou un agrandissement.

L’EOS M200 bénéficie également de l’autofocus AF CMOS à double pixel : une technologie développée par Canon qui assure des photos et des vidéos dignes de professionnels, en conservant une netteté optimale sur des sujets en mouvement devant un fond flou. Cet autofocus dont la sensibilité descend jusqu’à IL-4 est également parfait pour réaliser des photos lors de soirées, de festivals ou de concerts en faible lumière.

L’adoption du DIGIC 8, le processeur Canon le plus récent, apporte de nouvelles fonctionnalités ainsi qu’une optimisation de la qualité des résultats. En association avec une sensibilité maximale de 100-25.600 ISO (extensible à l’équivalent de 51.200 ISO), le DIGIC 8 évite les images floues lors de prises de vues dans des lieux sombres.

Il ajoute également une nouvelle dimension aux vidéos en permettant l’enregistrement en 4K. L’EOS M200 accroît ce potentiel avec la possibilité d’enregistrer et d’extraire des photos 4K à partir des séquences vidéo.

L’intégration complémentaire d’une fonction d’AF avec détection d’œil garde automatiquement la mise au point sur une personne cadrée, ce qui permet de saisir facilement les expressions naturelles.

L’écran LCD tactile du Canon EOS M200 tourne à 180°, permettant ainsi la réalisation de selfies. Le mode Autoportrait permet également de générer un fond flou ou d’ajuster la luminosité en temps réel. Première sur un appareil EOS, la touche d’enregistrement vidéo se trouve sur l’écran en mode vidéo et est ainsi idéalement placée pour l’enregistrement d’un vlog avec l’écran retourné. Les vidéos peuvent même être enregistrées et lues en cadrage vertical.

 

Développer sa créativité

Le Canon EOS M200 propose une panoplie de réglages et d’outils qui décuplent les possibilités artistiques pour les photographes en herbe. Il comprend la fonction d’assistance créative de Canon (Creative Assist), avec une suite d’effets, de filtres et d’outils de personnalisations pour améliorer ses photos, comme l’effet Noir et blanc avec grain, l’effet Fish-eye ou encore l’effet Soft Focus.

La compatibilité avec les objectifs de la gamme EF-M étend fortement le potentiel du Canon EOS M200. Divers cadrages et modes d’expression sont possibles grâce aux objectifs grand angle, aux téléobjectifs, aux zooms et au macro EF-M. L’ensemble de la gamme des optiques EOS EF est également utilisable par l’intermédiaire de la bague d’adaptation.

 

Partager ses souvenirs

Une fois les images enregistrées, personnalisées et prêtes à être partagées, le boitier peut être connecté très facilement à des périphériques mobiles1 par connexion Bluetooth 2 et Wi-Fi grâce à l’application gratuite Canon Camera Connect pour iOS et Android. Tant que l’EOS M200 est connecté à un Bluetooth, le partage de fichiers en temps réel est facilité, même si l’appareil photo est mis hors tension. L’application facilite la prise de vues télécommandée à partir d’un smartphone ou d’une tablette, ce qui est idéal pour réaliser des photos de groupes ou des selfies.

 

Emporter le où que vous soyez grâce à sa légèreté et compacité

Le Canon EOS M200 est un appareil photo compact et léger qui peut être facilement emporté partout. D’un poids de 299 grammes seulement (batterie et carte mémoire comprises), il est parfait pour un usage quotidien. Il est également très élégant, avec sa texture en cuir fin et lisse, en coloris noir ou blanc. Il peut également être personnalisé grâce à une gamme de coques de couleurs variées

7 Essential Buy Guides for Cameras, Gear, and Equipment

Investing in new cameras, gear, and equipment? Purchase with intention with these helpful filmmaking camera and gear roundups.

Entretien avec le chef opérateur Matthieu Misiraca

Matthieu Misiraca possède une double culture, vidéo et cinéma. Il aime expérimenter de nouveaux outils, notamment en terme d’éclairage. © DR

Matthieu Misiraca fait partie de la nouvelle génération de chefs opérateurs. Au fait des innovations technologiques, hybride sur les techniques, partisan du led sur les tournages, il bouscule un peu les lignes. Chaque projet est pour lui un laboratoire qui permet de tester de nouvelles caméras, de nouveaux projecteurs et de développer de nouvelles méthodes de travail. Entretien sur son parcours, ses coups de cœur et ses envies.

 

Pourriez-vous nous détailler votre parcours ? Comment êtes-vous devenu chef opérateur ?

J’ai obtenu un BTS audiovisuel en juin 2000 à Saint-Quentin, dans l’Aisne, et j’ai eu la chance ensuite de faire deux stages. Le premier s’est déroulé chez Iris Caméra (racheté ensuite par le groupe TSF), spécialisé caméras, où j’ai appris le métier d’assistant caméra. J’ai fait mon second stage au sein d’une chaîne filiale de M6 où j’ai découvert le monde de la télévision. À ma sortie du BTS, j’ai travaillé pour ces deux filières : d’un côté la fiction comme assistant caméra, de l’autre la télévision. Mon souhait était de me concentrer plus particulièrement sur la fiction. Et évidemment, cela a pris du temps !

J’ai eu la chance d’avoir un pied à la télévision et un autre dans la fiction. À l’époque, c’était mal vu de travailler pour la fiction et la télévision ! On s’en cachait pas mal ; quand on était dans la fiction, on ne disait pas que l’on faisait de la télé. Par contre, quand on était à la télé, on pouvait dire qu’on faisait de la fiction… Il y avait encore cette grosse fracture entre, d’un côté, les caméras vidéo et, de l’autre, les caméras pellicule. Et il n’y avait aucun lien entre les deux.

Quand, autour de 2004, est arrivée la vague numérique HD, je fus bien content d’être issu d’un BTS audiovisuel et d’avoir travaillé avec des caméras numériques pour pouvoir surfer sur cette vague. Beaucoup de chefs op de fiction sont restés sur le carreau car ils n’avaient pas cette double culture. Il a fallu attendre facilement jusqu’en 2010 pour que le numérique arrive réellement dans la fiction.

À partir de 2007, j’ai pu vraiment commencer à vivre du métier de chef op. Actuellement, je fais des choses très variées ; cela va du clip, de la pub, à la fiction long métrage, aux séries TV, beaucoup de digital parce que celui-ci prend énormément d’ampleur.

 

 

Que mettez-vous dans la famille « digital » ?

Par exemple, tous les formats YouTube, des programmes courts, des petites séries, qui mettent autant de temps à tourner qu’un téléfilm, mais qui ont des formats variés. J’ai fait les deux saisons de « Metal Hurlant Chronicles », une série science-fiction qui n’a pas bien pris en France, mais qui a remporté un large succès à l’étranger. Puis, j’ai fait du téléfilm, cela m’a permis d’avoir une bande démo assez conséquente.

Aujourd’hui, je fais partie de ceux qui ont vécu l’évolution de la HD numérique. Quand j’ai réalisé que cette révolution allait arriver aussi à la lumière, je me suis dit qu’il ne fallait pas la manquer. Mais ce n’est pas pour autant qu’on devait se jeter directement dessus. C’est pourquoi quand Jacqueline (Delaunay, présidente de Acc&Led) que je connaissais de l’époque Transpacam (où je louais tout mon matériel), m’a appelé en 2012 en me disant : « J’ouvre, viens, je suis à Boulogne, viens tester mes projecteurs. » Je suis venu et je les ai testés.

Au début c’était sympa, mais il n’y avait pas de quoi faire tout un film avec. Il y avait des problèmes d’IRC*, c’était le problème majeur de la led. À l’époque, l’IRC était à 60-70, c’était trop bas. À partir de 2015, j’ai vu que le catalogue led disponible à la location commençait à s’étoffer et répondait à des exigences qui étaient les miennes, notamment en termes d’IRC et de variété de type de projecteurs. Et comme j’habitais à côté, eh bien je me suis rendu tous les jours chez Jacqueline. L’évolution est énorme ! Là où un projecteur Fresnel traditionnel perdurerait vingt ou trente ans, aujourd’hui le secteur ressemble à celui des caméras, il y a pléthore de nouveautés. Je les ai toutes vues arriver, je les ai testées.

Ce qui m’a fait arriver à la led, c’est la nécessité de trouver un moyen pour éclairer plus rapidement. Aujourd’hui, en fiction, nous sommes évidemment contraints à des temps qui sont de plus en plus serrés. Il me fallait changer de méthode pour pouvoir continuer de travailler, tout en évitant d’être dans un état de stress. Et j’ai trouvé que la led répondait tout à fait à ce besoin.

L’année dernière, je faisais un téléfilm pour France 3, tourné en Bretagne. Je me suis dit : « Essayons de ne le faire qu’avec de la led », mais en partant avec des petites sources, des grosses sources, etc. Eh bien, ce fut un bonheur ! Cela m’a permis de travailler plus vite, d’être plus flexible en termes d’installation, d’être aussi plus libre en termes d’énergie parce que c’est souvent aussi ça le nerf de la guerre ! Tout était toujours en 16 ampères et, mine de rien, sur un tournage, c’est un gain de temps énorme, de pouvoir se brancher sur n’importe quelle prise, même une prise du décor, sans avoir peur de tout faire sauter ! Cela a parfaitement fonctionné, j’en suis sorti ultra content.

Aujourd’hui, il y a une telle évolution sur les gammes de produits led que, par exemple, ce que j’ai utilisé il y a un an sur ce téléfilm, je ne l’utiliserais plus aujourd’hui, parce qu’entretemps il y a eu d’autres projecteurs qui sont sortis. En tant que chef op, nous avons le devoir de nous mettre à jour, et quand je dis « à jour » c’est une fois tous les quinze jours pratiquement ! Il suffit de voir le catalogue d’Acc&Led ! Sur chaque tournage, je pars avec un projecteur en bêta-test.

 

 

En matière de led, avez-vous relevé, malgré tout, quelques points faibles, que ce soit en intensité, en puissance ? Que peut-on encore améliorer ?

Le point faible de la led, c’est la forte puissance. Il est encore impossible de rivaliser avec un 18 kW HMI, quand on s’en sert de façon ponctuelle. C’est pourquoi, bien souvent, il arrive que j’aie une liste complète en led et dispose encore de projecteurs HMI ou tungstène parce que j’ai besoin parfois de sources très ponctuelles, pour mettre derrière des fenêtres, faire des rais de lumière, etc. Et ça, en led, c’est très compliqué, en tout cas en grosse puissance.

 

 

Peut-on comptabiliser le gain de temps apporté par la led sur un tournage ?

Personnellement, je l’estime à 30 %. La led étant plus chère en location et, pour entrer dans les enveloppes traditionnelles très formatées des séries ou des téléfilms, il a fallu que je revoie globalement la façon de travailler. La led est un peu comme un langage, il ne faut pas s’imaginer remplacer un projecteur par un autre, comme on cherche l’équivalent d’un mot, d’une expression, dans une autre langue. Il faut radicalement changer sa façon de travailler. Ce qui implique de changer sa façon de voir et de concevoir la lumière, de pouvoir s’adapter. Généralement, je rentre à chaque fois dans les devis. Par contre, en tournage, c’est un gain de temps énorme. La led constitue surtout un confort de travail. Aujourd’hui, si ta lumière est un poil trop forte, tu tournes un petit bouton et c’est réglé, là où il fallait changer des gélatines…

 

 

L’utilisation de la led a-t-elle réduit vos équipes ?

Oui, très clairement, mes équipes se sont réduites. Généralement, je suis à peu près en moyenne à un électro en moins par rapport à ce qu’on pourrait avoir en traditionnel. Évidemment, l’objectif n’est pas de réduire les équipes, le principal but est de gagner du temps sur le tournage.

 

 

Quelle est, par rapport à la led, l’approche de vos équipes, des électros avec lesquels vous travaillez ?

Avant nous disposions de projecteurs où, très clairement, le câblage était fort simple : une lampe, un câble, un interrupteur, une prise. Actuellement, tout est différent, tout devient plus électronique. Les projecteurs sont rangés, tels des caméras, dans des flights ; ils ont des menus. Notre monde rejoint le milieu de la caméra. Autrement dit, l’électro de demain sera vraiment un technicien, il abordera la led comme un assistant sa caméra. Bien sûr, tous les électros ne sont pas encore formés à la led. J’essaie d’avoir toujours une équipe qui connaît bien, maîtrise un peu tous les projecteurs. Il est évident que, du point de vue d’un électro, il s’agit d’une autre façon de travailler. C’est intéressant car ils vont gagner en compétences.

 

 

Que pensez-vous des nouveaux produits de DMG ?

Au début, j’étais moyennement convaincu par leurs projecteurs. Après, avec le Switch bi-color 3200-5600, la question a été radicalement résolue, mais le souci de cette source résidait dans le fait que le système bi-color avait une colorimétrie très étroite, nous avions toujours besoin de sources avec des températures plus proches des 6000 que des 5000. Je vous donne un exemple : si vous êtes obligé d’éclairer l’intérieur d’un appartement et que dehors on est en temps gris, et bien si vous éclairez en 5600, vous aurez toujours une ambiance plus chaude que l’extérieur. Le raccord par rapport à intérieur-extérieur est compliqué.

Depuis la nouvelle sortie des MIX, alors là, pour le coup, nous avons affaire à un formidable projecteur. Le MIX est excellent et la technologie MIX est admirable.

 

 

Quelles sont les innovations que vous attendez ?

Ce que j’aimerais bien développer et qui est très complexe à mettre en place, c’est l’utilisation du DMX** en fiction. Bien évidemment, le DMX, pour tout ce qui est télévision, on l’utilise lorsqu’on fait un plateau ou même lorsqu’on fait un éclairage plateau pour de la fiction. Mais quand on est en décor naturel, pouvoir utiliser du DMX, sans que cela soit forcément chronophage pourrait être une très bonne solution pour gagner du temps. Pour que cela soit intéressant, il faut obligatoirement que ce soit en sans fil. Et comme chaque projecteur a sa technologie sans fil DMX, c’est un peu délicat. Quoi qu’il en soit, j’essaie de voir l’option en fiction, même si on utilise trois ou quatre projecteurs dans un décor naturel, tout en pouvant les faire varier en un clin d’œil, sans forcément courir à droite à gauche sur les ballasts pour faire les variations.

 

 

En moyenne, en combien de temps se tourne une fiction ?

Un téléfilm est formaté en vingt-deux jours de tournage, sur des journées de huit heures, si possible, pour les directeurs de production. Moi, j’essaie toujours de faire une prépa en une heure avant, même s’il y a de grosses sources à utiliser, sauf en cas de grosses installations, d’échafaudages. En moyenne, j’ai toujours une heure de préparation avant.

 

 

Et vous-même, vous cadrez ?

Oui, je cadre, et cadrer c’est forcément être bloqué à la face. C’est une des raisons pour lesquelles le DMX m’intéresse. Si je dois aller bouger un projecteur, le baisser de 10 points, le réchauffer ou le refroidir, je voudrais pouvoir le faire avec un smartphone, tout en restant bloqué à la face. En tant que chef op cadreur, j’ai envie de maîtriser moi-même ces points, plutôt que de tout demander à un électro, bien souvent occupé à faire un pre-light ou autre chose. Si je peux le faire de mon smartphone, c’est pour ça que la technologie DMX m’intéresse.

 

 

Au cadre, êtes-vous prescripteur sur le choix des caméras ?

Oui, généralement j’en parle avec le réalisateur. Je teste un peu toutes les caméras. Pour l’instant, nous alternons beaucoup entre Red et Arri. Je n’ai pas véritablement de préférence… une petite préférence peut-être pour Red, mais je n’ai pas d’avis très tranché là-dessus, c’est quelque chose qui se discute avec le réalisateur. Après, tout dépend, si le réalisateur aime « resizer »... Avant, « resizer » c’était vraiment le truc quand il y avait une perche, un bout de traveling, un bout de pied, mais cela se fait de plus en plus. C’est pour ça qu’en fonction du réalisateur, il faut toujours plus de définition au tournage que sur le master.

 

 

Quelles sont vos dernières productions ?

Je viens de terminer une digital série de 6 x 15 minutes pour France Télévisions qui s’appelle « Dark Stories », une série de science-fiction réalisée par Guillaume Lubrano et François Descraques. Nous sommes partis tourner en Picardie six épisodes totalement différents et indépendants les uns des autres, avec des décors très variés. Il y a aussi bien du tournage en studio qu’en décors naturels, genre une ferme en plein milieu de la Picardie. Par exemple, quand nous avons tourné dans cette ferme, nous n’avions pas des ampères et des ampères à pouvoir sortir du bâtiment. Encore une fois, la led nous a bien servis !

 

 

Cette série sera-t-elle uniquement diffusée en digital ? Quel est son budget ?

Oui, elle le sera prochainement sur la chaîne Studio 4, qui est l’une des chaînes YouTube de France Télévisions. Les budgets sont hyper serrés parce que la digital série a encore du mal à se financer, vu la faible monétisation de YouTube. Les budgets demeurent très serrés, mais c’est passionnant parce que la science-fiction, ce n’est pas commun.

En fait, c’est ça qui est dommage, il a fallu que ce soit Netflix qui démocratise le genre. Pourquoi ne l’avons-nous pas fait avant ? Enfin, c’est encore un autre sujet, mais qui est parfois très énervant. Je fais de la science-fiction avec Guillaume Lubrano depuis maintenant dix ans et je suis effaré de voir que le genre a du mal à entrer dans les chaînes, alors qu’il y a un public. On a tenté de faire croire qu’il n’y avait pas de public, mais le public est là.

 

 

En arrivant, j’ai aperçu un Da Vinci. Vous faites de l’étalonnage ?

Oui. Je ne suis pas étalonneur, mais j’ai des notions d’étalonnage, c’est très important pour moi. Depuis que je tourne sur des téléfilms ou autres, j’ai toujours une station d’étalonnage avec moi qui me permet, le soir, de visualiser les images, sans forcément être dépendant d’un prestataire de postproduction ou de ne pouvoir les visualiser qu’une semaine après. Cela me permet d’ajuster ou de maintenir mon tir sur, soit l’éclairage, soit la manière de filtrer sur la caméra. Surtout, je peux établir très vite une ambiance et une identité visuelle à l’image et la faire valider auprès du réalisateur, sans forcément que ce soit fait après le tournage.

 

 

*L’indice de rendu de couleur, ou IRC, se traduit par un nombre compris entre 0 et 100, et a pour objectif de rendre compte de l’aptitude d’une source de lumière à restituer les couleurs d’un objet par rapport à celles produites avec une source de référence de même température de couleur. Ces deux facteurs, température de couleur et indice de rendu des couleurs, permettent de qualifier sommairement une source de lumière.

**Le DMX est un protocole qui permet de contrôler des sources lumineuses via une console lumière. Cette technologie est utilisée principalement dans des lieux de spectacles et des plateaux TV.

 

Article paru pour la première fois dans Mediakwest #31, p.16/18. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

La galaxie de formations Emergence

David Roux a participé à la résidence cinéma avec son projet, L’Ordre des médecins. Il avait pour marraine Danielle Arbid. Ce film est sorti le 23 janvier dernier. © DR

Depuis maintenant vingt ans, créée sous l’impulsion d’Élisabeth Depardieu, l’association Emergence propose à des réalisateurs en devenir de toucher du doigt, avant de plonger dans le grand bain de leur premier long-métrage, les conditions réelles d’un tournage. Emergence Cinéma regroupe bien plus qu’une résidence et se décline en une petite galaxie de formations où l’on aime bien faire se croiser les lignes.

 

Quand on feuillette le catalogue des vingt ans d’Emergence, on croise un nombre impressionnant de créateurs. Ce n’est pas difficile, on a l’impression que tout réalisateur intégré à l’actuel dynamisme du cinéma d’auteur français a un jour ou l’autre franchi le seuil de cette résidence cinéma.

En cela, elle répond bien à la définition du concept d’émergence : Pierre Schoeller, Deniz Gamze Ergüven, Katell Quillévéré, Alice Winocour, Marc Fitoussi, Julie Bertuccelli, Leyla Bouzid, Léa Fehner, Mia Hansen-Løve, Sébastien Betbeder, Joachim Lafosse, Vincent Mariette, Antonin Peretjatko, Elie Wajeman, Farid Bentoumi, Sacha Wolff… L’équipe de consultants en scénario (Benjamin Charbit), réalisation (Mikhaël Hers), casting (Tatiana Vialle), montage (Julie Dupré), montage son (Elisabeth Paquotte), sous la houlette bienveillante des chefs d’orchestre, la déléguée générale Nathalie Bessis et le délégué artistique, Laurent Lavolé, guident chaque année cinq candidats, sélectionnés avec soin. Leur mission : donner les moyens à ces créateurs de tourner deux scènes de leur projet, tout en les aiguillant.

« C’est courageux de la part des lauréats de se lancer dans la prépa et le tournage de scènes alors même que le film n’est pas encore entré en financement, ils essaient des choses qu’ils mettent à l’épreuve de la réalité du tournage. Tout ce cheminement avec leur projet leur sera profitable au moment de la réécriture et nourrira la réflexion globale sur le futur film », souligne Nathalie Bessis. « Pendant sept mois, les heureux lauréats vont pouvoir passer de l’écrit à l’action, tout en échangeant entre pairs. Réalisateurs, techniciens, consultants… chacun se nourrit du travail des autres », sourit-elle.

 

À la barre de ce navire créatif depuis une dizaine d’années, la déléguée générale peut se réjouir : désormais Emergence Cinéma a pour synonyme label de qualité. « On sent que cela s’est professionnalisé du côté des candidats. Tout le monde sait ce que nous faisons maintenant. Rares sont maintenant les réalisateurs qui n’ont pas déjà réfléchi aux scènes qu’ils choisiront de tourner, à leur équipe technique. Les acteurs, les agents et les industries techniques jouent le jeu », explique-t-elle.

Se faire la patte, apprendre, se soutenir et se rencontrer, c’est aussi la clé de la réussite d’Emergence Cinéma. Pour mener tout ce petit monde jusqu’au bout de l’aventure, il faut des reins solides. Financièrement, le CNC et la Région Ile-de-France fournissent la plus grande partie du budget annuel d’environ 500 000 euros. Une aide essentielle qui est complétée par des partenariats en industrie : l’incontournable groupe Transpa, Tapages au Son, Pom Z et M141 pour le montage, Third au montage son et au mix et Polyson à l’étalonnage.

 

Si l’association rémunère son pool de techniciens « maison », ceux qui interviennent uniquement sur les deux scènes tournées par chaque lauréat œuvrent gracieusement. Cela leur permet de découvrir le projet du film, de voir s’ils auront l’envie ou la possibilité de travailler dessus quand aura lieu le tournage.

Avant de partir prendre pension à Marcoussis, Emergence Cinéma propose aussi de mélanger ses ouailles. En effet, outre la résidence de réalisateurs, l’association a développé d’autres cordes à son arc au fil des ans. Et c’est dans les murs de la Cité de la Céramique de Sèvres, qu’elle propose aux futurs réalisateurs et aux participants du stage d’acteurs de travailler de concert.

Le temps d’une journée, les réalisateurs lauréats prennent la caméra Alexa et fixent en 2K la même scène incarnée par les comédiens qu’ils découvrent. Ensuite, les raconteurs d’histoire se frotteront au montage de cette première séquence express, sur Avid. Une petite mise en bouche avant le départ des équipes pour tourner les scènes issues des projets de longs-métrages en Essonne, où la Résidence prend ses quartiers au Centre National de Rugby. « Comme les scènes tournées n’ont pas vocation à être diffusées, il n’y a aucun problème de droits et on gagne surtout une forme de liberté », glisse Nathalie Bessis.

 

Côté musique, Emergence ne s’en laisse pas non plus conter. Avec la Sacem, l’association a aussi imaginé un atelier musique, dédié au binôme réalisateur-compositeur de film. Et comme du cinéma à la série, il n’y a, in fine, qu’une différence de format d’image, depuis deux ans, la fabrique a agrandi sa famille. Pendant cinq mois (à raison de quatre jours de séminaire par mois), neuf auteurs déjà aguerris peuvent découvrir les subtilités de l’écriture en commun, en format long ou court (inférieur à 26 minutes) avec la crème de la crème des réalisateurs, des scénaristes, des producteurs, des diffuseurs, des festivals, des techniciens… qui redonnent actuellement des couleurs à la fiction made in France.

Nathalie Bessis ne compte pas s’arrêter en si bon chemin et se prend à rêver d’une résidence série pour accompagner « du concept à la bible et au pilote dialogué »… et pourquoi pas d’une formule autour du Podcast, avec toujours la volonté d’être là où les autres ne sont pas. Et l’on ne s’étonne même pas que l’association soit aussi impliquée dans les actions d’éducation à l’image en Essonne et réfléchisse à une formule tenue encore secrète pour l’année scolaire prochaine !

 

Article paru pour la première fois dans Mediakwest #31, p.50. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

La galaxie de formations Emergence

David Roux a participé à la résidence cinéma avec son projet, L’Ordre des médecins. Il avait pour marraine Danielle Arbid. Ce film est sorti le 23 janvier dernier. © DR

Depuis maintenant vingt ans, créée sous l’impulsion d’Élisabeth Depardieu, l’association Emergence propose à des réalisateurs en devenir de toucher du doigt, avant de plonger dans le grand bain de leur premier long-métrage, les conditions réelles d’un tournage. Emergence Cinéma regroupe bien plus qu’une résidence et se décline en une petite galaxie de formations où l’on aime bien faire se croiser les lignes.

 

Quand on feuillette le catalogue des vingt ans d’Emergence, on croise un nombre impressionnant de créateurs. Ce n’est pas difficile, on a l’impression que tout réalisateur intégré à l’actuel dynamisme du cinéma d’auteur français a un jour ou l’autre franchi le seuil de cette résidence cinéma.

En cela, elle répond bien à la définition du concept d’émergence : Pierre Schoeller, Deniz Gamze Ergüven, Katell Quillévéré, Alice Winocour, Marc Fitoussi, Julie Bertuccelli, Leyla Bouzid, Léa Fehner, Mia Hansen-Løve, Sébastien Betbeder, Joachim Lafosse, Vincent Mariette, Antonin Peretjatko, Elie Wajeman, Farid Bentoumi, Sacha Wolff… L’équipe de consultants en scénario (Benjamin Charbit), réalisation (Mikhaël Hers), casting (Tatiana Vialle), montage (Julie Dupré), montage son (Elisabeth Paquotte), sous la houlette bienveillante des chefs d’orchestre, la déléguée générale Nathalie Bessis et le délégué artistique, Laurent Lavolé, guident chaque année cinq candidats, sélectionnés avec soin. Leur mission : donner les moyens à ces créateurs de tourner deux scènes de leur projet, tout en les aiguillant.

« C’est courageux de la part des lauréats de se lancer dans la prépa et le tournage de scènes alors même que le film n’est pas encore entré en financement, ils essaient des choses qu’ils mettent à l’épreuve de la réalité du tournage. Tout ce cheminement avec leur projet leur sera profitable au moment de la réécriture et nourrira la réflexion globale sur le futur film », souligne Nathalie Bessis. « Pendant sept mois, les heureux lauréats vont pouvoir passer de l’écrit à l’action, tout en échangeant entre pairs. Réalisateurs, techniciens, consultants… chacun se nourrit du travail des autres », sourit-elle.

 

À la barre de ce navire créatif depuis une dizaine d’années, la déléguée générale peut se réjouir : désormais Emergence Cinéma a pour synonyme label de qualité. « On sent que cela s’est professionnalisé du côté des candidats. Tout le monde sait ce que nous faisons maintenant. Rares sont maintenant les réalisateurs qui n’ont pas déjà réfléchi aux scènes qu’ils choisiront de tourner, à leur équipe technique. Les acteurs, les agents et les industries techniques jouent le jeu », explique-t-elle.

Se faire la patte, apprendre, se soutenir et se rencontrer, c’est aussi la clé de la réussite d’Emergence Cinéma. Pour mener tout ce petit monde jusqu’au bout de l’aventure, il faut des reins solides. Financièrement, le CNC et la Région Ile-de-France fournissent la plus grande partie du budget annuel d’environ 500 000 euros. Une aide essentielle qui est complétée par des partenariats en industrie : l’incontournable groupe Transpa, Tapages au Son, Pom Z et M141 pour le montage, Third au montage son et au mix et Polyson à l’étalonnage.

 

Si l’association rémunère son pool de techniciens « maison », ceux qui interviennent uniquement sur les deux scènes tournées par chaque lauréat œuvrent gracieusement. Cela leur permet de découvrir le projet du film, de voir s’ils auront l’envie ou la possibilité de travailler dessus quand aura lieu le tournage.

Avant de partir prendre pension à Marcoussis, Emergence Cinéma propose aussi de mélanger ses ouailles. En effet, outre la résidence de réalisateurs, l’association a développé d’autres cordes à son arc au fil des ans. Et c’est dans les murs de la Cité de la Céramique de Sèvres, qu’elle propose aux futurs réalisateurs et aux participants du stage d’acteurs de travailler de concert.

Le temps d’une journée, les réalisateurs lauréats prennent la caméra Alexa et fixent en 2K la même scène incarnée par les comédiens qu’ils découvrent. Ensuite, les raconteurs d’histoire se frotteront au montage de cette première séquence express, sur Avid. Une petite mise en bouche avant le départ des équipes pour tourner les scènes issues des projets de longs-métrages en Essonne, où la Résidence prend ses quartiers au Centre National de Rugby. « Comme les scènes tournées n’ont pas vocation à être diffusées, il n’y a aucun problème de droits et on gagne surtout une forme de liberté », glisse Nathalie Bessis.

 

Côté musique, Emergence ne s’en laisse pas non plus conter. Avec la Sacem, l’association a aussi imaginé un atelier musique, dédié au binôme réalisateur-compositeur de film. Et comme du cinéma à la série, il n’y a, in fine, qu’une différence de format d’image, depuis deux ans, la fabrique a agrandi sa famille. Pendant cinq mois (à raison de quatre jours de séminaire par mois), neuf auteurs déjà aguerris peuvent découvrir les subtilités de l’écriture en commun, en format long ou court (inférieur à 26 minutes) avec la crème de la crème des réalisateurs, des scénaristes, des producteurs, des diffuseurs, des festivals, des techniciens… qui redonnent actuellement des couleurs à la fiction made in France.

Nathalie Bessis ne compte pas s’arrêter en si bon chemin et se prend à rêver d’une résidence série pour accompagner « du concept à la bible et au pilote dialogué »… et pourquoi pas d’une formule autour du Podcast, avec toujours la volonté d’être là où les autres ne sont pas. Et l’on ne s’étonne même pas que l’association soit aussi impliquée dans les actions d’éducation à l’image en Essonne et réfléchisse à une formule tenue encore secrète pour l’année scolaire prochaine !

 

Article paru pour la première fois dans Mediakwest #31, p.50. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

HDR, du tournage à l’étalonnage : la parole à un étalonneur (Partie 5)

Rémi Berge en action sur le pupitre Blackmagic DaVinci advanced. © DR

Afin de vous présenter des mises en œuvre et des réflexions concrètes autour des technologies du HDR, nous avons donné la parole à des acteurs de la production audiovisuelle et cinématographique française s’intéressant de près à cette évolution que nous considérons, avec eux, comme majeure. Après le passionnant échange que vous avez pu découvrir dans les colonnes du précédent numéro de Mediakwest*, et sur lequel vous avez été nombreux à réagir, nous donnons aujourd’hui la parole à un étalonneur suivant au plus près les techniques et usages artistiques. Rémi Berge est affectueusement surnommé par certains de ses amis Monsieur HDR.

 

Le HDR en quelques lignes

Le HDR, c’est une évolution technique du signal vidéo sur deux critères. Le contraste d’abord : jusqu’à aujourd’hui le signal vidéo était basé sur une valeur de luminance maximale définie à 100 nits, selon les possibilités des écrans à tubes cathodiques « de l’époque ». En HDR le contraste est largement augmenté et selon les normes et les technologies d’affichage et de production le niveau de luminance peut aller jusqu’à 10 000 nits. Le second critère qui évolue parallèlement est l’espace colorimétrique qui grandit également fortement passant du Rec. 709 pour la HD jusqu’au Rec. 2020. Pour plus de détails, nous vous invitons à lire nos précédents articles*.

 

 

Mediakwest : Quels types de films étalonnes-tu en HDR ?

Rémi Berge : Pour les longs-métrages, les seules solutions actuellement exploitées sont proposées par Eclair (EclairColor) et Dolby (DolbyVision). En France, il y a peu de projets « fiction » étalonnés en HDR. J’étalonne donc en HDR des documentaires et des magazines. J’ai également préparé des produits pour Apple TV, des boucles d’une heure sur l’Afrique du Sud, la Polynésie, l’Indonésie, etc.

 

 

M. : Nous avions échangé sur un projet de téléfilm (« Mon frère bien aimé » - production Neyrac Films) que tu devais étalonner en HDR ; qu’en est-il ?

R. B. : Sur ce téléfilm, nous avons fait des tests avec le directeur photo, mais à l’époque (en 2016), des problématiques de coût et le manque de maturité des outils nous ont contraints à abandonner l’idée. En effet, les exigences, notamment sur les tons « chair », nous auraient imposé la réalisation de deux étalonnages. À ce moment, l’intérêt porté à cette technologie n’était pas assez important et le différentiel en termes de cibles potentielles n’est pas assez intéressant.

Les productions peuvent être intéressées par le 4K HDR pour le potentiel de vente des programmes à Netflix, mais cela reste incertain. Le surcoût d’un étalonnage HDR lorsque votre principal client diffuse et demande du SDR n’est alors pas justifié. Sur ce projet, le directeur photo était attiré par l’idée, nous avons donc fait des essais en pensant réaliser le produit principal en SDR via un « downconvert ». Le résultat n’était pas à la hauteur d’un étalonnage spécifique SDR.

La conversion de films HDR en SDR est possible. Il existe même des outils dédiés, et les logiciels de postproduction permettent des transcodages depuis des sources encodées suivant une courbe PQ dans un espace Rec. 2020 vers des médias Rec. 709, Gamma 2,4 ; mais sans l’intervention d’un coloriste le résultat est très moyen. J’aimerais étalonner plus de fiction en HDR ; pour moi il n’y a pas de différence entre étalonner de la fiction et étalonner des documentaires.

 

 

M. : Quelle quantité de films étalonnes-tu en HDR ?

R. B. : J’étalonne beaucoup de films. Cette année j’ai étalonné douze 52 min. et sept 26 min. en HDR, dont de nombreux programmes d’excellente qualité pour The Explorers. C’est un tournant, je n’ai jamais autant étalonné en HDR ; avant ce n’était que des essais par-ci, par-là.

 

 

M. : Actuellement, quand tu fais un film en HDR, est-ce en supplément du SDR ?

R. B. : En fait, c’est l’inverse ! Ce sont les étalonnages SDR qui sont réalisés en supplément. Sur l’ensemble des films HDR que j’ai étalonnés, deux ont fait l’objet d’une version HDR, à partir du master SDR, au cas où. Tous les autres étaient une véritable demande d’étalonnage HDR.

 

 

M. : Quelle est ton expérience des différentes normes HDR coexistantes ?

R. B. : Il y a au moins « trois HDR ». J’ai fait des essais en HLG. La NHK et la BBC ont retenu cette norme, pour des raisons pratiques évidentes de rétrocompatibilité en diffusion. Deux téléspectateurs, l’un équipé en HDR et l’autre en SDR, pourront tous les deux profiter de la même source. La courbe hybride Log-Gamma s’adapte en effet toute seule dans le récepteur ; et cela fonctionne parfaitement. Cependant le rendu, tout en étant sensiblement mieux qu’en SDR est beaucoup moins bluffant qu’en HDR 10. Il y a une plus grande dynamique, mais on n’obtient pas l’effet « waouh » ! Pour Dolby, l’investissement financier conséquent dans les licences et la presque obligation de terminer son film chez Dolby freine considérablement son adoption.

Principalement, moi je fais du HDR 10 qui est le format le plus commun. C’est le format de postproduction pour préparer des masters destinés au pressage de Blu-ray par exemple ou pour du broadcast « hors live », du magazine ou du documentaire. Le format HLG de son côté a un intérêt ; c’est la seule solution pour faire du HDR en live : je ne vois actuellement pas d’autres solutions pour le live, même si le rendu n’est effectivement pas aussi bluffant qu’avec une courbe PQ.

Si on revient sur le Dolby Vision, ses grandes forces sont d’être encodé sur 12 bits, là où le HDR 10 se limite à 10 bits, et de pouvoir transporter les métadonnées indiquant les valeurs moyennes et maximales d’intensité lumineuse pour chaque plan du film. On peut donc dire qu’en HDR 10, 8 bits de quantification sont destinés à l’image « normale » et 2 bits sont dédiés aux hautes lumières : le signal de base (SDR) étant encodé uniquement sur 8 bits.

Avec les mêmes comparaisons, en Dolby Vision on dédie une plage de quantification de 10 bits pour l’image « traditionnelle » et 2 bits pour les hautes lumières. C’est pour cette raison que lorsque j’exporte mon master HDR 10, je le fais en 12 ou 16 bits plutôt qu’en 10 afin de m’octroyer une marge qualitative pour la réalisation de mon master SDR (préparé à partir du master HDR repris en source et découpé dans le logiciel DaVinci Resolve). Je pourrais réaliser l’étalonnage SDR à partir du projet d’origine, mais cela reviendrait finalement à étalonner à nouveau le programme et provoquerait un dépassement des limites de temps imposées par le budget.

 

 

M. : Quelles sont les contraintes sur les sources d’images qu’on te fournit pour étalonner un programme en HDR ?

R. B. : Les caméras sont les mêmes pour le HDR et le SDR, les modèles de caméras récentes disposent d’une plage dynamique suffisante. Mais les problématiques que l’on rencontre sont la très grande diversité et le mélange des médias fournis. Pour les magazines, il est courant de travailler à partir d’images issues de trois, quatre ou cinq caméras différentes ; et parmi elles on peut avoir des sources enregistrées dans l’espace colorimétrique réduit Rec. 709. Souvent une ou deux belles caméras sont utilisées, auxquelles viennent se greffer des appareils à la dynamique très éloignée, comme les stabilisateurs DJI Osmo. Il est alors nécessaire de réinterpréter ces médias pour adapter leur dynamique. On s’aperçoit alors très vite du manque d’informations : les hautes lumières sont brûlées. Le HDR supporte mal les aplats et le manque de matière obtenus.

 

 

M. : Il est de coutume de dire que le complément de dynamique apporté par le HDR est là pour offrir toute leur place aux hautes lumières plutôt que pour donner une luminosité générale plus grande à l’image, peux-tu nous préciser ce qu’il en est dans la pratique ?

R. B. : Si je peux me permettre cette comparaison : lorsqu’on a un grand lit, on a quand même tendance à s’étaler un peu dedans. Même si en théorie la dynamique supplémentaire est prévue pour les pics de lumière, lorsqu’on travaille en HDR on étalonne des images légèrement plus lumineuses qu’en SDR ; c’est souvent la demande des clients. Mais même si on me dit : « il faut que ça pète », je me limite parce que les images doivent rester naturelles et homogènes.

 

 

M. : En fonction de la technologie des écrans, seule une zone limitée peut être affichée en haute luminosité, notamment pour des raisons de limitation de consommation et d’écologie. Est-ce que c’est une contrainte pour toi ?

R. B. : Absolument pas, je n’ai pas envie de travailler avec des lunettes de soleil, et si je souhaite bronzer, je préfère aller dehors. Afficher des images à 1 000 nits sur une dalle entière présente peu d’intérêt. Cela doit juste être pris en considération pour des effets d’explosion par exemple. Lorsque dans certains films, on a demandé au monteur d’insérer des flashs au blanc, les écrans Oled réagissent bizarrement ; ils ne sont capables d’afficher ces images que pendant un très court instant ; l’écran a alors tendance à « pomper » ; d’autre part il faut garder à l’esprit que peu d’écrans grand public sont capables d’afficher plus de 800 nits (et encore moins sur toute leur surface).

Cela me permet d’évoquer le sujet de la place du blanc. En HDR, son niveau ne doit pas forcément être réglé à 100 %, et en est même sensiblement éloigné, contrairement au SDR. Je dois donc baisser les niveaux des « flashs au blanc ». La réflexion est la même pour les titrages, je règle leur luminosité à environ la moitié de la courbe de luminosité.

 

 

M. : Regardes-tu ce qui est produit en HDR, par exemple sur Netflix ?

R. B. : Nous regardons régulièrement des programmes HDR sur Netflix avec un écran grand public de qualité. Lors de notre dernier visionnage « critique », sur dix programmes HDR un seul nous semble avoir été étalonné en HDR au départ. Les autres ont certainement été « gonflés » en HDR avec pour résultat des images hyper agressives, des hautes lumières excessivement lumineuses, et des titrages « explosifs » : c’est de l’aberration commerciale.

Certaines productions commencent cependant à penser à la pérennité de leurs films. J’ai étalonné un documentaire diffusé sur Arte, donc en HD et en SDR. L’étalonnage HDR a été pensé pour les futures distributions : c’est un investissement. Pour ce documentaire, j’ai fait l’étalonnage en HDR suivi d’une passe en SDR à partir du master HDR. C’est pour moi la meilleure solution actuelle, tant technique que commerciale.

Je pourrais choisir de travailler en ACES (une technologie qui adapte le traitement du signal vidéo en fonction des caractéristiques des différents étages de la chaîne de production : sources, outils de travail, écrans, etc.) et de préparer deux sorties différentes en adaptant l’étalonnage, mais cela revient finalement quasiment à réaliser deux étalonnages différents.

Il serait également envisageable de travailler d’abord en SDR et d’étalonner le programme HDR dans un second temps. Dans ce sens, la problématique la plus importante se situe dans le passage de l’espace colorimétrique Rec. 709 à l’espace Rec. 2020, ou plus précisément à l’espace DCI P3 au sein de l’espace Rec. 2020 (cf. la suite de l’article).

Pour préparer l’étalonnage SDR à partir d’un master HDR il faut être attentif à la quantification du signal. Pour simplifier, on peut dire qu’en SDR, on travaille sur 10 bits de 0 à 1 023, alors qu’en HDR c’est très différent. La courbe PQ prévoit un niveau théorique maximum de 10 000 nits, qui ne sont pour l’instant affichés par aucun écran, le BVM X300 affichant 1 000 nits maximum.

Sachant que dans le signal du HDR on travaille le signal « habituel » dans une plage entre 0 et 300 nits, et que le reste est consacré au traitement des hautes lumières, on n’utilise qu’une petite partie de la plage de quantification pour la majorité du signal utile. C’est la raison pour laquelle je prépare mes masters HDR en 12 ou 16 bits avant d’appliquer ma courbe de réduction (LUT) sur le film entier et de faire une adaptation de l’étalonnage plan par plan. Dans ce sens, l’adaptation colorimétrique se passe plutôt bien.

 

 

M. : Tu te contrains dans l’espace colorimétrique DCI P3 pour l’étalonnage en HDR, peux-tu nous en expliquer la raison ?

R. B. : J’étalonne dans l’espace colorimétrique Rec. 2020, mais je me limite à l’espace DCI P3 à l’intérieur de cet espace Rec. 2020. Le matériel grand public n’affiche pas du tout le Rec. 2020 et même si de nombreux modèles récents s’en rapprochent, tous n’affichent pas l’entièreté de l’espace DCI P3 non plus, il en résulte trop de fausses couleurs en cas de sur-saturation. Les derniers modèles Oled le font. Mais l’espace DCI P3 est déjà bien plus large que le Rec. 709. Les couleurs situées entre le Rec. 709 et le Rec. 2020 sont des couleurs extrêmes, des verts très saturés et hyper lumineux.

Moi, cette contrainte ne me gêne pas beaucoup, je n’ai jamais senti mes couleurs se « tordre » sauf en cherchant volontairement les limites. À partir d’un fond coloré, en « tirant » sur les réglages, à partir d’un certain seuil on voit des choses étranges apparaître, des couleurs qui dérivent ou qui ne peuvent pas être affichées. Mais globalement pour les images « naturalistes » on ne ressent pas l’obligation, ni même l’intérêt d’un espace encore plus large. Sauf cas extrême, lorsqu’on filme par exemple un soleil de face avec des rouges flamboyants que l’on ne peut pas observer habituellement.

J’ai passé les vingt dernières années à étalonner des images et à essayer de les contraindre dans une dynamique et un espace colorimétrique relativement faible.

 

 

M. : Ne penses-tu pas qu’en travaillant avec un espace colorimétrique plus large tel que le Rec. 2020, tes clients et les spectateurs trouvent le rendu de l’image « trop vidéo » ?

R. B. : Associer le caractère cinématographique à la désaturation est uniquement « culturel » ; en effet l’espace colorimétrique du cinéma est plus large que celui de la vidéo. Dès que mes clients demandent un rendu vraiment cinématographique, très désaturé, c’est donc vraiment une notion « culturelle ».

Au cinéma, on fait ce qu’on veut. Les blockbusters tels que « Transformers » nous montrent des couleurs éclatantes sans que l’on se dise : « Hollywood, non, ce n’est pas très cinématographique ». Mais il est vrai que c’est une demande récurrente. Je viens de finaliser l’étalonnage d’un long-métrage où on m’a demandé un rendu Agfacolor. On m’a apporté des livres d’exemples du style voulu, et si on observe bien, les images présentées ne sont pas si désaturées que ça : notre étalonnage sera lui encore plus désaturé. Les couleurs un peu pastel servent à ramener à l’époque… Mais je ne sais pas pourquoi : les gens ne voyaient pas pastel à l’époque ! C’est un rendu… on se fait des films ! On peut aussi faire des films de cinéma avec beaucoup de couleur !

 

 

M. : Travailles-tu en HDR différemment dans ton rapport avec les équipes ? As-tu une interaction particulière avec la production ou interviens-tu uniquement à la fin en récupérant ce que l’on veut bien te donner ?

R. B. : On arrive de toute façon à la fin et on récupère ce qu’on nous donne. Ça a toujours été et ce sera toujours ainsi ! La discussion peut cependant débuter en amont. Les gens sont inquiets parce qu’ils ne savent pas ce qu’il est possible de faire. Tu peux alors leur montrer les possibilités offertes par le HDR ; mais les contraintes de production restent les mêmes. Un tournage peut par exemple débuter idéalement avec deux F55. Très souvent, pour répondre à des besoins supplémentaires, les équipes sont séparées pour couvrir plusieurs actions simultanées, ou filmer plusieurs sujets. Et du coup au lieu de deux F55 pour le champ et le contrechamp, la F55 principale est complétée par un appareil photo.

Le client est alors surpris de ne pas obtenir les mêmes images. C’est simple, tu as une belle image avec de la dynamique et l’autre avec des hautes lumières explosées, des aplats sur les carnations. Les fichiers issus de ces caméras sont en H264, souvent en 8 bits, offrant des possibilités très limitées. Donc tu es contraint à « pourrir un peu » la belle image pour essayer de la raccorder avec l’image de plus belle qualité ; le contraire étant impossible.

 

 

M. : Lorsqu’on te propose un projet HDR, demandes-tu des caméras particulières ?

R. B. : Je n’ai rien à imposer : ce que je peux dire c’est qu’en 12 ou 16 bits et en log c’est bien, en 8 bits et en Rec. 709 c’est très risqué, c’est beaucoup moins bien ! Ce langage, je l’ai toujours eu, parce que c’est toujours vrai, même si c’est encore plus vrai lorsque l’on prétend étendre ses images dans une plage dynamique plus grande.

 

 

M. : Et pour le montage, y a-t-il un workflow différent ?

R. B. : Pas du tout ! Les monteurs travaillent en Rec. 709 et voient l’image telle quelle. Contrairement au SDR où l’étalonnage de documentaires ou de magazines est souvent réalisé à partir d’un mixdown du programme préalablement découpé, pour le HDR je repars systématiquement des sources.

J’étalonne souvent sur DaVinci Resolve de Blackmagic Design. Comme le logiciel est disponible à moindre coût, les productions peuvent prendre en charge la conformation en interne et me fournir un projet prêt à l’emploi. Cela leur coûte moins cher.

 

 

M. : Peux-tu nous parler de ta configuration pour l’étalonnage des programmes en HDR sur DaVinci Resolve ?

R. B. : Je travaille donc sur une station DaVinci Studio de Blackmagic Design. L’écran est le modèle BVM-X300 de Sony. La majorité des programmes que j’étalonne en HDR est en 4K DCI (4 096 x 2 160) et en 50p. Les volumes de médias à traiter sont donc importants. Pour obtenir un affichage temps réel, je ne peux pas me contenter d’un iMac, ni même d’un iMac Pro. J’ai donc dû configurer une station Linux appuyée par un boîtier hébergeant plusieurs puissantes cartes graphiques.

Avec DaVinci, on peut choisir de travailler à partir de LUT (sortes de courbes appliquées au signal vidéo). On peut également utiliser un mode plus évolué, le DaVinci YRGB color managed. C’est un « mode de management colorimétrique » qui permet de choisir les Gamma et Gamut des sources, timelines et destinations.

Après avoir testé de nombreuses solutions, notamment via la fabrication de mes propres LUT, et le travail en ACES, je trouve que la solution la plus simple et la plus efficace est celle du color management. L’intérêt de l’ACES c’est de ramener les sources dans un espace colorimétrique commun, avec des transpositions d’espaces colorimétriques que je trouve assez efficaces. Mais le fait de travailler en ACES dans le logiciel modifie la réaction des outils ; je trouve alors que l’étalonnage peut devenir plus complexe à réaliser.

Je travaille dans une timeline contrainte en DCI P3, avec un point blanc D65. Le film est ensuite encodé dans l’espace Rec. 2020 dont on n’utilise du coup qu’une partie restreinte. C’est une demande des broadcasters, dont Orange et Netflix, et, à l’origine, des fabricants de téléviseurs, de ne pas dépasser l’espace DCI P3, limite des écrans actuels. On se contraint donc dans du P3 pour des raisons de matériel en bout de chaîne.

J’avais étalonné mes premiers films HDR dans l’espace Rec. 2020 total. En fait je ne débordais pas beaucoup de l’espace DCI P3. Ce qui est intéressant à observer cependant, c’est qu’au vu de la différence entre les deux espaces, on obtient en Rec. 2020 des couleurs étonnantes qui ne peuvent être créées que dans ce mode ; et je parle là non pas d’une saturation plus élevée des couleurs mais de tonalités et nuances différentes. Notamment dans les verts, dans les forêts, j’obtenais des résultats intéressants et un rendu très particulier.

Le matériel va évoluer, mais le Rec. 2020 ne va pas être disponible rapidement sur les téléviseurs grand public ; les pics de luminosité évolueront en premier. La luminosité est actuellement plus forte sur les écrans LCD, mais le rendu dans les noirs est beaucoup plus subtil avec les écrans Oled.

 

 

M. : Le HDR et le réalisme…

R. B. : Je trouve que d’afficher les images de façon naturelle est un véritable plus. Les hautes lumières ne sont pas encore celles de la vraie vie ; mais dans la vraie vie l’œil et le cerveau font usage de différents procédés d’adaptation pour s’adapter aux différences de lumières de la scène, et on ne souhaite pas que le spectateur doive fermer son iris pour voir une partie de l’image.

Avec le HDR, lorsqu’un point brillant est présent dans l’image, lorsqu’un reflet ou un flare traverse l’écran, on peut les afficher naturellement. Bien entendu on n’étalonne pas les visages à 1 000 nits. Un visage reste éclairé de la même manière en SDR et en HDR, on arrive facilement à le rendre correctement sur un écran. C’est lorsque l’on souhaite donner une certaine luminosité à une scène, une luminosité naturelle, que le HDR nous ouvre de nouvelles possibilités en nous évitant de tout compresser dans les hautes lumières. On dispose des « densités » depuis le début ; le fait de pouvoir afficher la dynamique, c’est vraiment bien.

Concernant l’espace colorimétrique disponible, plus il sera étendu, plus on sera heureux. Après on n’est pas obligé de s’étaler dedans copieusement ! En SDR, une fois posé le niveau lumineux des carnations, on compresse le reste au-dessus et on est systématiquement obligé de bricoler l’image pour afficher un ciel, pour conserver les hautes lumières ou éviter que les fenêtres en arrière-plan soient « brûlées ».

 

 

M. : Parlons artistique. Quelle est ta technique de travail sur le HDR ? Est-ce qu’on peut dire que tu étalonnes ton image de la même manière sur 70 % de ton signal et que c’est au-dessus que tout change ? Est-ce que toute ta méthode de travail est modifiée ?

R. B. : On peut dire ça ! Je fais à peu près la même chose dans le bas de la courbe. Mais on a quand même tendance à être plus lumineux, parce qu’on a plus de place et qu’on s’étale vite dedans ! Maintenant j’essaye de faire quelque chose de joli, l’outrancier ne m’intéresse pas. Il y a quelques années, les premières démos HDR sur les salons faisaient mal aux yeux. On te présentait deux images, avant/après, sur deux moniteurs. Et finalement tu te disais presque que tu préférais le … avant ! parce que l’après était « too much ».

Le HDR réduit le carcan, mais toutes les images ne sont pas naturellement lumineuses, et ne doivent pas être étalonnées exagérément lumineuses. Par contre, tu peux avoir des images denses et d’un seul coup un point lumineux qui apparaît peut vraiment être lumineux ! On reste cependant loin de la lumière naturelle. Dans la rue, le reflet d’un soleil sur une voiture est mesuré à 20 000 nits, loin des 1 000 nits que peut afficher un écran HDR actuellement.

 

 

M. : Tu fais une véritable veille technologique sur le HDR. As-tu suivi les évolutions matérielles pour le HDR dans les salles de cinéma ?

R. B. : Pour les salles de cinéma, Eclair pousse sa solution EclairColor. Mais au cinéma, les niveaux de luminosité sont naturellement beaucoup plus faibles, du fait de la projection, comparativement aux niveaux des écrans (moniteurs ou téléviseurs). En SDR le niveau du blanc est prévu à 48 nits seulement et en HDR à 105 nits. Une nouvelle génération d’écrans est en train d’arriver sur le marché. Ils sont constitués de panneaux à technologie Microled s’assemblant par modules pour créer des écrans de tailles variables. Ils permettent de dépasser les limites inhérentes à la projection. C’est inéluctable, à terme les écrans de projection n’existeront plus. Dans une salle de cinéma, on est dans le noir, donc 48 nits c’est bien en SDR, 105 c’est bien en HDR, mais pourquoi ne pas aller plus loin, 1 000, 4 000 nits, ou plus.

 

 

M. : As-tu opéré des changements dans ta salle d’étalonnage pour le HDR ?

R. B. : Il y a longtemps que j’ai arrêté de travailler dans le noir. Quand j’avais 20 ans, je travaillais dans l’obscurité totale, et je ne voulais surtout pas de lumière qui pût se refléter sur l’écran ; il est vrai cependant que les tubes étaient très sensibles aux reflets. Aujourd’hui j’étalonne avec une petite source lumineuse modulable placée au-dessus de moi, j’utilise également deux « phares réglables » correctement calibrés à 6 500K dirigés vers une toile (un écran de projection), au fond de la salle, derrière mon moniteur. Lorsque je travaille en SDR, je les baisse et je les monte en HDR. Une journée d’étalonnage en HDR étant déjà plus fatigante, c’est bien de se sauvegarder un peu.

 

 

M. : Pour illustrer nos propos, nous avons passé en revue quelques exemples de programmes étalonnés en HDR…

R. B. : Pour cet entretien, après une demi-heure à observer des images en HDR, le retour au SDR est difficile ; il provoque une sensation de manque. On a juste du mal à revenir en arrière. La tonalité des images reste la même, mais de nombreux éléments disparaissent ; il manque une impression de relief. Comme cette image d’un hélicoptère traversant de superbes paysages : en HDR on voit nettement la petite lumière clignoter ; elle disparaît totalement en SDR.

 

 

Un grand merci à Rémi Berge qui s’est prêté avec enthousiasme à ce grand débat technologique et artistique.

 

Article paru pour la première fois dans Mediakwest #31, p.106/110. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

 

 

* LISEZ NOS AUTRES ARTICLES DÉJÀ PARUS DANS LE MAGAZINE MEDIAKWEST ET DISPONIBLES EN LIGNE :

 HDR : les premières clés du high dynamic range (partie 1)

• HDR : les nouveaux termes apparus (Partie 2)

• HDR : Comment peut-on en profiter ? (Partie 3)

HDR : Du tournage à l’étalonnage - La production (Partie 4)

IBC 2019 : 10 ans d'avancées technologiques pour les PTZ Panasonic (interview Web TV)

IBC 2019 : 10 ans d'avancées technologiques pour les PTZ Panasonic (interview Web TV)

Panasonic célèbre le 10e anniversaire de sa gamme de caméras PTZ. Dans une interview vidéo livrée sur IBC, Andre Meterian, Directeur de la division Professional Video Systems pour la zone EMEA Panasonic, fait un point sur cette ligne de produits évolutive, qui représente la gamme PTZ la plus étoffée au monde. Andre Meterian nous présente plus en détail la toute nouvelle UE 150, outil de captation PTZ performant pour le tracking sur fond vert des studios virtuels grâce à son protocole FreeD. Il détaille aussi la stratégie d’intégration robotique qui permet à ces caméras des prises de vues 6 axes et nous dévoile la stratégie Panasonic à long terme qui se concrétise par l’arrivée d’une  plateforme IP centrique glass to glass sans limitation de capacité (nous reviendrons sur cette innovation plus longuement la semaine prochaine…). 

 

 

En route pour un tour d’horizon des nouveautés PTZ et robotiques du stand Panasonic d'IBC… A commencer par les nouveautés de la gamme PTZ

Le nouveau fleuron de la gamme de caméra PTZ 4K de Panasonic est désormais l’AW-UE150, Grâce à l’adoption du protocole FreeD, l’AW-UE150est lapremière caméra PTZ compatible avec les applications de studio virtuel et de réalité augmentée. Elle cumule les performances puisque c’est aussi la première caméra de sa catégorie à offrir des images 4K à une résolution 50/60p et propose également l’angle de vision le plus large du marché avec ses 75,1 degrés.

 

Parmi les autres nouveautés présentées sur le stand, la caméra  PTZ compacte 4K ultra grand  angle AW-UE4possède un angle de champ de 111° et une capacité de sortie vidéo sur trois interfaces (HDMI, LAN et USB). Adaptée à tous types d’espaces grands ou petits (de la salle de réunion à la productione-sport), elle propose une solution câblée Power over Ethernet (PoE) et peut être utilisée en tant que caméra USB alimentée par un ordinateur.

La caméra AW-UE4dispose d’une opérabilité avancée : sa compatibilité RTMP (Real-Time Messaging Protocol) qui lui permet de transférer les vidéos vers les services de diffusion en direct est particulièrement adaptée aux productions live.

La caméra AW-UE4 sera disponible cet automne au prix conseillé de 1 190 €.

 

 

Deux nouveaux contrôleurs de caméra à distance

 

Destinés à accompagner la gamme complète de caméras PTZ professionnelles de Panasonic, deux nouveaux contrôleurs de caméra à distance AW-RP150et AW-RP60 étaient également présentés.

L’AW-RP150présente les mêmes fonctionnalités que l’AW-RP120tout en apportant des améliorations significatives. En effet, l’AW-RP150est doté d’une nouvelle manette facilitant son utilisation avec une seule main (pour le contrôle PTZ ou la mise au point) ainsi qu’un grand écran LCD tactile pour les commandes et le paramétrage des menus. Un levier à bascule disponible sur la manette permet de réaliser des opérations de rotation et d’inclinaison du zoom ainsi que la mise au point pour une manipulation intuitive avec une seulemain.

Le nouveau contrôleur de caméra à distance AW-RP60 est quant à lui équipé d'un grand écran LCD affichant un menu d’interface HD et d’une manette améliorée pour une maîtrise plus aisée. Celui-ci est compatible avec tous les modèles existants de caméras PTZ Panasonic.

Grâce à l’interface utilisateur améliorée, l’ensemble des informations importantes concernant les caméras, telles que l’ouverture, le zoom et la mise au point sont désormais lisibles à tout moment directement sur l’écran.

Le modèle AW-RP60 est également capable de prendre en charge jusqu’à 200 caméras réparties en 20 groupes et permet 100 préréglages tout en disposant du PoE pour une intégration simplifiée.

Le modèle sera disponible à partir d’octobre.

 

« L'écosystème PTZ est devenu la solution de production à distance la plus courante du marché des productions de moyenne et grande taille car trois facteurs qui jouent en sa faveur... Le système PTZ est conçu pour livrer une reproduction haute qualité d’image, fidèle aux couleurs naturelles à l'instar de nos caméras broadcast traditionnelles. Cette qualité visuelle s’accompagne d’une aisance d’utilisation pour des mouvements fluides et précis. Enfin, l’investissement permanent de Panasonic dans l’innovation permet de réduire les coûts de fonctionnement pour des clients aux besoins variés en matière d’applications », souligne Sivashankar Kuppusamy, Marketing Manager EMEA au sein de la division Professional Video Systems dePanasonic.

 

 

Une intégration de solutions robotiques de plus en plus avancée avec Tecnopoint, Polecam et CamBot KST

 

La gamme de caméras PTZ est assortie d’un ensemble de solutions robotiques tierces que l'on pouvait retrouver sur le stand. Ces solutions favorisent la captation de mouvement fluides et précis dans les productions en direct.

Parmi elles, Tecnopoint Tuningest un système robotique avancé qui donne accès à des mouvements de type télédiffusion aux caméras PTZ Panasonic par l’ajout d’assemblages de chariots motorisées et de colonnes.

Panasonic et Polecam ont aussi collaboré au développement du Panapod qui permet de monter jusqu'à 5PTZ simultanément et s’opère au moyen de pédales dédiées ou de pupitres, avec la possibilité d'élever la caméra de 1,5 à 3 mètres.Cette élévation de la caméra n’obstrue pas la vue et n’interfère pas avec l’artiste, le joueur, le présentateur ou la séquence filmée. Ce qui permet aux spectateurs de mieux profiter de l’expérience.

 

Enfin, le système CamBot KST est un système de caméras robotisées avec contrôle du mouvement pour l’automatisation des applications télévisées. Grâce à sa conception novatrice, ce système permet des mouvements de grande précision dans un espace restreint. Il fonctionne au moyen d’une interface logicielle, ce qui signifie que le bras robotisé peut être entièrement automatisé avec des trajectoires reproductibles. L’union du système CamBot KST et de la caméra box AK-UB300 ou d’une caméra de la série VariCam offre une solution 4K clé en main pour les plateaux d’informations et sportifs, ainsi que pour les concerts, les spectacles de divertissement et les applications de réalité augmentée. Le système est commandé par IP, pour une grande souplesse de configuration à distance.

Landscapes of Sound: An Interview with Mandell Winter

Premium Beat sat down with this seasoned pro to explore his process, working relationships, and the challenges involved in sound design.

A Cheap Trick for Lighting a Daylight Interior Car Scene

Here are a few techniques to master the subtleties of lighting a car interior in daylight — without breaking your budget.

Canon développe un système de pilotage pour appareils photo à objectif interchangeable

Canon - Système pilotage pour appareil photo ©DR

Canon annonce le développement d’une nouvelle solution de pilotage pour la commande de prises de vues à distance qui permettra aux professionnels de télécommander le positionnement des appareils photos Canon à objectif interchangeable.

 

Suite à une demande croissante des utilisateurs, cette technologie a été développée afin de faciliter l’usage des boitiers lors de reportages photos, des journalistes dans le domaine sportif, entre autres. La solution qui est actuellement encore en cours de développement repose sur un système central sur lequel l’axe optique de l’appareil est perpendiculaire à l’axe de révolution, offrant ainsi des conditions semblables à celle d’une prise de vues sur trépied.

Le système de télécommande Control Pan-Tilt (mouvements de panoramique et de bascule) et le logiciel Camera Remote facilitent le contrôle télécommandé de plusieurs appareils photo à partir d’un ordinateur. Un photographe seul peut ainsi gérer plusieurs appareils photo et donc assurer la production de flux de photos créatives. Cette solution permettra aux photographes de réaliser, depuis des points de vue et des angles de cadrage variés, des images impossibles à obtenir avec une prise de vues habituelle.

Canon va également poursuivre le développement de ce système afin de l’adapter à d’autres prises de vues au-delà du domaine sportif comme par exemple la production télévisuelle et le cinéma, ainsi que les applications de e-commerce et de photographie de produits de type packshot. Le développement de ce système témoigne une fois de plus de l’engagement de Canon de proposer aux photographes de nouvelles possibilités en matière d’enregistrement et de création d’images.

Les caméras Panavision Millennium DXL et leurs grands capteurs tournent tout en douceur !

Sur le tournage de ‘Smiley’, Pierre-Hugues Galien et Sébastien Leclerc à la deuxième caméra. © Marie-Camille Orlando

La caméra Millennium DXL2 et son capteur Red Monstro 8K VV (comme « Vista Vision ») ont rejoint la DXL chez Panavision il y a quelques mois... Une accessoirisation toujours plus modulaire, des optiques à moteurs intégrés et les performances du grand capteur (8 192 x 4 320 pixels et 40,96 mm x 21,6 mm en plein format), alliées au traitement de la couleur développé avec Light Iron, sont des nouveautés que la firme d’Hollywood met en avant, tandis que les cinéastes s’approprient le regard que ce nouvel outil leur fait poser sur leur espace de jeu créatif.

 

Grands espaces et liberté des ratios

Pierre-Hugues Galien, AFC, tournait l'année dernière le long-métrage « Smiley » (Mandoline Films), avec une DXL et une série Primo 70, dont la motorisation interne a été finalisée pour l’occasion. Le film se décompose en histoires courtes réalisées par Tristan Aurouet, Thomas Bidegain, Marc Fitoussi, Cyril Gelblat et Vianney Lebasque et, s’étant penché sur la filmographie et les goûts visuels des réalisateurs, Pierre-Hugues pensait que les choix de ratio et de surface de capteur allaient varier de l’un à l’autre (du Super 35 sphérique au 2.40:1 anamorphique). Or, aux essais filmés, tous se sont approprié ce format proche du 65 mm en choisissant le ratio 1.85:1, en (presque) full frame.

L’homogénéité visuelle du film se ferait donc sur la perception de l’espace et la profondeur de champ liée à la grande taille du capteur, ce qui laisserait plus de liberté à Pierre-Hugues pour créer une esthétique différente d’un segment à l’autre, à l’aide de la lumière et des looks visualisés sur le plateau.

Si le ratio du capteur est de 1.89:1 en plein format, de nombreux autres choix sont possibles, tant pour les ratios que pour les surfaces d’enregistrement. Patrick Leplat, directeur général de Panavision Alga, insiste notamment sur l’importance des anamorphoses disponibles pour tourner en ratio panoramique, que ce soit le 2:1 (labellisé Netflix), le 2.40 ou le 2.76, ratio hérité de l’Ultra Panavision 70 de la grande époque. C’est « une évolution qui change les habitudes de cadre ».

L’intensité visuelle de l’effet d’anamorphose (la déformation verticale du bokeh notamment) étant géométriquement liée à la taille de la dimension verticale du capteur, le coefficient d’anamorphose des optiques doit être adapté. Ainsi, la nouvelle série Ultra Vista 70 propose un coefficient de 1,6 qui, combiné au capteur, donnera à la fin un « effet » similaire à une anamorphose conventionnelle x2, sur un ratio d’image de 2.76:1. Il s’agit toujours de jouer avec la culture visuelle et la perception du spectateur.

Sur le tournage de « Smiley », avec Pierre-Hugues Galien les metteurs en scène ne parlent pas de modelé, de structuration du plan dans la profondeur ou la troisième dimension (l’axe z, dans la profondeur de l’espace) : « On a juste l’impression que les comédiens ont plus de présence et qu’ils font un pas vers nous. Comme avec les courtes focales, on réussit à avoir des effets de modelé aussi beaux que sur des gros plans au 100 mm, on se rapproche des comédiens. Et filmer un comédien à trois pieds ou à six pieds change tout, on sent qu’on est plus avec lui. »

Attention toutefois à la stroboscopie, dont les effets sont encore un prix à payer pour les capteurs très définis. Patrick Leplat rappelle que : « en grands formats films on voulait accélérer le défilement pour l’atténuer, puisque la définition augmentait l’impression de saccade. Un capteur avec une définition importante a un impact sur le dynamisme de l’image, donc il faut faire attention à la vitesse des panoramiques, indépendamment de la taille du capteur. »

 

 

« Hyperdéfinition » et douceur vont de concert

Patrick Leplat précise : « À l’arrivée de la HD, on a confondu définition et dureté, or ce sont surtout certaines optiques qui avaient des caractéristiques de pertes de flou brutales et qui augmentaient le contraste de l’image, en plus de la compression. On a associé définition et contraste, or c’est faux ! Quand on ajoute de la définition (35,4 megapixels pour le capteur Monstro), l’image prend du volume et on perçoit l’axe z. C’est extrêmement nouveau. Il faut l’appréhender et savoir comment l’utiliser. »

Pour Pierre-Hugues Galien, « la qualité de modelé et de rendu des couleurs sur les visages est démentielle ! La chef costumière, Stéphanie Watrigant, a compris qu’avec ce grand capteur très défini, on est sensible aux effets de texture. Quand on a une séquence romantique, on met un pull en mohair avec des grands poils à la jeune fille pour que ça ait l’air doux. Maintenant on n’est plus obligé de mettre du mohair, on voit la différence entre cachemire et le mérinos. »

La performance colorimétrique du nouveau capteur est également déterminante pour le directeur photo : « J’avais le choix entre la DXL et la DXL2. Le capteur de la DXL2 est plus “propre” dans les basses lumières, mais le rendu des peaux est plus dur, et j’avais envie d’un film plus doux, plus rond ; après tout, il a des notes de comédie. Ce capteur a des qualités de séparation dans les tons chauds, et pour les peaux c’est plus agréable. J’aime les optiques et les capteurs très définis pour récupérer le plus de couleurs possibles. Les Primo 70 sont les optiques les plus définies que j’ai pu voir… ».

 

 

Ergonomie légère

Panavision mise sur la légèreté avec l’arrivée prochaine en France de la DXL-M, basée sur un corps Red DSMC2 et, elle aussi, équipée du module interchangeable Preston FIZ (Focus-Iris-Zoom) dont la connectique permet l’usage des commandes HF CMotion, RTMotion ou Arri LCS selon la préférence de l’assistant caméra. L’appli DXL2 Control permet les réglages caméra et l’enregistrement via smartphone. Les optiques motorisées Primo X (14 mm T3.1, 24 mm T1.6 et un zoom 24-70 mm T2.8) dépourvues de bagues sont destinées pour le moment aux plans drone ou gimbal. Les Primo 70 et leur déclinaison « Artiste » en magnésium sont plus légers que les optiques en métal.

Pierre-Hugues raconte que la configuration épaule et l’ergonomie du corps caméra lui ont fait retrouver les sensations de la Panavision XL en 35 dont la visée reflex ne lui a pas manqué, car la dalle HDR de la visée Primo (à lentille en verre), héritée des moniteurs Astro, avec ses 600 nits (maximum) et sa définition ajustable, ne dérive jamais et lui permet même de « poser le LOG à l’œil ! ». 

 

 

Plus de détails à découvrir sur le site consacré à la caméra : https://dxl.panavision.com/ notamment sur le système de gestion des couleurs Light Iron Color 2 développé avec la caméra.

 

Article paru pour la première fois dans Mediakwest #31, p.20/22. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

GB Labs annonce l’intégration du protocole NDI

Par : Andrea

GB Labs, éditeur de solutions de stockage puissantes et intelligentes dédiées au secteur du divertissement et des médias, a officiellement adopté le protocole de vidéo sur IP NDI® (Network Device Interface), une techologie du groupe Vizrt.

Grâce à NDI, le système d’exploitation CORE.4 est reconnu comme source par d’autres dispositifs et systèmes NDI connectés à un réseau local Ethernet standard. Cela augmente considérablement le nombre de sources disponibles pour la production vidéo en direct et, par conséquent, les options créatives.

Avec NDI, GB Labs s’intègre facilement aux systèmes de production vidéo multi-caméras TriCaster® de NewTek . Cela permet aux directeurs de production d’utiliser plusieurs sources à une vitesse pouvant atteindre 18 000 Mo/s, ce qui ferait de GB Labs le NAS le plus rapide du monde. Couplé à un ensemble d’outils riches en fonctionnalités et intégré à son système d’exploitation CORE.4, GB Labs est idéalement configuré pour être l’élément central de tout flux de travail IP.

Le standard bidirectionnel NDI est compatible avec un grand nombre de périphériques de fabricants qui utilisent déjà le protocole libre de droits NDI et permettant ainsi la connectivité IP entre ces dispositifs.

« NDI répond aux exigences du broadcast et accepte plusieurs flux vidéo simultanés, de haute qualité et à très faible latence », a déclaré Duncan Beattie, responsable des produits chez GB Labs. « Nous sommes ravis d’être membre de l’écosystème NDI et impatients de poursuivre cette collaboration afin d’exploiter les potentiels des solutions de flux de travail IP innovantes.”

« Les workflows basés sur IP révolutionnent la production vidéo », a déclaré Michael Kornet, vice-président de NDI. «GB Labs a gagné sa réputation dans le secteur et grâce à un produit comme CORE.4 qui est la meilleure solution orientée NDI avec le NAS le plus rapide du marché, la marque va poursuivre sa croissance. »

NDI est disponible sous forme de kit standard libre de droits (SDK) pour toute entreprise qui gère des flux de travail sur IP au sein de son organisation ou en utilisant des outils de production et des systèmes qu’elle fabrique.

L’article GB Labs annonce l’intégration du protocole NDI est apparu en premier sur TRM.

Support Your Documentary Vision with a Thoughtfully Considered Soundtrack

What are you trying to say? What do you want them to feel? Bolster your documentary's message and flesh out its mood with the right royalty-free soundtrack.

How to Zoom in Premiere Pro for Simple Transitions

Using zoom makes static subjects come to life, and helps smooth transitions. Throw a little "Ken Burns" flavor into your video with the help of the zoom.

Christie Digital annonce l’Eclipse !

Christie, l'Eclipse ©DR

Christie dévoile son projecteur laser pur, le Christie Eclipse 4K RVB, qui intègre les technologies Christie RealLaser et HDR.

 

Le Christie Eclipse prend en charge le 4K/HDR avec un rapport de contraste pouvant atteindre 20 000 000: 1.

Ce projecteur 4K - 120 Hz peut gérer une cadence de projection jusqu’à 120 images par seconde, et son niveau de luminosité peut être réglé de 2 000 à 30 000 lumens grâce à Christie TruLife Electronics. Le logiciel Christie Twist permettra des opérations de warping et blending.

La carte d'entrée Christie Terra, en option, autorise une intégration avancée et une connectivité avec les autres projecteurs Christie doté des capacités TruLife Electronics, en se connectant directement à un système Christie Terra SDVoE.

Le Christie Eclipse supporte Christie Mystique, l’outil de warping et blending automatisé proposé par Christie. Basé sur un calcul à partir d’une caméra, ce dernier facilite les installations multi-projecteurs.

How to Make an Object Disappear Using DaVinci Resolve

Object Removal is a great addition to an already full-featured software package that’s perhaps the best free option on the market.

Key Concepts for Incorporating Game Theory into Filmmaking

In this roundup, check out some useful strategies from the world of game theory that apply to the decisions many filmmakers face.

La caméra ARRI ALEXA Mini LF, source d'inspiration pour les directeurs de la photographie

La caméra ARRI ALEXA Mini LF, source d'inspiration pour les directeurs de la photographie © DR

« Le grand format est en plein essor », explique Stephan Schenk, directeur général d'ARRI Cine Technik et responsable de la Business Unit Camera Systems d’ARRI. "En 2018, lorsque nous avons introduit le système de caméras grand format ARRI avec la caméra ALEXA LF, les objectifs ARRI Signature Prime et la monture d'objectif LPL, les cinéastes étaient ravis d'essayer quelque chose de nouveau. Beaucoup d'entre eux ont déjà travaillé avec l'ALEXA LF et apprécient le rendu unique de notre capteur Large Format. Maintenant que l’ALEXA Mini LF est officiellement expédiée, nous pouvons vous offrir la gamme parfaite d'équipements. Ensemble, l'ALEXA LF avec ses fonctionnalités dont la haute vitesse et l'ALEXA Mini LF petite et légère, peuvent s'attaquer à tous les projets."

 

Les deux caméras partagent le même capteur grand format basé sur la technologie utilisée dans toutes les caméras numériques ARRI. Par conséquent, elles partagent la meilleure qualité d'image globale d'ARRI avec la plage dynamique la plus élevée, ainsi que la science des couleurs d'ARRI pour une colorimétrie naturelle, des tons chair agréables, des effets visuels propres et un étalonnage des couleurs facile. Cependant, le capteur LF a une surface deux fois plus grande que les capteurs Super 35 ce qui permet d’obtenir un rendu grand format unique, une netteté accrue, un contraste plus élevé et des images plus nettes, associées à un bruit réduit pour capter une sensibilité maximale.

 

L’ALEXA Mini LF est capable de loger ce grand capteur dans un boîtier de taille mini, avec de nombreuses nouvelles fonctionnalités. Elle est équipée des nouvelles cartes Compcat Drive Codex, d’un nouveau viseur à contraste élevé et haute résolution avec un moniteur pivotant, des filtres ND internes à spectre complet motorisés, des micros, des connecteurs d'alimentation accessoires supplémentaires, une synchronisation genlock, etc. L’ALEXA Mini LF enregistre en Apple ProRes ou ARRIRAW sans ajout de license et fonctionne sous 12 ou 24 volts. De par sa taille et son poids presque identiques à ceux de l’ALEXA Mini, l’ALEXA Mini LF est compatible avec la plupart des accessoires mécaniques et électroniques l’ALEXA Mini, ce qui permet un déploiement rapide et facile. La monture d'objectif LPL est parfaite pour les objectifs ARRI Signature Prime ainsi que pour les objectifs grand format d'autres fabricants. L'adaptateur PL-à-LPL permet l'utilisation de tous les objectifs à monture PL. En utilisant le transmetteur vidéo sans fil ARRI autonome WVT-1, l’ALEXA Mini LF peut facilement s’intégrer au système vidéo sans fil ARRI, qui gagne en popularité.

 

 « Après l'annonce de l'ALEXA Mini LF, la demande était si forte, beaucoup de cinéastes souhaitaient vraiment utiliser la caméra pour leurs projets. Nous avons donc décidé de fabriquer des caméras de pré-production disponibles avant la date d'expédition officielle. Nous sommes heureux que les performances des caméras de pré-production aient répondu aux attentes de nos clients. Les ALEXA Mini-LF ont été utilisées pour des films, des publicités et des séries télévisées haut de gamme et les directeurs de la photographie sont très satisfaits des résultats. Tout ce que nous avons appris de ces productions a bien sûr été intégré à la version finale du Software », souligne Marc Shipman-Mueller, chef de produit systèmes de caméra chez ARRI qui précise également que le harware des caméras de pré-production et de production est identique...

 

 

Voici une sélection de projets ayant déjà utilisé ou utilisant actuellement l’ALEXA Mini LF...

1917 - Directeur photo Roger Deakins

Le premier à recevoir un prototype fonctionnel de l’ALEXA Mini LF était le directeur de la photographie primé à de nombreuses reprises, Roger Deakins, CBE, ASC, BSC. Il a utilisé l’ALEXA Mini LF avec les ARRI Signature Primes et le système de stabilisation de caméra ARRI TRINITY lors de l'épopée 1917 sur la Première Guerre mondiale. Roger Deakins : « L'image que produisent la Mini LF et les Signature Primes me semble plus proche de ce que mes yeux voient que de tout ce que j'ai vu jusqu'ici. »

 

Dune - Directeur photo Greig Fraser

S'attaquant à l'énorme profondeur du roman de science-fiction le plus vendu au monde, le directeur de la photographie Greig Fraser ASC, ACS et le réalisateur Denis Villeneuve ont terminé le tournage de Dune en août 2019. Tourné principalement avec l’ALEXA LF, et les objectifs grand format Panavision Ultra Vista et H-series, ils ont également utilisé un prototype ALEXA Mini LF au cours des derniers mois de tournage. Commentaires de Greig Fraser : « L'utilisation de l'ALEXA LF me donne une plus grande dimensionnalité, une combinaison d'un champ de vision plus grand et d'une profondeur de champ plus faible. Je pouvais facilement pousser l'ALEXA LF à 2000 ASA sans bruit visible mais avec une texture très agréable. La Mini LF a rendu possible ce que je croyais impossible auparavant avec la prise de vue grand format. Elle me donne la liberté de déplacer la caméra de la manière qui me semble être la meilleure, c’est primordial pour moi en tant que directeur photo. Félicitations pour avoir réussi à repousser constamment les limites de la technologie, rendant mon travail encore plus excitant ! »

 

Kung Fury 2 - Directeur de la photographie Tom Stern

Le long métrage hollywoodien Kung Fury 2, réalisé par David Sandberg et filmé par Tom Stern ASC, AFC est une production folle et pleine d'action qui nécessite une petite caméra. Le tournage a commencé avec une ALEXA Mini LF et des ARRI Signature Primes. "La nouvelle Mini LF : Moins, beaucoup moins, à bien des égards ; surtout le poids et la taille mais pas moins puissante que sa grande sœur, l'ALEXA LF, en qualité d'image. Vraiment, pour un directeur de la photographie, « less is now more », dit Tom Stern. Il ajoute sur les ARRI Signature Primes : « J'aime beaucoup les Signature Primes. Super MTF, mais pas trop définies ni trop contrastées. Elles bénéficient d’une grande ouverture et ont une grande résistance aux flares ! »

 

Chinese Women’s Volleyball - Directeur de la photographie Zhao Xiao Shi

Pour filmer l'enthousiasme et l'action rapide du volleyball, le directeur de la photographie Zhao Xiao Shi et le réalisateur Peter Chan ont choisi l’ALEXA Mini LF, les objectifs ARRI Master Primes et Leitz Thalia pour leur nouveau biopic Chinese Women's Volleyball. Zhao Xiao Shi raconte : « l’ALEXA Mini LF a la même excellente qualité d'image que l'ALEXA LF, mais avec un corps caméra plus compact et léger, très similaire à l’ALEXA Mini. Nous sommes en train de tourner un long métrage sur le sport et il y a beaucoup de scènes mobiles et à l’épaule, donc la Mini LF nous aide vraiment. ”

 

Outlander Season 5 - Directeurs de la photographie : Stijn Van der Veken et Alasdair Walter

Outlander est une série télévisée très populaire basée sur les livres de voyage dans le temps de l'auteure Diana Gabaldon. En tournage dans toute l'Écosse, les co-directeurs photo Stijn van der Veken ASC, SBC et Alasdair Walter utilisent des caméras ALEXA LF, une Mini LF et des objectifs ARRI Signature Prime. Stijn van der Veken commente : « Le mariage entre le capteur LF et les Signature Primes est une grande réussite pour moi - des teintes de peau veloutées et des yeux qui restent lumineux. Le capteur LF et les Signature Primes m'ont permis des prises de vues nocturnes difficiles sur Outlander 5'. J'ai dû pousser la caméra à 3200 ISO sans presque aucun bruit tandis que les Signatures gardaient un contraste brillant même à grande ouverture. Je n'ai jamais vu ça avant ! »

 

La Bonne Épouse - Le directeur de la photographie Guillaume Schiffman et le cameraman Benoit Theunissen

« La Bonne Épouse » (titre anglais : How to Be a Good Wife) est un drame comique de Martin Provost, mettant en scène Juliette Binoche et racontant la condition féminine dans les années 1960. Le directeur de la photographie Guillaume Schiffman AFC a choisi le système de caméra grand format de d’ARRI, composé de l’ALEXA LF et ARRI Signature Primes. Cette configuration s'intégrait parfaitement avec une pré-production ALEXA Mini LF pour les prises de vue Steadicam du caméraman Benoit Theunissen. « Le grand format a une beauté immersive avec une riche texture d'image. J'ai choisi de l'assortir aux Primes Signature ARRI pour leur belle couleur de peau lisse et leur large gamme de distances focales », a déclaré Guillaume Schiffman plus tôt cette année. Benoit Theunissen ajoute à propose de l’ALEXA Mini LF : « C'est l'outil parfait si l’on souhaite un corps caméra léger et grand format. Elle ressemble excatement à l’ALEXA Mini à laquelle je suis habitué ! C’est une grande évolution dans la famille des caméras ARRI ! »

 

Pub Qantas 100th Anniversary - le directeur de la photographie Jeremy Rouse et le réalisateur Kiku Ohe

Qantas, la plus grande compagnie aérienne australienne, célébrera son 100e anniversaire en 2020 avec une campagne publicitaire mondiale utilisant des images créées par le directeur de la photographie Jeremy Rousse ACS et le réalisateur Kiku Ohe avec une ALEXA LF et une ALEXA Mini LF. Le directeur de la photo Jeremy Rouse commente : « Le capteur ALEXA a été mon meilleur choix pour le naturalisme, le teint de la peau et la couleur générale. Avec un projet de cette envergure, le réalisateur et moi avions convenu que le grand format nous donnerait des paysages de haute résolution et de beaux portraits. Cependant nous voulions aussi une caméra avec laquelle je pourrais simplement prendre et improviser. Nous en avons testé plusieurs et avons convenu que la combinaison de l’ALEXA LF et de l’ALEXA Mini LF était parfaite pour ce travail. » Le directeur Kiku Ohe ajoute : « Il s'agit d'une campagne mondiale pour l'une des plus grandes marques australiennes, de ce fait, l’échelle et la dimension de l'esthétique grand format sont tout à fait adaptées. La dimension visuelle et la profondeur de l’image que nous créons m’inspirent. Elles sont au service à la fois de l'histoire et de ses personnages d'une manière qui semble vraie. »

 

Nomad - Directeur photo Kevin Garrison

Pour le long métrage indépendant Nomad de Taron Lexton, le directeur de la photographie Kevin Garrison a voyagé dans 25 pays sur sept continents. Après avoir commencé leur tournage avec une ALEXA LF avec une spectaculaire capture d'éclipse solaire au Chili, la production s'est déplacée en Australie et en Afrique, où leur pré-production ALEXA Mini LF les a rejoints. Kevin Garrison sur l’ALEXA Mini LF : « La Mini LF est la caméra parfaite pour notre projet : un film indépendant à petit budget pour un résultat à l’image impressionant et épique. Nous voyageons beaucoup et avec la Mini LF nous pouvons l’utiliser dans des endroits où un corps de caméra beaucoup plus grand n'aurait pas été possible. De plus, elle est très fiable ; nous l'avons utilisée toute la journée dans des environnements fous ici en Afrique - poussière et sable soufflant avec un vent fou 14 heures par jour, chaleur et froid irréels. »

 

Après des tests approfondis, le contrôle qualité d’ARRI a approuvé la version finale du logiciel de production de l'ALEXA Mini LF. Les caméras dotées de ce logiciel sont disponibles depuis le 18 septembre. Les propriétaires de caméras de pré-production peuvent télécharger la mise à jour et l’installer sur leurs appareils.

Philips already sold over 5,000 PicoPix Max pico projectors on IndieGogo

Par : pico

Philips recently announced the PicoPix Max, a premium and relatively large but still portable Android-powered pico projector that features a Full-HD native image, 800 lumens and a battery life of up to 3 hours. Our friend Charbax posted a nice video showing a prototype device, and Philips says on the video that it already sold over 5,000 such projects on IndieGogo!

 

The 7 Best Premiere Pro Free Transition Template Packs for Video Editors

What's better than a whole bundle of awesome transition templates that you can use in Premiere Pro? A FREE bundle of awesome transition templates.

7 Filmmaking Interviews with Real-World Career Advice

PremiumBeat revisits seven informative interviews with filmmakers sharing their professional insights into the film and video industry.

IBC 2019 : une nouvelle caméra d'épaule 4K HDR chez Panasonic

 IBC 2019 : une nouvelle caméra d'épaule 4K HDR chez Panasonic © DR

Panasonic a sur le salon d'Amsterdam dévoilé sa nouvelle caméra d’épaule 4K AJ-CX4000GJ. Lancée en décembre prochain, celle-ci s'inscrit dans la continuité du caméscope AG-CX350 inclus dans la nouvelle gamme de la série « CX » de caméras et d’enregistreurs 4K.

 

L’AJ-CX4000GJ est une caméra à objectif interchangeable sur monture B4 pensée pour la diffusion TV. Elle est équipée d’un capteur d’images grand format de 11 Mpx qui permet l’enregistrement en 4K (UHD) avec une résolution horizontale de 2000 lignes TV. Cette caméra est également compatible HDR et conforme aux normes BT.2100 et BT.2020.

L’enregistrement en 4K s’appuie sur le codec haute performance et haute qualité d’image « HEVC ». Ce dernier permet d’effectuer des enregistrements de longue durée en 4K/qualité d’image 10 bits tout en contrôlant le débit et les besoins de stockage. Elle embarque la carte ultra-fiable « expressP2 » à haute vitesse de transfert. L’accessible « microP2 » ainsi qu’une carte mémoire SDXC peuvent être choisies en tant que support d’enregistrement. La caméra prend également en charge l’enregistrement via le codec HD « AVC-ULTRA » de la série standard P2HD. La sortie en UHD 60p/50p 10 bits 4:2:2 via SDI 12G est par ailleurs disponible.

 

Une solution réseau innovante...

Les images peuvent être distribuées en HD vers des services internet de diffusion en direct via la fonction « Direct Streaming », compatible RTSP, RTMP et RTMPS. Le terminal réseau, équipé d’un mécanisme de verrouillage (compatible 1000BASE-T), prend en charge la connectivité NDI|HX. La transmission et le contrôle caméra sont accessibles par connexion IP. La caméra peut également être reliée à un système d’enregistrement et de diffusion compatibles avec les contrôleurs de caméra à distance Panasonic.

Cette caméra offre des images 4K d’une qualité optimale qui répondent aux exigences des professionnels exigeants, pour les événements sportifs aussi bien que pour le tournage de documentaires...

 

IBC 2019 : pléthore de solutions et services nouvelle génération signés Sony

IBC 2019 : les solutions et services nouvelle génération signés Sony © Nathalie Klimberg

A l’occasion du salon IBC, Sony a dévoilé sa dernière gamme de produits, solutions et services. Cette gamme comprend : des solutions IP Live actualisées, deux adaptateurs d’extension IP HDCE-TX30 / HDCE-RX30, la caméra phare FX9 à objectif interchangeable à monture E avec un nouveau capteur plein format pour le tournage de documentaires, un objectif cinéma à monture E FE C 16-35 mm T3.1 G, ainsi que la PXW-Z750, une caméra d’épaule XDCAM avec système à capteurs CMOS 3 puces 2/3 4K et obturateur global, et des modèles additionnels au système de microphone sans fil numérique de la série DWX.

 

Les visiteurs peuvent découvrir le système d’écran Crystal LED 6K x 3K, offrant des images d’une qualité exceptionnelle.

La suite de services et micro-services Intelligent Media Services sera un autre élément phare. Elle aide les sociétés de média à transformer les chaînes d’approvisionnement traditionnelles, à débloquer plus de valeur de contenu pour une adhésion plus forte du public et à devenir des organisations plus agiles.

 

Repousser les limites avec l’IP

En travaillant avec les diffuseurs du monde entier, Sony a développé la production IP Live et a fourni plus de 60 studios et cars régie IP Live à ses clients notamment à Euro Media Group, DPG Media, NEP Australia et SIC Portugal. La gamme mise à jour IP Live continue d’apporter de l’efficacité et d’augmenter le retour sur investissement pour les clients en optimisant le partage de ressources et en créant des environnements de production à distance.

 

HDCE-TX30 / HDCE-RX30: ces deux adaptateurs d’extension IP transforment la série HDC actuelle de caméras de studio SDI en caméras compatibles avec la technologie IP avec interface SMPTE ST 2110. Ces deux nouveaux adaptateurs d’extension IP présentent un format compact (un tiers de la largeur standard), et permettent la production à distance IP Live et le partage des ressources, créant des nouveaux modèles de workflow performants pour des caméras de studio HDC existantes.

MKS-R4020 / MKS-E1620: deux nouveaux panneaux de contrôle à distance offrant plus de fiabilité, de vitesse et de précision des commandes via Live Element Orchestrator.

PWSK-4509: une carte d’interface optionnelle qui permet la prise en charge de SMPTE ST 2110 sur le serveur de production Live PWS-4500.

Il y a quelques mois, Sony et Nevion AS, l’un des principaux fournisseurs de solutions de production multimédia virtuelles, ont signé un accord de partenariat stratégique. Nevion et Sony entendent ainsi offrir aux clients le savoir-faire et les produits (équipements et systèmes) dont ils ont besoin, afin de créer des solutions sur mesure pour des environnements de production Live modernes et performants. À l’occasion du salon IBC, avec l’aide de United Broadcast, une filiale de Euro Media Group (EMG), et de CenturyLink, Sony présentera un exemple de solution IP Live complète reliant le stand Sony (A10 / Hall 13), le stand Nevion (B79 / Hall 1) et un studio de production à distance IP situé à Hilversum. Cette démonstration vise à illustrer l’incroyable potentiel des productions à distance sur IP et du partage des ressources pour les entreprises du secteur multimédia.

 

Sony a élargi sa gamme de solutions de production Live qui comprend maintenant ...

HKCU-REC55: une carte optionnelle pour les unités de commande pour caméra HDCU-5500, HDCU-3500 de Sony offrant les toutes premières capacités d’enregistrement en interne du marché. Transfert de fichier en temps réel vers NAS pour le traitement en aval pendant l’enregistrement et transfert de fichier vers une clé USB, prête à être retirée et partagée aussitôt la production Live terminée. L’enregistrement simultané 4K HDR et HD SDR est aussi compatible avec le workflow « SR Live for HDR ». En utilisant le logiciel de contrôle du serveur PWA-RCT1, il est également possible de contrôler les multiples unités de commande avec le serveur de production Live de la série PWS de Sony.

HDCU-5000: une unité de commande pour caméra au format rack 19″ 3U compatible avec les plus récentes caméras de Studio HDC, notamment HDC-5500, HDC-3500, HDC-3100, HDC-2500, HDC-2400, HDC-1700, BPU-4000 et BPU-4500A. L’unité de commande pour caméra est compatible avec toutes les interfaces nécessaires de production 4K et HD, notamment SMPTE ST2110 pour 4K et HD, ainsi que l’interface 8x 12G-SDI et 8x 3G-SDI. La technologie High Frame Rate (HFR) sur IP, ainsi que la possibilité d’enregistrer de manière intégrée dans le futur (option), seront pris en charge pour amener encore plus d’efficacité dans les systèmes de production Live.

HDC-5500: une caméra de studio, lancée au salon NAB, a fait également son entrée sur le marché européen lors de l’IBC.

RCP-3500: un panneau de contrôle à distance pour les caméras de studio avec une nouvelle dalle LCD pour plus de visibilité et des boutons et commandes assignables.

BVM-HX310: la prochaine version du firmware 1.1 du moniteur de référence 4K HDR TRIMASTER HX est compatible avec la fonction de balance automatique des blancs du moniteur, qui permet le calibrage de la température des couleurs basée sur le logiciel.

 

Offrir une plus grande liberté de création aux créateurs de contenu...

Sony présente de nombreux nouveaux produits et solutions destinés aux créateurs de contenu, notamment :

PXW-FX9: la caméra XDCAM qui présente un capteur plein format Exmor R 6K nouvellement développé et le système de mise au point automatique hybride rapide avec le capteur de mise au point automatique à détection de phase à 561 points dédié. La caméra produit un contenu exceptionnel qui capture la lumière et les ombres à la perfection, grâce à plus de 15 diaphragmes de latitude d’exposition. S’appuyant sur le succès de la PXW-FS7et de la PXW-FS7M2, et bénéficiant également de la technologie de couleurs et du mode Dual Base ISO 800/4000 de la caméra de cinéma numérique, la nouvelle caméra VENICE offre une plus grande liberté de création aux créateurs de contenu pour capturer des images exceptionnelles et constitue l’outil idéal pour les documentaires, les vidéoclips, les fictions et les enregistrements d’événements de toutes sortes. La FX9 est également compatible avec les nouveaux systèmes de microphone sans fil UWP-D lancés au salon NAB via la griffe porte-accessoires multi-interface avec interface audio numérique, incorporant la fonction de synchronisation NFC du réglage facile et rapide des canaux dans un format léger et compact.

Objectif FE C 16-35 mm T3.1 G: un nouvel objectif plein format à monture E offre des performances optiques élevées, un fonctionnement fiable et des fonctions de prise de vue intelligentes pour la création de contenus vidéo professionnels.

Le système de microphone sans fil numérique série DWX: la troisième génération du système de microphone sans fil numérique DWX comprend le récepteur sans fil numérique DWR-S03D et l’émetteur de poche DWT-B30, tous les deux disponibles en décembre 2019. Sony a développé la compatibilité d’interface avec UniSlot en utilisant le DWA-SLAU1, un adaptateur sub-D à 25 broches pour le DWR-S03D, afin d’offrir une solution audio numérique à large bande d’enregistrement audio pour les films, les fictions et les documentaires.

Pour permettre d’étendre davantage le caractère fonctionnel des applications d’enregistrement audio, Sony travaille également avec Sound Devices et AATON Digital, deux grandes entreprises de la technologie audio pour s’assister mutuellement dans le développement de certains produits. La mise à jour du firmware du récepteur DWR-S03D et des mélangeurs-enregistreurs permet la transmission audio directe entre les deux appareils, le contrôle et la commande directs ainsi que l’analyse et le réglage des fréquences du système de microphone sans fil Sony depuis les mélangeurs-enregistreurs. Le nouveau firmware sera disponible gratuitement au printemps 2020.

La caméra de cinéma numérique VENICE, avec la version 5.0 du firmware récemment annoncée et impulsée par les clients ainsi que la version 4.0 déjà disponible sur le marché, étaient également exposées au salon IBC.

 

Se préparer pour l’avenir de la production de news...

Pour les spécialistes en production de news, Sony présente la nouvelle solution suivante :

PXW-Z750: une caméra d’épaule XDCAM de référence avec système à capteurs CMOS 3 puces 2/3 4K et obturateur global pour capturer des images nettes et précises tout en éliminant les artéfacts indésirables, notamment les effets « flashband » et les distorsions de type « rolling shutter ». Le modèle PXW-Z750 offre une plus grande sensibilité, moins de bruit dans l’image et un plus large gamut de couleurs, et peut enregistrer en HD/4K et HDR, et est également compatible avec le ralenti jusqu’à 120 images/s en HD. Pour améliorer l’efficacité du workflow, la caméra a aussi un module sans fil intégré et est compatible avec le service de workflow basé sur le cloud de Sony, XDCAM air. De plus, la caméra PXW-Z750 peut également être utilisée avec le tout dernier système de microphone sans fil numérique de la série DWX et permet une utilisation plus simple notamment grâce à la mise sous/hors tension synchronisée, le contrôle via les paramètres de menu ou boutons assignables, ainsi que les informations audio sur le viseur via les solutions audio sans fil.

 

Solution d’analyse vidéo basée sur l’intelligence artificielle...

REA-C1000: une solution Edge Analytics Appliance, et la première solution d’analyse vidéo basée sur l’IA de Sony, est améliorée avec des fonctions nouvellement disponibles (mise à jour V2.0) telles que la surface CG sans Chroma Key, permettant d’extraire les intervenants et de les superposer à de nombreux autres arrière-plans sans avoir besoin d’un écran dédié à l’arrière-plan, ni d’une formation spécialisée. Le système REA-C1000est présenté avec la dernière génération de caméras Pan/Tilt/Zoom BRC-X400, SRG-X400 et SRG-X120.

« Chez Sony, tout ce que nous faisons est impulsé par nos clients et notre volonté de les aider à réaliser leur vision créative de la manière la plus efficace et la plus simple possible. Notre objectif est de leur offrir un vrai retour sur investissement et de les aider à aller au bout de leurs idées grâce à nos produits, services et solutions, », a expliqué Hiroshi Kajita, directeur de Media Solutions, Sony Professional Solutions Europe. « L’IBC est une véritable opportunité pour nous de nous engager davantage avec l’ensemble de l’industrie, de recevoir des feedbacks de nos clients et de discuter des défis que nous avons tous à relever. Comme toujours, nous présentions sur notre stand une gamme solide de produits, solutions et services avancés dernière génération. »

❌