Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

June, 16 – Live Talk System Integration: How to build two large Full-IP OB vans (during COVID-19)

Broadcast Solutions looks back on a year’s long history of building OB vans, SNGs or fixed broadcast facilities. More than 400 projects reflect an in-depth knowledge in integrating broadcast and media systems in vehicles, studio facilities or any other environment. In this Live Talk we will show you some of our general approaches when it ...

The post June, 16 – Live Talk System Integration: How to build two large Full-IP OB vans (during COVID-19) appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

[Tuto] Monter la 360 en 2D pour produire des plans impossibles

Les caméras 360° ne servent pas qu’à produire de la 360. Comme elles capturent tout leur environnement, on va utiliser ici la technique de « l’overcapture » ou du « reframe » pour créer des mouvements uniques dans les montages traditionnels. Les résultats sont spectaculaires.

Imaginons un cadreur qui peut voir l’intégralité de son environnement: devant, derrière, mais aussi au-dessus, en-dessous et surtout capable de bouger à la vitesse de la lumière pour suivre sans erreur un avion de chasse. C’est exactement ce que permettent de faire les caméras 360° quand leur usage est détourné en 2D.
Comme elles filment simultanément absolument dans toutes les directions, l’idée est donc de sélectionner en post-production le cadre de l’image le plus intéressant et d’animer sa position pour suivre ce qui nous intéresse. Pour résumer, elles dont office de cadreur virtuel.
Pour mieux se rendre compte des possibilités, voici un court exemple de ce qu’il est possible de faire:

Comme on le voit dans ici, le principe est le même que celui qui consiste à « cropper » dans une image 4K quand on va livrer en HD. Sauf que c’est dans toutes les directions. Oui mais voilà, un peu comme pour les Gopro et autres caméras de sport, quand elles sont apparues, les caméras 360° abordables n’ont pas été prévues à la base pour être utilisées de manière traditionnelle. Elles ont été faites pour le social sharing avec des app et pas forcément une recherche de post-production poussée.
Malgré tout, et comme pour les caméras sportives, les pros n’ont pas tardé à s’emparer des possibilités offertes, malgré la qualité d’image bien plus faible. Parce qu’un plan unique justifie une qualité moins « broadcast ». Il existe donc des limites, mais elles sont de plus en plus repoussées. Ceci d’autant que les caméras 360° disposant de gyroscopes et filmant partout, elles sont toutes équipées de stabilisateur d’images si performants qu’elles peuvent se dispenser de nacelles (Gimbal).

360° en 2D, comment ça marche?

Le principe est assez simple. Les caméras 360° sont équipées d’objectifs fisheye qui filment leur environment à 180° (dans la cas de 2 objectifs, 120° pour 3 objectifs etc).

fisheye

A partir de là, une puce dédiée ou un logiciel vont rassembler les 2 images (ou autant d’images que la caméra a d’objectifs) de manière équirectangulaire pour produire ce résultat qui s’apparente à un panorama déformé:

C’est cette image qui sera projetée dans une sphère virtuelle et qui permettra au spectateur de se promener à 360° comme s’il était au centre de cette sphère. L’idée est donc de récupérer une portion de l’image afin de l’insérer dans un montage classique. On va ainsi pouvoir animer le cadrage, changer de point de vue etc…

360_03_reframe
Ici, on choisit ce cadre dans l’image « panorama » pour produire, à droite, un plan « normal ». Bien sûr l’idée est d’animer le cadrage.

Les limites à connaitre

Evidemment, tout cela semble magique, mais il y a plusieurs limites qu’il faut bien prendre en compte:

  • La plupart du temps, les caméras produisent des images en 5,7K maximum (5760 x 2880 pixels) et les capteurs sont minuscules. Autrement dit, quand on reframe (ou overcapture), on ne va se servir que d’une petite partie de cette résolution. La qualité d’image est donc assez basse et la faible lumière est à proscrire.
  • Certaines caméras produisent des fichiers « prêts à l’emploi » en équirectangulaire, mais d’autres, non. Il faut alors passer par un logiciel maison supplémentaire pour effectuer le stitching (l’assemblage des images): le processus, certes simple et automatisé, est parfois long. Le but étant de créer cette image « Flat » sans défaut de raccords.
  • Certains ont déjà du mal a travailler en 4K faute de puissance: c’est encore pire en 5,7K d’autant que de plus en plus de caméras enregistrent en H265 (codage plus performant, mais ressources énormes nécessaires pour la décompression et la lecture, voir notre article sur le sujet). Il est donc souvent recommandé de travailler avec des proxys, voir là-encore notre tutoriel).
Le logiciel de la firme Insta360 (Insta360 Studio 2019) permet de stitcher les images, mais aussi faire du reframe.

Reframe/Overcapture, ce qu’il vous faut

Si tous les logiciels savent désormais monter de la VR (de la 360 native donc), ils ne sont pas tous capables d’effectuer le recadrage et l’animation des paramètres (changement de vue, champ de vision etc…). C’est pourquoi deux solutions s’offrent à vous:
– Utiliser Insta360 Studio 2019 qui supporte gratuitement la majorité des caméras 360° y compris celles qui ne sont pas de la marque. Il est téléchargeable ici et son tutoriel (très simple est ici).
– Installer les plugins Gopro pour Premiere Pro qui vont permettre ajouter l’effet « Gopro VR Reframe ». Le téléchargement pour Windows est ici et le téléchargement pour Mac est là. A noter que Gorpo propose aussi l’installation des plugins via son logiciel Gopro Fusion Studio, mais ce dernier ne sera compatible qu’avec la caméra de la marque (la Fusion).

Le reframing en quelque étapes

Une fois les plugins installés, il suffit de lancer Premiere Pro et d’importer vos fichiers 360 en Flat (equirectangulaire). Créez ensuite une séquence (une Timeline), aux dimensions de vos rushes source (5.7K, 4K…) en respectant bien la cadence d’image native de la caméra (25/30/50P).

360_05_VRReframePlug

Glissez simplement l’effet GoPro VR Reframe depuis la bibliothèque d’effet sur le clip de votre choix. L’image est immédiatement recadrée. Placez la tête de lecture en début de clip et ouvrez les Options d’effets. Activez les chronomètres afin d’indiquer que vous allez animer ce « recadrage ». Les paramètres sont les suivants:

  • Le FOV (Field of View), permet d’animer la champ de vision du cadrage, autrement dit, en augmentant la valeur, on étend le champ de vison, et en la réduisant, on zoome dans l’image.
  • Les YAW/Pitch/Roll correspondent aux directions comme pour le pilotage d’un drone, ou le contrôle d’une Gimbal. Le YAW correspond pour nous au Pan (de la gauche vers la droite et vice-versa), le Pitch contrôle le Tilt (inclinaison verticale), et le Roll fait appel à l’inclinaison de la l’assiette (pour corriger la ligne d’horizon par exemple).
  • Le paramètre Smooth transition permet quant à lui de lisser les images-clés (Ease In & Ease Out) car le plugin ne prend en compte l’interprétation faite par Premiere Pro.

Corriger les déformations

Tout comme pour les caméras de sport qui ont un champ de vision très large, les bords de l’image sont souvent courbés. Pour corriger ce défaut, allez chercher l’effet « Déformation de la lentille » (Lens Distortion). Glissez-le sur votre rushe. Dans les Options d’effet, il suffit de glisser le paramètre Courbure vers une valeur négative pour atténuer les déformations.

La déformation est corrigée, à droite par rapport au fichier natif.

L’effet Tiny Planet

L’effet Tiny Planet est ultra populaire et il était ultra simple à réaliser avec le plugin Gopro VR Reframe. Il suffit pour cela:
– de basculer le Pitch à 90° (pour regarder vers le sol en quelque sorte) et d’étendre le champ de vision à près de 100. Ce qui va faire « decoller » la caméra et rassembler tout l’image sous forme de « petite planète ». Bien sûr, si la caméra n’était pas parfaitement verticale lors de prise de vue, vous devrez sans doute corriger l’angle avec le Roll ou le YAW.

L’effet hyperlapse avec du motion-blur

La plupart des caméras 360° proposent une fonction d’hyperlapse car elles sont ultra stabilisées. Oui, mais voilà, l’effet est souvent disponible sur l’application du téléphone seulement et pas en post-production sur ordinateur. C’est très frustrant. Pour autant, il existe une parade:
– Tournez votre trajet à vitesse normale (comme dans la fin de la vidéo d’introduction de l’article).
– Une fois le fichier rapatrié dans Premiere Pro et Reframé à votre guise. Augmentez la vitesse de lecture entre 2000 et 3000%. En l’état, vous verrez bien l’effet hyperlapse, mais il n’y pas de motion blur (flou de mouvement).
– Effectuez un clic-droit sur le clip / Interpolation temporelle (Time Interpolation) / et sélectionnez Interpolation (Frame Blending). Le flou de mouvement est ainsi ajouté.

Enfin pour aller plus loin dans les possibilités offertes par les caméras 360° utilisée en 2D, nous vous recommandons cette vidéo de Cinecom.net qui montre l’étendue des transitions que l’on peut réaliser en quelques mouvements:

L’article [Tuto] Monter la 360 en 2D pour produire des plans impossibles est apparu en premier sur Createinmotion.

Comprendre les F-Stops / T-Stops

L’ouverture maximale du diaphragme détermine en grande partie les performances d’une optique. Mais pourquoi certains objectif ouvrent moins que d’autres? Quelle est la différence entre les valeurs exprimées en f/xx et celle en TXX? Autant de notions que nous allons vous expliquer ici.

On a déjà abordé longuement la maîtrise de l’exposition dans un précédent article. Mais pour aller plus loin et comprendre le mécanisme, il faut connaître les limites physiques et mathématiques d’un objectif afin de le choisir en toute connaissance de cause.
Vous le savez déjà, l’ouverture est gérée pas le diaphragme qui a la capacité de s’ouvrir au maximum ou au contraire, de se refermer afin de laisser pénétrer plus ou moins de lumière. Par conséquent, le « diaph » est le premier outil nécessaire dans la gestion de l’exposition. Oui mais alors, pourquoi parle-t-on de f/2, f/5.6 etc…?
Et bien en fait, l’histoire est assez simple.

D’où vient la valeur d’ouverture ?

« Le nombre de l’ouverture » est tout simplement la relation entre la longueur focale et le diamètre maximal du diaphragme (c’est de à dire du fût interne de l’objectif). Prenons un exemple. Pour un objectif de 50mm dont le diamètre maximal est de 25mm, on obtient donc 50/25=2. Et c’est donc pour éviter ce calcul différent pour chaque optique que l’on simplifie en annotant l’ouverture en f/2, ou f:2 ou encore 1:2. Le calcul est ainsi fait au préalable et permet au cadreur d’avoir des valeurs de référence communes. Quelle que soit l’objectif, un f/2 donnera toujours la même quantité de lumière sur le capteur. Du moins, théoriquement.


Cependant, via cette règle, on se rend donc compte que si l’on veux une ouverture à f/2 pour une focale de 150mm, il nous faudra un diamètre de 75mm ! C’est ce qui explique que les grandes focales qui « ouvrent » beaucoup sont très volumineuses et très coûteuses. A cette focale, on trouvera plus généralement, des objectif qui ouvrent à f/4 (diamètre de 37,5mm). C’est aussi pour cela que les systèmes comme le m4/3 (GH5 etc) qui disposent d’un capteur plus petit que le plein format, peuvent avoir des optiques très lumineuses sans être encombrantes.
En effet, sur ce système, comme un objectif de 50mm en full frame correspond à à un 25mm en m4/3, il suffit alors d’un diamètre de diaphragme de 12,5mm pour ouvrir à f/2. C’est pour cela que les optiques sont bien moins encombrantes que sur un système Full Frame.

Voilà une comparaison d’encombrement entre des optique Full Frame et M43: elles couvrent pourtant la même plage focale réelle. Crédit : Dave Dugdale.

f/1.4, f/2, f/2.8, d’où viennent ces nombres ?

Vous aurez remarqué que quel que soit l’objectif, la caméra, l’hybride, les différents paliers du diaphragme sont constitués de la même suite de « nombres ». Parallèlement, augmenter l’ouverture d’1 « Stop », ou d’1 « diaph » signifie faire rentrer 2 fois plus de lumière. Chaque incrémentation est donc le double de la surface de la précédente. A la différence que plus la valeur est petite, plus la surface est grande.

Hors vous connaissez forcément la fameuse formule de calcul de l’aire d’un cercle: Surface du disque =πr2 où « r » symbolise le rayon. Et comme l’aire d’un cercle diminue de moitié lorsque le rayon est divisé par √2 (soit 1,4142), on passe donc d’un incrément au suivant en multipliant par √2 et en arrondissant. Essayons :
Si r=1, 1 x √2 = 1,4
1,4 x √2 = 2
2 x √2 = 2.8
2.8 x √2 = 4 etc etc etc.
Voilà le mystère élucidé. Cependant, tout ce que vous devez retenir, c’est qu’à chaque fois il existe un rapport de 2 quant à la quantité de lumière envoyée.

Les limites des F-Stops et pourquoi parle-t-on de T-Stops?

On vient de le voir, les valeurs de diaph ou F-Stops, sont des calculs mathématiques à la portée du plus grand nombre. Malheureusement, les objectifs ne sont de simples lentilles posées sur des tubes de tel diamètre et de telle longueur. Il existe de nombreux paramètres qui viennent perturber le calcul théorique dans la transmission de la lumière.


Tout d’abord, à objectif égal (même marque, même longueur focale, même « f »), on se rend compte qu’il y a toujours un écart léger car les verres ne sont jamais tout à fait identiques, à cause du revêtement, de la complexité des lentilles etc. Du coup un f/2 ne sera jamais réellement un f/2.
En photographie, on s’en moque car l’écart est très faible et donc, du domaine de l’acceptable. Qui plus est, la rectification en post-production est très simple.
En vidéo, c’est une autre histoire car dans les grosses productions, on tourne très souvent en multicam et s’il existe des écarts d’exposition entre plusieurs caméras, la post-production peut très vite devenir ardue. et donc coûteuse.
Et c’est ici qu’interviennent les T-Stops.

les F-Stops sont basés sur le rapport entre longueur Focale et diamètre. Les T-stops intègrent la valeur de Transmittance de la lumière.

En partant des F-Stops, les constructeurs vont donc calculer la déperdition de la lumière due au différents paramètres perturbateurs (rayon perdus contre le fût, absorption du revêtement, déperdition en traversant X lentilles) et vont donc ajouter au calcul de facteur de transmittance: 85% par exemple. En multipliant la valeur théorique par ce facteur on obtient une valeur réelle. Un f/2.8 sera donc un T3.3 suivant nos 85% de transmittance.

Alors pourquoi n’utilise-t-on pas que des T-Stops?

La réponse à cette question est assez simple: établir le facteur de transmittance doit être étalonné sur chaque objectif qui sort d’une chaine de production. Il ne s’agit donc plus de théorie, mais d’un gros travail d’usine afin qu’un T3.1 soit exactement identique à un autre T3.1. Ce qui implique des tarifs souvent multiplié par 3 ou 4 par rapport à un « simple » objectif « f ». C’est pour cela que l’on reserve ces optiques au cinéma en y ajoutant d’autres fonctions: bague de mise au point crantée pour les follow-focus, course plus longue pour être très précis, diaphragme « décliqué » pour passer d’un palier à l’autre en douceur… Ce qui amène la facture à un niveau stratosphérique.
Mais avez-vous réellement besoin de ces optiques? La réponse est simplement « oui » si la simplification de la post-production justifie ce surcoût de location supplémentaire des optiques. La réponse est non, pour les productions plus simples: matcher 2 caméras demeure assez aisé. Tout est donc question d’équilibre budgétaire.

L’article Comprendre les F-Stops / T-Stops est apparu en premier sur Createinmotion.

Google Earth Studio: pilotez un drone depuis votre ordinateur

Tout le monde connait Google Earth qui permet de se promener sur la planète. Mais il y a plus fort: Google Earth Studio passe à la 3D et permet ainsi de monter des séquences aériennes directement depuis votre navigateur. Finies les autorisations de vol en ville! Les résultats sont bluffants et préfigurent peut-être l’avenir du montage vidéo.

Google Earth Studio (que nous appellerons GES dans cet article), c’est un peu la suite logique de Google Earth. Cet outil en ligne permettait déjà beaucoup puisque l’on pouvait voyager sur toute la planète grâce à une banque phénoménale d’images satellite. Le problème, c’est qu’en zoomant au maximum, on se retrouvait avec une image « plate » et pixelisée. Si Google Earth a beaucoup été utilisé post-production avec cet effet de zoom depuis l’univers vers un point précis du globe, Google Earth Studio va bien plus loin:
– Les données du globe ont quasiment toutes été modélisées en 3D.
– GES est devenu un outil de création cinématique en ligne où l’on dessine ses propres trajets aériens, avec animation de tous les paramètres possibles (caméra, cible, heure du jour ou de la nuit, nuages…).
– Le logiciel permet aussi de générer des « track points » qui peuvent ensuite être utilisés dans After Effects pour ajouter des éléments (marqueurs, textes…). Et pour mieux se rendre compte des possibilités de l’outil, en voici la démonstration:

Nous allons donc faire un tour d’horizon de l’outil et vous montrer à quel point il est simple. Il permet ainsi d’ajouter des cinématiques à vos montages pour localiser des lieux par exemple. C’est bien sûr gratuit, à condition de laisser la « Watermark » de Google sur vos images.

Le principe

Attention, pour vous servir de GES vous devrez attendre quelques jours que Google approuve votre inscription. Pour ce faire, rendez-vous à l’adresse suivante: https://www.google.com/earth/studio/ et inscrivez-vous. Dans notre cas, il a fallu patienter 4 jours. D’autre part, GES ne marche qu’avec le navigateur Google Chrome (forcément), téléchargeable gratuitement sur n’importe quelle plateforme.
Ensuite, le fonctionnement est presque similaire à celui d’un logiciel de montage: une Timeline, des images clés pour animer les paramètres (trajet, cible, chemin…) et un moniteur de Programme qui va montrer en temps réel votre le vol virtuel de votre caméra. Nous allons réaliser l’exemple suivant qui montre Notre Dame de Paris avant qu’elle ne brûle:

Prise en main

Un fois connecté à GES, la plateforme en ligne vous propose de créer ou un « Blank Project » (Projet vierge), ou de choisir parmi des modèles d’animation déjà préconçus (exactement comme les modes de vol disponibles sur les drones). Pour plus de simplicité, on va choisir le mode « Fly to and Orbit » en cliquant sur « Quick Start »: autrement dit, on va voler d’un point A à un point B et effectuer une orbite autour de notre point d’intérêt.
GES_01

Il suffit ensuite de saisir la destination finale: dans notre cas « Notre Dame, Paris, France ». Le logiciel affiche aussitôt la vue satellite, puis, la simulation en temps réel du vol: vous pouvez changer l’altitude de d’arrivée, le rayon de l’orbite, l’angle d’approche… Tous ses paramètres seront bien sûr modifiables ultérieurement. Vos modifications sont appliquées en temps réel.

GES_02

Il ne reste enfin qu’à choisir la durée de l’animation. Par défaut, elle sera de 25 secondes. Vous découvrez ensuite l’interface du logiciel.

L’interface de Google Earth Studio

Par défaut, on ne dispose que de la vue finale en 3D. Il est donc préférable, pour affiner le trajet de la caméra, de passer en mode « 2 Viewports » grâce à l’icône de l’écran.
GES_03
A gauche, on visualise ainsi la carte et surtout le trajet de la caméra. De cette manière, on pourra très facilement customiser tous les mouvements et gérer les paramètres de déplacement. La Timeline quant à elle, montre toutes les images clés et la liste des paramètres. Dans notre exemple, on désire que le point de départ se situe dans l’espace et bien plus loin de Paris. Il suffit donc de placer la tête de lecture au début puis, de saisir une altitude de 35 Kilomètres, et, dans la barre de recherche, de taper « Frankfort » en Allemagne. Vous cliquez ensuite sur le losange de la rubrique « Camera Position » afin d’indiquer que vous avez modifié les images clés de position de la caméra.

GES_04
Si vous lancez la lecture, vous constatez donc que la caméra s’est positionnée au dessus de la ville allemande et ira jusqu’à Paris depuis le cosmos.
Astuce: Par défaut, GES effectue un trajet linéaire depuis l’espace, ce qui n’est pas très esthétique. Dans le menu Animation/Advanced, choisissez Logarithmic Altitude. Google va accélérer la descente vers le sol et arrondir la trajectoire, ce qui est bien plus satisfaisant.

Vous pouvez désormais sauter d’image clé en image clé pour modifier tout ce que vous désirez, et bien sûr créer des étapes sur le parcours.

Les paramètres supplémentaires

Vous aurez aussi compris que chaque point dans le Viewport « carte » correspond à une image clé de position de la caméra: vous pouvez ainsi les manipuler à loisir pour vous écarter de votre trajectoire initiale. Mais on peut aller encore plus loin. En cliquant sur Add attributes, on peut ajouter des paramètres supplémentaires, qui pourront eux aussi être animés: l’heure du jour ou de la nuit, l’angle de vue de la caméra, les nuages… De cette manière par exemple, en animant le Field of view (angle de la focale), vous allez pouvoir effectuer des zooms spectaculaires, ou, au contraire, élargir le champ pour avoir une vision panoramique de la scène.
GES_06

De plus, en sélectionnant une ou plusieurs images clés et en effectuant un clic-droit vous allez aussi pouvoir changer le mode d’interpolation de l’animation (ease-in, ease-out…) ou Auto-Ease (ce qui correspond à une courbe de Bézier automatique afin de lisser les mouvements).
GES_05

Les track-points et l’export

C’est une des autres forces de GES. Les track-points peuvent être ajoutés. Qu’est ce que ça veut dire? C’est qu’au moment de l’exportation du rendu final, GES va inclure des points de votre choix en 3D afin qu’un logiciel comme After Effects soit capable de « comprendre » les mouvements de la caméra et donc d’ancrer des éléments en 3D dans la scène. Pour mieux comprendre, contentez-vous d’ajouter un trackg-point sur la cible de la caméra (Notre Dame dans notre exemple) en effectuant un clic-droit sur la cible figurant la carte ou directement dans le moniteur final.
GES_07
Votre animation terminée, appuyez sur le bouton Render. Après avoir validé la durée et la résolution, passez à l’onglet « Advanced » et cochez la case « Include 3D tracking Data ». Lancez ensuite le rendu en cliquant sur Start. GES va générer toutes les images et vous proposer de télécharger un .zip.

GES_08

Ajoutez des éléments en 3D dans After Effects

Un fois le fichier téléchargé et décompressé, GES aura généré une suite d’images numérotées que vous pourrez importer en tant que film dans n’importe quel logiciel de montage. Mais le plus amusant est d’utiliser After Effects pour ajouter du texte 3D grâce au Track Points. Lancez After Effects, puis, depuis le menu Fichier/exécuter le script, sélectionnez le fichier .jsx généré par Google. Automatiquement, votre film est chargé dans une nouvelle Composition et surtout, After Effects a créé un objet nul et un calque de texte pour chaque Track-Point.
GES_09

Il suffit alors d’écrire n’importe quelle légende ou de lier à n’importe quel élément à l’objet nul pour qu’il soit modélisé en 3D et suive les mouvements de votre caméra. Vous n’aurez qu’à jouer sur l’orientation et la position pour qu’il matche avec votre scène. Ajoutez enfin un peu de motion blur et étalonnez un peu les images dans Lumetri pour qu’elles semblent moins artificielles et vous voilà avec des images de drone en version réalité augmentée.

Des ressources pour aller plus loin

Pour aller plus loin et en vidéo, nous vous recommandons ce tutoriel en français, du célèbre Stéphane Couchoud.

An anglais vous pouvez aussi suivre cette vidéo et la chaine associée.

 

L’article Google Earth Studio: pilotez un drone depuis votre ordinateur est apparu en premier sur Createinmotion.

Time-lapse: le mode d’emploi complet

Prendre une photo toutes les X secondes, assembler toutes les images pour en faire un film qui accélère l’action? Facile. En théorie. On va donc vous expliquer ici comment, et même pourquoi produire de bons time-lapses pour dynamiser ou enrichir vos productions: matériel, technique, conseils.

Un time-lapse, pour résumer, c’est la technique qui consiste à prendre une photo à un intervalle de temps régulier afin d’en faire un film. Ce qui va produire une sorte d’accéléré pour montrer ce que l’on ne verrait pas à l’oeil nu en restant planté au même endroit.
Mais, la première question est la suivante: ça sert à quoi?

Les utilisations du Time-lapse

  • Avant tout, un time-lapse sert à montrer ce qu’il est impossible d’observer à vitesse réelle: si l’on prend l’exemple classique des nuages dans le ciel, vous ne verrez pas leur évolution car ils se déplacent bien trop lentement. Avec un time-lapse, oui.
  •  Accélérer une action qu’il aurait été impossible de filmer à vitesse réelle sous peine de lasser le public. Une impression 3D de plusieurs heures va se faire en quelques secondes et afficher l’objet final. Il en va de même pour la construction d’un immeuble sur un 1 an: à raison d’une image par jour, la construction va pousser comme un champignon. On peut aussi montrer le lever et le couché du soleil, le déplacement des étoiles…
  • A dynamiser un film, tout simplement. Vous avez l’habitude de jouer sur les ralentis ou le Time-remapping (maitrise de la vitesse de lecture entre accélération et slow-motions), pourquoi ne pas introduire aussi des time-lapses pour provoquer des ruptures de rythme? On le voit dans cet exemple de la présentation de la caméra AG-CX350 puisqu’on alterne en vitesse réelle, ralentis légers, vrais slow-mo et time-lapses:
  • A faire des effets de styles, comme les « trainées de phares de voitures » que l’on voit dans les scène urbaines, ce qui n’est, encore un fois pas visible à l’oeil nu.

D’abord, un peu de Maths

Alors avant de commencer la pratique, il faut faire 2-3 petits calculs. On l’aura compris, prendre une photo toutes les X secondes signifie tout d’abord faire un peu de maths pour prévoir la durée du résultat final, une fois transformé en film.
– Le premier paramètre à prendre en compte, c’est la cadence d’image de votre film. Autrement dit, on doit anticiper la cadence d’image du montage final (voir notre article sur les cadences d’image): communément, il peut s’agir de 24/25 ou 50 images par secondes (fps). Il faudra donc prendre 24/25/50 « photos » pour produire 1 seule seconde de film.

– Le second paramètre, c’est le fameux intervalle entre chaque prise de vue. Est-ce que je prends une image toutes les 2 secondes? Ou toutes les minutes? Pour aider à faire ce choix, tout va dépendre de la scène et du déplacement des objets qu’elle montre. Mais on peut dégager quelques règles:

Un sujet très mobile (véhicule…): intervalle de 1 à 2 secondes
Un sujet un plus plus lent (piétons…): intervalle: de 2 à 3 secondes
Tout ce qui est encore plus lent (la course du soleil etc): de 5 secondes à plusieurs minutes.

Bien sûr, tout ceci n’est que purement indicatif, mais l’idée est là. Donc, pour obtenir ma séquence et raisonner mathématiquement, je vais dire que je veux un plan de 10 secondes, qui sera diffusé à une cadence de 25 images par secondes (fps) avec un intervalle de 3 secondes. J’applique donc la formule suivante pour connaitre le nombre de photos à prendre.

Les formules :

(Durée du plan en secondes) X (Cadence d’images finale)
= Nombre N de photos à prendre.

GH5-Timelapse-menuEt si vous n’être pas équipés d’une caméra, ou d’un hybride qui intègre la fonction « Interval Rec » ou « Time-Lapse » (comme chez Panasonic), vous allez ensuite appliquer la formule suivante pour savoir combien de temps patienter avant la fin du time-lapse.

(N nombre de photos à prendre) X Intervalle choisi
= Durée du shoot en secondes

Timelpase_appDans notre exemple, il nous faudra donc prendre 250 images (10 secondes x 25 i/s) et patienter 250 x 3 secondes (durée de l’intervalle). Soit 750 secondes, soit, 750 : 60 = 12 minutes 30. Voilà, pour le calcul de base. Évidemment, il peut se faire à l’inverse: « je sais que la course du soleil avant la nuit prend 3h et je fixerai un intervalle de 10 secondes ». Il me faudra donc: (3600 seondes (1 heure) x 3 heures)/10 = 1080 images. Le plan va donc durer: 1080/25 (cadence d’image) = 43 secondes environ.

Et pour les plus feignants, il y a même des applications comme celle-ci (pour iOS) et celle-là (pour Android)

Ensuite, un peu de matériel…

Franchement, côté matériel c’est assez simple: un bon time-lapse, c’est avant tout un DSLR, un hybride ou une caméra qui sait prendre une photo toutes les X secondes. Et même si ce n’est pas le cas, il suffit d’acheter un « intervallomètre » 01_intervallometerà raccorder sur la prise Remote de l’appareil pour qu’il en soit capable. C’est l’intervallomètre qui décidera donc de la prise d’une photo toutes les x secondes. Dans le cas de Panasonic, la fonction est intégrée depuis bien longtemps et surtout, les appareils savent assembler les images pour en faire un film en interne sans avoir besoin de monter: vous obtenez directement la vidéo.

Pour le reste, un time-lapse, c’est surtout un plan qui ne bouge absolument pas (sauf dans le cas d’un motion time-lapse) afin d’éviter le moindre tremblement d’image : vous n’aurez alors besoin que:
Avalon-Universal-PRO-Tripod– D’un trépied costaud (ou n’importe quelle support vraiment stable). Même le vent peut faire trembler un plan et ruiner votre prise de vue si le support n’est pas stable, surtout avec des optiques lourdes en longue focale.
– D’une « power bank » (batterie USB – voir notre article sur les accessoires) si vous prévoyez que la prise de vue va durer plusieurs heures. Elle vous permettra d’alimenter votre appareil tout le temps nécessaire.
– D’un filtre ND variable (ou d’un jeu de filtres ND). Comme nous allons le voir après, pour obtenir des effets de trainées, on est obligé de choisir un temps de pose très très bas (voire de plusieurs secondes). Et donc, même la nuit, il faudra peut-être mettre un filtre Neutre pour abaisser la quantité de lumière et conserver ce Shutter très lent.

Le temps pour composer et raconter: le choix de l’intervalle et du Shutter

Everest – A Time Lapse Film – II from Elia Saikaly on Vimeo.

Vous avez compris les maths, vous avez compris qu’il faut assez peu de matériel? Place maintenant à la réflexion. Intellectuellement, il vous faut discerner deux choses: le cadre bien sûr (mais ça vous savez faire) et ensuite la priorité que vous donnerez aux sujets mobiles ou immobiles de votre scène. Et là, c’est d’abord le choix de l’intervalle qui va jouer.
Prenons un exemple. Vous avez prévu de tourner le déchargement d’un énorme container d’un bateau sur un quai. Déchargement qui prendra 1 bonne heure. Dans votre scène vous allez avoir la grue qui porte le container et les dizaines d’ouvriers et de véhicules qui vont s’agiter pour le recevoir.

  • Si vous optez pour un intervalle très grand (de l’ordre de 15 secondes), votre plan final mettra en valeur le cheminement du container (car le mouvement est très très lent) au détriment des ouvriers/véhicules qui vont scintiller, apparaitre et disparaitre: en 15 secondes, ils auront parcouru bien du chemin.
    timelapse – discharging a container ship from Andre Freyboth on Vimeo.
  • Si vous optez pour un intervalle plus court (1-2 secondes), ce sont eux, à l’inverse qui vont être mis en valeur comme des fourmis qui s’agitent, à l’inverse du container qui va sembler presque immobile.

Tout est donc affaire de choix et de priorité dans la composition. Place ensuite à l’esthétique et c’est là que le shutter prend toute son importance. C’est lui va qui déterminer le « motion-blur » ou flou de mouvement. Là encore, prenons un autre exemple. Vous filmez tout simplement une rue passante.

  • Avec un shutter rapide (1/50ème de seconde par exemple) vous allez accroitre le sentiment de passage, car les passants vont tous être presque nets et sembler courir et courir encore dans cette rue.
  • Au contraire, avec un shutter très lent (1 seconde), ils vont tous s’estomper pour ne laisser que des trainées diffuses. Vous allez dans ce cas là, privilégier la rue et les bâtiments.
    GH1 Timelapse test with intervalometer from Arthur Kulcsar on Vimeo.

En pratique: le Manuel, le Manuel et encore le Manuel

Un time-lapse étant un assemblage de photos, tout écart entre deux images va sauter au yeux et scintiller. Vous devez donc tuer tous les automatismes de votre caméra.
Pourquoi? Parce que même si vous ne le percevez pas, dans n’importe quelle scène, d’une seconde à l’autre, il y a toujours un changement. Pour comprendre, imaginez que vous soyez en Autofocus sur la scène de rue que nous avons évoquée: chaque nouvelle photo sera mise au point sur un piéton différent. Donc, si vous engagez un automatisme (Ouverture -Iris-, Shutter, ISO…), ce micro changement sera perçu par la caméra qui va donc faire varier un paramètre et adapter ses réglages.
Manual Mode
Au final, vous ne pourrez pas exploiter le résultat. Le seul bémol concerne peut être la Balance des Blancs. Comme la mesure s’effectue différemment (sur un global et sans changement brutaux), ce paramètre peut parfois être laissé en automatique. Quoi qu’il en soit, la procédure à respecter est la suivante:

  1. Je bascule mon appareil en 100% manuel: focus, ouverture, shutter, Iso (Gain)… Je paramètre mon appareil en Live-View, Constant preview afin de voir l’incidence des réglages. Dans le cas d’une caméra, c’est inutile: elle le fait toute seule. Dans le cas d’un DSLR, privilégiez aussi les optiques manuelles: le relèvement du miroir provoque souvent un décalage de l’exposition de quelques millisecondes, ce qui sera visible à la fin.
  2. Une fois que j’ai choisi mon cadre, que j’ai verrouillé mon trépied, je prends une photo de test afin de vérifier totalement la qualité de la photo et de détecter des défauts. Dans le cas d’une caméra, je lance un enregistrement de quelques images pour vérifier les mêmes paramètres. J’ajuste les paramètres si besoin.
  3. Je prépare l’enregistrement du time-lapse (intervalle, shutter…) et je le lance.

Et en post-production?

On ne va pas ici développer les techniques avancées de post-production en RAW etc, mais une fois votre time-lapse réalisé, se pose à vous deux cas de figure. Soit votre caméra a déjà généré le film (cas des GH4/5S, CX350 etc…) dans la résolution souhaitée, soit vous avez enregistré les X images sous forme de photos sur votre carte mémoire. Dans ce dernier cas:

  1. Importez toutes les photos dans un dossier sur votre machine
  2. Dans votre logiciel de montage: importez les images sous forme de « séquence d’image »: elle sera lue comme un film à raison d’une photo par image. Ou alors, si votre logiciel ne supporte pas cette fonctionnalité, indiquez que chaque photo ne doit durer qu’un frame lors de son importation: en les glissant sur votre time-line vous aurez donc un film.
    import-as sequence
  3. Pour une utilisation plus poussée, vous pouvez acquérir un logiciel spécialisé comme LrTimelapse en conjugaison avec Adobe Lightroom. Ce type d’application réservée aux professionnels va permettre d’assembler, de corriger toutes les incohérences d’une images à l’autre et même de jouer sur le format RAW des photos si votre appareil en est capable.

Effet Holy grail, Tilt-Shift, Motion Time-Lapse, Hyperlapse… C’est quoi?

Pour conclure, on va évoquer brièvement différentes techniques dérivées du time-lapse.

1. L’effet Holy grail pour les levers et les couchers de soleil

Cette technique consiste à tourner un time-lapse de la nuit au jour et vice versa. Oui mais voilà, on l’a vu, comme on reste en Manuel, l’exposition va changer de la pénombre au plein soleil. Alors comment faire? Le plus simple, c’est de découper le time-lapse en 4 sections. Dans le cas d’un coucher de soleil, vous lancez la prise en étant légèrement surexposé et dès que vous commencez à être sous-exposé, vous faites une pause et vous réajustez l’exposition. Vous relancez ensuite le second time-lapse. Et ainsi de suite jusqu’à la nuit noire. Au montage, vous ferez se chevaucher les 4 time-lapses avec un simple fondu.

Wellington South Coast New Zealand – Day to Night Time-lapse from Mark Gee on Vimeo.

2. Le Tilt-Shift

Cet effet consiste à prendre des time-lapse d’un point de vue très en hauteur. Avec cette technique les humains tout en bas, vont ressembler à de petites personnages semblables à des jouets. On rajoute aussi du flou en haut de la scène et on sature les couleurs. Le mieux est de voir cet exemple en image:

A (Little) London Christmas – A Tilt Shift Timelapse from Media Hog Productions on Vimeo.

3. Motion time-lapse et hyperlapse

Le motion time-lapse va nécessiter un slider et une tête motorisée qui va bouger d’une position A à une position B dans l’intervalle de temps. Si vous devez prendre 250 photos, le logiciel du slider (qui pilote aussi l’appareil en général) va découper son mouvement en 250 positions et ne bougera qu’entre chaque photo. L’hyperlapse quant à lui, c’est la technique qui consiste à se déplacer entre chaque image tout en gardant un cadre stable. C’est assez dur à maîtriser, mais les nouvelles caméras de sport ou 360° commencent à embarquer nativement cette fonctionnalité.

Berlin Hyperlapse from b-zOOmi on Vimeo.

 

 

 

L’article Time-lapse: le mode d’emploi complet est apparu en premier sur Createinmotion.

[Wiki] Les Proxies: la solution pour monter plus vite ?

Les proxies, c’est tout simplement l’art d’utiliser des fichiers en basse définition pour monter plus vite. Pourquoi? Parce que la résolution des caméras ne cesse d’augmenter et que les codecs de tournage réclament de plus en plus de puissance: les machines de montage ne suivent plus. Alors, utiliser les proxies s’avère de plus en plus souvent indispensable.

Utiliser des Proxies, l’idée est loin d’être nouvelle dans les grandes boites de prod, ou les chaînes de télé. Les fichiers natifs étant extrêmement gourmands en termes de puissance de calcul, il est plus facile de prémonter en basse définition avant de conformer le tout en HD/4K/DCP, voire plus. Mais tout ça semble compliqué de prime abord, alors que la technique s’est largement démocratisée, y compris dans les plus petites structures: les proxies sont désormais automatisés directement dans les logiciels de montage.
Pour résumer, le logiciel transcode les rushes en basse définition et au moment voulu, lors de l’étalonnage ou de l’export, il remplace les clips avec les rushes natifs en y appliquant tous les effets désirés, en pleine qualité.
Mieux, des caméras comme les UX180/PX270 de Panasonic sont tout à fait capables d’enregistrer à la fois le fichier natif pleine résolution et son jumeau en version proxy. Du coup on peut transmettre des images facilement en plein tournage (car elles sont légères), ce qui permet de commencer à monter avant d’avoir le natif en pleine qualité.
Proxy_conversion

La(les) problématique(s)

Pourquoi s’interroger? On tourne, on monte et tout va bien. Oui mais voilà, on a beau avoir une machine de montage de guerre, la puissance est toujours prise à défaut. Du coup, on se retrouve souvent à monter de manière non fluide. Et plus on ajoute d’effets, plus on attend. La faute en incombe aux causes suivante.

  1. L’augmentation de la qualité au tournage se paie au prix de Codecs (COmpressor/DECompressor) toujours plus performants pour occuper moins de place à qualité  égale: c’est le cas H264 et désormais du H265 (HEVC). Du coup, si une puce s’occupe bien d’encoder les images pendant la prise de vue de manière linéaire, il est nettement plus délicat au montage de décoder les images, de leur appliquer des effets, ou de multiplier les flux comme dans le cas d’un Multicam. A chaque arrêt de la tête de lecture, l’ordinateur doit décoder l’image, voire, dans le cas des Codecs Long GOP, de décoder ce qui est avant et après. Ces Codecs nous permettent cependant de faire de la bonne 4K 4:2:2 10 bits à 100 Mbps, ce qui aurait été impensable avant…
  2. D’autre part, malgré l’augmentation de puissance de calcul des machines, il n’est pas toujours possible/nécessaire d’en changer tous les 6 mois pour arriver à monter de manière fluide, c’est à dire sans lag dès que l’on bouge sa tête de lecture. Les performances croissantes des ordinateurs ne suivent pas l’augmentation des besoins en technologie d’image.
  3. Et même dans l’hypothèse plus confortable d’un tournage avec un codec qui réclame moins de puissance, on a alors à faire à des fichiers qui demandent des débits de lecture conséquents au montage, surtout si l’on superpose plusieurs clips. Il n’y a plus alors de problème de puissance, mais de capacité du stockage qui peine à « cracher » les données au bon débit.
  4. Enfin, avec l’avènement de l’immédiateté, notamment en ENG, transmettre des images en pleine définition est encore bien trop lourd sur les réseaux 4G, il faut donc les compresser.

    PX270_proxy

    Les caméras comme la PX270 permettent d’enregistrer à la fois le fichier natif et un Proxy

Des parades ?

  • La première parade a longtemps consisté à utiliser un Codec intermédiaire au montage. L’idée est assez simple: tous les éléments du tournage sont convertis dans le même « format » de montage: le Prores sur Mac, le DNXHD/HR ou le Cineform sur PC par exemple. Plus de prise de tête, tout est fluide. Surtout, ce même Codec peut être utilisé pour le Mastering.  L’inconvénient réside cependant dans le fait que les fichiers sont donc « décompressés » et occupent énormément de place. Pour une carte de 64 Go tournée avec une EVA1, on se retrouve facilement avec 300-400 Go de données une fois le tout converti. D’autre part, cette conversion peut être longue. L’utilisation de cette technique quand on a des heures et des heures de rushes et donc compliquée.
  • Autre alternative, l’utilisation d’un enregistreur externe directement au tournage. Ce dernier va justement enregistrer dans un Codec intermédiaire sur un SSD. Plus besoin de décharger les cartes ou de convertir: on insère que le disque dans un rack et boom, on monte directement dessus. Mais là encore, il faudra prévoir beaucoup de SSD. D’autre part, au tournage, les enregistreurs alourdissent le set-up et ils consomment en général pas mal d’énergie. C’est à prendre en compte lors du projet.
  • La dernière méthode, c’est celle des Proxies. Le workflow habituel est presque inchangé. Vous importez tous les rushes sur votre machine et vous indiquez au logiciel de montage de créer des « copies » en proxy. D’un simple « switch » sur la Time-Line, vous passez de la version pleine définition à la version allégée. Les mêmes effets seront appliqués aux deux entités. Contrairement au Codec intermédiaire, la conversion est ultra rapide et le poids très léger. Mieux, dans le cas de caméras qui génèrent elles-mêmes des proxy, il suffit alors « d’attacher » les deux médias ensemble. Plus besoin de conversion. Le fait de pouvoir switcher d’un clic entre les deux versions permet de travailler alternativement sur le natif (pour un étalonnage précis) ou sur la version Proxy pour monter très, très vite. Cette méthode permet aussi de prolonger la durée de vie d’une machine vieillissante: le seul gros calcul demandé sera celui de l’export final.

Proxy: quelques pièges

  • La première chose à savoir, c’est qu’il faut être organisé et ranger les proxies à côté de vos rushes natif sous peine de se mélanger les pinceaux entre les médias.

    Proxy_organisation

    Il faut être organisé pour gérer les Proxies.

  • Ensuite, il faut, quand le logiciel vous laisse le choix de bien sélectionner des paramètres qui seront conformes aux fichiers natifs (même ratio d’image, même cadence…) et simplement changer la résolution et le codec pour avoir des fichiers légers. Il faut prendre garde aussi à la gestion des métadonnées qui peuvent être inclues dans le fichier natif (Time-code…)
  • Enfin, il faut faire attention aux manipulations temporelles: exemple, si avant de générer vos proxies, vous avez conformé un rush de 25 à 24P par exemple, assurez-vous que le proxy sera bien en 24p sous peine de générer des décalages sur la Time-Line. Bref, il faut être attentif.
  • Certains utilisateurs se trompent de Codec et se retrouvent parfois avec des Proxies plus lourds que les originaux. Prenez-bien garde à ce piège.

Les Proxies dans les logiciels de montage

Avec Premiere Pro:
Comme toujours avec Premiere, ça aurait pu être simple, mais c’est finalement compliqué, mais uniquement la première fois. Par défaut, le logiciel ne dispose que de quelques Presets pour générer les Proxies et il ne sont pas forcément adaptés. Il faut créer les votre une bonne fois pour toute.

  • Lancez Media Encoder et dans le volet Presets, cliquez sur + pour créer une Préconfiguration d’export, car on ne peut pas directement personnaliser un Preset « d’ingest »…
  • Nommez le Preset, puis choisissez un Format (Quicktime par exemple), personnalisez le Codec (par exemple, le Prores Proxy ou le Gopro Cineform YUV 10 bits).
  • Personnalisez la qualité (en l’abaissant au minimum) ainsi que la résolution: 960 X 540 pixels est un bon compromis.
  • Laissez le reste des paramètres sur « en fonction de la source » et enfin, décochez « rendre à la qualité maximale ». Vous pouvez sauver le Preset en le nommant le plus précisément possible (Proxy 960 – Prores – export…)
  • Mais ce n’est pas fini. Créez cette fois-ci un Preset d’Ingest. Choisissez le même format (Quicktime dans notre exemple). Et donnez le même nom que précédemment, mais cette fois-ci ajoutez « Ingest » pour bien le différencier.
    Premiere Pro Ingest
  • Choisissez ensuite l’option de « conversion de medias » (et rentrez une destination sans importance). Et c’est là que vous allez pouvoir choisir le Preset que vous avez créé pour l’export. Sauvez le tout en validant.
  • Mais ce n’est encore pas fini!!! Dans la liste des Presets, sélectionnez la préconfiguration que vous venez de créer et utilisez la commande « faire apparaitre le fichier… » pour savoir où il a été enregistré.
  • Enfin, dans Premiere Pro: importez vos rushes, sélectionnez les tous, et d’un clic-droit/Proxy (doublures en français…), choisissez « Créer ». Dans la boite de dialogue affichée, vous allez désormais importer votre Preset d’ingest grâce au chemin de l’endroit où il a été enregistré.
    Adobe Premiere Pro CC 2019 Proxy
  • Ouf, c’est enfin fini et vous n’aurez à faire cela qu’une fois, le Preset apparaissant pour toujours.

Nous vous recommandons donc de créer un jeu de Presets dès le départ pour ne pas avoir à refaire cette pénible manipulation. Car au montage, ensuite, c’est très très simple: il suffit de cliquer sur le bouton « Proxy » dans le moniteur de Programme pour passer d’une version à l’autre. Mais c’est effectivement ce genre de défaut ergonomique que nous évoquions dans notre test de Premiere Pro 2019. Le seul avantage étant qu’au moins, tout est personnalisable et que Premiere est aussi capable de « d’attacher » les Proxy d’une caméra sans les générer lui même. Et ce n’est pas le cas de tous les logiciels.

Avec FCPX:

Alors là, c’est exactement l’inverse: vous n’aurez aucun choix, mais vous n’aurez rien à faire non plus! Il suffit de sélectionner les médias et de choisir de générer des proxy d’un clic-droit/transcoder/media/proxy.
FCP_01_proxy
Dans le menu Présentation du moniteur de Programme, il vous suffit, comme dans Premiere Pro, de Switcher entre medias originaux et Proxy. Enfantin, même si tous les médias seront transcodés obligatoirement en Prores Proxy.
FCP02_proxy

Avec Resolve:

Là encore, c’est assez simple: il suffit de choisir dans les préférences générales le type de Proxy à générer (dans Resolve, ils sont appelés « Optimized Media »).
resolve proxy_01
Ensuite, comme dans Premiere, on sélectionne les medias à transcoder. Enfin, il suffit dans le menu Playback, de sélectionner « Use Optimized Media if available ». C’est aussi simple que celà.
resolve proxy_02

Pour conclure

On vient de le voir, les Proxies offrent bien des avantages mais vous devez toujours vous demander si bénéfice en vaut la chandelle.
Si vous avez un montage simple, avec peu d’effets, et que la machine « laggue » un peu, il peut être plus intéressant de ne pas transcoder (ce qui prend du temps et de l’espace), quitte à souffrir un peu.
Si vous allez travailler sur un film en RAW avec des heures de rushes, là, la question ne se pose pas: vous intégrerez simplement ce temps de transcodage dans votre projet afin de pouvoir travailler ensuite de manière parfaitement fluide. Tout dépend donc du type de projet, de la puissance disponible et de la post-production qui sera prévue.

 

 

 

 

L’article [Wiki] Les Proxies: la solution pour monter plus vite ? est apparu en premier sur Createinmotion.

24P/25P/50P/ 50i… Quelle cadence d’images choisir ? #la fin des idées reçues

La cadence d’images est absolument déterminante dans les choix techniques de vos projets. Problème, entre idées reçues, archaïsmes, et confusions, on est souvent perdus. On va donc ici faire un point technique pour vous aider à choisir la bonne fréquence… Et tordre le cou à certains préceptes historiques.

Et pour commencer, la cadence d’image (Frame Rate), c’est quoi ?

framerate_01

Pour faire simple, voilà une illustration qui symbolise les différences entre les cadences d’image sur 1 seconde.

La cadence d’image de captation, c’est tout simplement le nombre d’images qui sera capturé et donc enregistré dans l’intervalle d’une seconde. Autrement dit, on va parler de « 25/50P » pour signifier 25/50 images « Progressives », c’est à dire « pleines » par seconde, de « 24P » ou encore de « 50i » (pour Interlaced, soit entrelacées). Ces cadences qui nous sont communes, peuvent cependant être modifiées selon n’importe quelle valeur – en fonction de votre caméra – (de 1 image par seconde à plusieurs milliers d’images par secondes), car elle sont toujours à mettre en relation avec la cadence d’image de diffusion ou de lecture. En Europe, il s’agit en général de 25 images par seconde.

Pour faire simple, si vous décidez d’enregistrer 1 image par seconde et que vous lisez le tout à 25 images par secondes, vous aurez un accéléré de X25 (1×25), comparable à un Timelapse. A l’inverse, 100 images par seconde lues à 25 images par secondes donneront un ralenti de X4 (100/25), c’est à dire du Slow-Motion. Et donc communément, on se contente de tourner à la même fréquence d’image que celle qui est prévue pour la diffusion: mais on peut décider de sortir des sentiers battus pour s’affranchir de certaines limites.

La cadence d’image: histoire et perception de l’œil

Historiquement, la cadence d’image, c’est une succession de photos prises sur une seconde, qui sont là pour donner naissance à l’animation. L’animation, c’est faire en sorte que notre œil n’est plus le « temps » de voir qu’il s’agit d’une suite d’images fixes. C’est donc une « illusion » liée à la rémanence rétinienne.
BELL & HOWELL 2709_
Au début du cinéma muet, nous étions à une cadence située entre 14 et 20 images/s car elle dépendait de la vitesse de rotation de la manivelle de l’opérateur! C’est ce qui donne cet aspect saccadé: notre oeil perçoit la suite d’image.

Au moment du cinéma parlant, on a collé une bande magnétique sur la pellicule. Mais le problème, c’est qu’à cette cadence -faible-, on n’arrivait pas à enregistrer la voix correctement. Il a donc été décidé que la cadence de 24 images par seconde était le parfait compromis entre restitution sonore/saccades limitées à l’image et surtout prix de la pellicule (extrêmement onéreuse à l’époque). Là est née cette cadence historique dont on pourrait pourtant, 100 ans plus tard, s’affranchir.

Le « 50 » est quant à lui, né de la télévision qui fonctionne… A l’électricité. En Europe, la fréquence du courant est de 50 Hz et comme la télévision cathodique est constitué d’un faisceau électrique qui balaie l’écran de haut en bas, on a décidé d’envoyer 50 demi images (entrelacées) pour que ce faisceau ait le temps de balayer l’écran de haut en bas entre deux images (et 2 deux signaux de courant alternatif) : à l’époque, on ne savait pas envoyer des images « pleines », ou procéder autrement.

Entre temps, tout a changé puisque qu’entre la numérisation des caméras et surtout la révolution de l’affichage (écrans plats qui peuvent supporter des images pleines…), on est capable -théoriquement- d’envoyer n’importe quelle cadence d’image, vers n’importe quel périphérique.  Oui, mais voilà, vous allez entendre que le Cinéma, c’est forcément en 24P, que la télé, c’est obligatoirement du 50i et que le 50P, ça ne sert qu’à faire des ralentis. Que tout ce qui est en « 50 » donne une texture « vidéo » aux images et donc, que ce n’est pas « Cinéma » avec son « flou de mouvement »  (motion Blur)…  Et bien, tout cela est assez largement faux.

Pourquoi choisir telle ou telle cadence d’image plutôt que de rester sur la valeur de diffusion?

A priori, aucune, à moins de vouloir produire des ralentis ou des accélérés (la fonction VFR Variable Frame Rate chez Panasonic). Mais pourtant, n’importe quel réalisateur a au moins été confronté au moins une fois à question suivante: pourquoi mon panoramique est-il saccadé à la lecture ?
La réponse, c’est que vous avez choisi une cadence trop faible (24/25 image par seconde). La caméra effectuant un grand mouvement, chacune des 24/25 images dans la seconde est trop différente de la suivante pour berner notre vision: nous percevons les saccades. Ce qui est très désagréable. En effet, chaque cadence offre ses propres avantages et inconvénients que nous allons lister. L’influence sur votre rendu d’image est conséquent, mais pas autant qu’on peut le croit:

  • 24P: Standard cinéma historique
    • avantages: on peut tout tourner en 24P sans avoir à conformer si l’on diffuse dans une salle de cinéma. Certaines caméras n’offre la résolution « C4K » (4096 x 2160) qu’à cette cadence d’images. Sinon, elles se cantonnent à l’UHD. Le 24P est aussi le seul à être universel entre PAL et NTSC.
    • inconvénients: nombreux! Impossible de faire des mouvements de caméra rapides sans saccade. Tout aussi impossible de tourner des scènes d’action « précises »: il y aura trop de « saccades » de mouvement. Difficulté à se conformer à la fréquence des lumières (50 Hertz en Europe 60 Hertz aux Etats-Unis) car le 24 n’est pas un multiple de la fréquence avec la règle des 180d (qui donne un shutter à 1/48ème).
  • 25P: Standard européen pour de nombreuses chaînes TV
    • avantages: c’est un format bon à tout faire puisqu’à une image près, le rendu est strictement le même que celui du cinéma. C’est un multiple du fameux 50Hz pour gérer le Shutter (et donc les lumières artificielles).
    • inconvénients: là encore, impossible de faire des mouvements rapides sans saccade.
  • 50P: Nouveau format depuis quelques années, supporté sur le Web en diffusion.
    • avantages: tout est précis et l’on peut tourner sans saccade. On peut aussi utiliser cette cadence pour produire des ralentis quand on le conforme en 25P par exemple.
    • inconvénients: on utilise plus de données car on enregistre 2X fois plus d’images qu’en 25P. Les chaines de télévision ne supporte pas (encore) ce format. Le rendu est sensé être moins « cinéma » car l’image est trop précise, mais l’on verra après que cette idée est fausse: tout se joue avec le shutter (vitesse d’obturation).
  • 50i: Ancien/encore actuel standard de diffusion TV en Europe
    • avantages: il est toujours supporté (voir demandé) par presque toutes les TV. Pas de saccades.
    • inconvénients: Le rendu est vraiment « vidéo » car on enregistre 50 demi-images qui se chevauchent par trame (c’est l’effet de peigne que l’on voit quand on fait un arrêt sur image). Il est donc déconseillé de l’utiliser au tournage: mieux vaut conformer en 50i à la livraison si c’est demandé.
  • Cadences supérieures (100/120/240 et +, images par seconde)
    • avantages: utilisé pour produire des ralentis. Certains films sont presque entièrement tournés à 120 i/s (quitte à revenir à la vitesse normale au montage ) pour laisser la possibilité d’effectuer des ralentis.
    • inconvénients: la quantité de lumière nécessaire. Le shutter ne pas être descendu sous la cadence d’image. La gestion des lumières artificielles est problématique (flickering) car on tourne plus « vite » que la fréquence du courant électrique. L’image est souvent limitée à la 2K…A moins de passer sur du très très haut de gamme. Et bien sûr la gestion du son.

La vitesse d’obturation, coupable de toute les confusions

Les dogmes sont tenaces car souvent basés sur le fameux rendu cinéma très apprécié (flou de mouvement, faible profondeur de champ pour résumer) et que l’on applique la fameuse règles des 180° (qui consiste à utiliser une vitesse d’obturation double de celle de la cadence d’image). Ceci pour obtenir un bon compromis entre « précision et flou ».

24P-STR48

un film en 24P shooté à 180° de shutter (soit 1/48ème)

 

 

 

50P-STR50

La même scène shootée en 50P avec un shutter au 50ème. La flou de mouvement est le même.

Le problème, c’est que cette règle est aussi souvent appliquée avec les « nouveaux » format comme le 50P. Autrement dit, on utilise alors un shutter à 1/100ème. Ce n’est pas toujours opportun. Doubler le shutter revient à demander 2X plus de lumière puisque le capteur sera 2X moins exposé. Et ce là limite le flou de mouvement. C’est ce qui donne cet effet « chirurgical » à ce type d’images.

24P STR 96

24P à 90°, le flou de mouvement disparait. Le motion blur doit tout au shutter.

50P STR100

Au 100ème de seconde en 50P, le flou de mouvement est atténué. On a le même résultat qu’en 24P à 90°.

Si vous tentez de tourner en 50P à 1/50ème, vous allez voir que le flou de mouvement est le même qu’en 24/25P, mais que le rendu sera légèrement différent, car il y a 2x plus d’images et donc, plus de fluidité. Et non, tous les films ne sont pas tous tournés en 24P. Le Seigneur des Anneaux en est un excellent exemple sans pour autant que vous ayez l’impression de regarder la TV. Il faut donc se sentir libre de choisir sa fréquence et son shutter en fonction de son projet. Et se poser les bonnes questions.

Alors, finalement, quelle cadence utiliser?

  1. Toujours se demander quel sera le media de diffusion final:
    c’est ce qui va grandement déterminer votre cadence d’image. Internet? tout est possible. La TV? on va partir du 25/50P ou du 50i (ou du 25/50P que l’on conformera en post-production en 50i… )
  2. Se conformer à la fréquence du courant du pays dans lequel on tourne pour choisir son Shutter:
    sauf à tourner en pleine nature, vous serez toujours ennuyés par l’éclairage artificiel et le « flickering ». Autrement dit, si je tourne au Etats-Unis et que je vais diffuser en France, je vais utiliser un shutter au 60ème de seconde (pays 60Hz) et utiliser une cadence d’image de 25/50 images par seconde par exemple. Si je tourne en France et que je diffuse aux USA, je vais prendre un shutter au 50ème et tourner en 30P.

    exemple de flickering à 180 fps et ensuite avec un shutter au 48ème sur la lumière 50Hz.
  3. Faire son propre choix artistique en fonction de ce que l’on va tourner.
    Un match de foot ? Une cadence élevée et un shutter rapide. Un court métrage? Un shutter plus lent etc…
  4. Envisager la post-production.
    Un des problèmes fréquents qui se pose, c’est de devoir mélanger plusieurs fréquences d’images sur la même Time-Line. Exemple, un drone qui ne fait que du 30P alors que vous montez en 24P le reste de vos scènes. Ou alors mélanger des Interviews en 24 et 25P. Tous les logiciels de montage ne sont pas égaux dans ce domaine: certains vont tout simplement « sauter les images en trop » (30 au 24P, ce qui crée des saccades), d’autres vont créer des images manquantes par « mélange » (blending inesthétique). Les derniers vont analyser toute une séquence pour recréer de « vrais images » suivant un processus très long. Il faut donc toujours tout envisager au préalable, surtout si vous prenez du son. Un son 30P conformé en 24 va, par exemple être accéléré. Ceci sera donc à corriger. Il faut donc tester, tester avant de pouvoir faire ses propres choix.

 

 

 

L’article 24P/25P/50P/ 50i… Quelle cadence d’images choisir ? #la fin des idées reçues est apparu en premier sur Createinmotion.

Les « Scopes » (Histogramme, Waveform…): comment s’en servir? Et pourquoi?

En tournage ou en post-production, les « scopes » sont des outils dont il faudrait se servir au maximum. Problème, ils sont durs à décoder: quelle assistance afficher et surtout, dans quel but? Histogramme ou forme d’ondes? Autant de questions que nous allons traiter, outil par outil. Car leur aide est précieuse et vont au delà de ce qu’on « voit » à l’écran.

En tournage télé, vous verrez toujours un « ingénieur vision » accroché à son pupitre de contrôle, à déchiffrer des moniteurs qui affichent des formes d’ondes, des sinusoïdes et d’autres affichages qui font plus penser aux instruments de lancement d’une fusée Ariane, qu’à une image vidéo. Ce sont ces outils qui lui permettent de tout corriger pour envoyer une image parfaite. Ces outils, on les retrouve pourtant partout: sur les caméras tout comme dans tous les logiciels de montage. Pourquoi? Parce qu’ils sont les seuls à analyser tous les pixels d’une image sur la base de signaux électriques, bien au delà de ce qu’on peut voir dans le cadre caméra, avec notre « simple » vision. Les conditions de tournage (luminosité, nécessité d’être rapide…) peuvent laisser échapper des détails. D’autre part, il se peut très souvent que le moniteur utilisé ne soit pas bien calibré et rende donc des couleurs ou une exposition erronée. Pour toutes ces raisons, on va tenter d’utiliser ces outils au tournage et en post-production pour éviter les erreurs, ou pour étalonner correctement.

Mais tout d’abord, une parenthèse théorique

additive model subtractive model

Le modèle de couleur additif, comparé au modèle soustractif.

Ici on voit les deux grands modèles de couleurs. A gauche, le modèle RVB (Rouge, Vert Bleu), dit additif, utilisé par tous les écrans, les télés, bref, tout ce qui produit de la lumière. Et à droite le système soustractif utilisé pour l’impression (la lumière est « reçue » par le support). Dans ce dernier cas, si on mélange toutes les couleurs primaires (Cyan, Magenta, jaune), ça nous donne du noir sur le papier. A l’inverse, pour l’imagerie « électronique », si on additionne l’électricité des primaires, on obtient le plus de courant possible: ce qui nous donne le blanc absolu. C’est un peu comme allumer un ampoule au maximum de sa puissance. Et quand il n’y a pas de lumière, on a zéro volt, donc du noir. Pourquoi évoquer ce modèle? Parce que c’est pour comprendre que dans toutes les représentions des outils dont nous allons parler, tout sera basé sur une quantité d’énergie. C’est cette quantité, qui sera parfois segmentée en couleur, qui sera interprétée graphiquement pour nous aider.

1- L’histogramme: le plus connu mais peut être le moins utile

Histogram-explanation_01

L’histogramme ne concerne que la luminance d’une image. Source « B&H photo video »

L’histogramme, c’est la représentation du nombre de pixels (axe vertical) situés dans un zone de luminance, de gauche (le noir) à droite (le blanc). Pour résumer donc, si vous voyez une grosse montagne à droite, votre image sera très claire. Côté gauche, elle sera très sombre. Et si la montagne a un sommet plat, c’est que vous avez du blanc ou du noir absolu. Problème, cette représentation n’est pas en corrélation avec la composition de votre cadre: si votre zone surexposée est en haut de votre cadre (un ciel par exemple), la montagne sera toujours à droite de l’outil, ce qui rend son interprétation assez délicate pour transposer vos éventuelles corrections. Regardez si dessous, ces deux exemples:

Histogram-explanation_0.

L’image est surexposée

 

Histogram-explanation_02

L’image est plus équilibrée.Comme elle demeure très blanche, la majorité de la représentation reste sur la droite: mais on devine les rideaux (au milieu), et le jeans à (gauche) de la représentation.

Il faut donc tenter de ne pas avoir de « sommets plats », et essayer d’avoir un répartition la plus homogène possible.

2- Le moniteur de forme d’ondes (luminance): l’outil le plus polyvalent

Le moniteur de forme d’onde, c’est un peu un super-histogramme, avec deux différences majeures qui le rendent bien plus efficace. Tout abord, c’est l’image qui est représentée de gauche à droite (c’est à dire le vrai cadre) et d’autre part, l’échelle de l’axe Y à gauche (vertical), va représenter la valeur de luminance. A 0 c’est noir, à 100, c’est blanc (sans rentrer dans les détails d’espaces colorimétriques ou de types d’afficheurs). Pour mieux comprendre, regardez cette image:
C:\Users\Windows\Desktop\CiM\Scopes_Docs\02_Waveform_luminance_01.png

Elle est surexposée à gauche du cadre. On retrouve donc bien l’indication de cette surexposition sur le moniteur de forme d’ondes, là encore à gauche, puisqu’on atteint les 100 IRE (Institute of Radio Engineers, qui a défini la norme). Ce qui n’était pas aussi visible lors du tournage. En revanche, pas de problème avec les noirs sur toute l’image. Regardons maintenant, une image mieux exposée:
02_Waveform_luminance_02

Ici, on a récupéré les fenêtres du bâtiment de gauche. Il n’y a plus, dans l’image, de « pixels brulés ». On doit donc utiliser cet outil très facilement « interprétable », pour contenir les valeurs d’exposition entre la barre haute et le bas. Mais il y a plus fort, car cet assistance peut aussi être utilisée avec en couleur.

3- Le moniteur de formes d’ondes RVB (RVB  Waveform Monitor): l’expo ET la balance!

Prenons notre moniteur de forme d’ondes en luminance et ajoutons lui de la couleur. Autrement dit, il va afficher les quantités de rouge, de vert de bleu, suivant la même échelle. Ceci va donc nous permette de voir très facilement si une couleur est surreprésentée par rapport à une autre. Mais aussi de juger, comme précédemment, de l’exposition. L’échelle de l’axe Y étant la même, on ne peut pas dépasser le « 100 » symbolique. Encore une fois, regardons cette image:

03_Waveform_RGB_01
On voit que le rushe présente une dominance rosée dans les blancs. Le phénomène est bien plus visible sur le moniteur de forme d’ondes RVB: les murs constituent le plus gros défaut, puisqu’ils sont sensés être blancs. On constate une surreprésentation du rouge. De même que l’image est en fait surexposée. Regardons la version corrigée:

03_Waveform_RGB_02

Ici, ce qui est sensé être blanc, sur le mur de gauche, montre des valeurs RVB qui se confondent. C’est normal, l’addition des trois couleurs primaires donne le blanc, d’où le modèle « additif » dont nous avons parlé. L’escalier, marron, montre « plus de rouge » (normal, puisqu’il est marron), et le mur de droite affiche lui aussi correctement les RVB confondus, d’où le blanc. A noter qu’on peut aussi afficher ces valeurs sous formes de « parade »: c’est à dire, les trois couleurs primaires côte à côte comme le montre cet exemple:
03_Waveform_RGB_03
On peut donc doser parfaitement les trois couleurs pour obtenir une image parfaite.

 

4- Les fausses couleurs (false colors): mieux que les zébras!

On pourrait comparer les « fausses couleurs » à une camera thermique, sauf que l’outil va réagir à l’exposition (luminance) et non pas à la chaleur. Contrairement aux zebras qui « rayent à l’image » tout ce qui dépasse un valeur IRE que vous aurez déterminée, les fausse couleurs, vont suivre une échelle. Le rouge montrera par exemple tout ce qui dépasse 100 IRE, mais vous aurez droit à toutes les nuances, et vous pourrez vous en servir notamment pour l’exposition des tons chair (Skin tones). Examinons cette exemple: 04_Falsecolors_01

Comme on le voit, l’image est brûlée, elle est rouge dans sa grande majorité et tous les détails sont perdus. Plus important, faute de dynamique, on peut décider de préserver le visage du sujet. Mais il est aussi surexposé alors que les tons chairs devraient être entre 40 et 50 IRE (vert): c’est la différence avec les zébras qui n’auraient montrés que le ciel brulé. Ici, on a droit à une échelle de valeurs.

04_Falsecolors_02

Voilà la version corrigée: on retrouve les détails de la ville en contrebas et surtout, le visage du modèles n’a plus de zones rouges. Les fausses couleurs permettent d’avoir une très bonne visualisation graphique de l’exposition. C’est un des outils les plus simples. Malheureusement, la fonction est rarement disponible sur les caméras à moins de toucher le haut de gamme (VariCam…). Mais tous les moniteurs externes (SmalHD…) en disposent.

5-Le Vectorcope: pour les couleurs… et les visages!

C’est un outil précieux est assez unique: il va se concentrer sur la saturation des couleurs en oubliant complètement toute forme de luminance. Les différentes teintes sont représentées autour d’un « cercle ». L’affichage des couleurs ira du centre (zéro saturation) vers l’extérieur (100% de saturation, à la limite de l’outil) suivant un angle donné par les couleurs. C’est un peu comme une boussole de marin, avec un attribut de « puissance ». Mais l’intérêt est ailleurs: les teintes chairs (skin tones) ont toutes la même référence, avec un angle bien précis qui est affiché par le vectorscope. Du coup, il devient très simple de bien valoriser un visage en rapprochant les valeurs de cet angle précis, symbolisé par une ligne. Regardez les exemples ci-dessous, volontairement faussés pour la compréhension.

05_Vectorsope_01

Ici, l’image est magenta et s’éloigne de la ligne à -40°(environ)-(entre le rouge et le jaune), il est évident que les skintones sont mal rendus… Mais sur l’exemple ci-dessous…
05_Vectorsope_02

…On arrive à un rendu parfait des tons chairs, simplement en se fiant à l’outil.

 

 

 

L’article Les « Scopes » (Histogramme, Waveform…): comment s’en servir? Et pourquoi? est apparu en premier sur Createinmotion.

Best-of des transitions… Au tournage

Les transitions réalisées au tournage, c’est en fait anticiper deux plans successifs, et faire en sorte qu’ils se raccordent sans post-production (ou presque). A la clé, l’impression que la caméra a pu se transporter à deux endroits différents sans coupe. On a sélectionné ici 9 transitions faciles à faire « in camera ». Explications.

1- Les principes

Les exemples les plus communs de transitions « In camera » (au tournage), vous les connaissez sans doute: vous suivez un sujet, puis en fin de plan vous effectuez un tilt vers le ciel. vous changez d’endroit et vous commencez votre plan depuis le ciel et vous reprenez votre sujet… Qui a changé d’endroit. Pourquoi le ciel? Parce qu’il va donner une image bleue-blanche et que quand vous allez changer d’endroit, vous reprendrez ce bleu-blanc quasi identique, ce qui va donner l’impression qu’il n’y aucune coupe et que c’est donc de la magie.

Autre exemple, le fait que la camera traverse un mur (ou un objet) en travelling latéral pour suivre un sujet (dans un appartement, d’une pièce à l’autre par exemple). L’idée est ici de se servir du noir. Quand la caméra arrive au mur, on s’attend naturellement à passer au noir. Du coup, la combine consiste à se servir de l’opacité supposée de l’objet (en ajoutant du noir devant l’objectif par exemple) et à reprendre le même mouvement de l’autre côté (en enlevant le cache noir très rapidement). La clé aussi, c’est la rapidité du mouvement et sa continuité (dans quoi un fondu au noir suffirait), pour cacher les défauts. Dans l’exemple ci-dessous, ici de la série Sherlock, on voit précisément cette technique (améliorée par un masque en post-production) et baptisée « pass-by ».

  • le secret est donc toujours d’avoir une continuité du mouvement d’un plan à l’autre (de la caméra et de son sujet).
  • D’utiliser n’importe quel élément de décor comme source de la transition (le ciel, le mur, l’objet, un poteau).
2- Un peu de fun dans cet exemple

Dans cette vidéo de PremiumBeat, l’auteur à décidé de détourner l’utilisation de transitions in-camera pour réaliser des exemples plutôt rigolos: un clonage de personnage, un départ de course façon super héro, et un lancer de couteau. On vous laisse regarder. Même si c’est en anglais, vous allez comprendre et on vous explique après.

L’auteur utilise toujours le même mouvement ultra-rapide: un panoramique à la main (qu’il serait mieux de faire au trépied…) :

  • Le premier plan fixe le sujet, puis fait un panoramique vers la droite très rapide avec un shutter bas pour provoquer du flou de mouvement (1/50ème/180°) (voir notre article sur l’exposition.)  
  • Le second plan reprend le même panoramique, mais dont l’angle est inversé.
  • Au montage, il suffit de raccorder les deux plans pendant les deux panoramiques avec un fondu tout bête.
  • Pour la dernière scène du « couteau », comme le personnage ne va pas réellement saisir un couteau en plein vol, l’auteur utilise la ruse suivante. Le premier plan est identique aux autres (panoramique qui fait un gauche droite pendant le lancer du couteau). Le second plan est tourné à l’envers. Le clone est en position finale (couteau rattrapé) et le lance vers la gauche. La panoramique est un droite-gauche. Au montage, il suffit d’inverser la lecture du plan et le tour est joué.
3- La compilation plus classique

Dans cette vidéo Mango Street, montre tous les principes énoncés plus haut dans une compilation de 6 transitions « In camera ». Le visionnage suffit amplement à expliquer les techniques classiques.

4- Pour conclure

Vous l’avez vu, le principe ne varie jamais: un type de mouvement sur 2-3-4 plans et un élément de décor quel qu’il soit, pour masquer le raccord. Le perfection vient de la qualité du mouvement, de la synchronisation de la scène et de la précision de raccord au montage. N’hésitez pas à refaire plusieurs prises pour obtenir cette perfection du mouvement. Regardez aussi autour de vous, il y a toujours un élément de décor à utiliser, y compris le sol… Présent partout!

 

 

L’article Best-of des transitions… Au tournage est apparu en premier sur Createinmotion.

❌