Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Comprendre les F-Stops / T-Stops

Par Sébastien François

L’ouverture maximale du diaphragme détermine en grande partie les performances d’une optique. Mais pourquoi certains objectif ouvrent moins que d’autres? Quelle est la différence entre les valeurs exprimées en f/xx et celle en TXX? Autant de notions que nous allons vous expliquer ici.

On a déjà abordé longuement la maîtrise de l’exposition dans un précédent article. Mais pour aller plus loin et comprendre le mécanisme, il faut connaître les limites physiques et mathématiques d’un objectif afin de le choisir en toute connaissance de cause.
Vous le savez déjà, l’ouverture est gérée pas le diaphragme qui a la capacité de s’ouvrir au maximum ou au contraire, de se refermer afin de laisser pénétrer plus ou moins de lumière. Par conséquent, le « diaph » est le premier outil nécessaire dans la gestion de l’exposition. Oui mais alors, pourquoi parle-t-on de f/2, f/5.6 etc…?
Et bien en fait, l’histoire est assez simple.

D’où vient la valeur d’ouverture ?

« Le nombre de l’ouverture » est tout simplement la relation entre la longueur focale et le diamètre maximal du diaphragme (c’est de à dire du fût interne de l’objectif). Prenons un exemple. Pour un objectif de 50mm dont le diamètre maximal est de 25mm, on obtient donc 50/25=2. Et c’est donc pour éviter ce calcul différent pour chaque optique que l’on simplifie en annotant l’ouverture en f/2, ou f:2 ou encore 1:2. Le calcul est ainsi fait au préalable et permet au cadreur d’avoir des valeurs de référence communes. Quelle que soit l’objectif, un f/2 donnera toujours la même quantité de lumière sur le capteur. Du moins, théoriquement.


Cependant, via cette règle, on se rend donc compte que si l’on veux une ouverture à f/2 pour une focale de 150mm, il nous faudra un diamètre de 75mm ! C’est ce qui explique que les grandes focales qui « ouvrent » beaucoup sont très volumineuses et très coûteuses. A cette focale, on trouvera plus généralement, des objectif qui ouvrent à f/4 (diamètre de 37,5mm). C’est aussi pour cela que les systèmes comme le m4/3 (GH5 etc) qui disposent d’un capteur plus petit que le plein format, peuvent avoir des optiques très lumineuses sans être encombrantes.
En effet, sur ce système, comme un objectif de 50mm en full frame correspond à à un 25mm en m4/3, il suffit alors d’un diamètre de diaphragme de 12,5mm pour ouvrir à f/2. C’est pour cela que les optiques sont bien moins encombrantes que sur un système Full Frame.

Voilà une comparaison d’encombrement entre des optique Full Frame et M43: elles couvrent pourtant la même plage focale réelle. Crédit : Dave Dugdale.

f/1.4, f/2, f/2.8, d’où viennent ces nombres ?

Vous aurez remarqué que quel que soit l’objectif, la caméra, l’hybride, les différents paliers du diaphragme sont constitués de la même suite de « nombres ». Parallèlement, augmenter l’ouverture d’1 « Stop », ou d’1 « diaph » signifie faire rentrer 2 fois plus de lumière. Chaque incrémentation est donc le double de la surface de la précédente. A la différence que plus la valeur est petite, plus la surface est grande.

Hors vous connaissez forcément la fameuse formule de calcul de l’aire d’un cercle: Surface du disque =πr2 où « r » symbolise le rayon. Et comme l’aire d’un cercle diminue de moitié lorsque le rayon est divisé par √2 (soit 1,4142), on passe donc d’un incrément au suivant en multipliant par √2 et en arrondissant. Essayons :
Si r=1, 1 x √2 = 1,4
1,4 x √2 = 2
2 x √2 = 2.8
2.8 x √2 = 4 etc etc etc.
Voilà le mystère élucidé. Cependant, tout ce que vous devez retenir, c’est qu’à chaque fois il existe un rapport de 2 quant à la quantité de lumière envoyée.

Les limites des F-Stops et pourquoi parle-t-on de T-Stops?

On vient de le voir, les valeurs de diaph ou F-Stops, sont des calculs mathématiques à la portée du plus grand nombre. Malheureusement, les objectifs ne sont de simples lentilles posées sur des tubes de tel diamètre et de telle longueur. Il existe de nombreux paramètres qui viennent perturber le calcul théorique dans la transmission de la lumière.


Tout d’abord, à objectif égal (même marque, même longueur focale, même « f »), on se rend compte qu’il y a toujours un écart léger car les verres ne sont jamais tout à fait identiques, à cause du revêtement, de la complexité des lentilles etc. Du coup un f/2 ne sera jamais réellement un f/2.
En photographie, on s’en moque car l’écart est très faible et donc, du domaine de l’acceptable. Qui plus est, la rectification en post-production est très simple.
En vidéo, c’est une autre histoire car dans les grosses productions, on tourne très souvent en multicam et s’il existe des écarts d’exposition entre plusieurs caméras, la post-production peut très vite devenir ardue. et donc coûteuse.
Et c’est ici qu’interviennent les T-Stops.

les F-Stops sont basés sur le rapport entre longueur Focale et diamètre. Les T-stops intègrent la valeur de Transmittance de la lumière.

En partant des F-Stops, les constructeurs vont donc calculer la déperdition de la lumière due au différents paramètres perturbateurs (rayon perdus contre le fût, absorption du revêtement, déperdition en traversant X lentilles) et vont donc ajouter au calcul de facteur de transmittance: 85% par exemple. En multipliant la valeur théorique par ce facteur on obtient une valeur réelle. Un f/2.8 sera donc un T3.3 suivant nos 85% de transmittance.

Alors pourquoi n’utilise-t-on pas que des T-Stops?

La réponse à cette question est assez simple: établir le facteur de transmittance doit être étalonné sur chaque objectif qui sort d’une chaine de production. Il ne s’agit donc plus de théorie, mais d’un gros travail d’usine afin qu’un T3.1 soit exactement identique à un autre T3.1. Ce qui implique des tarifs souvent multiplié par 3 ou 4 par rapport à un « simple » objectif « f ». C’est pour cela que l’on reserve ces optiques au cinéma en y ajoutant d’autres fonctions: bague de mise au point crantée pour les follow-focus, course plus longue pour être très précis, diaphragme « décliqué » pour passer d’un palier à l’autre en douceur… Ce qui amène la facture à un niveau stratosphérique.
Mais avez-vous réellement besoin de ces optiques? La réponse est simplement « oui » si la simplification de la post-production justifie ce surcoût de location supplémentaire des optiques. La réponse est non, pour les productions plus simples: matcher 2 caméras demeure assez aisé. Tout est donc question d’équilibre budgétaire.

L’article Comprendre les F-Stops / T-Stops est apparu en premier sur Createinmotion.

Tout connaitre pour débuter dans le streaming

Par Sébastien François

Autrefois réservé à une élite de Geeks, le streaming vidéo en Live connait une explosion massive de tous les contenus sur les réseaux sociaux. Et pour cause: n’importe qui peut désormais faire un Live depuis un smartphone ou même depuis un drone. Oui, mais voilà, pour aller plus loin, il faut s’intéresser à toutes les nouvelles solutions offertes à la fois par les constructeurs, mais aussi par les éditeurs de logiciel. Voici un tour d’horizon pour bien démarrer.

Streamer un Live: facile. Si j’ai un smartphone, je me connecte à mon réseau social préféré, je me filme en selphy (plus ou moins) bien et c’est parti. Certes, ce sera plus ou moins vilain, mais au moins j’ai un moyen ultra facile d’être en direct sans la moindre compétence. Au début, un peu comme pour la vidéo verticale, personne n’imaginait que ça allait marcher: mais les statistiques sont là. Le temps devant les Live ne cesse d’augmenter et la qualité des productions ne cesse d’augmenter. Oui, les « Directs » sur Facebook, Youtube et bien évidement sur la plateforme de gaming Twitch » dépasse désormais les contenus traditionnels en terme de génération d’audience qualifiée. Pour s’en convaincre, nous vous recommandons la lecture de cet article qui démontre parfaitement que les contenus en ligne qui marchent sont de plus en plus les Live. Bien qu’en anglais, les graphiques qu’il montre et les sommes en jeu parlent d’eux même:02_Stats

Source: https://neilpatel.com

03_Stats

Téléphone ou « vraie caméra »?

On ne va s’étendre sur les possibilités d’un smartphone: il dispose d’une connexion 4G, d’une caméra acceptable et peut donc diffuser de n’importe quel endroit. En revanche, il faut le suréquiper pour que l’image produite soit décente: mini trépied, micro externe, casque blutooth, lumière. Surtout, il vous cantonne souvent à une diffusion verticale (comme nous l’avons vu dans cet article): Facebook par exemple, impose une image 9/16ème dans son application Android, mais pas dans celle d’iOS. Autant de limites donc qui laisse le téléphone comme support N°1 pour les Live « vite fait », mais qui n’en font pas un périphérique adapté à une vrai réalisation: mis à part ajouter des filtres à l’image, vous ne pourrez pas ajouter des sous-titres, gérer en même temps commentaires etc.
live from phone

Les caméras sont quant à elle restée longtemps en retard pour le Live Internet (via la vidéo sur IP donc). Pour résumer, auparavant, il vous fallait une ou plusieurs caméras reliée en SDI (ou en HDMI) à un mélangeur vidéo, qui lui même envoyait le programme vers un ordinateur ou un encoder dédié pour espérer passer sur Internet. Désormais, ce n’est plus le cas. Si l’on prend le cas de la dernière AG-CX350 (et même de références antérieures) de Panasonic, vous avez droit à une prise Ethernet, mais aussi à un Dongle Wifi optionnel. Qu’est-ce que ça veut dire concrètement?

  • La caméra sait « Streamer » directement vers toutes les plateformes de diffusion sans le moindre ajout de matériel. Il lui suffit d’être à portée d’un réseau.
  • L’utilisateur saisit directement le nom du réseau sans fil et le mot de de passe, l’adresse du serveur Youtube/facebook ou autre ainsi que la clé de votre compte. C’est fini.
  • Mieux, ses informations peuvent être stockées et chargées à l’avance sur une carte SD afin d’être opérationnel encore plus rapidement.
  • Enfin, la caméra sait aussi streamer en IP si vous souhaitez récupérer l’audio et la vidéo de plusieurs source et les « mixer » en direct sur ordinateur (comme avec les logiciel OBS Studio ou VMix), ceci notamment grâce l’arrivée du protocole NDI (nous y reviendrons).

diagramm streaming

Ainsi pour résumer, une caméra Broadcast sait à la fois être indépendante et lancer un Live, ou alors être utilisée comme source d’une réalisation multicam, le tout avec ou sans fil. Vous bénéficiez alors d’une qualité d’image bien supérieure et de tous attributs apportés par ce type de matériel (Entrées XLR, zoom… etc). Pour vous en convaincre, nous vous recommandons de lire cette documentation de Panasonic: How to connect AG-CX350 with Facebook Live , How to connect AG-CX350 with YouTube Live.

Vous pouvez aussi vous inspirer de ce très bon tutoriel en anglais pour un paramétrage ultra précis:

Streamer en Live quand mes appareils n’ont pas possibilité de connectivité réseau

newtek_fg_001775_r001_connect_spark_hdmi_1348898Alors, on est d’accord, sur le matériel récent, les choses sont simples, mais que se passe-il quand on veux utiliser d’autres sources d’images qui n’on ni Ethernet, ni Wifi. Là, encore, il existe des tas de solutions très nouvelles. Prenons l’exemple d’un hybride ou d’une caméra plus ancienne qui n’offre que du HDMI ou du SDI comme sortie. La solution classique consiste donc à les raccorder à un mélangeur vidéo, ou dans le cas d’une source unique, à un boitier d’acquisition vers un laptop. Ce dernier se chargera d’encoder le flux. Autrement dit, c’est lui assurera le « Bridge » entre le signal vidéo et le signal IP via les câble SDI ou HDMI. Problèmes: les connexions sont filaires en général et rajoutent des éléments à la chaîne de production. Il y a donc désormais bien mieux.
Si l’on regarde du côté de chez Teradek ou Newtek par exemple, on trouve une gamme très étendue de boîtiers à connecter directement sur vos caméras et qui vont transmettre le signal avec ou sans fil, vers Youtube/Facebook. Grosso modo, ses boîtiers font office de passerelle entre les sources vidéo et la vidéo sur IP.
vidiu-go-hero

Une révolution nommée NDI

On l’a vu, les appareils récents ou les boîtiers de connexion ont tous pour vocation de transformer vos flux vidéo en flux internet pour se connecter aux serveurs de streaming. Si ceci n’est pas totalement nouveau (les caméra de vidéo surveillance ou les caméra PTZ fixes de font depuis un certain temps), ce qui l’est, c’est la simplicité de mise en oeuvre apportée par le NDI (ou NDI-HX). Le Network Device Interface amène les bénéfices suivants:

  • L’auto-discovery: auparavant il fallait être ingénieur réseau et employer des utilitaires plus ou moins complexes afin de déterminer l’adresse IP du périphérique, récupérer son flux, choisir le débit, le protocole réseau… Désormais, n’importe quel appareil dont le NDI est activé sur le même réseau (un simple routeur), devient à la fois une source de diffusion ou de réception: il peut s’agir d’une caméra bien sûr, mais aussi d’un téléphone, d’un ordinateur ou même petit enregistreur comme l’Atomos Ninja V et son module NDI. C’est magique puisque tout est automatisé.
    Atomos_NinjaV_NDI
  • Le protocole fait transiter non seulement l’audio, la vidéo, mais aussi des tonnes d’autres possibilités comme le contrôle à distance des caméras PTZ!
  • Pour résumer, le NDI permet de faire un multicam sans la moindre compétence réseau.

La preuve par l’exemple

Pour démontrer cette étonnante facilité, nous avons voulu réalisé le test suivant. Faire un multicam vers Youtube avec comme source 2 ordinateurs différents, un téléphone et une caméra Panasonic compatible NDI. Nous nous servirons d’un 3ème ordinateur qui assurera le mix grâce au logiciel gratuit OBS Studio et l’envoi vers Youtube.
Pour se faire, il faut d’abord télécharger la suite d’outils suivants compatibles Mac/Windows:

  1. La suite d’outils gratuites NDI Tools
  2. Le logiciel gratuit OBS Studio
  3. Le plugin NDI gratuit pour OBS Studio
  4. L’application malheureusement payante NewTek NDI Camera pour le téléphone

NewTek NDI Tools

Ensuite, nous avons effectué les opérations suivantes:

  1. Nous avons installé NDI tools sur tous les ordinateurs. La suite d’outils comprend un utilitaire baptisé Newtek NDI Scan Converter. Nous l’avons lancé. C’est lui qui établit le protocole NDI et qui permet de choisir sur n’importe quel ordinateur connecté, la source à diffuser: une fenêtre de navigateur Internet, le plein écran, une Webcam. Bref, tout ce que vous désirez diffuser pendant votre Live.
  2. Nous avons aussi lancé l’application sur le téléphone
  3. Et nous avons enfin allumé la caméra Panasonic, paramétrée en NDI, tous ces appareils appartement bien sûr au même réseau local: une simple box Internet.
    NDIHX

Ensuite, dans OBS Studio équipé du plugin NDI: 

Une fois le logiciel lancé sur la troisième machine, il suffit de créer une Scène pour chaque source puis dans Source pour chaque scène, de sélectionner « Source NDI » grâce au bouton « + ». Tous les périphériques (ordinateurs et caméra) dans notre cas apparaissent sans aucune autre intervention. Vous voilà en quelques minutes dans une configuration Multicam, sans câble ou presque et prêts à diffuser sur Youtube (ou n’importe qu’elle plateforme.
OBS_01OBS_02

Il ne vous reste plus qu’à rentrer dans les Paramètres d’OBS, l’adresse du serveur de Streaming (que récupérez sur le compte de votre chaine ou de votre page) ainsi que la clé du stream.

Pour aller plus loins, quelques conseils et astuces

  • Des mélangeurs comme le Panasonic HLC-100 vous dispense d’ordinateurs: ils se comportent comme des mélangeurs traditionnels, mais aussi comme des pupitres de contrôle pour caméra PTZ et surtout comme des PC capable de streamer directement suivant le même principe que celui que nous venons de décrire: c’est un peu un appareil unique qui regroupe toutes les fonctions en un.
  • Avant de paramétrer votre Stream, utilisez toujours un site comme Speedtest (une application est aussi disponible sur téléphone), ceci afin de mesurer la qualité de la liaison vers internet et ainsi d’adapter le débit d’encodage.
  • Préférez toujours un câble Ethernet entre le mélangeur ou l’ordinateur qui diffuse vos sources: le Wifi est toujours moins stable.
  • Lorsque vous programmez un Live sur Facebook ou Youtube: programmez-le 30 minutes avant l’instant T. Pourquoi? Pour vous permette de tester! Pendant ces 30 minutes, vous seul pourrez voir le stream en ligne avant son démarrage et détecter toutes les sources de problème. Si vous le lancez directement, tout problème sera visible par votre audience.
  • Si vous souhaitez diffuser sur plusieurs réseaux simultanément vous pouvez utiliser des services comme restream.io, mais attention, encoder simultanément pour plusieurs plateforme nécessite de la puissance.

L’article Tout connaitre pour débuter dans le streaming est apparu en premier sur Createinmotion.

[Wiki] H265/HEVC, le codec d’enregistrement du futur?

Par Sébastien François

Tout le monde connait le H264 qui a permis de compresser nos films pour faire tenir de la 4K sur une simple carte SD. Oui mais voilà, le Codec est désormais supplanté par le H265 (HEVC) qui promet d’être deux fois plus efficace. On le retrouve même déjà au coeur des caméras récentes (CX350, EVA1… ) et des hybrides (GH5, S1..). Mais quels sont ses avantages pour le futur?

Ce bon vieux H264 (ou Mpeg4 AVC) a tenu le haut du pavé pendant plus de 15 ans. Et pour cause, il permettait de diviser le poids de nos images de manière révolutionnaire par rapport au mpeg2 et autres ancêtres de la compression vidéo. C’est surtout grâce à lui que les plateformes comme Youtube ont explosé. Et pour cause. Réduire la taille des vidéos est en enjeu absolument majeur pour l’enregistrement (espace de stockage) tout comme pour la diffusion: il serait bien difficile d’envoyer des films en Prores HQ sur nos téléphones via le réseau 4G. Et a fortiori, avec l’augmentation des résolutions d’images: la HD demande 4X plus d’informations que la SD, tout comma le 4K en réclame 16X plus! Ajoutez à cela qu’on peut désormais tourner en 50P au lieu des 25 et vous obtenez des débits nécessaires encore multipliés par 2.

Un point sur ce qu’est un Codec

Bref, le Codec est un des éléments fondamentaux dans la conception des caméras et pour la diffusion de contenu. Le Codec (pour COmpresseur/DECompresseur), c’est un peu la moulinette mathématique qui va permettre de faire en sorte qu’une vidéo qui nécessiterait un débit de données de 800 Mbps n’en ait plus besoin que de 50 à qualité visuelle égale. Comment ce miracle est-il possible?

  1. Sans rentrer dans les détails trop techniques, le Codec va d’abord analyser une image, et grâce à de savants algorithmes, il va la découper suivant une grille et éliminer tout ce qui est redondant par des opérations de prédiction. Autrement dit, si 50 pixels sont identiques, il n’en gardera q’un seul et indiquera que les 50 pixels environnants sont les mêmes.
  2. Ensuite, s’agissant d’un film, il ne va enregistrer qu’une seule image entières toutes les X images (souvent 12). Dans l’intervalle, le Codec sera capable de ne garder que ce qui a changé entre temps. Dans la cas d’une interview statique, par exemple, et pour schématiser, le Codec va détecter que le fond ne change pas: il ne s’occupera donc que de l’interviewé. Le gain est donc spectaculaire.

H264 motion detection

Comme on le voit sur cette illustration: le Codec ne va détecter que ce qui change d’une image à l’autre. Souce: Cambridge University.

Oui, mais voilà, plus le Codec est performant, plus il nécessite de puissance à l’encodage et surtout au décodage lors des opérations de montage. C’est pourquoi, même en 2019, de nombreux utilisateurs utilisent des Proxy pour travailler et simplifier les calculs. C’est la contrepartie de cette compression intense.

Mais alors pourquoi changer de Codec et passer au H265?

On l’a vu, après plus de 15 ans, le H264 est implanté partout. Il est montable, diffusable… Alors pourquoi le mettre à la retraite? A cela plusieurs raisons. A commencer par le fait que nos besoins évoluent:

  • On veut tourner en 4K (a minima)
  • On passe petit à petit au HDR (High Dynamic range)
  • On souhaite avoir un sous échantillonnage des couleurs en 10 bits (pour le Color Grading et les nouveau displays). Et déjà, des constructeurs comme Panasonic proposent de la 6/8K!
  • Bref, tous ces nouveaux besoins dépassent très largement, la norme H264 qui ne prend pas en charge ces fonctionnalités: le H264 ne sait en effet pas aller au-delà de la 4K et ne supporte pas l’espace colorimétrique HDR (BT2020).

h.265-vs-h.264

Surtout, qui dit augmentation des besoins, dit une fois de plus, augmentation de la quantité d’informations à enregistrer lors des tournages. Et le principal avantage du H265, c’est qu’il arrive à être 2X plus performant que son prédécesseur. Autrement dit, à qualité égale, un film pèse 2X moins lourd. C’est ce qui permet par exemple à la EVA1 ou à la CX350 d’offrir de la 4K 10bits en 50p pour un débit de 150Mbps! Mieux, pour toutes les caméras PTZ (UE150 etc) qui peuvent streamer le signal en IP, la réduction du débit nécessaire permet d’envisager de faire passer de la 4K via une simple connexion internet classique.

La technologie H265

Le Codec H265 (HEVC High efficienty Video Codec), réussit cette performance essentiellement grâce à 2 technologies:

  • La première consiste à ne plus découper une image suivent une grille fixe composée de carrés de 16×16 pixels. Mais d’adapter cette grille suivant ce qui se passe à l’image. Autrement dit, si un fond est uni, là ou le H264 va utiliser 20 « carrés » identiques, le H265 n’en utilisera qu’un seul, d’où le gain d’espace et surtout, le découpage s’adapte en permanence pour matcher avec les mouvements à l’écran.

HEVCversusH264

  • La seconde technologie consiste à disposer d’une trousse à outils de « prédiction » bien plus développée pour « imaginer ce qui va se passer » d’une image à l’autre: 32 pour le H265 contre seulement 9 pour le H264. Si on prend l’exemple simple d’un véhicule qui se déplace dans le cadre de gauche à droite, le Codec H265 va se « douter » qu’entre 2 images le véhicule ne va pas subitement reculer! Il va donc prédire la vitesse de déplacement des pixels qui composent le véhicule. En revanche, dans le cas des feuilles d’un arbre battu par le vent, le Codec va plutôt associer l’animation à un mouvement pendulaire.

H265 prediction copie

Et la post-production dans tout ça?

C’est ici que l’histoire est encore délicate, tout comme pour le H264 à ses débuts. A l’heure où nous écrivons ces lignes, toutes les dernières versions des logiciels de montage supportent le H265. Mais attention, n’espérez pas encore monter de manière fluide sur une machine qui n’embarque pas de décodage matériel. En effet, le décodage matériel, c’est un morceau de votre processeur (CPU) ou de votre carte graphique (GPU) qui est spécialement dédié au décodage du format. Sans lui, c’est le seul processeur qui va effectuer les calculs et il le fera très lentement. L’heure est donc encore au montage par Proxy ou au transcodage. Mais la situation devrait très vite évoluer car le H265 s’impose petit à petit dans toutes puces informatiques.
H265 post prod

Au tournage, faut-il choisir le H265(HEVC)?

La réponse est mixte. Si vous désirez tourner en 10 bits HDR en utilisant des cartes SD standards, oui. A 150Mbps chez Panasonic, vous obtenez le meilleur ratio qualité d’image/possibilité d’étalonnage. Il en va de même pour les tournages longs (documentaires) ou l’espace de stockage constitue une problématique car vous ne pouvez pas décharger les cartes facilement. En revanche, vous devez envisager au préalable le fait que la post-production sera un peu moins fluide. Le H265 est tout à fait montable nativement en « cut » (suivant la puissance de votre machine), mais si vous effectuez par exemple un multicam, vous serez obligé d’utiliser des proxy ou de transcoder les rushes. Mais une chose est sûre, le H265 est bel et bien le format du futur.

 

L’article [Wiki] H265/HEVC, le codec d’enregistrement du futur? est apparu en premier sur Createinmotion.

Time-lapse: le mode d’emploi complet

Par Sébastien François

Prendre une photo toutes les X secondes, assembler toutes les images pour en faire un film qui accélère l’action? Facile. En théorie. On va donc vous expliquer ici comment, et même pourquoi produire de bons time-lapses pour dynamiser ou enrichir vos productions: matériel, technique, conseils.

Un time-lapse, pour résumer, c’est la technique qui consiste à prendre une photo à un intervalle de temps régulier afin d’en faire un film. Ce qui va produire une sorte d’accéléré pour montrer ce que l’on ne verrait pas à l’oeil nu en restant planté au même endroit.
Mais, la première question est la suivante: ça sert à quoi?

Les utilisations du Time-lapse

  • Avant tout, un time-lapse sert à montrer ce qu’il est impossible d’observer à vitesse réelle: si l’on prend l’exemple classique des nuages dans le ciel, vous ne verrez pas leur évolution car ils se déplacent bien trop lentement. Avec un time-lapse, oui.
  •  Accélérer une action qu’il aurait été impossible de filmer à vitesse réelle sous peine de lasser le public. Une impression 3D de plusieurs heures va se faire en quelques secondes et afficher l’objet final. Il en va de même pour la construction d’un immeuble sur un 1 an: à raison d’une image par jour, la construction va pousser comme un champignon. On peut aussi montrer le lever et le couché du soleil, le déplacement des étoiles…
  • A dynamiser un film, tout simplement. Vous avez l’habitude de jouer sur les ralentis ou le Time-remapping (maitrise de la vitesse de lecture entre accélération et slow-motions), pourquoi ne pas introduire aussi des time-lapses pour provoquer des ruptures de rythme? On le voit dans cet exemple de la présentation de la caméra AG-CX350 puisqu’on alterne en vitesse réelle, ralentis légers, vrais slow-mo et time-lapses:
  • A faire des effets de styles, comme les « trainées de phares de voitures » que l’on voit dans les scène urbaines, ce qui n’est, encore un fois pas visible à l’oeil nu.

D’abord, un peu de Maths

Alors avant de commencer la pratique, il faut faire 2-3 petits calculs. On l’aura compris, prendre une photo toutes les X secondes signifie tout d’abord faire un peu de maths pour prévoir la durée du résultat final, une fois transformé en film.
– Le premier paramètre à prendre en compte, c’est la cadence d’image de votre film. Autrement dit, on doit anticiper la cadence d’image du montage final (voir notre article sur les cadences d’image): communément, il peut s’agir de 24/25 ou 50 images par secondes (fps). Il faudra donc prendre 24/25/50 « photos » pour produire 1 seule seconde de film.

– Le second paramètre, c’est le fameux intervalle entre chaque prise de vue. Est-ce que je prends une image toutes les 2 secondes? Ou toutes les minutes? Pour aider à faire ce choix, tout va dépendre de la scène et du déplacement des objets qu’elle montre. Mais on peut dégager quelques règles:

Un sujet très mobile (véhicule…): intervalle de 1 à 2 secondes
Un sujet un plus plus lent (piétons…): intervalle: de 2 à 3 secondes
Tout ce qui est encore plus lent (la course du soleil etc): de 5 secondes à plusieurs minutes.

Bien sûr, tout ceci n’est que purement indicatif, mais l’idée est là. Donc, pour obtenir ma séquence et raisonner mathématiquement, je vais dire que je veux un plan de 10 secondes, qui sera diffusé à une cadence de 25 images par secondes (fps) avec un intervalle de 3 secondes. J’applique donc la formule suivante pour connaitre le nombre de photos à prendre.

Les formules :

(Durée du plan en secondes) X (Cadence d’images finale)
= Nombre N de photos à prendre.

GH5-Timelapse-menuEt si vous n’être pas équipés d’une caméra, ou d’un hybride qui intègre la fonction « Interval Rec » ou « Time-Lapse » (comme chez Panasonic), vous allez ensuite appliquer la formule suivante pour savoir combien de temps patienter avant la fin du time-lapse.

(N nombre de photos à prendre) X Intervalle choisi
= Durée du shoot en secondes

Timelpase_appDans notre exemple, il nous faudra donc prendre 250 images (10 secondes x 25 i/s) et patienter 250 x 3 secondes (durée de l’intervalle). Soit 750 secondes, soit, 750 : 60 = 12 minutes 30. Voilà, pour le calcul de base. Évidemment, il peut se faire à l’inverse: « je sais que la course du soleil avant la nuit prend 3h et je fixerai un intervalle de 10 secondes ». Il me faudra donc: (3600 seondes (1 heure) x 3 heures)/10 = 1080 images. Le plan va donc durer: 1080/25 (cadence d’image) = 43 secondes environ.

Et pour les plus feignants, il y a même des applications comme celle-ci (pour iOS) et celle-là (pour Android)

Ensuite, un peu de matériel…

Franchement, côté matériel c’est assez simple: un bon time-lapse, c’est avant tout un DSLR, un hybride ou une caméra qui sait prendre une photo toutes les X secondes. Et même si ce n’est pas le cas, il suffit d’acheter un « intervallomètre » 01_intervallometerà raccorder sur la prise Remote de l’appareil pour qu’il en soit capable. C’est l’intervallomètre qui décidera donc de la prise d’une photo toutes les x secondes. Dans le cas de Panasonic, la fonction est intégrée depuis bien longtemps et surtout, les appareils savent assembler les images pour en faire un film en interne sans avoir besoin de monter: vous obtenez directement la vidéo.

Pour le reste, un time-lapse, c’est surtout un plan qui ne bouge absolument pas (sauf dans le cas d’un motion time-lapse) afin d’éviter le moindre tremblement d’image : vous n’aurez alors besoin que:
Avalon-Universal-PRO-Tripod– D’un trépied costaud (ou n’importe quelle support vraiment stable). Même le vent peut faire trembler un plan et ruiner votre prise de vue si le support n’est pas stable, surtout avec des optiques lourdes en longue focale.
– D’une « power bank » (batterie USB – voir notre article sur les accessoires) si vous prévoyez que la prise de vue va durer plusieurs heures. Elle vous permettra d’alimenter votre appareil tout le temps nécessaire.
– D’un filtre ND variable (ou d’un jeu de filtres ND). Comme nous allons le voir après, pour obtenir des effets de trainées, on est obligé de choisir un temps de pose très très bas (voire de plusieurs secondes). Et donc, même la nuit, il faudra peut-être mettre un filtre Neutre pour abaisser la quantité de lumière et conserver ce Shutter très lent.

Le temps pour composer et raconter: le choix de l’intervalle et du Shutter

Everest – A Time Lapse Film – II from Elia Saikaly on Vimeo.

Vous avez compris les maths, vous avez compris qu’il faut assez peu de matériel? Place maintenant à la réflexion. Intellectuellement, il vous faut discerner deux choses: le cadre bien sûr (mais ça vous savez faire) et ensuite la priorité que vous donnerez aux sujets mobiles ou immobiles de votre scène. Et là, c’est d’abord le choix de l’intervalle qui va jouer.
Prenons un exemple. Vous avez prévu de tourner le déchargement d’un énorme container d’un bateau sur un quai. Déchargement qui prendra 1 bonne heure. Dans votre scène vous allez avoir la grue qui porte le container et les dizaines d’ouvriers et de véhicules qui vont s’agiter pour le recevoir.

  • Si vous optez pour un intervalle très grand (de l’ordre de 15 secondes), votre plan final mettra en valeur le cheminement du container (car le mouvement est très très lent) au détriment des ouvriers/véhicules qui vont scintiller, apparaitre et disparaitre: en 15 secondes, ils auront parcouru bien du chemin.
    timelapse – discharging a container ship from Andre Freyboth on Vimeo.
  • Si vous optez pour un intervalle plus court (1-2 secondes), ce sont eux, à l’inverse qui vont être mis en valeur comme des fourmis qui s’agitent, à l’inverse du container qui va sembler presque immobile.

Tout est donc affaire de choix et de priorité dans la composition. Place ensuite à l’esthétique et c’est là que le shutter prend toute son importance. C’est lui va qui déterminer le « motion-blur » ou flou de mouvement. Là encore, prenons un autre exemple. Vous filmez tout simplement une rue passante.

  • Avec un shutter rapide (1/50ème de seconde par exemple) vous allez accroitre le sentiment de passage, car les passants vont tous être presque nets et sembler courir et courir encore dans cette rue.
  • Au contraire, avec un shutter très lent (1 seconde), ils vont tous s’estomper pour ne laisser que des trainées diffuses. Vous allez dans ce cas là, privilégier la rue et les bâtiments.
    GH1 Timelapse test with intervalometer from Arthur Kulcsar on Vimeo.

En pratique: le Manuel, le Manuel et encore le Manuel

Un time-lapse étant un assemblage de photos, tout écart entre deux images va sauter au yeux et scintiller. Vous devez donc tuer tous les automatismes de votre caméra.
Pourquoi? Parce que même si vous ne le percevez pas, dans n’importe quelle scène, d’une seconde à l’autre, il y a toujours un changement. Pour comprendre, imaginez que vous soyez en Autofocus sur la scène de rue que nous avons évoquée: chaque nouvelle photo sera mise au point sur un piéton différent. Donc, si vous engagez un automatisme (Ouverture -Iris-, Shutter, ISO…), ce micro changement sera perçu par la caméra qui va donc faire varier un paramètre et adapter ses réglages.
Manual Mode
Au final, vous ne pourrez pas exploiter le résultat. Le seul bémol concerne peut être la Balance des Blancs. Comme la mesure s’effectue différemment (sur un global et sans changement brutaux), ce paramètre peut parfois être laissé en automatique. Quoi qu’il en soit, la procédure à respecter est la suivante:

  1. Je bascule mon appareil en 100% manuel: focus, ouverture, shutter, Iso (Gain)… Je paramètre mon appareil en Live-View, Constant preview afin de voir l’incidence des réglages. Dans le cas d’une caméra, c’est inutile: elle le fait toute seule. Dans le cas d’un DSLR, privilégiez aussi les optiques manuelles: le relèvement du miroir provoque souvent un décalage de l’exposition de quelques millisecondes, ce qui sera visible à la fin.
  2. Une fois que j’ai choisi mon cadre, que j’ai verrouillé mon trépied, je prends une photo de test afin de vérifier totalement la qualité de la photo et de détecter des défauts. Dans le cas d’une caméra, je lance un enregistrement de quelques images pour vérifier les mêmes paramètres. J’ajuste les paramètres si besoin.
  3. Je prépare l’enregistrement du time-lapse (intervalle, shutter…) et je le lance.

Et en post-production?

On ne va pas ici développer les techniques avancées de post-production en RAW etc, mais une fois votre time-lapse réalisé, se pose à vous deux cas de figure. Soit votre caméra a déjà généré le film (cas des GH4/5S, CX350 etc…) dans la résolution souhaitée, soit vous avez enregistré les X images sous forme de photos sur votre carte mémoire. Dans ce dernier cas:

  1. Importez toutes les photos dans un dossier sur votre machine
  2. Dans votre logiciel de montage: importez les images sous forme de « séquence d’image »: elle sera lue comme un film à raison d’une photo par image. Ou alors, si votre logiciel ne supporte pas cette fonctionnalité, indiquez que chaque photo ne doit durer qu’un frame lors de son importation: en les glissant sur votre time-line vous aurez donc un film.
    import-as sequence
  3. Pour une utilisation plus poussée, vous pouvez acquérir un logiciel spécialisé comme LrTimelapse en conjugaison avec Adobe Lightroom. Ce type d’application réservée aux professionnels va permettre d’assembler, de corriger toutes les incohérences d’une images à l’autre et même de jouer sur le format RAW des photos si votre appareil en est capable.

Effet Holy grail, Tilt-Shift, Motion Time-Lapse, Hyperlapse… C’est quoi?

Pour conclure, on va évoquer brièvement différentes techniques dérivées du time-lapse.

1. L’effet Holy grail pour les levers et les couchers de soleil

Cette technique consiste à tourner un time-lapse de la nuit au jour et vice versa. Oui mais voilà, on l’a vu, comme on reste en Manuel, l’exposition va changer de la pénombre au plein soleil. Alors comment faire? Le plus simple, c’est de découper le time-lapse en 4 sections. Dans le cas d’un coucher de soleil, vous lancez la prise en étant légèrement surexposé et dès que vous commencez à être sous-exposé, vous faites une pause et vous réajustez l’exposition. Vous relancez ensuite le second time-lapse. Et ainsi de suite jusqu’à la nuit noire. Au montage, vous ferez se chevaucher les 4 time-lapses avec un simple fondu.

Wellington South Coast New Zealand – Day to Night Time-lapse from Mark Gee on Vimeo.

2. Le Tilt-Shift

Cet effet consiste à prendre des time-lapse d’un point de vue très en hauteur. Avec cette technique les humains tout en bas, vont ressembler à de petites personnages semblables à des jouets. On rajoute aussi du flou en haut de la scène et on sature les couleurs. Le mieux est de voir cet exemple en image:

A (Little) London Christmas – A Tilt Shift Timelapse from Media Hog Productions on Vimeo.

3. Motion time-lapse et hyperlapse

Le motion time-lapse va nécessiter un slider et une tête motorisée qui va bouger d’une position A à une position B dans l’intervalle de temps. Si vous devez prendre 250 photos, le logiciel du slider (qui pilote aussi l’appareil en général) va découper son mouvement en 250 positions et ne bougera qu’entre chaque photo. L’hyperlapse quant à lui, c’est la technique qui consiste à se déplacer entre chaque image tout en gardant un cadre stable. C’est assez dur à maîtriser, mais les nouvelles caméras de sport ou 360° commencent à embarquer nativement cette fonctionnalité.

Berlin Hyperlapse from b-zOOmi on Vimeo.

 

 

 

L’article Time-lapse: le mode d’emploi complet est apparu en premier sur Createinmotion.

[Wiki] Les Proxies: la solution pour monter plus vite ?

Par Sébastien François

Les proxies, c’est tout simplement l’art d’utiliser des fichiers en basse définition pour monter plus vite. Pourquoi? Parce que la résolution des caméras ne cesse d’augmenter et que les codecs de tournage réclament de plus en plus de puissance: les machines de montage ne suivent plus. Alors, utiliser les proxies s’avère de plus en plus souvent indispensable.

Utiliser des Proxies, l’idée est loin d’être nouvelle dans les grandes boites de prod, ou les chaînes de télé. Les fichiers natifs étant extrêmement gourmands en termes de puissance de calcul, il est plus facile de prémonter en basse définition avant de conformer le tout en HD/4K/DCP, voire plus. Mais tout ça semble compliqué de prime abord, alors que la technique s’est largement démocratisée, y compris dans les plus petites structures: les proxies sont désormais automatisés directement dans les logiciels de montage.
Pour résumer, le logiciel transcode les rushes en basse définition et au moment voulu, lors de l’étalonnage ou de l’export, il remplace les clips avec les rushes natifs en y appliquant tous les effets désirés, en pleine qualité.
Mieux, des caméras comme les UX180/PX270 de Panasonic sont tout à fait capables d’enregistrer à la fois le fichier natif pleine résolution et son jumeau en version proxy. Du coup on peut transmettre des images facilement en plein tournage (car elles sont légères), ce qui permet de commencer à monter avant d’avoir le natif en pleine qualité.
Proxy_conversion

La(les) problématique(s)

Pourquoi s’interroger? On tourne, on monte et tout va bien. Oui mais voilà, on a beau avoir une machine de montage de guerre, la puissance est toujours prise à défaut. Du coup, on se retrouve souvent à monter de manière non fluide. Et plus on ajoute d’effets, plus on attend. La faute en incombe aux causes suivante.

  1. L’augmentation de la qualité au tournage se paie au prix de Codecs (COmpressor/DECompressor) toujours plus performants pour occuper moins de place à qualité  égale: c’est le cas H264 et désormais du H265 (HEVC). Du coup, si une puce s’occupe bien d’encoder les images pendant la prise de vue de manière linéaire, il est nettement plus délicat au montage de décoder les images, de leur appliquer des effets, ou de multiplier les flux comme dans le cas d’un Multicam. A chaque arrêt de la tête de lecture, l’ordinateur doit décoder l’image, voire, dans le cas des Codecs Long GOP, de décoder ce qui est avant et après. Ces Codecs nous permettent cependant de faire de la bonne 4K 4:2:2 10 bits à 100 Mbps, ce qui aurait été impensable avant…
  2. D’autre part, malgré l’augmentation de puissance de calcul des machines, il n’est pas toujours possible/nécessaire d’en changer tous les 6 mois pour arriver à monter de manière fluide, c’est à dire sans lag dès que l’on bouge sa tête de lecture. Les performances croissantes des ordinateurs ne suivent pas l’augmentation des besoins en technologie d’image.
  3. Et même dans l’hypothèse plus confortable d’un tournage avec un codec qui réclame moins de puissance, on a alors à faire à des fichiers qui demandent des débits de lecture conséquents au montage, surtout si l’on superpose plusieurs clips. Il n’y a plus alors de problème de puissance, mais de capacité du stockage qui peine à « cracher » les données au bon débit.
  4. Enfin, avec l’avènement de l’immédiateté, notamment en ENG, transmettre des images en pleine définition est encore bien trop lourd sur les réseaux 4G, il faut donc les compresser.

    PX270_proxy

    Les caméras comme la PX270 permettent d’enregistrer à la fois le fichier natif et un Proxy

Des parades ?

  • La première parade a longtemps consisté à utiliser un Codec intermédiaire au montage. L’idée est assez simple: tous les éléments du tournage sont convertis dans le même « format » de montage: le Prores sur Mac, le DNXHD/HR ou le Cineform sur PC par exemple. Plus de prise de tête, tout est fluide. Surtout, ce même Codec peut être utilisé pour le Mastering.  L’inconvénient réside cependant dans le fait que les fichiers sont donc « décompressés » et occupent énormément de place. Pour une carte de 64 Go tournée avec une EVA1, on se retrouve facilement avec 300-400 Go de données une fois le tout converti. D’autre part, cette conversion peut être longue. L’utilisation de cette technique quand on a des heures et des heures de rushes et donc compliquée.
  • Autre alternative, l’utilisation d’un enregistreur externe directement au tournage. Ce dernier va justement enregistrer dans un Codec intermédiaire sur un SSD. Plus besoin de décharger les cartes ou de convertir: on insère que le disque dans un rack et boom, on monte directement dessus. Mais là encore, il faudra prévoir beaucoup de SSD. D’autre part, au tournage, les enregistreurs alourdissent le set-up et ils consomment en général pas mal d’énergie. C’est à prendre en compte lors du projet.
  • La dernière méthode, c’est celle des Proxies. Le workflow habituel est presque inchangé. Vous importez tous les rushes sur votre machine et vous indiquez au logiciel de montage de créer des « copies » en proxy. D’un simple « switch » sur la Time-Line, vous passez de la version pleine définition à la version allégée. Les mêmes effets seront appliqués aux deux entités. Contrairement au Codec intermédiaire, la conversion est ultra rapide et le poids très léger. Mieux, dans le cas de caméras qui génèrent elles-mêmes des proxy, il suffit alors « d’attacher » les deux médias ensemble. Plus besoin de conversion. Le fait de pouvoir switcher d’un clic entre les deux versions permet de travailler alternativement sur le natif (pour un étalonnage précis) ou sur la version Proxy pour monter très, très vite. Cette méthode permet aussi de prolonger la durée de vie d’une machine vieillissante: le seul gros calcul demandé sera celui de l’export final.

Proxy: quelques pièges

  • La première chose à savoir, c’est qu’il faut être organisé et ranger les proxies à côté de vos rushes natif sous peine de se mélanger les pinceaux entre les médias.

    Proxy_organisation

    Il faut être organisé pour gérer les Proxies.

  • Ensuite, il faut, quand le logiciel vous laisse le choix de bien sélectionner des paramètres qui seront conformes aux fichiers natifs (même ratio d’image, même cadence…) et simplement changer la résolution et le codec pour avoir des fichiers légers. Il faut prendre garde aussi à la gestion des métadonnées qui peuvent être inclues dans le fichier natif (Time-code…)
  • Enfin, il faut faire attention aux manipulations temporelles: exemple, si avant de générer vos proxies, vous avez conformé un rush de 25 à 24P par exemple, assurez-vous que le proxy sera bien en 24p sous peine de générer des décalages sur la Time-Line. Bref, il faut être attentif.
  • Certains utilisateurs se trompent de Codec et se retrouvent parfois avec des Proxies plus lourds que les originaux. Prenez-bien garde à ce piège.

Les Proxies dans les logiciels de montage

Avec Premiere Pro:
Comme toujours avec Premiere, ça aurait pu être simple, mais c’est finalement compliqué, mais uniquement la première fois. Par défaut, le logiciel ne dispose que de quelques Presets pour générer les Proxies et il ne sont pas forcément adaptés. Il faut créer les votre une bonne fois pour toute.

  • Lancez Media Encoder et dans le volet Presets, cliquez sur + pour créer une Préconfiguration d’export, car on ne peut pas directement personnaliser un Preset « d’ingest »…
  • Nommez le Preset, puis choisissez un Format (Quicktime par exemple), personnalisez le Codec (par exemple, le Prores Proxy ou le Gopro Cineform YUV 10 bits).
  • Personnalisez la qualité (en l’abaissant au minimum) ainsi que la résolution: 960 X 540 pixels est un bon compromis.
  • Laissez le reste des paramètres sur « en fonction de la source » et enfin, décochez « rendre à la qualité maximale ». Vous pouvez sauver le Preset en le nommant le plus précisément possible (Proxy 960 – Prores – export…)
  • Mais ce n’est pas fini. Créez cette fois-ci un Preset d’Ingest. Choisissez le même format (Quicktime dans notre exemple). Et donnez le même nom que précédemment, mais cette fois-ci ajoutez « Ingest » pour bien le différencier.
    Premiere Pro Ingest
  • Choisissez ensuite l’option de « conversion de medias » (et rentrez une destination sans importance). Et c’est là que vous allez pouvoir choisir le Preset que vous avez créé pour l’export. Sauvez le tout en validant.
  • Mais ce n’est encore pas fini!!! Dans la liste des Presets, sélectionnez la préconfiguration que vous venez de créer et utilisez la commande « faire apparaitre le fichier… » pour savoir où il a été enregistré.
  • Enfin, dans Premiere Pro: importez vos rushes, sélectionnez les tous, et d’un clic-droit/Proxy (doublures en français…), choisissez « Créer ». Dans la boite de dialogue affichée, vous allez désormais importer votre Preset d’ingest grâce au chemin de l’endroit où il a été enregistré.
    Adobe Premiere Pro CC 2019 Proxy
  • Ouf, c’est enfin fini et vous n’aurez à faire cela qu’une fois, le Preset apparaissant pour toujours.

Nous vous recommandons donc de créer un jeu de Presets dès le départ pour ne pas avoir à refaire cette pénible manipulation. Car au montage, ensuite, c’est très très simple: il suffit de cliquer sur le bouton « Proxy » dans le moniteur de Programme pour passer d’une version à l’autre. Mais c’est effectivement ce genre de défaut ergonomique que nous évoquions dans notre test de Premiere Pro 2019. Le seul avantage étant qu’au moins, tout est personnalisable et que Premiere est aussi capable de « d’attacher » les Proxy d’une caméra sans les générer lui même. Et ce n’est pas le cas de tous les logiciels.

Avec FCPX:

Alors là, c’est exactement l’inverse: vous n’aurez aucun choix, mais vous n’aurez rien à faire non plus! Il suffit de sélectionner les médias et de choisir de générer des proxy d’un clic-droit/transcoder/media/proxy.
FCP_01_proxy
Dans le menu Présentation du moniteur de Programme, il vous suffit, comme dans Premiere Pro, de Switcher entre medias originaux et Proxy. Enfantin, même si tous les médias seront transcodés obligatoirement en Prores Proxy.
FCP02_proxy

Avec Resolve:

Là encore, c’est assez simple: il suffit de choisir dans les préférences générales le type de Proxy à générer (dans Resolve, ils sont appelés « Optimized Media »).
resolve proxy_01
Ensuite, comme dans Premiere, on sélectionne les medias à transcoder. Enfin, il suffit dans le menu Playback, de sélectionner « Use Optimized Media if available ». C’est aussi simple que celà.
resolve proxy_02

Pour conclure

On vient de le voir, les Proxies offrent bien des avantages mais vous devez toujours vous demander si bénéfice en vaut la chandelle.
Si vous avez un montage simple, avec peu d’effets, et que la machine « laggue » un peu, il peut être plus intéressant de ne pas transcoder (ce qui prend du temps et de l’espace), quitte à souffrir un peu.
Si vous allez travailler sur un film en RAW avec des heures de rushes, là, la question ne se pose pas: vous intégrerez simplement ce temps de transcodage dans votre projet afin de pouvoir travailler ensuite de manière parfaitement fluide. Tout dépend donc du type de projet, de la puissance disponible et de la post-production qui sera prévue.

 

 

 

 

L’article [Wiki] Les Proxies: la solution pour monter plus vite ? est apparu en premier sur Createinmotion.

24P/25P/50P/ 50i… Quelle cadence d’images choisir ? #la fin des idées reçues

Par Sébastien François

La cadence d’images est absolument déterminante dans les choix techniques de vos projets. Problème, entre idées reçues, archaïsmes, et confusions, on est souvent perdus. On va donc ici faire un point technique pour vous aider à choisir la bonne fréquence… Et tordre le cou à certains préceptes historiques.

Et pour commencer, la cadence d’image (Frame Rate), c’est quoi ?

framerate_01

Pour faire simple, voilà une illustration qui symbolise les différences entre les cadences d’image sur 1 seconde.

La cadence d’image de captation, c’est tout simplement le nombre d’images qui sera capturé et donc enregistré dans l’intervalle d’une seconde. Autrement dit, on va parler de « 25/50P » pour signifier 25/50 images « Progressives », c’est à dire « pleines » par seconde, de « 24P » ou encore de « 50i » (pour Interlaced, soit entrelacées). Ces cadences qui nous sont communes, peuvent cependant être modifiées selon n’importe quelle valeur – en fonction de votre caméra – (de 1 image par seconde à plusieurs milliers d’images par secondes), car elle sont toujours à mettre en relation avec la cadence d’image de diffusion ou de lecture. En Europe, il s’agit en général de 25 images par seconde.

Pour faire simple, si vous décidez d’enregistrer 1 image par seconde et que vous lisez le tout à 25 images par secondes, vous aurez un accéléré de X25 (1×25), comparable à un Timelapse. A l’inverse, 100 images par seconde lues à 25 images par secondes donneront un ralenti de X4 (100/25), c’est à dire du Slow-Motion. Et donc communément, on se contente de tourner à la même fréquence d’image que celle qui est prévue pour la diffusion: mais on peut décider de sortir des sentiers battus pour s’affranchir de certaines limites.

La cadence d’image: histoire et perception de l’œil

Historiquement, la cadence d’image, c’est une succession de photos prises sur une seconde, qui sont là pour donner naissance à l’animation. L’animation, c’est faire en sorte que notre œil n’est plus le « temps » de voir qu’il s’agit d’une suite d’images fixes. C’est donc une « illusion » liée à la rémanence rétinienne.
BELL & HOWELL 2709_
Au début du cinéma muet, nous étions à une cadence située entre 14 et 20 images/s car elle dépendait de la vitesse de rotation de la manivelle de l’opérateur! C’est ce qui donne cet aspect saccadé: notre oeil perçoit la suite d’image.

Au moment du cinéma parlant, on a collé une bande magnétique sur la pellicule. Mais le problème, c’est qu’à cette cadence -faible-, on n’arrivait pas à enregistrer la voix correctement. Il a donc été décidé que la cadence de 24 images par seconde était le parfait compromis entre restitution sonore/saccades limitées à l’image et surtout prix de la pellicule (extrêmement onéreuse à l’époque). Là est née cette cadence historique dont on pourrait pourtant, 100 ans plus tard, s’affranchir.

Le « 50 » est quant à lui, né de la télévision qui fonctionne… A l’électricité. En Europe, la fréquence du courant est de 50 Hz et comme la télévision cathodique est constitué d’un faisceau électrique qui balaie l’écran de haut en bas, on a décidé d’envoyer 50 demi images (entrelacées) pour que ce faisceau ait le temps de balayer l’écran de haut en bas entre deux images (et 2 deux signaux de courant alternatif) : à l’époque, on ne savait pas envoyer des images « pleines », ou procéder autrement.

Entre temps, tout a changé puisque qu’entre la numérisation des caméras et surtout la révolution de l’affichage (écrans plats qui peuvent supporter des images pleines…), on est capable -théoriquement- d’envoyer n’importe quelle cadence d’image, vers n’importe quel périphérique.  Oui, mais voilà, vous allez entendre que le Cinéma, c’est forcément en 24P, que la télé, c’est obligatoirement du 50i et que le 50P, ça ne sert qu’à faire des ralentis. Que tout ce qui est en « 50 » donne une texture « vidéo » aux images et donc, que ce n’est pas « Cinéma » avec son « flou de mouvement »  (motion Blur)…  Et bien, tout cela est assez largement faux.

Pourquoi choisir telle ou telle cadence d’image plutôt que de rester sur la valeur de diffusion?

A priori, aucune, à moins de vouloir produire des ralentis ou des accélérés (la fonction VFR Variable Frame Rate chez Panasonic). Mais pourtant, n’importe quel réalisateur a au moins été confronté au moins une fois à question suivante: pourquoi mon panoramique est-il saccadé à la lecture ?
La réponse, c’est que vous avez choisi une cadence trop faible (24/25 image par seconde). La caméra effectuant un grand mouvement, chacune des 24/25 images dans la seconde est trop différente de la suivante pour berner notre vision: nous percevons les saccades. Ce qui est très désagréable. En effet, chaque cadence offre ses propres avantages et inconvénients que nous allons lister. L’influence sur votre rendu d’image est conséquent, mais pas autant qu’on peut le croit:

  • 24P: Standard cinéma historique
    • avantages: on peut tout tourner en 24P sans avoir à conformer si l’on diffuse dans une salle de cinéma. Certaines caméras n’offre la résolution « C4K » (4096 x 2160) qu’à cette cadence d’images. Sinon, elles se cantonnent à l’UHD. Le 24P est aussi le seul à être universel entre PAL et NTSC.
    • inconvénients: nombreux! Impossible de faire des mouvements de caméra rapides sans saccade. Tout aussi impossible de tourner des scènes d’action « précises »: il y aura trop de « saccades » de mouvement. Difficulté à se conformer à la fréquence des lumières (50 Hertz en Europe 60 Hertz aux Etats-Unis) car le 24 n’est pas un multiple de la fréquence avec la règle des 180d (qui donne un shutter à 1/48ème).
  • 25P: Standard européen pour de nombreuses chaînes TV
    • avantages: c’est un format bon à tout faire puisqu’à une image près, le rendu est strictement le même que celui du cinéma. C’est un multiple du fameux 50Hz pour gérer le Shutter (et donc les lumières artificielles).
    • inconvénients: là encore, impossible de faire des mouvements rapides sans saccade.
  • 50P: Nouveau format depuis quelques années, supporté sur le Web en diffusion.
    • avantages: tout est précis et l’on peut tourner sans saccade. On peut aussi utiliser cette cadence pour produire des ralentis quand on le conforme en 25P par exemple.
    • inconvénients: on utilise plus de données car on enregistre 2X fois plus d’images qu’en 25P. Les chaines de télévision ne supporte pas (encore) ce format. Le rendu est sensé être moins « cinéma » car l’image est trop précise, mais l’on verra après que cette idée est fausse: tout se joue avec le shutter (vitesse d’obturation).
  • 50i: Ancien/encore actuel standard de diffusion TV en Europe
    • avantages: il est toujours supporté (voir demandé) par presque toutes les TV. Pas de saccades.
    • inconvénients: Le rendu est vraiment « vidéo » car on enregistre 50 demi-images qui se chevauchent par trame (c’est l’effet de peigne que l’on voit quand on fait un arrêt sur image). Il est donc déconseillé de l’utiliser au tournage: mieux vaut conformer en 50i à la livraison si c’est demandé.
  • Cadences supérieures (100/120/240 et +, images par seconde)
    • avantages: utilisé pour produire des ralentis. Certains films sont presque entièrement tournés à 120 i/s (quitte à revenir à la vitesse normale au montage ) pour laisser la possibilité d’effectuer des ralentis.
    • inconvénients: la quantité de lumière nécessaire. Le shutter ne pas être descendu sous la cadence d’image. La gestion des lumières artificielles est problématique (flickering) car on tourne plus « vite » que la fréquence du courant électrique. L’image est souvent limitée à la 2K…A moins de passer sur du très très haut de gamme. Et bien sûr la gestion du son.

La vitesse d’obturation, coupable de toute les confusions

Les dogmes sont tenaces car souvent basés sur le fameux rendu cinéma très apprécié (flou de mouvement, faible profondeur de champ pour résumer) et que l’on applique la fameuse règles des 180° (qui consiste à utiliser une vitesse d’obturation double de celle de la cadence d’image). Ceci pour obtenir un bon compromis entre « précision et flou ».

24P-STR48

un film en 24P shooté à 180° de shutter (soit 1/48ème)

 

 

 

50P-STR50

La même scène shootée en 50P avec un shutter au 50ème. La flou de mouvement est le même.

Le problème, c’est que cette règle est aussi souvent appliquée avec les « nouveaux » format comme le 50P. Autrement dit, on utilise alors un shutter à 1/100ème. Ce n’est pas toujours opportun. Doubler le shutter revient à demander 2X plus de lumière puisque le capteur sera 2X moins exposé. Et ce là limite le flou de mouvement. C’est ce qui donne cet effet « chirurgical » à ce type d’images.

24P STR 96

24P à 90°, le flou de mouvement disparait. Le motion blur doit tout au shutter.

50P STR100

Au 100ème de seconde en 50P, le flou de mouvement est atténué. On a le même résultat qu’en 24P à 90°.

Si vous tentez de tourner en 50P à 1/50ème, vous allez voir que le flou de mouvement est le même qu’en 24/25P, mais que le rendu sera légèrement différent, car il y a 2x plus d’images et donc, plus de fluidité. Et non, tous les films ne sont pas tous tournés en 24P. Le Seigneur des Anneaux en est un excellent exemple sans pour autant que vous ayez l’impression de regarder la TV. Il faut donc se sentir libre de choisir sa fréquence et son shutter en fonction de son projet. Et se poser les bonnes questions.

Alors, finalement, quelle cadence utiliser?

  1. Toujours se demander quel sera le media de diffusion final:
    c’est ce qui va grandement déterminer votre cadence d’image. Internet? tout est possible. La TV? on va partir du 25/50P ou du 50i (ou du 25/50P que l’on conformera en post-production en 50i… )
  2. Se conformer à la fréquence du courant du pays dans lequel on tourne pour choisir son Shutter:
    sauf à tourner en pleine nature, vous serez toujours ennuyés par l’éclairage artificiel et le « flickering ». Autrement dit, si je tourne au Etats-Unis et que je vais diffuser en France, je vais utiliser un shutter au 60ème de seconde (pays 60Hz) et utiliser une cadence d’image de 25/50 images par seconde par exemple. Si je tourne en France et que je diffuse aux USA, je vais prendre un shutter au 50ème et tourner en 30P.

    exemple de flickering à 180 fps et ensuite avec un shutter au 48ème sur la lumière 50Hz.
  3. Faire son propre choix artistique en fonction de ce que l’on va tourner.
    Un match de foot ? Une cadence élevée et un shutter rapide. Un court métrage? Un shutter plus lent etc…
  4. Envisager la post-production.
    Un des problèmes fréquents qui se pose, c’est de devoir mélanger plusieurs fréquences d’images sur la même Time-Line. Exemple, un drone qui ne fait que du 30P alors que vous montez en 24P le reste de vos scènes. Ou alors mélanger des Interviews en 24 et 25P. Tous les logiciels de montage ne sont pas égaux dans ce domaine: certains vont tout simplement « sauter les images en trop » (30 au 24P, ce qui crée des saccades), d’autres vont créer des images manquantes par « mélange » (blending inesthétique). Les derniers vont analyser toute une séquence pour recréer de « vrais images » suivant un processus très long. Il faut donc toujours tout envisager au préalable, surtout si vous prenez du son. Un son 30P conformé en 24 va, par exemple être accéléré. Ceci sera donc à corriger. Il faut donc tester, tester avant de pouvoir faire ses propres choix.

 

 

 

L’article 24P/25P/50P/ 50i… Quelle cadence d’images choisir ? #la fin des idées reçues est apparu en premier sur Createinmotion.

Les « Scopes » (Histogramme, Waveform…): comment s’en servir? Et pourquoi?

Par Sébastien François

En tournage ou en post-production, les « scopes » sont des outils dont il faudrait se servir au maximum. Problème, ils sont durs à décoder: quelle assistance afficher et surtout, dans quel but? Histogramme ou forme d’ondes? Autant de questions que nous allons traiter, outil par outil. Car leur aide est précieuse et vont au delà de ce qu’on « voit » à l’écran.

En tournage télé, vous verrez toujours un « ingénieur vision » accroché à son pupitre de contrôle, à déchiffrer des moniteurs qui affichent des formes d’ondes, des sinusoïdes et d’autres affichages qui font plus penser aux instruments de lancement d’une fusée Ariane, qu’à une image vidéo. Ce sont ces outils qui lui permettent de tout corriger pour envoyer une image parfaite. Ces outils, on les retrouve pourtant partout: sur les caméras tout comme dans tous les logiciels de montage. Pourquoi? Parce qu’ils sont les seuls à analyser tous les pixels d’une image sur la base de signaux électriques, bien au delà de ce qu’on peut voir dans le cadre caméra, avec notre « simple » vision. Les conditions de tournage (luminosité, nécessité d’être rapide…) peuvent laisser échapper des détails. D’autre part, il se peut très souvent que le moniteur utilisé ne soit pas bien calibré et rende donc des couleurs ou une exposition erronée. Pour toutes ces raisons, on va tenter d’utiliser ces outils au tournage et en post-production pour éviter les erreurs, ou pour étalonner correctement.

Mais tout d’abord, une parenthèse théorique

additive model subtractive model

Le modèle de couleur additif, comparé au modèle soustractif.

Ici on voit les deux grands modèles de couleurs. A gauche, le modèle RVB (Rouge, Vert Bleu), dit additif, utilisé par tous les écrans, les télés, bref, tout ce qui produit de la lumière. Et à droite le système soustractif utilisé pour l’impression (la lumière est « reçue » par le support). Dans ce dernier cas, si on mélange toutes les couleurs primaires (Cyan, Magenta, jaune), ça nous donne du noir sur le papier. A l’inverse, pour l’imagerie « électronique », si on additionne l’électricité des primaires, on obtient le plus de courant possible: ce qui nous donne le blanc absolu. C’est un peu comme allumer un ampoule au maximum de sa puissance. Et quand il n’y a pas de lumière, on a zéro volt, donc du noir. Pourquoi évoquer ce modèle? Parce que c’est pour comprendre que dans toutes les représentions des outils dont nous allons parler, tout sera basé sur une quantité d’énergie. C’est cette quantité, qui sera parfois segmentée en couleur, qui sera interprétée graphiquement pour nous aider.

1- L’histogramme: le plus connu mais peut être le moins utile

Histogram-explanation_01

L’histogramme ne concerne que la luminance d’une image. Source « B&H photo video »

L’histogramme, c’est la représentation du nombre de pixels (axe vertical) situés dans un zone de luminance, de gauche (le noir) à droite (le blanc). Pour résumer donc, si vous voyez une grosse montagne à droite, votre image sera très claire. Côté gauche, elle sera très sombre. Et si la montagne a un sommet plat, c’est que vous avez du blanc ou du noir absolu. Problème, cette représentation n’est pas en corrélation avec la composition de votre cadre: si votre zone surexposée est en haut de votre cadre (un ciel par exemple), la montagne sera toujours à droite de l’outil, ce qui rend son interprétation assez délicate pour transposer vos éventuelles corrections. Regardez si dessous, ces deux exemples:

Histogram-explanation_0.

L’image est surexposée

 

Histogram-explanation_02

L’image est plus équilibrée.Comme elle demeure très blanche, la majorité de la représentation reste sur la droite: mais on devine les rideaux (au milieu), et le jeans à (gauche) de la représentation.

Il faut donc tenter de ne pas avoir de « sommets plats », et essayer d’avoir un répartition la plus homogène possible.

2- Le moniteur de forme d’ondes (luminance): l’outil le plus polyvalent

Le moniteur de forme d’onde, c’est un peu un super-histogramme, avec deux différences majeures qui le rendent bien plus efficace. Tout abord, c’est l’image qui est représentée de gauche à droite (c’est à dire le vrai cadre) et d’autre part, l’échelle de l’axe Y à gauche (vertical), va représenter la valeur de luminance. A 0 c’est noir, à 100, c’est blanc (sans rentrer dans les détails d’espaces colorimétriques ou de types d’afficheurs). Pour mieux comprendre, regardez cette image:
C:\Users\Windows\Desktop\CiM\Scopes_Docs\02_Waveform_luminance_01.png

Elle est surexposée à gauche du cadre. On retrouve donc bien l’indication de cette surexposition sur le moniteur de forme d’ondes, là encore à gauche, puisqu’on atteint les 100 IRE (Institute of Radio Engineers, qui a défini la norme). Ce qui n’était pas aussi visible lors du tournage. En revanche, pas de problème avec les noirs sur toute l’image. Regardons maintenant, une image mieux exposée:
02_Waveform_luminance_02

Ici, on a récupéré les fenêtres du bâtiment de gauche. Il n’y a plus, dans l’image, de « pixels brulés ». On doit donc utiliser cet outil très facilement « interprétable », pour contenir les valeurs d’exposition entre la barre haute et le bas. Mais il y a plus fort, car cet assistance peut aussi être utilisée avec en couleur.

3- Le moniteur de formes d’ondes RVB (RVB  Waveform Monitor): l’expo ET la balance!

Prenons notre moniteur de forme d’ondes en luminance et ajoutons lui de la couleur. Autrement dit, il va afficher les quantités de rouge, de vert de bleu, suivant la même échelle. Ceci va donc nous permette de voir très facilement si une couleur est surreprésentée par rapport à une autre. Mais aussi de juger, comme précédemment, de l’exposition. L’échelle de l’axe Y étant la même, on ne peut pas dépasser le « 100 » symbolique. Encore une fois, regardons cette image:

03_Waveform_RGB_01
On voit que le rushe présente une dominance rosée dans les blancs. Le phénomène est bien plus visible sur le moniteur de forme d’ondes RVB: les murs constituent le plus gros défaut, puisqu’ils sont sensés être blancs. On constate une surreprésentation du rouge. De même que l’image est en fait surexposée. Regardons la version corrigée:

03_Waveform_RGB_02

Ici, ce qui est sensé être blanc, sur le mur de gauche, montre des valeurs RVB qui se confondent. C’est normal, l’addition des trois couleurs primaires donne le blanc, d’où le modèle « additif » dont nous avons parlé. L’escalier, marron, montre « plus de rouge » (normal, puisqu’il est marron), et le mur de droite affiche lui aussi correctement les RVB confondus, d’où le blanc. A noter qu’on peut aussi afficher ces valeurs sous formes de « parade »: c’est à dire, les trois couleurs primaires côte à côte comme le montre cet exemple:
03_Waveform_RGB_03
On peut donc doser parfaitement les trois couleurs pour obtenir une image parfaite.

 

4- Les fausses couleurs (false colors): mieux que les zébras!

On pourrait comparer les « fausses couleurs » à une camera thermique, sauf que l’outil va réagir à l’exposition (luminance) et non pas à la chaleur. Contrairement aux zebras qui « rayent à l’image » tout ce qui dépasse un valeur IRE que vous aurez déterminée, les fausse couleurs, vont suivre une échelle. Le rouge montrera par exemple tout ce qui dépasse 100 IRE, mais vous aurez droit à toutes les nuances, et vous pourrez vous en servir notamment pour l’exposition des tons chair (Skin tones). Examinons cette exemple: 04_Falsecolors_01

Comme on le voit, l’image est brûlée, elle est rouge dans sa grande majorité et tous les détails sont perdus. Plus important, faute de dynamique, on peut décider de préserver le visage du sujet. Mais il est aussi surexposé alors que les tons chairs devraient être entre 40 et 50 IRE (vert): c’est la différence avec les zébras qui n’auraient montrés que le ciel brulé. Ici, on a droit à une échelle de valeurs.

04_Falsecolors_02

Voilà la version corrigée: on retrouve les détails de la ville en contrebas et surtout, le visage du modèles n’a plus de zones rouges. Les fausses couleurs permettent d’avoir une très bonne visualisation graphique de l’exposition. C’est un des outils les plus simples. Malheureusement, la fonction est rarement disponible sur les caméras à moins de toucher le haut de gamme (VariCam…). Mais tous les moniteurs externes (SmalHD…) en disposent.

5-Le Vectorcope: pour les couleurs… et les visages!

C’est un outil précieux est assez unique: il va se concentrer sur la saturation des couleurs en oubliant complètement toute forme de luminance. Les différentes teintes sont représentées autour d’un « cercle ». L’affichage des couleurs ira du centre (zéro saturation) vers l’extérieur (100% de saturation, à la limite de l’outil) suivant un angle donné par les couleurs. C’est un peu comme une boussole de marin, avec un attribut de « puissance ». Mais l’intérêt est ailleurs: les teintes chairs (skin tones) ont toutes la même référence, avec un angle bien précis qui est affiché par le vectorscope. Du coup, il devient très simple de bien valoriser un visage en rapprochant les valeurs de cet angle précis, symbolisé par une ligne. Regardez les exemples ci-dessous, volontairement faussés pour la compréhension.

05_Vectorsope_01

Ici, l’image est magenta et s’éloigne de la ligne à -40°(environ)-(entre le rouge et le jaune), il est évident que les skintones sont mal rendus… Mais sur l’exemple ci-dessous…
05_Vectorsope_02

…On arrive à un rendu parfait des tons chairs, simplement en se fiant à l’outil.

 

 

 

L’article Les « Scopes » (Histogramme, Waveform…): comment s’en servir? Et pourquoi? est apparu en premier sur Createinmotion.

V-LOG, comment bien exposer ses images?

Par Alexandre Médan
Tourner en V-Log, c’est excitant. La promesse sur le papier, c’est d’étendre la dynamique de la caméra et d’avoir une latitude d’étalonnage bien plus forte en post-production. Oui, mais voilà, le V-Log, il faut le maîtriser parfaitement au tournage, sans quoi, la désillusion est totale: la génération de bruit involontaire est le principal écueil à éviter. Le secret, c’est donc de bien exposer, mais aussi de faire des choix.

Une vidéo tournée en Log, n’est pas regardable en l’état. Elle apparait délavée et plate. C’est normal puisque l’objectif étant de conserver un maximum d’informations du capteur afin d’avoir l’image la plus « malléable » possible en post-production, la caméra va « désactiver » un ensemble d’opérations qu’elle effectue d’habitude toute seule. Surtout elle va employer une courbe de transfert Logarithmique (d’où le Log), pour retenir le maximum d’information du capteur. Cette courbe a l’avantage d’aller « chercher » tous les détails de l’image, mais elle a pour gros inconvénient de ne pas être optimisée pour notre vision et surtout, d’être bien plus exigeante en terme d’exposition. Elle méritera aussi bien plus de travail de post-production. A la clé cependant, une image bien plus détaillée, et bien plus « ciné ».

Vlog_versus_natural Vlog_versus_Natural_Zoom

Le V-Log, pas fait pour regarder, bon à retravailler.

La plupart des courbes de gamma internes des caméras (les profils comme « naturel », « standard »… chez Panasonic), sont conçues pour montrer à l’écran ce que perçoit notre vision. Pratique, car l’image est flatteuse, mais il existe un énorme inconvénient: la dynamique de l’image est plus réduite. Pourquoi? Parce que la courbe va privilégier les informations les plus « visibles » (et souvent, celles dont la luminosité est médiane comme les skin tones). Conséquences, les pixels sombres et les pixels très exposés sont assez mal lotis.Du coup, les ombres sont souvent détériorées (noirs écrasés), si vous essayez de les corriger en post-production, vous verrez l’apparition du phénomène de « Banding » (des aplats très vilains). L’avantage du VLOG-L est que la répartition des « bits » disponibles pour les pixels lumineux et les pixels sombres est beaucoup plus équilibrée. Les zones claires et « moyennes » disposent du même nombre de nuances de gris enregistrées, et même si les zones sombres en ont légèrement moins, elles en ont toujours nettement plus qu’en utilisant une courbe de gamma conventionnelle qui elle va bien plus ressembler à un « S ».

La courve V-Log de la Varicam

La courbe V-Log de la VariCam: on voit bien que les information sont assez bien réparties.

En conséquence le VLOG- est un mode adapté à l’enregistrement, mais pas vraiment à la visualisation. Mais ceci pose un énorme problème: comment correctement exposer et faire une bonne balance des blancs sur une image aussi « flat » (plate)?

V-Log, injecter une LUT dans la caméra ou le moniteur

Au début de l’arrivée du Log, on était bien embêtés: pas de moyen de visualiser en temps réel l’application d’une LUT (Look Up Table) pour traduire l’image grisâtre en quelque chose de visible et qui permettrait donc a minima de vérifier que les couleurs sont à peu près bonnes, tout comme l’exposition. La LUT est une manière d’interpréter l’image et c’est un peu la première étape en post-production. Depuis, les choses ont bien changé. GH5(S), EVA1 ou les VariCam pour ne citer qu’elles permettent de charger des LUT et d’activer/désactiver leur interprétation. Il en va de même pour la plupart des moniteur externes. Et ça peut aider bien sûr, mais ce n’est pas une solution ultime car cette fonction applique de façon automatique une courbe de gamma donnée, dont le résultat peut tout à fait ne pas correspondre à la façon dont on aurait retravaillé ses images manuellement. C’est donc une prévisualisation que l’on pourrait qualifier de « raisonnable », mais à laquelle on ne doit pas totalement se fier dans la mesure où  l’on aurait pu faire des choix d’étalonnage très différents.

Vlog_InCameraLut01

L’image en V-LOG-L d’une GH5 et l’injection de la LUT de base de Panasonic (Rec709)

Alors, comment bien exposer ?

Mais revenons à l’exposition. Il est nécessaire d’utiliser les zébras, l’oscillo et l’histogramme pour la maîtriser en VLOG, mais il ne faut pas le faire de la même façon que sur un tournage avec une courbe de gamma quelconque. En effet, les niveaux qui peuvent nous être familiers (70 IRE pour les tons chairs et 100 IRE pour les hautes lumières par exemple) ne sont tout bonnement pas adaptés au VLOG: pourquoi parce que la courbe ne suite plus les mêmes valeurs de « S » en fonction de l’expo.

Un exemple tout simple avec le GH5 et le VLOG-L, les très hautes lumières vont commencer à apparaître dans les zébras et sur l’oscillo, vers 80 IRE, et rien au-delà de 81 IRE ne sera visible, jamais. Même en ouvrant l’iris à son maximum et en pointant la camera vers le soleil, on ne verra jamais rien au-delà de 81 IRE. C’est tout à fait normal : le VLOG a été conçu à l’origine pour la VariCam qui dispose d’une plage dynamique de 15+ stops. Le VLOG-L traite les ombres et les tons moyens comme le VLOG, mais dans une limite de 12 stops, donc avec une limite à 80 IRE. La VariCam elle aura des références différentes: on le voit, chaque Log a ses particularités.

Vlog-L light

Les distribution de la dynamique d’une GH5. Source: https://wolfcrow.com/

Ça peut sembler un peu limité mais en fait il n’en est rien car il est possible d’utiliser les mêmes LUTs que celles de la VariCam puisque la répartition des gris est la même pour le VLOG-L et le VLOG. Il faut comprendre les niveaux et les limites du capteur à respecter et pour faire court, il faut intégrer qu’il n’est pas possible d’exposer des tons chair à 70 IRE ou des gris moyens à 55 IRE en VLOG-L. Ces niveaux vont devoir être nettement plus bas.

1- L’exposition à droite (Exposure To the Right), une vraie bonne idée?

Cette technique implique l’utilisation de l’histogramme. Cet outil montre la répartition de la luminosité dans l’image et plus l’image tendra vers les hautes lumières, plus la courbe de l’histogramme se déplacera vers la droite. Les promoteurs de cette technique considèrent que les tons les plus foncés et les ombres sont les zones les plus bruitées d’une image et qu’en faisant sortir une image de la zone sombre il est possible de mieux la retravailler en post-production. Autrement dit : plus on expose à droite, plus on profite des capacités du capteur et surtout, plus on va pouvoir obtenir une image détaillée. Souvenez-vous de ce dont nous parlions sur la répartition des bits : les hautes lumières et les tons moyens se voient allouer le même nombre de bits (c’est-à-dire d’information) alors que les zones sombres en ont moins à disposition. Donc moins l’image n’a de zones sombres plus son contenu sera détaillé, et rien n’empêchera plus tard de l’assombrir de nouveau. Cette technique souffre d’un gros inconvénient: elle implique énormément de travail en post-production pour rééquilibrer toutes les images et elle peut plus facilement nécessiter un débruitage long et pénible.

2- Le gris 18%, l’oscillo, les zebras et les « Falses colors », vos meilleurs amis.

x_rite_colorchecker_passportLes systèmes vidéo font souvent référence aux « gris moyens » ou aux « gris 18% ». Le gris 18% est un standard en vidéo et en photographie, il s’agit d’une nuance de gris qui reflète 18% de la lumière qu’elle reçoit. Elle est très souvent utilisée sur les cartons de test et il est très facile de s’en procurer dans les magasins spécialisés. Une réflexion de 18% représente la réflectance moyenne d’une scène moyenne, d’où le fait que l’exposition automatique d’une caméra est souvent conçue pour exposer correctement les zones de l’image dont la réflectance est d’environ 18%. En utilisant cette technique d’exposition, vous trouverez que l’oscillo et les zébras sont bien plus utiles que l’histogramme.

Contrairement un une courbe de gammas conventionnelle, et pour reprendre l’exemple du VLOG-L, ce dernier n’expose pas les gris moyens à environ 50 ou 55 IRE. Il les exposera en réalité à 42 IRE, donc avec un gris moyen, il vous faut le voir apparaître sur votre oscillo à environ 42 IRE pour une exposition « propre », c’est-à-dire standard.

Pour information, voici les niveaux de réflectance du mode VLOG-L :
0%  de réflectance (noir) : 7,3 IRE
18% de réflectance (gris moyens) : 42 IRE
90% de réflectance (blanc) : 61 IRE
Super blanc absolu : 80 IRE

Oscillo-exemple

Sur cet exemple, l’oscillo montre une sous-exposition: pour être bien, je devrais atteindre mes 80 IRE dans les blancs.

Cependant, exposer pour un mode gamma logarithmique n’est pas toujours aussi simple que de mettre un carton à 18% dans le décor et d’exposer à 42 IRE. On peut donc parfois se demander si un équilibre judicieux entre la technique de l’exposition à droite et celle de l’exposition des gris moyens, même si ça peut s’avérer compliqué, ne serait pas la meilleure solution. Finalement tout dépend des compromis que l’on est prêt à accepter. C’est pour cette raison, que pour chaque caméra, vous devez utiliser en conjonction: l’injection de la LUT de base (ou de celle que vous utiliserez en post-production si vous être sûrs de votre coup et voir le bruit généré), l’oscillo afin de visualiser vos valeurs, mais aussi les Zebra afin d’avoir une « alerte directe » sur l’écran quand vous cramez les informations.
Les fausse couleurs (false colors), sont une autre représentation qui donne des couleurs relatives à l’exposition suivant une échelle, comme le montre cette image.

false colors

L’utilisation de tous ces outils vous permet de « savoir » dans quelle zone IRE les informations seront les mieux traitées pour chaque caméra. Et surtout cela va vous permettre de faire des choix de réalisation. Devez-vous privilégier exceptionnellement un arrière plan? Ou plus conventionnellement un sujet? Faut-il rapporter de la lumière pour homogénéiser le tout? A partir de quand génère-t-on du bruit qui sera difficilement traitable en post-production? De là se dégageront des « règles » pour chaque machine.

Un mot sur les LUTs


Les LUTs (Look Up Tables) sont utilisées pour l’étalonnage, pour expliquer à un moniteur comment afficher correctement une valeur qui a été encodée de façon logarithmique. Les LUTs sont devenues assez communes. Beaucoup de logiciels de montage ou d’étalonnage sont capables de les utiliser, de même que beaucoup de moniteurs externes ou d’enregistreurs externes. Donc avoir un bon fichier LUT dans son moniteur permet d’avoir une bonne idée de ce à quoi ressemblera effectivement ce que l’on est train de filmer une fois étalonné.

Maintenant, comment est-ce que cela fonctionne ? Une LUT transforme une certaine valeur d’un fichier vidéo en une autre donnée pour son affichage. Elle va donc vérifier l’information liée à la couleur et au gamma de la source et la transformer en une autre valeur de couleur et de gamma pour que l’affichage de cette dernière corresponde à la volonté de l’opérateur. Pour chaque valeur d’entrée donnée il existe une seule valeur de sortie qui ne varie jamais. Jusque-là tout va bien, ça semble assez simple, mais les gens oublient souvent que chaque modèle de caméra va attribuer des valeurs de colorimétrie bien spécifiques à ce que son capteur aura repéré. Ça implique que la même LUT traitera différemment les informations provenant de cameras différentes. Donc si l’on tourne en DVX200 et que l’on souhaite obtenir une image « réaliste », il faut utiliser une LUT qui a été spécialement développée pour la DVX200 et non pour une autre caméra. Concrètement, cela signifie que même si la DVX200, la VariCam et le GH5 utilisent le VLOG, leurs capteurs sont différents et se comportent différemment, donc la même LUT appliquée à ces trois modèles ne produira pas précisément les mêmes résultats. Dit comme ça, ça semble évident n’est-ce pas?

Ceci étant dit, on peut tout de même utiliser la LUT de son choix car au final le résultat doit correspondre à son goût et si une LUT dédiée à une autre caméra donne des résultats plus satisfaisants ou plus créatifs, allons-y !

L’article V-LOG, comment bien exposer ses images? est apparu en premier sur Createinmotion.

La profondeur de champ expliquée

Par Sébastien François

Le profondeur de champ, (PdC, DoF – Depth of Field), c’est tout simplement la zone d’une image qui sera au point par rapport à votre position. Cette zone qui varie de quelques centimètres à plusieurs dizaines de mètres est directement influencée par la taille du capteur, l’ouverture (Iris), la longueur de votre focale et la distance de mise au point. Profondeur de champ faible? Seul votre sujet sera net. Grande profondeur de champ, toute l’image sera au point.

la profondeur de champ - schéma

Le profondeur de champ illustrée. Source: http://rubbingpixels.com

Nous n’allons pas ici rentrer dans les formules mathématiques complexes, mais plutôt essayer de vous donner les règles principales afin d’obtenir, soit une faible profondeur de champ, soit au contraire une immense profondeur de champ (qui tendra vers l’hyperfocale, c’est à dire que tout est net).

Pourquoi vouloir jouer sur la profondeur de champ?
exemple de faible Pdc

Un exemple de faible profondeur de champ dans le film Bounty Hunter

La question semble stupide, mais pourquoi ne pas vouloir que tout soit au point? Tout d’abord par intention artistique. C’est le cinéma avec ses codes, ainsi que la photographie qui nous ont éduqués à vouloir détacher un acteur ou un sujet de son arrière plan: l’image est esthétique puisque l’attention est focalisée sur l’action et pas ailleurs (qui sera flou avec un effet de Bokeh). A l’inverse, quand on couvre des news, on a plutôt intérêt à ce que tout soit net et surtout, on n’a pas vraiment le temps de corriger le point en courant derrière un sujet. Autre application, quand on tourne sur une Gimbal (nacelle comme le Ronin-s). Les mains étant occupées, soit on se fie à l’autofocus de la caméra, soit on passe en hyperfocale pour être sûr du point (puisqu’on n’a pas de 3ème main pour le faire seul à la volée).

Les règles: taille du capteur, ouverture, longueur focale, distance de mise au point:
  • 1. La taille du capteur: elle influe sur la profondeur de champ, mais pas autant qu’on le croit:  à focale, ouverture et cadrage identique, il faudra « plus se rapprocher du sujet » quand on travaille avec un grand capteur pour obtenir le même cadrage qu’avec un petit capteur, ce qui aura un effet sur le flou d’arrière plan produit. Plus un sujet est proche de l’objectif, plus la profondeur de champ est réduite. C’est la distance nécessaire qui influe donc sur la profondeur de champ.
  • 2. L’ouverture: c’est le paramètre principal pour contrôler la profondeur de champ. C’est très simple. Plus on ouvert (f/2.0 par exemple), plus la profondeur de champ est réduite. A l’inverse, plus on ferme et plus tout est net. On peut contrôler la quantité de lumière en jouant sur les filtre neutres. (cf notre article sur l’exposition).

A f/11 l’arrière plan est presque net

 

comparaison d'ouverture

A f/1 l’arrière plan est flou, comme on le voit sur ce simulateur en ligne

  • 3. La longueur de la focale: là encore, la donnée est importante. Avec un 24mm (en Full Frame), donc un très grand angle, tout aura tendance à être très net (même avec une grande ouverture). Il vous faudra vous rapprocher énormément de votre sujet pour rendre l’arrière plan flou. A l’inverse avec un 85mm (et au delà, les téléobjectifs), la zone de mise au point est naturellement très réduite et il faudra fermer beaucoup pour rendre l’arrière plan net.
  • 4. La distance de mise au point: vous l’aurez compris avec les notions précédentes, plus un sujet est loin, plus il se confond avec l’arrière plan et se rapproche de la zone d’hyperfocale. Autrement dit, tout va être net. La seule manière de le détacher est d’utiliser un gros zoom. Plus il est proche, et même avec un petit capteur, plus l’arrière plan sera flou.
    Profondeur de champ faible

    Le sujet est très proche: la profondeur de champ est de quelques centimètres

    Quelques exemples pour mesurer l’influence de la distance de mise au point, de la longueur de focale et de l’ouverture.
  • Dans la petite galerie ci-dessous, on a utilisé un GH5 d’abord avec le 12-60mm (f/2.8-4) en se rapprochant et en étant ouvert à 2.8 puis en s’éloignant (ouvert à 4.0 puisque que l’ouverture est glissante). Ensuite, on a simplement utilisé un optique 55mm, toujours ouvert à 2.5 et en changeant la distance de mise au point de 20 cm à 3 mètres.
    Cliquer pour visualiser le diaporama.

Attention, la zone de mise au point suit une règle d’or. Si vous faite le point sur un sujet et que la profondeur de champ (zone nette) est de 3 mètres, vous pouvez considérer que tout sera net: 1 mètre devant le sujet et 2 mètres derrière lui: c’est la règle des 1/3 – 2/3.

Pour aller plus loin et essayer différents réglages, je vous recommande d’aller faire un tour sur https://dofsimulator.net/en/

 

L’article La profondeur de champ expliquée est apparu en premier sur Createinmotion.

Exposition : toutes les règles expliquées

Par Sébastien François

L’élément principal pour produire des films qualitatifs, c’est ce qu’on appelle l’exposition. Il est important de comprendre ce qu’est une « bonne exposition » , pour éviter les images « cramées », « sur-ex » ou « sous-ex ». Contrairement aux idées reçues, tout n’est pas rattrapable en post-production.

Pour cela, limitons d’abord le concept à deux points :

L’exposition, c’est la quantité de lumière atteignant le capteur, et ce, pendant une certaine durée.

L’art d’obtenir une bonne exposition est donc celui de contrôler cette quantité de lumière.
Pas assez de lumière? Vous aurez une image bruitée, plate et avec du grain. Trop de lumière? Vous obtiendrez une image délavée et agressive. Dans les deux cas, vous aurez perdu un grand nombre d’informations sur l’image que vous avez enregistrée.

Pour contrôler l’exposition, 4 outils: l’ouverture, le vitesse d’obturation, le filtre neutre (ND) et le Gain (ISO)

1. Le plus important est l’ouverture de l’optique (ou « iris »). C’est un cercle dans l’optique, de taille variable, à travers lequel la lumière passe. La taille de l’ouverture est connue sous la valeur « f ». Paradoxalement, plus cette valeur f est basse plus le trou est grand (comme dans f/2.0 par exemple), laissant passer beaucoup de lumière. A l’inverse, plus le trou est petit et plus la valeur f est élevée (par exemple f/11), laissant passer peu de lumière. C’est ce qu’on appelle le diaphragme en photographie. L’ouverture a aussi une incidence sur la profondeur de champ. Plus l’ouverture est grande, plus la profondeur de champ est réduite, c’est à dire que la zone où le sujet est au point est restreinte. Les optiques n’ont aussi pas les mêmes performances à toutes les ouvertures: elles peuvent perdre du piqué, produire des aberrations chromatiques… C’est en général de f/2 à f/5.6 que les performances sont les meilleures.

2. La vitesse de l’obturateur (shutter speed) contrôle la durée pendant laquelle la lumière est autorisée à entrer dans l’optique. Plus le shutter et lent, plus la lumière « reste » (et rentre en quantité si l’on peut dire), mais plus un sujet mobile sera flou.

vitesse d'obturation comparée

Attention, en film (et pas en photo), on va très peu jouer sur ce paramètre car il affecte le rendu de l’image. En effet, imaginons que vous ayez beaucoup de lumière, mais que vous vouliez garder une grande ouverture (pour avoir un joli flou artistique derrière le sujet). Vous allez donc être tenté d’augmenter le shutter (1/200ème par exemple) pour éviter de cramer vos images: vous risquez d’obtenir une image qui scintille, et un rendu très « clinique » (tous les mouvements sont ultra nets). La règle donc à appliquer en général est celle des 180d (degré). C’est à dire, utiliser un shutter fixé au double de votre cadence d’enregistrement: exemple, vous tournez en 4K/25P, votre shutter sera au 1/50ème (2×25). Alors, que faire pour avoir une image bien exposée avec une grande ouverture et sans toucher au shutter?

3. C’est ici qu’intervient le filtre à densité neutre (ND). source - WikipediaC’est est un peu comme une paire de lunettes de soleil mais sans effet secondaire (changement de couleurs, polarisation, etc). Ils sont utilisés dans les situations très lumineuses comme lors d’une journée très ensoleillée. Ce filtre (qui est fixe par pallier, ou variable), va donc permettre de compenser la surexposition sans toucher ni à l’ouverture, ni au shutter. Une EVA1 dispose de 3 filtres ND intégrés par exemple.

 

4. Le Gain ou les ISO. le double-iso natif de PanasonicNous voici dans la situation inverse. Que faire quand on est « ouvert » à fond, sans filtre ND et que l’image est sous-exposée? La seule manière est alors d’utiliser une amplification électrique du signal derrière le capteur. En « boostant » le signal, on arrive à compenser le manque de lumière. Mais cela a un prix: l’ajout de bruit à l’image (ce fourmillement assez peu esthétique).  C’est pourquoi Panasonic a inventé le double ISO natif afin restreindre ce bruit à l’image.

C’est en jouant sur ces 4 paramètres (ou plutôt 3 si on ne touche pas au shutter), que vous obtiendrez une bonne exposition.

 

 

L’article Exposition : toutes les règles expliquées est apparu en premier sur Createinmotion.

Double ISO natif (Dual Native ISO) // + de dynamique et – de bruit

Par Sébastien François

Le double ISO natif (ou Dual Native Iso), c’est une nouvelle manière d’exploiter les informations d’un capteur afin d’étendre sa dynamique et de réduire le bruit qu’il produit. Pour résumer, le capteur va pouvoir lire 2 ISO natifs à la fois sur le capteur au lieu d’un seul (800 et 5000 pour une VariCam par exemple).  Cette fonctionnalité a été introduite chez Panasonic avec sa VariCam. Mais avant d’en parler plus longuement, il faut commencer par la base.

Pour commencer, le fonctionnement d’un capteur numérique

La matrice Bayer

Tout d’abord, comment fonctionne un capteur? Pour faire très simple, un capteur reçoit de la lumière sur ses photosites. Il va transformer la quantité de lumière en courant électrique suivant l’intensité de cette lumière: ceci nous donne une interprétation, comme une mosaïque en nuances de noir vers le blanc (un photosite aveugle = pas de lumière = pas de courant / un photosite qui reçoit le blanc absolu donne donc une intensité de courant maximale).
C’est très bien, mais comment obtient-on la couleur alors qu’on est encore en noir & blanc? Et bien, on va intercaler des filtres devant les photosites afin de les affecter aux 3 couleurs primaires (Rouge, Vert, Bleu). On peut désormais reconstituer la luminance et les couleurs grâce à ce qu’on appelle la « débayérisation » effectuée par un savant algorithme à l’intérieur de la caméra ou en post-production quand on enregistre en Raw. Voilà comment on obtient l’image.
Maintenant qu’on a saisi la théorie du fonctionnement d’un capteur, revenons à nos ISO.
En effet, les performances d’un capteur vont dépendre de nombreux facteurs. On retiendra en premier sa dynamique (faculté de conserver toutes les informations dans très hautes lumières autant que dans les basses): rien n’est plus compliqué pour un capteur que de filmer à contre jour par exemple (l’arrière plan est brûlé et on ne voit rien dans les ombres du sujet). Un capteur qui a la plus grande dynamique sera capable de conserver un maximum de détails dans ces conditions. Ensuite, on retiendra son rapport signal/bruit. On a vu que la lumière était transformée en électricité. Ce signal va être amplifié par un circuit.

Cette amplification électrique, c’est le Gain ou l’ISO.

exemple d’une image bruitée

L’ISO natif, constitue la valeur où cette amplification génère le moins de bruit (ce fourmillement à l’image) donc le meilleur rapport signal/bruit. Par analogie, imaginons que vous enregistriez un son très faible avec un dictaphone. Pour entendre vous poussez le son a fond et… vous obtenez un très gros souffle à l’écoute. En image, c’est presque pareil: vous avez très peu de lumière, vous amplifiez le signal en montant les ISO et vous voila avec plein de bruit. Alors pour s’affranchir de ces limites et donc augmenter la dynamique et réduire le bruit, de nombreuses techniques ont été utilisées. Citons en photo, le fait de prendre 2 clichés en un à raison d’une ligne sur deux: une ligne avec un ISO optimal pour les ombres, une autre avec un ISO optimal pour les hautes lumières. Pas très pratique, car il faut interpoler les lignes manquantes…

C’est ici qu’intervient cette petite révolution qu’est le « double ISO natif ».

Au lieu de ne servir que d’un seul circuit d’amplification optimisé pour des conditions « moyennes », on va rajouter un second comme le montre ce schéma pour la VariCam 35/LT.

Chaque circuit étant dédié à la meilleure performance en fonction des conditions, on arrive ainsi à réduire significativement le bruit. C’est le cas pour l’EVA1, le GH5S et la série VariCam.

 

L’article Double ISO natif (Dual Native ISO) // + de dynamique et – de bruit est apparu en premier sur Createinmotion.

❌