On a déjà abordé longuement la maîtrise de l’exposition dans un précédent article. Mais pour aller plus loin et comprendre le mécanisme, il faut connaître les limites physiques et mathématiques d’un objectif afin de le choisir en toute connaissance de cause.
Vous le savez déjà, l’ouverture est gérée pas le diaphragme qui a la capacité de s’ouvrir au maximum ou au contraire, de se refermer afin de laisser pénétrer plus ou moins de lumière. Par conséquent, le « diaph » est le premier outil nécessaire dans la gestion de l’exposition. Oui mais alors, pourquoi parle-t-on de f/2, f/5.6 etc…?
Et bien en fait, l’histoire est assez simple.
« Le nombre de l’ouverture » est tout simplement la relation entre la longueur focale et le diamètre maximal du diaphragme (c’est de à dire du fût interne de l’objectif). Prenons un exemple. Pour un objectif de 50mm dont le diamètre maximal est de 25mm, on obtient donc 50/25=2. Et c’est donc pour éviter ce calcul différent pour chaque optique que l’on simplifie en annotant l’ouverture en f/2, ou f:2 ou encore 1:2. Le calcul est ainsi fait au préalable et permet au cadreur d’avoir des valeurs de référence communes. Quelle que soit l’objectif, un f/2 donnera toujours la même quantité de lumière sur le capteur. Du moins, théoriquement.
Cependant, via cette règle, on se rend donc compte que si l’on veux une ouverture à f/2 pour une focale de 150mm, il nous faudra un diamètre de 75mm ! C’est ce qui explique que les grandes focales qui « ouvrent » beaucoup sont très volumineuses et très coûteuses. A cette focale, on trouvera plus généralement, des objectif qui ouvrent à f/4 (diamètre de 37,5mm). C’est aussi pour cela que les systèmes comme le m4/3 (GH5 etc) qui disposent d’un capteur plus petit que le plein format, peuvent avoir des optiques très lumineuses sans être encombrantes.
En effet, sur ce système, comme un objectif de 50mm en full frame correspond à à un 25mm en m4/3, il suffit alors d’un diamètre de diaphragme de 12,5mm pour ouvrir à f/2. C’est pour cela que les optiques sont bien moins encombrantes que sur un système Full Frame.
Vous aurez remarqué que quel que soit l’objectif, la caméra, l’hybride, les différents paliers du diaphragme sont constitués de la même suite de « nombres ». Parallèlement, augmenter l’ouverture d’1 « Stop », ou d’1 « diaph » signifie faire rentrer 2 fois plus de lumière. Chaque incrémentation est donc le double de la surface de la précédente. A la différence que plus la valeur est petite, plus la surface est grande.
Hors vous connaissez forcément la fameuse formule de calcul de l’aire d’un cercle: Surface du disque =πr2 où « r » symbolise le rayon. Et comme l’aire d’un cercle diminue de moitié lorsque le rayon est divisé par √2 (soit 1,4142), on passe donc d’un incrément au suivant en multipliant par √2 et en arrondissant. Essayons :
Si r=1, 1 x √2 = 1,4
1,4 x √2 = 2
2 x √2 = 2.8
2.8 x √2 = 4 etc etc etc.
Voilà le mystère élucidé. Cependant, tout ce que vous devez retenir, c’est qu’à chaque fois il existe un rapport de 2 quant à la quantité de lumière envoyée.
On vient de le voir, les valeurs de diaph ou F-Stops, sont des calculs mathématiques à la portée du plus grand nombre. Malheureusement, les objectifs ne sont de simples lentilles posées sur des tubes de tel diamètre et de telle longueur. Il existe de nombreux paramètres qui viennent perturber le calcul théorique dans la transmission de la lumière.
Tout d’abord, à objectif égal (même marque, même longueur focale, même « f »), on se rend compte qu’il y a toujours un écart léger car les verres ne sont jamais tout à fait identiques, à cause du revêtement, de la complexité des lentilles etc. Du coup un f/2 ne sera jamais réellement un f/2.
En photographie, on s’en moque car l’écart est très faible et donc, du domaine de l’acceptable. Qui plus est, la rectification en post-production est très simple.
En vidéo, c’est une autre histoire car dans les grosses productions, on tourne très souvent en multicam et s’il existe des écarts d’exposition entre plusieurs caméras, la post-production peut très vite devenir ardue. et donc coûteuse.
Et c’est ici qu’interviennent les T-Stops.
les F-Stops sont basés sur le rapport entre longueur Focale et diamètre. Les T-stops intègrent la valeur de Transmittance de la lumière.
En partant des F-Stops, les constructeurs vont donc calculer la déperdition de la lumière due au différents paramètres perturbateurs (rayon perdus contre le fût, absorption du revêtement, déperdition en traversant X lentilles) et vont donc ajouter au calcul de facteur de transmittance: 85% par exemple. En multipliant la valeur théorique par ce facteur on obtient une valeur réelle. Un f/2.8 sera donc un T3.3 suivant nos 85% de transmittance.
La réponse à cette question est assez simple: établir le facteur de transmittance doit être étalonné sur chaque objectif qui sort d’une chaine de production. Il ne s’agit donc plus de théorie, mais d’un gros travail d’usine afin qu’un T3.1 soit exactement identique à un autre T3.1. Ce qui implique des tarifs souvent multiplié par 3 ou 4 par rapport à un « simple » objectif « f ». C’est pour cela que l’on reserve ces optiques au cinéma en y ajoutant d’autres fonctions: bague de mise au point crantée pour les follow-focus, course plus longue pour être très précis, diaphragme « décliqué » pour passer d’un palier à l’autre en douceur… Ce qui amène la facture à un niveau stratosphérique.
Mais avez-vous réellement besoin de ces optiques? La réponse est simplement « oui » si la simplification de la post-production justifie ce surcoût de location supplémentaire des optiques. La réponse est non, pour les productions plus simples: matcher 2 caméras demeure assez aisé. Tout est donc question d’équilibre budgétaire.
L’article Comprendre les F-Stops / T-Stops est apparu en premier sur Createinmotion.
Streamer un Live: facile. Si j’ai un smartphone, je me connecte à mon réseau social préféré, je me filme en selphy (plus ou moins) bien et c’est parti. Certes, ce sera plus ou moins vilain, mais au moins j’ai un moyen ultra facile d’être en direct sans la moindre compétence. Au début, un peu comme pour la vidéo verticale, personne n’imaginait que ça allait marcher: mais les statistiques sont là. Le temps devant les Live ne cesse d’augmenter et la qualité des productions ne cesse d’augmenter. Oui, les « Directs » sur Facebook, Youtube et bien évidement sur la plateforme de gaming Twitch » dépasse désormais les contenus traditionnels en terme de génération d’audience qualifiée. Pour s’en convaincre, nous vous recommandons la lecture de cet article qui démontre parfaitement que les contenus en ligne qui marchent sont de plus en plus les Live. Bien qu’en anglais, les graphiques qu’il montre et les sommes en jeu parlent d’eux même:
Source: https://neilpatel.com
On ne va s’étendre sur les possibilités d’un smartphone: il dispose d’une connexion 4G, d’une caméra acceptable et peut donc diffuser de n’importe quel endroit. En revanche, il faut le suréquiper pour que l’image produite soit décente: mini trépied, micro externe, casque blutooth, lumière. Surtout, il vous cantonne souvent à une diffusion verticale (comme nous l’avons vu dans cet article): Facebook par exemple, impose une image 9/16ème dans son application Android, mais pas dans celle d’iOS. Autant de limites donc qui laisse le téléphone comme support N°1 pour les Live « vite fait », mais qui n’en font pas un périphérique adapté à une vrai réalisation: mis à part ajouter des filtres à l’image, vous ne pourrez pas ajouter des sous-titres, gérer en même temps commentaires etc.
Les caméras sont quant à elle restée longtemps en retard pour le Live Internet (via la vidéo sur IP donc). Pour résumer, auparavant, il vous fallait une ou plusieurs caméras reliée en SDI (ou en HDMI) à un mélangeur vidéo, qui lui même envoyait le programme vers un ordinateur ou un encoder dédié pour espérer passer sur Internet. Désormais, ce n’est plus le cas. Si l’on prend le cas de la dernière AG-CX350 (et même de références antérieures) de Panasonic, vous avez droit à une prise Ethernet, mais aussi à un Dongle Wifi optionnel. Qu’est-ce que ça veut dire concrètement?
Ainsi pour résumer, une caméra Broadcast sait à la fois être indépendante et lancer un Live, ou alors être utilisée comme source d’une réalisation multicam, le tout avec ou sans fil. Vous bénéficiez alors d’une qualité d’image bien supérieure et de tous attributs apportés par ce type de matériel (Entrées XLR, zoom… etc). Pour vous en convaincre, nous vous recommandons de lire cette documentation de Panasonic: How to connect AG-CX350 with Facebook Live , How to connect AG-CX350 with YouTube Live.
Vous pouvez aussi vous inspirer de ce très bon tutoriel en anglais pour un paramétrage ultra précis:
Alors, on est d’accord, sur le matériel récent, les choses sont simples, mais que se passe-il quand on veux utiliser d’autres sources d’images qui n’on ni Ethernet, ni Wifi. Là, encore, il existe des tas de solutions très nouvelles. Prenons l’exemple d’un hybride ou d’une caméra plus ancienne qui n’offre que du HDMI ou du SDI comme sortie. La solution classique consiste donc à les raccorder à un mélangeur vidéo, ou dans le cas d’une source unique, à un boitier d’acquisition vers un laptop. Ce dernier se chargera d’encoder le flux. Autrement dit, c’est lui assurera le « Bridge » entre le signal vidéo et le signal IP via les câble SDI ou HDMI. Problèmes: les connexions sont filaires en général et rajoutent des éléments à la chaîne de production. Il y a donc désormais bien mieux.
Si l’on regarde du côté de chez Teradek ou Newtek par exemple, on trouve une gamme très étendue de boîtiers à connecter directement sur vos caméras et qui vont transmettre le signal avec ou sans fil, vers Youtube/Facebook. Grosso modo, ses boîtiers font office de passerelle entre les sources vidéo et la vidéo sur IP.
On l’a vu, les appareils récents ou les boîtiers de connexion ont tous pour vocation de transformer vos flux vidéo en flux internet pour se connecter aux serveurs de streaming. Si ceci n’est pas totalement nouveau (les caméra de vidéo surveillance ou les caméra PTZ fixes de font depuis un certain temps), ce qui l’est, c’est la simplicité de mise en oeuvre apportée par le NDI (ou NDI-HX). Le Network Device Interface amène les bénéfices suivants:
Pour démontrer cette étonnante facilité, nous avons voulu réalisé le test suivant. Faire un multicam vers Youtube avec comme source 2 ordinateurs différents, un téléphone et une caméra Panasonic compatible NDI. Nous nous servirons d’un 3ème ordinateur qui assurera le mix grâce au logiciel gratuit OBS Studio et l’envoi vers Youtube.
Pour se faire, il faut d’abord télécharger la suite d’outils suivants compatibles Mac/Windows:
Ensuite, nous avons effectué les opérations suivantes:
Ensuite, dans OBS Studio équipé du plugin NDI:
Une fois le logiciel lancé sur la troisième machine, il suffit de créer une Scène pour chaque source puis dans Source pour chaque scène, de sélectionner « Source NDI » grâce au bouton « + ». Tous les périphériques (ordinateurs et caméra) dans notre cas apparaissent sans aucune autre intervention. Vous voilà en quelques minutes dans une configuration Multicam, sans câble ou presque et prêts à diffuser sur Youtube (ou n’importe qu’elle plateforme.
Il ne vous reste plus qu’à rentrer dans les Paramètres d’OBS, l’adresse du serveur de Streaming (que récupérez sur le compte de votre chaine ou de votre page) ainsi que la clé du stream.
L’article Tout connaitre pour débuter dans le streaming est apparu en premier sur Createinmotion.
Ce bon vieux H264 (ou Mpeg4 AVC) a tenu le haut du pavé pendant plus de 15 ans. Et pour cause, il permettait de diviser le poids de nos images de manière révolutionnaire par rapport au mpeg2 et autres ancêtres de la compression vidéo. C’est surtout grâce à lui que les plateformes comme Youtube ont explosé. Et pour cause. Réduire la taille des vidéos est en enjeu absolument majeur pour l’enregistrement (espace de stockage) tout comme pour la diffusion: il serait bien difficile d’envoyer des films en Prores HQ sur nos téléphones via le réseau 4G. Et a fortiori, avec l’augmentation des résolutions d’images: la HD demande 4X plus d’informations que la SD, tout comma le 4K en réclame 16X plus! Ajoutez à cela qu’on peut désormais tourner en 50P au lieu des 25 et vous obtenez des débits nécessaires encore multipliés par 2.
Bref, le Codec est un des éléments fondamentaux dans la conception des caméras et pour la diffusion de contenu. Le Codec (pour COmpresseur/DECompresseur), c’est un peu la moulinette mathématique qui va permettre de faire en sorte qu’une vidéo qui nécessiterait un débit de données de 800 Mbps n’en ait plus besoin que de 50 à qualité visuelle égale. Comment ce miracle est-il possible?
Comme on le voit sur cette illustration: le Codec ne va détecter que ce qui change d’une image à l’autre. Souce: Cambridge University.
Oui, mais voilà, plus le Codec est performant, plus il nécessite de puissance à l’encodage et surtout au décodage lors des opérations de montage. C’est pourquoi, même en 2019, de nombreux utilisateurs utilisent des Proxy pour travailler et simplifier les calculs. C’est la contrepartie de cette compression intense.
On l’a vu, après plus de 15 ans, le H264 est implanté partout. Il est montable, diffusable… Alors pourquoi le mettre à la retraite? A cela plusieurs raisons. A commencer par le fait que nos besoins évoluent:
Surtout, qui dit augmentation des besoins, dit une fois de plus, augmentation de la quantité d’informations à enregistrer lors des tournages. Et le principal avantage du H265, c’est qu’il arrive à être 2X plus performant que son prédécesseur. Autrement dit, à qualité égale, un film pèse 2X moins lourd. C’est ce qui permet par exemple à la EVA1 ou à la CX350 d’offrir de la 4K 10bits en 50p pour un débit de 150Mbps! Mieux, pour toutes les caméras PTZ (UE150 etc) qui peuvent streamer le signal en IP, la réduction du débit nécessaire permet d’envisager de faire passer de la 4K via une simple connexion internet classique.
Le Codec H265 (HEVC High efficienty Video Codec), réussit cette performance essentiellement grâce à 2 technologies:
C’est ici que l’histoire est encore délicate, tout comme pour le H264 à ses débuts. A l’heure où nous écrivons ces lignes, toutes les dernières versions des logiciels de montage supportent le H265. Mais attention, n’espérez pas encore monter de manière fluide sur une machine qui n’embarque pas de décodage matériel. En effet, le décodage matériel, c’est un morceau de votre processeur (CPU) ou de votre carte graphique (GPU) qui est spécialement dédié au décodage du format. Sans lui, c’est le seul processeur qui va effectuer les calculs et il le fera très lentement. L’heure est donc encore au montage par Proxy ou au transcodage. Mais la situation devrait très vite évoluer car le H265 s’impose petit à petit dans toutes puces informatiques.
La réponse est mixte. Si vous désirez tourner en 10 bits HDR en utilisant des cartes SD standards, oui. A 150Mbps chez Panasonic, vous obtenez le meilleur ratio qualité d’image/possibilité d’étalonnage. Il en va de même pour les tournages longs (documentaires) ou l’espace de stockage constitue une problématique car vous ne pouvez pas décharger les cartes facilement. En revanche, vous devez envisager au préalable le fait que la post-production sera un peu moins fluide. Le H265 est tout à fait montable nativement en « cut » (suivant la puissance de votre machine), mais si vous effectuez par exemple un multicam, vous serez obligé d’utiliser des proxy ou de transcoder les rushes. Mais une chose est sûre, le H265 est bel et bien le format du futur.
L’article [Wiki] H265/HEVC, le codec d’enregistrement du futur? est apparu en premier sur Createinmotion.
Un time-lapse, pour résumer, c’est la technique qui consiste à prendre une photo à un intervalle de temps régulier afin d’en faire un film. Ce qui va produire une sorte d’accéléré pour montrer ce que l’on ne verrait pas à l’oeil nu en restant planté au même endroit.
Mais, la première question est la suivante: ça sert à quoi?
Alors avant de commencer la pratique, il faut faire 2-3 petits calculs. On l’aura compris, prendre une photo toutes les X secondes signifie tout d’abord faire un peu de maths pour prévoir la durée du résultat final, une fois transformé en film.
– Le premier paramètre à prendre en compte, c’est la cadence d’image de votre film. Autrement dit, on doit anticiper la cadence d’image du montage final (voir notre article sur les cadences d’image): communément, il peut s’agir de 24/25 ou 50 images par secondes (fps). Il faudra donc prendre 24/25/50 « photos » pour produire 1 seule seconde de film.
– Le second paramètre, c’est le fameux intervalle entre chaque prise de vue. Est-ce que je prends une image toutes les 2 secondes? Ou toutes les minutes? Pour aider à faire ce choix, tout va dépendre de la scène et du déplacement des objets qu’elle montre. Mais on peut dégager quelques règles:
Un sujet très mobile (véhicule…): intervalle de 1 à 2 secondes
Un sujet un plus plus lent (piétons…): intervalle: de 2 à 3 secondes
Tout ce qui est encore plus lent (la course du soleil etc): de 5 secondes à plusieurs minutes.
Bien sûr, tout ceci n’est que purement indicatif, mais l’idée est là. Donc, pour obtenir ma séquence et raisonner mathématiquement, je vais dire que je veux un plan de 10 secondes, qui sera diffusé à une cadence de 25 images par secondes (fps) avec un intervalle de 3 secondes. J’applique donc la formule suivante pour connaitre le nombre de photos à prendre.
(Durée du plan en secondes) X (Cadence d’images finale)
= Nombre N de photos à prendre.
Et si vous n’être pas équipés d’une caméra, ou d’un hybride qui intègre la fonction « Interval Rec » ou « Time-Lapse » (comme chez Panasonic), vous allez ensuite appliquer la formule suivante pour savoir combien de temps patienter avant la fin du time-lapse.
(N nombre de photos à prendre) X Intervalle choisi
= Durée du shoot en secondes
Dans notre exemple, il nous faudra donc prendre 250 images (10 secondes x 25 i/s) et patienter 250 x 3 secondes (durée de l’intervalle). Soit 750 secondes, soit, 750 : 60 = 12 minutes 30. Voilà, pour le calcul de base. Évidemment, il peut se faire à l’inverse: « je sais que la course du soleil avant la nuit prend 3h et je fixerai un intervalle de 10 secondes ». Il me faudra donc: (3600 seondes (1 heure) x 3 heures)/10 = 1080 images. Le plan va donc durer: 1080/25 (cadence d’image) = 43 secondes environ.
Et pour les plus feignants, il y a même des applications comme celle-ci (pour iOS) et celle-là (pour Android)
Franchement, côté matériel c’est assez simple: un bon time-lapse, c’est avant tout un DSLR, un hybride ou une caméra qui sait prendre une photo toutes les X secondes. Et même si ce n’est pas le cas, il suffit d’acheter un « intervallomètre » à raccorder sur la prise Remote de l’appareil pour qu’il en soit capable. C’est l’intervallomètre qui décidera donc de la prise d’une photo toutes les x secondes. Dans le cas de Panasonic, la fonction est intégrée depuis bien longtemps et surtout, les appareils savent assembler les images pour en faire un film en interne sans avoir besoin de monter: vous obtenez directement la vidéo.
Pour le reste, un time-lapse, c’est surtout un plan qui ne bouge absolument pas (sauf dans le cas d’un motion time-lapse) afin d’éviter le moindre tremblement d’image : vous n’aurez alors besoin que:– D’un trépied costaud (ou n’importe quelle support vraiment stable). Même le vent peut faire trembler un plan et ruiner votre prise de vue si le support n’est pas stable, surtout avec des optiques lourdes en longue focale.
– D’une « power bank » (batterie USB – voir notre article sur les accessoires) si vous prévoyez que la prise de vue va durer plusieurs heures. Elle vous permettra d’alimenter votre appareil tout le temps nécessaire.
– D’un filtre ND variable (ou d’un jeu de filtres ND). Comme nous allons le voir après, pour obtenir des effets de trainées, on est obligé de choisir un temps de pose très très bas (voire de plusieurs secondes). Et donc, même la nuit, il faudra peut-être mettre un filtre Neutre pour abaisser la quantité de lumière et conserver ce Shutter très lent.
Everest – A Time Lapse Film – II from Elia Saikaly on Vimeo.
Vous avez compris les maths, vous avez compris qu’il faut assez peu de matériel? Place maintenant à la réflexion. Intellectuellement, il vous faut discerner deux choses: le cadre bien sûr (mais ça vous savez faire) et ensuite la priorité que vous donnerez aux sujets mobiles ou immobiles de votre scène. Et là, c’est d’abord le choix de l’intervalle qui va jouer.
Prenons un exemple. Vous avez prévu de tourner le déchargement d’un énorme container d’un bateau sur un quai. Déchargement qui prendra 1 bonne heure. Dans votre scène vous allez avoir la grue qui porte le container et les dizaines d’ouvriers et de véhicules qui vont s’agiter pour le recevoir.
Tout est donc affaire de choix et de priorité dans la composition. Place ensuite à l’esthétique et c’est là que le shutter prend toute son importance. C’est lui va qui déterminer le « motion-blur » ou flou de mouvement. Là encore, prenons un autre exemple. Vous filmez tout simplement une rue passante.
Un time-lapse étant un assemblage de photos, tout écart entre deux images va sauter au yeux et scintiller. Vous devez donc tuer tous les automatismes de votre caméra.
Pourquoi? Parce que même si vous ne le percevez pas, dans n’importe quelle scène, d’une seconde à l’autre, il y a toujours un changement. Pour comprendre, imaginez que vous soyez en Autofocus sur la scène de rue que nous avons évoquée: chaque nouvelle photo sera mise au point sur un piéton différent. Donc, si vous engagez un automatisme (Ouverture -Iris-, Shutter, ISO…), ce micro changement sera perçu par la caméra qui va donc faire varier un paramètre et adapter ses réglages.
Au final, vous ne pourrez pas exploiter le résultat. Le seul bémol concerne peut être la Balance des Blancs. Comme la mesure s’effectue différemment (sur un global et sans changement brutaux), ce paramètre peut parfois être laissé en automatique. Quoi qu’il en soit, la procédure à respecter est la suivante:
On ne va pas ici développer les techniques avancées de post-production en RAW etc, mais une fois votre time-lapse réalisé, se pose à vous deux cas de figure. Soit votre caméra a déjà généré le film (cas des GH4/5S, CX350 etc…) dans la résolution souhaitée, soit vous avez enregistré les X images sous forme de photos sur votre carte mémoire. Dans ce dernier cas:
Pour conclure, on va évoquer brièvement différentes techniques dérivées du time-lapse.
Cette technique consiste à tourner un time-lapse de la nuit au jour et vice versa. Oui mais voilà, on l’a vu, comme on reste en Manuel, l’exposition va changer de la pénombre au plein soleil. Alors comment faire? Le plus simple, c’est de découper le time-lapse en 4 sections. Dans le cas d’un coucher de soleil, vous lancez la prise en étant légèrement surexposé et dès que vous commencez à être sous-exposé, vous faites une pause et vous réajustez l’exposition. Vous relancez ensuite le second time-lapse. Et ainsi de suite jusqu’à la nuit noire. Au montage, vous ferez se chevaucher les 4 time-lapses avec un simple fondu.
Wellington South Coast New Zealand – Day to Night Time-lapse from Mark Gee on Vimeo.
Cet effet consiste à prendre des time-lapse d’un point de vue très en hauteur. Avec cette technique les humains tout en bas, vont ressembler à de petites personnages semblables à des jouets. On rajoute aussi du flou en haut de la scène et on sature les couleurs. Le mieux est de voir cet exemple en image:
A (Little) London Christmas – A Tilt Shift Timelapse from Media Hog Productions on Vimeo.
Le motion time-lapse va nécessiter un slider et une tête motorisée qui va bouger d’une position A à une position B dans l’intervalle de temps. Si vous devez prendre 250 photos, le logiciel du slider (qui pilote aussi l’appareil en général) va découper son mouvement en 250 positions et ne bougera qu’entre chaque photo. L’hyperlapse quant à lui, c’est la technique qui consiste à se déplacer entre chaque image tout en gardant un cadre stable. C’est assez dur à maîtriser, mais les nouvelles caméras de sport ou 360° commencent à embarquer nativement cette fonctionnalité.
Berlin Hyperlapse from b-zOOmi on Vimeo.
L’article Time-lapse: le mode d’emploi complet est apparu en premier sur Createinmotion.
Utiliser des Proxies, l’idée est loin d’être nouvelle dans les grandes boites de prod, ou les chaînes de télé. Les fichiers natifs étant extrêmement gourmands en termes de puissance de calcul, il est plus facile de prémonter en basse définition avant de conformer le tout en HD/4K/DCP, voire plus. Mais tout ça semble compliqué de prime abord, alors que la technique s’est largement démocratisée, y compris dans les plus petites structures: les proxies sont désormais automatisés directement dans les logiciels de montage.
Pour résumer, le logiciel transcode les rushes en basse définition et au moment voulu, lors de l’étalonnage ou de l’export, il remplace les clips avec les rushes natifs en y appliquant tous les effets désirés, en pleine qualité.
Mieux, des caméras comme les UX180/PX270 de Panasonic sont tout à fait capables d’enregistrer à la fois le fichier natif pleine résolution et son jumeau en version proxy. Du coup on peut transmettre des images facilement en plein tournage (car elles sont légères), ce qui permet de commencer à monter avant d’avoir le natif en pleine qualité.
Pourquoi s’interroger? On tourne, on monte et tout va bien. Oui mais voilà, on a beau avoir une machine de montage de guerre, la puissance est toujours prise à défaut. Du coup, on se retrouve souvent à monter de manière non fluide. Et plus on ajoute d’effets, plus on attend. La faute en incombe aux causes suivante.
Avec Premiere Pro:
Comme toujours avec Premiere, ça aurait pu être simple, mais c’est finalement compliqué, mais uniquement la première fois. Par défaut, le logiciel ne dispose que de quelques Presets pour générer les Proxies et il ne sont pas forcément adaptés. Il faut créer les votre une bonne fois pour toute.
Nous vous recommandons donc de créer un jeu de Presets dès le départ pour ne pas avoir à refaire cette pénible manipulation. Car au montage, ensuite, c’est très très simple: il suffit de cliquer sur le bouton « Proxy » dans le moniteur de Programme pour passer d’une version à l’autre. Mais c’est effectivement ce genre de défaut ergonomique que nous évoquions dans notre test de Premiere Pro 2019. Le seul avantage étant qu’au moins, tout est personnalisable et que Premiere est aussi capable de « d’attacher » les Proxy d’une caméra sans les générer lui même. Et ce n’est pas le cas de tous les logiciels.
Avec FCPX:
Alors là, c’est exactement l’inverse: vous n’aurez aucun choix, mais vous n’aurez rien à faire non plus! Il suffit de sélectionner les médias et de choisir de générer des proxy d’un clic-droit/transcoder/media/proxy.
Dans le menu Présentation du moniteur de Programme, il vous suffit, comme dans Premiere Pro, de Switcher entre medias originaux et Proxy. Enfantin, même si tous les médias seront transcodés obligatoirement en Prores Proxy.
Avec Resolve:
Là encore, c’est assez simple: il suffit de choisir dans les préférences générales le type de Proxy à générer (dans Resolve, ils sont appelés « Optimized Media »).
Ensuite, comme dans Premiere, on sélectionne les medias à transcoder. Enfin, il suffit dans le menu Playback, de sélectionner « Use Optimized Media if available ». C’est aussi simple que celà.
On vient de le voir, les Proxies offrent bien des avantages mais vous devez toujours vous demander si bénéfice en vaut la chandelle.
Si vous avez un montage simple, avec peu d’effets, et que la machine « laggue » un peu, il peut être plus intéressant de ne pas transcoder (ce qui prend du temps et de l’espace), quitte à souffrir un peu.
Si vous allez travailler sur un film en RAW avec des heures de rushes, là, la question ne se pose pas: vous intégrerez simplement ce temps de transcodage dans votre projet afin de pouvoir travailler ensuite de manière parfaitement fluide. Tout dépend donc du type de projet, de la puissance disponible et de la post-production qui sera prévue.
L’article [Wiki] Les Proxies: la solution pour monter plus vite ? est apparu en premier sur Createinmotion.
Pour faire simple, voilà une illustration qui symbolise les différences entre les cadences d’image sur 1 seconde.
La cadence d’image de captation, c’est tout simplement le nombre d’images qui sera capturé et donc enregistré dans l’intervalle d’une seconde. Autrement dit, on va parler de « 25/50P » pour signifier 25/50 images « Progressives », c’est à dire « pleines » par seconde, de « 24P » ou encore de « 50i » (pour Interlaced, soit entrelacées). Ces cadences qui nous sont communes, peuvent cependant être modifiées selon n’importe quelle valeur – en fonction de votre caméra – (de 1 image par seconde à plusieurs milliers d’images par secondes), car elle sont toujours à mettre en relation avec la cadence d’image de diffusion ou de lecture. En Europe, il s’agit en général de 25 images par seconde.
Pour faire simple, si vous décidez d’enregistrer 1 image par seconde et que vous lisez le tout à 25 images par secondes, vous aurez un accéléré de X25 (1×25), comparable à un Timelapse. A l’inverse, 100 images par seconde lues à 25 images par secondes donneront un ralenti de X4 (100/25), c’est à dire du Slow-Motion. Et donc communément, on se contente de tourner à la même fréquence d’image que celle qui est prévue pour la diffusion: mais on peut décider de sortir des sentiers battus pour s’affranchir de certaines limites.
Historiquement, la cadence d’image, c’est une succession de photos prises sur une seconde, qui sont là pour donner naissance à l’animation. L’animation, c’est faire en sorte que notre œil n’est plus le « temps » de voir qu’il s’agit d’une suite d’images fixes. C’est donc une « illusion » liée à la rémanence rétinienne.
Au début du cinéma muet, nous étions à une cadence située entre 14 et 20 images/s car elle dépendait de la vitesse de rotation de la manivelle de l’opérateur! C’est ce qui donne cet aspect saccadé: notre oeil perçoit la suite d’image.
Au moment du cinéma parlant, on a collé une bande magnétique sur la pellicule. Mais le problème, c’est qu’à cette cadence -faible-, on n’arrivait pas à enregistrer la voix correctement. Il a donc été décidé que la cadence de 24 images par seconde était le parfait compromis entre restitution sonore/saccades limitées à l’image et surtout prix de la pellicule (extrêmement onéreuse à l’époque). Là est née cette cadence historique dont on pourrait pourtant, 100 ans plus tard, s’affranchir.
Le « 50 » est quant à lui, né de la télévision qui fonctionne… A l’électricité. En Europe, la fréquence du courant est de 50 Hz et comme la télévision cathodique est constitué d’un faisceau électrique qui balaie l’écran de haut en bas, on a décidé d’envoyer 50 demi images (entrelacées) pour que ce faisceau ait le temps de balayer l’écran de haut en bas entre deux images (et 2 deux signaux de courant alternatif) : à l’époque, on ne savait pas envoyer des images « pleines », ou procéder autrement.
Entre temps, tout a changé puisque qu’entre la numérisation des caméras et surtout la révolution de l’affichage (écrans plats qui peuvent supporter des images pleines…), on est capable -théoriquement- d’envoyer n’importe quelle cadence d’image, vers n’importe quel périphérique. Oui, mais voilà, vous allez entendre que le Cinéma, c’est forcément en 24P, que la télé, c’est obligatoirement du 50i et que le 50P, ça ne sert qu’à faire des ralentis. Que tout ce qui est en « 50 » donne une texture « vidéo » aux images et donc, que ce n’est pas « Cinéma » avec son « flou de mouvement » (motion Blur)… Et bien, tout cela est assez largement faux.
A priori, aucune, à moins de vouloir produire des ralentis ou des accélérés (la fonction VFR Variable Frame Rate chez Panasonic). Mais pourtant, n’importe quel réalisateur a au moins été confronté au moins une fois à question suivante: pourquoi mon panoramique est-il saccadé à la lecture ?
La réponse, c’est que vous avez choisi une cadence trop faible (24/25 image par seconde). La caméra effectuant un grand mouvement, chacune des 24/25 images dans la seconde est trop différente de la suivante pour berner notre vision: nous percevons les saccades. Ce qui est très désagréable. En effet, chaque cadence offre ses propres avantages et inconvénients que nous allons lister. L’influence sur votre rendu d’image est conséquent, mais pas autant qu’on peut le croit:
Les dogmes sont tenaces car souvent basés sur le fameux rendu cinéma très apprécié (flou de mouvement, faible profondeur de champ pour résumer) et que l’on applique la fameuse règles des 180° (qui consiste à utiliser une vitesse d’obturation double de celle de la cadence d’image). Ceci pour obtenir un bon compromis entre « précision et flou ».
Le problème, c’est que cette règle est aussi souvent appliquée avec les « nouveaux » format comme le 50P. Autrement dit, on utilise alors un shutter à 1/100ème. Ce n’est pas toujours opportun. Doubler le shutter revient à demander 2X plus de lumière puisque le capteur sera 2X moins exposé. Et ce là limite le flou de mouvement. C’est ce qui donne cet effet « chirurgical » à ce type d’images.
Au 100ème de seconde en 50P, le flou de mouvement est atténué. On a le même résultat qu’en 24P à 90°.
Si vous tentez de tourner en 50P à 1/50ème, vous allez voir que le flou de mouvement est le même qu’en 24/25P, mais que le rendu sera légèrement différent, car il y a 2x plus d’images et donc, plus de fluidité. Et non, tous les films ne sont pas tous tournés en 24P. Le Seigneur des Anneaux en est un excellent exemple sans pour autant que vous ayez l’impression de regarder la TV. Il faut donc se sentir libre de choisir sa fréquence et son shutter en fonction de son projet. Et se poser les bonnes questions.
L’article 24P/25P/50P/ 50i… Quelle cadence d’images choisir ? #la fin des idées reçues est apparu en premier sur Createinmotion.
En tournage télé, vous verrez toujours un « ingénieur vision » accroché à son pupitre de contrôle, à déchiffrer des moniteurs qui affichent des formes d’ondes, des sinusoïdes et d’autres affichages qui font plus penser aux instruments de lancement d’une fusée Ariane, qu’à une image vidéo. Ce sont ces outils qui lui permettent de tout corriger pour envoyer une image parfaite. Ces outils, on les retrouve pourtant partout: sur les caméras tout comme dans tous les logiciels de montage. Pourquoi? Parce qu’ils sont les seuls à analyser tous les pixels d’une image sur la base de signaux électriques, bien au delà de ce qu’on peut voir dans le cadre caméra, avec notre « simple » vision. Les conditions de tournage (luminosité, nécessité d’être rapide…) peuvent laisser échapper des détails. D’autre part, il se peut très souvent que le moniteur utilisé ne soit pas bien calibré et rende donc des couleurs ou une exposition erronée. Pour toutes ces raisons, on va tenter d’utiliser ces outils au tournage et en post-production pour éviter les erreurs, ou pour étalonner correctement.
Ici on voit les deux grands modèles de couleurs. A gauche, le modèle RVB (Rouge, Vert Bleu), dit additif, utilisé par tous les écrans, les télés, bref, tout ce qui produit de la lumière. Et à droite le système soustractif utilisé pour l’impression (la lumière est « reçue » par le support). Dans ce dernier cas, si on mélange toutes les couleurs primaires (Cyan, Magenta, jaune), ça nous donne du noir sur le papier. A l’inverse, pour l’imagerie « électronique », si on additionne l’électricité des primaires, on obtient le plus de courant possible: ce qui nous donne le blanc absolu. C’est un peu comme allumer un ampoule au maximum de sa puissance. Et quand il n’y a pas de lumière, on a zéro volt, donc du noir. Pourquoi évoquer ce modèle? Parce que c’est pour comprendre que dans toutes les représentions des outils dont nous allons parler, tout sera basé sur une quantité d’énergie. C’est cette quantité, qui sera parfois segmentée en couleur, qui sera interprétée graphiquement pour nous aider.
L’histogramme, c’est la représentation du nombre de pixels (axe vertical) situés dans un zone de luminance, de gauche (le noir) à droite (le blanc). Pour résumer donc, si vous voyez une grosse montagne à droite, votre image sera très claire. Côté gauche, elle sera très sombre. Et si la montagne a un sommet plat, c’est que vous avez du blanc ou du noir absolu. Problème, cette représentation n’est pas en corrélation avec la composition de votre cadre: si votre zone surexposée est en haut de votre cadre (un ciel par exemple), la montagne sera toujours à droite de l’outil, ce qui rend son interprétation assez délicate pour transposer vos éventuelles corrections. Regardez si dessous, ces deux exemples:
L’image est plus équilibrée.Comme elle demeure très blanche, la majorité de la représentation reste sur la droite: mais on devine les rideaux (au milieu), et le jeans à (gauche) de la représentation.
Il faut donc tenter de ne pas avoir de « sommets plats », et essayer d’avoir un répartition la plus homogène possible.
Le moniteur de forme d’onde, c’est un peu un super-histogramme, avec deux différences majeures qui le rendent bien plus efficace. Tout abord, c’est l’image qui est représentée de gauche à droite (c’est à dire le vrai cadre) et d’autre part, l’échelle de l’axe Y à gauche (vertical), va représenter la valeur de luminance. A 0 c’est noir, à 100, c’est blanc (sans rentrer dans les détails d’espaces colorimétriques ou de types d’afficheurs). Pour mieux comprendre, regardez cette image:
Elle est surexposée à gauche du cadre. On retrouve donc bien l’indication de cette surexposition sur le moniteur de forme d’ondes, là encore à gauche, puisqu’on atteint les 100 IRE (Institute of Radio Engineers, qui a défini la norme). Ce qui n’était pas aussi visible lors du tournage. En revanche, pas de problème avec les noirs sur toute l’image. Regardons maintenant, une image mieux exposée:
Ici, on a récupéré les fenêtres du bâtiment de gauche. Il n’y a plus, dans l’image, de « pixels brulés ». On doit donc utiliser cet outil très facilement « interprétable », pour contenir les valeurs d’exposition entre la barre haute et le bas. Mais il y a plus fort, car cet assistance peut aussi être utilisée avec en couleur.
Prenons notre moniteur de forme d’ondes en luminance et ajoutons lui de la couleur. Autrement dit, il va afficher les quantités de rouge, de vert de bleu, suivant la même échelle. Ceci va donc nous permette de voir très facilement si une couleur est surreprésentée par rapport à une autre. Mais aussi de juger, comme précédemment, de l’exposition. L’échelle de l’axe Y étant la même, on ne peut pas dépasser le « 100 » symbolique. Encore une fois, regardons cette image:
On voit que le rushe présente une dominance rosée dans les blancs. Le phénomène est bien plus visible sur le moniteur de forme d’ondes RVB: les murs constituent le plus gros défaut, puisqu’ils sont sensés être blancs. On constate une surreprésentation du rouge. De même que l’image est en fait surexposée. Regardons la version corrigée:
Ici, ce qui est sensé être blanc, sur le mur de gauche, montre des valeurs RVB qui se confondent. C’est normal, l’addition des trois couleurs primaires donne le blanc, d’où le modèle « additif » dont nous avons parlé. L’escalier, marron, montre « plus de rouge » (normal, puisqu’il est marron), et le mur de droite affiche lui aussi correctement les RVB confondus, d’où le blanc. A noter qu’on peut aussi afficher ces valeurs sous formes de « parade »: c’est à dire, les trois couleurs primaires côte à côte comme le montre cet exemple:
On peut donc doser parfaitement les trois couleurs pour obtenir une image parfaite.
On pourrait comparer les « fausses couleurs » à une camera thermique, sauf que l’outil va réagir à l’exposition (luminance) et non pas à la chaleur. Contrairement aux zebras qui « rayent à l’image » tout ce qui dépasse un valeur IRE que vous aurez déterminée, les fausse couleurs, vont suivre une échelle. Le rouge montrera par exemple tout ce qui dépasse 100 IRE, mais vous aurez droit à toutes les nuances, et vous pourrez vous en servir notamment pour l’exposition des tons chair (Skin tones). Examinons cette exemple:
Comme on le voit, l’image est brûlée, elle est rouge dans sa grande majorité et tous les détails sont perdus. Plus important, faute de dynamique, on peut décider de préserver le visage du sujet. Mais il est aussi surexposé alors que les tons chairs devraient être entre 40 et 50 IRE (vert): c’est la différence avec les zébras qui n’auraient montrés que le ciel brulé. Ici, on a droit à une échelle de valeurs.
Voilà la version corrigée: on retrouve les détails de la ville en contrebas et surtout, le visage du modèles n’a plus de zones rouges. Les fausses couleurs permettent d’avoir une très bonne visualisation graphique de l’exposition. C’est un des outils les plus simples. Malheureusement, la fonction est rarement disponible sur les caméras à moins de toucher le haut de gamme (VariCam…). Mais tous les moniteurs externes (SmalHD…) en disposent.
C’est un outil précieux est assez unique: il va se concentrer sur la saturation des couleurs en oubliant complètement toute forme de luminance. Les différentes teintes sont représentées autour d’un « cercle ». L’affichage des couleurs ira du centre (zéro saturation) vers l’extérieur (100% de saturation, à la limite de l’outil) suivant un angle donné par les couleurs. C’est un peu comme une boussole de marin, avec un attribut de « puissance ». Mais l’intérêt est ailleurs: les teintes chairs (skin tones) ont toutes la même référence, avec un angle bien précis qui est affiché par le vectorscope. Du coup, il devient très simple de bien valoriser un visage en rapprochant les valeurs de cet angle précis, symbolisé par une ligne. Regardez les exemples ci-dessous, volontairement faussés pour la compréhension.
Ici, l’image est magenta et s’éloigne de la ligne à -40°(environ)-(entre le rouge et le jaune), il est évident que les skintones sont mal rendus… Mais sur l’exemple ci-dessous…
…On arrive à un rendu parfait des tons chairs, simplement en se fiant à l’outil.
L’article Les « Scopes » (Histogramme, Waveform…): comment s’en servir? Et pourquoi? est apparu en premier sur Createinmotion.
Une vidéo tournée en Log, n’est pas regardable en l’état. Elle apparait délavée et plate. C’est normal puisque l’objectif étant de conserver un maximum d’informations du capteur afin d’avoir l’image la plus « malléable » possible en post-production, la caméra va « désactiver » un ensemble d’opérations qu’elle effectue d’habitude toute seule. Surtout elle va employer une courbe de transfert Logarithmique (d’où le Log), pour retenir le maximum d’information du capteur. Cette courbe a l’avantage d’aller « chercher » tous les détails de l’image, mais elle a pour gros inconvénient de ne pas être optimisée pour notre vision et surtout, d’être bien plus exigeante en terme d’exposition. Elle méritera aussi bien plus de travail de post-production. A la clé cependant, une image bien plus détaillée, et bien plus « ciné ».
Le V-Log, pas fait pour regarder, bon à retravailler.
La plupart des courbes de gamma internes des caméras (les profils comme « naturel », « standard »… chez Panasonic), sont conçues pour montrer à l’écran ce que perçoit notre vision. Pratique, car l’image est flatteuse, mais il existe un énorme inconvénient: la dynamique de l’image est plus réduite. Pourquoi? Parce que la courbe va privilégier les informations les plus « visibles » (et souvent, celles dont la luminosité est médiane comme les skin tones). Conséquences, les pixels sombres et les pixels très exposés sont assez mal lotis.Du coup, les ombres sont souvent détériorées (noirs écrasés), si vous essayez de les corriger en post-production, vous verrez l’apparition du phénomène de « Banding » (des aplats très vilains). L’avantage du VLOG-L est que la répartition des « bits » disponibles pour les pixels lumineux et les pixels sombres est beaucoup plus équilibrée. Les zones claires et « moyennes » disposent du même nombre de nuances de gris enregistrées, et même si les zones sombres en ont légèrement moins, elles en ont toujours nettement plus qu’en utilisant une courbe de gamma conventionnelle qui elle va bien plus ressembler à un « S ».
En conséquence le VLOG- est un mode adapté à l’enregistrement, mais pas vraiment à la visualisation. Mais ceci pose un énorme problème: comment correctement exposer et faire une bonne balance des blancs sur une image aussi « flat » (plate)?
Au début de l’arrivée du Log, on était bien embêtés: pas de moyen de visualiser en temps réel l’application d’une LUT (Look Up Table) pour traduire l’image grisâtre en quelque chose de visible et qui permettrait donc a minima de vérifier que les couleurs sont à peu près bonnes, tout comme l’exposition. La LUT est une manière d’interpréter l’image et c’est un peu la première étape en post-production. Depuis, les choses ont bien changé. GH5(S), EVA1 ou les VariCam pour ne citer qu’elles permettent de charger des LUT et d’activer/désactiver leur interprétation. Il en va de même pour la plupart des moniteur externes. Et ça peut aider bien sûr, mais ce n’est pas une solution ultime car cette fonction applique de façon automatique une courbe de gamma donnée, dont le résultat peut tout à fait ne pas correspondre à la façon dont on aurait retravaillé ses images manuellement. C’est donc une prévisualisation que l’on pourrait qualifier de « raisonnable », mais à laquelle on ne doit pas totalement se fier dans la mesure où l’on aurait pu faire des choix d’étalonnage très différents.
Mais revenons à l’exposition. Il est nécessaire d’utiliser les zébras, l’oscillo et l’histogramme pour la maîtriser en VLOG, mais il ne faut pas le faire de la même façon que sur un tournage avec une courbe de gamma quelconque. En effet, les niveaux qui peuvent nous être familiers (70 IRE pour les tons chairs et 100 IRE pour les hautes lumières par exemple) ne sont tout bonnement pas adaptés au VLOG: pourquoi parce que la courbe ne suite plus les mêmes valeurs de « S » en fonction de l’expo.
Un exemple tout simple avec le GH5 et le VLOG-L, les très hautes lumières vont commencer à apparaître dans les zébras et sur l’oscillo, vers 80 IRE, et rien au-delà de 81 IRE ne sera visible, jamais. Même en ouvrant l’iris à son maximum et en pointant la camera vers le soleil, on ne verra jamais rien au-delà de 81 IRE. C’est tout à fait normal : le VLOG a été conçu à l’origine pour la VariCam qui dispose d’une plage dynamique de 15+ stops. Le VLOG-L traite les ombres et les tons moyens comme le VLOG, mais dans une limite de 12 stops, donc avec une limite à 80 IRE. La VariCam elle aura des références différentes: on le voit, chaque Log a ses particularités.
Ça peut sembler un peu limité mais en fait il n’en est rien car il est possible d’utiliser les mêmes LUTs que celles de la VariCam puisque la répartition des gris est la même pour le VLOG-L et le VLOG. Il faut comprendre les niveaux et les limites du capteur à respecter et pour faire court, il faut intégrer qu’il n’est pas possible d’exposer des tons chair à 70 IRE ou des gris moyens à 55 IRE en VLOG-L. Ces niveaux vont devoir être nettement plus bas.
1- L’exposition à droite (Exposure To the Right), une vraie bonne idée?
Cette technique implique l’utilisation de l’histogramme. Cet outil montre la répartition de la luminosité dans l’image et plus l’image tendra vers les hautes lumières, plus la courbe de l’histogramme se déplacera vers la droite. Les promoteurs de cette technique considèrent que les tons les plus foncés et les ombres sont les zones les plus bruitées d’une image et qu’en faisant sortir une image de la zone sombre il est possible de mieux la retravailler en post-production. Autrement dit : plus on expose à droite, plus on profite des capacités du capteur et surtout, plus on va pouvoir obtenir une image détaillée. Souvenez-vous de ce dont nous parlions sur la répartition des bits : les hautes lumières et les tons moyens se voient allouer le même nombre de bits (c’est-à-dire d’information) alors que les zones sombres en ont moins à disposition. Donc moins l’image n’a de zones sombres plus son contenu sera détaillé, et rien n’empêchera plus tard de l’assombrir de nouveau. Cette technique souffre d’un gros inconvénient: elle implique énormément de travail en post-production pour rééquilibrer toutes les images et elle peut plus facilement nécessiter un débruitage long et pénible.
2- Le gris 18%, l’oscillo, les zebras et les « Falses colors », vos meilleurs amis.Les systèmes vidéo font souvent référence aux « gris moyens » ou aux « gris 18% ». Le gris 18% est un standard en vidéo et en photographie, il s’agit d’une nuance de gris qui reflète 18% de la lumière qu’elle reçoit. Elle est très souvent utilisée sur les cartons de test et il est très facile de s’en procurer dans les magasins spécialisés. Une réflexion de 18% représente la réflectance moyenne d’une scène moyenne, d’où le fait que l’exposition automatique d’une caméra est souvent conçue pour exposer correctement les zones de l’image dont la réflectance est d’environ 18%. En utilisant cette technique d’exposition, vous trouverez que l’oscillo et les zébras sont bien plus utiles que l’histogramme.
Contrairement un une courbe de gammas conventionnelle, et pour reprendre l’exemple du VLOG-L, ce dernier n’expose pas les gris moyens à environ 50 ou 55 IRE. Il les exposera en réalité à 42 IRE, donc avec un gris moyen, il vous faut le voir apparaître sur votre oscillo à environ 42 IRE pour une exposition « propre », c’est-à-dire standard.
Pour information, voici les niveaux de réflectance du mode VLOG-L :
0% de réflectance (noir) : 7,3 IRE
18% de réflectance (gris moyens) : 42 IRE
90% de réflectance (blanc) : 61 IRE
Super blanc absolu : 80 IRE
Sur cet exemple, l’oscillo montre une sous-exposition: pour être bien, je devrais atteindre mes 80 IRE dans les blancs.
Cependant, exposer pour un mode gamma logarithmique n’est pas toujours aussi simple que de mettre un carton à 18% dans le décor et d’exposer à 42 IRE. On peut donc parfois se demander si un équilibre judicieux entre la technique de l’exposition à droite et celle de l’exposition des gris moyens, même si ça peut s’avérer compliqué, ne serait pas la meilleure solution. Finalement tout dépend des compromis que l’on est prêt à accepter. C’est pour cette raison, que pour chaque caméra, vous devez utiliser en conjonction: l’injection de la LUT de base (ou de celle que vous utiliserez en post-production si vous être sûrs de votre coup et voir le bruit généré), l’oscillo afin de visualiser vos valeurs, mais aussi les Zebra afin d’avoir une « alerte directe » sur l’écran quand vous cramez les informations.
Les fausse couleurs (false colors), sont une autre représentation qui donne des couleurs relatives à l’exposition suivant une échelle, comme le montre cette image.
L’utilisation de tous ces outils vous permet de « savoir » dans quelle zone IRE les informations seront les mieux traitées pour chaque caméra. Et surtout cela va vous permettre de faire des choix de réalisation. Devez-vous privilégier exceptionnellement un arrière plan? Ou plus conventionnellement un sujet? Faut-il rapporter de la lumière pour homogénéiser le tout? A partir de quand génère-t-on du bruit qui sera difficilement traitable en post-production? De là se dégageront des « règles » pour chaque machine.
Les LUTs (Look Up Tables) sont utilisées pour l’étalonnage, pour expliquer à un moniteur comment afficher correctement une valeur qui a été encodée de façon logarithmique. Les LUTs sont devenues assez communes. Beaucoup de logiciels de montage ou d’étalonnage sont capables de les utiliser, de même que beaucoup de moniteurs externes ou d’enregistreurs externes. Donc avoir un bon fichier LUT dans son moniteur permet d’avoir une bonne idée de ce à quoi ressemblera effectivement ce que l’on est train de filmer une fois étalonné.
Maintenant, comment est-ce que cela fonctionne ? Une LUT transforme une certaine valeur d’un fichier vidéo en une autre donnée pour son affichage. Elle va donc vérifier l’information liée à la couleur et au gamma de la source et la transformer en une autre valeur de couleur et de gamma pour que l’affichage de cette dernière corresponde à la volonté de l’opérateur. Pour chaque valeur d’entrée donnée il existe une seule valeur de sortie qui ne varie jamais. Jusque-là tout va bien, ça semble assez simple, mais les gens oublient souvent que chaque modèle de caméra va attribuer des valeurs de colorimétrie bien spécifiques à ce que son capteur aura repéré. Ça implique que la même LUT traitera différemment les informations provenant de cameras différentes. Donc si l’on tourne en DVX200 et que l’on souhaite obtenir une image « réaliste », il faut utiliser une LUT qui a été spécialement développée pour la DVX200 et non pour une autre caméra. Concrètement, cela signifie que même si la DVX200, la VariCam et le GH5 utilisent le VLOG, leurs capteurs sont différents et se comportent différemment, donc la même LUT appliquée à ces trois modèles ne produira pas précisément les mêmes résultats. Dit comme ça, ça semble évident n’est-ce pas?
Ceci étant dit, on peut tout de même utiliser la LUT de son choix car au final le résultat doit correspondre à son goût et si une LUT dédiée à une autre caméra donne des résultats plus satisfaisants ou plus créatifs, allons-y !
L’article V-LOG, comment bien exposer ses images? est apparu en premier sur Createinmotion.
Nous n’allons pas ici rentrer dans les formules mathématiques complexes, mais plutôt essayer de vous donner les règles principales afin d’obtenir, soit une faible profondeur de champ, soit au contraire une immense profondeur de champ (qui tendra vers l’hyperfocale, c’est à dire que tout est net).
La question semble stupide, mais pourquoi ne pas vouloir que tout soit au point? Tout d’abord par intention artistique. C’est le cinéma avec ses codes, ainsi que la photographie qui nous ont éduqués à vouloir détacher un acteur ou un sujet de son arrière plan: l’image est esthétique puisque l’attention est focalisée sur l’action et pas ailleurs (qui sera flou avec un effet de Bokeh). A l’inverse, quand on couvre des news, on a plutôt intérêt à ce que tout soit net et surtout, on n’a pas vraiment le temps de corriger le point en courant derrière un sujet. Autre application, quand on tourne sur une Gimbal (nacelle comme le Ronin-s). Les mains étant occupées, soit on se fie à l’autofocus de la caméra, soit on passe en hyperfocale pour être sûr du point (puisqu’on n’a pas de 3ème main pour le faire seul à la volée).
Attention, la zone de mise au point suit une règle d’or. Si vous faite le point sur un sujet et que la profondeur de champ (zone nette) est de 3 mètres, vous pouvez considérer que tout sera net: 1 mètre devant le sujet et 2 mètres derrière lui: c’est la règle des 1/3 – 2/3.
Pour aller plus loin et essayer différents réglages, je vous recommande d’aller faire un tour sur https://dofsimulator.net/en/
L’article La profondeur de champ expliquée est apparu en premier sur Createinmotion.
L’élément principal pour produire des films qualitatifs, c’est ce qu’on appelle l’exposition. Il est important de comprendre ce qu’est une « bonne exposition » , pour éviter les images « cramées », « sur-ex » ou « sous-ex ». Contrairement aux idées reçues, tout n’est pas rattrapable en post-production.
Pour cela, limitons d’abord le concept à deux points :
L’exposition, c’est la quantité de lumière atteignant le capteur, et ce, pendant une certaine durée.
L’art d’obtenir une bonne exposition est donc celui de contrôler cette quantité de lumière.
Pas assez de lumière? Vous aurez une image bruitée, plate et avec du grain. Trop de lumière? Vous obtiendrez une image délavée et agressive. Dans les deux cas, vous aurez perdu un grand nombre d’informations sur l’image que vous avez enregistrée.
1. Le plus important est l’ouverture de l’optique (ou « iris »). C’est un cercle dans l’optique, de taille variable, à travers lequel la lumière passe. La taille de l’ouverture est connue sous la valeur « f ». Paradoxalement, plus cette valeur f est basse plus le trou est grand (comme dans f/2.0 par exemple), laissant passer beaucoup de lumière. A l’inverse, plus le trou est petit et plus la valeur f est élevée (par exemple f/11), laissant passer peu de lumière. C’est ce qu’on appelle le diaphragme en photographie. L’ouverture a aussi une incidence sur la profondeur de champ. Plus l’ouverture est grande, plus la profondeur de champ est réduite, c’est à dire que la zone où le sujet est au point est restreinte. Les optiques n’ont aussi pas les mêmes performances à toutes les ouvertures: elles peuvent perdre du piqué, produire des aberrations chromatiques… C’est en général de f/2 à f/5.6 que les performances sont les meilleures.
2. La vitesse de l’obturateur (shutter speed) contrôle la durée pendant laquelle la lumière est autorisée à entrer dans l’optique. Plus le shutter et lent, plus la lumière « reste » (et rentre en quantité si l’on peut dire), mais plus un sujet mobile sera flou.
Attention, en film (et pas en photo), on va très peu jouer sur ce paramètre car il affecte le rendu de l’image. En effet, imaginons que vous ayez beaucoup de lumière, mais que vous vouliez garder une grande ouverture (pour avoir un joli flou artistique derrière le sujet). Vous allez donc être tenté d’augmenter le shutter (1/200ème par exemple) pour éviter de cramer vos images: vous risquez d’obtenir une image qui scintille, et un rendu très « clinique » (tous les mouvements sont ultra nets). La règle donc à appliquer en général est celle des 180d (degré). C’est à dire, utiliser un shutter fixé au double de votre cadence d’enregistrement: exemple, vous tournez en 4K/25P, votre shutter sera au 1/50ème (2×25). Alors, que faire pour avoir une image bien exposée avec une grande ouverture et sans toucher au shutter?
3. C’est ici qu’intervient le filtre à densité neutre (ND). C’est est un peu comme une paire de lunettes de soleil mais sans effet secondaire (changement de couleurs, polarisation, etc). Ils sont utilisés dans les situations très lumineuses comme lors d’une journée très ensoleillée. Ce filtre (qui est fixe par pallier, ou variable), va donc permettre de compenser la surexposition sans toucher ni à l’ouverture, ni au shutter. Une EVA1 dispose de 3 filtres ND intégrés par exemple.
4. Le Gain ou les ISO. Nous voici dans la situation inverse. Que faire quand on est « ouvert » à fond, sans filtre ND et que l’image est sous-exposée? La seule manière est alors d’utiliser une amplification électrique du signal derrière le capteur. En « boostant » le signal, on arrive à compenser le manque de lumière. Mais cela a un prix: l’ajout de bruit à l’image (ce fourmillement assez peu esthétique). C’est pourquoi Panasonic a inventé le double ISO natif afin restreindre ce bruit à l’image.
C’est en jouant sur ces 4 paramètres (ou plutôt 3 si on ne touche pas au shutter), que vous obtiendrez une bonne exposition.
L’article Exposition : toutes les règles expliquées est apparu en premier sur Createinmotion.
Le double ISO natif (ou Dual Native Iso), c’est une nouvelle manière d’exploiter les informations d’un capteur afin d’étendre sa dynamique et de réduire le bruit qu’il produit. Pour résumer, le capteur va pouvoir lire 2 ISO natifs à la fois sur le capteur au lieu d’un seul (800 et 5000 pour une VariCam par exemple). Cette fonctionnalité a été introduite chez Panasonic avec sa VariCam. Mais avant d’en parler plus longuement, il faut commencer par la base.
Tout d’abord, comment fonctionne un capteur? Pour faire très simple, un capteur reçoit de la lumière sur ses photosites. Il va transformer la quantité de lumière en courant électrique suivant l’intensité de cette lumière: ceci nous donne une interprétation, comme une mosaïque en nuances de noir vers le blanc (un photosite aveugle = pas de lumière = pas de courant / un photosite qui reçoit le blanc absolu donne donc une intensité de courant maximale).
C’est très bien, mais comment obtient-on la couleur alors qu’on est encore en noir & blanc? Et bien, on va intercaler des filtres devant les photosites afin de les affecter aux 3 couleurs primaires (Rouge, Vert, Bleu). On peut désormais reconstituer la luminance et les couleurs grâce à ce qu’on appelle la « débayérisation » effectuée par un savant algorithme à l’intérieur de la caméra ou en post-production quand on enregistre en Raw. Voilà comment on obtient l’image.
Maintenant qu’on a saisi la théorie du fonctionnement d’un capteur, revenons à nos ISO.
En effet, les performances d’un capteur vont dépendre de nombreux facteurs. On retiendra en premier sa dynamique (faculté de conserver toutes les informations dans très hautes lumières autant que dans les basses): rien n’est plus compliqué pour un capteur que de filmer à contre jour par exemple (l’arrière plan est brûlé et on ne voit rien dans les ombres du sujet). Un capteur qui a la plus grande dynamique sera capable de conserver un maximum de détails dans ces conditions. Ensuite, on retiendra son rapport signal/bruit. On a vu que la lumière était transformée en électricité. Ce signal va être amplifié par un circuit.
Cette amplification électrique, c’est le Gain ou l’ISO.
L’ISO natif, constitue la valeur où cette amplification génère le moins de bruit (ce fourmillement à l’image) donc le meilleur rapport signal/bruit. Par analogie, imaginons que vous enregistriez un son très faible avec un dictaphone. Pour entendre vous poussez le son a fond et… vous obtenez un très gros souffle à l’écoute. En image, c’est presque pareil: vous avez très peu de lumière, vous amplifiez le signal en montant les ISO et vous voila avec plein de bruit. Alors pour s’affranchir de ces limites et donc augmenter la dynamique et réduire le bruit, de nombreuses techniques ont été utilisées. Citons en photo, le fait de prendre 2 clichés en un à raison d’une ligne sur deux: une ligne avec un ISO optimal pour les ombres, une autre avec un ISO optimal pour les hautes lumières. Pas très pratique, car il faut interpoler les lignes manquantes…
Au lieu de ne servir que d’un seul circuit d’amplification optimisé pour des conditions « moyennes », on va rajouter un second comme le montre ce schéma pour la VariCam 35/LT.
Chaque circuit étant dédié à la meilleure performance en fonction des conditions, on arrive ainsi à réduire significativement le bruit. C’est le cas pour l’EVA1, le GH5S et la série VariCam.
L’article Double ISO natif (Dual Native ISO) // + de dynamique et – de bruit est apparu en premier sur Createinmotion.