CODE RED: Das Ultimative Inoffizielle Strategiebuch Zu Fortnite: Battle Royale
LEGO®-EV3-Roboter: Bauen Und Programmieren Mit LEGO® MINDSTORMS® EV3
NSA - Nationales Sicherheits-Amt: Roman
Legend Of Zelda: Breath Of The Wild Erw. Edition (Lösungsbuch)
Die Macht Der Geographie: Wie Sich Weltpolitik Anhand Von 10 Karten Erklären Lässt Erweiterte Und Aktualisierte Taschenbuchausgabe
Kampf Oder Untergang!: Warum Wir Gegen Die Herren Der Menschheit Aufstehen Müssen
Das Geheime Leben Der Bäume: Was Sie Fühlen, Wie Sie Kommunizieren. Der Bildband. Mit Dem Vollständigen Text Der Originalausgabe
Minecraft, Handbuch Für Kreative
Die Sushi Bibel: Japanische Leckerbissen Zum Selber Rollen Inkl. Maki, Nigri, Inside-Outs Uvm.
Hacking Security: Das Umfassende Handbuch
Raspberry Pi: Das Umfassende Handbuch. Aktuell Zu Raspberry Pi 3B+ Und Zero WH
Red Dead Redemption 2 - Das Offizielle Buch - Collector’s Edition
Pokémon - Let's Go, Pikachu! Evoli! - Das Offizielle Lösungsbuch Und Pokédex
Jäger, Hirten, Kritiker: Eine Utopie Für Die Digitale Gesellschaft
Imaginons un cadreur qui peut voir l’intégralité de son environnement: devant, derrière, mais aussi au-dessus, en-dessous et surtout capable de bouger à la vitesse de la lumière pour suivre sans erreur un avion de chasse. C’est exactement ce que permettent de faire les caméras 360° quand leur usage est détourné en 2D.
Comme elles filment simultanément absolument dans toutes les directions, l’idée est donc de sélectionner en post-production le cadre de l’image le plus intéressant et d’animer sa position pour suivre ce qui nous intéresse. Pour résumer, elles dont office de cadreur virtuel.
Pour mieux se rendre compte des possibilités, voici un court exemple de ce qu’il est possible de faire:
Comme on le voit dans ici, le principe est le même que celui qui consiste à « cropper » dans une image 4K quand on va livrer en HD. Sauf que c’est dans toutes les directions. Oui mais voilà, un peu comme pour les Gopro et autres caméras de sport, quand elles sont apparues, les caméras 360° abordables n’ont pas été prévues à la base pour être utilisées de manière traditionnelle. Elles ont été faites pour le social sharing avec des app et pas forcément une recherche de post-production poussée.
Malgré tout, et comme pour les caméras sportives, les pros n’ont pas tardé à s’emparer des possibilités offertes, malgré la qualité d’image bien plus faible. Parce qu’un plan unique justifie une qualité moins « broadcast ». Il existe donc des limites, mais elles sont de plus en plus repoussées. Ceci d’autant que les caméras 360° disposant de gyroscopes et filmant partout, elles sont toutes équipées de stabilisateur d’images si performants qu’elles peuvent se dispenser de nacelles (Gimbal).
Le principe est assez simple. Les caméras 360° sont équipées d’objectifs fisheye qui filment leur environment à 180° (dans la cas de 2 objectifs, 120° pour 3 objectifs etc).
A partir de là, une puce dédiée ou un logiciel vont rassembler les 2 images (ou autant d’images que la caméra a d’objectifs) de manière équirectangulaire pour produire ce résultat qui s’apparente à un panorama déformé:
C’est cette image qui sera projetée dans une sphère virtuelle et qui permettra au spectateur de se promener à 360° comme s’il était au centre de cette sphère. L’idée est donc de récupérer une portion de l’image afin de l’insérer dans un montage classique. On va ainsi pouvoir animer le cadrage, changer de point de vue etc…
Evidemment, tout cela semble magique, mais il y a plusieurs limites qu’il faut bien prendre en compte:
Si tous les logiciels savent désormais monter de la VR (de la 360 native donc), ils ne sont pas tous capables d’effectuer le recadrage et l’animation des paramètres (changement de vue, champ de vision etc…). C’est pourquoi deux solutions s’offrent à vous:
– Utiliser Insta360 Studio 2019 qui supporte gratuitement la majorité des caméras 360° y compris celles qui ne sont pas de la marque. Il est téléchargeable ici et son tutoriel (très simple est ici).
– Installer les plugins Gopro pour Premiere Pro qui vont permettre ajouter l’effet « Gopro VR Reframe ». Le téléchargement pour Windows est ici et le téléchargement pour Mac est là. A noter que Gorpo propose aussi l’installation des plugins via son logiciel Gopro Fusion Studio, mais ce dernier ne sera compatible qu’avec la caméra de la marque (la Fusion).
Une fois les plugins installés, il suffit de lancer Premiere Pro et d’importer vos fichiers 360 en Flat (equirectangulaire). Créez ensuite une séquence (une Timeline), aux dimensions de vos rushes source (5.7K, 4K…) en respectant bien la cadence d’image native de la caméra (25/30/50P).
Glissez simplement l’effet GoPro VR Reframe depuis la bibliothèque d’effet sur le clip de votre choix. L’image est immédiatement recadrée. Placez la tête de lecture en début de clip et ouvrez les Options d’effets. Activez les chronomètres afin d’indiquer que vous allez animer ce « recadrage ». Les paramètres sont les suivants:
Tout comme pour les caméras de sport qui ont un champ de vision très large, les bords de l’image sont souvent courbés. Pour corriger ce défaut, allez chercher l’effet « Déformation de la lentille » (Lens Distortion). Glissez-le sur votre rushe. Dans les Options d’effet, il suffit de glisser le paramètre Courbure vers une valeur négative pour atténuer les déformations.
L’effet Tiny Planet est ultra populaire et il était ultra simple à réaliser avec le plugin Gopro VR Reframe. Il suffit pour cela:
– de basculer le Pitch à 90° (pour regarder vers le sol en quelque sorte) et d’étendre le champ de vision à près de 100. Ce qui va faire « decoller » la caméra et rassembler tout l’image sous forme de « petite planète ». Bien sûr, si la caméra n’était pas parfaitement verticale lors de prise de vue, vous devrez sans doute corriger l’angle avec le Roll ou le YAW.
La plupart des caméras 360° proposent une fonction d’hyperlapse car elles sont ultra stabilisées. Oui, mais voilà, l’effet est souvent disponible sur l’application du téléphone seulement et pas en post-production sur ordinateur. C’est très frustrant. Pour autant, il existe une parade:
– Tournez votre trajet à vitesse normale (comme dans la fin de la vidéo d’introduction de l’article).
– Une fois le fichier rapatrié dans Premiere Pro et Reframé à votre guise. Augmentez la vitesse de lecture entre 2000 et 3000%. En l’état, vous verrez bien l’effet hyperlapse, mais il n’y pas de motion blur (flou de mouvement).
– Effectuez un clic-droit sur le clip / Interpolation temporelle (Time Interpolation) / et sélectionnez Interpolation (Frame Blending). Le flou de mouvement est ainsi ajouté.
Enfin pour aller plus loin dans les possibilités offertes par les caméras 360° utilisée en 2D, nous vous recommandons cette vidéo de Cinecom.net qui montre l’étendue des transitions que l’on peut réaliser en quelques mouvements:
L’article [Tuto] Monter la 360 en 2D pour produire des plans impossibles est apparu en premier sur Createinmotion.
On a déjà abordé longuement la maîtrise de l’exposition dans un précédent article. Mais pour aller plus loin et comprendre le mécanisme, il faut connaître les limites physiques et mathématiques d’un objectif afin de le choisir en toute connaissance de cause.
Vous le savez déjà, l’ouverture est gérée pas le diaphragme qui a la capacité de s’ouvrir au maximum ou au contraire, de se refermer afin de laisser pénétrer plus ou moins de lumière. Par conséquent, le « diaph » est le premier outil nécessaire dans la gestion de l’exposition. Oui mais alors, pourquoi parle-t-on de f/2, f/5.6 etc…?
Et bien en fait, l’histoire est assez simple.
« Le nombre de l’ouverture » est tout simplement la relation entre la longueur focale et le diamètre maximal du diaphragme (c’est de à dire du fût interne de l’objectif). Prenons un exemple. Pour un objectif de 50mm dont le diamètre maximal est de 25mm, on obtient donc 50/25=2. Et c’est donc pour éviter ce calcul différent pour chaque optique que l’on simplifie en annotant l’ouverture en f/2, ou f:2 ou encore 1:2. Le calcul est ainsi fait au préalable et permet au cadreur d’avoir des valeurs de référence communes. Quelle que soit l’objectif, un f/2 donnera toujours la même quantité de lumière sur le capteur. Du moins, théoriquement.
Cependant, via cette règle, on se rend donc compte que si l’on veux une ouverture à f/2 pour une focale de 150mm, il nous faudra un diamètre de 75mm ! C’est ce qui explique que les grandes focales qui « ouvrent » beaucoup sont très volumineuses et très coûteuses. A cette focale, on trouvera plus généralement, des objectif qui ouvrent à f/4 (diamètre de 37,5mm). C’est aussi pour cela que les systèmes comme le m4/3 (GH5 etc) qui disposent d’un capteur plus petit que le plein format, peuvent avoir des optiques très lumineuses sans être encombrantes.
En effet, sur ce système, comme un objectif de 50mm en full frame correspond à à un 25mm en m4/3, il suffit alors d’un diamètre de diaphragme de 12,5mm pour ouvrir à f/2. C’est pour cela que les optiques sont bien moins encombrantes que sur un système Full Frame.
Vous aurez remarqué que quel que soit l’objectif, la caméra, l’hybride, les différents paliers du diaphragme sont constitués de la même suite de « nombres ». Parallèlement, augmenter l’ouverture d’1 « Stop », ou d’1 « diaph » signifie faire rentrer 2 fois plus de lumière. Chaque incrémentation est donc le double de la surface de la précédente. A la différence que plus la valeur est petite, plus la surface est grande.
Hors vous connaissez forcément la fameuse formule de calcul de l’aire d’un cercle: Surface du disque =πr2 où « r » symbolise le rayon. Et comme l’aire d’un cercle diminue de moitié lorsque le rayon est divisé par √2 (soit 1,4142), on passe donc d’un incrément au suivant en multipliant par √2 et en arrondissant. Essayons :
Si r=1, 1 x √2 = 1,4
1,4 x √2 = 2
2 x √2 = 2.8
2.8 x √2 = 4 etc etc etc.
Voilà le mystère élucidé. Cependant, tout ce que vous devez retenir, c’est qu’à chaque fois il existe un rapport de 2 quant à la quantité de lumière envoyée.
On vient de le voir, les valeurs de diaph ou F-Stops, sont des calculs mathématiques à la portée du plus grand nombre. Malheureusement, les objectifs ne sont de simples lentilles posées sur des tubes de tel diamètre et de telle longueur. Il existe de nombreux paramètres qui viennent perturber le calcul théorique dans la transmission de la lumière.
Tout d’abord, à objectif égal (même marque, même longueur focale, même « f »), on se rend compte qu’il y a toujours un écart léger car les verres ne sont jamais tout à fait identiques, à cause du revêtement, de la complexité des lentilles etc. Du coup un f/2 ne sera jamais réellement un f/2.
En photographie, on s’en moque car l’écart est très faible et donc, du domaine de l’acceptable. Qui plus est, la rectification en post-production est très simple.
En vidéo, c’est une autre histoire car dans les grosses productions, on tourne très souvent en multicam et s’il existe des écarts d’exposition entre plusieurs caméras, la post-production peut très vite devenir ardue. et donc coûteuse.
Et c’est ici qu’interviennent les T-Stops.
les F-Stops sont basés sur le rapport entre longueur Focale et diamètre. Les T-stops intègrent la valeur de Transmittance de la lumière.
En partant des F-Stops, les constructeurs vont donc calculer la déperdition de la lumière due au différents paramètres perturbateurs (rayon perdus contre le fût, absorption du revêtement, déperdition en traversant X lentilles) et vont donc ajouter au calcul de facteur de transmittance: 85% par exemple. En multipliant la valeur théorique par ce facteur on obtient une valeur réelle. Un f/2.8 sera donc un T3.3 suivant nos 85% de transmittance.
La réponse à cette question est assez simple: établir le facteur de transmittance doit être étalonné sur chaque objectif qui sort d’une chaine de production. Il ne s’agit donc plus de théorie, mais d’un gros travail d’usine afin qu’un T3.1 soit exactement identique à un autre T3.1. Ce qui implique des tarifs souvent multiplié par 3 ou 4 par rapport à un « simple » objectif « f ». C’est pour cela que l’on reserve ces optiques au cinéma en y ajoutant d’autres fonctions: bague de mise au point crantée pour les follow-focus, course plus longue pour être très précis, diaphragme « décliqué » pour passer d’un palier à l’autre en douceur… Ce qui amène la facture à un niveau stratosphérique.
Mais avez-vous réellement besoin de ces optiques? La réponse est simplement « oui » si la simplification de la post-production justifie ce surcoût de location supplémentaire des optiques. La réponse est non, pour les productions plus simples: matcher 2 caméras demeure assez aisé. Tout est donc question d’équilibre budgétaire.
L’article Comprendre les F-Stops / T-Stops est apparu en premier sur Createinmotion.
Streamer un Live: facile. Si j’ai un smartphone, je me connecte à mon réseau social préféré, je me filme en selphy (plus ou moins) bien et c’est parti. Certes, ce sera plus ou moins vilain, mais au moins j’ai un moyen ultra facile d’être en direct sans la moindre compétence. Au début, un peu comme pour la vidéo verticale, personne n’imaginait que ça allait marcher: mais les statistiques sont là. Le temps devant les Live ne cesse d’augmenter et la qualité des productions ne cesse d’augmenter. Oui, les « Directs » sur Facebook, Youtube et bien évidement sur la plateforme de gaming Twitch » dépasse désormais les contenus traditionnels en terme de génération d’audience qualifiée. Pour s’en convaincre, nous vous recommandons la lecture de cet article qui démontre parfaitement que les contenus en ligne qui marchent sont de plus en plus les Live. Bien qu’en anglais, les graphiques qu’il montre et les sommes en jeu parlent d’eux même:
Source: https://neilpatel.com
On ne va s’étendre sur les possibilités d’un smartphone: il dispose d’une connexion 4G, d’une caméra acceptable et peut donc diffuser de n’importe quel endroit. En revanche, il faut le suréquiper pour que l’image produite soit décente: mini trépied, micro externe, casque blutooth, lumière. Surtout, il vous cantonne souvent à une diffusion verticale (comme nous l’avons vu dans cet article): Facebook par exemple, impose une image 9/16ème dans son application Android, mais pas dans celle d’iOS. Autant de limites donc qui laisse le téléphone comme support N°1 pour les Live « vite fait », mais qui n’en font pas un périphérique adapté à une vrai réalisation: mis à part ajouter des filtres à l’image, vous ne pourrez pas ajouter des sous-titres, gérer en même temps commentaires etc.
Les caméras sont quant à elle restée longtemps en retard pour le Live Internet (via la vidéo sur IP donc). Pour résumer, auparavant, il vous fallait une ou plusieurs caméras reliée en SDI (ou en HDMI) à un mélangeur vidéo, qui lui même envoyait le programme vers un ordinateur ou un encoder dédié pour espérer passer sur Internet. Désormais, ce n’est plus le cas. Si l’on prend le cas de la dernière AG-CX350 (et même de références antérieures) de Panasonic, vous avez droit à une prise Ethernet, mais aussi à un Dongle Wifi optionnel. Qu’est-ce que ça veut dire concrètement?
Ainsi pour résumer, une caméra Broadcast sait à la fois être indépendante et lancer un Live, ou alors être utilisée comme source d’une réalisation multicam, le tout avec ou sans fil. Vous bénéficiez alors d’une qualité d’image bien supérieure et de tous attributs apportés par ce type de matériel (Entrées XLR, zoom… etc). Pour vous en convaincre, nous vous recommandons de lire cette documentation de Panasonic: How to connect AG-CX350 with Facebook Live , How to connect AG-CX350 with YouTube Live.
Vous pouvez aussi vous inspirer de ce très bon tutoriel en anglais pour un paramétrage ultra précis:
Alors, on est d’accord, sur le matériel récent, les choses sont simples, mais que se passe-il quand on veux utiliser d’autres sources d’images qui n’on ni Ethernet, ni Wifi. Là, encore, il existe des tas de solutions très nouvelles. Prenons l’exemple d’un hybride ou d’une caméra plus ancienne qui n’offre que du HDMI ou du SDI comme sortie. La solution classique consiste donc à les raccorder à un mélangeur vidéo, ou dans le cas d’une source unique, à un boitier d’acquisition vers un laptop. Ce dernier se chargera d’encoder le flux. Autrement dit, c’est lui assurera le « Bridge » entre le signal vidéo et le signal IP via les câble SDI ou HDMI. Problèmes: les connexions sont filaires en général et rajoutent des éléments à la chaîne de production. Il y a donc désormais bien mieux.
Si l’on regarde du côté de chez Teradek ou Newtek par exemple, on trouve une gamme très étendue de boîtiers à connecter directement sur vos caméras et qui vont transmettre le signal avec ou sans fil, vers Youtube/Facebook. Grosso modo, ses boîtiers font office de passerelle entre les sources vidéo et la vidéo sur IP.
On l’a vu, les appareils récents ou les boîtiers de connexion ont tous pour vocation de transformer vos flux vidéo en flux internet pour se connecter aux serveurs de streaming. Si ceci n’est pas totalement nouveau (les caméra de vidéo surveillance ou les caméra PTZ fixes de font depuis un certain temps), ce qui l’est, c’est la simplicité de mise en oeuvre apportée par le NDI (ou NDI-HX). Le Network Device Interface amène les bénéfices suivants:
Pour démontrer cette étonnante facilité, nous avons voulu réalisé le test suivant. Faire un multicam vers Youtube avec comme source 2 ordinateurs différents, un téléphone et une caméra Panasonic compatible NDI. Nous nous servirons d’un 3ème ordinateur qui assurera le mix grâce au logiciel gratuit OBS Studio et l’envoi vers Youtube.
Pour se faire, il faut d’abord télécharger la suite d’outils suivants compatibles Mac/Windows:
Ensuite, nous avons effectué les opérations suivantes:
Ensuite, dans OBS Studio équipé du plugin NDI:
Une fois le logiciel lancé sur la troisième machine, il suffit de créer une Scène pour chaque source puis dans Source pour chaque scène, de sélectionner « Source NDI » grâce au bouton « + ». Tous les périphériques (ordinateurs et caméra) dans notre cas apparaissent sans aucune autre intervention. Vous voilà en quelques minutes dans une configuration Multicam, sans câble ou presque et prêts à diffuser sur Youtube (ou n’importe qu’elle plateforme.
Il ne vous reste plus qu’à rentrer dans les Paramètres d’OBS, l’adresse du serveur de Streaming (que récupérez sur le compte de votre chaine ou de votre page) ainsi que la clé du stream.
L’article Tout connaitre pour débuter dans le streaming est apparu en premier sur Createinmotion.
Google Earth Studio (que nous appellerons GES dans cet article), c’est un peu la suite logique de Google Earth. Cet outil en ligne permettait déjà beaucoup puisque l’on pouvait voyager sur toute la planète grâce à une banque phénoménale d’images satellite. Le problème, c’est qu’en zoomant au maximum, on se retrouvait avec une image « plate » et pixelisée. Si Google Earth a beaucoup été utilisé post-production avec cet effet de zoom depuis l’univers vers un point précis du globe, Google Earth Studio va bien plus loin:
– Les données du globe ont quasiment toutes été modélisées en 3D.
– GES est devenu un outil de création cinématique en ligne où l’on dessine ses propres trajets aériens, avec animation de tous les paramètres possibles (caméra, cible, heure du jour ou de la nuit, nuages…).
– Le logiciel permet aussi de générer des « track points » qui peuvent ensuite être utilisés dans After Effects pour ajouter des éléments (marqueurs, textes…). Et pour mieux se rendre compte des possibilités de l’outil, en voici la démonstration:
Nous allons donc faire un tour d’horizon de l’outil et vous montrer à quel point il est simple. Il permet ainsi d’ajouter des cinématiques à vos montages pour localiser des lieux par exemple. C’est bien sûr gratuit, à condition de laisser la « Watermark » de Google sur vos images.
Attention, pour vous servir de GES vous devrez attendre quelques jours que Google approuve votre inscription. Pour ce faire, rendez-vous à l’adresse suivante: https://www.google.com/earth/studio/ et inscrivez-vous. Dans notre cas, il a fallu patienter 4 jours. D’autre part, GES ne marche qu’avec le navigateur Google Chrome (forcément), téléchargeable gratuitement sur n’importe quelle plateforme.
Ensuite, le fonctionnement est presque similaire à celui d’un logiciel de montage: une Timeline, des images clés pour animer les paramètres (trajet, cible, chemin…) et un moniteur de Programme qui va montrer en temps réel votre le vol virtuel de votre caméra. Nous allons réaliser l’exemple suivant qui montre Notre Dame de Paris avant qu’elle ne brûle:
Un fois connecté à GES, la plateforme en ligne vous propose de créer ou un « Blank Project » (Projet vierge), ou de choisir parmi des modèles d’animation déjà préconçus (exactement comme les modes de vol disponibles sur les drones). Pour plus de simplicité, on va choisir le mode « Fly to and Orbit » en cliquant sur « Quick Start »: autrement dit, on va voler d’un point A à un point B et effectuer une orbite autour de notre point d’intérêt.
Il suffit ensuite de saisir la destination finale: dans notre cas « Notre Dame, Paris, France ». Le logiciel affiche aussitôt la vue satellite, puis, la simulation en temps réel du vol: vous pouvez changer l’altitude de d’arrivée, le rayon de l’orbite, l’angle d’approche… Tous ses paramètres seront bien sûr modifiables ultérieurement. Vos modifications sont appliquées en temps réel.
Il ne reste enfin qu’à choisir la durée de l’animation. Par défaut, elle sera de 25 secondes. Vous découvrez ensuite l’interface du logiciel.
Par défaut, on ne dispose que de la vue finale en 3D. Il est donc préférable, pour affiner le trajet de la caméra, de passer en mode « 2 Viewports » grâce à l’icône de l’écran.
A gauche, on visualise ainsi la carte et surtout le trajet de la caméra. De cette manière, on pourra très facilement customiser tous les mouvements et gérer les paramètres de déplacement. La Timeline quant à elle, montre toutes les images clés et la liste des paramètres. Dans notre exemple, on désire que le point de départ se situe dans l’espace et bien plus loin de Paris. Il suffit donc de placer la tête de lecture au début puis, de saisir une altitude de 35 Kilomètres, et, dans la barre de recherche, de taper « Frankfort » en Allemagne. Vous cliquez ensuite sur le losange de la rubrique « Camera Position » afin d’indiquer que vous avez modifié les images clés de position de la caméra.
Si vous lancez la lecture, vous constatez donc que la caméra s’est positionnée au dessus de la ville allemande et ira jusqu’à Paris depuis le cosmos.
Astuce: Par défaut, GES effectue un trajet linéaire depuis l’espace, ce qui n’est pas très esthétique. Dans le menu Animation/Advanced, choisissez Logarithmic Altitude. Google va accélérer la descente vers le sol et arrondir la trajectoire, ce qui est bien plus satisfaisant.
Vous pouvez désormais sauter d’image clé en image clé pour modifier tout ce que vous désirez, et bien sûr créer des étapes sur le parcours.
Vous aurez aussi compris que chaque point dans le Viewport « carte » correspond à une image clé de position de la caméra: vous pouvez ainsi les manipuler à loisir pour vous écarter de votre trajectoire initiale. Mais on peut aller encore plus loin. En cliquant sur Add attributes, on peut ajouter des paramètres supplémentaires, qui pourront eux aussi être animés: l’heure du jour ou de la nuit, l’angle de vue de la caméra, les nuages… De cette manière par exemple, en animant le Field of view (angle de la focale), vous allez pouvoir effectuer des zooms spectaculaires, ou, au contraire, élargir le champ pour avoir une vision panoramique de la scène.
De plus, en sélectionnant une ou plusieurs images clés et en effectuant un clic-droit vous allez aussi pouvoir changer le mode d’interpolation de l’animation (ease-in, ease-out…) ou Auto-Ease (ce qui correspond à une courbe de Bézier automatique afin de lisser les mouvements).
C’est une des autres forces de GES. Les track-points peuvent être ajoutés. Qu’est ce que ça veut dire? C’est qu’au moment de l’exportation du rendu final, GES va inclure des points de votre choix en 3D afin qu’un logiciel comme After Effects soit capable de « comprendre » les mouvements de la caméra et donc d’ancrer des éléments en 3D dans la scène. Pour mieux comprendre, contentez-vous d’ajouter un trackg-point sur la cible de la caméra (Notre Dame dans notre exemple) en effectuant un clic-droit sur la cible figurant la carte ou directement dans le moniteur final.
Votre animation terminée, appuyez sur le bouton Render. Après avoir validé la durée et la résolution, passez à l’onglet « Advanced » et cochez la case « Include 3D tracking Data ». Lancez ensuite le rendu en cliquant sur Start. GES va générer toutes les images et vous proposer de télécharger un .zip.
Un fois le fichier téléchargé et décompressé, GES aura généré une suite d’images numérotées que vous pourrez importer en tant que film dans n’importe quel logiciel de montage. Mais le plus amusant est d’utiliser After Effects pour ajouter du texte 3D grâce au Track Points. Lancez After Effects, puis, depuis le menu Fichier/exécuter le script, sélectionnez le fichier .jsx généré par Google. Automatiquement, votre film est chargé dans une nouvelle Composition et surtout, After Effects a créé un objet nul et un calque de texte pour chaque Track-Point.
Il suffit alors d’écrire n’importe quelle légende ou de lier à n’importe quel élément à l’objet nul pour qu’il soit modélisé en 3D et suive les mouvements de votre caméra. Vous n’aurez qu’à jouer sur l’orientation et la position pour qu’il matche avec votre scène. Ajoutez enfin un peu de motion blur et étalonnez un peu les images dans Lumetri pour qu’elles semblent moins artificielles et vous voilà avec des images de drone en version réalité augmentée.
Pour aller plus loin et en vidéo, nous vous recommandons ce tutoriel en français, du célèbre Stéphane Couchoud.
An anglais vous pouvez aussi suivre cette vidéo et la chaine associée.
L’article Google Earth Studio: pilotez un drone depuis votre ordinateur est apparu en premier sur Createinmotion.
Ce bon vieux H264 (ou Mpeg4 AVC) a tenu le haut du pavé pendant plus de 15 ans. Et pour cause, il permettait de diviser le poids de nos images de manière révolutionnaire par rapport au mpeg2 et autres ancêtres de la compression vidéo. C’est surtout grâce à lui que les plateformes comme Youtube ont explosé. Et pour cause. Réduire la taille des vidéos est en enjeu absolument majeur pour l’enregistrement (espace de stockage) tout comme pour la diffusion: il serait bien difficile d’envoyer des films en Prores HQ sur nos téléphones via le réseau 4G. Et a fortiori, avec l’augmentation des résolutions d’images: la HD demande 4X plus d’informations que la SD, tout comma le 4K en réclame 16X plus! Ajoutez à cela qu’on peut désormais tourner en 50P au lieu des 25 et vous obtenez des débits nécessaires encore multipliés par 2.
Bref, le Codec est un des éléments fondamentaux dans la conception des caméras et pour la diffusion de contenu. Le Codec (pour COmpresseur/DECompresseur), c’est un peu la moulinette mathématique qui va permettre de faire en sorte qu’une vidéo qui nécessiterait un débit de données de 800 Mbps n’en ait plus besoin que de 50 à qualité visuelle égale. Comment ce miracle est-il possible?
Comme on le voit sur cette illustration: le Codec ne va détecter que ce qui change d’une image à l’autre. Souce: Cambridge University.
Oui, mais voilà, plus le Codec est performant, plus il nécessite de puissance à l’encodage et surtout au décodage lors des opérations de montage. C’est pourquoi, même en 2019, de nombreux utilisateurs utilisent des Proxy pour travailler et simplifier les calculs. C’est la contrepartie de cette compression intense.
On l’a vu, après plus de 15 ans, le H264 est implanté partout. Il est montable, diffusable… Alors pourquoi le mettre à la retraite? A cela plusieurs raisons. A commencer par le fait que nos besoins évoluent:
Surtout, qui dit augmentation des besoins, dit une fois de plus, augmentation de la quantité d’informations à enregistrer lors des tournages. Et le principal avantage du H265, c’est qu’il arrive à être 2X plus performant que son prédécesseur. Autrement dit, à qualité égale, un film pèse 2X moins lourd. C’est ce qui permet par exemple à la EVA1 ou à la CX350 d’offrir de la 4K 10bits en 50p pour un débit de 150Mbps! Mieux, pour toutes les caméras PTZ (UE150 etc) qui peuvent streamer le signal en IP, la réduction du débit nécessaire permet d’envisager de faire passer de la 4K via une simple connexion internet classique.
Le Codec H265 (HEVC High efficienty Video Codec), réussit cette performance essentiellement grâce à 2 technologies:
C’est ici que l’histoire est encore délicate, tout comme pour le H264 à ses débuts. A l’heure où nous écrivons ces lignes, toutes les dernières versions des logiciels de montage supportent le H265. Mais attention, n’espérez pas encore monter de manière fluide sur une machine qui n’embarque pas de décodage matériel. En effet, le décodage matériel, c’est un morceau de votre processeur (CPU) ou de votre carte graphique (GPU) qui est spécialement dédié au décodage du format. Sans lui, c’est le seul processeur qui va effectuer les calculs et il le fera très lentement. L’heure est donc encore au montage par Proxy ou au transcodage. Mais la situation devrait très vite évoluer car le H265 s’impose petit à petit dans toutes puces informatiques.
La réponse est mixte. Si vous désirez tourner en 10 bits HDR en utilisant des cartes SD standards, oui. A 150Mbps chez Panasonic, vous obtenez le meilleur ratio qualité d’image/possibilité d’étalonnage. Il en va de même pour les tournages longs (documentaires) ou l’espace de stockage constitue une problématique car vous ne pouvez pas décharger les cartes facilement. En revanche, vous devez envisager au préalable le fait que la post-production sera un peu moins fluide. Le H265 est tout à fait montable nativement en « cut » (suivant la puissance de votre machine), mais si vous effectuez par exemple un multicam, vous serez obligé d’utiliser des proxy ou de transcoder les rushes. Mais une chose est sûre, le H265 est bel et bien le format du futur.
L’article [Wiki] H265/HEVC, le codec d’enregistrement du futur? est apparu en premier sur Createinmotion.
Un time-lapse, pour résumer, c’est la technique qui consiste à prendre une photo à un intervalle de temps régulier afin d’en faire un film. Ce qui va produire une sorte d’accéléré pour montrer ce que l’on ne verrait pas à l’oeil nu en restant planté au même endroit.
Mais, la première question est la suivante: ça sert à quoi?
Alors avant de commencer la pratique, il faut faire 2-3 petits calculs. On l’aura compris, prendre une photo toutes les X secondes signifie tout d’abord faire un peu de maths pour prévoir la durée du résultat final, une fois transformé en film.
– Le premier paramètre à prendre en compte, c’est la cadence d’image de votre film. Autrement dit, on doit anticiper la cadence d’image du montage final (voir notre article sur les cadences d’image): communément, il peut s’agir de 24/25 ou 50 images par secondes (fps). Il faudra donc prendre 24/25/50 « photos » pour produire 1 seule seconde de film.
– Le second paramètre, c’est le fameux intervalle entre chaque prise de vue. Est-ce que je prends une image toutes les 2 secondes? Ou toutes les minutes? Pour aider à faire ce choix, tout va dépendre de la scène et du déplacement des objets qu’elle montre. Mais on peut dégager quelques règles:
Un sujet très mobile (véhicule…): intervalle de 1 à 2 secondes
Un sujet un plus plus lent (piétons…): intervalle: de 2 à 3 secondes
Tout ce qui est encore plus lent (la course du soleil etc): de 5 secondes à plusieurs minutes.
Bien sûr, tout ceci n’est que purement indicatif, mais l’idée est là. Donc, pour obtenir ma séquence et raisonner mathématiquement, je vais dire que je veux un plan de 10 secondes, qui sera diffusé à une cadence de 25 images par secondes (fps) avec un intervalle de 3 secondes. J’applique donc la formule suivante pour connaitre le nombre de photos à prendre.
(Durée du plan en secondes) X (Cadence d’images finale)
= Nombre N de photos à prendre.
Et si vous n’être pas équipés d’une caméra, ou d’un hybride qui intègre la fonction « Interval Rec » ou « Time-Lapse » (comme chez Panasonic), vous allez ensuite appliquer la formule suivante pour savoir combien de temps patienter avant la fin du time-lapse.
(N nombre de photos à prendre) X Intervalle choisi
= Durée du shoot en secondes
Dans notre exemple, il nous faudra donc prendre 250 images (10 secondes x 25 i/s) et patienter 250 x 3 secondes (durée de l’intervalle). Soit 750 secondes, soit, 750 : 60 = 12 minutes 30. Voilà, pour le calcul de base. Évidemment, il peut se faire à l’inverse: « je sais que la course du soleil avant la nuit prend 3h et je fixerai un intervalle de 10 secondes ». Il me faudra donc: (3600 seondes (1 heure) x 3 heures)/10 = 1080 images. Le plan va donc durer: 1080/25 (cadence d’image) = 43 secondes environ.
Et pour les plus feignants, il y a même des applications comme celle-ci (pour iOS) et celle-là (pour Android)
Franchement, côté matériel c’est assez simple: un bon time-lapse, c’est avant tout un DSLR, un hybride ou une caméra qui sait prendre une photo toutes les X secondes. Et même si ce n’est pas le cas, il suffit d’acheter un « intervallomètre » à raccorder sur la prise Remote de l’appareil pour qu’il en soit capable. C’est l’intervallomètre qui décidera donc de la prise d’une photo toutes les x secondes. Dans le cas de Panasonic, la fonction est intégrée depuis bien longtemps et surtout, les appareils savent assembler les images pour en faire un film en interne sans avoir besoin de monter: vous obtenez directement la vidéo.
Pour le reste, un time-lapse, c’est surtout un plan qui ne bouge absolument pas (sauf dans le cas d’un motion time-lapse) afin d’éviter le moindre tremblement d’image : vous n’aurez alors besoin que:– D’un trépied costaud (ou n’importe quelle support vraiment stable). Même le vent peut faire trembler un plan et ruiner votre prise de vue si le support n’est pas stable, surtout avec des optiques lourdes en longue focale.
– D’une « power bank » (batterie USB – voir notre article sur les accessoires) si vous prévoyez que la prise de vue va durer plusieurs heures. Elle vous permettra d’alimenter votre appareil tout le temps nécessaire.
– D’un filtre ND variable (ou d’un jeu de filtres ND). Comme nous allons le voir après, pour obtenir des effets de trainées, on est obligé de choisir un temps de pose très très bas (voire de plusieurs secondes). Et donc, même la nuit, il faudra peut-être mettre un filtre Neutre pour abaisser la quantité de lumière et conserver ce Shutter très lent.
Everest – A Time Lapse Film – II from Elia Saikaly on Vimeo.
Vous avez compris les maths, vous avez compris qu’il faut assez peu de matériel? Place maintenant à la réflexion. Intellectuellement, il vous faut discerner deux choses: le cadre bien sûr (mais ça vous savez faire) et ensuite la priorité que vous donnerez aux sujets mobiles ou immobiles de votre scène. Et là, c’est d’abord le choix de l’intervalle qui va jouer.
Prenons un exemple. Vous avez prévu de tourner le déchargement d’un énorme container d’un bateau sur un quai. Déchargement qui prendra 1 bonne heure. Dans votre scène vous allez avoir la grue qui porte le container et les dizaines d’ouvriers et de véhicules qui vont s’agiter pour le recevoir.
Tout est donc affaire de choix et de priorité dans la composition. Place ensuite à l’esthétique et c’est là que le shutter prend toute son importance. C’est lui va qui déterminer le « motion-blur » ou flou de mouvement. Là encore, prenons un autre exemple. Vous filmez tout simplement une rue passante.
Un time-lapse étant un assemblage de photos, tout écart entre deux images va sauter au yeux et scintiller. Vous devez donc tuer tous les automatismes de votre caméra.
Pourquoi? Parce que même si vous ne le percevez pas, dans n’importe quelle scène, d’une seconde à l’autre, il y a toujours un changement. Pour comprendre, imaginez que vous soyez en Autofocus sur la scène de rue que nous avons évoquée: chaque nouvelle photo sera mise au point sur un piéton différent. Donc, si vous engagez un automatisme (Ouverture -Iris-, Shutter, ISO…), ce micro changement sera perçu par la caméra qui va donc faire varier un paramètre et adapter ses réglages.
Au final, vous ne pourrez pas exploiter le résultat. Le seul bémol concerne peut être la Balance des Blancs. Comme la mesure s’effectue différemment (sur un global et sans changement brutaux), ce paramètre peut parfois être laissé en automatique. Quoi qu’il en soit, la procédure à respecter est la suivante:
On ne va pas ici développer les techniques avancées de post-production en RAW etc, mais une fois votre time-lapse réalisé, se pose à vous deux cas de figure. Soit votre caméra a déjà généré le film (cas des GH4/5S, CX350 etc…) dans la résolution souhaitée, soit vous avez enregistré les X images sous forme de photos sur votre carte mémoire. Dans ce dernier cas:
Pour conclure, on va évoquer brièvement différentes techniques dérivées du time-lapse.
Cette technique consiste à tourner un time-lapse de la nuit au jour et vice versa. Oui mais voilà, on l’a vu, comme on reste en Manuel, l’exposition va changer de la pénombre au plein soleil. Alors comment faire? Le plus simple, c’est de découper le time-lapse en 4 sections. Dans le cas d’un coucher de soleil, vous lancez la prise en étant légèrement surexposé et dès que vous commencez à être sous-exposé, vous faites une pause et vous réajustez l’exposition. Vous relancez ensuite le second time-lapse. Et ainsi de suite jusqu’à la nuit noire. Au montage, vous ferez se chevaucher les 4 time-lapses avec un simple fondu.
Wellington South Coast New Zealand – Day to Night Time-lapse from Mark Gee on Vimeo.
Cet effet consiste à prendre des time-lapse d’un point de vue très en hauteur. Avec cette technique les humains tout en bas, vont ressembler à de petites personnages semblables à des jouets. On rajoute aussi du flou en haut de la scène et on sature les couleurs. Le mieux est de voir cet exemple en image:
A (Little) London Christmas – A Tilt Shift Timelapse from Media Hog Productions on Vimeo.
Le motion time-lapse va nécessiter un slider et une tête motorisée qui va bouger d’une position A à une position B dans l’intervalle de temps. Si vous devez prendre 250 photos, le logiciel du slider (qui pilote aussi l’appareil en général) va découper son mouvement en 250 positions et ne bougera qu’entre chaque photo. L’hyperlapse quant à lui, c’est la technique qui consiste à se déplacer entre chaque image tout en gardant un cadre stable. C’est assez dur à maîtriser, mais les nouvelles caméras de sport ou 360° commencent à embarquer nativement cette fonctionnalité.
Berlin Hyperlapse from b-zOOmi on Vimeo.
L’article Time-lapse: le mode d’emploi complet est apparu en premier sur Createinmotion.
J’ai découvert les claviers programmables quand j’ai du réaliser un Live avec un mélangeur vidéo contrôlé exclusivement par un Macbook Pro. Problème pour moi qui suis habitué aux vrais « panneaux de commandes » avec de vrais gros boutons, je ne me voyais pas appuyer pendant des heures sur Shift + 1, Shift +2…. à chaque changement de caméra. J’ai donc investi dans un petit clavier programmable: le Stream Deck d’Elgato.Il suffit de le connecter à une machine pour qu’il devienne une sorte de deuxième clavier, à la différence que chaque touche est un mini écran LCD et que vous pouvez lui affecter n’importe quelle action.
Dans mon cas, je me suis contenté de mémoriser les raccourcis du mélangeur et j’ai « baptisé » mes touches du nom de mes cadreurs (et j’ai inséré leur photo!)… Et faire ma réalisation exactement comme avec un vrai panneau de contrôle.
Mais évidemment, ce type de périphérique ne se cantonne pas à cet utilisation marginale. Ils sont surtout utiles quand on monte.
Si l’on considère que le montage d’un film va nécessiter des milliers de frappes de raccourcis clavier à 2 ou 3 touches, on mesure immédiatement l’intérêt de se munir de ce type d’accessoire. Il existe bien sûr des claviers traditionnels qui sont physiquement personnalisés pour tel ou tel logiciel, ou encore des « skins »: les raccourcis sont directement indiqués via des couleurs ou des signes.
Mais cela veut dire que vous ne pouvez pas utiliser vos propres raccourcis et que si l’éditeur du logiciel change ces raccourcis, vous pourrez jeter le clavier. Autre problème, on oublie parfois certaines combinaisons de touche parce qu’on les utilise moins souvent. Du coup, on perd donc du temps. Le programmable, de son côté, élimine toutes ces contraintes.
C’est pourquoi, utiliser un Stream Deck montre tout son intérêt. L’idée, est assez simple, les 15 touches affichent ce que vous voulez (images, texte) et peuvent être affectées à n’importe quelle action: un raccourci clavier, mais aussi le lancement d’une application, la saisie automatique d’une phrase enregistrée et même plusieurs raccourcis successifs avec un timing entre chaque frappe… Les possibilités sont presque infinies. Surtout, vous n’êtes pas limités aux 15 touches puisque le Stream Deck stocke aussi des dossiers. Autrement dit, vous pouvez très bien avoir un écran d’accueil d’où vous lancez vos applications, presser la touche « dossier » de Premiere Pro pour accéder à un autre « clavier » qui ne regroupera que les raccourcis de ce logiciel.
Vous pouvez créer un dossier pour toutes vos applications et switcher d’un clavier à l’autre. C’est magique. Dans mon cas et sur Première Pro, le plus fatiguant est de passer d’une fenêtre à l’autre: panneau Montage, panneau Projet, Panneau Options d’effets… Tout comme il pénible d’utiliser systématique CTRL + K pour couper les plans sous la tête de lecture.
J’ai donc affecté un maximum d’actions « pénibles » au Stream Deck, ce qui me permet de monter sans quasiment quitter la souris.
Les utilisateurs de Photoshop seront eux aussi ravis de regrouper tout leurs outils via ce clavier… Voilà en tout cas pour le principe, mais c’est à vous de trouver le configuration qui convient à vos utilisations
.
La programmation d’un clavier peut faire peur. Rassurez-vous, vous n’avez aucune ligne de code à écrire! Ce clavier (ou un autre) est toujours contrôlé par un petit logiciel ultra simple.
A son ouverture, il montre les 15 touches à l’écran. Il suffit ensuite de procéder comme suit:
1. Sélectionnez la touche désirée
2. Choisissez dans la liste déroulante à droite le type d’action à affecter: elle est longue comme le bras, mais ce qui va nous intéresser en professionnel, ce sont les rubriques Stream Deck (pour créer un dossier par exemple) et Système (pour les raccourcis clavier ou le lancement d’une application).
3. On glisse/dépose l’action sur la touche.
4. On donne un titre (et c’est drôle parce que le texte s’écrit en même temps sur le vrai clavier!)
5. On rentre la combinaison de touche à affecter (ou l’action)
6. Et de manière optionnelle, vous pouvez aller chercher une image pour la mettre sur la touche, ou piocher dans la banque d’icône en ligne de l’éditeur.
C’est fini!
7. Cerise sur le gâteau, le Stream Deck peut se prêter. En effet, vous pouvez enregistrer des Profils pour chaque utilisateur. Et il marche aussi bien sur Mac & PC.
Alors oui, on peut vivre aisément sans ce type de périphérique. Mais c’est un peu comme passer de 1 à 2 écrans: on ne revient plus en arrière tant le confort est important. Surtout, c’est un périphérique nomade et encore plus utile avec un ordinateur portable dont l’espace est restreint (pas de pavé numérique par exemple). A recommander donc. Notez aussi que nous avons utilisé le Stream Deck dans cet exemple, mais qu’il est existe des dizaines de références avec plus ou moins de touches et plus ou moins de fonctions.
https://www.elgato.com/fr/gaming/stream-deck
L’article Pourquoi passer au clavier programmable ? est apparu en premier sur Createinmotion.
La caméra peut désormais enregistrer du 4K/50P (ou 60P) en 4:2:0 10bits, ceci grâce à l’intégration codec H265 (HEVC). Cet encodage est environ 2 fois plus efficace que le H264: à débit identique, la précision de l’image est doublée. L’EVA1 sait donc enregistrer dans ces modes à 200 Mbps (50/60P), et 150 Mbps en 25/24P.
Panasonic supporte désormais les adaptateurs USB/Lan de fabricants tiers. Ceci permet d’intégrer plusieurs EVA1 en plateau et de les contrôler via le CyanView Cy-RCP (panneau de contrôle déporté) comme le montre cette image:
Les utilisateurs se plaignaient de le complexité des menus pour changer de mode d’enregistrement ou pour accéder au fameux VFR (Variable Frame Rate). Ce problème est réglé puisque les modes d’enregistrements peuvent être assignés à une ou plusieurs touches USER. On bascule d’un mode à l’autre d’une simple pression.
On peut aussi désormais capturer des images fixes en mode Playback afin de créer des vignettes de projet par exemple. L’EVA1 sait aussi maintenant utiliser 2 presets pour la balance des blanc automatique (ATW), tout comme un indicateur de focus fait son apparition sur la panneau LCD. Enfin, on peut monitorer l’image en SDR quand on tourne en HLG.
Rappelons aussi que la caméra a aussi subi une belle baisse de prix: elle est proposée à 6790 euros HT (prix conseillé).
Le lien de téléchargement de la mise à jour
La présentation de la mise à jour par Mitch Gross de chez Panasonic:
L’article EVA1 Firmware 3.0 : 4K/50P 10 bits, H265,contrôle multicam, et pleins d’améliorations est apparu en premier sur Createinmotion.
« Engineered to impress », voilà le slogan qui définit cette nouvelle caméra et que l’on pourrait traduire par « conçu pour impressionner ». Effectivement, le rapport prix/fonctionnalités est tout à fait favorable à cette nouvelle machine qui vise à toucher un large marché: certes les pros de l’ENG ou du documentaire sont directement concernés, mais ce qui est plus original, c’est la connectivité offerte par cette CX350. Elle devrait lui permettre de viser un public bien plus large.
En effet, la caméra embarque un terminal LAN et elle est compatible NDI|HX, RTMP/RTSP. Via un dongle Wifi, elle est aussi capable de streamer directement sans fil à la patte vers les principales plateformes (Facebook, YouTube etc..). Le support du NDI|HX lui permet de s’insérer dans un système de production Live à l’aide d’un simple câble Ethernet qui va transporter l’audio, la vidéo, mais aussi le Tally… On peut aussi contrôler la caméra à distance via ce protocole qui se paramètre quasi automatiquement. Pour mieux comprendre les possibilités offertes, il suffit de regarder ces schémas de connexions possibles:
Du coup, ces possibilités décuplent les utilisations possibles de la caméra pour les captations, les conférences et globalement tout ce qui se déroule en direct. Mieux, une mise à jour permettra aussi d’insérer directement une clé 4G/5G afin d’envoyer les images depuis n’importe quel endroit de la planète (à condition d’avoir du réseau, bien sûr). Bien vu, donc.
Autre aspect très novateur de la machine, la quantité pléthorique des formats d’enregistrement disponibles. On imagine que le constructeur a intégré la dernière version de son « Venus Engine ». Pour résumer, la CX350 enregistre aussi bien du 4:2:2 10 Bit en 4K(UHD) avec le codec All-I à 400 Mbps (comme sur l’EVA1), mais plus original, elle propose tout aussi bien du H264 et surtout du H265 (HEVC). Ce dernier constitue actuellement ce qui se fait de mieux en terme de ratio poids de fichiers/qualité d’image. On peut donc choisir le Codec ALL-I (cartes UHSII/V60 obligatoires) en cas de grosse post-production, ou le HEVC jusqu’à 50P pour tourner très très longtemps. Bien entendu, de nombreux débits sont disponibles. La liste des formats d’enregistrement parle d’elle même:
On note aussi une nouveauté: le mode VFR (Variable Frame Rate) est désormais disponible en 4K jusqu’à 60P. On peut ainsi jouer sur la cadence d’image très facilement en cours de tournage pour faire des time-lapse ou des ralentis. Un mode Super-Slo est aussi disponible en FHD et permet d’enregistrer jusqu’à 120 images par seconde, sans crop.
La CX350 est équipée d’une nouveau capteur MOS d’1 pouce. Il offre plus de 15 millions de pixels et surtout, il n’existe désormais plus aucun crop dans l’image. La caméra dispose de différentes courbes de Gamma, dont le HDR (High Dynamic Range) et surtout le HLG (Hybrid Log Gamma). Le constructeur annonce une sensibilité de F13 (en PAL). On retrouve bien sûr la stabilisation optique 5 axes que Panasonic maitrise mieux que personne. De manière plus traditionnelle, les 3 bagues de contrôle sont présentes. En revanche, l’optique couvre une plage de 24.5-490 mm, soit une des meilleurs grand angle du marché associé à un zoom de 20X. En activant le iZoom (système sans perte), on peut même pousser jusqu’à 24X en UHD et 32X en HD! Enfin, le Focus Intelligent est sensé être bien plus rapide que les générations précédentes et le tracking est amélioré.
On le sait, les camescopes de poing sont un peu moins tendance qu’avant, avec la montée en puissance des DSLR et autres hybrides. Pour autant, travaillant avec les deux types de machines, je trouve qu’il est extrêmement agréable de « retrouver » un vraie caméra: pas besoin de se soucier des optiques, pas besoin de rajouter mille accessoires. On dégaine, on shoote et on ne se prend plus la tête avec le son puisque tout est intégré.
Panasonic dévoile une machine plus compacte et plus légère que les précédentes DVX200 / UX180 et qui embarque une tonne de fonctionnalités parmi lesquelles on retiendra la richesse des formats d’enregistrement et la connectique complète: elle va du SDI en passant par le LAN (NDI), le HDMI et l’USB pour y brancher de futurs dongle sans fil. Et tout ça pour un prix public inférieur à 4000 euros HT. C’est donc une machine faite pour durer dans la temps, très solide et qui devrait trouver un public de « run & gun », mais aussi une cible plus large qui va du Vlogger jusqu’aux productions de Live.
La page produit chez Panasonic
L’article AG-CX350: Nouvelle caméra Panasonic ultra polyvalente est apparu en premier sur Createinmotion.
Vous cherchez toujours votre pièce de 10 cents pour détacher vos semelles (camera plates) qui ne sont jamais universelles? Vous en avez marre des gros tournevis? Voici une paire de solutions qui vont vous éviter de fouiller vos poches et vous arracher les cheveux. La première est à acheter au Etats-Unis sur Adorama ou B&H. Elle s’appelle « Rabbit Key RBTK01 ». L’idée est si simple qu’on se demande pourquoi elle n’a pas été copiée. C’est tout simplement une clé de voiture dont l’embout plat s’adapte à toutes les vis Kodak (1/4 – 1/3). Vous l’attachez à votre trousseau et c’en est fini de chercher de la monnaie.
On peut s’en procurer ici pour moins de 10$
L’autre solution pour se défaire des semelle, c’est de se tourner vers un mini tournevis prévu à cet effet comme le Tom Pouce Akor. Il peut lui aussi être fixé à un set de clés. Bien que moins discret, il offre une meilleure prise en main et un meilleure couple de serrage. Vous en trouverez chez Cineboutique pour un peu moins de 25 euros. Ou encore ici
Enfin, une dernière solution peu onéreuse est de remplacer toutes les vis Kodak par les mêmes, mais avec un anneau intégré, comme le montre cette image:Du coup, vous n’aurez plus besoin du moindre outil pour fixer vos périphériques. Ce type de visserie peut se trouver chez Smallrig par exemple, en vente sur Amazon.
L’enfer des câbles, vous connaissez? L’art de les enrouler sans les emmêler, de les stocker proprement pour leur prochaine utilisation demande presque un diplôme… Mais heureusement, il existe un accessoire génial qui devrait être disposé sur chaque câble. Il s’agit tout simplement de Velcro sous forme de bandes trouées (Velcro Straps). Il suffit de les fixer à poste à l’extrémité de chaque câble. Ce dernier enroulé, il suffit ensuite de refermer la boucle pour maintenir le tout sans le moindre nœud. Ces Velcro existent dans toutes les tailles: des gros pour maintenir les rouleaux BNC/XLR de 50 mètres, jusqu’au plus fins pour attacher une simple alimentation USB. Et surtout ça ne coûte presque rien. En vente absolument partout.
Pour l’outillage de base, on va pas transiger. En production légère, l’essentiel se résume à trois « outils ». Le premier, c’est le fameux Leatherman, le second, c’est le Gaffer et le troisième, c’est le jeu de clés hexagonales/Torks. En effet, les besoins en vidéo sont assez vastes, mais le champ d’outillage est assez réduit pour dépanner toutes les situations de tournage, tant que vous n’êtes pas chef déco ou électro.
D’abord, achetez un Leatherman. C’est un outil universel proche du couteau Suisse, mais sous forme de pince repliable et verrouillable. Il permet de couper, de visser… Bref, c’est l’accessoire à avoir toujours dans une poche pour régler toutes les situations. Certes, ce n’est pas donné, mais ça se garde toute une vie. Dans la gamme du constructeur, nous préférons personnellement le modèle Surge, le plus complet pour la vidéo ou à défaut, le modèle Wave+, moins encombrant.
Et si l’on ne devait garder qu’une seule chose, ce serait le gaffer selon moi. Ce scotch a la particularité d’être découpable à la main, de ne laisser aucune trace quand on l’enlève tout en étant ultra solide. Ses utilisations sont presque infinies puisque vous l’utiliserez tout autant pour plaquer des câbles au sol, tout comme pour fixer des accessoires, ou encore pour maquiller des éléments de décor. Des dizaines de groupes existent sur Facebook pour montrer les réalisations les plus folles de ce fameux « scotch » pas ordinaire. Attention cependant à la qualité: le Gaffer est souvent imité mais rarement égalé. Il existe dans tous les coloris (dont le vert pour les Chromakey), mais le plus polyvalent reste tout de même le noir.
Enfin, pour l’outillage, je garderai en dernier lieu, le jeu de clés hexagonales/Torks, mais sous forme de couteau repliable et léger: l’immense majorité des périphériques vidéos (trépieds, cages etc), sont fixés avec de la visserie de ce type. Il est donc indispensable d’avoir un jeu de clés pour resserrer ou démonter. Vous pouvez trouver ce type d’accessoires dans les boutiques cinéma, mais aussi et surtout dans les magasin de sport: les vélos utilisent la même visserie et l’accessoire devient alors nettement plus abordable.
En tournage, on est très souvent sans lumière d’appoint. Un peu problématique quand il s’agit de « buller » (faire le niveau) d’un pied pendant une captation, ou de réparer une connexion. Il y a donc les adeptes de la lampe frontale façon spéléologie, de la Maglite genre NYPD, mais le plus utile selon nous, c’est la lampe de poche qui dispose tout simplement d’un habillage en caoutchouc/silicone, ou alors de la lampe stylo. Pourquoi? Parce que la lampe frontale n’est pas discrète, ni orientable quand on est dans un environnement de conférence par exemple. La Maglite pourrait convenir, mais le problème, c’est qu’elle est en métal et que pour disposer de ses deux mains, on est tenté de la tenir avec ses dents! Nous vous recommandons donc les lampes stylos ultra légères qui disposent d’un revêtement qui n’abîmeront pas le sourire, comme celle là.
Au pire, vous pouvez toujours utiliser le fameux Gaffer pour entourer le corps de la lampe et préserver votre dentition sur des lampes torches « normales ».
Poser un micro cravate est une chose assez simple si vous décidez de le laisser apparent. Les choses se corsent quand vous voulez le cacher, et notamment sur les dames qui portent souvent des hauts très fins ne permettant pas de fixer correctement la griffe du HF. On peut alors utiliser une fois de plus du Gaffer disposé en « amortisseur » ou alors, ces deux accessoires qui vont éliminer les frottements. Le premier est un simple mini tube de mousse dans lequel vous insérez la capsule du micro: il s’agit du Garfield Hush Lav.
Le second est selon moi plus intéressant puisqu’il s’agit d’un set de fixations en silicone. Hide-a-mic permet d’insérer des capsules Senken dans des « étuis » pourvus de fixations: T-Shirt, soutien-gorge, cravate… L’isolation contre les frottements est meilleure et surtout, le sujet peut le fixer seul sans que vous ayez à intervenir. Une nouvelle version baptisée « Flex » est encore plus astucieuse puisqu’il s’agit d’un support que l’on peut coller directement sur le peau sans plus se soucier des vêtements.
Autre problème de tournage: lester les pieds de lumières, les girafes et les grues pour éviter les accidents. La réponse traditionnelle consiste à utiliser les sacs de sable ou des bouteilles d’eau bricolées. Sauf qu’il faut du sable ou de l’eau sur place, ce qui n’est pas toujours le cas. Si vous êtes en panne, ou tout simplement en studio, préférez les poids d’haltérophilie.Pourquoi? Parce qu’ils ne sont pas chers et que surtout, le diamètre du trou central s’adapte totalement à nos pieds lumière et autre grues. Mieux, vous pouvez aussi choisir la masse emportée, de 0,5 Kg à 5Kg en général et vous pouvez aussi les empiler en fonction du support à lester.
Vous trouverez ces articles dans toutes les boutiques de sport ou en ligne.
Il existe une version luxe et 100% cinéma de ces poids, chez Manfrotto.
Le fabricant propose des contrepoids qui on la particularité d’être équipés d’une pince intégrée. On peut ainsi les fixer n’importe où. Super pratique, mais assez cher.
Vous disposez sans doute d’un kit de nettoyage pour optique (pinceau, soufflette…). Indispensable, mais pour effectuer un nettoyage express (et notamment extérieur) de vos périphériques (caméras, pieds…), nous avons toujours avec nous une bombe d’air sec. La pression à la sortie permet de chasser la poussière sans toucher à l’appareil. Attention cependant, nous vous déconseillons de l’utiliser sur un capteur car si l’air va chasser la poussière, cette dernière se collera ailleurs dans la caméra et pourra revenir. Mais pour tout le reste, passez à l’air sec, pour quelques euros seulement.
Autre must-have lors des tournages, la banque d’énergie (power bank). Avec la généralisation des tablettes et autre téléphones pour contrôler les caméras, les drones ou plus globalement, tout ce qui est connecté, on tombe très vite en panne. La banque d’énergie est bonne à tout faire: recharger un iPad ou un ordinateur, alimenter une convertisseur HDMI/SDI, et même alimenter une caméra en continu jusqu’à 10h. Le tout est d’en choisir une grosse (plus de 25000 mAh) et d’investir dans un set d’adaptateurs USB vers DC afin de la raccorder à tous les types de périphériques (et pas seulement l’informatique, donc). Vous en aurez pour moins de 50 euros et vous ne serez plus jamais en panne.
On adore cet accessoire. Les Think Tanks Red Whips, sont des élastiques réglables qui ressemblent beaucoup aux sandows que l’on trouve dans le monde la voile. Vous les portez comme des bracelets sans être donc encombrés et vous pouvez alors fixer n’importe quoi: un câble le long d’une grue, une power bank sur un pied… Vous pouvez aussi les utiliser pour ranger les câbles, comme les Velcro. Bref, pour moins de 10 euros les 10, vous auriez tort de vous en priver.
L’optique est l’élément le plus fragile lors d’un tournage: une seule rayure et vous retournerez à la case SAV. Et vous gâcherez votre shooting. Il faut donc équiper tous les cailloux d’un filtre de protection à visser en fonction de son diamètre. En cas de dommage, c’est cette « vitre » qui sera à changer, et non pas votre précieux objectif. N’hésitez pas à rechercher ces accessoires auprès des fabricants renommés (Hoya, Tiffen…): la qualité de ce filtre de protection doit être sans faille pour ne pas gâcher les qualités optiques de votre machine.
Autre filtre à posséder absolument (et qui peut se visser sur celui de protection), le Vari-ND (filtre neutre variable). Ceci, même si vous tournez avec un caméra qui dispose de filtres neutres intégrés. L’idée, consiste à faire varier la quantité de lumière en le tournant afin de ne pas toucher au shutter. L’avantage, c’est que le fait de le faire tourner permet de régler cette quantité de lumière ultra précisément et non pas par « pas » prédéfinis (1/4, 1/16….) (steps). Vous pourrez donc conserver l’ouverture de votre choix et le shutter aussi. Là encore, il faut taper dans les marques et y mettre le prix afin d’obtenir de la qualité. Mais vous pourrez les garder toute votre vie.
L’article Le Must-Have des accessoires qui simplifient les tournages est apparu en premier sur Createinmotion.
Utiliser des Proxies, l’idée est loin d’être nouvelle dans les grandes boites de prod, ou les chaînes de télé. Les fichiers natifs étant extrêmement gourmands en termes de puissance de calcul, il est plus facile de prémonter en basse définition avant de conformer le tout en HD/4K/DCP, voire plus. Mais tout ça semble compliqué de prime abord, alors que la technique s’est largement démocratisée, y compris dans les plus petites structures: les proxies sont désormais automatisés directement dans les logiciels de montage.
Pour résumer, le logiciel transcode les rushes en basse définition et au moment voulu, lors de l’étalonnage ou de l’export, il remplace les clips avec les rushes natifs en y appliquant tous les effets désirés, en pleine qualité.
Mieux, des caméras comme les UX180/PX270 de Panasonic sont tout à fait capables d’enregistrer à la fois le fichier natif pleine résolution et son jumeau en version proxy. Du coup on peut transmettre des images facilement en plein tournage (car elles sont légères), ce qui permet de commencer à monter avant d’avoir le natif en pleine qualité.
Pourquoi s’interroger? On tourne, on monte et tout va bien. Oui mais voilà, on a beau avoir une machine de montage de guerre, la puissance est toujours prise à défaut. Du coup, on se retrouve souvent à monter de manière non fluide. Et plus on ajoute d’effets, plus on attend. La faute en incombe aux causes suivante.
Avec Premiere Pro:
Comme toujours avec Premiere, ça aurait pu être simple, mais c’est finalement compliqué, mais uniquement la première fois. Par défaut, le logiciel ne dispose que de quelques Presets pour générer les Proxies et il ne sont pas forcément adaptés. Il faut créer les votre une bonne fois pour toute.
Nous vous recommandons donc de créer un jeu de Presets dès le départ pour ne pas avoir à refaire cette pénible manipulation. Car au montage, ensuite, c’est très très simple: il suffit de cliquer sur le bouton « Proxy » dans le moniteur de Programme pour passer d’une version à l’autre. Mais c’est effectivement ce genre de défaut ergonomique que nous évoquions dans notre test de Premiere Pro 2019. Le seul avantage étant qu’au moins, tout est personnalisable et que Premiere est aussi capable de « d’attacher » les Proxy d’une caméra sans les générer lui même. Et ce n’est pas le cas de tous les logiciels.
Avec FCPX:
Alors là, c’est exactement l’inverse: vous n’aurez aucun choix, mais vous n’aurez rien à faire non plus! Il suffit de sélectionner les médias et de choisir de générer des proxy d’un clic-droit/transcoder/media/proxy.
Dans le menu Présentation du moniteur de Programme, il vous suffit, comme dans Premiere Pro, de Switcher entre medias originaux et Proxy. Enfantin, même si tous les médias seront transcodés obligatoirement en Prores Proxy.
Avec Resolve:
Là encore, c’est assez simple: il suffit de choisir dans les préférences générales le type de Proxy à générer (dans Resolve, ils sont appelés « Optimized Media »).
Ensuite, comme dans Premiere, on sélectionne les medias à transcoder. Enfin, il suffit dans le menu Playback, de sélectionner « Use Optimized Media if available ». C’est aussi simple que celà.
On vient de le voir, les Proxies offrent bien des avantages mais vous devez toujours vous demander si bénéfice en vaut la chandelle.
Si vous avez un montage simple, avec peu d’effets, et que la machine « laggue » un peu, il peut être plus intéressant de ne pas transcoder (ce qui prend du temps et de l’espace), quitte à souffrir un peu.
Si vous allez travailler sur un film en RAW avec des heures de rushes, là, la question ne se pose pas: vous intégrerez simplement ce temps de transcodage dans votre projet afin de pouvoir travailler ensuite de manière parfaitement fluide. Tout dépend donc du type de projet, de la puissance disponible et de la post-production qui sera prévue.
L’article [Wiki] Les Proxies: la solution pour monter plus vite ? est apparu en premier sur Createinmotion.
Pour faire simple, voilà une illustration qui symbolise les différences entre les cadences d’image sur 1 seconde.
La cadence d’image de captation, c’est tout simplement le nombre d’images qui sera capturé et donc enregistré dans l’intervalle d’une seconde. Autrement dit, on va parler de « 25/50P » pour signifier 25/50 images « Progressives », c’est à dire « pleines » par seconde, de « 24P » ou encore de « 50i » (pour Interlaced, soit entrelacées). Ces cadences qui nous sont communes, peuvent cependant être modifiées selon n’importe quelle valeur – en fonction de votre caméra – (de 1 image par seconde à plusieurs milliers d’images par secondes), car elle sont toujours à mettre en relation avec la cadence d’image de diffusion ou de lecture. En Europe, il s’agit en général de 25 images par seconde.
Pour faire simple, si vous décidez d’enregistrer 1 image par seconde et que vous lisez le tout à 25 images par secondes, vous aurez un accéléré de X25 (1×25), comparable à un Timelapse. A l’inverse, 100 images par seconde lues à 25 images par secondes donneront un ralenti de X4 (100/25), c’est à dire du Slow-Motion. Et donc communément, on se contente de tourner à la même fréquence d’image que celle qui est prévue pour la diffusion: mais on peut décider de sortir des sentiers battus pour s’affranchir de certaines limites.
Historiquement, la cadence d’image, c’est une succession de photos prises sur une seconde, qui sont là pour donner naissance à l’animation. L’animation, c’est faire en sorte que notre œil n’est plus le « temps » de voir qu’il s’agit d’une suite d’images fixes. C’est donc une « illusion » liée à la rémanence rétinienne.
Au début du cinéma muet, nous étions à une cadence située entre 14 et 20 images/s car elle dépendait de la vitesse de rotation de la manivelle de l’opérateur! C’est ce qui donne cet aspect saccadé: notre oeil perçoit la suite d’image.
Au moment du cinéma parlant, on a collé une bande magnétique sur la pellicule. Mais le problème, c’est qu’à cette cadence -faible-, on n’arrivait pas à enregistrer la voix correctement. Il a donc été décidé que la cadence de 24 images par seconde était le parfait compromis entre restitution sonore/saccades limitées à l’image et surtout prix de la pellicule (extrêmement onéreuse à l’époque). Là est née cette cadence historique dont on pourrait pourtant, 100 ans plus tard, s’affranchir.
Le « 50 » est quant à lui, né de la télévision qui fonctionne… A l’électricité. En Europe, la fréquence du courant est de 50 Hz et comme la télévision cathodique est constitué d’un faisceau électrique qui balaie l’écran de haut en bas, on a décidé d’envoyer 50 demi images (entrelacées) pour que ce faisceau ait le temps de balayer l’écran de haut en bas entre deux images (et 2 deux signaux de courant alternatif) : à l’époque, on ne savait pas envoyer des images « pleines », ou procéder autrement.
Entre temps, tout a changé puisque qu’entre la numérisation des caméras et surtout la révolution de l’affichage (écrans plats qui peuvent supporter des images pleines…), on est capable -théoriquement- d’envoyer n’importe quelle cadence d’image, vers n’importe quel périphérique. Oui, mais voilà, vous allez entendre que le Cinéma, c’est forcément en 24P, que la télé, c’est obligatoirement du 50i et que le 50P, ça ne sert qu’à faire des ralentis. Que tout ce qui est en « 50 » donne une texture « vidéo » aux images et donc, que ce n’est pas « Cinéma » avec son « flou de mouvement » (motion Blur)… Et bien, tout cela est assez largement faux.
A priori, aucune, à moins de vouloir produire des ralentis ou des accélérés (la fonction VFR Variable Frame Rate chez Panasonic). Mais pourtant, n’importe quel réalisateur a au moins été confronté au moins une fois à question suivante: pourquoi mon panoramique est-il saccadé à la lecture ?
La réponse, c’est que vous avez choisi une cadence trop faible (24/25 image par seconde). La caméra effectuant un grand mouvement, chacune des 24/25 images dans la seconde est trop différente de la suivante pour berner notre vision: nous percevons les saccades. Ce qui est très désagréable. En effet, chaque cadence offre ses propres avantages et inconvénients que nous allons lister. L’influence sur votre rendu d’image est conséquent, mais pas autant qu’on peut le croit:
Les dogmes sont tenaces car souvent basés sur le fameux rendu cinéma très apprécié (flou de mouvement, faible profondeur de champ pour résumer) et que l’on applique la fameuse règles des 180° (qui consiste à utiliser une vitesse d’obturation double de celle de la cadence d’image). Ceci pour obtenir un bon compromis entre « précision et flou ».
Le problème, c’est que cette règle est aussi souvent appliquée avec les « nouveaux » format comme le 50P. Autrement dit, on utilise alors un shutter à 1/100ème. Ce n’est pas toujours opportun. Doubler le shutter revient à demander 2X plus de lumière puisque le capteur sera 2X moins exposé. Et ce là limite le flou de mouvement. C’est ce qui donne cet effet « chirurgical » à ce type d’images.
Au 100ème de seconde en 50P, le flou de mouvement est atténué. On a le même résultat qu’en 24P à 90°.
Si vous tentez de tourner en 50P à 1/50ème, vous allez voir que le flou de mouvement est le même qu’en 24/25P, mais que le rendu sera légèrement différent, car il y a 2x plus d’images et donc, plus de fluidité. Et non, tous les films ne sont pas tous tournés en 24P. Le Seigneur des Anneaux en est un excellent exemple sans pour autant que vous ayez l’impression de regarder la TV. Il faut donc se sentir libre de choisir sa fréquence et son shutter en fonction de son projet. Et se poser les bonnes questions.
L’article 24P/25P/50P/ 50i… Quelle cadence d’images choisir ? #la fin des idées reçues est apparu en premier sur Createinmotion.
La sauvegarde est un enjeu majeur de nos métiers: nous sommes ceux qui consomment le plus d’espace avec des dizaines de Go par heure de tournage, pour ne pas dire, de To. C’est aussi un paramètre crucial, car ce qui vient d’être capturé, ne peut en général plus être tourné à nouveau. Si on perd les données, on perd tout: les rushes, le client, et sa propre réputation. Autant dire que tout le monde cherche toujours la meilleure stratégie de stockage et de sauvegarde. Et ce n’est pas chose facile. A l’échelle de DreamWorks, on a droit à sa propre infrastructure réseau. Mais quand on est plus petit, tout se joue en « local » à coup de disques durs externes ou de NAS (Network Attached Storage). L’arrivée de la fibre un peu partout et bientôt de la 5G, va permettre d’envisager d’autre solutions délocalisées. Pourquoi s’en soucier? Parce que si votre entreprise brule, ou que vous effacez par mégarde des fichiers, vous allez pouvoir les retrouver. Exemple donc avec Backblaze qui, pour l’heure constitue l’offre la plus abordable quand on doit gérer autant de données. On l’a testée et retestée longtemps et en vraies conditions. Et on vous fait partager notre expérience.
Autrement dit, toutes les données sont mises à jours en permanence vers ce boitier USB 3.1. Si le SSD tombe en panne, le boitier peut prendre le relais avec toutes les données de montage. Si c’est la machine qui lâche, alors le boitier peut être raccordé sur une autre station. On peut aussi opter pour un NAS qui sera partageable pour plusieurs machines.
Cette solution simple garantit toutes les fautes/pannes à moindre frais et permet de raccourcir les manipulations manuelles. Elle ménage les temps de transfert importants puisque l’on manipule des To de fichiers.
Tout l’enjeu de cette stratégie de sauvegarde, c’est donc de trouver le bon service dans le Cloud suivant les critères suivants:
Fort de ces exigences, nous nous sommes tournés Backblaze car son offre est redoutablement simple et claire:
Sur le papier, ça fait donc très très envie. Et voilà comment ça se passe en vrai.
Donc, pour résumer, nous avons 25To à sauvegarder, une connexion fibre. Autant le dire tout de suite, oubliez toutes les solutions Cloud pour la vidéo avec un simple ADSL, le débit d’upload est bien trop faible.
Après s’être inscrit sur le site, on télécharge un petit logiciel maison. C’est grâce à lui qu’on va gérer les disques à sauvegarder, les fichier à exclure, mais aussi la vitesse d’upload, la clé de chiffrement…C’est assez simple mais soyons clair: la sauvegarde initiale a mis près d’un mois à s’effectuer: le logiciel qui marche en tâche de fond favorise en effet, les autres liaisons (quand vous travaillez): c’est donc en général la nuit qu’il tourne à plein régime: il envoie alors selon nos mesures à 40/50 Mbps. A noter aussi que parfois, il faut contrôler le logiciel (qui ne consomme pas de ressources): sur un mois, il a planté une ou deux fois. Il faut alors relancer la machine pour que la sauvegarde reprenne. C’est donc long, voire très long, mais une fois cette étape initiale franchie, tout va bien plus vite. Pour illustrer ce fonctionnement voici quelques données:
La limite principale du service, ce sont les fameux 30 jours. Notamment quand un disque externe est débranché de la machine. Sur notre station, nous avons 8 SSD externes pour le montage. Et nous les branchons en fonction des besoins. Si un disque n’est pas connecté pendant 30 jours, il sera effacé du Cloud. Cela suppose donc de rebrancher toutes les disques régulièrement et de laisser Backblaze fonctionner quelques heures. Bien sûr, vous serez notifié régulièrement par mail qu’un disque est manquant, mais ce mode de fonctionnement n’est pas ergonomique.
D’autre part, il en va de même si vous partez en vacances ou en tournage sans allumer votre machine pendant un mois. Là, il faut bidouiller: raccorder absolument tous les disques et éteindre la machine. Dans ce cas là, Backblaze ne parvenant pas à contacter votre machine, vous aurez droit à 90 jours avant effacement. Mais là encore, ce n’est pas très transparent.
Enfin dernière limite, Backblaze ne sauvegardera pas le disque dédié à « Time Machine » pour les utilisateurs de Mac, ni les disques réseau (ce qui est logique, vu le prix de l’offre).
Mon angoisse a toujours été que la boite prenne feu ou soit cambriolée pendant un tournage. Les vidéos et les photos étant irremplaçables, la seule solution consistait à partir avec des disques durs, ou à les stocker ailleurs, le temps de l’absence. Ni pratique, ni très rassurant et on est déjà suffisamment chargés en tournage. Depuis que j’utilise Backblaze et malgré ses limites, j’ai retrouvé une forme de sérénité. D’autant que le prix est totalement accessible, y compris pour un particulier.
Cependant, j’ai vu au fil des années, beaucoup de solutions de ce type fermer, ou changer de politique tarifaire. J’espère que Backblaze ne suivra pas ce chemin. Mais soyons honnête pour l’heure, ce service est un must-have pour tous les professionnels de l’image, qui garantit à vos clients que vous ne perdrez jamais ses précieuses images, et le fruit de votre travail.
L’article [6 mois de test] Sauvegarde vidéo: Backblaze, la solution? est apparu en premier sur Createinmotion.
… That is the question. Le grand mérite de Premiere Pro, outre son âge, c’est essentiellement d’être rationnel, de fonctionner à peu près partout et de savoir tout monter en natif. Oui, mais voilà, depuis des années, on a vu la concurrence arriver avec des innovations certes déroutantes (la logique de FCPX ou le système nodal de Resolve), mais diablement efficaces en termes de productivité. Pendant ce temps-là, Adobe s’est contenté d’ajouter toujours plus de formats et a saupoudré chaque nouvelle version de quelques évolutions, plus que de révolutions. Il a fallu attendre 2017 pour pouvoir créer des titres directement dans la fenêtre Programme et … 2019 pour pouvoir changer la police d’un modèle de titre ! Pour autant, les développeurs semblent cette fois-ci avoir pigés qu’il fallait faire un peu mieux pour se maintenir à flots. On a donc affaire à un logiciel qui se simplifie un peu et qui surtout voit ses fonctionnalités se développer. Voilà ce qu’il faut retenir.
Premiere Rush, c’est une nouvelle application qui s’inscrit en amont ou indépendamment de Premiere Pro. L’idée, c’est de coller à la tendance du tout téléphone et de pouvoir monter ultra facilement depuis un périphérique nomade : ordinateur portable, mais aussi iPhone, iPad (et bientôt Android)… Bref, ça marche partout, sur tout et surtout, après avoir suivi le tutoriel d’une minute, je crois qu’un enfant saurait s’en servir. Surtout, le logiciel est connecté au Cloud. Autrement dit, un journaliste peut maquetter son travail sur place, pendant que le monteur récupère et affine le montage sur Premiere Pro à distance. Premiere Rush est aussi capable de travailler tout seul et bien sûr, de publier sur tous les réseaux sociaux. Testé sur un iPad Air plutôt ancien, ça marche sans difficulté. Sans être fondamentale, cette application montre qu’Adobe offre des outils de plus en plus orientés vers la possibilité de collaborer à distance, mais aussi qu’il peut s’adresser à de parfaits débutants. Plutôt réussi donc. On peut même envisager, à termes et à l’aube de la 5G, d’utiliser Rush comme passerelle avec des images 4K, par exemple.
Lumetri, c’est le panneau spécifique d’étalonnage (color grading) de Premiere Pro. Au départ, il était un peu en avance sur son temps, mais il a très vite été surpassé par les fonctions de Resolve. Adobe semble l’avoir compris et apporte des fonctionnalités salutaires. Dans la dernière version, on avait déjà eu droit à « l’auto-matching » des plans (on sélectionne un plan de référence et le second est automatiquement étalonné pour lui correspondre), et cette fois-ci Adobe ajoute enfin la correction sélective par couleur. Qu’est-ce que ça veut dire ? Que l’on peut se dispenser de la pénible correction sélective secondaire TSL (HSL) (efficace, mais dure à manipuler) pour n’agir que sur une plage de couleurs ou de luminance. Exemple, je sélectionne une couleur et je peux en changer la teinte, la luminance, la saturation. En tout, ce sont donc 6 outils qui sont ajoutés.
Ici, on a simplement joué sur « teinte contre teinte » (Hue Vs Hue) pour changer la couleur du passage piéton. Puis on a joué sur « saturation contre saturation » (Sat Vs Sat) pour renforcer le rouge du bus.
Ici, j’ai ajusté les skin tones avant d’empiler un autre effet Lumetri pour faire ressortir le débardeur.
D’autre part, on peut enfin « stacker » (empiler) les Lumetri en leur donnant un nom particulier pour ne pas se perdre. On peut ainsi créer des « sets » de préconfigurations qui seront fort utiles pour l’étalonnage en série (skintones/sky/Shadows…). Malheureusement, il demeure impossible d’attribuer les préconfigurations enregistrées à un seul projet : elles s’ajoutent de manière globale et il faut donc fréquemment « nettoyer » les Presets. Car évidemment, on crée ces « sets » en général pour un usage unique.
L’audio, c’était à la fois un des points faibles et un des points forts de Premiere Pro. Faible, parce que rien n’y était ergonomique mais aussi un point fort, parce que quand on souscrit à l’offre Creative Cloud, on a aussi droit à Audition, After Effects, etc. et Audition est un logiciel extrêmement puissant. Problème, cela demande la maîtrise des deux logiciels et ça n’a presque rien à voir. Du coup, Adobe a introduit un panneau « Amélioration audio essentielles » (Essential Sound Repair). Et c’est réussi puisque tout y est en effet « essentiel » et contrôlable par de simples curseurs sans avoir besoin de la moindre compétence. On sélectionne l’audio, on choisit s’il s’agit d’un dialogue, de musique, etc. et ensuite, libre à vous de corriger le bruit de fond, le souffle, la reverb… En ajustant les glissières. Facile et efficace pour un résultat instantané. J’adore aussi la fonction d’ajustement automatique du volume qui permet d’harmoniser les différents dialogues. Le seul inconvénient, c’est que le traitement semble rallonger le temps d’export des films. D’autre part, pourquoi ? Mais alors pourquoi, sur l’audio, Adobe ne rajoute-il pas un bouton de lecture en boucle sur une durée paramétrable ? Pour caler l’audio, il faut entendre et réentendre. Du coup, la seule solution est de mettre un point In et un Out dans la fenêtre Programme et d’activer la lecture en boucle dans le Programme. Perte de temps.
Le panneau des « objets graphiques essentiels » (Essential graphics pannel) est apparue en 2017. Personnellement, même si elle permettait enfin « d’écrire un texte » dans la fenêtre Programme, je ne l’ai jamais trouvée ergonomique: les paramètres y sont limités, il y a doublon avec les Options d’effets, la gestion des bibliothèque est calamiteuse, tout autant que la gestion des fichiers Templates (*.mogrt) entre Premiere et After Effects. Exemple, vous achetez des templates « mogrt », mais vous ne pouvez pas les modifier directement dans After Effects, si vous désirez changer des paramètres comme la police de caractère. Pire, ces Templates utilisant très souvent des « expressions » en anglais, si vous avez un After en allemand ou en français, il y a de fortes chances que ces Templates ne marchent pas, Adobe n’ayant toujours pas trouver le moyen d’uniformiser les expressions d’une langue à l’autre. Bref, c’est indispensable et à peu près utilisable, mais ce n’est pas heureux. Sur cette version, on progresse: la police est enfin modifiable, Premiere prend en charge les fichiers vectoriels, et l’interface se rationalise. Donc, c’est mieux. Pour autant, pourquoi avoir attendu si longtemps pour changer de police alors que c’est juste le paramètre le plus basique pour coller à la charte graphique d’un client ?
Je monte sur Premiere depuis la version 5.1. Je ne l’ai pas quitté car malgré ses défauts, il demeure une sorte de mixeur géant qui, édition après édition, progresse et prend -presque- tout en charge, quelle que soit la machine. Sur ma machine de test (un PC avec 64 Go de RAM, mais qui a 3 ans), les performances de cette nouvelle version sont à peu près équivalentes à l’ancienne (2018) mais avec plus de robustesse : sur le montage d’une conférence de 3h30, je n’ai eu aucun souci. En revanche, le traitement de l’audio réclame un peu plus de temps puisque naturellement, on va se servir des nouveaux outils. Bref, je suis assez satisfait, mais je reste toujours un peu sur ma faim : j’aimerais une gestion des données plus transparente (quand on duplique un élément, il s’y ajoute toujours l’attribut « copié01 » plutôt qu’une simple numérotation, on passe sa vie à chercher des sources de presets…), une ouverture plus simple aux plugins tiers (comme pour FCP X et Resolve…). Bref, que Premiere soit réellement relifté.
Reste que Premiere Pro, inscrit dans la suite Adobe avec Photoshop/After/Audition, est absolument capable de tout faire et que dans ce domaine, il est un peu le seul : ailleurs, il faut exporter, remplacer, ou utiliser des EDL et des XML: Resolve a intégré Fusion au sein de la même interface, mais on reste encore loin des possibilités offertes ici en termes de montage « pur ». Bref, Premiere Pro reste une référence qui semble sur la voie de la modernisation avec l’arrivée de Rush.
Mais s’il vous plait, faites vite.
L’article Premiere Pro ’19 et Adobe Rush : un bon millésime ? est apparu en premier sur Createinmotion.
En tournage télé, vous verrez toujours un « ingénieur vision » accroché à son pupitre de contrôle, à déchiffrer des moniteurs qui affichent des formes d’ondes, des sinusoïdes et d’autres affichages qui font plus penser aux instruments de lancement d’une fusée Ariane, qu’à une image vidéo. Ce sont ces outils qui lui permettent de tout corriger pour envoyer une image parfaite. Ces outils, on les retrouve pourtant partout: sur les caméras tout comme dans tous les logiciels de montage. Pourquoi? Parce qu’ils sont les seuls à analyser tous les pixels d’une image sur la base de signaux électriques, bien au delà de ce qu’on peut voir dans le cadre caméra, avec notre « simple » vision. Les conditions de tournage (luminosité, nécessité d’être rapide…) peuvent laisser échapper des détails. D’autre part, il se peut très souvent que le moniteur utilisé ne soit pas bien calibré et rende donc des couleurs ou une exposition erronée. Pour toutes ces raisons, on va tenter d’utiliser ces outils au tournage et en post-production pour éviter les erreurs, ou pour étalonner correctement.
Ici on voit les deux grands modèles de couleurs. A gauche, le modèle RVB (Rouge, Vert Bleu), dit additif, utilisé par tous les écrans, les télés, bref, tout ce qui produit de la lumière. Et à droite le système soustractif utilisé pour l’impression (la lumière est « reçue » par le support). Dans ce dernier cas, si on mélange toutes les couleurs primaires (Cyan, Magenta, jaune), ça nous donne du noir sur le papier. A l’inverse, pour l’imagerie « électronique », si on additionne l’électricité des primaires, on obtient le plus de courant possible: ce qui nous donne le blanc absolu. C’est un peu comme allumer un ampoule au maximum de sa puissance. Et quand il n’y a pas de lumière, on a zéro volt, donc du noir. Pourquoi évoquer ce modèle? Parce que c’est pour comprendre que dans toutes les représentions des outils dont nous allons parler, tout sera basé sur une quantité d’énergie. C’est cette quantité, qui sera parfois segmentée en couleur, qui sera interprétée graphiquement pour nous aider.
L’histogramme, c’est la représentation du nombre de pixels (axe vertical) situés dans un zone de luminance, de gauche (le noir) à droite (le blanc). Pour résumer donc, si vous voyez une grosse montagne à droite, votre image sera très claire. Côté gauche, elle sera très sombre. Et si la montagne a un sommet plat, c’est que vous avez du blanc ou du noir absolu. Problème, cette représentation n’est pas en corrélation avec la composition de votre cadre: si votre zone surexposée est en haut de votre cadre (un ciel par exemple), la montagne sera toujours à droite de l’outil, ce qui rend son interprétation assez délicate pour transposer vos éventuelles corrections. Regardez si dessous, ces deux exemples:
L’image est plus équilibrée.Comme elle demeure très blanche, la majorité de la représentation reste sur la droite: mais on devine les rideaux (au milieu), et le jeans à (gauche) de la représentation.
Il faut donc tenter de ne pas avoir de « sommets plats », et essayer d’avoir un répartition la plus homogène possible.
Le moniteur de forme d’onde, c’est un peu un super-histogramme, avec deux différences majeures qui le rendent bien plus efficace. Tout abord, c’est l’image qui est représentée de gauche à droite (c’est à dire le vrai cadre) et d’autre part, l’échelle de l’axe Y à gauche (vertical), va représenter la valeur de luminance. A 0 c’est noir, à 100, c’est blanc (sans rentrer dans les détails d’espaces colorimétriques ou de types d’afficheurs). Pour mieux comprendre, regardez cette image:
Elle est surexposée à gauche du cadre. On retrouve donc bien l’indication de cette surexposition sur le moniteur de forme d’ondes, là encore à gauche, puisqu’on atteint les 100 IRE (Institute of Radio Engineers, qui a défini la norme). Ce qui n’était pas aussi visible lors du tournage. En revanche, pas de problème avec les noirs sur toute l’image. Regardons maintenant, une image mieux exposée:
Ici, on a récupéré les fenêtres du bâtiment de gauche. Il n’y a plus, dans l’image, de « pixels brulés ». On doit donc utiliser cet outil très facilement « interprétable », pour contenir les valeurs d’exposition entre la barre haute et le bas. Mais il y a plus fort, car cet assistance peut aussi être utilisée avec en couleur.
Prenons notre moniteur de forme d’ondes en luminance et ajoutons lui de la couleur. Autrement dit, il va afficher les quantités de rouge, de vert de bleu, suivant la même échelle. Ceci va donc nous permette de voir très facilement si une couleur est surreprésentée par rapport à une autre. Mais aussi de juger, comme précédemment, de l’exposition. L’échelle de l’axe Y étant la même, on ne peut pas dépasser le « 100 » symbolique. Encore une fois, regardons cette image:
On voit que le rushe présente une dominance rosée dans les blancs. Le phénomène est bien plus visible sur le moniteur de forme d’ondes RVB: les murs constituent le plus gros défaut, puisqu’ils sont sensés être blancs. On constate une surreprésentation du rouge. De même que l’image est en fait surexposée. Regardons la version corrigée:
Ici, ce qui est sensé être blanc, sur le mur de gauche, montre des valeurs RVB qui se confondent. C’est normal, l’addition des trois couleurs primaires donne le blanc, d’où le modèle « additif » dont nous avons parlé. L’escalier, marron, montre « plus de rouge » (normal, puisqu’il est marron), et le mur de droite affiche lui aussi correctement les RVB confondus, d’où le blanc. A noter qu’on peut aussi afficher ces valeurs sous formes de « parade »: c’est à dire, les trois couleurs primaires côte à côte comme le montre cet exemple:
On peut donc doser parfaitement les trois couleurs pour obtenir une image parfaite.
On pourrait comparer les « fausses couleurs » à une camera thermique, sauf que l’outil va réagir à l’exposition (luminance) et non pas à la chaleur. Contrairement aux zebras qui « rayent à l’image » tout ce qui dépasse un valeur IRE que vous aurez déterminée, les fausse couleurs, vont suivre une échelle. Le rouge montrera par exemple tout ce qui dépasse 100 IRE, mais vous aurez droit à toutes les nuances, et vous pourrez vous en servir notamment pour l’exposition des tons chair (Skin tones). Examinons cette exemple:
Comme on le voit, l’image est brûlée, elle est rouge dans sa grande majorité et tous les détails sont perdus. Plus important, faute de dynamique, on peut décider de préserver le visage du sujet. Mais il est aussi surexposé alors que les tons chairs devraient être entre 40 et 50 IRE (vert): c’est la différence avec les zébras qui n’auraient montrés que le ciel brulé. Ici, on a droit à une échelle de valeurs.
Voilà la version corrigée: on retrouve les détails de la ville en contrebas et surtout, le visage du modèles n’a plus de zones rouges. Les fausses couleurs permettent d’avoir une très bonne visualisation graphique de l’exposition. C’est un des outils les plus simples. Malheureusement, la fonction est rarement disponible sur les caméras à moins de toucher le haut de gamme (VariCam…). Mais tous les moniteurs externes (SmalHD…) en disposent.
C’est un outil précieux est assez unique: il va se concentrer sur la saturation des couleurs en oubliant complètement toute forme de luminance. Les différentes teintes sont représentées autour d’un « cercle ». L’affichage des couleurs ira du centre (zéro saturation) vers l’extérieur (100% de saturation, à la limite de l’outil) suivant un angle donné par les couleurs. C’est un peu comme une boussole de marin, avec un attribut de « puissance ». Mais l’intérêt est ailleurs: les teintes chairs (skin tones) ont toutes la même référence, avec un angle bien précis qui est affiché par le vectorscope. Du coup, il devient très simple de bien valoriser un visage en rapprochant les valeurs de cet angle précis, symbolisé par une ligne. Regardez les exemples ci-dessous, volontairement faussés pour la compréhension.
Ici, l’image est magenta et s’éloigne de la ligne à -40°(environ)-(entre le rouge et le jaune), il est évident que les skintones sont mal rendus… Mais sur l’exemple ci-dessous…
…On arrive à un rendu parfait des tons chairs, simplement en se fiant à l’outil.
L’article Les « Scopes » (Histogramme, Waveform…): comment s’en servir? Et pourquoi? est apparu en premier sur Createinmotion.