Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierPanasonic Vidéo Pro – Le blog en français

[Tuto] Monter la 360 en 2D pour produire des plans impossibles

Par Sébastien François

Les caméras 360° ne servent pas qu’à produire de la 360. Comme elles capturent tout leur environnement, on va utiliser ici la technique de « l’overcapture » ou du « reframe » pour créer des mouvements uniques dans les montages traditionnels. Les résultats sont spectaculaires.

Imaginons un cadreur qui peut voir l’intégralité de son environnement: devant, derrière, mais aussi au-dessus, en-dessous et surtout capable de bouger à la vitesse de la lumière pour suivre sans erreur un avion de chasse. C’est exactement ce que permettent de faire les caméras 360° quand leur usage est détourné en 2D.
Comme elles filment simultanément absolument dans toutes les directions, l’idée est donc de sélectionner en post-production le cadre de l’image le plus intéressant et d’animer sa position pour suivre ce qui nous intéresse. Pour résumer, elles dont office de cadreur virtuel.
Pour mieux se rendre compte des possibilités, voici un court exemple de ce qu’il est possible de faire:

Comme on le voit dans ici, le principe est le même que celui qui consiste à « cropper » dans une image 4K quand on va livrer en HD. Sauf que c’est dans toutes les directions. Oui mais voilà, un peu comme pour les Gopro et autres caméras de sport, quand elles sont apparues, les caméras 360° abordables n’ont pas été prévues à la base pour être utilisées de manière traditionnelle. Elles ont été faites pour le social sharing avec des app et pas forcément une recherche de post-production poussée.
Malgré tout, et comme pour les caméras sportives, les pros n’ont pas tardé à s’emparer des possibilités offertes, malgré la qualité d’image bien plus faible. Parce qu’un plan unique justifie une qualité moins « broadcast ». Il existe donc des limites, mais elles sont de plus en plus repoussées. Ceci d’autant que les caméras 360° disposant de gyroscopes et filmant partout, elles sont toutes équipées de stabilisateur d’images si performants qu’elles peuvent se dispenser de nacelles (Gimbal).

360° en 2D, comment ça marche?

Le principe est assez simple. Les caméras 360° sont équipées d’objectifs fisheye qui filment leur environment à 180° (dans la cas de 2 objectifs, 120° pour 3 objectifs etc).

fisheye

A partir de là, une puce dédiée ou un logiciel vont rassembler les 2 images (ou autant d’images que la caméra a d’objectifs) de manière équirectangulaire pour produire ce résultat qui s’apparente à un panorama déformé:

C’est cette image qui sera projetée dans une sphère virtuelle et qui permettra au spectateur de se promener à 360° comme s’il était au centre de cette sphère. L’idée est donc de récupérer une portion de l’image afin de l’insérer dans un montage classique. On va ainsi pouvoir animer le cadrage, changer de point de vue etc…

360_03_reframe
Ici, on choisit ce cadre dans l’image « panorama » pour produire, à droite, un plan « normal ». Bien sûr l’idée est d’animer le cadrage.

Les limites à connaitre

Evidemment, tout cela semble magique, mais il y a plusieurs limites qu’il faut bien prendre en compte:

  • La plupart du temps, les caméras produisent des images en 5,7K maximum (5760 x 2880 pixels) et les capteurs sont minuscules. Autrement dit, quand on reframe (ou overcapture), on ne va se servir que d’une petite partie de cette résolution. La qualité d’image est donc assez basse et la faible lumière est à proscrire.
  • Certaines caméras produisent des fichiers « prêts à l’emploi » en équirectangulaire, mais d’autres, non. Il faut alors passer par un logiciel maison supplémentaire pour effectuer le stitching (l’assemblage des images): le processus, certes simple et automatisé, est parfois long. Le but étant de créer cette image « Flat » sans défaut de raccords.
  • Certains ont déjà du mal a travailler en 4K faute de puissance: c’est encore pire en 5,7K d’autant que de plus en plus de caméras enregistrent en H265 (codage plus performant, mais ressources énormes nécessaires pour la décompression et la lecture, voir notre article sur le sujet). Il est donc souvent recommandé de travailler avec des proxys, voir là-encore notre tutoriel).
Le logiciel de la firme Insta360 (Insta360 Studio 2019) permet de stitcher les images, mais aussi faire du reframe.

Reframe/Overcapture, ce qu’il vous faut

Si tous les logiciels savent désormais monter de la VR (de la 360 native donc), ils ne sont pas tous capables d’effectuer le recadrage et l’animation des paramètres (changement de vue, champ de vision etc…). C’est pourquoi deux solutions s’offrent à vous:
– Utiliser Insta360 Studio 2019 qui supporte gratuitement la majorité des caméras 360° y compris celles qui ne sont pas de la marque. Il est téléchargeable ici et son tutoriel (très simple est ici).
– Installer les plugins Gopro pour Premiere Pro qui vont permettre ajouter l’effet « Gopro VR Reframe ». Le téléchargement pour Windows est ici et le téléchargement pour Mac est là. A noter que Gorpo propose aussi l’installation des plugins via son logiciel Gopro Fusion Studio, mais ce dernier ne sera compatible qu’avec la caméra de la marque (la Fusion).

Le reframing en quelque étapes

Une fois les plugins installés, il suffit de lancer Premiere Pro et d’importer vos fichiers 360 en Flat (equirectangulaire). Créez ensuite une séquence (une Timeline), aux dimensions de vos rushes source (5.7K, 4K…) en respectant bien la cadence d’image native de la caméra (25/30/50P).

360_05_VRReframePlug

Glissez simplement l’effet GoPro VR Reframe depuis la bibliothèque d’effet sur le clip de votre choix. L’image est immédiatement recadrée. Placez la tête de lecture en début de clip et ouvrez les Options d’effets. Activez les chronomètres afin d’indiquer que vous allez animer ce « recadrage ». Les paramètres sont les suivants:

  • Le FOV (Field of View), permet d’animer la champ de vision du cadrage, autrement dit, en augmentant la valeur, on étend le champ de vison, et en la réduisant, on zoome dans l’image.
  • Les YAW/Pitch/Roll correspondent aux directions comme pour le pilotage d’un drone, ou le contrôle d’une Gimbal. Le YAW correspond pour nous au Pan (de la gauche vers la droite et vice-versa), le Pitch contrôle le Tilt (inclinaison verticale), et le Roll fait appel à l’inclinaison de la l’assiette (pour corriger la ligne d’horizon par exemple).
  • Le paramètre Smooth transition permet quant à lui de lisser les images-clés (Ease In & Ease Out) car le plugin ne prend en compte l’interprétation faite par Premiere Pro.

Corriger les déformations

Tout comme pour les caméras de sport qui ont un champ de vision très large, les bords de l’image sont souvent courbés. Pour corriger ce défaut, allez chercher l’effet « Déformation de la lentille » (Lens Distortion). Glissez-le sur votre rushe. Dans les Options d’effet, il suffit de glisser le paramètre Courbure vers une valeur négative pour atténuer les déformations.

La déformation est corrigée, à droite par rapport au fichier natif.

L’effet Tiny Planet

L’effet Tiny Planet est ultra populaire et il était ultra simple à réaliser avec le plugin Gopro VR Reframe. Il suffit pour cela:
– de basculer le Pitch à 90° (pour regarder vers le sol en quelque sorte) et d’étendre le champ de vision à près de 100. Ce qui va faire « decoller » la caméra et rassembler tout l’image sous forme de « petite planète ». Bien sûr, si la caméra n’était pas parfaitement verticale lors de prise de vue, vous devrez sans doute corriger l’angle avec le Roll ou le YAW.

L’effet hyperlapse avec du motion-blur

La plupart des caméras 360° proposent une fonction d’hyperlapse car elles sont ultra stabilisées. Oui, mais voilà, l’effet est souvent disponible sur l’application du téléphone seulement et pas en post-production sur ordinateur. C’est très frustrant. Pour autant, il existe une parade:
– Tournez votre trajet à vitesse normale (comme dans la fin de la vidéo d’introduction de l’article).
– Une fois le fichier rapatrié dans Premiere Pro et Reframé à votre guise. Augmentez la vitesse de lecture entre 2000 et 3000%. En l’état, vous verrez bien l’effet hyperlapse, mais il n’y pas de motion blur (flou de mouvement).
– Effectuez un clic-droit sur le clip / Interpolation temporelle (Time Interpolation) / et sélectionnez Interpolation (Frame Blending). Le flou de mouvement est ainsi ajouté.

Enfin pour aller plus loin dans les possibilités offertes par les caméras 360° utilisée en 2D, nous vous recommandons cette vidéo de Cinecom.net qui montre l’étendue des transitions que l’on peut réaliser en quelques mouvements:

L’article [Tuto] Monter la 360 en 2D pour produire des plans impossibles est apparu en premier sur Createinmotion.

Tout connaitre pour débuter dans le streaming

Par Sébastien François

Autrefois réservé à une élite de Geeks, le streaming vidéo en Live connait une explosion massive de tous les contenus sur les réseaux sociaux. Et pour cause: n’importe qui peut désormais faire un Live depuis un smartphone ou même depuis un drone. Oui, mais voilà, pour aller plus loin, il faut s’intéresser à toutes les nouvelles solutions offertes à la fois par les constructeurs, mais aussi par les éditeurs de logiciel. Voici un tour d’horizon pour bien démarrer.

Streamer un Live: facile. Si j’ai un smartphone, je me connecte à mon réseau social préféré, je me filme en selphy (plus ou moins) bien et c’est parti. Certes, ce sera plus ou moins vilain, mais au moins j’ai un moyen ultra facile d’être en direct sans la moindre compétence. Au début, un peu comme pour la vidéo verticale, personne n’imaginait que ça allait marcher: mais les statistiques sont là. Le temps devant les Live ne cesse d’augmenter et la qualité des productions ne cesse d’augmenter. Oui, les « Directs » sur Facebook, Youtube et bien évidement sur la plateforme de gaming Twitch » dépasse désormais les contenus traditionnels en terme de génération d’audience qualifiée. Pour s’en convaincre, nous vous recommandons la lecture de cet article qui démontre parfaitement que les contenus en ligne qui marchent sont de plus en plus les Live. Bien qu’en anglais, les graphiques qu’il montre et les sommes en jeu parlent d’eux même:02_Stats

Source: https://neilpatel.com

03_Stats

Téléphone ou « vraie caméra »?

On ne va s’étendre sur les possibilités d’un smartphone: il dispose d’une connexion 4G, d’une caméra acceptable et peut donc diffuser de n’importe quel endroit. En revanche, il faut le suréquiper pour que l’image produite soit décente: mini trépied, micro externe, casque blutooth, lumière. Surtout, il vous cantonne souvent à une diffusion verticale (comme nous l’avons vu dans cet article): Facebook par exemple, impose une image 9/16ème dans son application Android, mais pas dans celle d’iOS. Autant de limites donc qui laisse le téléphone comme support N°1 pour les Live « vite fait », mais qui n’en font pas un périphérique adapté à une vrai réalisation: mis à part ajouter des filtres à l’image, vous ne pourrez pas ajouter des sous-titres, gérer en même temps commentaires etc.
live from phone

Les caméras sont quant à elle restée longtemps en retard pour le Live Internet (via la vidéo sur IP donc). Pour résumer, auparavant, il vous fallait une ou plusieurs caméras reliée en SDI (ou en HDMI) à un mélangeur vidéo, qui lui même envoyait le programme vers un ordinateur ou un encoder dédié pour espérer passer sur Internet. Désormais, ce n’est plus le cas. Si l’on prend le cas de la dernière AG-CX350 (et même de références antérieures) de Panasonic, vous avez droit à une prise Ethernet, mais aussi à un Dongle Wifi optionnel. Qu’est-ce que ça veut dire concrètement?

  • La caméra sait « Streamer » directement vers toutes les plateformes de diffusion sans le moindre ajout de matériel. Il lui suffit d’être à portée d’un réseau.
  • L’utilisateur saisit directement le nom du réseau sans fil et le mot de de passe, l’adresse du serveur Youtube/facebook ou autre ainsi que la clé de votre compte. C’est fini.
  • Mieux, ses informations peuvent être stockées et chargées à l’avance sur une carte SD afin d’être opérationnel encore plus rapidement.
  • Enfin, la caméra sait aussi streamer en IP si vous souhaitez récupérer l’audio et la vidéo de plusieurs source et les « mixer » en direct sur ordinateur (comme avec les logiciel OBS Studio ou VMix), ceci notamment grâce l’arrivée du protocole NDI (nous y reviendrons).

diagramm streaming

Ainsi pour résumer, une caméra Broadcast sait à la fois être indépendante et lancer un Live, ou alors être utilisée comme source d’une réalisation multicam, le tout avec ou sans fil. Vous bénéficiez alors d’une qualité d’image bien supérieure et de tous attributs apportés par ce type de matériel (Entrées XLR, zoom… etc). Pour vous en convaincre, nous vous recommandons de lire cette documentation de Panasonic: How to connect AG-CX350 with Facebook Live , How to connect AG-CX350 with YouTube Live.

Vous pouvez aussi vous inspirer de ce très bon tutoriel en anglais pour un paramétrage ultra précis:

Streamer en Live quand mes appareils n’ont pas possibilité de connectivité réseau

newtek_fg_001775_r001_connect_spark_hdmi_1348898Alors, on est d’accord, sur le matériel récent, les choses sont simples, mais que se passe-il quand on veux utiliser d’autres sources d’images qui n’on ni Ethernet, ni Wifi. Là, encore, il existe des tas de solutions très nouvelles. Prenons l’exemple d’un hybride ou d’une caméra plus ancienne qui n’offre que du HDMI ou du SDI comme sortie. La solution classique consiste donc à les raccorder à un mélangeur vidéo, ou dans le cas d’une source unique, à un boitier d’acquisition vers un laptop. Ce dernier se chargera d’encoder le flux. Autrement dit, c’est lui assurera le « Bridge » entre le signal vidéo et le signal IP via les câble SDI ou HDMI. Problèmes: les connexions sont filaires en général et rajoutent des éléments à la chaîne de production. Il y a donc désormais bien mieux.
Si l’on regarde du côté de chez Teradek ou Newtek par exemple, on trouve une gamme très étendue de boîtiers à connecter directement sur vos caméras et qui vont transmettre le signal avec ou sans fil, vers Youtube/Facebook. Grosso modo, ses boîtiers font office de passerelle entre les sources vidéo et la vidéo sur IP.
vidiu-go-hero

Une révolution nommée NDI

On l’a vu, les appareils récents ou les boîtiers de connexion ont tous pour vocation de transformer vos flux vidéo en flux internet pour se connecter aux serveurs de streaming. Si ceci n’est pas totalement nouveau (les caméra de vidéo surveillance ou les caméra PTZ fixes de font depuis un certain temps), ce qui l’est, c’est la simplicité de mise en oeuvre apportée par le NDI (ou NDI-HX). Le Network Device Interface amène les bénéfices suivants:

  • L’auto-discovery: auparavant il fallait être ingénieur réseau et employer des utilitaires plus ou moins complexes afin de déterminer l’adresse IP du périphérique, récupérer son flux, choisir le débit, le protocole réseau… Désormais, n’importe quel appareil dont le NDI est activé sur le même réseau (un simple routeur), devient à la fois une source de diffusion ou de réception: il peut s’agir d’une caméra bien sûr, mais aussi d’un téléphone, d’un ordinateur ou même petit enregistreur comme l’Atomos Ninja V et son module NDI. C’est magique puisque tout est automatisé.
    Atomos_NinjaV_NDI
  • Le protocole fait transiter non seulement l’audio, la vidéo, mais aussi des tonnes d’autres possibilités comme le contrôle à distance des caméras PTZ!
  • Pour résumer, le NDI permet de faire un multicam sans la moindre compétence réseau.

La preuve par l’exemple

Pour démontrer cette étonnante facilité, nous avons voulu réalisé le test suivant. Faire un multicam vers Youtube avec comme source 2 ordinateurs différents, un téléphone et une caméra Panasonic compatible NDI. Nous nous servirons d’un 3ème ordinateur qui assurera le mix grâce au logiciel gratuit OBS Studio et l’envoi vers Youtube.
Pour se faire, il faut d’abord télécharger la suite d’outils suivants compatibles Mac/Windows:

  1. La suite d’outils gratuites NDI Tools
  2. Le logiciel gratuit OBS Studio
  3. Le plugin NDI gratuit pour OBS Studio
  4. L’application malheureusement payante NewTek NDI Camera pour le téléphone

NewTek NDI Tools

Ensuite, nous avons effectué les opérations suivantes:

  1. Nous avons installé NDI tools sur tous les ordinateurs. La suite d’outils comprend un utilitaire baptisé Newtek NDI Scan Converter. Nous l’avons lancé. C’est lui qui établit le protocole NDI et qui permet de choisir sur n’importe quel ordinateur connecté, la source à diffuser: une fenêtre de navigateur Internet, le plein écran, une Webcam. Bref, tout ce que vous désirez diffuser pendant votre Live.
  2. Nous avons aussi lancé l’application sur le téléphone
  3. Et nous avons enfin allumé la caméra Panasonic, paramétrée en NDI, tous ces appareils appartement bien sûr au même réseau local: une simple box Internet.
    NDIHX

Ensuite, dans OBS Studio équipé du plugin NDI: 

Une fois le logiciel lancé sur la troisième machine, il suffit de créer une Scène pour chaque source puis dans Source pour chaque scène, de sélectionner « Source NDI » grâce au bouton « + ». Tous les périphériques (ordinateurs et caméra) dans notre cas apparaissent sans aucune autre intervention. Vous voilà en quelques minutes dans une configuration Multicam, sans câble ou presque et prêts à diffuser sur Youtube (ou n’importe qu’elle plateforme.
OBS_01OBS_02

Il ne vous reste plus qu’à rentrer dans les Paramètres d’OBS, l’adresse du serveur de Streaming (que récupérez sur le compte de votre chaine ou de votre page) ainsi que la clé du stream.

Pour aller plus loins, quelques conseils et astuces

  • Des mélangeurs comme le Panasonic HLC-100 vous dispense d’ordinateurs: ils se comportent comme des mélangeurs traditionnels, mais aussi comme des pupitres de contrôle pour caméra PTZ et surtout comme des PC capable de streamer directement suivant le même principe que celui que nous venons de décrire: c’est un peu un appareil unique qui regroupe toutes les fonctions en un.
  • Avant de paramétrer votre Stream, utilisez toujours un site comme Speedtest (une application est aussi disponible sur téléphone), ceci afin de mesurer la qualité de la liaison vers internet et ainsi d’adapter le débit d’encodage.
  • Préférez toujours un câble Ethernet entre le mélangeur ou l’ordinateur qui diffuse vos sources: le Wifi est toujours moins stable.
  • Lorsque vous programmez un Live sur Facebook ou Youtube: programmez-le 30 minutes avant l’instant T. Pourquoi? Pour vous permette de tester! Pendant ces 30 minutes, vous seul pourrez voir le stream en ligne avant son démarrage et détecter toutes les sources de problème. Si vous le lancez directement, tout problème sera visible par votre audience.
  • Si vous souhaitez diffuser sur plusieurs réseaux simultanément vous pouvez utiliser des services comme restream.io, mais attention, encoder simultanément pour plusieurs plateforme nécessite de la puissance.

L’article Tout connaitre pour débuter dans le streaming est apparu en premier sur Createinmotion.

Google Earth Studio: pilotez un drone depuis votre ordinateur

Par Sébastien François

Tout le monde connait Google Earth qui permet de se promener sur la planète. Mais il y a plus fort: Google Earth Studio passe à la 3D et permet ainsi de monter des séquences aériennes directement depuis votre navigateur. Finies les autorisations de vol en ville! Les résultats sont bluffants et préfigurent peut-être l’avenir du montage vidéo.

Google Earth Studio (que nous appellerons GES dans cet article), c’est un peu la suite logique de Google Earth. Cet outil en ligne permettait déjà beaucoup puisque l’on pouvait voyager sur toute la planète grâce à une banque phénoménale d’images satellite. Le problème, c’est qu’en zoomant au maximum, on se retrouvait avec une image « plate » et pixelisée. Si Google Earth a beaucoup été utilisé post-production avec cet effet de zoom depuis l’univers vers un point précis du globe, Google Earth Studio va bien plus loin:
– Les données du globe ont quasiment toutes été modélisées en 3D.
– GES est devenu un outil de création cinématique en ligne où l’on dessine ses propres trajets aériens, avec animation de tous les paramètres possibles (caméra, cible, heure du jour ou de la nuit, nuages…).
– Le logiciel permet aussi de générer des « track points » qui peuvent ensuite être utilisés dans After Effects pour ajouter des éléments (marqueurs, textes…). Et pour mieux se rendre compte des possibilités de l’outil, en voici la démonstration:

Nous allons donc faire un tour d’horizon de l’outil et vous montrer à quel point il est simple. Il permet ainsi d’ajouter des cinématiques à vos montages pour localiser des lieux par exemple. C’est bien sûr gratuit, à condition de laisser la « Watermark » de Google sur vos images.

Le principe

Attention, pour vous servir de GES vous devrez attendre quelques jours que Google approuve votre inscription. Pour ce faire, rendez-vous à l’adresse suivante: https://www.google.com/earth/studio/ et inscrivez-vous. Dans notre cas, il a fallu patienter 4 jours. D’autre part, GES ne marche qu’avec le navigateur Google Chrome (forcément), téléchargeable gratuitement sur n’importe quelle plateforme.
Ensuite, le fonctionnement est presque similaire à celui d’un logiciel de montage: une Timeline, des images clés pour animer les paramètres (trajet, cible, chemin…) et un moniteur de Programme qui va montrer en temps réel votre le vol virtuel de votre caméra. Nous allons réaliser l’exemple suivant qui montre Notre Dame de Paris avant qu’elle ne brûle:

Prise en main

Un fois connecté à GES, la plateforme en ligne vous propose de créer ou un « Blank Project » (Projet vierge), ou de choisir parmi des modèles d’animation déjà préconçus (exactement comme les modes de vol disponibles sur les drones). Pour plus de simplicité, on va choisir le mode « Fly to and Orbit » en cliquant sur « Quick Start »: autrement dit, on va voler d’un point A à un point B et effectuer une orbite autour de notre point d’intérêt.
GES_01

Il suffit ensuite de saisir la destination finale: dans notre cas « Notre Dame, Paris, France ». Le logiciel affiche aussitôt la vue satellite, puis, la simulation en temps réel du vol: vous pouvez changer l’altitude de d’arrivée, le rayon de l’orbite, l’angle d’approche… Tous ses paramètres seront bien sûr modifiables ultérieurement. Vos modifications sont appliquées en temps réel.

GES_02

Il ne reste enfin qu’à choisir la durée de l’animation. Par défaut, elle sera de 25 secondes. Vous découvrez ensuite l’interface du logiciel.

L’interface de Google Earth Studio

Par défaut, on ne dispose que de la vue finale en 3D. Il est donc préférable, pour affiner le trajet de la caméra, de passer en mode « 2 Viewports » grâce à l’icône de l’écran.
GES_03
A gauche, on visualise ainsi la carte et surtout le trajet de la caméra. De cette manière, on pourra très facilement customiser tous les mouvements et gérer les paramètres de déplacement. La Timeline quant à elle, montre toutes les images clés et la liste des paramètres. Dans notre exemple, on désire que le point de départ se situe dans l’espace et bien plus loin de Paris. Il suffit donc de placer la tête de lecture au début puis, de saisir une altitude de 35 Kilomètres, et, dans la barre de recherche, de taper « Frankfort » en Allemagne. Vous cliquez ensuite sur le losange de la rubrique « Camera Position » afin d’indiquer que vous avez modifié les images clés de position de la caméra.

GES_04
Si vous lancez la lecture, vous constatez donc que la caméra s’est positionnée au dessus de la ville allemande et ira jusqu’à Paris depuis le cosmos.
Astuce: Par défaut, GES effectue un trajet linéaire depuis l’espace, ce qui n’est pas très esthétique. Dans le menu Animation/Advanced, choisissez Logarithmic Altitude. Google va accélérer la descente vers le sol et arrondir la trajectoire, ce qui est bien plus satisfaisant.

Vous pouvez désormais sauter d’image clé en image clé pour modifier tout ce que vous désirez, et bien sûr créer des étapes sur le parcours.

Les paramètres supplémentaires

Vous aurez aussi compris que chaque point dans le Viewport « carte » correspond à une image clé de position de la caméra: vous pouvez ainsi les manipuler à loisir pour vous écarter de votre trajectoire initiale. Mais on peut aller encore plus loin. En cliquant sur Add attributes, on peut ajouter des paramètres supplémentaires, qui pourront eux aussi être animés: l’heure du jour ou de la nuit, l’angle de vue de la caméra, les nuages… De cette manière par exemple, en animant le Field of view (angle de la focale), vous allez pouvoir effectuer des zooms spectaculaires, ou, au contraire, élargir le champ pour avoir une vision panoramique de la scène.
GES_06

De plus, en sélectionnant une ou plusieurs images clés et en effectuant un clic-droit vous allez aussi pouvoir changer le mode d’interpolation de l’animation (ease-in, ease-out…) ou Auto-Ease (ce qui correspond à une courbe de Bézier automatique afin de lisser les mouvements).
GES_05

Les track-points et l’export

C’est une des autres forces de GES. Les track-points peuvent être ajoutés. Qu’est ce que ça veut dire? C’est qu’au moment de l’exportation du rendu final, GES va inclure des points de votre choix en 3D afin qu’un logiciel comme After Effects soit capable de « comprendre » les mouvements de la caméra et donc d’ancrer des éléments en 3D dans la scène. Pour mieux comprendre, contentez-vous d’ajouter un trackg-point sur la cible de la caméra (Notre Dame dans notre exemple) en effectuant un clic-droit sur la cible figurant la carte ou directement dans le moniteur final.
GES_07
Votre animation terminée, appuyez sur le bouton Render. Après avoir validé la durée et la résolution, passez à l’onglet « Advanced » et cochez la case « Include 3D tracking Data ». Lancez ensuite le rendu en cliquant sur Start. GES va générer toutes les images et vous proposer de télécharger un .zip.

GES_08

Ajoutez des éléments en 3D dans After Effects

Un fois le fichier téléchargé et décompressé, GES aura généré une suite d’images numérotées que vous pourrez importer en tant que film dans n’importe quel logiciel de montage. Mais le plus amusant est d’utiliser After Effects pour ajouter du texte 3D grâce au Track Points. Lancez After Effects, puis, depuis le menu Fichier/exécuter le script, sélectionnez le fichier .jsx généré par Google. Automatiquement, votre film est chargé dans une nouvelle Composition et surtout, After Effects a créé un objet nul et un calque de texte pour chaque Track-Point.
GES_09

Il suffit alors d’écrire n’importe quelle légende ou de lier à n’importe quel élément à l’objet nul pour qu’il soit modélisé en 3D et suive les mouvements de votre caméra. Vous n’aurez qu’à jouer sur l’orientation et la position pour qu’il matche avec votre scène. Ajoutez enfin un peu de motion blur et étalonnez un peu les images dans Lumetri pour qu’elles semblent moins artificielles et vous voilà avec des images de drone en version réalité augmentée.

Des ressources pour aller plus loin

Pour aller plus loin et en vidéo, nous vous recommandons ce tutoriel en français, du célèbre Stéphane Couchoud.

An anglais vous pouvez aussi suivre cette vidéo et la chaine associée.

 

L’article Google Earth Studio: pilotez un drone depuis votre ordinateur est apparu en premier sur Createinmotion.

Time-lapse: le mode d’emploi complet

Par Sébastien François

Prendre une photo toutes les X secondes, assembler toutes les images pour en faire un film qui accélère l’action? Facile. En théorie. On va donc vous expliquer ici comment, et même pourquoi produire de bons time-lapses pour dynamiser ou enrichir vos productions: matériel, technique, conseils.

Un time-lapse, pour résumer, c’est la technique qui consiste à prendre une photo à un intervalle de temps régulier afin d’en faire un film. Ce qui va produire une sorte d’accéléré pour montrer ce que l’on ne verrait pas à l’oeil nu en restant planté au même endroit.
Mais, la première question est la suivante: ça sert à quoi?

Les utilisations du Time-lapse

  • Avant tout, un time-lapse sert à montrer ce qu’il est impossible d’observer à vitesse réelle: si l’on prend l’exemple classique des nuages dans le ciel, vous ne verrez pas leur évolution car ils se déplacent bien trop lentement. Avec un time-lapse, oui.
  •  Accélérer une action qu’il aurait été impossible de filmer à vitesse réelle sous peine de lasser le public. Une impression 3D de plusieurs heures va se faire en quelques secondes et afficher l’objet final. Il en va de même pour la construction d’un immeuble sur un 1 an: à raison d’une image par jour, la construction va pousser comme un champignon. On peut aussi montrer le lever et le couché du soleil, le déplacement des étoiles…
  • A dynamiser un film, tout simplement. Vous avez l’habitude de jouer sur les ralentis ou le Time-remapping (maitrise de la vitesse de lecture entre accélération et slow-motions), pourquoi ne pas introduire aussi des time-lapses pour provoquer des ruptures de rythme? On le voit dans cet exemple de la présentation de la caméra AG-CX350 puisqu’on alterne en vitesse réelle, ralentis légers, vrais slow-mo et time-lapses:
  • A faire des effets de styles, comme les « trainées de phares de voitures » que l’on voit dans les scène urbaines, ce qui n’est, encore un fois pas visible à l’oeil nu.

D’abord, un peu de Maths

Alors avant de commencer la pratique, il faut faire 2-3 petits calculs. On l’aura compris, prendre une photo toutes les X secondes signifie tout d’abord faire un peu de maths pour prévoir la durée du résultat final, une fois transformé en film.
– Le premier paramètre à prendre en compte, c’est la cadence d’image de votre film. Autrement dit, on doit anticiper la cadence d’image du montage final (voir notre article sur les cadences d’image): communément, il peut s’agir de 24/25 ou 50 images par secondes (fps). Il faudra donc prendre 24/25/50 « photos » pour produire 1 seule seconde de film.

– Le second paramètre, c’est le fameux intervalle entre chaque prise de vue. Est-ce que je prends une image toutes les 2 secondes? Ou toutes les minutes? Pour aider à faire ce choix, tout va dépendre de la scène et du déplacement des objets qu’elle montre. Mais on peut dégager quelques règles:

Un sujet très mobile (véhicule…): intervalle de 1 à 2 secondes
Un sujet un plus plus lent (piétons…): intervalle: de 2 à 3 secondes
Tout ce qui est encore plus lent (la course du soleil etc): de 5 secondes à plusieurs minutes.

Bien sûr, tout ceci n’est que purement indicatif, mais l’idée est là. Donc, pour obtenir ma séquence et raisonner mathématiquement, je vais dire que je veux un plan de 10 secondes, qui sera diffusé à une cadence de 25 images par secondes (fps) avec un intervalle de 3 secondes. J’applique donc la formule suivante pour connaitre le nombre de photos à prendre.

Les formules :

(Durée du plan en secondes) X (Cadence d’images finale)
= Nombre N de photos à prendre.

GH5-Timelapse-menuEt si vous n’être pas équipés d’une caméra, ou d’un hybride qui intègre la fonction « Interval Rec » ou « Time-Lapse » (comme chez Panasonic), vous allez ensuite appliquer la formule suivante pour savoir combien de temps patienter avant la fin du time-lapse.

(N nombre de photos à prendre) X Intervalle choisi
= Durée du shoot en secondes

Timelpase_appDans notre exemple, il nous faudra donc prendre 250 images (10 secondes x 25 i/s) et patienter 250 x 3 secondes (durée de l’intervalle). Soit 750 secondes, soit, 750 : 60 = 12 minutes 30. Voilà, pour le calcul de base. Évidemment, il peut se faire à l’inverse: « je sais que la course du soleil avant la nuit prend 3h et je fixerai un intervalle de 10 secondes ». Il me faudra donc: (3600 seondes (1 heure) x 3 heures)/10 = 1080 images. Le plan va donc durer: 1080/25 (cadence d’image) = 43 secondes environ.

Et pour les plus feignants, il y a même des applications comme celle-ci (pour iOS) et celle-là (pour Android)

Ensuite, un peu de matériel…

Franchement, côté matériel c’est assez simple: un bon time-lapse, c’est avant tout un DSLR, un hybride ou une caméra qui sait prendre une photo toutes les X secondes. Et même si ce n’est pas le cas, il suffit d’acheter un « intervallomètre » 01_intervallometerà raccorder sur la prise Remote de l’appareil pour qu’il en soit capable. C’est l’intervallomètre qui décidera donc de la prise d’une photo toutes les x secondes. Dans le cas de Panasonic, la fonction est intégrée depuis bien longtemps et surtout, les appareils savent assembler les images pour en faire un film en interne sans avoir besoin de monter: vous obtenez directement la vidéo.

Pour le reste, un time-lapse, c’est surtout un plan qui ne bouge absolument pas (sauf dans le cas d’un motion time-lapse) afin d’éviter le moindre tremblement d’image : vous n’aurez alors besoin que:
Avalon-Universal-PRO-Tripod– D’un trépied costaud (ou n’importe quelle support vraiment stable). Même le vent peut faire trembler un plan et ruiner votre prise de vue si le support n’est pas stable, surtout avec des optiques lourdes en longue focale.
– D’une « power bank » (batterie USB – voir notre article sur les accessoires) si vous prévoyez que la prise de vue va durer plusieurs heures. Elle vous permettra d’alimenter votre appareil tout le temps nécessaire.
– D’un filtre ND variable (ou d’un jeu de filtres ND). Comme nous allons le voir après, pour obtenir des effets de trainées, on est obligé de choisir un temps de pose très très bas (voire de plusieurs secondes). Et donc, même la nuit, il faudra peut-être mettre un filtre Neutre pour abaisser la quantité de lumière et conserver ce Shutter très lent.

Le temps pour composer et raconter: le choix de l’intervalle et du Shutter

Everest – A Time Lapse Film – II from Elia Saikaly on Vimeo.

Vous avez compris les maths, vous avez compris qu’il faut assez peu de matériel? Place maintenant à la réflexion. Intellectuellement, il vous faut discerner deux choses: le cadre bien sûr (mais ça vous savez faire) et ensuite la priorité que vous donnerez aux sujets mobiles ou immobiles de votre scène. Et là, c’est d’abord le choix de l’intervalle qui va jouer.
Prenons un exemple. Vous avez prévu de tourner le déchargement d’un énorme container d’un bateau sur un quai. Déchargement qui prendra 1 bonne heure. Dans votre scène vous allez avoir la grue qui porte le container et les dizaines d’ouvriers et de véhicules qui vont s’agiter pour le recevoir.

  • Si vous optez pour un intervalle très grand (de l’ordre de 15 secondes), votre plan final mettra en valeur le cheminement du container (car le mouvement est très très lent) au détriment des ouvriers/véhicules qui vont scintiller, apparaitre et disparaitre: en 15 secondes, ils auront parcouru bien du chemin.
    timelapse – discharging a container ship from Andre Freyboth on Vimeo.
  • Si vous optez pour un intervalle plus court (1-2 secondes), ce sont eux, à l’inverse qui vont être mis en valeur comme des fourmis qui s’agitent, à l’inverse du container qui va sembler presque immobile.

Tout est donc affaire de choix et de priorité dans la composition. Place ensuite à l’esthétique et c’est là que le shutter prend toute son importance. C’est lui va qui déterminer le « motion-blur » ou flou de mouvement. Là encore, prenons un autre exemple. Vous filmez tout simplement une rue passante.

  • Avec un shutter rapide (1/50ème de seconde par exemple) vous allez accroitre le sentiment de passage, car les passants vont tous être presque nets et sembler courir et courir encore dans cette rue.
  • Au contraire, avec un shutter très lent (1 seconde), ils vont tous s’estomper pour ne laisser que des trainées diffuses. Vous allez dans ce cas là, privilégier la rue et les bâtiments.
    GH1 Timelapse test with intervalometer from Arthur Kulcsar on Vimeo.

En pratique: le Manuel, le Manuel et encore le Manuel

Un time-lapse étant un assemblage de photos, tout écart entre deux images va sauter au yeux et scintiller. Vous devez donc tuer tous les automatismes de votre caméra.
Pourquoi? Parce que même si vous ne le percevez pas, dans n’importe quelle scène, d’une seconde à l’autre, il y a toujours un changement. Pour comprendre, imaginez que vous soyez en Autofocus sur la scène de rue que nous avons évoquée: chaque nouvelle photo sera mise au point sur un piéton différent. Donc, si vous engagez un automatisme (Ouverture -Iris-, Shutter, ISO…), ce micro changement sera perçu par la caméra qui va donc faire varier un paramètre et adapter ses réglages.
Manual Mode
Au final, vous ne pourrez pas exploiter le résultat. Le seul bémol concerne peut être la Balance des Blancs. Comme la mesure s’effectue différemment (sur un global et sans changement brutaux), ce paramètre peut parfois être laissé en automatique. Quoi qu’il en soit, la procédure à respecter est la suivante:

  1. Je bascule mon appareil en 100% manuel: focus, ouverture, shutter, Iso (Gain)… Je paramètre mon appareil en Live-View, Constant preview afin de voir l’incidence des réglages. Dans le cas d’une caméra, c’est inutile: elle le fait toute seule. Dans le cas d’un DSLR, privilégiez aussi les optiques manuelles: le relèvement du miroir provoque souvent un décalage de l’exposition de quelques millisecondes, ce qui sera visible à la fin.
  2. Une fois que j’ai choisi mon cadre, que j’ai verrouillé mon trépied, je prends une photo de test afin de vérifier totalement la qualité de la photo et de détecter des défauts. Dans le cas d’une caméra, je lance un enregistrement de quelques images pour vérifier les mêmes paramètres. J’ajuste les paramètres si besoin.
  3. Je prépare l’enregistrement du time-lapse (intervalle, shutter…) et je le lance.

Et en post-production?

On ne va pas ici développer les techniques avancées de post-production en RAW etc, mais une fois votre time-lapse réalisé, se pose à vous deux cas de figure. Soit votre caméra a déjà généré le film (cas des GH4/5S, CX350 etc…) dans la résolution souhaitée, soit vous avez enregistré les X images sous forme de photos sur votre carte mémoire. Dans ce dernier cas:

  1. Importez toutes les photos dans un dossier sur votre machine
  2. Dans votre logiciel de montage: importez les images sous forme de « séquence d’image »: elle sera lue comme un film à raison d’une photo par image. Ou alors, si votre logiciel ne supporte pas cette fonctionnalité, indiquez que chaque photo ne doit durer qu’un frame lors de son importation: en les glissant sur votre time-line vous aurez donc un film.
    import-as sequence
  3. Pour une utilisation plus poussée, vous pouvez acquérir un logiciel spécialisé comme LrTimelapse en conjugaison avec Adobe Lightroom. Ce type d’application réservée aux professionnels va permettre d’assembler, de corriger toutes les incohérences d’une images à l’autre et même de jouer sur le format RAW des photos si votre appareil en est capable.

Effet Holy grail, Tilt-Shift, Motion Time-Lapse, Hyperlapse… C’est quoi?

Pour conclure, on va évoquer brièvement différentes techniques dérivées du time-lapse.

1. L’effet Holy grail pour les levers et les couchers de soleil

Cette technique consiste à tourner un time-lapse de la nuit au jour et vice versa. Oui mais voilà, on l’a vu, comme on reste en Manuel, l’exposition va changer de la pénombre au plein soleil. Alors comment faire? Le plus simple, c’est de découper le time-lapse en 4 sections. Dans le cas d’un coucher de soleil, vous lancez la prise en étant légèrement surexposé et dès que vous commencez à être sous-exposé, vous faites une pause et vous réajustez l’exposition. Vous relancez ensuite le second time-lapse. Et ainsi de suite jusqu’à la nuit noire. Au montage, vous ferez se chevaucher les 4 time-lapses avec un simple fondu.

Wellington South Coast New Zealand – Day to Night Time-lapse from Mark Gee on Vimeo.

2. Le Tilt-Shift

Cet effet consiste à prendre des time-lapse d’un point de vue très en hauteur. Avec cette technique les humains tout en bas, vont ressembler à de petites personnages semblables à des jouets. On rajoute aussi du flou en haut de la scène et on sature les couleurs. Le mieux est de voir cet exemple en image:

A (Little) London Christmas – A Tilt Shift Timelapse from Media Hog Productions on Vimeo.

3. Motion time-lapse et hyperlapse

Le motion time-lapse va nécessiter un slider et une tête motorisée qui va bouger d’une position A à une position B dans l’intervalle de temps. Si vous devez prendre 250 photos, le logiciel du slider (qui pilote aussi l’appareil en général) va découper son mouvement en 250 positions et ne bougera qu’entre chaque photo. L’hyperlapse quant à lui, c’est la technique qui consiste à se déplacer entre chaque image tout en gardant un cadre stable. C’est assez dur à maîtriser, mais les nouvelles caméras de sport ou 360° commencent à embarquer nativement cette fonctionnalité.

Berlin Hyperlapse from b-zOOmi on Vimeo.

 

 

 

L’article Time-lapse: le mode d’emploi complet est apparu en premier sur Createinmotion.

Pourquoi passer au clavier programmable ?

Par Sébastien François

Monter un film, ça signifie maitriser des tonnes de raccourcis clavier. Il existe bien des accessoires pour les rendre plus clairs, mais il y mieux: les claviers programmables. Pourquoi? Parce que vous pouvez les personnaliser pour autant de fonctions que vous le désirez. Et les utiliser partout et pour tout.

J’ai découvert les claviers programmables quand j’ai du réaliser un Live avec un mélangeur vidéo contrôlé exclusivement par un Macbook Pro. Problème pour moi qui suis habitué aux vrais « panneaux de commandes » avec de vrais gros boutons, je ne me voyais pas appuyer pendant des heures sur Shift + 1, Shift +2…. à chaque changement de caméra. J’ai donc investi dans un petit clavier programmable: le Stream Deck d’Elgato.Il suffit de le connecter à une machine pour qu’il devienne une sorte de deuxième clavier, à la différence que chaque touche est un mini écran LCD et que vous pouvez lui affecter n’importe quelle action.
Dans mon cas, je me suis contenté de mémoriser les raccourcis du mélangeur et j’ai « baptisé » mes touches du nom de mes cadreurs (et j’ai inséré leur photo!)… Et faire ma réalisation exactement comme avec un vrai panneau de contrôle.
streamdeck as mixer
Mais évidemment, ce type de périphérique ne se cantonne pas à cet utilisation marginale. Ils sont surtout utiles quand on monte.

Programmables contre personnalisés

Si l’on considère que le montage d’un film va nécessiter des milliers de frappes de raccourcis clavier à 2 ou 3 touches, on mesure immédiatement l’intérêt de se munir de ce type d’accessoire. Il existe bien sûr des claviers traditionnels qui sont physiquement personnalisés pour tel ou tel logiciel, ou encore des « skins »: les raccourcis sont directement indiqués via des couleurs ou des signes.
logickeyboard-adobe-premiere-pc-slim-black-1-39
Mais cela veut dire que vous ne pouvez pas utiliser vos propres raccourcis et que si l’éditeur du logiciel change ces raccourcis, vous pourrez jeter le clavier. Autre problème, on oublie parfois certaines combinaisons de touche parce qu’on les utilise moins souvent. Du coup, on perd donc du temps. Le programmable, de son côté, élimine toutes ces contraintes.
streamdeck general

Le Stream Deck, comment ça marche?

C’est pourquoi, utiliser un Stream Deck montre tout son intérêt. L’idée, est assez simple, les 15 touches affichent ce que vous voulez (images, texte) et peuvent être affectées à n’importe quelle action: un raccourci clavier, mais aussi le lancement d’une application, la saisie automatique d’une phrase enregistrée et même plusieurs raccourcis successifs avec un timing entre chaque frappe… Les possibilités sont presque infinies. Surtout, vous n’êtes pas limités aux 15 touches puisque le Stream Deck stocke aussi des dossiers. Autrement dit, vous pouvez très bien avoir un écran d’accueil d’où vous lancez vos applications, presser la touche « dossier » de Premiere Pro pour accéder à un autre « clavier » qui ne regroupera que les raccourcis de ce logiciel.

streamdeck_01Vous pouvez créer un dossier pour toutes vos applications et switcher d’un clavier à l’autre. C’est magique. Dans mon cas et sur Première Pro, le plus fatiguant est de passer d’une fenêtre à l’autre: panneau Montage, panneau Projet, Panneau Options d’effets… Tout comme il pénible d’utiliser systématique CTRL + K pour couper les plans sous la tête de lecture.

streamdeck_02
J’ai donc affecté un maximum d’actions « pénibles » au Stream Deck, ce qui me permet de monter sans quasiment quitter la souris.
Les utilisateurs de Photoshop seront eux aussi ravis de regrouper tout leurs outils via ce clavier… Voilà en tout cas pour le principe, mais c’est à vous de trouver le configuration qui convient à vos utilisations

.

Et dans le détail?

La programmation d’un clavier peut faire peur. Rassurez-vous, vous n’avez aucune ligne de code à écrire! Ce clavier (ou un autre) est toujours contrôlé par un petit logiciel ultra simple.

streamdeck & softwarestreamdeck_software

 

 

 

 

 

 

 

 

 

A son ouverture, il montre les 15 touches à l’écran. Il suffit  ensuite de procéder comme suit:
1. Sélectionnez la touche désirée
2. Choisissez dans la liste déroulante à droite le type d’action à affecter: elle est longue comme le bras, mais ce qui va nous intéresser en professionnel, ce sont les rubriques Stream Deck (pour créer un dossier par exemple) et Système (pour les raccourcis clavier ou le lancement d’une application).
3. On glisse/dépose l’action sur la touche.
4. On donne un titre (et c’est drôle parce que le texte s’écrit en même temps sur le vrai clavier!)
5. On rentre la combinaison de touche à affecter (ou l’action)
6. Et de manière optionnelle, vous pouvez aller chercher une image pour la mettre sur la touche, ou piocher dans la banque d’icône en ligne de l’éditeur.
C’est fini!
7. Cerise sur le gâteau, le Stream Deck peut se prêter. En effet, vous pouvez enregistrer des Profils pour chaque utilisateur. Et il marche aussi bien sur Mac & PC.

L’essayer c’est l’adopter

Alors oui, on peut vivre aisément sans ce type de périphérique. Mais c’est un peu comme passer de 1 à 2 écrans: on ne revient plus en arrière tant le confort est important. Surtout, c’est un périphérique nomade et encore plus utile avec un ordinateur portable dont l’espace est restreint (pas de pavé numérique par exemple). A recommander donc. Notez aussi que nous avons utilisé le Stream Deck dans cet exemple, mais qu’il est existe des dizaines de références avec plus ou moins de touches et plus ou moins de fonctions.

https://www.elgato.com/fr/gaming/stream-deck

L’article Pourquoi passer au clavier programmable ? est apparu en premier sur Createinmotion.

AG-CX350: Nouvelle caméra Panasonic ultra polyvalente

Par Sébastien François

4K, NDI|HX, enregistrement 4:2:2 10 bits, streaming sans fil, stabilisation optique… Voilà ce que propose la nouvelle bête du tournage de chez Panasonic. Un camescope vraiment bon à tout faire pour un tarif ultra compétitif: il est annoncé à 3850 euros HT et pèse à peine plus de 2Kg.

« Engineered to impress », voilà le slogan qui définit cette nouvelle caméra et que l’on pourrait traduire par « conçu pour impressionner ». Effectivement, le rapport prix/fonctionnalités est tout à fait favorable à cette nouvelle machine qui vise à toucher un large marché: certes les pros de l’ENG ou du documentaire sont directement concernés, mais ce qui est plus original, c’est la connectivité offerte par cette CX350. Elle devrait lui permettre de viser un public bien plus large.
En effet, la caméra embarque un terminal LAN et elle est compatible NDI|HX, RTMP/RTSP. Via un dongle Wifi, elle est aussi capable de streamer directement sans fil à la patte vers les principales plateformes (Facebook, YouTube etc..). Le support du NDI|HX lui permet de s’insérer dans un système de production Live à l’aide d’un simple câble Ethernet qui va transporter l’audio, la vidéo, mais aussi le Tally… On peut aussi contrôler la caméra à distance via ce protocole qui se paramètre quasi automatiquement. Pour mieux comprendre les possibilités offertes, il suffit de regarder ces schémas de connexions possibles:
diagramm_CX350

Du coup, ces possibilités décuplent les utilisations possibles de la caméra pour les captations, les conférences et globalement tout ce qui se déroule en direct. Mieux, une mise à jour permettra aussi d’insérer directement une clé 4G/5G afin d’envoyer les images depuis n’importe quel endroit de la planète (à condition d’avoir du réseau, bien sûr). Bien vu, donc.

Des formats d’enregistrement, en veux-tu? En voilà

Autre aspect très novateur de la machine, la quantité pléthorique des formats d’enregistrement disponibles. On imagine que le constructeur a intégré la dernière version de son « Venus Engine ». Pour résumer, la CX350 enregistre aussi bien du 4:2:2 10 Bit en 4K(UHD) avec le codec All-I à 400 Mbps (comme sur l’EVA1), mais plus original, elle propose tout aussi bien du H264 et surtout du H265 (HEVC). Ce dernier constitue actuellement ce qui se fait de mieux en terme de ratio poids de fichiers/qualité d’image. On peut donc choisir le Codec ALL-I (cartes UHSII/V60 obligatoires) en cas de grosse post-production, ou le HEVC jusqu’à 50P pour tourner très très longtemps. Bien entendu, de nombreux débits sont disponibles. La liste des formats d’enregistrement parle d’elle même:
CX350 recording formats

On note aussi une nouveauté: le mode VFR (Variable Frame Rate) est désormais disponible en 4K jusqu’à 60P. On peut ainsi jouer sur la cadence d’image très facilement en cours de tournage pour faire des time-lapse ou des ralentis. Un mode Super-Slo est aussi disponible en FHD et permet d’enregistrer jusqu’à 120 images par seconde, sans crop.

Côté image: nouveau capteur, HDR, HLG, stabilisation 5 axes, Focus intelligent…

ag-cx350_5_lens_2_high_res

La CX350 est équipée d’une nouveau capteur MOS d’1 pouce. Il offre plus de 15 millions de pixels et surtout, il n’existe désormais plus aucun crop dans l’image. La caméra dispose de différentes courbes de Gamma, dont le HDR (High Dynamic Range) et surtout le HLG (Hybrid Log Gamma). Le constructeur annonce une sensibilité de F13 (en PAL). On retrouve bien sûr la stabilisation optique 5 axes que Panasonic maitrise mieux que personne. De manière plus traditionnelle, les 3 bagues de contrôle sont présentes. En revanche, l’optique couvre une plage de 24.5-490 mm, soit une des meilleurs grand angle du marché associé à un zoom de 20X. En activant le iZoom (système sans perte), on peut même pousser jusqu’à 24X en UHD et 32X en HD! Enfin, le Focus Intelligent est sensé être bien plus rapide que les générations précédentes et le tracking est amélioré.

En résumé
ag-cx350_3_cover_high_res

On le sait, les camescopes de poing sont un peu moins tendance qu’avant, avec la montée en puissance des DSLR et autres hybrides. Pour autant, travaillant avec les deux types de machines, je trouve qu’il est extrêmement agréable de « retrouver » un vraie caméra: pas besoin de se soucier des optiques, pas besoin de rajouter mille accessoires. On dégaine, on shoote et on ne se prend plus la tête avec le son puisque tout est intégré.
Panasonic dévoile une machine plus compacte et plus légère que les précédentes DVX200 / UX180 et qui embarque une tonne de fonctionnalités parmi lesquelles on retiendra  la richesse des formats d’enregistrement et la connectique complète: elle va du SDI en passant par le LAN (NDI), le HDMI et l’USB pour y brancher de futurs dongle sans fil. Et tout ça pour un prix public inférieur à 4000 euros HT. C’est donc une machine faite pour durer dans la temps, très solide et qui devrait trouver un public de « run & gun », mais aussi une cible plus large qui va du Vlogger jusqu’aux productions de Live.

Les spécifications complètes

La brochure

La page produit chez Panasonic

L’article AG-CX350: Nouvelle caméra Panasonic ultra polyvalente est apparu en premier sur Createinmotion.

Le Must-Have des accessoires qui simplifient les tournages

Par Sébastien François

En tournage, on monte, on démonte, on transporte, on installe, on bricole. Le tout dans un temps record. Nous avons sélectionné ici 10 accessoires qui rendent la vie plus simple et la production plus efficace. Et ceci, pour quelques euros seulement.

1- Sans semelle au pied

01_RabbitKeyVous cherchez toujours votre pièce de 10 cents pour détacher vos semelles (camera plates) qui ne sont jamais universelles? Vous en avez marre des gros tournevis? Voici une paire de solutions qui vont vous éviter de fouiller vos poches et vous arracher les cheveux. La première est à acheter au Etats-Unis sur Adorama ou B&H. Elle s’appelle « Rabbit Key RBTK01 ». L’idée est si simple qu’on se demande pourquoi elle n’a pas été copiée. C’est tout simplement une clé de voiture dont l’embout plat s’adapte à toutes les vis Kodak (1/4 – 1/3). Vous l’attachez à votre trousseau et c’en est fini de chercher de la monnaie.
On peut s’en procurer ici pour moins de 10$

01_TompouceL’autre solution pour se défaire des semelle, c’est de se tourner vers un mini tournevis prévu à cet effet comme le Tom Pouce Akor. Il peut lui aussi être fixé à un set de clés. Bien que moins discret, il offre une meilleure prise en main et un meilleure couple de serrage. Vous en trouverez chez Cineboutique pour un peu moins de 25 euros. Ou encore ici
Enfin, une dernière solution peu onéreuse est de remplacer toutes les vis Kodak par les mêmes, mais avec un anneau intégré, comme le montre cette image:
01_vis kodak avec anneauDu coup, vous n’aurez plus besoin du moindre outil pour fixer vos périphériques. Ce type de visserie peut se trouver chez Smallrig par exemple, en vente sur Amazon.

2- Les câbles sans galère

02_Velcro strapsL’enfer des câbles, vous connaissez? L’art de les enrouler sans les emmêler, de les stocker proprement pour leur prochaine utilisation demande presque un diplôme… Mais heureusement, il existe un accessoire génial qui devrait être disposé sur chaque câble. Il s’agit tout simplement de Velcro sous forme de bandes trouées (Velcro Straps). Il suffit de les fixer à poste à l’extrémité de chaque câble. Ce dernier enroulé, il suffit ensuite de refermer la boucle pour maintenir le tout sans le moindre nœud. Ces Velcro existent dans toutes les tailles: des gros pour maintenir les rouleaux BNC/XLR de 50 mètres, jusqu’au plus fins pour attacher une simple alimentation USB. Et surtout ça ne coûte presque rien. En vente absolument partout.

3- Du côté de la trousse à outils: les 3 font la paire

Pour l’outillage de base, on va pas transiger. En production légère, l’essentiel se résume à trois « outils ». Le premier, c’est le fameux Leatherman, le second, c’est le Gaffer et le troisième, c’est le jeu de clés hexagonales/Torks.  En effet, les besoins en vidéo sont assez vastes, mais le champ d’outillage est assez réduit pour dépanner toutes les situations de tournage, tant que vous n’êtes pas chef déco ou électro.
D’abord, achetez un Leatherman. C’est un outil universel proche du couteau Suisse, mais sous forme de pince repliable et verrouillable. Il permet de couper, de visser… Bref, c’est l’accessoire à avoir toujours dans une poche pour régler toutes les situations. Certes, ce n’est pas donné, mais ça se garde toute une vie. Dans la gamme du constructeur, nous préférons personnellement le modèle Surge, le plus complet pour la vidéo ou à défaut, le modèle Wave+, moins encombrant.
03_leatherman

Et si l’on ne devait garder qu’une seule chose, ce serait le gaffer selon moi. Ce scotch a la particularité d’être découpable à la main, de ne laisser aucune trace quand on l’enlève tout en étant ultra solide. Ses utilisations sont presque infinies puisque vous l’utiliserez tout autant pour plaquer des câbles au sol, tout comme pour fixer des accessoires, ou encore pour maquiller des éléments de décor. Des dizaines de groupes existent sur Facebook pour montrer les réalisations les plus folles de ce fameux « scotch » pas ordinaire. Attention cependant à la qualité: le Gaffer est souvent imité mais rarement égalé. Il existe dans tous les coloris (dont le vert pour les Chromakey), mais le plus polyvalent reste tout de même le noir. 03_gaff_tape

Enfin, pour l’outillage, je garderai en dernier lieu, le jeu de clés hexagonales/Tork03_hexa_keyss, mais sous forme de couteau repliable et léger: l’immense majorité des périphériques vidéos (trépieds, cages etc), sont fixés avec de la visserie de ce type. Il est donc indispensable d’avoir un jeu de clés pour resserrer ou démonter. Vous pouvez trouver ce type d’accessoires dans les boutiques cinéma, mais aussi et surtout dans les magasin de sport: les vélos utilisent la même visserie et l’accessoire devient alors nettement plus abordable.

4- Un peu de lumière, mais pas trop

En tournage, on est très souvent sans lumière d’appoint. Un peu problématique quand il s’agit de « buller » (faire le niveau) d’un pied pendant une captation, ou de réparer une connexion. Il y a donc les adeptes de la lampe frontale façon spéléologie, de la Maglite genre NYPD, mais le plus utile selon nous, c’est la lampe de poche qui dispose tout simplement d’un habillage en caoutchouc/silicone, ou alors de la lampe stylo. Pourquoi? Parce que la lampe frontale n’est pas discrète, ni orientable quand on est dans un environnement de conférence par exemple. La Maglite pourrait convenir, mais le problème, c’est qu’elle est en métal et que pour disposer de ses deux mains, on est tenté de la tenir avec ses dents! Nous vous recommandons donc les lampes stylos ultra légères qui disposent d’un revêtement qui n’abîmeront pas le sourire, comme celle là.
04_Pen_Light

Au pire, vous pouvez toujours utiliser le fameux Gaffer pour entourer le corps de la lampe et préserver votre dentition sur des lampes torches « normales ».

5- Cachez ce micro-cravatte (lavalier mic) que je ne saurais voir…

05_Garfield_MicPoser un micro cravate est une chose assez simple si vous décidez de le laisser apparent. Les choses se corsent quand vous voulez le cacher, et notamment sur les dames qui portent souvent des hauts très fins ne permettant pas de fixer correctement la griffe du HF. On peut alors utiliser une fois de plus du Gaffer disposé en « amortisseur » ou alors, ces deux accessoires qui vont éliminer les frottements. Le premier est un simple mini tube de mousse dans lequel vous insérez la capsule du micro: il s’agit du Garfield Hush Lav.

Le second est selon moi plus intéressant puisqu’il s’agit d’un set de fixations en silicone. Hide-a-mic permet d’insérer des capsules Senken dans des « étuis » pourvus de fixations: T-Shirt, soutien-gorge, cravate… L’isolation contre les frottements est meilleure et surtout, le sujet peut le fixer seul sans que vous ayez à intervenir. Une nouvelle version baptisée « Flex » est encore plus astucieuse puisqu’il s’agit d’un support que l’on peut coller directement sur le peau sans plus se soucier des vêtements.
05_Hide_a_ mic05_b_flex

6- L’acier contre le sable

Autre problème de tournage: lester les pieds de lumières, les girafes et les grues pour éviter les accidents. La réponse traditionnelle consiste à utiliser les sacs de sable ou des bouteilles d’eau bricolées. Sauf qu’il faut du sable ou de l’eau sur place, ce qui n’est pas toujours le cas. Si vous êtes en panne, ou tout simplement en studio, préférez les poids d’haltérophilie.
06_weights-02Pourquoi? Parce qu’ils ne sont pas chers et que surtout, le diamètre du trou central s’adapte totalement à nos pieds lumière et autre grues. Mieux, vous pouvez aussi choisir la masse emportée, de 0,5 Kg à 5Kg en général et vous pouvez aussi les empiler en fonction du support à lester.06_weights
Vous trouverez ces articles dans toutes les boutiques de sport ou en ligne.
Il existe une version luxe et 100% cinéma de ces poids, chez Manfrotto.
06_manfrottocounterweight
Le fabricant propose des contrepoids qui on la particularité d’être équipés d’une pince intégrée. On peut ainsi les fixer n’importe où. Super pratique, mais assez cher.

7- Nettoyage express

07 dry dusterVous disposez sans doute d’un kit de nettoyage pour optique (pinceau, soufflette…). Indispensable, mais pour effectuer un nettoyage express (et notamment extérieur) de vos périphériques (caméras, pieds…), nous avons toujours avec nous une bombe d’air sec. La pression à la sortie permet de chasser la poussière sans toucher à l’appareil. Attention cependant, nous vous déconseillons de l’utiliser sur un capteur car si l’air va chasser la poussière, cette dernière se collera ailleurs dans la caméra et pourra revenir. Mais pour tout le reste, passez à l’air sec, pour quelques euros seulement.

8- De l’énergie pour tous

08_ravpower bankAutre must-have lors des tournages, la banque d’énergie (power bank). Avec la généralisation des tablettes et autre téléphones pour contrôler les caméras, les drones ou plus globalement, tout ce qui est connecté, on tombe très vite en panne. La banque d’énergie est bonne à tout faire: recharger un iPad ou un ordinateur, alimenter une convertisseur HDMI/SDI, et même alimenter une caméra en continu jusqu’à 10h. Le tout est d’en choisir une grosse (plus de 25000 mAh) et d’investir dans un set d’adaptateurs USB vers DC afin de la raccorder à tous les types de périphériques (et pas seulement l’informatique, donc). Vous en aurez pour moins de 50 euros et vous ne serez plus jamais en panne.
usb_to_dc

9- Élastiques magiques

On adore cet accessoire. Les Think Tanks Red Whips, sont des élastiques réglables qui ressemblent beaucoup aux sandows que l’on trouve dans le monde la voile. Vous les portez comme des bracelets sans être donc encombrés et vous pouvez alors fixer n’importe quoi: un câble le long d’une grue, une power bank sur un pied… Vous pouvez aussi les utiliser pour ranger les câbles, comme les Velcro. Bref, pour moins de 10 euros les 10, vous auriez tort de vous en priver.
09 Bungees red whisps

10- Les filtres anti-casse et les Vari-ND

L’optique est l’élément le plus fragile lors d’un tournage: une seule rayure et vous retournerez à la case SAV. Et vous gâcherez votre shooting. Il faut donc équiper tous les cailloux d’un filtre de protection à visser en fonction de son diamètre. En cas de dommage, c’est cette « vitre » qui sera à changer, et non pas votre précieux objectif. N’hésitez pas à rechercher ces accessoires auprès des fabricants renommés (Hoya, Tiffen…): la qualité de ce filtre de protection doit être sans faille pour ne pas gâcher les qualités optiques de votre machine.10_hoya_filtre_protecteur_pro1_digital
Autre filtre à posséder absolument (et qui peut se visser sur celui de protection), le Vari-ND (filtre neutre variable). Ceci, même si vous tournez avec un caméra qui dispose de filtres neutres intégrés. L’idée, consiste à faire varier la quantité de lumière en le tournant afin de ne pas toucher au shutter. L’avantage, c’est que le fait de le faire tourner permet de régler cette quantité de lumière ultra précisément et non pas par « pas » prédéfinis (1/4, 1/16….) (steps). Vous pourrez donc conserver l’ouverture de votre choix et le shutter aussi. Là encore, il faut taper dans les marques et y mettre le prix afin d’obtenir de la qualité. Mais vous pourrez les garder toute votre vie.

 

 

L’article Le Must-Have des accessoires qui simplifient les tournages est apparu en premier sur Createinmotion.

Premiere Pro ’19 et Adobe Rush : un bon millésime ?

Par Sébastien François

Entre Final Cut Pro X désormais bien installé et Resolve qui monte en puissance, Premiere Pro doit réagir. Et chaque année, le logiciel évolue, avec cette fois-ci, de bonnes surprises. Mais l’arrivée de Premiere Rush, d’outils de corrections audio « faciles », ou l’amélioration des fonctions d’étalonnage seront-ils suffisants pour donner un nouveau souffle à ce logiciel si mythique?

… That is the question. Le grand mérite de Premiere Pro, outre son âge, c’est essentiellement d’être rationnel, de fonctionner à peu près partout et de savoir tout monter en natif. Oui, mais voilà, depuis des années, on a vu la concurrence arriver avec des innovations certes déroutantes (la logique de FCPX ou le système nodal de Resolve), mais diablement efficaces en termes de productivité. Pendant ce temps-là, Adobe s’est contenté d’ajouter toujours plus de formats et a saupoudré chaque nouvelle version de quelques évolutions, plus que de révolutions. Il a fallu attendre 2017 pour pouvoir créer des titres directement dans la fenêtre Programme et … 2019 pour pouvoir changer la police d’un modèle de titre ! Pour autant, les développeurs semblent cette fois-ci avoir pigés qu’il fallait faire un peu mieux pour se maintenir à flots. On a donc affaire à un logiciel qui se simplifie un peu et qui surtout voit ses fonctionnalités se développer. Voilà ce qu’il faut retenir.

Adobe corrective correction

La short-list des nouveautés

  • La révision du panneau Lumetri qui se voit doté d’un correcteur sélectif de couleur après la fonction d’auto-matching entre deux plans (2018).
  • Les nouveaux outils ultra simples pour réparer l’audio (reverb, souffle…) avec de simples curseurs.
  • La possibilité de changer les polices des « motion graphic templates » directement dans Premiere. Ainsi que le support des images vectorielles (ce qui évite de perdre de la résolution quand on zoome).
  • Les supports des outils VR se développent.
  • L’arrivée d’Adobe Rush, un logiciel de montage sur tablette/téléphone/Mac/PC: il s’agit d’un programme d’une simplicité absolue, mais qui est capable de transmettre tout un montage via le réseau… et d’être repris par Premiere.
  • Une fonction auto-save qui sauve tous les projets ouverts (et pas simplement celui qui est actif).
  • Et, ça peut sembler anecdotique, mais quand on appuie sur ESC, on désélectionne tous les éléments de la time-line…

Premiere Rush CC, ça sert à quoi ?

Adobe rush splash

Premiere Rush, c’est une nouvelle application qui s’inscrit en amont ou indépendamment de Premiere Pro. L’idée, c’est de coller à la tendance du tout téléphone et de pouvoir monter ultra facilement depuis un périphérique nomade : ordinateur portable, mais aussi iPhone, iPad (et bientôt Android)… Bref, ça marche partout, sur tout et surtout, après avoir suivi le tutoriel d’une minute, je crois qu’un enfant saurait s’en servir. Surtout, le logiciel est connecté au Cloud. Autrement dit, un journaliste peut maquetter son travail sur place, pendant que le monteur récupère et affine le montage sur Premiere Pro à distance. Premiere Rush est aussi capable de travailler tout seul et bien sûr, de publier sur tous les réseaux sociaux. Testé sur un iPad Air plutôt ancien, ça marche sans difficulté. Sans être fondamentale, cette application montre qu’Adobe offre des outils de plus en plus orientés vers la possibilité de collaborer à distance, mais aussi qu’il peut s’adresser à de parfaits débutants. Plutôt réussi donc. On peut même envisager, à termes et à l’aube de la 5G, d’utiliser Rush comme passerelle avec des images 4K, par exemple.
Rush interface

Lumetri: améliorations salutaires

Lumetri, c’est le panneau spécifique d’étalonnage (color grading) de Premiere Pro. Au départ, il était un peu en avance sur son temps, mais il a très vite été surpassé par les fonctions de Resolve. Adobe semble l’avoir compris et apporte des fonctionnalités salutaires. Dans la dernière version, on avait déjà eu droit à « l’auto-matching » des plans (on sélectionne un plan de référence et le second est automatiquement étalonné pour lui correspondre), et cette fois-ci Adobe ajoute enfin la correction sélective par couleur. Qu’est-ce que ça veut dire ? Que l’on peut se dispenser de la pénible correction sélective secondaire TSL (HSL) (efficace, mais dure à manipuler) pour n’agir que sur une plage de couleurs ou de luminance. Exemple, je sélectionne une couleur et je peux en changer la teinte, la luminance, la saturation. En tout, ce sont donc 6 outils qui sont ajoutés.

 

PPRO_Lumetri_02

Ici, on a simplement joué sur « teinte contre teinte » (Hue Vs Hue) pour changer la couleur du passage piéton. Puis on a joué sur « saturation contre saturation » (Sat Vs Sat) pour renforcer le rouge du bus.

PPRO_Lumetri

Ici, j’ai ajusté les skin tones avant d’empiler un autre effet Lumetri pour faire ressortir le débardeur.

D’autre part, on peut enfin « stacker » (empiler) les Lumetri en leur donnant un nom particulier pour ne pas se perdre. On peut ainsi créer des « sets » de préconfigurations qui seront fort utiles pour l’étalonnage en série (skintones/sky/Shadows…). Malheureusement, il demeure impossible d’attribuer les préconfigurations enregistrées à un seul projet : elles s’ajoutent de manière globale et il faut donc fréquemment « nettoyer » les Presets. Car évidemment, on crée ces « sets » en général pour un usage unique.

Les outils de nettoyage audio: la vraie bonne idée

L’audio, c’était à la fois un des points faibles et un des points forts de Premiere Pro. Faible, parce que rien n’y était ergonomique mais aussi un point fort, parce que quand on souscrit à l’offre Creative Cloud, on a aussi droit à Audition, After Effects, etc. et Audition est un logiciel extrêmement puissant. Problème, cela demande la maîtrise des deux logiciels et ça n’a presque rien à voir. Du coup, Adobe a introduit un panneau « Amélioration audio essentielles » (Essential Sound Repair). Et c’est réussi puisque tout y est en effet « essentiel » et contrôlable par de simples curseurs sans avoir besoin de la moindre compétence. On sélectionne l’audio, on choisit s’il s’agit d’un dialogue, de musique, etc. et ensuite, libre à vous de corriger le bruit de fond, le souffle, la reverb… En ajustant les glissières. Facile et efficace pour un résultat instantané. J’adore aussi la fonction d’ajustement automatique du volume qui permet d’harmoniser les différents dialogues. Le seul inconvénient, c’est que le traitement semble rallonger le temps d’export des films. D’autre part, pourquoi ? Mais alors pourquoi, sur l’audio, Adobe ne rajoute-il pas un bouton de lecture en boucle sur une durée paramétrable ? Pour caler l’audio, il faut entendre et réentendre. Du coup, la seule solution est de mettre un point In et un Out dans la fenêtre Programme et d’activer la lecture en boucle dans le Programme. Perte de temps.

PPRO_Audio_essential_repair

le panneau permet d’ajuster très simplement l’intensité et le type de réparation.

Titrage et motion design: du bon et du moins bon

Le panneau des « objets graphiques essentiels » (Essential graphics pannel) est apparue en 2017. Personnellement, même si elle permettait enfin « d’écrire un texte » dans la fenêtre Programme, je ne l’ai jamais trouvée ergonomique: les paramètres y sont limités, il y a doublon avec les Options d’effets, la gestion des bibliothèque est calamiteuse, tout autant que la gestion des fichiers Templates (*.mogrt) entre Premiere et After Effects. Exemple, vous achetez des templates « mogrt », mais vous ne pouvez pas les modifier directement dans After Effects, si vous désirez changer des paramètres comme la police de caractère. Pire, ces Templates utilisant très souvent des « expressions » en anglais, si vous avez un After en allemand ou en français, il y a de fortes chances que ces Templates ne marchent pas, Adobe n’ayant toujours pas trouver le moyen d’uniformiser les expressions d’une langue à l’autre. Bref, c’est indispensable et à peu près utilisable, mais ce n’est pas heureux. Sur cette version, on progresse: la police est enfin modifiable, Premiere prend en charge les fichiers vectoriels, et l’interface se rationalise. Donc, c’est mieux. Pour autant, pourquoi avoir attendu si longtemps pour changer de police alors que c’est juste le paramètre le plus basique pour coller à la charte graphique d’un client ?

PPRO_EG01

Dans After Effects, on peut enfin rajouter la police de caractère comme Propriété modifiable

…Ce qui permet à Premiere d’avoir enfin des titres vraiment personnalisables

Et pour conclure: les perfs ? le bilan ?

Je monte sur Premiere depuis la version 5.1. Je ne l’ai pas quitté car malgré ses défauts, il demeure une sorte de mixeur géant qui, édition après édition, progresse et prend -presque- tout en charge, quelle que soit la machine. Sur ma machine de test (un PC avec 64 Go de RAM, mais qui a 3 ans), les performances de cette nouvelle version sont à peu près équivalentes à l’ancienne (2018) mais avec plus de robustesse : sur le montage d’une conférence de 3h30, je n’ai eu aucun souci. En revanche, le traitement de l’audio réclame un peu plus de temps puisque naturellement, on va se servir des nouveaux outils. Bref, je suis assez satisfait, mais je reste toujours un peu sur ma faim : j’aimerais une  gestion des données plus transparente (quand on duplique un élément, il s’y ajoute toujours l’attribut « copié01 » plutôt qu’une simple numérotation, on passe sa vie à chercher des sources de presets…), une ouverture plus simple aux plugins tiers (comme pour FCP X et Resolve…). Bref, que Premiere soit réellement relifté.
Reste que Premiere Pro, inscrit dans la suite Adobe avec Photoshop/After/Audition, est absolument capable de tout faire et que dans ce domaine, il est un peu le seul : ailleurs, il faut exporter, remplacer, ou utiliser des EDL et des XML: Resolve a intégré Fusion au sein de la même interface, mais on reste encore loin des possibilités offertes ici en termes de montage « pur ». Bref, Premiere Pro reste une référence qui semble sur la voie de la modernisation avec l’arrivée de Rush.
Mais s’il vous plait, faites vite.

L’article Premiere Pro ’19 et Adobe Rush : un bon millésime ? est apparu en premier sur Createinmotion.

Produire des vidéos verticales (9:16ème): le guide

Par Sébastien François

Produire des vidéos verticales, ça peut sembler aberrant. Ou en tout cas, ça l’était. Oui, mais voilà, avec l’avènement d’Instagram et consorts, il est de plus  en plus fréquent pour les pros de devoir livrer des vidéos verticales… Avec du matériel « horizontal ». Petit tour d’horizon des techniques à utiliser.

1- Le contexte

Il y plus de 7 ans maintenant, une vidéo avait fait le tour de la toile avec plus de 8 millions de vues. Son nom « Vertical Video Syndrom ». L’idée des auteurs était de démontrer à quel point il était stupide de tourner en vertical alors que tout est prévu (notre champ de vision, les cinémas, les télévisions…) pour les regarder à l’horizontal. Las, entre temps, les choses ont énormément évolué avec la généralisation des smartphones et des plateformes sociales, consommées majoritairement sur téléphones.

Vertical_video_01

Cliquez pour voir la vidéo, en anglais.

Et comme chacun sait, un téléphone se tient à la verticale, d’où le fait que les gens tournent en vertical et regardent en vertical. Instagram ne s’y est pas trompé en introduisant le format « carré » (regardable dans les deux sens, donc) puis a poussé tous les utilisateurs à produire en vertical (photos comme vidéos) avec ses « Stories » et maintenant IGTV (Instagram TV) dont le ratio est de 9/16ème – 1080/1920). Tous les autres acteurs ont suivi : Facebook, Youtube et même Vimeo supportent totalement le mode portrait.

Vertical_video_02

Seuls 25% de l’écran est utilisé en mode paysage pour une vidéo « normale ». L’étude de 2017, montre que 90% des utilisateurs ne se sert que du mode vertical… Source: InMobi.

Fort bien, mais nous, les as de la vidéo traditionnelle, ou du cinéma, en quoi cela nous concerne-t-il ? Et bien si vous avez comme clients des gens issus du monde du Marketing, il y a fort à parier que vous avez déjà eu des demandes concernant le fait de produire en vertical. Si vous avez des clients pubs, vous allez aussi rencontrer ce type de demandes car, par exemple, de plus en plus d’écrans placés dans les magasins sont aussi disposés à la verticale (et surtout la pub se digitalise sur smartphone à la vitesse de la lumière). Et plus simplement, si vous êtes un adepte des réseaux sociaux et que vous voulez générer de la vue sur vos créations, vous pouvez aussi être tentés par l’expérience.

2- Les problèmes posés par la vidéo verticale

Ils sont évidents, mais nous allons les lister. Avant cela, on peut cependant résumer ce changement de culture présumé, par le fait que le mode portrait fait la part belle à l’individu pour ne pas dire à l’individualisme : l’humain est vertical sur ses deux jambes, notre visage est un ovale vertical… A moins de devoir filmer des gratte-ciels ou des bouteilles, le mode vertical pourrait être une sorte de syndrome du Seplhy.

vertical-versus horizontal

Source: Flickr

Le mode traditionnel, quant à lui, est l’art de placer un personnage dans un contexte qui l’entoure et de faire en sorte de l’en détacher (utilisation du flou d’arrière-plan par exemple), ou, à l’inverse de le noyer dedans en le rendant flou. Mais revenons à nos problèmes:

  • Le champs de vision restreint (c’est évident) : si vous désirez montrer un contexte, vous devrez obligatoirement faire des panoramiques.
  •  Nos caméras dont le capteur est en mode paysage, ce qui implique qu’il faut soit en utiliser une petite partie à coup de « crop » (recadrage) ou le retourner à 90°. Mais ce n’est pas tout, même en le retournant, la stabilisation ne sera pas bonne (pas prévue pour travailler dans ce sens), les infos à l’écran seront retournées… Bref, pas pratique.
  • Le corollaire est aussi l’ergonomie: il n’est jamais simple de gérer tous les paramètres en mode « normal », alors quand vous êtes à 90°, c’est pire. L’utilisation de Gimbal (nacelles) relève là encore du challenge.
  • Enfin, l’aspect le plus important réside dans la composition de l’image : toutes les règles sont à revoir dans l’écriture du scénario. Il est par exemple impossible de faire tenir plus de 2 personnes à l’écran. De plus, un client vous demandera souvent de disposer de deux versions du même film : une verticale et l’autre horizontale…
aspect-ratio-illustration

La guerre des ratios. Source: PremiumBeat.com

3- Les solutions techniques

Un grand nombre de commanditaires de films ne comprennent pas (encore) qu’une caméra offre un rendu d’image bien supérieur à leur dernier iPhone;) C’est un peu pareil qu’il y a 15 ans, quand nous devions démontrer qu’une caméra pro en offrait plus que le camescope familial. Peu importe, contrairement aux photographes qui travaillent indifféremment dans les deux modes, en vidéo, on doit s’adapter.

  • A: recadrer une image 4K/UHD.
    Il s’agit de la solution la plus évidente. Une image 4K faisant 2160 lignes en hauteur et comme vous n’avez besoin « que » de 1920 lignes en format 9/16ème, cette solution permet à la fois d’être libre de livrer deux versions du films (paysage et portrait), mais aussi de faire de faux mouvements en post-production pour simuler des panoramiques, etc. Mais attention, lors du tournage, aucune caméra ne propose encore de guide 9/16ème. Il faut alors fabriquer vos propres repères 9/16ème avec un feutre effaçable… Ceci, car sans ce guide, vous ne saurez jamais où l’image sera coupée.

    9/16 mistake

    Typiquement, sans marqueurs d’aide pendant le tournage, on risque toujours de se retrouver avec des sujets coupés. Ce n’est pas rattrapable.

  • B: La caméra à 90°. C’est la solution la plus contraignante mais aussi la plus sûre. Certes, impossible de livrer 2 versions du même film, mais vous êtes certains de la composition de l’image, exactement comme en photo. Pour ce faire, vous pouvez utiliser:
    – un adaptateur en L (L bracket)
    – le moteur « roll » de votre Gimbal (comme sur le Ronin-S) en le fixant à 90° (beaucoup de nacelles savent faire des rotations à 360°)
    – une « ball head » qui, elle aussi, est capable de pivoter à 90°.
    – la cage de votre caméra ou de votre DSLR. Comme elle est en principe pleine de trous filetés sur les côtés, il est souvent possible de la mettre en mode portrait sur la semelle de votre trépied.
    ball-head SmallRig_Dedicated_L
  • C: Habiller une vidéo horizontale. Ici, on parle de la solution du pauvre. Celle qui fait que l’on ne pas cropper une image 4K et que la vidéo est déjà tournée en 16/9ème. La seule solution alors, c’est d’habiller les 75% d’espace vide qui restent autour. Pour ce faire, vous pouvez utiliser des fonds animés, mais aussi des titres qui peuvent commenter les images afin de peupler l’espace et de faire en sorte qu’il se passe toujours quelque chose à l’écran comme dans cet exemple :
    IG fill space

4- Post-Production et diffusion

On arrive enfin à une phase qui ne pose aucun problème : tous les logiciels de montage sont capables de créer des projets de la taille que vous désirez et au ratio souhaité. Cette étape n’est donc plus un problème. Le seul écueil réside parfois cependant dans l’envoi de la vidéo et ces normes changeantes (Instagram par exemple, ne tolérait que les vidéos inférieures à 1 mn avant IGTV qui porte cette durée à 10 mn). Depuis un Mac ou un PC de montage, soit vous copiez le film final vers votre téléphone pour publier, soit vous utilisez des logiciels tiers comme Flume (Max OS) ou Gramblr (Windows).
Flume

5- Conclusion

Que l’on soit d’accord ou que l’on trouve le concept de vidéo verticale ridicule, les chiffres ne mentent pourtant pas et démontrent que la demande de production de vidéos « portrait » ou a minima, en deux formats, ne cesse d’augmenter. Autant s’y préparer, car contrairement à d’autres modes, le « vertical » semble s’installer dans les habitudes de consommation depuis des années. Il nous force à repenser un certain nombre de règles de cadrage et de production. Il est assez facile d’être créatif en « vertical ». Je vous recommande à ce titre de visiter le site du Vertical Video Festival. Vous y trouverez des films qui démontrent que l’on peut aussi travailler de belle manière… Dans le mauvais sens. Voici le teaser de la dernière édition, la prochaine se déroulant en septembre prochain.

2nd Vertical Film Festival trailer 2016 (vertical video) from Vertical Film Festival on Vimeo.

 

L’article Produire des vidéos verticales (9:16ème): le guide est apparu en premier sur Createinmotion.

Best-of des transitions… Au tournage

Par Sébastien François

Les transitions réalisées au tournage, c’est en fait anticiper deux plans successifs, et faire en sorte qu’ils se raccordent sans post-production (ou presque). A la clé, l’impression que la caméra a pu se transporter à deux endroits différents sans coupe. On a sélectionné ici 9 transitions faciles à faire « in camera ». Explications.

1- Les principes

Les exemples les plus communs de transitions « In camera » (au tournage), vous les connaissez sans doute: vous suivez un sujet, puis en fin de plan vous effectuez un tilt vers le ciel. vous changez d’endroit et vous commencez votre plan depuis le ciel et vous reprenez votre sujet… Qui a changé d’endroit. Pourquoi le ciel? Parce qu’il va donner une image bleue-blanche et que quand vous allez changer d’endroit, vous reprendrez ce bleu-blanc quasi identique, ce qui va donner l’impression qu’il n’y aucune coupe et que c’est donc de la magie.

Autre exemple, le fait que la camera traverse un mur (ou un objet) en travelling latéral pour suivre un sujet (dans un appartement, d’une pièce à l’autre par exemple). L’idée est ici de se servir du noir. Quand la caméra arrive au mur, on s’attend naturellement à passer au noir. Du coup, la combine consiste à se servir de l’opacité supposée de l’objet (en ajoutant du noir devant l’objectif par exemple) et à reprendre le même mouvement de l’autre côté (en enlevant le cache noir très rapidement). La clé aussi, c’est la rapidité du mouvement et sa continuité (dans quoi un fondu au noir suffirait), pour cacher les défauts. Dans l’exemple ci-dessous, ici de la série Sherlock, on voit précisément cette technique (améliorée par un masque en post-production) et baptisée « pass-by ».

  • le secret est donc toujours d’avoir une continuité du mouvement d’un plan à l’autre (de la caméra et de son sujet).
  • D’utiliser n’importe quel élément de décor comme source de la transition (le ciel, le mur, l’objet, un poteau).
2- Un peu de fun dans cet exemple

Dans cette vidéo de PremiumBeat, l’auteur à décidé de détourner l’utilisation de transitions in-camera pour réaliser des exemples plutôt rigolos: un clonage de personnage, un départ de course façon super héro, et un lancer de couteau. On vous laisse regarder. Même si c’est en anglais, vous allez comprendre et on vous explique après.

L’auteur utilise toujours le même mouvement ultra-rapide: un panoramique à la main (qu’il serait mieux de faire au trépied…) :

  • Le premier plan fixe le sujet, puis fait un panoramique vers la droite très rapide avec un shutter bas pour provoquer du flou de mouvement (1/50ème/180°) (voir notre article sur l’exposition.)  
  • Le second plan reprend le même panoramique, mais dont l’angle est inversé.
  • Au montage, il suffit de raccorder les deux plans pendant les deux panoramiques avec un fondu tout bête.
  • Pour la dernière scène du « couteau », comme le personnage ne va pas réellement saisir un couteau en plein vol, l’auteur utilise la ruse suivante. Le premier plan est identique aux autres (panoramique qui fait un gauche droite pendant le lancer du couteau). Le second plan est tourné à l’envers. Le clone est en position finale (couteau rattrapé) et le lance vers la gauche. La panoramique est un droite-gauche. Au montage, il suffit d’inverser la lecture du plan et le tour est joué.
3- La compilation plus classique

Dans cette vidéo Mango Street, montre tous les principes énoncés plus haut dans une compilation de 6 transitions « In camera ». Le visionnage suffit amplement à expliquer les techniques classiques.

4- Pour conclure

Vous l’avez vu, le principe ne varie jamais: un type de mouvement sur 2-3-4 plans et un élément de décor quel qu’il soit, pour masquer le raccord. Le perfection vient de la qualité du mouvement, de la synchronisation de la scène et de la précision de raccord au montage. N’hésitez pas à refaire plusieurs prises pour obtenir cette perfection du mouvement. Regardez aussi autour de vous, il y a toujours un élément de décor à utiliser, y compris le sol… Présent partout!

 

 

L’article Best-of des transitions… Au tournage est apparu en premier sur Createinmotion.

Promo EVA1: 500 euros d’accessoires offerts jusqu’au 30 Septembre

Par Sébastien François

Après la promo « 500 euros remboursés pour l’achat d’une EVA1 », Panasonic vous offre désormais immédiatement 500 euros d’accessoires. Vous pourrez en bénéficier auprès de tous les revendeurs partenaires.

Eva_PromoBannerSummer_French

Les modalités sont simples: il suffit de se rendre chez un revendeur partenaire et ce dernier vous offrira 500 euros TTC d’accessoires de son catalogue. Voici un extrait des conditions de l’offre:

Conditions de l’offre :

1) Lors de l’achat d’une caméra EVA1 (AU-EVA1EJ) chez un Loca Images entre le 16 juillet 2018 et le 30 septembre 2018, vous bénéficierez d’un crédit d’un montant maximal de 500 euros TTC à valoir sur des accessoires disponibles au catalogue Loca Images.
2) Condition préalable de participation : l’achat d’une caméra EVA1 (AU-EVA1EJ).
3) Cette promotion est limitée aux utilisateurs finaux professionnels qui achètent une caméra par l’intermédiaire de Panasonic Marketing Europe GmbH. Cette promotion n’est pas ouverte aux grossistes et revendeurs.
4) Cette promotion n’est valable que pour les achats effectués par des utilisateurs finaux professionnels au Royaume-Uni, Irlande, Suisse, France, Italie, Allemagne, Autriche, Norvège, Suède, Danemark, Estonie, Lettonie, Lituanie, Espagne, Portugal, Chypre, Belgique, Luxembourg, Pays-Bas, Malte, Hongrie, Slovénie, Croatie, Serbie, Macédoine, Albanie, Bosnie-Herzégovine, Kosovo, Monténégro, République Tchèque, Slovaquie, Pologne, Roumanie, Islande, Liechtenstein, Monaco, Andorre, Bulgarie, Finlande et Grèce, chez un revendeur participant.
5) Les accessoires obtenus dans le cadre de cette promotion sont non échangeables et non transférables. Le montant de ces accessoires ne peut pas être versé sous une autre forme (espèces ou autres).
6) La promotion est valable jusqu’à épuisement des stocks.
7) En cas de circonstances imprévues, le promoteur se réserve le droit de proposer une solution alternative.
8) Toute taxe liée à la promotion est à la charge de l’utilisateur final professionnel.

PROTECTION DES DONNEES ET DE LA VIE PRIVÉE

9) Le responsable du traitement des données est Panasonic Marketing Europe GmbH, Hagenauer Str. 43, 65203 Wiesbaden, Allemagne ; Marketing Broadcast & ProAV.
10) Afin de bénéficier de cette promotion, l’utilisateur final professionnel accepte que son revendeur transmette une copie de sa facture ou de tout document probant au Promoteur. Toute information personnelle fournie par un utilisateur final sera utilisée par Panasonic et les revendeurs participants uniquement aux fins de cette promotion et conformément à la législation sur la protection des données.
11) Les types de données recueillies : titre, prénom et nom, adresse postale, pays de résidence et informations sur le produit.
12) Toutes les données seront effacées 7 jours après la fin de la promotion.

CONDITIONS GÉNÉRALES

13) En réclamant ces accessoires dans le cadre de cette promotion, les participants reconnaissent avoir lu et accepté ces termes et conditions.
14) Le promoteur se réserve le droit de vérifier l’admissibilité de toutes les réclamations afin de se protéger contre les réclamations frauduleuses, invalides ou répétitives.
15) Le promoteur se réserve le droit de modifier les présentes conditions générales à tout moment et de modifier ou de retirer cette promotion à tout moment.
16) Une seule réclamation par produit admissible acheté peut être faite.
17) Le droit allemand s’applique.

Plus d’informations ici. 

 

 

L’article Promo EVA1: 500 euros d’accessoires offerts jusqu’au 30 Septembre est apparu en premier sur Createinmotion.

V-LOG, comment bien exposer ses images?

Par Alexandre Médan
Tourner en V-Log, c’est excitant. La promesse sur le papier, c’est d’étendre la dynamique de la caméra et d’avoir une latitude d’étalonnage bien plus forte en post-production. Oui, mais voilà, le V-Log, il faut le maîtriser parfaitement au tournage, sans quoi, la désillusion est totale: la génération de bruit involontaire est le principal écueil à éviter. Le secret, c’est donc de bien exposer, mais aussi de faire des choix.

Une vidéo tournée en Log, n’est pas regardable en l’état. Elle apparait délavée et plate. C’est normal puisque l’objectif étant de conserver un maximum d’informations du capteur afin d’avoir l’image la plus « malléable » possible en post-production, la caméra va « désactiver » un ensemble d’opérations qu’elle effectue d’habitude toute seule. Surtout elle va employer une courbe de transfert Logarithmique (d’où le Log), pour retenir le maximum d’information du capteur. Cette courbe a l’avantage d’aller « chercher » tous les détails de l’image, mais elle a pour gros inconvénient de ne pas être optimisée pour notre vision et surtout, d’être bien plus exigeante en terme d’exposition. Elle méritera aussi bien plus de travail de post-production. A la clé cependant, une image bien plus détaillée, et bien plus « ciné ».

Vlog_versus_natural Vlog_versus_Natural_Zoom

Le V-Log, pas fait pour regarder, bon à retravailler.

La plupart des courbes de gamma internes des caméras (les profils comme « naturel », « standard »… chez Panasonic), sont conçues pour montrer à l’écran ce que perçoit notre vision. Pratique, car l’image est flatteuse, mais il existe un énorme inconvénient: la dynamique de l’image est plus réduite. Pourquoi? Parce que la courbe va privilégier les informations les plus « visibles » (et souvent, celles dont la luminosité est médiane comme les skin tones). Conséquences, les pixels sombres et les pixels très exposés sont assez mal lotis.Du coup, les ombres sont souvent détériorées (noirs écrasés), si vous essayez de les corriger en post-production, vous verrez l’apparition du phénomène de « Banding » (des aplats très vilains). L’avantage du VLOG-L est que la répartition des « bits » disponibles pour les pixels lumineux et les pixels sombres est beaucoup plus équilibrée. Les zones claires et « moyennes » disposent du même nombre de nuances de gris enregistrées, et même si les zones sombres en ont légèrement moins, elles en ont toujours nettement plus qu’en utilisant une courbe de gamma conventionnelle qui elle va bien plus ressembler à un « S ».

La courve V-Log de la Varicam

La courbe V-Log de la VariCam: on voit bien que les information sont assez bien réparties.

En conséquence le VLOG- est un mode adapté à l’enregistrement, mais pas vraiment à la visualisation. Mais ceci pose un énorme problème: comment correctement exposer et faire une bonne balance des blancs sur une image aussi « flat » (plate)?

V-Log, injecter une LUT dans la caméra ou le moniteur

Au début de l’arrivée du Log, on était bien embêtés: pas de moyen de visualiser en temps réel l’application d’une LUT (Look Up Table) pour traduire l’image grisâtre en quelque chose de visible et qui permettrait donc a minima de vérifier que les couleurs sont à peu près bonnes, tout comme l’exposition. La LUT est une manière d’interpréter l’image et c’est un peu la première étape en post-production. Depuis, les choses ont bien changé. GH5(S), EVA1 ou les VariCam pour ne citer qu’elles permettent de charger des LUT et d’activer/désactiver leur interprétation. Il en va de même pour la plupart des moniteur externes. Et ça peut aider bien sûr, mais ce n’est pas une solution ultime car cette fonction applique de façon automatique une courbe de gamma donnée, dont le résultat peut tout à fait ne pas correspondre à la façon dont on aurait retravaillé ses images manuellement. C’est donc une prévisualisation que l’on pourrait qualifier de « raisonnable », mais à laquelle on ne doit pas totalement se fier dans la mesure où  l’on aurait pu faire des choix d’étalonnage très différents.

Vlog_InCameraLut01

L’image en V-LOG-L d’une GH5 et l’injection de la LUT de base de Panasonic (Rec709)

Alors, comment bien exposer ?

Mais revenons à l’exposition. Il est nécessaire d’utiliser les zébras, l’oscillo et l’histogramme pour la maîtriser en VLOG, mais il ne faut pas le faire de la même façon que sur un tournage avec une courbe de gamma quelconque. En effet, les niveaux qui peuvent nous être familiers (70 IRE pour les tons chairs et 100 IRE pour les hautes lumières par exemple) ne sont tout bonnement pas adaptés au VLOG: pourquoi parce que la courbe ne suite plus les mêmes valeurs de « S » en fonction de l’expo.

Un exemple tout simple avec le GH5 et le VLOG-L, les très hautes lumières vont commencer à apparaître dans les zébras et sur l’oscillo, vers 80 IRE, et rien au-delà de 81 IRE ne sera visible, jamais. Même en ouvrant l’iris à son maximum et en pointant la camera vers le soleil, on ne verra jamais rien au-delà de 81 IRE. C’est tout à fait normal : le VLOG a été conçu à l’origine pour la VariCam qui dispose d’une plage dynamique de 15+ stops. Le VLOG-L traite les ombres et les tons moyens comme le VLOG, mais dans une limite de 12 stops, donc avec une limite à 80 IRE. La VariCam elle aura des références différentes: on le voit, chaque Log a ses particularités.

Vlog-L light

Les distribution de la dynamique d’une GH5. Source: https://wolfcrow.com/

Ça peut sembler un peu limité mais en fait il n’en est rien car il est possible d’utiliser les mêmes LUTs que celles de la VariCam puisque la répartition des gris est la même pour le VLOG-L et le VLOG. Il faut comprendre les niveaux et les limites du capteur à respecter et pour faire court, il faut intégrer qu’il n’est pas possible d’exposer des tons chair à 70 IRE ou des gris moyens à 55 IRE en VLOG-L. Ces niveaux vont devoir être nettement plus bas.

1- L’exposition à droite (Exposure To the Right), une vraie bonne idée?

Cette technique implique l’utilisation de l’histogramme. Cet outil montre la répartition de la luminosité dans l’image et plus l’image tendra vers les hautes lumières, plus la courbe de l’histogramme se déplacera vers la droite. Les promoteurs de cette technique considèrent que les tons les plus foncés et les ombres sont les zones les plus bruitées d’une image et qu’en faisant sortir une image de la zone sombre il est possible de mieux la retravailler en post-production. Autrement dit : plus on expose à droite, plus on profite des capacités du capteur et surtout, plus on va pouvoir obtenir une image détaillée. Souvenez-vous de ce dont nous parlions sur la répartition des bits : les hautes lumières et les tons moyens se voient allouer le même nombre de bits (c’est-à-dire d’information) alors que les zones sombres en ont moins à disposition. Donc moins l’image n’a de zones sombres plus son contenu sera détaillé, et rien n’empêchera plus tard de l’assombrir de nouveau. Cette technique souffre d’un gros inconvénient: elle implique énormément de travail en post-production pour rééquilibrer toutes les images et elle peut plus facilement nécessiter un débruitage long et pénible.

2- Le gris 18%, l’oscillo, les zebras et les « Falses colors », vos meilleurs amis.

x_rite_colorchecker_passportLes systèmes vidéo font souvent référence aux « gris moyens » ou aux « gris 18% ». Le gris 18% est un standard en vidéo et en photographie, il s’agit d’une nuance de gris qui reflète 18% de la lumière qu’elle reçoit. Elle est très souvent utilisée sur les cartons de test et il est très facile de s’en procurer dans les magasins spécialisés. Une réflexion de 18% représente la réflectance moyenne d’une scène moyenne, d’où le fait que l’exposition automatique d’une caméra est souvent conçue pour exposer correctement les zones de l’image dont la réflectance est d’environ 18%. En utilisant cette technique d’exposition, vous trouverez que l’oscillo et les zébras sont bien plus utiles que l’histogramme.

Contrairement un une courbe de gammas conventionnelle, et pour reprendre l’exemple du VLOG-L, ce dernier n’expose pas les gris moyens à environ 50 ou 55 IRE. Il les exposera en réalité à 42 IRE, donc avec un gris moyen, il vous faut le voir apparaître sur votre oscillo à environ 42 IRE pour une exposition « propre », c’est-à-dire standard.

Pour information, voici les niveaux de réflectance du mode VLOG-L :
0%  de réflectance (noir) : 7,3 IRE
18% de réflectance (gris moyens) : 42 IRE
90% de réflectance (blanc) : 61 IRE
Super blanc absolu : 80 IRE

Oscillo-exemple

Sur cet exemple, l’oscillo montre une sous-exposition: pour être bien, je devrais atteindre mes 80 IRE dans les blancs.

Cependant, exposer pour un mode gamma logarithmique n’est pas toujours aussi simple que de mettre un carton à 18% dans le décor et d’exposer à 42 IRE. On peut donc parfois se demander si un équilibre judicieux entre la technique de l’exposition à droite et celle de l’exposition des gris moyens, même si ça peut s’avérer compliqué, ne serait pas la meilleure solution. Finalement tout dépend des compromis que l’on est prêt à accepter. C’est pour cette raison, que pour chaque caméra, vous devez utiliser en conjonction: l’injection de la LUT de base (ou de celle que vous utiliserez en post-production si vous être sûrs de votre coup et voir le bruit généré), l’oscillo afin de visualiser vos valeurs, mais aussi les Zebra afin d’avoir une « alerte directe » sur l’écran quand vous cramez les informations.
Les fausse couleurs (false colors), sont une autre représentation qui donne des couleurs relatives à l’exposition suivant une échelle, comme le montre cette image.

false colors

L’utilisation de tous ces outils vous permet de « savoir » dans quelle zone IRE les informations seront les mieux traitées pour chaque caméra. Et surtout cela va vous permettre de faire des choix de réalisation. Devez-vous privilégier exceptionnellement un arrière plan? Ou plus conventionnellement un sujet? Faut-il rapporter de la lumière pour homogénéiser le tout? A partir de quand génère-t-on du bruit qui sera difficilement traitable en post-production? De là se dégageront des « règles » pour chaque machine.

Un mot sur les LUTs


Les LUTs (Look Up Tables) sont utilisées pour l’étalonnage, pour expliquer à un moniteur comment afficher correctement une valeur qui a été encodée de façon logarithmique. Les LUTs sont devenues assez communes. Beaucoup de logiciels de montage ou d’étalonnage sont capables de les utiliser, de même que beaucoup de moniteurs externes ou d’enregistreurs externes. Donc avoir un bon fichier LUT dans son moniteur permet d’avoir une bonne idée de ce à quoi ressemblera effectivement ce que l’on est train de filmer une fois étalonné.

Maintenant, comment est-ce que cela fonctionne ? Une LUT transforme une certaine valeur d’un fichier vidéo en une autre donnée pour son affichage. Elle va donc vérifier l’information liée à la couleur et au gamma de la source et la transformer en une autre valeur de couleur et de gamma pour que l’affichage de cette dernière corresponde à la volonté de l’opérateur. Pour chaque valeur d’entrée donnée il existe une seule valeur de sortie qui ne varie jamais. Jusque-là tout va bien, ça semble assez simple, mais les gens oublient souvent que chaque modèle de caméra va attribuer des valeurs de colorimétrie bien spécifiques à ce que son capteur aura repéré. Ça implique que la même LUT traitera différemment les informations provenant de cameras différentes. Donc si l’on tourne en DVX200 et que l’on souhaite obtenir une image « réaliste », il faut utiliser une LUT qui a été spécialement développée pour la DVX200 et non pour une autre caméra. Concrètement, cela signifie que même si la DVX200, la VariCam et le GH5 utilisent le VLOG, leurs capteurs sont différents et se comportent différemment, donc la même LUT appliquée à ces trois modèles ne produira pas précisément les mêmes résultats. Dit comme ça, ça semble évident n’est-ce pas?

Ceci étant dit, on peut tout de même utiliser la LUT de son choix car au final le résultat doit correspondre à son goût et si une LUT dédiée à une autre caméra donne des résultats plus satisfaisants ou plus créatifs, allons-y !

L’article V-LOG, comment bien exposer ses images? est apparu en premier sur Createinmotion.

ProRes RAW: la RAW-volution?

Par Alexandre Médan

Le ProRes Raw a été annoncé lors du dernier NAB et depuis quelques semaines, on peut l’enregistrer sur les Atomos Sumo et Shogun Inferno depuis la sortie d’une EVA1 par exemple. Mais au fait, le ProRes RAW, qu’est ce que c’est? Est-ce vraiment une révolution, et… Comment ça marche? Petit tour d’horizon des possibilités offertes, et des limites.

Le RAW, pour ceux qui l’ignorent, c’est la possibilité en vidéo, de faire la même chose qu’en photo: enregistrer absolument toutes les données brutes du capteur sans aucun traitement de la caméra et confier cette tâche d’interprétation de l’image à la post-production.

Avec le RAW, c’est un peu comme si on développait une pellicule après la prise de vue. Avantage: on ne perd rien en terme d’informations et on peut donc quasiment tout rectifier en colorimétrie etc. On augmente aussi la dynamique puisque dans les très hautes lumières et les ombres, on peut récupérer presque tous les détails. Inconvénient majeur, le poids des données est énorme. Il peut atteindre 1 Go/s soit des Tera-octets de données pour une seule heure. Ceci suppose d’enregistrer sur des médias qui soutiennent ce débit, mais aussi de disposer d’une machine de post-production ultra puissante pour traiter les images. Et ne parlons pas du temps de calcul. Pour résumer, tourner en RAW n’est pas à la portée de tout le monde.ProRes-RAW process

La promesse d’Apple, s’affranchir de toutes les contraintes du RAW

Le ProRes RAW, sur le papier, c’est un peu le beurre et l’argent du beurre. La baseline l’annonce clairement:
prores RAW slogan

« La performance du ProRes, et la flexibilité du RAW ». Ok, en effet, quand on lit le White Paper édité par Apple, il y a de quoi s’enthousiasmer. En effet, le constructeur offre des débits équivalents en RAW et en ProRes « classique »! On arrive donc à des seuils tout à fait gérables sur des enregistreurs accessibles: les Atomos avec même bientôt le Ninja V (mais pour l’heure aucune caméra ne sait sortir du RAW en HDMI). L’intention est donc bien d’uniformiser tous les formats RAW autour de cette plateforme unique puisque pour le moment, chaque constructeur a le sien. Mieux, en termes de performances, le format est promis comme étant bien plus optimisé, ce qui permettrait même à des portables de le monter.

atomos table: prores-raw-performance

Ce tableau montre que le ProRes RAW utilise le même débit qu’un ProRes 422 HQ… Pour du RAW

ProRes RAW: on a donc testé

Nous avons téléchargé sur Internet des fichiers ProRes RAW depuis filmplusgear.com et Media division. Et nous les avons passé sur notre MacBook Pro, modèle 2015. Autrement, une machine avec une mini carte graphique et qui n’est plus tellement d’actualité. Premier constat: ça passe sans problème, même si la machine souffre en calculant nos modifications en tâche de fond. On arrive à lire les fichiers de manière fluide, alors que pour d’autres types de fichiers RAW, il nous faut passer sur notre « vraie » machine de montage, qui est équipée de 64 Go RAM et d’une très grosse carte graphique pour parvenir au même résultat.
Deuxième constat, la récupération d’informations a priori disparues, est bien réelle. Pour vous en convaincre, il suffit de le constater ci-dessous.

ProRes RAW Ungraded 01 ProRes RAW graded 01 ProRes RAW Ungraded 02 ProRes RAW graded 02

Malgré tout, les outils disponibles dans FCP X ne permettent de pousser autant les choses que dans Resolve par exemple. Et c’est ici qu’on arrive aux limites des promesses du ProRes RAW.

ProRes RAW, quelques incertitudes

Premier point noir, le format est exclusivement réservé pour le moment à Final Cut Pro X. Et aux enregistreurs Atomos. Nul ne dit pour l’heure si Premiere Pro ou DaVinci Resolve vont se conformer à Apple alors qu’ils disposent eux-mêmes d’autres formats de traitement du RAW. De plus, le format ne pourrait concerner que les Mac et pas les PC pour des raisons de licence. Pire, Apple a depuis longtemps laissé pour compte les grosses machines pour se concentrer sur les iMac et les MacBook Pro. Pour traiter du RAW même en Prores, sur de grosses productions, il faut des chevaux et donc attendre la sortie d’un nouveau MacPro.
De plus, côté fabricants de caméra, tous ne joueront pas forcément le jeu. Si Panasonic a bien débloqué la sortie RAW de son EVA1 avec la dernière mise à jour, nul ne dit si les autres feront de même. Autant de paramètres qui font passer de l’optimisme à l’attentisme. L’année à venir devrait voir cette situation se décanter.

Pour aller plus loin, je ne saurais trop vous recommander de regarder cette vidéo de yakyakyak.fr. Elle couvre absolument tous les aspects de ce nouveau format.

ProRes Raw, un exemple parlant

Eva from Televisual Media on Vimeo.

Le tout a été tourné avec une EVA1 et la suite Atomos. Vous pouvez lire les commentaires du réalisateur (en anglais) sur http://www.televisual.com/blog-detail/Televisual-Creative-film-EVA_bid-1020.html

 

 

L’article ProRes RAW: la RAW-volution? est apparu en premier sur Createinmotion.

La profondeur de champ expliquée

Par Sébastien François

Le profondeur de champ, (PdC, DoF – Depth of Field), c’est tout simplement la zone d’une image qui sera au point par rapport à votre position. Cette zone qui varie de quelques centimètres à plusieurs dizaines de mètres est directement influencée par la taille du capteur, l’ouverture (Iris), la longueur de votre focale et la distance de mise au point. Profondeur de champ faible? Seul votre sujet sera net. Grande profondeur de champ, toute l’image sera au point.

la profondeur de champ - schéma

Le profondeur de champ illustrée. Source: http://rubbingpixels.com

Nous n’allons pas ici rentrer dans les formules mathématiques complexes, mais plutôt essayer de vous donner les règles principales afin d’obtenir, soit une faible profondeur de champ, soit au contraire une immense profondeur de champ (qui tendra vers l’hyperfocale, c’est à dire que tout est net).

Pourquoi vouloir jouer sur la profondeur de champ?
exemple de faible Pdc

Un exemple de faible profondeur de champ dans le film Bounty Hunter

La question semble stupide, mais pourquoi ne pas vouloir que tout soit au point? Tout d’abord par intention artistique. C’est le cinéma avec ses codes, ainsi que la photographie qui nous ont éduqués à vouloir détacher un acteur ou un sujet de son arrière plan: l’image est esthétique puisque l’attention est focalisée sur l’action et pas ailleurs (qui sera flou avec un effet de Bokeh). A l’inverse, quand on couvre des news, on a plutôt intérêt à ce que tout soit net et surtout, on n’a pas vraiment le temps de corriger le point en courant derrière un sujet. Autre application, quand on tourne sur une Gimbal (nacelle comme le Ronin-s). Les mains étant occupées, soit on se fie à l’autofocus de la caméra, soit on passe en hyperfocale pour être sûr du point (puisqu’on n’a pas de 3ème main pour le faire seul à la volée).

Les règles: taille du capteur, ouverture, longueur focale, distance de mise au point:
  • 1. La taille du capteur: elle influe sur la profondeur de champ, mais pas autant qu’on le croit:  à focale, ouverture et cadrage identique, il faudra « plus se rapprocher du sujet » quand on travaille avec un grand capteur pour obtenir le même cadrage qu’avec un petit capteur, ce qui aura un effet sur le flou d’arrière plan produit. Plus un sujet est proche de l’objectif, plus la profondeur de champ est réduite. C’est la distance nécessaire qui influe donc sur la profondeur de champ.
  • 2. L’ouverture: c’est le paramètre principal pour contrôler la profondeur de champ. C’est très simple. Plus on ouvert (f/2.0 par exemple), plus la profondeur de champ est réduite. A l’inverse, plus on ferme et plus tout est net. On peut contrôler la quantité de lumière en jouant sur les filtre neutres. (cf notre article sur l’exposition).

A f/11 l’arrière plan est presque net

 

comparaison d'ouverture

A f/1 l’arrière plan est flou, comme on le voit sur ce simulateur en ligne

  • 3. La longueur de la focale: là encore, la donnée est importante. Avec un 24mm (en Full Frame), donc un très grand angle, tout aura tendance à être très net (même avec une grande ouverture). Il vous faudra vous rapprocher énormément de votre sujet pour rendre l’arrière plan flou. A l’inverse avec un 85mm (et au delà, les téléobjectifs), la zone de mise au point est naturellement très réduite et il faudra fermer beaucoup pour rendre l’arrière plan net.
  • 4. La distance de mise au point: vous l’aurez compris avec les notions précédentes, plus un sujet est loin, plus il se confond avec l’arrière plan et se rapproche de la zone d’hyperfocale. Autrement dit, tout va être net. La seule manière de le détacher est d’utiliser un gros zoom. Plus il est proche, et même avec un petit capteur, plus l’arrière plan sera flou.
    Profondeur de champ faible

    Le sujet est très proche: la profondeur de champ est de quelques centimètres

    Quelques exemples pour mesurer l’influence de la distance de mise au point, de la longueur de focale et de l’ouverture.
  • Dans la petite galerie ci-dessous, on a utilisé un GH5 d’abord avec le 12-60mm (f/2.8-4) en se rapprochant et en étant ouvert à 2.8 puis en s’éloignant (ouvert à 4.0 puisque que l’ouverture est glissante). Ensuite, on a simplement utilisé un optique 55mm, toujours ouvert à 2.5 et en changeant la distance de mise au point de 20 cm à 3 mètres.
    Cliquer pour visualiser le diaporama.

Attention, la zone de mise au point suit une règle d’or. Si vous faite le point sur un sujet et que la profondeur de champ (zone nette) est de 3 mètres, vous pouvez considérer que tout sera net: 1 mètre devant le sujet et 2 mètres derrière lui: c’est la règle des 1/3 – 2/3.

Pour aller plus loin et essayer différents réglages, je vous recommande d’aller faire un tour sur https://dofsimulator.net/en/

 

L’article La profondeur de champ expliquée est apparu en premier sur Createinmotion.

❌