Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierPanasonic Vidéo Pro – Le blog en français

Tout connaitre pour débuter dans le streaming

Par Sébastien François

Autrefois réservé à une élite de Geeks, le streaming vidéo en Live connait une explosion massive de tous les contenus sur les réseaux sociaux. Et pour cause: n’importe qui peut désormais faire un Live depuis un smartphone ou même depuis un drone. Oui, mais voilà, pour aller plus loin, il faut s’intéresser à toutes les nouvelles solutions offertes à la fois par les constructeurs, mais aussi par les éditeurs de logiciel. Voici un tour d’horizon pour bien démarrer.

Streamer un Live: facile. Si j’ai un smartphone, je me connecte à mon réseau social préféré, je me filme en selphy (plus ou moins) bien et c’est parti. Certes, ce sera plus ou moins vilain, mais au moins j’ai un moyen ultra facile d’être en direct sans la moindre compétence. Au début, un peu comme pour la vidéo verticale, personne n’imaginait que ça allait marcher: mais les statistiques sont là. Le temps devant les Live ne cesse d’augmenter et la qualité des productions ne cesse d’augmenter. Oui, les « Directs » sur Facebook, Youtube et bien évidement sur la plateforme de gaming Twitch » dépasse désormais les contenus traditionnels en terme de génération d’audience qualifiée. Pour s’en convaincre, nous vous recommandons la lecture de cet article qui démontre parfaitement que les contenus en ligne qui marchent sont de plus en plus les Live. Bien qu’en anglais, les graphiques qu’il montre et les sommes en jeu parlent d’eux même:02_Stats

Source: https://neilpatel.com

03_Stats

Téléphone ou « vraie caméra »?

On ne va s’étendre sur les possibilités d’un smartphone: il dispose d’une connexion 4G, d’une caméra acceptable et peut donc diffuser de n’importe quel endroit. En revanche, il faut le suréquiper pour que l’image produite soit décente: mini trépied, micro externe, casque blutooth, lumière. Surtout, il vous cantonne souvent à une diffusion verticale (comme nous l’avons vu dans cet article): Facebook par exemple, impose une image 9/16ème dans son application Android, mais pas dans celle d’iOS. Autant de limites donc qui laisse le téléphone comme support N°1 pour les Live « vite fait », mais qui n’en font pas un périphérique adapté à une vrai réalisation: mis à part ajouter des filtres à l’image, vous ne pourrez pas ajouter des sous-titres, gérer en même temps commentaires etc.
live from phone

Les caméras sont quant à elle restée longtemps en retard pour le Live Internet (via la vidéo sur IP donc). Pour résumer, auparavant, il vous fallait une ou plusieurs caméras reliée en SDI (ou en HDMI) à un mélangeur vidéo, qui lui même envoyait le programme vers un ordinateur ou un encoder dédié pour espérer passer sur Internet. Désormais, ce n’est plus le cas. Si l’on prend le cas de la dernière AG-CX350 (et même de références antérieures) de Panasonic, vous avez droit à une prise Ethernet, mais aussi à un Dongle Wifi optionnel. Qu’est-ce que ça veut dire concrètement?

  • La caméra sait « Streamer » directement vers toutes les plateformes de diffusion sans le moindre ajout de matériel. Il lui suffit d’être à portée d’un réseau.
  • L’utilisateur saisit directement le nom du réseau sans fil et le mot de de passe, l’adresse du serveur Youtube/facebook ou autre ainsi que la clé de votre compte. C’est fini.
  • Mieux, ses informations peuvent être stockées et chargées à l’avance sur une carte SD afin d’être opérationnel encore plus rapidement.
  • Enfin, la caméra sait aussi streamer en IP si vous souhaitez récupérer l’audio et la vidéo de plusieurs source et les « mixer » en direct sur ordinateur (comme avec les logiciel OBS Studio ou VMix), ceci notamment grâce l’arrivée du protocole NDI (nous y reviendrons).

diagramm streaming

Ainsi pour résumer, une caméra Broadcast sait à la fois être indépendante et lancer un Live, ou alors être utilisée comme source d’une réalisation multicam, le tout avec ou sans fil. Vous bénéficiez alors d’une qualité d’image bien supérieure et de tous attributs apportés par ce type de matériel (Entrées XLR, zoom… etc). Pour vous en convaincre, nous vous recommandons de lire cette documentation de Panasonic: How to connect AG-CX350 with Facebook Live , How to connect AG-CX350 with YouTube Live.

Vous pouvez aussi vous inspirer de ce très bon tutoriel en anglais pour un paramétrage ultra précis:

Streamer en Live quand mes appareils n’ont pas possibilité de connectivité réseau

newtek_fg_001775_r001_connect_spark_hdmi_1348898Alors, on est d’accord, sur le matériel récent, les choses sont simples, mais que se passe-il quand on veux utiliser d’autres sources d’images qui n’on ni Ethernet, ni Wifi. Là, encore, il existe des tas de solutions très nouvelles. Prenons l’exemple d’un hybride ou d’une caméra plus ancienne qui n’offre que du HDMI ou du SDI comme sortie. La solution classique consiste donc à les raccorder à un mélangeur vidéo, ou dans le cas d’une source unique, à un boitier d’acquisition vers un laptop. Ce dernier se chargera d’encoder le flux. Autrement dit, c’est lui assurera le « Bridge » entre le signal vidéo et le signal IP via les câble SDI ou HDMI. Problèmes: les connexions sont filaires en général et rajoutent des éléments à la chaîne de production. Il y a donc désormais bien mieux.
Si l’on regarde du côté de chez Teradek ou Newtek par exemple, on trouve une gamme très étendue de boîtiers à connecter directement sur vos caméras et qui vont transmettre le signal avec ou sans fil, vers Youtube/Facebook. Grosso modo, ses boîtiers font office de passerelle entre les sources vidéo et la vidéo sur IP.
vidiu-go-hero

Une révolution nommée NDI

On l’a vu, les appareils récents ou les boîtiers de connexion ont tous pour vocation de transformer vos flux vidéo en flux internet pour se connecter aux serveurs de streaming. Si ceci n’est pas totalement nouveau (les caméra de vidéo surveillance ou les caméra PTZ fixes de font depuis un certain temps), ce qui l’est, c’est la simplicité de mise en oeuvre apportée par le NDI (ou NDI-HX). Le Network Device Interface amène les bénéfices suivants:

  • L’auto-discovery: auparavant il fallait être ingénieur réseau et employer des utilitaires plus ou moins complexes afin de déterminer l’adresse IP du périphérique, récupérer son flux, choisir le débit, le protocole réseau… Désormais, n’importe quel appareil dont le NDI est activé sur le même réseau (un simple routeur), devient à la fois une source de diffusion ou de réception: il peut s’agir d’une caméra bien sûr, mais aussi d’un téléphone, d’un ordinateur ou même petit enregistreur comme l’Atomos Ninja V et son module NDI. C’est magique puisque tout est automatisé.
    Atomos_NinjaV_NDI
  • Le protocole fait transiter non seulement l’audio, la vidéo, mais aussi des tonnes d’autres possibilités comme le contrôle à distance des caméras PTZ!
  • Pour résumer, le NDI permet de faire un multicam sans la moindre compétence réseau.

La preuve par l’exemple

Pour démontrer cette étonnante facilité, nous avons voulu réalisé le test suivant. Faire un multicam vers Youtube avec comme source 2 ordinateurs différents, un téléphone et une caméra Panasonic compatible NDI. Nous nous servirons d’un 3ème ordinateur qui assurera le mix grâce au logiciel gratuit OBS Studio et l’envoi vers Youtube.
Pour se faire, il faut d’abord télécharger la suite d’outils suivants compatibles Mac/Windows:

  1. La suite d’outils gratuites NDI Tools
  2. Le logiciel gratuit OBS Studio
  3. Le plugin NDI gratuit pour OBS Studio
  4. L’application malheureusement payante NewTek NDI Camera pour le téléphone

NewTek NDI Tools

Ensuite, nous avons effectué les opérations suivantes:

  1. Nous avons installé NDI tools sur tous les ordinateurs. La suite d’outils comprend un utilitaire baptisé Newtek NDI Scan Converter. Nous l’avons lancé. C’est lui qui établit le protocole NDI et qui permet de choisir sur n’importe quel ordinateur connecté, la source à diffuser: une fenêtre de navigateur Internet, le plein écran, une Webcam. Bref, tout ce que vous désirez diffuser pendant votre Live.
  2. Nous avons aussi lancé l’application sur le téléphone
  3. Et nous avons enfin allumé la caméra Panasonic, paramétrée en NDI, tous ces appareils appartement bien sûr au même réseau local: une simple box Internet.
    NDIHX

Ensuite, dans OBS Studio équipé du plugin NDI: 

Une fois le logiciel lancé sur la troisième machine, il suffit de créer une Scène pour chaque source puis dans Source pour chaque scène, de sélectionner « Source NDI » grâce au bouton « + ». Tous les périphériques (ordinateurs et caméra) dans notre cas apparaissent sans aucune autre intervention. Vous voilà en quelques minutes dans une configuration Multicam, sans câble ou presque et prêts à diffuser sur Youtube (ou n’importe qu’elle plateforme.
OBS_01OBS_02

Il ne vous reste plus qu’à rentrer dans les Paramètres d’OBS, l’adresse du serveur de Streaming (que récupérez sur le compte de votre chaine ou de votre page) ainsi que la clé du stream.

Pour aller plus loins, quelques conseils et astuces

  • Des mélangeurs comme le Panasonic HLC-100 vous dispense d’ordinateurs: ils se comportent comme des mélangeurs traditionnels, mais aussi comme des pupitres de contrôle pour caméra PTZ et surtout comme des PC capable de streamer directement suivant le même principe que celui que nous venons de décrire: c’est un peu un appareil unique qui regroupe toutes les fonctions en un.
  • Avant de paramétrer votre Stream, utilisez toujours un site comme Speedtest (une application est aussi disponible sur téléphone), ceci afin de mesurer la qualité de la liaison vers internet et ainsi d’adapter le débit d’encodage.
  • Préférez toujours un câble Ethernet entre le mélangeur ou l’ordinateur qui diffuse vos sources: le Wifi est toujours moins stable.
  • Lorsque vous programmez un Live sur Facebook ou Youtube: programmez-le 30 minutes avant l’instant T. Pourquoi? Pour vous permette de tester! Pendant ces 30 minutes, vous seul pourrez voir le stream en ligne avant son démarrage et détecter toutes les sources de problème. Si vous le lancez directement, tout problème sera visible par votre audience.
  • Si vous souhaitez diffuser sur plusieurs réseaux simultanément vous pouvez utiliser des services comme restream.io, mais attention, encoder simultanément pour plusieurs plateforme nécessite de la puissance.

L’article Tout connaitre pour débuter dans le streaming est apparu en premier sur Createinmotion.

Google Earth Studio: pilotez un drone depuis votre ordinateur

Par Sébastien François

Tout le monde connait Google Earth qui permet de se promener sur la planète. Mais il y a plus fort: Google Earth Studio passe à la 3D et permet ainsi de monter des séquences aériennes directement depuis votre navigateur. Finies les autorisations de vol en ville! Les résultats sont bluffants et préfigurent peut-être l’avenir du montage vidéo.

Google Earth Studio (que nous appellerons GES dans cet article), c’est un peu la suite logique de Google Earth. Cet outil en ligne permettait déjà beaucoup puisque l’on pouvait voyager sur toute la planète grâce à une banque phénoménale d’images satellite. Le problème, c’est qu’en zoomant au maximum, on se retrouvait avec une image « plate » et pixelisée. Si Google Earth a beaucoup été utilisé post-production avec cet effet de zoom depuis l’univers vers un point précis du globe, Google Earth Studio va bien plus loin:
– Les données du globe ont quasiment toutes été modélisées en 3D.
– GES est devenu un outil de création cinématique en ligne où l’on dessine ses propres trajets aériens, avec animation de tous les paramètres possibles (caméra, cible, heure du jour ou de la nuit, nuages…).
– Le logiciel permet aussi de générer des « track points » qui peuvent ensuite être utilisés dans After Effects pour ajouter des éléments (marqueurs, textes…). Et pour mieux se rendre compte des possibilités de l’outil, en voici la démonstration:

Nous allons donc faire un tour d’horizon de l’outil et vous montrer à quel point il est simple. Il permet ainsi d’ajouter des cinématiques à vos montages pour localiser des lieux par exemple. C’est bien sûr gratuit, à condition de laisser la « Watermark » de Google sur vos images.

Le principe

Attention, pour vous servir de GES vous devrez attendre quelques jours que Google approuve votre inscription. Pour ce faire, rendez-vous à l’adresse suivante: https://www.google.com/earth/studio/ et inscrivez-vous. Dans notre cas, il a fallu patienter 4 jours. D’autre part, GES ne marche qu’avec le navigateur Google Chrome (forcément), téléchargeable gratuitement sur n’importe quelle plateforme.
Ensuite, le fonctionnement est presque similaire à celui d’un logiciel de montage: une Timeline, des images clés pour animer les paramètres (trajet, cible, chemin…) et un moniteur de Programme qui va montrer en temps réel votre le vol virtuel de votre caméra. Nous allons réaliser l’exemple suivant qui montre Notre Dame de Paris avant qu’elle ne brûle:

Prise en main

Un fois connecté à GES, la plateforme en ligne vous propose de créer ou un « Blank Project » (Projet vierge), ou de choisir parmi des modèles d’animation déjà préconçus (exactement comme les modes de vol disponibles sur les drones). Pour plus de simplicité, on va choisir le mode « Fly to and Orbit » en cliquant sur « Quick Start »: autrement dit, on va voler d’un point A à un point B et effectuer une orbite autour de notre point d’intérêt.
GES_01

Il suffit ensuite de saisir la destination finale: dans notre cas « Notre Dame, Paris, France ». Le logiciel affiche aussitôt la vue satellite, puis, la simulation en temps réel du vol: vous pouvez changer l’altitude de d’arrivée, le rayon de l’orbite, l’angle d’approche… Tous ses paramètres seront bien sûr modifiables ultérieurement. Vos modifications sont appliquées en temps réel.

GES_02

Il ne reste enfin qu’à choisir la durée de l’animation. Par défaut, elle sera de 25 secondes. Vous découvrez ensuite l’interface du logiciel.

L’interface de Google Earth Studio

Par défaut, on ne dispose que de la vue finale en 3D. Il est donc préférable, pour affiner le trajet de la caméra, de passer en mode « 2 Viewports » grâce à l’icône de l’écran.
GES_03
A gauche, on visualise ainsi la carte et surtout le trajet de la caméra. De cette manière, on pourra très facilement customiser tous les mouvements et gérer les paramètres de déplacement. La Timeline quant à elle, montre toutes les images clés et la liste des paramètres. Dans notre exemple, on désire que le point de départ se situe dans l’espace et bien plus loin de Paris. Il suffit donc de placer la tête de lecture au début puis, de saisir une altitude de 35 Kilomètres, et, dans la barre de recherche, de taper « Frankfort » en Allemagne. Vous cliquez ensuite sur le losange de la rubrique « Camera Position » afin d’indiquer que vous avez modifié les images clés de position de la caméra.

GES_04
Si vous lancez la lecture, vous constatez donc que la caméra s’est positionnée au dessus de la ville allemande et ira jusqu’à Paris depuis le cosmos.
Astuce: Par défaut, GES effectue un trajet linéaire depuis l’espace, ce qui n’est pas très esthétique. Dans le menu Animation/Advanced, choisissez Logarithmic Altitude. Google va accélérer la descente vers le sol et arrondir la trajectoire, ce qui est bien plus satisfaisant.

Vous pouvez désormais sauter d’image clé en image clé pour modifier tout ce que vous désirez, et bien sûr créer des étapes sur le parcours.

Les paramètres supplémentaires

Vous aurez aussi compris que chaque point dans le Viewport « carte » correspond à une image clé de position de la caméra: vous pouvez ainsi les manipuler à loisir pour vous écarter de votre trajectoire initiale. Mais on peut aller encore plus loin. En cliquant sur Add attributes, on peut ajouter des paramètres supplémentaires, qui pourront eux aussi être animés: l’heure du jour ou de la nuit, l’angle de vue de la caméra, les nuages… De cette manière par exemple, en animant le Field of view (angle de la focale), vous allez pouvoir effectuer des zooms spectaculaires, ou, au contraire, élargir le champ pour avoir une vision panoramique de la scène.
GES_06

De plus, en sélectionnant une ou plusieurs images clés et en effectuant un clic-droit vous allez aussi pouvoir changer le mode d’interpolation de l’animation (ease-in, ease-out…) ou Auto-Ease (ce qui correspond à une courbe de Bézier automatique afin de lisser les mouvements).
GES_05

Les track-points et l’export

C’est une des autres forces de GES. Les track-points peuvent être ajoutés. Qu’est ce que ça veut dire? C’est qu’au moment de l’exportation du rendu final, GES va inclure des points de votre choix en 3D afin qu’un logiciel comme After Effects soit capable de « comprendre » les mouvements de la caméra et donc d’ancrer des éléments en 3D dans la scène. Pour mieux comprendre, contentez-vous d’ajouter un trackg-point sur la cible de la caméra (Notre Dame dans notre exemple) en effectuant un clic-droit sur la cible figurant la carte ou directement dans le moniteur final.
GES_07
Votre animation terminée, appuyez sur le bouton Render. Après avoir validé la durée et la résolution, passez à l’onglet « Advanced » et cochez la case « Include 3D tracking Data ». Lancez ensuite le rendu en cliquant sur Start. GES va générer toutes les images et vous proposer de télécharger un .zip.

GES_08

Ajoutez des éléments en 3D dans After Effects

Un fois le fichier téléchargé et décompressé, GES aura généré une suite d’images numérotées que vous pourrez importer en tant que film dans n’importe quel logiciel de montage. Mais le plus amusant est d’utiliser After Effects pour ajouter du texte 3D grâce au Track Points. Lancez After Effects, puis, depuis le menu Fichier/exécuter le script, sélectionnez le fichier .jsx généré par Google. Automatiquement, votre film est chargé dans une nouvelle Composition et surtout, After Effects a créé un objet nul et un calque de texte pour chaque Track-Point.
GES_09

Il suffit alors d’écrire n’importe quelle légende ou de lier à n’importe quel élément à l’objet nul pour qu’il soit modélisé en 3D et suive les mouvements de votre caméra. Vous n’aurez qu’à jouer sur l’orientation et la position pour qu’il matche avec votre scène. Ajoutez enfin un peu de motion blur et étalonnez un peu les images dans Lumetri pour qu’elles semblent moins artificielles et vous voilà avec des images de drone en version réalité augmentée.

Des ressources pour aller plus loin

Pour aller plus loin et en vidéo, nous vous recommandons ce tutoriel en français, du célèbre Stéphane Couchoud.

An anglais vous pouvez aussi suivre cette vidéo et la chaine associée.

 

L’article Google Earth Studio: pilotez un drone depuis votre ordinateur est apparu en premier sur Createinmotion.

[Wiki] H265/HEVC, le codec d’enregistrement du futur?

Par Sébastien François

Tout le monde connait le H264 qui a permis de compresser nos films pour faire tenir de la 4K sur une simple carte SD. Oui mais voilà, le Codec est désormais supplanté par le H265 (HEVC) qui promet d’être deux fois plus efficace. On le retrouve même déjà au coeur des caméras récentes (CX350, EVA1… ) et des hybrides (GH5, S1..). Mais quels sont ses avantages pour le futur?

Ce bon vieux H264 (ou Mpeg4 AVC) a tenu le haut du pavé pendant plus de 15 ans. Et pour cause, il permettait de diviser le poids de nos images de manière révolutionnaire par rapport au mpeg2 et autres ancêtres de la compression vidéo. C’est surtout grâce à lui que les plateformes comme Youtube ont explosé. Et pour cause. Réduire la taille des vidéos est en enjeu absolument majeur pour l’enregistrement (espace de stockage) tout comme pour la diffusion: il serait bien difficile d’envoyer des films en Prores HQ sur nos téléphones via le réseau 4G. Et a fortiori, avec l’augmentation des résolutions d’images: la HD demande 4X plus d’informations que la SD, tout comma le 4K en réclame 16X plus! Ajoutez à cela qu’on peut désormais tourner en 50P au lieu des 25 et vous obtenez des débits nécessaires encore multipliés par 2.

Un point sur ce qu’est un Codec

Bref, le Codec est un des éléments fondamentaux dans la conception des caméras et pour la diffusion de contenu. Le Codec (pour COmpresseur/DECompresseur), c’est un peu la moulinette mathématique qui va permettre de faire en sorte qu’une vidéo qui nécessiterait un débit de données de 800 Mbps n’en ait plus besoin que de 50 à qualité visuelle égale. Comment ce miracle est-il possible?

  1. Sans rentrer dans les détails trop techniques, le Codec va d’abord analyser une image, et grâce à de savants algorithmes, il va la découper suivant une grille et éliminer tout ce qui est redondant par des opérations de prédiction. Autrement dit, si 50 pixels sont identiques, il n’en gardera q’un seul et indiquera que les 50 pixels environnants sont les mêmes.
  2. Ensuite, s’agissant d’un film, il ne va enregistrer qu’une seule image entières toutes les X images (souvent 12). Dans l’intervalle, le Codec sera capable de ne garder que ce qui a changé entre temps. Dans la cas d’une interview statique, par exemple, et pour schématiser, le Codec va détecter que le fond ne change pas: il ne s’occupera donc que de l’interviewé. Le gain est donc spectaculaire.
H264 motion detection

Comme on le voit sur cette illustration: le Codec ne va détecter que ce qui change d’une image à l’autre. Souce: Cambridge University.

Oui, mais voilà, plus le Codec est performant, plus il nécessite de puissance à l’encodage et surtout au décodage lors des opérations de montage. C’est pourquoi, même en 2019, de nombreux utilisateurs utilisent des Proxy pour travailler et simplifier les calculs. C’est la contrepartie de cette compression intense.

Mais alors pourquoi changer de Codec et passer au H265?

On l’a vu, après plus de 15 ans, le H264 est implanté partout. Il est montable, diffusable… Alors pourquoi le mettre à la retraite? A cela plusieurs raisons. A commencer par le fait que nos besoins évoluent:

  • On veut tourner en 4K (a minima)
  • On passe petit à petit au HDR (High Dynamic range)
  • On souhaite avoir un sous échantillonnage des couleurs en 10 bits (pour le Color Grading et les nouveau displays). Et déjà, des constructeurs comme Panasonic proposent de la 6/8K!
  • Bref, tous ces nouveaux besoins dépassent très largement, la norme H264 qui ne prend pas en charge ces fonctionnalités: le H264 ne sait en effet pas aller au-delà de la 4K et ne supporte pas l’espace colorimétrique HDR (BT2020).

h.265-vs-h.264

Surtout, qui dit augmentation des besoins, dit une fois de plus, augmentation de la quantité d’informations à enregistrer lors des tournages. Et le principal avantage du H265, c’est qu’il arrive à être 2X plus performant que son prédécesseur. Autrement dit, à qualité égale, un film pèse 2X moins lourd. C’est ce qui permet par exemple à la EVA1 ou à la CX350 d’offrir de la 4K 10bits en 50p pour un débit de 150Mbps! Mieux, pour toutes les caméras PTZ (UE150 etc) qui peuvent streamer le signal en IP, la réduction du débit nécessaire permet d’envisager de faire passer de la 4K via une simple connexion internet classique.

La technologie H265

Le Codec H265 (HEVC High efficienty Video Codec), réussit cette performance essentiellement grâce à 2 technologies:

  • La première consiste à ne plus découper une image suivent une grille fixe composée de carrés de 16×16 pixels. Mais d’adapter cette grille suivant ce qui se passe à l’image. Autrement dit, si un fond est uni, là ou le H264 va utiliser 20 « carrés » identiques, le H265 n’en utilisera qu’un seul, d’où le gain d’espace et surtout, le découpage s’adapte en permanence pour matcher avec les mouvements à l’écran.

HEVCversusH264

  • La seconde technologie consiste à disposer d’une trousse à outils de « prédiction » bien plus développée pour « imaginer ce qui va se passer » d’une image à l’autre: 32 pour le H265 contre seulement 9 pour le H264. Si on prend l’exemple simple d’un véhicule qui se déplace dans le cadre de gauche à droite, le Codec H265 va se « douter » qu’entre 2 images le véhicule ne va pas subitement reculer! Il va donc prédire la vitesse de déplacement des pixels qui composent le véhicule. En revanche, dans le cas des feuilles d’un arbre battu par le vent, le Codec va plutôt associer l’animation à un mouvement pendulaire.

H265 prediction copie

Et la post-production dans tout ça?

C’est ici que l’histoire est encore délicate, tout comme pour le H264 à ses débuts. A l’heure où nous écrivons ces lignes, toutes les dernières versions des logiciels de montage supportent le H265. Mais attention, n’espérez pas encore monter de manière fluide sur une machine qui n’embarque pas de décodage matériel. En effet, le décodage matériel, c’est un morceau de votre processeur (CPU) ou de votre carte graphique (GPU) qui est spécialement dédié au décodage du format. Sans lui, c’est le seul processeur qui va effectuer les calculs et il le fera très lentement. L’heure est donc encore au montage par Proxy ou au transcodage. Mais la situation devrait très vite évoluer car le H265 s’impose petit à petit dans toutes puces informatiques.
H265 post prod

Au tournage, faut-il choisir le H265(HEVC)?

La réponse est mixte. Si vous désirez tourner en 10 bits HDR en utilisant des cartes SD standards, oui. A 150Mbps chez Panasonic, vous obtenez le meilleur ratio qualité d’image/possibilité d’étalonnage. Il en va de même pour les tournages longs (documentaires) ou l’espace de stockage constitue une problématique car vous ne pouvez pas décharger les cartes facilement. En revanche, vous devez envisager au préalable le fait que la post-production sera un peu moins fluide. Le H265 est tout à fait montable nativement en « cut » (suivant la puissance de votre machine), mais si vous effectuez par exemple un multicam, vous serez obligé d’utiliser des proxy ou de transcoder les rushes. Mais une chose est sûre, le H265 est bel et bien le format du futur.

 

L’article [Wiki] H265/HEVC, le codec d’enregistrement du futur? est apparu en premier sur Createinmotion.

Time-lapse: le mode d’emploi complet

Par Sébastien François

Prendre une photo toutes les X secondes, assembler toutes les images pour en faire un film qui accélère l’action? Facile. En théorie. On va donc vous expliquer ici comment, et même pourquoi produire de bons time-lapses pour dynamiser ou enrichir vos productions: matériel, technique, conseils.

Un time-lapse, pour résumer, c’est la technique qui consiste à prendre une photo à un intervalle de temps régulier afin d’en faire un film. Ce qui va produire une sorte d’accéléré pour montrer ce que l’on ne verrait pas à l’oeil nu en restant planté au même endroit.
Mais, la première question est la suivante: ça sert à quoi?

Les utilisations du Time-lapse

  • Avant tout, un time-lapse sert à montrer ce qu’il est impossible d’observer à vitesse réelle: si l’on prend l’exemple classique des nuages dans le ciel, vous ne verrez pas leur évolution car ils se déplacent bien trop lentement. Avec un time-lapse, oui.
  •  Accélérer une action qu’il aurait été impossible de filmer à vitesse réelle sous peine de lasser le public. Une impression 3D de plusieurs heures va se faire en quelques secondes et afficher l’objet final. Il en va de même pour la construction d’un immeuble sur un 1 an: à raison d’une image par jour, la construction va pousser comme un champignon. On peut aussi montrer le lever et le couché du soleil, le déplacement des étoiles…
  • A dynamiser un film, tout simplement. Vous avez l’habitude de jouer sur les ralentis ou le Time-remapping (maitrise de la vitesse de lecture entre accélération et slow-motions), pourquoi ne pas introduire aussi des time-lapses pour provoquer des ruptures de rythme? On le voit dans cet exemple de la présentation de la caméra AG-CX350 puisqu’on alterne en vitesse réelle, ralentis légers, vrais slow-mo et time-lapses:
  • A faire des effets de styles, comme les « trainées de phares de voitures » que l’on voit dans les scène urbaines, ce qui n’est, encore un fois pas visible à l’oeil nu.

D’abord, un peu de Maths

Alors avant de commencer la pratique, il faut faire 2-3 petits calculs. On l’aura compris, prendre une photo toutes les X secondes signifie tout d’abord faire un peu de maths pour prévoir la durée du résultat final, une fois transformé en film.
– Le premier paramètre à prendre en compte, c’est la cadence d’image de votre film. Autrement dit, on doit anticiper la cadence d’image du montage final (voir notre article sur les cadences d’image): communément, il peut s’agir de 24/25 ou 50 images par secondes (fps). Il faudra donc prendre 24/25/50 « photos » pour produire 1 seule seconde de film.

– Le second paramètre, c’est le fameux intervalle entre chaque prise de vue. Est-ce que je prends une image toutes les 2 secondes? Ou toutes les minutes? Pour aider à faire ce choix, tout va dépendre de la scène et du déplacement des objets qu’elle montre. Mais on peut dégager quelques règles:

Un sujet très mobile (véhicule…): intervalle de 1 à 2 secondes
Un sujet un plus plus lent (piétons…): intervalle: de 2 à 3 secondes
Tout ce qui est encore plus lent (la course du soleil etc): de 5 secondes à plusieurs minutes.

Bien sûr, tout ceci n’est que purement indicatif, mais l’idée est là. Donc, pour obtenir ma séquence et raisonner mathématiquement, je vais dire que je veux un plan de 10 secondes, qui sera diffusé à une cadence de 25 images par secondes (fps) avec un intervalle de 3 secondes. J’applique donc la formule suivante pour connaitre le nombre de photos à prendre.

Les formules :

(Durée du plan en secondes) X (Cadence d’images finale)
= Nombre N de photos à prendre.

GH5-Timelapse-menuEt si vous n’être pas équipés d’une caméra, ou d’un hybride qui intègre la fonction « Interval Rec » ou « Time-Lapse » (comme chez Panasonic), vous allez ensuite appliquer la formule suivante pour savoir combien de temps patienter avant la fin du time-lapse.

(N nombre de photos à prendre) X Intervalle choisi
= Durée du shoot en secondes

Timelpase_appDans notre exemple, il nous faudra donc prendre 250 images (10 secondes x 25 i/s) et patienter 250 x 3 secondes (durée de l’intervalle). Soit 750 secondes, soit, 750 : 60 = 12 minutes 30. Voilà, pour le calcul de base. Évidemment, il peut se faire à l’inverse: « je sais que la course du soleil avant la nuit prend 3h et je fixerai un intervalle de 10 secondes ». Il me faudra donc: (3600 seondes (1 heure) x 3 heures)/10 = 1080 images. Le plan va donc durer: 1080/25 (cadence d’image) = 43 secondes environ.

Et pour les plus feignants, il y a même des applications comme celle-ci (pour iOS) et celle-là (pour Android)

Ensuite, un peu de matériel…

Franchement, côté matériel c’est assez simple: un bon time-lapse, c’est avant tout un DSLR, un hybride ou une caméra qui sait prendre une photo toutes les X secondes. Et même si ce n’est pas le cas, il suffit d’acheter un « intervallomètre » 01_intervallometerà raccorder sur la prise Remote de l’appareil pour qu’il en soit capable. C’est l’intervallomètre qui décidera donc de la prise d’une photo toutes les x secondes. Dans le cas de Panasonic, la fonction est intégrée depuis bien longtemps et surtout, les appareils savent assembler les images pour en faire un film en interne sans avoir besoin de monter: vous obtenez directement la vidéo.

Pour le reste, un time-lapse, c’est surtout un plan qui ne bouge absolument pas (sauf dans le cas d’un motion time-lapse) afin d’éviter le moindre tremblement d’image : vous n’aurez alors besoin que:
Avalon-Universal-PRO-Tripod– D’un trépied costaud (ou n’importe quelle support vraiment stable). Même le vent peut faire trembler un plan et ruiner votre prise de vue si le support n’est pas stable, surtout avec des optiques lourdes en longue focale.
– D’une « power bank » (batterie USB – voir notre article sur les accessoires) si vous prévoyez que la prise de vue va durer plusieurs heures. Elle vous permettra d’alimenter votre appareil tout le temps nécessaire.
– D’un filtre ND variable (ou d’un jeu de filtres ND). Comme nous allons le voir après, pour obtenir des effets de trainées, on est obligé de choisir un temps de pose très très bas (voire de plusieurs secondes). Et donc, même la nuit, il faudra peut-être mettre un filtre Neutre pour abaisser la quantité de lumière et conserver ce Shutter très lent.

Le temps pour composer et raconter: le choix de l’intervalle et du Shutter

Everest – A Time Lapse Film – II from Elia Saikaly on Vimeo.

Vous avez compris les maths, vous avez compris qu’il faut assez peu de matériel? Place maintenant à la réflexion. Intellectuellement, il vous faut discerner deux choses: le cadre bien sûr (mais ça vous savez faire) et ensuite la priorité que vous donnerez aux sujets mobiles ou immobiles de votre scène. Et là, c’est d’abord le choix de l’intervalle qui va jouer.
Prenons un exemple. Vous avez prévu de tourner le déchargement d’un énorme container d’un bateau sur un quai. Déchargement qui prendra 1 bonne heure. Dans votre scène vous allez avoir la grue qui porte le container et les dizaines d’ouvriers et de véhicules qui vont s’agiter pour le recevoir.

  • Si vous optez pour un intervalle très grand (de l’ordre de 15 secondes), votre plan final mettra en valeur le cheminement du container (car le mouvement est très très lent) au détriment des ouvriers/véhicules qui vont scintiller, apparaitre et disparaitre: en 15 secondes, ils auront parcouru bien du chemin.
    timelapse – discharging a container ship from Andre Freyboth on Vimeo.
  • Si vous optez pour un intervalle plus court (1-2 secondes), ce sont eux, à l’inverse qui vont être mis en valeur comme des fourmis qui s’agitent, à l’inverse du container qui va sembler presque immobile.

Tout est donc affaire de choix et de priorité dans la composition. Place ensuite à l’esthétique et c’est là que le shutter prend toute son importance. C’est lui va qui déterminer le « motion-blur » ou flou de mouvement. Là encore, prenons un autre exemple. Vous filmez tout simplement une rue passante.

  • Avec un shutter rapide (1/50ème de seconde par exemple) vous allez accroitre le sentiment de passage, car les passants vont tous être presque nets et sembler courir et courir encore dans cette rue.
  • Au contraire, avec un shutter très lent (1 seconde), ils vont tous s’estomper pour ne laisser que des trainées diffuses. Vous allez dans ce cas là, privilégier la rue et les bâtiments.
    GH1 Timelapse test with intervalometer from Arthur Kulcsar on Vimeo.

En pratique: le Manuel, le Manuel et encore le Manuel

Un time-lapse étant un assemblage de photos, tout écart entre deux images va sauter au yeux et scintiller. Vous devez donc tuer tous les automatismes de votre caméra.
Pourquoi? Parce que même si vous ne le percevez pas, dans n’importe quelle scène, d’une seconde à l’autre, il y a toujours un changement. Pour comprendre, imaginez que vous soyez en Autofocus sur la scène de rue que nous avons évoquée: chaque nouvelle photo sera mise au point sur un piéton différent. Donc, si vous engagez un automatisme (Ouverture -Iris-, Shutter, ISO…), ce micro changement sera perçu par la caméra qui va donc faire varier un paramètre et adapter ses réglages.
Manual Mode
Au final, vous ne pourrez pas exploiter le résultat. Le seul bémol concerne peut être la Balance des Blancs. Comme la mesure s’effectue différemment (sur un global et sans changement brutaux), ce paramètre peut parfois être laissé en automatique. Quoi qu’il en soit, la procédure à respecter est la suivante:

  1. Je bascule mon appareil en 100% manuel: focus, ouverture, shutter, Iso (Gain)… Je paramètre mon appareil en Live-View, Constant preview afin de voir l’incidence des réglages. Dans le cas d’une caméra, c’est inutile: elle le fait toute seule. Dans le cas d’un DSLR, privilégiez aussi les optiques manuelles: le relèvement du miroir provoque souvent un décalage de l’exposition de quelques millisecondes, ce qui sera visible à la fin.
  2. Une fois que j’ai choisi mon cadre, que j’ai verrouillé mon trépied, je prends une photo de test afin de vérifier totalement la qualité de la photo et de détecter des défauts. Dans le cas d’une caméra, je lance un enregistrement de quelques images pour vérifier les mêmes paramètres. J’ajuste les paramètres si besoin.
  3. Je prépare l’enregistrement du time-lapse (intervalle, shutter…) et je le lance.

Et en post-production?

On ne va pas ici développer les techniques avancées de post-production en RAW etc, mais une fois votre time-lapse réalisé, se pose à vous deux cas de figure. Soit votre caméra a déjà généré le film (cas des GH4/5S, CX350 etc…) dans la résolution souhaitée, soit vous avez enregistré les X images sous forme de photos sur votre carte mémoire. Dans ce dernier cas:

  1. Importez toutes les photos dans un dossier sur votre machine
  2. Dans votre logiciel de montage: importez les images sous forme de « séquence d’image »: elle sera lue comme un film à raison d’une photo par image. Ou alors, si votre logiciel ne supporte pas cette fonctionnalité, indiquez que chaque photo ne doit durer qu’un frame lors de son importation: en les glissant sur votre time-line vous aurez donc un film.
    import-as sequence
  3. Pour une utilisation plus poussée, vous pouvez acquérir un logiciel spécialisé comme LrTimelapse en conjugaison avec Adobe Lightroom. Ce type d’application réservée aux professionnels va permettre d’assembler, de corriger toutes les incohérences d’une images à l’autre et même de jouer sur le format RAW des photos si votre appareil en est capable.

Effet Holy grail, Tilt-Shift, Motion Time-Lapse, Hyperlapse… C’est quoi?

Pour conclure, on va évoquer brièvement différentes techniques dérivées du time-lapse.

1. L’effet Holy grail pour les levers et les couchers de soleil

Cette technique consiste à tourner un time-lapse de la nuit au jour et vice versa. Oui mais voilà, on l’a vu, comme on reste en Manuel, l’exposition va changer de la pénombre au plein soleil. Alors comment faire? Le plus simple, c’est de découper le time-lapse en 4 sections. Dans le cas d’un coucher de soleil, vous lancez la prise en étant légèrement surexposé et dès que vous commencez à être sous-exposé, vous faites une pause et vous réajustez l’exposition. Vous relancez ensuite le second time-lapse. Et ainsi de suite jusqu’à la nuit noire. Au montage, vous ferez se chevaucher les 4 time-lapses avec un simple fondu.

Wellington South Coast New Zealand – Day to Night Time-lapse from Mark Gee on Vimeo.

2. Le Tilt-Shift

Cet effet consiste à prendre des time-lapse d’un point de vue très en hauteur. Avec cette technique les humains tout en bas, vont ressembler à de petites personnages semblables à des jouets. On rajoute aussi du flou en haut de la scène et on sature les couleurs. Le mieux est de voir cet exemple en image:

A (Little) London Christmas – A Tilt Shift Timelapse from Media Hog Productions on Vimeo.

3. Motion time-lapse et hyperlapse

Le motion time-lapse va nécessiter un slider et une tête motorisée qui va bouger d’une position A à une position B dans l’intervalle de temps. Si vous devez prendre 250 photos, le logiciel du slider (qui pilote aussi l’appareil en général) va découper son mouvement en 250 positions et ne bougera qu’entre chaque photo. L’hyperlapse quant à lui, c’est la technique qui consiste à se déplacer entre chaque image tout en gardant un cadre stable. C’est assez dur à maîtriser, mais les nouvelles caméras de sport ou 360° commencent à embarquer nativement cette fonctionnalité.

Berlin Hyperlapse from b-zOOmi on Vimeo.

 

 

 

L’article Time-lapse: le mode d’emploi complet est apparu en premier sur Createinmotion.

Pourquoi passer au clavier programmable ?

Par Sébastien François

Monter un film, ça signifie maitriser des tonnes de raccourcis clavier. Il existe bien des accessoires pour les rendre plus clairs, mais il y mieux: les claviers programmables. Pourquoi? Parce que vous pouvez les personnaliser pour autant de fonctions que vous le désirez. Et les utiliser partout et pour tout.

J’ai découvert les claviers programmables quand j’ai du réaliser un Live avec un mélangeur vidéo contrôlé exclusivement par un Macbook Pro. Problème pour moi qui suis habitué aux vrais « panneaux de commandes » avec de vrais gros boutons, je ne me voyais pas appuyer pendant des heures sur Shift + 1, Shift +2…. à chaque changement de caméra. J’ai donc investi dans un petit clavier programmable: le Stream Deck d’Elgato.Il suffit de le connecter à une machine pour qu’il devienne une sorte de deuxième clavier, à la différence que chaque touche est un mini écran LCD et que vous pouvez lui affecter n’importe quelle action.
Dans mon cas, je me suis contenté de mémoriser les raccourcis du mélangeur et j’ai « baptisé » mes touches du nom de mes cadreurs (et j’ai inséré leur photo!)… Et faire ma réalisation exactement comme avec un vrai panneau de contrôle.
streamdeck as mixer
Mais évidemment, ce type de périphérique ne se cantonne pas à cet utilisation marginale. Ils sont surtout utiles quand on monte.

Programmables contre personnalisés

Si l’on considère que le montage d’un film va nécessiter des milliers de frappes de raccourcis clavier à 2 ou 3 touches, on mesure immédiatement l’intérêt de se munir de ce type d’accessoire. Il existe bien sûr des claviers traditionnels qui sont physiquement personnalisés pour tel ou tel logiciel, ou encore des « skins »: les raccourcis sont directement indiqués via des couleurs ou des signes.
logickeyboard-adobe-premiere-pc-slim-black-1-39
Mais cela veut dire que vous ne pouvez pas utiliser vos propres raccourcis et que si l’éditeur du logiciel change ces raccourcis, vous pourrez jeter le clavier. Autre problème, on oublie parfois certaines combinaisons de touche parce qu’on les utilise moins souvent. Du coup, on perd donc du temps. Le programmable, de son côté, élimine toutes ces contraintes.
streamdeck general

Le Stream Deck, comment ça marche?

C’est pourquoi, utiliser un Stream Deck montre tout son intérêt. L’idée, est assez simple, les 15 touches affichent ce que vous voulez (images, texte) et peuvent être affectées à n’importe quelle action: un raccourci clavier, mais aussi le lancement d’une application, la saisie automatique d’une phrase enregistrée et même plusieurs raccourcis successifs avec un timing entre chaque frappe… Les possibilités sont presque infinies. Surtout, vous n’êtes pas limités aux 15 touches puisque le Stream Deck stocke aussi des dossiers. Autrement dit, vous pouvez très bien avoir un écran d’accueil d’où vous lancez vos applications, presser la touche « dossier » de Premiere Pro pour accéder à un autre « clavier » qui ne regroupera que les raccourcis de ce logiciel.

streamdeck_01Vous pouvez créer un dossier pour toutes vos applications et switcher d’un clavier à l’autre. C’est magique. Dans mon cas et sur Première Pro, le plus fatiguant est de passer d’une fenêtre à l’autre: panneau Montage, panneau Projet, Panneau Options d’effets… Tout comme il pénible d’utiliser systématique CTRL + K pour couper les plans sous la tête de lecture.

streamdeck_02
J’ai donc affecté un maximum d’actions « pénibles » au Stream Deck, ce qui me permet de monter sans quasiment quitter la souris.
Les utilisateurs de Photoshop seront eux aussi ravis de regrouper tout leurs outils via ce clavier… Voilà en tout cas pour le principe, mais c’est à vous de trouver le configuration qui convient à vos utilisations

.

Et dans le détail?

La programmation d’un clavier peut faire peur. Rassurez-vous, vous n’avez aucune ligne de code à écrire! Ce clavier (ou un autre) est toujours contrôlé par un petit logiciel ultra simple.

streamdeck & softwarestreamdeck_software

 

 

 

 

 

 

 

 

 

A son ouverture, il montre les 15 touches à l’écran. Il suffit  ensuite de procéder comme suit:
1. Sélectionnez la touche désirée
2. Choisissez dans la liste déroulante à droite le type d’action à affecter: elle est longue comme le bras, mais ce qui va nous intéresser en professionnel, ce sont les rubriques Stream Deck (pour créer un dossier par exemple) et Système (pour les raccourcis clavier ou le lancement d’une application).
3. On glisse/dépose l’action sur la touche.
4. On donne un titre (et c’est drôle parce que le texte s’écrit en même temps sur le vrai clavier!)
5. On rentre la combinaison de touche à affecter (ou l’action)
6. Et de manière optionnelle, vous pouvez aller chercher une image pour la mettre sur la touche, ou piocher dans la banque d’icône en ligne de l’éditeur.
C’est fini!
7. Cerise sur le gâteau, le Stream Deck peut se prêter. En effet, vous pouvez enregistrer des Profils pour chaque utilisateur. Et il marche aussi bien sur Mac & PC.

L’essayer c’est l’adopter

Alors oui, on peut vivre aisément sans ce type de périphérique. Mais c’est un peu comme passer de 1 à 2 écrans: on ne revient plus en arrière tant le confort est important. Surtout, c’est un périphérique nomade et encore plus utile avec un ordinateur portable dont l’espace est restreint (pas de pavé numérique par exemple). A recommander donc. Notez aussi que nous avons utilisé le Stream Deck dans cet exemple, mais qu’il est existe des dizaines de références avec plus ou moins de touches et plus ou moins de fonctions.

https://www.elgato.com/fr/gaming/stream-deck

L’article Pourquoi passer au clavier programmable ? est apparu en premier sur Createinmotion.

EVA1 Firmware 3.0 : 4K/50P 10 bits, H265,contrôle multicam, et pleins d’améliorations

Par Sébastien François

Une semaine après le lancement de la nouvelle CX350, Panasonic propose gratuitement la mise à jour 3.0 de sa caméra cinéma EVA1: elle supporte désormais l’enregistrement 4K/50P en 10 bits. Le fabricant offre en outre plein d’améliorations pour les configurations studio et aussi pour l’ergonomie d’utilisation.

EVA1 3.0

Côté enregistrement

La caméra peut désormais enregistrer du 4K/50P (ou 60P) en 4:2:0 10bits, ceci grâce à l’intégration codec H265 (HEVC). Cet encodage est environ 2 fois plus efficace que le H264: à débit identique, la précision de l’image est doublée.  L’EVA1 sait donc enregistrer dans ces modes à 200 Mbps (50/60P), et 150 Mbps en 25/24P.

Côté studio

Panasonic supporte désormais les adaptateurs USB/Lan de fabricants tiers. Ceci permet d’intégrer plusieurs EVA1 en plateau et de les contrôler via le CyanView Cy-RCP (panneau de contrôle déporté) comme le montre cette image:
EVA1-multicam

Côté utilisateur

Les utilisateurs se plaignaient de le complexité des menus pour changer de mode d’enregistrement ou pour accéder au fameux VFR (Variable Frame Rate). Ce problème est réglé puisque les modes d’enregistrements peuvent être assignés à une ou plusieurs touches USER. On bascule d’un mode à l’autre d’une simple pression.
On peut aussi désormais capturer des images fixes en mode Playback afin de créer des vignettes de projet par exemple. L’EVA1 sait aussi maintenant utiliser 2 presets pour la balance des blanc automatique (ATW), tout comme un indicateur de focus fait son apparition sur la panneau LCD. Enfin, on peut monitorer l’image en SDR quand on tourne en HLG.
Rappelons aussi que la caméra a aussi subi une belle baisse de prix: elle est proposée à 6790 euros HT (prix conseillé).

La page produit

Le lien de téléchargement de la mise à jour

La présentation de la mise à jour par Mitch Gross de chez Panasonic:

Suivre Panasonic

L’article EVA1 Firmware 3.0 : 4K/50P 10 bits, H265,contrôle multicam, et pleins d’améliorations est apparu en premier sur Createinmotion.

AG-CX350: Nouvelle caméra Panasonic ultra polyvalente

Par Sébastien François

4K, NDI|HX, enregistrement 4:2:2 10 bits, streaming sans fil, stabilisation optique… Voilà ce que propose la nouvelle bête du tournage de chez Panasonic. Un camescope vraiment bon à tout faire pour un tarif ultra compétitif: il est annoncé à 3850 euros HT et pèse à peine plus de 2Kg.

« Engineered to impress », voilà le slogan qui définit cette nouvelle caméra et que l’on pourrait traduire par « conçu pour impressionner ». Effectivement, le rapport prix/fonctionnalités est tout à fait favorable à cette nouvelle machine qui vise à toucher un large marché: certes les pros de l’ENG ou du documentaire sont directement concernés, mais ce qui est plus original, c’est la connectivité offerte par cette CX350. Elle devrait lui permettre de viser un public bien plus large.
En effet, la caméra embarque un terminal LAN et elle est compatible NDI|HX, RTMP/RTSP. Via un dongle Wifi, elle est aussi capable de streamer directement sans fil à la patte vers les principales plateformes (Facebook, YouTube etc..). Le support du NDI|HX lui permet de s’insérer dans un système de production Live à l’aide d’un simple câble Ethernet qui va transporter l’audio, la vidéo, mais aussi le Tally… On peut aussi contrôler la caméra à distance via ce protocole qui se paramètre quasi automatiquement. Pour mieux comprendre les possibilités offertes, il suffit de regarder ces schémas de connexions possibles:
diagramm_CX350

Du coup, ces possibilités décuplent les utilisations possibles de la caméra pour les captations, les conférences et globalement tout ce qui se déroule en direct. Mieux, une mise à jour permettra aussi d’insérer directement une clé 4G/5G afin d’envoyer les images depuis n’importe quel endroit de la planète (à condition d’avoir du réseau, bien sûr). Bien vu, donc.

Des formats d’enregistrement, en veux-tu? En voilà

Autre aspect très novateur de la machine, la quantité pléthorique des formats d’enregistrement disponibles. On imagine que le constructeur a intégré la dernière version de son « Venus Engine ». Pour résumer, la CX350 enregistre aussi bien du 4:2:2 10 Bit en 4K(UHD) avec le codec All-I à 400 Mbps (comme sur l’EVA1), mais plus original, elle propose tout aussi bien du H264 et surtout du H265 (HEVC). Ce dernier constitue actuellement ce qui se fait de mieux en terme de ratio poids de fichiers/qualité d’image. On peut donc choisir le Codec ALL-I (cartes UHSII/V60 obligatoires) en cas de grosse post-production, ou le HEVC jusqu’à 50P pour tourner très très longtemps. Bien entendu, de nombreux débits sont disponibles. La liste des formats d’enregistrement parle d’elle même:
CX350 recording formats

On note aussi une nouveauté: le mode VFR (Variable Frame Rate) est désormais disponible en 4K jusqu’à 60P. On peut ainsi jouer sur la cadence d’image très facilement en cours de tournage pour faire des time-lapse ou des ralentis. Un mode Super-Slo est aussi disponible en FHD et permet d’enregistrer jusqu’à 120 images par seconde, sans crop.

Côté image: nouveau capteur, HDR, HLG, stabilisation 5 axes, Focus intelligent…

ag-cx350_5_lens_2_high_res

La CX350 est équipée d’une nouveau capteur MOS d’1 pouce. Il offre plus de 15 millions de pixels et surtout, il n’existe désormais plus aucun crop dans l’image. La caméra dispose de différentes courbes de Gamma, dont le HDR (High Dynamic Range) et surtout le HLG (Hybrid Log Gamma). Le constructeur annonce une sensibilité de F13 (en PAL). On retrouve bien sûr la stabilisation optique 5 axes que Panasonic maitrise mieux que personne. De manière plus traditionnelle, les 3 bagues de contrôle sont présentes. En revanche, l’optique couvre une plage de 24.5-490 mm, soit une des meilleurs grand angle du marché associé à un zoom de 20X. En activant le iZoom (système sans perte), on peut même pousser jusqu’à 24X en UHD et 32X en HD! Enfin, le Focus Intelligent est sensé être bien plus rapide que les générations précédentes et le tracking est amélioré.

En résumé
ag-cx350_3_cover_high_res

On le sait, les camescopes de poing sont un peu moins tendance qu’avant, avec la montée en puissance des DSLR et autres hybrides. Pour autant, travaillant avec les deux types de machines, je trouve qu’il est extrêmement agréable de « retrouver » un vraie caméra: pas besoin de se soucier des optiques, pas besoin de rajouter mille accessoires. On dégaine, on shoote et on ne se prend plus la tête avec le son puisque tout est intégré.
Panasonic dévoile une machine plus compacte et plus légère que les précédentes DVX200 / UX180 et qui embarque une tonne de fonctionnalités parmi lesquelles on retiendra  la richesse des formats d’enregistrement et la connectique complète: elle va du SDI en passant par le LAN (NDI), le HDMI et l’USB pour y brancher de futurs dongle sans fil. Et tout ça pour un prix public inférieur à 4000 euros HT. C’est donc une machine faite pour durer dans la temps, très solide et qui devrait trouver un public de « run & gun », mais aussi une cible plus large qui va du Vlogger jusqu’aux productions de Live.

Les spécifications complètes

La brochure

La page produit chez Panasonic

L’article AG-CX350: Nouvelle caméra Panasonic ultra polyvalente est apparu en premier sur Createinmotion.

Le Must-Have des accessoires qui simplifient les tournages

Par Sébastien François

En tournage, on monte, on démonte, on transporte, on installe, on bricole. Le tout dans un temps record. Nous avons sélectionné ici 10 accessoires qui rendent la vie plus simple et la production plus efficace. Et ceci, pour quelques euros seulement.

1- Sans semelle au pied

01_RabbitKeyVous cherchez toujours votre pièce de 10 cents pour détacher vos semelles (camera plates) qui ne sont jamais universelles? Vous en avez marre des gros tournevis? Voici une paire de solutions qui vont vous éviter de fouiller vos poches et vous arracher les cheveux. La première est à acheter au Etats-Unis sur Adorama ou B&H. Elle s’appelle « Rabbit Key RBTK01 ». L’idée est si simple qu’on se demande pourquoi elle n’a pas été copiée. C’est tout simplement une clé de voiture dont l’embout plat s’adapte à toutes les vis Kodak (1/4 – 1/3). Vous l’attachez à votre trousseau et c’en est fini de chercher de la monnaie.
On peut s’en procurer ici pour moins de 10$

01_TompouceL’autre solution pour se défaire des semelle, c’est de se tourner vers un mini tournevis prévu à cet effet comme le Tom Pouce Akor. Il peut lui aussi être fixé à un set de clés. Bien que moins discret, il offre une meilleure prise en main et un meilleure couple de serrage. Vous en trouverez chez Cineboutique pour un peu moins de 25 euros. Ou encore ici
Enfin, une dernière solution peu onéreuse est de remplacer toutes les vis Kodak par les mêmes, mais avec un anneau intégré, comme le montre cette image:
01_vis kodak avec anneauDu coup, vous n’aurez plus besoin du moindre outil pour fixer vos périphériques. Ce type de visserie peut se trouver chez Smallrig par exemple, en vente sur Amazon.

2- Les câbles sans galère

02_Velcro strapsL’enfer des câbles, vous connaissez? L’art de les enrouler sans les emmêler, de les stocker proprement pour leur prochaine utilisation demande presque un diplôme… Mais heureusement, il existe un accessoire génial qui devrait être disposé sur chaque câble. Il s’agit tout simplement de Velcro sous forme de bandes trouées (Velcro Straps). Il suffit de les fixer à poste à l’extrémité de chaque câble. Ce dernier enroulé, il suffit ensuite de refermer la boucle pour maintenir le tout sans le moindre nœud. Ces Velcro existent dans toutes les tailles: des gros pour maintenir les rouleaux BNC/XLR de 50 mètres, jusqu’au plus fins pour attacher une simple alimentation USB. Et surtout ça ne coûte presque rien. En vente absolument partout.

3- Du côté de la trousse à outils: les 3 font la paire

Pour l’outillage de base, on va pas transiger. En production légère, l’essentiel se résume à trois « outils ». Le premier, c’est le fameux Leatherman, le second, c’est le Gaffer et le troisième, c’est le jeu de clés hexagonales/Torks.  En effet, les besoins en vidéo sont assez vastes, mais le champ d’outillage est assez réduit pour dépanner toutes les situations de tournage, tant que vous n’êtes pas chef déco ou électro.
D’abord, achetez un Leatherman. C’est un outil universel proche du couteau Suisse, mais sous forme de pince repliable et verrouillable. Il permet de couper, de visser… Bref, c’est l’accessoire à avoir toujours dans une poche pour régler toutes les situations. Certes, ce n’est pas donné, mais ça se garde toute une vie. Dans la gamme du constructeur, nous préférons personnellement le modèle Surge, le plus complet pour la vidéo ou à défaut, le modèle Wave+, moins encombrant.
03_leatherman

Et si l’on ne devait garder qu’une seule chose, ce serait le gaffer selon moi. Ce scotch a la particularité d’être découpable à la main, de ne laisser aucune trace quand on l’enlève tout en étant ultra solide. Ses utilisations sont presque infinies puisque vous l’utiliserez tout autant pour plaquer des câbles au sol, tout comme pour fixer des accessoires, ou encore pour maquiller des éléments de décor. Des dizaines de groupes existent sur Facebook pour montrer les réalisations les plus folles de ce fameux « scotch » pas ordinaire. Attention cependant à la qualité: le Gaffer est souvent imité mais rarement égalé. Il existe dans tous les coloris (dont le vert pour les Chromakey), mais le plus polyvalent reste tout de même le noir. 03_gaff_tape

Enfin, pour l’outillage, je garderai en dernier lieu, le jeu de clés hexagonales/Tork03_hexa_keyss, mais sous forme de couteau repliable et léger: l’immense majorité des périphériques vidéos (trépieds, cages etc), sont fixés avec de la visserie de ce type. Il est donc indispensable d’avoir un jeu de clés pour resserrer ou démonter. Vous pouvez trouver ce type d’accessoires dans les boutiques cinéma, mais aussi et surtout dans les magasin de sport: les vélos utilisent la même visserie et l’accessoire devient alors nettement plus abordable.

4- Un peu de lumière, mais pas trop

En tournage, on est très souvent sans lumière d’appoint. Un peu problématique quand il s’agit de « buller » (faire le niveau) d’un pied pendant une captation, ou de réparer une connexion. Il y a donc les adeptes de la lampe frontale façon spéléologie, de la Maglite genre NYPD, mais le plus utile selon nous, c’est la lampe de poche qui dispose tout simplement d’un habillage en caoutchouc/silicone, ou alors de la lampe stylo. Pourquoi? Parce que la lampe frontale n’est pas discrète, ni orientable quand on est dans un environnement de conférence par exemple. La Maglite pourrait convenir, mais le problème, c’est qu’elle est en métal et que pour disposer de ses deux mains, on est tenté de la tenir avec ses dents! Nous vous recommandons donc les lampes stylos ultra légères qui disposent d’un revêtement qui n’abîmeront pas le sourire, comme celle là.
04_Pen_Light

Au pire, vous pouvez toujours utiliser le fameux Gaffer pour entourer le corps de la lampe et préserver votre dentition sur des lampes torches « normales ».

5- Cachez ce micro-cravatte (lavalier mic) que je ne saurais voir…

05_Garfield_MicPoser un micro cravate est une chose assez simple si vous décidez de le laisser apparent. Les choses se corsent quand vous voulez le cacher, et notamment sur les dames qui portent souvent des hauts très fins ne permettant pas de fixer correctement la griffe du HF. On peut alors utiliser une fois de plus du Gaffer disposé en « amortisseur » ou alors, ces deux accessoires qui vont éliminer les frottements. Le premier est un simple mini tube de mousse dans lequel vous insérez la capsule du micro: il s’agit du Garfield Hush Lav.

Le second est selon moi plus intéressant puisqu’il s’agit d’un set de fixations en silicone. Hide-a-mic permet d’insérer des capsules Senken dans des « étuis » pourvus de fixations: T-Shirt, soutien-gorge, cravate… L’isolation contre les frottements est meilleure et surtout, le sujet peut le fixer seul sans que vous ayez à intervenir. Une nouvelle version baptisée « Flex » est encore plus astucieuse puisqu’il s’agit d’un support que l’on peut coller directement sur le peau sans plus se soucier des vêtements.
05_Hide_a_ mic05_b_flex

6- L’acier contre le sable

Autre problème de tournage: lester les pieds de lumières, les girafes et les grues pour éviter les accidents. La réponse traditionnelle consiste à utiliser les sacs de sable ou des bouteilles d’eau bricolées. Sauf qu’il faut du sable ou de l’eau sur place, ce qui n’est pas toujours le cas. Si vous êtes en panne, ou tout simplement en studio, préférez les poids d’haltérophilie.
06_weights-02Pourquoi? Parce qu’ils ne sont pas chers et que surtout, le diamètre du trou central s’adapte totalement à nos pieds lumière et autre grues. Mieux, vous pouvez aussi choisir la masse emportée, de 0,5 Kg à 5Kg en général et vous pouvez aussi les empiler en fonction du support à lester.06_weights
Vous trouverez ces articles dans toutes les boutiques de sport ou en ligne.
Il existe une version luxe et 100% cinéma de ces poids, chez Manfrotto.
06_manfrottocounterweight
Le fabricant propose des contrepoids qui on la particularité d’être équipés d’une pince intégrée. On peut ainsi les fixer n’importe où. Super pratique, mais assez cher.

7- Nettoyage express

07 dry dusterVous disposez sans doute d’un kit de nettoyage pour optique (pinceau, soufflette…). Indispensable, mais pour effectuer un nettoyage express (et notamment extérieur) de vos périphériques (caméras, pieds…), nous avons toujours avec nous une bombe d’air sec. La pression à la sortie permet de chasser la poussière sans toucher à l’appareil. Attention cependant, nous vous déconseillons de l’utiliser sur un capteur car si l’air va chasser la poussière, cette dernière se collera ailleurs dans la caméra et pourra revenir. Mais pour tout le reste, passez à l’air sec, pour quelques euros seulement.

8- De l’énergie pour tous

08_ravpower bankAutre must-have lors des tournages, la banque d’énergie (power bank). Avec la généralisation des tablettes et autre téléphones pour contrôler les caméras, les drones ou plus globalement, tout ce qui est connecté, on tombe très vite en panne. La banque d’énergie est bonne à tout faire: recharger un iPad ou un ordinateur, alimenter une convertisseur HDMI/SDI, et même alimenter une caméra en continu jusqu’à 10h. Le tout est d’en choisir une grosse (plus de 25000 mAh) et d’investir dans un set d’adaptateurs USB vers DC afin de la raccorder à tous les types de périphériques (et pas seulement l’informatique, donc). Vous en aurez pour moins de 50 euros et vous ne serez plus jamais en panne.
usb_to_dc

9- Élastiques magiques

On adore cet accessoire. Les Think Tanks Red Whips, sont des élastiques réglables qui ressemblent beaucoup aux sandows que l’on trouve dans le monde la voile. Vous les portez comme des bracelets sans être donc encombrés et vous pouvez alors fixer n’importe quoi: un câble le long d’une grue, une power bank sur un pied… Vous pouvez aussi les utiliser pour ranger les câbles, comme les Velcro. Bref, pour moins de 10 euros les 10, vous auriez tort de vous en priver.
09 Bungees red whisps

10- Les filtres anti-casse et les Vari-ND

L’optique est l’élément le plus fragile lors d’un tournage: une seule rayure et vous retournerez à la case SAV. Et vous gâcherez votre shooting. Il faut donc équiper tous les cailloux d’un filtre de protection à visser en fonction de son diamètre. En cas de dommage, c’est cette « vitre » qui sera à changer, et non pas votre précieux objectif. N’hésitez pas à rechercher ces accessoires auprès des fabricants renommés (Hoya, Tiffen…): la qualité de ce filtre de protection doit être sans faille pour ne pas gâcher les qualités optiques de votre machine.10_hoya_filtre_protecteur_pro1_digital
Autre filtre à posséder absolument (et qui peut se visser sur celui de protection), le Vari-ND (filtre neutre variable). Ceci, même si vous tournez avec un caméra qui dispose de filtres neutres intégrés. L’idée, consiste à faire varier la quantité de lumière en le tournant afin de ne pas toucher au shutter. L’avantage, c’est que le fait de le faire tourner permet de régler cette quantité de lumière ultra précisément et non pas par « pas » prédéfinis (1/4, 1/16….) (steps). Vous pourrez donc conserver l’ouverture de votre choix et le shutter aussi. Là encore, il faut taper dans les marques et y mettre le prix afin d’obtenir de la qualité. Mais vous pourrez les garder toute votre vie.

 

 

L’article Le Must-Have des accessoires qui simplifient les tournages est apparu en premier sur Createinmotion.

[Wiki] Les Proxies: la solution pour monter plus vite ?

Par Sébastien François

Les proxies, c’est tout simplement l’art d’utiliser des fichiers en basse définition pour monter plus vite. Pourquoi? Parce que la résolution des caméras ne cesse d’augmenter et que les codecs de tournage réclament de plus en plus de puissance: les machines de montage ne suivent plus. Alors, utiliser les proxies s’avère de plus en plus souvent indispensable.

Utiliser des Proxies, l’idée est loin d’être nouvelle dans les grandes boites de prod, ou les chaînes de télé. Les fichiers natifs étant extrêmement gourmands en termes de puissance de calcul, il est plus facile de prémonter en basse définition avant de conformer le tout en HD/4K/DCP, voire plus. Mais tout ça semble compliqué de prime abord, alors que la technique s’est largement démocratisée, y compris dans les plus petites structures: les proxies sont désormais automatisés directement dans les logiciels de montage.
Pour résumer, le logiciel transcode les rushes en basse définition et au moment voulu, lors de l’étalonnage ou de l’export, il remplace les clips avec les rushes natifs en y appliquant tous les effets désirés, en pleine qualité.
Mieux, des caméras comme les UX180/PX270 de Panasonic sont tout à fait capables d’enregistrer à la fois le fichier natif pleine résolution et son jumeau en version proxy. Du coup on peut transmettre des images facilement en plein tournage (car elles sont légères), ce qui permet de commencer à monter avant d’avoir le natif en pleine qualité.
Proxy_conversion

La(les) problématique(s)

Pourquoi s’interroger? On tourne, on monte et tout va bien. Oui mais voilà, on a beau avoir une machine de montage de guerre, la puissance est toujours prise à défaut. Du coup, on se retrouve souvent à monter de manière non fluide. Et plus on ajoute d’effets, plus on attend. La faute en incombe aux causes suivante.

  1. L’augmentation de la qualité au tournage se paie au prix de Codecs (COmpressor/DECompressor) toujours plus performants pour occuper moins de place à qualité  égale: c’est le cas H264 et désormais du H265 (HEVC). Du coup, si une puce s’occupe bien d’encoder les images pendant la prise de vue de manière linéaire, il est nettement plus délicat au montage de décoder les images, de leur appliquer des effets, ou de multiplier les flux comme dans le cas d’un Multicam. A chaque arrêt de la tête de lecture, l’ordinateur doit décoder l’image, voire, dans le cas des Codecs Long GOP, de décoder ce qui est avant et après. Ces Codecs nous permettent cependant de faire de la bonne 4K 4:2:2 10 bits à 100 Mbps, ce qui aurait été impensable avant…
  2. D’autre part, malgré l’augmentation de puissance de calcul des machines, il n’est pas toujours possible/nécessaire d’en changer tous les 6 mois pour arriver à monter de manière fluide, c’est à dire sans lag dès que l’on bouge sa tête de lecture. Les performances croissantes des ordinateurs ne suivent pas l’augmentation des besoins en technologie d’image.
  3. Et même dans l’hypothèse plus confortable d’un tournage avec un codec qui réclame moins de puissance, on a alors à faire à des fichiers qui demandent des débits de lecture conséquents au montage, surtout si l’on superpose plusieurs clips. Il n’y a plus alors de problème de puissance, mais de capacité du stockage qui peine à « cracher » les données au bon débit.
  4. Enfin, avec l’avènement de l’immédiateté, notamment en ENG, transmettre des images en pleine définition est encore bien trop lourd sur les réseaux 4G, il faut donc les compresser.

    PX270_proxy

    Les caméras comme la PX270 permettent d’enregistrer à la fois le fichier natif et un Proxy

Des parades ?

  • La première parade a longtemps consisté à utiliser un Codec intermédiaire au montage. L’idée est assez simple: tous les éléments du tournage sont convertis dans le même « format » de montage: le Prores sur Mac, le DNXHD/HR ou le Cineform sur PC par exemple. Plus de prise de tête, tout est fluide. Surtout, ce même Codec peut être utilisé pour le Mastering.  L’inconvénient réside cependant dans le fait que les fichiers sont donc « décompressés » et occupent énormément de place. Pour une carte de 64 Go tournée avec une EVA1, on se retrouve facilement avec 300-400 Go de données une fois le tout converti. D’autre part, cette conversion peut être longue. L’utilisation de cette technique quand on a des heures et des heures de rushes et donc compliquée.
  • Autre alternative, l’utilisation d’un enregistreur externe directement au tournage. Ce dernier va justement enregistrer dans un Codec intermédiaire sur un SSD. Plus besoin de décharger les cartes ou de convertir: on insère que le disque dans un rack et boom, on monte directement dessus. Mais là encore, il faudra prévoir beaucoup de SSD. D’autre part, au tournage, les enregistreurs alourdissent le set-up et ils consomment en général pas mal d’énergie. C’est à prendre en compte lors du projet.
  • La dernière méthode, c’est celle des Proxies. Le workflow habituel est presque inchangé. Vous importez tous les rushes sur votre machine et vous indiquez au logiciel de montage de créer des « copies » en proxy. D’un simple « switch » sur la Time-Line, vous passez de la version pleine définition à la version allégée. Les mêmes effets seront appliqués aux deux entités. Contrairement au Codec intermédiaire, la conversion est ultra rapide et le poids très léger. Mieux, dans le cas de caméras qui génèrent elles-mêmes des proxy, il suffit alors « d’attacher » les deux médias ensemble. Plus besoin de conversion. Le fait de pouvoir switcher d’un clic entre les deux versions permet de travailler alternativement sur le natif (pour un étalonnage précis) ou sur la version Proxy pour monter très, très vite. Cette méthode permet aussi de prolonger la durée de vie d’une machine vieillissante: le seul gros calcul demandé sera celui de l’export final.

Proxy: quelques pièges

  • La première chose à savoir, c’est qu’il faut être organisé et ranger les proxies à côté de vos rushes natif sous peine de se mélanger les pinceaux entre les médias.

    Proxy_organisation

    Il faut être organisé pour gérer les Proxies.

  • Ensuite, il faut, quand le logiciel vous laisse le choix de bien sélectionner des paramètres qui seront conformes aux fichiers natifs (même ratio d’image, même cadence…) et simplement changer la résolution et le codec pour avoir des fichiers légers. Il faut prendre garde aussi à la gestion des métadonnées qui peuvent être inclues dans le fichier natif (Time-code…)
  • Enfin, il faut faire attention aux manipulations temporelles: exemple, si avant de générer vos proxies, vous avez conformé un rush de 25 à 24P par exemple, assurez-vous que le proxy sera bien en 24p sous peine de générer des décalages sur la Time-Line. Bref, il faut être attentif.
  • Certains utilisateurs se trompent de Codec et se retrouvent parfois avec des Proxies plus lourds que les originaux. Prenez-bien garde à ce piège.

Les Proxies dans les logiciels de montage

Avec Premiere Pro:
Comme toujours avec Premiere, ça aurait pu être simple, mais c’est finalement compliqué, mais uniquement la première fois. Par défaut, le logiciel ne dispose que de quelques Presets pour générer les Proxies et il ne sont pas forcément adaptés. Il faut créer les votre une bonne fois pour toute.

  • Lancez Media Encoder et dans le volet Presets, cliquez sur + pour créer une Préconfiguration d’export, car on ne peut pas directement personnaliser un Preset « d’ingest »…
  • Nommez le Preset, puis choisissez un Format (Quicktime par exemple), personnalisez le Codec (par exemple, le Prores Proxy ou le Gopro Cineform YUV 10 bits).
  • Personnalisez la qualité (en l’abaissant au minimum) ainsi que la résolution: 960 X 540 pixels est un bon compromis.
  • Laissez le reste des paramètres sur « en fonction de la source » et enfin, décochez « rendre à la qualité maximale ». Vous pouvez sauver le Preset en le nommant le plus précisément possible (Proxy 960 – Prores – export…)
  • Mais ce n’est pas fini. Créez cette fois-ci un Preset d’Ingest. Choisissez le même format (Quicktime dans notre exemple). Et donnez le même nom que précédemment, mais cette fois-ci ajoutez « Ingest » pour bien le différencier.
    Premiere Pro Ingest
  • Choisissez ensuite l’option de « conversion de medias » (et rentrez une destination sans importance). Et c’est là que vous allez pouvoir choisir le Preset que vous avez créé pour l’export. Sauvez le tout en validant.
  • Mais ce n’est encore pas fini!!! Dans la liste des Presets, sélectionnez la préconfiguration que vous venez de créer et utilisez la commande « faire apparaitre le fichier… » pour savoir où il a été enregistré.
  • Enfin, dans Premiere Pro: importez vos rushes, sélectionnez les tous, et d’un clic-droit/Proxy (doublures en français…), choisissez « Créer ». Dans la boite de dialogue affichée, vous allez désormais importer votre Preset d’ingest grâce au chemin de l’endroit où il a été enregistré.
    Adobe Premiere Pro CC 2019 Proxy
  • Ouf, c’est enfin fini et vous n’aurez à faire cela qu’une fois, le Preset apparaissant pour toujours.

Nous vous recommandons donc de créer un jeu de Presets dès le départ pour ne pas avoir à refaire cette pénible manipulation. Car au montage, ensuite, c’est très très simple: il suffit de cliquer sur le bouton « Proxy » dans le moniteur de Programme pour passer d’une version à l’autre. Mais c’est effectivement ce genre de défaut ergonomique que nous évoquions dans notre test de Premiere Pro 2019. Le seul avantage étant qu’au moins, tout est personnalisable et que Premiere est aussi capable de « d’attacher » les Proxy d’une caméra sans les générer lui même. Et ce n’est pas le cas de tous les logiciels.

Avec FCPX:

Alors là, c’est exactement l’inverse: vous n’aurez aucun choix, mais vous n’aurez rien à faire non plus! Il suffit de sélectionner les médias et de choisir de générer des proxy d’un clic-droit/transcoder/media/proxy.
FCP_01_proxy
Dans le menu Présentation du moniteur de Programme, il vous suffit, comme dans Premiere Pro, de Switcher entre medias originaux et Proxy. Enfantin, même si tous les médias seront transcodés obligatoirement en Prores Proxy.
FCP02_proxy

Avec Resolve:

Là encore, c’est assez simple: il suffit de choisir dans les préférences générales le type de Proxy à générer (dans Resolve, ils sont appelés « Optimized Media »).
resolve proxy_01
Ensuite, comme dans Premiere, on sélectionne les medias à transcoder. Enfin, il suffit dans le menu Playback, de sélectionner « Use Optimized Media if available ». C’est aussi simple que celà.
resolve proxy_02

Pour conclure

On vient de le voir, les Proxies offrent bien des avantages mais vous devez toujours vous demander si bénéfice en vaut la chandelle.
Si vous avez un montage simple, avec peu d’effets, et que la machine « laggue » un peu, il peut être plus intéressant de ne pas transcoder (ce qui prend du temps et de l’espace), quitte à souffrir un peu.
Si vous allez travailler sur un film en RAW avec des heures de rushes, là, la question ne se pose pas: vous intégrerez simplement ce temps de transcodage dans votre projet afin de pouvoir travailler ensuite de manière parfaitement fluide. Tout dépend donc du type de projet, de la puissance disponible et de la post-production qui sera prévue.

 

 

 

 

L’article [Wiki] Les Proxies: la solution pour monter plus vite ? est apparu en premier sur Createinmotion.

24P/25P/50P/ 50i… Quelle cadence d’images choisir ? #la fin des idées reçues

Par Sébastien François

La cadence d’images est absolument déterminante dans les choix techniques de vos projets. Problème, entre idées reçues, archaïsmes, et confusions, on est souvent perdus. On va donc ici faire un point technique pour vous aider à choisir la bonne fréquence… Et tordre le cou à certains préceptes historiques.

Et pour commencer, la cadence d’image (Frame Rate), c’est quoi ?

framerate_01

Pour faire simple, voilà une illustration qui symbolise les différences entre les cadences d’image sur 1 seconde.

La cadence d’image de captation, c’est tout simplement le nombre d’images qui sera capturé et donc enregistré dans l’intervalle d’une seconde. Autrement dit, on va parler de « 25/50P » pour signifier 25/50 images « Progressives », c’est à dire « pleines » par seconde, de « 24P » ou encore de « 50i » (pour Interlaced, soit entrelacées). Ces cadences qui nous sont communes, peuvent cependant être modifiées selon n’importe quelle valeur – en fonction de votre caméra – (de 1 image par seconde à plusieurs milliers d’images par secondes), car elle sont toujours à mettre en relation avec la cadence d’image de diffusion ou de lecture. En Europe, il s’agit en général de 25 images par seconde.

Pour faire simple, si vous décidez d’enregistrer 1 image par seconde et que vous lisez le tout à 25 images par secondes, vous aurez un accéléré de X25 (1×25), comparable à un Timelapse. A l’inverse, 100 images par seconde lues à 25 images par secondes donneront un ralenti de X4 (100/25), c’est à dire du Slow-Motion. Et donc communément, on se contente de tourner à la même fréquence d’image que celle qui est prévue pour la diffusion: mais on peut décider de sortir des sentiers battus pour s’affranchir de certaines limites.

La cadence d’image: histoire et perception de l’œil

Historiquement, la cadence d’image, c’est une succession de photos prises sur une seconde, qui sont là pour donner naissance à l’animation. L’animation, c’est faire en sorte que notre œil n’est plus le « temps » de voir qu’il s’agit d’une suite d’images fixes. C’est donc une « illusion » liée à la rémanence rétinienne.
BELL & HOWELL 2709_
Au début du cinéma muet, nous étions à une cadence située entre 14 et 20 images/s car elle dépendait de la vitesse de rotation de la manivelle de l’opérateur! C’est ce qui donne cet aspect saccadé: notre oeil perçoit la suite d’image.

Au moment du cinéma parlant, on a collé une bande magnétique sur la pellicule. Mais le problème, c’est qu’à cette cadence -faible-, on n’arrivait pas à enregistrer la voix correctement. Il a donc été décidé que la cadence de 24 images par seconde était le parfait compromis entre restitution sonore/saccades limitées à l’image et surtout prix de la pellicule (extrêmement onéreuse à l’époque). Là est née cette cadence historique dont on pourrait pourtant, 100 ans plus tard, s’affranchir.

Le « 50 » est quant à lui, né de la télévision qui fonctionne… A l’électricité. En Europe, la fréquence du courant est de 50 Hz et comme la télévision cathodique est constitué d’un faisceau électrique qui balaie l’écran de haut en bas, on a décidé d’envoyer 50 demi images (entrelacées) pour que ce faisceau ait le temps de balayer l’écran de haut en bas entre deux images (et 2 deux signaux de courant alternatif) : à l’époque, on ne savait pas envoyer des images « pleines », ou procéder autrement.

Entre temps, tout a changé puisque qu’entre la numérisation des caméras et surtout la révolution de l’affichage (écrans plats qui peuvent supporter des images pleines…), on est capable -théoriquement- d’envoyer n’importe quelle cadence d’image, vers n’importe quel périphérique.  Oui, mais voilà, vous allez entendre que le Cinéma, c’est forcément en 24P, que la télé, c’est obligatoirement du 50i et que le 50P, ça ne sert qu’à faire des ralentis. Que tout ce qui est en « 50 » donne une texture « vidéo » aux images et donc, que ce n’est pas « Cinéma » avec son « flou de mouvement »  (motion Blur)…  Et bien, tout cela est assez largement faux.

Pourquoi choisir telle ou telle cadence d’image plutôt que de rester sur la valeur de diffusion?

A priori, aucune, à moins de vouloir produire des ralentis ou des accélérés (la fonction VFR Variable Frame Rate chez Panasonic). Mais pourtant, n’importe quel réalisateur a au moins été confronté au moins une fois à question suivante: pourquoi mon panoramique est-il saccadé à la lecture ?
La réponse, c’est que vous avez choisi une cadence trop faible (24/25 image par seconde). La caméra effectuant un grand mouvement, chacune des 24/25 images dans la seconde est trop différente de la suivante pour berner notre vision: nous percevons les saccades. Ce qui est très désagréable. En effet, chaque cadence offre ses propres avantages et inconvénients que nous allons lister. L’influence sur votre rendu d’image est conséquent, mais pas autant qu’on peut le croit:

  • 24P: Standard cinéma historique
    • avantages: on peut tout tourner en 24P sans avoir à conformer si l’on diffuse dans une salle de cinéma. Certaines caméras n’offre la résolution « C4K » (4096 x 2160) qu’à cette cadence d’images. Sinon, elles se cantonnent à l’UHD. Le 24P est aussi le seul à être universel entre PAL et NTSC.
    • inconvénients: nombreux! Impossible de faire des mouvements de caméra rapides sans saccade. Tout aussi impossible de tourner des scènes d’action « précises »: il y aura trop de « saccades » de mouvement. Difficulté à se conformer à la fréquence des lumières (50 Hertz en Europe 60 Hertz aux Etats-Unis) car le 24 n’est pas un multiple de la fréquence avec la règle des 180d (qui donne un shutter à 1/48ème).
  • 25P: Standard européen pour de nombreuses chaînes TV
    • avantages: c’est un format bon à tout faire puisqu’à une image près, le rendu est strictement le même que celui du cinéma. C’est un multiple du fameux 50Hz pour gérer le Shutter (et donc les lumières artificielles).
    • inconvénients: là encore, impossible de faire des mouvements rapides sans saccade.
  • 50P: Nouveau format depuis quelques années, supporté sur le Web en diffusion.
    • avantages: tout est précis et l’on peut tourner sans saccade. On peut aussi utiliser cette cadence pour produire des ralentis quand on le conforme en 25P par exemple.
    • inconvénients: on utilise plus de données car on enregistre 2X fois plus d’images qu’en 25P. Les chaines de télévision ne supporte pas (encore) ce format. Le rendu est sensé être moins « cinéma » car l’image est trop précise, mais l’on verra après que cette idée est fausse: tout se joue avec le shutter (vitesse d’obturation).
  • 50i: Ancien/encore actuel standard de diffusion TV en Europe
    • avantages: il est toujours supporté (voir demandé) par presque toutes les TV. Pas de saccades.
    • inconvénients: Le rendu est vraiment « vidéo » car on enregistre 50 demi-images qui se chevauchent par trame (c’est l’effet de peigne que l’on voit quand on fait un arrêt sur image). Il est donc déconseillé de l’utiliser au tournage: mieux vaut conformer en 50i à la livraison si c’est demandé.
  • Cadences supérieures (100/120/240 et +, images par seconde)
    • avantages: utilisé pour produire des ralentis. Certains films sont presque entièrement tournés à 120 i/s (quitte à revenir à la vitesse normale au montage ) pour laisser la possibilité d’effectuer des ralentis.
    • inconvénients: la quantité de lumière nécessaire. Le shutter ne pas être descendu sous la cadence d’image. La gestion des lumières artificielles est problématique (flickering) car on tourne plus « vite » que la fréquence du courant électrique. L’image est souvent limitée à la 2K…A moins de passer sur du très très haut de gamme. Et bien sûr la gestion du son.

La vitesse d’obturation, coupable de toute les confusions

Les dogmes sont tenaces car souvent basés sur le fameux rendu cinéma très apprécié (flou de mouvement, faible profondeur de champ pour résumer) et que l’on applique la fameuse règles des 180° (qui consiste à utiliser une vitesse d’obturation double de celle de la cadence d’image). Ceci pour obtenir un bon compromis entre « précision et flou ».

24P-STR48

un film en 24P shooté à 180° de shutter (soit 1/48ème)

 

 

 

50P-STR50

La même scène shootée en 50P avec un shutter au 50ème. La flou de mouvement est le même.

Le problème, c’est que cette règle est aussi souvent appliquée avec les « nouveaux » format comme le 50P. Autrement dit, on utilise alors un shutter à 1/100ème. Ce n’est pas toujours opportun. Doubler le shutter revient à demander 2X plus de lumière puisque le capteur sera 2X moins exposé. Et ce là limite le flou de mouvement. C’est ce qui donne cet effet « chirurgical » à ce type d’images.

24P STR 96

24P à 90°, le flou de mouvement disparait. Le motion blur doit tout au shutter.

50P STR100

Au 100ème de seconde en 50P, le flou de mouvement est atténué. On a le même résultat qu’en 24P à 90°.

Si vous tentez de tourner en 50P à 1/50ème, vous allez voir que le flou de mouvement est le même qu’en 24/25P, mais que le rendu sera légèrement différent, car il y a 2x plus d’images et donc, plus de fluidité. Et non, tous les films ne sont pas tous tournés en 24P. Le Seigneur des Anneaux en est un excellent exemple sans pour autant que vous ayez l’impression de regarder la TV. Il faut donc se sentir libre de choisir sa fréquence et son shutter en fonction de son projet. Et se poser les bonnes questions.

Alors, finalement, quelle cadence utiliser?

  1. Toujours se demander quel sera le media de diffusion final:
    c’est ce qui va grandement déterminer votre cadence d’image. Internet? tout est possible. La TV? on va partir du 25/50P ou du 50i (ou du 25/50P que l’on conformera en post-production en 50i… )
  2. Se conformer à la fréquence du courant du pays dans lequel on tourne pour choisir son Shutter:
    sauf à tourner en pleine nature, vous serez toujours ennuyés par l’éclairage artificiel et le « flickering ». Autrement dit, si je tourne au Etats-Unis et que je vais diffuser en France, je vais utiliser un shutter au 60ème de seconde (pays 60Hz) et utiliser une cadence d’image de 25/50 images par seconde par exemple. Si je tourne en France et que je diffuse aux USA, je vais prendre un shutter au 50ème et tourner en 30P.

    exemple de flickering à 180 fps et ensuite avec un shutter au 48ème sur la lumière 50Hz.
  3. Faire son propre choix artistique en fonction de ce que l’on va tourner.
    Un match de foot ? Une cadence élevée et un shutter rapide. Un court métrage? Un shutter plus lent etc…
  4. Envisager la post-production.
    Un des problèmes fréquents qui se pose, c’est de devoir mélanger plusieurs fréquences d’images sur la même Time-Line. Exemple, un drone qui ne fait que du 30P alors que vous montez en 24P le reste de vos scènes. Ou alors mélanger des Interviews en 24 et 25P. Tous les logiciels de montage ne sont pas égaux dans ce domaine: certains vont tout simplement « sauter les images en trop » (30 au 24P, ce qui crée des saccades), d’autres vont créer des images manquantes par « mélange » (blending inesthétique). Les derniers vont analyser toute une séquence pour recréer de « vrais images » suivant un processus très long. Il faut donc toujours tout envisager au préalable, surtout si vous prenez du son. Un son 30P conformé en 24 va, par exemple être accéléré. Ceci sera donc à corriger. Il faut donc tester, tester avant de pouvoir faire ses propres choix.

 

 

 

L’article 24P/25P/50P/ 50i… Quelle cadence d’images choisir ? #la fin des idées reçues est apparu en premier sur Createinmotion.

[6 mois de test] Sauvegarde vidéo: Backblaze, la solution?

Par Sébastien François

Dropbox, Google Drive, One drive etc… Les solutions de sauvegarde dans le Cloud sont légions. Mais aucune ne correspond à des tailles de fichiers vidéo sauf à dépenser des fortunes. Alors, on a voulu tester Backblaze, qui promet de tout sauvegarder pour 50$ par an. Alors, l’arme ultime ?

La sauvegarde est un enjeu majeur de nos métiers: nous sommes ceux qui consomment le plus d’espace avec des dizaines de Go par heure de tournage, pour ne pas dire, de To. C’est aussi un paramètre crucial, car ce qui vient d’être capturé, ne peut en général plus être tourné à nouveau. Si on perd les données, on perd tout: les rushes, le client, et sa propre réputation. Autant dire que tout le monde cherche toujours la meilleure stratégie de stockage et de sauvegarde. Et ce n’est pas chose facile. A l’échelle de DreamWorks, on a droit à sa propre infrastructure réseau. Mais quand on est plus petit, tout se joue en « local » à coup de disques durs externes ou de NAS (Network Attached Storage). L’arrivée de la fibre un peu partout et bientôt de la 5G, va permettre d’envisager d’autre solutions délocalisées. Pourquoi s’en soucier? Parce que si votre entreprise brule, ou que vous effacez par mégarde des fichiers, vous allez pouvoir les retrouver. Exemple donc avec Backblaze qui, pour l’heure constitue l’offre la plus abordable quand on doit gérer autant de données. On l’a testée et retestée longtemps et en vraies conditions. Et on vous fait partager notre expérience.

backblaze opener 02

Le workflow de sauvegarde – Stratégie de départ

  • Notre station de montage principale reçoit les cartes mémoires de tournage
  • Les cartes sont copiées sur le SSD dédié pour le projet. Le dossier du projet regroupe les rushes, les Projets Premiere/After Effects ainsi que tous les éléments nécessaires (éléments graphiques/police de caractère/scénario…).
  • Grâce au logiciel Syncback, ce SSD est automatiquement copié toutes les 10 minutes vers un boitier externes de 4 disques durs de 8 To chacun.
    synckback

    Notre logiciel de sauvegarde locale, Syncback

    Autrement dit, toutes les données sont mises à jours en permanence vers ce boitier USB 3.1. Si le SSD tombe en panne, le boitier peut prendre le relais avec toutes les données de montage. Si c’est la machine qui lâche, alors le boitier peut être raccordé sur une autre station. On peut aussi opter pour un NAS qui sera partageable pour plusieurs machines.

  • L’ensemble de la station est sauvegardée (SSD internes/SSD externes/HDD de sauvegardes) vers un service Cloud. Autrement dit, et pour faire simple, sur des serveurs de données distants.
  • En cas de panne, d’effacement de données, ou même d’incendie, on dispose de deux moyens pour récupérer les données: le boitier et le Cloud. Le Cloud permettant aussi de retrouver d’anciennes versions des fichiers (versioning)

Cette solution simple garantit toutes les fautes/pannes à moindre frais et permet de raccourcir les manipulations manuelles. Elle ménage les temps de transfert importants puisque l’on manipule des To de fichiers.

liste_disques

une vue de tout ce qui est connecté à notre machine: SSD de travail et stockage de sauvegarde

Backbkaze: la promesse

Tout l’enjeu de cette stratégie de sauvegarde, c’est donc de trouver le bon service dans le Cloud suivant les critères suivants:

  • Le prix du Go en ligne est cher, il faut donc trouver une offre accessible pour stocker nos 25 To au total.
  • De nombreux services n’acceptent pas la taille de nos fichiers vidéo: ils se limitent à 2 ou 4Go par fichier.
  • Certains fournisseurs soit disant « illimités », ne le sont plus après un an. Ou alors, ils limitent la bande passante.
  • Le chiffrement des données doit être assuré.
  • Beaucoup de services n’acceptent pas les disques externes.

Fort de ces exigences, nous nous sommes tournés Backblaze car son offre est redoutablement simple et claire:

  • 5$ par mois, ou 50$ par an, ou 99$ pour deux ans pour une machine, quelle que soit sa taille.
  • Espace de stockage illimité/chiffrement/support de tous les disques externes.
  • Pour récupérer les données, soit vous téléchargez depuis une interface web (donc aussi vers n’importe quelle machine), ou alors plus original, Backblaze vous propose aussi l’envoi d’un disque dur pour 189$. Si vous renvoyez le disque (à vos frais), Backblaze vous rembourse.

Sur le papier, ça fait donc très très envie. Et voilà comment ça se passe en vrai.

backblaze03

Backblaze, dans la vraie vie, très convaincant…

Donc, pour résumer, nous avons 25To à sauvegarder, une connexion fibre. Autant le dire tout de suite, oubliez toutes les solutions Cloud pour la vidéo avec un simple ADSL, le débit d’upload est bien trop faible.
Après s’être inscrit sur le site, on télécharge un petit logiciel maison. C’est grâce à lui qu’on va gérer les disques à sauvegarder, les fichier à exclure, mais aussi la vitesse d’upload, la clé de chiffrement…C’est assez simple mais soyons clair: la sauvegarde initiale a mis près d’un mois à s’effectuer: le logiciel qui marche en tâche de fond favorise en effet, les autres liaisons (quand vous travaillez): c’est donc en général la nuit qu’il tourne à plein régime: il envoie alors selon nos mesures à 40/50 Mbps. A noter aussi que parfois, il faut contrôler le logiciel (qui ne consomme pas de ressources): sur un mois, il a planté une ou deux fois. Il faut alors relancer la machine pour que la sauvegarde reprenne. C’est donc long, voire très long, mais une fois cette étape initiale franchie, tout va bien plus vite. Pour illustrer ce fonctionnement voici quelques données:

  • Sur un tournage, on a déchargé nos cartes (360Go). Les données ont été uploadées en environ 40h.
  • On a simulé une perte des données et choisit de les restaurer par téléchargement. Backblaze à mis 5h à créer un gros fichier .zip et nous avons mis 6h à le télécharger. On aurait aussi pu décider de télécharger les fichiers un par un pour éviter le temps du .zip.
  • Par conséquent, la solution fonctionne parfaitement. Cependant, elle est adaptée au stockage « froid » et on ne peut espérer récupérer les données en urgence, étant donné leur poids.
  • Nous avons aussi testé le « versioning », c’est à dire retrouver un fichier qui a été effacé ou modifié sur l’ordinateur source. Backblaze conserve les fichiers 30 jours après leur « disparition ». Il suffit de sélectionner la date souhaitée pour voir réapparaitre les fichiers en ligne. Mieux, pendant 2 jours, le service en garde une copie toutes les heures: très utile en cas de perte/corruption d’un fichier projet sur lequel on travaillait.

… Et seulement quelques limites

La limite principale du service, ce sont les fameux 30 jours. Notamment quand un disque externe est débranché de la machine. Sur notre station, nous avons 8 SSD externes pour le montage. Et nous les branchons en fonction des besoins. Si un disque n’est pas connecté pendant 30 jours, il sera effacé du Cloud. Cela suppose donc de rebrancher toutes les disques régulièrement et de laisser Backblaze fonctionner quelques heures. Bien sûr, vous serez notifié régulièrement par mail qu’un disque est manquant, mais ce mode de fonctionnement n’est pas ergonomique.
D’autre part, il en va de même si vous partez en vacances ou en tournage sans allumer votre machine pendant un mois. Là, il faut bidouiller: raccorder absolument tous les disques et éteindre la machine. Dans ce cas là, Backblaze ne parvenant pas à contacter votre machine, vous aurez droit à 90 jours avant effacement. Mais là encore, ce n’est pas très transparent.
Enfin dernière limite, Backblaze ne sauvegardera pas le disque dédié à « Time Machine » pour les utilisateurs de Mac, ni les disques réseau (ce qui est logique, vu le prix de l’offre).

Quelques astuces

  • Par défaut, Backblaze ne sauvegarde pas les fichiers .exe ou .iso (image disque). Pensez à bien gérer les « exclusions » dans le logiciel pour décider ce qui doit être sauvegardé. Dans notre cas, on a ajouté les .exe et on a retiré tous les fichiers de prevues video/audio (.prv, .cfa…) de Premiere Pro (qui occupent une place considérable) et qu’il est inutile de sauvegarder.

    backblaze05

    Gérez bien les exclusions

  • Par défaut, Backblaze n’utilise qu’une seule « thread » pour la sauvegarde. Malgré l’avertissement, n’hésitez pas à monter à 8 ou 10 « threads » pour sauvegarder bien plus vite.

    backblaze07

    Gérez aussi le nombre de « threats »

  • Consultez régulièrement l’interface Web de Backblaze. Si vous constatez que vos disques n’ont pas été examinés depuis plusieurs jours, c’est que le logiciel est planté (et vous ne le dira pas). Relancez votre machine.
  • Attention à votre clé de chiffrement: si vous l’oubliez, personne ne pourra rendre vos données lisibles. Même pas Backblaze.

Et le bilan?

Mon angoisse a toujours été que la boite prenne feu ou soit cambriolée pendant un tournage. Les vidéos et les photos étant irremplaçables, la seule solution consistait à partir avec des disques durs, ou à les stocker ailleurs, le temps de l’absence. Ni pratique, ni très rassurant et on est déjà suffisamment chargés en tournage. Depuis que j’utilise Backblaze et malgré ses limites, j’ai retrouvé une forme de sérénité. D’autant que le prix est totalement accessible, y compris pour un particulier.
Cependant, j’ai vu au fil des années, beaucoup de solutions de ce type fermer, ou changer de politique tarifaire. J’espère que Backblaze ne suivra pas ce chemin. Mais soyons honnête pour l’heure, ce service est un must-have pour tous les professionnels de l’image, qui garantit à vos clients que vous ne perdrez jamais ses précieuses images, et le fruit de votre travail.

 

 

 

 

 

L’article [6 mois de test] Sauvegarde vidéo: Backblaze, la solution? est apparu en premier sur Createinmotion.

Premiere Pro ’19 et Adobe Rush : un bon millésime ?

Par Sébastien François

Entre Final Cut Pro X désormais bien installé et Resolve qui monte en puissance, Premiere Pro doit réagir. Et chaque année, le logiciel évolue, avec cette fois-ci, de bonnes surprises. Mais l’arrivée de Premiere Rush, d’outils de corrections audio « faciles », ou l’amélioration des fonctions d’étalonnage seront-ils suffisants pour donner un nouveau souffle à ce logiciel si mythique?

… That is the question. Le grand mérite de Premiere Pro, outre son âge, c’est essentiellement d’être rationnel, de fonctionner à peu près partout et de savoir tout monter en natif. Oui, mais voilà, depuis des années, on a vu la concurrence arriver avec des innovations certes déroutantes (la logique de FCPX ou le système nodal de Resolve), mais diablement efficaces en termes de productivité. Pendant ce temps-là, Adobe s’est contenté d’ajouter toujours plus de formats et a saupoudré chaque nouvelle version de quelques évolutions, plus que de révolutions. Il a fallu attendre 2017 pour pouvoir créer des titres directement dans la fenêtre Programme et … 2019 pour pouvoir changer la police d’un modèle de titre ! Pour autant, les développeurs semblent cette fois-ci avoir pigés qu’il fallait faire un peu mieux pour se maintenir à flots. On a donc affaire à un logiciel qui se simplifie un peu et qui surtout voit ses fonctionnalités se développer. Voilà ce qu’il faut retenir.

Adobe corrective correction

La short-list des nouveautés

  • La révision du panneau Lumetri qui se voit doté d’un correcteur sélectif de couleur après la fonction d’auto-matching entre deux plans (2018).
  • Les nouveaux outils ultra simples pour réparer l’audio (reverb, souffle…) avec de simples curseurs.
  • La possibilité de changer les polices des « motion graphic templates » directement dans Premiere. Ainsi que le support des images vectorielles (ce qui évite de perdre de la résolution quand on zoome).
  • Les supports des outils VR se développent.
  • L’arrivée d’Adobe Rush, un logiciel de montage sur tablette/téléphone/Mac/PC: il s’agit d’un programme d’une simplicité absolue, mais qui est capable de transmettre tout un montage via le réseau… et d’être repris par Premiere.
  • Une fonction auto-save qui sauve tous les projets ouverts (et pas simplement celui qui est actif).
  • Et, ça peut sembler anecdotique, mais quand on appuie sur ESC, on désélectionne tous les éléments de la time-line…

Premiere Rush CC, ça sert à quoi ?

Adobe rush splash

Premiere Rush, c’est une nouvelle application qui s’inscrit en amont ou indépendamment de Premiere Pro. L’idée, c’est de coller à la tendance du tout téléphone et de pouvoir monter ultra facilement depuis un périphérique nomade : ordinateur portable, mais aussi iPhone, iPad (et bientôt Android)… Bref, ça marche partout, sur tout et surtout, après avoir suivi le tutoriel d’une minute, je crois qu’un enfant saurait s’en servir. Surtout, le logiciel est connecté au Cloud. Autrement dit, un journaliste peut maquetter son travail sur place, pendant que le monteur récupère et affine le montage sur Premiere Pro à distance. Premiere Rush est aussi capable de travailler tout seul et bien sûr, de publier sur tous les réseaux sociaux. Testé sur un iPad Air plutôt ancien, ça marche sans difficulté. Sans être fondamentale, cette application montre qu’Adobe offre des outils de plus en plus orientés vers la possibilité de collaborer à distance, mais aussi qu’il peut s’adresser à de parfaits débutants. Plutôt réussi donc. On peut même envisager, à termes et à l’aube de la 5G, d’utiliser Rush comme passerelle avec des images 4K, par exemple.
Rush interface

Lumetri: améliorations salutaires

Lumetri, c’est le panneau spécifique d’étalonnage (color grading) de Premiere Pro. Au départ, il était un peu en avance sur son temps, mais il a très vite été surpassé par les fonctions de Resolve. Adobe semble l’avoir compris et apporte des fonctionnalités salutaires. Dans la dernière version, on avait déjà eu droit à « l’auto-matching » des plans (on sélectionne un plan de référence et le second est automatiquement étalonné pour lui correspondre), et cette fois-ci Adobe ajoute enfin la correction sélective par couleur. Qu’est-ce que ça veut dire ? Que l’on peut se dispenser de la pénible correction sélective secondaire TSL (HSL) (efficace, mais dure à manipuler) pour n’agir que sur une plage de couleurs ou de luminance. Exemple, je sélectionne une couleur et je peux en changer la teinte, la luminance, la saturation. En tout, ce sont donc 6 outils qui sont ajoutés.

 

PPRO_Lumetri_02

Ici, on a simplement joué sur « teinte contre teinte » (Hue Vs Hue) pour changer la couleur du passage piéton. Puis on a joué sur « saturation contre saturation » (Sat Vs Sat) pour renforcer le rouge du bus.

PPRO_Lumetri

Ici, j’ai ajusté les skin tones avant d’empiler un autre effet Lumetri pour faire ressortir le débardeur.

D’autre part, on peut enfin « stacker » (empiler) les Lumetri en leur donnant un nom particulier pour ne pas se perdre. On peut ainsi créer des « sets » de préconfigurations qui seront fort utiles pour l’étalonnage en série (skintones/sky/Shadows…). Malheureusement, il demeure impossible d’attribuer les préconfigurations enregistrées à un seul projet : elles s’ajoutent de manière globale et il faut donc fréquemment « nettoyer » les Presets. Car évidemment, on crée ces « sets » en général pour un usage unique.

Les outils de nettoyage audio: la vraie bonne idée

L’audio, c’était à la fois un des points faibles et un des points forts de Premiere Pro. Faible, parce que rien n’y était ergonomique mais aussi un point fort, parce que quand on souscrit à l’offre Creative Cloud, on a aussi droit à Audition, After Effects, etc. et Audition est un logiciel extrêmement puissant. Problème, cela demande la maîtrise des deux logiciels et ça n’a presque rien à voir. Du coup, Adobe a introduit un panneau « Amélioration audio essentielles » (Essential Sound Repair). Et c’est réussi puisque tout y est en effet « essentiel » et contrôlable par de simples curseurs sans avoir besoin de la moindre compétence. On sélectionne l’audio, on choisit s’il s’agit d’un dialogue, de musique, etc. et ensuite, libre à vous de corriger le bruit de fond, le souffle, la reverb… En ajustant les glissières. Facile et efficace pour un résultat instantané. J’adore aussi la fonction d’ajustement automatique du volume qui permet d’harmoniser les différents dialogues. Le seul inconvénient, c’est que le traitement semble rallonger le temps d’export des films. D’autre part, pourquoi ? Mais alors pourquoi, sur l’audio, Adobe ne rajoute-il pas un bouton de lecture en boucle sur une durée paramétrable ? Pour caler l’audio, il faut entendre et réentendre. Du coup, la seule solution est de mettre un point In et un Out dans la fenêtre Programme et d’activer la lecture en boucle dans le Programme. Perte de temps.

PPRO_Audio_essential_repair

le panneau permet d’ajuster très simplement l’intensité et le type de réparation.

Titrage et motion design: du bon et du moins bon

Le panneau des « objets graphiques essentiels » (Essential graphics pannel) est apparue en 2017. Personnellement, même si elle permettait enfin « d’écrire un texte » dans la fenêtre Programme, je ne l’ai jamais trouvée ergonomique: les paramètres y sont limités, il y a doublon avec les Options d’effets, la gestion des bibliothèque est calamiteuse, tout autant que la gestion des fichiers Templates (*.mogrt) entre Premiere et After Effects. Exemple, vous achetez des templates « mogrt », mais vous ne pouvez pas les modifier directement dans After Effects, si vous désirez changer des paramètres comme la police de caractère. Pire, ces Templates utilisant très souvent des « expressions » en anglais, si vous avez un After en allemand ou en français, il y a de fortes chances que ces Templates ne marchent pas, Adobe n’ayant toujours pas trouver le moyen d’uniformiser les expressions d’une langue à l’autre. Bref, c’est indispensable et à peu près utilisable, mais ce n’est pas heureux. Sur cette version, on progresse: la police est enfin modifiable, Premiere prend en charge les fichiers vectoriels, et l’interface se rationalise. Donc, c’est mieux. Pour autant, pourquoi avoir attendu si longtemps pour changer de police alors que c’est juste le paramètre le plus basique pour coller à la charte graphique d’un client ?

PPRO_EG01

Dans After Effects, on peut enfin rajouter la police de caractère comme Propriété modifiable

…Ce qui permet à Premiere d’avoir enfin des titres vraiment personnalisables

Et pour conclure: les perfs ? le bilan ?

Je monte sur Premiere depuis la version 5.1. Je ne l’ai pas quitté car malgré ses défauts, il demeure une sorte de mixeur géant qui, édition après édition, progresse et prend -presque- tout en charge, quelle que soit la machine. Sur ma machine de test (un PC avec 64 Go de RAM, mais qui a 3 ans), les performances de cette nouvelle version sont à peu près équivalentes à l’ancienne (2018) mais avec plus de robustesse : sur le montage d’une conférence de 3h30, je n’ai eu aucun souci. En revanche, le traitement de l’audio réclame un peu plus de temps puisque naturellement, on va se servir des nouveaux outils. Bref, je suis assez satisfait, mais je reste toujours un peu sur ma faim : j’aimerais une  gestion des données plus transparente (quand on duplique un élément, il s’y ajoute toujours l’attribut « copié01 » plutôt qu’une simple numérotation, on passe sa vie à chercher des sources de presets…), une ouverture plus simple aux plugins tiers (comme pour FCP X et Resolve…). Bref, que Premiere soit réellement relifté.
Reste que Premiere Pro, inscrit dans la suite Adobe avec Photoshop/After/Audition, est absolument capable de tout faire et que dans ce domaine, il est un peu le seul : ailleurs, il faut exporter, remplacer, ou utiliser des EDL et des XML: Resolve a intégré Fusion au sein de la même interface, mais on reste encore loin des possibilités offertes ici en termes de montage « pur ». Bref, Premiere Pro reste une référence qui semble sur la voie de la modernisation avec l’arrivée de Rush.
Mais s’il vous plait, faites vite.

L’article Premiere Pro ’19 et Adobe Rush : un bon millésime ? est apparu en premier sur Createinmotion.

Les « Scopes » (Histogramme, Waveform…): comment s’en servir? Et pourquoi?

Par Sébastien François

En tournage ou en post-production, les « scopes » sont des outils dont il faudrait se servir au maximum. Problème, ils sont durs à décoder: quelle assistance afficher et surtout, dans quel but? Histogramme ou forme d’ondes? Autant de questions que nous allons traiter, outil par outil. Car leur aide est précieuse et vont au delà de ce qu’on « voit » à l’écran.

En tournage télé, vous verrez toujours un « ingénieur vision » accroché à son pupitre de contrôle, à déchiffrer des moniteurs qui affichent des formes d’ondes, des sinusoïdes et d’autres affichages qui font plus penser aux instruments de lancement d’une fusée Ariane, qu’à une image vidéo. Ce sont ces outils qui lui permettent de tout corriger pour envoyer une image parfaite. Ces outils, on les retrouve pourtant partout: sur les caméras tout comme dans tous les logiciels de montage. Pourquoi? Parce qu’ils sont les seuls à analyser tous les pixels d’une image sur la base de signaux électriques, bien au delà de ce qu’on peut voir dans le cadre caméra, avec notre « simple » vision. Les conditions de tournage (luminosité, nécessité d’être rapide…) peuvent laisser échapper des détails. D’autre part, il se peut très souvent que le moniteur utilisé ne soit pas bien calibré et rende donc des couleurs ou une exposition erronée. Pour toutes ces raisons, on va tenter d’utiliser ces outils au tournage et en post-production pour éviter les erreurs, ou pour étalonner correctement.

Mais tout d’abord, une parenthèse théorique

additive model subtractive model

Le modèle de couleur additif, comparé au modèle soustractif.

Ici on voit les deux grands modèles de couleurs. A gauche, le modèle RVB (Rouge, Vert Bleu), dit additif, utilisé par tous les écrans, les télés, bref, tout ce qui produit de la lumière. Et à droite le système soustractif utilisé pour l’impression (la lumière est « reçue » par le support). Dans ce dernier cas, si on mélange toutes les couleurs primaires (Cyan, Magenta, jaune), ça nous donne du noir sur le papier. A l’inverse, pour l’imagerie « électronique », si on additionne l’électricité des primaires, on obtient le plus de courant possible: ce qui nous donne le blanc absolu. C’est un peu comme allumer un ampoule au maximum de sa puissance. Et quand il n’y a pas de lumière, on a zéro volt, donc du noir. Pourquoi évoquer ce modèle? Parce que c’est pour comprendre que dans toutes les représentions des outils dont nous allons parler, tout sera basé sur une quantité d’énergie. C’est cette quantité, qui sera parfois segmentée en couleur, qui sera interprétée graphiquement pour nous aider.

1- L’histogramme: le plus connu mais peut être le moins utile

Histogram-explanation_01

L’histogramme ne concerne que la luminance d’une image. Source « B&H photo video »

L’histogramme, c’est la représentation du nombre de pixels (axe vertical) situés dans un zone de luminance, de gauche (le noir) à droite (le blanc). Pour résumer donc, si vous voyez une grosse montagne à droite, votre image sera très claire. Côté gauche, elle sera très sombre. Et si la montagne a un sommet plat, c’est que vous avez du blanc ou du noir absolu. Problème, cette représentation n’est pas en corrélation avec la composition de votre cadre: si votre zone surexposée est en haut de votre cadre (un ciel par exemple), la montagne sera toujours à droite de l’outil, ce qui rend son interprétation assez délicate pour transposer vos éventuelles corrections. Regardez si dessous, ces deux exemples:

Histogram-explanation_0.

L’image est surexposée

 

Histogram-explanation_02

L’image est plus équilibrée.Comme elle demeure très blanche, la majorité de la représentation reste sur la droite: mais on devine les rideaux (au milieu), et le jeans à (gauche) de la représentation.

Il faut donc tenter de ne pas avoir de « sommets plats », et essayer d’avoir un répartition la plus homogène possible.

2- Le moniteur de forme d’ondes (luminance): l’outil le plus polyvalent

Le moniteur de forme d’onde, c’est un peu un super-histogramme, avec deux différences majeures qui le rendent bien plus efficace. Tout abord, c’est l’image qui est représentée de gauche à droite (c’est à dire le vrai cadre) et d’autre part, l’échelle de l’axe Y à gauche (vertical), va représenter la valeur de luminance. A 0 c’est noir, à 100, c’est blanc (sans rentrer dans les détails d’espaces colorimétriques ou de types d’afficheurs). Pour mieux comprendre, regardez cette image:
C:\Users\Windows\Desktop\CiM\Scopes_Docs\02_Waveform_luminance_01.png

Elle est surexposée à gauche du cadre. On retrouve donc bien l’indication de cette surexposition sur le moniteur de forme d’ondes, là encore à gauche, puisqu’on atteint les 100 IRE (Institute of Radio Engineers, qui a défini la norme). Ce qui n’était pas aussi visible lors du tournage. En revanche, pas de problème avec les noirs sur toute l’image. Regardons maintenant, une image mieux exposée:
02_Waveform_luminance_02

Ici, on a récupéré les fenêtres du bâtiment de gauche. Il n’y a plus, dans l’image, de « pixels brulés ». On doit donc utiliser cet outil très facilement « interprétable », pour contenir les valeurs d’exposition entre la barre haute et le bas. Mais il y a plus fort, car cet assistance peut aussi être utilisée avec en couleur.

3- Le moniteur de formes d’ondes RVB (RVB  Waveform Monitor): l’expo ET la balance!

Prenons notre moniteur de forme d’ondes en luminance et ajoutons lui de la couleur. Autrement dit, il va afficher les quantités de rouge, de vert de bleu, suivant la même échelle. Ceci va donc nous permette de voir très facilement si une couleur est surreprésentée par rapport à une autre. Mais aussi de juger, comme précédemment, de l’exposition. L’échelle de l’axe Y étant la même, on ne peut pas dépasser le « 100 » symbolique. Encore une fois, regardons cette image:

03_Waveform_RGB_01
On voit que le rushe présente une dominance rosée dans les blancs. Le phénomène est bien plus visible sur le moniteur de forme d’ondes RVB: les murs constituent le plus gros défaut, puisqu’ils sont sensés être blancs. On constate une surreprésentation du rouge. De même que l’image est en fait surexposée. Regardons la version corrigée:

03_Waveform_RGB_02

Ici, ce qui est sensé être blanc, sur le mur de gauche, montre des valeurs RVB qui se confondent. C’est normal, l’addition des trois couleurs primaires donne le blanc, d’où le modèle « additif » dont nous avons parlé. L’escalier, marron, montre « plus de rouge » (normal, puisqu’il est marron), et le mur de droite affiche lui aussi correctement les RVB confondus, d’où le blanc. A noter qu’on peut aussi afficher ces valeurs sous formes de « parade »: c’est à dire, les trois couleurs primaires côte à côte comme le montre cet exemple:
03_Waveform_RGB_03
On peut donc doser parfaitement les trois couleurs pour obtenir une image parfaite.

 

4- Les fausses couleurs (false colors): mieux que les zébras!

On pourrait comparer les « fausses couleurs » à une camera thermique, sauf que l’outil va réagir à l’exposition (luminance) et non pas à la chaleur. Contrairement aux zebras qui « rayent à l’image » tout ce qui dépasse un valeur IRE que vous aurez déterminée, les fausse couleurs, vont suivre une échelle. Le rouge montrera par exemple tout ce qui dépasse 100 IRE, mais vous aurez droit à toutes les nuances, et vous pourrez vous en servir notamment pour l’exposition des tons chair (Skin tones). Examinons cette exemple: 04_Falsecolors_01

Comme on le voit, l’image est brûlée, elle est rouge dans sa grande majorité et tous les détails sont perdus. Plus important, faute de dynamique, on peut décider de préserver le visage du sujet. Mais il est aussi surexposé alors que les tons chairs devraient être entre 40 et 50 IRE (vert): c’est la différence avec les zébras qui n’auraient montrés que le ciel brulé. Ici, on a droit à une échelle de valeurs.

04_Falsecolors_02

Voilà la version corrigée: on retrouve les détails de la ville en contrebas et surtout, le visage du modèles n’a plus de zones rouges. Les fausses couleurs permettent d’avoir une très bonne visualisation graphique de l’exposition. C’est un des outils les plus simples. Malheureusement, la fonction est rarement disponible sur les caméras à moins de toucher le haut de gamme (VariCam…). Mais tous les moniteurs externes (SmalHD…) en disposent.

5-Le Vectorcope: pour les couleurs… et les visages!

C’est un outil précieux est assez unique: il va se concentrer sur la saturation des couleurs en oubliant complètement toute forme de luminance. Les différentes teintes sont représentées autour d’un « cercle ». L’affichage des couleurs ira du centre (zéro saturation) vers l’extérieur (100% de saturation, à la limite de l’outil) suivant un angle donné par les couleurs. C’est un peu comme une boussole de marin, avec un attribut de « puissance ». Mais l’intérêt est ailleurs: les teintes chairs (skin tones) ont toutes la même référence, avec un angle bien précis qui est affiché par le vectorscope. Du coup, il devient très simple de bien valoriser un visage en rapprochant les valeurs de cet angle précis, symbolisé par une ligne. Regardez les exemples ci-dessous, volontairement faussés pour la compréhension.

05_Vectorsope_01

Ici, l’image est magenta et s’éloigne de la ligne à -40°(environ)-(entre le rouge et le jaune), il est évident que les skintones sont mal rendus… Mais sur l’exemple ci-dessous…
05_Vectorsope_02

…On arrive à un rendu parfait des tons chairs, simplement en se fiant à l’outil.

 

 

 

L’article Les « Scopes » (Histogramme, Waveform…): comment s’en servir? Et pourquoi? est apparu en premier sur Createinmotion.

Satis 2018: rendez-vous les 6&7 novembre

Par Sébastien François

Le Satis – Screen4all, c’est notre grand messe vidéo à nous, les Français pour venir découvrir les dernières nouveautés en termes de matériels, de services, mais aussi de technologies. Et c’est pour tout de suite: rendez-vous mardi et mercredi prochain aux Docks de Paris. Panasonic sera bien sûr présent, dock Pullman, stand B40.

Le Satis revient en force avec plus de 150 exposants, pas loin de 50 conférences thématiques et du coup, l’année dernière, vous étiez plus de 12000 à vous être déplacés pour visiter. La salon est le seul rendez-vous français qui regroupe tous les acteurs de la chaine de production. Vous aurez aussi droit à une vingtaine de Workshops et 6 Keynotes.

Satis_chiffres_Clés2017

Côté Panasonic: la nouvelle UE150 et son pupitre RP150, le mélangeur multimédia HLC100 et la gamme Cinéma

Sur le stand Panasonic, vous allez pouvoir découvrir toute la gamme de production Live (nouvelle PTZ 4K/50P, pupitre de contrôle avec écran tactile, nouveau mélangeur multimédia…) et bien sûr la désormais célèbre EVA1 (qui vient d’être mise à jour en version 2.53). C’est aussi l’occasion de rencontrer toute la team France et poser toutes les questions possibles.
RP150_02

Et pour les infos pratiques?

La stand Panasonic se trouve dans le dock Pullman (B40). Pour vous y rendre et vous inscrire, vous trouverez toutes les infos pratiques sur le site du Satis:  http://www.satis-expo.com/fr/
plan_Satis

 

L’article Satis 2018: rendez-vous les 6&7 novembre est apparu en premier sur Createinmotion.

#EVA1 // Mise à jour 2.53: Sortie 2K RAW améliorée

Par Sébastien François
30 octobre 2018 / version 2.53

Cette nouvelle révision du firmware permet d’augmenter la qualité de la sortie RAW en 2K. Voici le lien de téléchargement:

https://eww.pass.panasonic.co.jp/pro-av/support/content/download/EN/ep2main/soft/upgeva1_e.htm

30 mai 2018 / version 2.50.

Après la version 2.02 qui autorise la sortie RAW 5.7K et l’enregistrement ALL-I, cette nouvelle mise à jour atténue encore plus le bruit généré en basse lumière avec l’ajout d’un mode SMOOTH qui va lisser les zones d’ombre. L’EVA1, comme les VariCam étant déjà extrêmement performantes en basse lumière, cette mise à jour vient encore accentuer cet avantage. Voilà la liste, traduite de l’anglais des nouveautés:

Ver. 2.50:

Nouvelles fonctionnalités
Amélioration de la réduction du bruit dans des conditions de faible luminosité
Le paramètre « SMOOTH », qui réduit encore plus le bruit que « NR », est ajouté au menu « NOISE REDUCTION » (NR).
De plus, le nom du menu passe de « NR » à « NOISE REDUTION. Cette fonction est accessible via: RÉGLAGES CAMERA
RÉDUCTION DU BRUIT (ou NOISE REDUCTION)
ISO800/ISO2500 : SMOOTH, NORMAL2, NORMAL1, NORMAL1, OFF
(Le réglage d’usine par défaut est OFF.)

Objectifs supplémentaires compatibles:
Objectif Canon CN-E

Autres objectifs compatibles:
Canon
EF 24-105mm et F4L IS Ⅱ USM USM
EF-S 17-55mm F2.8 IS USM IS USM
TAMRON
SP 35mm F/1.8 Di VC VC USD
SP 90mm F/2.8 Di MACRO 1:1 VC USD

Améliorations
– Le réglage par défaut du mode FOCUS EXPAND est changé de « HOLD » à « 10SEC ». (Pour empêcher les utilisateurs de croire que leur appareil fonctionne mal lorsqu’ils sont simplement en mode EXPAND).
– Amélioration de l’affichage du menu COLOR SETTING. La numérotation des fichiers inclut aussi le SCENE FILE utilisé.
– Il se peut que l’IRIS d’un objectif donné ne fonctionne pas avec les réglages fps à grande vitesse (VFR). Ce problème est résolu sur les optiques: Canon EF17-40mm F4L F4L USM
75 fps ou plus (frame rate) à 50 Hz (fréquence du système)
90 fps ou plus (frame rate) à 60 Hz (fréquence du système)

Le firmware est à télécharger ici.

Suivre Panasonic

L’article #EVA1 // Mise à jour 2.53: Sortie 2K RAW améliorée est apparu en premier sur Createinmotion.

AJ-PX270 update – Version 36.72

Par Sébastien François

30 octobre 2018 / Version 36.72

La mise à jour gratuite du firmware pour la série AJ-PX270 P2 ajoute de nouvelles fonctions et améliore le flux de production de la caméra comme suit :

  • Le streaming QoS avec le récepteur de streaming TVU Networks Streaming Receiver est pris en charge. (La dernière version de TVU Streaming Receiver est supportée.)
  • (Pour le marché australien) La caméra ne pouvait pas se connecter au Wi-Fi en utilisant D-Link DWA-171. Ce problème est résolu.
    Le registre Channel Plan (informations sur connexion de destination) du dernier dongle est pris en charge.
  • (Pour le marché américain) La caméré ne pouvait pas se connecter au réseau LTE en utilisant Verizon USB730L. Ce problème est résolu.
    Le réseau I/F du dernier dongle est supporté.
  • Un échec de connexion se produisait lors de l’appui répété du Start et Stop via P2SS en streaming local. Ce problème est résolu.

Lien de téléchargement : https://eww.pass.panasonic.co.jp/pro-av/support/content/download/EN/ep2main/soft/upgpx270_f.htm

 

05 Avril 2018 /  version 36.54-00-00-00-00-00.
Ce dernier firmware corrige un bug de timecode qui se produisait parfois au redémarrage de l’appareil. Ce firmware permet aussi de supporter le protocole RTMP afin de transmettre directement l’enregistrement sur les plateformes de streaming. Il faut utiliser le « P2 Network Setting Software » pour celà.

La mise à jour

La procédure d’installation

Le manuel utilisateur

 

L’article AJ-PX270 update – Version 36.72 est apparu en premier sur Createinmotion.

GH5 & GH5S (version 2.4 & 1.2): autofocus encore amélioré

Par Sébastien François
23 octobre, 2018

Veuillez trouver les derniers liens de téléchargement pour les boitiers GH5 & GH5S qui passent en version 2.4 et 1.2. On retiendra principalement une amélioration de l’autofocus. Voici les infos données par Panasonic

  1. Amélioration de la performance de la mise au point automatique
    – Dans certains cas, l’autofocus faisait le point sur l’arrière-plan lors du suivi du sujet en mode AFC. Le nouveau firmware minimise ce problème.
    – Dans certains cas, l’autofocus faisait le point sur l’arrière-plan pendant le suivi du sujet en enregistrement vidéo. Le nouveaufirmware minimise ce problème.
  2. Amélioration de l’opération d’enregistrement vidéo
    – La fonction[One Push AE] ne fonctionnait pas lorsque[SS/Gain Operation] est réglé sur[ANGLE/ISO] pendant la prise de vue en mode Creative Video M. Ce bug a été corrigé.
  3. Correction d’un bug du Time Code
    – Dans certains cas, le code temporel était réinitialisé lorsd’un chagement de batterie. Ce bug a été corrigé.
  4. Amélioration du fonctionnement 6K PHOTO/4K PHOTO

Lien de téléchargement GH5
Lien de téléchargement GH5S

…Et un test rapide produit par Cinema5D
;

30 mai 2018 / version 2.3 & Version 1.1. Ce dernier firmware ajoute un ensemble de fonctionnalités et améliore les performances de l’Autofocus. La liste est déjà évoquée dans cet article

Les mises à jour pour les deux boîtiers

La procédure d’installation (en bas de page)

Le manuel utilisateur pour le GH5

Le manuel utilisateur pour le GH5S

 

 

L’article GH5 & GH5S (version 2.4 & 1.2): autofocus encore amélioré est apparu en premier sur Createinmotion.

VariCam / EVA1: 35 LUTs gratuites à télécharger

Par Sébastien François

Panasonic met à disposition gratuitement une bibliothèques de 35 LUTs (Look Up Table) pour exploiter le V-Log de sa caméra cinéma. Ces LUTs permettent de servir de base à un futur étalonnage. Elles sont aussi compatibles avec l’EVA1.

Des LUTs, on en trouve des milliers sur la toile, et à destination de toutes les caméras. Ces « fichiers » que l’on va appliquer en post-production, permettent d’interpréter les images tournées en Log afin de les étalonner en générant tel ou tel « Look ». Une LUT de base en revanche, comme la V-Log / Rec 709 va générer une image la plus neutre possible en matchant l’espace de couleur REC709, afin d’être étalonnée ultérieurement.
Oui mais voilà, si n’importe qui peut générer une LUT depuis un logiciel de montage, et même en ligne, elle ne tient en général pas compte des caractéristiques des caméras. Autrement dit, pour faire simple, le « créateur » prend une image donnée, effectue un étalonnage et génère une LUT, souvent très flatteuse. Et cette LUT ne marchera que sur la même caméra, et dans les mêmes conditions de lumières sous peine de générer du bruit, de décaler les couleurs… C’est la différence entre les LUTs professionnelles et les LUTs amateurs. C’est pourquoi Panasonic a créé un bibliothèque de LUTs (plus de 30!) pour sa gamme Cinéma en tenant compte de toutes les caractéristiques des VariCam et de l’EVA1.

Des LUTs à gogo

Varicam LUT Library - https___info.panasonic.com_varicam-LUT-library.html

Plus de 30 LUTs disponibles !

Pour les télécharger, rendez-vous sur : https://info.panasonic.com/varicam-LUT-library.html . Vous trouverez en ligne un simulateur pour tester le rendu des images, mais aussi les fichiers .cube à utiliser en post-production et les fichiers .vlt à charger dans votre caméra pour une prévisualisation en direct (ce qui permet de gérer l’exposition de vos images).
En bonus, et pour essayer, nous avons chargé ces LUTs (non adaptées donc) sur un GH5s: elle fonctionnent de manière très variables, mais donnent des résultats assez étonnants. Pour ce faire, il suffit de renommer les fichiers en utilisant moins de 8 caractères.
Concernant l’EVA1, voici un petit tutoriel produit par Abelcine pour vous aider à les exploiter dans les « SCENE FILE » de la machine:

Même s’il est en anglais, il vous suffit de suivre les opérations dans les menus pour bien comprendre la manipulation. Abel Ciné propose aussi 14 Scene Files à télécharger.

 

L’article VariCam / EVA1: 35 LUTs gratuites à télécharger est apparu en premier sur Createinmotion.

Panasonic au Wildscreen Festival et au Media Tech Days

Par Sébastien François

Si vous passez par le Royaume-Uni dans les prochaines semaines, faites un tour par Bristol et Londres. Panasonic participe au Wildscreen Festival (Festival consacré au documentaire animalier) et au Media Tech Day. L’occasion de découvrir la gamme VariCam et d’échanger.

Le Wildscreen Festival, c’est du 15 au 19 octobre prochain. Il s’agit du point de rencontre de tous les réalisateurs de documentaires animalier et c’est surtout l’occasion d’assister à des projections uniques. Depuis ses débuts, la VariCam a été très souvent utilisée sur ces tournages si particuliers, parce qu’elle fut la première caméra à pouvoir effectuer des ralentis et surtout que sa robustesse était à toute épreuve. Ce qui lui vaut donc une excellente réputation. L’animalier utilise très souvent les nouvelles VariCam (grâce notamment, à la fonction de Dual-ISO) mais aussi la nouvelle EVA1 et la gamme des hybrides GH. Toute une gamme de produits ultra-robustes et très adaptés aux conditions de tournage extrêmes. Venez donc rencontrer la Team Panasonic et participez au séminaire avec Hector Skevington-Postles, (série ‘Big Cats’ pour la BBC NHU), le mercredi.

Big cats BBC

La série « Big Cats », diffusée sur la BBC

Pour vous inscrire et trouver toutes les infos, c’est ici.

Le Media Tech Day à Londres: découvrir toute la gamme VariCam

Si vous passez par Londres le 1er Novembre, faites un détour par le Ham Yard Hotel. Panasonic présentera la gamme complète VariCam et l’EVA1. Rupert Cobb animera aussi un séminaire sur son utilisation de l’EVA1 et de la VariCam LT à propos d’une nouvelle série révolutionnaire sur laquelle il travaille actuellement. Les inscriptions sont maintenant ouvertes et la participation est gratuite.
05_VaricamLT_onShoulder-1030x860

Toutes les infos sont ici

 

L’article Panasonic au Wildscreen Festival et au Media Tech Days est apparu en premier sur Createinmotion.

IBC 2018: PTZ 4K/50P, 8K ROI et toutes les nouveautés Panasonic

Par Sébastien François

Sur IBC cette année, derrière la thématique « Live, Sports, Entertainment », voici tout ce que vous allez pouvoir découvrir sur le stand Panasonic. Les  dernières innovations en termes de technologies (8K Region Of Interest, première PTZ 4K/50P, nouveau camescope P2 HDR…), sont bien présentes. Mais l’accent est aussi mis sur toutes les solutions d’automatisation de production (robotique, tracking, réalité augmentée…).

IBC_2018__2

AW-UE150: la première caméra PTZ 4K/50P / Nouveau pupitre de contrôle RP150

Comme nous l’avions évoqué dans cet article, la nouvelle caméra PTZ (Pan, Tilt Zoom) UE150, sera présentée. Pour mémoire, cette caméra est unique au monde et permet, grâce au capteur 50P, d’effectuer des mouvements bien plus rapides (et donc sans saccades à la diffusion). Voici aussi l’ensemble de ses fonctionnalités exclusives:

  • Angle du vue de plus de 75° (ce qui est unique) et zoom optique 20X
  • Capteur 1 pouce et stabilisation optique
  • Nouvelle interface Web pour le contrôle et le paramétrage
  • Possibilité de produire 3 angles différents en HD à partir du capteur 4K
  • Connectique 12G-SDI, Fibre, HDMI, IP
  • Possibilité de sortir simultanément un flux 4K et un flux HD
  • Nouveau contrôleur RP150 doté d’un écran de contrôle LCD
  • Disponibilité : Décembre 2018, prix conseillé : 11.000 euros HT (AW-UE150), 4500 euros (RP150)
  • Plus d’informations: https://business.panasonic.fr/camera-professionnelle/cameras-robotisees-PTZ/AW-UE150

RP150_02 UE150_BK_slant_left(CG)

ENG: La nouvelle caméra AJ-PX5100 apporte l’enregistrement HDR en 50P

Cette nouvelle caméra d’épaule succède à la célèbre PX5000, destinée aux documentaires et à  l’ENG. Panasonic ajoute sur ce modèle l’enregistrement HDR en Full-HD 50P. Le constructeur a aussi développé la connectivité filaire et sans fil avec le support du protocole RTMP faible latence. Ceci permet à cette caméra de transmettre des images en régie quasi-instantanément pour accélérer les opérations de montage . Voici les spécifications principales:

  • Capteur 3MOS 2/3′ Full-HD, poids 3,4 Kg, monture B4
  • Enregistrement sur support P2 HD HDR 50P
  • Support RTMP faible latence (Low Latency)
  • Connectivité Wi-Fi, USB, Gigabit Ethernet
  • Compatibilité réseaux LiveU, TVU, mais aussi le service cloud de Panasonic, P2 Cast
  • Codec AVC-Ultra
AJ-PX5100_slant_full_RGB2

La nouvelle AJ-PX5100

8K ROI: 4 caméras en une!

Panasonic se sert aussi d’IBC pour faire la démonstration d’une technologie unique, la 8K ROI pour Region Of Interest. A partir d’une caméra 8K, un processeur va permettre de choisir jusqu’à 4 angles de caméra en HD, à l’intérieur de l’image. Ces régions sont totalement customisables et le système corrige en temps réel toutes les aberrations optiques afin de délivrer des images totalement naturelles. Mieux, plusieurs caméras peuvent être intégrées et programmées en fonction de l’évènement, le tout au sein d’un seul et unique système contrôlé par l’opérateur, ce qui réduit drastiquement les coûts de production. Le système sera disponible dès l’été prochain.
Panasonic 8K Caméra
8K ROI-02
Le constructeur présente aussi à cette occasion, sa technologie MoIP (Media over IP), un système qui permet de gérer tous les besoins de transmission en terme de bande passante et de scaling d’image. Le système permet aussi le pilotage à distance des périphériques de la chaine.

Automatisation: des tonnes de solutions

Autre grosse partie du stand Panasonic, les systèmes d’automatisation de production. Le constructeur japonais à noué de très forts partenariats avec des constructeurs tiers afin de proposer des solutions robotisées. Pour les découvrir vous pouvez regarder cette série de (courtes) vidéos qui présente les principales innovations dans tous les domaines: slow-motion, tête robotisée PTZ pour caméra de studio, système de rails et de pole-cam…

Et pour le reste? CineLive, VariCam…

L’ensemble de ces systèmes de production sera bien sûr épaulé par la partie cinéma du constructeur avec les VariCam/Eva1 qui seront adaptées à des configurations Live. « CineLive » est une solution qui permet de transformer les caméras en systèmes de studio pilotables à distance. Toutes les connectiques peuvent être déportées en régie par exemple. L’idée étant d’obtenir un rendu cinéma sur une configuration plateau, avec le même souplesse. La gamme supporte l’intégration avec le panneau de commande à distance AK-HRP1000. On peut aussi séparer le signal d’enregistrement en interne (utilisation du V-Log par exemple) et celui qui part en régie pour le Live.

fremont-studios-invests-in-varicam-lt-4k-2400

Retrouvez Panasonic dans hall 11, stand C45. D’autres évènements sont prévus tous les jours. Nous en avions parlé dans cet article.

 

 

L’article IBC 2018: PTZ 4K/50P, 8K ROI et toutes les nouveautés Panasonic est apparu en premier sur Createinmotion.

Panasonic IBC 2018: Production Live, Sports et divertissements

Par Sébastien François

Pour Panasonic cette année, c’est  « Live. Sports. Entertainment. » Sur les quatre zones du stand, vous allez découvrir un nouveau camescope ENG (P2), mais aussi des dizaines de nouvelles solutions de production: nouvelle PTZ, systèmes robotisés, nouvelles caméras de plateau, mélangeurs, réalité augmentée… Et bien sûr toute l’offre cinéma VariCam/Eva1. Petit aperçu.

IBC2018_Banner_Neu_1200x240_04_0

Le « Live entertainment Corner »: tout pour la production Live

Il s’agit de la zone les plus spectaculaire du stand Panasonic. Elle sera divisée en trois espaces: une grande scène (avec performances de danse et projection 4K toutes les heures), un espace pour les caméras et une salle de contrôle pour toutes les solutions de « Remote operation ». Ici seront présentés non seulement les nouveaux produits Panasonic, mais aussi toutes offres des partenaires du constructeur: elles s’étendent du bras robotisés (AR+), jusqu’au système de prise de vue haute vitesse (Antelope) en passant par la réalité augmentée (Brainstorm) ou encore les offres de rails pilotés par ordinateurs pour PTZ (Tecnopoint). Et bien d’autres solutions encore.
Areplus robotic arm Panasonic

Côté purement Panasonic, les nouveautés sont légion et toutes en démonstration. Vous pourrez vous familiariser avec :

  • La caméra PTZ AW-UE150 4K et le contrôleur AW-RP150 ainsi que toute la gamme de caméras pilotables à distance. Vous découvrirez  aussi les modèles compatibles NDI|HX en démonstration. Nous en avions parlé dans cet article.
  • Le mélangeur live AV-HS7300 ainsi que les caméras studio AK-UC4000, AK-UC3000, AK-HC5000 & AK-HC3800 et la box camera UB300.
  • La caméra AK-UC4000 avec la solution sans fil Vislink
  • Les EVA1 et Varicam LT sera montrées en configuration Cinelive pour un rendu cinéma directement en plateau et en live. L’EVA1 sera aussi pour la première fois équipée d’un système de Remote (CyanView RCP).
  • Les systèmes de réalité augmentée avec la solution Brainstorming en direct avec les caméras UE150 et UB300.
UE150 RP150_02

Le « Production Corner »: rencontres avec Matthias Bolliger & Ruppert Cobb

On retrouvera dans cette zone la gamme VariCam et EVA1, mais dans des configurations de production différentes: l’EVA1 sera montrée en monture PL et équipée d’une enregistreur ProRes RAW.
Toutes les caméras seront exposées avec une foule d’accessoires comme des transmetteurs HF, des écrans externes, des cages spécifiques…
Surtout les visiteurs pourront rencontrer les réalisateurs Matthias Bollliger et Ruppert Cobb et prendre en main les caméras avec eux.
Matthias Bolliger sera présent le vendredi 14 septembre de 14h à 15h30 pour une rencontre et une session de questions-réponses tandis que Ruppert Cobb prendra le relais le samedi 15 septembre de 13h à 15h pour un atelier de prise en main.

shoguninfernoeva1 Eva1-Pl-Mount DUAL ISO Varicam

« ENG Corner »: découvrez en exclusivité une nouveau camescope P2

PX270

La gamme Panasonic P2 (ici le camescope PX270) sera complétée par l’annonce d’une nouveau modèle. A découvrir pendant l’IBC 2018

La troisième zone du stand Panasonic vous permettra d’essayer toute la gamme de caméra P2 & ENG: on y trouve la PX270, la AJ-PX800, mais aussi la série UX180.
Surtout Panasonic va dévoiler cette année une nouvelle caméra P2 que vous pourrez découvrir en exclusivité sur l’IBC.

Technologie Corner: ce que le futur nous prépare avec la 8K

Sur cette dernière zone, vous allez pouvoir discuter avec les ingénieurs Panasonic qui préparent les technologie à venir. A commencer par une innovation unique, la 8K associée à la fonctionnalité ROI (Region of Interest). L’idée est d’utiliser une caméra 8K qui permet à un seul opérateur de générer jusqu’à 4 angles de caméras différents en HD! Autrement dit, une caméra = 4 caméras.
8K Roi

Et pour venir?

Panasonic se trouve dans hall 11, stand C45.

Panasonic Floor Plan IBC

Les journalistes peuvent s’enregistrer ici pour participer au pré-briefing qui se déroulera le vendredi 14 septembre de 10h30 à 11h30. Toutes les infos pour venir se trouvent sur le site de l’IBC. Pour mémoire, l’IBC, c’est presque 60.000 visiteurs et 1700 exposants.

Le reste de l’IBC…

IBC-2018-1024x519

  • Atomos démontrera la facilité d’utilisation du ProRes RAW avec FCPX, et aura, pour ce faire, une grande scène en association avec Soho Editors. Des conférences seront organisées tout au long du Show. Jim Marks, ambassadeur Lumix et qui travaille avec des EVA1, sera présent entre le vendredi 14 et le dimanche 16 septembre.  A 13h40 le vendredi, et 14h40 le samedi et le dimanche.
  • Cooke Optics présentera sa gamme d’objectifs /i Technology, y compris les objectifs très demandés comme les Cooke S4/i prime, qui permettent aux DSLR/Mirrorless/caméra Ciné d’enregistrer automatiquement les métadonnées de prise de vue (ouverture etc…). Cette fonction  marche à merveille avec la gamme VariCam. Les objectifs S7/i, miniS4/i, Anamorphic/i, Anamorphic/i, Anamorphic/i SF et les familles seront également exposés.
  • PAG présentera ses batteries ciné haut de gamme qui peuvent s’emboiter pour accroitre leur capacité. Disponible dans les formats V-Lock et Gold-Mount, les batteries combinent des capacités énormes pour une durée de fonctionnement plus longue. Elles sont adaptées à une consommation de courant plus élevée: ceci permet d’alimenter la caméra et d’autres accessoires simultanément. Un caméscope P2 et un EVA1 seront exposés avec les accessoires PAG.
  • Teradek présentera les plus récents systèmes sans fil sans délai de latence avec le Bolt XT, qui permet de transmettre des vidéos en temps réel à 1080p/60fps, et jusqu’à une distance de 3 Km. L’avantage est de permettre aux directeurs photo et aux caméramans de monitorer avec beaucoup de flexibilité sur un plateau de tournage.
  • White Light sera présent dans la « Future Zone » de l’IBC avec un studio virtuel équipé à la fois par un caméscope PX5000 P2 et la caméra de plateau UC3000 de Panasonic. Après avoir récemment travaillé pour la couverture en direct de la Coupe du Monde de la FIFA 2018 et les Jeux Olympiques d’hiver en Corée du Sud, la société démontrera l’ensemble des technologies disponibles.
  • Zeiss présentera ses objectifs CP.3 de plus en plus populaires, souvent associés à l’EVA1, ainsi que ses nouveaux objectifs XD qui transfèrent les métadonnées de l’objectif. Un vrai plus pour la post-production, car la fonction permet de corriger automatiquement le « shading » et la distorsion de l’objectif sans avoir à réaliser des tests préalables et créer de presets spécifiques.

 

 

L’article Panasonic IBC 2018: Production Live, Sports et divertissements est apparu en premier sur Createinmotion.

MAVIC 2 Pro & Zoom: une vraie caméra et des tonnes de nouveautés

Par Sébastien François

Deux ans après le Mavic Pro, DJI dégaine ses remplaçants: le Mavic 2 Pro embarque une nouvelle caméra 1 pouce tandis que la version Zoom conserve l’ancien capteur mais se voit dotée d’une focale variable optique X2. Mais les nouveautés sont loin de s’arrêter là: capteurs dans tous les sens, modes automatisés, changement de codec…Le tout pour un prix en nette hausse.

On l’attendait presque comme le messie. Et on s’attendait aussi à être un peu déçus tant le constructeur, à force de nouveaux modèles, pouvait échouer à surprendre. Las, DJI fait encore très fort en sortant de son escarcelle deux drones qui regroupent à eux seuls, ce qui se fait de mieux pour filmer en volant. Le tout, en conservant le concept du repliable qui a fait le succès du Mavic premier du nom.mavic-pro-2-03

Mavic 2 Pro: une vraie caméra, ouverture manuelle, 100 Mbps, H265…

Les déjà rares défauts que l’on pouvait reprocher au Mavic Pro sont tous corrigés. Le 2 Pro dispose d’une vraie caméra de 1 pouces (signée Hasselblad, très proche du constructeur chinois). Mais en plus l’ouverture (comme tous les autres paramètres) sont contrôlables manuellement: l’iris est réglable de f/2.8 à f/11. Ce n’est pas fini. Cette caméra sait filmer en 10 bits HDR et surtout, le codec passe de 60 mbps en H264 à 100 Mbps en H265, ceci pour garantir la fin des artefacts de compression sur les images complexes. On dispose aussi d’un D-Log pour filmer en Flat. La nacelle 3 axes est enfin renforcée et elle est prévue pour accueillir nativement les filtres ND.

MavicNDsystem

Le système de filtre ND se bloque par un quart-de tour.

Le retour vidéo passe en 1080P contre 720P avant (jusqu’à 8 Km de distance!).
La machine est aussi équipée de capteurs anti-collision sur toutes les faces, ce qui permet au 2 Pro d’anticiper les obstacles mais aussi de prédire une trajectoire quand il est en mode de suivi automatique (Active Track). Auparavant, il fallait un champ bien dégagé et contrasté pour que ça marche. Surtout, il ne fallait disparaitre du cadre derrière un obstacle sans quoi, le Mavic vous perdait.

mavic-pro-2-sensor

On voit ici la différence de taille de capteur entre l’ancien Mavic Pro et le 2 Pro

Revers de la médaille, le Pro 2 pèse maintenant 907 grammes et coûtent surtout près de 1500 euros. Du coup, en France, et même en utilisation « Loisirs », il faudra passer le nouvel examen en ligne pour avoir le droit de s’en servir, la limite étant de 800 grammes sans licence.

Mavic Zoom: dédié à l’animalier… Ou aux paparazzis!

La version Zoom quant à elle, est vendue moins cher (environ 1200 euros). Elle est cependant un peu moins attrayante selon nous, dans la mesure où on conserve la taille de l’ancien capteur de 1/2,3 » (on ignore si c’est le même). En revanche, on bénéficie d’un zoom X2 (optique 24-48mm) et X4 sans perte, si on tourne en HD (crop de la 4K) ainsi que d’un autofocus à détection de phase.

DJI a aussi ajouté un mode « Dolly Zoom », cet effet qui fait que le drone se rapproche d’un sujet tout en dézoomant pour donner un effet d’arrière plan mouvant. Un autre mode « super résolution » prend 9 clichés et les assemble automatiquement pour obtenir une image de 48 Millions de pixels. Ce drone est donc à privilégier pour l’animalier peut-être, ou pour la prise de vue de bâtiments dont on ne peut s’approcher.

Mavic-pro2-&-zoom

Les différences entre le Mavic Pro 2 et la version Zoom

Et pour le reste?

Encore une fois et au-delà des innovations purement techniques, DJI a mis le paquet sur les modes de vol automatisés et s’est attaché à encore améliorer l’ensemble du package. On retiendra:

  • 6 capteurs (tous les angles sont couverts, y compris au-dessus): on ne craint plus les obstacles en volant en arrière ou en in-door. Attention cependant, quelques modes de vol désactivent certains capteurs.
  • DJI ajoute aussi des lumières (LED) au-dessous pour qu’en cas de faible luminosité, pour que le drone sache identifier son endroit atterrissage.
  • Le mode « Tripod » très utile en cinéma (le drone est bridé dans tous les sens pour faire des mouvements lents et cinématique) est accessible directement depuis la télécommande (et pas seulement l’appli).
  • L’hyperlapse: le drone génère automatiquement cet effet suivant un parcours prédéfini par l’utilisateur (tout est paramétrable). Il en va de même pour la fonction Way-points qui passe en 2.0: on configure le vol sur une carte et Mavic suivra le parcours.
  • L’Active Track est prédictif en fonction des trajectoires: utiles pour filmer des automobiles sur un circuit par exemple.
  • On trouve des tonnes de mouvement de caméra pré-configurés (Orbit, Thiny-Planet, Course Lock… etc.)
  • L’autonomie est d’environ 30 minutes.

Alors, ça vaut le coup?

Soyons honnêtes, DJI propose à peu près ce qui se fait de mieux pour faire du cinéma aérien « accessible ». Remplacer le premier Mavic n’était pas chose aisée, mais les améliorations apportées justifient l’enthousiasme. Alors, que reprocher? Peut être l’absence de 4K/60P? L’augmentation du prix? Certes, si vous êtes possesseur d’un Mavic premier du nom, l’upgrade n’est pas forcément nécessaire. Mais la version 2 Pro offre une qualité d’image nettement supérieure et des fonctions qui sécurisent et automatisent toutes les prises de vue. On va pouvoir désormais facilement « matcher » les images du drone avec celles de « vraies » caméras comme des EVA1.

La page officielle du Mavic 2 Pro

…Et une prise en main du drone, en français par Steven.

 

 

 

L’article MAVIC 2 Pro & Zoom: une vraie caméra et des tonnes de nouveautés est apparu en premier sur Createinmotion.

💾

PTZ Control Center : contrôlez vos PTZ avec un PC – Mise à jour

Par Sébastien François

24 juillet 2018 – Version 1.1.10 : Panasonic met à jour son logiciel gratuit « PTZ Control Center ». Ce logiciel vous permet de contrôler autant de caméras que vous le souhaitez à partir d’un simple PC connecté au même réseau. Vous pouvez maintenant utiliser un manette de jeu pour gérer les mouvements des caméras.

Caractéristiques principales :
  • Gestion centralisée de plusieurs caméras PTZ
  • Les fonctions de panoramique, de tilt, de zoom et autres réglages de la caméra peuvent être contrôlées à partir de l’écran de l’interface graphique
  • Boutons de préréglage de la caméra avec vignettes (enregistrement de position/rappel/suppression, 9 mémoires maximum)
  • Réglage de la qualité d’image de la caméra
  • Contrôle simultané de plusieurs caméras (Focus/Iris/Gain/ Balance des blancs/Shutter/ND Filter)
  • Lancement de l’enregistrement sur carte SD (uniquement pour les caméras qui prennent en charge l’enregistrement sur carte SD)
  • Limite les fonctions par l’authentification administrateur
  • Copie les données de réglage entre plusieurs PC
  • Découverte automatique de la caméra et paramétrage du réseau
  • Affichage plein écran du streaming H.264 Ver. 1.1.1.10
  • Support des écrans tactiles Ver. 1.1.1.10
  • Zoom par pincement de l’écran tactile ou avec la souris Ver. 1.1.1.10
  • Commande du zoom avec la molette de la souris Ver. 1.1.1.10
  • Commande de caméra avec clavier Ver. 1.1.1.10
  • Contrôle du panoramique, de l’inclinaison et du zoom avec une manette de jeu (joystick USB) Ver. 1.1.1.10

Télécharger PTZ Control Center, logiciel gratuit

PTZ Camera Standalone

L’article PTZ Control Center : contrôlez vos PTZ avec un PC – Mise à jour est apparu en premier sur Createinmotion.

Produire des vidéos verticales (9:16ème): le guide

Par Sébastien François

Produire des vidéos verticales, ça peut sembler aberrant. Ou en tout cas, ça l’était. Oui, mais voilà, avec l’avènement d’Instagram et consorts, il est de plus  en plus fréquent pour les pros de devoir livrer des vidéos verticales… Avec du matériel « horizontal ». Petit tour d’horizon des techniques à utiliser.

1- Le contexte

Il y plus de 7 ans maintenant, une vidéo avait fait le tour de la toile avec plus de 8 millions de vues. Son nom « Vertical Video Syndrom ». L’idée des auteurs était de démontrer à quel point il était stupide de tourner en vertical alors que tout est prévu (notre champ de vision, les cinémas, les télévisions…) pour les regarder à l’horizontal. Las, entre temps, les choses ont énormément évolué avec la généralisation des smartphones et des plateformes sociales, consommées majoritairement sur téléphones.

Vertical_video_01

Cliquez pour voir la vidéo, en anglais.

Et comme chacun sait, un téléphone se tient à la verticale, d’où le fait que les gens tournent en vertical et regardent en vertical. Instagram ne s’y est pas trompé en introduisant le format « carré » (regardable dans les deux sens, donc) puis a poussé tous les utilisateurs à produire en vertical (photos comme vidéos) avec ses « Stories » et maintenant IGTV (Instagram TV) dont le ratio est de 9/16ème – 1080/1920). Tous les autres acteurs ont suivi : Facebook, Youtube et même Vimeo supportent totalement le mode portrait.

Vertical_video_02

Seuls 25% de l’écran est utilisé en mode paysage pour une vidéo « normale ». L’étude de 2017, montre que 90% des utilisateurs ne se sert que du mode vertical… Source: InMobi.

Fort bien, mais nous, les as de la vidéo traditionnelle, ou du cinéma, en quoi cela nous concerne-t-il ? Et bien si vous avez comme clients des gens issus du monde du Marketing, il y a fort à parier que vous avez déjà eu des demandes concernant le fait de produire en vertical. Si vous avez des clients pubs, vous allez aussi rencontrer ce type de demandes car, par exemple, de plus en plus d’écrans placés dans les magasins sont aussi disposés à la verticale (et surtout la pub se digitalise sur smartphone à la vitesse de la lumière). Et plus simplement, si vous êtes un adepte des réseaux sociaux et que vous voulez générer de la vue sur vos créations, vous pouvez aussi être tentés par l’expérience.

2- Les problèmes posés par la vidéo verticale

Ils sont évidents, mais nous allons les lister. Avant cela, on peut cependant résumer ce changement de culture présumé, par le fait que le mode portrait fait la part belle à l’individu pour ne pas dire à l’individualisme : l’humain est vertical sur ses deux jambes, notre visage est un ovale vertical… A moins de devoir filmer des gratte-ciels ou des bouteilles, le mode vertical pourrait être une sorte de syndrome du Seplhy.

vertical-versus horizontal

Source: Flickr

Le mode traditionnel, quant à lui, est l’art de placer un personnage dans un contexte qui l’entoure et de faire en sorte de l’en détacher (utilisation du flou d’arrière-plan par exemple), ou, à l’inverse de le noyer dedans en le rendant flou. Mais revenons à nos problèmes:

  • Le champs de vision restreint (c’est évident) : si vous désirez montrer un contexte, vous devrez obligatoirement faire des panoramiques.
  •  Nos caméras dont le capteur est en mode paysage, ce qui implique qu’il faut soit en utiliser une petite partie à coup de « crop » (recadrage) ou le retourner à 90°. Mais ce n’est pas tout, même en le retournant, la stabilisation ne sera pas bonne (pas prévue pour travailler dans ce sens), les infos à l’écran seront retournées… Bref, pas pratique.
  • Le corollaire est aussi l’ergonomie: il n’est jamais simple de gérer tous les paramètres en mode « normal », alors quand vous êtes à 90°, c’est pire. L’utilisation de Gimbal (nacelles) relève là encore du challenge.
  • Enfin, l’aspect le plus important réside dans la composition de l’image : toutes les règles sont à revoir dans l’écriture du scénario. Il est par exemple impossible de faire tenir plus de 2 personnes à l’écran. De plus, un client vous demandera souvent de disposer de deux versions du même film : une verticale et l’autre horizontale…
aspect-ratio-illustration

La guerre des ratios. Source: PremiumBeat.com

3- Les solutions techniques

Un grand nombre de commanditaires de films ne comprennent pas (encore) qu’une caméra offre un rendu d’image bien supérieur à leur dernier iPhone;) C’est un peu pareil qu’il y a 15 ans, quand nous devions démontrer qu’une caméra pro en offrait plus que le camescope familial. Peu importe, contrairement aux photographes qui travaillent indifféremment dans les deux modes, en vidéo, on doit s’adapter.

  • A: recadrer une image 4K/UHD.
    Il s’agit de la solution la plus évidente. Une image 4K faisant 2160 lignes en hauteur et comme vous n’avez besoin « que » de 1920 lignes en format 9/16ème, cette solution permet à la fois d’être libre de livrer deux versions du films (paysage et portrait), mais aussi de faire de faux mouvements en post-production pour simuler des panoramiques, etc. Mais attention, lors du tournage, aucune caméra ne propose encore de guide 9/16ème. Il faut alors fabriquer vos propres repères 9/16ème avec un feutre effaçable… Ceci, car sans ce guide, vous ne saurez jamais où l’image sera coupée.

    9/16 mistake

    Typiquement, sans marqueurs d’aide pendant le tournage, on risque toujours de se retrouver avec des sujets coupés. Ce n’est pas rattrapable.

  • B: La caméra à 90°. C’est la solution la plus contraignante mais aussi la plus sûre. Certes, impossible de livrer 2 versions du même film, mais vous êtes certains de la composition de l’image, exactement comme en photo. Pour ce faire, vous pouvez utiliser:
    – un adaptateur en L (L bracket)
    – le moteur « roll » de votre Gimbal (comme sur le Ronin-S) en le fixant à 90° (beaucoup de nacelles savent faire des rotations à 360°)
    – une « ball head » qui, elle aussi, est capable de pivoter à 90°.
    – la cage de votre caméra ou de votre DSLR. Comme elle est en principe pleine de trous filetés sur les côtés, il est souvent possible de la mettre en mode portrait sur la semelle de votre trépied.
    ball-head SmallRig_Dedicated_L
  • C: Habiller une vidéo horizontale. Ici, on parle de la solution du pauvre. Celle qui fait que l’on ne pas cropper une image 4K et que la vidéo est déjà tournée en 16/9ème. La seule solution alors, c’est d’habiller les 75% d’espace vide qui restent autour. Pour ce faire, vous pouvez utiliser des fonds animés, mais aussi des titres qui peuvent commenter les images afin de peupler l’espace et de faire en sorte qu’il se passe toujours quelque chose à l’écran comme dans cet exemple :
    IG fill space

4- Post-Production et diffusion

On arrive enfin à une phase qui ne pose aucun problème : tous les logiciels de montage sont capables de créer des projets de la taille que vous désirez et au ratio souhaité. Cette étape n’est donc plus un problème. Le seul écueil réside parfois cependant dans l’envoi de la vidéo et ces normes changeantes (Instagram par exemple, ne tolérait que les vidéos inférieures à 1 mn avant IGTV qui porte cette durée à 10 mn). Depuis un Mac ou un PC de montage, soit vous copiez le film final vers votre téléphone pour publier, soit vous utilisez des logiciels tiers comme Flume (Max OS) ou Gramblr (Windows).
Flume

5- Conclusion

Que l’on soit d’accord ou que l’on trouve le concept de vidéo verticale ridicule, les chiffres ne mentent pourtant pas et démontrent que la demande de production de vidéos « portrait » ou a minima, en deux formats, ne cesse d’augmenter. Autant s’y préparer, car contrairement à d’autres modes, le « vertical » semble s’installer dans les habitudes de consommation depuis des années. Il nous force à repenser un certain nombre de règles de cadrage et de production. Il est assez facile d’être créatif en « vertical ». Je vous recommande à ce titre de visiter le site du Vertical Video Festival. Vous y trouverez des films qui démontrent que l’on peut aussi travailler de belle manière… Dans le mauvais sens. Voici le teaser de la dernière édition, la prochaine se déroulant en septembre prochain.

2nd Vertical Film Festival trailer 2016 (vertical video) from Vertical Film Festival on Vimeo.

 

L’article Produire des vidéos verticales (9:16ème): le guide est apparu en premier sur Createinmotion.

#VariCam update: CSS pour la personnalisation de la caméra

Par Sébastien François

11 juillet 2018: La gamme VariCam (HS-35-LT) dispose d’une mise à jour de son Firmware avec l’ajout de la fonction CSS (Custom Splash Screen), ainsi que de diverses fonctionnalités.

Toutes les VariCam se voient dotées d’une nouvelle fonction de personnalisation de l’écran de démarrage: vous pouvez y ajouter le logo de votre société, mais aussi gérer toutes les informations relatives (coordonnées, identification, mot de passe etc… ).
Vous pouvez regarder la procédure d’installation et de déploiement à l’aide de ces tutoriaux mis en ligne par Panasonic. Panasonic a aussi mis en ligne un site dédié qui donne toutes les informations nécessaires.

Etape 1:
Etape 2:
Etape 3:
Etape 4:
La liste de toutes les nouvelles fonctionnalités:
Les liens de téléchargement:

VariCam 35/HS/Pure (version 8.0) : https://eww.pass.panasonic.co.jp/pro-av/support/content/download/EN/ep2main/soft/upgvaricam_e.htm

VariCam LT (version 7.0): https://eww.pass.panasonic.co.jp/pro-av/support/content/download/EN/ep2main/soft/upgvlt_e.htm

 

 

L’article #VariCam update: CSS pour la personnalisation de la caméra est apparu en premier sur Createinmotion.

Best-of des transitions… Au tournage

Par Sébastien François

Les transitions réalisées au tournage, c’est en fait anticiper deux plans successifs, et faire en sorte qu’ils se raccordent sans post-production (ou presque). A la clé, l’impression que la caméra a pu se transporter à deux endroits différents sans coupe. On a sélectionné ici 9 transitions faciles à faire « in camera ». Explications.

1- Les principes

Les exemples les plus communs de transitions « In camera » (au tournage), vous les connaissez sans doute: vous suivez un sujet, puis en fin de plan vous effectuez un tilt vers le ciel. vous changez d’endroit et vous commencez votre plan depuis le ciel et vous reprenez votre sujet… Qui a changé d’endroit. Pourquoi le ciel? Parce qu’il va donner une image bleue-blanche et que quand vous allez changer d’endroit, vous reprendrez ce bleu-blanc quasi identique, ce qui va donner l’impression qu’il n’y aucune coupe et que c’est donc de la magie.

Autre exemple, le fait que la camera traverse un mur (ou un objet) en travelling latéral pour suivre un sujet (dans un appartement, d’une pièce à l’autre par exemple). L’idée est ici de se servir du noir. Quand la caméra arrive au mur, on s’attend naturellement à passer au noir. Du coup, la combine consiste à se servir de l’opacité supposée de l’objet (en ajoutant du noir devant l’objectif par exemple) et à reprendre le même mouvement de l’autre côté (en enlevant le cache noir très rapidement). La clé aussi, c’est la rapidité du mouvement et sa continuité (dans quoi un fondu au noir suffirait), pour cacher les défauts. Dans l’exemple ci-dessous, ici de la série Sherlock, on voit précisément cette technique (améliorée par un masque en post-production) et baptisée « pass-by ».

  • le secret est donc toujours d’avoir une continuité du mouvement d’un plan à l’autre (de la caméra et de son sujet).
  • D’utiliser n’importe quel élément de décor comme source de la transition (le ciel, le mur, l’objet, un poteau).
2- Un peu de fun dans cet exemple

Dans cette vidéo de PremiumBeat, l’auteur à décidé de détourner l’utilisation de transitions in-camera pour réaliser des exemples plutôt rigolos: un clonage de personnage, un départ de course façon super héro, et un lancer de couteau. On vous laisse regarder. Même si c’est en anglais, vous allez comprendre et on vous explique après.

L’auteur utilise toujours le même mouvement ultra-rapide: un panoramique à la main (qu’il serait mieux de faire au trépied…) :

  • Le premier plan fixe le sujet, puis fait un panoramique vers la droite très rapide avec un shutter bas pour provoquer du flou de mouvement (1/50ème/180°) (voir notre article sur l’exposition.)  
  • Le second plan reprend le même panoramique, mais dont l’angle est inversé.
  • Au montage, il suffit de raccorder les deux plans pendant les deux panoramiques avec un fondu tout bête.
  • Pour la dernière scène du « couteau », comme le personnage ne va pas réellement saisir un couteau en plein vol, l’auteur utilise la ruse suivante. Le premier plan est identique aux autres (panoramique qui fait un gauche droite pendant le lancer du couteau). Le second plan est tourné à l’envers. Le clone est en position finale (couteau rattrapé) et le lance vers la gauche. La panoramique est un droite-gauche. Au montage, il suffit d’inverser la lecture du plan et le tour est joué.
3- La compilation plus classique

Dans cette vidéo Mango Street, montre tous les principes énoncés plus haut dans une compilation de 6 transitions « In camera ». Le visionnage suffit amplement à expliquer les techniques classiques.

4- Pour conclure

Vous l’avez vu, le principe ne varie jamais: un type de mouvement sur 2-3-4 plans et un élément de décor quel qu’il soit, pour masquer le raccord. Le perfection vient de la qualité du mouvement, de la synchronisation de la scène et de la précision de raccord au montage. N’hésitez pas à refaire plusieurs prises pour obtenir cette perfection du mouvement. Regardez aussi autour de vous, il y a toujours un élément de décor à utiliser, y compris le sol… Présent partout!

 

 

L’article Best-of des transitions… Au tournage est apparu en premier sur Createinmotion.

Promo EVA1: 500 euros d’accessoires offerts jusqu’au 30 Septembre

Par Sébastien François

Après la promo « 500 euros remboursés pour l’achat d’une EVA1 », Panasonic vous offre désormais immédiatement 500 euros d’accessoires. Vous pourrez en bénéficier auprès de tous les revendeurs partenaires.

Eva_PromoBannerSummer_French

Les modalités sont simples: il suffit de se rendre chez un revendeur partenaire et ce dernier vous offrira 500 euros TTC d’accessoires de son catalogue. Voici un extrait des conditions de l’offre:

Conditions de l’offre :

1) Lors de l’achat d’une caméra EVA1 (AU-EVA1EJ) chez un Loca Images entre le 16 juillet 2018 et le 30 septembre 2018, vous bénéficierez d’un crédit d’un montant maximal de 500 euros TTC à valoir sur des accessoires disponibles au catalogue Loca Images.
2) Condition préalable de participation : l’achat d’une caméra EVA1 (AU-EVA1EJ).
3) Cette promotion est limitée aux utilisateurs finaux professionnels qui achètent une caméra par l’intermédiaire de Panasonic Marketing Europe GmbH. Cette promotion n’est pas ouverte aux grossistes et revendeurs.
4) Cette promotion n’est valable que pour les achats effectués par des utilisateurs finaux professionnels au Royaume-Uni, Irlande, Suisse, France, Italie, Allemagne, Autriche, Norvège, Suède, Danemark, Estonie, Lettonie, Lituanie, Espagne, Portugal, Chypre, Belgique, Luxembourg, Pays-Bas, Malte, Hongrie, Slovénie, Croatie, Serbie, Macédoine, Albanie, Bosnie-Herzégovine, Kosovo, Monténégro, République Tchèque, Slovaquie, Pologne, Roumanie, Islande, Liechtenstein, Monaco, Andorre, Bulgarie, Finlande et Grèce, chez un revendeur participant.
5) Les accessoires obtenus dans le cadre de cette promotion sont non échangeables et non transférables. Le montant de ces accessoires ne peut pas être versé sous une autre forme (espèces ou autres).
6) La promotion est valable jusqu’à épuisement des stocks.
7) En cas de circonstances imprévues, le promoteur se réserve le droit de proposer une solution alternative.
8) Toute taxe liée à la promotion est à la charge de l’utilisateur final professionnel.

PROTECTION DES DONNEES ET DE LA VIE PRIVÉE

9) Le responsable du traitement des données est Panasonic Marketing Europe GmbH, Hagenauer Str. 43, 65203 Wiesbaden, Allemagne ; Marketing Broadcast & ProAV.
10) Afin de bénéficier de cette promotion, l’utilisateur final professionnel accepte que son revendeur transmette une copie de sa facture ou de tout document probant au Promoteur. Toute information personnelle fournie par un utilisateur final sera utilisée par Panasonic et les revendeurs participants uniquement aux fins de cette promotion et conformément à la législation sur la protection des données.
11) Les types de données recueillies : titre, prénom et nom, adresse postale, pays de résidence et informations sur le produit.
12) Toutes les données seront effacées 7 jours après la fin de la promotion.

CONDITIONS GÉNÉRALES

13) En réclamant ces accessoires dans le cadre de cette promotion, les participants reconnaissent avoir lu et accepté ces termes et conditions.
14) Le promoteur se réserve le droit de vérifier l’admissibilité de toutes les réclamations afin de se protéger contre les réclamations frauduleuses, invalides ou répétitives.
15) Le promoteur se réserve le droit de modifier les présentes conditions générales à tout moment et de modifier ou de retirer cette promotion à tout moment.
16) Une seule réclamation par produit admissible acheté peut être faite.
17) Le droit allemand s’applique.

Plus d’informations ici. 

 

 

L’article Promo EVA1: 500 euros d’accessoires offerts jusqu’au 30 Septembre est apparu en premier sur Createinmotion.

V-LOG, comment bien exposer ses images?

Par Alexandre Médan
Tourner en V-Log, c’est excitant. La promesse sur le papier, c’est d’étendre la dynamique de la caméra et d’avoir une latitude d’étalonnage bien plus forte en post-production. Oui, mais voilà, le V-Log, il faut le maîtriser parfaitement au tournage, sans quoi, la désillusion est totale: la génération de bruit involontaire est le principal écueil à éviter. Le secret, c’est donc de bien exposer, mais aussi de faire des choix.

Une vidéo tournée en Log, n’est pas regardable en l’état. Elle apparait délavée et plate. C’est normal puisque l’objectif étant de conserver un maximum d’informations du capteur afin d’avoir l’image la plus « malléable » possible en post-production, la caméra va « désactiver » un ensemble d’opérations qu’elle effectue d’habitude toute seule. Surtout elle va employer une courbe de transfert Logarithmique (d’où le Log), pour retenir le maximum d’information du capteur. Cette courbe a l’avantage d’aller « chercher » tous les détails de l’image, mais elle a pour gros inconvénient de ne pas être optimisée pour notre vision et surtout, d’être bien plus exigeante en terme d’exposition. Elle méritera aussi bien plus de travail de post-production. A la clé cependant, une image bien plus détaillée, et bien plus « ciné ».

Vlog_versus_natural Vlog_versus_Natural_Zoom

Le V-Log, pas fait pour regarder, bon à retravailler.

La plupart des courbes de gamma internes des caméras (les profils comme « naturel », « standard »… chez Panasonic), sont conçues pour montrer à l’écran ce que perçoit notre vision. Pratique, car l’image est flatteuse, mais il existe un énorme inconvénient: la dynamique de l’image est plus réduite. Pourquoi? Parce que la courbe va privilégier les informations les plus « visibles » (et souvent, celles dont la luminosité est médiane comme les skin tones). Conséquences, les pixels sombres et les pixels très exposés sont assez mal lotis.Du coup, les ombres sont souvent détériorées (noirs écrasés), si vous essayez de les corriger en post-production, vous verrez l’apparition du phénomène de « Banding » (des aplats très vilains). L’avantage du VLOG-L est que la répartition des « bits » disponibles pour les pixels lumineux et les pixels sombres est beaucoup plus équilibrée. Les zones claires et « moyennes » disposent du même nombre de nuances de gris enregistrées, et même si les zones sombres en ont légèrement moins, elles en ont toujours nettement plus qu’en utilisant une courbe de gamma conventionnelle qui elle va bien plus ressembler à un « S ».

La courve V-Log de la Varicam

La courbe V-Log de la VariCam: on voit bien que les information sont assez bien réparties.

En conséquence le VLOG- est un mode adapté à l’enregistrement, mais pas vraiment à la visualisation. Mais ceci pose un énorme problème: comment correctement exposer et faire une bonne balance des blancs sur une image aussi « flat » (plate)?

V-Log, injecter une LUT dans la caméra ou le moniteur

Au début de l’arrivée du Log, on était bien embêtés: pas de moyen de visualiser en temps réel l’application d’une LUT (Look Up Table) pour traduire l’image grisâtre en quelque chose de visible et qui permettrait donc a minima de vérifier que les couleurs sont à peu près bonnes, tout comme l’exposition. La LUT est une manière d’interpréter l’image et c’est un peu la première étape en post-production. Depuis, les choses ont bien changé. GH5(S), EVA1 ou les VariCam pour ne citer qu’elles permettent de charger des LUT et d’activer/désactiver leur interprétation. Il en va de même pour la plupart des moniteur externes. Et ça peut aider bien sûr, mais ce n’est pas une solution ultime car cette fonction applique de façon automatique une courbe de gamma donnée, dont le résultat peut tout à fait ne pas correspondre à la façon dont on aurait retravaillé ses images manuellement. C’est donc une prévisualisation que l’on pourrait qualifier de « raisonnable », mais à laquelle on ne doit pas totalement se fier dans la mesure où  l’on aurait pu faire des choix d’étalonnage très différents.

Vlog_InCameraLut01

L’image en V-LOG-L d’une GH5 et l’injection de la LUT de base de Panasonic (Rec709)

Alors, comment bien exposer ?

Mais revenons à l’exposition. Il est nécessaire d’utiliser les zébras, l’oscillo et l’histogramme pour la maîtriser en VLOG, mais il ne faut pas le faire de la même façon que sur un tournage avec une courbe de gamma quelconque. En effet, les niveaux qui peuvent nous être familiers (70 IRE pour les tons chairs et 100 IRE pour les hautes lumières par exemple) ne sont tout bonnement pas adaptés au VLOG: pourquoi parce que la courbe ne suite plus les mêmes valeurs de « S » en fonction de l’expo.

Un exemple tout simple avec le GH5 et le VLOG-L, les très hautes lumières vont commencer à apparaître dans les zébras et sur l’oscillo, vers 80 IRE, et rien au-delà de 81 IRE ne sera visible, jamais. Même en ouvrant l’iris à son maximum et en pointant la camera vers le soleil, on ne verra jamais rien au-delà de 81 IRE. C’est tout à fait normal : le VLOG a été conçu à l’origine pour la VariCam qui dispose d’une plage dynamique de 15+ stops. Le VLOG-L traite les ombres et les tons moyens comme le VLOG, mais dans une limite de 12 stops, donc avec une limite à 80 IRE. La VariCam elle aura des références différentes: on le voit, chaque Log a ses particularités.

Vlog-L light

Les distribution de la dynamique d’une GH5. Source: https://wolfcrow.com/

Ça peut sembler un peu limité mais en fait il n’en est rien car il est possible d’utiliser les mêmes LUTs que celles de la VariCam puisque la répartition des gris est la même pour le VLOG-L et le VLOG. Il faut comprendre les niveaux et les limites du capteur à respecter et pour faire court, il faut intégrer qu’il n’est pas possible d’exposer des tons chair à 70 IRE ou des gris moyens à 55 IRE en VLOG-L. Ces niveaux vont devoir être nettement plus bas.

1- L’exposition à droite (Exposure To the Right), une vraie bonne idée?

Cette technique implique l’utilisation de l’histogramme. Cet outil montre la répartition de la luminosité dans l’image et plus l’image tendra vers les hautes lumières, plus la courbe de l’histogramme se déplacera vers la droite. Les promoteurs de cette technique considèrent que les tons les plus foncés et les ombres sont les zones les plus bruitées d’une image et qu’en faisant sortir une image de la zone sombre il est possible de mieux la retravailler en post-production. Autrement dit : plus on expose à droite, plus on profite des capacités du capteur et surtout, plus on va pouvoir obtenir une image détaillée. Souvenez-vous de ce dont nous parlions sur la répartition des bits : les hautes lumières et les tons moyens se voient allouer le même nombre de bits (c’est-à-dire d’information) alors que les zones sombres en ont moins à disposition. Donc moins l’image n’a de zones sombres plus son contenu sera détaillé, et rien n’empêchera plus tard de l’assombrir de nouveau. Cette technique souffre d’un gros inconvénient: elle implique énormément de travail en post-production pour rééquilibrer toutes les images et elle peut plus facilement nécessiter un débruitage long et pénible.

2- Le gris 18%, l’oscillo, les zebras et les « Falses colors », vos meilleurs amis.

x_rite_colorchecker_passportLes systèmes vidéo font souvent référence aux « gris moyens » ou aux « gris 18% ». Le gris 18% est un standard en vidéo et en photographie, il s’agit d’une nuance de gris qui reflète 18% de la lumière qu’elle reçoit. Elle est très souvent utilisée sur les cartons de test et il est très facile de s’en procurer dans les magasins spécialisés. Une réflexion de 18% représente la réflectance moyenne d’une scène moyenne, d’où le fait que l’exposition automatique d’une caméra est souvent conçue pour exposer correctement les zones de l’image dont la réflectance est d’environ 18%. En utilisant cette technique d’exposition, vous trouverez que l’oscillo et les zébras sont bien plus utiles que l’histogramme.

Contrairement un une courbe de gammas conventionnelle, et pour reprendre l’exemple du VLOG-L, ce dernier n’expose pas les gris moyens à environ 50 ou 55 IRE. Il les exposera en réalité à 42 IRE, donc avec un gris moyen, il vous faut le voir apparaître sur votre oscillo à environ 42 IRE pour une exposition « propre », c’est-à-dire standard.

Pour information, voici les niveaux de réflectance du mode VLOG-L :
0%  de réflectance (noir) : 7,3 IRE
18% de réflectance (gris moyens) : 42 IRE
90% de réflectance (blanc) : 61 IRE
Super blanc absolu : 80 IRE

Oscillo-exemple

Sur cet exemple, l’oscillo montre une sous-exposition: pour être bien, je devrais atteindre mes 80 IRE dans les blancs.

Cependant, exposer pour un mode gamma logarithmique n’est pas toujours aussi simple que de mettre un carton à 18% dans le décor et d’exposer à 42 IRE. On peut donc parfois se demander si un équilibre judicieux entre la technique de l’exposition à droite et celle de l’exposition des gris moyens, même si ça peut s’avérer compliqué, ne serait pas la meilleure solution. Finalement tout dépend des compromis que l’on est prêt à accepter. C’est pour cette raison, que pour chaque caméra, vous devez utiliser en conjonction: l’injection de la LUT de base (ou de celle que vous utiliserez en post-production si vous être sûrs de votre coup et voir le bruit généré), l’oscillo afin de visualiser vos valeurs, mais aussi les Zebra afin d’avoir une « alerte directe » sur l’écran quand vous cramez les informations.
Les fausse couleurs (false colors), sont une autre représentation qui donne des couleurs relatives à l’exposition suivant une échelle, comme le montre cette image.

false colors

L’utilisation de tous ces outils vous permet de « savoir » dans quelle zone IRE les informations seront les mieux traitées pour chaque caméra. Et surtout cela va vous permettre de faire des choix de réalisation. Devez-vous privilégier exceptionnellement un arrière plan? Ou plus conventionnellement un sujet? Faut-il rapporter de la lumière pour homogénéiser le tout? A partir de quand génère-t-on du bruit qui sera difficilement traitable en post-production? De là se dégageront des « règles » pour chaque machine.

Un mot sur les LUTs


Les LUTs (Look Up Tables) sont utilisées pour l’étalonnage, pour expliquer à un moniteur comment afficher correctement une valeur qui a été encodée de façon logarithmique. Les LUTs sont devenues assez communes. Beaucoup de logiciels de montage ou d’étalonnage sont capables de les utiliser, de même que beaucoup de moniteurs externes ou d’enregistreurs externes. Donc avoir un bon fichier LUT dans son moniteur permet d’avoir une bonne idée de ce à quoi ressemblera effectivement ce que l’on est train de filmer une fois étalonné.

Maintenant, comment est-ce que cela fonctionne ? Une LUT transforme une certaine valeur d’un fichier vidéo en une autre donnée pour son affichage. Elle va donc vérifier l’information liée à la couleur et au gamma de la source et la transformer en une autre valeur de couleur et de gamma pour que l’affichage de cette dernière corresponde à la volonté de l’opérateur. Pour chaque valeur d’entrée donnée il existe une seule valeur de sortie qui ne varie jamais. Jusque-là tout va bien, ça semble assez simple, mais les gens oublient souvent que chaque modèle de caméra va attribuer des valeurs de colorimétrie bien spécifiques à ce que son capteur aura repéré. Ça implique que la même LUT traitera différemment les informations provenant de cameras différentes. Donc si l’on tourne en DVX200 et que l’on souhaite obtenir une image « réaliste », il faut utiliser une LUT qui a été spécialement développée pour la DVX200 et non pour une autre caméra. Concrètement, cela signifie que même si la DVX200, la VariCam et le GH5 utilisent le VLOG, leurs capteurs sont différents et se comportent différemment, donc la même LUT appliquée à ces trois modèles ne produira pas précisément les mêmes résultats. Dit comme ça, ça semble évident n’est-ce pas?

Ceci étant dit, on peut tout de même utiliser la LUT de son choix car au final le résultat doit correspondre à son goût et si une LUT dédiée à une autre caméra donne des résultats plus satisfaisants ou plus créatifs, allons-y !

L’article V-LOG, comment bien exposer ses images? est apparu en premier sur Createinmotion.

EVA1: le guide complet par Barry Green

Par Sébastien François

Panasonic vient de mettre en ligne le guide complet de sa caméra EVA1. Le téléchargement est gratuit.
L’auteur,  Barry Green vous guide pas à pas à travers tous les menus, les réglages et les fonctions de la Panasonic AU-EVA1 dans ce livre électronique.

Le livre est téléchargeable au format PDF et eBook (pour mobile par exemple). Ces 220 pages vous permettront à la fois de (re)découvrir les notions de bases associées aux outils disponibles sur la caméra (zebra…), mais aussi d’aller jusqu’au bout de toutes les fonctionnalités les plus avancées de l’EVA1 (gestion de la sortie 5.7K RAW…). Bref, c’est un must have. Mais en anglais. Le langage est cependant suffisamment simple (car technique) pour être compréhensible par ceux qui ont simplement des notions de base dans la langue. Sinon, un petit coup de Google Translate devrait vous aider.
Vous pouvez aussi avoir accès à tous les tutos vidéos produits par Barry Green.

Pour le télécharger, cliquez sur l’image ci-dessous: il vous faudra cependant donner votre email.
EVA1 Guide website

L’article EVA1: le guide complet par Barry Green est apparu en premier sur Createinmotion.

ProRes RAW: la RAW-volution?

Par Alexandre Médan

Le ProRes Raw a été annoncé lors du dernier NAB et depuis quelques semaines, on peut l’enregistrer sur les Atomos Sumo et Shogun Inferno depuis la sortie d’une EVA1 par exemple. Mais au fait, le ProRes RAW, qu’est ce que c’est? Est-ce vraiment une révolution, et… Comment ça marche? Petit tour d’horizon des possibilités offertes, et des limites.

Le RAW, pour ceux qui l’ignorent, c’est la possibilité en vidéo, de faire la même chose qu’en photo: enregistrer absolument toutes les données brutes du capteur sans aucun traitement de la caméra et confier cette tâche d’interprétation de l’image à la post-production.

Avec le RAW, c’est un peu comme si on développait une pellicule après la prise de vue. Avantage: on ne perd rien en terme d’informations et on peut donc quasiment tout rectifier en colorimétrie etc. On augmente aussi la dynamique puisque dans les très hautes lumières et les ombres, on peut récupérer presque tous les détails. Inconvénient majeur, le poids des données est énorme. Il peut atteindre 1 Go/s soit des Tera-octets de données pour une seule heure. Ceci suppose d’enregistrer sur des médias qui soutiennent ce débit, mais aussi de disposer d’une machine de post-production ultra puissante pour traiter les images. Et ne parlons pas du temps de calcul. Pour résumer, tourner en RAW n’est pas à la portée de tout le monde.ProRes-RAW process

La promesse d’Apple, s’affranchir de toutes les contraintes du RAW

Le ProRes RAW, sur le papier, c’est un peu le beurre et l’argent du beurre. La baseline l’annonce clairement:
prores RAW slogan

« La performance du ProRes, et la flexibilité du RAW ». Ok, en effet, quand on lit le White Paper édité par Apple, il y a de quoi s’enthousiasmer. En effet, le constructeur offre des débits équivalents en RAW et en ProRes « classique »! On arrive donc à des seuils tout à fait gérables sur des enregistreurs accessibles: les Atomos avec même bientôt le Ninja V (mais pour l’heure aucune caméra ne sait sortir du RAW en HDMI). L’intention est donc bien d’uniformiser tous les formats RAW autour de cette plateforme unique puisque pour le moment, chaque constructeur a le sien. Mieux, en termes de performances, le format est promis comme étant bien plus optimisé, ce qui permettrait même à des portables de le monter.

atomos table: prores-raw-performance

Ce tableau montre que le ProRes RAW utilise le même débit qu’un ProRes 422 HQ… Pour du RAW

ProRes RAW: on a donc testé

Nous avons téléchargé sur Internet des fichiers ProRes RAW depuis filmplusgear.com et Media division. Et nous les avons passé sur notre MacBook Pro, modèle 2015. Autrement, une machine avec une mini carte graphique et qui n’est plus tellement d’actualité. Premier constat: ça passe sans problème, même si la machine souffre en calculant nos modifications en tâche de fond. On arrive à lire les fichiers de manière fluide, alors que pour d’autres types de fichiers RAW, il nous faut passer sur notre « vraie » machine de montage, qui est équipée de 64 Go RAM et d’une très grosse carte graphique pour parvenir au même résultat.
Deuxième constat, la récupération d’informations a priori disparues, est bien réelle. Pour vous en convaincre, il suffit de le constater ci-dessous.

ProRes RAW Ungraded 01 ProRes RAW graded 01 ProRes RAW Ungraded 02 ProRes RAW graded 02

Malgré tout, les outils disponibles dans FCP X ne permettent de pousser autant les choses que dans Resolve par exemple. Et c’est ici qu’on arrive aux limites des promesses du ProRes RAW.

ProRes RAW, quelques incertitudes

Premier point noir, le format est exclusivement réservé pour le moment à Final Cut Pro X. Et aux enregistreurs Atomos. Nul ne dit pour l’heure si Premiere Pro ou DaVinci Resolve vont se conformer à Apple alors qu’ils disposent eux-mêmes d’autres formats de traitement du RAW. De plus, le format ne pourrait concerner que les Mac et pas les PC pour des raisons de licence. Pire, Apple a depuis longtemps laissé pour compte les grosses machines pour se concentrer sur les iMac et les MacBook Pro. Pour traiter du RAW même en Prores, sur de grosses productions, il faut des chevaux et donc attendre la sortie d’un nouveau MacPro.
De plus, côté fabricants de caméra, tous ne joueront pas forcément le jeu. Si Panasonic a bien débloqué la sortie RAW de son EVA1 avec la dernière mise à jour, nul ne dit si les autres feront de même. Autant de paramètres qui font passer de l’optimisme à l’attentisme. L’année à venir devrait voir cette situation se décanter.

Pour aller plus loin, je ne saurais trop vous recommander de regarder cette vidéo de yakyakyak.fr. Elle couvre absolument tous les aspects de ce nouveau format.

ProRes Raw, un exemple parlant

Eva from Televisual Media on Vimeo.

Le tout a été tourné avec une EVA1 et la suite Atomos. Vous pouvez lire les commentaires du réalisateur (en anglais) sur http://www.televisual.com/blog-detail/Televisual-Creative-film-EVA_bid-1020.html

 

 

L’article ProRes RAW: la RAW-volution? est apparu en premier sur Createinmotion.

❌