Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

[Tuto] Monter la 360 en 2D pour produire des plans impossibles

Par Sébastien François

Les caméras 360° ne servent pas qu’à produire de la 360. Comme elles capturent tout leur environnement, on va utiliser ici la technique de « l’overcapture » ou du « reframe » pour créer des mouvements uniques dans les montages traditionnels. Les résultats sont spectaculaires.

Imaginons un cadreur qui peut voir l’intégralité de son environnement: devant, derrière, mais aussi au-dessus, en-dessous et surtout capable de bouger à la vitesse de la lumière pour suivre sans erreur un avion de chasse. C’est exactement ce que permettent de faire les caméras 360° quand leur usage est détourné en 2D.
Comme elles filment simultanément absolument dans toutes les directions, l’idée est donc de sélectionner en post-production le cadre de l’image le plus intéressant et d’animer sa position pour suivre ce qui nous intéresse. Pour résumer, elles dont office de cadreur virtuel.
Pour mieux se rendre compte des possibilités, voici un court exemple de ce qu’il est possible de faire:

Comme on le voit dans ici, le principe est le même que celui qui consiste à « cropper » dans une image 4K quand on va livrer en HD. Sauf que c’est dans toutes les directions. Oui mais voilà, un peu comme pour les Gopro et autres caméras de sport, quand elles sont apparues, les caméras 360° abordables n’ont pas été prévues à la base pour être utilisées de manière traditionnelle. Elles ont été faites pour le social sharing avec des app et pas forcément une recherche de post-production poussée.
Malgré tout, et comme pour les caméras sportives, les pros n’ont pas tardé à s’emparer des possibilités offertes, malgré la qualité d’image bien plus faible. Parce qu’un plan unique justifie une qualité moins « broadcast ». Il existe donc des limites, mais elles sont de plus en plus repoussées. Ceci d’autant que les caméras 360° disposant de gyroscopes et filmant partout, elles sont toutes équipées de stabilisateur d’images si performants qu’elles peuvent se dispenser de nacelles (Gimbal).

360° en 2D, comment ça marche?

Le principe est assez simple. Les caméras 360° sont équipées d’objectifs fisheye qui filment leur environment à 180° (dans la cas de 2 objectifs, 120° pour 3 objectifs etc).

fisheye

A partir de là, une puce dédiée ou un logiciel vont rassembler les 2 images (ou autant d’images que la caméra a d’objectifs) de manière équirectangulaire pour produire ce résultat qui s’apparente à un panorama déformé:

C’est cette image qui sera projetée dans une sphère virtuelle et qui permettra au spectateur de se promener à 360° comme s’il était au centre de cette sphère. L’idée est donc de récupérer une portion de l’image afin de l’insérer dans un montage classique. On va ainsi pouvoir animer le cadrage, changer de point de vue etc…

360_03_reframe
Ici, on choisit ce cadre dans l’image « panorama » pour produire, à droite, un plan « normal ». Bien sûr l’idée est d’animer le cadrage.

Les limites à connaitre

Evidemment, tout cela semble magique, mais il y a plusieurs limites qu’il faut bien prendre en compte:

  • La plupart du temps, les caméras produisent des images en 5,7K maximum (5760 x 2880 pixels) et les capteurs sont minuscules. Autrement dit, quand on reframe (ou overcapture), on ne va se servir que d’une petite partie de cette résolution. La qualité d’image est donc assez basse et la faible lumière est à proscrire.
  • Certaines caméras produisent des fichiers « prêts à l’emploi » en équirectangulaire, mais d’autres, non. Il faut alors passer par un logiciel maison supplémentaire pour effectuer le stitching (l’assemblage des images): le processus, certes simple et automatisé, est parfois long. Le but étant de créer cette image « Flat » sans défaut de raccords.
  • Certains ont déjà du mal a travailler en 4K faute de puissance: c’est encore pire en 5,7K d’autant que de plus en plus de caméras enregistrent en H265 (codage plus performant, mais ressources énormes nécessaires pour la décompression et la lecture, voir notre article sur le sujet). Il est donc souvent recommandé de travailler avec des proxys, voir là-encore notre tutoriel).
Le logiciel de la firme Insta360 (Insta360 Studio 2019) permet de stitcher les images, mais aussi faire du reframe.

Reframe/Overcapture, ce qu’il vous faut

Si tous les logiciels savent désormais monter de la VR (de la 360 native donc), ils ne sont pas tous capables d’effectuer le recadrage et l’animation des paramètres (changement de vue, champ de vision etc…). C’est pourquoi deux solutions s’offrent à vous:
– Utiliser Insta360 Studio 2019 qui supporte gratuitement la majorité des caméras 360° y compris celles qui ne sont pas de la marque. Il est téléchargeable ici et son tutoriel (très simple est ici).
– Installer les plugins Gopro pour Premiere Pro qui vont permettre ajouter l’effet « Gopro VR Reframe ». Le téléchargement pour Windows est ici et le téléchargement pour Mac est là. A noter que Gorpo propose aussi l’installation des plugins via son logiciel Gopro Fusion Studio, mais ce dernier ne sera compatible qu’avec la caméra de la marque (la Fusion).

Le reframing en quelque étapes

Une fois les plugins installés, il suffit de lancer Premiere Pro et d’importer vos fichiers 360 en Flat (equirectangulaire). Créez ensuite une séquence (une Timeline), aux dimensions de vos rushes source (5.7K, 4K…) en respectant bien la cadence d’image native de la caméra (25/30/50P).

360_05_VRReframePlug

Glissez simplement l’effet GoPro VR Reframe depuis la bibliothèque d’effet sur le clip de votre choix. L’image est immédiatement recadrée. Placez la tête de lecture en début de clip et ouvrez les Options d’effets. Activez les chronomètres afin d’indiquer que vous allez animer ce « recadrage ». Les paramètres sont les suivants:

  • Le FOV (Field of View), permet d’animer la champ de vision du cadrage, autrement dit, en augmentant la valeur, on étend le champ de vison, et en la réduisant, on zoome dans l’image.
  • Les YAW/Pitch/Roll correspondent aux directions comme pour le pilotage d’un drone, ou le contrôle d’une Gimbal. Le YAW correspond pour nous au Pan (de la gauche vers la droite et vice-versa), le Pitch contrôle le Tilt (inclinaison verticale), et le Roll fait appel à l’inclinaison de la l’assiette (pour corriger la ligne d’horizon par exemple).
  • Le paramètre Smooth transition permet quant à lui de lisser les images-clés (Ease In & Ease Out) car le plugin ne prend en compte l’interprétation faite par Premiere Pro.

Corriger les déformations

Tout comme pour les caméras de sport qui ont un champ de vision très large, les bords de l’image sont souvent courbés. Pour corriger ce défaut, allez chercher l’effet « Déformation de la lentille » (Lens Distortion). Glissez-le sur votre rushe. Dans les Options d’effet, il suffit de glisser le paramètre Courbure vers une valeur négative pour atténuer les déformations.

La déformation est corrigée, à droite par rapport au fichier natif.

L’effet Tiny Planet

L’effet Tiny Planet est ultra populaire et il était ultra simple à réaliser avec le plugin Gopro VR Reframe. Il suffit pour cela:
– de basculer le Pitch à 90° (pour regarder vers le sol en quelque sorte) et d’étendre le champ de vision à près de 100. Ce qui va faire « decoller » la caméra et rassembler tout l’image sous forme de « petite planète ». Bien sûr, si la caméra n’était pas parfaitement verticale lors de prise de vue, vous devrez sans doute corriger l’angle avec le Roll ou le YAW.

L’effet hyperlapse avec du motion-blur

La plupart des caméras 360° proposent une fonction d’hyperlapse car elles sont ultra stabilisées. Oui, mais voilà, l’effet est souvent disponible sur l’application du téléphone seulement et pas en post-production sur ordinateur. C’est très frustrant. Pour autant, il existe une parade:
– Tournez votre trajet à vitesse normale (comme dans la fin de la vidéo d’introduction de l’article).
– Une fois le fichier rapatrié dans Premiere Pro et Reframé à votre guise. Augmentez la vitesse de lecture entre 2000 et 3000%. En l’état, vous verrez bien l’effet hyperlapse, mais il n’y pas de motion blur (flou de mouvement).
– Effectuez un clic-droit sur le clip / Interpolation temporelle (Time Interpolation) / et sélectionnez Interpolation (Frame Blending). Le flou de mouvement est ainsi ajouté.

Enfin pour aller plus loin dans les possibilités offertes par les caméras 360° utilisée en 2D, nous vous recommandons cette vidéo de Cinecom.net qui montre l’étendue des transitions que l’on peut réaliser en quelques mouvements:

L’article [Tuto] Monter la 360 en 2D pour produire des plans impossibles est apparu en premier sur Createinmotion.

KeyShot 9 sera plus rapide et plus efficace

Par Shadows

L’équipe de développement de KeyShot annonce l’arrivée prochaine du raytracing accéléré par GPU (via NVIDIA RTX) et du denoising via intelligence artificielle. Des avancées prévues pour la version 9 de KeyShot, disponible cet automne.

Dans l’annonce, l’équipe rappelle que KeyShot est historiquement un moteur de rendu standalone en raytracing sur CPU. Jusqu’ici, l’utilisation du GPU était exclue pour des questions d’optimisation ou de qualité de rendu, mais KeyShot va enfin sauter le pas avec l’arrivée des GPUs NVIDIA RTX. En pratique, ce rendu GPU se fera à l’aide du moteur NVIDIA OptiX. Le basculement vers le rendu GPU se fera en un clic, du moment que la carte graphique est supportée (donc récente).

Nous aurons l’occasion de revenir sur cette annonce lors de son lancement effectif, d’ici quelques semaines.

L’article KeyShot 9 sera plus rapide et plus efficace est apparu en premier sur 3DVF.

Panasonic Lumix S1H : le plein format dédié à la vidéo

Par Thomas

Panasonic S1H

La gamme plein format de Panasonic s’agrandit ! Après les versions S1 et S1R voici le Panasonic S1H ! Clairement orienté pour la prise de vidéos, ce boitier plein format offre notamment l’enregistrement en 6K 24p ou C4K à 30p en 4:2:2 interne. Annoncé comme redoutable en basse lumière, la présence d’un système double ISO […]

12 fruits et légumes scannés à télécharger gratuitement

Par Shadows

Tomáš Búran propose sur Gumroad un pack gratuit modèles de fruits et légumes créés par photogrammétrie. Chaque modèle est décliné en différents niveaux de détails, et des textures PBR 4K (BaseColor/Albedo, Roughness, Specular, Glossiness, MetallicSmoothness, Normal(OpenGL/DirectX), AmbientOcclusion, OcclusionRoughnessMetallic) sont fournies.

Bien entendu, si le code « forfree » indiqué par l’auteur permet de télécharger gratuitement le pack, rien ne vous empêche d’acheter les modèles au prix de base déjà très bas (1€).

Fruits et légumes

L’article 12 fruits et légumes scannés à télécharger gratuitement est apparu en premier sur 3DVF.

Il Divino : la chapelle Sixtine comme vous ne l’avez jamais vue

Par Shadows

Christopher Evans a profité du SIGGRAPH pour dévoiler un projet à l’ambition démesurée : une copie détaillée du plafond de la Chapelle Sixtine, en réalité virtuelle. Une réalisation qu’il a en tête depuis longtemps, puisqu’il a commencé à travailler sur ce projet il y a 15 ans (au départ en s’appuyant sur VRML, le seul format adapté à l’époque).

Le résultat actuel : un modèle détaillé comportant plus de 90 maps 4K (de quoi voir fissures et coups de pinceau), une centaine de zones cliquables mais aussi une heure de commentaire audio.
Le modèle 3D a été créé par photogrammétrie ; pour les textures, Christopher Evans a tiré parti du fait que les oeuvres sont dans le domaine public. Il a donc collecté au fil des ans les photographies haute résolution disponibles.

Evans souligne dans une interview que les touristes eux-mêmes n’ont pas la chance de voir le monument d’aussi près, ni d’en rapporter des images : les gardiens interdisent farouchement les photos sur place.
Ici, pour permettre d’admirer les moindres détails des peintures, une plateforme virtuelle (ou, au choix, un échafaudage 3D en bois similaire à celui qui aurait été utilisé par Michel-Ange) sert de prétexte pour se rapprocher des œuvres.

Sixtine

Christopher Evans souligne dans son interview les limites de sa démarche : le sol et les zones basses étant peu photographiées et représentées, il a cherché à être plausible à défaut de pouvoir proposer une version exacte de la réalité.

Présentée au SIGGRAPH sur un casque Valve INDEX, Il Divino : Michelangelo’s Sistine Ceiling in VR sera d’ici la fin de l’année proposé gratuitement au téléchargement.

Sixtine

L’article Il Divino : la chapelle Sixtine comme vous ne l’avez jamais vue est apparu en premier sur 3DVF.

The Dolly Shot: How It Works and Why It’s Powerful

Par Charles Yeager

There's nothing more cinematic than a great dolly shot, but they're not always easy to pull off. Learn how dolly shots work technically and for storytelling, and ...

Cooke Optics to Show New Lenses for the First Time in Europe

Par Denise Williams

Hot off its win at Cine Gear Expo at Paramount Studios in Hollywood for Camera Technology-Optics with the Anamorphic/i Full Frame Plus, Cooke Optics  invites all of Europe and the rest of the world to see just what is meant by “The Cooke Look®” as it showcases — for the first time in Europe — ...

Z CAM E2: une caméra à 2600€ qui tutoie les performances d’une RED

Par Adrien

Z CAM E2 + objectif 24mm Samyang

La Z CAM E2 est développée par la marque Z CAM qui opère dans le domaine des caméras depuis 2015. Leur premier modèle lancé sur Kickstarter, la Z CAM E1 nous avait séduit par son format compact, son capteur et sa monture micro 4/3″ compatible avec de nombreux objectifs photo et vidéo MFT. Mais comme […]

4 Ways Still Photography Can Make You a Better Cinematographer

Par Tanner Shinnick

In this article, we examine visualizing light through photography — and how it can make you a better cinematographer and filmmaker.

Sony RX100 VII, le meilleur compact expert du marché ?

Par Thomas

Sony RX100 VII

Sony enchaîne les annonces, après le Sony A7RIV c’est aujourd’hui au tour de la famille RX100 de s’agrandir. Tout juste annoncé, le Sony RX100 VII fait déjà beaucoup parler de lui. En effet, fidèle à ses grands frères, il conserve son format réduit mais y apporte des nouveautés intéressantes. Nous retrouvons notamment un nouveau capteur […]

Shotoku Hits the Heights with Ceiling Mounted Rail System and On-Air Proven Robotic Pedestal with Unparalleled Control Features

Par Desert Moon Communications

Shotoku Hits the Heights with Ceiling Mounted Rail System and On-Air Proven Robotic Pedestal with Unparalleled Control Features Company’s tried, trusted and globally embraced robotic systems including ceiling mounted tracks with elevation and fully robotic XY pedestals, share the stage with new manual tripod systems Sunbury, UK – 11 July 2019 – Shotoku Broadcast Systems, ...

How to Take Photos with the Blackmagic Pocket Cinema Camera 4K

Par Lewis McGregor

While the Blackmagic Pocket Cinema Camera 4K won't replace your go-to still camera, it can capture stills to make referencing and scouting much easier.

Comprendre les F-Stops / T-Stops

Par Sébastien François

L’ouverture maximale du diaphragme détermine en grande partie les performances d’une optique. Mais pourquoi certains objectif ouvrent moins que d’autres? Quelle est la différence entre les valeurs exprimées en f/xx et celle en TXX? Autant de notions que nous allons vous expliquer ici.

On a déjà abordé longuement la maîtrise de l’exposition dans un précédent article. Mais pour aller plus loin et comprendre le mécanisme, il faut connaître les limites physiques et mathématiques d’un objectif afin de le choisir en toute connaissance de cause.
Vous le savez déjà, l’ouverture est gérée pas le diaphragme qui a la capacité de s’ouvrir au maximum ou au contraire, de se refermer afin de laisser pénétrer plus ou moins de lumière. Par conséquent, le « diaph » est le premier outil nécessaire dans la gestion de l’exposition. Oui mais alors, pourquoi parle-t-on de f/2, f/5.6 etc…?
Et bien en fait, l’histoire est assez simple.

D’où vient la valeur d’ouverture ?

« Le nombre de l’ouverture » est tout simplement la relation entre la longueur focale et le diamètre maximal du diaphragme (c’est de à dire du fût interne de l’objectif). Prenons un exemple. Pour un objectif de 50mm dont le diamètre maximal est de 25mm, on obtient donc 50/25=2. Et c’est donc pour éviter ce calcul différent pour chaque optique que l’on simplifie en annotant l’ouverture en f/2, ou f:2 ou encore 1:2. Le calcul est ainsi fait au préalable et permet au cadreur d’avoir des valeurs de référence communes. Quelle que soit l’objectif, un f/2 donnera toujours la même quantité de lumière sur le capteur. Du moins, théoriquement.


Cependant, via cette règle, on se rend donc compte que si l’on veux une ouverture à f/2 pour une focale de 150mm, il nous faudra un diamètre de 75mm ! C’est ce qui explique que les grandes focales qui « ouvrent » beaucoup sont très volumineuses et très coûteuses. A cette focale, on trouvera plus généralement, des objectif qui ouvrent à f/4 (diamètre de 37,5mm). C’est aussi pour cela que les systèmes comme le m4/3 (GH5 etc) qui disposent d’un capteur plus petit que le plein format, peuvent avoir des optiques très lumineuses sans être encombrantes.
En effet, sur ce système, comme un objectif de 50mm en full frame correspond à à un 25mm en m4/3, il suffit alors d’un diamètre de diaphragme de 12,5mm pour ouvrir à f/2. C’est pour cela que les optiques sont bien moins encombrantes que sur un système Full Frame.

Voilà une comparaison d’encombrement entre des optique Full Frame et M43: elles couvrent pourtant la même plage focale réelle. Crédit : Dave Dugdale.

f/1.4, f/2, f/2.8, d’où viennent ces nombres ?

Vous aurez remarqué que quel que soit l’objectif, la caméra, l’hybride, les différents paliers du diaphragme sont constitués de la même suite de « nombres ». Parallèlement, augmenter l’ouverture d’1 « Stop », ou d’1 « diaph » signifie faire rentrer 2 fois plus de lumière. Chaque incrémentation est donc le double de la surface de la précédente. A la différence que plus la valeur est petite, plus la surface est grande.

Hors vous connaissez forcément la fameuse formule de calcul de l’aire d’un cercle: Surface du disque =πr2 où « r » symbolise le rayon. Et comme l’aire d’un cercle diminue de moitié lorsque le rayon est divisé par √2 (soit 1,4142), on passe donc d’un incrément au suivant en multipliant par √2 et en arrondissant. Essayons :
Si r=1, 1 x √2 = 1,4
1,4 x √2 = 2
2 x √2 = 2.8
2.8 x √2 = 4 etc etc etc.
Voilà le mystère élucidé. Cependant, tout ce que vous devez retenir, c’est qu’à chaque fois il existe un rapport de 2 quant à la quantité de lumière envoyée.

Les limites des F-Stops et pourquoi parle-t-on de T-Stops?

On vient de le voir, les valeurs de diaph ou F-Stops, sont des calculs mathématiques à la portée du plus grand nombre. Malheureusement, les objectifs ne sont de simples lentilles posées sur des tubes de tel diamètre et de telle longueur. Il existe de nombreux paramètres qui viennent perturber le calcul théorique dans la transmission de la lumière.


Tout d’abord, à objectif égal (même marque, même longueur focale, même « f »), on se rend compte qu’il y a toujours un écart léger car les verres ne sont jamais tout à fait identiques, à cause du revêtement, de la complexité des lentilles etc. Du coup un f/2 ne sera jamais réellement un f/2.
En photographie, on s’en moque car l’écart est très faible et donc, du domaine de l’acceptable. Qui plus est, la rectification en post-production est très simple.
En vidéo, c’est une autre histoire car dans les grosses productions, on tourne très souvent en multicam et s’il existe des écarts d’exposition entre plusieurs caméras, la post-production peut très vite devenir ardue. et donc coûteuse.
Et c’est ici qu’interviennent les T-Stops.

les F-Stops sont basés sur le rapport entre longueur Focale et diamètre. Les T-stops intègrent la valeur de Transmittance de la lumière.

En partant des F-Stops, les constructeurs vont donc calculer la déperdition de la lumière due au différents paramètres perturbateurs (rayon perdus contre le fût, absorption du revêtement, déperdition en traversant X lentilles) et vont donc ajouter au calcul de facteur de transmittance: 85% par exemple. En multipliant la valeur théorique par ce facteur on obtient une valeur réelle. Un f/2.8 sera donc un T3.3 suivant nos 85% de transmittance.

Alors pourquoi n’utilise-t-on pas que des T-Stops?

La réponse à cette question est assez simple: établir le facteur de transmittance doit être étalonné sur chaque objectif qui sort d’une chaine de production. Il ne s’agit donc plus de théorie, mais d’un gros travail d’usine afin qu’un T3.1 soit exactement identique à un autre T3.1. Ce qui implique des tarifs souvent multiplié par 3 ou 4 par rapport à un « simple » objectif « f ». C’est pour cela que l’on reserve ces optiques au cinéma en y ajoutant d’autres fonctions: bague de mise au point crantée pour les follow-focus, course plus longue pour être très précis, diaphragme « décliqué » pour passer d’un palier à l’autre en douceur… Ce qui amène la facture à un niveau stratosphérique.
Mais avez-vous réellement besoin de ces optiques? La réponse est simplement « oui » si la simplification de la post-production justifie ce surcoût de location supplémentaire des optiques. La réponse est non, pour les productions plus simples: matcher 2 caméras demeure assez aisé. Tout est donc question d’équilibre budgétaire.

L’article Comprendre les F-Stops / T-Stops est apparu en premier sur Createinmotion.

Has Sigma Just Joined The Pocket CineCamera Game?

Par Lewis McGregor

Sigma has announced a new mirrorless, full-frame, pocketable, and fully customizable fp camera for both stills and cinema.

The Creative Motivation Behind Deep vs. Shallow Depth of Field

Par Zach Ramelan

This breakdown covers a range of creative motivations behind these two aperture settings, as well as the pros and cons of using each category.

Three Cheap, Underappreciated Cameras Filmmakers Should Consider

Par Jourdan Aldredge

Research demonstrates, in a crowded marketplace, sometimes your best options aren’t always the biggest, most expensive name brands.

Why Filmmakers and Photographers Prefer to Use Soft Light

Par Rubidium Wu

In this article, we take a look at why most filmmakers and photographers prefer to light their subjects with large, soft light sources.

Tout connaitre pour débuter dans le streaming

Par Sébastien François

Autrefois réservé à une élite de Geeks, le streaming vidéo en Live connait une explosion massive de tous les contenus sur les réseaux sociaux. Et pour cause: n’importe qui peut désormais faire un Live depuis un smartphone ou même depuis un drone. Oui, mais voilà, pour aller plus loin, il faut s’intéresser à toutes les nouvelles solutions offertes à la fois par les constructeurs, mais aussi par les éditeurs de logiciel. Voici un tour d’horizon pour bien démarrer.

Streamer un Live: facile. Si j’ai un smartphone, je me connecte à mon réseau social préféré, je me filme en selphy (plus ou moins) bien et c’est parti. Certes, ce sera plus ou moins vilain, mais au moins j’ai un moyen ultra facile d’être en direct sans la moindre compétence. Au début, un peu comme pour la vidéo verticale, personne n’imaginait que ça allait marcher: mais les statistiques sont là. Le temps devant les Live ne cesse d’augmenter et la qualité des productions ne cesse d’augmenter. Oui, les « Directs » sur Facebook, Youtube et bien évidement sur la plateforme de gaming Twitch » dépasse désormais les contenus traditionnels en terme de génération d’audience qualifiée. Pour s’en convaincre, nous vous recommandons la lecture de cet article qui démontre parfaitement que les contenus en ligne qui marchent sont de plus en plus les Live. Bien qu’en anglais, les graphiques qu’il montre et les sommes en jeu parlent d’eux même:02_Stats

Source: https://neilpatel.com

03_Stats

Téléphone ou « vraie caméra »?

On ne va s’étendre sur les possibilités d’un smartphone: il dispose d’une connexion 4G, d’une caméra acceptable et peut donc diffuser de n’importe quel endroit. En revanche, il faut le suréquiper pour que l’image produite soit décente: mini trépied, micro externe, casque blutooth, lumière. Surtout, il vous cantonne souvent à une diffusion verticale (comme nous l’avons vu dans cet article): Facebook par exemple, impose une image 9/16ème dans son application Android, mais pas dans celle d’iOS. Autant de limites donc qui laisse le téléphone comme support N°1 pour les Live « vite fait », mais qui n’en font pas un périphérique adapté à une vrai réalisation: mis à part ajouter des filtres à l’image, vous ne pourrez pas ajouter des sous-titres, gérer en même temps commentaires etc.
live from phone

Les caméras sont quant à elle restée longtemps en retard pour le Live Internet (via la vidéo sur IP donc). Pour résumer, auparavant, il vous fallait une ou plusieurs caméras reliée en SDI (ou en HDMI) à un mélangeur vidéo, qui lui même envoyait le programme vers un ordinateur ou un encoder dédié pour espérer passer sur Internet. Désormais, ce n’est plus le cas. Si l’on prend le cas de la dernière AG-CX350 (et même de références antérieures) de Panasonic, vous avez droit à une prise Ethernet, mais aussi à un Dongle Wifi optionnel. Qu’est-ce que ça veut dire concrètement?

  • La caméra sait « Streamer » directement vers toutes les plateformes de diffusion sans le moindre ajout de matériel. Il lui suffit d’être à portée d’un réseau.
  • L’utilisateur saisit directement le nom du réseau sans fil et le mot de de passe, l’adresse du serveur Youtube/facebook ou autre ainsi que la clé de votre compte. C’est fini.
  • Mieux, ses informations peuvent être stockées et chargées à l’avance sur une carte SD afin d’être opérationnel encore plus rapidement.
  • Enfin, la caméra sait aussi streamer en IP si vous souhaitez récupérer l’audio et la vidéo de plusieurs source et les « mixer » en direct sur ordinateur (comme avec les logiciel OBS Studio ou VMix), ceci notamment grâce l’arrivée du protocole NDI (nous y reviendrons).

diagramm streaming

Ainsi pour résumer, une caméra Broadcast sait à la fois être indépendante et lancer un Live, ou alors être utilisée comme source d’une réalisation multicam, le tout avec ou sans fil. Vous bénéficiez alors d’une qualité d’image bien supérieure et de tous attributs apportés par ce type de matériel (Entrées XLR, zoom… etc). Pour vous en convaincre, nous vous recommandons de lire cette documentation de Panasonic: How to connect AG-CX350 with Facebook Live , How to connect AG-CX350 with YouTube Live.

Vous pouvez aussi vous inspirer de ce très bon tutoriel en anglais pour un paramétrage ultra précis:

Streamer en Live quand mes appareils n’ont pas possibilité de connectivité réseau

newtek_fg_001775_r001_connect_spark_hdmi_1348898Alors, on est d’accord, sur le matériel récent, les choses sont simples, mais que se passe-il quand on veux utiliser d’autres sources d’images qui n’on ni Ethernet, ni Wifi. Là, encore, il existe des tas de solutions très nouvelles. Prenons l’exemple d’un hybride ou d’une caméra plus ancienne qui n’offre que du HDMI ou du SDI comme sortie. La solution classique consiste donc à les raccorder à un mélangeur vidéo, ou dans le cas d’une source unique, à un boitier d’acquisition vers un laptop. Ce dernier se chargera d’encoder le flux. Autrement dit, c’est lui assurera le « Bridge » entre le signal vidéo et le signal IP via les câble SDI ou HDMI. Problèmes: les connexions sont filaires en général et rajoutent des éléments à la chaîne de production. Il y a donc désormais bien mieux.
Si l’on regarde du côté de chez Teradek ou Newtek par exemple, on trouve une gamme très étendue de boîtiers à connecter directement sur vos caméras et qui vont transmettre le signal avec ou sans fil, vers Youtube/Facebook. Grosso modo, ses boîtiers font office de passerelle entre les sources vidéo et la vidéo sur IP.
vidiu-go-hero

Une révolution nommée NDI

On l’a vu, les appareils récents ou les boîtiers de connexion ont tous pour vocation de transformer vos flux vidéo en flux internet pour se connecter aux serveurs de streaming. Si ceci n’est pas totalement nouveau (les caméra de vidéo surveillance ou les caméra PTZ fixes de font depuis un certain temps), ce qui l’est, c’est la simplicité de mise en oeuvre apportée par le NDI (ou NDI-HX). Le Network Device Interface amène les bénéfices suivants:

  • L’auto-discovery: auparavant il fallait être ingénieur réseau et employer des utilitaires plus ou moins complexes afin de déterminer l’adresse IP du périphérique, récupérer son flux, choisir le débit, le protocole réseau… Désormais, n’importe quel appareil dont le NDI est activé sur le même réseau (un simple routeur), devient à la fois une source de diffusion ou de réception: il peut s’agir d’une caméra bien sûr, mais aussi d’un téléphone, d’un ordinateur ou même petit enregistreur comme l’Atomos Ninja V et son module NDI. C’est magique puisque tout est automatisé.
    Atomos_NinjaV_NDI
  • Le protocole fait transiter non seulement l’audio, la vidéo, mais aussi des tonnes d’autres possibilités comme le contrôle à distance des caméras PTZ!
  • Pour résumer, le NDI permet de faire un multicam sans la moindre compétence réseau.

La preuve par l’exemple

Pour démontrer cette étonnante facilité, nous avons voulu réalisé le test suivant. Faire un multicam vers Youtube avec comme source 2 ordinateurs différents, un téléphone et une caméra Panasonic compatible NDI. Nous nous servirons d’un 3ème ordinateur qui assurera le mix grâce au logiciel gratuit OBS Studio et l’envoi vers Youtube.
Pour se faire, il faut d’abord télécharger la suite d’outils suivants compatibles Mac/Windows:

  1. La suite d’outils gratuites NDI Tools
  2. Le logiciel gratuit OBS Studio
  3. Le plugin NDI gratuit pour OBS Studio
  4. L’application malheureusement payante NewTek NDI Camera pour le téléphone

NewTek NDI Tools

Ensuite, nous avons effectué les opérations suivantes:

  1. Nous avons installé NDI tools sur tous les ordinateurs. La suite d’outils comprend un utilitaire baptisé Newtek NDI Scan Converter. Nous l’avons lancé. C’est lui qui établit le protocole NDI et qui permet de choisir sur n’importe quel ordinateur connecté, la source à diffuser: une fenêtre de navigateur Internet, le plein écran, une Webcam. Bref, tout ce que vous désirez diffuser pendant votre Live.
  2. Nous avons aussi lancé l’application sur le téléphone
  3. Et nous avons enfin allumé la caméra Panasonic, paramétrée en NDI, tous ces appareils appartement bien sûr au même réseau local: une simple box Internet.
    NDIHX

Ensuite, dans OBS Studio équipé du plugin NDI: 

Une fois le logiciel lancé sur la troisième machine, il suffit de créer une Scène pour chaque source puis dans Source pour chaque scène, de sélectionner « Source NDI » grâce au bouton « + ». Tous les périphériques (ordinateurs et caméra) dans notre cas apparaissent sans aucune autre intervention. Vous voilà en quelques minutes dans une configuration Multicam, sans câble ou presque et prêts à diffuser sur Youtube (ou n’importe qu’elle plateforme.
OBS_01OBS_02

Il ne vous reste plus qu’à rentrer dans les Paramètres d’OBS, l’adresse du serveur de Streaming (que récupérez sur le compte de votre chaine ou de votre page) ainsi que la clé du stream.

Pour aller plus loins, quelques conseils et astuces

  • Des mélangeurs comme le Panasonic HLC-100 vous dispense d’ordinateurs: ils se comportent comme des mélangeurs traditionnels, mais aussi comme des pupitres de contrôle pour caméra PTZ et surtout comme des PC capable de streamer directement suivant le même principe que celui que nous venons de décrire: c’est un peu un appareil unique qui regroupe toutes les fonctions en un.
  • Avant de paramétrer votre Stream, utilisez toujours un site comme Speedtest (une application est aussi disponible sur téléphone), ceci afin de mesurer la qualité de la liaison vers internet et ainsi d’adapter le débit d’encodage.
  • Préférez toujours un câble Ethernet entre le mélangeur ou l’ordinateur qui diffuse vos sources: le Wifi est toujours moins stable.
  • Lorsque vous programmez un Live sur Facebook ou Youtube: programmez-le 30 minutes avant l’instant T. Pourquoi? Pour vous permette de tester! Pendant ces 30 minutes, vous seul pourrez voir le stream en ligne avant son démarrage et détecter toutes les sources de problème. Si vous le lancez directement, tout problème sera visible par votre audience.
  • Si vous souhaitez diffuser sur plusieurs réseaux simultanément vous pouvez utiliser des services comme restream.io, mais attention, encoder simultanément pour plusieurs plateforme nécessite de la puissance.

L’article Tout connaitre pour débuter dans le streaming est apparu en premier sur Createinmotion.

Four Reasons You Should Use (and Love) Your Camera’s Stock Lens

Par Jourdan Aldredge

Need an incentive to love your stock lens? Break down some of the benefits of sticking with your camera’s stock zoom lens.

Google Earth Studio: pilotez un drone depuis votre ordinateur

Par Sébastien François

Tout le monde connait Google Earth qui permet de se promener sur la planète. Mais il y a plus fort: Google Earth Studio passe à la 3D et permet ainsi de monter des séquences aériennes directement depuis votre navigateur. Finies les autorisations de vol en ville! Les résultats sont bluffants et préfigurent peut-être l’avenir du montage vidéo.

Google Earth Studio (que nous appellerons GES dans cet article), c’est un peu la suite logique de Google Earth. Cet outil en ligne permettait déjà beaucoup puisque l’on pouvait voyager sur toute la planète grâce à une banque phénoménale d’images satellite. Le problème, c’est qu’en zoomant au maximum, on se retrouvait avec une image « plate » et pixelisée. Si Google Earth a beaucoup été utilisé post-production avec cet effet de zoom depuis l’univers vers un point précis du globe, Google Earth Studio va bien plus loin:
– Les données du globe ont quasiment toutes été modélisées en 3D.
– GES est devenu un outil de création cinématique en ligne où l’on dessine ses propres trajets aériens, avec animation de tous les paramètres possibles (caméra, cible, heure du jour ou de la nuit, nuages…).
– Le logiciel permet aussi de générer des « track points » qui peuvent ensuite être utilisés dans After Effects pour ajouter des éléments (marqueurs, textes…). Et pour mieux se rendre compte des possibilités de l’outil, en voici la démonstration:

Nous allons donc faire un tour d’horizon de l’outil et vous montrer à quel point il est simple. Il permet ainsi d’ajouter des cinématiques à vos montages pour localiser des lieux par exemple. C’est bien sûr gratuit, à condition de laisser la « Watermark » de Google sur vos images.

Le principe

Attention, pour vous servir de GES vous devrez attendre quelques jours que Google approuve votre inscription. Pour ce faire, rendez-vous à l’adresse suivante: https://www.google.com/earth/studio/ et inscrivez-vous. Dans notre cas, il a fallu patienter 4 jours. D’autre part, GES ne marche qu’avec le navigateur Google Chrome (forcément), téléchargeable gratuitement sur n’importe quelle plateforme.
Ensuite, le fonctionnement est presque similaire à celui d’un logiciel de montage: une Timeline, des images clés pour animer les paramètres (trajet, cible, chemin…) et un moniteur de Programme qui va montrer en temps réel votre le vol virtuel de votre caméra. Nous allons réaliser l’exemple suivant qui montre Notre Dame de Paris avant qu’elle ne brûle:

Prise en main

Un fois connecté à GES, la plateforme en ligne vous propose de créer ou un « Blank Project » (Projet vierge), ou de choisir parmi des modèles d’animation déjà préconçus (exactement comme les modes de vol disponibles sur les drones). Pour plus de simplicité, on va choisir le mode « Fly to and Orbit » en cliquant sur « Quick Start »: autrement dit, on va voler d’un point A à un point B et effectuer une orbite autour de notre point d’intérêt.
GES_01

Il suffit ensuite de saisir la destination finale: dans notre cas « Notre Dame, Paris, France ». Le logiciel affiche aussitôt la vue satellite, puis, la simulation en temps réel du vol: vous pouvez changer l’altitude de d’arrivée, le rayon de l’orbite, l’angle d’approche… Tous ses paramètres seront bien sûr modifiables ultérieurement. Vos modifications sont appliquées en temps réel.

GES_02

Il ne reste enfin qu’à choisir la durée de l’animation. Par défaut, elle sera de 25 secondes. Vous découvrez ensuite l’interface du logiciel.

L’interface de Google Earth Studio

Par défaut, on ne dispose que de la vue finale en 3D. Il est donc préférable, pour affiner le trajet de la caméra, de passer en mode « 2 Viewports » grâce à l’icône de l’écran.
GES_03
A gauche, on visualise ainsi la carte et surtout le trajet de la caméra. De cette manière, on pourra très facilement customiser tous les mouvements et gérer les paramètres de déplacement. La Timeline quant à elle, montre toutes les images clés et la liste des paramètres. Dans notre exemple, on désire que le point de départ se situe dans l’espace et bien plus loin de Paris. Il suffit donc de placer la tête de lecture au début puis, de saisir une altitude de 35 Kilomètres, et, dans la barre de recherche, de taper « Frankfort » en Allemagne. Vous cliquez ensuite sur le losange de la rubrique « Camera Position » afin d’indiquer que vous avez modifié les images clés de position de la caméra.

GES_04
Si vous lancez la lecture, vous constatez donc que la caméra s’est positionnée au dessus de la ville allemande et ira jusqu’à Paris depuis le cosmos.
Astuce: Par défaut, GES effectue un trajet linéaire depuis l’espace, ce qui n’est pas très esthétique. Dans le menu Animation/Advanced, choisissez Logarithmic Altitude. Google va accélérer la descente vers le sol et arrondir la trajectoire, ce qui est bien plus satisfaisant.

Vous pouvez désormais sauter d’image clé en image clé pour modifier tout ce que vous désirez, et bien sûr créer des étapes sur le parcours.

Les paramètres supplémentaires

Vous aurez aussi compris que chaque point dans le Viewport « carte » correspond à une image clé de position de la caméra: vous pouvez ainsi les manipuler à loisir pour vous écarter de votre trajectoire initiale. Mais on peut aller encore plus loin. En cliquant sur Add attributes, on peut ajouter des paramètres supplémentaires, qui pourront eux aussi être animés: l’heure du jour ou de la nuit, l’angle de vue de la caméra, les nuages… De cette manière par exemple, en animant le Field of view (angle de la focale), vous allez pouvoir effectuer des zooms spectaculaires, ou, au contraire, élargir le champ pour avoir une vision panoramique de la scène.
GES_06

De plus, en sélectionnant une ou plusieurs images clés et en effectuant un clic-droit vous allez aussi pouvoir changer le mode d’interpolation de l’animation (ease-in, ease-out…) ou Auto-Ease (ce qui correspond à une courbe de Bézier automatique afin de lisser les mouvements).
GES_05

Les track-points et l’export

C’est une des autres forces de GES. Les track-points peuvent être ajoutés. Qu’est ce que ça veut dire? C’est qu’au moment de l’exportation du rendu final, GES va inclure des points de votre choix en 3D afin qu’un logiciel comme After Effects soit capable de « comprendre » les mouvements de la caméra et donc d’ancrer des éléments en 3D dans la scène. Pour mieux comprendre, contentez-vous d’ajouter un trackg-point sur la cible de la caméra (Notre Dame dans notre exemple) en effectuant un clic-droit sur la cible figurant la carte ou directement dans le moniteur final.
GES_07
Votre animation terminée, appuyez sur le bouton Render. Après avoir validé la durée et la résolution, passez à l’onglet « Advanced » et cochez la case « Include 3D tracking Data ». Lancez ensuite le rendu en cliquant sur Start. GES va générer toutes les images et vous proposer de télécharger un .zip.

GES_08

Ajoutez des éléments en 3D dans After Effects

Un fois le fichier téléchargé et décompressé, GES aura généré une suite d’images numérotées que vous pourrez importer en tant que film dans n’importe quel logiciel de montage. Mais le plus amusant est d’utiliser After Effects pour ajouter du texte 3D grâce au Track Points. Lancez After Effects, puis, depuis le menu Fichier/exécuter le script, sélectionnez le fichier .jsx généré par Google. Automatiquement, votre film est chargé dans une nouvelle Composition et surtout, After Effects a créé un objet nul et un calque de texte pour chaque Track-Point.
GES_09

Il suffit alors d’écrire n’importe quelle légende ou de lier à n’importe quel élément à l’objet nul pour qu’il soit modélisé en 3D et suive les mouvements de votre caméra. Vous n’aurez qu’à jouer sur l’orientation et la position pour qu’il matche avec votre scène. Ajoutez enfin un peu de motion blur et étalonnez un peu les images dans Lumetri pour qu’elles semblent moins artificielles et vous voilà avec des images de drone en version réalité augmentée.

Des ressources pour aller plus loin

Pour aller plus loin et en vidéo, nous vous recommandons ce tutoriel en français, du célèbre Stéphane Couchoud.

An anglais vous pouvez aussi suivre cette vidéo et la chaine associée.

 

L’article Google Earth Studio: pilotez un drone depuis votre ordinateur est apparu en premier sur Createinmotion.

Neuhaus.world – Participatory, interactive music video for Lake of Pavement

Par Filip Visnjic
Neuhaus.world – Participatory, interactive music video for Lake of Pavement
Created by Moniker, Neuhaus.world is a participatory, interactive music video for Lake of Pavement, a new track by the emerging Rotterdam based artist Jo Goes Hunting.

#Repost @jeanpoole with @get_repost ・・・ Weekend projections for...



#Repost @jeanpoole with @get_repost
・・・
Weekend projections for @curseovdialect at Bar Open (featuring animation made from burning tyre grafitti I photographed in Monterrey, Mexico (hiii @aaron_eivet & @mosesiten 👋))
.
.
.
.
#livevisuals, #concertphotography, #hiphop, #melbourne, #baropen, #vdmx, #millumin
https://www.instagram.com/p/Bn9XhmnBXKN/?utm_source=ig_tumblr_share&igshid=1u5v572t41gam

[Wiki] H265/HEVC, le codec d’enregistrement du futur?

Par Sébastien François

Tout le monde connait le H264 qui a permis de compresser nos films pour faire tenir de la 4K sur une simple carte SD. Oui mais voilà, le Codec est désormais supplanté par le H265 (HEVC) qui promet d’être deux fois plus efficace. On le retrouve même déjà au coeur des caméras récentes (CX350, EVA1… ) et des hybrides (GH5, S1..). Mais quels sont ses avantages pour le futur?

Ce bon vieux H264 (ou Mpeg4 AVC) a tenu le haut du pavé pendant plus de 15 ans. Et pour cause, il permettait de diviser le poids de nos images de manière révolutionnaire par rapport au mpeg2 et autres ancêtres de la compression vidéo. C’est surtout grâce à lui que les plateformes comme Youtube ont explosé. Et pour cause. Réduire la taille des vidéos est en enjeu absolument majeur pour l’enregistrement (espace de stockage) tout comme pour la diffusion: il serait bien difficile d’envoyer des films en Prores HQ sur nos téléphones via le réseau 4G. Et a fortiori, avec l’augmentation des résolutions d’images: la HD demande 4X plus d’informations que la SD, tout comma le 4K en réclame 16X plus! Ajoutez à cela qu’on peut désormais tourner en 50P au lieu des 25 et vous obtenez des débits nécessaires encore multipliés par 2.

Un point sur ce qu’est un Codec

Bref, le Codec est un des éléments fondamentaux dans la conception des caméras et pour la diffusion de contenu. Le Codec (pour COmpresseur/DECompresseur), c’est un peu la moulinette mathématique qui va permettre de faire en sorte qu’une vidéo qui nécessiterait un débit de données de 800 Mbps n’en ait plus besoin que de 50 à qualité visuelle égale. Comment ce miracle est-il possible?

  1. Sans rentrer dans les détails trop techniques, le Codec va d’abord analyser une image, et grâce à de savants algorithmes, il va la découper suivant une grille et éliminer tout ce qui est redondant par des opérations de prédiction. Autrement dit, si 50 pixels sont identiques, il n’en gardera q’un seul et indiquera que les 50 pixels environnants sont les mêmes.
  2. Ensuite, s’agissant d’un film, il ne va enregistrer qu’une seule image entières toutes les X images (souvent 12). Dans l’intervalle, le Codec sera capable de ne garder que ce qui a changé entre temps. Dans la cas d’une interview statique, par exemple, et pour schématiser, le Codec va détecter que le fond ne change pas: il ne s’occupera donc que de l’interviewé. Le gain est donc spectaculaire.

H264 motion detection

Comme on le voit sur cette illustration: le Codec ne va détecter que ce qui change d’une image à l’autre. Souce: Cambridge University.

Oui, mais voilà, plus le Codec est performant, plus il nécessite de puissance à l’encodage et surtout au décodage lors des opérations de montage. C’est pourquoi, même en 2019, de nombreux utilisateurs utilisent des Proxy pour travailler et simplifier les calculs. C’est la contrepartie de cette compression intense.

Mais alors pourquoi changer de Codec et passer au H265?

On l’a vu, après plus de 15 ans, le H264 est implanté partout. Il est montable, diffusable… Alors pourquoi le mettre à la retraite? A cela plusieurs raisons. A commencer par le fait que nos besoins évoluent:

  • On veut tourner en 4K (a minima)
  • On passe petit à petit au HDR (High Dynamic range)
  • On souhaite avoir un sous échantillonnage des couleurs en 10 bits (pour le Color Grading et les nouveau displays). Et déjà, des constructeurs comme Panasonic proposent de la 6/8K!
  • Bref, tous ces nouveaux besoins dépassent très largement, la norme H264 qui ne prend pas en charge ces fonctionnalités: le H264 ne sait en effet pas aller au-delà de la 4K et ne supporte pas l’espace colorimétrique HDR (BT2020).

h.265-vs-h.264

Surtout, qui dit augmentation des besoins, dit une fois de plus, augmentation de la quantité d’informations à enregistrer lors des tournages. Et le principal avantage du H265, c’est qu’il arrive à être 2X plus performant que son prédécesseur. Autrement dit, à qualité égale, un film pèse 2X moins lourd. C’est ce qui permet par exemple à la EVA1 ou à la CX350 d’offrir de la 4K 10bits en 50p pour un débit de 150Mbps! Mieux, pour toutes les caméras PTZ (UE150 etc) qui peuvent streamer le signal en IP, la réduction du débit nécessaire permet d’envisager de faire passer de la 4K via une simple connexion internet classique.

La technologie H265

Le Codec H265 (HEVC High efficienty Video Codec), réussit cette performance essentiellement grâce à 2 technologies:

  • La première consiste à ne plus découper une image suivent une grille fixe composée de carrés de 16×16 pixels. Mais d’adapter cette grille suivant ce qui se passe à l’image. Autrement dit, si un fond est uni, là ou le H264 va utiliser 20 « carrés » identiques, le H265 n’en utilisera qu’un seul, d’où le gain d’espace et surtout, le découpage s’adapte en permanence pour matcher avec les mouvements à l’écran.

HEVCversusH264

  • La seconde technologie consiste à disposer d’une trousse à outils de « prédiction » bien plus développée pour « imaginer ce qui va se passer » d’une image à l’autre: 32 pour le H265 contre seulement 9 pour le H264. Si on prend l’exemple simple d’un véhicule qui se déplace dans le cadre de gauche à droite, le Codec H265 va se « douter » qu’entre 2 images le véhicule ne va pas subitement reculer! Il va donc prédire la vitesse de déplacement des pixels qui composent le véhicule. En revanche, dans le cas des feuilles d’un arbre battu par le vent, le Codec va plutôt associer l’animation à un mouvement pendulaire.

H265 prediction copie

Et la post-production dans tout ça?

C’est ici que l’histoire est encore délicate, tout comme pour le H264 à ses débuts. A l’heure où nous écrivons ces lignes, toutes les dernières versions des logiciels de montage supportent le H265. Mais attention, n’espérez pas encore monter de manière fluide sur une machine qui n’embarque pas de décodage matériel. En effet, le décodage matériel, c’est un morceau de votre processeur (CPU) ou de votre carte graphique (GPU) qui est spécialement dédié au décodage du format. Sans lui, c’est le seul processeur qui va effectuer les calculs et il le fera très lentement. L’heure est donc encore au montage par Proxy ou au transcodage. Mais la situation devrait très vite évoluer car le H265 s’impose petit à petit dans toutes puces informatiques.
H265 post prod

Au tournage, faut-il choisir le H265(HEVC)?

La réponse est mixte. Si vous désirez tourner en 10 bits HDR en utilisant des cartes SD standards, oui. A 150Mbps chez Panasonic, vous obtenez le meilleur ratio qualité d’image/possibilité d’étalonnage. Il en va de même pour les tournages longs (documentaires) ou l’espace de stockage constitue une problématique car vous ne pouvez pas décharger les cartes facilement. En revanche, vous devez envisager au préalable le fait que la post-production sera un peu moins fluide. Le H265 est tout à fait montable nativement en « cut » (suivant la puissance de votre machine), mais si vous effectuez par exemple un multicam, vous serez obligé d’utiliser des proxy ou de transcoder les rushes. Mais une chose est sûre, le H265 est bel et bien le format du futur.

 

L’article [Wiki] H265/HEVC, le codec d’enregistrement du futur? est apparu en premier sur Createinmotion.

Gear Roundup: Finding the Best SD Cards for Your Camera

Par John Rodriguez

A good SD card is a tiny-but-essential part of your gear setup. We've rounded up four of our favorite options on the market today.

[EVENT] Mettez la main sur le S1 !

Par TRM Antoine

Le Panasonic Lumix S1 arrive en magasin le 22 mars.

À cette occasion, votre boutique TRM et Panasonic France organisent un évènement exceptionnel*, pendant lequel vous pourrez…

Tenter de gagner des lots :

Tirage au sort en magasin pour vous faire gagner un objectif Panasonic Lumix S 50 mm f/1,4** et un stabilisateur Zhiyun Weebill !***

Rencontrer des Youtubeurs :

Plusieurs Youtubeurs très influents dans le monde de l’audiovisuel nous feront l’honneur de nous accompagner pendant cette journée.

TechNews&Tests

Romain est passionné de Photographie, Drone et Modélisme RC. Il réalise des tests produits et vous conseille avec plaisir !

François Lamoureux ( Explique-moi encore)

Avec François on parle et on en apprend et surtout on partage sur l’image au sens large. Montage, analyse, tutos, le tout sans prise de tête

Karim Yatrib

Karim est un passionné de l’image. Il se fait connaître en réalisant plusieurs clips dans le milieu Hip Hop Francais et US avec l’artiste Rekta … Il fait aussi des formations que vous pouvez retrouver et suivre sur le site tuto.com

Quentin Berbey (Vectan-Production)

Passionné et geek de matériel photo ciné, Quentin fait des tutos, test du matériel, réalise des courts-métrages.

Mathieu Stern

Toujours à la recherche de nouvelles idées, Mathieu est un explorateur photographique, il expérimente de nouvelles techniques, décortique les anciennes, trafique de l’optique.

Benjamin (Derrière La Caméra)

Grand passionné de créations audiovisuelles ! Il vulgarise ses quelques passions pour vous aider à réaliser une vidéo, choisir une caméra, paramétrer votre exposition, faire de meilleures photos ou encore apprendre à retoucher une photo. Tous ça dans la joie et la bonne humeur !

Quentin Cougt (itjailbreak)

Quentin partage sa passion pour la Tech : Déballages | Tests | Voyages | Compilations.

Participer à des trainings :

Nos experts vous présenteront le S1, de fond en comble ! Vous pourrez aussi prendre en main une large palette de produits vidéo, lighting, accessoires…

Profiter de conseils :

Nos conseillers sont à votre écoute pour vous guider vers les meilleurs choix selon vos projets

Découvrir des configurations professionnelles :
Nos experts ont construit des configurations professionnelles pour vous faire découvrir de nouvelles possibilités

Étendre votre réseau :

Cet évènement est l’occasion de partager vos projets avec des professionnels du milieu et/ou des passionnés comme vous !

* De 14h à 19h. Entrée sous condition d’inscription
** Réservé aux participants ayant acheté ou commandé un Lumix S1 chez TRM avant le tirage au sort
*** Conditions de participation à voir en boutique le jour de l’évènement

 

Inscrivez-vous maintenant !

 

L’article [EVENT] Mettez la main sur le S1 ! est apparu en premier sur TRM.

7 Master Cinematography Techniques from Iconic Directors

Par Scott Porter

Every director has a go-to shot that makes a scene unmistakably their own. Let's take a look at 7 iconic cinematography techniques.

How to Create Unique Effects by Editing Your Videos in Photoshop

Par Audrey Ember

Yes, you can edit video in Photoshop, but should you? Here are a few tricks you can pull off to quickly and easily add a little life ...

7 Tips for Shooting Event Video and Photography at the Same Time

Par Jourdan Aldredge

Consider the following advice for recording video and taking photos (at the same time) before shooting your next live event.

Time-lapse: le mode d’emploi complet

Par Sébastien François

Prendre une photo toutes les X secondes, assembler toutes les images pour en faire un film qui accélère l’action? Facile. En théorie. On va donc vous expliquer ici comment, et même pourquoi produire de bons time-lapses pour dynamiser ou enrichir vos productions: matériel, technique, conseils.

Un time-lapse, pour résumer, c’est la technique qui consiste à prendre une photo à un intervalle de temps régulier afin d’en faire un film. Ce qui va produire une sorte d’accéléré pour montrer ce que l’on ne verrait pas à l’oeil nu en restant planté au même endroit.
Mais, la première question est la suivante: ça sert à quoi?

Les utilisations du Time-lapse

  • Avant tout, un time-lapse sert à montrer ce qu’il est impossible d’observer à vitesse réelle: si l’on prend l’exemple classique des nuages dans le ciel, vous ne verrez pas leur évolution car ils se déplacent bien trop lentement. Avec un time-lapse, oui.
  •  Accélérer une action qu’il aurait été impossible de filmer à vitesse réelle sous peine de lasser le public. Une impression 3D de plusieurs heures va se faire en quelques secondes et afficher l’objet final. Il en va de même pour la construction d’un immeuble sur un 1 an: à raison d’une image par jour, la construction va pousser comme un champignon. On peut aussi montrer le lever et le couché du soleil, le déplacement des étoiles…
  • A dynamiser un film, tout simplement. Vous avez l’habitude de jouer sur les ralentis ou le Time-remapping (maitrise de la vitesse de lecture entre accélération et slow-motions), pourquoi ne pas introduire aussi des time-lapses pour provoquer des ruptures de rythme? On le voit dans cet exemple de la présentation de la caméra AG-CX350 puisqu’on alterne en vitesse réelle, ralentis légers, vrais slow-mo et time-lapses:
  • A faire des effets de styles, comme les « trainées de phares de voitures » que l’on voit dans les scène urbaines, ce qui n’est, encore un fois pas visible à l’oeil nu.

D’abord, un peu de Maths

Alors avant de commencer la pratique, il faut faire 2-3 petits calculs. On l’aura compris, prendre une photo toutes les X secondes signifie tout d’abord faire un peu de maths pour prévoir la durée du résultat final, une fois transformé en film.
– Le premier paramètre à prendre en compte, c’est la cadence d’image de votre film. Autrement dit, on doit anticiper la cadence d’image du montage final (voir notre article sur les cadences d’image): communément, il peut s’agir de 24/25 ou 50 images par secondes (fps). Il faudra donc prendre 24/25/50 « photos » pour produire 1 seule seconde de film.

– Le second paramètre, c’est le fameux intervalle entre chaque prise de vue. Est-ce que je prends une image toutes les 2 secondes? Ou toutes les minutes? Pour aider à faire ce choix, tout va dépendre de la scène et du déplacement des objets qu’elle montre. Mais on peut dégager quelques règles:

Un sujet très mobile (véhicule…): intervalle de 1 à 2 secondes
Un sujet un plus plus lent (piétons…): intervalle: de 2 à 3 secondes
Tout ce qui est encore plus lent (la course du soleil etc): de 5 secondes à plusieurs minutes.

Bien sûr, tout ceci n’est que purement indicatif, mais l’idée est là. Donc, pour obtenir ma séquence et raisonner mathématiquement, je vais dire que je veux un plan de 10 secondes, qui sera diffusé à une cadence de 25 images par secondes (fps) avec un intervalle de 3 secondes. J’applique donc la formule suivante pour connaitre le nombre de photos à prendre.

Les formules :

(Durée du plan en secondes) X (Cadence d’images finale)
= Nombre N de photos à prendre.

GH5-Timelapse-menuEt si vous n’être pas équipés d’une caméra, ou d’un hybride qui intègre la fonction « Interval Rec » ou « Time-Lapse » (comme chez Panasonic), vous allez ensuite appliquer la formule suivante pour savoir combien de temps patienter avant la fin du time-lapse.

(N nombre de photos à prendre) X Intervalle choisi
= Durée du shoot en secondes

Timelpase_appDans notre exemple, il nous faudra donc prendre 250 images (10 secondes x 25 i/s) et patienter 250 x 3 secondes (durée de l’intervalle). Soit 750 secondes, soit, 750 : 60 = 12 minutes 30. Voilà, pour le calcul de base. Évidemment, il peut se faire à l’inverse: « je sais que la course du soleil avant la nuit prend 3h et je fixerai un intervalle de 10 secondes ». Il me faudra donc: (3600 seondes (1 heure) x 3 heures)/10 = 1080 images. Le plan va donc durer: 1080/25 (cadence d’image) = 43 secondes environ.

Et pour les plus feignants, il y a même des applications comme celle-ci (pour iOS) et celle-là (pour Android)

Ensuite, un peu de matériel…

Franchement, côté matériel c’est assez simple: un bon time-lapse, c’est avant tout un DSLR, un hybride ou une caméra qui sait prendre une photo toutes les X secondes. Et même si ce n’est pas le cas, il suffit d’acheter un « intervallomètre » 01_intervallometerà raccorder sur la prise Remote de l’appareil pour qu’il en soit capable. C’est l’intervallomètre qui décidera donc de la prise d’une photo toutes les x secondes. Dans le cas de Panasonic, la fonction est intégrée depuis bien longtemps et surtout, les appareils savent assembler les images pour en faire un film en interne sans avoir besoin de monter: vous obtenez directement la vidéo.

Pour le reste, un time-lapse, c’est surtout un plan qui ne bouge absolument pas (sauf dans le cas d’un motion time-lapse) afin d’éviter le moindre tremblement d’image : vous n’aurez alors besoin que:
Avalon-Universal-PRO-Tripod– D’un trépied costaud (ou n’importe quelle support vraiment stable). Même le vent peut faire trembler un plan et ruiner votre prise de vue si le support n’est pas stable, surtout avec des optiques lourdes en longue focale.
– D’une « power bank » (batterie USB – voir notre article sur les accessoires) si vous prévoyez que la prise de vue va durer plusieurs heures. Elle vous permettra d’alimenter votre appareil tout le temps nécessaire.
– D’un filtre ND variable (ou d’un jeu de filtres ND). Comme nous allons le voir après, pour obtenir des effets de trainées, on est obligé de choisir un temps de pose très très bas (voire de plusieurs secondes). Et donc, même la nuit, il faudra peut-être mettre un filtre Neutre pour abaisser la quantité de lumière et conserver ce Shutter très lent.

Le temps pour composer et raconter: le choix de l’intervalle et du Shutter

Everest – A Time Lapse Film – II from Elia Saikaly on Vimeo.

Vous avez compris les maths, vous avez compris qu’il faut assez peu de matériel? Place maintenant à la réflexion. Intellectuellement, il vous faut discerner deux choses: le cadre bien sûr (mais ça vous savez faire) et ensuite la priorité que vous donnerez aux sujets mobiles ou immobiles de votre scène. Et là, c’est d’abord le choix de l’intervalle qui va jouer.
Prenons un exemple. Vous avez prévu de tourner le déchargement d’un énorme container d’un bateau sur un quai. Déchargement qui prendra 1 bonne heure. Dans votre scène vous allez avoir la grue qui porte le container et les dizaines d’ouvriers et de véhicules qui vont s’agiter pour le recevoir.

  • Si vous optez pour un intervalle très grand (de l’ordre de 15 secondes), votre plan final mettra en valeur le cheminement du container (car le mouvement est très très lent) au détriment des ouvriers/véhicules qui vont scintiller, apparaitre et disparaitre: en 15 secondes, ils auront parcouru bien du chemin.
    timelapse – discharging a container ship from Andre Freyboth on Vimeo.
  • Si vous optez pour un intervalle plus court (1-2 secondes), ce sont eux, à l’inverse qui vont être mis en valeur comme des fourmis qui s’agitent, à l’inverse du container qui va sembler presque immobile.

Tout est donc affaire de choix et de priorité dans la composition. Place ensuite à l’esthétique et c’est là que le shutter prend toute son importance. C’est lui va qui déterminer le « motion-blur » ou flou de mouvement. Là encore, prenons un autre exemple. Vous filmez tout simplement une rue passante.

  • Avec un shutter rapide (1/50ème de seconde par exemple) vous allez accroitre le sentiment de passage, car les passants vont tous être presque nets et sembler courir et courir encore dans cette rue.
  • Au contraire, avec un shutter très lent (1 seconde), ils vont tous s’estomper pour ne laisser que des trainées diffuses. Vous allez dans ce cas là, privilégier la rue et les bâtiments.
    GH1 Timelapse test with intervalometer from Arthur Kulcsar on Vimeo.

En pratique: le Manuel, le Manuel et encore le Manuel

Un time-lapse étant un assemblage de photos, tout écart entre deux images va sauter au yeux et scintiller. Vous devez donc tuer tous les automatismes de votre caméra.
Pourquoi? Parce que même si vous ne le percevez pas, dans n’importe quelle scène, d’une seconde à l’autre, il y a toujours un changement. Pour comprendre, imaginez que vous soyez en Autofocus sur la scène de rue que nous avons évoquée: chaque nouvelle photo sera mise au point sur un piéton différent. Donc, si vous engagez un automatisme (Ouverture -Iris-, Shutter, ISO…), ce micro changement sera perçu par la caméra qui va donc faire varier un paramètre et adapter ses réglages.
Manual Mode
Au final, vous ne pourrez pas exploiter le résultat. Le seul bémol concerne peut être la Balance des Blancs. Comme la mesure s’effectue différemment (sur un global et sans changement brutaux), ce paramètre peut parfois être laissé en automatique. Quoi qu’il en soit, la procédure à respecter est la suivante:

  1. Je bascule mon appareil en 100% manuel: focus, ouverture, shutter, Iso (Gain)… Je paramètre mon appareil en Live-View, Constant preview afin de voir l’incidence des réglages. Dans le cas d’une caméra, c’est inutile: elle le fait toute seule. Dans le cas d’un DSLR, privilégiez aussi les optiques manuelles: le relèvement du miroir provoque souvent un décalage de l’exposition de quelques millisecondes, ce qui sera visible à la fin.
  2. Une fois que j’ai choisi mon cadre, que j’ai verrouillé mon trépied, je prends une photo de test afin de vérifier totalement la qualité de la photo et de détecter des défauts. Dans le cas d’une caméra, je lance un enregistrement de quelques images pour vérifier les mêmes paramètres. J’ajuste les paramètres si besoin.
  3. Je prépare l’enregistrement du time-lapse (intervalle, shutter…) et je le lance.

Et en post-production?

On ne va pas ici développer les techniques avancées de post-production en RAW etc, mais une fois votre time-lapse réalisé, se pose à vous deux cas de figure. Soit votre caméra a déjà généré le film (cas des GH4/5S, CX350 etc…) dans la résolution souhaitée, soit vous avez enregistré les X images sous forme de photos sur votre carte mémoire. Dans ce dernier cas:

  1. Importez toutes les photos dans un dossier sur votre machine
  2. Dans votre logiciel de montage: importez les images sous forme de « séquence d’image »: elle sera lue comme un film à raison d’une photo par image. Ou alors, si votre logiciel ne supporte pas cette fonctionnalité, indiquez que chaque photo ne doit durer qu’un frame lors de son importation: en les glissant sur votre time-line vous aurez donc un film.
    import-as sequence
  3. Pour une utilisation plus poussée, vous pouvez acquérir un logiciel spécialisé comme LrTimelapse en conjugaison avec Adobe Lightroom. Ce type d’application réservée aux professionnels va permettre d’assembler, de corriger toutes les incohérences d’une images à l’autre et même de jouer sur le format RAW des photos si votre appareil en est capable.

Effet Holy grail, Tilt-Shift, Motion Time-Lapse, Hyperlapse… C’est quoi?

Pour conclure, on va évoquer brièvement différentes techniques dérivées du time-lapse.

1. L’effet Holy grail pour les levers et les couchers de soleil

Cette technique consiste à tourner un time-lapse de la nuit au jour et vice versa. Oui mais voilà, on l’a vu, comme on reste en Manuel, l’exposition va changer de la pénombre au plein soleil. Alors comment faire? Le plus simple, c’est de découper le time-lapse en 4 sections. Dans le cas d’un coucher de soleil, vous lancez la prise en étant légèrement surexposé et dès que vous commencez à être sous-exposé, vous faites une pause et vous réajustez l’exposition. Vous relancez ensuite le second time-lapse. Et ainsi de suite jusqu’à la nuit noire. Au montage, vous ferez se chevaucher les 4 time-lapses avec un simple fondu.

Wellington South Coast New Zealand – Day to Night Time-lapse from Mark Gee on Vimeo.

2. Le Tilt-Shift

Cet effet consiste à prendre des time-lapse d’un point de vue très en hauteur. Avec cette technique les humains tout en bas, vont ressembler à de petites personnages semblables à des jouets. On rajoute aussi du flou en haut de la scène et on sature les couleurs. Le mieux est de voir cet exemple en image:

A (Little) London Christmas – A Tilt Shift Timelapse from Media Hog Productions on Vimeo.

3. Motion time-lapse et hyperlapse

Le motion time-lapse va nécessiter un slider et une tête motorisée qui va bouger d’une position A à une position B dans l’intervalle de temps. Si vous devez prendre 250 photos, le logiciel du slider (qui pilote aussi l’appareil en général) va découper son mouvement en 250 positions et ne bougera qu’entre chaque photo. L’hyperlapse quant à lui, c’est la technique qui consiste à se déplacer entre chaque image tout en gardant un cadre stable. C’est assez dur à maîtriser, mais les nouvelles caméras de sport ou 360° commencent à embarquer nativement cette fonctionnalité.

Berlin Hyperlapse from b-zOOmi on Vimeo.

 

 

 

L’article Time-lapse: le mode d’emploi complet est apparu en premier sur Createinmotion.

❌