Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

⁣ ⁣⁣ ⁣#repost @isyet⁣ ⁣__________________⁣ ⁣⁣ ⁣Made a show...




⁣⁣
⁣#repost @isyet⁣
⁣__________________⁣
⁣⁣
⁣Made a show ✨🤸🏼‍♀️🌠 in one week with these amazing ladies⁣
⁣@bodyartdance .⁣
⁣.⁣
⁣.⁣
⁣.⁣
⁣.⁣
⁣#projectionmapping #projectionart #projectiondesign #projectionist #videoprojection #millumin #animation #dance #danceproject #danceprojection #dancers #dancephoto #calartsmafia #vscocam
https://www.instagram.com/p/B44dQHfJX8m/?igshid=1eixiimhk47lx

6 erreurs à éviter pour bien débuter en photographie !

Par Ugo

Depuis maintenant quelques mois, studioSPORT propose une gamme d’appareils photo hybrides. On retrouve un environnement complet qui vous permettra de vous équiper sereinement, que vous soyez un amateur passionné ou un professionnel averti. Intéressé par la photographie depuis maintenant quelques années, j’ai profité du prêt d’un boitier Sony Alpha 7S pour débuter et comprendre le […]

How to Find and Secure Locations for Your Next Film

Par Rubidium Wu

In this article, we’ll look at resources for finding locations, and how to put the most "money on the screen" — not in the pockets — of ...

KeyShot 9 dévoilé : le rendu GPU enfin disponible

Par Shadows

L’équipe de développement de KeyShot dévoile la nouvelle version 9 de l’outil. Une mise à jour qui change considérablement les capacités du produit.

En effet, il est enfin possible de faire du rendu GPU, grâce à NVIDIA RTX et OptiX. Ce mode est disponible à la fois en rendu temps réel et offline, il s’active en un clic. Attention, il vous faudra disposer d’un GPU NVIDIA en architecture Maxwell ou plus récente afin d’en bénéficier.

Outre le rendu GPU, le denoising est aussi au rendez-vous. Disponible en rendu GPU comme en CPU, il devrait permettre de diviser vos temps de calcul jusqu’à 30 fois.

Autres avancées, cette fois dans la version Pro : RealCloth, une technologie de Luxion qui permet de créer des matériaux tissés réalistes, et un système de configurateur web poussé et paramétrable.

Enfin, toutes les versions de KeyShot disposent d’une librairie de modèles 3D qui vous aidera à créer des scènes réalistes.

Pour plus de détails, une vidéo de près d’une heure a été mise en ligne par l’éditeur. Elle est visible plus bas.

Notez enfin que notre partenaire Progiss est revendeur de la solution KeyShot : vous pourrez donc retrouver ce logiciel dans la boutique 3DVF.fr.
Comme toujours, si vous avez des questions, n’hésitez pas à contacter notre partenaire Progiss, par téléphone au 01 49 89 07 90 ou par mail : info@progiss.com
Notez également que l’équipe Progiss est à votre disposition pour vous proposer des présentations des logiciels de la boutique, que ce soit dans leurs locaux (Villepinte, à côté de Paris) ou dans les vôtres.

L’article KeyShot 9 dévoilé : le rendu GPU enfin disponible est apparu en premier sur 3DVF.

Interview: Learan Kahanov, DP of “Madam Secretary”

Par Charles Yeager

Learan Kahanov talks about his journey to becoming the DP of "Madam Secretary" — and where he continues to look for inspiration.

KeyShot 9 en approche : quelles avancées attendre ?

Par Shadows

L’équipe de développement de KeyShot nous propose un aperçu rapide de la future version 9, qui devrait rapidement être lancée.
On retiendra tout d’abord l’arrivée du rendu GPU. L’éditeur ne donne pas plus de précisions ce sujet, mais si le rendu GPU n’est pas limitant en termes de fonctionnalités, il pourra s’agir de la plus grosse avancée de cette V9.
En outre, KeyShot 9 proposera du denoising (une fonction désormais classique pour tout moteur de rendu), du fuzz (parfait pour vos moquettes et tissus), un système Realcloth axé sur les vêtements. Enfin, la vidéo montre de nouveaux modèles 3D inclus sous forme de librairie.

Rappelons que KeyShot est une solution de rendu et animation pensée pour s’interfacer avec de nombreux outils créatifs.

Crédits :
KeyShot Cloth – Esben Oxholm Microphone – Magnus Skogsfjord Craftsman Drill – Ryan Levy Coat – João de Brito Gloves – Magnus Skogsfjord Auto Windtunnel – Nils Piirma Leather Chair – Esben Oxholm 3D Model Library – Esben Oxholm

L’article KeyShot 9 en approche : quelles avancées attendre ? est apparu en premier sur 3DVF.

Pocket 4K and Pocket 6K Owners — BRAW Comes to Premiere Pro

Par Lewis McGregor

Here's some highly anticipated news for the Pocket 4K and Pocket 6K — you can now use BRAW in Adobe Premiere Pro and Avid.

Salon de la Photo 2019 : vos entrées pour découvrir les dernières nouveautés

Par Shadows

Mise à jour du 7 novembre : le salon débute aujourd’hui à Paris. N’hésitez pas à y faire un tour d’ici le 11 novembre si la photographie vous intéresse !

Publication initiale le 20 septembre 2019 :

Du 7 au 11 novembre se tiendra à Paris le Salon de la Photo, rendez-vous annuel de la photographie sous toutes ses formes.

Au menu, entre autres :
– de nombreux exposants de matériel (avec possibilité de tester objectifs, boîtiers), accessoires, éditeurs de logiciels, entreprises de services (formations, impression, etc) ;
– une Grande Expo dont le thème cette année est « Un Regard Contemporain dans la Collection de Florence et Damien Bachelot ». Ce couple de collectionneurs possède notamment des tirages signés Henri Cartier-Bresson, Brassaï, Lewis Hine, Saul Leiter, mais aussi de photographes divers du 20ème siècle.
C’est ici la partie contemporaine (décennies 2000 et 2010) de la collection qui sera mise en avant, avec en particulier des photos de type portrait et paysage ;
– les Zooms, une mise en avant de jeunes talents au travers de deux prix dont un décerné par le public (vous pouvez voter jusqu’au 30 septembre) ;
– un programme de rencontres, ateliers et conférences ; le contenu n’est pas encore totalement annoncé, mais on y retrouvera comme chaque année des thématiques balayant un large spectre : technique, reportage, photo culinaire, retours d’expérience, utilisation de matériels et logiciels…
– un village de vente, ainsi qu’une librairie.

Pour nos lectrices et lecteurs qui ne font pas de photo, la visite reste intéressante, entre les expositions qui peuvent vous donner de l’inspiration et les produits utilisables en infographie (calibration, impression, retouche d’images…).

Le salon se tiendra Porte de Versailles, dans le Sud-Ouest de Paris. Le salon est payant, mais 3DVF vous offre des entrées en partenariat avec le salon. Voici la marche à suivre :

– rendez-vous sur la plateforme de préenregistrement via ce lien ; le code promotionnel 3DVF19 devrait automatiquement être pris en compte. Il vous suffira de rentrer quelques informations de contact, avant d’accéder à votre invitation ;
– imprimez votre invitation, qui sera à présenter à l’entrée du salon.

L’article Salon de la Photo 2019 : vos entrées pour découvrir les dernières nouveautés est apparu en premier sur 3DVF.

[Tuto] Monter la 360 en 2D pour produire des plans impossibles

Par Sébastien François

Les caméras 360° ne servent pas qu’à produire de la 360. Comme elles capturent tout leur environnement, on va utiliser ici la technique de « l’overcapture » ou du « reframe » pour créer des mouvements uniques dans les montages traditionnels. Les résultats sont spectaculaires.

Imaginons un cadreur qui peut voir l’intégralité de son environnement: devant, derrière, mais aussi au-dessus, en-dessous et surtout capable de bouger à la vitesse de la lumière pour suivre sans erreur un avion de chasse. C’est exactement ce que permettent de faire les caméras 360° quand leur usage est détourné en 2D.
Comme elles filment simultanément absolument dans toutes les directions, l’idée est donc de sélectionner en post-production le cadre de l’image le plus intéressant et d’animer sa position pour suivre ce qui nous intéresse. Pour résumer, elles dont office de cadreur virtuel.
Pour mieux se rendre compte des possibilités, voici un court exemple de ce qu’il est possible de faire:

Comme on le voit dans ici, le principe est le même que celui qui consiste à « cropper » dans une image 4K quand on va livrer en HD. Sauf que c’est dans toutes les directions. Oui mais voilà, un peu comme pour les Gopro et autres caméras de sport, quand elles sont apparues, les caméras 360° abordables n’ont pas été prévues à la base pour être utilisées de manière traditionnelle. Elles ont été faites pour le social sharing avec des app et pas forcément une recherche de post-production poussée.
Malgré tout, et comme pour les caméras sportives, les pros n’ont pas tardé à s’emparer des possibilités offertes, malgré la qualité d’image bien plus faible. Parce qu’un plan unique justifie une qualité moins « broadcast ». Il existe donc des limites, mais elles sont de plus en plus repoussées. Ceci d’autant que les caméras 360° disposant de gyroscopes et filmant partout, elles sont toutes équipées de stabilisateur d’images si performants qu’elles peuvent se dispenser de nacelles (Gimbal).

360° en 2D, comment ça marche?

Le principe est assez simple. Les caméras 360° sont équipées d’objectifs fisheye qui filment leur environment à 180° (dans la cas de 2 objectifs, 120° pour 3 objectifs etc).

fisheye

A partir de là, une puce dédiée ou un logiciel vont rassembler les 2 images (ou autant d’images que la caméra a d’objectifs) de manière équirectangulaire pour produire ce résultat qui s’apparente à un panorama déformé:

C’est cette image qui sera projetée dans une sphère virtuelle et qui permettra au spectateur de se promener à 360° comme s’il était au centre de cette sphère. L’idée est donc de récupérer une portion de l’image afin de l’insérer dans un montage classique. On va ainsi pouvoir animer le cadrage, changer de point de vue etc…

360_03_reframe
Ici, on choisit ce cadre dans l’image « panorama » pour produire, à droite, un plan « normal ». Bien sûr l’idée est d’animer le cadrage.

Les limites à connaitre

Evidemment, tout cela semble magique, mais il y a plusieurs limites qu’il faut bien prendre en compte:

  • La plupart du temps, les caméras produisent des images en 5,7K maximum (5760 x 2880 pixels) et les capteurs sont minuscules. Autrement dit, quand on reframe (ou overcapture), on ne va se servir que d’une petite partie de cette résolution. La qualité d’image est donc assez basse et la faible lumière est à proscrire.
  • Certaines caméras produisent des fichiers « prêts à l’emploi » en équirectangulaire, mais d’autres, non. Il faut alors passer par un logiciel maison supplémentaire pour effectuer le stitching (l’assemblage des images): le processus, certes simple et automatisé, est parfois long. Le but étant de créer cette image « Flat » sans défaut de raccords.
  • Certains ont déjà du mal a travailler en 4K faute de puissance: c’est encore pire en 5,7K d’autant que de plus en plus de caméras enregistrent en H265 (codage plus performant, mais ressources énormes nécessaires pour la décompression et la lecture, voir notre article sur le sujet). Il est donc souvent recommandé de travailler avec des proxys, voir là-encore notre tutoriel).
Le logiciel de la firme Insta360 (Insta360 Studio 2019) permet de stitcher les images, mais aussi faire du reframe.

Reframe/Overcapture, ce qu’il vous faut

Si tous les logiciels savent désormais monter de la VR (de la 360 native donc), ils ne sont pas tous capables d’effectuer le recadrage et l’animation des paramètres (changement de vue, champ de vision etc…). C’est pourquoi deux solutions s’offrent à vous:
– Utiliser Insta360 Studio 2019 qui supporte gratuitement la majorité des caméras 360° y compris celles qui ne sont pas de la marque. Il est téléchargeable ici et son tutoriel (très simple est ici).
– Installer les plugins Gopro pour Premiere Pro qui vont permettre ajouter l’effet « Gopro VR Reframe ». Le téléchargement pour Windows est ici et le téléchargement pour Mac est là. A noter que Gorpo propose aussi l’installation des plugins via son logiciel Gopro Fusion Studio, mais ce dernier ne sera compatible qu’avec la caméra de la marque (la Fusion).

Le reframing en quelque étapes

Une fois les plugins installés, il suffit de lancer Premiere Pro et d’importer vos fichiers 360 en Flat (equirectangulaire). Créez ensuite une séquence (une Timeline), aux dimensions de vos rushes source (5.7K, 4K…) en respectant bien la cadence d’image native de la caméra (25/30/50P).

360_05_VRReframePlug

Glissez simplement l’effet GoPro VR Reframe depuis la bibliothèque d’effet sur le clip de votre choix. L’image est immédiatement recadrée. Placez la tête de lecture en début de clip et ouvrez les Options d’effets. Activez les chronomètres afin d’indiquer que vous allez animer ce « recadrage ». Les paramètres sont les suivants:

  • Le FOV (Field of View), permet d’animer la champ de vision du cadrage, autrement dit, en augmentant la valeur, on étend le champ de vison, et en la réduisant, on zoome dans l’image.
  • Les YAW/Pitch/Roll correspondent aux directions comme pour le pilotage d’un drone, ou le contrôle d’une Gimbal. Le YAW correspond pour nous au Pan (de la gauche vers la droite et vice-versa), le Pitch contrôle le Tilt (inclinaison verticale), et le Roll fait appel à l’inclinaison de la l’assiette (pour corriger la ligne d’horizon par exemple).
  • Le paramètre Smooth transition permet quant à lui de lisser les images-clés (Ease In & Ease Out) car le plugin ne prend en compte l’interprétation faite par Premiere Pro.

Corriger les déformations

Tout comme pour les caméras de sport qui ont un champ de vision très large, les bords de l’image sont souvent courbés. Pour corriger ce défaut, allez chercher l’effet « Déformation de la lentille » (Lens Distortion). Glissez-le sur votre rushe. Dans les Options d’effet, il suffit de glisser le paramètre Courbure vers une valeur négative pour atténuer les déformations.

La déformation est corrigée, à droite par rapport au fichier natif.

L’effet Tiny Planet

L’effet Tiny Planet est ultra populaire et il était ultra simple à réaliser avec le plugin Gopro VR Reframe. Il suffit pour cela:
– de basculer le Pitch à 90° (pour regarder vers le sol en quelque sorte) et d’étendre le champ de vision à près de 100. Ce qui va faire « decoller » la caméra et rassembler tout l’image sous forme de « petite planète ». Bien sûr, si la caméra n’était pas parfaitement verticale lors de prise de vue, vous devrez sans doute corriger l’angle avec le Roll ou le YAW.

L’effet hyperlapse avec du motion-blur

La plupart des caméras 360° proposent une fonction d’hyperlapse car elles sont ultra stabilisées. Oui, mais voilà, l’effet est souvent disponible sur l’application du téléphone seulement et pas en post-production sur ordinateur. C’est très frustrant. Pour autant, il existe une parade:
– Tournez votre trajet à vitesse normale (comme dans la fin de la vidéo d’introduction de l’article).
– Une fois le fichier rapatrié dans Premiere Pro et Reframé à votre guise. Augmentez la vitesse de lecture entre 2000 et 3000%. En l’état, vous verrez bien l’effet hyperlapse, mais il n’y pas de motion blur (flou de mouvement).
– Effectuez un clic-droit sur le clip / Interpolation temporelle (Time Interpolation) / et sélectionnez Interpolation (Frame Blending). Le flou de mouvement est ainsi ajouté.

Enfin pour aller plus loin dans les possibilités offertes par les caméras 360° utilisée en 2D, nous vous recommandons cette vidéo de Cinecom.net qui montre l’étendue des transitions que l’on peut réaliser en quelques mouvements:

L’article [Tuto] Monter la 360 en 2D pour produire des plans impossibles est apparu en premier sur Createinmotion.

KeyShot 9 sera plus rapide et plus efficace

Par Shadows

L’équipe de développement de KeyShot annonce l’arrivée prochaine du raytracing accéléré par GPU (via NVIDIA RTX) et du denoising via intelligence artificielle. Des avancées prévues pour la version 9 de KeyShot, disponible cet automne.

Dans l’annonce, l’équipe rappelle que KeyShot est historiquement un moteur de rendu standalone en raytracing sur CPU. Jusqu’ici, l’utilisation du GPU était exclue pour des questions d’optimisation ou de qualité de rendu, mais KeyShot va enfin sauter le pas avec l’arrivée des GPUs NVIDIA RTX. En pratique, ce rendu GPU se fera à l’aide du moteur NVIDIA OptiX. Le basculement vers le rendu GPU se fera en un clic, du moment que la carte graphique est supportée (donc récente).

Nous aurons l’occasion de revenir sur cette annonce lors de son lancement effectif, d’ici quelques semaines.

L’article KeyShot 9 sera plus rapide et plus efficace est apparu en premier sur 3DVF.

Panasonic Lumix S1H : le plein format dédié à la vidéo

Par Thomas

Panasonic S1H

La gamme plein format de Panasonic s’agrandit ! Après les versions S1 et S1R voici le Panasonic S1H ! Clairement orienté pour la prise de vidéos, ce boitier plein format offre notamment l’enregistrement en 6K 24p ou C4K à 30p en 4:2:2 interne. Annoncé comme redoutable en basse lumière, la présence d’un système double ISO […]

12 fruits et légumes scannés à télécharger gratuitement

Par Shadows

Tomáš Búran propose sur Gumroad un pack gratuit modèles de fruits et légumes créés par photogrammétrie. Chaque modèle est décliné en différents niveaux de détails, et des textures PBR 4K (BaseColor/Albedo, Roughness, Specular, Glossiness, MetallicSmoothness, Normal(OpenGL/DirectX), AmbientOcclusion, OcclusionRoughnessMetallic) sont fournies.

Bien entendu, si le code « forfree » indiqué par l’auteur permet de télécharger gratuitement le pack, rien ne vous empêche d’acheter les modèles au prix de base déjà très bas (1€).

Fruits et légumes

L’article 12 fruits et légumes scannés à télécharger gratuitement est apparu en premier sur 3DVF.

Il Divino : la chapelle Sixtine comme vous ne l’avez jamais vue

Par Shadows

Christopher Evans a profité du SIGGRAPH pour dévoiler un projet à l’ambition démesurée : une copie détaillée du plafond de la Chapelle Sixtine, en réalité virtuelle. Une réalisation qu’il a en tête depuis longtemps, puisqu’il a commencé à travailler sur ce projet il y a 15 ans (au départ en s’appuyant sur VRML, le seul format adapté à l’époque).

Le résultat actuel : un modèle détaillé comportant plus de 90 maps 4K (de quoi voir fissures et coups de pinceau), une centaine de zones cliquables mais aussi une heure de commentaire audio.
Le modèle 3D a été créé par photogrammétrie ; pour les textures, Christopher Evans a tiré parti du fait que les oeuvres sont dans le domaine public. Il a donc collecté au fil des ans les photographies haute résolution disponibles.

Evans souligne dans une interview que les touristes eux-mêmes n’ont pas la chance de voir le monument d’aussi près, ni d’en rapporter des images : les gardiens interdisent farouchement les photos sur place.
Ici, pour permettre d’admirer les moindres détails des peintures, une plateforme virtuelle (ou, au choix, un échafaudage 3D en bois similaire à celui qui aurait été utilisé par Michel-Ange) sert de prétexte pour se rapprocher des œuvres.

Sixtine

Christopher Evans souligne dans son interview les limites de sa démarche : le sol et les zones basses étant peu photographiées et représentées, il a cherché à être plausible à défaut de pouvoir proposer une version exacte de la réalité.

Présentée au SIGGRAPH sur un casque Valve INDEX, Il Divino : Michelangelo’s Sistine Ceiling in VR sera d’ici la fin de l’année proposé gratuitement au téléchargement.

Sixtine

L’article Il Divino : la chapelle Sixtine comme vous ne l’avez jamais vue est apparu en premier sur 3DVF.

The Dolly Shot: How It Works and Why It’s Powerful

Par Charles Yeager

There's nothing more cinematic than a great dolly shot, but they're not always easy to pull off. Learn how dolly shots work technically and for storytelling, and ...

Cooke Optics to Show New Lenses for the First Time in Europe

Par Denise Williams

Hot off its win at Cine Gear Expo at Paramount Studios in Hollywood for Camera Technology-Optics with the Anamorphic/i Full Frame Plus, Cooke Optics  invites all of Europe and the rest of the world to see just what is meant by “The Cooke Look®” as it showcases — for the first time in Europe — ...

Z CAM E2: une caméra à 2600€ qui tutoie les performances d’une RED

Par Adrien

Z CAM E2 + objectif 24mm Samyang

La Z CAM E2 est développée par la marque Z CAM qui opère dans le domaine des caméras depuis 2015. Leur premier modèle lancé sur Kickstarter, la Z CAM E1 nous avait séduit par son format compact, son capteur et sa monture micro 4/3″ compatible avec de nombreux objectifs photo et vidéo MFT. Mais comme […]

4 Ways Still Photography Can Make You a Better Cinematographer

Par Tanner Shinnick

In this article, we examine visualizing light through photography — and how it can make you a better cinematographer and filmmaker.

Sony RX100 VII, le meilleur compact expert du marché ?

Par Thomas

Sony RX100 VII

Sony enchaîne les annonces, après le Sony A7RIV c’est aujourd’hui au tour de la famille RX100 de s’agrandir. Tout juste annoncé, le Sony RX100 VII fait déjà beaucoup parler de lui. En effet, fidèle à ses grands frères, il conserve son format réduit mais y apporte des nouveautés intéressantes. Nous retrouvons notamment un nouveau capteur […]

Shotoku Hits the Heights with Ceiling Mounted Rail System and On-Air Proven Robotic Pedestal with Unparalleled Control Features

Par Desert Moon Communications

Shotoku Hits the Heights with Ceiling Mounted Rail System and On-Air Proven Robotic Pedestal with Unparalleled Control Features Company’s tried, trusted and globally embraced robotic systems including ceiling mounted tracks with elevation and fully robotic XY pedestals, share the stage with new manual tripod systems Sunbury, UK – 11 July 2019 – Shotoku Broadcast Systems, ...

How to Take Photos with the Blackmagic Pocket Cinema Camera 4K

Par Lewis McGregor

While the Blackmagic Pocket Cinema Camera 4K won't replace your go-to still camera, it can capture stills to make referencing and scouting much easier.

Comprendre les F-Stops / T-Stops

Par Sébastien François

L’ouverture maximale du diaphragme détermine en grande partie les performances d’une optique. Mais pourquoi certains objectif ouvrent moins que d’autres? Quelle est la différence entre les valeurs exprimées en f/xx et celle en TXX? Autant de notions que nous allons vous expliquer ici.

On a déjà abordé longuement la maîtrise de l’exposition dans un précédent article. Mais pour aller plus loin et comprendre le mécanisme, il faut connaître les limites physiques et mathématiques d’un objectif afin de le choisir en toute connaissance de cause.
Vous le savez déjà, l’ouverture est gérée pas le diaphragme qui a la capacité de s’ouvrir au maximum ou au contraire, de se refermer afin de laisser pénétrer plus ou moins de lumière. Par conséquent, le « diaph » est le premier outil nécessaire dans la gestion de l’exposition. Oui mais alors, pourquoi parle-t-on de f/2, f/5.6 etc…?
Et bien en fait, l’histoire est assez simple.

D’où vient la valeur d’ouverture ?

« Le nombre de l’ouverture » est tout simplement la relation entre la longueur focale et le diamètre maximal du diaphragme (c’est de à dire du fût interne de l’objectif). Prenons un exemple. Pour un objectif de 50mm dont le diamètre maximal est de 25mm, on obtient donc 50/25=2. Et c’est donc pour éviter ce calcul différent pour chaque optique que l’on simplifie en annotant l’ouverture en f/2, ou f:2 ou encore 1:2. Le calcul est ainsi fait au préalable et permet au cadreur d’avoir des valeurs de référence communes. Quelle que soit l’objectif, un f/2 donnera toujours la même quantité de lumière sur le capteur. Du moins, théoriquement.


Cependant, via cette règle, on se rend donc compte que si l’on veux une ouverture à f/2 pour une focale de 150mm, il nous faudra un diamètre de 75mm ! C’est ce qui explique que les grandes focales qui « ouvrent » beaucoup sont très volumineuses et très coûteuses. A cette focale, on trouvera plus généralement, des objectif qui ouvrent à f/4 (diamètre de 37,5mm). C’est aussi pour cela que les systèmes comme le m4/3 (GH5 etc) qui disposent d’un capteur plus petit que le plein format, peuvent avoir des optiques très lumineuses sans être encombrantes.
En effet, sur ce système, comme un objectif de 50mm en full frame correspond à à un 25mm en m4/3, il suffit alors d’un diamètre de diaphragme de 12,5mm pour ouvrir à f/2. C’est pour cela que les optiques sont bien moins encombrantes que sur un système Full Frame.

Voilà une comparaison d’encombrement entre des optique Full Frame et M43: elles couvrent pourtant la même plage focale réelle. Crédit : Dave Dugdale.

f/1.4, f/2, f/2.8, d’où viennent ces nombres ?

Vous aurez remarqué que quel que soit l’objectif, la caméra, l’hybride, les différents paliers du diaphragme sont constitués de la même suite de « nombres ». Parallèlement, augmenter l’ouverture d’1 « Stop », ou d’1 « diaph » signifie faire rentrer 2 fois plus de lumière. Chaque incrémentation est donc le double de la surface de la précédente. A la différence que plus la valeur est petite, plus la surface est grande.

Hors vous connaissez forcément la fameuse formule de calcul de l’aire d’un cercle: Surface du disque =πr2 où « r » symbolise le rayon. Et comme l’aire d’un cercle diminue de moitié lorsque le rayon est divisé par √2 (soit 1,4142), on passe donc d’un incrément au suivant en multipliant par √2 et en arrondissant. Essayons :
Si r=1, 1 x √2 = 1,4
1,4 x √2 = 2
2 x √2 = 2.8
2.8 x √2 = 4 etc etc etc.
Voilà le mystère élucidé. Cependant, tout ce que vous devez retenir, c’est qu’à chaque fois il existe un rapport de 2 quant à la quantité de lumière envoyée.

Les limites des F-Stops et pourquoi parle-t-on de T-Stops?

On vient de le voir, les valeurs de diaph ou F-Stops, sont des calculs mathématiques à la portée du plus grand nombre. Malheureusement, les objectifs ne sont de simples lentilles posées sur des tubes de tel diamètre et de telle longueur. Il existe de nombreux paramètres qui viennent perturber le calcul théorique dans la transmission de la lumière.


Tout d’abord, à objectif égal (même marque, même longueur focale, même « f »), on se rend compte qu’il y a toujours un écart léger car les verres ne sont jamais tout à fait identiques, à cause du revêtement, de la complexité des lentilles etc. Du coup un f/2 ne sera jamais réellement un f/2.
En photographie, on s’en moque car l’écart est très faible et donc, du domaine de l’acceptable. Qui plus est, la rectification en post-production est très simple.
En vidéo, c’est une autre histoire car dans les grosses productions, on tourne très souvent en multicam et s’il existe des écarts d’exposition entre plusieurs caméras, la post-production peut très vite devenir ardue. et donc coûteuse.
Et c’est ici qu’interviennent les T-Stops.

les F-Stops sont basés sur le rapport entre longueur Focale et diamètre. Les T-stops intègrent la valeur de Transmittance de la lumière.

En partant des F-Stops, les constructeurs vont donc calculer la déperdition de la lumière due au différents paramètres perturbateurs (rayon perdus contre le fût, absorption du revêtement, déperdition en traversant X lentilles) et vont donc ajouter au calcul de facteur de transmittance: 85% par exemple. En multipliant la valeur théorique par ce facteur on obtient une valeur réelle. Un f/2.8 sera donc un T3.3 suivant nos 85% de transmittance.

Alors pourquoi n’utilise-t-on pas que des T-Stops?

La réponse à cette question est assez simple: établir le facteur de transmittance doit être étalonné sur chaque objectif qui sort d’une chaine de production. Il ne s’agit donc plus de théorie, mais d’un gros travail d’usine afin qu’un T3.1 soit exactement identique à un autre T3.1. Ce qui implique des tarifs souvent multiplié par 3 ou 4 par rapport à un « simple » objectif « f ». C’est pour cela que l’on reserve ces optiques au cinéma en y ajoutant d’autres fonctions: bague de mise au point crantée pour les follow-focus, course plus longue pour être très précis, diaphragme « décliqué » pour passer d’un palier à l’autre en douceur… Ce qui amène la facture à un niveau stratosphérique.
Mais avez-vous réellement besoin de ces optiques? La réponse est simplement « oui » si la simplification de la post-production justifie ce surcoût de location supplémentaire des optiques. La réponse est non, pour les productions plus simples: matcher 2 caméras demeure assez aisé. Tout est donc question d’équilibre budgétaire.

L’article Comprendre les F-Stops / T-Stops est apparu en premier sur Createinmotion.

Has Sigma Just Joined The Pocket CineCamera Game?

Par Lewis McGregor

Sigma has announced a new mirrorless, full-frame, pocketable, and fully customizable fp camera for both stills and cinema.

The Creative Motivation Behind Deep vs. Shallow Depth of Field

Par Zach Ramelan

This breakdown covers a range of creative motivations behind these two aperture settings, as well as the pros and cons of using each category.

Three Cheap, Underappreciated Cameras Filmmakers Should Consider

Par Jourdan Aldredge

Research demonstrates, in a crowded marketplace, sometimes your best options aren’t always the biggest, most expensive name brands.

Why Filmmakers and Photographers Prefer to Use Soft Light

Par Rubidium Wu

In this article, we take a look at why most filmmakers and photographers prefer to light their subjects with large, soft light sources.

Tout connaitre pour débuter dans le streaming

Par Sébastien François

Autrefois réservé à une élite de Geeks, le streaming vidéo en Live connait une explosion massive de tous les contenus sur les réseaux sociaux. Et pour cause: n’importe qui peut désormais faire un Live depuis un smartphone ou même depuis un drone. Oui, mais voilà, pour aller plus loin, il faut s’intéresser à toutes les nouvelles solutions offertes à la fois par les constructeurs, mais aussi par les éditeurs de logiciel. Voici un tour d’horizon pour bien démarrer.

Streamer un Live: facile. Si j’ai un smartphone, je me connecte à mon réseau social préféré, je me filme en selphy (plus ou moins) bien et c’est parti. Certes, ce sera plus ou moins vilain, mais au moins j’ai un moyen ultra facile d’être en direct sans la moindre compétence. Au début, un peu comme pour la vidéo verticale, personne n’imaginait que ça allait marcher: mais les statistiques sont là. Le temps devant les Live ne cesse d’augmenter et la qualité des productions ne cesse d’augmenter. Oui, les « Directs » sur Facebook, Youtube et bien évidement sur la plateforme de gaming Twitch » dépasse désormais les contenus traditionnels en terme de génération d’audience qualifiée. Pour s’en convaincre, nous vous recommandons la lecture de cet article qui démontre parfaitement que les contenus en ligne qui marchent sont de plus en plus les Live. Bien qu’en anglais, les graphiques qu’il montre et les sommes en jeu parlent d’eux même:02_Stats

Source: https://neilpatel.com

03_Stats

Téléphone ou « vraie caméra »?

On ne va s’étendre sur les possibilités d’un smartphone: il dispose d’une connexion 4G, d’une caméra acceptable et peut donc diffuser de n’importe quel endroit. En revanche, il faut le suréquiper pour que l’image produite soit décente: mini trépied, micro externe, casque blutooth, lumière. Surtout, il vous cantonne souvent à une diffusion verticale (comme nous l’avons vu dans cet article): Facebook par exemple, impose une image 9/16ème dans son application Android, mais pas dans celle d’iOS. Autant de limites donc qui laisse le téléphone comme support N°1 pour les Live « vite fait », mais qui n’en font pas un périphérique adapté à une vrai réalisation: mis à part ajouter des filtres à l’image, vous ne pourrez pas ajouter des sous-titres, gérer en même temps commentaires etc.
live from phone

Les caméras sont quant à elle restée longtemps en retard pour le Live Internet (via la vidéo sur IP donc). Pour résumer, auparavant, il vous fallait une ou plusieurs caméras reliée en SDI (ou en HDMI) à un mélangeur vidéo, qui lui même envoyait le programme vers un ordinateur ou un encoder dédié pour espérer passer sur Internet. Désormais, ce n’est plus le cas. Si l’on prend le cas de la dernière AG-CX350 (et même de références antérieures) de Panasonic, vous avez droit à une prise Ethernet, mais aussi à un Dongle Wifi optionnel. Qu’est-ce que ça veut dire concrètement?

  • La caméra sait « Streamer » directement vers toutes les plateformes de diffusion sans le moindre ajout de matériel. Il lui suffit d’être à portée d’un réseau.
  • L’utilisateur saisit directement le nom du réseau sans fil et le mot de de passe, l’adresse du serveur Youtube/facebook ou autre ainsi que la clé de votre compte. C’est fini.
  • Mieux, ses informations peuvent être stockées et chargées à l’avance sur une carte SD afin d’être opérationnel encore plus rapidement.
  • Enfin, la caméra sait aussi streamer en IP si vous souhaitez récupérer l’audio et la vidéo de plusieurs source et les « mixer » en direct sur ordinateur (comme avec les logiciel OBS Studio ou VMix), ceci notamment grâce l’arrivée du protocole NDI (nous y reviendrons).

diagramm streaming

Ainsi pour résumer, une caméra Broadcast sait à la fois être indépendante et lancer un Live, ou alors être utilisée comme source d’une réalisation multicam, le tout avec ou sans fil. Vous bénéficiez alors d’une qualité d’image bien supérieure et de tous attributs apportés par ce type de matériel (Entrées XLR, zoom… etc). Pour vous en convaincre, nous vous recommandons de lire cette documentation de Panasonic: How to connect AG-CX350 with Facebook Live , How to connect AG-CX350 with YouTube Live.

Vous pouvez aussi vous inspirer de ce très bon tutoriel en anglais pour un paramétrage ultra précis:

Streamer en Live quand mes appareils n’ont pas possibilité de connectivité réseau

newtek_fg_001775_r001_connect_spark_hdmi_1348898Alors, on est d’accord, sur le matériel récent, les choses sont simples, mais que se passe-il quand on veux utiliser d’autres sources d’images qui n’on ni Ethernet, ni Wifi. Là, encore, il existe des tas de solutions très nouvelles. Prenons l’exemple d’un hybride ou d’une caméra plus ancienne qui n’offre que du HDMI ou du SDI comme sortie. La solution classique consiste donc à les raccorder à un mélangeur vidéo, ou dans le cas d’une source unique, à un boitier d’acquisition vers un laptop. Ce dernier se chargera d’encoder le flux. Autrement dit, c’est lui assurera le « Bridge » entre le signal vidéo et le signal IP via les câble SDI ou HDMI. Problèmes: les connexions sont filaires en général et rajoutent des éléments à la chaîne de production. Il y a donc désormais bien mieux.
Si l’on regarde du côté de chez Teradek ou Newtek par exemple, on trouve une gamme très étendue de boîtiers à connecter directement sur vos caméras et qui vont transmettre le signal avec ou sans fil, vers Youtube/Facebook. Grosso modo, ses boîtiers font office de passerelle entre les sources vidéo et la vidéo sur IP.
vidiu-go-hero

Une révolution nommée NDI

On l’a vu, les appareils récents ou les boîtiers de connexion ont tous pour vocation de transformer vos flux vidéo en flux internet pour se connecter aux serveurs de streaming. Si ceci n’est pas totalement nouveau (les caméra de vidéo surveillance ou les caméra PTZ fixes de font depuis un certain temps), ce qui l’est, c’est la simplicité de mise en oeuvre apportée par le NDI (ou NDI-HX). Le Network Device Interface amène les bénéfices suivants:

  • L’auto-discovery: auparavant il fallait être ingénieur réseau et employer des utilitaires plus ou moins complexes afin de déterminer l’adresse IP du périphérique, récupérer son flux, choisir le débit, le protocole réseau… Désormais, n’importe quel appareil dont le NDI est activé sur le même réseau (un simple routeur), devient à la fois une source de diffusion ou de réception: il peut s’agir d’une caméra bien sûr, mais aussi d’un téléphone, d’un ordinateur ou même petit enregistreur comme l’Atomos Ninja V et son module NDI. C’est magique puisque tout est automatisé.
    Atomos_NinjaV_NDI
  • Le protocole fait transiter non seulement l’audio, la vidéo, mais aussi des tonnes d’autres possibilités comme le contrôle à distance des caméras PTZ!
  • Pour résumer, le NDI permet de faire un multicam sans la moindre compétence réseau.

La preuve par l’exemple

Pour démontrer cette étonnante facilité, nous avons voulu réalisé le test suivant. Faire un multicam vers Youtube avec comme source 2 ordinateurs différents, un téléphone et une caméra Panasonic compatible NDI. Nous nous servirons d’un 3ème ordinateur qui assurera le mix grâce au logiciel gratuit OBS Studio et l’envoi vers Youtube.
Pour se faire, il faut d’abord télécharger la suite d’outils suivants compatibles Mac/Windows:

  1. La suite d’outils gratuites NDI Tools
  2. Le logiciel gratuit OBS Studio
  3. Le plugin NDI gratuit pour OBS Studio
  4. L’application malheureusement payante NewTek NDI Camera pour le téléphone

NewTek NDI Tools

Ensuite, nous avons effectué les opérations suivantes:

  1. Nous avons installé NDI tools sur tous les ordinateurs. La suite d’outils comprend un utilitaire baptisé Newtek NDI Scan Converter. Nous l’avons lancé. C’est lui qui établit le protocole NDI et qui permet de choisir sur n’importe quel ordinateur connecté, la source à diffuser: une fenêtre de navigateur Internet, le plein écran, une Webcam. Bref, tout ce que vous désirez diffuser pendant votre Live.
  2. Nous avons aussi lancé l’application sur le téléphone
  3. Et nous avons enfin allumé la caméra Panasonic, paramétrée en NDI, tous ces appareils appartement bien sûr au même réseau local: une simple box Internet.
    NDIHX

Ensuite, dans OBS Studio équipé du plugin NDI: 

Une fois le logiciel lancé sur la troisième machine, il suffit de créer une Scène pour chaque source puis dans Source pour chaque scène, de sélectionner « Source NDI » grâce au bouton « + ». Tous les périphériques (ordinateurs et caméra) dans notre cas apparaissent sans aucune autre intervention. Vous voilà en quelques minutes dans une configuration Multicam, sans câble ou presque et prêts à diffuser sur Youtube (ou n’importe qu’elle plateforme.
OBS_01OBS_02

Il ne vous reste plus qu’à rentrer dans les Paramètres d’OBS, l’adresse du serveur de Streaming (que récupérez sur le compte de votre chaine ou de votre page) ainsi que la clé du stream.

Pour aller plus loins, quelques conseils et astuces

  • Des mélangeurs comme le Panasonic HLC-100 vous dispense d’ordinateurs: ils se comportent comme des mélangeurs traditionnels, mais aussi comme des pupitres de contrôle pour caméra PTZ et surtout comme des PC capable de streamer directement suivant le même principe que celui que nous venons de décrire: c’est un peu un appareil unique qui regroupe toutes les fonctions en un.
  • Avant de paramétrer votre Stream, utilisez toujours un site comme Speedtest (une application est aussi disponible sur téléphone), ceci afin de mesurer la qualité de la liaison vers internet et ainsi d’adapter le débit d’encodage.
  • Préférez toujours un câble Ethernet entre le mélangeur ou l’ordinateur qui diffuse vos sources: le Wifi est toujours moins stable.
  • Lorsque vous programmez un Live sur Facebook ou Youtube: programmez-le 30 minutes avant l’instant T. Pourquoi? Pour vous permette de tester! Pendant ces 30 minutes, vous seul pourrez voir le stream en ligne avant son démarrage et détecter toutes les sources de problème. Si vous le lancez directement, tout problème sera visible par votre audience.
  • Si vous souhaitez diffuser sur plusieurs réseaux simultanément vous pouvez utiliser des services comme restream.io, mais attention, encoder simultanément pour plusieurs plateforme nécessite de la puissance.

L’article Tout connaitre pour débuter dans le streaming est apparu en premier sur Createinmotion.

Four Reasons You Should Use (and Love) Your Camera’s Stock Lens

Par Jourdan Aldredge

Need an incentive to love your stock lens? Break down some of the benefits of sticking with your camera’s stock zoom lens.

Google Earth Studio: pilotez un drone depuis votre ordinateur

Par Sébastien François

Tout le monde connait Google Earth qui permet de se promener sur la planète. Mais il y a plus fort: Google Earth Studio passe à la 3D et permet ainsi de monter des séquences aériennes directement depuis votre navigateur. Finies les autorisations de vol en ville! Les résultats sont bluffants et préfigurent peut-être l’avenir du montage vidéo.

Google Earth Studio (que nous appellerons GES dans cet article), c’est un peu la suite logique de Google Earth. Cet outil en ligne permettait déjà beaucoup puisque l’on pouvait voyager sur toute la planète grâce à une banque phénoménale d’images satellite. Le problème, c’est qu’en zoomant au maximum, on se retrouvait avec une image « plate » et pixelisée. Si Google Earth a beaucoup été utilisé post-production avec cet effet de zoom depuis l’univers vers un point précis du globe, Google Earth Studio va bien plus loin:
– Les données du globe ont quasiment toutes été modélisées en 3D.
– GES est devenu un outil de création cinématique en ligne où l’on dessine ses propres trajets aériens, avec animation de tous les paramètres possibles (caméra, cible, heure du jour ou de la nuit, nuages…).
– Le logiciel permet aussi de générer des « track points » qui peuvent ensuite être utilisés dans After Effects pour ajouter des éléments (marqueurs, textes…). Et pour mieux se rendre compte des possibilités de l’outil, en voici la démonstration:

Nous allons donc faire un tour d’horizon de l’outil et vous montrer à quel point il est simple. Il permet ainsi d’ajouter des cinématiques à vos montages pour localiser des lieux par exemple. C’est bien sûr gratuit, à condition de laisser la « Watermark » de Google sur vos images.

Le principe

Attention, pour vous servir de GES vous devrez attendre quelques jours que Google approuve votre inscription. Pour ce faire, rendez-vous à l’adresse suivante: https://www.google.com/earth/studio/ et inscrivez-vous. Dans notre cas, il a fallu patienter 4 jours. D’autre part, GES ne marche qu’avec le navigateur Google Chrome (forcément), téléchargeable gratuitement sur n’importe quelle plateforme.
Ensuite, le fonctionnement est presque similaire à celui d’un logiciel de montage: une Timeline, des images clés pour animer les paramètres (trajet, cible, chemin…) et un moniteur de Programme qui va montrer en temps réel votre le vol virtuel de votre caméra. Nous allons réaliser l’exemple suivant qui montre Notre Dame de Paris avant qu’elle ne brûle:

Prise en main

Un fois connecté à GES, la plateforme en ligne vous propose de créer ou un « Blank Project » (Projet vierge), ou de choisir parmi des modèles d’animation déjà préconçus (exactement comme les modes de vol disponibles sur les drones). Pour plus de simplicité, on va choisir le mode « Fly to and Orbit » en cliquant sur « Quick Start »: autrement dit, on va voler d’un point A à un point B et effectuer une orbite autour de notre point d’intérêt.
GES_01

Il suffit ensuite de saisir la destination finale: dans notre cas « Notre Dame, Paris, France ». Le logiciel affiche aussitôt la vue satellite, puis, la simulation en temps réel du vol: vous pouvez changer l’altitude de d’arrivée, le rayon de l’orbite, l’angle d’approche… Tous ses paramètres seront bien sûr modifiables ultérieurement. Vos modifications sont appliquées en temps réel.

GES_02

Il ne reste enfin qu’à choisir la durée de l’animation. Par défaut, elle sera de 25 secondes. Vous découvrez ensuite l’interface du logiciel.

L’interface de Google Earth Studio

Par défaut, on ne dispose que de la vue finale en 3D. Il est donc préférable, pour affiner le trajet de la caméra, de passer en mode « 2 Viewports » grâce à l’icône de l’écran.
GES_03
A gauche, on visualise ainsi la carte et surtout le trajet de la caméra. De cette manière, on pourra très facilement customiser tous les mouvements et gérer les paramètres de déplacement. La Timeline quant à elle, montre toutes les images clés et la liste des paramètres. Dans notre exemple, on désire que le point de départ se situe dans l’espace et bien plus loin de Paris. Il suffit donc de placer la tête de lecture au début puis, de saisir une altitude de 35 Kilomètres, et, dans la barre de recherche, de taper « Frankfort » en Allemagne. Vous cliquez ensuite sur le losange de la rubrique « Camera Position » afin d’indiquer que vous avez modifié les images clés de position de la caméra.

GES_04
Si vous lancez la lecture, vous constatez donc que la caméra s’est positionnée au dessus de la ville allemande et ira jusqu’à Paris depuis le cosmos.
Astuce: Par défaut, GES effectue un trajet linéaire depuis l’espace, ce qui n’est pas très esthétique. Dans le menu Animation/Advanced, choisissez Logarithmic Altitude. Google va accélérer la descente vers le sol et arrondir la trajectoire, ce qui est bien plus satisfaisant.

Vous pouvez désormais sauter d’image clé en image clé pour modifier tout ce que vous désirez, et bien sûr créer des étapes sur le parcours.

Les paramètres supplémentaires

Vous aurez aussi compris que chaque point dans le Viewport « carte » correspond à une image clé de position de la caméra: vous pouvez ainsi les manipuler à loisir pour vous écarter de votre trajectoire initiale. Mais on peut aller encore plus loin. En cliquant sur Add attributes, on peut ajouter des paramètres supplémentaires, qui pourront eux aussi être animés: l’heure du jour ou de la nuit, l’angle de vue de la caméra, les nuages… De cette manière par exemple, en animant le Field of view (angle de la focale), vous allez pouvoir effectuer des zooms spectaculaires, ou, au contraire, élargir le champ pour avoir une vision panoramique de la scène.
GES_06

De plus, en sélectionnant une ou plusieurs images clés et en effectuant un clic-droit vous allez aussi pouvoir changer le mode d’interpolation de l’animation (ease-in, ease-out…) ou Auto-Ease (ce qui correspond à une courbe de Bézier automatique afin de lisser les mouvements).
GES_05

Les track-points et l’export

C’est une des autres forces de GES. Les track-points peuvent être ajoutés. Qu’est ce que ça veut dire? C’est qu’au moment de l’exportation du rendu final, GES va inclure des points de votre choix en 3D afin qu’un logiciel comme After Effects soit capable de « comprendre » les mouvements de la caméra et donc d’ancrer des éléments en 3D dans la scène. Pour mieux comprendre, contentez-vous d’ajouter un trackg-point sur la cible de la caméra (Notre Dame dans notre exemple) en effectuant un clic-droit sur la cible figurant la carte ou directement dans le moniteur final.
GES_07
Votre animation terminée, appuyez sur le bouton Render. Après avoir validé la durée et la résolution, passez à l’onglet « Advanced » et cochez la case « Include 3D tracking Data ». Lancez ensuite le rendu en cliquant sur Start. GES va générer toutes les images et vous proposer de télécharger un .zip.

GES_08

Ajoutez des éléments en 3D dans After Effects

Un fois le fichier téléchargé et décompressé, GES aura généré une suite d’images numérotées que vous pourrez importer en tant que film dans n’importe quel logiciel de montage. Mais le plus amusant est d’utiliser After Effects pour ajouter du texte 3D grâce au Track Points. Lancez After Effects, puis, depuis le menu Fichier/exécuter le script, sélectionnez le fichier .jsx généré par Google. Automatiquement, votre film est chargé dans une nouvelle Composition et surtout, After Effects a créé un objet nul et un calque de texte pour chaque Track-Point.
GES_09

Il suffit alors d’écrire n’importe quelle légende ou de lier à n’importe quel élément à l’objet nul pour qu’il soit modélisé en 3D et suive les mouvements de votre caméra. Vous n’aurez qu’à jouer sur l’orientation et la position pour qu’il matche avec votre scène. Ajoutez enfin un peu de motion blur et étalonnez un peu les images dans Lumetri pour qu’elles semblent moins artificielles et vous voilà avec des images de drone en version réalité augmentée.

Des ressources pour aller plus loin

Pour aller plus loin et en vidéo, nous vous recommandons ce tutoriel en français, du célèbre Stéphane Couchoud.

An anglais vous pouvez aussi suivre cette vidéo et la chaine associée.

 

L’article Google Earth Studio: pilotez un drone depuis votre ordinateur est apparu en premier sur Createinmotion.

Neuhaus.world – Participatory, interactive music video for Lake of Pavement

Par Filip Visnjic
Neuhaus.world – Participatory, interactive music video for Lake of Pavement
Created by Moniker, Neuhaus.world is a participatory, interactive music video for Lake of Pavement, a new track by the emerging Rotterdam based artist Jo Goes Hunting.

❌