Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Le PIDS revient : envoyez vos projets, gagnez un Genie Award !

Par : Shadows

Après une édition 2021 dématérialisée pour cause de pandémie, le PIDS (Paris Images Digital Summit) est de retour en 2022 en version hybride !

Du 26 au 29 janvier, ce festival va mettre à l’honneur les dernières tendances et nouveaux projets du secteur des effets visuels, mais aussi de la production virtuelle, de l’immersion et du jeu vidéo. Il sera possible d’y assister en ligne mais aussi sur place, à Enghien-les-Bains. 3DVF partenaire média.

Le programme est en cours de finalisation, et nous aurons l’occasion de vous le dévoiler bientôt. D’ici là, un appel à projets a été lancé dans le cadre des Génie Awards, la remise de prix du festival, qui récompense le meilleur de la création française.

Les catégories sont les suivantes :

Effets visuels – Long Métrage (que les VFX soient visibles ou en support)
Effets visuels – Fiction TV (visibles ou support)
Effets visuels – Publicité (visible ou support)
Effets visuels – Environnement (sont acceptés les environnements créés pour les longs-métrages, fictions TV, publicités, clips, cinématiques, film VR/360°)
Effets visuels – Personnage ou créature (là encore, sont acceptés les personnages/créatures créés pour les longs-métrages, fictions TV, publicités, clips, cinématiques, film VR/360°)
Meilleur film étudiant VFX/CGI
Meilleure innovation
(logicielle ou matérielle, pour la création numérique et les VFX dans les secteurs du cinéma et de l’animation)

Pour concourir sur la Catégorie A (les différents prix des meilleurs effets visuels), vous devez être une société d’effets visuels française, et le projet doit être sorti entre le 1er décembre 2020 et le 31 décembre 2021.

Pour concourir dans la Catégorie B (meilleur film étudiant), le projet doit être issu de la promotion 2019/2020 et contenir au moins 50% d’images calculées par ordinateur (animation ou VFX). Les projets sont proposés par les écoles (attention, 3 films maximum par école !)

Enfin, pour concourir dans la Catégorie C, la solution logicielle/matérielle doit être sortie entre le 1er janvier 2019 et le 31 décembre 2020.

Un formulaire en ligne permet de déposer les dossiers de candidatures ; la deadline est fixée au 18 décembre.
Le jury dévoilera les nommés le 7 janviers, les lauréats étant dévoilés durant la cérémonie de remise des prix, le 26 janvier.

L’article Le PIDS revient : envoyez vos projets, gagnez un Genie Award ! est apparu en premier sur 3DVF.

FREE Sleek Computer Screen Template for Premiere Pro

This screen generator brings realistic, customizable screen reflections and movements directly into Premiere Pro—no need for After Effects.

15 God Ray Light Overlays for Video Editors and Motion Designers

Download over a dozen free volumetric light rays in stunning 4K resolution. Free to use in personal or commercial projects.

Interview – Comment RISE a noyé Miami pour le film Reminiscence

Par : Shadows

Récemment sorti en salles, le film Reminiscence est le premier long-métrage de Lisa Joy, connue pour son travail sur la série Westworld.
Le film met en scène Nick Bannister (Hugh Jackman), un homme qui aide ses clients à explorer leur passé. L’histoire se déroule dans un futur proche, au coeur de la ville de Miami en partie recouverte par les eaux suite à la montée du niveau des mers.

Le studio RISE était en charge de nombreux effets visuels, dont ceux d’une impressionnante séquence d’ouverture qui montre la ville et son environnement. Un travail très délicat en raison de la durée du plan et de la présence de simulations d’eau.

Florian Gellinger, cofondateur de RISE et producteur VFX, fut le superviseur VFX du projet. Il a bien voulu revenir en notre compagnie sur les principaux défis techniques et artistiques du film.

3DVF : Rise a fait un travail impressionnant pour le film Reminiscence de Lisa Joy. Le studio a truqué plus de 120 plans avec beaucoup d’eau (dont une ville de Miami à moitié engloutie), des anguilles, des trains, des doublures numériques…
Pour commencer, quelques mots sur votre collaboration avec Lisa Joy et le Production VFX Supervisor Bruce Jones ?

Florian Gellinger – RISE : Bruce est un collaborateur fantastique – toujours de bonne humeur, toujours plein de bonnes suggestions qu’il complète avec des références.
Il avait déjà établi la géographie de l’univers du film avec Lisa, la réalisatrice, et Howard Cummings, le production designer, avant que nous ne commencions à construire ce monde. Lisa Joy a un très bon goût en architecture, en art (contemporain) et elle était une très bonne source d’inspiration stylistique. Comme vous pouvez le voir à partir de son travail sur Westworld, elle est très précise et sait comment retranscrire chaque page de script en quelque chose de visuellement impressionnant, avec l’atmosphère adaptée.

Image extraite de la séquence d’ouverture – full CG
© 2021 Warner Bros. Entertainment Inc. All Rights Reserved

3DVF : Quelle était la taille de l’équipe, et combien de temps le studio RISE a-t-il travaillé sur ce film ?

Nous avons débuté le travail sur Reminiscence quand le Covid a frappé en mars 2020. Le tournage a heureusement été bouclé quelques semaines plus tôt en février et nous étions très occupés à mettre en place le télétravail de quasiment toutes les 120 personnes de notre équipe, en quelques jours et avec l’aide de nos excellents départements IT, pipeline et RH.
Nous avons bouclé le projet en octobre 2020, après environ 8 mois de production.

Image extraite de la séquence d’ouverture – full CG
© 2021 Warner Bros. Entertainment Inc. All Rights Reserved

3DVF : Florian, vous travaillez d’habitude en tant que producteur VFX, mais vous avez décidé d’intervenir en tant que Superviseur VFX pour ce film. Pourquoi ce choix ?

Il n’y avait personne d’autre disponible…. Je blague, évidemment.
La plupart des projets étaient reportés en raison du Covid et les tournages ne pouvaient pas reprendre avant août, après un examen approfondi des risques. Certains de nos superviseurs étaient occupés sur des projets qui étaient quasi suspendus mais continuaient à avancer. Je suis parti du principe que Reminiscence serait assez simple et direct par rapport à la manière dont nous approchons les environnements – mais j’avais tort.
Pour revenir à votre question, je pensais que ce serait plus facile pour moi de gérer les deux postes plutôt que de parler à un producteur. Au final, notre production manager superstar, Anne Barger, m’a aidé à vérifier la partie administrative et à m’en sortir avec les informations financières et de production.

Image extraite de la séquence d’ouverture – full CG
© 2021 Warner Bros. Entertainment Inc. All Rights Reserved

3DVF : Le plan d’ouverture du film est sans doute le plus complexe de tout le film : 2 minutes 16 secondes, full 3D (jusqu’à ce que la caméra arrive devant Hugh Jackman), une ville complète, de la simulation d’océan et d’eau. Sans compter que la lumière change, puisque le soleil est animé en timelapse.
Comment avez-vous approché une tâche aussi massive, d’un point de vue artistique ?

Nous avons commencé à regarder des cartes de Miami et Miami Beach, en essayant de catégoriser les bâtiments d’une part en assets que nous pourrions recréer de façon procédurale et d’autre part les assets qu’il nous faudrait créer à partir de rien. Pour les bâtiments procéduraux notre build lead Niklas Roth a choisi les éléments individuels que nous devions créer.
Une fois la carte peuplée de nos assets « hero » et de bâtiments procéduraux, nous avons fait du set dressing procédural en ajoutant climatisations, tentes, lits de jour [NDLR : dans le film, la vie est principalement nocturne], ponts suspendus entre les bâtiments, etc, afin de générer plus de diversité visuelle.
Notre superviseur 3D Matthias Winkler et notre superviseur FX Andreas Giesen ont demandé à leurs équipes d’une part de subdiviser la scène pour la rendre plus facile à gérer, d’autre part d’ajouter des simulations FLIP pour les vagues s’écrasant sur les immeubles. La scène gigantesque était maintenue et mise à jour par le fantastique Bernhard Esperester qui a aussi mis en place des maps HDR cubiques pour toutes les fenêtres des appartements, destinées à être recadrées pour coller la position de la caméra afin de donner un sentiment de profondeur derrière les fenêtres et rideaux.
Nos animateurs ont ajouté trains, bateaux, petites embarcations, mouettes afin de donner vie à la ville, des FX permettant de créer des traînées d’écume derrière chaque véhicule évoluant dans l’eau.
A l’aide de Cryptomatte, notre compositeur et couteau suisse Michael Lankes a allumé les sources lumineuses sur les bâtiments une fois le soleil couché et a assemblé la ville à l’aide de centaines de calques et IDs. Toujours sur le timelapse de la séquence et la journée qui s’écoule en accéléré, nous avons utilisé un sky dome HDR et l’avons retimé jusqu’à obtenir le résultat voulu.
Le soleil 3D a ensuite été animé pour coller à la position du soleil dans le ciel HDR. Dans la seconde moitié du plan, la caméra plonge vers la ville par-dessus un barrage qui retient l’océan Atlantique, puis arrive dans une rue de Miami Brickell [Un quartier de la ville, NDLR]. Nous avons recréé tout l’environnement de la rue à partir du shoot, en 3D, afin d’avoir plus de contrôle sur la manière dont la caméra allait ralentir avant de s’arrêter sur une carte à jouer flottant dans de l’eau dans la ruelle. Enfin, Bannister (Hugh Jackman) ramasse la carte, son reflet dans l’eau étant obscurci afin de garder la révélation de son identité pour le moment où la caméra s’oriente vers le haut.
Cette partie du plan a été assemblée au compositing par Jonathan Weber et Roy Hoes, en ré-intégrant les extras que nous avions dû rotoscoper et re-projeter afin de conserver un côté temps réel alors que la caméra se déplace encore à grande vitesse.
Je ne saurais dire combien d’artistes ont contribué à ce seul plan, mais au final tout le monde dans l’équipe a sans doute travaillé dessus à un moment donné.
Le plus délicat à gérer sur ce plan et sa durée était qu’il était impossible de tricher. On peut voir quasiment voir la toute fin du plan dès les premières frames. Rien de passait opportunément devant l’écran pour nous permettre de découper la scène et passer d’un rendu à l’autre. Les simulations FLIP devaient durer plus de 1000 frames car elles étaient dans le cadre durant toute cette durée.

Image extraite de la séquence d’ouverture – full CG
© 2021 Warner Bros. Entertainment Inc. All Rights Reserved
Image extraite de la séquence d’ouverture – full CG
© 2021 Warner Bros. Entertainment Inc. All Rights Reserved

3DVF : A-t-il été difficile de créer l’effet de timelapse ? Non seulement il fallait ajuster le ciel, mais il était aussi impératif de gérer les lumières de la ville.

Comme le timelapse affectait uniquement l’heure du jour, le reste de la scène évoluant en temps réel, nous avons seulement eu besoin de gérer un éclairage TRES dynamique et l’éclairage artificiel qui entre en jeu quand le soleil disparaît.
Ca a aussi des conséquences sur les niveaux d’exposition au compositing, puisque 16h n’est pas enregistré de la même manière par une caméra physique que 19h.
Les personnes et véhicules en timelapse auraient enlevé une partie de l’élégance et de la majesté du plan, le rendant plus saccadé. Adopter un parti pris temps réel/de déroulement normal du temps avec tout ce mouvement était un choix artistique conscient.

Image extraite de la séquence d’ouverture – full CG
© 2021 Warner Bros. Entertainment Inc. All Rights Reserved

3DVF : Pouvez-vous revenir sur les difficultés techniques liées à ce plan d’ouverture ? Les simulations et problèmes de cache ont sans doute été assez délicats à gérer ?

Oui, la longueur du plan et le fait que la caméra suive un axe unique nous ont clairement causé quelques migraines. Voir tout ce qui s’apprête à passer près de la caméra à partir de la frame 300, puis continuer pour encore un millier de frames, a rendu ce plan très difficile. D’habitude on aurait un nuage qui passe dans le cadre, un bâtiment, un oiseau, quelque chose pour masquer rapidement la vue. Mais ici nous devions ajouter des bâtiments, de l’eau dont le niveau de détail devait « passer » visuellement lorsque la caméra s’en rapprocherait, même lorsque ces éléments étaient encore lointains.

Les besoins en mémoire ont représenté, en gros, la moitié du travail et consistait à subdiviser les blocs d’immeubles pour rendre le tout plus gérable. En 3D, la géométrie n’est plus un problème.

Le Coconut Club – avant ajout des effets visuels
© 2021 Warner Bros. Entertainment Inc. All Rights Reserved
Le Coconut Club – après ajout des effets visuels
© 2021 Warner Bros. Entertainment Inc. All Rights Reserved

Comme tout le monde travaille avec des meshes fortement tessellés issus de ZBrush ou de scans LiDAR, ce n’est pas quelque chose de nouveau. Mais si vous rajoutez les reflets, les caches de simulation et quelques milliers de lights, ça devient un problème.

Page suivante : avenir des outils techniques, anguilles, doublures numériques, Covid.

L’article Interview – Comment RISE a noyé Miami pour le film Reminiscence est apparu en premier sur 3DVF.

One Year After Giving up Premiere Pro for DaVinci Resolve

Here's everything I've learned about switching to a new NLE---the good, the bad, the unexpected, and the humbling.

Industry News: Adobe to Acquire Frame.io in Billion Dollar Deal

Par : Mike Maher

Take a look at what we already know, and what Adobe has to say about the blockbuster deal that's expected to close by the end of the …

Things to Check When Adobe Premiere Pro Is Lagging

In this walkthrough, we'll look at the quick optimization steps you can take when Premiere Pro feels like it's running behind.

On contemporary shamanism and avatar – Choy Ka Fai invites us to expand ourselves

On contemporary shamanism and avatar – Choy Ka Fai invites us to expand ourselves
In perceiving established cultural and historical rituals through the lens of contemporary technology, Choy Ka Fai opens up a liminal space in which dance transcends colonial resistance, power and fantasy.

4 Tips for Turning Horizontal Footage into Vertical Videos in Premiere Pro

Par : Mike Maher

Sometimes you can't just scale and reframe footage into a vertical canvas. Here are four helpful tricks and workarounds.

RipX DeepRemix: split stereo files, create and remix stems with this AI software

Audio software manufacturer Hit’n’Mix has released a new source separation, sampling, and song creation program: RipX: DeepRemix. The new software sits at a price reachable for all levels of musicians: £79 inc VAT for UK, €85 inc VAT for EU, and $99 for North America & rest of the world. DeepRemix uses AI isolation algorithms […]

The post RipX DeepRemix: split stereo files, create and remix stems with this AI software appeared first on DJ TechTools.

LOST HORIZON FESTIVAL – GAS TOWER: 3 – 4th July, Online



Glastonbury, VJ showcase and a virtual reality event. Did I get your attention yet?


That’s right, in a moment where the ‘new normal’ is beginning to establish new ways of working in the world of audiovisual events, Lost Horizon Festival presents us with some of the world’s first responses to Corona Virus brought to us via the Gas Tower.

The team behind Glastonbury’s Shangri-La presents Lost Horizon festival, with 360º immersive visual shows from a healthy list of audiovisual artists that will make you forget we were in the middle of a pandemic, just like Woodstock (hip-hip-hooray!)

With the branding slightly reminiscent of a Madonna track ‘A REAL FESTIVAL, IN A VIRTUAL WORLD’ we are in for a treat, not to mention a fantastic list of VJing sumptuousness to explore and discover!

From the likes of Bertie Sampson, blinkinLAB, Bob Jaroc, DDL, Delta Process, Dr and Quinch, Enjoy Kaos, Fade In Fade Out, Greenaway & Greenaway, Joëlle, Koolik, L’Aubaine (check out the our interview with her) Lazershaft, Lazersonic, LEDS Akimbo, Limbic Cinema, Matt Lee Vs The Positronic Man, More Eyes, Primary Visual Cortex, Rebel Overlay, REM Visuals, WeAreMidnight.

Audiovisual artists



Yes, that’s a lot of new, fresh audiovisual artists coming soon on Audiovisual City, with great thanks to Creative Giants, for curating this mind blowing line-up, promising us a fully immersive digital art and music event.

“Taking the Gas Tower from the fields of the festival world into a groundbreaking new reality, Creative Giants are excited to be joining the team Shangri-La on their voyage of discovery to Lost Horizon, which redefines what a festival can be, creating ways for people to come together and experience music and art in a way we never would have previously imagined.”

Simon Vaughan, Creative Giants

A virtual audiovisual event



What’s more, is nothing sells a virtual festival like the mouthwateringly designed website by Manchester studio, Instruct Studio. If this website were food, I’ve already been eating with my eyes and gotten pretty fat.

“We are thrilled to showcase some of the world’s leading VJs and visual artists in this way. The physical structure of The Gas Tower has been recreated in exact detail in virtual reality, allowing viewers to look around in full 360 degrees to fully immerse themselves in beautiful visuals. We are proud to be leading the way into the digital domain, presenting ground-breaking artists with innovative and mind blowing visuals as part of this ambitious new form of live experience.”

Pete Thornton, More Eyes

Rebel Overlay

Light based minimalistic blade-runner-esque visuals that will make you feel retro futuristic, with everything from lasers to LED totems and 3D structures in the portfolio bag, all with a dash of Resolume control.

WeAreMidnight

No messing about, this studio based in London have done whopping great visual productions for the likes of Coachella, Boomtown and The Human League (for those of you who are old enough to know who they are).

Enjoy the Kaos

Interesting looking 3D abstract visuals that look like candy cane, sweet enough to hang off your Christmas tree. If you’re into 3D animation, mapping, photogrammetry, and art in general then Enjoy the Kaos should definitely be an audiovisual show on your AV hit-list.

blinkinLAB

Immersive tour visuals for Adam Beyer, and for Booka Shade, what’s not to inspire any keen audiovisual festival goer? Primarily focused on content creation, blinkinLAB is a motion graphics design studio based in London.

Their portfolio of work includes tour visual content creation, motion graphic design, music video, tv commercials, idents and title sequences, as well as live audiovisual performance, vj-ing and projection mapping installations.

Contact

Website

Youtube

The post LOST HORIZON FESTIVAL – GAS TOWER: 3 – 4th July, Online appeared first on Audiovisualcity.

[Tuto] Monter la 360 en 2D pour produire des plans impossibles

Les caméras 360° ne servent pas qu’à produire de la 360. Comme elles capturent tout leur environnement, on va utiliser ici la technique de « l’overcapture » ou du « reframe » pour créer des mouvements uniques dans les montages traditionnels. Les résultats sont spectaculaires.

Imaginons un cadreur qui peut voir l’intégralité de son environnement: devant, derrière, mais aussi au-dessus, en-dessous et surtout capable de bouger à la vitesse de la lumière pour suivre sans erreur un avion de chasse. C’est exactement ce que permettent de faire les caméras 360° quand leur usage est détourné en 2D.
Comme elles filment simultanément absolument dans toutes les directions, l’idée est donc de sélectionner en post-production le cadre de l’image le plus intéressant et d’animer sa position pour suivre ce qui nous intéresse. Pour résumer, elles dont office de cadreur virtuel.
Pour mieux se rendre compte des possibilités, voici un court exemple de ce qu’il est possible de faire:

Comme on le voit dans ici, le principe est le même que celui qui consiste à « cropper » dans une image 4K quand on va livrer en HD. Sauf que c’est dans toutes les directions. Oui mais voilà, un peu comme pour les Gopro et autres caméras de sport, quand elles sont apparues, les caméras 360° abordables n’ont pas été prévues à la base pour être utilisées de manière traditionnelle. Elles ont été faites pour le social sharing avec des app et pas forcément une recherche de post-production poussée.
Malgré tout, et comme pour les caméras sportives, les pros n’ont pas tardé à s’emparer des possibilités offertes, malgré la qualité d’image bien plus faible. Parce qu’un plan unique justifie une qualité moins « broadcast ». Il existe donc des limites, mais elles sont de plus en plus repoussées. Ceci d’autant que les caméras 360° disposant de gyroscopes et filmant partout, elles sont toutes équipées de stabilisateur d’images si performants qu’elles peuvent se dispenser de nacelles (Gimbal).

360° en 2D, comment ça marche?

Le principe est assez simple. Les caméras 360° sont équipées d’objectifs fisheye qui filment leur environment à 180° (dans la cas de 2 objectifs, 120° pour 3 objectifs etc).

fisheye

A partir de là, une puce dédiée ou un logiciel vont rassembler les 2 images (ou autant d’images que la caméra a d’objectifs) de manière équirectangulaire pour produire ce résultat qui s’apparente à un panorama déformé:

C’est cette image qui sera projetée dans une sphère virtuelle et qui permettra au spectateur de se promener à 360° comme s’il était au centre de cette sphère. L’idée est donc de récupérer une portion de l’image afin de l’insérer dans un montage classique. On va ainsi pouvoir animer le cadrage, changer de point de vue etc…

360_03_reframe
Ici, on choisit ce cadre dans l’image « panorama » pour produire, à droite, un plan « normal ». Bien sûr l’idée est d’animer le cadrage.

Les limites à connaitre

Evidemment, tout cela semble magique, mais il y a plusieurs limites qu’il faut bien prendre en compte:

  • La plupart du temps, les caméras produisent des images en 5,7K maximum (5760 x 2880 pixels) et les capteurs sont minuscules. Autrement dit, quand on reframe (ou overcapture), on ne va se servir que d’une petite partie de cette résolution. La qualité d’image est donc assez basse et la faible lumière est à proscrire.
  • Certaines caméras produisent des fichiers « prêts à l’emploi » en équirectangulaire, mais d’autres, non. Il faut alors passer par un logiciel maison supplémentaire pour effectuer le stitching (l’assemblage des images): le processus, certes simple et automatisé, est parfois long. Le but étant de créer cette image « Flat » sans défaut de raccords.
  • Certains ont déjà du mal a travailler en 4K faute de puissance: c’est encore pire en 5,7K d’autant que de plus en plus de caméras enregistrent en H265 (codage plus performant, mais ressources énormes nécessaires pour la décompression et la lecture, voir notre article sur le sujet). Il est donc souvent recommandé de travailler avec des proxys, voir là-encore notre tutoriel).
Le logiciel de la firme Insta360 (Insta360 Studio 2019) permet de stitcher les images, mais aussi faire du reframe.

Reframe/Overcapture, ce qu’il vous faut

Si tous les logiciels savent désormais monter de la VR (de la 360 native donc), ils ne sont pas tous capables d’effectuer le recadrage et l’animation des paramètres (changement de vue, champ de vision etc…). C’est pourquoi deux solutions s’offrent à vous:
– Utiliser Insta360 Studio 2019 qui supporte gratuitement la majorité des caméras 360° y compris celles qui ne sont pas de la marque. Il est téléchargeable ici et son tutoriel (très simple est ici).
– Installer les plugins Gopro pour Premiere Pro qui vont permettre ajouter l’effet « Gopro VR Reframe ». Le téléchargement pour Windows est ici et le téléchargement pour Mac est là. A noter que Gorpo propose aussi l’installation des plugins via son logiciel Gopro Fusion Studio, mais ce dernier ne sera compatible qu’avec la caméra de la marque (la Fusion).

Le reframing en quelque étapes

Une fois les plugins installés, il suffit de lancer Premiere Pro et d’importer vos fichiers 360 en Flat (equirectangulaire). Créez ensuite une séquence (une Timeline), aux dimensions de vos rushes source (5.7K, 4K…) en respectant bien la cadence d’image native de la caméra (25/30/50P).

360_05_VRReframePlug

Glissez simplement l’effet GoPro VR Reframe depuis la bibliothèque d’effet sur le clip de votre choix. L’image est immédiatement recadrée. Placez la tête de lecture en début de clip et ouvrez les Options d’effets. Activez les chronomètres afin d’indiquer que vous allez animer ce « recadrage ». Les paramètres sont les suivants:

  • Le FOV (Field of View), permet d’animer la champ de vision du cadrage, autrement dit, en augmentant la valeur, on étend le champ de vison, et en la réduisant, on zoome dans l’image.
  • Les YAW/Pitch/Roll correspondent aux directions comme pour le pilotage d’un drone, ou le contrôle d’une Gimbal. Le YAW correspond pour nous au Pan (de la gauche vers la droite et vice-versa), le Pitch contrôle le Tilt (inclinaison verticale), et le Roll fait appel à l’inclinaison de la l’assiette (pour corriger la ligne d’horizon par exemple).
  • Le paramètre Smooth transition permet quant à lui de lisser les images-clés (Ease In & Ease Out) car le plugin ne prend en compte l’interprétation faite par Premiere Pro.

Corriger les déformations

Tout comme pour les caméras de sport qui ont un champ de vision très large, les bords de l’image sont souvent courbés. Pour corriger ce défaut, allez chercher l’effet « Déformation de la lentille » (Lens Distortion). Glissez-le sur votre rushe. Dans les Options d’effet, il suffit de glisser le paramètre Courbure vers une valeur négative pour atténuer les déformations.

La déformation est corrigée, à droite par rapport au fichier natif.

L’effet Tiny Planet

L’effet Tiny Planet est ultra populaire et il était ultra simple à réaliser avec le plugin Gopro VR Reframe. Il suffit pour cela:
– de basculer le Pitch à 90° (pour regarder vers le sol en quelque sorte) et d’étendre le champ de vision à près de 100. Ce qui va faire « decoller » la caméra et rassembler tout l’image sous forme de « petite planète ». Bien sûr, si la caméra n’était pas parfaitement verticale lors de prise de vue, vous devrez sans doute corriger l’angle avec le Roll ou le YAW.

L’effet hyperlapse avec du motion-blur

La plupart des caméras 360° proposent une fonction d’hyperlapse car elles sont ultra stabilisées. Oui, mais voilà, l’effet est souvent disponible sur l’application du téléphone seulement et pas en post-production sur ordinateur. C’est très frustrant. Pour autant, il existe une parade:
– Tournez votre trajet à vitesse normale (comme dans la fin de la vidéo d’introduction de l’article).
– Une fois le fichier rapatrié dans Premiere Pro et Reframé à votre guise. Augmentez la vitesse de lecture entre 2000 et 3000%. En l’état, vous verrez bien l’effet hyperlapse, mais il n’y pas de motion blur (flou de mouvement).
– Effectuez un clic-droit sur le clip / Interpolation temporelle (Time Interpolation) / et sélectionnez Interpolation (Frame Blending). Le flou de mouvement est ainsi ajouté.

Enfin pour aller plus loin dans les possibilités offertes par les caméras 360° utilisée en 2D, nous vous recommandons cette vidéo de Cinecom.net qui montre l’étendue des transitions que l’on peut réaliser en quelques mouvements:

L’article [Tuto] Monter la 360 en 2D pour produire des plans impossibles est apparu en premier sur Createinmotion.

Premiere Pro ’19 et Adobe Rush : un bon millésime ?

Entre Final Cut Pro X désormais bien installé et Resolve qui monte en puissance, Premiere Pro doit réagir. Et chaque année, le logiciel évolue, avec cette fois-ci, de bonnes surprises. Mais l’arrivée de Premiere Rush, d’outils de corrections audio « faciles », ou l’amélioration des fonctions d’étalonnage seront-ils suffisants pour donner un nouveau souffle à ce logiciel si mythique?

… That is the question. Le grand mérite de Premiere Pro, outre son âge, c’est essentiellement d’être rationnel, de fonctionner à peu près partout et de savoir tout monter en natif. Oui, mais voilà, depuis des années, on a vu la concurrence arriver avec des innovations certes déroutantes (la logique de FCPX ou le système nodal de Resolve), mais diablement efficaces en termes de productivité. Pendant ce temps-là, Adobe s’est contenté d’ajouter toujours plus de formats et a saupoudré chaque nouvelle version de quelques évolutions, plus que de révolutions. Il a fallu attendre 2017 pour pouvoir créer des titres directement dans la fenêtre Programme et … 2019 pour pouvoir changer la police d’un modèle de titre ! Pour autant, les développeurs semblent cette fois-ci avoir pigés qu’il fallait faire un peu mieux pour se maintenir à flots. On a donc affaire à un logiciel qui se simplifie un peu et qui surtout voit ses fonctionnalités se développer. Voilà ce qu’il faut retenir.

Adobe corrective correction

La short-list des nouveautés

  • La révision du panneau Lumetri qui se voit doté d’un correcteur sélectif de couleur après la fonction d’auto-matching entre deux plans (2018).
  • Les nouveaux outils ultra simples pour réparer l’audio (reverb, souffle…) avec de simples curseurs.
  • La possibilité de changer les polices des « motion graphic templates » directement dans Premiere. Ainsi que le support des images vectorielles (ce qui évite de perdre de la résolution quand on zoome).
  • Les supports des outils VR se développent.
  • L’arrivée d’Adobe Rush, un logiciel de montage sur tablette/téléphone/Mac/PC: il s’agit d’un programme d’une simplicité absolue, mais qui est capable de transmettre tout un montage via le réseau… et d’être repris par Premiere.
  • Une fonction auto-save qui sauve tous les projets ouverts (et pas simplement celui qui est actif).
  • Et, ça peut sembler anecdotique, mais quand on appuie sur ESC, on désélectionne tous les éléments de la time-line…

Premiere Rush CC, ça sert à quoi ?

Adobe rush splash

Premiere Rush, c’est une nouvelle application qui s’inscrit en amont ou indépendamment de Premiere Pro. L’idée, c’est de coller à la tendance du tout téléphone et de pouvoir monter ultra facilement depuis un périphérique nomade : ordinateur portable, mais aussi iPhone, iPad (et bientôt Android)… Bref, ça marche partout, sur tout et surtout, après avoir suivi le tutoriel d’une minute, je crois qu’un enfant saurait s’en servir. Surtout, le logiciel est connecté au Cloud. Autrement dit, un journaliste peut maquetter son travail sur place, pendant que le monteur récupère et affine le montage sur Premiere Pro à distance. Premiere Rush est aussi capable de travailler tout seul et bien sûr, de publier sur tous les réseaux sociaux. Testé sur un iPad Air plutôt ancien, ça marche sans difficulté. Sans être fondamentale, cette application montre qu’Adobe offre des outils de plus en plus orientés vers la possibilité de collaborer à distance, mais aussi qu’il peut s’adresser à de parfaits débutants. Plutôt réussi donc. On peut même envisager, à termes et à l’aube de la 5G, d’utiliser Rush comme passerelle avec des images 4K, par exemple.
Rush interface

Lumetri: améliorations salutaires

Lumetri, c’est le panneau spécifique d’étalonnage (color grading) de Premiere Pro. Au départ, il était un peu en avance sur son temps, mais il a très vite été surpassé par les fonctions de Resolve. Adobe semble l’avoir compris et apporte des fonctionnalités salutaires. Dans la dernière version, on avait déjà eu droit à « l’auto-matching » des plans (on sélectionne un plan de référence et le second est automatiquement étalonné pour lui correspondre), et cette fois-ci Adobe ajoute enfin la correction sélective par couleur. Qu’est-ce que ça veut dire ? Que l’on peut se dispenser de la pénible correction sélective secondaire TSL (HSL) (efficace, mais dure à manipuler) pour n’agir que sur une plage de couleurs ou de luminance. Exemple, je sélectionne une couleur et je peux en changer la teinte, la luminance, la saturation. En tout, ce sont donc 6 outils qui sont ajoutés.

 

PPRO_Lumetri_02

Ici, on a simplement joué sur « teinte contre teinte » (Hue Vs Hue) pour changer la couleur du passage piéton. Puis on a joué sur « saturation contre saturation » (Sat Vs Sat) pour renforcer le rouge du bus.

PPRO_Lumetri

Ici, j’ai ajusté les skin tones avant d’empiler un autre effet Lumetri pour faire ressortir le débardeur.

D’autre part, on peut enfin « stacker » (empiler) les Lumetri en leur donnant un nom particulier pour ne pas se perdre. On peut ainsi créer des « sets » de préconfigurations qui seront fort utiles pour l’étalonnage en série (skintones/sky/Shadows…). Malheureusement, il demeure impossible d’attribuer les préconfigurations enregistrées à un seul projet : elles s’ajoutent de manière globale et il faut donc fréquemment « nettoyer » les Presets. Car évidemment, on crée ces « sets » en général pour un usage unique.

Les outils de nettoyage audio: la vraie bonne idée

L’audio, c’était à la fois un des points faibles et un des points forts de Premiere Pro. Faible, parce que rien n’y était ergonomique mais aussi un point fort, parce que quand on souscrit à l’offre Creative Cloud, on a aussi droit à Audition, After Effects, etc. et Audition est un logiciel extrêmement puissant. Problème, cela demande la maîtrise des deux logiciels et ça n’a presque rien à voir. Du coup, Adobe a introduit un panneau « Amélioration audio essentielles » (Essential Sound Repair). Et c’est réussi puisque tout y est en effet « essentiel » et contrôlable par de simples curseurs sans avoir besoin de la moindre compétence. On sélectionne l’audio, on choisit s’il s’agit d’un dialogue, de musique, etc. et ensuite, libre à vous de corriger le bruit de fond, le souffle, la reverb… En ajustant les glissières. Facile et efficace pour un résultat instantané. J’adore aussi la fonction d’ajustement automatique du volume qui permet d’harmoniser les différents dialogues. Le seul inconvénient, c’est que le traitement semble rallonger le temps d’export des films. D’autre part, pourquoi ? Mais alors pourquoi, sur l’audio, Adobe ne rajoute-il pas un bouton de lecture en boucle sur une durée paramétrable ? Pour caler l’audio, il faut entendre et réentendre. Du coup, la seule solution est de mettre un point In et un Out dans la fenêtre Programme et d’activer la lecture en boucle dans le Programme. Perte de temps.

PPRO_Audio_essential_repair

le panneau permet d’ajuster très simplement l’intensité et le type de réparation.

Titrage et motion design: du bon et du moins bon

Le panneau des « objets graphiques essentiels » (Essential graphics pannel) est apparue en 2017. Personnellement, même si elle permettait enfin « d’écrire un texte » dans la fenêtre Programme, je ne l’ai jamais trouvée ergonomique: les paramètres y sont limités, il y a doublon avec les Options d’effets, la gestion des bibliothèque est calamiteuse, tout autant que la gestion des fichiers Templates (*.mogrt) entre Premiere et After Effects. Exemple, vous achetez des templates « mogrt », mais vous ne pouvez pas les modifier directement dans After Effects, si vous désirez changer des paramètres comme la police de caractère. Pire, ces Templates utilisant très souvent des « expressions » en anglais, si vous avez un After en allemand ou en français, il y a de fortes chances que ces Templates ne marchent pas, Adobe n’ayant toujours pas trouver le moyen d’uniformiser les expressions d’une langue à l’autre. Bref, c’est indispensable et à peu près utilisable, mais ce n’est pas heureux. Sur cette version, on progresse: la police est enfin modifiable, Premiere prend en charge les fichiers vectoriels, et l’interface se rationalise. Donc, c’est mieux. Pour autant, pourquoi avoir attendu si longtemps pour changer de police alors que c’est juste le paramètre le plus basique pour coller à la charte graphique d’un client ?

PPRO_EG01

Dans After Effects, on peut enfin rajouter la police de caractère comme Propriété modifiable

…Ce qui permet à Premiere d’avoir enfin des titres vraiment personnalisables

Et pour conclure: les perfs ? le bilan ?

Je monte sur Premiere depuis la version 5.1. Je ne l’ai pas quitté car malgré ses défauts, il demeure une sorte de mixeur géant qui, édition après édition, progresse et prend -presque- tout en charge, quelle que soit la machine. Sur ma machine de test (un PC avec 64 Go de RAM, mais qui a 3 ans), les performances de cette nouvelle version sont à peu près équivalentes à l’ancienne (2018) mais avec plus de robustesse : sur le montage d’une conférence de 3h30, je n’ai eu aucun souci. En revanche, le traitement de l’audio réclame un peu plus de temps puisque naturellement, on va se servir des nouveaux outils. Bref, je suis assez satisfait, mais je reste toujours un peu sur ma faim : j’aimerais une  gestion des données plus transparente (quand on duplique un élément, il s’y ajoute toujours l’attribut « copié01 » plutôt qu’une simple numérotation, on passe sa vie à chercher des sources de presets…), une ouverture plus simple aux plugins tiers (comme pour FCP X et Resolve…). Bref, que Premiere soit réellement relifté.
Reste que Premiere Pro, inscrit dans la suite Adobe avec Photoshop/After/Audition, est absolument capable de tout faire et que dans ce domaine, il est un peu le seul : ailleurs, il faut exporter, remplacer, ou utiliser des EDL et des XML: Resolve a intégré Fusion au sein de la même interface, mais on reste encore loin des possibilités offertes ici en termes de montage « pur ». Bref, Premiere Pro reste une référence qui semble sur la voie de la modernisation avec l’arrivée de Rush.
Mais s’il vous plait, faites vite.

L’article Premiere Pro ’19 et Adobe Rush : un bon millésime ? est apparu en premier sur Createinmotion.

❌