Let's explore the different methods you can use on your next project to create beautiful bokeh effects in your footage.
If you need to transfer your timeline between two different pieces of video editing software, using XML files could be the solution for you.
The latest news and updates from 2020’s Adobe Max conference, including quick export for Premiere Pro and Roto Brush 2 for After Effects. 2020 might have taken ...
With these FREE animated motion graphics templates for Premiere Pro, you can add some eye-catching animated titles to your edits — quickly and easily.
With these FREE textured transitions, you can quickly add some fun energy into your edits in Premiere Pro. Download this free pack below.
Here's how you can save time on revisions and improve the organization of your editing projects through nesting sequences with Adobe Premiere Pro.
Take a look at some free computer benchmark tests that are ideal for video editors. This is invaluable for when you build your next video editing computer.
New media asset management software enables Hollywood’s leading movie trailer producers to securely collaborate and create without constraint from home CAMBRIDGE, UK, 1 April 2020: Trailer Park Group, the award-winning global entertainment marketing company, which counts many of the world’s most prestigious and successful companies, brands, media properties and film franchises among its clients, is ...
The post IPV’s CuratorNow powers remote video production for Trailer Park Group appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.
CAMBRIDGE, UK, 23 March 2020: Industry leading media asset management software provider IPV today announced the appointment of Philip McDanell as Chairman of the Board. McDanell is a highly knowledgeable executive director with extensive experience in the media and technology sector, having held senior board positions at MTV, Chrysalis Group, and most recently Peach, formerly ...
The post IPV Names Highly Experienced Broadcast Media Leader Philip McDanell as Chairman appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.
Imaginons un cadreur qui peut voir l’intégralité de son environnement: devant, derrière, mais aussi au-dessus, en-dessous et surtout capable de bouger à la vitesse de la lumière pour suivre sans erreur un avion de chasse. C’est exactement ce que permettent de faire les caméras 360° quand leur usage est détourné en 2D.
Comme elles filment simultanément absolument dans toutes les directions, l’idée est donc de sélectionner en post-production le cadre de l’image le plus intéressant et d’animer sa position pour suivre ce qui nous intéresse. Pour résumer, elles dont office de cadreur virtuel.
Pour mieux se rendre compte des possibilités, voici un court exemple de ce qu’il est possible de faire:
Comme on le voit dans ici, le principe est le même que celui qui consiste à « cropper » dans une image 4K quand on va livrer en HD. Sauf que c’est dans toutes les directions. Oui mais voilà, un peu comme pour les Gopro et autres caméras de sport, quand elles sont apparues, les caméras 360° abordables n’ont pas été prévues à la base pour être utilisées de manière traditionnelle. Elles ont été faites pour le social sharing avec des app et pas forcément une recherche de post-production poussée.
Malgré tout, et comme pour les caméras sportives, les pros n’ont pas tardé à s’emparer des possibilités offertes, malgré la qualité d’image bien plus faible. Parce qu’un plan unique justifie une qualité moins « broadcast ». Il existe donc des limites, mais elles sont de plus en plus repoussées. Ceci d’autant que les caméras 360° disposant de gyroscopes et filmant partout, elles sont toutes équipées de stabilisateur d’images si performants qu’elles peuvent se dispenser de nacelles (Gimbal).
Le principe est assez simple. Les caméras 360° sont équipées d’objectifs fisheye qui filment leur environment à 180° (dans la cas de 2 objectifs, 120° pour 3 objectifs etc).
A partir de là, une puce dédiée ou un logiciel vont rassembler les 2 images (ou autant d’images que la caméra a d’objectifs) de manière équirectangulaire pour produire ce résultat qui s’apparente à un panorama déformé:
C’est cette image qui sera projetée dans une sphère virtuelle et qui permettra au spectateur de se promener à 360° comme s’il était au centre de cette sphère. L’idée est donc de récupérer une portion de l’image afin de l’insérer dans un montage classique. On va ainsi pouvoir animer le cadrage, changer de point de vue etc…
Evidemment, tout cela semble magique, mais il y a plusieurs limites qu’il faut bien prendre en compte:
Si tous les logiciels savent désormais monter de la VR (de la 360 native donc), ils ne sont pas tous capables d’effectuer le recadrage et l’animation des paramètres (changement de vue, champ de vision etc…). C’est pourquoi deux solutions s’offrent à vous:
– Utiliser Insta360 Studio 2019 qui supporte gratuitement la majorité des caméras 360° y compris celles qui ne sont pas de la marque. Il est téléchargeable ici et son tutoriel (très simple est ici).
– Installer les plugins Gopro pour Premiere Pro qui vont permettre ajouter l’effet « Gopro VR Reframe ». Le téléchargement pour Windows est ici et le téléchargement pour Mac est là. A noter que Gorpo propose aussi l’installation des plugins via son logiciel Gopro Fusion Studio, mais ce dernier ne sera compatible qu’avec la caméra de la marque (la Fusion).
Une fois les plugins installés, il suffit de lancer Premiere Pro et d’importer vos fichiers 360 en Flat (equirectangulaire). Créez ensuite une séquence (une Timeline), aux dimensions de vos rushes source (5.7K, 4K…) en respectant bien la cadence d’image native de la caméra (25/30/50P).
Glissez simplement l’effet GoPro VR Reframe depuis la bibliothèque d’effet sur le clip de votre choix. L’image est immédiatement recadrée. Placez la tête de lecture en début de clip et ouvrez les Options d’effets. Activez les chronomètres afin d’indiquer que vous allez animer ce « recadrage ». Les paramètres sont les suivants:
Tout comme pour les caméras de sport qui ont un champ de vision très large, les bords de l’image sont souvent courbés. Pour corriger ce défaut, allez chercher l’effet « Déformation de la lentille » (Lens Distortion). Glissez-le sur votre rushe. Dans les Options d’effet, il suffit de glisser le paramètre Courbure vers une valeur négative pour atténuer les déformations.
L’effet Tiny Planet est ultra populaire et il était ultra simple à réaliser avec le plugin Gopro VR Reframe. Il suffit pour cela:
– de basculer le Pitch à 90° (pour regarder vers le sol en quelque sorte) et d’étendre le champ de vision à près de 100. Ce qui va faire « decoller » la caméra et rassembler tout l’image sous forme de « petite planète ». Bien sûr, si la caméra n’était pas parfaitement verticale lors de prise de vue, vous devrez sans doute corriger l’angle avec le Roll ou le YAW.
La plupart des caméras 360° proposent une fonction d’hyperlapse car elles sont ultra stabilisées. Oui, mais voilà, l’effet est souvent disponible sur l’application du téléphone seulement et pas en post-production sur ordinateur. C’est très frustrant. Pour autant, il existe une parade:
– Tournez votre trajet à vitesse normale (comme dans la fin de la vidéo d’introduction de l’article).
– Une fois le fichier rapatrié dans Premiere Pro et Reframé à votre guise. Augmentez la vitesse de lecture entre 2000 et 3000%. En l’état, vous verrez bien l’effet hyperlapse, mais il n’y pas de motion blur (flou de mouvement).
– Effectuez un clic-droit sur le clip / Interpolation temporelle (Time Interpolation) / et sélectionnez Interpolation (Frame Blending). Le flou de mouvement est ainsi ajouté.
Enfin pour aller plus loin dans les possibilités offertes par les caméras 360° utilisée en 2D, nous vous recommandons cette vidéo de Cinecom.net qui montre l’étendue des transitions que l’on peut réaliser en quelques mouvements:
L’article [Tuto] Monter la 360 en 2D pour produire des plans impossibles est apparu en premier sur Createinmotion.
… That is the question. Le grand mérite de Premiere Pro, outre son âge, c’est essentiellement d’être rationnel, de fonctionner à peu près partout et de savoir tout monter en natif. Oui, mais voilà, depuis des années, on a vu la concurrence arriver avec des innovations certes déroutantes (la logique de FCPX ou le système nodal de Resolve), mais diablement efficaces en termes de productivité. Pendant ce temps-là, Adobe s’est contenté d’ajouter toujours plus de formats et a saupoudré chaque nouvelle version de quelques évolutions, plus que de révolutions. Il a fallu attendre 2017 pour pouvoir créer des titres directement dans la fenêtre Programme et … 2019 pour pouvoir changer la police d’un modèle de titre ! Pour autant, les développeurs semblent cette fois-ci avoir pigés qu’il fallait faire un peu mieux pour se maintenir à flots. On a donc affaire à un logiciel qui se simplifie un peu et qui surtout voit ses fonctionnalités se développer. Voilà ce qu’il faut retenir.
Premiere Rush, c’est une nouvelle application qui s’inscrit en amont ou indépendamment de Premiere Pro. L’idée, c’est de coller à la tendance du tout téléphone et de pouvoir monter ultra facilement depuis un périphérique nomade : ordinateur portable, mais aussi iPhone, iPad (et bientôt Android)… Bref, ça marche partout, sur tout et surtout, après avoir suivi le tutoriel d’une minute, je crois qu’un enfant saurait s’en servir. Surtout, le logiciel est connecté au Cloud. Autrement dit, un journaliste peut maquetter son travail sur place, pendant que le monteur récupère et affine le montage sur Premiere Pro à distance. Premiere Rush est aussi capable de travailler tout seul et bien sûr, de publier sur tous les réseaux sociaux. Testé sur un iPad Air plutôt ancien, ça marche sans difficulté. Sans être fondamentale, cette application montre qu’Adobe offre des outils de plus en plus orientés vers la possibilité de collaborer à distance, mais aussi qu’il peut s’adresser à de parfaits débutants. Plutôt réussi donc. On peut même envisager, à termes et à l’aube de la 5G, d’utiliser Rush comme passerelle avec des images 4K, par exemple.
Lumetri, c’est le panneau spécifique d’étalonnage (color grading) de Premiere Pro. Au départ, il était un peu en avance sur son temps, mais il a très vite été surpassé par les fonctions de Resolve. Adobe semble l’avoir compris et apporte des fonctionnalités salutaires. Dans la dernière version, on avait déjà eu droit à « l’auto-matching » des plans (on sélectionne un plan de référence et le second est automatiquement étalonné pour lui correspondre), et cette fois-ci Adobe ajoute enfin la correction sélective par couleur. Qu’est-ce que ça veut dire ? Que l’on peut se dispenser de la pénible correction sélective secondaire TSL (HSL) (efficace, mais dure à manipuler) pour n’agir que sur une plage de couleurs ou de luminance. Exemple, je sélectionne une couleur et je peux en changer la teinte, la luminance, la saturation. En tout, ce sont donc 6 outils qui sont ajoutés.
Ici, on a simplement joué sur « teinte contre teinte » (Hue Vs Hue) pour changer la couleur du passage piéton. Puis on a joué sur « saturation contre saturation » (Sat Vs Sat) pour renforcer le rouge du bus.
Ici, j’ai ajusté les skin tones avant d’empiler un autre effet Lumetri pour faire ressortir le débardeur.
D’autre part, on peut enfin « stacker » (empiler) les Lumetri en leur donnant un nom particulier pour ne pas se perdre. On peut ainsi créer des « sets » de préconfigurations qui seront fort utiles pour l’étalonnage en série (skintones/sky/Shadows…). Malheureusement, il demeure impossible d’attribuer les préconfigurations enregistrées à un seul projet : elles s’ajoutent de manière globale et il faut donc fréquemment « nettoyer » les Presets. Car évidemment, on crée ces « sets » en général pour un usage unique.
L’audio, c’était à la fois un des points faibles et un des points forts de Premiere Pro. Faible, parce que rien n’y était ergonomique mais aussi un point fort, parce que quand on souscrit à l’offre Creative Cloud, on a aussi droit à Audition, After Effects, etc. et Audition est un logiciel extrêmement puissant. Problème, cela demande la maîtrise des deux logiciels et ça n’a presque rien à voir. Du coup, Adobe a introduit un panneau « Amélioration audio essentielles » (Essential Sound Repair). Et c’est réussi puisque tout y est en effet « essentiel » et contrôlable par de simples curseurs sans avoir besoin de la moindre compétence. On sélectionne l’audio, on choisit s’il s’agit d’un dialogue, de musique, etc. et ensuite, libre à vous de corriger le bruit de fond, le souffle, la reverb… En ajustant les glissières. Facile et efficace pour un résultat instantané. J’adore aussi la fonction d’ajustement automatique du volume qui permet d’harmoniser les différents dialogues. Le seul inconvénient, c’est que le traitement semble rallonger le temps d’export des films. D’autre part, pourquoi ? Mais alors pourquoi, sur l’audio, Adobe ne rajoute-il pas un bouton de lecture en boucle sur une durée paramétrable ? Pour caler l’audio, il faut entendre et réentendre. Du coup, la seule solution est de mettre un point In et un Out dans la fenêtre Programme et d’activer la lecture en boucle dans le Programme. Perte de temps.
Le panneau des « objets graphiques essentiels » (Essential graphics pannel) est apparue en 2017. Personnellement, même si elle permettait enfin « d’écrire un texte » dans la fenêtre Programme, je ne l’ai jamais trouvée ergonomique: les paramètres y sont limités, il y a doublon avec les Options d’effets, la gestion des bibliothèque est calamiteuse, tout autant que la gestion des fichiers Templates (*.mogrt) entre Premiere et After Effects. Exemple, vous achetez des templates « mogrt », mais vous ne pouvez pas les modifier directement dans After Effects, si vous désirez changer des paramètres comme la police de caractère. Pire, ces Templates utilisant très souvent des « expressions » en anglais, si vous avez un After en allemand ou en français, il y a de fortes chances que ces Templates ne marchent pas, Adobe n’ayant toujours pas trouver le moyen d’uniformiser les expressions d’une langue à l’autre. Bref, c’est indispensable et à peu près utilisable, mais ce n’est pas heureux. Sur cette version, on progresse: la police est enfin modifiable, Premiere prend en charge les fichiers vectoriels, et l’interface se rationalise. Donc, c’est mieux. Pour autant, pourquoi avoir attendu si longtemps pour changer de police alors que c’est juste le paramètre le plus basique pour coller à la charte graphique d’un client ?
Je monte sur Premiere depuis la version 5.1. Je ne l’ai pas quitté car malgré ses défauts, il demeure une sorte de mixeur géant qui, édition après édition, progresse et prend -presque- tout en charge, quelle que soit la machine. Sur ma machine de test (un PC avec 64 Go de RAM, mais qui a 3 ans), les performances de cette nouvelle version sont à peu près équivalentes à l’ancienne (2018) mais avec plus de robustesse : sur le montage d’une conférence de 3h30, je n’ai eu aucun souci. En revanche, le traitement de l’audio réclame un peu plus de temps puisque naturellement, on va se servir des nouveaux outils. Bref, je suis assez satisfait, mais je reste toujours un peu sur ma faim : j’aimerais une gestion des données plus transparente (quand on duplique un élément, il s’y ajoute toujours l’attribut « copié01 » plutôt qu’une simple numérotation, on passe sa vie à chercher des sources de presets…), une ouverture plus simple aux plugins tiers (comme pour FCP X et Resolve…). Bref, que Premiere soit réellement relifté.
Reste que Premiere Pro, inscrit dans la suite Adobe avec Photoshop/After/Audition, est absolument capable de tout faire et que dans ce domaine, il est un peu le seul : ailleurs, il faut exporter, remplacer, ou utiliser des EDL et des XML: Resolve a intégré Fusion au sein de la même interface, mais on reste encore loin des possibilités offertes ici en termes de montage « pur ». Bref, Premiere Pro reste une référence qui semble sur la voie de la modernisation avec l’arrivée de Rush.
Mais s’il vous plait, faites vite.
L’article Premiere Pro ’19 et Adobe Rush : un bon millésime ? est apparu en premier sur Createinmotion.