Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Zhee-Shee production | Festival of Lights Berlin 2017

Par Eva Fechten

Zhee-Shee production 13-th Festival of lights in Berlin 1-st place, winner of the jury award Second place by public voiting Zhee-Shee production | Festival of Lights Berlin 2017 from zhee shee production on Vimeo. Our best team: Director: Artem Shcherbakov Sound: Gleb Mordovtzev CG-arists: Lenar Singatullov, Nail Gaynullov, Alex Orlov, Alexander Korshakov, Petr Shkolniy, Alexander […]

The post Zhee-Shee production | Festival of Lights Berlin 2017 appeared first on LUMEN.

NBC Olympics s’est appuyé sur Grass Valley pour son infrastructure de production des JO d’hiver de PyeongChang

Par Cine.Tv.Industry

NBC Olympics, une division du groupe NBC Sports, chargée de la couverture olympique des jeux pour NBC Universal, a fait appel au fabricant d’équipements Grass Valley (Belden) pour son infrastructure technique de production des XXIIIème Jeux Olympiques d’hiver (9 février – 25 février 2018) à PyeongChang, Corée du Sud.

NUP_181795_0092.JPG

NBC Olympics doit gérer quotidiennement plusieurs centaines de flux pour la transmission en direct des JO d’hiver de PyeongChang. © NBC Sports Group

Partenaire technique de NBC Olympics depuis 2006, Grass Valley a mis en place pour les plateaux Tv de NBC à l’intérieur du centre IBC et dans divers emplacements des JO, une gamme de cartes d’encodage SME-1901 (SME-1901 Streaming Encoder) pour la distribution des signaux multi-format audio/vidéo sur IP. Ces matériels permettent notamment à l’équipe de NBC Olympics de contrôler directement les flux vidéo de n’importe quelle caméra, mais aussi de monter les images en basse et haute résolution depuis un ordinateur portable ou de bureau. Les cartes SME-1901 acceptent tous les formats vidéo et délivrent deux flux vidéo H.264 en haute et basse résolution. Elles sont intégrées à un rack Densité 3+ FR4 Frame à côté d’’un convertisseur XVP-3901 pour le traitement des signaux vidéo, audio et des métadatas. Le XVP-3901 dispose de sorties 3G, HD et SD. Il prend en charge la conversion up/down/cross du signal et des couleurs, la synchronisation d’image, l’en(dé)-capsulage audio et dispose E/S fibre optique.

Gary Zenkel, President, NBC Olympics; Mike Tirico, NBC Olympics Primetime Host; and Jim Bell, President, Production and Executive Producer, NBC Olympics

Gary Zenkel, président, NBC Olympics ; Mike Tirico, présentateur vedette NBC Sports ; et Jim Bell, président et producteur exécutif, NBC Olympics. © NBC Sports Group.

Pour assurer la fluidité des signaux durant la production, NBC Olympics utilise le système iControl de monitoring et de contrôle (QC) de l’ensemble de son workflow (détection des macroblocks, des décalages audio…).

NBC Olympics PyeongChang Games IBC Rooftop Winter Lodge Set

Un des plateaux Tv de NBC Sports sur le toit de l’IBC. © NBC Sports Group.

Avec iControl, l’équipe de production a mis en place un monitoring de surveillance pour les opérateurs QC, regroupant plusieurs fonctions pilotables via une seule interface graphique qui facilite la réactivité des équipes. iControl assure la supervision du convertisseur XVP-3901, le suivi du flux de forme d’onde (WFM) et le contrôle du routeur QC. Il améliore également le contrôle des images en permettant aux opérateurs de choisir des flux spécifiques qu’ils souhaitent particulièrement superviser.

2018 Winter Olympic Games

Ambiance sport d’hiver lodge pour un des plateaux Tv de NBC Sports. ©NBC Sports Group.

Grass Valley a également installé d’autres systèmes pour la couverture des JO d’hiver par NBC Olympics, comprenant :

  • Un panneau de contrôle Densité Remote Control Panel pour les cartes Densité.
  • Trois routeurs NVISION 8500 HYBRID avec leur interface graphique offrant un contrôle simplifié des signaux audio/vidéo.
  • Le routeur NVISION Compact CQX avec ses sorties propres et silencieuses pour les signaux 3G/HD/SD associées à 6 sorties auxiliaires pour le preview ou le monitoring des transitions audio et vidéo.
  • LUMO Series High Density Fiber Converter, convertisseur fibre pour fluidifier le câblage de la production dans un boîtier 1U avec 36 convertisseurs fibre SFP.
  • 34 mosaïques Kaleido-IP Multiviewers pour le contrôle des sources IP et SDI sur un seul moniteur.
NUP_181795_0009.JPG

Le centre de hockey Gangneung au parc olympique Gangneung. © NBC Sports Group.

Afin d’être réactif aux événements sur place, Grass Valley a livré 3 routeurs NVISION 8500 Hybrid et plusieurs mosaïques Kaleido en caissons transportables (flypack) pour leur déplacent d’un lieu à un autre.

« Il s’agit de la 8ème fois consécutive que NBC Olympics travaille avec Grass Valley sur son infrastructure au sein de l’IBC et dans ses différents lieux d’installation », note Terry Adams, ingénieur centre international de diffusion (IBC) et vice président de NBC Olympics. « Pour un événement comme les JO, nous devons gérer des centaines de flux entrants et sortants, dans de multiples endroits, tous exigeants du routage, du contrôle et de la surveillance. Les solutions fournies par Grass Valley permettent de gérer de façon proactive tous ces workflows complexes dans un environnement hautement sensible lié à la diffusion en direct des différentes compétitions ».

V-LOG, comment bien exposer ses images?

Par Alexandre Médan
Tourner en V-Log, c’est excitant. La promesse sur le papier, c’est d’étendre la dynamique de la caméra et d’avoir une latitude d’étalonnage bien plus forte en post-production. Oui, mais voilà, le V-Log, il faut le maîtriser parfaitement au tournage, sans quoi, la désillusion est totale: la génération de bruit involontaire est le principal écueil à éviter. Le secret, c’est donc de bien exposer, mais aussi de faire des choix.

Une vidéo tournée en Log, n’est pas regardable en l’état. Elle apparait délavée et plate. C’est normal puisque l’objectif étant de conserver un maximum d’informations du capteur afin d’avoir l’image la plus « malléable » possible en post-production, la caméra va « désactiver » un ensemble d’opérations qu’elle effectue d’habitude toute seule. Surtout elle va employer une courbe de transfert Logarithmique (d’où le Log), pour retenir le maximum d’information du capteur. Cette courbe a l’avantage d’aller « chercher » tous les détails de l’image, mais elle a pour gros inconvénient de ne pas être optimisée pour notre vision et surtout, d’être bien plus exigeante en terme d’exposition. Elle méritera aussi bien plus de travail de post-production. A la clé cependant, une image bien plus détaillée, et bien plus « ciné ».

Vlog_versus_natural Vlog_versus_Natural_Zoom

Le V-Log, pas fait pour regarder, bon à retravailler.

La plupart des courbes de gamma internes des caméras (les profils comme « naturel », « standard »… chez Panasonic), sont conçues pour montrer à l’écran ce que perçoit notre vision. Pratique, car l’image est flatteuse, mais il existe un énorme inconvénient: la dynamique de l’image est plus réduite. Pourquoi? Parce que la courbe va privilégier les informations les plus « visibles » (et souvent, celles dont la luminosité est médiane comme les skin tones). Conséquences, les pixels sombres et les pixels très exposés sont assez mal lotis.Du coup, les ombres sont souvent détériorées (noirs écrasés), si vous essayez de les corriger en post-production, vous verrez l’apparition du phénomène de « Banding » (des aplats très vilains). L’avantage du VLOG-L est que la répartition des « bits » disponibles pour les pixels lumineux et les pixels sombres est beaucoup plus équilibrée. Les zones claires et « moyennes » disposent du même nombre de nuances de gris enregistrées, et même si les zones sombres en ont légèrement moins, elles en ont toujours nettement plus qu’en utilisant une courbe de gamma conventionnelle qui elle va bien plus ressembler à un « S ».

La courve V-Log de la Varicam

La courbe V-Log de la VariCam: on voit bien que les information sont assez bien réparties.

En conséquence le VLOG- est un mode adapté à l’enregistrement, mais pas vraiment à la visualisation. Mais ceci pose un énorme problème: comment correctement exposer et faire une bonne balance des blancs sur une image aussi « flat » (plate)?

V-Log, injecter une LUT dans la caméra ou le moniteur

Au début de l’arrivée du Log, on était bien embêtés: pas de moyen de visualiser en temps réel l’application d’une LUT (Look Up Table) pour traduire l’image grisâtre en quelque chose de visible et qui permettrait donc a minima de vérifier que les couleurs sont à peu près bonnes, tout comme l’exposition. La LUT est une manière d’interpréter l’image et c’est un peu la première étape en post-production. Depuis, les choses ont bien changé. GH5(S), EVA1 ou les VariCam pour ne citer qu’elles permettent de charger des LUT et d’activer/désactiver leur interprétation. Il en va de même pour la plupart des moniteur externes. Et ça peut aider bien sûr, mais ce n’est pas une solution ultime car cette fonction applique de façon automatique une courbe de gamma donnée, dont le résultat peut tout à fait ne pas correspondre à la façon dont on aurait retravaillé ses images manuellement. C’est donc une prévisualisation que l’on pourrait qualifier de « raisonnable », mais à laquelle on ne doit pas totalement se fier dans la mesure où  l’on aurait pu faire des choix d’étalonnage très différents.

Vlog_InCameraLut01

L’image en V-LOG-L d’une GH5 et l’injection de la LUT de base de Panasonic (Rec709)

Alors, comment bien exposer ?

Mais revenons à l’exposition. Il est nécessaire d’utiliser les zébras, l’oscillo et l’histogramme pour la maîtriser en VLOG, mais il ne faut pas le faire de la même façon que sur un tournage avec une courbe de gamma quelconque. En effet, les niveaux qui peuvent nous être familiers (70 IRE pour les tons chairs et 100 IRE pour les hautes lumières par exemple) ne sont tout bonnement pas adaptés au VLOG: pourquoi parce que la courbe ne suite plus les mêmes valeurs de « S » en fonction de l’expo.

Un exemple tout simple avec le GH5 et le VLOG-L, les très hautes lumières vont commencer à apparaître dans les zébras et sur l’oscillo, vers 80 IRE, et rien au-delà de 81 IRE ne sera visible, jamais. Même en ouvrant l’iris à son maximum et en pointant la camera vers le soleil, on ne verra jamais rien au-delà de 81 IRE. C’est tout à fait normal : le VLOG a été conçu à l’origine pour la VariCam qui dispose d’une plage dynamique de 15+ stops. Le VLOG-L traite les ombres et les tons moyens comme le VLOG, mais dans une limite de 12 stops, donc avec une limite à 80 IRE. La VariCam elle aura des références différentes: on le voit, chaque Log a ses particularités.

Vlog-L light

Les distribution de la dynamique d’une GH5. Source: https://wolfcrow.com/

Ça peut sembler un peu limité mais en fait il n’en est rien car il est possible d’utiliser les mêmes LUTs que celles de la VariCam puisque la répartition des gris est la même pour le VLOG-L et le VLOG. Il faut comprendre les niveaux et les limites du capteur à respecter et pour faire court, il faut intégrer qu’il n’est pas possible d’exposer des tons chair à 70 IRE ou des gris moyens à 55 IRE en VLOG-L. Ces niveaux vont devoir être nettement plus bas.

1- L’exposition à droite (Exposure To the Right), une vraie bonne idée?

Cette technique implique l’utilisation de l’histogramme. Cet outil montre la répartition de la luminosité dans l’image et plus l’image tendra vers les hautes lumières, plus la courbe de l’histogramme se déplacera vers la droite. Les promoteurs de cette technique considèrent que les tons les plus foncés et les ombres sont les zones les plus bruitées d’une image et qu’en faisant sortir une image de la zone sombre il est possible de mieux la retravailler en post-production. Autrement dit : plus on expose à droite, plus on profite des capacités du capteur et surtout, plus on va pouvoir obtenir une image détaillée. Souvenez-vous de ce dont nous parlions sur la répartition des bits : les hautes lumières et les tons moyens se voient allouer le même nombre de bits (c’est-à-dire d’information) alors que les zones sombres en ont moins à disposition. Donc moins l’image n’a de zones sombres plus son contenu sera détaillé, et rien n’empêchera plus tard de l’assombrir de nouveau. Cette technique souffre d’un gros inconvénient: elle implique énormément de travail en post-production pour rééquilibrer toutes les images et elle peut plus facilement nécessiter un débruitage long et pénible.

2- Le gris 18%, l’oscillo, les zebras et les « Falses colors », vos meilleurs amis.

x_rite_colorchecker_passportLes systèmes vidéo font souvent référence aux « gris moyens » ou aux « gris 18% ». Le gris 18% est un standard en vidéo et en photographie, il s’agit d’une nuance de gris qui reflète 18% de la lumière qu’elle reçoit. Elle est très souvent utilisée sur les cartons de test et il est très facile de s’en procurer dans les magasins spécialisés. Une réflexion de 18% représente la réflectance moyenne d’une scène moyenne, d’où le fait que l’exposition automatique d’une caméra est souvent conçue pour exposer correctement les zones de l’image dont la réflectance est d’environ 18%. En utilisant cette technique d’exposition, vous trouverez que l’oscillo et les zébras sont bien plus utiles que l’histogramme.

Contrairement un une courbe de gammas conventionnelle, et pour reprendre l’exemple du VLOG-L, ce dernier n’expose pas les gris moyens à environ 50 ou 55 IRE. Il les exposera en réalité à 42 IRE, donc avec un gris moyen, il vous faut le voir apparaître sur votre oscillo à environ 42 IRE pour une exposition « propre », c’est-à-dire standard.

Pour information, voici les niveaux de réflectance du mode VLOG-L :
0%  de réflectance (noir) : 7,3 IRE
18% de réflectance (gris moyens) : 42 IRE
90% de réflectance (blanc) : 61 IRE
Super blanc absolu : 80 IRE

Oscillo-exemple

Sur cet exemple, l’oscillo montre une sous-exposition: pour être bien, je devrais atteindre mes 80 IRE dans les blancs.

Cependant, exposer pour un mode gamma logarithmique n’est pas toujours aussi simple que de mettre un carton à 18% dans le décor et d’exposer à 42 IRE. On peut donc parfois se demander si un équilibre judicieux entre la technique de l’exposition à droite et celle de l’exposition des gris moyens, même si ça peut s’avérer compliqué, ne serait pas la meilleure solution. Finalement tout dépend des compromis que l’on est prêt à accepter. C’est pour cette raison, que pour chaque caméra, vous devez utiliser en conjonction: l’injection de la LUT de base (ou de celle que vous utiliserez en post-production si vous être sûrs de votre coup et voir le bruit généré), l’oscillo afin de visualiser vos valeurs, mais aussi les Zebra afin d’avoir une « alerte directe » sur l’écran quand vous cramez les informations.
Les fausse couleurs (false colors), sont une autre représentation qui donne des couleurs relatives à l’exposition suivant une échelle, comme le montre cette image.

false colors

L’utilisation de tous ces outils vous permet de « savoir » dans quelle zone IRE les informations seront les mieux traitées pour chaque caméra. Et surtout cela va vous permettre de faire des choix de réalisation. Devez-vous privilégier exceptionnellement un arrière plan? Ou plus conventionnellement un sujet? Faut-il rapporter de la lumière pour homogénéiser le tout? A partir de quand génère-t-on du bruit qui sera difficilement traitable en post-production? De là se dégageront des « règles » pour chaque machine.

Un mot sur les LUTs


Les LUTs (Look Up Tables) sont utilisées pour l’étalonnage, pour expliquer à un moniteur comment afficher correctement une valeur qui a été encodée de façon logarithmique. Les LUTs sont devenues assez communes. Beaucoup de logiciels de montage ou d’étalonnage sont capables de les utiliser, de même que beaucoup de moniteurs externes ou d’enregistreurs externes. Donc avoir un bon fichier LUT dans son moniteur permet d’avoir une bonne idée de ce à quoi ressemblera effectivement ce que l’on est train de filmer une fois étalonné.

Maintenant, comment est-ce que cela fonctionne ? Une LUT transforme une certaine valeur d’un fichier vidéo en une autre donnée pour son affichage. Elle va donc vérifier l’information liée à la couleur et au gamma de la source et la transformer en une autre valeur de couleur et de gamma pour que l’affichage de cette dernière corresponde à la volonté de l’opérateur. Pour chaque valeur d’entrée donnée il existe une seule valeur de sortie qui ne varie jamais. Jusque-là tout va bien, ça semble assez simple, mais les gens oublient souvent que chaque modèle de caméra va attribuer des valeurs de colorimétrie bien spécifiques à ce que son capteur aura repéré. Ça implique que la même LUT traitera différemment les informations provenant de cameras différentes. Donc si l’on tourne en DVX200 et que l’on souhaite obtenir une image « réaliste », il faut utiliser une LUT qui a été spécialement développée pour la DVX200 et non pour une autre caméra. Concrètement, cela signifie que même si la DVX200, la VariCam et le GH5 utilisent le VLOG, leurs capteurs sont différents et se comportent différemment, donc la même LUT appliquée à ces trois modèles ne produira pas précisément les mêmes résultats. Dit comme ça, ça semble évident n’est-ce pas?

Ceci étant dit, on peut tout de même utiliser la LUT de son choix car au final le résultat doit correspondre à son goût et si une LUT dédiée à une autre caméra donne des résultats plus satisfaisants ou plus créatifs, allons-y !

L’article V-LOG, comment bien exposer ses images? est apparu en premier sur Createinmotion.

Thierry Drilhon (Euromedia) nommé Président de la Chambre de Commerce & d’Industrie Franco-Britannique

Par Cine.Tv.Industry

Euromedia_Thierry Drilhon

Le conseil d’administration de la Chambre de Commerce & d’Industrie Franco-britannique vient de nommer Thierry Drilhon Président de la Chambre avec effet immédiat.

«Je suis très honoré  de cette nomination et suis conscient  des enjeux pour nos deux pays à ce moment clé de notre histoire. Je continuerai avec la même passion le travail remarquable entrepris par Olivier Campenon et toute l’équipe de la Chambre pour faire entendre la voix des entreprises et contribuer ainsi à construire des relations commerciales fortes et pérennes entre nos deux nations » a-t-il déclaré.

Agé de 53 ans, Thierry Drilhon est diplômé de l’EAD Paris et de l’université de Stanford aux USA, il intervient comme Senior Advisor du fonds Francisco Partners et est Administrateur des sociétés Beijaflore, Synapscore et Tiaré Groupe. Il était également Vice-Président de la Chambre.

Il prend la présidence de la Chambre à un moment clé de ses 145 ans d’existence, exactement deux ans après le Référendum historique qui aboutira à la sortie de l’Union Européenne du Royaume Uni.

Le Président sortant, Olivier Campenon, a œuvré pendant ses deux années de mandat pour rapprocher les communautés franco-britanniques dans ce contexte nouveau et pour représenter avec fermeté la position et les intérêts des entreprises pendant les discussions à Londres et à Bruxelles. Le conseil d’administration a tenu à le remercier vivement pour son engagement sans faille tout au long de son mandat.

SON PARCOURS

Thierry Drilhon met au service de la Chambre son expérience d’une longue carrière internationale. Après avoir exercé des fonctions exécutives chez DIGITAL (11 ans), MICROSOFT (5 ans), il rejoint CISCO en 2000 comme CEO France puis Vice-Président Europe puis enfin, au niveau mondial, Senior Vice- Président Corp. en charge des Partenariats et Alliances et membre du Comité Exécutif.

Euromedia Car B40 UHD_8

Ces 5 dernières années, il pilote, en tant que Chairman et CEO, la transformation du groupe EUROMEDIA pour en faire le leader européen du Broadcasting au travers d’une profonde transformation, d’acquisitions (8) et de cessions mais aussi d’un renouvellement de l’actionnariat, avec l’entrée du fonds PAI, permettant ainsi de soutenir le développement du groupe. Il a développé durant toutes ces années un important savoir-faire en termes de leadership direct ou par influence.

EUROMEDIA a atteint des résultats record en 2017 avec un Ebitda de 72 millions d’Euros pour 360 millions de Chiffre d’Affaires.

Adepte d’une vision “Francoptimiste”, il est l’un des cofondateurs des “Etats de la France” qui réunit depuis 12 ans des dirigeants de grandes entreprises pour établir un bilan de conjoncture Economique, Politique, Sociale et Internationale.

Passionné par les sujets d’éducation, il donne des conférences au MBA d’HEC depuis près de 10 ans.

Best-of des transitions… Au tournage

Par Sébastien François

Les transitions réalisées au tournage, c’est en fait anticiper deux plans successifs, et faire en sorte qu’ils se raccordent sans post-production (ou presque). A la clé, l’impression que la caméra a pu se transporter à deux endroits différents sans coupe. On a sélectionné ici 9 transitions faciles à faire « in camera ». Explications.

1- Les principes

Les exemples les plus communs de transitions « In camera » (au tournage), vous les connaissez sans doute: vous suivez un sujet, puis en fin de plan vous effectuez un tilt vers le ciel. vous changez d’endroit et vous commencez votre plan depuis le ciel et vous reprenez votre sujet… Qui a changé d’endroit. Pourquoi le ciel? Parce qu’il va donner une image bleue-blanche et que quand vous allez changer d’endroit, vous reprendrez ce bleu-blanc quasi identique, ce qui va donner l’impression qu’il n’y aucune coupe et que c’est donc de la magie.

Autre exemple, le fait que la camera traverse un mur (ou un objet) en travelling latéral pour suivre un sujet (dans un appartement, d’une pièce à l’autre par exemple). L’idée est ici de se servir du noir. Quand la caméra arrive au mur, on s’attend naturellement à passer au noir. Du coup, la combine consiste à se servir de l’opacité supposée de l’objet (en ajoutant du noir devant l’objectif par exemple) et à reprendre le même mouvement de l’autre côté (en enlevant le cache noir très rapidement). La clé aussi, c’est la rapidité du mouvement et sa continuité (dans quoi un fondu au noir suffirait), pour cacher les défauts. Dans l’exemple ci-dessous, ici de la série Sherlock, on voit précisément cette technique (améliorée par un masque en post-production) et baptisée « pass-by ».

  • le secret est donc toujours d’avoir une continuité du mouvement d’un plan à l’autre (de la caméra et de son sujet).
  • D’utiliser n’importe quel élément de décor comme source de la transition (le ciel, le mur, l’objet, un poteau).
2- Un peu de fun dans cet exemple

Dans cette vidéo de PremiumBeat, l’auteur à décidé de détourner l’utilisation de transitions in-camera pour réaliser des exemples plutôt rigolos: un clonage de personnage, un départ de course façon super héro, et un lancer de couteau. On vous laisse regarder. Même si c’est en anglais, vous allez comprendre et on vous explique après.

L’auteur utilise toujours le même mouvement ultra-rapide: un panoramique à la main (qu’il serait mieux de faire au trépied…) :

  • Le premier plan fixe le sujet, puis fait un panoramique vers la droite très rapide avec un shutter bas pour provoquer du flou de mouvement (1/50ème/180°) (voir notre article sur l’exposition.)  
  • Le second plan reprend le même panoramique, mais dont l’angle est inversé.
  • Au montage, il suffit de raccorder les deux plans pendant les deux panoramiques avec un fondu tout bête.
  • Pour la dernière scène du « couteau », comme le personnage ne va pas réellement saisir un couteau en plein vol, l’auteur utilise la ruse suivante. Le premier plan est identique aux autres (panoramique qui fait un gauche droite pendant le lancer du couteau). Le second plan est tourné à l’envers. Le clone est en position finale (couteau rattrapé) et le lance vers la gauche. La panoramique est un droite-gauche. Au montage, il suffit d’inverser la lecture du plan et le tour est joué.
3- La compilation plus classique

Dans cette vidéo Mango Street, montre tous les principes énoncés plus haut dans une compilation de 6 transitions « In camera ». Le visionnage suffit amplement à expliquer les techniques classiques.

4- Pour conclure

Vous l’avez vu, le principe ne varie jamais: un type de mouvement sur 2-3-4 plans et un élément de décor quel qu’il soit, pour masquer le raccord. Le perfection vient de la qualité du mouvement, de la synchronisation de la scène et de la précision de raccord au montage. N’hésitez pas à refaire plusieurs prises pour obtenir cette perfection du mouvement. Regardez aussi autour de vous, il y a toujours un élément de décor à utiliser, y compris le sol… Présent partout!

 

 

L’article Best-of des transitions… Au tournage est apparu en premier sur Createinmotion.

Produire des vidéos verticales (9:16ème): le guide

Par Sébastien François

Produire des vidéos verticales, ça peut sembler aberrant. Ou en tout cas, ça l’était. Oui, mais voilà, avec l’avènement d’Instagram et consorts, il est de plus  en plus fréquent pour les pros de devoir livrer des vidéos verticales… Avec du matériel « horizontal ». Petit tour d’horizon des techniques à utiliser.

1- Le contexte

Il y plus de 7 ans maintenant, une vidéo avait fait le tour de la toile avec plus de 8 millions de vues. Son nom « Vertical Video Syndrom ». L’idée des auteurs était de démontrer à quel point il était stupide de tourner en vertical alors que tout est prévu (notre champ de vision, les cinémas, les télévisions…) pour les regarder à l’horizontal. Las, entre temps, les choses ont énormément évolué avec la généralisation des smartphones et des plateformes sociales, consommées majoritairement sur téléphones.

Vertical_video_01

Cliquez pour voir la vidéo, en anglais.

Et comme chacun sait, un téléphone se tient à la verticale, d’où le fait que les gens tournent en vertical et regardent en vertical. Instagram ne s’y est pas trompé en introduisant le format « carré » (regardable dans les deux sens, donc) puis a poussé tous les utilisateurs à produire en vertical (photos comme vidéos) avec ses « Stories » et maintenant IGTV (Instagram TV) dont le ratio est de 9/16ème – 1080/1920). Tous les autres acteurs ont suivi : Facebook, Youtube et même Vimeo supportent totalement le mode portrait.

Vertical_video_02

Seuls 25% de l’écran est utilisé en mode paysage pour une vidéo « normale ». L’étude de 2017, montre que 90% des utilisateurs ne se sert que du mode vertical… Source: InMobi.

Fort bien, mais nous, les as de la vidéo traditionnelle, ou du cinéma, en quoi cela nous concerne-t-il ? Et bien si vous avez comme clients des gens issus du monde du Marketing, il y a fort à parier que vous avez déjà eu des demandes concernant le fait de produire en vertical. Si vous avez des clients pubs, vous allez aussi rencontrer ce type de demandes car, par exemple, de plus en plus d’écrans placés dans les magasins sont aussi disposés à la verticale (et surtout la pub se digitalise sur smartphone à la vitesse de la lumière). Et plus simplement, si vous êtes un adepte des réseaux sociaux et que vous voulez générer de la vue sur vos créations, vous pouvez aussi être tentés par l’expérience.

2- Les problèmes posés par la vidéo verticale

Ils sont évidents, mais nous allons les lister. Avant cela, on peut cependant résumer ce changement de culture présumé, par le fait que le mode portrait fait la part belle à l’individu pour ne pas dire à l’individualisme : l’humain est vertical sur ses deux jambes, notre visage est un ovale vertical… A moins de devoir filmer des gratte-ciels ou des bouteilles, le mode vertical pourrait être une sorte de syndrome du Seplhy.

vertical-versus horizontal

Source: Flickr

Le mode traditionnel, quant à lui, est l’art de placer un personnage dans un contexte qui l’entoure et de faire en sorte de l’en détacher (utilisation du flou d’arrière-plan par exemple), ou, à l’inverse de le noyer dedans en le rendant flou. Mais revenons à nos problèmes:

  • Le champs de vision restreint (c’est évident) : si vous désirez montrer un contexte, vous devrez obligatoirement faire des panoramiques.
  •  Nos caméras dont le capteur est en mode paysage, ce qui implique qu’il faut soit en utiliser une petite partie à coup de « crop » (recadrage) ou le retourner à 90°. Mais ce n’est pas tout, même en le retournant, la stabilisation ne sera pas bonne (pas prévue pour travailler dans ce sens), les infos à l’écran seront retournées… Bref, pas pratique.
  • Le corollaire est aussi l’ergonomie: il n’est jamais simple de gérer tous les paramètres en mode « normal », alors quand vous êtes à 90°, c’est pire. L’utilisation de Gimbal (nacelles) relève là encore du challenge.
  • Enfin, l’aspect le plus important réside dans la composition de l’image : toutes les règles sont à revoir dans l’écriture du scénario. Il est par exemple impossible de faire tenir plus de 2 personnes à l’écran. De plus, un client vous demandera souvent de disposer de deux versions du même film : une verticale et l’autre horizontale…
aspect-ratio-illustration

La guerre des ratios. Source: PremiumBeat.com

3- Les solutions techniques

Un grand nombre de commanditaires de films ne comprennent pas (encore) qu’une caméra offre un rendu d’image bien supérieur à leur dernier iPhone;) C’est un peu pareil qu’il y a 15 ans, quand nous devions démontrer qu’une caméra pro en offrait plus que le camescope familial. Peu importe, contrairement aux photographes qui travaillent indifféremment dans les deux modes, en vidéo, on doit s’adapter.

  • A: recadrer une image 4K/UHD.
    Il s’agit de la solution la plus évidente. Une image 4K faisant 2160 lignes en hauteur et comme vous n’avez besoin « que » de 1920 lignes en format 9/16ème, cette solution permet à la fois d’être libre de livrer deux versions du films (paysage et portrait), mais aussi de faire de faux mouvements en post-production pour simuler des panoramiques, etc. Mais attention, lors du tournage, aucune caméra ne propose encore de guide 9/16ème. Il faut alors fabriquer vos propres repères 9/16ème avec un feutre effaçable… Ceci, car sans ce guide, vous ne saurez jamais où l’image sera coupée.

    9/16 mistake

    Typiquement, sans marqueurs d’aide pendant le tournage, on risque toujours de se retrouver avec des sujets coupés. Ce n’est pas rattrapable.

  • B: La caméra à 90°. C’est la solution la plus contraignante mais aussi la plus sûre. Certes, impossible de livrer 2 versions du même film, mais vous êtes certains de la composition de l’image, exactement comme en photo. Pour ce faire, vous pouvez utiliser:
    – un adaptateur en L (L bracket)
    – le moteur « roll » de votre Gimbal (comme sur le Ronin-S) en le fixant à 90° (beaucoup de nacelles savent faire des rotations à 360°)
    – une « ball head » qui, elle aussi, est capable de pivoter à 90°.
    – la cage de votre caméra ou de votre DSLR. Comme elle est en principe pleine de trous filetés sur les côtés, il est souvent possible de la mettre en mode portrait sur la semelle de votre trépied.
    ball-head SmallRig_Dedicated_L
  • C: Habiller une vidéo horizontale. Ici, on parle de la solution du pauvre. Celle qui fait que l’on ne pas cropper une image 4K et que la vidéo est déjà tournée en 16/9ème. La seule solution alors, c’est d’habiller les 75% d’espace vide qui restent autour. Pour ce faire, vous pouvez utiliser des fonds animés, mais aussi des titres qui peuvent commenter les images afin de peupler l’espace et de faire en sorte qu’il se passe toujours quelque chose à l’écran comme dans cet exemple :
    IG fill space

4- Post-Production et diffusion

On arrive enfin à une phase qui ne pose aucun problème : tous les logiciels de montage sont capables de créer des projets de la taille que vous désirez et au ratio souhaité. Cette étape n’est donc plus un problème. Le seul écueil réside parfois cependant dans l’envoi de la vidéo et ces normes changeantes (Instagram par exemple, ne tolérait que les vidéos inférieures à 1 mn avant IGTV qui porte cette durée à 10 mn). Depuis un Mac ou un PC de montage, soit vous copiez le film final vers votre téléphone pour publier, soit vous utilisez des logiciels tiers comme Flume (Max OS) ou Gramblr (Windows).
Flume

5- Conclusion

Que l’on soit d’accord ou que l’on trouve le concept de vidéo verticale ridicule, les chiffres ne mentent pourtant pas et démontrent que la demande de production de vidéos « portrait » ou a minima, en deux formats, ne cesse d’augmenter. Autant s’y préparer, car contrairement à d’autres modes, le « vertical » semble s’installer dans les habitudes de consommation depuis des années. Il nous force à repenser un certain nombre de règles de cadrage et de production. Il est assez facile d’être créatif en « vertical ». Je vous recommande à ce titre de visiter le site du Vertical Video Festival. Vous y trouverez des films qui démontrent que l’on peut aussi travailler de belle manière… Dans le mauvais sens. Voici le teaser de la dernière édition, la prochaine se déroulant en septembre prochain.

2nd Vertical Film Festival trailer 2016 (vertical video) from Vertical Film Festival on Vimeo.

 

L’article Produire des vidéos verticales (9:16ème): le guide est apparu en premier sur Createinmotion.

Groupe M6 : un pas en avant vers la transition IP de ses infrastructures techniques

Par Cine.Tv.Industry

M6 Mathias Bejanin CTO M6

Mathias Bejanin, CTO du groupe M6

Harmonic, le fabriquant américain de matériels audiovisuels, vient d’équiper les chaînes du groupe M6 en serveurs de diffusion et de stockage qui contribueront au passage de son infrastructure réseau classique SDI à un dispositif média sur réseau IP. Ces équipements s’appuient sur les nouvelles normes SMPTE ST 2110 (professional media over managed IP networks) qui caractérisent la livraison des médias sur réseau IP ; ainsi que la norme SMPTE 2022-7 (seamless protection switching) qui définit une commutation « propre » des flux vidéo sur réseau IP.

Harmonic Spectrum X

Serveur Spectrum X Harmonic

« Nous faisons confiance aux solutions d’Harmonic depuis plus de dix ans et nous apprécions leur engagement en matière de fiabilité et d’innovation explique Mathias Bejanin, directeur technique du groupe M6. Quand notre infrastructure sera prête pour la production en direct sur IP, nous serons les premiers sur le marché à déployer cette technologie, marquant ainsi notre avance en matière d’innovation, d’efficacité et de sécurité des process ».

Harmonic MediaGrid

Stockage partagé MediaGrid Harmonic.

Les produits Harmonic sélectionnés par M6 incluent les serveurs Spectrum X et le stockage partagé MediaGrid. Les premiers serviront à l’acquisition des contenus, la commutation des sources en direct avec leurs habillages graphiques, les DVE, leur diffusion 24h/24 – 7j/7, la vérification des flux et leur supervision manuelle via le contrôleur vidéo Omnium (Broadteam). Le stockage partagé MediaGrid Harmonic sera rattaché aux opérations de montage et de diffusion au sein des équipes de M6.

Nouveau partenariat : TRM et GB Labs, expert en solutions de stockage pour les professionnels de l’audiovisuel

Par Andrea

30 octobre 2018

TRM établit un nouveau partenariat avec GB Labs, acteur de référence en matière de Stockage Média Intelligent et de Workflows. Fiables et simples à utiliser, les solutions de stockage, d’archivage et de gestion de contenus media de GB Labs s’adaptent parfaitement à chaque étape du flux de production des professionnels de l’industrie audiovisuelle.

« Les solutions professionnelles de GB Labs viennent d’enrichir l’offre de TRM dédiée à la gestion des workflows de la production audiovisuelle. Elles sont à la fois abordables, faciles à installer et ergonomiques. La gamme est complète et les produits d’archivage sont universels avec l’utilisation du support d’enregistrement standard LTO. » – Henri-Dominique Saumon, PDG de TRM.

« GB Labs est fière de travailler avec TRM afin de présenter nos gammes FastNAS et EasyLTO au marché français. L’association du savoir-faire de TRM et de l’expertise  en gestion des workflows de contenu de GB Labs permettra de fournir aux clients une valeur ajoutée inégalable. » – Duncan Beattie, VP des Ventes, GB Labs.

A propos de TRM :

TRM SAS est un distributeur d’équipement et consommables audiovisuels professionnels depuis plus de 30 ans. La société propose un catalogue riche et varié pour le tournage l’éclairage, l’audio, le montage, la diffusion, la photo, mais aussi l’expertise et le conseil technique. Idéalement située au coeur de la “media valley” du sud-ouest parisien, TRM s’adresse historiquement aux professionnels de la radio, de la télévision et du cinéma mais aussi aux producteurs et opérateurs du digital et de la communication évènementielle et institutionnelle.

A propos de GB Labs :

GB Labs est leader global du Stockage Média Intelligent et de Workflows basés sur l’IA. GB Labs crée des solutions simples à installer et faciles à utiliser, tout en offrant une puissance capable de répondre aux workflows les plus exigeants de l’ingestion et du montage de vidéos 4K/8K jusqu’à la post-production et l’archivage long-terme.

GB Labs est reconnue pour ses solutions sûres, sécurisantes, fiables et incroyablement, rapides, surpassant toute autre technologie SAN ou NAS.

L’article Nouveau partenariat : TRM et GB Labs, expert en solutions de stockage pour les professionnels de l’audiovisuel est apparu en premier sur TRM.

Videomenthe au cœur du contrôle qualité de Deluxe Media Paris

Par Cine.Tv.Industry

Deluxe est un groupe américain employant 7500 collaborateurs, implanté dans 38 régions du monde, spécialisé dans la création, la transformation, la localisation (doublage, sous titrage, audiodescription…) et la distribution de contenus audiovisuels pour des studios de cinéma, sociétés de production, diffuseurs et chaînes de télé, les plateformes vidéo et agences de pub. Pour la France, Deluxe a choisi le système Eolementhe afin d’assurer le contrôle qualité de ses fichiers médias et la conformité du contenu envoyé à ses clients.

Fred Taieb Deluxe France

Fred Taieb, Deluxe Media Paris, Director Audio Services France

Portail collaboratif de création de workflows et d’échange de fichiers média dans le cloud, Eolementhe (développé par la société française Videomenthe) propose le transcodage, le contrôle qualité, la correction de niveaux audio, l’insertion de métadonnées, le sous-titrage multilingue, la livraison des fichiers PAD… au sein d’une même interface graphique conviviale. Videomenthe Eolementhe

« Notre priorité, c’est la qualité technique et artistique, et le respect de l’intégrité du contenu initial, explique Frédéric Taieb, Directeur Audio Services de Deluxe France. Outre les besoins fonctionnels, nous avions deux impératifs : la sécurité du contenu et la maîtrise de notre budget. Eolementhe nous permet de répondre aux critères de nos clients en termes de qualité de fichiers, tout en nous assurant un environnement sécurisé. Autre point notable : le workflow étant entièrement réalisé dans le cloud, nous bénéficions d’un modèle financier souple et évolutif».

2015-07-03 10.19.46

Muriel Le Bellac et son équipe de Videomenthe ont travaillé avec celle de Deluxe France pour établir les paramètres de la plateforme, et notamment les autorisations de traitement propres à chaque utilisateur. Des test-plans de contrôle qualité ont également été créés puis chargés sur la plateforme Eolementhe, utilisable par des opérateurs, technique ou non.

La vérification des fichiers passe par l’outil Baton d’Interra Systems, et la fonction « Pause sur le workflow » permet d’intégrer des étapes de vérification éditoriale et technique des fichiers, afin de faciliter le travail d’équipe.

Le Must-Have des accessoires qui simplifient les tournages

Par Sébastien François

En tournage, on monte, on démonte, on transporte, on installe, on bricole. Le tout dans un temps record. Nous avons sélectionné ici 10 accessoires qui rendent la vie plus simple et la production plus efficace. Et ceci, pour quelques euros seulement.

1- Sans semelle au pied

01_RabbitKeyVous cherchez toujours votre pièce de 10 cents pour détacher vos semelles (camera plates) qui ne sont jamais universelles? Vous en avez marre des gros tournevis? Voici une paire de solutions qui vont vous éviter de fouiller vos poches et vous arracher les cheveux. La première est à acheter au Etats-Unis sur Adorama ou B&H. Elle s’appelle « Rabbit Key RBTK01 ». L’idée est si simple qu’on se demande pourquoi elle n’a pas été copiée. C’est tout simplement une clé de voiture dont l’embout plat s’adapte à toutes les vis Kodak (1/4 – 1/3). Vous l’attachez à votre trousseau et c’en est fini de chercher de la monnaie.
On peut s’en procurer ici pour moins de 10$

01_TompouceL’autre solution pour se défaire des semelle, c’est de se tourner vers un mini tournevis prévu à cet effet comme le Tom Pouce Akor. Il peut lui aussi être fixé à un set de clés. Bien que moins discret, il offre une meilleure prise en main et un meilleure couple de serrage. Vous en trouverez chez Cineboutique pour un peu moins de 25 euros. Ou encore ici
Enfin, une dernière solution peu onéreuse est de remplacer toutes les vis Kodak par les mêmes, mais avec un anneau intégré, comme le montre cette image:
01_vis kodak avec anneauDu coup, vous n’aurez plus besoin du moindre outil pour fixer vos périphériques. Ce type de visserie peut se trouver chez Smallrig par exemple, en vente sur Amazon.

2- Les câbles sans galère

02_Velcro strapsL’enfer des câbles, vous connaissez? L’art de les enrouler sans les emmêler, de les stocker proprement pour leur prochaine utilisation demande presque un diplôme… Mais heureusement, il existe un accessoire génial qui devrait être disposé sur chaque câble. Il s’agit tout simplement de Velcro sous forme de bandes trouées (Velcro Straps). Il suffit de les fixer à poste à l’extrémité de chaque câble. Ce dernier enroulé, il suffit ensuite de refermer la boucle pour maintenir le tout sans le moindre nœud. Ces Velcro existent dans toutes les tailles: des gros pour maintenir les rouleaux BNC/XLR de 50 mètres, jusqu’au plus fins pour attacher une simple alimentation USB. Et surtout ça ne coûte presque rien. En vente absolument partout.

3- Du côté de la trousse à outils: les 3 font la paire

Pour l’outillage de base, on va pas transiger. En production légère, l’essentiel se résume à trois « outils ». Le premier, c’est le fameux Leatherman, le second, c’est le Gaffer et le troisième, c’est le jeu de clés hexagonales/Torks.  En effet, les besoins en vidéo sont assez vastes, mais le champ d’outillage est assez réduit pour dépanner toutes les situations de tournage, tant que vous n’êtes pas chef déco ou électro.
D’abord, achetez un Leatherman. C’est un outil universel proche du couteau Suisse, mais sous forme de pince repliable et verrouillable. Il permet de couper, de visser… Bref, c’est l’accessoire à avoir toujours dans une poche pour régler toutes les situations. Certes, ce n’est pas donné, mais ça se garde toute une vie. Dans la gamme du constructeur, nous préférons personnellement le modèle Surge, le plus complet pour la vidéo ou à défaut, le modèle Wave+, moins encombrant.
03_leatherman

Et si l’on ne devait garder qu’une seule chose, ce serait le gaffer selon moi. Ce scotch a la particularité d’être découpable à la main, de ne laisser aucune trace quand on l’enlève tout en étant ultra solide. Ses utilisations sont presque infinies puisque vous l’utiliserez tout autant pour plaquer des câbles au sol, tout comme pour fixer des accessoires, ou encore pour maquiller des éléments de décor. Des dizaines de groupes existent sur Facebook pour montrer les réalisations les plus folles de ce fameux « scotch » pas ordinaire. Attention cependant à la qualité: le Gaffer est souvent imité mais rarement égalé. Il existe dans tous les coloris (dont le vert pour les Chromakey), mais le plus polyvalent reste tout de même le noir. 03_gaff_tape

Enfin, pour l’outillage, je garderai en dernier lieu, le jeu de clés hexagonales/Tork03_hexa_keyss, mais sous forme de couteau repliable et léger: l’immense majorité des périphériques vidéos (trépieds, cages etc), sont fixés avec de la visserie de ce type. Il est donc indispensable d’avoir un jeu de clés pour resserrer ou démonter. Vous pouvez trouver ce type d’accessoires dans les boutiques cinéma, mais aussi et surtout dans les magasin de sport: les vélos utilisent la même visserie et l’accessoire devient alors nettement plus abordable.

4- Un peu de lumière, mais pas trop

En tournage, on est très souvent sans lumière d’appoint. Un peu problématique quand il s’agit de « buller » (faire le niveau) d’un pied pendant une captation, ou de réparer une connexion. Il y a donc les adeptes de la lampe frontale façon spéléologie, de la Maglite genre NYPD, mais le plus utile selon nous, c’est la lampe de poche qui dispose tout simplement d’un habillage en caoutchouc/silicone, ou alors de la lampe stylo. Pourquoi? Parce que la lampe frontale n’est pas discrète, ni orientable quand on est dans un environnement de conférence par exemple. La Maglite pourrait convenir, mais le problème, c’est qu’elle est en métal et que pour disposer de ses deux mains, on est tenté de la tenir avec ses dents! Nous vous recommandons donc les lampes stylos ultra légères qui disposent d’un revêtement qui n’abîmeront pas le sourire, comme celle là.
04_Pen_Light

Au pire, vous pouvez toujours utiliser le fameux Gaffer pour entourer le corps de la lampe et préserver votre dentition sur des lampes torches « normales ».

5- Cachez ce micro-cravatte (lavalier mic) que je ne saurais voir…

05_Garfield_MicPoser un micro cravate est une chose assez simple si vous décidez de le laisser apparent. Les choses se corsent quand vous voulez le cacher, et notamment sur les dames qui portent souvent des hauts très fins ne permettant pas de fixer correctement la griffe du HF. On peut alors utiliser une fois de plus du Gaffer disposé en « amortisseur » ou alors, ces deux accessoires qui vont éliminer les frottements. Le premier est un simple mini tube de mousse dans lequel vous insérez la capsule du micro: il s’agit du Garfield Hush Lav.

Le second est selon moi plus intéressant puisqu’il s’agit d’un set de fixations en silicone. Hide-a-mic permet d’insérer des capsules Senken dans des « étuis » pourvus de fixations: T-Shirt, soutien-gorge, cravate… L’isolation contre les frottements est meilleure et surtout, le sujet peut le fixer seul sans que vous ayez à intervenir. Une nouvelle version baptisée « Flex » est encore plus astucieuse puisqu’il s’agit d’un support que l’on peut coller directement sur le peau sans plus se soucier des vêtements.
05_Hide_a_ mic05_b_flex

6- L’acier contre le sable

Autre problème de tournage: lester les pieds de lumières, les girafes et les grues pour éviter les accidents. La réponse traditionnelle consiste à utiliser les sacs de sable ou des bouteilles d’eau bricolées. Sauf qu’il faut du sable ou de l’eau sur place, ce qui n’est pas toujours le cas. Si vous êtes en panne, ou tout simplement en studio, préférez les poids d’haltérophilie.
06_weights-02Pourquoi? Parce qu’ils ne sont pas chers et que surtout, le diamètre du trou central s’adapte totalement à nos pieds lumière et autre grues. Mieux, vous pouvez aussi choisir la masse emportée, de 0,5 Kg à 5Kg en général et vous pouvez aussi les empiler en fonction du support à lester.06_weights
Vous trouverez ces articles dans toutes les boutiques de sport ou en ligne.
Il existe une version luxe et 100% cinéma de ces poids, chez Manfrotto.
06_manfrottocounterweight
Le fabricant propose des contrepoids qui on la particularité d’être équipés d’une pince intégrée. On peut ainsi les fixer n’importe où. Super pratique, mais assez cher.

7- Nettoyage express

07 dry dusterVous disposez sans doute d’un kit de nettoyage pour optique (pinceau, soufflette…). Indispensable, mais pour effectuer un nettoyage express (et notamment extérieur) de vos périphériques (caméras, pieds…), nous avons toujours avec nous une bombe d’air sec. La pression à la sortie permet de chasser la poussière sans toucher à l’appareil. Attention cependant, nous vous déconseillons de l’utiliser sur un capteur car si l’air va chasser la poussière, cette dernière se collera ailleurs dans la caméra et pourra revenir. Mais pour tout le reste, passez à l’air sec, pour quelques euros seulement.

8- De l’énergie pour tous

08_ravpower bankAutre must-have lors des tournages, la banque d’énergie (power bank). Avec la généralisation des tablettes et autre téléphones pour contrôler les caméras, les drones ou plus globalement, tout ce qui est connecté, on tombe très vite en panne. La banque d’énergie est bonne à tout faire: recharger un iPad ou un ordinateur, alimenter une convertisseur HDMI/SDI, et même alimenter une caméra en continu jusqu’à 10h. Le tout est d’en choisir une grosse (plus de 25000 mAh) et d’investir dans un set d’adaptateurs USB vers DC afin de la raccorder à tous les types de périphériques (et pas seulement l’informatique, donc). Vous en aurez pour moins de 50 euros et vous ne serez plus jamais en panne.
usb_to_dc

9- Élastiques magiques

On adore cet accessoire. Les Think Tanks Red Whips, sont des élastiques réglables qui ressemblent beaucoup aux sandows que l’on trouve dans le monde la voile. Vous les portez comme des bracelets sans être donc encombrés et vous pouvez alors fixer n’importe quoi: un câble le long d’une grue, une power bank sur un pied… Vous pouvez aussi les utiliser pour ranger les câbles, comme les Velcro. Bref, pour moins de 10 euros les 10, vous auriez tort de vous en priver.
09 Bungees red whisps

10- Les filtres anti-casse et les Vari-ND

L’optique est l’élément le plus fragile lors d’un tournage: une seule rayure et vous retournerez à la case SAV. Et vous gâcherez votre shooting. Il faut donc équiper tous les cailloux d’un filtre de protection à visser en fonction de son diamètre. En cas de dommage, c’est cette « vitre » qui sera à changer, et non pas votre précieux objectif. N’hésitez pas à rechercher ces accessoires auprès des fabricants renommés (Hoya, Tiffen…): la qualité de ce filtre de protection doit être sans faille pour ne pas gâcher les qualités optiques de votre machine.10_hoya_filtre_protecteur_pro1_digital
Autre filtre à posséder absolument (et qui peut se visser sur celui de protection), le Vari-ND (filtre neutre variable). Ceci, même si vous tournez avec un caméra qui dispose de filtres neutres intégrés. L’idée, consiste à faire varier la quantité de lumière en le tournant afin de ne pas toucher au shutter. L’avantage, c’est que le fait de le faire tourner permet de régler cette quantité de lumière ultra précisément et non pas par « pas » prédéfinis (1/4, 1/16….) (steps). Vous pourrez donc conserver l’ouverture de votre choix et le shutter aussi. Là encore, il faut taper dans les marques et y mettre le prix afin d’obtenir de la qualité. Mais vous pourrez les garder toute votre vie.

 

 

L’article Le Must-Have des accessoires qui simplifient les tournages est apparu en premier sur Createinmotion.

AG-CX350: Nouvelle caméra Panasonic ultra polyvalente

Par Sébastien François

4K, NDI|HX, enregistrement 4:2:2 10 bits, streaming sans fil, stabilisation optique… Voilà ce que propose la nouvelle bête du tournage de chez Panasonic. Un camescope vraiment bon à tout faire pour un tarif ultra compétitif: il est annoncé à 3850 euros HT et pèse à peine plus de 2Kg.

« Engineered to impress », voilà le slogan qui définit cette nouvelle caméra et que l’on pourrait traduire par « conçu pour impressionner ». Effectivement, le rapport prix/fonctionnalités est tout à fait favorable à cette nouvelle machine qui vise à toucher un large marché: certes les pros de l’ENG ou du documentaire sont directement concernés, mais ce qui est plus original, c’est la connectivité offerte par cette CX350. Elle devrait lui permettre de viser un public bien plus large.
En effet, la caméra embarque un terminal LAN et elle est compatible NDI|HX, RTMP/RTSP. Via un dongle Wifi, elle est aussi capable de streamer directement sans fil à la patte vers les principales plateformes (Facebook, YouTube etc..). Le support du NDI|HX lui permet de s’insérer dans un système de production Live à l’aide d’un simple câble Ethernet qui va transporter l’audio, la vidéo, mais aussi le Tally… On peut aussi contrôler la caméra à distance via ce protocole qui se paramètre quasi automatiquement. Pour mieux comprendre les possibilités offertes, il suffit de regarder ces schémas de connexions possibles:
diagramm_CX350

Du coup, ces possibilités décuplent les utilisations possibles de la caméra pour les captations, les conférences et globalement tout ce qui se déroule en direct. Mieux, une mise à jour permettra aussi d’insérer directement une clé 4G/5G afin d’envoyer les images depuis n’importe quel endroit de la planète (à condition d’avoir du réseau, bien sûr). Bien vu, donc.

Des formats d’enregistrement, en veux-tu? En voilà

Autre aspect très novateur de la machine, la quantité pléthorique des formats d’enregistrement disponibles. On imagine que le constructeur a intégré la dernière version de son « Venus Engine ». Pour résumer, la CX350 enregistre aussi bien du 4:2:2 10 Bit en 4K(UHD) avec le codec All-I à 400 Mbps (comme sur l’EVA1), mais plus original, elle propose tout aussi bien du H264 et surtout du H265 (HEVC). Ce dernier constitue actuellement ce qui se fait de mieux en terme de ratio poids de fichiers/qualité d’image. On peut donc choisir le Codec ALL-I (cartes UHSII/V60 obligatoires) en cas de grosse post-production, ou le HEVC jusqu’à 50P pour tourner très très longtemps. Bien entendu, de nombreux débits sont disponibles. La liste des formats d’enregistrement parle d’elle même:
CX350 recording formats

On note aussi une nouveauté: le mode VFR (Variable Frame Rate) est désormais disponible en 4K jusqu’à 60P. On peut ainsi jouer sur la cadence d’image très facilement en cours de tournage pour faire des time-lapse ou des ralentis. Un mode Super-Slo est aussi disponible en FHD et permet d’enregistrer jusqu’à 120 images par seconde, sans crop.

Côté image: nouveau capteur, HDR, HLG, stabilisation 5 axes, Focus intelligent…

ag-cx350_5_lens_2_high_res

La CX350 est équipée d’une nouveau capteur MOS d’1 pouce. Il offre plus de 15 millions de pixels et surtout, il n’existe désormais plus aucun crop dans l’image. La caméra dispose de différentes courbes de Gamma, dont le HDR (High Dynamic Range) et surtout le HLG (Hybrid Log Gamma). Le constructeur annonce une sensibilité de F13 (en PAL). On retrouve bien sûr la stabilisation optique 5 axes que Panasonic maitrise mieux que personne. De manière plus traditionnelle, les 3 bagues de contrôle sont présentes. En revanche, l’optique couvre une plage de 24.5-490 mm, soit une des meilleurs grand angle du marché associé à un zoom de 20X. En activant le iZoom (système sans perte), on peut même pousser jusqu’à 24X en UHD et 32X en HD! Enfin, le Focus Intelligent est sensé être bien plus rapide que les générations précédentes et le tracking est amélioré.

En résumé
ag-cx350_3_cover_high_res

On le sait, les camescopes de poing sont un peu moins tendance qu’avant, avec la montée en puissance des DSLR et autres hybrides. Pour autant, travaillant avec les deux types de machines, je trouve qu’il est extrêmement agréable de « retrouver » un vraie caméra: pas besoin de se soucier des optiques, pas besoin de rajouter mille accessoires. On dégaine, on shoote et on ne se prend plus la tête avec le son puisque tout est intégré.
Panasonic dévoile une machine plus compacte et plus légère que les précédentes DVX200 / UX180 et qui embarque une tonne de fonctionnalités parmi lesquelles on retiendra  la richesse des formats d’enregistrement et la connectique complète: elle va du SDI en passant par le LAN (NDI), le HDMI et l’USB pour y brancher de futurs dongle sans fil. Et tout ça pour un prix public inférieur à 4000 euros HT. C’est donc une machine faite pour durer dans la temps, très solide et qui devrait trouver un public de « run & gun », mais aussi une cible plus large qui va du Vlogger jusqu’aux productions de Live.

Les spécifications complètes

La brochure

La page produit chez Panasonic

L’article AG-CX350: Nouvelle caméra Panasonic ultra polyvalente est apparu en premier sur Createinmotion.

Pourquoi passer au clavier programmable ?

Par Sébastien François

Monter un film, ça signifie maitriser des tonnes de raccourcis clavier. Il existe bien des accessoires pour les rendre plus clairs, mais il y mieux: les claviers programmables. Pourquoi? Parce que vous pouvez les personnaliser pour autant de fonctions que vous le désirez. Et les utiliser partout et pour tout.

J’ai découvert les claviers programmables quand j’ai du réaliser un Live avec un mélangeur vidéo contrôlé exclusivement par un Macbook Pro. Problème pour moi qui suis habitué aux vrais « panneaux de commandes » avec de vrais gros boutons, je ne me voyais pas appuyer pendant des heures sur Shift + 1, Shift +2…. à chaque changement de caméra. J’ai donc investi dans un petit clavier programmable: le Stream Deck d’Elgato.Il suffit de le connecter à une machine pour qu’il devienne une sorte de deuxième clavier, à la différence que chaque touche est un mini écran LCD et que vous pouvez lui affecter n’importe quelle action.
Dans mon cas, je me suis contenté de mémoriser les raccourcis du mélangeur et j’ai « baptisé » mes touches du nom de mes cadreurs (et j’ai inséré leur photo!)… Et faire ma réalisation exactement comme avec un vrai panneau de contrôle.
streamdeck as mixer
Mais évidemment, ce type de périphérique ne se cantonne pas à cet utilisation marginale. Ils sont surtout utiles quand on monte.

Programmables contre personnalisés

Si l’on considère que le montage d’un film va nécessiter des milliers de frappes de raccourcis clavier à 2 ou 3 touches, on mesure immédiatement l’intérêt de se munir de ce type d’accessoire. Il existe bien sûr des claviers traditionnels qui sont physiquement personnalisés pour tel ou tel logiciel, ou encore des « skins »: les raccourcis sont directement indiqués via des couleurs ou des signes.
logickeyboard-adobe-premiere-pc-slim-black-1-39
Mais cela veut dire que vous ne pouvez pas utiliser vos propres raccourcis et que si l’éditeur du logiciel change ces raccourcis, vous pourrez jeter le clavier. Autre problème, on oublie parfois certaines combinaisons de touche parce qu’on les utilise moins souvent. Du coup, on perd donc du temps. Le programmable, de son côté, élimine toutes ces contraintes.
streamdeck general

Le Stream Deck, comment ça marche?

C’est pourquoi, utiliser un Stream Deck montre tout son intérêt. L’idée, est assez simple, les 15 touches affichent ce que vous voulez (images, texte) et peuvent être affectées à n’importe quelle action: un raccourci clavier, mais aussi le lancement d’une application, la saisie automatique d’une phrase enregistrée et même plusieurs raccourcis successifs avec un timing entre chaque frappe… Les possibilités sont presque infinies. Surtout, vous n’êtes pas limités aux 15 touches puisque le Stream Deck stocke aussi des dossiers. Autrement dit, vous pouvez très bien avoir un écran d’accueil d’où vous lancez vos applications, presser la touche « dossier » de Premiere Pro pour accéder à un autre « clavier » qui ne regroupera que les raccourcis de ce logiciel.

streamdeck_01Vous pouvez créer un dossier pour toutes vos applications et switcher d’un clavier à l’autre. C’est magique. Dans mon cas et sur Première Pro, le plus fatiguant est de passer d’une fenêtre à l’autre: panneau Montage, panneau Projet, Panneau Options d’effets… Tout comme il pénible d’utiliser systématique CTRL + K pour couper les plans sous la tête de lecture.

streamdeck_02
J’ai donc affecté un maximum d’actions « pénibles » au Stream Deck, ce qui me permet de monter sans quasiment quitter la souris.
Les utilisateurs de Photoshop seront eux aussi ravis de regrouper tout leurs outils via ce clavier… Voilà en tout cas pour le principe, mais c’est à vous de trouver le configuration qui convient à vos utilisations

.

Et dans le détail?

La programmation d’un clavier peut faire peur. Rassurez-vous, vous n’avez aucune ligne de code à écrire! Ce clavier (ou un autre) est toujours contrôlé par un petit logiciel ultra simple.

streamdeck & softwarestreamdeck_software

 

 

 

 

 

 

 

 

 

A son ouverture, il montre les 15 touches à l’écran. Il suffit  ensuite de procéder comme suit:
1. Sélectionnez la touche désirée
2. Choisissez dans la liste déroulante à droite le type d’action à affecter: elle est longue comme le bras, mais ce qui va nous intéresser en professionnel, ce sont les rubriques Stream Deck (pour créer un dossier par exemple) et Système (pour les raccourcis clavier ou le lancement d’une application).
3. On glisse/dépose l’action sur la touche.
4. On donne un titre (et c’est drôle parce que le texte s’écrit en même temps sur le vrai clavier!)
5. On rentre la combinaison de touche à affecter (ou l’action)
6. Et de manière optionnelle, vous pouvez aller chercher une image pour la mettre sur la touche, ou piocher dans la banque d’icône en ligne de l’éditeur.
C’est fini!
7. Cerise sur le gâteau, le Stream Deck peut se prêter. En effet, vous pouvez enregistrer des Profils pour chaque utilisateur. Et il marche aussi bien sur Mac & PC.

L’essayer c’est l’adopter

Alors oui, on peut vivre aisément sans ce type de périphérique. Mais c’est un peu comme passer de 1 à 2 écrans: on ne revient plus en arrière tant le confort est important. Surtout, c’est un périphérique nomade et encore plus utile avec un ordinateur portable dont l’espace est restreint (pas de pavé numérique par exemple). A recommander donc. Notez aussi que nous avons utilisé le Stream Deck dans cet exemple, mais qu’il est existe des dizaines de références avec plus ou moins de touches et plus ou moins de fonctions.

https://www.elgato.com/fr/gaming/stream-deck

L’article Pourquoi passer au clavier programmable ? est apparu en premier sur Createinmotion.

Time-lapse: le mode d’emploi complet

Par Sébastien François

Prendre une photo toutes les X secondes, assembler toutes les images pour en faire un film qui accélère l’action? Facile. En théorie. On va donc vous expliquer ici comment, et même pourquoi produire de bons time-lapses pour dynamiser ou enrichir vos productions: matériel, technique, conseils.

Un time-lapse, pour résumer, c’est la technique qui consiste à prendre une photo à un intervalle de temps régulier afin d’en faire un film. Ce qui va produire une sorte d’accéléré pour montrer ce que l’on ne verrait pas à l’oeil nu en restant planté au même endroit.
Mais, la première question est la suivante: ça sert à quoi?

Les utilisations du Time-lapse

  • Avant tout, un time-lapse sert à montrer ce qu’il est impossible d’observer à vitesse réelle: si l’on prend l’exemple classique des nuages dans le ciel, vous ne verrez pas leur évolution car ils se déplacent bien trop lentement. Avec un time-lapse, oui.
  •  Accélérer une action qu’il aurait été impossible de filmer à vitesse réelle sous peine de lasser le public. Une impression 3D de plusieurs heures va se faire en quelques secondes et afficher l’objet final. Il en va de même pour la construction d’un immeuble sur un 1 an: à raison d’une image par jour, la construction va pousser comme un champignon. On peut aussi montrer le lever et le couché du soleil, le déplacement des étoiles…
  • A dynamiser un film, tout simplement. Vous avez l’habitude de jouer sur les ralentis ou le Time-remapping (maitrise de la vitesse de lecture entre accélération et slow-motions), pourquoi ne pas introduire aussi des time-lapses pour provoquer des ruptures de rythme? On le voit dans cet exemple de la présentation de la caméra AG-CX350 puisqu’on alterne en vitesse réelle, ralentis légers, vrais slow-mo et time-lapses:
  • A faire des effets de styles, comme les « trainées de phares de voitures » que l’on voit dans les scène urbaines, ce qui n’est, encore un fois pas visible à l’oeil nu.

D’abord, un peu de Maths

Alors avant de commencer la pratique, il faut faire 2-3 petits calculs. On l’aura compris, prendre une photo toutes les X secondes signifie tout d’abord faire un peu de maths pour prévoir la durée du résultat final, une fois transformé en film.
– Le premier paramètre à prendre en compte, c’est la cadence d’image de votre film. Autrement dit, on doit anticiper la cadence d’image du montage final (voir notre article sur les cadences d’image): communément, il peut s’agir de 24/25 ou 50 images par secondes (fps). Il faudra donc prendre 24/25/50 « photos » pour produire 1 seule seconde de film.

– Le second paramètre, c’est le fameux intervalle entre chaque prise de vue. Est-ce que je prends une image toutes les 2 secondes? Ou toutes les minutes? Pour aider à faire ce choix, tout va dépendre de la scène et du déplacement des objets qu’elle montre. Mais on peut dégager quelques règles:

Un sujet très mobile (véhicule…): intervalle de 1 à 2 secondes
Un sujet un plus plus lent (piétons…): intervalle: de 2 à 3 secondes
Tout ce qui est encore plus lent (la course du soleil etc): de 5 secondes à plusieurs minutes.

Bien sûr, tout ceci n’est que purement indicatif, mais l’idée est là. Donc, pour obtenir ma séquence et raisonner mathématiquement, je vais dire que je veux un plan de 10 secondes, qui sera diffusé à une cadence de 25 images par secondes (fps) avec un intervalle de 3 secondes. J’applique donc la formule suivante pour connaitre le nombre de photos à prendre.

Les formules :

(Durée du plan en secondes) X (Cadence d’images finale)
= Nombre N de photos à prendre.

GH5-Timelapse-menuEt si vous n’être pas équipés d’une caméra, ou d’un hybride qui intègre la fonction « Interval Rec » ou « Time-Lapse » (comme chez Panasonic), vous allez ensuite appliquer la formule suivante pour savoir combien de temps patienter avant la fin du time-lapse.

(N nombre de photos à prendre) X Intervalle choisi
= Durée du shoot en secondes

Timelpase_appDans notre exemple, il nous faudra donc prendre 250 images (10 secondes x 25 i/s) et patienter 250 x 3 secondes (durée de l’intervalle). Soit 750 secondes, soit, 750 : 60 = 12 minutes 30. Voilà, pour le calcul de base. Évidemment, il peut se faire à l’inverse: « je sais que la course du soleil avant la nuit prend 3h et je fixerai un intervalle de 10 secondes ». Il me faudra donc: (3600 seondes (1 heure) x 3 heures)/10 = 1080 images. Le plan va donc durer: 1080/25 (cadence d’image) = 43 secondes environ.

Et pour les plus feignants, il y a même des applications comme celle-ci (pour iOS) et celle-là (pour Android)

Ensuite, un peu de matériel…

Franchement, côté matériel c’est assez simple: un bon time-lapse, c’est avant tout un DSLR, un hybride ou une caméra qui sait prendre une photo toutes les X secondes. Et même si ce n’est pas le cas, il suffit d’acheter un « intervallomètre » 01_intervallometerà raccorder sur la prise Remote de l’appareil pour qu’il en soit capable. C’est l’intervallomètre qui décidera donc de la prise d’une photo toutes les x secondes. Dans le cas de Panasonic, la fonction est intégrée depuis bien longtemps et surtout, les appareils savent assembler les images pour en faire un film en interne sans avoir besoin de monter: vous obtenez directement la vidéo.

Pour le reste, un time-lapse, c’est surtout un plan qui ne bouge absolument pas (sauf dans le cas d’un motion time-lapse) afin d’éviter le moindre tremblement d’image : vous n’aurez alors besoin que:
Avalon-Universal-PRO-Tripod– D’un trépied costaud (ou n’importe quelle support vraiment stable). Même le vent peut faire trembler un plan et ruiner votre prise de vue si le support n’est pas stable, surtout avec des optiques lourdes en longue focale.
– D’une « power bank » (batterie USB – voir notre article sur les accessoires) si vous prévoyez que la prise de vue va durer plusieurs heures. Elle vous permettra d’alimenter votre appareil tout le temps nécessaire.
– D’un filtre ND variable (ou d’un jeu de filtres ND). Comme nous allons le voir après, pour obtenir des effets de trainées, on est obligé de choisir un temps de pose très très bas (voire de plusieurs secondes). Et donc, même la nuit, il faudra peut-être mettre un filtre Neutre pour abaisser la quantité de lumière et conserver ce Shutter très lent.

Le temps pour composer et raconter: le choix de l’intervalle et du Shutter

Everest – A Time Lapse Film – II from Elia Saikaly on Vimeo.

Vous avez compris les maths, vous avez compris qu’il faut assez peu de matériel? Place maintenant à la réflexion. Intellectuellement, il vous faut discerner deux choses: le cadre bien sûr (mais ça vous savez faire) et ensuite la priorité que vous donnerez aux sujets mobiles ou immobiles de votre scène. Et là, c’est d’abord le choix de l’intervalle qui va jouer.
Prenons un exemple. Vous avez prévu de tourner le déchargement d’un énorme container d’un bateau sur un quai. Déchargement qui prendra 1 bonne heure. Dans votre scène vous allez avoir la grue qui porte le container et les dizaines d’ouvriers et de véhicules qui vont s’agiter pour le recevoir.

  • Si vous optez pour un intervalle très grand (de l’ordre de 15 secondes), votre plan final mettra en valeur le cheminement du container (car le mouvement est très très lent) au détriment des ouvriers/véhicules qui vont scintiller, apparaitre et disparaitre: en 15 secondes, ils auront parcouru bien du chemin.
    timelapse – discharging a container ship from Andre Freyboth on Vimeo.
  • Si vous optez pour un intervalle plus court (1-2 secondes), ce sont eux, à l’inverse qui vont être mis en valeur comme des fourmis qui s’agitent, à l’inverse du container qui va sembler presque immobile.

Tout est donc affaire de choix et de priorité dans la composition. Place ensuite à l’esthétique et c’est là que le shutter prend toute son importance. C’est lui va qui déterminer le « motion-blur » ou flou de mouvement. Là encore, prenons un autre exemple. Vous filmez tout simplement une rue passante.

  • Avec un shutter rapide (1/50ème de seconde par exemple) vous allez accroitre le sentiment de passage, car les passants vont tous être presque nets et sembler courir et courir encore dans cette rue.
  • Au contraire, avec un shutter très lent (1 seconde), ils vont tous s’estomper pour ne laisser que des trainées diffuses. Vous allez dans ce cas là, privilégier la rue et les bâtiments.
    GH1 Timelapse test with intervalometer from Arthur Kulcsar on Vimeo.

En pratique: le Manuel, le Manuel et encore le Manuel

Un time-lapse étant un assemblage de photos, tout écart entre deux images va sauter au yeux et scintiller. Vous devez donc tuer tous les automatismes de votre caméra.
Pourquoi? Parce que même si vous ne le percevez pas, dans n’importe quelle scène, d’une seconde à l’autre, il y a toujours un changement. Pour comprendre, imaginez que vous soyez en Autofocus sur la scène de rue que nous avons évoquée: chaque nouvelle photo sera mise au point sur un piéton différent. Donc, si vous engagez un automatisme (Ouverture -Iris-, Shutter, ISO…), ce micro changement sera perçu par la caméra qui va donc faire varier un paramètre et adapter ses réglages.
Manual Mode
Au final, vous ne pourrez pas exploiter le résultat. Le seul bémol concerne peut être la Balance des Blancs. Comme la mesure s’effectue différemment (sur un global et sans changement brutaux), ce paramètre peut parfois être laissé en automatique. Quoi qu’il en soit, la procédure à respecter est la suivante:

  1. Je bascule mon appareil en 100% manuel: focus, ouverture, shutter, Iso (Gain)… Je paramètre mon appareil en Live-View, Constant preview afin de voir l’incidence des réglages. Dans le cas d’une caméra, c’est inutile: elle le fait toute seule. Dans le cas d’un DSLR, privilégiez aussi les optiques manuelles: le relèvement du miroir provoque souvent un décalage de l’exposition de quelques millisecondes, ce qui sera visible à la fin.
  2. Une fois que j’ai choisi mon cadre, que j’ai verrouillé mon trépied, je prends une photo de test afin de vérifier totalement la qualité de la photo et de détecter des défauts. Dans le cas d’une caméra, je lance un enregistrement de quelques images pour vérifier les mêmes paramètres. J’ajuste les paramètres si besoin.
  3. Je prépare l’enregistrement du time-lapse (intervalle, shutter…) et je le lance.

Et en post-production?

On ne va pas ici développer les techniques avancées de post-production en RAW etc, mais une fois votre time-lapse réalisé, se pose à vous deux cas de figure. Soit votre caméra a déjà généré le film (cas des GH4/5S, CX350 etc…) dans la résolution souhaitée, soit vous avez enregistré les X images sous forme de photos sur votre carte mémoire. Dans ce dernier cas:

  1. Importez toutes les photos dans un dossier sur votre machine
  2. Dans votre logiciel de montage: importez les images sous forme de « séquence d’image »: elle sera lue comme un film à raison d’une photo par image. Ou alors, si votre logiciel ne supporte pas cette fonctionnalité, indiquez que chaque photo ne doit durer qu’un frame lors de son importation: en les glissant sur votre time-line vous aurez donc un film.
    import-as sequence
  3. Pour une utilisation plus poussée, vous pouvez acquérir un logiciel spécialisé comme LrTimelapse en conjugaison avec Adobe Lightroom. Ce type d’application réservée aux professionnels va permettre d’assembler, de corriger toutes les incohérences d’une images à l’autre et même de jouer sur le format RAW des photos si votre appareil en est capable.

Effet Holy grail, Tilt-Shift, Motion Time-Lapse, Hyperlapse… C’est quoi?

Pour conclure, on va évoquer brièvement différentes techniques dérivées du time-lapse.

1. L’effet Holy grail pour les levers et les couchers de soleil

Cette technique consiste à tourner un time-lapse de la nuit au jour et vice versa. Oui mais voilà, on l’a vu, comme on reste en Manuel, l’exposition va changer de la pénombre au plein soleil. Alors comment faire? Le plus simple, c’est de découper le time-lapse en 4 sections. Dans le cas d’un coucher de soleil, vous lancez la prise en étant légèrement surexposé et dès que vous commencez à être sous-exposé, vous faites une pause et vous réajustez l’exposition. Vous relancez ensuite le second time-lapse. Et ainsi de suite jusqu’à la nuit noire. Au montage, vous ferez se chevaucher les 4 time-lapses avec un simple fondu.

Wellington South Coast New Zealand – Day to Night Time-lapse from Mark Gee on Vimeo.

2. Le Tilt-Shift

Cet effet consiste à prendre des time-lapse d’un point de vue très en hauteur. Avec cette technique les humains tout en bas, vont ressembler à de petites personnages semblables à des jouets. On rajoute aussi du flou en haut de la scène et on sature les couleurs. Le mieux est de voir cet exemple en image:

A (Little) London Christmas – A Tilt Shift Timelapse from Media Hog Productions on Vimeo.

3. Motion time-lapse et hyperlapse

Le motion time-lapse va nécessiter un slider et une tête motorisée qui va bouger d’une position A à une position B dans l’intervalle de temps. Si vous devez prendre 250 photos, le logiciel du slider (qui pilote aussi l’appareil en général) va découper son mouvement en 250 positions et ne bougera qu’entre chaque photo. L’hyperlapse quant à lui, c’est la technique qui consiste à se déplacer entre chaque image tout en gardant un cadre stable. C’est assez dur à maîtriser, mais les nouvelles caméras de sport ou 360° commencent à embarquer nativement cette fonctionnalité.

Berlin Hyperlapse from b-zOOmi on Vimeo.

 

 

 

L’article Time-lapse: le mode d’emploi complet est apparu en premier sur Createinmotion.

Google Earth Studio: pilotez un drone depuis votre ordinateur

Par Sébastien François

Tout le monde connait Google Earth qui permet de se promener sur la planète. Mais il y a plus fort: Google Earth Studio passe à la 3D et permet ainsi de monter des séquences aériennes directement depuis votre navigateur. Finies les autorisations de vol en ville! Les résultats sont bluffants et préfigurent peut-être l’avenir du montage vidéo.

Google Earth Studio (que nous appellerons GES dans cet article), c’est un peu la suite logique de Google Earth. Cet outil en ligne permettait déjà beaucoup puisque l’on pouvait voyager sur toute la planète grâce à une banque phénoménale d’images satellite. Le problème, c’est qu’en zoomant au maximum, on se retrouvait avec une image « plate » et pixelisée. Si Google Earth a beaucoup été utilisé post-production avec cet effet de zoom depuis l’univers vers un point précis du globe, Google Earth Studio va bien plus loin:
– Les données du globe ont quasiment toutes été modélisées en 3D.
– GES est devenu un outil de création cinématique en ligne où l’on dessine ses propres trajets aériens, avec animation de tous les paramètres possibles (caméra, cible, heure du jour ou de la nuit, nuages…).
– Le logiciel permet aussi de générer des « track points » qui peuvent ensuite être utilisés dans After Effects pour ajouter des éléments (marqueurs, textes…). Et pour mieux se rendre compte des possibilités de l’outil, en voici la démonstration:

Nous allons donc faire un tour d’horizon de l’outil et vous montrer à quel point il est simple. Il permet ainsi d’ajouter des cinématiques à vos montages pour localiser des lieux par exemple. C’est bien sûr gratuit, à condition de laisser la « Watermark » de Google sur vos images.

Le principe

Attention, pour vous servir de GES vous devrez attendre quelques jours que Google approuve votre inscription. Pour ce faire, rendez-vous à l’adresse suivante: https://www.google.com/earth/studio/ et inscrivez-vous. Dans notre cas, il a fallu patienter 4 jours. D’autre part, GES ne marche qu’avec le navigateur Google Chrome (forcément), téléchargeable gratuitement sur n’importe quelle plateforme.
Ensuite, le fonctionnement est presque similaire à celui d’un logiciel de montage: une Timeline, des images clés pour animer les paramètres (trajet, cible, chemin…) et un moniteur de Programme qui va montrer en temps réel votre le vol virtuel de votre caméra. Nous allons réaliser l’exemple suivant qui montre Notre Dame de Paris avant qu’elle ne brûle:

Prise en main

Un fois connecté à GES, la plateforme en ligne vous propose de créer ou un « Blank Project » (Projet vierge), ou de choisir parmi des modèles d’animation déjà préconçus (exactement comme les modes de vol disponibles sur les drones). Pour plus de simplicité, on va choisir le mode « Fly to and Orbit » en cliquant sur « Quick Start »: autrement dit, on va voler d’un point A à un point B et effectuer une orbite autour de notre point d’intérêt.
GES_01

Il suffit ensuite de saisir la destination finale: dans notre cas « Notre Dame, Paris, France ». Le logiciel affiche aussitôt la vue satellite, puis, la simulation en temps réel du vol: vous pouvez changer l’altitude de d’arrivée, le rayon de l’orbite, l’angle d’approche… Tous ses paramètres seront bien sûr modifiables ultérieurement. Vos modifications sont appliquées en temps réel.

GES_02

Il ne reste enfin qu’à choisir la durée de l’animation. Par défaut, elle sera de 25 secondes. Vous découvrez ensuite l’interface du logiciel.

L’interface de Google Earth Studio

Par défaut, on ne dispose que de la vue finale en 3D. Il est donc préférable, pour affiner le trajet de la caméra, de passer en mode « 2 Viewports » grâce à l’icône de l’écran.
GES_03
A gauche, on visualise ainsi la carte et surtout le trajet de la caméra. De cette manière, on pourra très facilement customiser tous les mouvements et gérer les paramètres de déplacement. La Timeline quant à elle, montre toutes les images clés et la liste des paramètres. Dans notre exemple, on désire que le point de départ se situe dans l’espace et bien plus loin de Paris. Il suffit donc de placer la tête de lecture au début puis, de saisir une altitude de 35 Kilomètres, et, dans la barre de recherche, de taper « Frankfort » en Allemagne. Vous cliquez ensuite sur le losange de la rubrique « Camera Position » afin d’indiquer que vous avez modifié les images clés de position de la caméra.

GES_04
Si vous lancez la lecture, vous constatez donc que la caméra s’est positionnée au dessus de la ville allemande et ira jusqu’à Paris depuis le cosmos.
Astuce: Par défaut, GES effectue un trajet linéaire depuis l’espace, ce qui n’est pas très esthétique. Dans le menu Animation/Advanced, choisissez Logarithmic Altitude. Google va accélérer la descente vers le sol et arrondir la trajectoire, ce qui est bien plus satisfaisant.

Vous pouvez désormais sauter d’image clé en image clé pour modifier tout ce que vous désirez, et bien sûr créer des étapes sur le parcours.

Les paramètres supplémentaires

Vous aurez aussi compris que chaque point dans le Viewport « carte » correspond à une image clé de position de la caméra: vous pouvez ainsi les manipuler à loisir pour vous écarter de votre trajectoire initiale. Mais on peut aller encore plus loin. En cliquant sur Add attributes, on peut ajouter des paramètres supplémentaires, qui pourront eux aussi être animés: l’heure du jour ou de la nuit, l’angle de vue de la caméra, les nuages… De cette manière par exemple, en animant le Field of view (angle de la focale), vous allez pouvoir effectuer des zooms spectaculaires, ou, au contraire, élargir le champ pour avoir une vision panoramique de la scène.
GES_06

De plus, en sélectionnant une ou plusieurs images clés et en effectuant un clic-droit vous allez aussi pouvoir changer le mode d’interpolation de l’animation (ease-in, ease-out…) ou Auto-Ease (ce qui correspond à une courbe de Bézier automatique afin de lisser les mouvements).
GES_05

Les track-points et l’export

C’est une des autres forces de GES. Les track-points peuvent être ajoutés. Qu’est ce que ça veut dire? C’est qu’au moment de l’exportation du rendu final, GES va inclure des points de votre choix en 3D afin qu’un logiciel comme After Effects soit capable de « comprendre » les mouvements de la caméra et donc d’ancrer des éléments en 3D dans la scène. Pour mieux comprendre, contentez-vous d’ajouter un trackg-point sur la cible de la caméra (Notre Dame dans notre exemple) en effectuant un clic-droit sur la cible figurant la carte ou directement dans le moniteur final.
GES_07
Votre animation terminée, appuyez sur le bouton Render. Après avoir validé la durée et la résolution, passez à l’onglet « Advanced » et cochez la case « Include 3D tracking Data ». Lancez ensuite le rendu en cliquant sur Start. GES va générer toutes les images et vous proposer de télécharger un .zip.

GES_08

Ajoutez des éléments en 3D dans After Effects

Un fois le fichier téléchargé et décompressé, GES aura généré une suite d’images numérotées que vous pourrez importer en tant que film dans n’importe quel logiciel de montage. Mais le plus amusant est d’utiliser After Effects pour ajouter du texte 3D grâce au Track Points. Lancez After Effects, puis, depuis le menu Fichier/exécuter le script, sélectionnez le fichier .jsx généré par Google. Automatiquement, votre film est chargé dans une nouvelle Composition et surtout, After Effects a créé un objet nul et un calque de texte pour chaque Track-Point.
GES_09

Il suffit alors d’écrire n’importe quelle légende ou de lier à n’importe quel élément à l’objet nul pour qu’il soit modélisé en 3D et suive les mouvements de votre caméra. Vous n’aurez qu’à jouer sur l’orientation et la position pour qu’il matche avec votre scène. Ajoutez enfin un peu de motion blur et étalonnez un peu les images dans Lumetri pour qu’elles semblent moins artificielles et vous voilà avec des images de drone en version réalité augmentée.

Des ressources pour aller plus loin

Pour aller plus loin et en vidéo, nous vous recommandons ce tutoriel en français, du célèbre Stéphane Couchoud.

An anglais vous pouvez aussi suivre cette vidéo et la chaine associée.

 

L’article Google Earth Studio: pilotez un drone depuis votre ordinateur est apparu en premier sur Createinmotion.

Megahertz Wins Large-Scale IP infrastructure Project for Major US Broadcaster

Par Caroline Shawley

  Megahertz to provide design and integration services to international news network as part of competitive tender win for new all-IP production facility   London, UK, 22 May 2019: Megahertz Ltd, the trusted partner for systems integration with years of experience in delivering cost effective, imaginative designs and solutions for fixed and mobile applications, has ...

Academy Award-winning production company chooses Avid-certified Workspace Backup tool

Par Liz Cox

Zentropa chooses Workspace Backup from Marquis Broadcast as ‘no-nonsense’ Avid backup solution for its film and television work Zentropa in Denmark is one of the leading post-production companies in Europe, winning the most prestigious awards on the international film scene and producing over 200 films to date. The company has recently invested in Workspace Backup ...

Marquis Broadcast Medway chosen to update RTVE production system

Par Liz Cox

Middleware solution from Marquis Broadcast accelerates workflow and business transformation for the Spanish broadcaster’s Historic Archive Spanish broadcaster, RTVE, has updated its ‘Historic Archive’ production system with Medway – a powerful and scalable media-centric middleware from Marquis Broadcast. Medway links RTVE’s edit platforms, asset management and video servers together with its historical archive systems. It ...

Award Contenders Enlist Light Iron for Post Services

Par Ignite Strategic Communications

Light Iron, a Panavision company specializing in post production services, is again playing an important collaborative role with notable episodic series this season. Customized workflow offerings from Light Iron for BETTER THINGS, THE GOOD FIGHT, THE OA, RAMY, SHRILL, THE MARVELOUS MRS. MAISEL, and WHAT WE DO IN THE SHADOWS, included dailies, digital intermediate, archive, ...

Phil Kubel Named as Director of Hollywood Professional Association

Par Ignite Strategic Communications

The Hollywood Professional Association, the trade association serving the community of individuals and businesses who provide creative and technical expertise, support, tools and infrastructure for professional content creation, distribution and archive, announced today that industry veteran Phil Kubel has joined as the organization’s director. Kubel will be the Burbank-based presence of the HPA management team, ...

REVERSE Signs T-Reps and DiMaggio Representation for West Coast Representation

Par priyapr

Bicoastal commercial production company REVERSE has signed independent reps Tracy Fetterman of T-Reps and Jeanie DiMaggio of DiMaggio Representation for West Coast representation. The two will work closely with REVERSE Founder/EP Thibaut Estellon. REVERSE, which has locations in Los Angeles and New York City, maintains a roster of directors that includes Johan Stahl, Romain Quirot, ...

Camera-to-Finish Imaging Ecosystem by Panavision Featured at Cine Gear 2019

Par Ignite Strategic Communications

Panavision, the world-class provider of end-to-end solutions, will return to Cine Gear Expo (May 31-June 1) at The Studios at Paramount to showcase the latest innovations in the company’s ever-expanding production and post production ecosystem. Panavision, Light Iron and LEE Filters will display an array of integrated technologies and systems at booth S408 on Stage ...

Tout connaitre pour débuter dans le streaming

Par Sébastien François

Autrefois réservé à une élite de Geeks, le streaming vidéo en Live connait une explosion massive de tous les contenus sur les réseaux sociaux. Et pour cause: n’importe qui peut désormais faire un Live depuis un smartphone ou même depuis un drone. Oui, mais voilà, pour aller plus loin, il faut s’intéresser à toutes les nouvelles solutions offertes à la fois par les constructeurs, mais aussi par les éditeurs de logiciel. Voici un tour d’horizon pour bien démarrer.

Streamer un Live: facile. Si j’ai un smartphone, je me connecte à mon réseau social préféré, je me filme en selphy (plus ou moins) bien et c’est parti. Certes, ce sera plus ou moins vilain, mais au moins j’ai un moyen ultra facile d’être en direct sans la moindre compétence. Au début, un peu comme pour la vidéo verticale, personne n’imaginait que ça allait marcher: mais les statistiques sont là. Le temps devant les Live ne cesse d’augmenter et la qualité des productions ne cesse d’augmenter. Oui, les « Directs » sur Facebook, Youtube et bien évidement sur la plateforme de gaming Twitch » dépasse désormais les contenus traditionnels en terme de génération d’audience qualifiée. Pour s’en convaincre, nous vous recommandons la lecture de cet article qui démontre parfaitement que les contenus en ligne qui marchent sont de plus en plus les Live. Bien qu’en anglais, les graphiques qu’il montre et les sommes en jeu parlent d’eux même:02_Stats

Source: https://neilpatel.com

03_Stats

Téléphone ou « vraie caméra »?

On ne va s’étendre sur les possibilités d’un smartphone: il dispose d’une connexion 4G, d’une caméra acceptable et peut donc diffuser de n’importe quel endroit. En revanche, il faut le suréquiper pour que l’image produite soit décente: mini trépied, micro externe, casque blutooth, lumière. Surtout, il vous cantonne souvent à une diffusion verticale (comme nous l’avons vu dans cet article): Facebook par exemple, impose une image 9/16ème dans son application Android, mais pas dans celle d’iOS. Autant de limites donc qui laisse le téléphone comme support N°1 pour les Live « vite fait », mais qui n’en font pas un périphérique adapté à une vrai réalisation: mis à part ajouter des filtres à l’image, vous ne pourrez pas ajouter des sous-titres, gérer en même temps commentaires etc.
live from phone

Les caméras sont quant à elle restée longtemps en retard pour le Live Internet (via la vidéo sur IP donc). Pour résumer, auparavant, il vous fallait une ou plusieurs caméras reliée en SDI (ou en HDMI) à un mélangeur vidéo, qui lui même envoyait le programme vers un ordinateur ou un encoder dédié pour espérer passer sur Internet. Désormais, ce n’est plus le cas. Si l’on prend le cas de la dernière AG-CX350 (et même de références antérieures) de Panasonic, vous avez droit à une prise Ethernet, mais aussi à un Dongle Wifi optionnel. Qu’est-ce que ça veut dire concrètement?

  • La caméra sait « Streamer » directement vers toutes les plateformes de diffusion sans le moindre ajout de matériel. Il lui suffit d’être à portée d’un réseau.
  • L’utilisateur saisit directement le nom du réseau sans fil et le mot de de passe, l’adresse du serveur Youtube/facebook ou autre ainsi que la clé de votre compte. C’est fini.
  • Mieux, ses informations peuvent être stockées et chargées à l’avance sur une carte SD afin d’être opérationnel encore plus rapidement.
  • Enfin, la caméra sait aussi streamer en IP si vous souhaitez récupérer l’audio et la vidéo de plusieurs source et les « mixer » en direct sur ordinateur (comme avec les logiciel OBS Studio ou VMix), ceci notamment grâce l’arrivée du protocole NDI (nous y reviendrons).

diagramm streaming

Ainsi pour résumer, une caméra Broadcast sait à la fois être indépendante et lancer un Live, ou alors être utilisée comme source d’une réalisation multicam, le tout avec ou sans fil. Vous bénéficiez alors d’une qualité d’image bien supérieure et de tous attributs apportés par ce type de matériel (Entrées XLR, zoom… etc). Pour vous en convaincre, nous vous recommandons de lire cette documentation de Panasonic: How to connect AG-CX350 with Facebook Live , How to connect AG-CX350 with YouTube Live.

Vous pouvez aussi vous inspirer de ce très bon tutoriel en anglais pour un paramétrage ultra précis:

Streamer en Live quand mes appareils n’ont pas possibilité de connectivité réseau

newtek_fg_001775_r001_connect_spark_hdmi_1348898Alors, on est d’accord, sur le matériel récent, les choses sont simples, mais que se passe-il quand on veux utiliser d’autres sources d’images qui n’on ni Ethernet, ni Wifi. Là, encore, il existe des tas de solutions très nouvelles. Prenons l’exemple d’un hybride ou d’une caméra plus ancienne qui n’offre que du HDMI ou du SDI comme sortie. La solution classique consiste donc à les raccorder à un mélangeur vidéo, ou dans le cas d’une source unique, à un boitier d’acquisition vers un laptop. Ce dernier se chargera d’encoder le flux. Autrement dit, c’est lui assurera le « Bridge » entre le signal vidéo et le signal IP via les câble SDI ou HDMI. Problèmes: les connexions sont filaires en général et rajoutent des éléments à la chaîne de production. Il y a donc désormais bien mieux.
Si l’on regarde du côté de chez Teradek ou Newtek par exemple, on trouve une gamme très étendue de boîtiers à connecter directement sur vos caméras et qui vont transmettre le signal avec ou sans fil, vers Youtube/Facebook. Grosso modo, ses boîtiers font office de passerelle entre les sources vidéo et la vidéo sur IP.
vidiu-go-hero

Une révolution nommée NDI

On l’a vu, les appareils récents ou les boîtiers de connexion ont tous pour vocation de transformer vos flux vidéo en flux internet pour se connecter aux serveurs de streaming. Si ceci n’est pas totalement nouveau (les caméra de vidéo surveillance ou les caméra PTZ fixes de font depuis un certain temps), ce qui l’est, c’est la simplicité de mise en oeuvre apportée par le NDI (ou NDI-HX). Le Network Device Interface amène les bénéfices suivants:

  • L’auto-discovery: auparavant il fallait être ingénieur réseau et employer des utilitaires plus ou moins complexes afin de déterminer l’adresse IP du périphérique, récupérer son flux, choisir le débit, le protocole réseau… Désormais, n’importe quel appareil dont le NDI est activé sur le même réseau (un simple routeur), devient à la fois une source de diffusion ou de réception: il peut s’agir d’une caméra bien sûr, mais aussi d’un téléphone, d’un ordinateur ou même petit enregistreur comme l’Atomos Ninja V et son module NDI. C’est magique puisque tout est automatisé.
    Atomos_NinjaV_NDI
  • Le protocole fait transiter non seulement l’audio, la vidéo, mais aussi des tonnes d’autres possibilités comme le contrôle à distance des caméras PTZ!
  • Pour résumer, le NDI permet de faire un multicam sans la moindre compétence réseau.

La preuve par l’exemple

Pour démontrer cette étonnante facilité, nous avons voulu réalisé le test suivant. Faire un multicam vers Youtube avec comme source 2 ordinateurs différents, un téléphone et une caméra Panasonic compatible NDI. Nous nous servirons d’un 3ème ordinateur qui assurera le mix grâce au logiciel gratuit OBS Studio et l’envoi vers Youtube.
Pour se faire, il faut d’abord télécharger la suite d’outils suivants compatibles Mac/Windows:

  1. La suite d’outils gratuites NDI Tools
  2. Le logiciel gratuit OBS Studio
  3. Le plugin NDI gratuit pour OBS Studio
  4. L’application malheureusement payante NewTek NDI Camera pour le téléphone

NewTek NDI Tools

Ensuite, nous avons effectué les opérations suivantes:

  1. Nous avons installé NDI tools sur tous les ordinateurs. La suite d’outils comprend un utilitaire baptisé Newtek NDI Scan Converter. Nous l’avons lancé. C’est lui qui établit le protocole NDI et qui permet de choisir sur n’importe quel ordinateur connecté, la source à diffuser: une fenêtre de navigateur Internet, le plein écran, une Webcam. Bref, tout ce que vous désirez diffuser pendant votre Live.
  2. Nous avons aussi lancé l’application sur le téléphone
  3. Et nous avons enfin allumé la caméra Panasonic, paramétrée en NDI, tous ces appareils appartement bien sûr au même réseau local: une simple box Internet.
    NDIHX

Ensuite, dans OBS Studio équipé du plugin NDI: 

Une fois le logiciel lancé sur la troisième machine, il suffit de créer une Scène pour chaque source puis dans Source pour chaque scène, de sélectionner « Source NDI » grâce au bouton « + ». Tous les périphériques (ordinateurs et caméra) dans notre cas apparaissent sans aucune autre intervention. Vous voilà en quelques minutes dans une configuration Multicam, sans câble ou presque et prêts à diffuser sur Youtube (ou n’importe qu’elle plateforme.
OBS_01OBS_02

Il ne vous reste plus qu’à rentrer dans les Paramètres d’OBS, l’adresse du serveur de Streaming (que récupérez sur le compte de votre chaine ou de votre page) ainsi que la clé du stream.

Pour aller plus loins, quelques conseils et astuces

  • Des mélangeurs comme le Panasonic HLC-100 vous dispense d’ordinateurs: ils se comportent comme des mélangeurs traditionnels, mais aussi comme des pupitres de contrôle pour caméra PTZ et surtout comme des PC capable de streamer directement suivant le même principe que celui que nous venons de décrire: c’est un peu un appareil unique qui regroupe toutes les fonctions en un.
  • Avant de paramétrer votre Stream, utilisez toujours un site comme Speedtest (une application est aussi disponible sur téléphone), ceci afin de mesurer la qualité de la liaison vers internet et ainsi d’adapter le débit d’encodage.
  • Préférez toujours un câble Ethernet entre le mélangeur ou l’ordinateur qui diffuse vos sources: le Wifi est toujours moins stable.
  • Lorsque vous programmez un Live sur Facebook ou Youtube: programmez-le 30 minutes avant l’instant T. Pourquoi? Pour vous permette de tester! Pendant ces 30 minutes, vous seul pourrez voir le stream en ligne avant son démarrage et détecter toutes les sources de problème. Si vous le lancez directement, tout problème sera visible par votre audience.
  • Si vous souhaitez diffuser sur plusieurs réseaux simultanément vous pouvez utiliser des services comme restream.io, mais attention, encoder simultanément pour plusieurs plateforme nécessite de la puissance.

L’article Tout connaitre pour débuter dans le streaming est apparu en premier sur Createinmotion.

Showtime’s The Chi Uses Blackmagic Design Cameras to Bring Southside Chicago to Life

Par Zazil Media

Fremont, CA – June 4, 2019 – Blackmagic Design announced today that Showtime Networks’ “The Chi” incorporated a wide array of Blackmagic Design cameras, including URSA Mini Pros and Micro Studio Camera 4K, for Director of Photography Abraham Martinez’ naturalistic portrayal of Chicago’s south side. “The Chi” portrays an average day for Chicago kids, prepping for ...

Blackmagic Design Announces Proland Group as its Authorized Distributor for Russia and Belarus

Par Zazil Media

Fremont, CA – June 5, 2019 – Blackmagic Design has today announced the appointment of the Proland Group Ltd as its authorized distribution partner in the Russian Federation and Belarus markets. An established distributor, with an experienced team who understands the needs of the region, the appointment of the Proland Group Ltd comes as Blackmagic ...

Lucky Finn Productions Uses Indipro Tools to Power Documentaries

Par D Pagan Communications

LYNBROOK, NY, JUNE 10, 2019 – Filming documentaries is hardly an easy feat; you contend with weather, environmental conditions, outside noise and un-trained talent. For freelance Cinematographer Neil Fernandez, owner of Lucky Finn Productions, this career path has literally led him to the Black Rock Desert shooting a short about Burning Man, along Route 66 ...

Transmijelive livestreams for Polish FA with Blackmagic Design

Par Zazil Media

Fremont, CA – June 11, 2019 – Blackmagic Design today announced that a multicam outside broadcast workflow, featuring URSA Broadcast and ATEM 2 M/E Production Studio 4K, is delivering a wide range of live streaming content for Poland’s national football association, Polski Zwiazek Pilki Noznej (PZPN). Live production specialist, transmisjelive, produces all content for PZPN’s ...

The Highly-Anticipated Matrox Monarch EDGE Encoders Now Shipping!

Par Stephen Choi

MONTREAL, Quebec — June 11, 2019 — Matrox® Video today announces that the highly-anticipated Matrox Monarch EDGE 4K UHD/multi-HD, low-latency encoders are now shipping. These powerful Monarch EDGE encoders deliver resolutions up to 3840x2160p60 or quad 1920x1080p60 video while offering flexible 3G/12G-SDI and SMPTE ST 2110 25 GbE connectivity with multi-protocol streaming options. Priced at ...

❌