Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Control Bazik with Touch OSC

Par : bazik

What is TouchOSC ?

TouchOSC is a mobile app for iOS and Android. You can use it to control compatible softwares via your iPad or your iPhone. Your device become a cool remote for your desktop app.

What can I do with ?

As Bazik supports OSC, it allows you to control Bazik without being in front of your computer. In this tutorial, I’m using an iPhone, but it’s working with an iPad.

Select a color bank, modify parameters, shift, switch, break and play with preset pads. Get a complete control of effects part and active or unactive automation.

osc_control_01osc_control_02osc_control_03


How to setup TouchOSC ?

It seems tedious, but it’s worth it !

1. First, be sure your computer and your iPhone are on the same Wifi network. If you don’t have one around you, create it from your computer.

osc_01

2. Please install the TouchOSC app on your device.

3 .Download the special layout below.

bazik_osc_iphone 01

4. Copy this layout on your iPhone with iTunes. Get help on TouchOSC website.

osc_02

5. Launch TouchOSC, then choose this layout.

osc_03

6. Go to Connections / OSC and edit the Host adress.

osc_06

Your Host adress must be your computer adress on the network. To find it, go to your Network preferences and check your IP address. Be sure it’s your IP address in the same network than your device (wireless).

osc_05

7. Now launch Bazik, and open the Options panel.

osc_04

8. Copy the TouchOSC’s “Local IP address”…

osc_07

… and write it into Bazik’s OSC first big field.

osc_08

Now insert Ports Outgoing and Incoming (generally 5000 & 5001) in the small fields.

osc_09

9. Click “setup OSC” and go to the Controls panel. Try to change a parameter in Bazik or in TouchOSC : Now you can control Bazik with your Iphone !

Maybe Bazik is going to prevent you about incoming connexions. Please Allow that, so TouchOSC can send data to Bazik.


Why I can not make it work ?

You don’t have to be a expert, but run TouchOSC requires time and patience. Follow the steps quietly and you will succeed.

When I change something directly in Bazik, the remote is not update, why ?

OSC remote work in both directions. If you change a Fx value directly in Bazik, the remote must be update in realtime. If not, it’s probably a error with the remote adress in Bazik (check step 8).

Can I use TouchOSC in a place without WIFI access ?

Yes, you simply have to create a local network from your Mac and connect your device directly on it.

I have enter each address several times but it does not work, wtf ?

First, be sure your computer and your device are on the same network. And be sure you use the good IP address from your computer in this network.
With TouchOSC, sometimes, the Local IP address need time to be update if you just change your network preferences. Try to relaunch the app and check if the address has changed.
If you have a doubt with your Bazik configuration, try to use TouchOSC with another software and come back when it’s work, so you can understand what is the problem and solve it.

You can find more help on the TouchOSC website.

Interview With VJ Loop Creator, Ican Agoesdjam

Starting Out as a VJ Some people may be completely new to VJing or just getting started. What would you suggest they do to get started? Well.. learn the basics such as the technical things, find the hardware & software that suits you, sharpen your sense of art and practice. When did you start VJing and what […]

The post Interview With VJ Loop Creator, Ican Agoesdjam appeared first on Zero To VJ.

Resolume VJ Tutorial: Beginner VJ Loops Using Duplicate Effects

Did you know that you can stack duplicate effects to create generative VJ Loops in Resolume? In today’s VJ tutorial we’re going to continue showing how beginners can create easy generative VJ loops using nothing but Resolume and it’s built in effects. Creating Your Own VJ Loops (Even If You Know Nothing About Animation) This tutorial […]

The post Resolume VJ Tutorial: Beginner VJ Loops Using Duplicate Effects appeared first on Zero To VJ.

6 New Features In Resolume 6 Beta

The Resolume team dropped some exciting news earlier this week, Resolume 6 is currently in beta and it’s available to download now. There’s a lot of new improvements but today I’m going to focus on 6 new features that I think are really sweet for Resolume VJs. New Features In Resolume 6 Beta 1. 64-Bit […]

The post 6 New Features In Resolume 6 Beta appeared first on Zero To VJ.

Using Ableton Link to Sync Resolume 6 with DJs

Resolume 6 Beta was released last week and it added an amazing feature, Ableton Link. This feature makes it really easy to VJs to quickly sync to DJs and use BPM synced visual effects. If you work with DJs you’re going to love this. Today I’m going to explain what Ableton Link is, how it works, […]

The post Using Ableton Link to Sync Resolume 6 with DJs appeared first on Zero To VJ.

Syncing Traktor with Resolume 6

During a Facebook livestream on Zero To VJ someone asked a question about setting up Traktor with Resolume. …I was trying to get some video to auto-sync with Traktor through Ableton. I’d MIDI clock out of Traktor into ableton, and have a clip with 1/4 notes that would then BPM into arena. But, now, it […]

The post Syncing Traktor with Resolume 6 appeared first on Zero To VJ.

Lines A/V Architectural Mapping Performance

Lines is an abstract architectural mapping show which took place on the facade of the Palace of Parliament in Bucharest, which is the second largest administrative building in the world, with usage of more than 104 projectors over 2.000.000 ANSI lumens, on 23.000 square meters of projection surface. It has been billed as the biggest projection […]

The post Lines A/V Architectural Mapping Performance appeared first on LUMEN.

MP-STUDIO – Rebirth / Bolshoi Theatre

Due to contemporary life dynamics we all get bored very quickly. That’s why we are always looking for something new. We like to challenge ourselves and experiment with new ideas, that not only demonstrate graphic excellence, but create one of a kind experience for the audience. An adventure in the depths of the mind. Our […]

The post MP-STUDIO – Rebirth / Bolshoi Theatre appeared first on LUMEN.

Resolume Tutorial: Remix Content with Alpha Channels

Par : docoptic
Video Thumbnail

All things alpha channels are explained in this tutorial for Resolume Arena 4 & 5, and Avenue 4. You will learn how content with alpha channels work, along with some of the advantages of using single element loops such as shapes. Techniques to create variations from your existing alpha content are explained, specifically shapes and formations using the Kaleidoscope and Iterate effects.

This tutorial also goes step-by-step to show you ways to create versatile backgrounds using a mix of Transform properties and various effects such as VideoWall and Mirror. Backgrounds that are easily customizable and can further extend the use of your existing content.

The methods outlined allow you to add remixed content to your collection easily using the power of Resolume. Some of these techniques work well with non-alpha content so be sure to try them out to get the most out of your library.

→ View Shapeshifters for 50 looping shapes with alpha channel

The post Resolume Tutorial: Remix Content with Alpha Channels appeared first on DocOptic.

GrandVJ Tutorial: Basics to Mixing Live Visuals

Par : docoptic
Video Thumbnail

This tutorial is all you need to get started mixing live visuals with ArKaos GrandVJ & GrandVJ XT. All the fundamental features are explained such as layers, copy modes (blending modes), transitions, faders, effects, and triggering visuals sourced from HAP encoded video files.

The interface and its functions are explained in-depth, with a focus on getting started quickly. All basics are covered, you will be able to load visuals, create layered compositions, and have your visuals ready to be displayed to an audience on an external display after viewing this training for version 2.3+ of ArKaos GrandVJ (and XT).

The post GrandVJ Tutorial: Basics to Mixing Live Visuals appeared first on DocOptic.

Resolume 6 Tutorial: New Workflow Features

Par : docoptic
Video Thumbnail

This Resolume Arena & Avenue 6 tutorial brings you up to speed with some of the most useful new features of this latest and greatest version of Resolume. Aside from the speed and performance improvements, you will learn how to customize the interface, use layer mask mode, create custom thumbnails, make use of the improved effects interface, animate with envelopes, utilize persistent clips, use fader start to trigger clips, display FFT gain directly on the interface, create smarter shortcuts, and learn about some other small interface tweaks to make you a more efficient VJ.

The post Resolume 6 Tutorial: New Workflow Features appeared first on DocOptic.

Induni & CIE’s 100th Year




Induni & CIE SA – 100th Year Celebration

2017, Geneva (CH)

 

Media Server : Modulo Player Ultra MP-UX-4

 

Credit
  • Technical Production : Dorier Group
  • Production : MCI
  • Design : Stamina

Ateliers Des Lumières



Ateliers Des Lumières

2018, Paris


Opened on April 13, Atelier des Lumières, created by Culturespaces, is the very first Digital Art Centre in Paris. The 2,000 sqm venue, a 19th century disused foundry, received a complete make-over to allow the hosting of immersive digital art shows on a monumental scale. Its first exhibition is a fantastic immersive digital experience around Gustav Klimt’s work. It’s a stunning show bringing together monumental projection and music for a new artistic experience. Visitors are completely immersed into the work of the Austrian painter thanks to a massive AV set-up: more than 130 Barco PGWU-62 video-projectors were installed together with 35 Modulo Kinetic media servers by Modulo Pi.

A fine-tuned show with spectacular results : animated images of Klimt’s work are projected on the floor, on the walls (who can reach up to 12m) as well as on the ceiling and other typical elements of the venue, such as the foundry’s former chimney. Images flow in rhythm to the music, and appear perfectly moulded to the Atelier’s architecture.

Faced with the technical challenge of equipping such a venue to achieve a 300 million pixels projection, Culturespaces and Cadmos, the integrator for the project, opted for Modulo Pi’s systems from the project study phase.

Relying on his experience with the Carrières de Lumières based in Les Baux-de-Provence, South of France, Augustin de Cointet de Fillain, Multimedia Project Director at Culturespeaces, explains: “We initiated this type of exhibition in 2012 in Les Baux-de-Provence. This was achieved with a lighter AV system since the remarkable venue was already doing the show. However, we quickly realized that we would need a system with much higher potential and stability.”

Roman Hatala, Cadmos’ Director, further adds: “When Culturespaces told us about Atelier des Lumières, opting for Modulo Pi’s systems was evident as they are the most effective and adaptive systems on the market. We wouldn’t have done this project without it.”

After choosing video-projectors with higher resolution for better image quality, the teams of Culturespaces decided to rely upon Modulo Pi’s solutions to better answer their requirements for Atelier des Lumières, but also for their upcoming installations in France and abroad: “We are dealing with installations based on 90 to 130 video-projectors, which is huge. Therefore, we needed a reliable, comprehensive and powerful system that would allow us to work from site to site.”

For its first exhibition, Atelier des Lumières offers a three-part work around paintings of Gustav Klimt, the vision of the artistic director, and the former foundry now hosting the Atelier. “The exhibition is tailor made to the venue”, explains Augustin de Cointet de Fillain.
It’s as much creation as it is staging, with a certain complexity due to the perspectives and different depth levels in the venue. In this context, you need a really flexible operating system.”

The 35 units of Modulo Kinetic showed their efficiency at every stage of the project. Augustin de Cointet de Fillain provides more details about the crucial role played by Modulo Pi’s media servers prior to setting up : “We load a 3D plan of the venue, fill in the type of video-projector we’ll be using and what we want for each wall in terms of image pixel size and luminosity. Then, the Modulo Kinetic tells us where the VPs should be positioned, what the image distortion will be, the luminosity rendering on each area… Once this simulation phase is done on Modulo Kinetic, we move on to the venue.”

When at the venue, the installation and fine-tuning stages – central to the immersive effect – are done so as to give the impression of projecting one single image over the whole surface. Among other things, Modulo Kinetic helped handle the overlaps and soft edges, and made warping easy with the Xmap mode. The result was a seamless projection over the entire show surface.

Installation and fine-tuning had to be done within a limited time frame as Roman Hatala explains: “The audiovisual work comes at the very end. That was a real challenge to have everything set up and adjusted while the renovation work of the venue was still going on.” In this context, the features offered by Modulo Kinetic, allowing several users to work on settings at the same time, was key: “Modulo Kinetic allows shared and mutualized work on geometry. It helped us save a great deal of time by having someone working on a wall on one side, a second person on another side, and a third person working on the floor. To achieve all the fine-tuning in a shortened time, that was a real advantage.”

Once the set-up was over, Modulo Kinetic was then used as a show controller to handle and sequence all media that are part of the show: videos, music, images,… “That is the true force of Modulo Kinetic. It’s a comprehensive system in which anything can be centralized and controlled: videos, lights, sound, and interactive lasers”, comments Augustin de Cointet de Fillain. “Without Modulo Kinetic, we would have had no choice but to manage a string of not very reliable different systems, multiplying the overall system’s fragilities. We needed a super stable system with full and permanent control. We cannot afford to have a huge black wall.”

To make everyday management and maintenance easier, Modulo Kinetic comes with an app that handles the shows through pre-programmed loops, while also giving regular feedbacks ensuring the overall AV system is operating accurately at all times.
The show control and remote maintenance system was programmed by Cadmos’ teams, who have been working with Modulo Pi’s media servers for several years: “Modulo Pi was the best choice for this project. Their systems bring reliability, scalability and an image quality that cannot be reach with any other system”, explains Roman Hatala. “In our museum and contemporary art projects, Modulo Pi’s media servers allow us to work with Apple ProRes or uncompressed contents for better image quality. We also enjoy the capability of integrating custom show control and management options so that our clients can benefit from fully controllable and autonomous systems.”

To pursue its mission of bringing to the public a new way to discover Art, Culturespaces is currently working on the launch of new immersive art exhibitions in the United States and Korea.
These new large-scale projects will also rely upon Modulo Kinetic for the simulation, set-up, show control and maintenance operations. “We were looking for a reliable partner for our upcoming projects, and it will be Modulo Pi”, states Augustin de Cointet de Fillain. “We confirmed that choice due to our requirements in terms of reliability, but also because these systems allow us to anticipate and transpose the creation of our upcoming exhibitions.”
An anticipation made possible thanks to a vignette system that enables to export and work with low definition versions of the media involved in each show. “It helps us anticipate future creations which is very important. This way, we don’t have to close our venues for too long. That gives us a very enjoyable anticipation base.”

www.atelier-lumieres.com

www.cadmos.fr

Credit

  • Technical Production : Cadmos
  • Production : Gianfranco Iannuzzi – Renato Gatto – Massimiliano Siccardi
  • Music : Luca Longobardi

HeavyM 1.8 – Les nouveautés

Par : HeavyM

  « HeavyM Trial » remplace « HeavyM Free »   Toujours à l’écoute des demandes de notre communauté, nous faisons aujo . . .

The post HeavyM 1.8 – Les nouveautés appeared first on blog.

Modèle de forme #1 : Le carré

Par : HeavyM

Tutoriel montage  La forme Carré est réalisable avec 1 seul kit Olga. La forme se monte en 8 minutes, et mesure 1mx1m. Le détail des pi . . .

The post Modèle de forme #1 : Le carré appeared first on blog.

#UX180/90: un look cinéma pour vos images, en 2mns et en vidéo

Nouveau tuto sur la série de caméras UX180/90: il s’agit d’apprendre à donner un rendu plus cinématographique à vos images. Vous apprendrez:
– A utiliser les courbes Cine_D pour obtenir une image « plate » avant étalonnage.
– A vous servir du couple ouverture/longueur de focale pour réduire la profondeur de champ.
– A paramétrer la fonction Focus Transition pour faire le point automatiquement entre deux valeurs.

Plus d’informations sur ces camescopes 4K baroudeurs ici.

#EVA1, une sélection de rushes, de tests et de réalisations

L’EVA1 se répand de plus en plus et avec elle, de très belles réalisations indépendantes. Pour ceux qui recherchent des exemples de rushes tournés dans toutes les conditions possibles, nous avons créé une playlist et une chaine spéciale sur YouTube. Vous pouvez vous y abonner et c’est ici.

Autre exemple de réalisation, celle de Philip Bloom avec « The telescope » qui montre, entre autres,  les qualités de la caméra en basse lumière.

Modèle de forme #2: Le cerf-volant

Par : HeavyM

Tutoriel montage  La forme Cerf-volant est réalisable avec 1 seul kit Olga. La forme se monte en 12 minutes, et mesure 1,75mx1,35m. Le d? . . .

The post Modèle de forme #2: Le cerf-volant appeared first on blog.

Petit R



Petit R

2018, Ruinart House, Reims – France


In the heart of the Champagne region, in Reims, is the Ruinart house. A prestigious place where the art of receiving is intimately linked to the art of champagne. In this context, My little Paris asked Holymage to realize a unique video mapping creation, a visual display of their dinner discovered. The main character “Petit R” takes us for 4 minutes through the history of the brand. On the border of the animation film and the video mapping, this visual gem is to be discovered on site, all year long during seminars or exceptional dinners.

Credit

  • Client : Ruinart
  • Agency : My Little Paris
  • Writing and script: François Peyranne
  • Technical services: Mvision
  • Scenography, Direction & video design: Holymage
  • Music : Mani2 – Demolisha Studio

Exposition : toutes les règles expliquées

L’élément principal pour produire des films qualitatifs, c’est ce qu’on appelle l’exposition. Il est important de comprendre ce qu’est une « bonne exposition » , pour éviter les images « cramées », « sur-ex » ou « sous-ex ». Contrairement aux idées reçues, tout n’est pas rattrapable en post-production.

Pour cela, limitons d’abord le concept à deux points :

L’exposition, c’est la quantité de lumière atteignant le capteur, et ce, pendant une certaine durée.

L’art d’obtenir une bonne exposition est donc celui de contrôler cette quantité de lumière.
Pas assez de lumière? Vous aurez une image bruitée, plate et avec du grain. Trop de lumière? Vous obtiendrez une image délavée et agressive. Dans les deux cas, vous aurez perdu un grand nombre d’informations sur l’image que vous avez enregistrée.

Pour contrôler l’exposition, 4 outils: l’ouverture, le vitesse d’obturation, le filtre neutre (ND) et le Gain (ISO)

1. Le plus important est l’ouverture de l’optique (ou « iris »). C’est un cercle dans l’optique, de taille variable, à travers lequel la lumière passe. La taille de l’ouverture est connue sous la valeur « f ». Paradoxalement, plus cette valeur f est basse plus le trou est grand (comme dans f/2.0 par exemple), laissant passer beaucoup de lumière. A l’inverse, plus le trou est petit et plus la valeur f est élevée (par exemple f/11), laissant passer peu de lumière. C’est ce qu’on appelle le diaphragme en photographie. L’ouverture a aussi une incidence sur la profondeur de champ. Plus l’ouverture est grande, plus la profondeur de champ est réduite, c’est à dire que la zone où le sujet est au point est restreinte. Les optiques n’ont aussi pas les mêmes performances à toutes les ouvertures: elles peuvent perdre du piqué, produire des aberrations chromatiques… C’est en général de f/2 à f/5.6 que les performances sont les meilleures.

2. La vitesse de l’obturateur (shutter speed) contrôle la durée pendant laquelle la lumière est autorisée à entrer dans l’optique. Plus le shutter et lent, plus la lumière « reste » (et rentre en quantité si l’on peut dire), mais plus un sujet mobile sera flou.

vitesse d'obturation comparée

Attention, en film (et pas en photo), on va très peu jouer sur ce paramètre car il affecte le rendu de l’image. En effet, imaginons que vous ayez beaucoup de lumière, mais que vous vouliez garder une grande ouverture (pour avoir un joli flou artistique derrière le sujet). Vous allez donc être tenté d’augmenter le shutter (1/200ème par exemple) pour éviter de cramer vos images: vous risquez d’obtenir une image qui scintille, et un rendu très « clinique » (tous les mouvements sont ultra nets). La règle donc à appliquer en général est celle des 180d (degré). C’est à dire, utiliser un shutter fixé au double de votre cadence d’enregistrement: exemple, vous tournez en 4K/25P, votre shutter sera au 1/50ème (2×25). Alors, que faire pour avoir une image bien exposée avec une grande ouverture et sans toucher au shutter?

3. C’est ici qu’intervient le filtre à densité neutre (ND). source - WikipediaC’est est un peu comme une paire de lunettes de soleil mais sans effet secondaire (changement de couleurs, polarisation, etc). Ils sont utilisés dans les situations très lumineuses comme lors d’une journée très ensoleillée. Ce filtre (qui est fixe par pallier, ou variable), va donc permettre de compenser la surexposition sans toucher ni à l’ouverture, ni au shutter. Une EVA1 dispose de 3 filtres ND intégrés par exemple.

 

4. Le Gain ou les ISO. le double-iso natif de PanasonicNous voici dans la situation inverse. Que faire quand on est « ouvert » à fond, sans filtre ND et que l’image est sous-exposée? La seule manière est alors d’utiliser une amplification électrique du signal derrière le capteur. En « boostant » le signal, on arrive à compenser le manque de lumière. Mais cela a un prix: l’ajout de bruit à l’image (ce fourmillement assez peu esthétique).  C’est pourquoi Panasonic a inventé le double ISO natif afin restreindre ce bruit à l’image.

C’est en jouant sur ces 4 paramètres (ou plutôt 3 si on ne touche pas au shutter), que vous obtiendrez une bonne exposition.

 

 

L’article Exposition : toutes les règles expliquées est apparu en premier sur Createinmotion.

Plein de ressources gratuites pour monter

Certes, il y a toutes les images que l’on tourne, mais arrivés au montage, on a souvent besoin de petits bonus. Qu’il s’agisse de transitions, de titrage animés, d’éléments graphique ou de sons, nous avons sélectionné sur cette page des liens vers des tonnes de ressources gratuites.

  • Plus de 220 éléments en provenance de Shutter Stock.

    La célèbre banque d’images en ligne vient de mettre en ligne un Pack de 220 éléments. Citons parmi ceux-là des « motion graphics » (des symboles animés tel que des pictos super utiles), des transitions à appliquer dans n’importe quel logiciel de montage via la technique de « Track Matte », mais aussi des Lut’s (Look Up Table) pour l’étalonnage, des « lights overlays » (pour ajouter du Flare etc)… Bref une trousse de montage complète à télécharger sans modération. Un tutoriel d’utilisation est même fourni avec. Pour en profiter, c’est ici.
    Regardez le trailer pour avoir une présentation de tout ce qui est fourni.

  • Un freebie par mois chez Rocketstock: After Effects templates et éléments VFX

    RocketStock est connu pour son énorme banque de ressources concernant tous les éléments à ajouter en post-production (fumée, impacts de balles etc) mais aussi pour ses fameux « Templates After Effects » (ces modèles préconçus qu’il suffit de personnaliser). Le site offre tous les mois un nouveau pack d’éléments à télécharger. Il peut s’agir de « vidéo packs », de sons, de templates. Ce mois-ci par exemple, il s’agit d’un « Action Pack Light » qui comprend pas moins de 25 effets incendiaires en 4K avec couche Alpha. Il suffit de les glisser directement au montage.
    Pour télécharger ou parcourir tout ce qui est proposé, c’est ici.
  • Des tonnes de bruitages chez PremiumBeat, mais pas que…

    La plateforme de ressources de musiques libre de droit dispose d’un excellent blog. On y trouve des tutos, des articles sur l’actualité de la prod, mais aussi des centaines de ressources gratuites à télécharger. Ce qui nous intéresse aussi, c’est la grande quantité d’éléments de sound design (pour construire des trailers par exemple) comme on le voit ici:

    Les packs de sons sont regroupés par thématiques (Horreur, Trailer, Glitch…) et vous pouvez aussi trouver de nombreux packs vidéo tout aussi gratuits. Pour télécharger (et lire, parce que le blog est vraiment, vraiment intéressant), c’est par ici.
  • Rampant Design Tools: des Go à télécharger pour toutes les plateformes

    Ok, il vous faudra donner votre email pour accéder à l’immensité des ressources offertes par Rampant design, mais ça vaut le coup. Non seulement il y a des Giga-octets de fichiers à télécharger (des tonnes d’overlays, de transitions…. ), mais vous trouverez aussi des choses moins classique comme des projets FCP X pour construire vous même vos propres transitions.
    Pour en profiter, c’est par ici.
  • Des millions de bruitages chez Freesound.org
    Certes, l’interface de Freesound.org n’a pas évolué depuis des années. Mais en contrepartie, vous allez pouvoir avoir accès à des millions de bruitages. Le site étant collaboratif, ce sont les utilisateurs eux-même qui uploadent les fichiers: la qualité est donc variable, de l’excellent, au moyen. Mais rien de manque à condition d’effectuer votre recherche en anglais et d’y passer du temps. On s’est par exemple amusés à chercher des bruitages de cafard… et on a trouvé! Rendez-vous sur freesound.org . L’inscription est obligatoire pour télécharger.
  • Des Presets de tremblement de terre, de caméra shake chez  Cinecom.net
    Les excellents gars de chez Cinecom, très connus pour leurs tutoriaux sur YouTube, mettent aussi à disposition des Presets pour Premiere Pro (des préconfigurations qu’il suffit d’importer dans le logiciel. L’idée est ici de simuler des tremblements de terre, et surtout des caméras « shake ». Pour quoi faire? Pour donner un aspect run&gun à vos plans quand vous les avez tournés sur trépied, notamment quand vous faites des truquages : les cameras shake renforce l’impression de naturel en simulant le fait que la caméra à été portée. Pour constater l’intérêt de cette technique, regardez le tutoriel ci dessous:

 

Nous complèterons cette article au fur et à mesure. N’hésitez pas partager vos bonnes adresses.

L’article Plein de ressources gratuites pour monter est apparu en premier sur Createinmotion.

Puy En Lumières

VIVA Technology

April To September 2018, Le Puy En Velay – France

Credit

  • Production : Laurent Lhuillery / Light Event Consulting
  • Artistic Direction : Gilbert Coudène / Les Allumeurs de Rêves
  • Visual content production : BK / Digital Art Compay

V-LOG, comment bien exposer ses images?

Tourner en V-Log, c’est excitant. La promesse sur le papier, c’est d’étendre la dynamique de la caméra et d’avoir une latitude d’étalonnage bien plus forte en post-production. Oui, mais voilà, le V-Log, il faut le maîtriser parfaitement au tournage, sans quoi, la désillusion est totale: la génération de bruit involontaire est le principal écueil à éviter. Le secret, c’est donc de bien exposer, mais aussi de faire des choix.

Une vidéo tournée en Log, n’est pas regardable en l’état. Elle apparait délavée et plate. C’est normal puisque l’objectif étant de conserver un maximum d’informations du capteur afin d’avoir l’image la plus « malléable » possible en post-production, la caméra va « désactiver » un ensemble d’opérations qu’elle effectue d’habitude toute seule. Surtout elle va employer une courbe de transfert Logarithmique (d’où le Log), pour retenir le maximum d’information du capteur. Cette courbe a l’avantage d’aller « chercher » tous les détails de l’image, mais elle a pour gros inconvénient de ne pas être optimisée pour notre vision et surtout, d’être bien plus exigeante en terme d’exposition. Elle méritera aussi bien plus de travail de post-production. A la clé cependant, une image bien plus détaillée, et bien plus « ciné ».

Vlog_versus_natural Vlog_versus_Natural_Zoom

Le V-Log, pas fait pour regarder, bon à retravailler.

La plupart des courbes de gamma internes des caméras (les profils comme « naturel », « standard »… chez Panasonic), sont conçues pour montrer à l’écran ce que perçoit notre vision. Pratique, car l’image est flatteuse, mais il existe un énorme inconvénient: la dynamique de l’image est plus réduite. Pourquoi? Parce que la courbe va privilégier les informations les plus « visibles » (et souvent, celles dont la luminosité est médiane comme les skin tones). Conséquences, les pixels sombres et les pixels très exposés sont assez mal lotis.Du coup, les ombres sont souvent détériorées (noirs écrasés), si vous essayez de les corriger en post-production, vous verrez l’apparition du phénomène de « Banding » (des aplats très vilains). L’avantage du VLOG-L est que la répartition des « bits » disponibles pour les pixels lumineux et les pixels sombres est beaucoup plus équilibrée. Les zones claires et « moyennes » disposent du même nombre de nuances de gris enregistrées, et même si les zones sombres en ont légèrement moins, elles en ont toujours nettement plus qu’en utilisant une courbe de gamma conventionnelle qui elle va bien plus ressembler à un « S ».

La courve V-Log de la Varicam

La courbe V-Log de la VariCam: on voit bien que les information sont assez bien réparties.

En conséquence le VLOG- est un mode adapté à l’enregistrement, mais pas vraiment à la visualisation. Mais ceci pose un énorme problème: comment correctement exposer et faire une bonne balance des blancs sur une image aussi « flat » (plate)?

V-Log, injecter une LUT dans la caméra ou le moniteur

Au début de l’arrivée du Log, on était bien embêtés: pas de moyen de visualiser en temps réel l’application d’une LUT (Look Up Table) pour traduire l’image grisâtre en quelque chose de visible et qui permettrait donc a minima de vérifier que les couleurs sont à peu près bonnes, tout comme l’exposition. La LUT est une manière d’interpréter l’image et c’est un peu la première étape en post-production. Depuis, les choses ont bien changé. GH5(S), EVA1 ou les VariCam pour ne citer qu’elles permettent de charger des LUT et d’activer/désactiver leur interprétation. Il en va de même pour la plupart des moniteur externes. Et ça peut aider bien sûr, mais ce n’est pas une solution ultime car cette fonction applique de façon automatique une courbe de gamma donnée, dont le résultat peut tout à fait ne pas correspondre à la façon dont on aurait retravaillé ses images manuellement. C’est donc une prévisualisation que l’on pourrait qualifier de « raisonnable », mais à laquelle on ne doit pas totalement se fier dans la mesure où  l’on aurait pu faire des choix d’étalonnage très différents.

Vlog_InCameraLut01

L’image en V-LOG-L d’une GH5 et l’injection de la LUT de base de Panasonic (Rec709)

Alors, comment bien exposer ?

Mais revenons à l’exposition. Il est nécessaire d’utiliser les zébras, l’oscillo et l’histogramme pour la maîtriser en VLOG, mais il ne faut pas le faire de la même façon que sur un tournage avec une courbe de gamma quelconque. En effet, les niveaux qui peuvent nous être familiers (70 IRE pour les tons chairs et 100 IRE pour les hautes lumières par exemple) ne sont tout bonnement pas adaptés au VLOG: pourquoi parce que la courbe ne suite plus les mêmes valeurs de « S » en fonction de l’expo.

Un exemple tout simple avec le GH5 et le VLOG-L, les très hautes lumières vont commencer à apparaître dans les zébras et sur l’oscillo, vers 80 IRE, et rien au-delà de 81 IRE ne sera visible, jamais. Même en ouvrant l’iris à son maximum et en pointant la camera vers le soleil, on ne verra jamais rien au-delà de 81 IRE. C’est tout à fait normal : le VLOG a été conçu à l’origine pour la VariCam qui dispose d’une plage dynamique de 15+ stops. Le VLOG-L traite les ombres et les tons moyens comme le VLOG, mais dans une limite de 12 stops, donc avec une limite à 80 IRE. La VariCam elle aura des références différentes: on le voit, chaque Log a ses particularités.

Vlog-L light

Les distribution de la dynamique d’une GH5. Source: https://wolfcrow.com/

Ça peut sembler un peu limité mais en fait il n’en est rien car il est possible d’utiliser les mêmes LUTs que celles de la VariCam puisque la répartition des gris est la même pour le VLOG-L et le VLOG. Il faut comprendre les niveaux et les limites du capteur à respecter et pour faire court, il faut intégrer qu’il n’est pas possible d’exposer des tons chair à 70 IRE ou des gris moyens à 55 IRE en VLOG-L. Ces niveaux vont devoir être nettement plus bas.

1- L’exposition à droite (Exposure To the Right), une vraie bonne idée?

Cette technique implique l’utilisation de l’histogramme. Cet outil montre la répartition de la luminosité dans l’image et plus l’image tendra vers les hautes lumières, plus la courbe de l’histogramme se déplacera vers la droite. Les promoteurs de cette technique considèrent que les tons les plus foncés et les ombres sont les zones les plus bruitées d’une image et qu’en faisant sortir une image de la zone sombre il est possible de mieux la retravailler en post-production. Autrement dit : plus on expose à droite, plus on profite des capacités du capteur et surtout, plus on va pouvoir obtenir une image détaillée. Souvenez-vous de ce dont nous parlions sur la répartition des bits : les hautes lumières et les tons moyens se voient allouer le même nombre de bits (c’est-à-dire d’information) alors que les zones sombres en ont moins à disposition. Donc moins l’image n’a de zones sombres plus son contenu sera détaillé, et rien n’empêchera plus tard de l’assombrir de nouveau. Cette technique souffre d’un gros inconvénient: elle implique énormément de travail en post-production pour rééquilibrer toutes les images et elle peut plus facilement nécessiter un débruitage long et pénible.

2- Le gris 18%, l’oscillo, les zebras et les « Falses colors », vos meilleurs amis.

x_rite_colorchecker_passportLes systèmes vidéo font souvent référence aux « gris moyens » ou aux « gris 18% ». Le gris 18% est un standard en vidéo et en photographie, il s’agit d’une nuance de gris qui reflète 18% de la lumière qu’elle reçoit. Elle est très souvent utilisée sur les cartons de test et il est très facile de s’en procurer dans les magasins spécialisés. Une réflexion de 18% représente la réflectance moyenne d’une scène moyenne, d’où le fait que l’exposition automatique d’une caméra est souvent conçue pour exposer correctement les zones de l’image dont la réflectance est d’environ 18%. En utilisant cette technique d’exposition, vous trouverez que l’oscillo et les zébras sont bien plus utiles que l’histogramme.

Contrairement un une courbe de gammas conventionnelle, et pour reprendre l’exemple du VLOG-L, ce dernier n’expose pas les gris moyens à environ 50 ou 55 IRE. Il les exposera en réalité à 42 IRE, donc avec un gris moyen, il vous faut le voir apparaître sur votre oscillo à environ 42 IRE pour une exposition « propre », c’est-à-dire standard.

Pour information, voici les niveaux de réflectance du mode VLOG-L :
0%  de réflectance (noir) : 7,3 IRE
18% de réflectance (gris moyens) : 42 IRE
90% de réflectance (blanc) : 61 IRE
Super blanc absolu : 80 IRE

Oscillo-exemple

Sur cet exemple, l’oscillo montre une sous-exposition: pour être bien, je devrais atteindre mes 80 IRE dans les blancs.

Cependant, exposer pour un mode gamma logarithmique n’est pas toujours aussi simple que de mettre un carton à 18% dans le décor et d’exposer à 42 IRE. On peut donc parfois se demander si un équilibre judicieux entre la technique de l’exposition à droite et celle de l’exposition des gris moyens, même si ça peut s’avérer compliqué, ne serait pas la meilleure solution. Finalement tout dépend des compromis que l’on est prêt à accepter. C’est pour cette raison, que pour chaque caméra, vous devez utiliser en conjonction: l’injection de la LUT de base (ou de celle que vous utiliserez en post-production si vous être sûrs de votre coup et voir le bruit généré), l’oscillo afin de visualiser vos valeurs, mais aussi les Zebra afin d’avoir une « alerte directe » sur l’écran quand vous cramez les informations.
Les fausse couleurs (false colors), sont une autre représentation qui donne des couleurs relatives à l’exposition suivant une échelle, comme le montre cette image.

false colors

L’utilisation de tous ces outils vous permet de « savoir » dans quelle zone IRE les informations seront les mieux traitées pour chaque caméra. Et surtout cela va vous permettre de faire des choix de réalisation. Devez-vous privilégier exceptionnellement un arrière plan? Ou plus conventionnellement un sujet? Faut-il rapporter de la lumière pour homogénéiser le tout? A partir de quand génère-t-on du bruit qui sera difficilement traitable en post-production? De là se dégageront des « règles » pour chaque machine.

Un mot sur les LUTs


Les LUTs (Look Up Tables) sont utilisées pour l’étalonnage, pour expliquer à un moniteur comment afficher correctement une valeur qui a été encodée de façon logarithmique. Les LUTs sont devenues assez communes. Beaucoup de logiciels de montage ou d’étalonnage sont capables de les utiliser, de même que beaucoup de moniteurs externes ou d’enregistreurs externes. Donc avoir un bon fichier LUT dans son moniteur permet d’avoir une bonne idée de ce à quoi ressemblera effectivement ce que l’on est train de filmer une fois étalonné.

Maintenant, comment est-ce que cela fonctionne ? Une LUT transforme une certaine valeur d’un fichier vidéo en une autre donnée pour son affichage. Elle va donc vérifier l’information liée à la couleur et au gamma de la source et la transformer en une autre valeur de couleur et de gamma pour que l’affichage de cette dernière corresponde à la volonté de l’opérateur. Pour chaque valeur d’entrée donnée il existe une seule valeur de sortie qui ne varie jamais. Jusque-là tout va bien, ça semble assez simple, mais les gens oublient souvent que chaque modèle de caméra va attribuer des valeurs de colorimétrie bien spécifiques à ce que son capteur aura repéré. Ça implique que la même LUT traitera différemment les informations provenant de cameras différentes. Donc si l’on tourne en DVX200 et que l’on souhaite obtenir une image « réaliste », il faut utiliser une LUT qui a été spécialement développée pour la DVX200 et non pour une autre caméra. Concrètement, cela signifie que même si la DVX200, la VariCam et le GH5 utilisent le VLOG, leurs capteurs sont différents et se comportent différemment, donc la même LUT appliquée à ces trois modèles ne produira pas précisément les mêmes résultats. Dit comme ça, ça semble évident n’est-ce pas?

Ceci étant dit, on peut tout de même utiliser la LUT de son choix car au final le résultat doit correspondre à son goût et si une LUT dédiée à une autre caméra donne des résultats plus satisfaisants ou plus créatifs, allons-y !

L’article V-LOG, comment bien exposer ses images? est apparu en premier sur Createinmotion.

Best-of des transitions… Au tournage

Les transitions réalisées au tournage, c’est en fait anticiper deux plans successifs, et faire en sorte qu’ils se raccordent sans post-production (ou presque). A la clé, l’impression que la caméra a pu se transporter à deux endroits différents sans coupe. On a sélectionné ici 9 transitions faciles à faire « in camera ». Explications.

1- Les principes

Les exemples les plus communs de transitions « In camera » (au tournage), vous les connaissez sans doute: vous suivez un sujet, puis en fin de plan vous effectuez un tilt vers le ciel. vous changez d’endroit et vous commencez votre plan depuis le ciel et vous reprenez votre sujet… Qui a changé d’endroit. Pourquoi le ciel? Parce qu’il va donner une image bleue-blanche et que quand vous allez changer d’endroit, vous reprendrez ce bleu-blanc quasi identique, ce qui va donner l’impression qu’il n’y aucune coupe et que c’est donc de la magie.

Autre exemple, le fait que la camera traverse un mur (ou un objet) en travelling latéral pour suivre un sujet (dans un appartement, d’une pièce à l’autre par exemple). L’idée est ici de se servir du noir. Quand la caméra arrive au mur, on s’attend naturellement à passer au noir. Du coup, la combine consiste à se servir de l’opacité supposée de l’objet (en ajoutant du noir devant l’objectif par exemple) et à reprendre le même mouvement de l’autre côté (en enlevant le cache noir très rapidement). La clé aussi, c’est la rapidité du mouvement et sa continuité (dans quoi un fondu au noir suffirait), pour cacher les défauts. Dans l’exemple ci-dessous, ici de la série Sherlock, on voit précisément cette technique (améliorée par un masque en post-production) et baptisée « pass-by ».

  • le secret est donc toujours d’avoir une continuité du mouvement d’un plan à l’autre (de la caméra et de son sujet).
  • D’utiliser n’importe quel élément de décor comme source de la transition (le ciel, le mur, l’objet, un poteau).
2- Un peu de fun dans cet exemple

Dans cette vidéo de PremiumBeat, l’auteur à décidé de détourner l’utilisation de transitions in-camera pour réaliser des exemples plutôt rigolos: un clonage de personnage, un départ de course façon super héro, et un lancer de couteau. On vous laisse regarder. Même si c’est en anglais, vous allez comprendre et on vous explique après.

L’auteur utilise toujours le même mouvement ultra-rapide: un panoramique à la main (qu’il serait mieux de faire au trépied…) :

  • Le premier plan fixe le sujet, puis fait un panoramique vers la droite très rapide avec un shutter bas pour provoquer du flou de mouvement (1/50ème/180°) (voir notre article sur l’exposition.)  
  • Le second plan reprend le même panoramique, mais dont l’angle est inversé.
  • Au montage, il suffit de raccorder les deux plans pendant les deux panoramiques avec un fondu tout bête.
  • Pour la dernière scène du « couteau », comme le personnage ne va pas réellement saisir un couteau en plein vol, l’auteur utilise la ruse suivante. Le premier plan est identique aux autres (panoramique qui fait un gauche droite pendant le lancer du couteau). Le second plan est tourné à l’envers. Le clone est en position finale (couteau rattrapé) et le lance vers la gauche. La panoramique est un droite-gauche. Au montage, il suffit d’inverser la lecture du plan et le tour est joué.
3- La compilation plus classique

Dans cette vidéo Mango Street, montre tous les principes énoncés plus haut dans une compilation de 6 transitions « In camera ». Le visionnage suffit amplement à expliquer les techniques classiques.

4- Pour conclure

Vous l’avez vu, le principe ne varie jamais: un type de mouvement sur 2-3-4 plans et un élément de décor quel qu’il soit, pour masquer le raccord. Le perfection vient de la qualité du mouvement, de la synchronisation de la scène et de la précision de raccord au montage. N’hésitez pas à refaire plusieurs prises pour obtenir cette perfection du mouvement. Regardez aussi autour de vous, il y a toujours un élément de décor à utiliser, y compris le sol… Présent partout!

 

 

L’article Best-of des transitions… Au tournage est apparu en premier sur Createinmotion.

Gold Coast 2018 Commonwealth Games



Modulo Kinetic at the 2018 Commonwealth Games ceremonies

April 2018, Carrara, QLD – Australia


For the opening and closing ceremonies of the Gold Coast 2018 Commonwealth Games, The Electric Canvas, an award-winning Australian company specialized in large-scale projections, managed the AV projection relying on Modulo Pi’s high-end media server: Modulo Kinetic.

The 21st Commonwealth Games took place in April 2018 at the Carrara stadium in Queensland, Australia. Produced by Jack Morton Worldwide, the opening and closing ceremonies were spectacular shows with 4.000 volunteer performers. Combining theatre, dance, and music, the shows were created to reflect the Gold Coast culture, embodying its spirit and its energy.

After winning the tender, The Electric Canvas prepared the event over 6 months. To achieve such a large-scale video projection in the stadium, they chose 20 x Christie Boxer projectors, as well as Modulo Kinetic, a powerful media server with advanced features from Modulo Pi.

Peter Milne, Director of The Electric Canvas, explains: “I’ve been involved with Yannick Kohn – founder of Modulo Pi – and his technology for nearly 20 years now. When he launched Modulo Pi in 2010, we were very keen on adopting his latest system, Modulo Player”. Recognized internationally as a leader in large-scale and architectural projections, The Electric Canvas has relied on Modulo Player for several years now: “We use Modulo Player on many projects because we really like the X-map among other features.”

When entering the bid for the Gold Coast 2018, Milne chose Modulo Kinetic, Modulo Pi’s new media server solution: “We were very excited when Modulo Kinetic was launched, and now we have quite a lot of Modulo Kinetic servers. In fact, when we proposed Modulo Kinetic to the Commonwealth Games, we only had a few months experience with it. That was possible because we trust Modulo Pi when it comes to this type of software development. We were sure that their technology would be reliable and solid because of our previous experiences with Modulo Player.”

Working closely with the content producer, The Electric Canvas designed the projection overlay which determined how to cover the field of play, and how to project the other elements efficiently, while providing maximum creativity.
The main video projection was a visualization of Earth and its history, projected on the stadium playfield. This came with several challenges: “We had to put the 20 video-projectors at a height of 67 meters above the ground in the sports lighting towers. We did this because the stage was covered with sand, so there would have been a lot of unwanted texture, had we projected from a normal setting position. Especially as the sand was being constantly disturbed by the performers. Putting projectors so high was a difficult thing to do, particularly for technicians, who had to climb more than 200 steps every day to get to the top of the towers. But it was all worth it in the end, as the resulting image quality was very good” comments Peter Milne.

To handle all necessary changes, the flexibility in the video-projection programming brought by Modulo Kinetic was a must for both ceremonies of this major event: “Ceremony production is a very unique process. There are changes in the choreography or content every day, so you have to have a very flexible system to be able to cope with those changes and incorporate them, sometimes even within the same rehearsal.”

In a time-critical context, The Electric Canvas’ operators made the best of Modulo Kinetic’s capability to preview the show in 3D: “During the day, when we don’t have the benefit of darkness, we can run the show from the recording of the previous evening, using video of the rehearsal, to then further fine-tune the programming of the projection.”

The show also included 3D mapping on Migaloo, a 30 meters long inflatable white whale, handled by 12 puppeteers. The whale floated into the arena, with content projected onto it after it reached its final position. The projection on the whale then transferred to the field of play at the end of the sequence.

The show video was synchronized to timecode, which was delivered with the music, but sometimes had to run independently from the timecode, as Milne explains: “In the case of having to hold entries and exits by the cast, or other unplanned factors, you need programming strategies, creating loops in the content so you don’t have any unexpected result in the picture when the timecode stops, or when something unexpected happens in the show. There are a lot of media servers who don’t cope with this very well. Having a strategy whereby you can, at some point in the music, ignore the timecode, allowing the music to stop and to loop, waiting for something else to happen when there’s a mechanical breakdown on the field, or when somebody falls over, is crucial. These contingent loops are a major and important part of these live shows, so having a system like Modulo Kinetic that deals with those contingencies, in a very fluid and flexible way, is essential.”

Operators could also rely on the backup capabilities of Modulo Kinetic: “On a show this size, you have many departments involved, with everybody running from the timecode. One other important feature of Modulo Kinetic is the automatic reversion to back-up systems, should we have a computer problem or failure. That is also something Modulo Kinetic is good at.”

In the end, the projection was impressive and looked very good in both ceremonies, with The Electric Canvas receiving lots of positive comments. About the utilization of Modulo Kinetic on this international multi-sport gathering, Milnes concludes: “It was reliable, flexible, and easy-to-use in a situation that can sometimes change dramatically every day. The Modulo Pi media servers are very specifically built for technicians and for the creatives that do the type of work that we do. Because the Modulo Pi team listens to technicians and creatives that work on projects, they modify and improve their software specifically on that feedback. For us, that’s an enormous advantage compared to other much larger companies.”

The Electric Canvas

theelectriccanvas.com.au

Maestro – Sharjah Light Festival 2017

For a second year in a row, we were invited by Nomada to participate at the Sharjah Light Festival 2017.
For this occasion we introduced Maestro, a new interactive video mapping, controlled by the user through a futuristic illuminated console.

The installation was set up on a half kilometer long building with 19 video projectors of 20,000 lumens and 8 sky-tracers.
The users were offered to choose between three original Mappings: SAND, MOSAIC and ORGAN.

To complete this creative and technological challenge, Tigrelab teamed up with great talents: Hand Coded was in charge of the generative visuals and sounds, our technological partners ProtoPixel took care of the creative technology and the lighting control, Thomas Aussenac from SoundBox created the Music and Sound Design, and Joan Molins and Roger Amat were in charge of the Motion Design and Animation.

This project has been rewarded during the Sharjah Light Festival 2017 for “Best Installation”.

Credits

Original concept, Creative direction and Animation: Tigrelab

PM, concept, generative visual-audio Development: Hand Coded
Creative technology and lighting control: Proto-Pixel
Motion Design and Animation: Joan Molins, Roger Amat
Music & sound design: Thomas Aussenac – Sound Object
Making Of: Felipe Mejia
—————————
Tigrelab Team:
Federico Gonzalez
Mathieu Felix
Javier Pinto

Nagyb Cedeño
Sergio Garcia Arribas
Julie Herbert

Sharjah Light Festival 2017
Organized by Sharjah Commerce and Tourism Development Authority
Produced by Nomada Les Arts Nomades Cie

The post Maestro – Sharjah Light Festival 2017 appeared first on Video Mapping Blog.

N

N was born from the interest to explore, interpret and represent nature’s laws, in an attempt to recreate these processes and to trigger in the viewer the impression to be in front of a living organism. The physical system is controlled by real-time data captured live through a wind sensor.

More info on fuseworks.it/en/project/n-en/

The post N appeared first on Video Mapping Blog.

❌