Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Syncing Traktor with Resolume 6

Par Ryan Dejaegher

During a Facebook livestream on Zero To VJ someone asked a question about setting up Traktor with Resolume. …I was trying to get some video to auto-sync with Traktor through Ableton. I’d MIDI clock out of Traktor into ableton, and have a clip with 1/4 notes that would then BPM into arena. But, now, it […]

The post Syncing Traktor with Resolume 6 appeared first on Zero To VJ.

Bio-Inspire

Par Eva Fechten

Bio-inspire A/V Dome Performance

IAIA | Institute of American Indian Arts in New Mexico, USA, 2015
Fiske Planetarium – University of Colorado Boulder in Colorado, USA, 2015

BioInspire is an A/V dome performance which has screened in the Institute of American Indian Arts(New Mexico, USA) and Fiske Planetarium – University of Colorado Boulder(Colorado, USA).

Artificial neural networks(ANNs), a largely used method in machine learning and cognitive science, are inspired by the biological neural networks, namely the neural system of the animals. The ANNs are composed of several nodes, layers and connections which simulate to some extent the message exchange and processing through a biological neural network. In fact, ANNs tries to find an approximate functions that evaluate all the inputs in order to give a meaningful output concerning the data. Each function is specific to the learned data according to which the form of the ANN is shaped. So, ANN adapt itself to learn from the data, to mine it; it then turns into a generic processing model that evaluates, classify, categorize the inputs, likewise our brain, neurons and synapses.

As the quantity of layers, nodes and connections in an artificial neural network increase, the structure gets more complex. Getting the inspiration from the structure of an ANN, our aim is to redefine the complexity of a neural network using abstract objects and sound referring to it’s natural form.

Direction & Animation: Void bevoid.co
Director: Yusuf Emre Kucur, Bahadır Dağdelen
Concept Development: Şerife Seda Kucur, Tuğçe Akkoç, Selay Karasu
Project Manager: Evren Erbaşol
A/V Artists: Yusuf Emre Kucur, Bahadır Dağdelen
Documentation: Cüneyt Korkut Keleşoglu
Sound Design: Selçuk Can Güven, Erhan Kabakci

Special Thanks: Rob Chapman, Barış Serdar, Ali Ata Kavame, Can Bilgin

The post Bio-Inspire appeared first on Video Mapping Blog.

Bio-inspire A/V Dome Performance

Par Eva Fechten

IAIA | Institute of American Indian Arts in New Mexico, USA, 2015 Fiske Planetarium – University of Colorado Boulder in Colorado, USA, 2015 BioInspire is an A/V dome performance which has screened in the Institute of American Indian Arts(New Mexico, USA) and Fiske Planetarium – University of Colorado Boulder(Colorado, USA). Artificial neural networks(ANNs), a largely […]

The post Bio-inspire A/V Dome Performance appeared first on LUMEN.

Crimson, Artvision Modern Moscow 2017

Par Eva Fechten

This is the A/V mapping piece we made for the Artvision Modern in Moscow. This project was inspired by the study “The colour currency of nature” by the scientist Nicholas Humphrey and the experiments he made according to the red colour. “Colour vision can and almost surely has evolved alongside signal colouration to enable animals […]

The post Crimson, Artvision Modern Moscow 2017 appeared first on LUMEN.

Hong Kong PULSE

Par Eva Fechten

Hong Kong Tourism board annual summer show PULSE. The show’s family focused story is a unique take on how much fun and excitement can be had in the city of Hong Kong in the Summer. With iconic characters inspired by traditional local food favourites such as the Pineapple Bun, the Egg Tart and Dim Sum […]

The post Hong Kong PULSE appeared first on LUMEN.

Le Comte & Joanie Lemercier

Par Eva Fechten

Le Comte & Joanie Lemercier audio visual performance Premiered at Les Garages Numériques Halles Saint-Géry, Brussels November 2016 Le Comte & Joanie Lemercier from Joanie Lemercier on Vimeo. laser: Minuit Une video: Pablo Crutzen Diaz additional footage: François Dubois production and booking: Juliette Bibasse joanielemercier.com

The post Le Comte & Joanie Lemercier appeared first on LUMEN.

Zhee-Shee production | Festival of Lights Berlin 2017

Par Eva Fechten

Zhee-Shee production 13-th Festival of lights in Berlin 1-st place, winner of the jury award Second place by public voiting Zhee-Shee production | Festival of Lights Berlin 2017 from zhee shee production on Vimeo. Our best team: Director: Artem Shcherbakov Sound: Gleb Mordovtzev CG-arists: Lenar Singatullov, Nail Gaynullov, Alex Orlov, Alexander Korshakov, Petr Shkolniy, Alexander […]

The post Zhee-Shee production | Festival of Lights Berlin 2017 appeared first on LUMEN.

mayer+empl . DL . interactive audiovisual installation . detroit . 2017

Par Eva Fechten

DL interactive audiovisual installation Dlectricity Festival 2017 | Detroit | September 2017 mayer+empl project 2017_099 mayer+empl . DL . interactive audiovisual installation . detroit . 2017 from sinsynplus on Vimeo. mayer+empl architectural space intervention http://www.mayerempl.de/ http://mayerempl.wordpress.com/

The post mayer+empl . DL . interactive audiovisual installation . detroit . 2017 appeared first on LUMEN.

ISE 2018 – Interactive Demo

Par yannickkohn


ISE 2018, Nao Demo Show

2018, ISE18 TradeShow, RAI, Amsterdam – NL


This is Modulo PI Interactive Demo show at ISE18, previewing Modulo Kinetic real-time 3D tracking and real-time particle engine on our moving Nao robot.

Credit

InfoComm Beijing 2018

Par yannickkohn



InfoComm Beijing 2018

April 2018, Beijing

Modulo Kinetic – InfoComm China 2018

Credit
    • Multimedia content design :NDIMENSIONS
    • AV rental company :PD AV
    • Projectors : Panasonic PT-RZ31K X6
    • Distributor : Myth Sanvei

HeavyM signe le nouveau décor du Mixmag LAB London

Par HeavyM

  La musique, comme vous le savez, occupe une place privilégiée dans l’activité et les centres d’intérêts de HeavyM. Depuis qu . . .

The post HeavyM signe le nouveau décor du Mixmag LAB London appeared first on blog.

Chris « Le vidéo mapping a boosté mon activité de DJ ! »

Par severine

Chris Hodson, le magicien américain des célébrations   Bonjour Chris ! Peux-tu te présenter? Bonjour ! J’ai commencé mon act . . .

The post Chris « Le vidéo mapping a boosté mon activité de DJ ! » appeared first on blog.

Microvision announced its financial results for Q3 2017

Par pico

Microvision new logoMicrovision announced its financial and operating results for Q3 2017. Revenues were $6.1 million (and up from $4 million in Q3 2016), whih is Microvision's highest ever. Operating loss was $5.2 million (up from $4.1 million in Q3 2016) and the net loss was $5.2 million as well.

Cash used in operatings during the quarter was $5.7 million (up from $3.8 million in Q3 2016). As of September 30, 2017 backlog was $15.8 million and cash and cash equivalents were $25.3 million. Given time to market adjustment of the interactive display engine, Microvision anticipates to be at the lower end of its revenue guidance of $30 million to $60 million by January 2019.

read more

AAXA P2-A

Par pico
Projector type: 
130 lumens, max image 100"
Buy now link: 
Buy now at Amazon.com

The AAXA P2-A is a small cube-shaped pico projector that features a 130 lumens LCoS light engine. The P2-A is based on Android 5.1 and includes a wide-range of connectivity options: Wi-Fi, BlueTooth, HDMI, micro-SD slot, USB and A/V.

AAXA P2-A photo

The P2-A is now shipping for $215.

Nebula Capsule

Par pico
Projector type: 
854x480, 100 lumens, max image 100"
Buy now link: 
Buy now at Amazon.com

Nebula's Capsule is a soda-can design Android-based (v7.1) bluetooth speaker and DLP pico projector combo. The projector features a 854x480 resolution and a brightness of 100 lumens. Batteries should last for 4 hours of video projection (and up to 30 hours of music playback). 

Nebula Capsule photo

The Nebula Capsule is now shipping for $349.99.

Kodak launches three new pico projectors

Par pico

Kodak announced three new pico projectors. First up is the pocket portable projector, which features a 640x360 DLP projector, 75 lumens and USB, MicroSD and HDMI inputs. The Kodak pocket portable projector is now shipping for $199.5

Kodak pocket portable projector photo

The Cube-like Kodak Pocket Pico Projector features a 854x480 100 lumens DLP projector and HDMI, MicroSD and USB inputs. The Kodak Pocket Pico Projector is now shipping for $249.9. Kodak also offers a similar projector with wireless connectivity for $299.99.

read more

NBC Olympics s’est appuyé sur Grass Valley pour son infrastructure de production des JO d’hiver de PyeongChang

Par Cine.Tv.Industry

NBC Olympics, une division du groupe NBC Sports, chargée de la couverture olympique des jeux pour NBC Universal, a fait appel au fabricant d’équipements Grass Valley (Belden) pour son infrastructure technique de production des XXIIIème Jeux Olympiques d’hiver (9 février – 25 février 2018) à PyeongChang, Corée du Sud.

NUP_181795_0092.JPG

NBC Olympics doit gérer quotidiennement plusieurs centaines de flux pour la transmission en direct des JO d’hiver de PyeongChang. © NBC Sports Group

Partenaire technique de NBC Olympics depuis 2006, Grass Valley a mis en place pour les plateaux Tv de NBC à l’intérieur du centre IBC et dans divers emplacements des JO, une gamme de cartes d’encodage SME-1901 (SME-1901 Streaming Encoder) pour la distribution des signaux multi-format audio/vidéo sur IP. Ces matériels permettent notamment à l’équipe de NBC Olympics de contrôler directement les flux vidéo de n’importe quelle caméra, mais aussi de monter les images en basse et haute résolution depuis un ordinateur portable ou de bureau. Les cartes SME-1901 acceptent tous les formats vidéo et délivrent deux flux vidéo H.264 en haute et basse résolution. Elles sont intégrées à un rack Densité 3+ FR4 Frame à côté d’’un convertisseur XVP-3901 pour le traitement des signaux vidéo, audio et des métadatas. Le XVP-3901 dispose de sorties 3G, HD et SD. Il prend en charge la conversion up/down/cross du signal et des couleurs, la synchronisation d’image, l’en(dé)-capsulage audio et dispose E/S fibre optique.

Gary Zenkel, President, NBC Olympics; Mike Tirico, NBC Olympics Primetime Host; and Jim Bell, President, Production and Executive Producer, NBC Olympics

Gary Zenkel, président, NBC Olympics ; Mike Tirico, présentateur vedette NBC Sports ; et Jim Bell, président et producteur exécutif, NBC Olympics. © NBC Sports Group.

Pour assurer la fluidité des signaux durant la production, NBC Olympics utilise le système iControl de monitoring et de contrôle (QC) de l’ensemble de son workflow (détection des macroblocks, des décalages audio…).

NBC Olympics PyeongChang Games IBC Rooftop Winter Lodge Set

Un des plateaux Tv de NBC Sports sur le toit de l’IBC. © NBC Sports Group.

Avec iControl, l’équipe de production a mis en place un monitoring de surveillance pour les opérateurs QC, regroupant plusieurs fonctions pilotables via une seule interface graphique qui facilite la réactivité des équipes. iControl assure la supervision du convertisseur XVP-3901, le suivi du flux de forme d’onde (WFM) et le contrôle du routeur QC. Il améliore également le contrôle des images en permettant aux opérateurs de choisir des flux spécifiques qu’ils souhaitent particulièrement superviser.

2018 Winter Olympic Games

Ambiance sport d’hiver lodge pour un des plateaux Tv de NBC Sports. ©NBC Sports Group.

Grass Valley a également installé d’autres systèmes pour la couverture des JO d’hiver par NBC Olympics, comprenant :

  • Un panneau de contrôle Densité Remote Control Panel pour les cartes Densité.
  • Trois routeurs NVISION 8500 HYBRID avec leur interface graphique offrant un contrôle simplifié des signaux audio/vidéo.
  • Le routeur NVISION Compact CQX avec ses sorties propres et silencieuses pour les signaux 3G/HD/SD associées à 6 sorties auxiliaires pour le preview ou le monitoring des transitions audio et vidéo.
  • LUMO Series High Density Fiber Converter, convertisseur fibre pour fluidifier le câblage de la production dans un boîtier 1U avec 36 convertisseurs fibre SFP.
  • 34 mosaïques Kaleido-IP Multiviewers pour le contrôle des sources IP et SDI sur un seul moniteur.
NUP_181795_0009.JPG

Le centre de hockey Gangneung au parc olympique Gangneung. © NBC Sports Group.

Afin d’être réactif aux événements sur place, Grass Valley a livré 3 routeurs NVISION 8500 Hybrid et plusieurs mosaïques Kaleido en caissons transportables (flypack) pour leur déplacent d’un lieu à un autre.

« Il s’agit de la 8ème fois consécutive que NBC Olympics travaille avec Grass Valley sur son infrastructure au sein de l’IBC et dans ses différents lieux d’installation », note Terry Adams, ingénieur centre international de diffusion (IBC) et vice président de NBC Olympics. « Pour un événement comme les JO, nous devons gérer des centaines de flux entrants et sortants, dans de multiples endroits, tous exigeants du routage, du contrôle et de la surveillance. Les solutions fournies par Grass Valley permettent de gérer de façon proactive tous ces workflows complexes dans un environnement hautement sensible lié à la diffusion en direct des différentes compétitions ».

Introduction to OLEDs video

Par pico

OLED displays are currently the most advanced displays in production, offering superior image quality, efficiency, flexibility and more. Here's our new short video that introduces OLED display technology and the current market status:

InfoComm Brazil 2018

Par yannickkohn

InfoComm Brazil 2018 – Epson Booth

April 2018, Sao Paulo – Brazil

Credit

  • Client : Epson
  • Content Creation : Allumage
  • Mapping / Tracking Integration : Allumage
  • Tracking Technology : Modulo Kinetic

Open Doors day – Skynight

Par yannickkohn


Skynight – Open Doors Open day 2018

April 2018, Geneva – Switzerland


For it’s open doors day, Skynight in collaboration with Key Labs, created a racetrack projected on the floor of it’s warehouse, with real remote-control cars racing onto it.
To make the experience close to video games, the cars would flash in red every time they were out of the track and particles were generated in real time to create exhaust fumes behind the vehicles.
A smaller 2D version of the racetrack was displayed on a TV screen, giving information about the real-time position of each car and the number of laps it had completed.

This was all made possible thanks to BlackTrax technology to track the cars in real-time, and Modulo Kinetic using the tracking information to generate real-time particules and other projection effects on the moving cars.

Credit

  • Creation : Key-lab & Skynight
  • BlactTrax & Modulo Kinetic operator : Marc Frezza

Scénographie permanente avec des kits Olga en club

Par severine

  Aelion Project éclaire la nuit avec Olga et HeavyM   Vous avez déjà entendu parler du studio de design visuel Aelion Project, . . .

The post Scénographie permanente avec des kits Olga en club appeared first on blog.

La profondeur de champ expliquée

Par Sébastien François

Le profondeur de champ, (PdC, DoF – Depth of Field), c’est tout simplement la zone d’une image qui sera au point par rapport à votre position. Cette zone qui varie de quelques centimètres à plusieurs dizaines de mètres est directement influencée par la taille du capteur, l’ouverture (Iris), la longueur de votre focale et la distance de mise au point. Profondeur de champ faible? Seul votre sujet sera net. Grande profondeur de champ, toute l’image sera au point.

la profondeur de champ - schéma

Le profondeur de champ illustrée. Source: http://rubbingpixels.com

Nous n’allons pas ici rentrer dans les formules mathématiques complexes, mais plutôt essayer de vous donner les règles principales afin d’obtenir, soit une faible profondeur de champ, soit au contraire une immense profondeur de champ (qui tendra vers l’hyperfocale, c’est à dire que tout est net).

Pourquoi vouloir jouer sur la profondeur de champ?
exemple de faible Pdc

Un exemple de faible profondeur de champ dans le film Bounty Hunter

La question semble stupide, mais pourquoi ne pas vouloir que tout soit au point? Tout d’abord par intention artistique. C’est le cinéma avec ses codes, ainsi que la photographie qui nous ont éduqués à vouloir détacher un acteur ou un sujet de son arrière plan: l’image est esthétique puisque l’attention est focalisée sur l’action et pas ailleurs (qui sera flou avec un effet de Bokeh). A l’inverse, quand on couvre des news, on a plutôt intérêt à ce que tout soit net et surtout, on n’a pas vraiment le temps de corriger le point en courant derrière un sujet. Autre application, quand on tourne sur une Gimbal (nacelle comme le Ronin-s). Les mains étant occupées, soit on se fie à l’autofocus de la caméra, soit on passe en hyperfocale pour être sûr du point (puisqu’on n’a pas de 3ème main pour le faire seul à la volée).

Les règles: taille du capteur, ouverture, longueur focale, distance de mise au point:
  • 1. La taille du capteur: elle influe sur la profondeur de champ, mais pas autant qu’on le croit:  à focale, ouverture et cadrage identique, il faudra « plus se rapprocher du sujet » quand on travaille avec un grand capteur pour obtenir le même cadrage qu’avec un petit capteur, ce qui aura un effet sur le flou d’arrière plan produit. Plus un sujet est proche de l’objectif, plus la profondeur de champ est réduite. C’est la distance nécessaire qui influe donc sur la profondeur de champ.
  • 2. L’ouverture: c’est le paramètre principal pour contrôler la profondeur de champ. C’est très simple. Plus on ouvert (f/2.0 par exemple), plus la profondeur de champ est réduite. A l’inverse, plus on ferme et plus tout est net. On peut contrôler la quantité de lumière en jouant sur les filtre neutres. (cf notre article sur l’exposition).

A f/11 l’arrière plan est presque net

 

comparaison d'ouverture

A f/1 l’arrière plan est flou, comme on le voit sur ce simulateur en ligne

  • 3. La longueur de la focale: là encore, la donnée est importante. Avec un 24mm (en Full Frame), donc un très grand angle, tout aura tendance à être très net (même avec une grande ouverture). Il vous faudra vous rapprocher énormément de votre sujet pour rendre l’arrière plan flou. A l’inverse avec un 85mm (et au delà, les téléobjectifs), la zone de mise au point est naturellement très réduite et il faudra fermer beaucoup pour rendre l’arrière plan net.
  • 4. La distance de mise au point: vous l’aurez compris avec les notions précédentes, plus un sujet est loin, plus il se confond avec l’arrière plan et se rapproche de la zone d’hyperfocale. Autrement dit, tout va être net. La seule manière de le détacher est d’utiliser un gros zoom. Plus il est proche, et même avec un petit capteur, plus l’arrière plan sera flou.
    Profondeur de champ faible

    Le sujet est très proche: la profondeur de champ est de quelques centimètres

    Quelques exemples pour mesurer l’influence de la distance de mise au point, de la longueur de focale et de l’ouverture.
  • Dans la petite galerie ci-dessous, on a utilisé un GH5 d’abord avec le 12-60mm (f/2.8-4) en se rapprochant et en étant ouvert à 2.8 puis en s’éloignant (ouvert à 4.0 puisque que l’ouverture est glissante). Ensuite, on a simplement utilisé un optique 55mm, toujours ouvert à 2.5 et en changeant la distance de mise au point de 20 cm à 3 mètres.
    Cliquer pour visualiser le diaporama.

Attention, la zone de mise au point suit une règle d’or. Si vous faite le point sur un sujet et que la profondeur de champ (zone nette) est de 3 mètres, vous pouvez considérer que tout sera net: 1 mètre devant le sujet et 2 mètres derrière lui: c’est la règle des 1/3 – 2/3.

Pour aller plus loin et essayer différents réglages, je vous recommande d’aller faire un tour sur https://dofsimulator.net/en/

 

L’article La profondeur de champ expliquée est apparu en premier sur Createinmotion.

ProRes RAW: la RAW-volution?

Par Alexandre Médan

Le ProRes Raw a été annoncé lors du dernier NAB et depuis quelques semaines, on peut l’enregistrer sur les Atomos Sumo et Shogun Inferno depuis la sortie d’une EVA1 par exemple. Mais au fait, le ProRes RAW, qu’est ce que c’est? Est-ce vraiment une révolution, et… Comment ça marche? Petit tour d’horizon des possibilités offertes, et des limites.

Le RAW, pour ceux qui l’ignorent, c’est la possibilité en vidéo, de faire la même chose qu’en photo: enregistrer absolument toutes les données brutes du capteur sans aucun traitement de la caméra et confier cette tâche d’interprétation de l’image à la post-production.

Avec le RAW, c’est un peu comme si on développait une pellicule après la prise de vue. Avantage: on ne perd rien en terme d’informations et on peut donc quasiment tout rectifier en colorimétrie etc. On augmente aussi la dynamique puisque dans les très hautes lumières et les ombres, on peut récupérer presque tous les détails. Inconvénient majeur, le poids des données est énorme. Il peut atteindre 1 Go/s soit des Tera-octets de données pour une seule heure. Ceci suppose d’enregistrer sur des médias qui soutiennent ce débit, mais aussi de disposer d’une machine de post-production ultra puissante pour traiter les images. Et ne parlons pas du temps de calcul. Pour résumer, tourner en RAW n’est pas à la portée de tout le monde.ProRes-RAW process

La promesse d’Apple, s’affranchir de toutes les contraintes du RAW

Le ProRes RAW, sur le papier, c’est un peu le beurre et l’argent du beurre. La baseline l’annonce clairement:
prores RAW slogan

« La performance du ProRes, et la flexibilité du RAW ». Ok, en effet, quand on lit le White Paper édité par Apple, il y a de quoi s’enthousiasmer. En effet, le constructeur offre des débits équivalents en RAW et en ProRes « classique »! On arrive donc à des seuils tout à fait gérables sur des enregistreurs accessibles: les Atomos avec même bientôt le Ninja V (mais pour l’heure aucune caméra ne sait sortir du RAW en HDMI). L’intention est donc bien d’uniformiser tous les formats RAW autour de cette plateforme unique puisque pour le moment, chaque constructeur a le sien. Mieux, en termes de performances, le format est promis comme étant bien plus optimisé, ce qui permettrait même à des portables de le monter.

atomos table: prores-raw-performance

Ce tableau montre que le ProRes RAW utilise le même débit qu’un ProRes 422 HQ… Pour du RAW

ProRes RAW: on a donc testé

Nous avons téléchargé sur Internet des fichiers ProRes RAW depuis filmplusgear.com et Media division. Et nous les avons passé sur notre MacBook Pro, modèle 2015. Autrement, une machine avec une mini carte graphique et qui n’est plus tellement d’actualité. Premier constat: ça passe sans problème, même si la machine souffre en calculant nos modifications en tâche de fond. On arrive à lire les fichiers de manière fluide, alors que pour d’autres types de fichiers RAW, il nous faut passer sur notre « vraie » machine de montage, qui est équipée de 64 Go RAM et d’une très grosse carte graphique pour parvenir au même résultat.
Deuxième constat, la récupération d’informations a priori disparues, est bien réelle. Pour vous en convaincre, il suffit de le constater ci-dessous.

ProRes RAW Ungraded 01 ProRes RAW graded 01 ProRes RAW Ungraded 02 ProRes RAW graded 02

Malgré tout, les outils disponibles dans FCP X ne permettent de pousser autant les choses que dans Resolve par exemple. Et c’est ici qu’on arrive aux limites des promesses du ProRes RAW.

ProRes RAW, quelques incertitudes

Premier point noir, le format est exclusivement réservé pour le moment à Final Cut Pro X. Et aux enregistreurs Atomos. Nul ne dit pour l’heure si Premiere Pro ou DaVinci Resolve vont se conformer à Apple alors qu’ils disposent eux-mêmes d’autres formats de traitement du RAW. De plus, le format ne pourrait concerner que les Mac et pas les PC pour des raisons de licence. Pire, Apple a depuis longtemps laissé pour compte les grosses machines pour se concentrer sur les iMac et les MacBook Pro. Pour traiter du RAW même en Prores, sur de grosses productions, il faut des chevaux et donc attendre la sortie d’un nouveau MacPro.
De plus, côté fabricants de caméra, tous ne joueront pas forcément le jeu. Si Panasonic a bien débloqué la sortie RAW de son EVA1 avec la dernière mise à jour, nul ne dit si les autres feront de même. Autant de paramètres qui font passer de l’optimisme à l’attentisme. L’année à venir devrait voir cette situation se décanter.

Pour aller plus loin, je ne saurais trop vous recommander de regarder cette vidéo de yakyakyak.fr. Elle couvre absolument tous les aspects de ce nouveau format.

ProRes Raw, un exemple parlant

Eva from Televisual Media on Vimeo.

Le tout a été tourné avec une EVA1 et la suite Atomos. Vous pouvez lire les commentaires du réalisateur (en anglais) sur http://www.televisual.com/blog-detail/Televisual-Creative-film-EVA_bid-1020.html

 

 

L’article ProRes RAW: la RAW-volution? est apparu en premier sur Createinmotion.

V-LOG, comment bien exposer ses images?

Par Alexandre Médan
Tourner en V-Log, c’est excitant. La promesse sur le papier, c’est d’étendre la dynamique de la caméra et d’avoir une latitude d’étalonnage bien plus forte en post-production. Oui, mais voilà, le V-Log, il faut le maîtriser parfaitement au tournage, sans quoi, la désillusion est totale: la génération de bruit involontaire est le principal écueil à éviter. Le secret, c’est donc de bien exposer, mais aussi de faire des choix.

Une vidéo tournée en Log, n’est pas regardable en l’état. Elle apparait délavée et plate. C’est normal puisque l’objectif étant de conserver un maximum d’informations du capteur afin d’avoir l’image la plus « malléable » possible en post-production, la caméra va « désactiver » un ensemble d’opérations qu’elle effectue d’habitude toute seule. Surtout elle va employer une courbe de transfert Logarithmique (d’où le Log), pour retenir le maximum d’information du capteur. Cette courbe a l’avantage d’aller « chercher » tous les détails de l’image, mais elle a pour gros inconvénient de ne pas être optimisée pour notre vision et surtout, d’être bien plus exigeante en terme d’exposition. Elle méritera aussi bien plus de travail de post-production. A la clé cependant, une image bien plus détaillée, et bien plus « ciné ».

Vlog_versus_natural Vlog_versus_Natural_Zoom

Le V-Log, pas fait pour regarder, bon à retravailler.

La plupart des courbes de gamma internes des caméras (les profils comme « naturel », « standard »… chez Panasonic), sont conçues pour montrer à l’écran ce que perçoit notre vision. Pratique, car l’image est flatteuse, mais il existe un énorme inconvénient: la dynamique de l’image est plus réduite. Pourquoi? Parce que la courbe va privilégier les informations les plus « visibles » (et souvent, celles dont la luminosité est médiane comme les skin tones). Conséquences, les pixels sombres et les pixels très exposés sont assez mal lotis.Du coup, les ombres sont souvent détériorées (noirs écrasés), si vous essayez de les corriger en post-production, vous verrez l’apparition du phénomène de « Banding » (des aplats très vilains). L’avantage du VLOG-L est que la répartition des « bits » disponibles pour les pixels lumineux et les pixels sombres est beaucoup plus équilibrée. Les zones claires et « moyennes » disposent du même nombre de nuances de gris enregistrées, et même si les zones sombres en ont légèrement moins, elles en ont toujours nettement plus qu’en utilisant une courbe de gamma conventionnelle qui elle va bien plus ressembler à un « S ».

La courve V-Log de la Varicam

La courbe V-Log de la VariCam: on voit bien que les information sont assez bien réparties.

En conséquence le VLOG- est un mode adapté à l’enregistrement, mais pas vraiment à la visualisation. Mais ceci pose un énorme problème: comment correctement exposer et faire une bonne balance des blancs sur une image aussi « flat » (plate)?

V-Log, injecter une LUT dans la caméra ou le moniteur

Au début de l’arrivée du Log, on était bien embêtés: pas de moyen de visualiser en temps réel l’application d’une LUT (Look Up Table) pour traduire l’image grisâtre en quelque chose de visible et qui permettrait donc a minima de vérifier que les couleurs sont à peu près bonnes, tout comme l’exposition. La LUT est une manière d’interpréter l’image et c’est un peu la première étape en post-production. Depuis, les choses ont bien changé. GH5(S), EVA1 ou les VariCam pour ne citer qu’elles permettent de charger des LUT et d’activer/désactiver leur interprétation. Il en va de même pour la plupart des moniteur externes. Et ça peut aider bien sûr, mais ce n’est pas une solution ultime car cette fonction applique de façon automatique une courbe de gamma donnée, dont le résultat peut tout à fait ne pas correspondre à la façon dont on aurait retravaillé ses images manuellement. C’est donc une prévisualisation que l’on pourrait qualifier de « raisonnable », mais à laquelle on ne doit pas totalement se fier dans la mesure où  l’on aurait pu faire des choix d’étalonnage très différents.

Vlog_InCameraLut01

L’image en V-LOG-L d’une GH5 et l’injection de la LUT de base de Panasonic (Rec709)

Alors, comment bien exposer ?

Mais revenons à l’exposition. Il est nécessaire d’utiliser les zébras, l’oscillo et l’histogramme pour la maîtriser en VLOG, mais il ne faut pas le faire de la même façon que sur un tournage avec une courbe de gamma quelconque. En effet, les niveaux qui peuvent nous être familiers (70 IRE pour les tons chairs et 100 IRE pour les hautes lumières par exemple) ne sont tout bonnement pas adaptés au VLOG: pourquoi parce que la courbe ne suite plus les mêmes valeurs de « S » en fonction de l’expo.

Un exemple tout simple avec le GH5 et le VLOG-L, les très hautes lumières vont commencer à apparaître dans les zébras et sur l’oscillo, vers 80 IRE, et rien au-delà de 81 IRE ne sera visible, jamais. Même en ouvrant l’iris à son maximum et en pointant la camera vers le soleil, on ne verra jamais rien au-delà de 81 IRE. C’est tout à fait normal : le VLOG a été conçu à l’origine pour la VariCam qui dispose d’une plage dynamique de 15+ stops. Le VLOG-L traite les ombres et les tons moyens comme le VLOG, mais dans une limite de 12 stops, donc avec une limite à 80 IRE. La VariCam elle aura des références différentes: on le voit, chaque Log a ses particularités.

Vlog-L light

Les distribution de la dynamique d’une GH5. Source: https://wolfcrow.com/

Ça peut sembler un peu limité mais en fait il n’en est rien car il est possible d’utiliser les mêmes LUTs que celles de la VariCam puisque la répartition des gris est la même pour le VLOG-L et le VLOG. Il faut comprendre les niveaux et les limites du capteur à respecter et pour faire court, il faut intégrer qu’il n’est pas possible d’exposer des tons chair à 70 IRE ou des gris moyens à 55 IRE en VLOG-L. Ces niveaux vont devoir être nettement plus bas.

1- L’exposition à droite (Exposure To the Right), une vraie bonne idée?

Cette technique implique l’utilisation de l’histogramme. Cet outil montre la répartition de la luminosité dans l’image et plus l’image tendra vers les hautes lumières, plus la courbe de l’histogramme se déplacera vers la droite. Les promoteurs de cette technique considèrent que les tons les plus foncés et les ombres sont les zones les plus bruitées d’une image et qu’en faisant sortir une image de la zone sombre il est possible de mieux la retravailler en post-production. Autrement dit : plus on expose à droite, plus on profite des capacités du capteur et surtout, plus on va pouvoir obtenir une image détaillée. Souvenez-vous de ce dont nous parlions sur la répartition des bits : les hautes lumières et les tons moyens se voient allouer le même nombre de bits (c’est-à-dire d’information) alors que les zones sombres en ont moins à disposition. Donc moins l’image n’a de zones sombres plus son contenu sera détaillé, et rien n’empêchera plus tard de l’assombrir de nouveau. Cette technique souffre d’un gros inconvénient: elle implique énormément de travail en post-production pour rééquilibrer toutes les images et elle peut plus facilement nécessiter un débruitage long et pénible.

2- Le gris 18%, l’oscillo, les zebras et les « Falses colors », vos meilleurs amis.

x_rite_colorchecker_passportLes systèmes vidéo font souvent référence aux « gris moyens » ou aux « gris 18% ». Le gris 18% est un standard en vidéo et en photographie, il s’agit d’une nuance de gris qui reflète 18% de la lumière qu’elle reçoit. Elle est très souvent utilisée sur les cartons de test et il est très facile de s’en procurer dans les magasins spécialisés. Une réflexion de 18% représente la réflectance moyenne d’une scène moyenne, d’où le fait que l’exposition automatique d’une caméra est souvent conçue pour exposer correctement les zones de l’image dont la réflectance est d’environ 18%. En utilisant cette technique d’exposition, vous trouverez que l’oscillo et les zébras sont bien plus utiles que l’histogramme.

Contrairement un une courbe de gammas conventionnelle, et pour reprendre l’exemple du VLOG-L, ce dernier n’expose pas les gris moyens à environ 50 ou 55 IRE. Il les exposera en réalité à 42 IRE, donc avec un gris moyen, il vous faut le voir apparaître sur votre oscillo à environ 42 IRE pour une exposition « propre », c’est-à-dire standard.

Pour information, voici les niveaux de réflectance du mode VLOG-L :
0%  de réflectance (noir) : 7,3 IRE
18% de réflectance (gris moyens) : 42 IRE
90% de réflectance (blanc) : 61 IRE
Super blanc absolu : 80 IRE

Oscillo-exemple

Sur cet exemple, l’oscillo montre une sous-exposition: pour être bien, je devrais atteindre mes 80 IRE dans les blancs.

Cependant, exposer pour un mode gamma logarithmique n’est pas toujours aussi simple que de mettre un carton à 18% dans le décor et d’exposer à 42 IRE. On peut donc parfois se demander si un équilibre judicieux entre la technique de l’exposition à droite et celle de l’exposition des gris moyens, même si ça peut s’avérer compliqué, ne serait pas la meilleure solution. Finalement tout dépend des compromis que l’on est prêt à accepter. C’est pour cette raison, que pour chaque caméra, vous devez utiliser en conjonction: l’injection de la LUT de base (ou de celle que vous utiliserez en post-production si vous être sûrs de votre coup et voir le bruit généré), l’oscillo afin de visualiser vos valeurs, mais aussi les Zebra afin d’avoir une « alerte directe » sur l’écran quand vous cramez les informations.
Les fausse couleurs (false colors), sont une autre représentation qui donne des couleurs relatives à l’exposition suivant une échelle, comme le montre cette image.

false colors

L’utilisation de tous ces outils vous permet de « savoir » dans quelle zone IRE les informations seront les mieux traitées pour chaque caméra. Et surtout cela va vous permettre de faire des choix de réalisation. Devez-vous privilégier exceptionnellement un arrière plan? Ou plus conventionnellement un sujet? Faut-il rapporter de la lumière pour homogénéiser le tout? A partir de quand génère-t-on du bruit qui sera difficilement traitable en post-production? De là se dégageront des « règles » pour chaque machine.

Un mot sur les LUTs


Les LUTs (Look Up Tables) sont utilisées pour l’étalonnage, pour expliquer à un moniteur comment afficher correctement une valeur qui a été encodée de façon logarithmique. Les LUTs sont devenues assez communes. Beaucoup de logiciels de montage ou d’étalonnage sont capables de les utiliser, de même que beaucoup de moniteurs externes ou d’enregistreurs externes. Donc avoir un bon fichier LUT dans son moniteur permet d’avoir une bonne idée de ce à quoi ressemblera effectivement ce que l’on est train de filmer une fois étalonné.

Maintenant, comment est-ce que cela fonctionne ? Une LUT transforme une certaine valeur d’un fichier vidéo en une autre donnée pour son affichage. Elle va donc vérifier l’information liée à la couleur et au gamma de la source et la transformer en une autre valeur de couleur et de gamma pour que l’affichage de cette dernière corresponde à la volonté de l’opérateur. Pour chaque valeur d’entrée donnée il existe une seule valeur de sortie qui ne varie jamais. Jusque-là tout va bien, ça semble assez simple, mais les gens oublient souvent que chaque modèle de caméra va attribuer des valeurs de colorimétrie bien spécifiques à ce que son capteur aura repéré. Ça implique que la même LUT traitera différemment les informations provenant de cameras différentes. Donc si l’on tourne en DVX200 et que l’on souhaite obtenir une image « réaliste », il faut utiliser une LUT qui a été spécialement développée pour la DVX200 et non pour une autre caméra. Concrètement, cela signifie que même si la DVX200, la VariCam et le GH5 utilisent le VLOG, leurs capteurs sont différents et se comportent différemment, donc la même LUT appliquée à ces trois modèles ne produira pas précisément les mêmes résultats. Dit comme ça, ça semble évident n’est-ce pas?

Ceci étant dit, on peut tout de même utiliser la LUT de son choix car au final le résultat doit correspondre à son goût et si une LUT dédiée à une autre caméra donne des résultats plus satisfaisants ou plus créatifs, allons-y !

L’article V-LOG, comment bien exposer ses images? est apparu en premier sur Createinmotion.

Promo EVA1: 500 euros d’accessoires offerts jusqu’au 30 Septembre

Par Sébastien François

Après la promo « 500 euros remboursés pour l’achat d’une EVA1 », Panasonic vous offre désormais immédiatement 500 euros d’accessoires. Vous pourrez en bénéficier auprès de tous les revendeurs partenaires.

Eva_PromoBannerSummer_French

Les modalités sont simples: il suffit de se rendre chez un revendeur partenaire et ce dernier vous offrira 500 euros TTC d’accessoires de son catalogue. Voici un extrait des conditions de l’offre:

Conditions de l’offre :

1) Lors de l’achat d’une caméra EVA1 (AU-EVA1EJ) chez un Loca Images entre le 16 juillet 2018 et le 30 septembre 2018, vous bénéficierez d’un crédit d’un montant maximal de 500 euros TTC à valoir sur des accessoires disponibles au catalogue Loca Images.
2) Condition préalable de participation : l’achat d’une caméra EVA1 (AU-EVA1EJ).
3) Cette promotion est limitée aux utilisateurs finaux professionnels qui achètent une caméra par l’intermédiaire de Panasonic Marketing Europe GmbH. Cette promotion n’est pas ouverte aux grossistes et revendeurs.
4) Cette promotion n’est valable que pour les achats effectués par des utilisateurs finaux professionnels au Royaume-Uni, Irlande, Suisse, France, Italie, Allemagne, Autriche, Norvège, Suède, Danemark, Estonie, Lettonie, Lituanie, Espagne, Portugal, Chypre, Belgique, Luxembourg, Pays-Bas, Malte, Hongrie, Slovénie, Croatie, Serbie, Macédoine, Albanie, Bosnie-Herzégovine, Kosovo, Monténégro, République Tchèque, Slovaquie, Pologne, Roumanie, Islande, Liechtenstein, Monaco, Andorre, Bulgarie, Finlande et Grèce, chez un revendeur participant.
5) Les accessoires obtenus dans le cadre de cette promotion sont non échangeables et non transférables. Le montant de ces accessoires ne peut pas être versé sous une autre forme (espèces ou autres).
6) La promotion est valable jusqu’à épuisement des stocks.
7) En cas de circonstances imprévues, le promoteur se réserve le droit de proposer une solution alternative.
8) Toute taxe liée à la promotion est à la charge de l’utilisateur final professionnel.

PROTECTION DES DONNEES ET DE LA VIE PRIVÉE

9) Le responsable du traitement des données est Panasonic Marketing Europe GmbH, Hagenauer Str. 43, 65203 Wiesbaden, Allemagne ; Marketing Broadcast & ProAV.
10) Afin de bénéficier de cette promotion, l’utilisateur final professionnel accepte que son revendeur transmette une copie de sa facture ou de tout document probant au Promoteur. Toute information personnelle fournie par un utilisateur final sera utilisée par Panasonic et les revendeurs participants uniquement aux fins de cette promotion et conformément à la législation sur la protection des données.
11) Les types de données recueillies : titre, prénom et nom, adresse postale, pays de résidence et informations sur le produit.
12) Toutes les données seront effacées 7 jours après la fin de la promotion.

CONDITIONS GÉNÉRALES

13) En réclamant ces accessoires dans le cadre de cette promotion, les participants reconnaissent avoir lu et accepté ces termes et conditions.
14) Le promoteur se réserve le droit de vérifier l’admissibilité de toutes les réclamations afin de se protéger contre les réclamations frauduleuses, invalides ou répétitives.
15) Le promoteur se réserve le droit de modifier les présentes conditions générales à tout moment et de modifier ou de retirer cette promotion à tout moment.
16) Une seule réclamation par produit admissible acheté peut être faite.
17) Le droit allemand s’applique.

Plus d’informations ici. 

 

 

L’article Promo EVA1: 500 euros d’accessoires offerts jusqu’au 30 Septembre est apparu en premier sur Createinmotion.

SONY lance une nouvelle promotion Cashback

Par Andrea

Trade-In PXW-Z90 ou HXR-NX80

Du 1er juillet au 30 septembre 2018, achetez une nouvelle caméra PXW-Z90 ou HXR-NX80, rapportez votre ancienne caméra et vous recevez un cashback de 300€ net.

Début de la promotion (produit acheté après cette date, date de facturation) : 01/07/2018
Fin de la promotion (produit acheté avant cette date, date de facturation) : 30/09/2018
Date limite pour réclamer un remboursement en ligne : 31/10/2018

Étapes à suivre :

  1. Vous nous ramenez votre ancienne caméra professionnelle avec une entrée audio XLR, toutes marques confondues, reflex numériques DSLRs exclus.
  2. Connectez-vous sur le site PromoPlace de Sony et réclamez votre cashback de 300€ net https://end-user.promotions.sony.eu/ . Pour faire votre demande, il est nécessaire d’indiquer le numéro de série ainsi que le modèle de l’appareil rendu à TRM.
  3. Vous recevez le cashback directement sur votre compte bancaire.

Vous avez des questions sur cette offre ? Trouvez des réponses dans la FAQ ici.

CashBack PXW-Z150 #terminée

Du 1er juillet 2018 au 30 août 2018 inclus, Sony vous rembourse 450€ pour l’achat d’une nouvelle caméra PXW-Z150 !

Début de la promotion (produit acheté après cette date, date de facturation) : 01/07/2018
Fin de la promotion (produit acheté avant cette date, date de facturation) : 31/08/2018
Date limite pour réclamer un remboursement en ligne : 30/09/2018

Comment participer ?

  1. Achetez un produit éligible pendant la période promotionnelle
  2. Scannez la facture
  3. Prenez une photo du numéro de série de votre produit
  4. Préparez vos coordonnées bancaires. Vous trouverez des informations sur les formats IBAN et BIC dans la FAQ. Veillez à ne pas insérer d’espaces.
  5. Cliquez ici pour remplir le formulaire de participation
  6. Vous recevrez lors du processus :
  • Un code de remboursement commençant par 147524… (13 chiffres)
  • Un e-mail de confirmation indiquant si votre demande est conforme, si vous devez envoyer des informations complémentaires ou si votre demande est rejetée
  • Si votre demande est conforme, vous recevrez ensuite une confirmation que le remboursement sera prochainement effectué sur votre compte

Pour plus d’informations, consultez la FAQ dédiée à la promo “Cashback PXW-Z150”.

L’article SONY lance une nouvelle promotion Cashback est apparu en premier sur TRM.

Thierry Drilhon (Euromedia) nommé Président de la Chambre de Commerce & d’Industrie Franco-Britannique

Par Cine.Tv.Industry

Euromedia_Thierry Drilhon

Le conseil d’administration de la Chambre de Commerce & d’Industrie Franco-britannique vient de nommer Thierry Drilhon Président de la Chambre avec effet immédiat.

«Je suis très honoré  de cette nomination et suis conscient  des enjeux pour nos deux pays à ce moment clé de notre histoire. Je continuerai avec la même passion le travail remarquable entrepris par Olivier Campenon et toute l’équipe de la Chambre pour faire entendre la voix des entreprises et contribuer ainsi à construire des relations commerciales fortes et pérennes entre nos deux nations » a-t-il déclaré.

Agé de 53 ans, Thierry Drilhon est diplômé de l’EAD Paris et de l’université de Stanford aux USA, il intervient comme Senior Advisor du fonds Francisco Partners et est Administrateur des sociétés Beijaflore, Synapscore et Tiaré Groupe. Il était également Vice-Président de la Chambre.

Il prend la présidence de la Chambre à un moment clé de ses 145 ans d’existence, exactement deux ans après le Référendum historique qui aboutira à la sortie de l’Union Européenne du Royaume Uni.

Le Président sortant, Olivier Campenon, a œuvré pendant ses deux années de mandat pour rapprocher les communautés franco-britanniques dans ce contexte nouveau et pour représenter avec fermeté la position et les intérêts des entreprises pendant les discussions à Londres et à Bruxelles. Le conseil d’administration a tenu à le remercier vivement pour son engagement sans faille tout au long de son mandat.

SON PARCOURS

Thierry Drilhon met au service de la Chambre son expérience d’une longue carrière internationale. Après avoir exercé des fonctions exécutives chez DIGITAL (11 ans), MICROSOFT (5 ans), il rejoint CISCO en 2000 comme CEO France puis Vice-Président Europe puis enfin, au niveau mondial, Senior Vice- Président Corp. en charge des Partenariats et Alliances et membre du Comité Exécutif.

Euromedia Car B40 UHD_8

Ces 5 dernières années, il pilote, en tant que Chairman et CEO, la transformation du groupe EUROMEDIA pour en faire le leader européen du Broadcasting au travers d’une profonde transformation, d’acquisitions (8) et de cessions mais aussi d’un renouvellement de l’actionnariat, avec l’entrée du fonds PAI, permettant ainsi de soutenir le développement du groupe. Il a développé durant toutes ces années un important savoir-faire en termes de leadership direct ou par influence.

EUROMEDIA a atteint des résultats record en 2017 avec un Ebitda de 72 millions d’Euros pour 360 millions de Chiffre d’Affaires.

Adepte d’une vision “Francoptimiste”, il est l’un des cofondateurs des “Etats de la France” qui réunit depuis 12 ans des dirigeants de grandes entreprises pour établir un bilan de conjoncture Economique, Politique, Sociale et Internationale.

Passionné par les sujets d’éducation, il donne des conférences au MBA d’HEC depuis près de 10 ans.

Best-of des transitions… Au tournage

Par Sébastien François

Les transitions réalisées au tournage, c’est en fait anticiper deux plans successifs, et faire en sorte qu’ils se raccordent sans post-production (ou presque). A la clé, l’impression que la caméra a pu se transporter à deux endroits différents sans coupe. On a sélectionné ici 9 transitions faciles à faire « in camera ». Explications.

1- Les principes

Les exemples les plus communs de transitions « In camera » (au tournage), vous les connaissez sans doute: vous suivez un sujet, puis en fin de plan vous effectuez un tilt vers le ciel. vous changez d’endroit et vous commencez votre plan depuis le ciel et vous reprenez votre sujet… Qui a changé d’endroit. Pourquoi le ciel? Parce qu’il va donner une image bleue-blanche et que quand vous allez changer d’endroit, vous reprendrez ce bleu-blanc quasi identique, ce qui va donner l’impression qu’il n’y aucune coupe et que c’est donc de la magie.

Autre exemple, le fait que la camera traverse un mur (ou un objet) en travelling latéral pour suivre un sujet (dans un appartement, d’une pièce à l’autre par exemple). L’idée est ici de se servir du noir. Quand la caméra arrive au mur, on s’attend naturellement à passer au noir. Du coup, la combine consiste à se servir de l’opacité supposée de l’objet (en ajoutant du noir devant l’objectif par exemple) et à reprendre le même mouvement de l’autre côté (en enlevant le cache noir très rapidement). La clé aussi, c’est la rapidité du mouvement et sa continuité (dans quoi un fondu au noir suffirait), pour cacher les défauts. Dans l’exemple ci-dessous, ici de la série Sherlock, on voit précisément cette technique (améliorée par un masque en post-production) et baptisée « pass-by ».

  • le secret est donc toujours d’avoir une continuité du mouvement d’un plan à l’autre (de la caméra et de son sujet).
  • D’utiliser n’importe quel élément de décor comme source de la transition (le ciel, le mur, l’objet, un poteau).
2- Un peu de fun dans cet exemple

Dans cette vidéo de PremiumBeat, l’auteur à décidé de détourner l’utilisation de transitions in-camera pour réaliser des exemples plutôt rigolos: un clonage de personnage, un départ de course façon super héro, et un lancer de couteau. On vous laisse regarder. Même si c’est en anglais, vous allez comprendre et on vous explique après.

L’auteur utilise toujours le même mouvement ultra-rapide: un panoramique à la main (qu’il serait mieux de faire au trépied…) :

  • Le premier plan fixe le sujet, puis fait un panoramique vers la droite très rapide avec un shutter bas pour provoquer du flou de mouvement (1/50ème/180°) (voir notre article sur l’exposition.)  
  • Le second plan reprend le même panoramique, mais dont l’angle est inversé.
  • Au montage, il suffit de raccorder les deux plans pendant les deux panoramiques avec un fondu tout bête.
  • Pour la dernière scène du « couteau », comme le personnage ne va pas réellement saisir un couteau en plein vol, l’auteur utilise la ruse suivante. Le premier plan est identique aux autres (panoramique qui fait un gauche droite pendant le lancer du couteau). Le second plan est tourné à l’envers. Le clone est en position finale (couteau rattrapé) et le lance vers la gauche. La panoramique est un droite-gauche. Au montage, il suffit d’inverser la lecture du plan et le tour est joué.
3- La compilation plus classique

Dans cette vidéo Mango Street, montre tous les principes énoncés plus haut dans une compilation de 6 transitions « In camera ». Le visionnage suffit amplement à expliquer les techniques classiques.

4- Pour conclure

Vous l’avez vu, le principe ne varie jamais: un type de mouvement sur 2-3-4 plans et un élément de décor quel qu’il soit, pour masquer le raccord. Le perfection vient de la qualité du mouvement, de la synchronisation de la scène et de la précision de raccord au montage. N’hésitez pas à refaire plusieurs prises pour obtenir cette perfection du mouvement. Regardez aussi autour de vous, il y a toujours un élément de décor à utiliser, y compris le sol… Présent partout!

 

 

L’article Best-of des transitions… Au tournage est apparu en premier sur Createinmotion.

❌