Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 30 novembre 2021Vos flux RSS

B612 | Data Real-time Interactive Imaging Installation

Par : ctlab
B612 | Data Real-time Interactive Imaging Installation
Curated by Art ZHIYI, "Chant of the Present Imagery" is an exhibition organized for the 10th anniversary of Taikoo Hui Guangzhou. With an emphasis on data visualization and local links in artistic expression, this exhibition creates a space and time experiment and delivers a multi-dimensional experience.

@domes_studio @catach_culture + @domes_studio Part 3 :...



@domes_studio @catach_culture + @domes_studio

Part 3 : @bixente2000 @edredonsensible

Photos : @catach_culture / @mathiasbracho

#music #house #video #millumin #saxophone #party #saintmartindeseignanx
https://www.instagram.com/p/CWRVeqqKUBk/?utm_medium=tumblr

@paolo.morvan Reprise des concerts avec la scénographie réalisée...



@paolo.morvan Reprise des concerts avec la scénographie réalisée pour @romain__muller en version augmentée sur la scène de la Bam !
.
Conception et construction réalisé avec @julesbouit
.
Artiste @romain__muller
Musicien @axel_tcy
Lumière : @thibault.grh
Son : @annevandebrouck

Coproduction @zikamine x @bliiida avec le soutient de la région Grand Est et de la @citemusicale
.
#scénographie #scenography #light #show #eventdesign #stagedesign #lightinstallation #lightshow #newmediaart #stagelighting #creativedirector #zikamine #romainmuller #bliiida
#millumin @millumin2
https://www.instagram.com/p/CV8QXBtKAYP/?utm_medium=tumblr

À partir d’avant-hierVos flux RSS

Cinegy Air 21.9 and Multiviewer 21.11 Among Updated Solutions Being Showcased at IBC 2021  

IBC 2021, 3-6 December, Hall 7 Stand A01: Cinegy will highlight a range of solutions at IBC 2021, including Air 21.9 and Multiviewer 21.11, giving customers and partners an opportunity to learn about new functionality and features first hand. Mike Jacobs, Head of Professional Services at Cinegy will also participate in a panel discussion at the show; ...

The post Cinegy Air 21.9 and Multiviewer 21.11 Among Updated Solutions Being Showcased at IBC 2021   appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

SpotZilla, Ayrton relâche son ultime Huracán

Par : admin

Nous avons testé l’Huracán-LT, un nouveau monstre, une légende en devenir, un ouragan de lumière, un colosse aux mensurations oubliées, un nouveau choc. Lire la suite

L’article SpotZilla, Ayrton relâche son ultime Huracán est apparu en premier sur SoundLightUp..

Why Hydrogen Is Essential in the Global Journey Towards Net Zero

According to the International Energy Agency (IEA), hydrogen has a vast potential to become a critical part of a more sustainable and secure energy future. These findings are increasingly being turned into ambitions. For example, the 'EU Hydrogen Strategy' will see the EU prioritise green hydrogen...

PORTMAN Mantis, l’extraterrestre

Par : admin

Le dernier né de Portman, qui a le chic pour créer des luminaires spectaculaires et modulaires, pousse encore plus loin le concept d’un design affirmé, et joue de nouvelles cartes, celles de la LED et des couleurs. Lire la suite

L’article PORTMAN Mantis, l’extraterrestre est apparu en premier sur SoundLightUp..

Digital Pioneers : comme nous, soutenez ce documentaire !

Par : Shadows

Nous avons à de nombreuses reprises relayé le travail de Thomas Martin alias Gorkab, dont l’émission CGM sur Youtube s’intéresse à l’histoire des effets visuels au cinéma. Nous avions même déjà collaboré avec lui autour d’interviews réalisées durant la VIEW Conference à Turin, en Italie.

Il est aujourd’hui de retour avec un nouveau projet, et pas des moindres !
Il ambitionne de réaliser Digital Pioneers, un documentaire sur l’histoire du studio Digital Productions. Vous connaissez forcément leurs projets : les vaisseaux spatiaux de The Last Starfighter (1984), les nuages de Jupiter pour 2010: The Year We Make Contact (1984), la chouette animée du Labyrinth de Jim Henson (premier animal virtuel dans un film !)…

Le but du documentaire serait donc d’interviewer une partie de l’équipe de l’époque, mais dans de bonnes conditions : autrement dit, face à face, aux USA et avec une qualité de production digne de ce nom plutôt que de se contenter d’interviews mal cadrées sur Skype.

Pour y parvenir, et créer le documentaire d’1h30 environ au moins qui sera disponible en français et anglais, Thomas Martin a d’ores et déjà reçu le soutien du CNC, à hauteur de 15 000€. Il a également lancé une campagne Kickstarter afin de doubler ce budget et de pouvoir payer l’équipe, gérer la post-production, financer de l’animation et des VFX pour le documentaire.
C’est ici que vous intervenez : moyennant quelques euros, vous pouvez soutenir le projet. Votre don vous permettra de figurer au générique ou, selon le montant, de voir le film en avant-première (il sera à terme diffusé sur Youtube), d’obtenir des cartes postales avec les créations de Digital Productions, un Blu-Ray, des badges, pièces commémoratives en métal précieux ou encore la possibilité d’être crédité en tant que producteur exécutif.
N’hésitez pas à découvrir la page Kickstarter et la bande-annonce ci-dessous pour plus de détails !

Sachez enfin que 3DVF va bien évidemment soutenir financièrement ce projet ; nous aurons donc l’occasion de vous en reparler !

L’article Digital Pioneers : comme nous, soutenez ce documentaire ! est apparu en premier sur 3DVF.

Nouveaux firmwares et logiciel Luminex

Par : admin

Nous avons testé les nouveaux firmwares des gammes GigaCore et LumiNode Luminex, et la nouvelle version de son logiciel Araneo pour vous donner un aperçu des nouvelles fonctionnalités offertes par ces produits. Lire la suite

L’article Nouveaux firmwares et logiciel Luminex est apparu en premier sur SoundLightUp..

Les larmes de la Seine : les élèves de Pôle 3D n’oublient pas

Par : Shadows

Yanis Belaid, Eliott Benard, Nicolas Mayeur, Etienne Moulin, Hadrien Pinot, Lisa Vicente, Philippine Singer et Alice Letailleur dévoilent Les Larmes de la Seine.

17 octobre 1961, des « travailleurs algériens » décident de manifester dans les rues de Paris contre le couvre-feu qui leur a été imposé par la préfecture de police.

Un film qui mêle approche réaliste avec caméra à l’épaule et traitement plus surréaliste. Sur le plan artistique, on notera par ailleurs un soin manifeste apporté au surfacing (qui rappelle en partie celui du court Migrants de la même école) et au lighting.
Précisions enfin que le film n’est en ligne que temporairement, jusqu’au 24 octobre ; il reprendra ensuite son chemin dans les festivals.

Carlos De Carvalho, responsable de la formation film d’animation de Pôle 3D, explique que les étudiants « ont pensé ce film comme un devoir de mémoire, une recherche de compréhension », dans le but de « susciter la réflexion et la discussion ».

Pour plus d’informations sur le 17 octobre 1961, on pourra notamment se tourner vers France Info, qui a mis en ligne aujourd’hui un article relativement détaillé sur les faits, avec des témoignages, et qui retrace également l’historique de la reconnaissance officielle de la répression.

L’article Les larmes de la Seine : les élèves de Pôle 3D n’oublient pas est apparu en premier sur 3DVF.

Hot dog : un chien déterminé et amoureux

Par : Shadows

Flore Burban, Logan Cameron, Nicolas Diaz, Chloé Raimondo, Hugues Valin dévoilent leur court de fin d’études à l’Ecole des Nouvelles Images (promotion 2019) : Hot Dog.
On y suit un chien qui tente désespérément de rejoindre l’élue de son coeur…

Devant le portail d’une propriété bourgeoise et surveillée, un chien de la rue tombe sous le charme d’une chienne posée sur son balcon à l’autre bout du jardin. Déterminé et amoureux, il va tout tenter pour rejoindre et séduire sa belle.

Musique : Florian Blavec

L’article Hot dog : un chien déterminé et amoureux est apparu en premier sur 3DVF.

Interview : Nexus VI, les coulisses d’un épisode grandiose

Par : Shadows

Depuis 6 ans déjà, la chaîne Nexus VI écume Youtube et la galaxie, avec des vidéos consacrées à la science-fiction sous toutes ses formes.
En pratique, les vidéos Nexus VI se déroulent elles-mêmes dans un univers de SF à part entière, avec un vaisseau, son équipage, des extraterrestres variés et des aventures aux quatre coins de la galaxie, quelque part dans le futur.

Au début de l’été, le très ambitieux épisode 7 a été dévoilé : une analyse détaillée du film Le Cinquième Element, entrecoupée de rebondissements épiques. On y trouve notamment une séquence d’introduction bluffante de plus de deux minutes avec une mégapole futuriste, des combats spatiaux, un final brûlant.

La grande majorité de ce travail d’effets visuels est l’oeuvre de l’artiste Romain Toumi, qui a accepté de nous livrer les coulisses de ce projet hors du commun.
Voici l’épisode complet ; vous trouverez dessous les timecodes des principales séquences à effets visuels, mais nous vous invitons évidemment à regarder l’épisode complet, afin de profiter de l’ensemble des effets, de l’analyse et du scénario.

0:32 : début de la séquence d’introduction
13:03 : dogfight
15:46 : séquence du looping
16:01 : séquence inspirée de Star Wars VIII
17:10 : dogfight dans les astéroïdes
24:08 : hologramme
31:24 : scène du grappin
32:10 : début de la séquence finale

3DVF : Bonjour Romain ! Les personnes qui nous lisent connaissent sans doute déjà ton travail pour la chaîne Youtube Nexus VI, qui traite de science-fiction et cumule près de 230 000 abonnés. Tu as notamment géré l’immense majorité des effets visuels de l’épisode 7 sorti cet été, un travail impressionnant du point de vue de sa qualité, surtout au vu des contraintes de production (budget, taille de l’équipe).
Mais avant d’y plonger, quelques mots sur ton parcours ?

Romain Toumi : Mon parcours est assez bordélique [rires] ! Je n’étais pas très doué au collège, on m’a donc orienté là où il y avait de la place, dans un lycée professionnel en métallurgie. Je suis allé jusqu’au BTS, et pendant mes années Bac/BTS je m’intéressais notamment à l’imagerie 3D, au cinéma d’animation. A la fin de mon BTS, je faisais du dessin industriel en 3D, ce qui était un peu lié.

Après mon BTS, l’entreprise qui m’a embauché a fini par couler, et le chômage m’a permis de remettre des choses sur le tapis et de me reconvertir en autodidacte.

En 2016 je crée C3N Studio avec un ami Jordan Tetevuide, ma société d’effets spéciaux et animation 3D; je m’étais dit que tout allait bien se passer, que j’allais faire un film d’animation tout seul… Très vite on retombe sur terre. J’ai fait des petits projets à droite à gauche dans la région de Metz, comme des sites web, des logos. En démarchant des boîtes de prod au téléphone j’ai pris contact avec Fensch Toast, qui produit notamment Nexus VI. Je les ai rencontrés j’ai travaillé avec eux sur un clip de Matt Elliott, mes premiers VFX dans une vrai prod. Le courant est bien passé et artistiquement leurs projets me plaisaient, on a fini par se lier d’amitié et on a rapidement parlé du vaisseau Nexus VI, que ce serait génial de le voir de l’extérieur. Et me voilà lancé pendant plusieurs semaines à créer mon premier gros projet 3D.

Il y a eu beaucoup de péripéties depuis, mais actuellement je suis sur Nexus VI à plein temps pour la nouvelle trilogie (l’épisode 7 déjà sorti, 8 et 9 en cours), et j’ai lâché mon ancienne entreprise.

3DVF : Par rapport à l’équipe du Nexus VI : étant donné leur passion pour le cinéma et la SF, on imagine qu’ils ont un gros bagage de références visuelles et cinématographiques. Quel est l’impact sur leurs demandes, et notamment sur la répartition des effets entre ce qui sera fait de façon traditionnelle ou numérique ?

Le vrai fan de SF est surtout le Capitaine (Renaud Jesionek), qui écrit les scénarios, fait ses analyses. Alexandre Marinelli, le réalisateur [NDLR : et interprète de Slexno], n’est pas forcément un gros fan de cinéma de SF ; dans ses projets passés on retrouve surtout beaucoup de montage de bandes-annonces, ce qui se ressent assez clairement dans Nexus VI avec une approche très cut, très dynamique et bien adaptée à Youtube. Il a par ailleurs fait de la réalisation sur beaucoup de styles différents et il a même récemment réalisé un court métrage à l’occasion du Nikon film festival et gagné le prix du public, j’ai fait quelques VFX dedans aussi d’ailleurs [NDLR : à découvrir ci-dessous].

Crédits :
Réalisation : Alexandre Marinelli
Avec Alexandre Marinelli, Cyril Chagot, Lucie Schosseler, Romain Toumi
Chef Opérateur – Laurent Steiner
Images – Pierre Nicolas
Superviseur VFX – Romain Toumi
Ingénieur du son – Thomas Koeune
Régie – Camille Picot
Remerciements – Fensch Toast – Renaud, Cathy et Jean Jesionek
Albert et Danièle Philippe – Ville de Thionville.

Sur la question de la répartition et de qui fait quoi, on y réfléchit à plusieurs : surtout Alexandre et moi, Alexandre ayant toujours son idée en tête. Néanmoins le Capitaine est aussi inclus, il pose des questions avant même l’écriture, fait des suggestions. Même chose pour Cyril Chagot, le producteur [NDLR: qui interprète Sayreel et Zarbut, l’IA du vaisseau].

Le scénario s’adapte fatalement un peu au budget, même si on essaie de garder une grande liberté.

On fait donc plusieurs réunions tous les quatre, Alexandre dirige les échanges définit la mise en scène qu’il souhaite.
Arrive ensuite une phase de plusieurs jours durant laquelle Alexandre et moi faisons un découpage des scènes, on liste les plans avant de tourner.

Vient enfin l’étape du storyboard…

Extrait de storyboard (séquence du grappin)

Comme vous pouvez le voir avec la scène du grappin [31:24 dans l’épisode], on ne respecte jamais vraiment mais ça donne une idée globale, le storyboard sert plus à la recherche qu’à définir vraiment les plans et les axes.

Au final il y a beaucoup d’improvisation lors du montage, en fait, et à ce stade Alexandre met des écrans noirs partout où un plan CGI est censé se trouver par rapport au découpage… Mais aussi partout où il en a envie, en insérant des descriptifs sur ces écrans noirs.

Cette méthode de travail génère des surprises, mais permet de ne pas être limité par l’écriture initiale. Au final le processus de réflexion des VFX est donc étalé de l’écriture jusqu’à la toute fin, pour l’épisode 7 j’ai rajouté un plan une semaine avant la diffusion de l’avant-première !

En fait, une fois les écrans noirs insérés, et même après validation du montage, on continue à faire des changements comme remplacer les écrans noirs par mon layout/animatique.

Après on envoie le tout à la personne qui fait la musique et le son. Ce qui conduit parfois à couper des éléments, se débrouiller, négocier…

Notre approche est donc bien plus flexible que pour une production classique.
Avec parfois quelques choix particuliers : nous avions annoncé une date de sortie pour l’épisode 7 alors même que certains effets n’étaient même pas commencés… Peu de studios le feraient !

3DVF : La séquence d’introduction est LE point phare de l’épisode en termes d’effets visuels. On part de l’espace, on se rapproche d’une planète puis d’une cité futuriste avec nuages, immeubles innombrables, vaisseaux, voitures volantes, panneaux, habitants… L’ensemble est vraiment impressionnant par l’ampleur de la tâche et la qualité du résultat. Comment as-tu abordé cette partie de l’épisode ?

Il faut savoir que le scénario ne décrivait que très brièvement ce passage, ça se résumait plus ou moins à « la caméra est dans les étoiles et arrive au cœur d’une grande mégapole puis dans une pièce, dans la pénombre » ça c’est fini au final par un plan séquence de 2 minutes qu’on pourrait qualifier de court-métrage.

Ce n’est pas toujours comme ça, le Capitaine et Alexandre peuvent donner plus d’indications s’ils ont une idée précise en tête pour le scénario, mais ici il était acté que j’avais carte blanche, du moment que l’on partait des étoiles pour arriver dans la pièce obscure avec le pin’s coupé en deux. Sur le reste j’étais libre, par exemple, de mettre ou pas des gens dans la ville.

Cela correspond assez à notre état d’esprit. Par exemple Lucie Schosseler (qui fait les prothèses des extraterrestres) peut elle aussi laisser libre cours à son imagination, créer des concepts, faire des propositions fortes. On a une grande liberté artistique, il arrive donc souvent que des éléments ne soient décrits que par quelques lignes.

Showreel de Lucie Schosseler, qui met notamment en avant son travail pour Nexus VI

3DVF : Cela te permet sans doute aussi d’ajuster le contenu en fonction du budget, du temps disponible?

Tout à fait. La ville a pris un an de travail, mais pas d’un bloc (je pouvais par exemple travailler sur la ville, puis quelques semaines plus tard passer sur une autre séquence et revenir sur la ville après). Le Covid a été une « chance » dans le sens où le budget temps a considérablement augmenté, d’où une séquence bien plus longue que prévue : l’introduction durait en théorie moins de 30 secondes !

J’ai profité des confinements, de la mise en pause du monde entier pour travailler d’arrache-pied confiné avec mon matos chez moi, entre autres pour expérimenter : à peu près personne ne fait de la foule sous Blender, par exemple.

Sans la pandémie, le plan aurait été cool, mais moins impressionnant et moins long !

3DVF : C’est vrai que cette idée d’un zoom de l’espace vers un détail sur Terre est un classique du cinéma, et cela peut être expédié en quelques secondes ou, comme ici, transformé en une vraie séquence détaillée.

Voilà, l’idée était de travailler sur ce concept classique, que les gens se disent que ça vaut le coup de voir le plan.

3DVF : Pour la création concrète de la ville, comment as-tu travaillé ?

Au layout, j’ai utilisé des blocs basiques pour les immeubles. Sur un tel plan, c’est la caméra qui est le personnage principal, je travaille donc vraiment énormément ses mouvements. Le fait d’avoir des éléments très schématisés autour ne pose pas de souci. Même chose pour le vaisseau d’ailleurs.

En pratique, il a fallu que l’on ajuste le mouvement de caméra pour des raisons techniques : le layout faisait que certains éléments étaient à la fois visibles de très loin et très proche, ce qui aurait demandé beaucoup trop de boulot par rapport au plan final, avec ce plongeon vers quelques immeubles proches et après seulement un redressement vers des immeubles plus lointains, qui n’ont donc pas besoin d’être aussi précis. Si on les avait vus plus tôt, j’aurais dû les détailler davantage, mettre de la population, des voitures, etc.

Une autre astuce sur ce passage, lorsque la caméra remonte vers la forêt d’immeubles au fond : ces derniers remontent physiquement, afin qu’ils dépassent verticalement des immeubles du premier plan. Ça n’a pas de sens mais ça permet d’avoir quelque chose de bien plus esthétique.

Pour les immeubles : j’ai fait un fichier blender, un .blend, à part avec tous mes assets de bâtiments. Ensuite, j’ai placé les immeubles dans la ville avec des particules, il y a plusieurs plans avec des vertex planes qui définissent le positionnement des différents immeubles. Sauf pour le coeur de la ville, où un placement à la main était indispensable pour éviter les collisions et garder une cohérence esthétique.

Des bâtiments placés « au sol » via des particules ont permis de cacher, justement, le sol. Il y a des interpénétrations mais au final on ne voit rien, ça passe sans problème.

Ici quelques assets utilisés dans la ville :

3DVF : Il faut aussi souligner que le mouvement de caméra ne se prête pas forcément à l’usage de matte painting…

Oui, d’où le full 3D, même pour les éléments lointains. Pas de matte, pas de planes. Je dois dire aussi que j’essaie d’utiliser le moins possible ce genre d’astuce, car j’arrive souvent à les repérer chez les autres : ici j’avais peur que l’on sente l’absence de relief puisque la caméra bouge tout le temps. C’est peut-être de l’excès de prudence mais je préfère me passer de ces astuces, même si ça m’arrive évidemment parfois d’en utiliser.

Au final les seuls « planes » utilisés sont pour le ciel et des effets de fumée.

3DVF : Tu disais plus haut qu’il était rare de tenter de faire de la foule sous Blender. Justement, peux-tu nous en dire plus techniquement ?

C’est avec des particules… Mais en utilisant un bug de Blender ! [rires]

Concrètement, Blender propose des particules de type Boids [NDLR: destinées par exemple à la simulation de bancs de poissons ou nuées d’insectes]. De base, ces particules volent : une case à décocher permet en théorie de faire en sorte qu’elles restent au sol, mais ça ne marche pas, elles volent quand même.

La conséquence du bug des Boids : une foule qui refuse de rester au sol.

L’astuce est alors de les laisser voler, mais de bidouiller des paramètres, des valeurs qui vont faire en sorte qu’elles se déplacent sur le sol.

Par ailleurs, normalement pour contenir une foule dans un outil 3D on place des murs. Or Blender n’a pas du tout été pensé pour les foules, donc si on demande aux particules de rebondir sur un mur et de se retourner, elles le font de façon instantanée, donc non naturelle.

Un autre bug lié aux boids (qui sont, il faut le dire, un peu cassés) apporte la solution. Si on met un mur 100% perméable (les particules passent à travers) les particules l’ignorent, si on met 98% le retournement est encore instantané avec 2% qui traversent, mais à 99% le volte-face n’est pas instantané, 1% traverse quand même mais je me suis arrangé pour que ça ne se voit pas. c’est ce qui m’a permis de créer une foule avec un comportement qui fonctionne.

Ca a demandé beaucoup de travail, de recherches sur des travaux faits par d’autres personnes mais sans que ça soit au point. Ian Hubert a fait aussi une foule sur son film Dynamo Dream mais en moins précis, plus rapidement, de son côté les gens se traversent alors que sur mes scènes j’ai vérifié 15 fois que tout était bon. Les seuls piétons qui sont buggés sont des serveurs au niveau du restaurant, ils font du sur-place. C’est un regret, mais je ne vais pas m’amuser à tout re-rendre… et je l’ai vu bien trop tard.

Dynamo Dream

A noter, quelques piétons ont été placés et animés à la main, et non via des particules. Je n’ai pas utilisé Mixamo qui était alors encore balbutiant mais prometteur, j’ai surtout des noises de mouvement aléatoire sur le buste, les bras et la tête pour que les personnages soient en train de manger, ou discuter. Un peu comme les personnages de GTA san andreas qui parlent, en plus aléatoire, sans pattern et moins exagéré.

Animation dans GTA San Andreas

J’ai aussi fait en sorte, dans les shaders, de créer des variations aléatoires de l’apparence par particule.

Les modèles sont des personnages que j’ai achetés, j’ai matché un rig sur ceux-ci, avec un cycle de marche basique. L’animation n’est par contre pas adaptée à la taille des personnages, qui varie selon l’individu, donc leurs pieds glissent un peu, et de façon différente selon leur vitesse de marche.

Même chose quand ils font demi-tour, ils marchent plus lentement et donc leurs pieds glissent un peu aussi.

Là encore tout ceci est lié aux limitations des particules sous Blender, on ne peut pas adapter la vitesse de l’animation en fonction de la vitesse de la particule, la solution a donc été de ne pas filmer les personnages de trop près.

Pages suivantes : suite de la séquence d’introduction, combats spatiaux, séquence finale, développements, travail d’équipe…

L’article Interview : Nexus VI, les coulisses d’un épisode grandiose est apparu en premier sur 3DVF.

Pour Acer, l’avenir de la création passe par le relief

Par : Shadows

Acer dévoile le ConceptD 7 SpatialLabs Edition, un nouvel ordinateur portable destiné aux créatifs. Le produit se démarque de la concurrence par un écran relief sans lunettes.

Les personnes qui nous lisent régulièrement ne seront pas surprises : au printemps dernier, nous avions évoqué les plans d’Acer sur le sujet.

Une configuration au goût du jour

Sur le papier, le ConceptD 7 SpatialLabs Edition propose un processeur Intel Core série H de 11ème génération, plusieurs options côté graphique dont la RTX 3080 de NVIDIA. Un écran UHD 4K vient compléter le tout, avec certification Pantone, 100% de couverture de l’espace Adobe RGB et un Delta E<2.
Rien de surprenant jusqu’ici, la gamme ConceptD d’Acer nous ayant habitués à ce type de positionnement.

En ce qui concerne l’écran relief, il s’agit d’une technologie lenticulaire qui permet donc d’éviter le recours aux lunettes : des lentilles au niveau de l’écran renvoient vers chaque oeil une image différente, d’où la perception du relief.
Bien évidemment, il est aussi possible d’utiliser l’écran de façon classique.

Le relief : vraie avancée ou fonction gadget ?

La démarche d’Acer peut poser quelques questions. En effet, la vague du relief amorcée à la fin des années 2000 avec Avatar est désormais bien loin, et la stéréoscopie ne fait plus vendre auprès du grand public.
Mais justement, ce produit ne se destine pas au grand public. Et Acer ne se contente d’ailleurs pas de proposer un simple écran.

On retrouve ainsi sur la machine le « SpatialLabs Model Viewer », un outil de visualisation d’objets 3D qui dispose de plugins pour différents outils 3D (Autodesk Fusion 360, Autodesk Inventor, 3Ds Max, Rhinoceros, Cura, Blender, SketchUp et Zbrush), mais permet également d’importer les formats 3D courants (OBJ, FBX, STL, Collada, glTF, DAE, IGES, 3DS, Blend, PLY).
Un système mêlant capteurs et IA ajoute par ailleurs un effet de parallaxe lorsque l’utilisateur déplace ou tourne sa tête.

Outre le viewer, Acer a incorporé un lecteur vidéo maison qui gère le relief, et une solution SpatialLabs Go censée générer un effet relief à partir de contenus 2D (photos, vidéos, jeux, visioconférences).

Enfin, un site dédié aux développeurs SpatialLabs est lancé ; il propose notamment un plugin Unreal Engine, et Acer évoque la prise en charge d’Ultraleap (solution de suivi des mains).

Quels usages ?

En termes de marché, Acer esquisse quelques cas d’usage concrets.Le groupe évoque par exemple un configurateur de voiture pour les concessionnaires et clients, des visites guidées pour architectes d’intérieur, ou encore l’observation géospatiale.

Marketing en quête « d’effet wow », industrie, secteur de la création : plus globalement, cet écran pourra être une alternative aux casques VR ou écrans avec lunettes, moins contraignant et plus facile d’usage, même si le fait de ne gérer qu’une seule personne à la fois est un handicap certain.

Premières impressions

Nous avons eu l’occasion d’avoir brièvement ce produit entre les mains dans les locaux d’Acer.

L’effet de relief est convaincant, avec un jaillissement généreux et une bonne définition : même si l’écran lenticulaire implique évidemment de diviser la résolution horizontalement, l’écran 4K permet un affichage de qualité, loin devant ce que l’on pouvait voir il y a une dizaine d’années.

Nous n’avons pas pu tester la conversion de contenus 2D en 3D, et nous ne pourrons donc pas vous donner notre avis sur le sujet à ce stade.
En revanche, la visualisation de modèles 3D est satisfaisante, de même que le visionnage de vidéos.

Le ConceptD 7 SpatialLabs Edition sera disponible en fin d’année aux alentours de 3600€ TTC.

L’article Pour Acer, l’avenir de la création passe par le relief est apparu en premier sur 3DVF.

MO-SYS TECHNOLOGY PLAYED STARRING ROLE IN MOOV’S VIRTUAL SET FOR BBC SPORT’S TOKYO GAMES COVERAGE

MOOV’s innovative Virtual Studio Production, featuring Mo-Sys StarTracker, has been shortlisted for the Broadcast Sports Awards.  Mo-Sys Engineering, a world leader in precision camera tracking solutions for virtual studios and augmented reality, today announces that its StarTracker technology was front and centre of the innovative virtual studio production for BBC Sport’s coverage of the Tokyo Games. The ...

The post MO-SYS TECHNOLOGY PLAYED STARRING ROLE IN MOOV’S VIRTUAL SET FOR BBC SPORT’S TOKYO GAMES COVERAGE appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

September 2021 TOP 5 Engagement

Have you missed any popular Panasonic news? Here are the TOP 5 most engaged posts for September 2021.

Chauvet Maverick Force-S Profile

Par : admin

En test, cette petite lyre spot à couteaux motorisés, pour les petites salles, qui a tout d’une grande : deux roues de gobos, trichromie, roue de couleurs, frost, prisme, et moteur de leds blanches de 350 W. Lire la suite

L’article Chauvet Maverick Force-S Profile est apparu en premier sur SoundLightUp..

La Traversée : le nouveau film de l’animatrice Florence Miailhe au cinéma

Par : Shadows

Réalisé par Florence Miailhe, le film d’animation La Traversée est actuellement visible au cinéma : un projet qui a connu une longue gestation, puisque le travail sur le film a débuté il y a 15 ans. La fabrication proprement dite a duré 3 ans.
Ce film d’animation utilise une technique dont Florence Miailhe s’est faite une spécialité : la peinture sur verre.

Un village pillé, une famille en fuite et deux enfants perdus sur les routes de l’exil…
Kyona et Adriel tentent d’échapper à ceux qui les traquent pour rejoindre un pays au régime plus clément. Au cours d’un voyage initiatique qui les mènera de l’enfance à l’adolescence, ils traverseront de multiples épreuves, à la fois fantastiques et bien réelles pour atteindre leur destination.

Voici la bande-annonce, suivie de deux vidéos qui vous en apprendront plus sur les coulisses du film.

L’article La Traversée : le nouveau film de l’animatrice Florence Miailhe au cinéma est apparu en premier sur 3DVF.

Contretemps : Anna face à l’enfer du quotidien (promotion Gobelins 2021)

Par : Shadows

Laurine Baille, Gabriel Gérard, Lise Légier, Chloé Maingé et Claire Sun dévoilent Contretemps, leur court de fin d’études issu de la promotion Gobelins 2021.

Anna, atteinte de TOCs, tient un quotidien ordonné. Celui-ci est bouleversé lorsque sa sœur Maeve oublie une pièce de son instrument. Pour lui rapporter, Anna se confronte au monde extérieur où ses peurs se matérialisent.

Soundtrack / Musique : Arthur DAIRAINE
Sound editor / Montage sonore : Cédric DENOOZ
Mix / Mixage : Vincent MAUDUIT, Nathan ROBERT
Color Grading / Etalonnage : David CHANTOISEAU

L’article Contretemps : Anna face à l’enfer du quotidien (promotion Gobelins 2021) est apparu en premier sur 3DVF.

Zoic Studios fait le pari du télétravail

Par : Shadows

Zoic Studios annonce basculer dans l’ère du télétravail : les employés du studio pourront à l’avenir travailler à distance, pandémie ou pas.

Télétravail forcé en 2020 : un bilan positif

Zoic Studios explique avoir constaté une hausse de productivité avec la mise en place du distanciel en raison de la pandémie : la transition vers le travail à distance ayant eu des effets positifs, l’entreprise ne voit pas de raison de revenir en arrière.

Pour autant, Zoic ne compte pas se délester de ses bureaux de Culver City, New York et Vancouver : ils resteront disponibles, notamment pour certains projets spécifiques, pour la collaboration face à face, ou encore pour toutes les personnes du studio qui préféreraient cette option, dans le respect des règles sanitaires locales.

L’importance de la communication

Kristen Branan (Executive Vice President – Global Production chez Zoic Studios) explique la hausse de la productivité et créativité s’expliquerait notamment par l’élimination des temps de transports et de certaines distractions. Paradoxalement, la cohésion de l’équipe aurait aussi été renforcée. Le studio souligne avoir pris soin de mettre en place des « opportunités » pour que les liens puissent se créer/renforcer au sein de ses studios, avec par exemple des réunions mensuelles de toute l’équipe afin de conserver transparence et motivation, ou encore des opportunités virtuelles de socialisation.

Zoic Studios compte plus de 400 personnes à temps plein qui ont pu travailler ces derniers mois en télétravail sur les séries WandaVision, Superman & Lois ou encore For All Mankind.
En outre, Zoic Studios a pu faire avancer sa stratégie autour des technologies temps réel, ces dernières ayant justement été employées sur certaines des séries citées plus haut.

Télétravail, oui, mais pas sans limites

En pratique, le communiqué de Zoic est toutefois à nuancer. Si le studio explique que le télétravail permet de recruter les talents là où ils se trouvent, en pratique il n’est pas toujours possible d’embaucher des personnes situées à l’autre bout du globe.
Zoic nous l’a explicitement confirmé : si le studio entend bien recruter de façon mondiale quand cela est possible ou pour des disciplines spécifiques, la majorité du temps l’entreprise devra se limiter au marché du travail associé à chaque studio : par exemple, la Colombie Britannique pour son studio de Vancouver. La raison principale : les fameux crédits d’impôt, qui ne fonctionnent évidemment pas si les employés sont situés à l’autre bout de la planète, le but de ces incitations fiscales étant justement d’attirer les investissements et dépenses localement.

Exemple d’offre d’emploi en télétravail sur le site de Zoic Studios

L’exemple de Zoic Studios prouve que le télétravail pourrait prendre de l’ampleur dans les années à venir, mais rappelle aussi que les contraintes financières de l’industrie ne permettront pas forcément de briser toutes les frontières.

L’article Zoic Studios fait le pari du télétravail est apparu en premier sur 3DVF.

Cinegy Appoints ElectronicVerve as Master Reseller for Indian Market

Cinegy has appointed ElectronicVerve as its exclusive master reseller for India. ElectronicVerve is a specialist in helping broadcasters and media organizations to design and implement IP workflows, ensuring a smooth transition as customers migrate from their legacy infrastructures. With its IP expertise and its strong relationships in the broadcast, gaming and corporate sectors, ElectronicVerve is strongly ...

The post Cinegy Appoints ElectronicVerve as Master Reseller for Indian Market appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

Heures supplémentaires : DNEG change sa politique

Par : Shadows

Le studio DNEG annonce la mise en place d’une nouvelle politique concernant les heures supplémentaires de ses équipes basées au Royaume-Uni.

A partir du début du mois d’octobre, les personnes du studio (hors management) à qui l’on demande de dépasser les 40h de travail hebdomadaires seront payées 1,5 fois leur taux horaire habituel.
Autrement dit, les équipes londoniennes auront le même bonus que celui déjà appliqué par DNEG en Amérique du Nord.

DNEG souligne que cette politique s’applique à toute ses branches locales (VFX, DNEG Animation, ReDeFine), que ce soit pour les artistes, équipes de production, technologie ou support.
DNEG emploie environ 700 personnes à Londres, et ses équipes travaillent actuellement sur des projets tels que Matrix Resurrections, Ron Débloque, les futurs films DC.

Rappelons qu’Outpost VFX a annoncé une politique similaire en août dernier. On ne peut évidemment que souhaiter davantage d’annonces similaires dans les semaines et mois à venir.

L’article Heures supplémentaires : DNEG change sa politique est apparu en premier sur 3DVF.

Haivision and Grass Valley Fuel Real-Time Video Contribution for Live Cloud Production

Par : rlyl

MONTREAL, CANADA, September 8, 2021 – Haivision (TSX: HAI), a leading global provider of mission-critical, real-time video streaming and networking solutions, and Grass Valley have announced a qualified solution that enables high-quality, low latency, multi-camera live contribution into Grass Valley’s GV AMPP (Agile Media Processing Platform) cloud production workflows.  The collaboration sees Haivision’s award-winning video encoder – the Makito X4 – become a qualified solution with the GV Media Universe for synchronous multi-stream live contribution to GV AMPP at a time ...

The post Haivision and Grass Valley Fuel Real-Time Video Contribution for Live Cloud Production appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

Google Cloud Joins SRT Alliance

Par : rlyl

Montreal, Canada – September 9, 2021 – Haivision (TSX: HAI), a leading global provider of mission-critical, real-time video streaming and networking solutions, today announced that Google Cloud has joined the SRT Alliance, a collaborative community of over 500 product, service, and solution providers supporting the adoption of the Secure Reliable Transport (SRT) open-source video streaming protocol.   This announcement ...

The post Google Cloud Joins SRT Alliance appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

Fantastic Smartphones – ECAL MID

Fantastic Smartphones – ECAL MID
Fantastic Smartphones, alternative accessories, interactive installations and machine performances highlight the excesses relating to our use of these devices. By imagining innovative ways of interacting with our smartphones or by delegating our repetitive actions to machines, this exhibition takes a critical look at a society that has become addicted to an object that seems to have become indispensable : the “smart” phone.

Sully, la trappe-cœur de Robert Juliat

Par : admin

Robert-Juliat est rentré de plein pied dans les sources Led depuis les débuts de cette technologie. Leur dernière-née est une trappe de remplacement Led pour les découpes SX2, avec un afficheur dédié et une qualité de lumière remarquable. Voici le gang des Sully ! Lire la suite

L’article Sully, la trappe-cœur de Robert Juliat est apparu en premier sur SoundLightUp..

@_aurelien.w Projection Mapping sur l’Eglise Notre Dame Des...



@_aurelien.w Projection Mapping sur l’Eglise Notre Dame Des Mineurs - Waziers

📽📽💡💡🔥🔥🔊🔊

#projectionmapping #videomapping #videomappingfestival #christiedigital #christiedigitalprojection #millumin #grandma #rencontresaudiovisuelles #douai #waziers #loomprod
https://www.instagram.com/p/CTXk2fOqqX8/?utm_medium=tumblr

SIGGRAPH 2021 : Comment éliminer les biais et tendre vers une recherche graphique antiraciste?

Par : Shadows

A l’occasion du SIGGRAPH 2021, Theodore Kim (ex Senior Scientist chez Pixar, désormais professeur à l’Université de Yale) a abordé la thématique des biais au sein de la recherche graphique.

Comme il l’explique, si l’idée même de biais en recherche peut sembler saugrenue au premier abord (après tout, les mathématiques et la physique sont censés être des sciences exactes, non biaisées), les choses sont plus complexes.

Par exemple, il montre qu’en pratique, les publications techniques du SIGGRAPH portant sur le rendu de la peau s’intéressent dans leur écrasante majorité aux peaux claires et non aux peaux noires. De même, lorsqu’il s’agit de rendu ou de simulation physique des cheveux, il s’agit par défaut de cheveux raides, considérés de facto comme le standard ; quand des projets s’intéressent aussi aux cheveux bouclés, ils auront tendance à le préciser explicitement. Les cheveux crépus, eux, sont très peu présents dans les travaux, alors même qu’ils n’ont rien d’une curiosité puisqu’ils concernent de l’ordre d’un milliard d’humains.

Theodore Kim souligne que si certaines personnes seront tentées de vouloir opter pour des approches universelles, en pratique ce choix est contre-productif, y compris d’un point de vue purement scientifique et technique (le rendu le plus proche de la réalité possible). Ainsi, les cheveux crépus ne bougent pas de la même manière que des cheveux raides, et les peaux noires n’ont pas la même interaction avec la lumière que les peaux blanches : leur composante spéculaire a une importance plus grande.
Conséquence : traiter de façon générique les peaux, à partir d’équations et valeurs physiques pensées pour simuler des peaux claires, peut conduire à des rendus peu convaincants. Theodore Kim pointe notamment du doigt MetaHuman Creator, qui génère des teints trop cireux, avec trop de subsurface scattering, lorsque la peau de l’avatar est noire.

Theodore Kim souligne au passage que ces biais sont profondément ancrés dans l’histoire des techniques d’imagerie. Ainsi, du temps de l’argentique, on utilisait des références avec un visage humain et une charte colorimétrique pour calibrer, ajuster le rendu du film photo ou des pellicules cinéma. Ces références visuelles, appelées « leader ladies » (au cinéma) et « Shirley Cards » (côté photo), étaient en pratique quasiment toujours des femmes à la peau blanche (avec néanmoins une diversification du côté des Shirley Cards à partir des années 90).

Conséquence : le rendu des peaux noires était souvent perfectible voire très mauvais, comme le montre Theodore Kim avec quelques extraits de films.

Le Carosse d’Or (Jean Renoir -1952) : en raison de procédés techniques et artistiques (pellicule, éclairage, développement…) optimisés pour les peaux claires, les acteurs à la peau noire sont totalement sous-exposés.

Theodore Kim explique que le but de sa présentation n’est pas de juger le passé : il ne s’agit pas de déclarer ce dernier raciste avec notre regard contemporain, mais plutôt de prendre conscience des biais afin de les dépasser. Il propose quelques pistes, comme la possibilité de créer un équivalent 3D des Shirley Cards mais avec des peaux noires : de quoi mieux juger, physiquement et objectivement, du réalisme de nouvelles techniques ou moteurs de rendu.

Un travail qui bénéficiera évidemment à l’ensemble de l’industrie, et permettra d’améliorer le rendu des humains, quel que soit leur type de cheveux ou leur couleur de peau.

Nous vous invitons évidemment à regarder la conférence complète, qui donne davantage d’exemple et détails.

Notez enfin qu’un Bird of a Feather (un format classique d SIGGRAPH, qui prend une forme de table ronde) a été organisé sur le sujet. L’évènement n’a pas été enregistré, mais un formulaire associé est toujours en ligne: il permet aux personnes intéressées par la thématique des biais dans la recherche graphique de s’inscrire afin de développer cette thématique en 2022. Vous pouvez par exemple indiquer que vous seriez intéressés pour tenir une conférence sur le sujet, ou aider à la relecture de publications.

Voici également trois livres mentionnés dans la présentation :

On pourra aussi lire ou relire notre interview de Raqi Syed et Areito Echevarria, qui ont créé l’expérience VR Minimum Mass. En fin de page 2, Raqi Syed revient sur son travail et la question des représentations dans les VFX.

Enfin, une publication liée à cette conférence est disponible sur le site de Theodore Kim : Countering racial bias in computer graphics research (T. Kim, Holly Rushmeier, Julie Dorsey, Derek Nowrouzezahrai, Raqi Syed, Wojciech Jarosz, and A.M. Darke – arXiv 2021). Quelques techniques anti-biais et axes de recherche y sont proposés..

L’article SIGGRAPH 2021 : Comment éliminer les biais et tendre vers une recherche graphique antiraciste? est apparu en premier sur 3DVF.

Infinity – New malleable subject matter by UE

Infinity – New malleable subject matter by UE
Ending tonight, after a week of live streaming, is the latest in the series of artworks by Universal Everything (UE) that feature 3D humans shrouded in digital costumes. Titled 'Infinity', the new work is a live stream, always reshaping and evolving from one character to the next, generating an average of 3,180 unique characters per hour with a total of 50,000+ variations over the last week, stream live on YouTube, only for a few more hours!

On contemporary shamanism and avatar – Choy Ka Fai invites us to expand ourselves

On contemporary shamanism and avatar – Choy Ka Fai invites us to expand ourselves
In perceiving established cultural and historical rituals through the lens of contemporary technology, Choy Ka Fai opens up a liminal space in which dance transcends colonial resistance, power and fantasy.

Dejero Connectivity Ensures Reliable Live Streaming of New Guinness World Record

  Dejero GateWay presents new opportunities for Scratch Takes to expand its live streaming production service to the ‘great outdoors’   Waterloo, Ontario, August 12, 2021 — Dejero and Montreal-based multi-media production company, Scratch Takes, were behind the successful live streaming of a new world record attempt for the highest number of caber tosses in ...

The post Dejero Connectivity Ensures Reliable Live Streaming of New Guinness World Record appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

❌