Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

For You : un roi prêt à tout (court New3dge)

Par : Shadows

Léo Anki, Louis Clemenceau, Adrien Guessoum, Killian Michaux et Octavio Tapia Peralta dévoilent For You, leur court de fin d’études à New3dge.
On y suit un souverain dont le royaume sombre chaque jour un peu plus dans le chaos et le sang…

L’article For You : un roi prêt à tout (court New3dge) est apparu en premier sur 3DVF.

Through my eyes : les yeux de l’amour (court New3dge)

Par : Shadows

Aude Portales, Céleste Devismes, Emérantiane Bouillon, Ilona Quenea et Naomi Gastel dévoilent Through My Eyes, leur court de fin d’études à l’école New3dge.
Un soldat au visage marqué par la guerre y croise le regard d’une femme…

L’article Through my eyes : les yeux de l’amour (court New3dge) est apparu en premier sur 3DVF.

Cosmo AV, au croisement de la danse et de la motion capture

Par : Shadows

Pour inaugurer son nouveau campus de Montpellier, l’ESMA (Ecole Supérieure des Métiers Artistiques) a fait appel à Cosmo AV, studio spécialisé dans l’evènementiel que nous avions interviewé en 2019. L’entreprise dispose d’un savoir-faire dans de multiples domaines dont le projection mapping, et a travaillé sur les JO de Sotchi, la Tour Eiffel ou encore le Puy du Fou espagnol.

Pour cette soirée d’inauguration, Cosmo AV avait choisi d’utiliser le plateau de motion capture présent dans l’école (et que nous vous avions déjà présenté en photos). Le résultat : une performance interactive mêlant danse et projection, la chorégraphie se reflétant sous forme abstraite sur les murs.

L’article Cosmo AV, au croisement de la danse et de la motion capture est apparu en premier sur 3DVF.

Les larmes de la Seine : les élèves de Pôle 3D n’oublient pas

Par : Shadows

Yanis Belaid, Eliott Benard, Nicolas Mayeur, Etienne Moulin, Hadrien Pinot, Lisa Vicente, Philippine Singer et Alice Letailleur dévoilent Les Larmes de la Seine.

17 octobre 1961, des « travailleurs algériens » décident de manifester dans les rues de Paris contre le couvre-feu qui leur a été imposé par la préfecture de police.

Un film qui mêle approche réaliste avec caméra à l’épaule et traitement plus surréaliste. Sur le plan artistique, on notera par ailleurs un soin manifeste apporté au surfacing (qui rappelle en partie celui du court Migrants de la même école) et au lighting.
Précisions enfin que le film n’est en ligne que temporairement, jusqu’au 24 octobre ; il reprendra ensuite son chemin dans les festivals.

Carlos De Carvalho, responsable de la formation film d’animation de Pôle 3D, explique que les étudiants « ont pensé ce film comme un devoir de mémoire, une recherche de compréhension », dans le but de « susciter la réflexion et la discussion ».

Pour plus d’informations sur le 17 octobre 1961, on pourra notamment se tourner vers France Info, qui a mis en ligne aujourd’hui un article relativement détaillé sur les faits, avec des témoignages, et qui retrace également l’historique de la reconnaissance officielle de la répression.

L’article Les larmes de la Seine : les élèves de Pôle 3D n’oublient pas est apparu en premier sur 3DVF.

Stranded : une rencontre mystique en Alaska

Par : Shadows

Alvin Arevalo-Zamora, Alwin Durez, Quentin Garaud, Maxime Salvatore, Florent Sanglard, Thomas Spony-Ipiens, Alex Tregouet présentent Stranded, leur court de fin d’études à l’ESMA (promotion 2020).
Un projet fort qui mêle grands espaces, surnaturel et voyage mystique.

Dans lʼAlaska de la fin du 19e siècle, Hawk, un trappeur robuste, fait la rencontre imprévue dʼun élan surnaturel, annonciateur de lʼapocalypse.

Musique / music: Laurent LOZANO
Son / sound: Alexis LAUGIER, Tristan LE BOZEC, Yoann PONCET, José VICENTE – Studio des Aviateurs

L’article Stranded : une rencontre mystique en Alaska est apparu en premier sur 3DVF.

Interview : Nexus VI, les coulisses d’un épisode grandiose

Par : Shadows

Depuis 6 ans déjà, la chaîne Nexus VI écume Youtube et la galaxie, avec des vidéos consacrées à la science-fiction sous toutes ses formes.
En pratique, les vidéos Nexus VI se déroulent elles-mêmes dans un univers de SF à part entière, avec un vaisseau, son équipage, des extraterrestres variés et des aventures aux quatre coins de la galaxie, quelque part dans le futur.

Au début de l’été, le très ambitieux épisode 7 a été dévoilé : une analyse détaillée du film Le Cinquième Element, entrecoupée de rebondissements épiques. On y trouve notamment une séquence d’introduction bluffante de plus de deux minutes avec une mégapole futuriste, des combats spatiaux, un final brûlant.

La grande majorité de ce travail d’effets visuels est l’oeuvre de l’artiste Romain Toumi, qui a accepté de nous livrer les coulisses de ce projet hors du commun.
Voici l’épisode complet ; vous trouverez dessous les timecodes des principales séquences à effets visuels, mais nous vous invitons évidemment à regarder l’épisode complet, afin de profiter de l’ensemble des effets, de l’analyse et du scénario.

0:32 : début de la séquence d’introduction
13:03 : dogfight
15:46 : séquence du looping
16:01 : séquence inspirée de Star Wars VIII
17:10 : dogfight dans les astéroïdes
24:08 : hologramme
31:24 : scène du grappin
32:10 : début de la séquence finale

3DVF : Bonjour Romain ! Les personnes qui nous lisent connaissent sans doute déjà ton travail pour la chaîne Youtube Nexus VI, qui traite de science-fiction et cumule près de 230 000 abonnés. Tu as notamment géré l’immense majorité des effets visuels de l’épisode 7 sorti cet été, un travail impressionnant du point de vue de sa qualité, surtout au vu des contraintes de production (budget, taille de l’équipe).
Mais avant d’y plonger, quelques mots sur ton parcours ?

Romain Toumi : Mon parcours est assez bordélique [rires] ! Je n’étais pas très doué au collège, on m’a donc orienté là où il y avait de la place, dans un lycée professionnel en métallurgie. Je suis allé jusqu’au BTS, et pendant mes années Bac/BTS je m’intéressais notamment à l’imagerie 3D, au cinéma d’animation. A la fin de mon BTS, je faisais du dessin industriel en 3D, ce qui était un peu lié.

Après mon BTS, l’entreprise qui m’a embauché a fini par couler, et le chômage m’a permis de remettre des choses sur le tapis et de me reconvertir en autodidacte.

En 2016 je crée C3N Studio avec un ami Jordan Tetevuide, ma société d’effets spéciaux et animation 3D; je m’étais dit que tout allait bien se passer, que j’allais faire un film d’animation tout seul… Très vite on retombe sur terre. J’ai fait des petits projets à droite à gauche dans la région de Metz, comme des sites web, des logos. En démarchant des boîtes de prod au téléphone j’ai pris contact avec Fensch Toast, qui produit notamment Nexus VI. Je les ai rencontrés j’ai travaillé avec eux sur un clip de Matt Elliott, mes premiers VFX dans une vrai prod. Le courant est bien passé et artistiquement leurs projets me plaisaient, on a fini par se lier d’amitié et on a rapidement parlé du vaisseau Nexus VI, que ce serait génial de le voir de l’extérieur. Et me voilà lancé pendant plusieurs semaines à créer mon premier gros projet 3D.

Il y a eu beaucoup de péripéties depuis, mais actuellement je suis sur Nexus VI à plein temps pour la nouvelle trilogie (l’épisode 7 déjà sorti, 8 et 9 en cours), et j’ai lâché mon ancienne entreprise.

3DVF : Par rapport à l’équipe du Nexus VI : étant donné leur passion pour le cinéma et la SF, on imagine qu’ils ont un gros bagage de références visuelles et cinématographiques. Quel est l’impact sur leurs demandes, et notamment sur la répartition des effets entre ce qui sera fait de façon traditionnelle ou numérique ?

Le vrai fan de SF est surtout le Capitaine (Renaud Jesionek), qui écrit les scénarios, fait ses analyses. Alexandre Marinelli, le réalisateur [NDLR : et interprète de Slexno], n’est pas forcément un gros fan de cinéma de SF ; dans ses projets passés on retrouve surtout beaucoup de montage de bandes-annonces, ce qui se ressent assez clairement dans Nexus VI avec une approche très cut, très dynamique et bien adaptée à Youtube. Il a par ailleurs fait de la réalisation sur beaucoup de styles différents et il a même récemment réalisé un court métrage à l’occasion du Nikon film festival et gagné le prix du public, j’ai fait quelques VFX dedans aussi d’ailleurs [NDLR : à découvrir ci-dessous].

Crédits :
Réalisation : Alexandre Marinelli
Avec Alexandre Marinelli, Cyril Chagot, Lucie Schosseler, Romain Toumi
Chef Opérateur – Laurent Steiner
Images – Pierre Nicolas
Superviseur VFX – Romain Toumi
Ingénieur du son – Thomas Koeune
Régie – Camille Picot
Remerciements – Fensch Toast – Renaud, Cathy et Jean Jesionek
Albert et Danièle Philippe – Ville de Thionville.

Sur la question de la répartition et de qui fait quoi, on y réfléchit à plusieurs : surtout Alexandre et moi, Alexandre ayant toujours son idée en tête. Néanmoins le Capitaine est aussi inclus, il pose des questions avant même l’écriture, fait des suggestions. Même chose pour Cyril Chagot, le producteur [NDLR: qui interprète Sayreel et Zarbut, l’IA du vaisseau].

Le scénario s’adapte fatalement un peu au budget, même si on essaie de garder une grande liberté.

On fait donc plusieurs réunions tous les quatre, Alexandre dirige les échanges définit la mise en scène qu’il souhaite.
Arrive ensuite une phase de plusieurs jours durant laquelle Alexandre et moi faisons un découpage des scènes, on liste les plans avant de tourner.

Vient enfin l’étape du storyboard…

Extrait de storyboard (séquence du grappin)

Comme vous pouvez le voir avec la scène du grappin [31:24 dans l’épisode], on ne respecte jamais vraiment mais ça donne une idée globale, le storyboard sert plus à la recherche qu’à définir vraiment les plans et les axes.

Au final il y a beaucoup d’improvisation lors du montage, en fait, et à ce stade Alexandre met des écrans noirs partout où un plan CGI est censé se trouver par rapport au découpage… Mais aussi partout où il en a envie, en insérant des descriptifs sur ces écrans noirs.

Cette méthode de travail génère des surprises, mais permet de ne pas être limité par l’écriture initiale. Au final le processus de réflexion des VFX est donc étalé de l’écriture jusqu’à la toute fin, pour l’épisode 7 j’ai rajouté un plan une semaine avant la diffusion de l’avant-première !

En fait, une fois les écrans noirs insérés, et même après validation du montage, on continue à faire des changements comme remplacer les écrans noirs par mon layout/animatique.

Après on envoie le tout à la personne qui fait la musique et le son. Ce qui conduit parfois à couper des éléments, se débrouiller, négocier…

Notre approche est donc bien plus flexible que pour une production classique.
Avec parfois quelques choix particuliers : nous avions annoncé une date de sortie pour l’épisode 7 alors même que certains effets n’étaient même pas commencés… Peu de studios le feraient !

3DVF : La séquence d’introduction est LE point phare de l’épisode en termes d’effets visuels. On part de l’espace, on se rapproche d’une planète puis d’une cité futuriste avec nuages, immeubles innombrables, vaisseaux, voitures volantes, panneaux, habitants… L’ensemble est vraiment impressionnant par l’ampleur de la tâche et la qualité du résultat. Comment as-tu abordé cette partie de l’épisode ?

Il faut savoir que le scénario ne décrivait que très brièvement ce passage, ça se résumait plus ou moins à « la caméra est dans les étoiles et arrive au cœur d’une grande mégapole puis dans une pièce, dans la pénombre » ça c’est fini au final par un plan séquence de 2 minutes qu’on pourrait qualifier de court-métrage.

Ce n’est pas toujours comme ça, le Capitaine et Alexandre peuvent donner plus d’indications s’ils ont une idée précise en tête pour le scénario, mais ici il était acté que j’avais carte blanche, du moment que l’on partait des étoiles pour arriver dans la pièce obscure avec le pin’s coupé en deux. Sur le reste j’étais libre, par exemple, de mettre ou pas des gens dans la ville.

Cela correspond assez à notre état d’esprit. Par exemple Lucie Schosseler (qui fait les prothèses des extraterrestres) peut elle aussi laisser libre cours à son imagination, créer des concepts, faire des propositions fortes. On a une grande liberté artistique, il arrive donc souvent que des éléments ne soient décrits que par quelques lignes.

Showreel de Lucie Schosseler, qui met notamment en avant son travail pour Nexus VI

3DVF : Cela te permet sans doute aussi d’ajuster le contenu en fonction du budget, du temps disponible?

Tout à fait. La ville a pris un an de travail, mais pas d’un bloc (je pouvais par exemple travailler sur la ville, puis quelques semaines plus tard passer sur une autre séquence et revenir sur la ville après). Le Covid a été une « chance » dans le sens où le budget temps a considérablement augmenté, d’où une séquence bien plus longue que prévue : l’introduction durait en théorie moins de 30 secondes !

J’ai profité des confinements, de la mise en pause du monde entier pour travailler d’arrache-pied confiné avec mon matos chez moi, entre autres pour expérimenter : à peu près personne ne fait de la foule sous Blender, par exemple.

Sans la pandémie, le plan aurait été cool, mais moins impressionnant et moins long !

3DVF : C’est vrai que cette idée d’un zoom de l’espace vers un détail sur Terre est un classique du cinéma, et cela peut être expédié en quelques secondes ou, comme ici, transformé en une vraie séquence détaillée.

Voilà, l’idée était de travailler sur ce concept classique, que les gens se disent que ça vaut le coup de voir le plan.

3DVF : Pour la création concrète de la ville, comment as-tu travaillé ?

Au layout, j’ai utilisé des blocs basiques pour les immeubles. Sur un tel plan, c’est la caméra qui est le personnage principal, je travaille donc vraiment énormément ses mouvements. Le fait d’avoir des éléments très schématisés autour ne pose pas de souci. Même chose pour le vaisseau d’ailleurs.

En pratique, il a fallu que l’on ajuste le mouvement de caméra pour des raisons techniques : le layout faisait que certains éléments étaient à la fois visibles de très loin et très proche, ce qui aurait demandé beaucoup trop de boulot par rapport au plan final, avec ce plongeon vers quelques immeubles proches et après seulement un redressement vers des immeubles plus lointains, qui n’ont donc pas besoin d’être aussi précis. Si on les avait vus plus tôt, j’aurais dû les détailler davantage, mettre de la population, des voitures, etc.

Une autre astuce sur ce passage, lorsque la caméra remonte vers la forêt d’immeubles au fond : ces derniers remontent physiquement, afin qu’ils dépassent verticalement des immeubles du premier plan. Ça n’a pas de sens mais ça permet d’avoir quelque chose de bien plus esthétique.

Pour les immeubles : j’ai fait un fichier blender, un .blend, à part avec tous mes assets de bâtiments. Ensuite, j’ai placé les immeubles dans la ville avec des particules, il y a plusieurs plans avec des vertex planes qui définissent le positionnement des différents immeubles. Sauf pour le coeur de la ville, où un placement à la main était indispensable pour éviter les collisions et garder une cohérence esthétique.

Des bâtiments placés « au sol » via des particules ont permis de cacher, justement, le sol. Il y a des interpénétrations mais au final on ne voit rien, ça passe sans problème.

Ici quelques assets utilisés dans la ville :

3DVF : Il faut aussi souligner que le mouvement de caméra ne se prête pas forcément à l’usage de matte painting…

Oui, d’où le full 3D, même pour les éléments lointains. Pas de matte, pas de planes. Je dois dire aussi que j’essaie d’utiliser le moins possible ce genre d’astuce, car j’arrive souvent à les repérer chez les autres : ici j’avais peur que l’on sente l’absence de relief puisque la caméra bouge tout le temps. C’est peut-être de l’excès de prudence mais je préfère me passer de ces astuces, même si ça m’arrive évidemment parfois d’en utiliser.

Au final les seuls « planes » utilisés sont pour le ciel et des effets de fumée.

3DVF : Tu disais plus haut qu’il était rare de tenter de faire de la foule sous Blender. Justement, peux-tu nous en dire plus techniquement ?

C’est avec des particules… Mais en utilisant un bug de Blender ! [rires]

Concrètement, Blender propose des particules de type Boids [NDLR: destinées par exemple à la simulation de bancs de poissons ou nuées d’insectes]. De base, ces particules volent : une case à décocher permet en théorie de faire en sorte qu’elles restent au sol, mais ça ne marche pas, elles volent quand même.

La conséquence du bug des Boids : une foule qui refuse de rester au sol.

L’astuce est alors de les laisser voler, mais de bidouiller des paramètres, des valeurs qui vont faire en sorte qu’elles se déplacent sur le sol.

Par ailleurs, normalement pour contenir une foule dans un outil 3D on place des murs. Or Blender n’a pas du tout été pensé pour les foules, donc si on demande aux particules de rebondir sur un mur et de se retourner, elles le font de façon instantanée, donc non naturelle.

Un autre bug lié aux boids (qui sont, il faut le dire, un peu cassés) apporte la solution. Si on met un mur 100% perméable (les particules passent à travers) les particules l’ignorent, si on met 98% le retournement est encore instantané avec 2% qui traversent, mais à 99% le volte-face n’est pas instantané, 1% traverse quand même mais je me suis arrangé pour que ça ne se voit pas. c’est ce qui m’a permis de créer une foule avec un comportement qui fonctionne.

Ca a demandé beaucoup de travail, de recherches sur des travaux faits par d’autres personnes mais sans que ça soit au point. Ian Hubert a fait aussi une foule sur son film Dynamo Dream mais en moins précis, plus rapidement, de son côté les gens se traversent alors que sur mes scènes j’ai vérifié 15 fois que tout était bon. Les seuls piétons qui sont buggés sont des serveurs au niveau du restaurant, ils font du sur-place. C’est un regret, mais je ne vais pas m’amuser à tout re-rendre… et je l’ai vu bien trop tard.

Dynamo Dream

A noter, quelques piétons ont été placés et animés à la main, et non via des particules. Je n’ai pas utilisé Mixamo qui était alors encore balbutiant mais prometteur, j’ai surtout des noises de mouvement aléatoire sur le buste, les bras et la tête pour que les personnages soient en train de manger, ou discuter. Un peu comme les personnages de GTA san andreas qui parlent, en plus aléatoire, sans pattern et moins exagéré.

Animation dans GTA San Andreas

J’ai aussi fait en sorte, dans les shaders, de créer des variations aléatoires de l’apparence par particule.

Les modèles sont des personnages que j’ai achetés, j’ai matché un rig sur ceux-ci, avec un cycle de marche basique. L’animation n’est par contre pas adaptée à la taille des personnages, qui varie selon l’individu, donc leurs pieds glissent un peu, et de façon différente selon leur vitesse de marche.

Même chose quand ils font demi-tour, ils marchent plus lentement et donc leurs pieds glissent un peu aussi.

Là encore tout ceci est lié aux limitations des particules sous Blender, on ne peut pas adapter la vitesse de l’animation en fonction de la vitesse de la particule, la solution a donc été de ne pas filmer les personnages de trop près.

Pages suivantes : suite de la séquence d’introduction, combats spatiaux, séquence finale, développements, travail d’équipe…

L’article Interview : Nexus VI, les coulisses d’un épisode grandiose est apparu en premier sur 3DVF.

Sound Devices Joins Audiotonix Group

Par : Jump

Chessington October 14th, 2021 — Audiotonix, the group which comprises the Allen & Heath, Calrec, DiGiCo, DiGiGrid, Group One Limited, KLANG:technologies, and Solid State Logic entertainment technology brands, announces the acquisition of US-based Sound Devices LLC as part of its expanding group. The transaction, which was concluded today, further extends the Audiotonix professional solutions for audio production environments. ...

The post Sound Devices Joins Audiotonix Group appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

Sky Original Comedy “Brassic” Returns to Screens with the help of DaVinci Resolve

Fremont, CA – October 14th, 2021 – Blackmagic Design today announced that Sky Original, Brassic Series 3, was graded in DaVinci Resolve Studio while VFX compositing was completed using DaVinci Resolve’s Fusion. Going into the third season, consistency in the grade was vital, according to Core Post’s Matt Brown. “I’d taken stills from every scene ...

The post Sky Original Comedy “Brassic” Returns to Screens with the help of DaVinci Resolve appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

LiveU Transforms National Live Basketball Coverage in Australia

Par : Jump

For the first time, the National Basketball League (NBL) of Australia has succeeded in live streaming every state basketball game, significantly increasing the popularity of NBL1, Australia’s professional semi-elite basketball league in a year impacted by the pandemic. This is due to the deployment of LiveU Solo wireless video encoders at arenas across Australia, using ...

The post LiveU Transforms National Live Basketball Coverage in Australia appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

Easy Audio: The New Deity Pocket Wireless Microphone

Let’s check out the specs on the new Deity Pocket Wireless microphone kit. Get easy wireless audio on your camera, phone, or laptop!

HTC travaille sur la plateforme de métaverse grand public « Viveport Verse »

Par : Lilia

D’après les rapports de Protocol, HTC travaille sur une version personnalisée de Mozilla Hubs. Il se concentre sur la plateforme de métaverse « Viveport Verse ».

HTC dispose déjà d’une plate-forme de réalité virtuelle sociale axée sur les entreprises, appelée Vive Sync. Mais le rapport indique qu’il travaille maintenant sur une plate-forme grand public appelée Viveport Verse.

Protocol prétend également avoir une source étayant les récentes spéculations selon lesquelles HTC annoncera bientôt Vive Flow. Il s’agit d’un « casque VR grand public léger », « principalement positionné comme un appareil de consommation de médias ». Cette même source affirme que Flow intègrera un suivi de position mais ne sera pas livré avec des contrôleurs. Il utilisera une puce moins puissante que celle de Quest 2.

HTC Viveport Verse

Plutôt que de partir de zéro pour ses ambitions de métaverse, HTC s’appuie apparemment sur la plate-forme open source Hubs de Mozilla. Les hubs fonctionnent sur WebXR. Ainsi, les utilisateurs peuvent y accéder sur n’importe quelle plate-forme. En outre, ils n’ont pas besoin d’installer ou mettre à jour une application.

Le « Viveport Verse » de HTC, une plateforme aux nombreux potentiels

Une page Web HTC a présenté « Viveport Verse » comme une plateforme pour « rencontrer des gens du monde entier ». Celle-ci indique qu’il permet « d’explorer une variété d’événements, du tourisme virtuel et des expositions aux événements sportifs et festivals ». Il répertorie également les futures fonctionnalités potentielles, notamment l’intégration NFT et le contenu généré par les utilisateurs.

D’après le rapport, HTC travaille avec le réseau social distribué open source Mastodon. Cela permet d’expérimenter l’ajout d’une « couche sociale persistante » à « Viveport Verse ». Mais il note que l’on ne sait pas exactement comment cela fonctionnerait.

Horizon Worlds

Apparemment, « Viveport Verse » est encore au début de son développement. Cependant, il pourrait être conçu pour affronter Horizon Worlds de Facebook. Horizon était initialement prévu pour un lancement en 2020. Aujourd’hui, il reste encore une version bêta sur invitation uniquement. Par ailleurs, Facebook a récemment annoncé un fonds de 10 millions de dollars pour aider les créateurs de contenu.

Cet article HTC travaille sur la plateforme de métaverse grand public « Viveport Verse » a été publié sur Réalité-Virtuelle.com.

Pour Acer, l’avenir de la création passe par le relief

Par : Shadows

Acer dévoile le ConceptD 7 SpatialLabs Edition, un nouvel ordinateur portable destiné aux créatifs. Le produit se démarque de la concurrence par un écran relief sans lunettes.

Les personnes qui nous lisent régulièrement ne seront pas surprises : au printemps dernier, nous avions évoqué les plans d’Acer sur le sujet.

Une configuration au goût du jour

Sur le papier, le ConceptD 7 SpatialLabs Edition propose un processeur Intel Core série H de 11ème génération, plusieurs options côté graphique dont la RTX 3080 de NVIDIA. Un écran UHD 4K vient compléter le tout, avec certification Pantone, 100% de couverture de l’espace Adobe RGB et un Delta E<2.
Rien de surprenant jusqu’ici, la gamme ConceptD d’Acer nous ayant habitués à ce type de positionnement.

En ce qui concerne l’écran relief, il s’agit d’une technologie lenticulaire qui permet donc d’éviter le recours aux lunettes : des lentilles au niveau de l’écran renvoient vers chaque oeil une image différente, d’où la perception du relief.
Bien évidemment, il est aussi possible d’utiliser l’écran de façon classique.

Le relief : vraie avancée ou fonction gadget ?

La démarche d’Acer peut poser quelques questions. En effet, la vague du relief amorcée à la fin des années 2000 avec Avatar est désormais bien loin, et la stéréoscopie ne fait plus vendre auprès du grand public.
Mais justement, ce produit ne se destine pas au grand public. Et Acer ne se contente d’ailleurs pas de proposer un simple écran.

On retrouve ainsi sur la machine le « SpatialLabs Model Viewer », un outil de visualisation d’objets 3D qui dispose de plugins pour différents outils 3D (Autodesk Fusion 360, Autodesk Inventor, 3Ds Max, Rhinoceros, Cura, Blender, SketchUp et Zbrush), mais permet également d’importer les formats 3D courants (OBJ, FBX, STL, Collada, glTF, DAE, IGES, 3DS, Blend, PLY).
Un système mêlant capteurs et IA ajoute par ailleurs un effet de parallaxe lorsque l’utilisateur déplace ou tourne sa tête.

Outre le viewer, Acer a incorporé un lecteur vidéo maison qui gère le relief, et une solution SpatialLabs Go censée générer un effet relief à partir de contenus 2D (photos, vidéos, jeux, visioconférences).

Enfin, un site dédié aux développeurs SpatialLabs est lancé ; il propose notamment un plugin Unreal Engine, et Acer évoque la prise en charge d’Ultraleap (solution de suivi des mains).

Quels usages ?

En termes de marché, Acer esquisse quelques cas d’usage concrets.Le groupe évoque par exemple un configurateur de voiture pour les concessionnaires et clients, des visites guidées pour architectes d’intérieur, ou encore l’observation géospatiale.

Marketing en quête « d’effet wow », industrie, secteur de la création : plus globalement, cet écran pourra être une alternative aux casques VR ou écrans avec lunettes, moins contraignant et plus facile d’usage, même si le fait de ne gérer qu’une seule personne à la fois est un handicap certain.

Premières impressions

Nous avons eu l’occasion d’avoir brièvement ce produit entre les mains dans les locaux d’Acer.

L’effet de relief est convaincant, avec un jaillissement généreux et une bonne définition : même si l’écran lenticulaire implique évidemment de diviser la résolution horizontalement, l’écran 4K permet un affichage de qualité, loin devant ce que l’on pouvait voir il y a une dizaine d’années.

Nous n’avons pas pu tester la conversion de contenus 2D en 3D, et nous ne pourrons donc pas vous donner notre avis sur le sujet à ce stade.
En revanche, la visualisation de modèles 3D est satisfaisante, de même que le visionnage de vidéos.

Le ConceptD 7 SpatialLabs Edition sera disponible en fin d’année aux alentours de 3600€ TTC.

L’article Pour Acer, l’avenir de la création passe par le relief est apparu en premier sur 3DVF.

NVIDIA CloudXR, désormais disponible pour tous sur Google Cloud

Par : Lilia

CloudXR est la technologie de streaming cloud XR en temps réel de NVIDIA. Elle est désormais accessible au public via Google Cloud Marketplace avec les stations de travail virtuelles Nvidia RTX en tant qu’appareil virtuel.

À l’instar des jeux sur le cloud, le streaming XR promet de supprimer une barrière d’entrée élevée. En effet, il fournit des visuels avec énormément de ressources sur des machines virtuelles dans le cloud. Il les sert jusqu’à des périphériques hôtes généralement moins puissants. On cite notamment les PC, les smartphones ou les casques VR autonomes. Plus précisément, la technologie CloudXR de Nvidia permet aux utilisateurs d’exécuter des graphiques VR haut de gamme dans n’importe quelle application OpenVR. Nvidia CloudXR s’étend désormais aux développeurs et aux fournisseurs qui utilisent Google Cloud.

Google Cloud est le troisième plus grand service cloud au monde.  Il prend en charge les systèmes de serveur équipés de GPU Nvidia T4 Tensor Core. Nvidia avait précédemment rendu CloudXR disponible sur Amazon Web Services et Microsoft Azure. Cela a eu lieu après la sortie de son SDK en accès anticipé en 2019. A ce moment, la société a exprimé ses projets de démarrer le streaming CloudXR dans un avenir centré sur la 5G.

Le CloudXR de Nvidia sur Google Cloud, une solution évolutive

Nvidia CloudXR Google Cloud

L’avenir de la 5G approche à grands pas. Elle est aussi peut-être à des années de tenir ses nombreuses promesses pour la réalité augmentée et la réalité virtuelle. Mais le CloudXR de Nvidia, disponible sur Google Cloud, est décidément devenu la solution la plus évolutive du lot. Cela est vrai, surtout maintenant qu’il est disponible sur les trois principaux fournisseurs de services cloud.

Nous ne savons pas où cette évolutivité nous mènera à court terme. La promesse de ne jamais avoir à paniquer pour acheter le dernier GPU est une perspective alléchante. Nous espérons vraiment le voir se réaliser un jour. Les casques autonomes et la promesse d’une configuration minimale sont rapidement devenus un objectif pour attirer de nouveaux consommateurs.

Cet article NVIDIA CloudXR, désormais disponible pour tous sur Google Cloud a été publié sur Réalité-Virtuelle.com.

SubtitleNEXT attracts attention in Europe at APTRAD and Languages and Media conferences

Par : RadianceC

Studios take a keen interest in SubtitleNEXT’s performance-leading Live Subtitling capabilities         In response to audience requests following these recent successful events, the team at SubtitleNEXT will be holding a series of technology “SubtitleNEXT Friday Workshops” as of mid-October onwards, to demonstrate how to create subtitles from scratch or from source. The ...

The post SubtitleNEXT attracts attention in Europe at APTRAD and Languages and Media conferences appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

Popular Fan Film “Jason Rising” Shot With Multiple Blackmagic Pocket Cinema Camera 4Ks

Fremont, CA – October 13, 2021 – Blackmagic Design today announced that “Jason Rising,” a hugely popular fan fiction film based on the Friday the 13th world, was shot using multiple Pocket Cinema Camera 4Ks and graded on DaVinci Resolve Studio. Shot on a micro budget, the film has been viewed more than 300,000 times ...

The post Popular Fan Film “Jason Rising” Shot With Multiple Blackmagic Pocket Cinema Camera 4Ks appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

Windows 11 et Oculus Link ne font pas bon ménage ?

Par : Serge R.

Le nouveau système d’exploitation de Microsoft, Windows 11, et Oculus Link ne font apparemment pas bon ménage. Il en est de même pour sa version sans fil, Air Link. Certains utilisateurs de Quest ont en effet signalé un problème de performances après avoir installé le dernier né de Windows.

Par rapport à ses prédécesseurs, Windows 11 bénéficie d’un design à la fois moderne et épuré. Il laisse aussi de côté le désordre visuel plutôt discordant de Windows 8, 8.1 et 10. Il propose d’ailleurs de nouvelles fonctionnalités bien intéressantes. Le hic, c’est qu’il semble ne pas vraiment être compatible avec l’Oculus Link et l’Air Link pour ceux qui souhaitent jouer à des jeux PC VR sur leur casque Quest ou Quest 2. Cela ne veut tout de même pas dire qu’il s’agit d’un mauvais système d’exploitation.

Windows 11 Oculus Link

Windows 11 et Oculus Link : un tremblement visuel constant remarqué ?

Selon un utilisateur, qui a essayé de connecter un Quest 2 à un PC sous Windows 11 via Oculus Link pour jouer à des jeux VR, il aurait remarqué un tremblement visuel constant. Il aurait constaté ce dernier lorsqu’il bougeait la tête ou les mains, ce qui le rendait malade en quelques secondes.

Le problème se produisait d’ailleurs, que ce soit avec les jeux VR natifs SteamVR ou Oculus, et à la fois sur Oculus Link et Air Link. Le joueur aurait donc immédiatement suspecté un problème de performances. Et pourtant, l’outil de débogage Oculus ne montrait aucune perte d’image. Il en est de même pour les compteurs de performance des jeux.

En fait, son système maintenait une fréquence d’images de 90 images par seconde sans la moindre chute. À noter que le souci persistait, même si l’utilisateur a essayé de se servir de Virtual Desktop. Dans tous les cas, selon lui, le problème viendrait de l’Oculus compositor. Il s’agirait du service auquel les applications VR envoient leurs images rendues. Celui-ci perdait donc des images.

Cet article Windows 11 et Oculus Link ne font pas bon ménage ? a été publié sur Réalité-Virtuelle.com.

MO-SYS TECHNOLOGY PLAYED STARRING ROLE IN MOOV’S VIRTUAL SET FOR BBC SPORT’S TOKYO GAMES COVERAGE

MOOV’s innovative Virtual Studio Production, featuring Mo-Sys StarTracker, has been shortlisted for the Broadcast Sports Awards.  Mo-Sys Engineering, a world leader in precision camera tracking solutions for virtual studios and augmented reality, today announces that its StarTracker technology was front and centre of the innovative virtual studio production for BBC Sport’s coverage of the Tokyo Games. The ...

The post MO-SYS TECHNOLOGY PLAYED STARRING ROLE IN MOOV’S VIRTUAL SET FOR BBC SPORT’S TOKYO GAMES COVERAGE appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

CyBe Construction imprime en 3D des bâtiments aux Caraïbes

Dans le monde entier, l’impression 3D est aujourd’hui régulièrement utilisée pour construire tous types de bâtiments. Que ce soit pour bâtir des écoles, des maisons ou même des terrains de parkour, les constructeurs qui optent pour la fabrication additive sont…

Cybe cover

Une aventure spatiale pour la péniche de Duck Factory

Par : Shadows

Duck Factory n’est pas un studio comme les autres : l’entité, spécialisée dans la production et post-production, est en effet située sur une péniche qui a jeté l’ancre en région parisienne.

Récemment, Duck Factory a collaboré avec l’Agence Spatiale Européenne, qui souhaitait mettre en avant une campagne de recrutement. L’idée était donc de jouer sur l’imaginaire spatial et les rêves associés.
Jérôme Bernard, fondateur de Duck Factory, explique que le projet devait cibler les européens de 12 à 35 ans (il s’agissait aussi de susciter des vocations auprès du jeune public).

Voici le spot, suivi de ses coulisses :

Le brief avait été reçu en septembre 2020, pour un lancement de campagne au mois de mai 2021 : un délai trop court au vu des enjeux, d’où le choix de ne pas utiliser des méthodes traditionnelles.
Duck Factory a opté pour l’usage d’Unreal Engine et d’un système de production virtuelle avec écrans LED (via les services de Plateau Virtuel, que nous vous avions déjà présenté sur 3DVF).

En pratique, l’équipe a créé les environnements virtuels en l’espace de 3 mois, le tournage proprement dit s’étant étalé sur deux jours.
Jérôme Bernard se dit ravi de l’approche, qui a permis de réduire le temps passé sur le plateau mais aussi de « faire la postprod en préprod ».

Côté technique, l’équipe s’est notamment appuyée sur les assets Quixel Megascans, ainsi que sur Ultra Dynamic Sky.
Les environnements ont nécessité de 1,7 million de triangles (chambre anéchoïque) à 320 millions de triangles (paysage de Guyane), la majorité tournant autour des 4 ou 5 millions de triangles.

Crédits :

Director – Jérôme Bernard
For ESA – European Space Agency

VFX Supervisor – Johan Sarbia
Director of Photography – Julien Lascar
Music – Etienne Forget
Narrator – Julia Gguillen
shot at Plateau Virtuel

PRODUCTION
DUCK FACTORY – DKFT

Producer – Jérôme Bernard
Production manager – Pierre SAINT-BLANQUAT
Production assistant – Jeanne GAY-BÉZIAT
Storyboarder – Eric Gandois
Moodboard – Stéphanie Coulibeuf

CASTING

Little girl – Eleana Da Costa
Boy – Wassim Falaya
Disabled woman – Prudence Leroy
Scientists – Laura Zimmer & Léonard Hamet
Control room supervisor – Etienne Guillou Kervern
Control room operator – Krees de Almeida
Astronauts – Christelle Wallois & Marc Quenum

FILM CREW

Director of Photography – Julien Lascar
First Assistant Camera – Zoe Mention
2nd Assistant Camera Katia Hamnane
Gaffer – Clément Boyeldieu
Lighting technician – Gabriel Beaumelou
Drone operator – Christophe Guyon
Key grip – Pierre Marion-Andres
Set decorator – Lydwine LABERGERIE
Asst set decorator – Mareva BOURJAC-LABERGERIE
Stylist – Nathalie FRACHON
Key Make-up – Artist Simine COMMIEN
Make-up Artist – Emmanuelle POMBET
Location manager – Adrien Cokelear
first floor manager – Mathieu Lecaisne
2nd floor manager – Vincent Drocourt
Astrophysicist youtuber – Sébastien Carrassou
Making of instagram – Anthony Ornecq
Still photographer – Victoria Roblin
Culinary Chef – Johan Bonnet

Plateau Virtuel

Emilie Lecoq
Bruneau Corsini
Sébastien David
Julien Arnould
Olivier Saint Hubert
Clément Boyeldieu

POST PRODUCTION
DUCK FACTORY – DKFT

VFX SUPERVISOR – Johan SARBIA
VFX artist – Mathieu Gomez
EDITOR & VFX artist – Tanguy lavabre
colorist – Rémy Devlieger
SOUND DESIGNER – Clément Maurin

STUDIO VFOR
UNIVERSE SEQUENCE
Producer – Tom Bogda
VFX artists – Jérémy Djaffer, Gabriel Thomas and Pav Ivanov

MAKING OF

Director of photography – Christophe Guyon
Sound engineer – Léonard Hamet
Editor – Tanguy lavabre
Graphist – Mathieu Gomez

L’article Une aventure spatiale pour la péniche de Duck Factory est apparu en premier sur 3DVF.

SideQuest : une levée de 3 millions de dollars pour aider les développeurs

Par : Lilia

L’année dernière, SideQuest a réussi à lever 650 000 dollars. Aujourd’hui, elle a effectué une ronde de financement d’une valeur de 3 millions de dollars. Ses fondateurs cherchent à créer des outils pour aider les développeurs de réalité virtuelle.

SideQuest a été lancé en 2019, seulement deux jours après la sortie de l’Oculus Quest. Aujourd’hui, selon ses fondateurs, Shane Harris et Orla Harris, cette plateforme voit plus d’un millions d’utilisateurs actifs par mois.

Facebook a mis en place une politique de conservation stricte de type console pour le contenu de Quest sur l’Oculus Store. Quant à SideQuest, elle a immédiatement offert aux développeurs de réalité virtuelle un moyen de répertorier publiquement tout logiciel de réalité virtuelle. Les utilisateurs peuvent essayer ceux-ci sur le casque de Facebook. Par ailleurs, SideQuest a rendu facile pour les propriétaires de Quest le test des logiciels expérimentaux. Cela s’est fait bien avant que Facebook ne prenne en charge ce type de distribution avec l’App Lab.

Le marché des casques VR est sur le point de changer. En effet, les concurrents semblent intensifier leurs efforts pour créer des casques VR plus puissants. La norme OpenXR prise en charge devrait permettre aux développeurs de créer simplement des applications VR fonctionnant sur une large gamme de matériel.

SideQuest, un investissement supplémentaire pour étendre les plans de l’entreprise

Avec son investissement initial, les représentants de SideQuest ont déclaré que le financement les aiderait à créer un service de test pour aider les développeurs VR. Et avec les 3 millions de dollars supplémentaires, SideQuest peut accélérer et étendre ses plans. Soulignons que cette ronde de financement a vu la participation de PROfounders, Ada Ventures, Connect Ventures, Ascension et SCNE.

SideQuest

Des jeux comme Puzzling Places et Hyper Dash ont utilisé SideQuest pour obtenir des retours sur leur logiciel en développement. Récemment, SideQuest a publié une application Android qui permettait le chargement latéral sur Quest sans avoir besoin d’un PC.

« Cette augmentation nous fournit les pistes nécessaires pour nous concentrer sur la stimulation d’un engagement plus important dans nos communautés… Nous sommes ravis de pouvoir offrir une communauté à la prochaine génération de créateurs de contenu », a déclaré Shane Harris à UploadVR. « Nous sommes ravis de concentrer nos énergies sur la création d’outils et de services. Cela aidera les développeurs à cibler plusieurs plates-formes avec OpenXR. De plus, ils tireront parti de la communauté SideQuest pour élargir leur audience. »

Cet article SideQuest : une levée de 3 millions de dollars pour aider les développeurs a été publié sur Réalité-Virtuelle.com.

Guitar Hero Live : le DRM hardware inutile en 2021

Il y a quelques mois maintenant, j’avais acheté à vil prix un accessoire rigolo : une guitare Bluetooth pour la version iOS de Guitar Hero Live. Et je me suis rendu compte qu’elle ne servait… à rien.

Petit résumé : Guitar Hero Live est sorti en 2015 sur iOS et a même été adapté à l’Apple TV lors du lancement de la version 4 (maintenant HD), qui prenait en charge les applications. Le jeu était gratuit, mais il y avait peu de chansons (deux sur iOS), avec un twist : si vous achetiez la guitare, elle débloquait les titres. Oui, parce qu’Activision avait lancé une guitare spécifiquement pour la variante iOS du jeu. Elle se connecte en Bluetooth LE et sert littéralement de DRM hardware, du coup. Elle était proposée pour 100 €, directement chez Apple notamment. La construction est assez correcte, ça reste du plastique mais ça semble solide quand même, il n’y a pas grand chose à dire sur ce point. A noter que la manette pour iOS est vraiment spécifique : elle est différente des versions consoles. Pour les autres versions, il y a une guitare qui ne change pas et un dongle spécifique à chaque console (ils sont interchangeables). A l’époque du lancement de l’Apple TV, la guitare avait fait parler d’elle : elle était obligatoire pour jouer sur Apple TV et le jeu ne prenait pas en compte la Siri Remote.

La guitare

Pourquoi c’est inutile (ou presque) en 2021 ?

La guitare ne fonctionne qu’avec Guitar Hero Live et le jeu a été supprimé de l’App Store en 2018. La page de support n’est pas très clair sur le fonctionnement si vous aviez téléchargé le jeu avant la date butoir (juin 2018), mais je n’ai pas trouvé de version crackée du titre (il était gratuit, donc forcément, pas réellement piraté). Disons que même si je trouvais une version installable, je ne suis pas certain qu’elle fonctionnerait : cet article de l’époque indique qu’une partie du gameplay est téléchargé en streaming. Du coup, je suppose que même sur un iPhone avec le jeu installé, ça ne fonctionne plus (ou plus totalement). Qui plus est, les titres débloqués avec la guitare sont a priori téléchargés, donc inutilisables. Sur les consoles, la fermeture des serveurs a supprimés une partie des achats (et une bonne partie des possibilités) mais les titres présents sur les disques – 42 – restent utilisables.

La guitare est bien Bluetooth LE

Maintenant, pourquoi est-ce (presque) utilisable ? Parce qu’il existe un programme qui singe Guitar Hero, Clone Hero. Et comme la guitare est compatible Bluetooth (4.0), il existe des programmes pour l’utiliser sur Mac ou sous Windows 10 directement. Le premier est open source mais nécessite de couper pas mal de sécurités de macOS. Le second est payant (10 £) et fonctionne sous Windows 10 et macOS (avec dans les deux cas, évidemment, une puce Bluetooth compatible). Il prend en charge Clone Hero et permet même de connecter plusieurs guitares sous macOS. Bon, je n’ai pas testé, et pas à cause du prix : je suis assez nul dans les jeux de rythme. Genre vraiment.

En fait, j’en ai parlé parce que vraiment, les titres qui disparaissent des App Store, spécialement quand ils sont liés à du matériel, c’est énervant. Alors que mon clavier Rockband pour Wii, il fonctionne encore (et en MIDI).

D’une cinématique PUBG à l’avenir du rendu : rencontre avec Brunch

Par : Shadows

Nous suivons l’équipe de Brunch depuis plusieurs années déjà : nous avions notamment eu l’occasion de vous proposer des interviews en leur compagnie autour d’une cinématique pour The Division 2 d’Ubisoft, puis d’une autre destinée à Riot Games et son Teamfight Tactics.

C’est désormais dans l’univers PlayerUnknown’s Battlegrounds (PUBG) que nous plonge Brunch, avec une cinématique sortie cet été pour promouvoir un nouveau jeu mobile lié à la licence.
Réalisée par Boddicker (Jean-Charles Kerninon et Clément Lauricella), produite par Eddy, cette cinématique adopte un rendu stylisé qui tranche avec l’approche photoréaliste de nombreuses bandes-annonces de jeu.

En compagnie de Brunch, nous vous invitons à découvrir le projet, ses coulisses et ses défis techniques et artistiques.
Démarche visuelle, narration poussée, travail en lien avec de la musique, animation en step, contraintes narratives liées à Youtube, vous saurez tout sur les coulisses de cette cinématique.

Et comme le projet adopte un rendu non photoréaliste, nous en avons profité pour échanger avec les réalisateurs sur les tendances actuelles en matière de rendu stylisé, mais aussi sur l’impact de l’IA et du deep learning sur l’avenir du rendu.

Le résultat : une interview dense et riche en informations à découvrir après avoir (re)vu la cinématique PUBG !

3DVF : Bonjour Boddicker/Brunch ! La cinématique PUBG : NEW STATE – La chute de Troi que vous avez récemment dévoilée trouve ses origines dans une autre licence : le travail que vous aviez fait pour The Division 2 d’Ubisoft, sur lequel nous vous avions d’ailleurs déjà interviewés.

Boddicker (Jean-Charles Kerninon et Clément Lauricella) : Tout à fait. En fait, PUBG Studio avait sorti une grosse cinématique, dans un style très photoréaliste et proche du jeu (en termes d’actions, de lighting). Or ils se sont rendus compte que cette approche ne fonctionnait pas : le projet était certes très beau et bien géré, il ne se démarquait pas du reste des cinématiques jeux vidéo en termes de rendu. La cinématique n’avait donc pas marqué le grand public autant que PUBG l’avait espéré.

Ils sont donc venus nous voir avec comme ambition d’aller vers quelque chose de plus stylisé, et d’avoir une narration plus approfondie pour sortir du lot.

Ils avaient eu l’occasion de voir notre travail sur The Division 2 (que nous avions co-réalisé avec Olivier Lescot), et cela correspondait à leur vision, un style fort et une vraie histoire.

Cinématique d’Olivier Lescot & Boddicker pour The Division 2

3DVF : Plus concrètement, quel était la demande, quels aspects du jeu fallait-il souligner ?

Il s’agissait d’accompagner la sortie d’un jeu mobile, PUBG : NEW STATE. L’action se situe dans le futur, et il y a une nouvelle map, des éléments plus technologiques (même si l’équipe est revenue en arrière par rapport à certains plans initiaux).
L’idée était notamment de mettre en place un lore, avec plusieurs factions du jeu. Quelques personnages principaux étaient déjà écrits mais sans avoir d’apparence visuelle associée, car ils n’étaient pas inclus dans le jeu.

Le brief, au fond, était assez simple : le studio avait trois gangs, trois factions, avec leurs leaders. Et une nuit, une équipe de chasseurs devait arriver et tuer tout le monde.
A partir de là on a pu écrire un scénario et leur proposer.

Visuellement, aucune référence, quartier libre pour présenter ce qu’on voulait, ils n’ont même pas demandé un style spécifique. La seule demande était d’éviter le photoréalisme.

Il y a eu une évolution dans le concept, nous avions proposé quelque chose de très narratif, avec des dialogues, une histoire accompagnée par de la musique (nous savions qu’un groupe de musique serait impliqué mais la musique n’était pas encore définie).
Cependant, eux voulaient vraiment appuyer la cinématique sur la musique.

Au final la cinématique est un mix de ces visions, avec un côté clip mais tout en gardant de la narration, et une longue intro sans musique. Ils nous ont tout de même bien permis de nous exprimer.
L’absence de dialogues a aussi des avantages : on a des non-dits, du mystère du fait par exemple que le dialogue final n’est pas audible (même si on l’a écrit dans le script !).

3DVF : Comment avez-vous géré ces contraintes au niveau sonore ?

Cela a beaucoup changé notre façon de réaliser et monter, par exemple nous avons mis en place beaucoup de coupes au moment des tirs.

Pendant longtemps il y a eu un flou pour savoir ce qui prenait le pas : est-ce que la musique devait s’adapter à l’image, ou l’inverse. On a reçu des maquettes que l’on a transformées, découpées, on a rallongé des moments… Nous avions aussi une courbe d’intensité pour le film que nous voulions respecter…

Les tests se sont poursuivis très tardivement, et au final le plus simple a été que le client nous fournisse la musique, qu’elle ne bouge plus et que l’on s’adapte, que l’on cale dessus nos rythmes, nos plans.

3DVF : Quelle était la taille de l’équipe, et combien de temps a duré le projet ?

5 mois de production, c’est un de nos plus longs projets.

Pour l’équipe, une quarantaine de personnes sur l’ensemble du projet mais sans dépasser la douzaine de personnes en même temps.

Et avec donc Eddy à la production, Brunch à la fabrication.

3DVF : Une ambiance nocturne peut être délicate à gérer au compositing, est-ce que ça a été le cas ici ?

Pas autant qu’on aurait pu le craindre. Evidemment, il a été nécessaire d’égaliser les plans durant la production, mais visuellement on est sur une nuit très graphique, teintée, pas sur une obscurité totale. Et comme les graphistes s’occupaient de séquences entières, on a pu facilement obtenir une unité de séquence.

3DVF : En termes de chara design, comment se sont passées les choses ?

Pour les leaders, nous n’avions pas de design, aucun élément, juste une fiche descriptive de la personnalité (faits d’arme par exemple).

Par contre nous avions quelques charas designs ou skins de personnages « lambda » qui étaient pressentis pour intégrer le jeu, nous avons donc étudié ces éléments afin d’avoir une cohérence visuelle. C’est ensuite que l’on a imaginé nos designs.

Nous avons eu une liberté énorme.

En pratique, quand on travaille sur le design de personnages, il y a des plannings, plusieurs designers en parallèle qui font plusieurs propositions par personnage, et c’est ensuite qu’il faut trouver un style global pour le film.

Or entre en design 2D et une retranscription 3D il est toujours difficile de se projeter ou d’avoir une bonne cohérence sur l’ensemble des designs. Il n’est jamais évident de dire à un graphiste « on voudrait tel type de rendu » et d’avoir un design adapté, c’est plutôt à l’étape de fabrication que l’on intègre tout ça, que l’on adapte tous les personnages, qu’on se les approprie. En décidant du type de textures, de la patte graphique.

D’autant plus que nous sommes des techniciens, nous maîtrisons la 3D plus que la 2D.

Si a posteriori on compare les characters designs et le résultat final, ça se ressemble mais il y a clairement une différence.

3DVF : Comment avez-vous abordé les visages ?

Notre parti pris était de nous affranchir d’un look 2D, de règles un peu idiotes que beaucoup se mettent pour avoir un « look 2D » ou « look 3D », on ne voulait pas que les gens pensent que le but était « d’imiter de la 2D », ce qui est très laborieux.

Nous avons donc opté pour garder du détail en modélisation, mais aussi pour le fait de mettre de la matière, de la texture. De même, sur les masques des chasseurs, on a assumé le côté 3D, mis une patine, des reflets réalistes et non bakés.

Un point qu’il faut souligner, c’est l’importance ici de la confiance que l’on nous a accordée. Sur ce genre de projet il faut généralement tout de suite, dès le pitch, montrer ce à quoi montrera le film. Ici, nous avons pu faire des essais, des recherches, le client et la production ont vraiment fait confiance, malgré l’attente que génère ce processus.

3DVF : Toujours sur les détails, le travail sur les yeux est impressionnant, de la texture, des reflets…

Il y a de la triche sur certains plans, avec par exemple des spéculaires 2D sur des petites plaques que l’on fait trembler pour créer du mouvement, par exemple à la fin quand Marion parle au Sherif et que ses yeux s’écarquillent. Ou quand une autre héroïne est allongée, avant de se faire exécuter. A l’inverse, sur d’autres plans ça ne marche pas visuellement, donc soit on retirait totalement, soit on mettait du spéculaire 3D.

Au final, tant que ça marche, peu importe la technique.

On a surtout gardé cet effet quand nous voulions raconter quelque chose avec le spéculaire, jouer sur les émotions.

3DVF : Vous avez opté pour une animation en step. Or il nous a semblé que certains FX sont animés avec plus de fluidité…

Pas tout à fait.

En fait on a adapté le framerate au plan, voire pendant le plan. Par exemple sur un plan un antagoniste court, manque de tomber, la caméra le suit et s’attarde. La caméra est fluide au début, puis beaucoup moins sur la fin pour renforcer le côté nerveux.

Les FX sont tous en step, mais comme ça bouge très vite on a cette sensation de fluidité. Et comme animer en 2 nous semblait parfois trop fluide, nous sommes parfois passés sur une animation en 3 ! Ca dépend vraiment du plan. Ca s’est fait au ressenti.

Pages suivantes : animation, FX, chara design, violence Youtube, rendu stylisé, machine learning.

L’article D’une cinématique PUBG à l’avenir du rendu : rencontre avec Brunch est apparu en premier sur 3DVF.

La Bank of America (BofA) investit dans la réalité virtuelle pour former ses employés

Par : Lilia

La Bank of America Corp (BofA) met en œuvre la réalité virtuelle pour aider à former les employés de ses succursales.

L’année prochaine, la Bank of America (BofA) prévoit d’utiliser des casques de réalité virtuelle au sein de 4300 centres financiers. C’est ce qu’a déclaré John Jordan, directeur de l’Académie de la banque. Cette année, les casques seront utilisés lors de cinq modules de formation. D’ici la fin 2022, ils serviront lors de 15 autres modules formations axés sur les interactions avec les clients.

Ces interactions pourraient impliquer l’établissement de relations, des questions difficiles ou des situations très émouvantes, a affirmé Jordan. Les employés mettent le casque. Ensuite, ils auront l’impression d’être dans la même pièce avec le client. Les simulations aideront les employés à développer des compétences d’empathie ou à coacher un collègue. « Pour rendre la formation plus mémorable, il faut que l’expérience incorpore des émotions », a-t-il souligné.

BofA réalité virtuelle

« L’objectif est de l’utiliser tout au long du cycle de vie des employés…Tout cela est destiné à rendre les employés plus à l’aise dans leur travail.  » Jusqu’à présent, la BofA a distribué environ 50 casques de réalité virtuelle à 50 succursales. Ce nombre devrait passer à 1000 le mois prochain. Soulignons que la BofA a refusé de partager le nom du fournisseur avec lequel il s’associe.

BofA, un budget technologique annuel de 14 milliards de dollars

Selon John Jordan, la technologie de la réalité virtuelle pourrait être applicable dans tous les secteurs d’activité. Il peut également être pratique pour réussir une formation en groupe. Il a affirmé que la BofA avait vu la réalité virtuelle utilisée dans des programmes d’athlétisme. La banque a précisé qu’elle était la première du secteur des services financiers à lancer ce type de formation en réalité virtuelle.

BofA réalité virtuelle

Jordan a déclaré que la BofA a passé ces dernières années à investir dans de nouvelles méthodes de formation. L’établissement possède des simulateurs pour la technologie de la banque, des bibliothèques d’appels avec des situations réelles enregistrées et l’iCoach basé sur l’intelligence artificielle pour pratiquer les conversations. La nouvelle formation en réalité devrait atteindre à terme 50000 employés.

La BofA a également refusé de partager un coût d’investissement. Le budget technologique annuel de la banque est d’environ 14 milliards de dollars. Cela comprend environ 3,4 milliards de dollars pour de nouveaux développements, une augmentation par rapport aux années précédentes.

Cet article La Bank of America (BofA) investit dans la réalité virtuelle pour former ses employés a été publié sur Réalité-Virtuelle.com.

Facebook rebaptise le projet « Facebook Horizon » en »Horizon Worlds »

Par : Lilia

Facebook rebaptise Facebook Horizon en Horizon Worlds. Il prévoit aussi de concentrer ses efforts sur les outils de construction basés sur la réalité virtuelle. Il créera un fonds de 10 millions de dollars pour encourager les créateurs.

Horizon Worlds est le nouveau nom du projet Facebook Horizon. La société laisse de côté la prise en charge des mondes basés sur Unity. Elle encourage les créateurs utilisant ce moteur de jeu à passer par l’Oculus app store.

En 2019, le service social présenté pour la première fois pour Oculus Quest prenait en charge les mondes développés dans Unity. Ceux-ci étaient nettement plus complexes et engageants que ceux créés en VR à l’aide des outils de Facebook. Unity est le moteur de jeu le plus populaire parmi les développeurs. Aux côtés de Roblox, Rec Room et Epic Games, les sociétés font des efforts pour créer des outils puissants pour la création interactive de monde virtuel 3D.

Facebook a tenté d’acquérir Unity dans le passé. Cela aurait donné au géant de la publicité un ensemble d’outils clés poussant des créateurs à travailler avec la société de médias sociaux. Cependant, en 2020, Unity est devenu public en bourse. Facebook a récemment annoncé son application Horizon Workrooms pour travailler à distance en VR. « Horizon » peut désormais être considéré comme la marque de Facebook pour les applications VR sociales.

Horizon Worlds, des fonds pour soutenir les créateurs

Horizon Worlds

Deux ans après son lancement initial, Facebook affine Horizon Worlds autour de sa communauté créative basée sur la réalité virtuelle. Le fonds des créateurs de 10 millions de dollars sera distribué de différentes manières. Cela se fera notamment à travers de concours communautaires, un programme d’accélération et un financement pour les développeurs.

Facebook a déclaré qu’il ajouterait plus de personnes à la version test d’Horizon Worlds. « Nous nous attendons pleinement à des événements payant. Nous espérons que les gens demandent l’échange de biens, l’achat de biens et d’articles numériques… », a déclaré Vivek Sharma, vice-président chez Facebook Reality Labs.

« Concernant les fonctionnalités exactes sur lesquelles nous travaillons, je n’ai encore rien à annoncer à ce sujet. Mais en jetant un œil à la famille d’applications de Facebook, vous verrez que nous avons déjà les capacités d’assembler les meilleurs ingrédients pour les créateurs » a-t-elle ajouté.

Cet article Facebook rebaptise le projet « Facebook Horizon » en »Horizon Worlds » a été publié sur Réalité-Virtuelle.com.

Engineering Emmy Awards : and the winner is…

Par : Shadows

Le 21 octobre se tiendra l’édition 2021 des Engineering Emmy Awards. La cérémonie, analogue aux Sci-Tech Academy Awards des Oscars mais pour le petit écran, récompense chaque année les personnes et entités qui ont apporté des contributions techniques dans le domaine de la télévision.

Cette année, aux côtés de CEDAR Studio (solution de restauration audio et suppression de bruit) et des systèmes d’éclairage SkyPanels proposés par la marque ARRI, des simulateurs de foules et moteurs de rendu seront primés.

Les foules, reines des séries

Ces dernières années, les simulations de foules deviennent un outil incontournable pour les séries à grand spectacle. The Walking Dead, Game of Thrones, Once Upon a Time en sont de bons exemples.

C’est donc très logiquement que l’éditeur de logiciels Golaem (photo d’en-tête) va être primé. Un prix qui intervient alors que l’outil a récemment soufflé 10 bougies, et que la version 8 approche à grands pas.
Golaem Crowd a notamment été employé sur les séries Game of Thrones, Love, Death & Robots, Jack Ryan, The Walking Dead, Lego City Adventures (un projet évoqué dans notre interview du studio Circus, pages 3 et 4), Watchmen, Lost in Space, The Expanse, Versailles, …

L’outil Massive sera lui aussi primé. Cette solution a été employée entre autres sur Game of Thromes, Fear The Waliing Dead.

Les moteurs de rendu, toujours indispensables

Outre la simulation de foules, les Engineering Emmy Awards récompenseront aussi le rendu, avec deux produits : Arnold et son système d’illumination globale, ainsi que V-Ray de Chaos. Le choix des lauréats repose en partie sur leur popularité dans les studios.

Les 73emes Engineering Emmy Awards seront remis le 21 octobre à Los Angeles.

L’article Engineering Emmy Awards : and the winner is… est apparu en premier sur 3DVF.

The Gigabyte Aero 15 4K AMOLED: A Portable Editing Beast

For all you editors on-the-go, you need to read this in-depth discussion on the Gigabyte Aero 15—the pros definitely outweigh the cons.

September 2021 TOP 5 Engagement

Have you missed any popular Panasonic news? Here are the TOP 5 most engaged posts for September 2021.

Le studio Trigger fête ses 10 ans

Par : Shadows

L’équipe du studio Trigger célèbre son 10ème anniversaire : l’entité a été fondée le 22 août 2011 par Hiroyuki Imaishi et Masahiko Ōtsuka.

En une décennie de travail, Trigger s’est fait connaître avec des séries et longs-métrages très divers : Little Witch Academia, Kill la Kill ou encore Promare. Tout récemment, le studio était impliqué dans la série de courts-métrages Star Wars: Visions : on lui doit les épisodes The Twins, The Elder.

L’article Le studio Trigger fête ses 10 ans est apparu en premier sur 3DVF.

❌