Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Interview : Nexus VI, les coulisses d’un épisode grandiose

Par : Shadows

Depuis 6 ans déjà, la chaîne Nexus VI écume Youtube et la galaxie, avec des vidéos consacrées à la science-fiction sous toutes ses formes.
En pratique, les vidéos Nexus VI se déroulent elles-mêmes dans un univers de SF à part entière, avec un vaisseau, son équipage, des extraterrestres variés et des aventures aux quatre coins de la galaxie, quelque part dans le futur.

Au début de l’été, le très ambitieux épisode 7 a été dévoilé : une analyse détaillée du film Le Cinquième Element, entrecoupée de rebondissements épiques. On y trouve notamment une séquence d’introduction bluffante de plus de deux minutes avec une mégapole futuriste, des combats spatiaux, un final brûlant.

La grande majorité de ce travail d’effets visuels est l’oeuvre de l’artiste Romain Toumi, qui a accepté de nous livrer les coulisses de ce projet hors du commun.
Voici l’épisode complet ; vous trouverez dessous les timecodes des principales séquences à effets visuels, mais nous vous invitons évidemment à regarder l’épisode complet, afin de profiter de l’ensemble des effets, de l’analyse et du scénario.

0:32 : début de la séquence d’introduction
13:03 : dogfight
15:46 : séquence du looping
16:01 : séquence inspirée de Star Wars VIII
17:10 : dogfight dans les astéroïdes
24:08 : hologramme
31:24 : scène du grappin
32:10 : début de la séquence finale

3DVF : Bonjour Romain ! Les personnes qui nous lisent connaissent sans doute déjà ton travail pour la chaîne Youtube Nexus VI, qui traite de science-fiction et cumule près de 230 000 abonnés. Tu as notamment géré l’immense majorité des effets visuels de l’épisode 7 sorti cet été, un travail impressionnant du point de vue de sa qualité, surtout au vu des contraintes de production (budget, taille de l’équipe).
Mais avant d’y plonger, quelques mots sur ton parcours ?

Romain Toumi : Mon parcours est assez bordélique [rires] ! Je n’étais pas très doué au collège, on m’a donc orienté là où il y avait de la place, dans un lycée professionnel en métallurgie. Je suis allé jusqu’au BTS, et pendant mes années Bac/BTS je m’intéressais notamment à l’imagerie 3D, au cinéma d’animation. A la fin de mon BTS, je faisais du dessin industriel en 3D, ce qui était un peu lié.

Après mon BTS, l’entreprise qui m’a embauché a fini par couler, et le chômage m’a permis de remettre des choses sur le tapis et de me reconvertir en autodidacte.

En 2016 je crée C3N Studio avec un ami Jordan Tetevuide, ma société d’effets spéciaux et animation 3D; je m’étais dit que tout allait bien se passer, que j’allais faire un film d’animation tout seul… Très vite on retombe sur terre. J’ai fait des petits projets à droite à gauche dans la région de Metz, comme des sites web, des logos. En démarchant des boîtes de prod au téléphone j’ai pris contact avec Fensch Toast, qui produit notamment Nexus VI. Je les ai rencontrés j’ai travaillé avec eux sur un clip de Matt Elliott, mes premiers VFX dans une vrai prod. Le courant est bien passé et artistiquement leurs projets me plaisaient, on a fini par se lier d’amitié et on a rapidement parlé du vaisseau Nexus VI, que ce serait génial de le voir de l’extérieur. Et me voilà lancé pendant plusieurs semaines à créer mon premier gros projet 3D.

Il y a eu beaucoup de péripéties depuis, mais actuellement je suis sur Nexus VI à plein temps pour la nouvelle trilogie (l’épisode 7 déjà sorti, 8 et 9 en cours), et j’ai lâché mon ancienne entreprise.

3DVF : Par rapport à l’équipe du Nexus VI : étant donné leur passion pour le cinéma et la SF, on imagine qu’ils ont un gros bagage de références visuelles et cinématographiques. Quel est l’impact sur leurs demandes, et notamment sur la répartition des effets entre ce qui sera fait de façon traditionnelle ou numérique ?

Le vrai fan de SF est surtout le Capitaine (Renaud Jesionek), qui écrit les scénarios, fait ses analyses. Alexandre Marinelli, le réalisateur [NDLR : et interprète de Slexno], n’est pas forcément un gros fan de cinéma de SF ; dans ses projets passés on retrouve surtout beaucoup de montage de bandes-annonces, ce qui se ressent assez clairement dans Nexus VI avec une approche très cut, très dynamique et bien adaptée à Youtube. Il a par ailleurs fait de la réalisation sur beaucoup de styles différents et il a même récemment réalisé un court métrage à l’occasion du Nikon film festival et gagné le prix du public, j’ai fait quelques VFX dedans aussi d’ailleurs [NDLR : à découvrir ci-dessous].

Crédits :
Réalisation : Alexandre Marinelli
Avec Alexandre Marinelli, Cyril Chagot, Lucie Schosseler, Romain Toumi
Chef Opérateur – Laurent Steiner
Images – Pierre Nicolas
Superviseur VFX – Romain Toumi
Ingénieur du son – Thomas Koeune
Régie – Camille Picot
Remerciements – Fensch Toast – Renaud, Cathy et Jean Jesionek
Albert et Danièle Philippe – Ville de Thionville.

Sur la question de la répartition et de qui fait quoi, on y réfléchit à plusieurs : surtout Alexandre et moi, Alexandre ayant toujours son idée en tête. Néanmoins le Capitaine est aussi inclus, il pose des questions avant même l’écriture, fait des suggestions. Même chose pour Cyril Chagot, le producteur [NDLR: qui interprète Sayreel et Zarbut, l’IA du vaisseau].

Le scénario s’adapte fatalement un peu au budget, même si on essaie de garder une grande liberté.

On fait donc plusieurs réunions tous les quatre, Alexandre dirige les échanges définit la mise en scène qu’il souhaite.
Arrive ensuite une phase de plusieurs jours durant laquelle Alexandre et moi faisons un découpage des scènes, on liste les plans avant de tourner.

Vient enfin l’étape du storyboard…

Extrait de storyboard (séquence du grappin)

Comme vous pouvez le voir avec la scène du grappin [31:24 dans l’épisode], on ne respecte jamais vraiment mais ça donne une idée globale, le storyboard sert plus à la recherche qu’à définir vraiment les plans et les axes.

Au final il y a beaucoup d’improvisation lors du montage, en fait, et à ce stade Alexandre met des écrans noirs partout où un plan CGI est censé se trouver par rapport au découpage… Mais aussi partout où il en a envie, en insérant des descriptifs sur ces écrans noirs.

Cette méthode de travail génère des surprises, mais permet de ne pas être limité par l’écriture initiale. Au final le processus de réflexion des VFX est donc étalé de l’écriture jusqu’à la toute fin, pour l’épisode 7 j’ai rajouté un plan une semaine avant la diffusion de l’avant-première !

En fait, une fois les écrans noirs insérés, et même après validation du montage, on continue à faire des changements comme remplacer les écrans noirs par mon layout/animatique.

Après on envoie le tout à la personne qui fait la musique et le son. Ce qui conduit parfois à couper des éléments, se débrouiller, négocier…

Notre approche est donc bien plus flexible que pour une production classique.
Avec parfois quelques choix particuliers : nous avions annoncé une date de sortie pour l’épisode 7 alors même que certains effets n’étaient même pas commencés… Peu de studios le feraient !

3DVF : La séquence d’introduction est LE point phare de l’épisode en termes d’effets visuels. On part de l’espace, on se rapproche d’une planète puis d’une cité futuriste avec nuages, immeubles innombrables, vaisseaux, voitures volantes, panneaux, habitants… L’ensemble est vraiment impressionnant par l’ampleur de la tâche et la qualité du résultat. Comment as-tu abordé cette partie de l’épisode ?

Il faut savoir que le scénario ne décrivait que très brièvement ce passage, ça se résumait plus ou moins à « la caméra est dans les étoiles et arrive au cœur d’une grande mégapole puis dans une pièce, dans la pénombre » ça c’est fini au final par un plan séquence de 2 minutes qu’on pourrait qualifier de court-métrage.

Ce n’est pas toujours comme ça, le Capitaine et Alexandre peuvent donner plus d’indications s’ils ont une idée précise en tête pour le scénario, mais ici il était acté que j’avais carte blanche, du moment que l’on partait des étoiles pour arriver dans la pièce obscure avec le pin’s coupé en deux. Sur le reste j’étais libre, par exemple, de mettre ou pas des gens dans la ville.

Cela correspond assez à notre état d’esprit. Par exemple Lucie Schosseler (qui fait les prothèses des extraterrestres) peut elle aussi laisser libre cours à son imagination, créer des concepts, faire des propositions fortes. On a une grande liberté artistique, il arrive donc souvent que des éléments ne soient décrits que par quelques lignes.

Showreel de Lucie Schosseler, qui met notamment en avant son travail pour Nexus VI

3DVF : Cela te permet sans doute aussi d’ajuster le contenu en fonction du budget, du temps disponible?

Tout à fait. La ville a pris un an de travail, mais pas d’un bloc (je pouvais par exemple travailler sur la ville, puis quelques semaines plus tard passer sur une autre séquence et revenir sur la ville après). Le Covid a été une « chance » dans le sens où le budget temps a considérablement augmenté, d’où une séquence bien plus longue que prévue : l’introduction durait en théorie moins de 30 secondes !

J’ai profité des confinements, de la mise en pause du monde entier pour travailler d’arrache-pied confiné avec mon matos chez moi, entre autres pour expérimenter : à peu près personne ne fait de la foule sous Blender, par exemple.

Sans la pandémie, le plan aurait été cool, mais moins impressionnant et moins long !

3DVF : C’est vrai que cette idée d’un zoom de l’espace vers un détail sur Terre est un classique du cinéma, et cela peut être expédié en quelques secondes ou, comme ici, transformé en une vraie séquence détaillée.

Voilà, l’idée était de travailler sur ce concept classique, que les gens se disent que ça vaut le coup de voir le plan.

3DVF : Pour la création concrète de la ville, comment as-tu travaillé ?

Au layout, j’ai utilisé des blocs basiques pour les immeubles. Sur un tel plan, c’est la caméra qui est le personnage principal, je travaille donc vraiment énormément ses mouvements. Le fait d’avoir des éléments très schématisés autour ne pose pas de souci. Même chose pour le vaisseau d’ailleurs.

En pratique, il a fallu que l’on ajuste le mouvement de caméra pour des raisons techniques : le layout faisait que certains éléments étaient à la fois visibles de très loin et très proche, ce qui aurait demandé beaucoup trop de boulot par rapport au plan final, avec ce plongeon vers quelques immeubles proches et après seulement un redressement vers des immeubles plus lointains, qui n’ont donc pas besoin d’être aussi précis. Si on les avait vus plus tôt, j’aurais dû les détailler davantage, mettre de la population, des voitures, etc.

Une autre astuce sur ce passage, lorsque la caméra remonte vers la forêt d’immeubles au fond : ces derniers remontent physiquement, afin qu’ils dépassent verticalement des immeubles du premier plan. Ça n’a pas de sens mais ça permet d’avoir quelque chose de bien plus esthétique.

Pour les immeubles : j’ai fait un fichier blender, un .blend, à part avec tous mes assets de bâtiments. Ensuite, j’ai placé les immeubles dans la ville avec des particules, il y a plusieurs plans avec des vertex planes qui définissent le positionnement des différents immeubles. Sauf pour le coeur de la ville, où un placement à la main était indispensable pour éviter les collisions et garder une cohérence esthétique.

Des bâtiments placés « au sol » via des particules ont permis de cacher, justement, le sol. Il y a des interpénétrations mais au final on ne voit rien, ça passe sans problème.

Ici quelques assets utilisés dans la ville :

3DVF : Il faut aussi souligner que le mouvement de caméra ne se prête pas forcément à l’usage de matte painting…

Oui, d’où le full 3D, même pour les éléments lointains. Pas de matte, pas de planes. Je dois dire aussi que j’essaie d’utiliser le moins possible ce genre d’astuce, car j’arrive souvent à les repérer chez les autres : ici j’avais peur que l’on sente l’absence de relief puisque la caméra bouge tout le temps. C’est peut-être de l’excès de prudence mais je préfère me passer de ces astuces, même si ça m’arrive évidemment parfois d’en utiliser.

Au final les seuls « planes » utilisés sont pour le ciel et des effets de fumée.

3DVF : Tu disais plus haut qu’il était rare de tenter de faire de la foule sous Blender. Justement, peux-tu nous en dire plus techniquement ?

C’est avec des particules… Mais en utilisant un bug de Blender ! [rires]

Concrètement, Blender propose des particules de type Boids [NDLR: destinées par exemple à la simulation de bancs de poissons ou nuées d’insectes]. De base, ces particules volent : une case à décocher permet en théorie de faire en sorte qu’elles restent au sol, mais ça ne marche pas, elles volent quand même.

La conséquence du bug des Boids : une foule qui refuse de rester au sol.

L’astuce est alors de les laisser voler, mais de bidouiller des paramètres, des valeurs qui vont faire en sorte qu’elles se déplacent sur le sol.

Par ailleurs, normalement pour contenir une foule dans un outil 3D on place des murs. Or Blender n’a pas du tout été pensé pour les foules, donc si on demande aux particules de rebondir sur un mur et de se retourner, elles le font de façon instantanée, donc non naturelle.

Un autre bug lié aux boids (qui sont, il faut le dire, un peu cassés) apporte la solution. Si on met un mur 100% perméable (les particules passent à travers) les particules l’ignorent, si on met 98% le retournement est encore instantané avec 2% qui traversent, mais à 99% le volte-face n’est pas instantané, 1% traverse quand même mais je me suis arrangé pour que ça ne se voit pas. c’est ce qui m’a permis de créer une foule avec un comportement qui fonctionne.

Ca a demandé beaucoup de travail, de recherches sur des travaux faits par d’autres personnes mais sans que ça soit au point. Ian Hubert a fait aussi une foule sur son film Dynamo Dream mais en moins précis, plus rapidement, de son côté les gens se traversent alors que sur mes scènes j’ai vérifié 15 fois que tout était bon. Les seuls piétons qui sont buggés sont des serveurs au niveau du restaurant, ils font du sur-place. C’est un regret, mais je ne vais pas m’amuser à tout re-rendre… et je l’ai vu bien trop tard.

Dynamo Dream

A noter, quelques piétons ont été placés et animés à la main, et non via des particules. Je n’ai pas utilisé Mixamo qui était alors encore balbutiant mais prometteur, j’ai surtout des noises de mouvement aléatoire sur le buste, les bras et la tête pour que les personnages soient en train de manger, ou discuter. Un peu comme les personnages de GTA san andreas qui parlent, en plus aléatoire, sans pattern et moins exagéré.

Animation dans GTA San Andreas

J’ai aussi fait en sorte, dans les shaders, de créer des variations aléatoires de l’apparence par particule.

Les modèles sont des personnages que j’ai achetés, j’ai matché un rig sur ceux-ci, avec un cycle de marche basique. L’animation n’est par contre pas adaptée à la taille des personnages, qui varie selon l’individu, donc leurs pieds glissent un peu, et de façon différente selon leur vitesse de marche.

Même chose quand ils font demi-tour, ils marchent plus lentement et donc leurs pieds glissent un peu aussi.

Là encore tout ceci est lié aux limitations des particules sous Blender, on ne peut pas adapter la vitesse de l’animation en fonction de la vitesse de la particule, la solution a donc été de ne pas filmer les personnages de trop près.

Pages suivantes : suite de la séquence d’introduction, combats spatiaux, séquence finale, développements, travail d’équipe…

L’article Interview : Nexus VI, les coulisses d’un épisode grandiose est apparu en premier sur 3DVF.

Interview 3DVF : « Sous la glace », un court-métrage poétique et hivernal

Par : Shadows

Un héron élancé chasse des poissons sur un lac gelé au milieu d’une campagne paisible… Sous la Glace, réalisé par Milan Baulard, Ismail Berrahma, Flore Dupont, Laurie Estampes, Quentin Nory, Hugo Potin, est un court-métrage qui mise sur un scénario simple et un soin tout particulier apporté à l’image.

Tout droit venu de l’Ecole des Nouvelles Images (promotion 2019), il est désormais visible en intégralité en ligne. L’occasion pour nous de vous proposer une plongée dans les coulisses du projet, en compagnie de l’équipe du film

Voici le court-métrage, suivi de l’interview :

Animation / Animation: Flore DUPONT, Laurie ESTAMPES, Hugo POTIN
Scénario, Script / Scenario, Script: Milan BAULARD, Flore DUPONT, Laurie ESTAMPES
Image / Image: Milan BAULARD, Ismail BERRAHMA, Quentin NORY
Effets spéciaux / Special effects: Romain AUGIER
Montage / Film editor: Milan BAULARD
Rendu / Rendering: Ismail BERRAHMA, Quentin NORY
Ingénieur du son / Sound engineer: Pierre François RENOUF
Montage sonore / Sound editor: Milan BAULARD
Mixage / Mix: Pierre François RENOUF
Musique / Soundtrack: Baptiste LEBLANC
Distribution : Miyu Distribution (festival@miyu.fr

3DVF : Sous la glace est un projet au concept à la fois très simple et très poétique, très efficace. Comment est né le scénario ?

L’équipe Sous La Glace : A l’origine, on voulait raconter l’histoire de plusieurs animaux qui subiraient l’arrivée progressive de l’hiver. Ce qui nous intéressait, c’était de voir en quoi ce changement de climat si radical allait impacter la vie de ces animaux et en quelque sorte les lier. Cependant, il nous était difficile de créer des personnages attachants sur un format court, et on se retrouvait avec une approche très documentaire. Nous avons donc pris la décision de nous focaliser sur un seul personnage qui nous semblait être le le plus intéressant et qui aurait le plus à raconter : le héron. A partir delà on a choisi des enjeux simples pour en faire une fable, et on a pu creuser un concept plus facilement.

3DVF : Quels étaient vos rôles respectifs ?

Nous étions 6 sur le projet, plus un stagiaire qui nous a aidé sur les FX (Romain Augier). Pour la musique, on a eu l’opportunité de collaborer avec un étudiant de Maav (Musiques Appliquées Aux Arts Visuels), Baptiste Leblanc. Milan a pris en main la direction artistique ainsi que le colorscript, les matte paintings et le storyboard. Quentin a lui aussi aidé sur la direction artistique en plus de s’occuper du modeling, texturing, lookdev, lighting et du compositing. Ismaïl s’est principalement chargé du layout, lighting et compositing en plus de la réalisation du fur du héron. Hugo a animé sur le film en plus d’avoir réalisé le rig du perso. Flore et Laurie étaient également en charge de l’animation et ont participé à la conception du film.

3DVF : La glace est au coeur du film, mais c’est un élément délicat à utiliser : quel cheminement a mené à son apparence finale ?

On s’est très vite rendu compte que l’aspect de la glace allait devenir un des enjeux visuels du film, c’est pourquoi on est passé par de nombreuses itérations avant d’aboutir à un résultat final qui allait satisfaire toute l’équipe. Concernant le lookdev de la glace on voulait conserver la patte graphique de nos recherches et inspirations picturales, tout en gardant ce côté “réaliste” propre au film. Le résultat est un mélange de matériaux procéduraux issue de substance designer et de textures peintes sous painter, tout en profitant des possibilité qu’offrait notre moteur de rendu (Guerilla Render) en termes de réfraction, réflexion… La mise en place pour la première fois dans l’école d’un color management ACES et l’aide de Christophe Brejon a également participé au rendu final.

3DVF : Comment avez-vous abordé le héron d’un point de vue chara design et modélisation ?

Le character design a été abordé par Milan qui s’est concentré sur la silhouette avant tout puis sur la simplicité des volumes. Puis l’accentuation de certains traits morphologiques qui ont été définis pour des enjeux de narration et d’animation précis. Ainsi, les pattes du héron sont assez fines et démesurément longues pour accentuer son jeu d’équilibriste sur une surface gelée, de même le bec devait ressembler à une lance capable de transpercer de la glace. On a voulu aboutir à une forme simple et lisible en cohérence avec l’esprit du film et les actions prévues du personnage.

3DVF : De même, pouvez-vous nous parler de son rigging et son animation globale ?

C’est Hugo qui s’est chargé du rig du héron. Les deux points qui ont demandé le plus travail sur ce rig ont été les ailes ainsi que le cou. Les ailes, car le rig devait permettre aux animateurs d’ouvrir et fermer ces dernières à leur guise ce qui a impliqué de nombreuse itérations pour avoir un système viable (merci à Benoit Degand qui nous a aidé à mettre en place un premier système pour l’ouverture et la fermeture des ailes). Pour le cou le challenge était de réussir à avoir un cou souple, qui soit facilement animable et qui permette de reproduire les silhouette pensées par Milan en pré-production.

L’animation était très amusante à faire tout en étant complexe​, nous avons essayé de rendre attachant un personnage sans expression faciale, d’humaniser son comportement animal. Cela nous a demandé quelques tentatives avant d’arriver à un résultat homogène et qui nous plaise à tous. De la même manière ce qui fut compliqué était de l’animer en train de marcher sur la glace… Il n’y a pas tant de références que ça ! On a du faire un peu d’acting, se filmer en train d’agir comme un héron qui essaierait de se déplacer sur un sol glissant. C’était assez drôle…

3DVF : Enfin, comment avez-vous abordé le grooming et l’animation des plumes ?

Concernant le fur, nous nous sommes servis de Yeti combiné à Guerilla Render. Notre intention n’était pas d’avoir un fur hyper réaliste, mais de réussir à y insuffler une part de stylisation. Pour cela, on a utilisé le grooming Yeti pour instancier des milliers de petites plaques sur lesquelles on a appliqué un masque d’opacité qui nous a permis de dessiner nous-même la forme que prendrait nos plumes. Les plumes des ailes ont quant à elles été modélisées et directement intégrées au rig. On a ensuite fait attention de travailler la transition entre le fur Yeti et nos plumes modélisées pour qu’elles ne soit pas choquantes. Etant donné que l’on souhaitait que notre héron soit capable d’ouvrir et de refermer les ailes sans switcher de rig, ce fut un travail de longue haleine qui a demandé beaucoup de minutie et d’allers-retours entre l’animation et le fur. Nous avons également dû développer plusieurs grooms correctifs.

3DVF : Quelle a été votre démarche artistique pour les différentes ambiances lumineuses du film, et comment les avez-vous concrétisées techniquement ? A-t-il été difficile d’y parvenir ? La partie rendu/compositing a, on l’imagine, été cruciale sur ce point ?

On a rapidement réalisé un premier color script du film qui allait nous donner la direction globale des différentes séquences, même si celui ci n’a cessé d’évoluer tout au long de la prod. Une fois cette étape franchie on s’est amusé à jouer sur les différents changement d’ambiances, de lumières zénithales au coucher de soleil rasant, et des réflexions de cette lumière changeante sur la glace. La grosse majorité des plans étant en extérieurs la mise en place d’un lighting par séquences à été assez rapide, les principales difficultés étant apparues avec les plans sous la glace et à l’intérieur du bateau. Seuls la porte et quelques hublots permettent normalement à la lumière de pénétrer, il a donc fallu multiplier les sources lumineuses pour aider à la mise en valeur du plan et aider au sampling de l’image. Un gros travail de compositing et de paintover a ensuite permis de cacher les défauts de rendu et d’embellir l’image en y ajoutant les matte painting et plusieurs autres effets d’atmosphères notamment. On n’a véritablement pu apprécier le rendu final de l’image qu’après le compositing terminé.

3DVF : L’eau est très présente dans le film, et pas uniquement sous forme de glace : eau liquide qui jaillit dans le bateau en fin de film, tempête de neige… Quelle a été votre stratégie pour gérer ces éléments ?

Concernant les FX d’eau et les éléments de la tempête comme les smoke et flocons, puisqu’aucun membre de l’équipe ne souhaitait se spécialiser dans Houdini et y investir trop de temps, nous avons très vite confié ces tâches à Romain Augier, notre stagiaire FX en 2e année. C’est lui qui s’est donc occupé de chacune des simulations des 10 shots comportant de l’eau.

Test de simulation par Romain Augier

Et pour les smoke et flocons, n’étant pas à temps plein avec nous, il nous a mis en place des set up pratiques d’utilisation pour que nous puissions nous-mêmes aisément paramétrer et corriger nos simulations.

Page suivante : plans marquants, fin du film, bilan, visuels supplémentaires.

L’article Interview 3DVF : « Sous la glace », un court-métrage poétique et hivernal est apparu en premier sur 3DVF.

Drift – Search engines through the lens of evolution

Drift – Search engines through the lens of evolution
This online exhibition lets you discover the intricate strata of code and network that operate to deliver the content of an online search. Drift reveals how these strata continuously evolve, even behind what seems a very well known, stable, familiar web site.

Andrew Hutchings joins Pebble as Engineering Manager

August 24, 2021 Pebble, the leading automation, content management, and integrated channel specialist, is delighted to announce the appointment of Andrew Hutchings to the role of Engineering Manager for the company’s research and development department. Joining at a time that sees Pebble launching a number of new solutions and enhancements to support broadcasters to transition ...

The post Andrew Hutchings joins Pebble as Engineering Manager appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

SIGGRAPH 2021 : Adobe évoque avenir de Substance 3D, projets de recherche

Par : Shadows

A l’occasion du SIGGRAPH 2021, Adobe a voulu dévoiler quelques éléments sur l’avenir de sa gamme Substance 3D.

Sébastien Deguy (Vice-Président, 3D & Immersive – Adobe), Guido Quaroni (Senior Director of Engineering) et l’équipe de recherche Adobe ont donc pris une trentaine de minutes pour présenter à la fois quelques éléments des prochaines mises à jour, mais aussi des projets de R&D : l’occasion, donc, de revenir sur certaines publications techniques.

L’article SIGGRAPH 2021 : Adobe évoque avenir de Substance 3D, projets de recherche est apparu en premier sur 3DVF.

SIGGRAPH 2021 : un projet de recherche nettoie vos dessins

Par : Shadows

Nous continuons notre couverture des innovations présentées durant le SIGGRAPH avec une publication axée sur la 2D et l’esquisse : StrokeStrip : joint parameterization and fitting of stroke clusters.

Ce projet de recherche est issu du travail de Dave Pagurek van Mossel, Chenxi Liu (University of British Columbia), Nicholas Vining (University of British Columbia & NVIDIA), Mikhail Bessmeltsev (University of Montreal), Alla Sheffer (University of British Columbia).

En dessin, il est courant d’esquisser un tracé avec de multiples coups de crayon. Les humains devinent aisément la forme voulue par l’artiste :

En revanche, il est plus difficile de demander à une machine de générer ce tracé à partir des esquisses. Les travaux existants (méthodes d’Orbay et Kara en 20211, Lieu et al. en 2018) produisent des résultats intéressant mais les méthodes manquent de robustesse. La publication présente StrokeStrip, une nouvelle approche qui donne de bien meilleurs résultats :

En outre, StrokeStrip s’appuie sur une paramétrisation qui peut avoir des usages multiples, comme la colorisation ou la déformation facilitée du tracé.

Pour plus d’informations, nous vous invitons à lire la publication complète ( StrokeStrip : joint parameterization and fitting of stroke clusters). Vous y trouverez aussi le code utilisé.
Vous pouvez également jeter un oeil sur les vidéos de l’auteur principal, Dave Pagurek : la présentation du projet est disponible en trois versions de 30 secondes, 5 minutes et 20 minutes, selon le niveau de détail et technicité que vous souhaitez.

L’article SIGGRAPH 2021 : un projet de recherche nettoie vos dessins est apparu en premier sur 3DVF.

SIGGRAPH 2021 : derrière un projet NVIDIA, un pas vers une révolution ?

Par : Shadows

A première vue, Neural Scene Graph Rendering est une publication anodine, voire décevante : avec des résultats qui se limitent à des rendus de scènes 2D et 3D particulièrement basiques, on peut même se demander si l’on est bien en 2021.

Mais les apparences sont trompeuses.

Le meilleur des deux mondes

Les auteurs de la publication, Jonathan Granskog, Till Schnabel, Fabrice Rousselle, Jan Novak de NVIDIA, nous proposent en fait ici davantage qu’un simple projet de recherche : leurs travaux s’inscrivent dans une vision à long terme, qui pourrait révolutionner la manière dont nous rendons nos scènes.

En effet, on dispose actuellement de deux approches radicalement différentes pour effectuer un rendu, autrement dit générer une image :

  • Le rendu 3D « classique », qui règne en maître dans les effets visuels et l’animation 3D, permet de créer des scènes très diverses mais pour lequel le photoréalisme parfait est très difficile à atteindre.
Projet Meet Mike (SIGGRAPH 2017) : un exemple des capacités du rendu 3D (ici, 3D temps réel)
  • Le rendu neural : il s’agit ici de rendu s’appuyant sur les techniques d’intelligence artificielle (deep learning).
    Les outils que vous avez pu voir ces dernières années qui créent des portraits d’humains qui n’existent pas, ou les outils GauGAN/Canvas de NVIDIA permettant de créer des paysages à partir d’une simple esquisse, font partie de cette catégorie.
    Ici, la « représentation neurale » sera un ensemble de variables, et le « moteur de rendu neural » sera la partie de l’outil qui génère l’image finale.
Images générées par un StyleGAN : aucun de ces humains n’est réel, les visages ont été créées par une intelligence artificielle.

Si l’on compare les deux approches, et par exemple dans le cas du rendu d’un visage, on a d’un côté le rendu 3D qui crée des résultats très bons mais sans doute pas aussi bons que l’approche neurale, qui s’appuie « juste » sur une architecture adaptée et la phase d’apprentissage à partir d’un ensemble de données.

Inversement, expliquent les auteurs de la publication, si l’on veut modifier le résultat (par exemple générer un visage d’extraterrestre), le rendu 3D permet facilement de changer le matériau ou le modèle utilisés. L’approche neurale, en revanche, est fortement contrainte par les données d’apprentissage et produire un résultat radicalement différent de ces données sera difficile.

En haut, le rendu 3D classique
En bas, le rendu neural

Souplesse, contrôle artistique, réalisme… Au fond, chaque approche a ses avantages et inconvénients.

D’où la vision à long terme qui sous-tend la publication : au lieu d’opposer les techniques, pourquoi ne pas les combiner ? Pourquoi ne pas générer des images en partie avec du rendu neural, en partie avec un moteur de rendu 3D classique ?
Par exemple, suggèrent les auteurs, le rendu neural pourrait se charger des parties difficiles à gérer avec le rendu 3D classique comme les visages, la fourrure.

L’idée est alléchante, mais n’est à ce stade qu’une simple idée. Reste donc à la concrétiser et à faire cohabiter deux approches qui n’ont rien à voir.

Une scène 3D rendue sans moteur de rendu classique

Nous arrivons enfin au projet de recherche proprement dit : l’équipe s’est intéressée à la façon dont un scene graph classique, autrement dit la description d’une scène 3D dans un outil traditionnel (avec liste des modèles, leur position, matériaux…) pourrait être traduite en représentation neurale, puis envoyée à un moteur de rendu neural.

A ce stade, il ne s’agit donc pas encore de mêler les rendus, mais uniquement de faire en sorte que des scènes 3D classiques puissent être « comprises » et traitées par une approche neurale.

L’équipe est parvenue à des résultats concluants, et en montre quelques exemples :

  • Une animation de volley :
  • un petit outil qui permet d’éditer en temps réel un scene graph neural, et avec rendu neural : autrement dit, sur cette session de création 3D, les objets et leurs matériaux, le rendu de la scène ne sont pas gérés par du rendu 3D classique mais bien par de l’intelligence artificielle.
  • La méthode peut aussi être appliquée à des animations 2D à base de sprites : là encore, le visuel est donc issu de rendu neural, pas d’un moteur 2D.

Retour vers la vision globale

Encore une fois, ces premiers résultats restent très basiques, mais il faut les considérer avec du recul : ce sont des tests précurseurs, pas une méthode destinée à être utilisée dès demain en studio.

En revanche, avec ces essais, l’équipe de recherche a prouvé la validité de son concept. L’approche a pu être appliquée a des cas variés et a donc un bon potentiel de généralisation a des situations et usages très différents.

Une première brique est donc posée vers la vision plus large évoquée par les auteurs, avec à terme une interopérabilité entre les maillons de la chaîne de rendu 3D classique et celle du rendu neural.

Pour autant, est-ce vraiment le début d’une révolution ? Réponse dans quelques années, selon les progrès techniques qui seront accomplis.

Pour aller plus loin, nous vous invitons à visionner cette vidéo de présentation d’une quinzaine de minutes, et en particulier le passage à partir de la 30ème seconde, qui revient sur cette vision à long terme.
Vous pouvez aussi consulter la page de la publication : Neural Scene Graph Rendering.

L’article SIGGRAPH 2021 : derrière un projet NVIDIA, un pas vers une révolution ? est apparu en premier sur 3DVF.

Imagine Communications Sets New Bar for Newsroom Efficiency with Nexio NewsCraft

  Powerful, cost-effective, all-in-one solution tightens news production process from ingest to delivery   TORONTO, July 15, 2021 – Drawing on a heritage of more than 20 years in newsroom production, Imagine Communications is introducing a powerful new approach to content access, management and multiplatform delivery. With the launch of Nexio NewsCraft™, Imagine brings to ...

The post Imagine Communications Sets New Bar for Newsroom Efficiency with Nexio NewsCraft appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

Why Your Images Aren’t Sharp Near The Coast

Heading to the coast for some fun and sun? Here’s how to make sure your memory-creating summer vacation footage comes out sharp! After so many of us …

Kubrick’s Odyssey 2019, el primer mapping audiovisual dentro de un cine

Par : volatil

El pasado viernes 10 de mayo en el cine Kubrick de Vilafranca del Penedès, el compositor musical Roger Subirana y la artista visual Silvia Isach, aka Sínoca, llevaron a cabo una experiencia pionera de mapping audiovisual nunca antes realizada en la sala de un cine.

Una obra inédita de video mapping inmersivo, emotiva, experimental, transgresora y de carácter futurista, inspirada en la película ‘2001: Una Odisea del espacio’ de Stanley Kubrick. Un espectáculo novedoso que activa los estímulos sensoriales gracias a la fusión de los efectos sonoros y la música con las imágenes sobre dos superficies: la pantalla del cine y la instalación de un monolito situado delante, creando de esta manera un  espacio 3D.

La entrada Kubrick’s Odyssey 2019, el primer mapping audiovisual dentro de un cine aparece primero en Vjspain Comunidad Audiovisual, Mapping, Vj, Diseño Interactivo.

Étude de cas: ouvrir un port sur un routeur en automatique pour une expérience multijoueurs en ligne

Par : greg

Aujourd’hui, nous allons voir comment créer une application ou un jeu qui va automatiquement ouvrir des ports sur les routeurs des joueurs, leur permettant ainsi d’héberger des applications ou des parties multijoueurs. L’exemple est donné avec Unreal Engine, mais peut servir par ailleurs. J’en profite d’une question que m’a posée mon ami Damien pour partager … Continuer la lecture de Étude de cas: ouvrir un port sur un routeur en automatique pour une expérience multijoueurs en ligne

Étude de cas: ouvrir un port sur un routeur en automatique pour une expérience multijoueurs en ligne

Par : greg

Aujourd’hui, nous allons voir comment créer une application ou un jeu qui va automatiquement ouvrir des ports sur les routeurs des joueurs, leur permettant ainsi d’héberger des applications ou des parties multijoueurs. L’exemple est donné avec Unreal Engine, mais peut servir par ailleurs. J’en profite d’une question que m’a posée mon ami Damien pour partager … Continuer la lecture de Étude de cas: ouvrir un port sur un routeur en automatique pour une expérience multijoueurs en ligne

Daily Magic Productions Announces Official Trailer & Release Date for the Witching Tower VR

Par : lumenadmin

Press Release – SEATTLE, September 5, 2018 — Studio-developer Daily Magic Productions presents the official trailer — https://youtu.be/gFnU4Z0ng48 and announced the release date of the Witching Tower, a VR Action-adventure game: October 4, 2018. The game will be available on Steam, Oculus Store, and HTC VIVEPORT. Technical features Players will be able to use two systems of movement: teleportation and locomotion. […]

The post Daily Magic Productions Announces Official Trailer & Release Date for the Witching Tower VR appeared first on LUMEN.

❌