Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 16 octobre 2021Vos flux RSS

Hot dog : un chien déterminé et amoureux

Par : Shadows

Flore Burban, Logan Cameron, Nicolas Diaz, Chloé Raimondo, Hugues Valin dévoilent leur court de fin d’études à l’Ecole des Nouvelles Images (promotion 2019) : Hot Dog.
On y suit un chien qui tente désespérément de rejoindre l’élue de son coeur…

Devant le portail d’une propriété bourgeoise et surveillée, un chien de la rue tombe sous le charme d’une chienne posée sur son balcon à l’autre bout du jardin. Déterminé et amoureux, il va tout tenter pour rejoindre et séduire sa belle.

Musique : Florian Blavec

L’article Hot dog : un chien déterminé et amoureux est apparu en premier sur 3DVF.

À partir d’avant-hierVos flux RSS

Stranded : une rencontre mystique en Alaska

Par : Shadows

Alvin Arevalo-Zamora, Alwin Durez, Quentin Garaud, Maxime Salvatore, Florent Sanglard, Thomas Spony-Ipiens, Alex Tregouet présentent Stranded, leur court de fin d’études à l’ESMA (promotion 2020).
Un projet fort qui mêle grands espaces, surnaturel et voyage mystique.

Dans lʼAlaska de la fin du 19e siècle, Hawk, un trappeur robuste, fait la rencontre imprévue dʼun élan surnaturel, annonciateur de lʼapocalypse.

Musique / music: Laurent LOZANO
Son / sound: Alexis LAUGIER, Tristan LE BOZEC, Yoann PONCET, José VICENTE – Studio des Aviateurs

L’article Stranded : une rencontre mystique en Alaska est apparu en premier sur 3DVF.

A son tour, Apple rejoint le Blender Development Fund

Par : Shadows

La Blender Foundation annonce qu’Apple rejoint son fond de développement, qui permet à des entreprises et personnes de soutenir financièrement le développement de Blender.

En pratique, Apple est présenté comme Patron Member dans le communiqué, ce qui implique un don annuel d’au moins 120 000€.
Avec ce montant, Apple entre directement dans la catégorie des donateurs les plus généreux, aux côtés d’Epic, AMD, NVIDIA, Facebook, Unity, Amazon Web Services.
En outre, Apple fournira « de l’expertise en ingénierie et des ressources supplémentaires ».

Ton Roosendaal, qui dirige la Blender Foundation, se félicite de cette annonce et indique que « macOS sera de retour en tant que plateforme pleinement supportée par Blender ».
Il souligne aussi qu’Apple a déjà soumis un premier patch, destiné à permettre d’utiliser Cycles sous macOS avec l’architecture Metal.

L’article A son tour, Apple rejoint le Blender Development Fund est apparu en premier sur 3DVF.

Houdini 19 en approche !

Par : Shadows

SideFX dévoile un teaser pour Houdini 19, future mise à jour majeure de son logiciel de VFX, animation et modélisation.
Cette nouvelle version apportera notamment des avancées sur Karma, KineFX, Vellum.

Pour en savoir plus, rendez-vous les 18, 19 et 21 octobre : SideFX organisera le « launch reveal » et deux jours de présentation dans le cadre de la View Conference.
Notez que l’accès en direct à ces présentations sera gratuit ; on pourra aussi retrouver les replays par la suite sur Youtube, et donc dans les actualités 3DVF.

L’article Houdini 19 en approche ! est apparu en premier sur 3DVF.

Interview : Nexus VI, les coulisses d’un épisode grandiose

Par : Shadows

Depuis 6 ans déjà, la chaîne Nexus VI écume Youtube et la galaxie, avec des vidéos consacrées à la science-fiction sous toutes ses formes.
En pratique, les vidéos Nexus VI se déroulent elles-mêmes dans un univers de SF à part entière, avec un vaisseau, son équipage, des extraterrestres variés et des aventures aux quatre coins de la galaxie, quelque part dans le futur.

Au début de l’été, le très ambitieux épisode 7 a été dévoilé : une analyse détaillée du film Le Cinquième Element, entrecoupée de rebondissements épiques. On y trouve notamment une séquence d’introduction bluffante de plus de deux minutes avec une mégapole futuriste, des combats spatiaux, un final brûlant.

La grande majorité de ce travail d’effets visuels est l’oeuvre de l’artiste Romain Toumi, qui a accepté de nous livrer les coulisses de ce projet hors du commun.
Voici l’épisode complet ; vous trouverez dessous les timecodes des principales séquences à effets visuels, mais nous vous invitons évidemment à regarder l’épisode complet, afin de profiter de l’ensemble des effets, de l’analyse et du scénario.

0:32 : début de la séquence d’introduction
13:03 : dogfight
15:46 : séquence du looping
16:01 : séquence inspirée de Star Wars VIII
17:10 : dogfight dans les astéroïdes
24:08 : hologramme
31:24 : scène du grappin
32:10 : début de la séquence finale

3DVF : Bonjour Romain ! Les personnes qui nous lisent connaissent sans doute déjà ton travail pour la chaîne Youtube Nexus VI, qui traite de science-fiction et cumule près de 230 000 abonnés. Tu as notamment géré l’immense majorité des effets visuels de l’épisode 7 sorti cet été, un travail impressionnant du point de vue de sa qualité, surtout au vu des contraintes de production (budget, taille de l’équipe).
Mais avant d’y plonger, quelques mots sur ton parcours ?

Romain Toumi : Mon parcours est assez bordélique [rires] ! Je n’étais pas très doué au collège, on m’a donc orienté là où il y avait de la place, dans un lycée professionnel en métallurgie. Je suis allé jusqu’au BTS, et pendant mes années Bac/BTS je m’intéressais notamment à l’imagerie 3D, au cinéma d’animation. A la fin de mon BTS, je faisais du dessin industriel en 3D, ce qui était un peu lié.

Après mon BTS, l’entreprise qui m’a embauché a fini par couler, et le chômage m’a permis de remettre des choses sur le tapis et de me reconvertir en autodidacte.

En 2016 je crée C3N Studio avec un ami Jordan Tetevuide, ma société d’effets spéciaux et animation 3D; je m’étais dit que tout allait bien se passer, que j’allais faire un film d’animation tout seul… Très vite on retombe sur terre. J’ai fait des petits projets à droite à gauche dans la région de Metz, comme des sites web, des logos. En démarchant des boîtes de prod au téléphone j’ai pris contact avec Fensch Toast, qui produit notamment Nexus VI. Je les ai rencontrés j’ai travaillé avec eux sur un clip de Matt Elliott, mes premiers VFX dans une vrai prod. Le courant est bien passé et artistiquement leurs projets me plaisaient, on a fini par se lier d’amitié et on a rapidement parlé du vaisseau Nexus VI, que ce serait génial de le voir de l’extérieur. Et me voilà lancé pendant plusieurs semaines à créer mon premier gros projet 3D.

Il y a eu beaucoup de péripéties depuis, mais actuellement je suis sur Nexus VI à plein temps pour la nouvelle trilogie (l’épisode 7 déjà sorti, 8 et 9 en cours), et j’ai lâché mon ancienne entreprise.

3DVF : Par rapport à l’équipe du Nexus VI : étant donné leur passion pour le cinéma et la SF, on imagine qu’ils ont un gros bagage de références visuelles et cinématographiques. Quel est l’impact sur leurs demandes, et notamment sur la répartition des effets entre ce qui sera fait de façon traditionnelle ou numérique ?

Le vrai fan de SF est surtout le Capitaine (Renaud Jesionek), qui écrit les scénarios, fait ses analyses. Alexandre Marinelli, le réalisateur [NDLR : et interprète de Slexno], n’est pas forcément un gros fan de cinéma de SF ; dans ses projets passés on retrouve surtout beaucoup de montage de bandes-annonces, ce qui se ressent assez clairement dans Nexus VI avec une approche très cut, très dynamique et bien adaptée à Youtube. Il a par ailleurs fait de la réalisation sur beaucoup de styles différents et il a même récemment réalisé un court métrage à l’occasion du Nikon film festival et gagné le prix du public, j’ai fait quelques VFX dedans aussi d’ailleurs [NDLR : à découvrir ci-dessous].

Crédits :
Réalisation : Alexandre Marinelli
Avec Alexandre Marinelli, Cyril Chagot, Lucie Schosseler, Romain Toumi
Chef Opérateur – Laurent Steiner
Images – Pierre Nicolas
Superviseur VFX – Romain Toumi
Ingénieur du son – Thomas Koeune
Régie – Camille Picot
Remerciements – Fensch Toast – Renaud, Cathy et Jean Jesionek
Albert et Danièle Philippe – Ville de Thionville.

Sur la question de la répartition et de qui fait quoi, on y réfléchit à plusieurs : surtout Alexandre et moi, Alexandre ayant toujours son idée en tête. Néanmoins le Capitaine est aussi inclus, il pose des questions avant même l’écriture, fait des suggestions. Même chose pour Cyril Chagot, le producteur [NDLR: qui interprète Sayreel et Zarbut, l’IA du vaisseau].

Le scénario s’adapte fatalement un peu au budget, même si on essaie de garder une grande liberté.

On fait donc plusieurs réunions tous les quatre, Alexandre dirige les échanges définit la mise en scène qu’il souhaite.
Arrive ensuite une phase de plusieurs jours durant laquelle Alexandre et moi faisons un découpage des scènes, on liste les plans avant de tourner.

Vient enfin l’étape du storyboard…

Extrait de storyboard (séquence du grappin)

Comme vous pouvez le voir avec la scène du grappin [31:24 dans l’épisode], on ne respecte jamais vraiment mais ça donne une idée globale, le storyboard sert plus à la recherche qu’à définir vraiment les plans et les axes.

Au final il y a beaucoup d’improvisation lors du montage, en fait, et à ce stade Alexandre met des écrans noirs partout où un plan CGI est censé se trouver par rapport au découpage… Mais aussi partout où il en a envie, en insérant des descriptifs sur ces écrans noirs.

Cette méthode de travail génère des surprises, mais permet de ne pas être limité par l’écriture initiale. Au final le processus de réflexion des VFX est donc étalé de l’écriture jusqu’à la toute fin, pour l’épisode 7 j’ai rajouté un plan une semaine avant la diffusion de l’avant-première !

En fait, une fois les écrans noirs insérés, et même après validation du montage, on continue à faire des changements comme remplacer les écrans noirs par mon layout/animatique.

Après on envoie le tout à la personne qui fait la musique et le son. Ce qui conduit parfois à couper des éléments, se débrouiller, négocier…

Notre approche est donc bien plus flexible que pour une production classique.
Avec parfois quelques choix particuliers : nous avions annoncé une date de sortie pour l’épisode 7 alors même que certains effets n’étaient même pas commencés… Peu de studios le feraient !

3DVF : La séquence d’introduction est LE point phare de l’épisode en termes d’effets visuels. On part de l’espace, on se rapproche d’une planète puis d’une cité futuriste avec nuages, immeubles innombrables, vaisseaux, voitures volantes, panneaux, habitants… L’ensemble est vraiment impressionnant par l’ampleur de la tâche et la qualité du résultat. Comment as-tu abordé cette partie de l’épisode ?

Il faut savoir que le scénario ne décrivait que très brièvement ce passage, ça se résumait plus ou moins à « la caméra est dans les étoiles et arrive au cœur d’une grande mégapole puis dans une pièce, dans la pénombre » ça c’est fini au final par un plan séquence de 2 minutes qu’on pourrait qualifier de court-métrage.

Ce n’est pas toujours comme ça, le Capitaine et Alexandre peuvent donner plus d’indications s’ils ont une idée précise en tête pour le scénario, mais ici il était acté que j’avais carte blanche, du moment que l’on partait des étoiles pour arriver dans la pièce obscure avec le pin’s coupé en deux. Sur le reste j’étais libre, par exemple, de mettre ou pas des gens dans la ville.

Cela correspond assez à notre état d’esprit. Par exemple Lucie Schosseler (qui fait les prothèses des extraterrestres) peut elle aussi laisser libre cours à son imagination, créer des concepts, faire des propositions fortes. On a une grande liberté artistique, il arrive donc souvent que des éléments ne soient décrits que par quelques lignes.

Showreel de Lucie Schosseler, qui met notamment en avant son travail pour Nexus VI

3DVF : Cela te permet sans doute aussi d’ajuster le contenu en fonction du budget, du temps disponible?

Tout à fait. La ville a pris un an de travail, mais pas d’un bloc (je pouvais par exemple travailler sur la ville, puis quelques semaines plus tard passer sur une autre séquence et revenir sur la ville après). Le Covid a été une « chance » dans le sens où le budget temps a considérablement augmenté, d’où une séquence bien plus longue que prévue : l’introduction durait en théorie moins de 30 secondes !

J’ai profité des confinements, de la mise en pause du monde entier pour travailler d’arrache-pied confiné avec mon matos chez moi, entre autres pour expérimenter : à peu près personne ne fait de la foule sous Blender, par exemple.

Sans la pandémie, le plan aurait été cool, mais moins impressionnant et moins long !

3DVF : C’est vrai que cette idée d’un zoom de l’espace vers un détail sur Terre est un classique du cinéma, et cela peut être expédié en quelques secondes ou, comme ici, transformé en une vraie séquence détaillée.

Voilà, l’idée était de travailler sur ce concept classique, que les gens se disent que ça vaut le coup de voir le plan.

3DVF : Pour la création concrète de la ville, comment as-tu travaillé ?

Au layout, j’ai utilisé des blocs basiques pour les immeubles. Sur un tel plan, c’est la caméra qui est le personnage principal, je travaille donc vraiment énormément ses mouvements. Le fait d’avoir des éléments très schématisés autour ne pose pas de souci. Même chose pour le vaisseau d’ailleurs.

En pratique, il a fallu que l’on ajuste le mouvement de caméra pour des raisons techniques : le layout faisait que certains éléments étaient à la fois visibles de très loin et très proche, ce qui aurait demandé beaucoup trop de boulot par rapport au plan final, avec ce plongeon vers quelques immeubles proches et après seulement un redressement vers des immeubles plus lointains, qui n’ont donc pas besoin d’être aussi précis. Si on les avait vus plus tôt, j’aurais dû les détailler davantage, mettre de la population, des voitures, etc.

Une autre astuce sur ce passage, lorsque la caméra remonte vers la forêt d’immeubles au fond : ces derniers remontent physiquement, afin qu’ils dépassent verticalement des immeubles du premier plan. Ça n’a pas de sens mais ça permet d’avoir quelque chose de bien plus esthétique.

Pour les immeubles : j’ai fait un fichier blender, un .blend, à part avec tous mes assets de bâtiments. Ensuite, j’ai placé les immeubles dans la ville avec des particules, il y a plusieurs plans avec des vertex planes qui définissent le positionnement des différents immeubles. Sauf pour le coeur de la ville, où un placement à la main était indispensable pour éviter les collisions et garder une cohérence esthétique.

Des bâtiments placés « au sol » via des particules ont permis de cacher, justement, le sol. Il y a des interpénétrations mais au final on ne voit rien, ça passe sans problème.

Ici quelques assets utilisés dans la ville :

3DVF : Il faut aussi souligner que le mouvement de caméra ne se prête pas forcément à l’usage de matte painting…

Oui, d’où le full 3D, même pour les éléments lointains. Pas de matte, pas de planes. Je dois dire aussi que j’essaie d’utiliser le moins possible ce genre d’astuce, car j’arrive souvent à les repérer chez les autres : ici j’avais peur que l’on sente l’absence de relief puisque la caméra bouge tout le temps. C’est peut-être de l’excès de prudence mais je préfère me passer de ces astuces, même si ça m’arrive évidemment parfois d’en utiliser.

Au final les seuls « planes » utilisés sont pour le ciel et des effets de fumée.

3DVF : Tu disais plus haut qu’il était rare de tenter de faire de la foule sous Blender. Justement, peux-tu nous en dire plus techniquement ?

C’est avec des particules… Mais en utilisant un bug de Blender ! [rires]

Concrètement, Blender propose des particules de type Boids [NDLR: destinées par exemple à la simulation de bancs de poissons ou nuées d’insectes]. De base, ces particules volent : une case à décocher permet en théorie de faire en sorte qu’elles restent au sol, mais ça ne marche pas, elles volent quand même.

La conséquence du bug des Boids : une foule qui refuse de rester au sol.

L’astuce est alors de les laisser voler, mais de bidouiller des paramètres, des valeurs qui vont faire en sorte qu’elles se déplacent sur le sol.

Par ailleurs, normalement pour contenir une foule dans un outil 3D on place des murs. Or Blender n’a pas du tout été pensé pour les foules, donc si on demande aux particules de rebondir sur un mur et de se retourner, elles le font de façon instantanée, donc non naturelle.

Un autre bug lié aux boids (qui sont, il faut le dire, un peu cassés) apporte la solution. Si on met un mur 100% perméable (les particules passent à travers) les particules l’ignorent, si on met 98% le retournement est encore instantané avec 2% qui traversent, mais à 99% le volte-face n’est pas instantané, 1% traverse quand même mais je me suis arrangé pour que ça ne se voit pas. c’est ce qui m’a permis de créer une foule avec un comportement qui fonctionne.

Ca a demandé beaucoup de travail, de recherches sur des travaux faits par d’autres personnes mais sans que ça soit au point. Ian Hubert a fait aussi une foule sur son film Dynamo Dream mais en moins précis, plus rapidement, de son côté les gens se traversent alors que sur mes scènes j’ai vérifié 15 fois que tout était bon. Les seuls piétons qui sont buggés sont des serveurs au niveau du restaurant, ils font du sur-place. C’est un regret, mais je ne vais pas m’amuser à tout re-rendre… et je l’ai vu bien trop tard.

Dynamo Dream

A noter, quelques piétons ont été placés et animés à la main, et non via des particules. Je n’ai pas utilisé Mixamo qui était alors encore balbutiant mais prometteur, j’ai surtout des noises de mouvement aléatoire sur le buste, les bras et la tête pour que les personnages soient en train de manger, ou discuter. Un peu comme les personnages de GTA san andreas qui parlent, en plus aléatoire, sans pattern et moins exagéré.

Animation dans GTA San Andreas

J’ai aussi fait en sorte, dans les shaders, de créer des variations aléatoires de l’apparence par particule.

Les modèles sont des personnages que j’ai achetés, j’ai matché un rig sur ceux-ci, avec un cycle de marche basique. L’animation n’est par contre pas adaptée à la taille des personnages, qui varie selon l’individu, donc leurs pieds glissent un peu, et de façon différente selon leur vitesse de marche.

Même chose quand ils font demi-tour, ils marchent plus lentement et donc leurs pieds glissent un peu aussi.

Là encore tout ceci est lié aux limitations des particules sous Blender, on ne peut pas adapter la vitesse de l’animation en fonction de la vitesse de la particule, la solution a donc été de ne pas filmer les personnages de trop près.

Pages suivantes : suite de la séquence d’introduction, combats spatiaux, séquence finale, développements, travail d’équipe…

L’article Interview : Nexus VI, les coulisses d’un épisode grandiose est apparu en premier sur 3DVF.

Windows 11 et logiciels 3D : faut-il sauter le pas ?

Par : Shadows

Avec la sortie de Windows 11, les premiers tests de performances commencent à arriver : de quoi se faire une idée de l’impact, positif ou négatif, de ce nouvel OS.

Puget Systems vient justement de publier deux articles avec des benchmarks réalisés sous différents outils 3D, en rendu (CineBench, OctaneBench, Redshift, V-Ray) et en 3D temps réel (Unreal).

Nous vous invitons à les lire pour accéder aux détails, mais voici les principales conclusions :

  • Sous Unreal, le changement d’OS ne fait pas de réelle différence en termes de performances. Un ou deux bugs mineurs et non bloquants sont présents ; on imagine qu’ils seront rapidement corrigés.
  • En rendu classique, on constate souvent un léger recul des performances. Sous V-Ray, les performances du ThreadRipper Pro 64 cores s’effondrent : il y a clairement ici un problème spécifique.
    En revanche, sous V-Ray en mode GPU, les performances s’améliorent de 18% en moyenne.

Etant donné la jeunesse de l’OS, le léger recul en rendu n’a rien de surprenant. Du côté de ThreadRipper, AMD et Microsoft résoudront probablement rapidement le problème.

Plus globalement, il faut souligner que de très nombreux outils ne sont pas encore officiellement compatibles Windows 11, et qu’un système d’exploitation a toujours besoin d’optimisations et corrections à son lancement : le plus sage est donc d’attendre que les choses se lissent avant de sauter le pas.

L’article Windows 11 et logiciels 3D : faut-il sauter le pas ? est apparu en premier sur 3DVF.

Pour Acer, l’avenir de la création passe par le relief

Par : Shadows

Acer dévoile le ConceptD 7 SpatialLabs Edition, un nouvel ordinateur portable destiné aux créatifs. Le produit se démarque de la concurrence par un écran relief sans lunettes.

Les personnes qui nous lisent régulièrement ne seront pas surprises : au printemps dernier, nous avions évoqué les plans d’Acer sur le sujet.

Une configuration au goût du jour

Sur le papier, le ConceptD 7 SpatialLabs Edition propose un processeur Intel Core série H de 11ème génération, plusieurs options côté graphique dont la RTX 3080 de NVIDIA. Un écran UHD 4K vient compléter le tout, avec certification Pantone, 100% de couverture de l’espace Adobe RGB et un Delta E<2.
Rien de surprenant jusqu’ici, la gamme ConceptD d’Acer nous ayant habitués à ce type de positionnement.

En ce qui concerne l’écran relief, il s’agit d’une technologie lenticulaire qui permet donc d’éviter le recours aux lunettes : des lentilles au niveau de l’écran renvoient vers chaque oeil une image différente, d’où la perception du relief.
Bien évidemment, il est aussi possible d’utiliser l’écran de façon classique.

Le relief : vraie avancée ou fonction gadget ?

La démarche d’Acer peut poser quelques questions. En effet, la vague du relief amorcée à la fin des années 2000 avec Avatar est désormais bien loin, et la stéréoscopie ne fait plus vendre auprès du grand public.
Mais justement, ce produit ne se destine pas au grand public. Et Acer ne se contente d’ailleurs pas de proposer un simple écran.

On retrouve ainsi sur la machine le « SpatialLabs Model Viewer », un outil de visualisation d’objets 3D qui dispose de plugins pour différents outils 3D (Autodesk Fusion 360, Autodesk Inventor, 3Ds Max, Rhinoceros, Cura, Blender, SketchUp et Zbrush), mais permet également d’importer les formats 3D courants (OBJ, FBX, STL, Collada, glTF, DAE, IGES, 3DS, Blend, PLY).
Un système mêlant capteurs et IA ajoute par ailleurs un effet de parallaxe lorsque l’utilisateur déplace ou tourne sa tête.

Outre le viewer, Acer a incorporé un lecteur vidéo maison qui gère le relief, et une solution SpatialLabs Go censée générer un effet relief à partir de contenus 2D (photos, vidéos, jeux, visioconférences).

Enfin, un site dédié aux développeurs SpatialLabs est lancé ; il propose notamment un plugin Unreal Engine, et Acer évoque la prise en charge d’Ultraleap (solution de suivi des mains).

Quels usages ?

En termes de marché, Acer esquisse quelques cas d’usage concrets.Le groupe évoque par exemple un configurateur de voiture pour les concessionnaires et clients, des visites guidées pour architectes d’intérieur, ou encore l’observation géospatiale.

Marketing en quête « d’effet wow », industrie, secteur de la création : plus globalement, cet écran pourra être une alternative aux casques VR ou écrans avec lunettes, moins contraignant et plus facile d’usage, même si le fait de ne gérer qu’une seule personne à la fois est un handicap certain.

Premières impressions

Nous avons eu l’occasion d’avoir brièvement ce produit entre les mains dans les locaux d’Acer.

L’effet de relief est convaincant, avec un jaillissement généreux et une bonne définition : même si l’écran lenticulaire implique évidemment de diviser la résolution horizontalement, l’écran 4K permet un affichage de qualité, loin devant ce que l’on pouvait voir il y a une dizaine d’années.

Nous n’avons pas pu tester la conversion de contenus 2D en 3D, et nous ne pourrons donc pas vous donner notre avis sur le sujet à ce stade.
En revanche, la visualisation de modèles 3D est satisfaisante, de même que le visionnage de vidéos.

Le ConceptD 7 SpatialLabs Edition sera disponible en fin d’année aux alentours de 3600€ TTC.

L’article Pour Acer, l’avenir de la création passe par le relief est apparu en premier sur 3DVF.

The Soloists : trois soeurs face à des lois absurdes (Gobelins 2021)

Par : Shadows

Mehrnaz Abdollahina, Feben Elias Woldehawariat, Razahk Issaka, Céleste Jamneck et Yi Liu présentent The Soloists, leur court de fin d’études à Gobelins (promotion 2021).

Dans un petit village régi par des lois ridicules, trois sœurs chanteuses et leur chien répètent pour le festival annuel d’automne. Mais un événement inattendu va bouleverser leurs plans.

L’article The Soloists : trois soeurs face à des lois absurdes (Gobelins 2021) est apparu en premier sur 3DVF.

Magic Leap va de l’avant et annonce de nouvelles lunettes AR

Par : Shadows

Depuis sa création, Magic Leap a connu un essor extraordinaire, puis un brutal retour à la réalité : 2.6 milliards de dollars levés, des lunettes de réalité augmentée qui furent un échec commercial (de l’ordre de 6000 exemplaires vendus en 6 mois contre 100 000 espérés). Par la suite, le groupe annonça la démission de son PDG et un millier d’employés furent remerciés pour limiter les dépenses.
Autant dire que l’avenir de l’entreprise ne s’annonçait pas forcément radieux.

Mais Magic Leap n’a pas dit son dernier mot, et fait deux annonces majeures.

La première est celle d’une nouvelle levée de fonds : pas moins de 500 millions de dollars.

Cette somme servira à concrétiser la seconde annonce, celle d’un Magic Leap 2 : de nouvelles lunettes améliorées par rapport au premier modèle.
Ce nouveau produit sera destiné au secteur professionnel, pas au grand public.

Cette nouvelle version devrait proposer plus de confort et d’immersion, grâce entre autres à une réalité augmentée affichée sur une plus grande zone du champ de vision, et un système d’ajustement de la luminosité qui permettra d’utiliser les lunettes y compris dans des environnements très lumineux. Le produit devrait aussi être plus léger et compact, et disposer d’une autonomie nettement supérieure.
Vu le câble présent sur le visuel dévoilé, on peut en conclure qu’un boîtier distinct apportera la puissance de calcul, comme sur la V1.

Peggy Johnson, dirigeante de Magic Leap, promet une sortie de son nouveau produit en 2022.

L’article Magic Leap va de l’avant et annonce de nouvelles lunettes AR est apparu en premier sur 3DVF.

Une aventure spatiale pour la péniche de Duck Factory

Par : Shadows

Duck Factory n’est pas un studio comme les autres : l’entité, spécialisée dans la production et post-production, est en effet située sur une péniche qui a jeté l’ancre en région parisienne.

Récemment, Duck Factory a collaboré avec l’Agence Spatiale Européenne, qui souhaitait mettre en avant une campagne de recrutement. L’idée était donc de jouer sur l’imaginaire spatial et les rêves associés.
Jérôme Bernard, fondateur de Duck Factory, explique que le projet devait cibler les européens de 12 à 35 ans (il s’agissait aussi de susciter des vocations auprès du jeune public).

Voici le spot, suivi de ses coulisses :

Le brief avait été reçu en septembre 2020, pour un lancement de campagne au mois de mai 2021 : un délai trop court au vu des enjeux, d’où le choix de ne pas utiliser des méthodes traditionnelles.
Duck Factory a opté pour l’usage d’Unreal Engine et d’un système de production virtuelle avec écrans LED (via les services de Plateau Virtuel, que nous vous avions déjà présenté sur 3DVF).

En pratique, l’équipe a créé les environnements virtuels en l’espace de 3 mois, le tournage proprement dit s’étant étalé sur deux jours.
Jérôme Bernard se dit ravi de l’approche, qui a permis de réduire le temps passé sur le plateau mais aussi de « faire la postprod en préprod ».

Côté technique, l’équipe s’est notamment appuyée sur les assets Quixel Megascans, ainsi que sur Ultra Dynamic Sky.
Les environnements ont nécessité de 1,7 million de triangles (chambre anéchoïque) à 320 millions de triangles (paysage de Guyane), la majorité tournant autour des 4 ou 5 millions de triangles.

Crédits :

Director – Jérôme Bernard
For ESA – European Space Agency

VFX Supervisor – Johan Sarbia
Director of Photography – Julien Lascar
Music – Etienne Forget
Narrator – Julia Gguillen
shot at Plateau Virtuel

PRODUCTION
DUCK FACTORY – DKFT

Producer – Jérôme Bernard
Production manager – Pierre SAINT-BLANQUAT
Production assistant – Jeanne GAY-BÉZIAT
Storyboarder – Eric Gandois
Moodboard – Stéphanie Coulibeuf

CASTING

Little girl – Eleana Da Costa
Boy – Wassim Falaya
Disabled woman – Prudence Leroy
Scientists – Laura Zimmer & Léonard Hamet
Control room supervisor – Etienne Guillou Kervern
Control room operator – Krees de Almeida
Astronauts – Christelle Wallois & Marc Quenum

FILM CREW

Director of Photography – Julien Lascar
First Assistant Camera – Zoe Mention
2nd Assistant Camera Katia Hamnane
Gaffer – Clément Boyeldieu
Lighting technician – Gabriel Beaumelou
Drone operator – Christophe Guyon
Key grip – Pierre Marion-Andres
Set decorator – Lydwine LABERGERIE
Asst set decorator – Mareva BOURJAC-LABERGERIE
Stylist – Nathalie FRACHON
Key Make-up – Artist Simine COMMIEN
Make-up Artist – Emmanuelle POMBET
Location manager – Adrien Cokelear
first floor manager – Mathieu Lecaisne
2nd floor manager – Vincent Drocourt
Astrophysicist youtuber – Sébastien Carrassou
Making of instagram – Anthony Ornecq
Still photographer – Victoria Roblin
Culinary Chef – Johan Bonnet

Plateau Virtuel

Emilie Lecoq
Bruneau Corsini
Sébastien David
Julien Arnould
Olivier Saint Hubert
Clément Boyeldieu

POST PRODUCTION
DUCK FACTORY – DKFT

VFX SUPERVISOR – Johan SARBIA
VFX artist – Mathieu Gomez
EDITOR & VFX artist – Tanguy lavabre
colorist – Rémy Devlieger
SOUND DESIGNER – Clément Maurin

STUDIO VFOR
UNIVERSE SEQUENCE
Producer – Tom Bogda
VFX artists – Jérémy Djaffer, Gabriel Thomas and Pav Ivanov

MAKING OF

Director of photography – Christophe Guyon
Sound engineer – Léonard Hamet
Editor – Tanguy lavabre
Graphist – Mathieu Gomez

L’article Une aventure spatiale pour la péniche de Duck Factory est apparu en premier sur 3DVF.

La GTC de NVIDIA en approche : des conférences à ne pas manquer !

Par : Shadows

Du 8 au 11 novembre se tiendra en ligne une nouvelle édition de la GTC (GPU Technology Conference), événement organisé en ligne par NVIDIA.

On pourra notamment y retrouver une keynote du CEO de NVIDIA, Jensen Huang. Si NVIDIA se garde évidemment de dévoiler le contenu en amont, cette présentation est typiquement celle durant laquelle les annonces sont dévoilées (nouveaux produits et outils, nouvelles initiatives stratégiques).

L’autre volet majeur : plus de 500 présentations aux thématiques variées, de cas d’études aux conférences très pointues techniquement, en passant par des sessions axées sur la stratégie des entreprises.
Les sujets vont des thématiques de 3DVF (design 3D, simulation, XR) à ceux qui en sont plus éloignés (voitures autonomes, 5G). Nous vous invitons donc à parcourir les différentes sections du programme.
Voici une petite sélection :

Enfin, des workshops et formations sont proposés, et il est possible d’organiser des réunions avec des experts de NVIDIA pour évoquer vos projets, défis techniques, en groupe ou en session face à face.

L’accréditation GTC est gratuite ; certains contenus (journées complètes de workshops) sont payants.
Pour plus de détails, on se rendra sur le site de la GTC.

L’article La GTC de NVIDIA en approche : des conférences à ne pas manquer ! est apparu en premier sur 3DVF.

D’une cinématique PUBG à l’avenir du rendu : rencontre avec Brunch

Par : Shadows

Nous suivons l’équipe de Brunch depuis plusieurs années déjà : nous avions notamment eu l’occasion de vous proposer des interviews en leur compagnie autour d’une cinématique pour The Division 2 d’Ubisoft, puis d’une autre destinée à Riot Games et son Teamfight Tactics.

C’est désormais dans l’univers PlayerUnknown’s Battlegrounds (PUBG) que nous plonge Brunch, avec une cinématique sortie cet été pour promouvoir un nouveau jeu mobile lié à la licence.
Réalisée par Boddicker (Jean-Charles Kerninon et Clément Lauricella), produite par Eddy, cette cinématique adopte un rendu stylisé qui tranche avec l’approche photoréaliste de nombreuses bandes-annonces de jeu.

En compagnie de Brunch, nous vous invitons à découvrir le projet, ses coulisses et ses défis techniques et artistiques.
Démarche visuelle, narration poussée, travail en lien avec de la musique, animation en step, contraintes narratives liées à Youtube, vous saurez tout sur les coulisses de cette cinématique.

Et comme le projet adopte un rendu non photoréaliste, nous en avons profité pour échanger avec les réalisateurs sur les tendances actuelles en matière de rendu stylisé, mais aussi sur l’impact de l’IA et du deep learning sur l’avenir du rendu.

Le résultat : une interview dense et riche en informations à découvrir après avoir (re)vu la cinématique PUBG !

3DVF : Bonjour Boddicker/Brunch ! La cinématique PUBG : NEW STATE – La chute de Troi que vous avez récemment dévoilée trouve ses origines dans une autre licence : le travail que vous aviez fait pour The Division 2 d’Ubisoft, sur lequel nous vous avions d’ailleurs déjà interviewés.

Boddicker (Jean-Charles Kerninon et Clément Lauricella) : Tout à fait. En fait, PUBG Studio avait sorti une grosse cinématique, dans un style très photoréaliste et proche du jeu (en termes d’actions, de lighting). Or ils se sont rendus compte que cette approche ne fonctionnait pas : le projet était certes très beau et bien géré, il ne se démarquait pas du reste des cinématiques jeux vidéo en termes de rendu. La cinématique n’avait donc pas marqué le grand public autant que PUBG l’avait espéré.

Ils sont donc venus nous voir avec comme ambition d’aller vers quelque chose de plus stylisé, et d’avoir une narration plus approfondie pour sortir du lot.

Ils avaient eu l’occasion de voir notre travail sur The Division 2 (que nous avions co-réalisé avec Olivier Lescot), et cela correspondait à leur vision, un style fort et une vraie histoire.

Cinématique d’Olivier Lescot & Boddicker pour The Division 2

3DVF : Plus concrètement, quel était la demande, quels aspects du jeu fallait-il souligner ?

Il s’agissait d’accompagner la sortie d’un jeu mobile, PUBG : NEW STATE. L’action se situe dans le futur, et il y a une nouvelle map, des éléments plus technologiques (même si l’équipe est revenue en arrière par rapport à certains plans initiaux).
L’idée était notamment de mettre en place un lore, avec plusieurs factions du jeu. Quelques personnages principaux étaient déjà écrits mais sans avoir d’apparence visuelle associée, car ils n’étaient pas inclus dans le jeu.

Le brief, au fond, était assez simple : le studio avait trois gangs, trois factions, avec leurs leaders. Et une nuit, une équipe de chasseurs devait arriver et tuer tout le monde.
A partir de là on a pu écrire un scénario et leur proposer.

Visuellement, aucune référence, quartier libre pour présenter ce qu’on voulait, ils n’ont même pas demandé un style spécifique. La seule demande était d’éviter le photoréalisme.

Il y a eu une évolution dans le concept, nous avions proposé quelque chose de très narratif, avec des dialogues, une histoire accompagnée par de la musique (nous savions qu’un groupe de musique serait impliqué mais la musique n’était pas encore définie).
Cependant, eux voulaient vraiment appuyer la cinématique sur la musique.

Au final la cinématique est un mix de ces visions, avec un côté clip mais tout en gardant de la narration, et une longue intro sans musique. Ils nous ont tout de même bien permis de nous exprimer.
L’absence de dialogues a aussi des avantages : on a des non-dits, du mystère du fait par exemple que le dialogue final n’est pas audible (même si on l’a écrit dans le script !).

3DVF : Comment avez-vous géré ces contraintes au niveau sonore ?

Cela a beaucoup changé notre façon de réaliser et monter, par exemple nous avons mis en place beaucoup de coupes au moment des tirs.

Pendant longtemps il y a eu un flou pour savoir ce qui prenait le pas : est-ce que la musique devait s’adapter à l’image, ou l’inverse. On a reçu des maquettes que l’on a transformées, découpées, on a rallongé des moments… Nous avions aussi une courbe d’intensité pour le film que nous voulions respecter…

Les tests se sont poursuivis très tardivement, et au final le plus simple a été que le client nous fournisse la musique, qu’elle ne bouge plus et que l’on s’adapte, que l’on cale dessus nos rythmes, nos plans.

3DVF : Quelle était la taille de l’équipe, et combien de temps a duré le projet ?

5 mois de production, c’est un de nos plus longs projets.

Pour l’équipe, une quarantaine de personnes sur l’ensemble du projet mais sans dépasser la douzaine de personnes en même temps.

Et avec donc Eddy à la production, Brunch à la fabrication.

3DVF : Une ambiance nocturne peut être délicate à gérer au compositing, est-ce que ça a été le cas ici ?

Pas autant qu’on aurait pu le craindre. Evidemment, il a été nécessaire d’égaliser les plans durant la production, mais visuellement on est sur une nuit très graphique, teintée, pas sur une obscurité totale. Et comme les graphistes s’occupaient de séquences entières, on a pu facilement obtenir une unité de séquence.

3DVF : En termes de chara design, comment se sont passées les choses ?

Pour les leaders, nous n’avions pas de design, aucun élément, juste une fiche descriptive de la personnalité (faits d’arme par exemple).

Par contre nous avions quelques charas designs ou skins de personnages « lambda » qui étaient pressentis pour intégrer le jeu, nous avons donc étudié ces éléments afin d’avoir une cohérence visuelle. C’est ensuite que l’on a imaginé nos designs.

Nous avons eu une liberté énorme.

En pratique, quand on travaille sur le design de personnages, il y a des plannings, plusieurs designers en parallèle qui font plusieurs propositions par personnage, et c’est ensuite qu’il faut trouver un style global pour le film.

Or entre en design 2D et une retranscription 3D il est toujours difficile de se projeter ou d’avoir une bonne cohérence sur l’ensemble des designs. Il n’est jamais évident de dire à un graphiste « on voudrait tel type de rendu » et d’avoir un design adapté, c’est plutôt à l’étape de fabrication que l’on intègre tout ça, que l’on adapte tous les personnages, qu’on se les approprie. En décidant du type de textures, de la patte graphique.

D’autant plus que nous sommes des techniciens, nous maîtrisons la 3D plus que la 2D.

Si a posteriori on compare les characters designs et le résultat final, ça se ressemble mais il y a clairement une différence.

3DVF : Comment avez-vous abordé les visages ?

Notre parti pris était de nous affranchir d’un look 2D, de règles un peu idiotes que beaucoup se mettent pour avoir un « look 2D » ou « look 3D », on ne voulait pas que les gens pensent que le but était « d’imiter de la 2D », ce qui est très laborieux.

Nous avons donc opté pour garder du détail en modélisation, mais aussi pour le fait de mettre de la matière, de la texture. De même, sur les masques des chasseurs, on a assumé le côté 3D, mis une patine, des reflets réalistes et non bakés.

Un point qu’il faut souligner, c’est l’importance ici de la confiance que l’on nous a accordée. Sur ce genre de projet il faut généralement tout de suite, dès le pitch, montrer ce à quoi montrera le film. Ici, nous avons pu faire des essais, des recherches, le client et la production ont vraiment fait confiance, malgré l’attente que génère ce processus.

3DVF : Toujours sur les détails, le travail sur les yeux est impressionnant, de la texture, des reflets…

Il y a de la triche sur certains plans, avec par exemple des spéculaires 2D sur des petites plaques que l’on fait trembler pour créer du mouvement, par exemple à la fin quand Marion parle au Sherif et que ses yeux s’écarquillent. Ou quand une autre héroïne est allongée, avant de se faire exécuter. A l’inverse, sur d’autres plans ça ne marche pas visuellement, donc soit on retirait totalement, soit on mettait du spéculaire 3D.

Au final, tant que ça marche, peu importe la technique.

On a surtout gardé cet effet quand nous voulions raconter quelque chose avec le spéculaire, jouer sur les émotions.

3DVF : Vous avez opté pour une animation en step. Or il nous a semblé que certains FX sont animés avec plus de fluidité…

Pas tout à fait.

En fait on a adapté le framerate au plan, voire pendant le plan. Par exemple sur un plan un antagoniste court, manque de tomber, la caméra le suit et s’attarde. La caméra est fluide au début, puis beaucoup moins sur la fin pour renforcer le côté nerveux.

Les FX sont tous en step, mais comme ça bouge très vite on a cette sensation de fluidité. Et comme animer en 2 nous semblait parfois trop fluide, nous sommes parfois passés sur une animation en 3 ! Ca dépend vraiment du plan. Ca s’est fait au ressenti.

Pages suivantes : animation, FX, chara design, violence Youtube, rendu stylisé, machine learning.

L’article D’une cinématique PUBG à l’avenir du rendu : rencontre avec Brunch est apparu en premier sur 3DVF.

Engineering Emmy Awards : and the winner is…

Par : Shadows

Le 21 octobre se tiendra l’édition 2021 des Engineering Emmy Awards. La cérémonie, analogue aux Sci-Tech Academy Awards des Oscars mais pour le petit écran, récompense chaque année les personnes et entités qui ont apporté des contributions techniques dans le domaine de la télévision.

Cette année, aux côtés de CEDAR Studio (solution de restauration audio et suppression de bruit) et des systèmes d’éclairage SkyPanels proposés par la marque ARRI, des simulateurs de foules et moteurs de rendu seront primés.

Les foules, reines des séries

Ces dernières années, les simulations de foules deviennent un outil incontournable pour les séries à grand spectacle. The Walking Dead, Game of Thrones, Once Upon a Time en sont de bons exemples.

C’est donc très logiquement que l’éditeur de logiciels Golaem (photo d’en-tête) va être primé. Un prix qui intervient alors que l’outil a récemment soufflé 10 bougies, et que la version 8 approche à grands pas.
Golaem Crowd a notamment été employé sur les séries Game of Thrones, Love, Death & Robots, Jack Ryan, The Walking Dead, Lego City Adventures (un projet évoqué dans notre interview du studio Circus, pages 3 et 4), Watchmen, Lost in Space, The Expanse, Versailles, …

L’outil Massive sera lui aussi primé. Cette solution a été employée entre autres sur Game of Thromes, Fear The Waliing Dead.

Les moteurs de rendu, toujours indispensables

Outre la simulation de foules, les Engineering Emmy Awards récompenseront aussi le rendu, avec deux produits : Arnold et son système d’illumination globale, ainsi que V-Ray de Chaos. Le choix des lauréats repose en partie sur leur popularité dans les studios.

Les 73emes Engineering Emmy Awards seront remis le 21 octobre à Los Angeles.

L’article Engineering Emmy Awards : and the winner is… est apparu en premier sur 3DVF.

Grâce à l’IA, l’expérience du stade depuis votre canapé

Par : Shadows

Depuis plusieurs années, des projets visent à améliorer l’immersion au sein des matches sportifs, en permettant aux spectateurs d’observer le terrain sous tous les angles.

De nombreux projets, une mise en place complexe

Dès 2017, nous vous avions par exemple parlé de Free Viewpoint Video System, un projet de Canon. Intel a lancé une initiative similaire avec True View. Dans les deux cas, l’idée est de disposer une armée de caméras autour du terrain, afin de générer de la vidéo volumétrique qui peut ensuite être observée sous tous les angles.

Dans le même esprit, Unity vient de dévoiler Metacast, qui utilise là aussi de la vidéo volumétrique.

Outre le fait de proposer de nouvelles images aux téléspectateurs, ces techniques peuvent avoir d’autres applications : VR, analyse de stratégie d’équipe, optimisation des performances sportives, arbitrage, etc.

Toutes ces annonces sont prometteuses, mais elles ont plusieurs défauts, comme la nécessité de devoir utiliser un ensemble complexe de caméras synchronisées. Le volume de données à traiter pose aussi question, d’autant que le temps réel est indispensable pour ce marché.

L’IA, une alternative ?

C’est ici qu’intervient un projet de R&D de l’ingénieur en vision informatique Guillaume Chican, qui propose une alternative beaucoup moins contraignante : n’utiliser qu’une seule caméra, et laisser le deep learning faire le reste.

Guillaume Chican (que nous avions déjà eu l’occasion de croiser durant Laval Virtual 2017, sur un tout autre projet) nous explique que dans son approche, le deep learning est utilisé à la fois pour la capture de la géométrie et le rendu des joueurs. Dans la vidéo de démonstration ci-dessous, qui alterne prises de vue réelles et survols du match générés par son approche, seul le terrain est créé avec du rendu 3D classique. Les joueurs sont entièrement confiés au machine learning.

Si la méthode n’a pour le moment été testée que sur du football, elle se déclinerait sans difficulté sur d’autres sports comme le basket, le tennis. En revanche, des disciplines comme le rugby poseront sans doute des défis, certaines manœuvres comme les mêlées représentant des cas très spécifiques qui demanderont probablement un développement dédié.
La technique n’est pas encore temps réel, mais Guillaume Chican y travaille. Un autre axe d’amélioration étant de proposer un rendu de meilleure qualité.

En termes d’usages, cette approche pourrait comme les propositions d’Intel, Canon et Unity être utilisée pour proposer de nouvelles images aux spectateurs, avec des analyses de matches, des retours sur une action précise, ou encore la possibilité, en temps réel, de changer de point de vue (un peu à la manière d’un jeu vidéo). En revanche, comme le rendu neural implique que l’image est générée de toutes pièces, un usage en arbitrage serait sans doute exclu.

Guillaume Chican souligne que combinée à un dispositif de réalité augmentée ou virtuelle, sa technique permettrait aux fans de reproduire l’expérience du stade grâce à une loge virtuelle, entre amis.

A noter enfin : puisque le système ne nécessite pas de matériel lourd, on peut imaginer un déploiement moins coûteux et plus facile. De quoi, peut-être, et dans un futur plus ou moins lointain, rendre cette technique accessible à davantage d’équipes, au sport amateur ou encore au secteur de l’éducation…
Pour le moment, nous n’en sommes évidemment pas là.

Pour en savoir plus

Pour toute question, Guillaume Chican peut être contacté sur LinkedIn.

L’article Grâce à l’IA, l’expérience du stade depuis votre canapé est apparu en premier sur 3DVF.

Lone Echo II : incarnez un androïde en apesanteur dans le futur jeu VR

Par : Shadows

En 2017 sortait le jeu Lone Echo, jeu d’aventure dans l’espace développé par le studio Ready at Dawn pour Oculus Studios.

Sa suite directe Lone Echo II sort le 12 octobre, et s’offre pour l’occasion une bande-annonce.
Développé par le même studio, ce nouvel opus nous fera une fois encore incarner Jack, un androïde, aux côtés de la capitaine Olivia « Liv » Rhodes.
La promesse de cette bande-annonce : une aventure spatiale en apesanteur, épaulée par des visuels de qualité et un scénario riche. De nouveaux outils et capacités seront aussi au rendez-vous.

Le titre sera compatible avec Oculus Rift, Rift S et évidemment Oculus Quest /Quest 2 en mode Link (relié à un PC, en filaire ou via WiFi).

L’article Lone Echo II : incarnez un androïde en apesanteur dans le futur jeu VR est apparu en premier sur 3DVF.

Le studio Trigger fête ses 10 ans

Par : Shadows

L’équipe du studio Trigger célèbre son 10ème anniversaire : l’entité a été fondée le 22 août 2011 par Hiroyuki Imaishi et Masahiko Ōtsuka.

En une décennie de travail, Trigger s’est fait connaître avec des séries et longs-métrages très divers : Little Witch Academia, Kill la Kill ou encore Promare. Tout récemment, le studio était impliqué dans la série de courts-métrages Star Wars: Visions : on lui doit les épisodes The Twins, The Elder.

L’article Le studio Trigger fête ses 10 ans est apparu en premier sur 3DVF.

30 ans de Cinesite : retour sur un grand nom des VFX et de l’animation

Par : Shadows

Cinesite a 30 ans ! C’est en effet en 1991 que le studio a ouvert ses portes à Hollywood, peu avant (1994) le lancement de son bureau londonien qui lui sert actuellement de siège social.

Profitons-en pour évoquer rapidement le cheminement du studio : à ses débuts, Cinesite était affilié à Kodak, qui avait développé un des premiers systèmes d’intermédiaire numérique (DI) pour le cinéma (numérisation de la pellicule afin de pouvoir retravailler le film sur système informatique).

En 2003, Cinesite Hollywood est absorbé par le studio LaserPacific de Kodak, et en 2012, Cinesite (désormais centré sur Londres, donc) est vendu par Kodak à un investisseur privé.

Depuis, le groupe Cinesite a connu une forte croissance : lancement d’un studio à Montréal en 2014, rachat du studio Image Engine en 2015, lancement d’une division animation en 2016, rachat du studio d’animation Nitrogen Studios en 2017, et enfin de Trixter en 2018.

Avec ces rachats et extensions, le groupe Cinesite dispose désormais de studios à Londres, berlin, Munich, Vancouver, et a su se diversifier dans l’animation avec des projets tels que La Famille Addams (2019), Riverdance – l’Aventure animée (2021). Cinesite est par ailleurs responsable de la future série d’animation Iwaju de Disney.

L’article 30 ans de Cinesite : retour sur un grand nom des VFX et de l’animation est apparu en premier sur 3DVF.

Critique : « 7 Jours », un anime moderne et optimiste, mais pas naïf

Par : Shadows

7 jours sort aujourd’hui dans les salles obscures françaises, via le distributeur Eurozoom. Ce film d’animation japonais est réalisé par Yuta Murano et animé par les studios Ajiadō. Nous avons pu le voir en avant-première, et nous vous en proposons donc une critique.


7 jours nous invite à suivre le jeune Mamoru, qui découvre que sa voisine Aya va déménager alors qu’il n’a jamais osé lui avouer ses sentiments pour elle.

Le scénario va rapidement prendre une tournure surprenante lorsque Mamoru propose à Aya de fuguer pour fêter ses 17 ans. Réfugiés dans une mine désaffectée, nos deux adolescents sont rapidement rejoints par d’autres jeunes de leur entourage, et croisent le chemin d’un réfugié thaïlandais qui fuit la police.

L’histoire légère se mue alors en révolte : le groupe passera plusieurs jours à s’opposer aux adultes, multipliant ruses et affrontements, tout en savourant une liberté précaire.

A la lecture de ce pitch, on pourrait craindre un n-ième film sur le passage à l’âge adulte, un John Hughes à la sauce anime totalement inoffensif. Il n’en est rien.

Certes, les personnages sont sans doute un peu trop stéréotypés, et le déroulé pourra parfois sembler manichéen.
Mais 7 jours complexifie la situation via des révélations en cascade, qu’elles soient intemporelles ou résolument d’actualité : corruption, réseaux sociaux, secrets inavoués, fautes passées, harcèlement, choix entre des idéaux lourds de conséquences et des solutions de facilité, question des migrants.
En résultent des échangent entre personnages qui dépassent les schémas classiques et évitent de sombrer dans la naïveté. On appréciera aussi un traitement des réseaux sociaux qui nous montre les deux visages des échanges en ligne, positifs comme négatifs. De quoi, là encore, apporter de la nuance là où de (trop) nombreux autres films n’en ont aucune.

7 jours a beau être issu d’un romain de Soda Osamu de 1985 dont le succès avait déjà donné lieu à une adaptation live quelques années plus tard (cette dernière a droit à une référence discrète dans l’anime), c’est une oeuvre qui se veut définitivement moderne.
Graphiquement, le scénario est soutenu par un character design plutôt efficace, et un joli travail sur les décors.

Le film devrait plaire au public adolescent par ses thématiques, son traitement, ses sujets d’actualité.
Les adultes, eux, pourront peut-être y raviver une étincelle d’optimisme et de rébellion qu’ils avaient trop longtemps oubliée.

7 Jours sort au cinéma aujourd’hui 6 octobre 2021.
Durée :1h28.
Séances disponibles sur Allociné.

L’article Critique : « 7 Jours », un anime moderne et optimiste, mais pas naïf est apparu en premier sur 3DVF.

Blue Curry : une délicieuse leçon (Gobelins 2021)

Par : Shadows

Nous continuons à découvrir les projets Gobelins 2021 avec Blue Curry de Magali Dunyach, Chien-Ju Hung, Jimin Jung, Vajra Pancharia, Léa Pietrzyk.
Un film qui parle de cuisine, et de bien plus encore…

Les plus belles leçons de vie sont apprises à travers les expériences les plus simples. Quand votre cuisine se transforme en salle de classe… Et que Maman vous sert une assiette de sagesse.

Soundtrack / Musique : Antoine DUCHENE
Sound editor / Montage sonore : Laurent JIMENEZ
Mix / Mixage : Benjamin CABAJ

L’article Blue Curry : une délicieuse leçon (Gobelins 2021) est apparu en premier sur 3DVF.

Piratage massif chez Twitch ?

Par : Shadows

Un utilisateur du forum anonyme 4Chan a revendiqué ce matin une fuite massive de données en provenance de la plateforme de streaming Twitch.

Le contenu des 135Go de données déversées : du code source lié à Twitch et ses applications, des outils de sécurité, des projets en développement. Des éléments financiers (sommes reversées à des vidéastes) seraient aussi présents.

Twitch explique ne pas pouvoir confirmer à ce stade si les données sont véridiques ou non, mais la plateforme enquête sur le sujet.
En parallèle, plusieurs vidéastes ont confirmé à la presse que les montants qui circulent à leur sujet sont corrects, ce qui tend à accréditer la véracité du contenu des fichiers.

Twitch accueille plus de 7 millions de créateurs de contenu chaque mois, et annonce dépasser les 30 millions de visites par jour.

Si à l’heure actuelle rien ne permet d’indiquer que des mots de passe ont fuité, nous ne saurions trop vous conseiller de changer préventivement le vôtre si vous disposez d’un compte Twitch. Outre un changement de mot de passe, n’hésitez pas à activer la double authentification si ce n’est pas déjà le cas.

L’article Piratage massif chez Twitch ? est apparu en premier sur 3DVF.

D’impressionnantes expressions faciales signées Chris Jones

Par : Shadows

Chris Jones a mis en ligne le résultat de son travail sur les expressions faciales réalistes.

Le réalisme de ses animations est saisissant ; Chris Jones explique qu’il travaille sous Blender et Krita, aucune motion capture n’étant employée (il a juste utilisé des vidéos en tant que références).

Chris Jones détaille la partie technique sur Blender Artists : maps de rides créées à la main, masques sont utilisées, ou encore un « crâne » interne ont notamment été utilisés.

Notez enfin que Chris Jones n’en est pas à son coup d’essai : nous avions déjà eu l’occasion de vous proposer la vidéo ci-dessous en 2014. A l’époque, il utilisait Lightwave.

L’article D’impressionnantes expressions faciales signées Chris Jones est apparu en premier sur 3DVF.

Lynx : et si l’avenir de la réalité mixte venait de Paris ?

Par : Shadows

La société Lynx lance une campagne Kickstarter pour son casque de réalité mixte (VR, AR) sans fil, le Lynx R-1.

Le produit fonctionne au choix de façon autonome ou filaire, et se démarque notamment par son design très compact par rapport aux casques du marché, ainsi que par son prix abordable au vu des caractéristiques (à partir de 530€TTC).

Des caractéristiques techniques alléchantes

Le Lynx R-1 dispose d’un système optique atypique,. La forme complexe de ses lentilles sont la clé de l’épaisseur réduite du casque.

Pour le reste, le Lynx R-1 dispose du même processeur qu’un Oculus Quest 2 ou un Vive Focus 3, d’une résolution supérieure au Valve Index mais inférieure au Quest 2 :

  • affichage de 1600×1600 pixels par oeil à 90Hz ;
  • caméras couleur avec affichage pass-through à latence réduite ;
  • processeur Qualcomm XR2, 6Go de RAM, 128Go de stockage interne ;
  • tracking 6DoF ;
  • WiFI 6, Bluetooth 5 ;
  • compatibilité SteamVR via un câble au lancement, et à terme en WiFi ;
  • slot pour carte SD, jusqu’à 1To de stockage additionnel ;
  • hauts-parleurs stéréo, prise jack 3,5mm, microphones ;
  • distance inter-pupillaire ajustable de 56 à 72mm ;
  • OS : Android 10 ;
  • SDK fourni, support OpenXR prévu à terme.

On notera l’absence de tracking du regard : cette fonction était initialement prévue quand Lynx visait un marché bien plus haut de gamme (avec un tarif 3 fois plus élevé), mais l’entreprise a depuis choisi de cibler un public bien plus large : la suppression du tracking fait donc partie des éléments qui ont permis de baisser le tarif.

Une vidéo mise en ligne par l’équipe donne une idée du rendu visuel en réalité augmentée? L’image est filmée à travers les lentilles sans retouche, et il convient de garder en tête qu’il s’agit d’un prototype.

En termes d’ergonomie, l’équipe a choisi de placer la batterie à l’arrière, de façon à équilibrer le poids de l’engin sur la tête.

Au vu des images du produit, vous aurez sans doute réalisé que le produit laisse passer la lumière par les côtés, ce qui n’est pas un souci en réalité augmentée mais pose problème pour l’utilisation en mode VR : de la lumière parasite sera présente.
Lynx y a évidemment pensé et un accessoire magnétique est inclus pour régler le problème. Une version de cet accessoire compatible avec des lunettes est aussi prévue.

Où en est le produit ?

A ce stade, le Lynx R-1 est en phase de pré-production : le design et les composants ont été validés, et il reste à produire en masse le casque.

D’où une campagne Kickstarter : pour 530€TTC, vous pourrez disposer d’un modèle standard, et pour 745€TTC, de l’édition limitée dotée d’une face avant transparente. La version Pro (950€TTC) permet de son côté de revendre le produit et de disposer d’un meilleur support.
Notez enfin que si vous vivez hors UE ou n’êtes pas assjeti à la TVA, l’équipe a pensé à vous.

Pour plus de détails et soutenir le projet, rendez-vous sur Kickstarter. Comme toujours, nous vous invitons à bien lire les informations données et à garder en tête que Kickstarter n’est pas un système de précommande : des risques sont toujours présents sur ce type d’initiative.

Que penser du Lynx R-1 ?

Sur le papier, le produit semble très intéressant, et nous essaierons de rapidement pouvoir le tester en conditions réelles.
Les solutions de réalité mixte du marché, comme le Microsoft Hololens 2, le Magic Leap ou les produits Varjo, sont proposée à des tarifs nettement plus élevés qui les rendent inaccessibles aux passionnés et en font un investissement non négligeable pour les petites entreprises.
Le Lynx R-1, de son côté, est bien plus abordable. Le support de Unity via le SDK proposé, mais aussi l’arrivée d’OpenXR d’ici la fin de l’année pour gérer également Unreal ou Godot vont grandement faciliter son usage pour les développeurs.

Le Lynx R-1 est donc un projet que nous allons suivre de près.

L’article Lynx : et si l’avenir de la réalité mixte venait de Paris ? est apparu en premier sur 3DVF.

Windows 11 est de sortie : nouveautés, compatibilité, déploiement

Par : Shadows

Microsoft lance officiellement aujourd’hui Windows 11, nouvelle version majeure de son OS. La mise à jour est gratuite si vous disposez déjà de Windows 10.

Quelles nouveautés ?

Les évolutions sont évidemment nombreuses par rapport à Windows 10, avec entre autres :

  • de nombreux changements en ce qui concerne l’interface et l’expérience utilisateur au quotidien, dont une barre des tâches centrée, une refonte du menu démarrer, un renouvellement des sons systèmes ;
  • côté jeu, la fonction « Auto HDR » qui rajoute automatiquement du HDR sur les jeux DirectX 11/12, DirectStorage qui devrait considérablement améliorer les temps de chargement sur les jeux qui en tireront parti, ou encore la possibilité de souscrire au Xbox Game Pass, un abonnement qui donne accès à une centaine de jeux PC ;
  • l’intégration de Teams par défaut, mais pas de Skype : ce dernier pourrait du coup prendre progressivement sa retraite ;
  • la section paramètres a été revue et est plus complète ;
  • le grand retour des widgets ;
  • une meilleure gestion du multitâches avec en particulier un docking largement amélioré que les personnes utilisant des écrans de grande taille, ou du multi-écrans, devraient apprécier ;
  • la refonte de la boutique Microsoft, plus pratique et performante ; elle permet par ailleurs désormais d’installer des applications Android ;
  • un mode tablette optimisé ;
  • Enfin, plus de performances et un OS moins gourmand en ressources : il faudra évidemment le vérifier en pratique et dans la durée.

On pourra regretter à l’inverse que certaines fonctions n’aient pas subi d’amélioration notable, comme le système de sauvegarde qui aurait bien besoin d’une refonte.

Windows 11, mais pas pour tout le monde

Microsoft a mis à disposition un test de compatibilité qui vous indiquera si votre machine Windows 10 peut tourner sous Windows 11 : en pratique, il faudra en particulier que votre machine dispose de TPM 2.0 (nos confrères d’INpact Hardware ont publié un guide sur comment le détecter et activer), et que votre processeur soit relativement récent.

Si les critères sont restrictifs en théorie, ils le sont moins en pratique : Microsoft explique qu’il est possible d’installer Windows 11 sur du matériel non éligible (auquel cas un avertissement s’affichera avant installation), et que l’on peut contourner l’obligation de TPM. Attention, ces approches ne sont recommandées que si vous savez ce que vous faites, et vous ne bénéficierez plus de certaines garanties.

Comment télécharger la nouvelle version ?

Pour les plus impatients, ou si vous avez de nombreuses stations à gérer, une page de téléchargement est disponible, avec assistant d’installation, outil de création de clé USB ou DVD de démarrage, ou encore image ISO.

Notez cependant que vous pouvez aussi tout simplement patienter le temps que Windows Update vous propose spontanément la mise à jour. C’est d’ailleurs la méthode officiellement recommandée par Microsoft pour le grand public.
Etant donné le nombre de machines concernées, cela va prendre du temps : Microsoft explique qu’il étalera les propositions de mise à jour jusque mi 2022.

Bien évidemment, nous vous recommandons de sauvegarder vos données avant la mise à jour… Ce qui devrait d’ailleurs être fait régulièrement.

Et après ?

Reste à voir si cette nouvelle version majeure saura convaincre le grand public, ainsi que le secteur professionnel. Nous aurons de notre côté sans nul doute l’occasion de revenir sur le sujet lors de prochains tests matériels.

L’article Windows 11 est de sortie : nouveautés, compatibilité, déploiement est apparu en premier sur 3DVF.

Une V1 disponible pour le lecteur vidéo JOKYO HAP Player

Par : Shadows

Le lecteur vidéo JOKYO HAP Player passe en version 1. Cet outil se destine à la lecture de contenus encodés en HAP, qui sont surtout répandus dans le domaine évènementiel.

JOKYO HAP Player propose une lecture avec accélération GPU, et est disponible sous Windows, macOS. Il est par ailleurs gratuit.

Voici les principales avancées de la V1 :

Support de l’audio :
– Piste son non compressé de fichiers HAP
– Wav externe (pour vérifier les médias dédié à des media server préférant le son séparé)
– Panneau de Mute/Sol et de peak mètre
– Panneau pour modifier l’assignation des canaux à l’écoute

– Support des Mov HAP avec fps variable
– Test automatique de fichiers HAP, pour vérifier l’absence de frames corrompus
– Snapshot
– Et une amélioration de la stabilité générale.

Une série de tutoriels est par ailleurs disponible pour prendre en main l’outil.

L’article Une V1 disponible pour le lecteur vidéo JOKYO HAP Player est apparu en premier sur 3DVF.

Le tour du Monde en 80 Jours : derrière le film, les concept arts et character designs !

Par : Shadows

Cet été, nous vous avions proposé une interview autour du film d’animation Le Tour du Monde en 80 Jours, réalisé par Samuel Tourneux, fabriqué chez Circus et Mac Guff sous la direction artistique de Mathieu Vavril.

Depuis, certains artistes ont pu mettre en ligne des travaux réalisés durant le développement visuel. Nous vous proposons donc une nouvelle plongée dans le film, centrée sur les concept arts et character designs.

La bande-annonce du film

Julien Le Rolland a travaillé sur le character design ; voici une sélection de ses créations pour le film ; on pourra en trouver d’autres sur son profil Artstation.

Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia

Yann Boyer, de son côté, était le Lead Background Artist durant le développement visuel. Il a travaillé sur de nombreux décors du film. Là encore, vous trouverez d’autres visuels sur Artstation.

Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia

N’hésitez pas à (re)lire notre interview sur le film, ou à consulter les portfolios de Yann Boyer et Julien Le Rolland.

L’article Le tour du Monde en 80 Jours : derrière le film, les concept arts et character designs ! est apparu en premier sur 3DVF.

SATIS 2021 : le salon de la création et de l’innovation est de retour!

Par : Shadows

Les 9 et 10 novembre se tiendra l’édition 2021 du SATIS, salon centré sur la création et les innovations dans les secteurs des médias, de l’audiovisuel et du divertissement.

Cette édition sera hybride :

  • un volet physique à La Plaine-Saint-Denis, à côté de Paris ;
  • un volet en ligne, avec la retransmission d’une partie des conférences grâce à la SATIS TV 2021, en direct.

Une liste d’exposants est déjà disponible, de même que le programme de conférences (plus de détails, avec par exemple la liste des intervenants, seront proposés très prochainement).
Les thématiques suivantes seront notamment abordées :

  • numérique et tourisme/patrimoine ;
  • les VFX pour les séries TV ;
  • NFT et audiovisuel ;
  • studios XR ;
  • IA et audiovisuel ;
  • 3D sans lunettes ;
  • étalonnage – études de cas ;
  • acteurs de synthèse ;
  • écoresponsabilité ;
  • accès aux métiers de l’audiovisuel & handicap.

Il est déjà possible de s’accréditer gratuitement ; cette accréditation vous permettra à la fois de venir sur place et de suivre la SATIS TV à distance.
Notez que le salon est facilement accessible en transports en commun depuis Paris.

Aperçu de l’édition 2019 – crédit : SATIS-Screen4All

L’article SATIS 2021 : le salon de la création et de l’innovation est de retour! est apparu en premier sur 3DVF.

Interview 3DVF : « Sous la glace », un court-métrage poétique et hivernal

Par : Shadows

Un héron élancé chasse des poissons sur un lac gelé au milieu d’une campagne paisible… Sous la Glace, réalisé par Milan Baulard, Ismail Berrahma, Flore Dupont, Laurie Estampes, Quentin Nory, Hugo Potin, est un court-métrage qui mise sur un scénario simple et un soin tout particulier apporté à l’image.

Tout droit venu de l’Ecole des Nouvelles Images (promotion 2019), il est désormais visible en intégralité en ligne. L’occasion pour nous de vous proposer une plongée dans les coulisses du projet, en compagnie de l’équipe du film

Voici le court-métrage, suivi de l’interview :

Animation / Animation: Flore DUPONT, Laurie ESTAMPES, Hugo POTIN
Scénario, Script / Scenario, Script: Milan BAULARD, Flore DUPONT, Laurie ESTAMPES
Image / Image: Milan BAULARD, Ismail BERRAHMA, Quentin NORY
Effets spéciaux / Special effects: Romain AUGIER
Montage / Film editor: Milan BAULARD
Rendu / Rendering: Ismail BERRAHMA, Quentin NORY
Ingénieur du son / Sound engineer: Pierre François RENOUF
Montage sonore / Sound editor: Milan BAULARD
Mixage / Mix: Pierre François RENOUF
Musique / Soundtrack: Baptiste LEBLANC
Distribution : Miyu Distribution (festival@miyu.fr

3DVF : Sous la glace est un projet au concept à la fois très simple et très poétique, très efficace. Comment est né le scénario ?

L’équipe Sous La Glace : A l’origine, on voulait raconter l’histoire de plusieurs animaux qui subiraient l’arrivée progressive de l’hiver. Ce qui nous intéressait, c’était de voir en quoi ce changement de climat si radical allait impacter la vie de ces animaux et en quelque sorte les lier. Cependant, il nous était difficile de créer des personnages attachants sur un format court, et on se retrouvait avec une approche très documentaire. Nous avons donc pris la décision de nous focaliser sur un seul personnage qui nous semblait être le le plus intéressant et qui aurait le plus à raconter : le héron. A partir delà on a choisi des enjeux simples pour en faire une fable, et on a pu creuser un concept plus facilement.

3DVF : Quels étaient vos rôles respectifs ?

Nous étions 6 sur le projet, plus un stagiaire qui nous a aidé sur les FX (Romain Augier). Pour la musique, on a eu l’opportunité de collaborer avec un étudiant de Maav (Musiques Appliquées Aux Arts Visuels), Baptiste Leblanc. Milan a pris en main la direction artistique ainsi que le colorscript, les matte paintings et le storyboard. Quentin a lui aussi aidé sur la direction artistique en plus de s’occuper du modeling, texturing, lookdev, lighting et du compositing. Ismaïl s’est principalement chargé du layout, lighting et compositing en plus de la réalisation du fur du héron. Hugo a animé sur le film en plus d’avoir réalisé le rig du perso. Flore et Laurie étaient également en charge de l’animation et ont participé à la conception du film.

3DVF : La glace est au coeur du film, mais c’est un élément délicat à utiliser : quel cheminement a mené à son apparence finale ?

On s’est très vite rendu compte que l’aspect de la glace allait devenir un des enjeux visuels du film, c’est pourquoi on est passé par de nombreuses itérations avant d’aboutir à un résultat final qui allait satisfaire toute l’équipe. Concernant le lookdev de la glace on voulait conserver la patte graphique de nos recherches et inspirations picturales, tout en gardant ce côté “réaliste” propre au film. Le résultat est un mélange de matériaux procéduraux issue de substance designer et de textures peintes sous painter, tout en profitant des possibilité qu’offrait notre moteur de rendu (Guerilla Render) en termes de réfraction, réflexion… La mise en place pour la première fois dans l’école d’un color management ACES et l’aide de Christophe Brejon a également participé au rendu final.

3DVF : Comment avez-vous abordé le héron d’un point de vue chara design et modélisation ?

Le character design a été abordé par Milan qui s’est concentré sur la silhouette avant tout puis sur la simplicité des volumes. Puis l’accentuation de certains traits morphologiques qui ont été définis pour des enjeux de narration et d’animation précis. Ainsi, les pattes du héron sont assez fines et démesurément longues pour accentuer son jeu d’équilibriste sur une surface gelée, de même le bec devait ressembler à une lance capable de transpercer de la glace. On a voulu aboutir à une forme simple et lisible en cohérence avec l’esprit du film et les actions prévues du personnage.

3DVF : De même, pouvez-vous nous parler de son rigging et son animation globale ?

C’est Hugo qui s’est chargé du rig du héron. Les deux points qui ont demandé le plus travail sur ce rig ont été les ailes ainsi que le cou. Les ailes, car le rig devait permettre aux animateurs d’ouvrir et fermer ces dernières à leur guise ce qui a impliqué de nombreuse itérations pour avoir un système viable (merci à Benoit Degand qui nous a aidé à mettre en place un premier système pour l’ouverture et la fermeture des ailes). Pour le cou le challenge était de réussir à avoir un cou souple, qui soit facilement animable et qui permette de reproduire les silhouette pensées par Milan en pré-production.

L’animation était très amusante à faire tout en étant complexe​, nous avons essayé de rendre attachant un personnage sans expression faciale, d’humaniser son comportement animal. Cela nous a demandé quelques tentatives avant d’arriver à un résultat homogène et qui nous plaise à tous. De la même manière ce qui fut compliqué était de l’animer en train de marcher sur la glace… Il n’y a pas tant de références que ça ! On a du faire un peu d’acting, se filmer en train d’agir comme un héron qui essaierait de se déplacer sur un sol glissant. C’était assez drôle…

3DVF : Enfin, comment avez-vous abordé le grooming et l’animation des plumes ?

Concernant le fur, nous nous sommes servis de Yeti combiné à Guerilla Render. Notre intention n’était pas d’avoir un fur hyper réaliste, mais de réussir à y insuffler une part de stylisation. Pour cela, on a utilisé le grooming Yeti pour instancier des milliers de petites plaques sur lesquelles on a appliqué un masque d’opacité qui nous a permis de dessiner nous-même la forme que prendrait nos plumes. Les plumes des ailes ont quant à elles été modélisées et directement intégrées au rig. On a ensuite fait attention de travailler la transition entre le fur Yeti et nos plumes modélisées pour qu’elles ne soit pas choquantes. Etant donné que l’on souhaitait que notre héron soit capable d’ouvrir et de refermer les ailes sans switcher de rig, ce fut un travail de longue haleine qui a demandé beaucoup de minutie et d’allers-retours entre l’animation et le fur. Nous avons également dû développer plusieurs grooms correctifs.

3DVF : Quelle a été votre démarche artistique pour les différentes ambiances lumineuses du film, et comment les avez-vous concrétisées techniquement ? A-t-il été difficile d’y parvenir ? La partie rendu/compositing a, on l’imagine, été cruciale sur ce point ?

On a rapidement réalisé un premier color script du film qui allait nous donner la direction globale des différentes séquences, même si celui ci n’a cessé d’évoluer tout au long de la prod. Une fois cette étape franchie on s’est amusé à jouer sur les différents changement d’ambiances, de lumières zénithales au coucher de soleil rasant, et des réflexions de cette lumière changeante sur la glace. La grosse majorité des plans étant en extérieurs la mise en place d’un lighting par séquences à été assez rapide, les principales difficultés étant apparues avec les plans sous la glace et à l’intérieur du bateau. Seuls la porte et quelques hublots permettent normalement à la lumière de pénétrer, il a donc fallu multiplier les sources lumineuses pour aider à la mise en valeur du plan et aider au sampling de l’image. Un gros travail de compositing et de paintover a ensuite permis de cacher les défauts de rendu et d’embellir l’image en y ajoutant les matte painting et plusieurs autres effets d’atmosphères notamment. On n’a véritablement pu apprécier le rendu final de l’image qu’après le compositing terminé.

3DVF : L’eau est très présente dans le film, et pas uniquement sous forme de glace : eau liquide qui jaillit dans le bateau en fin de film, tempête de neige… Quelle a été votre stratégie pour gérer ces éléments ?

Concernant les FX d’eau et les éléments de la tempête comme les smoke et flocons, puisqu’aucun membre de l’équipe ne souhaitait se spécialiser dans Houdini et y investir trop de temps, nous avons très vite confié ces tâches à Romain Augier, notre stagiaire FX en 2e année. C’est lui qui s’est donc occupé de chacune des simulations des 10 shots comportant de l’eau.

Test de simulation par Romain Augier

Et pour les smoke et flocons, n’étant pas à temps plein avec nous, il nous a mis en place des set up pratiques d’utilisation pour que nous puissions nous-mêmes aisément paramétrer et corriger nos simulations.

Page suivante : plans marquants, fin du film, bilan, visuels supplémentaires.

L’article Interview 3DVF : « Sous la glace », un court-métrage poétique et hivernal est apparu en premier sur 3DVF.

Drifting Home : le nouvel anime de Colorido (Le Mystère des pingouins) en approche

Par : Shadows

Après Le Mystère des pingouins et Loin de moi, près de toi, voici le troisième long-métrage d’animation du studio japonais Colorido : Drifting Home.

Réalisé par Hiroyasu Ishida, le film sera lancé sur Netflix en 2022. Il mettra en scène Kosuke et ses amis ; alors qu’ils jouent dans un immeuble destiné à être démoli, ils se retrouvent face à un curieux phénomène : l’immeuble se retrouve soudain entouré d’un océan…

L’article Drifting Home : le nouvel anime de Colorido (Le Mystère des pingouins) en approche est apparu en premier sur 3DVF.

La Traversée : le nouveau film de l’animatrice Florence Miailhe au cinéma

Par : Shadows

Réalisé par Florence Miailhe, le film d’animation La Traversée est actuellement visible au cinéma : un projet qui a connu une longue gestation, puisque le travail sur le film a débuté il y a 15 ans. La fabrication proprement dite a duré 3 ans.
Ce film d’animation utilise une technique dont Florence Miailhe s’est faite une spécialité : la peinture sur verre.

Un village pillé, une famille en fuite et deux enfants perdus sur les routes de l’exil…
Kyona et Adriel tentent d’échapper à ceux qui les traquent pour rejoindre un pays au régime plus clément. Au cours d’un voyage initiatique qui les mènera de l’enfance à l’adolescence, ils traverseront de multiples épreuves, à la fois fantastiques et bien réelles pour atteindre leur destination.

Voici la bande-annonce, suivie de deux vidéos qui vous en apprendront plus sur les coulisses du film.

L’article La Traversée : le nouveau film de l’animatrice Florence Miailhe au cinéma est apparu en premier sur 3DVF.

Rappel – la View Conference s’ouvre demain, accès en ligne gratuit !

Par : Shadows

Du 17 au 22 octobre se tiendra la View Conference, dans un format hybride : il sera possible d’y assister en ligne ou à Turin, en Italie.
Un live stream gratuit est proposé, et le premier workshop débute demain 16 octobre.

Quel contenu ?

C’est un programme dense qui vous attend, entre conférences, tables rondes, masterclasses, workshops.
L’occasion de revenir sur les projets récents ou à venir (Luca, Vivo, Mandalorian, Raya, Love, Death + Robots…), d’aborder des thématiques variées (lien entre créativité et culture, panel de Chief Technology officers), des outils et technologies (Substance, Epic Games, développement de jeux vidéo, VR….).

Une très longue liste d’intervenants a été dévoilée, avec de nombreux grands noms de l’animation et des effets visuels tels que :

  • Jorge R. Gutierrez (réalisateur de Maya and The Three – Netflix)
  • Jennifer Yuh Nelson (Supervising Director, Love Death and Robots, Netflix)
  • John Knoll (Executive Creative Director & Senior Visual Effects Supervisor, ILM)
  • Kim White (directrice de la photographie et du lighting sur Luca – Pixar)
  • Osnat Shurer (productrice de Vaiana, Raya et le dernier dragon)
  • Jenny Ely (Project Manager chez ILMxLAB)
  • Paul Franklin (Creative Director, DNEG)
  • Amy Seidenwurm (Executive Producer for VR for Good – Oculus / Facebook)
  • Peter Lord (Creative Director & Co-Founder, Aardman Animations)
  • Emily Dean (réalisatrice – Love, Death + Robots)
  • Phil Tippett (réalisateur/ VFX Supervisor)
  • Elizabeth Ito (réalisatrice – City of Ghosts – Netflix)
  • Sebastien Deguy (VP – 3D & Immersive, Adobe)
  • Maureen Fan (CEO et cofondatrice – Baobab Studios)
  • Dylan Sisson (RenderMan – Pixar)
  • Daniela Strilijeva (Production Designer – Luca – Pixar)

Si la VIEW Conférence débute officiellement le 17, dans les faits le programme ouvre dès demain avec un workshop de Raphaël Lacoste.

Comment y accéder gratuitement ?

La VIEW Conférence propose trois grands types d’accès :

  • le premier, gratuit et en ligne, vous permet d’accéder aux contenus en streaming et en direct.
  • le second, toujours en ligne, est payant et permet également de disposer des contenus en replay pendant 3 mois ; plusieurs tarifs sont proposés selon que vous souhaitiez aux masterclasses/workshop ou si les conférences et keynotes vous suffisent.
  • sur place, à Turin en Italie, avec là aussi plusieurs tarifs et un accès en replay pendant un mois.

L’article Rappel – la View Conference s’ouvre demain, accès en ligne gratuit ! est apparu en premier sur 3DVF.

❌