Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hier3dvf.com - Actualité quotidienne

Unity et Weta signent l’accord de l’année

Par : Shadows

Unity et Weta Digital annoncent un accord au montant faramineux : pas moins de 1,625 milliard de dollars, soit 1,4 milliard d’euros.

A la clé : l’acquisition par Unity de l’ensemble des outils, du pipeline, de la propriété intellectuelle et des spécialistes techniques de Weta (275 ingénieurs).

Le studio Weta Digital en tant que tel continuera son travail de studio d’effets visuels en entité indépendante sous le nom WetaFX, mais deviendra de fait le plus gros client de Unity dans le secteur des Medias et du Divertissement.

Des outils mis à disposition du monde

L’enjeu pour Unity est évident : le groupe va pouvoir proposer l’ensemble des outils jusqu’ici réservés à Weta Digital et ses équipes, avec par exemple :

  • Manuka, un moteur de rendu en path tracing ;
  • Gazebo, moteur de rendu interactif utilisé pour la visualisation temps réel, la prévisualisation, la production virtuelle ;
  • Loki, outil de simulation physique qui gère eau, feu, fumée, hair, cloth, muscles, plantes ;
  • Des outils de workflow de lighting et gestion colorimétrique comme PhysLight, PhysCam, HDRConvert qui permettent d’avoir de l’éclairage spectral, de répliquer les effets d’objectifs optiques et capteurs, et viennent donc compléter Manuka et Gazebo ;
  • Koru, un système de rigging ;
  • Facial Tech, des solutions pour la capture faciale, le transfert vers un modèle cible, la manipulation de muscles faciaux ;
  • Barbershop, des outils de hair et fur proposant un workflow complet de pousse et grooming, avec à la clé des modèles prêts à simuler physiquement ;
  • Tissue, pour créer des modèles avec muscles et peau afin d’appliquer des simulations ;
  • Apteryx, un outil dédié aux plumes ;
  • World Building : des outils pour la création de décors et le set dressing, jusqu’à l’échelle planétaire ;
  • Lumberjack, outil de végétation ;
  • Totara, outil de simulation et croissance procédurale pour les biomes et la végétation ;
  • Eddy, un plugin qui permet de générer des simulations de fluides, feu et fumée au moment du compositing ;
  • Des outils de revue de production ;
  • Live Viewing, des outils gérant le mélange entre contenu live et 3D temps réel, pour la visualisation sur plateau ;
  • Projector, solution de planification, gestion de ressources.
Totara

Unity explique que son objectif sera, à une date encore non définie, de proposer ces outils aux artistes et studios, combinés à une plateforme cloud.

Unity avance également qu’il sera possible d’utiliser ces solutions « directement dans les outils de création de contenu » comme Maya et Houdini, et bien évidemment d’envoyer les données et de les manipuler dans Unity.
Le groupe donne sa vision ainsi : « vous serez capable d’utiliser les outils de création que vous connaissez et aimez déjà, tout en ayant accès à un ensemble toujours plus large d’outils utilisés dans des films comme Avatar et Wonder Woman« .

Mieux encore, Unity compte donner accès à une librairie d’assets issus des projets passés de Weta, et qui continuera à s’étoffer au fil des ans et des productions de WetaFX. Au menu : environnements naturels et urbains, objets du quotidien, textures, matériaux, etc.

Que devient le studio VFX ?

Nous le disions en introduction, le studio reste indépendant, et sera possédé en majorité par Peter Jackson. Si les équipes de R&D passent dans l’ombrelle Unity, les 1700 personnes qui constituent le reste du studio continueront donc à faire des films. Et à utiliser les outils désormais développés par Unity.

Un accord soumis à conditions

La somme mise sur la table par Unity sera payée en cash et actions. Prem Akkaraju, qui était le PDG de Weta jusqu’en 2020 et est le créateur de la solution cloud du studio, restera dirigeant de WetaFX. Joe Marks, CTO de Weta (Chief Technology Officer), rejoint unity tout en gardant le même titre.

L’accord devrait être finalisé et effectif d’ici le dernier trimestre financier 2021 de Unity, le temps que toutes les formalités financières et légales soient actées.

Que penser de cette annonce ?

Il va sans dire que cette nouvelle est un bouleversement majeur dans le monde de la création. Les rachats successifs d’Unreal pouvaient sembler montrer qu’Epic Games était voué à dominer peu à peu son rival : Unity montre ici qu’il ne compte pas se laisser distancer, et qu’il sera au contraire un acteur majeur des années à venir.

Avec cette acquisition, Unity se positionne aussi aux côtés des leaders du secteur VFX comme Autodesk, SideFX et Houdini, bien au-delà du jeu vidéo et de la 3D temps réel.

Reste désormais à voir arriver ces produits sur le marché. Il faudra évidemment les adapter et les rendre utilisables par un maximum de studio, les outils internes pouvant avoir tendance à ne pas toujours être simple d’accès. Le fait d’avoir acquis non pas juste les outils mais également les équipes qui sont derrière sera ici un atout indispensable.

En parallèle, avec Weta en client et via ses futurs utilisateurs, Unity diversifie considérablement ses sources de revenus : de quoi disposer d’une assise plus large et plus stable. Parfait pour préparer l’avenir avec sérénité, et continuer à avancer.

Du point de vue des studios, cette annonce est probablement très positive : elle montre que Unity a encore les capacités de frapper fort face à Unreal, mais annonce aussi de nouvelles alternatives à de nombreux outils actuels. Plus de concurrence, donc, qui ne pourra qu’être bénéfique.

Pour plus de détails, on pourra consulter l’annonce chez Unity, et les vidéos ci-dessous qui mettent notamment en scène Peter Jackson :

L’article Unity et Weta signent l’accord de l’année est apparu en premier sur 3DVF.

Nostalgie : RoboCop 2 ou la naissance du rendu temps réel

Par : Shadows

Thomas Martin alias Gorkab est de retour avec une vidéo sur le film RoboCop 2 (1990), suite du célèbre film de science-fiction de Paul Verhoeven.

Si ce second volet n’a pas laissé la même marque dans l’imaginaire collectif que son grand frère, il reste remarquable pour ses effets avec de la stop motion et go motion, mais aussi une des premières utilisations de 3D temps réel au cinéma. En effet, c’est bien en temps réel que le visage numérique de Cain a été créé par la petite start-up deGraf/Wahrman Inc.
Une prouesse à une époque où les capacités matérielles étaient encore très limitées.

Nous vous laissons donc découvrir cet épisode, comme toujours réalisé en collaboration avec des personnes ayant participé à la production à l’époque.
N’oubliez pas au passage que Thomas Martin a lancé un projet Kickstarter pour financer un futur documentaire, n’hésitez pas à y jeter un oeil ! La campagne avance à grand pas et plus de 12 000€ ont déjà été récoltés.

Ken Cope, Greg Ercolano, Sally Anne Syberg et J-Walt Adamczyk, anciens de deGraf/Wahrman Inc, David Soumet de l’association MO5.COM et VectanProduction2 ont participé à la création de cet épisode.

L’article Nostalgie : RoboCop 2 ou la naissance du rendu temps réel est apparu en premier sur 3DVF.

Autograph, un futur outil pour votre pipeline ?

Par : Shadows

Left Angle, cofondée entre autres par François Grassard, est une société encore méconnue. Depuis plusieurs mois, l’équipe travaille d’arrache-pied sur un outil appelé Autograph, destiné à la fois au motion design, aux effets visuels, au compositing et à la production de vidéos personnalisées.
Au menu : le meilleur du calque et du nodal, accélération GPU, mais aussi présence d’un moteur de rendu 3D, et des outils qui faciliteront vos projets destinés à de multiples supports : besoin d’exporter une vidéo en 16/9 mais aussi 4/3, format carré, smartphone, etc ? Autograph a tout prévu. L’outil est aussi capable de se relier à des bases de données externes. Enfin, la compatibilité USD est prévue, afin de pouvoir importer des scènes 3D issues de vos outils favoris, de les rendre à la volée et de disposer des passes de rendu pour le compositing.

Autograph est prévu pour Windows, MacOS et Linux. La sortie se fera en 2022.

L’équipe nous avait déjà donné quelques éléments en off, mais préférait jusqu’ici ne pas communiquer sur l’outil, préférant peaufiner Autograph avant de le présenter au monde.

Ce mercredi à 21h, les choses changent, et une démo vidéo est enfin prévue ; elle sera visible ci-dessous et présentée par François Grassard. L’objectif ne sera pas de proposer une présentation exhaustive mais plutôt de mettre en avant le concept et la philosophie du produit.

D’ici là, vous pouvez aussi faire un tour sur le site officiel, ou découvrir plus bas deux captures d’écran de l’outil.

L’article Autograph, un futur outil pour votre pipeline ? est apparu en premier sur 3DVF.

Arcane : les coulisses de la série événement issue de League of Legends

Par : Shadows

En quelques années, le studio Fortiche a opéré une véritable révolution interne : créée en 2009 par Pascal Charrue, Jérôme Combe, Arnaud Delord, et autrefois petite structure au cœur de Paris, l’entité est désormais un studio de grande ampleur avec deux antennes à Montpellier et aux Canaries.
Le studio vient de dévoiler le fruit d’un long travail avec Riot Games qui explique cette croissance fulgurante : la série d’animation Arcane. Tirée de l’univers de la licence League of Legends, son scénario est évidemment pensé pour séduire au-delà des fans du jeu, et nous vous recommandons chaudement de vous y plonger.

Il y a quelques jours, Riot et Fortiche nous ont accueillis : l’occasion de revenir sur la série, la vision artistique de l’équipe, les liens Fortiche/Riot ou encore la croissance du studio. Suivez le guide !

Le rendu stylisé, une démarche de longue date

Le point qui frappe immédiatement en découvrant Arcane est évidemment sa patte graphique très stylisée : décors et textures qui semblent peints, soin du détail manifeste, FX 2D.
Ce genre d’approche a le vent en poupe ces dernières années, avec des projets tels que Spider-Man : New Generation, Les Mitchell contre les Machines, Love, Death & Robots ou encore des cinématiques telles que celle créée par Brunch pour PUBG que nous évoquions récemment en interview.

Pour autant, Fortiche ne se contente pas de suivre un effet de mode : cette envie de proposer un rendu plus graphique est un désir de longue date, que l’on retrouve déjà dans des projets plus anciens comme le clip Limousine pour La Gaviota (2012), ou un documentaire TV sur les Gaulois (Le Dernier Gaulois — 2015). Outre une volonté de travailler sur ce type de style, la démarche découle par ailleurs d’une réflexion sur le médium : « L’animation coûte cher », insiste Pascal Charrue, un des cofondateurs. « Quel intérêt de faire du photoréalisme si on peut filmer la même chose ? »

Évidemment, cette approche n’a pas toujours été évidente à adopter, ajoute Pascal Charrue, qui précise qu’on a pu leur opposer la réflexion « les gens ne vont pas comprendre » lorsqu’ils suggéraient ce style à certains clients. Il souligne aussi que cet aspect stylisé, que l’on retrouve dans bien des studios en préproduction, a souvent tendance à s’estomper par la suite : « j’ai travaillé pour des sociétés où je voyais que le produit final ne correspondait pas du tout à ce que j’avais en tête et au travail que j’avais fourni au début », explique-t-il. Une des raisons qui l’ont poussé à cofonder Fortiche.

Arcane, le fruit d’une confiance mutuelle

La genèse d’Arcane est issue d’un long cheminement. En 2013, Christian Linke, responsable de la musique de la licence League of Legends, se rapproche de Fortiche pour le clip Get Jinxed : il avait notamment été séduit par leur travail sur clip La Gaviota pour Limousine.

Riot ayant manifestement fortement apprécié Get Jinxed, le partenariat se poursuit en 2014 avec le clip Warriors d’Imagine Dragons, toujours dans l’univers League of Legends.
En 2015-2016, passage à la vitesse supérieure : la réflexion débute autour du projet de série, avec des tests puis un pilote sous la houlette de Christian Linke et Alex Yee, créateurs du projet mais aussi producteurs exécutifs. Pascal Charrue et Jérôme Combe s’impliquent directement dans la recherche du style visuel et ont ainsi pu avoir une influence majeure.

Riot disposant d’une forte identité visuelle, on pourrait penser que ce studio imposerait de nombreuses contraintes à Fortiche, notamment sur l’apparence des personnages. En pratique, « il y a eu beaucoup de tests », explique Jérôme Combe, soulignant par exemple qu’entre les multiples visuels officiels et les fan-arts, un personnage comme Vi dispose de multiples apparences : plus ou moins adulte, plus ou moins cartoon, etc. Fortiche et Riot ont donc essayé de créer une Vi qui corresponde à la série, via des essais d’animation (acting et action), de chara design (yeux plus ou moins grands, dents détaillées ou simplifiées).
Beaucoup d’exploration et une démarche itérative ont donc permis de trouver le bon look pour ce personnage mais aussi pour le reste du casting.

Une fois le pilote achevé, Riot est satisfait : l’écriture des épisodes débute tandis que Fortiche poursuit les clips pour League of Legends avec Rise, POP/STARS. De quoi, au passage, contribuer à enrichir le pipeline du studio en vue de la série.

Une grande confiance, un client qui ne se contente pas de voir en Fortiche un simple exécutant : la relation avec Riot collait manifestement dès le départ parfaitement au désir des cofondateurs de Fortiche.

Plongée dans le style visuel

Si l’équipe préfère ne pas trop révéler les détails de ses secrets techniques, elle est en revanche plus bavarde sur la partie artistique.

Piltover

Visuellement, le monde d’Arcane se divise en deux : Piltover, une cité en surface où règne une esthétique symétrique, steampunk et Art Déco, et les quartiers de Zaun, moins industriels et faits de bric et de broc, influencés par le style Art Nouveau.
Cette opposition se ressent même dans la réalisation : la caméra est très posée et linéaire dans Piltover, alors que pour Zaun la caméra à l’épaule est fréquente.

Ci-dessus et ci-dessous : Zaun et son style Art Nouveau, très organique.

La caméra se veut également assez physique (pas de mouvements qui n’auraient pas de sens en live), ce qui a aussi permis de mener une réflexion sur le choix des « optiques », avec focale et profondeur de champ. Ce dernier point reste cependant plus proche de ce que l’on trouve en animation 2D traditionnelle, avec un flou géré au compositing et qui évoque souvent un effet de calque .

Si vous avez regardé la série, vous avez forcément remarqué les « scratchs », des éléments visuels rajoutés sur l’image pour figurer l’état d’esprit du personnage de Jinx. Un effet qui évoque une pellicule grattée, que l’équipe a mis du temps à trouver et mettre en place. Graphiquement, ces « scratchs » rappellent les travaux de l’artiste Jean-Michel Basquiat, et ils évoluent avec le personnage : ils se font plus nerveux au fur et à mesure que Jinx grandit et bascule sur le plan psychologique.
Doser ce genre d’effet s’avère toujours délicat ; ici, explique Pascal Charrue, le « Stratch » se voulait avant tout narratif, et correspond aux moments de tourment intérieur de Jinx. De nombreuses retakes ont été nécessaires afin de parfaire le résultat.

L’usage des FX 2D (explosions, magie, eau…) est de son côté une des spécificités de Fortiche. On en retrouve déjà les traces dans un spot MTV remontant à une dizaine d’années, mais c’est véritablement le clip Get Jinxed qui a marqué le début d’un usage récurrent.
Outre un goût prononcé pour cette approche artistique, Fortiche explique que l’avantage est un temps de mise en place très réduit par rapport à des FX 3D.

En termes de fabrication, les épisodes ont été créés dans l’ordre : si les 3 premiers sont déjà d’un excellent niveau, l’équipe nous indique avoir ressenti une montée en puissance, avec une hausse progressive de la qualité d’animation.

La croissance, de multiples défis

La croissance du studio, nécessaire pour pouvoir fabriquer la série, est clairement visible lorsque l’on passe la porte d’entrée. Le temps des locaux occupés par quelques dizaines de personnes est révolu, désormais Fortiche occupe trois étages d’un immeuble à deux pas de la Bibliothèque François Mitterrand. Espace de restauration, terrasse avec vue imprenable sur Paris, multiples équipes réparties en open space, et même quelques décorations d’Hallloween : la visite impressionne.

Cette mutation s’est accompagnée de choix pragmatiques. Il a par exemple fallu changer d’outils : Fortiche s’appuyait initialement sur les logiciels 3ds Max, V-Ray et After Effects (d’ailleurs utilisés pour définir le look visuel de la série), avant de basculer vers Maya et Guerilla Render pour la fabrication et un « passage en mode industriel ».

Le plus gros défi n’était cependant pas technique mais humain : apprendre à se réorganiser, tout d’abord.
« Pascal et moi sommes des graphistes à la base », explique Jérôme Combe, « on avait du mal à lâcher les commandes… On les a d’ailleurs gardées : j’ai fait du compositing, du rendu, même sur le pilote, pour accompagner l’équipe de compo ». L’occasion pour lui de se former à Nuke mais aussi de trouver le bon process de fabrication. De quoi également, malgré une volonté de déléguer davantage, garder une bonne compréhension technique de ce que font les artistes.

Une grosse équipe implique évidemment aussi de recruter en masse : une difficulté majeure au début, nous avoue Jérôme Combe. « C’est l’élément qui a été le plus dur à gérer sur ce projet ». Ce qui explique d’ailleurs en partie les changements de logiciels évoqués plus haut, afin de trouver plus facilement assez d’artistes compétents. L’adoption de Guerilla est ainsi liée à la fois à la qualité du support et au recrutement d’artistes qui l’utilisaient, et Maya a permis de trouver de nombreux animateurs seniors. Enfin, Shotgun a été implémenté pour la gestion de projet. Sur ce dernier point, Jérôme Combe nous avoue avoir été réticent au début, ne comprenant pas trop l’intérêt de l’outil dans lequel « on peut se perdre », avant d’être convaincu au fil du temps par son intérêt.

Les artistes pouvant venir d’univers différents (certains étant plutôt habitués à de la série animée, d’autres à du long animé, d’autres encore à des effets visuels), les habitudes de travail se sont confrontées. Les storyboards de série ou de long-métrage n’ont ainsi rien à voir, et il a fallu trouver le bon compromis, comme nous l’a expliqué la storyboardeuse Marietta Ren, manifestement passionnée. Cette étape a d’ailleurs manifestement été capitale pour la réussite de la série, avec un gros travail de montage.
« Il a aussi fallu apprendre aux gens, parfois, notre façon de faire », poursuit Jérôme Combe. « Pour nous, seul le résultat final compte : on se fiche de la méthode, de la technique utilisée pour une explosion, par exemple, et cela peut parfois déstabiliser des gens, par exemple les personnes issues des effets visuels. »

Un studio, trois sites

Si nous avons visité les locaux parisiens, il convient de rappeler que Fortiche Montpellier et Fortiche Las Palmas (aux Canaries) ont aussi participé à la série. Pascal Charrue nous explique que ces deux antennes viennent d’un besoin de montée en puissance durant la production. « Nous sommes allés voir la Chine, l’Inde, et il y avait de très beaux studios, des gens très compétents, mais on s’est rendu compte que si on faisait appel à eux, cela prendrait beaucoup de temps à nos superviseurs pour briefer, parler, avec par exemple le décalage horaire ». Les cofondateurs ont alors réalisé qu’une autre option était disponible : lancer deux nouvelles antennes.
La localisation de ces dernières à Montpellier et aux Canaries n’est pas un hasard. « Le Sud est certainement un avenir pour l’animation », insiste Pascal Charrue, « aujourd’hui on perd beaucoup d’artistes qui n’ont pas les moyens de vivre sur Paris ».

Alexis Wanneroy, Head of Character Animation passé entre autres chez DreamWorks, souhaitait justement déménager au soleil : il était donc logique de lui confier ce navire. Pascal Charrue souligne aussi que lancer un studio à Montpellier ne présentait pas un gros risque stratégique, d’autant que Fortiche gérait déjà le travail en distanciel. Le travail « fabuleux » des équipes IT a permis de faire en sorte que les échanges de données soient fluides avec Paris.

Le raisonnement est similaire pour Las Palmas : Remy Terreaux, animation supervisor, voulait aller aux Canaries afin de suivre l’évolution professionnelle de sa femme. « On s’est dit qu’on n’allait tout de même pas perdre ce talent », explique Pascal Charrue. « On a vraiment été là-bas pour le suivre, pas pour les crédits d’impôt, mais on s’est rendu compte que c’était intéressant de monter une petite structure ». En pratique, Fortiche Las Palmas peut accueillir 25 personnes environ, mais une croissance supérieure n’est pas exclue.

Avec ces deux antennes lancées en 2020, en plein Covid, Fortiche a pu accélérer la cadence mais aussi suivre l’air du temps, qu’il s’agisse du travail distanciel ou de l’envie de nombreux artistes de quitter la vie parisienne.

Quel rôle pour Netflix et Mikros ?

L’incontournable plateforme de streaming est arrivée assez tardivement sur le projet, et n’a donc pas eu de réelle implication artistique dans la série. En revanche, après le grading confié à Mikros, les images devaient passer le « Quality Check » de Netflix, destiné à déceler d’éventuels soucis techniques comme un aliasing trop prononcé ou des artefacts visuels.

La définition de rendu correspond à du 2 K et Netflix n’a pas réclamé plus. « avec notre look très graphique, ça n’a aucun intérêt, pour moi » écarte Jérôme Combe, ajoutant que le résultat serait « trop net » en 4 K. « En revanche, on a fait une version HDR (Dolby Vision), au début je me disais que ce n’était pas pour nous, mais le résultat est cool, on a réussi à faire ressortir encore plus les FX, la lumière, la magie, ça donne plus de profondeur à l’image ».

Quel avenir pour Fortiche ?

Avec la production d’Arcane, Fortiche était entièrement consacré à cette série, et a d’ailleurs été obligé de refuser d’autres projets. « On a été approchés par de grands groupes », indique Pascal Charrue. Outre le fait que la série demandait aux cofondateurs un investissement plein et entier, il nous explique que Riot accordait à la fois des moyens conséquents par rapport à d’autres propositions, mais aussi du temps, de la confiance. Pas le temps ni l’envie d’aller voir ailleurs, donc.

Avoir un client unique, un risque ? Pas vraiment, nous répond Fortiche : « La société est sécurisée, on aura les moyens de rebondir assez facilement. » Le studio est même plutôt « sur une échelle d’accroissement ».

En effet, la réussite d’Arcane ne signifie pas que Fortiche a vocation à ne faire que des projets Riot : « Rien ne nous empêche de développer d’autres choses, avec ou sans Riot », ajoute Pascal Charrue. « Jérôme a d’ailleurs un teaser, et on essaie de dégager le maximum de temps pour développer des projets annexes ».
L’équipe dirigeante souhaiterait par contre que d’éventuels projets avec d’autres studios ne se limitent pas à de la production exécutive, et que Fortiche puisse faire naître et évoluer ses propres licences et idées.

Fortiche n’a donc pas l’intention d’en rester là, et nous aurons l’occasion d’évoquer les projets futurs du studio en temps et en heure.

D’ici là, l’équipe compte notamment améliorer certaines portions de son pipeline, accélérer certains points tels que le motion blur qui demande pour l’heure « beaucoup de bidouille » au compositing, comme l’a précisé Jérôme Combe.
Le studio a en parallèle récemment mis en place une section « Lab » qui lui permettra d’expérimenter, tester de nouvelles possibilités techniques. Unreal, Blender pourraient faire partie de ces futurs essais.

Pour en savoir plus

L’article Arcane : les coulisses de la série événement issue de League of Legends est apparu en premier sur 3DVF.

Interview: La Source Des Montagnes, en route pour les Oscars ?

Par : Shadows

Réalisé par Camille Di Dio, Marianne Moisy, Briag Mallat, Benjamin François, Adrien Communier et Pierre Gorichon au sein de l’ESMA, La Source des Montagnes est un court-métrage atypique, à l’esthétique et à la narration soignées.

Récemment passé « Oscar-Qualified » et donc susceptible de remporter une statuette lors des prochains Oscars, le film arrive en ligne : à cette occasion, nous vous invitons à le découvrir et à vous plonger dans les coulisses du projet en compagnie de l’équipe du court !

Les Paccha-Picchus sont de petits êtres festifs. Ils vivent dans l’insouciance d’un quotidien rythmé par le passage de Montagnes qui s’avancent jusqu’à soulever leur oasis, les élevant dans un climat hivernal qu’ils affectionnent et qui leur est vital. Mais un jour, elles cessent d’apparaître. L’impatience de l’un d’entre eux, KinKo, le pousse à partir à leur recherche.

3DVF : La Source des Montagnes raconte l’histoire des Paccha-Picchus, de petites créatures vivant dans une insouciance rythmée par le passage des Montagnes. Comment est né le scénario ?

L’équipe du film : L’idée est venue d’une erreur de compréhension. Camille expliquait à Benjamin que durant son enfance, elle disait qu’elle avait des « coups de Lune », ce qui a créé une confusion, car Benjamin pensait qu’elle parlait d’un « cou de Lune ».

Ils ont tous les deux visualisé une sorte d’animal spatial géant dont le cou serait comme une lune, et il est immédiatement devenu une girafe spatiale.

Ensuite, nous avons imaginé quelle pourrait être la vie des gens qui peuplaient cette créature.

Les Paccha-Picchus étaient nés.

3DVF : Comment avez-vous réparti les tâches au sein de l’équipe ?

Chaque membre de l’équipe a co-réalisé le film, autrement dit nous avons toutes et tous eu notre mot à dire dans chaque décision.
Nous avons essayé d’allouer les rôles de façon aussi organique que possible pour que tout le monde soit satisfait. Grâce à nos enseignants qui ont mis en place l’équipe, chacun était intéressé par une partie différente de la production, donc ça a bien fonctionné.

Pour la préproduction, nous avons tous travaillé sur le scénario ensemble. Puis certains ont travaillé sur le design, le color script tandis que d’autres se concentraient sur la recherche de solutions pour les problèmes techniques que nous allions rencontrer.  

En ce qui concerne la production, Pierre a travaillé essentiellement sur le modeling, layout, set dressing, animation et sur les FX sous Maya.
Briag a travaillé sur le rigging, les FX sous Houdini (simulations liées aux plantes et montagnes) et a fait de la sorcellerie avec des scripts.
Benjamin a travaillé sur le lighting, rendu et le shading procédural.
Adrien a travaillé sur le layout et l’animation.
Camille a travaillé sur le surfacing, matte painting, compositing.
Et Marianne a travaillé sur le sculpt, le compositing et le surfacing des personnages.

3DVF : Pouvez-vous revenir sur le processus de character design ?

Pendant l’été avant le début de la production du film, nous avons travaillé sur la création de notre premier Paccha-Picchu (nous les surnommons souvent « PP »).

Nous savions que le côté tribu/famille nécessiterait un langage graphique spécifique afin de fonctionner, donc nous avons préféré nous concentrer sur le design d’un unique PP puis d’en récupérer les codes graphiques nécessaires pour concevoir les autres.

Évidemment, ça n’a pas été aussi simple que ça, mais ça a aidé à filtrer les choses qui fonctionnaient et celles qui, clairement, ne marchaient pas.

Trouver ces codes graphiques nous a amenés à une meilleure compréhension de ce que nous souhaitions pour l’aspect du monde du court, le ressenti qu’il devait donner au fil de l’histoire.

KinKo, par exemple, le héros de l’histoire, a une tête asymétrique.
Un côté est assez arrondi, mais l’autre est une ligne verticale et droite, comme si la forme globale avait été tranchée. C’est quelque chose qui nous parlait vraiment ; cela créait un rythme, du contraste, une direction, et c’est aussi une idée symbolique.
Cette ligne verticale droite stoppant cette forme ronde était un moyen de le connecter à la fin du monde vers laquelle il voyage, une falaise géante où les montagnes rondes commencent leur cheminement.

Nous avons essayé d’implémenter un peu de ça dans chaque Paccha-Picchu, afin de leur donner quelque chose d’unique qui fonctionnerait uniquement avec un individu spécifique, lié à sa personnalité, son rôle dans l’histoire.

Évidemment, comme leur design n’était pas pensé pour être mathématique mais plutôt organique, rien n’a été imposé sur un PP si ça semblait ne pas coller. Ils devaient par exemple avoir une ligne colorée au milieu de leur visage, mais au final seulement la moitié d’entre eux l’ont réellement.

La Girafe est arrivée en fin de préproduction. On essayait sans doute un peu de l’éviter !
Quand vous devez dessiner « tout ce dont dépend le monde », ce n’est pas très rassurant ! Mais la vérité c’est qu’en termes de design, « elle » dépendait de « tout » le reste. Car en trouvant notre langage graphique, les règles de notre monte, le sentiment vers lequel nous travaillions, elle est tout simplement apparue sur le papier. En une esquisse, nous l’avions trouvée. Les croquis suivants furent surtout là pour affiner le travail sur les proportions, mais rien ne fut aussi marquant que ce premier dessin.

Au final, nous nous sentions plus à l’aide avec le vocabulaire visuel de notre (pas si) petit univers.

3DVF : Pourquoi avez-vous choisi d’animer les personnages en 12 images par seconde ? Et a-t-il été difficile de faire passer des émotions sans bouche ni sourcils ?

Dès le départ nous avons vu les Paccha-Picchus comme des personnages rythmiques. Comme leurs designs étaient « cassés » pour éviter de leur donner un côté parfait, travailler en 12 images par seconde nous a permis de créer un look haché, agité, fait main qui suivait le même objectif.

Nos références étaient toutes en 12 images/seconde, il semble que cela aide à créer de la poésie en animation. Cela nous a donné plus de liberté en termes de posing et timing.

C’est aussi moins gourmand en temps, car cela permet une animation assez limitée. Par exemple, certains personnages en arrière-plan pouvaient rester statiques pendant un certain temps sans avoir l’air de trop manquer de vie.

Pour ce qui est de l’expression des émotions, la gestuelle corporelle était le plus important. Comme les Paccha-Picchus ont un look très atypique, nous avons essayé de les animer comme de petits enfants afin que l’on puisse éprouver de l’empathie envers eux.

Pour leurs yeux, le moindre changement dans la taille de la pupille, la direction du regard ou la forme des paupières faisait ressortir une émotion différente.

Nous avons trouvé quelque chose de poétique dans le fait de limiter l’étendue de leurs expressions, comme pour le personnage de Navet, l’épouvantail dans Le Château Ambulant, par exemple. Ce fut une manière de nous écarter de l’animation cartoon.

3DVF : Comment avez-vous géré le set dressing du village ?

Le set dressing du village était une étape importante et longue pour notre film.
C’est l’environnement où plus de la moitié du film se passe, nous devions donc le rendre aussi vivant que possible.

Le village est essentiellement composé de plantes et rochers. Le principal élément était le dôme, où dorment nos petites créatures. Nous voulions que le village soit clôturé de façon naturelle. Chaque élément a un emplacement spécifique et particulier.

Les plantes poussent principalement dans l’ombre : sous les tentures qui entourent le village et sous le dôme. Elles sont soutenues par de gros rochers appelés « Tirochés ».

Chaque élément du village était modulaire afin que nous puissions les ajuster plan par plan afin de parfaire la composition.

Le set dressing de la fin du monde était aussi important. Contrairement au village, il y avait moins de plantes que nous pouvions utiliser, et c’était censé donner ce sentiment initial vide et désolé. Du moins, avant que la neige ne revienne, puisqu’à ce stade des dizaines de plantes lumineuses pouvaient se révéler et ponctuer les alentours du lieu où se trouve KinKo de la même manière que les planètes ponctuent le ciel.

Page suivante : neige, twist final, musique, RenderMan et actualité de l’équipe.

L’article Interview: La Source Des Montagnes, en route pour les Oscars ? est apparu en premier sur 3DVF.

Studio Raclette : une interview qui saura vous faire fondre

Par : Shadows

Un jeune studio à taille humaine près de Lille, une équipe dotée d’une solide expérience : voici Studio Raclette ! Nous vous invitons à les découvrir dans cette interview, qui aborde notamment leurs derniers projets.
Avant de vous y plonger, notez également que l’entité recrute : un poste de graphiste 3ds Max/V-Ray en CDI est à pourvoir.

3DVF : Bonjour Studio Raclette ! Vous êtes une jeune entité située à côté de Lille. Quel est le parcours de l’équipe, et pourquoi avoir lancé votre propre studio ? Pourquoi cette localisation ? Et surtout, LA question que tout le monde vous pose forcément : pourquoi avoir choisi ce nom ?

Studio Raclette : Nous sommes 2 associés : Vincent travaillait depuis plus de 10 ans en tant qu’indépendant, et Benjamin qui après avoir fait du freelance, gérait la partie 3D d’une boite de com. Après avoir fait le tour chacun dans notre domaine, et l’envie d’évoluer, on a décidé de monter un studio ensemble en se répartissant les tâches. Nous avons, avec le temps, créé de bonnes relations avec plusieurs graphistes 3D, et cela nous permet de pouvoir mettre les bonnes personnes sur nos productions. Étant graphistes à la base, nous savons comment bien préparer nos productions et optimiser notre travail.
Mais pourquoi Studio raclette ? Parce qu’une raclette, ça se fait entre copains et dans la bonne humeur. On veut pouvoir prendre du plaisir en travaillant, tout simplement. Avoir une bonne ambiance au studio, ça fait partie de nos valeurs. On le sait tous, on travaille mieux quand on se sent bien. On a tous connu des studios ou l’ambiance était vraiment pourrie, avec des leads oppressants.

3DVF : Quel est votre positionnement ? Quels clients ciblez-vous et quelle est votre offre ?

On se positionne en tant que studio de production, avec un attrait pour le réalisme, mais pas que. On essaie de pousser au maximum les images, malgré les budgets parfois serrés des clients.

3DVF : Évoquons certains de vos projets. Le spot Kipsta AF500 pour Décathlon,met en scène un ballon de football américain : quels étaient les enjeux techniques et artistiques du projet ?

Pour ce spot web, il fallait essayer de coller aux codes de la NFL tout en respectant un budget serré, car cela reste une niche pour la marque. Le jeu de typos gras, les plans macros, et la bande son originale réalisée par Tim Zephir (notre partenaire son) nous ont permis de relever le défis je pense.

L’enjeu technique et artistique de ce projet était de s’attacher aux détails des textures et de la matière.
Vu que l’on a un seul objet à l’écran, qui plus est relativement simple, il fallait qu’on atteigne un niveau de détail intéressant pour ne pas s’ennuyer en regardant la vidéo. 
Chaque plan macro a donc été travaillé comme une image unique à part entière qui puisse vivre hors du film.

Le début du film permettait de plonger le spectateur dans l’univers du foot US.

Dommage que le budget ne nous ait pas permis d’aller plus loin sur ces plans. ils manquent un peu de vie encore à notre goût, une foule dans les gradins, et de l’animation sur les joueurs auraient été canon par exemple.
En tout cas, le client était satisfait du résultat.

3DVF : De même, quelques mots sur Tarmak, également pour Décathlon, qui met en scène une chaussure de sport, sa construction et son laçage ?

L’idée était de faire un plan séquence, et grâce aux mouvements de cam on voulait essayer de retranscrire le mouvement des pieds sur le parquet. On voulait aussi lui donner un aspect un peu agressif, notamment au niveau du laçage, ça lui donne un petit côté animal.

Après niveau technique, rien de très complexe finalement, le challenge était plus au niveau de la texture et de ressentir l’effet tissé de la tige de la chaussure. On a testé du scan, mais finalement, on a modélisé des morceaux de textile et on les a convertis en texture, pour un meilleur résultat.
Pour le laçage, le setup est plutôt simple, un mesh pour le lacet envoyé sur un path deform, et la spline du path deform elle même contrôlée par des contrôleurs tous simples. après c’est juste du timing. 

3DVF : Pour John Walker, vous avez choisi de mettre en avant les courbes et la surface d’une bouteille de Whisky au design atypique. On imagine que l’enjeu se situait en particulier sur le lighting ?

Carrément, finalement, ce n’est que de la lumière, et de la réflexion. 
Sur ce projet, on a créé des HDR uniques plan par plan pour mettre en valeur les courbes. On a utilisé HDR Light Studio, outil très précis et facile à prendre en main.

Et puis l’animation s’est faite au fur et à mesure. On a créé pas mal de plans, que l’on a dérushés comme sur un film classique et remonté pour en faire une danse. Une nouvelle fois, la bande originale de Tim nous a bien aidé pour le montage et organiser la chorégraphie.

Le but était de mettre en scène cette bouteille comme ci c’était une produit de joaillerie ou de parfum. Au début du film, on ne sait pas trop ce que c’est, on ne découvre le produit que sur le dernier plan.

3DVF : Vous avez également créé une série de rendus pour La Barak, un espace de coworking que vous connaissez bien puisque l’équipe de Studio Raclette s’y est installée. Comment avez-vous abordé ce projet ?

Ce projet, on l’a réalisé en parallèle de notre travail, on n’y a pas mis le temps que l’on souhaitait y mettre, même si finalement, le résultat n’est pas si mal.
Et puis s’est assez proche de la réalité, puisque le projet terminé ressemble pas mal aux vues 3D ^^. Ces images nous ont aidé à nous projeter rapidement sur le lieu qui était très loin de ce que l’on a maintenant. elles nous aident encore aujourd’hui à parfaire notre déco.

On a la place pour faire une raclette géante !

3DVF : Enfin, pour Casadeco, vous avez créé une série de visuels très épurés qui jouent avec les éléments : quelle a été la genèse de ces créations ?

Le client est venu nous voir avec une idée déjà assez précise de ce qu’il souhaitait, le but était d’illustrer leur gamme de papier peint autour des 4 éléments que sont la terre, l’eau, le feu, et l’air. On a été assez libres au niveau du lighting et des matières. Au final un projet atypique et de belles images.

3DVF : Quelques mots sur votre pipeline et vos choix logiciels ?

On reste sur du classique : 3Ds Max/V-Ray, suite Adobe, Marvelous, et Tyflow pour les fx. On utilise Connecter de Design Connected pour notre banque d’objets, et pour automatiser nos rendus, nous sommes en train de nous tourner vers Vexus de Boomer Labs.

3DVF : De même, pouvez-vous nous parler de votre matériel ?

Concernant notre matos, on est sur une Tefal 1500 watts, 8 poêlons, avec plaque de chauffe pour les patates. Sinon pour le reste, On a quatre Z6 avec RTX 3090 et une renderfarm installée par Progiss. On a aussi un baby foot, un flipper, et une borne d’arcade en cas de surpression !

3DVF : Comment voyez-vous l’évolution du studio à moyen et long terme ?

On ne souhaite pas grossir vite, mais plutôt avoir un petit noyau dur et des freelances.
Concernant les projets, nous souhaiterions partir vers des images plus poussées, plus luxe avec plus de budget pour passer plus de temps sur nos images. On aimerait aussi pousser l’animation, plus de FX et de particules aussi et développer nos prestations en poussant le scan, et le temps réel.

3DVF : Merci Studio Raclette, pour cette petite dégustation de vos projets !

Pour en savoir plus

L’article Studio Raclette : une interview qui saura vous faire fondre est apparu en premier sur 3DVF.

Marvelous Designer 11 : habillez vos scènes 3D

Par : Shadows

La solution de création et simulation de vêtements et tissus Marvelous Designer se met à jour.

La nouvelle version 11 apporte plusieurs grandes avancées :

  • intégration de la boutique dans le logiciel : il devient possible d’acheter et télécharger des vêtements 3D sans sortir du logiciel ;
https://www.youtube.com/watch?v=ify2VIOPTu8
  • retopologie : la retopologie « patch » permet de rapidement dessiner la retopologie, affichage « fantôme » de la topologie existante afin de faciliter la retopologie ;
  • améliorations diverses de l’interface ;
  • Partial Solidify : permet de faire en sorte que certaines zones du vêtements conservent leur forme durant la simulation. Un cas concret mis en avant dans la vidéo porte sur une manche retroussée ;
  • Animation : changements sur l’interface des outils d’animation, évolution du workflow Marvelous-Maya ;

Pour plus de détails sur les nouveautés, on se reportera à l’aide officielle.
Marvelous Designer est notamment disponible dans la boutique 3DVF.fr, via notre partenaire Progiss, sous forme de licence annuelle monoposte ou réseau.

Pour finir, voici la vidéo d’annonce de cette version 11, placée sous le thème d’Halloween. On y trouvera une application concrète des nouveautés afin d’avoir une meilleure idée de leur impact.

https://www.youtube.com/watch?v=iLOynuac0_k

L’article Marvelous Designer 11 : habillez vos scènes 3D est apparu en premier sur 3DVF.

Phosphorous : une danse dans la lumière

Par : Shadows

Eduardo Adsuara, Jennifer Belobi, Keilidh Bradley dévoilent Phosphorous, leur court de fin d’études à Gobelins (promotion 2021).

Une nuée de particules de poussière se prélassent dans les lumières du théâtre et dansent joyeusement à l’unisson. Une petite fée de poussière a soudain la chance d’être au centre de la scène…

Soundtrack / Musique : STUDIO MBC // Valentin MARINELLI, Clément BARBIER
Strings: QUATOR AGATE // Adrien JURKOVIC, Thomas DESCAMPS, Raphaël PAGNON, Simon IACHAMET
Mix / Mixage : Benjamin CABAJ

L’article Phosphorous : une danse dans la lumière est apparu en premier sur 3DVF.

40 millions d’euros pour l’industrie créative

Par : Shadows

Dans le cadre des programmes France Relance et du PIA 4 (4ème Programme d’Investissement d’Avenir), le gouvernement a annoncé plusieurs dispositifs pour les industries culturelles et créatives.

4 dotations de 10 millions d’euros pour vos projets

L’objectif annoncé est d’accompagner la transition numérique et écologique de l’ensemble de la filière ICC (industries culturelles et créatives), et notamment l’audiovisuel, le cinéma, le spectacle vivant, le patrimoine, l’architecture, le jeu vidéo.
En pratique, plusieurs appels à projets ont été dévoilés, avec des dotations à la clé.

Si l’un des appels (portant sur la billetterie) ne concerne à priori pas les entreprises qui nous lisent, les 3 autres ont plus de pertinence :

  • Expérience augmentée du spectacle vivant : l’axe central ici est de répondre aux problématiques de virtualisation du spectacle vivant, notamment par le streaming.
  • Numérisation du patrimoine et de l’architecture, par exemple pour la préservation ou pour créer des offres culturelles nouvelles.
  • Alternatives vertes : l’objectif ici est de favoriser la mise en place de solutions environnementales/sociétales durables au sein de la filière.

Chaque appel bénéficie d’une dotation de 10 millions d’euros, qui sera répartie entre différents projets retenus (jusqu’à 2 millions d’euros par projet pour certains appels).

Comment en bénéficier ?

Si nous relayons ces appels, c’est évidemment car certaines entreprises du secteur de l’image peuvent en bénéficier : par exemple, sur la numérisation 3D d’oeuvres au sein de musées, ou sur le spectacle vivant (on peut ici imaginer une diffusion VR de contenus, par exemple).
Attention, s’agissant de subventions, il n’y a pas d’avance remboursable (contrairement à un dispositif tel que le RIAM du CNC).

Pour en savoir plus, nous vous invitons à consulter le site du pôle de compétitivité Cap Digital, qui a résumé les principaux enjeux de chaque appel.
La date limite de candidature des différents appels est fixée au 3 décembre. Cap Digital propose à ses membres un accompagnement moyennant l’envoi d’une demande d’ici le 10 novembre, mais rien ne vous oblige à passer par leur intermédiaire.

Cap Digital a également mis en ligne une vidéo qui revient en détail sur l’appel (un problème sonore est présent, mais est résolu à partir de 2 minutes 20). La voici, précédée du plan de la présentation.

00:00:00 Introduction et présentation de Cap Digital par Matthieu Parmentier, Head of Data & Artificial Intelligence chez France Télévisions et Délégué spécial à l’entreprenariat et à la transition écologique des ICC chez Cap Digital

00:02:46 Présentation du contexte et de la stratégie nationale d’accélération des ICC par Fabrice Casadebaig, Conseiller spécial du directeur général en charge de la stratégie nationale d’accélération des ICC au Ministère de la culture (Direction des médias et des industries culturelles).

00:09:50 Présentation de la Banque des Territoires en tant que opérateur du PIA4 Culture par Maud Franca, Directrice adjointe du Programme des Investissements d’Avenir en charge de l’économie numérique, Banque des Territoires, Groupe Caisse des dépôts.

00:17:28 Présentation de l’Appel à manifestation d’intérêt (AMI) Solutions de billetterie innovantes par Ludovica Marsili, Chargée de projets PIA Culture, patrimoine et numérique à la Banque des Territoires, Groupe Caisse des dépôts

00:24:05 Questions & réponses avec les participants via le live chat par Jennyfer Lecompte, Head of Research & Innovation Program chez Cap Digital

00:28:39 Présentation de l’Appel à projets (AAP) Expérience augmentée du spectacle vivant et de l’Appel à projets (AAP) Numérisation du patrimoine et de l’architecture par Manon Ayala, Chargée de projets PIA Culture, patrimoine et numérique à la Banque des Territoires, Groupe Caisse des dépôts

00:36:36 Questions & réponses avec les participants via le live chat par Jennyfer Lecompte, Head of Research & Innovation Program chez Cap Digital

01:04:52 Présentation de l’Appel à projets (AAP) Alternatives vertes par Ludovica Marsili, Chargée de projets PIA Culture, patrimoine et numérique à la Banque des Territoires, Groupe Caisse des dépôts

01:13:50 Questions & réponses avec les participants via le live chat par Jennyfer Lecompte, Head of Research & Innovation Program chez Cap Digital

01:22:41 Conclusion par Cap Digital, par Jennyfer Lecompte, Head of Research & Innovation Program chez Cap Digital

L’article 40 millions d’euros pour l’industrie créative est apparu en premier sur 3DVF.

Le PIDS revient : envoyez vos projets, gagnez un Genie Award !

Par : Shadows

Après une édition 2021 dématérialisée pour cause de pandémie, le PIDS (Paris Images Digital Summit) est de retour en 2022 en version hybride !

Du 26 au 29 janvier, ce festival va mettre à l’honneur les dernières tendances et nouveaux projets du secteur des effets visuels, mais aussi de la production virtuelle, de l’immersion et du jeu vidéo. Il sera possible d’y assister en ligne mais aussi sur place, à Enghien-les-Bains. 3DVF partenaire média.

Le programme est en cours de finalisation, et nous aurons l’occasion de vous le dévoiler bientôt. D’ici là, un appel à projets a été lancé dans le cadre des Génie Awards, la remise de prix du festival, qui récompense le meilleur de la création française.

Les catégories sont les suivantes :

Effets visuels – Long Métrage (que les VFX soient visibles ou en support)
Effets visuels – Fiction TV (visibles ou support)
Effets visuels – Publicité (visible ou support)
Effets visuels – Environnement (sont acceptés les environnements créés pour les longs-métrages, fictions TV, publicités, clips, cinématiques, film VR/360°)
Effets visuels – Personnage ou créature (là encore, sont acceptés les personnages/créatures créés pour les longs-métrages, fictions TV, publicités, clips, cinématiques, film VR/360°)
Meilleur film étudiant VFX/CGI
Meilleure innovation
(logicielle ou matérielle, pour la création numérique et les VFX dans les secteurs du cinéma et de l’animation)

Pour concourir sur la Catégorie A (les différents prix des meilleurs effets visuels), vous devez être une société d’effets visuels française, et le projet doit être sorti entre le 1er décembre 2020 et le 31 décembre 2021.

Pour concourir dans la Catégorie B (meilleur film étudiant), le projet doit être issu de la promotion 2019/2020 et contenir au moins 50% d’images calculées par ordinateur (animation ou VFX). Les projets sont proposés par les écoles (attention, 3 films maximum par école !)

Enfin, pour concourir dans la Catégorie C, la solution logicielle/matérielle doit être sortie entre le 1er janvier 2019 et le 31 décembre 2020.

Un formulaire en ligne permet de déposer les dossiers de candidatures ; la deadline est fixée au 18 décembre.
Le jury dévoilera les nommés le 7 janviers, les lauréats étant dévoilés durant la cérémonie de remise des prix, le 26 janvier.

L’article Le PIDS revient : envoyez vos projets, gagnez un Genie Award ! est apparu en premier sur 3DVF.

Gagnez un ordinateur et des RTX série 3000 avec NVIDIA et Sketchfab

Par : Shadows

La plateforme d’hébergement et visualisation de modèles 3D s’est associée à NVIDIA pour lancer un nouveau concours.

Votre mission : créer une scène 3D qui évoque la collision entre nature et civilisation, et la mettre en ligne sur Sketchfab.

A gagner : un ordinateur portable ConceptD 5 équipé d’une RTX 3060, mais aussi des cartes graphiques (RTX 3090, RTX 3080), de l’argent (de 100 à 300$ selon la marche du podium) et des abonnements Sketchfab Pro.

Le concours se termine le 29 novembre, et le jury est composé notamment d’employés de NVIDIA et Sketchfab. Notez aussi que participer implique que vous accorderez à NVIDIA des droits sur votre oeuvre (usages marketing, sans limite de temps ou de medium).

Pour plus de détails, on consultera la page du concours.

L’article Gagnez un ordinateur et des RTX série 3000 avec NVIDIA et Sketchfab est apparu en premier sur 3DVF.

Digital Pioneers : comme nous, soutenez ce documentaire !

Par : Shadows

Nous avons à de nombreuses reprises relayé le travail de Thomas Martin alias Gorkab, dont l’émission CGM sur Youtube s’intéresse à l’histoire des effets visuels au cinéma. Nous avions même déjà collaboré avec lui autour d’interviews réalisées durant la VIEW Conference à Turin, en Italie.

Il est aujourd’hui de retour avec un nouveau projet, et pas des moindres !
Il ambitionne de réaliser Digital Pioneers, un documentaire sur l’histoire du studio Digital Productions. Vous connaissez forcément leurs projets : les vaisseaux spatiaux de The Last Starfighter (1984), les nuages de Jupiter pour 2010: The Year We Make Contact (1984), la chouette animée du Labyrinth de Jim Henson (premier animal virtuel dans un film !)…

Le but du documentaire serait donc d’interviewer une partie de l’équipe de l’époque, mais dans de bonnes conditions : autrement dit, face à face, aux USA et avec une qualité de production digne de ce nom plutôt que de se contenter d’interviews mal cadrées sur Skype.

Pour y parvenir, et créer le documentaire d’1h30 environ au moins qui sera disponible en français et anglais, Thomas Martin a d’ores et déjà reçu le soutien du CNC, à hauteur de 15 000€. Il a également lancé une campagne Kickstarter afin de doubler ce budget et de pouvoir payer l’équipe, gérer la post-production, financer de l’animation et des VFX pour le documentaire.
C’est ici que vous intervenez : moyennant quelques euros, vous pouvez soutenir le projet. Votre don vous permettra de figurer au générique ou, selon le montant, de voir le film en avant-première (il sera à terme diffusé sur Youtube), d’obtenir des cartes postales avec les créations de Digital Productions, un Blu-Ray, des badges, pièces commémoratives en métal précieux ou encore la possibilité d’être crédité en tant que producteur exécutif.
N’hésitez pas à découvrir la page Kickstarter et la bande-annonce ci-dessous pour plus de détails !

Sachez enfin que 3DVF va bien évidemment soutenir financièrement ce projet ; nous aurons donc l’occasion de vous en reparler !

L’article Digital Pioneers : comme nous, soutenez ce documentaire ! est apparu en premier sur 3DVF.

Le Livre de Boba Fett : ILM va toujours plus loin

Par : Shadows

Disney dévoile en VOST et VF la première bande-annonce de la série Le Livre de Boba Fett, située dans l’univers Star Wars.
Dans la ligne du Mandalorien, cette série sera destinée à Disney+ (sortie le 29 novembre) et s’appuie fortement sur les techniques de production virtuelle dernier cri, avec tournage à l’aide d’écrans LED. En coulisses, ILM est bien évidemment aux commandes pour donner vie aux effets visuels.

L’article Le Livre de Boba Fett : ILM va toujours plus loin est apparu en premier sur 3DVF.

For You : un roi prêt à tout (court New3dge)

Par : Shadows

Léo Anki, Louis Clemenceau, Adrien Guessoum, Killian Michaux et Octavio Tapia Peralta dévoilent For You, leur court de fin d’études à New3dge.
On y suit un souverain dont le royaume sombre chaque jour un peu plus dans le chaos et le sang…

L’article For You : un roi prêt à tout (court New3dge) est apparu en premier sur 3DVF.

Through my eyes : les yeux de l’amour (court New3dge)

Par : Shadows

Aude Portales, Céleste Devismes, Emérantiane Bouillon, Ilona Quenea et Naomi Gastel dévoilent Through My Eyes, leur court de fin d’études à l’école New3dge.
Un soldat au visage marqué par la guerre y croise le regard d’une femme…

L’article Through my eyes : les yeux de l’amour (court New3dge) est apparu en premier sur 3DVF.

Cosmo AV, au croisement de la danse et de la motion capture

Par : Shadows

Pour inaugurer son nouveau campus de Montpellier, l’ESMA (Ecole Supérieure des Métiers Artistiques) a fait appel à Cosmo AV, studio spécialisé dans l’evènementiel que nous avions interviewé en 2019. L’entreprise dispose d’un savoir-faire dans de multiples domaines dont le projection mapping, et a travaillé sur les JO de Sotchi, la Tour Eiffel ou encore le Puy du Fou espagnol.

Pour cette soirée d’inauguration, Cosmo AV avait choisi d’utiliser le plateau de motion capture présent dans l’école (et que nous vous avions déjà présenté en photos). Le résultat : une performance interactive mêlant danse et projection, la chorégraphie se reflétant sous forme abstraite sur les murs.

L’article Cosmo AV, au croisement de la danse et de la motion capture est apparu en premier sur 3DVF.

Olaf revisite les classiques Disney

Par : Shadows

A l’approche de l’hiver, Disney dévoile la bande-annonce d’Olaf Présente : une série animée qui sera visible dès le 12 novembre sur Disney+.

Le concept : le bonhomme de neige Olaf nous raconte à sa manière quelques classiques des studios Disney…

L’article Olaf revisite les classiques Disney est apparu en premier sur 3DVF.

Les larmes de la Seine : les élèves de Pôle 3D n’oublient pas

Par : Shadows

Yanis Belaid, Eliott Benard, Nicolas Mayeur, Etienne Moulin, Hadrien Pinot, Lisa Vicente, Philippine Singer et Alice Letailleur dévoilent Les Larmes de la Seine.

17 octobre 1961, des « travailleurs algériens » décident de manifester dans les rues de Paris contre le couvre-feu qui leur a été imposé par la préfecture de police.

Un film qui mêle approche réaliste avec caméra à l’épaule et traitement plus surréaliste. Sur le plan artistique, on notera par ailleurs un soin manifeste apporté au surfacing (qui rappelle en partie celui du court Migrants de la même école) et au lighting.
Précisions enfin que le film n’est en ligne que temporairement, jusqu’au 24 octobre ; il reprendra ensuite son chemin dans les festivals.

Carlos De Carvalho, responsable de la formation film d’animation de Pôle 3D, explique que les étudiants « ont pensé ce film comme un devoir de mémoire, une recherche de compréhension », dans le but de « susciter la réflexion et la discussion ».

Pour plus d’informations sur le 17 octobre 1961, on pourra notamment se tourner vers France Info, qui a mis en ligne aujourd’hui un article relativement détaillé sur les faits, avec des témoignages, et qui retrace également l’historique de la reconnaissance officielle de la répression.

L’article Les larmes de la Seine : les élèves de Pôle 3D n’oublient pas est apparu en premier sur 3DVF.

Hot dog : un chien déterminé et amoureux

Par : Shadows

Flore Burban, Logan Cameron, Nicolas Diaz, Chloé Raimondo, Hugues Valin dévoilent leur court de fin d’études à l’Ecole des Nouvelles Images (promotion 2019) : Hot Dog.
On y suit un chien qui tente désespérément de rejoindre l’élue de son coeur…

Devant le portail d’une propriété bourgeoise et surveillée, un chien de la rue tombe sous le charme d’une chienne posée sur son balcon à l’autre bout du jardin. Déterminé et amoureux, il va tout tenter pour rejoindre et séduire sa belle.

Musique : Florian Blavec

L’article Hot dog : un chien déterminé et amoureux est apparu en premier sur 3DVF.

Stranded : une rencontre mystique en Alaska

Par : Shadows

Alvin Arevalo-Zamora, Alwin Durez, Quentin Garaud, Maxime Salvatore, Florent Sanglard, Thomas Spony-Ipiens, Alex Tregouet présentent Stranded, leur court de fin d’études à l’ESMA (promotion 2020).
Un projet fort qui mêle grands espaces, surnaturel et voyage mystique.

Dans lʼAlaska de la fin du 19e siècle, Hawk, un trappeur robuste, fait la rencontre imprévue dʼun élan surnaturel, annonciateur de lʼapocalypse.

Musique / music: Laurent LOZANO
Son / sound: Alexis LAUGIER, Tristan LE BOZEC, Yoann PONCET, José VICENTE – Studio des Aviateurs

L’article Stranded : une rencontre mystique en Alaska est apparu en premier sur 3DVF.

A son tour, Apple rejoint le Blender Development Fund

Par : Shadows

La Blender Foundation annonce qu’Apple rejoint son fond de développement, qui permet à des entreprises et personnes de soutenir financièrement le développement de Blender.

En pratique, Apple est présenté comme Patron Member dans le communiqué, ce qui implique un don annuel d’au moins 120 000€.
Avec ce montant, Apple entre directement dans la catégorie des donateurs les plus généreux, aux côtés d’Epic, AMD, NVIDIA, Facebook, Unity, Amazon Web Services.
En outre, Apple fournira « de l’expertise en ingénierie et des ressources supplémentaires ».

Ton Roosendaal, qui dirige la Blender Foundation, se félicite de cette annonce et indique que « macOS sera de retour en tant que plateforme pleinement supportée par Blender ».
Il souligne aussi qu’Apple a déjà soumis un premier patch, destiné à permettre d’utiliser Cycles sous macOS avec l’architecture Metal.

L’article A son tour, Apple rejoint le Blender Development Fund est apparu en premier sur 3DVF.

Houdini 19 en approche !

Par : Shadows

SideFX dévoile un teaser pour Houdini 19, future mise à jour majeure de son logiciel de VFX, animation et modélisation.
Cette nouvelle version apportera notamment des avancées sur Karma, KineFX, Vellum.

Pour en savoir plus, rendez-vous les 18, 19 et 21 octobre : SideFX organisera le « launch reveal » et deux jours de présentation dans le cadre de la View Conference.
Notez que l’accès en direct à ces présentations sera gratuit ; on pourra aussi retrouver les replays par la suite sur Youtube, et donc dans les actualités 3DVF.

L’article Houdini 19 en approche ! est apparu en premier sur 3DVF.

Interview : Nexus VI, les coulisses d’un épisode grandiose

Par : Shadows

Depuis 6 ans déjà, la chaîne Nexus VI écume Youtube et la galaxie, avec des vidéos consacrées à la science-fiction sous toutes ses formes.
En pratique, les vidéos Nexus VI se déroulent elles-mêmes dans un univers de SF à part entière, avec un vaisseau, son équipage, des extraterrestres variés et des aventures aux quatre coins de la galaxie, quelque part dans le futur.

Au début de l’été, le très ambitieux épisode 7 a été dévoilé : une analyse détaillée du film Le Cinquième Element, entrecoupée de rebondissements épiques. On y trouve notamment une séquence d’introduction bluffante de plus de deux minutes avec une mégapole futuriste, des combats spatiaux, un final brûlant.

La grande majorité de ce travail d’effets visuels est l’oeuvre de l’artiste Romain Toumi, qui a accepté de nous livrer les coulisses de ce projet hors du commun.
Voici l’épisode complet ; vous trouverez dessous les timecodes des principales séquences à effets visuels, mais nous vous invitons évidemment à regarder l’épisode complet, afin de profiter de l’ensemble des effets, de l’analyse et du scénario.

0:32 : début de la séquence d’introduction
13:03 : dogfight
15:46 : séquence du looping
16:01 : séquence inspirée de Star Wars VIII
17:10 : dogfight dans les astéroïdes
24:08 : hologramme
31:24 : scène du grappin
32:10 : début de la séquence finale

3DVF : Bonjour Romain ! Les personnes qui nous lisent connaissent sans doute déjà ton travail pour la chaîne Youtube Nexus VI, qui traite de science-fiction et cumule près de 230 000 abonnés. Tu as notamment géré l’immense majorité des effets visuels de l’épisode 7 sorti cet été, un travail impressionnant du point de vue de sa qualité, surtout au vu des contraintes de production (budget, taille de l’équipe).
Mais avant d’y plonger, quelques mots sur ton parcours ?

Romain Toumi : Mon parcours est assez bordélique [rires] ! Je n’étais pas très doué au collège, on m’a donc orienté là où il y avait de la place, dans un lycée professionnel en métallurgie. Je suis allé jusqu’au BTS, et pendant mes années Bac/BTS je m’intéressais notamment à l’imagerie 3D, au cinéma d’animation. A la fin de mon BTS, je faisais du dessin industriel en 3D, ce qui était un peu lié.

Après mon BTS, l’entreprise qui m’a embauché a fini par couler, et le chômage m’a permis de remettre des choses sur le tapis et de me reconvertir en autodidacte.

En 2016 je crée C3N Studio avec un ami Jordan Tetevuide, ma société d’effets spéciaux et animation 3D; je m’étais dit que tout allait bien se passer, que j’allais faire un film d’animation tout seul… Très vite on retombe sur terre. J’ai fait des petits projets à droite à gauche dans la région de Metz, comme des sites web, des logos. En démarchant des boîtes de prod au téléphone j’ai pris contact avec Fensch Toast, qui produit notamment Nexus VI. Je les ai rencontrés j’ai travaillé avec eux sur un clip de Matt Elliott, mes premiers VFX dans une vrai prod. Le courant est bien passé et artistiquement leurs projets me plaisaient, on a fini par se lier d’amitié et on a rapidement parlé du vaisseau Nexus VI, que ce serait génial de le voir de l’extérieur. Et me voilà lancé pendant plusieurs semaines à créer mon premier gros projet 3D.

Il y a eu beaucoup de péripéties depuis, mais actuellement je suis sur Nexus VI à plein temps pour la nouvelle trilogie (l’épisode 7 déjà sorti, 8 et 9 en cours), et j’ai lâché mon ancienne entreprise.

3DVF : Par rapport à l’équipe du Nexus VI : étant donné leur passion pour le cinéma et la SF, on imagine qu’ils ont un gros bagage de références visuelles et cinématographiques. Quel est l’impact sur leurs demandes, et notamment sur la répartition des effets entre ce qui sera fait de façon traditionnelle ou numérique ?

Le vrai fan de SF est surtout le Capitaine (Renaud Jesionek), qui écrit les scénarios, fait ses analyses. Alexandre Marinelli, le réalisateur [NDLR : et interprète de Slexno], n’est pas forcément un gros fan de cinéma de SF ; dans ses projets passés on retrouve surtout beaucoup de montage de bandes-annonces, ce qui se ressent assez clairement dans Nexus VI avec une approche très cut, très dynamique et bien adaptée à Youtube. Il a par ailleurs fait de la réalisation sur beaucoup de styles différents et il a même récemment réalisé un court métrage à l’occasion du Nikon film festival et gagné le prix du public, j’ai fait quelques VFX dedans aussi d’ailleurs [NDLR : à découvrir ci-dessous].

Crédits :
Réalisation : Alexandre Marinelli
Avec Alexandre Marinelli, Cyril Chagot, Lucie Schosseler, Romain Toumi
Chef Opérateur – Laurent Steiner
Images – Pierre Nicolas
Superviseur VFX – Romain Toumi
Ingénieur du son – Thomas Koeune
Régie – Camille Picot
Remerciements – Fensch Toast – Renaud, Cathy et Jean Jesionek
Albert et Danièle Philippe – Ville de Thionville.

Sur la question de la répartition et de qui fait quoi, on y réfléchit à plusieurs : surtout Alexandre et moi, Alexandre ayant toujours son idée en tête. Néanmoins le Capitaine est aussi inclus, il pose des questions avant même l’écriture, fait des suggestions. Même chose pour Cyril Chagot, le producteur [NDLR: qui interprète Sayreel et Zarbut, l’IA du vaisseau].

Le scénario s’adapte fatalement un peu au budget, même si on essaie de garder une grande liberté.

On fait donc plusieurs réunions tous les quatre, Alexandre dirige les échanges définit la mise en scène qu’il souhaite.
Arrive ensuite une phase de plusieurs jours durant laquelle Alexandre et moi faisons un découpage des scènes, on liste les plans avant de tourner.

Vient enfin l’étape du storyboard…

Extrait de storyboard (séquence du grappin)

Comme vous pouvez le voir avec la scène du grappin [31:24 dans l’épisode], on ne respecte jamais vraiment mais ça donne une idée globale, le storyboard sert plus à la recherche qu’à définir vraiment les plans et les axes.

Au final il y a beaucoup d’improvisation lors du montage, en fait, et à ce stade Alexandre met des écrans noirs partout où un plan CGI est censé se trouver par rapport au découpage… Mais aussi partout où il en a envie, en insérant des descriptifs sur ces écrans noirs.

Cette méthode de travail génère des surprises, mais permet de ne pas être limité par l’écriture initiale. Au final le processus de réflexion des VFX est donc étalé de l’écriture jusqu’à la toute fin, pour l’épisode 7 j’ai rajouté un plan une semaine avant la diffusion de l’avant-première !

En fait, une fois les écrans noirs insérés, et même après validation du montage, on continue à faire des changements comme remplacer les écrans noirs par mon layout/animatique.

Après on envoie le tout à la personne qui fait la musique et le son. Ce qui conduit parfois à couper des éléments, se débrouiller, négocier…

Notre approche est donc bien plus flexible que pour une production classique.
Avec parfois quelques choix particuliers : nous avions annoncé une date de sortie pour l’épisode 7 alors même que certains effets n’étaient même pas commencés… Peu de studios le feraient !

3DVF : La séquence d’introduction est LE point phare de l’épisode en termes d’effets visuels. On part de l’espace, on se rapproche d’une planète puis d’une cité futuriste avec nuages, immeubles innombrables, vaisseaux, voitures volantes, panneaux, habitants… L’ensemble est vraiment impressionnant par l’ampleur de la tâche et la qualité du résultat. Comment as-tu abordé cette partie de l’épisode ?

Il faut savoir que le scénario ne décrivait que très brièvement ce passage, ça se résumait plus ou moins à « la caméra est dans les étoiles et arrive au cœur d’une grande mégapole puis dans une pièce, dans la pénombre » ça c’est fini au final par un plan séquence de 2 minutes qu’on pourrait qualifier de court-métrage.

Ce n’est pas toujours comme ça, le Capitaine et Alexandre peuvent donner plus d’indications s’ils ont une idée précise en tête pour le scénario, mais ici il était acté que j’avais carte blanche, du moment que l’on partait des étoiles pour arriver dans la pièce obscure avec le pin’s coupé en deux. Sur le reste j’étais libre, par exemple, de mettre ou pas des gens dans la ville.

Cela correspond assez à notre état d’esprit. Par exemple Lucie Schosseler (qui fait les prothèses des extraterrestres) peut elle aussi laisser libre cours à son imagination, créer des concepts, faire des propositions fortes. On a une grande liberté artistique, il arrive donc souvent que des éléments ne soient décrits que par quelques lignes.

Showreel de Lucie Schosseler, qui met notamment en avant son travail pour Nexus VI

3DVF : Cela te permet sans doute aussi d’ajuster le contenu en fonction du budget, du temps disponible?

Tout à fait. La ville a pris un an de travail, mais pas d’un bloc (je pouvais par exemple travailler sur la ville, puis quelques semaines plus tard passer sur une autre séquence et revenir sur la ville après). Le Covid a été une « chance » dans le sens où le budget temps a considérablement augmenté, d’où une séquence bien plus longue que prévue : l’introduction durait en théorie moins de 30 secondes !

J’ai profité des confinements, de la mise en pause du monde entier pour travailler d’arrache-pied confiné avec mon matos chez moi, entre autres pour expérimenter : à peu près personne ne fait de la foule sous Blender, par exemple.

Sans la pandémie, le plan aurait été cool, mais moins impressionnant et moins long !

3DVF : C’est vrai que cette idée d’un zoom de l’espace vers un détail sur Terre est un classique du cinéma, et cela peut être expédié en quelques secondes ou, comme ici, transformé en une vraie séquence détaillée.

Voilà, l’idée était de travailler sur ce concept classique, que les gens se disent que ça vaut le coup de voir le plan.

3DVF : Pour la création concrète de la ville, comment as-tu travaillé ?

Au layout, j’ai utilisé des blocs basiques pour les immeubles. Sur un tel plan, c’est la caméra qui est le personnage principal, je travaille donc vraiment énormément ses mouvements. Le fait d’avoir des éléments très schématisés autour ne pose pas de souci. Même chose pour le vaisseau d’ailleurs.

En pratique, il a fallu que l’on ajuste le mouvement de caméra pour des raisons techniques : le layout faisait que certains éléments étaient à la fois visibles de très loin et très proche, ce qui aurait demandé beaucoup trop de boulot par rapport au plan final, avec ce plongeon vers quelques immeubles proches et après seulement un redressement vers des immeubles plus lointains, qui n’ont donc pas besoin d’être aussi précis. Si on les avait vus plus tôt, j’aurais dû les détailler davantage, mettre de la population, des voitures, etc.

Une autre astuce sur ce passage, lorsque la caméra remonte vers la forêt d’immeubles au fond : ces derniers remontent physiquement, afin qu’ils dépassent verticalement des immeubles du premier plan. Ça n’a pas de sens mais ça permet d’avoir quelque chose de bien plus esthétique.

Pour les immeubles : j’ai fait un fichier blender, un .blend, à part avec tous mes assets de bâtiments. Ensuite, j’ai placé les immeubles dans la ville avec des particules, il y a plusieurs plans avec des vertex planes qui définissent le positionnement des différents immeubles. Sauf pour le coeur de la ville, où un placement à la main était indispensable pour éviter les collisions et garder une cohérence esthétique.

Des bâtiments placés « au sol » via des particules ont permis de cacher, justement, le sol. Il y a des interpénétrations mais au final on ne voit rien, ça passe sans problème.

Ici quelques assets utilisés dans la ville :

3DVF : Il faut aussi souligner que le mouvement de caméra ne se prête pas forcément à l’usage de matte painting…

Oui, d’où le full 3D, même pour les éléments lointains. Pas de matte, pas de planes. Je dois dire aussi que j’essaie d’utiliser le moins possible ce genre d’astuce, car j’arrive souvent à les repérer chez les autres : ici j’avais peur que l’on sente l’absence de relief puisque la caméra bouge tout le temps. C’est peut-être de l’excès de prudence mais je préfère me passer de ces astuces, même si ça m’arrive évidemment parfois d’en utiliser.

Au final les seuls « planes » utilisés sont pour le ciel et des effets de fumée.

3DVF : Tu disais plus haut qu’il était rare de tenter de faire de la foule sous Blender. Justement, peux-tu nous en dire plus techniquement ?

C’est avec des particules… Mais en utilisant un bug de Blender ! [rires]

Concrètement, Blender propose des particules de type Boids [NDLR: destinées par exemple à la simulation de bancs de poissons ou nuées d’insectes]. De base, ces particules volent : une case à décocher permet en théorie de faire en sorte qu’elles restent au sol, mais ça ne marche pas, elles volent quand même.

La conséquence du bug des Boids : une foule qui refuse de rester au sol.

L’astuce est alors de les laisser voler, mais de bidouiller des paramètres, des valeurs qui vont faire en sorte qu’elles se déplacent sur le sol.

Par ailleurs, normalement pour contenir une foule dans un outil 3D on place des murs. Or Blender n’a pas du tout été pensé pour les foules, donc si on demande aux particules de rebondir sur un mur et de se retourner, elles le font de façon instantanée, donc non naturelle.

Un autre bug lié aux boids (qui sont, il faut le dire, un peu cassés) apporte la solution. Si on met un mur 100% perméable (les particules passent à travers) les particules l’ignorent, si on met 98% le retournement est encore instantané avec 2% qui traversent, mais à 99% le volte-face n’est pas instantané, 1% traverse quand même mais je me suis arrangé pour que ça ne se voit pas. c’est ce qui m’a permis de créer une foule avec un comportement qui fonctionne.

Ca a demandé beaucoup de travail, de recherches sur des travaux faits par d’autres personnes mais sans que ça soit au point. Ian Hubert a fait aussi une foule sur son film Dynamo Dream mais en moins précis, plus rapidement, de son côté les gens se traversent alors que sur mes scènes j’ai vérifié 15 fois que tout était bon. Les seuls piétons qui sont buggés sont des serveurs au niveau du restaurant, ils font du sur-place. C’est un regret, mais je ne vais pas m’amuser à tout re-rendre… et je l’ai vu bien trop tard.

Dynamo Dream

A noter, quelques piétons ont été placés et animés à la main, et non via des particules. Je n’ai pas utilisé Mixamo qui était alors encore balbutiant mais prometteur, j’ai surtout des noises de mouvement aléatoire sur le buste, les bras et la tête pour que les personnages soient en train de manger, ou discuter. Un peu comme les personnages de GTA san andreas qui parlent, en plus aléatoire, sans pattern et moins exagéré.

Animation dans GTA San Andreas

J’ai aussi fait en sorte, dans les shaders, de créer des variations aléatoires de l’apparence par particule.

Les modèles sont des personnages que j’ai achetés, j’ai matché un rig sur ceux-ci, avec un cycle de marche basique. L’animation n’est par contre pas adaptée à la taille des personnages, qui varie selon l’individu, donc leurs pieds glissent un peu, et de façon différente selon leur vitesse de marche.

Même chose quand ils font demi-tour, ils marchent plus lentement et donc leurs pieds glissent un peu aussi.

Là encore tout ceci est lié aux limitations des particules sous Blender, on ne peut pas adapter la vitesse de l’animation en fonction de la vitesse de la particule, la solution a donc été de ne pas filmer les personnages de trop près.

Pages suivantes : suite de la séquence d’introduction, combats spatiaux, séquence finale, développements, travail d’équipe…

L’article Interview : Nexus VI, les coulisses d’un épisode grandiose est apparu en premier sur 3DVF.

Windows 11 et logiciels 3D : faut-il sauter le pas ?

Par : Shadows

Avec la sortie de Windows 11, les premiers tests de performances commencent à arriver : de quoi se faire une idée de l’impact, positif ou négatif, de ce nouvel OS.

Puget Systems vient justement de publier deux articles avec des benchmarks réalisés sous différents outils 3D, en rendu (CineBench, OctaneBench, Redshift, V-Ray) et en 3D temps réel (Unreal).

Nous vous invitons à les lire pour accéder aux détails, mais voici les principales conclusions :

  • Sous Unreal, le changement d’OS ne fait pas de réelle différence en termes de performances. Un ou deux bugs mineurs et non bloquants sont présents ; on imagine qu’ils seront rapidement corrigés.
  • En rendu classique, on constate souvent un léger recul des performances. Sous V-Ray, les performances du ThreadRipper Pro 64 cores s’effondrent : il y a clairement ici un problème spécifique.
    En revanche, sous V-Ray en mode GPU, les performances s’améliorent de 18% en moyenne.

Etant donné la jeunesse de l’OS, le léger recul en rendu n’a rien de surprenant. Du côté de ThreadRipper, AMD et Microsoft résoudront probablement rapidement le problème.

Plus globalement, il faut souligner que de très nombreux outils ne sont pas encore officiellement compatibles Windows 11, et qu’un système d’exploitation a toujours besoin d’optimisations et corrections à son lancement : le plus sage est donc d’attendre que les choses se lissent avant de sauter le pas.

L’article Windows 11 et logiciels 3D : faut-il sauter le pas ? est apparu en premier sur 3DVF.

Pour Acer, l’avenir de la création passe par le relief

Par : Shadows

Acer dévoile le ConceptD 7 SpatialLabs Edition, un nouvel ordinateur portable destiné aux créatifs. Le produit se démarque de la concurrence par un écran relief sans lunettes.

Les personnes qui nous lisent régulièrement ne seront pas surprises : au printemps dernier, nous avions évoqué les plans d’Acer sur le sujet.

Une configuration au goût du jour

Sur le papier, le ConceptD 7 SpatialLabs Edition propose un processeur Intel Core série H de 11ème génération, plusieurs options côté graphique dont la RTX 3080 de NVIDIA. Un écran UHD 4K vient compléter le tout, avec certification Pantone, 100% de couverture de l’espace Adobe RGB et un Delta E<2.
Rien de surprenant jusqu’ici, la gamme ConceptD d’Acer nous ayant habitués à ce type de positionnement.

En ce qui concerne l’écran relief, il s’agit d’une technologie lenticulaire qui permet donc d’éviter le recours aux lunettes : des lentilles au niveau de l’écran renvoient vers chaque oeil une image différente, d’où la perception du relief.
Bien évidemment, il est aussi possible d’utiliser l’écran de façon classique.

Le relief : vraie avancée ou fonction gadget ?

La démarche d’Acer peut poser quelques questions. En effet, la vague du relief amorcée à la fin des années 2000 avec Avatar est désormais bien loin, et la stéréoscopie ne fait plus vendre auprès du grand public.
Mais justement, ce produit ne se destine pas au grand public. Et Acer ne se contente d’ailleurs pas de proposer un simple écran.

On retrouve ainsi sur la machine le « SpatialLabs Model Viewer », un outil de visualisation d’objets 3D qui dispose de plugins pour différents outils 3D (Autodesk Fusion 360, Autodesk Inventor, 3Ds Max, Rhinoceros, Cura, Blender, SketchUp et Zbrush), mais permet également d’importer les formats 3D courants (OBJ, FBX, STL, Collada, glTF, DAE, IGES, 3DS, Blend, PLY).
Un système mêlant capteurs et IA ajoute par ailleurs un effet de parallaxe lorsque l’utilisateur déplace ou tourne sa tête.

Outre le viewer, Acer a incorporé un lecteur vidéo maison qui gère le relief, et une solution SpatialLabs Go censée générer un effet relief à partir de contenus 2D (photos, vidéos, jeux, visioconférences).

Enfin, un site dédié aux développeurs SpatialLabs est lancé ; il propose notamment un plugin Unreal Engine, et Acer évoque la prise en charge d’Ultraleap (solution de suivi des mains).

Quels usages ?

En termes de marché, Acer esquisse quelques cas d’usage concrets.Le groupe évoque par exemple un configurateur de voiture pour les concessionnaires et clients, des visites guidées pour architectes d’intérieur, ou encore l’observation géospatiale.

Marketing en quête « d’effet wow », industrie, secteur de la création : plus globalement, cet écran pourra être une alternative aux casques VR ou écrans avec lunettes, moins contraignant et plus facile d’usage, même si le fait de ne gérer qu’une seule personne à la fois est un handicap certain.

Premières impressions

Nous avons eu l’occasion d’avoir brièvement ce produit entre les mains dans les locaux d’Acer.

L’effet de relief est convaincant, avec un jaillissement généreux et une bonne définition : même si l’écran lenticulaire implique évidemment de diviser la résolution horizontalement, l’écran 4K permet un affichage de qualité, loin devant ce que l’on pouvait voir il y a une dizaine d’années.

Nous n’avons pas pu tester la conversion de contenus 2D en 3D, et nous ne pourrons donc pas vous donner notre avis sur le sujet à ce stade.
En revanche, la visualisation de modèles 3D est satisfaisante, de même que le visionnage de vidéos.

Le ConceptD 7 SpatialLabs Edition sera disponible en fin d’année aux alentours de 3600€ TTC.

L’article Pour Acer, l’avenir de la création passe par le relief est apparu en premier sur 3DVF.

The Soloists : trois soeurs face à des lois absurdes (Gobelins 2021)

Par : Shadows

Mehrnaz Abdollahina, Feben Elias Woldehawariat, Razahk Issaka, Céleste Jamneck et Yi Liu présentent The Soloists, leur court de fin d’études à Gobelins (promotion 2021).

Dans un petit village régi par des lois ridicules, trois sœurs chanteuses et leur chien répètent pour le festival annuel d’automne. Mais un événement inattendu va bouleverser leurs plans.

L’article The Soloists : trois soeurs face à des lois absurdes (Gobelins 2021) est apparu en premier sur 3DVF.

Magic Leap va de l’avant et annonce de nouvelles lunettes AR

Par : Shadows

Depuis sa création, Magic Leap a connu un essor extraordinaire, puis un brutal retour à la réalité : 2.6 milliards de dollars levés, des lunettes de réalité augmentée qui furent un échec commercial (de l’ordre de 6000 exemplaires vendus en 6 mois contre 100 000 espérés). Par la suite, le groupe annonça la démission de son PDG et un millier d’employés furent remerciés pour limiter les dépenses.
Autant dire que l’avenir de l’entreprise ne s’annonçait pas forcément radieux.

Mais Magic Leap n’a pas dit son dernier mot, et fait deux annonces majeures.

La première est celle d’une nouvelle levée de fonds : pas moins de 500 millions de dollars.

Cette somme servira à concrétiser la seconde annonce, celle d’un Magic Leap 2 : de nouvelles lunettes améliorées par rapport au premier modèle.
Ce nouveau produit sera destiné au secteur professionnel, pas au grand public.

Cette nouvelle version devrait proposer plus de confort et d’immersion, grâce entre autres à une réalité augmentée affichée sur une plus grande zone du champ de vision, et un système d’ajustement de la luminosité qui permettra d’utiliser les lunettes y compris dans des environnements très lumineux. Le produit devrait aussi être plus léger et compact, et disposer d’une autonomie nettement supérieure.
Vu le câble présent sur le visuel dévoilé, on peut en conclure qu’un boîtier distinct apportera la puissance de calcul, comme sur la V1.

Peggy Johnson, dirigeante de Magic Leap, promet une sortie de son nouveau produit en 2022.

L’article Magic Leap va de l’avant et annonce de nouvelles lunettes AR est apparu en premier sur 3DVF.

Une aventure spatiale pour la péniche de Duck Factory

Par : Shadows

Duck Factory n’est pas un studio comme les autres : l’entité, spécialisée dans la production et post-production, est en effet située sur une péniche qui a jeté l’ancre en région parisienne.

Récemment, Duck Factory a collaboré avec l’Agence Spatiale Européenne, qui souhaitait mettre en avant une campagne de recrutement. L’idée était donc de jouer sur l’imaginaire spatial et les rêves associés.
Jérôme Bernard, fondateur de Duck Factory, explique que le projet devait cibler les européens de 12 à 35 ans (il s’agissait aussi de susciter des vocations auprès du jeune public).

Voici le spot, suivi de ses coulisses :

Le brief avait été reçu en septembre 2020, pour un lancement de campagne au mois de mai 2021 : un délai trop court au vu des enjeux, d’où le choix de ne pas utiliser des méthodes traditionnelles.
Duck Factory a opté pour l’usage d’Unreal Engine et d’un système de production virtuelle avec écrans LED (via les services de Plateau Virtuel, que nous vous avions déjà présenté sur 3DVF).

En pratique, l’équipe a créé les environnements virtuels en l’espace de 3 mois, le tournage proprement dit s’étant étalé sur deux jours.
Jérôme Bernard se dit ravi de l’approche, qui a permis de réduire le temps passé sur le plateau mais aussi de « faire la postprod en préprod ».

Côté technique, l’équipe s’est notamment appuyée sur les assets Quixel Megascans, ainsi que sur Ultra Dynamic Sky.
Les environnements ont nécessité de 1,7 million de triangles (chambre anéchoïque) à 320 millions de triangles (paysage de Guyane), la majorité tournant autour des 4 ou 5 millions de triangles.

Crédits :

Director – Jérôme Bernard
For ESA – European Space Agency

VFX Supervisor – Johan Sarbia
Director of Photography – Julien Lascar
Music – Etienne Forget
Narrator – Julia Gguillen
shot at Plateau Virtuel

PRODUCTION
DUCK FACTORY – DKFT

Producer – Jérôme Bernard
Production manager – Pierre SAINT-BLANQUAT
Production assistant – Jeanne GAY-BÉZIAT
Storyboarder – Eric Gandois
Moodboard – Stéphanie Coulibeuf

CASTING

Little girl – Eleana Da Costa
Boy – Wassim Falaya
Disabled woman – Prudence Leroy
Scientists – Laura Zimmer & Léonard Hamet
Control room supervisor – Etienne Guillou Kervern
Control room operator – Krees de Almeida
Astronauts – Christelle Wallois & Marc Quenum

FILM CREW

Director of Photography – Julien Lascar
First Assistant Camera – Zoe Mention
2nd Assistant Camera Katia Hamnane
Gaffer – Clément Boyeldieu
Lighting technician – Gabriel Beaumelou
Drone operator – Christophe Guyon
Key grip – Pierre Marion-Andres
Set decorator – Lydwine LABERGERIE
Asst set decorator – Mareva BOURJAC-LABERGERIE
Stylist – Nathalie FRACHON
Key Make-up – Artist Simine COMMIEN
Make-up Artist – Emmanuelle POMBET
Location manager – Adrien Cokelear
first floor manager – Mathieu Lecaisne
2nd floor manager – Vincent Drocourt
Astrophysicist youtuber – Sébastien Carrassou
Making of instagram – Anthony Ornecq
Still photographer – Victoria Roblin
Culinary Chef – Johan Bonnet

Plateau Virtuel

Emilie Lecoq
Bruneau Corsini
Sébastien David
Julien Arnould
Olivier Saint Hubert
Clément Boyeldieu

POST PRODUCTION
DUCK FACTORY – DKFT

VFX SUPERVISOR – Johan SARBIA
VFX artist – Mathieu Gomez
EDITOR & VFX artist – Tanguy lavabre
colorist – Rémy Devlieger
SOUND DESIGNER – Clément Maurin

STUDIO VFOR
UNIVERSE SEQUENCE
Producer – Tom Bogda
VFX artists – Jérémy Djaffer, Gabriel Thomas and Pav Ivanov

MAKING OF

Director of photography – Christophe Guyon
Sound engineer – Léonard Hamet
Editor – Tanguy lavabre
Graphist – Mathieu Gomez

L’article Une aventure spatiale pour la péniche de Duck Factory est apparu en premier sur 3DVF.

La GTC de NVIDIA en approche : des conférences à ne pas manquer !

Par : Shadows

Du 8 au 11 novembre se tiendra en ligne une nouvelle édition de la GTC (GPU Technology Conference), événement organisé en ligne par NVIDIA.

On pourra notamment y retrouver une keynote du CEO de NVIDIA, Jensen Huang. Si NVIDIA se garde évidemment de dévoiler le contenu en amont, cette présentation est typiquement celle durant laquelle les annonces sont dévoilées (nouveaux produits et outils, nouvelles initiatives stratégiques).

L’autre volet majeur : plus de 500 présentations aux thématiques variées, de cas d’études aux conférences très pointues techniquement, en passant par des sessions axées sur la stratégie des entreprises.
Les sujets vont des thématiques de 3DVF (design 3D, simulation, XR) à ceux qui en sont plus éloignés (voitures autonomes, 5G). Nous vous invitons donc à parcourir les différentes sections du programme.
Voici une petite sélection :

Enfin, des workshops et formations sont proposés, et il est possible d’organiser des réunions avec des experts de NVIDIA pour évoquer vos projets, défis techniques, en groupe ou en session face à face.

L’accréditation GTC est gratuite ; certains contenus (journées complètes de workshops) sont payants.
Pour plus de détails, on se rendra sur le site de la GTC.

L’article La GTC de NVIDIA en approche : des conférences à ne pas manquer ! est apparu en premier sur 3DVF.

D’une cinématique PUBG à l’avenir du rendu : rencontre avec Brunch

Par : Shadows

Nous suivons l’équipe de Brunch depuis plusieurs années déjà : nous avions notamment eu l’occasion de vous proposer des interviews en leur compagnie autour d’une cinématique pour The Division 2 d’Ubisoft, puis d’une autre destinée à Riot Games et son Teamfight Tactics.

C’est désormais dans l’univers PlayerUnknown’s Battlegrounds (PUBG) que nous plonge Brunch, avec une cinématique sortie cet été pour promouvoir un nouveau jeu mobile lié à la licence.
Réalisée par Boddicker (Jean-Charles Kerninon et Clément Lauricella), produite par Eddy, cette cinématique adopte un rendu stylisé qui tranche avec l’approche photoréaliste de nombreuses bandes-annonces de jeu.

En compagnie de Brunch, nous vous invitons à découvrir le projet, ses coulisses et ses défis techniques et artistiques.
Démarche visuelle, narration poussée, travail en lien avec de la musique, animation en step, contraintes narratives liées à Youtube, vous saurez tout sur les coulisses de cette cinématique.

Et comme le projet adopte un rendu non photoréaliste, nous en avons profité pour échanger avec les réalisateurs sur les tendances actuelles en matière de rendu stylisé, mais aussi sur l’impact de l’IA et du deep learning sur l’avenir du rendu.

Le résultat : une interview dense et riche en informations à découvrir après avoir (re)vu la cinématique PUBG !

3DVF : Bonjour Boddicker/Brunch ! La cinématique PUBG : NEW STATE – La chute de Troi que vous avez récemment dévoilée trouve ses origines dans une autre licence : le travail que vous aviez fait pour The Division 2 d’Ubisoft, sur lequel nous vous avions d’ailleurs déjà interviewés.

Boddicker (Jean-Charles Kerninon et Clément Lauricella) : Tout à fait. En fait, PUBG Studio avait sorti une grosse cinématique, dans un style très photoréaliste et proche du jeu (en termes d’actions, de lighting). Or ils se sont rendus compte que cette approche ne fonctionnait pas : le projet était certes très beau et bien géré, il ne se démarquait pas du reste des cinématiques jeux vidéo en termes de rendu. La cinématique n’avait donc pas marqué le grand public autant que PUBG l’avait espéré.

Ils sont donc venus nous voir avec comme ambition d’aller vers quelque chose de plus stylisé, et d’avoir une narration plus approfondie pour sortir du lot.

Ils avaient eu l’occasion de voir notre travail sur The Division 2 (que nous avions co-réalisé avec Olivier Lescot), et cela correspondait à leur vision, un style fort et une vraie histoire.

Cinématique d’Olivier Lescot & Boddicker pour The Division 2

3DVF : Plus concrètement, quel était la demande, quels aspects du jeu fallait-il souligner ?

Il s’agissait d’accompagner la sortie d’un jeu mobile, PUBG : NEW STATE. L’action se situe dans le futur, et il y a une nouvelle map, des éléments plus technologiques (même si l’équipe est revenue en arrière par rapport à certains plans initiaux).
L’idée était notamment de mettre en place un lore, avec plusieurs factions du jeu. Quelques personnages principaux étaient déjà écrits mais sans avoir d’apparence visuelle associée, car ils n’étaient pas inclus dans le jeu.

Le brief, au fond, était assez simple : le studio avait trois gangs, trois factions, avec leurs leaders. Et une nuit, une équipe de chasseurs devait arriver et tuer tout le monde.
A partir de là on a pu écrire un scénario et leur proposer.

Visuellement, aucune référence, quartier libre pour présenter ce qu’on voulait, ils n’ont même pas demandé un style spécifique. La seule demande était d’éviter le photoréalisme.

Il y a eu une évolution dans le concept, nous avions proposé quelque chose de très narratif, avec des dialogues, une histoire accompagnée par de la musique (nous savions qu’un groupe de musique serait impliqué mais la musique n’était pas encore définie).
Cependant, eux voulaient vraiment appuyer la cinématique sur la musique.

Au final la cinématique est un mix de ces visions, avec un côté clip mais tout en gardant de la narration, et une longue intro sans musique. Ils nous ont tout de même bien permis de nous exprimer.
L’absence de dialogues a aussi des avantages : on a des non-dits, du mystère du fait par exemple que le dialogue final n’est pas audible (même si on l’a écrit dans le script !).

3DVF : Comment avez-vous géré ces contraintes au niveau sonore ?

Cela a beaucoup changé notre façon de réaliser et monter, par exemple nous avons mis en place beaucoup de coupes au moment des tirs.

Pendant longtemps il y a eu un flou pour savoir ce qui prenait le pas : est-ce que la musique devait s’adapter à l’image, ou l’inverse. On a reçu des maquettes que l’on a transformées, découpées, on a rallongé des moments… Nous avions aussi une courbe d’intensité pour le film que nous voulions respecter…

Les tests se sont poursuivis très tardivement, et au final le plus simple a été que le client nous fournisse la musique, qu’elle ne bouge plus et que l’on s’adapte, que l’on cale dessus nos rythmes, nos plans.

3DVF : Quelle était la taille de l’équipe, et combien de temps a duré le projet ?

5 mois de production, c’est un de nos plus longs projets.

Pour l’équipe, une quarantaine de personnes sur l’ensemble du projet mais sans dépasser la douzaine de personnes en même temps.

Et avec donc Eddy à la production, Brunch à la fabrication.

3DVF : Une ambiance nocturne peut être délicate à gérer au compositing, est-ce que ça a été le cas ici ?

Pas autant qu’on aurait pu le craindre. Evidemment, il a été nécessaire d’égaliser les plans durant la production, mais visuellement on est sur une nuit très graphique, teintée, pas sur une obscurité totale. Et comme les graphistes s’occupaient de séquences entières, on a pu facilement obtenir une unité de séquence.

3DVF : En termes de chara design, comment se sont passées les choses ?

Pour les leaders, nous n’avions pas de design, aucun élément, juste une fiche descriptive de la personnalité (faits d’arme par exemple).

Par contre nous avions quelques charas designs ou skins de personnages « lambda » qui étaient pressentis pour intégrer le jeu, nous avons donc étudié ces éléments afin d’avoir une cohérence visuelle. C’est ensuite que l’on a imaginé nos designs.

Nous avons eu une liberté énorme.

En pratique, quand on travaille sur le design de personnages, il y a des plannings, plusieurs designers en parallèle qui font plusieurs propositions par personnage, et c’est ensuite qu’il faut trouver un style global pour le film.

Or entre en design 2D et une retranscription 3D il est toujours difficile de se projeter ou d’avoir une bonne cohérence sur l’ensemble des designs. Il n’est jamais évident de dire à un graphiste « on voudrait tel type de rendu » et d’avoir un design adapté, c’est plutôt à l’étape de fabrication que l’on intègre tout ça, que l’on adapte tous les personnages, qu’on se les approprie. En décidant du type de textures, de la patte graphique.

D’autant plus que nous sommes des techniciens, nous maîtrisons la 3D plus que la 2D.

Si a posteriori on compare les characters designs et le résultat final, ça se ressemble mais il y a clairement une différence.

3DVF : Comment avez-vous abordé les visages ?

Notre parti pris était de nous affranchir d’un look 2D, de règles un peu idiotes que beaucoup se mettent pour avoir un « look 2D » ou « look 3D », on ne voulait pas que les gens pensent que le but était « d’imiter de la 2D », ce qui est très laborieux.

Nous avons donc opté pour garder du détail en modélisation, mais aussi pour le fait de mettre de la matière, de la texture. De même, sur les masques des chasseurs, on a assumé le côté 3D, mis une patine, des reflets réalistes et non bakés.

Un point qu’il faut souligner, c’est l’importance ici de la confiance que l’on nous a accordée. Sur ce genre de projet il faut généralement tout de suite, dès le pitch, montrer ce à quoi montrera le film. Ici, nous avons pu faire des essais, des recherches, le client et la production ont vraiment fait confiance, malgré l’attente que génère ce processus.

3DVF : Toujours sur les détails, le travail sur les yeux est impressionnant, de la texture, des reflets…

Il y a de la triche sur certains plans, avec par exemple des spéculaires 2D sur des petites plaques que l’on fait trembler pour créer du mouvement, par exemple à la fin quand Marion parle au Sherif et que ses yeux s’écarquillent. Ou quand une autre héroïne est allongée, avant de se faire exécuter. A l’inverse, sur d’autres plans ça ne marche pas visuellement, donc soit on retirait totalement, soit on mettait du spéculaire 3D.

Au final, tant que ça marche, peu importe la technique.

On a surtout gardé cet effet quand nous voulions raconter quelque chose avec le spéculaire, jouer sur les émotions.

3DVF : Vous avez opté pour une animation en step. Or il nous a semblé que certains FX sont animés avec plus de fluidité…

Pas tout à fait.

En fait on a adapté le framerate au plan, voire pendant le plan. Par exemple sur un plan un antagoniste court, manque de tomber, la caméra le suit et s’attarde. La caméra est fluide au début, puis beaucoup moins sur la fin pour renforcer le côté nerveux.

Les FX sont tous en step, mais comme ça bouge très vite on a cette sensation de fluidité. Et comme animer en 2 nous semblait parfois trop fluide, nous sommes parfois passés sur une animation en 3 ! Ca dépend vraiment du plan. Ca s’est fait au ressenti.

Pages suivantes : animation, FX, chara design, violence Youtube, rendu stylisé, machine learning.

L’article D’une cinématique PUBG à l’avenir du rendu : rencontre avec Brunch est apparu en premier sur 3DVF.

❌