Collanews

🔒
☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Athleticus saison 3 : il va y avoir du sport !

Par : Shadows — 6 septembre 2022 à 15:26

Les animaux sont de retour ! La série Athleticus de Nicolas Deveaux revient avec une troisième saison de 30 épisodes.

Le concept reste le même : des animaux sauvages s’affrontent lors d’épreuves sportives improbables et décalées, du football au bobsleigh en passant par le skate.
Pour cette nouvelle saison, après l’athlétisme, les sports collectifs et les sports d’hiver, le réalisateur Nicolas Deveaux explore les sports en milieu urbain : street basket, Tai-Chi, breakdance, remise en forme, gym ou foot de rue sont au menu.

Pour découvrir cette saison 3, deux possibilités :

  • chaque vendredi dès le 9 septembre, un épisode sera diffusé sur Arte à 20h50 ;
  • vous pouvez également l’intégralité de la saison 3 dès à présent sur Arte.tv.

Produite par Arte et Cube Production, la série est fabriquée chez Cube Creative. Rappelons également que depuis 2020, l’équipe Cube a rejoint le groupe Xilam Animation.
Enfin, si vous dévorez trop vite ces 30 épisodes, rassurez-vous : la saison 4 est déjà en préparation !

Nicolas Deveaux ce lundi 5 septembre lors de la rentrée de l’Axe Animation 3D de l’école IIM, à Paris. Le réalisateur y présentait son parcours et la nouvelle saison d’Athleticus.

L’article Athleticus saison 3 : il va y avoir du sport ! est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

CGWhy : entre USD, IA et Omniverse, les sujets phares du SIGGRAPH 2022

Par : Shadows — 6 septembre 2022 à 14:43

Un nouvel épisode du podcast CGWhy est en ligne ! Au programme, le SIGGRAPH et les sujets phares de cette édition 2022. Metaverse, USD, Omniverse, motion capture sont abordés, de même que l’IA et ses usages artistiques avec les nouveaux outils de génération d’images.
Le tout, avec la participation d’un membre de l’équipe 3DVF.

Vous trouverez sur la page de l’épisode des liens pour vous abonner sur les plateformes de podcast, ainsi que des liens et ressources pour en savoir plus sur les sujets évoqués, ou encore la marche à suivre pour soutenir l’équipe du podcast via un don.

Ne manquez pas également l’épisode précédent du podcast, qui évoquait lui aussi le SIGGRAPH.

L’article CGWhy : entre USD, IA et Omniverse, les sujets phares du SIGGRAPH 2022 est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

La RTX 3090 Ti en test : que vaut vraiment le monstre de NVIDIA ?

Par : Shadows — 6 septembre 2022 à 11:08

Lancée au printemps dernier, la NVIDIA GeForce RTX 3090 Ti a longtemps été proposée à un tarif assez musclé, en raison notamment des contraintes du marché : pénurie et forte demande faisaient grimper les prix.
Alors que l’été touche à sa fin, on la trouve à des tarifs bien plus légers : aux alentours de 1500 à 1900€ TTC selon le modèle (voire même 1330€ grâce à des offres promotionnelles ponctuelles).
Alors que la prochaine génération RTX 4000 approche mais n’a pas encore été lancée, la RTX 3090 Ti peut donc être un choix intéressant pour les personnes souhaitant le maximum de performances. Mais est-elle vraiment à la hauteur de vos attentes ? Nous vous proposons de le vérifier avec une série de tests qui vous permettront de comparer la RTX 3090 Ti à votre carte actuelle !

Nous avons volontairement centré nos essais sur des usages graphiques : vu le tarif et la puissance, ce sont plutôt les professionnels qui sont ciblés par ce produit.
Nous avons aussi choisi, comme toujours, de nous appuyer au maximum sur des tests reproductibles par des tiers : encore une fois, l’objectif est de voir permettre d’avoir une idée concrète du gain potentiel par rapport à votre matériel actuel quel qu’il soit.

Précision : le modèle testé est une RTX 3090 Ti Founders Edition, prêtée par NVIDIA.

Caractéristiques

Pour commencer, voici un petit rappel de la fiche technique de la 3090 Ti comparée à ses petites soeurs. Elle les surpasse sans surprise un peu partout.
A noter : la consommation est nettement plus élevée (nous reviendrons sur ce point plus loin) et la 3090 Ti est assez massive. Nous vous conseillons donc fortement de vérifier que votre matériel est capable de l’accueillir (alimentation assez puissante, espace disponible dans votre station).

RTX 3090 TiRTX 3090RTX 3080 TiRXT 3080
(version 12Go)
Coeurs Cuda1075210496102408960
Coeurs raytracing84828070
Coeurs Tensor336328320280
Fréquence de boost/base1.67/1.86 GHz1.7/1.4 Ghz1.67/1.37 GHz1.71/1.26 GHz
Mémoire24 Go GDDR6X24 Go GDDR6X12 Go GDDR6X12 Go GDDR6X
Bus mémoire384 bits384 bits384 bits384 bits
Vitesse Mémoire21 Gbit/s19,5 Gbit/s19 Gbit/s19 Gbit/s
Bande passante1008 Go/s936 Go/s912 Go/s912 Go/s
TDP450W350W350W350W
Température maximale92°93°93°93°
Connecteurs3x câbles PCIe à 8 broches (adaptateur intégré) ou
câble PCIe Gen 5 de 450 W ou plus
2x PCIe 8 broches
(adaptateur pour 1x 12 broches inclus)
2x PCIe 8 broches
(adaptateur pour 1x 12 broches inclus)
2x PCIe 8 broches
(adaptateur pour 1x 12 broches inclus)
Dimensions
(longueur x largeur x hauteur)
313×138 mm,
3 slots
313×138 mm,
3 slots
285×112 mm,
2 slots
285×112 mm,
2 slots
Date de lancement29 mars 202224 septembre 20203 juin 202111 janvier 2022

Conditions de test

La station utilisée est une HP Z4 sous Windows 10, dotée d’un Intel Core i9 10900X – 3,7GHz et de 2x16Go de RAM DDR4-2933.

Il s’agit donc d’une machine relativement puissante qui ne devrait pas brider la 3090 Ti lors de nos essais.
Nous utilisons les derniers drivers NVIDIA Studio disponibles lors du test.

Ci-dessous, la 3090 Ti une fois installée : malgré sa taille, elle rentre parfaitement dans notre station.

Rendu 3D

OctaneBench

Nous débutons les tests avec OctaneBench, un test de rendu qui utilise Octane Render et est compatible Windows, Linux, Mac OS X. Il utilise l’accélération RTX et effectue le rendu successif de plusieurs scènes pour donner un score global.


RTX 3090 Ti
OctaneBench 2020.1.5702.22

Blender Benchmark 3.2.1

Grand classique, Blender Benchmark utilise le rendu de plusieurs scènes 3D pour évaluer le matériel. Il est disponible sous Windows, Mac OS, Linux.
Le score est donné scène par scène.

Blender Benchmark V3.2.1 (samples par minute)RTX 3090 Ti
Monster2865.9
Junkshop1610.2
Classroom1373.4

V-Ray Benchmark 5.0.2

Ce benchmark effectue du rendu sous V-Ray pour donner un score. Il propose plusieurs mode : V-Ray en mode CPU, en mode GPU Cuda, en mode GPU RTX. Nous nous sommes évidemment focalisés sur ces deux derniers modes.

RTX 3090 Ti
V-Ray Benchmark – mode Cuda1708
V-Ray Benchmark – mode RTX2859

3D temps réel

Nous passons désormais aux tests 3D temps réel.

Unreal Engine 5

Le benchmark EzBench, lancé en mai 2022, s’appuie sur Unreal Engine 5 avec textures 8k, assets de qualité cinématique et raytracing.
Le test est encore en plein développement, mais nous choisissons de l’inclure dès à présent afin de disposer d’une référence sous Unreal.
Le test est compatible Windows. Nous avons ici fait le test en 2160p, en désactivant le son et avec la version 1.1.

RTX 3090 Ti
EZBenchmark22450
EZBench
EZBench

GPUScore – Relic of Life

GPUscore est une suite de benchmarks GPUs lancés par Basemark au printemps 2022. Il se décline en version mobile avec le benchmark The Expedition et sur station de travail (Windows, Linux) avec le benchmark Relic of Life.

Cette seconde est celle qui nous intéresse : elle supporte DirectX 12, Vulkan 1.2, s’appuie sur le raytracing temps réel, le rendu physique, des effets de post-processing divers (GTAO, TAA, éclairage volumétrique, personnages animés)

RTX 3090 Ti
Vulkan6907
DirectX 127390

Neon Noir

Ce test proposé par Crytek s’appuie sur une démo de raytracing temps réel.

Nous faisons le test avec les paramètres suivants : 1920×1080, Raytracing en mode ultra, mode fullscreen.

RTX 3090 Ti
Neon Noir14500

3DMark

3DMark propose différents benchmarks 3D temps réel sous Windows/DirectX. Nous choisissons ici Port Royal (benchmark de raytracing temps réel) et Time Spy Extreme (rendu 4K UHD, test optimisé pour 8 coeurs et plus, animations et effets divers).

RTX 3090 Ti
Port Royal14276
Time Spy Extreme9554

Omniverse

La plateforme Omniverse de NVIDIA nous donne plusieurs opportunités de tests.

Tout d’abord, la démo Marbles se présente comme un jeu utilisant IA et raytracing temps réel. Très gourmand, il fait un test parfait pour notre RTX 3090 Ti.

Nous nous intéressons ici au framerate moyen, mesuré avec Frameview.

RTX 3090 Ti
Framerate47

Autre test, cette fois-ci sous Audio2Face. Cet outil permet de créer du lip-sync automatique à partir d’un enregistrement audio, et même d’animer les émotions faciales automatiquement à partir de ce même enregistrement. Audio2Face prend en charge différentes langues dont le français.

Exemple concret : un scan 3D du visage d’un membre de l’équipe est converti en personnage 3D sous Unreal Engine à l’aide de MetaHuman d’Epic Games, puis nous utilisons Audio2Face et un extrait audio de l’annonce de la RTX 3090 Ti de NVIDIA. Voici le résultat :

Audio2Face permet aussi d’estimer les émotions et de s’en servir pour animer le visage, mais ici l’outil détectait de façon erronée de la colère : comme Audio2Face permet de retoucher les résultats détectés, nous avons passé la colère à zéro pour gagner en crédibilité.

Revenons au benchmark. Le traitement du lip-sync étant quasi instantané, de même que le calcul des émotions, ce n’est pas ce point que nous mesurons. Nous optons pour la fonction « Rebuild TensorRT » disponible dans les menus d’Audio2Face, qui reconstruit le système de deep learning utilisé par Audio2Face.

RTX 3090 Ti
Audio2Face – Rebuild TensorRT Engine1 minute 11s
A droite, en jaune : le TensorRT Engine en cours de reconstruction.

Traitement photo

Helicon Focus

Helicon Focus est un logiciel de focus stacking (assemblage de photos pour augmenter la profondeur de champ) qui dispose d’un outil de benchmark. Celui-ci est disponible dans la démo, et Helicon Focus est compatible Windows, Mac OS.

RTX 3090 Ti
Helicon Focus812.57 MPixel/s

Consommation

Evoquons également les besoins énergétiques de ce monstre de calcul.

La puissance consommée est en effet loin d’être un point négligeable, pour trois raisons :

  • pour des questions climatiques et éthiques tout d’abord ;
  • pour des raisons économiques ensuite, puisque les coûts de l’énergie augmentent et que vos projets peuvent dépendre des aides du CNC. Celles-ci vont être conditionnées par des actions concrètes au niveau énergétique dans le cadre du Plan Action! en faveur de la transition écologique et énergétique.
  • Enfin, si vous mettez à jour votre machine, connaître la consommation est indispensable pour savoir si votre alimentation va tenir la charge ou si vous devez également la changer.

Nous lançons le stress test FurMark (3840×2400, autres paramètres laissés aux valeurs par défaut), qui sollicite très fortement le GPU jusqu’à maximiser sa consommation et mesurons la différence avec la consommation au repos.
Nous dépassons les 500W avec cette situation extrême.
Dans une situation plus représentative d’un rendu 3D (rendu OctaneBench), notre machine complète avoisine les 480W environ contre 75 à 80 au repos, soit une différence d’environ 400W.

Bien évidemment, il convient ici de s’intéresser aux performances par Watt et non à la consommation seule : si la RTX 3090 Ti consomme 2 fois plus que votre GPU actuel mais est trois fois plus rapide pour rendre un de vos projets, le bilan énergétique restera intéressant.

Nuisances sonores

Pour le bruit, nous lançons en simultané deux stress tests : FurMark pour solliciter le GPU, et CPU-Z pour le CPU. Notre but est de faire monter au maximum à la fois la charge du GPU et la température interne.
La station est placée sur le bureau, à côté de l’écran, et nous faisons la mesure à la place où se situe une personne assise devant l’écran, à une cinquantaine de centimètres de la station.
Nous montons à 55 décibels, contre 35-41 au repos (bureau calme, sans musique ni voix). La 3090 Ti se fait clairement entendre, mais ne vous empêchera pas de discuter avec vos collègues.

Une bonne nouvelle au passage, FurMark nous indique que même avec cette charge extrême, la ventilation de la carte graphique n’est pas au maximum : il reste de la marge, ce qui montre au passage que la 3090 Ti Founders Edition, tout comme les stations HP Z4, ont un bon système de ventilation.

Conclusion

La NVIDIA GeForce RTX 3090 Ti est un monstre de puissance. Efficace en rendu GPU/CPU+GPU précalculé comme en 3D temps réel, elle nécessite cependant quelques précautions avant d’être adoptée : nous vous suggérons fortement de vérifier que votre station est capable de l’accueillir (alimentation assez puissante, place disponible).

Avec les tarifs actuels, elle pourrait bien être une bonne affaire, selon votre matériel actuel : nous espérons donc que nos tests vous permettront d’y voir plus clair !

L’article La RTX 3090 Ti en test : que vaut vraiment le monstre de NVIDIA ? est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

StretchSense, la motion capture au bout des doigts – SIGGRAPH 2022

Par : Shadows — 2 septembre 2022 à 17:21

Au SIGGRAPH 2022, StretchSense nous a présenté leur solution de motion capture de mains et doigts: gants MoCap pro, pipeline dédié avec le Hand Engine, intégration avec des solutions tierces comme Unity, Unreal Engine, Xsense, Vicon.

Une solution à découvrir dans notre nouvelle vidéo ; n’hésitez d’ailleurs pas à vous abonner à notre chaîne Youtube!

L’article StretchSense, la motion capture au bout des doigts – SIGGRAPH 2022 est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

La GTC en approche: des conférences gratuites sur USD, Omniverse, IA, raytracing en bien plus encore

Par : Shadows — 2 septembre 2022 à 10:36

Du 19 au 22 septembre se tiendra la prochaine édition de la GTC, conférence de NVIDIA sur les technologies liées aux GPUs.

Au menu : des annonces alléchantes mais aussi des présentations, conférences et workshops en accès gratuit (une inscription suffit).

La keynote à ne pas manquer

Les annonces majeures seront dévoilées lors de la keynote de Kensen Huang. Nous aurons évidemment l’occasion de relayer les points essentiels le moment venu.
Plus globalement, Jensen Huang évoquera l’ensemble des dernières technologies NVIDIA, du matériel au cloud en passant par Omniverse et l’IA.
Vous pourrez suivre la keynote en direct par ici, mardi 20 septembre à 17h heure française.

Des conférences quel que soit votre niveau ou métier

Dans l’imposante liste des conférences gratuites, on trouve évidemment de tout, le GPU étant devenu incontournable dans toutes les industries : architecture, cloud, santé, automobile…

Voici les conférences centrées sur le milieu créatif :

Comprendre le futur

Nous vous suggérons en particulier de jeter un oeil à « Foundations of the Metaverse: The HTML for 3D Virtual Worlds« .
On y retrouvera Steve May (CTO de Pixar), Guido Quaroni (Senior Director of Engineering of 3D & Immersive, Adobe), mais aussi des représentants d’acteurs clés du secteur comme Unity, NVIDIA, Autodesk. Ils échangeront sur USD (Universal Scene Description), qui est en train de s’imposer comme un élément clé de l’avenir du secteur 3D.
Quel que soit votre profil, vous aurez donc forcément affaire à USD dans les années à venir : cette présentation sera l’occasion d’en savoir plus sur les raisons de l’adoption d’USD, et sur les évolutions que devra subir ce standard avant de s’imposer véritablement, depuis les studios d’animation jusqu’au fameux metaverse.
(la présentation débutera le 20 septembre à 19h heure française)

Making-of, nouvelles techniques et recherche, IA

Voici quelques autres suggestions de conférences :

  • « An Artist’s Omniverse: How to Build Large-Scale, Photoreal Virtual Worlds«  : les coulisses d’une démo technique réalisée par 30 artistes en 3 mois avec plusieurs mondes différents.
    Au menu : IA, simulation physique, Substance 3D Painter, Photoshop, 3ds Max, Maya, Blender, Modo, Zbrush, Houdini et Omniverse.
  • « Ray Tracing: How NVIDIA Solved the Impossible!«  : une présentation des progrès accomplis par NVIDIA sur le rendu photoréaliste temps réel.
    Pour évoquer le sujet, un vulgarisateur de choix : Károly Zsolnai-Fehér, chercheur spécialiste du rendu connu notamment pour sa chaîne Youtube Two Minutes Papers. Le contenu devrait donc être accessible tout en étant pointu.
  • « ILM: Leveraging AI in Visual Effects and StageCraft Virtual Production«  : ILM y présentera son usage de l’IA dans les effets visuels, et en particulier sur l’utilisation de DeepSearch, technologie Omniverse qui permet de faire des recherches dans des bibliothèques d’assets sans avoir à les tagger/trier.

Optimisez vos outils

Enfin, notez que la GTC propose aussi des formations et cours, avec des conseils pratiques.
« Developer Tools Fundamentals for Ray Tracing using NVIDIA Nsight Graphics and NVIDIA Nsight Systems« , par exemple, vous aidera à utiliser les outils NVIDIA pour améliorer les performances de vos applications.
Vous y apprendrez à utiliser l’outil d’analyse NVIDIA Nsight pour détecter les bottlenecks et optimiser les performances d’une application 3D.
(attention, l’accès à cette formation est gratuit mais le nombre de placés limité : le lien ci-dessus vous donnera tous les détails)

L’article La GTC en approche: des conférences gratuites sur USD, Omniverse, IA, raytracing en bien plus encore est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Le Salon de la Photo revient : nous vous offrons l’entrée !

Par : Shadows — 1 septembre 2022 à 09:56

Enfin ! Après une longue attente liée à la crise sanitaire, le Salon de la Photo fait son grand retour cette année.
Du 6 au 9 octobre, vous pourrez retrouver le salon à Paris. Et nous vous offrons votre billet en fin d’article !

Une précédente édition du salon

Le salon de la photo, c’est quoi ? Quel est le programme ?

Si vous n’avez jamais visité le salon, rappelons le concept en quelques mots. L’objectif affiché est de réunir un public très large, « photographes, vidéastes, créateurs de contenus, amateurs experts, néophytes ou professionnels ». Pour y parvenir, le salon propose un panel assez diversifié de contenus et activités :

  • Exposants de matériel, logiciels, services en lien avec la photo et la vidéo : gros constructeurs de boîtiers et optiques, accessoires allant des sacs aux trépieds en passant par le matériel de studio ou de photo nature, éditeurs comme Adobe ou DxO, impression, formations et voyages…
Le stand Canon, sur une précédente édition du salon
  • Des conférences très diverses organisées par le salon ou par les stands. Qu’il s’agisse des évolutions législatives, des tarifs , des formations ou encore des NFT côté pro, de la démo d’un logiciel, de photographes évoquant un reportage dans le grand nord ou de techniques de prises de vue vidéo pour influenceurs, sans oublier les « grandes rencontres« , qui mettent en avant les travaux de grands photographes, chacun y trouve généralement son bonheur.
  • Plusieurs expos photos, avec une grande exposition (cette année, plus de 100 oeuvres de Françoise Huguier), un focus sur des talents avec les Zooms (ici, la sélection 2020 sera présentée, puisque la pandémie avait causé l’annulation du salon).
Exposition au sein du salon, lors d’une précédente édition
  • Des ateliers de trois heures sur des sujets spécifiques (attention, ils sont payants et nécessitent une inscription).
  • Des « spots photo » qui vous permettront de pratiquer : photo macro, culinaire, sport, light painting, studio, téléobjectif et architecture sont prévus. N’hésitez donc pas à amener votre matériel !
  • Un espace de vente, si vous souhaitez faire quelques achats après vos tests sur le salon.

En bref : des activités et contenus très divers autour de la photo et de la vidéo, à la fois pour le très grand public, les passionnés et professionnels.

Masterclass sur un stand, lors d’une précédente édition

Où, quand ?

Cette année, le salon déménage et s’installera à la Grande Halle de La Villette. Il se tiendra du 6 au 9 octobre 2022, de 10h à 19h.
L’accès est facile en transports en commun : station Porte de Pantin desservie par le Métro 5, Tramway T3b et différentes lignes de bus.

Comment avoir des places gratuites ?

En théorie, l’entrée du salon est à 12€ en plein tarif. Mais nous vous proposons de vous inscrire gratuitement grâce à un partenariat avec le Salon de la Photo.

Pour en bénéficier, rien de plus simple : il suffit d’utiliser le code 3DVF22 lors de votre enregistrement.

En vous rendant directement sur cette adressse, vous ne devriez même pas avoir besoin de rentrer le code, il sera pris en compte d’office.

Une fois l’inscription validée, la plateforme vous permettra de télécharger votre entrée gratuite, à présenter à l’entrée du salon.

L’article Le Salon de la Photo revient : nous vous offrons l’entrée ! est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Table ronde sur le harcèlement dans l’animation : LFA souhaite vos témoignages

Par : Shadows — 31 août 2022 à 11:27

L’association Les Femmes s’Animent va organiser une nouvelle table ronde sur le sujet du harcèlement dans l’industrie de l’animation, après deux tables rondes sur cette thématique déjà mises en place en 2016 et 2017.

Elle sera intitulée : “Harcèlement dans l’animation, où en est-on en 2022?”

L’association explique ses objectifs et le déroulé prévu :

Nous clarifierons ensemble les moyens mis à disposition dans l’animation pour prévenir et/ou lutter contre les violences morales et sexuelles au travail.

Dans la discussion, nous inviterons des comédien·ne·s à lire des extraits de témoignages anonymes rendant compte de la réalité de ces violences au travail d’une manière concrète (victimes ou témoins).

Les Femmes s’Animent lance donc un appel à témoignages :

Si vous avez vécu une ou des expériences de ce genre, seriez-vous d’accord pour nous les raconter par écrit, même de manière anonyme ? Aucun nom ne sera bien entendu cité au cours des lectures.
 
Vous pouvez nous adresser votre message à l’adresse suivante : lfa.tableronde@gmail.com .

N’hésitez pas à revenir vers nous si vous avez la moindre question.


Sur la question du harcèlement, nous vous invitons également à revoir la table ronde qui était organisée fin 2021 dans le cadre des conférences RADI-RAF à Angoulême.

Panel :
Marylin Baldeck (Déléguée générale – AVFT)
Cécilia Bossel (Directrice générale adjointe – Cyber Group Studios)
Vincent Chiarotto (Directeur – ECV Bordeaux)
Cécile Blondel (Directrice du Développement International – GOBELINS, l’école de l’image)
Samy Fecih (Superviseur d’animation, enseignant)

Modération :
Patrick Eveno

0:00 – Introduction et présentation du panel
2:26 – Marylin Baldeck – AVFT : comment former efficacement sur les violences sexistes et sexuelles au travail
16:20 – Cécilia Bossel – retour d’expérience chez Cyber Group Studios : sensibilisation sur les risques psychosociaux en entreprise
29:40 – Vincent Chiarotto – retour d’expérience et actions au sein de l’ECV Bordeaux
41:05 – Cécile Blondel – retour d’expérience et actions à Gobelins
52:15 – Samy Fecih – expérience en tant que superviseur, enseignant
1:01:46 – Questions-réponses : manque de formation des leads et équipes de production, rattachement du secteur de l’animation à un CCHSCT (Comité Central d’Hygiène et de Sécurité et des Conditions de travail), importance de la formation aux droits et devoirs en école (sensibilisation, cadre légal, etc)

L’article Table ronde sur le harcèlement dans l’animation : LFA souhaite vos témoignages est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Le groupe chinois NetEase rachète le studio Quantic Dream

Par : Shadows — 31 août 2022 à 11:11

NetEase vient d’officialiser le rachat de Quantic Dream, studio français de jeu vidéo fondé en 1997 et dirigé par David Cage, Guillaume de Fondaumière.

Quantic Dream est notamment connu pour son travail sur les titres The Nomad Soul, Fahrenheit, Heavy Rain, Beyond Two Souls, Detroit : Become Human, Star Wars: Eclipse.
L’entité s’était aussi fait connaître pour ses conditions de travail, avec une triple enquête du Monde, de Mediapart et Canard PC de 2018 qui dénonçaient « une culture d’entreprise toxique, une direction aux propos et attitudes déplacés, des employés sous-considérés, des charges de travail écrasantes et des pratiques contractuelles douteuses ».
Le studio avait porté plainte pour diffamation contre Le Monde et Mediapart ; Mediapart avait gagné en justice, le tribunal évoquant « une base factuelle suffisante » pour l’ensemble des points évoqués dans l’article. Le Monde avait été condamné pour diffamation envers les deux dirigeants, mais pas pour ses propos sur le studio lui-même.

Pour revenir sur l’annonce d’aujourd’hui, NetEase est un groupe chinois dont les activités vont des services en lignes (e-commerce, mail, portails web…) au jeu vidéo en passant par la publicité. Le groupe dispose aussi d’un service de streaming de musique.
Son implication dans le secteur du jeu vidéo n’est donc pas nouvelle, et le groupe avait d’ailleurs mis en place des partenariats avec des gros noms du secteur tels qu’Activision Blizzard, investi au sein de Bungie (Halo) mais aussi de… Quantic Dream, en 2019.

William Ding, qui dirige NetEase, parle d’une vision partagée, de combinaison de « la créativité » et du « focus narratif exceptionnel » du studio français et des « studios, ressources et capacités d’exécutions » de NetEase. En somme, l’alliance d’une vision et de moyens, comme le résume Guillaume de Fondaumière : pour lui, après la collaboration en place depuis l’investissement de 2019, « l’acquisition par NetEase survient naturellement dans ce processus et crée une opportunité unique de booster la croissance de Quantic Dream en donnant à [leurs] équipes de production et édition tous les moyens nécessaires pour exceller ».

Quantic Dream insiste cependant sur sa volonté de conserver son identité : indépendance de la ligne éditoriale, de la direction artistique et de la gestion du studio. Quantic pourra aussi continuer à s’autoéditer.

Si l’on ne connaît pas le montant du rachat, Quantic Dream avance que ses équipes « sont pleinement associées à cette opération et qui en bénéficient directement financièrement », sans plus de détails.

L’article Le groupe chinois NetEase rachète le studio Quantic Dream est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Intel évoque ARC Pro, rendu, IA au SIGGRAPH 2022

Par : Shadows — 31 août 2022 à 10:26

Au SIGGRAPH 2022, nous avons échangé avec Intel autour de leurs dernières annonces, technologies et partenariats, des cartes graphiques ARC Pro d’Intel au rendu et au denoising en passant par la VR ou l’IA.

La gamme ARC Pro n’a pas pour vocation -pour le moment – de rivaliser en puissance avec le haut de gamme de chez NVIDIA ou AMD – : la Arc pro A50, la carte la plus musclée d’Intel, affiche 4.8 TFLOPs de puissance (simple précision) et 6Go de GDDR6. Néanmoins, Intel est manifestement décidé à séduire le marché de la création, et il sera donc intéressant de suivre l’adoption de ces cartes et les annonces des mois à venir.
Nous en saurons plus sur les performances en pratique d’ici la fin de l’année, lors du lancement effectif.

Vous trouverez sous la vidéo le sommaire et les liens utiles pour creuser les sujets abordés. Nous en profitons aussi pour vous suggérer de vous abonner à notre chaîne Youtube pour ne pas rater les futures interviews.
L’interview est en anglais, avec sous-titres français et anglais disponibles.

00:00 – Introduction
00:14 – Pourquoi des cartes graphiques?
00:30 – Annonce ARC Pro
00:45 – Denoising, rendu, augmentation de résolution…
01:40 – VR: First Man, Le Musk
02:10 – Stratégie pour les GPUs

Pour en savoir plus :

Les spécifications des GPU Arc pro dévoilées par Intel :


GPU Intel Arc Pro A40GPU Intel Arc Pro A50GPU Intel Arc Pro A30M (pour PC portable)
Performances de pointe3,5 TFLOP à précision unique4,8 TFLOP à précision unique3,5 TFLOP à précision unique
Xe-core8 cœurs ray tracing8 cœurs ray tracing8 cœurs ray tracing
MémoireGDDR6 6 GoGDDR6 6 GoGDDR6 4 Go
Sorties d’affichage4 mini-DP 1.4 avec prise en charge audio4 mini-DP 1.4 avec prise en charge audioSpécifique aux PC portables, jusqu’à 4 pris en charge
GénéralPuissance maximale de 50 W dans un format à emplacement uniquePuissance maximale de 75 W dans un format à double emplacementPuissance maximale comprise entre 35 et 50 W et logiciel 

L’article Intel évoque ARC Pro, rendu, IA au SIGGRAPH 2022 est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Trois artistes revisitent des monuments européens

Par : Shadows — 30 août 2022 à 14:12

NVIDIA dévoile un nouveau volet de sa série In the NVIDIA Studio, avec trois artistes qui avaient la même mission : revisiter graphiquement un monument européen. Voici le résultat :

  • Dalibor Cee, expert en FX mais aussi en projection mapping, a jeté son dévolu sur la célèbre horloge astronomique de Prague. Il a travaillé sous Blender et Cycles, avec un rendu en 20 minutes environ sur un duo de RTX 3090 TI.
  • Dawid Herda alias Graffit a opté pour un bâtiment de la ville polonaise de Gdańsk : une grue vieille de 600 ans qu’il a modernisée. Ses outils : Blender, NVIDIA Omniverse, After Effects.
  • Lazăr alias Eurosadboy, enfin, a revisité un bâtiment de Bucarest. L’occasion de mêler nostalgie et futurisme sous Cinema 4D, JSplacement Classic, Octane, After Effects.

L’article Trois artistes revisitent des monuments européens est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

L’année de la motion capture au SIGGRAPH: Rokoko nous dévoile ses annonces !

Par : Shadows — 24 août 2022 à 18:38

La motion capture était un sujet phare du SIGGRAPH 2022, qui se tenait début août à Vancouver.
De nombreuses entreprises avaient fait le déplacement, comme la startup française Kinetix que nous avions interviewée avant le salon, mais aussi comme Rokoko, entreprise danoise spécialisée dans la motion capture abordable.
Ici, pas de systèmes se chiffrant en dizaines, centaines de milliers d’euros. Pas non plus d’installation complexe : selon le produit, il suffit d’enfiler une combinaison, des gants, d’allumer son iPhone… Ou de télécharger des données !

Jakob Balslev, fondateur et dirigeant, nous a dévoilé les dernières annonces de l’entreprise et ce que Rokoko prépare pour l’avenir. Egalement au menu, des chiffres concrèts sur le marché, ou encore l’émergence de la motion capture avec une caméra unique.
Des sous-titres français et anglais sont disponibles, et vous trouverez le sommaire sous la vidéo.

Nous en profitons également pour vous inviter à vous abonner à notre chaîne Youtube si ce n’est pas déjà fait.

00:00 – 3 axes pour Rokoko
00:30 – Technologies: IMUs / EMF
01:04 – Annonce !
01:17 – Avenir de la bibliothèque
01:53 – Clients
02:39 – NVIDIA Omniverse : avis, intégration ?
03:07 – SIGGRAPH 2022
03:26 – « L’année de la motion capture »
03:52 – Mocap par caméra, sans marqueurs : l’avenir ?

Pour en savoir plus :

L’article L’année de la motion capture au SIGGRAPH: Rokoko nous dévoile ses annonces ! est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

RenderMan 25 : Pixar nous dévoile les nouveautés en interview

Par : Shadows — 22 août 2022 à 19:43

Durant le SIGGRAPH 2022, nous avons pu échanger avec Dylan Sisson, de l’équipe marketing des studios Pixar. Il présente régulièrement les conférences des studios Pixar autour de RenderMan, sur des évènements comme le Festival d’Annecy et le SIGGRAPH, et participe au développement du moteur. Enfin, il est aussi le créateur et designer des fameuse « teapots », les théières que Pixar distribue

Il nous dévoile ici le contenu de la future version 25 du moteur de rendu, et ses principales améliorations.

00:00 – Introduction
00:14 – RenderMan 25
00:25 – nouveau denoiser par IA
00:55 – nouveaux looks, rendu stylisé
01:42 – Mises à jour XPU
02:24 – Version non-commerciale
02:50 – Avis sur NVIDIA Omniverse ?

N’hésitez pas à vous abonner à notre chaîne Youtube : d’autres interviews vidéo sont en approche !

Pour plus d’informations :

  • RenderMan, la version gratuite à usage non commercial ;
  • Progiss (partenaire de 3DVF) est revendeur officiel RenderMan pour la France, le moteur est donc disponible dans la boutique 3DVF.fr. Vous pouvez contacter Progiss par téléphone au 01 49 89 07 90 ou par mail : info@progiss.com

L’article RenderMan 25 : Pixar nous dévoile les nouveautés en interview est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Viqueens : des guerrières vikings lancent un raid

Par : Shadows — 22 août 2022 à 11:13

Marie Herrera, Coline Patois, Mégane Le Roux, Anne Guichard, Patricia Christol, Pauline Pretre, Clara Simoné et Léa Pyra présentent Viqueens, leur court de fin d’études à l’ESMA (promotion 2021).

A la suite du dernier échec de leurs maris, un groupe de femmes viking décide de partir en raid contre leurs ennemis écossais.

Voix / voices: Mary STEPHENSON, Marc KACZMAREK, Gead MULHERAN, Paul ELLIOT
Musique / music: Laurent LAUZANO
Son / sound: Studio des Aviateurs : José VICENTE, Yoann PONCET, Tristan LE BOZEC, Guilhem FAVARD, Valentin CAETANO

L’article Viqueens : des guerrières vikings lancent un raid est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Bourdonnement: une obsession sculptée

Par : Shadows — 22 août 2022 à 10:44

Aude Mahieux, Pierre-Louis Bouron, Zoé Chataigner, Mélanie Rohmer, Martin Teillet et Lena Hosdez présentent Bourdonnement, leur court de fin d’études à l’ESMA (promotion 2021).

Luís, un sculpteur marié, entreprend de reproduire sa voisine en argile. Il ne peut s’empêcher de l’épier depuis qu’il a découvert un orifice dans leur mur mitoyen.

Compositeur : Laurent Vang
Voix : Pauline Renaud, Damien Boisseau, Marie Bouvet, Agathe Schumacher
Son : José Vicente, Baptiste Le Blanc – STUDIO DES AVIATEURS

L’article Bourdonnement: une obsession sculptée est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Kayak : une sortie très sportive (court-métrage de l’Ecole des Nouvelles Images)

Par : Shadows — 19 août 2022 à 10:25

Solène Bosseboeuf, Flore Dechorgnat, Tiphaine Klein, Auguste Lefort, Antoine Rossi dévoilent Kayak, leur court de fin d’études à l’Ecole des Nouvelles Images (promotion 2021). Une comédie au fil de l’eau qui ne vous laissera pas de marbre !

Par une journée d’été ensoleillée, un père emmène son bébé faire une balade en kayak. Entre les désagréments causés par la rivière et les caprices du bébé, le père en voit de toutes les couleurs. Tout va encore se compliquer lorsqu’un aigle se joindra à l’aventure.

Director: Solène BOSSEBOEUF, Flore DECHORGNAT, Tiphaine KLEIN, Auguste LEFORT, Antoine ROSSI
Animation: Tiphaine KLEIN, Auguste LEFORT, Antoine ROSSI
Scenario, Script: Solène BOSSEBOEUF, Flore DECHORGNAT, Tiphaine KLEIN, Auguste
LEFORT, Antoine ROSSI
Set: Solène BOSSEBOEUF, Flore DECHORGNAT
Image: Solène BOSSEBOEUF, Flore DECHORGNAT
Special effects: Solène BOSSEBOEUF
Film editor: Auguste LEFORT
Rendering: Solène BOSSEBOEUF, Flore DECHORGNAT
Sound editor: Solène BOSSEBOEUF, Auguste LEFORT, Antoine ROSSI
Mix: Pierre-François Renouf
Soundtrack: Valentin Petiteau
Production: Ecole des Nouvelles Images
Year: 2020-2021

L’article Kayak : une sortie très sportive (court-métrage de l’Ecole des Nouvelles Images) est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Les produits AWS Thinkbox désormais gratuits (Deadline, Draft, Krakatoa, Frost, XMesh, Sequoia, Stoke)

Par : Shadows — 18 août 2022 à 12:16

Amazon profite du SIGGRAPH pour faire un cadeau au secteur créatif. Les outils Deadline, Draft, Krakatoa, Frost, XMesh, Sequoia, Stoke deviennent gratuits.

Rappelons les usages de ces produits :

  • Deadline est une solution de gestion de rendu ;
  • Krakatoa permet de rendre des effets volumétriques et est compatible Max, Maya, Cinema4D ou en moteur de rendu de particules standalone ;
  • Frost permet de créer des meshes à partir de particules, et est compatible 3ds Max ;
  • Sequoia est une solution de traitement et meshing de nuages de points ;
  • Stoke se destine à la simulation de particules sous 3ds Max ;
  • XMesh permet d’accélérer le temps de chargement des scènes comportant des assets animés et supporte Max, Maya ou encore Nuke.

Ces outils sont issus du rachat de l’éditeur Thinkbox Software par AWS (la branche cloud d’Amazon) en 2017, Thinkbox Software devant au passage AWS Thinkbox.

5 ans plus tard, la gamme logicielle AWS Thinkbox est donc mise à disposition gratuitement. Vous pouvez les télécharger depuis la page dédiée chez AWS Thinkbox, sur la console AWS. Plus de précisions sont disponibles chez AWS, notamment si vous possédez déjà des licences.

Quel avenir ?

Bien évidemment, ce genre d’annonce peut causer quelques craintes : quand un éditeur donne gratuitement son logiciel, cela peut signifier un arrêt du développement.
Ici, AWS insiste sur le fait que son plan est de continuer à supporter ces produits, avec des équipes dédiées. Nous suivrons évidemment de près les futures mises à jour.

L’article Les produits AWS Thinkbox désormais gratuits (Deadline, Draft, Krakatoa, Frost, XMesh, Sequoia, Stoke) est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Arcane : les coulisses de la série Netflix en vidéo

Par : Shadows — 18 août 2022 à 11:54

L’équipe de la série animée Arcane présente une série documentaire sur la création de ce projet hors normes.

Au programme, des interviews côté Riot Games et Fortiche Prod, des images des équipes, mais aussi des contenus jusqu’ici jamais montrés publiquement, comme le test d’animation réalisé en 2015 par Fortiche Prod en tant que proof of concept.

Voici les deux premiers épisodes et le test d’animation :

Nous en profitons au passage pour vous inviter à découvrir ou redécouvrir notre interview d’Emmanuelle Aubeau de Fortiche Prod sur le recrutement et les ressources humaines chez Fortiche. N’hésitez d’ailleurs pas à vous abonner à notre chaîne Youtube !

0:00 Introduction
0:28 Parcours d’Emmanuelle Aubeau
3:26 Journée type
5:00 Comment sont définis les besoins en recrutements ?
6:16 Talent scouting, pré-sélection
7:31 Comment sont analysés les profils ?
8:37 Arcane Saison 1 : recrutement avant l’annonce publique du projet
9:48 Evolutions du recrutement pour la saison 2 ?
11:46 Des profils variés : un défi ?
13:06 Intégration / onboarding
13:37 Mise en place des RH chez Fortiche
16:31 Pause entre le pilote et la saison 1
17:35 Studios à Montpellier / Las Palmas
18:57 Mobilité entre studios ?
19:48 Erreurs courantes à éviter ?
23:59 Diversité
24:52 Responsabilité sociale, harcèlement moral/sexuel
26:59 Quels recrutements dans les semaines/mois à venir ?

L’article Arcane : les coulisses de la série Netflix en vidéo est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

USD, la clé du metaverse ? Interview de Marc Petit – Epic Games #SIGGRAPH2022

Par : Shadows — 18 août 2022 à 09:15

A l’occasion du SIGGRAPH 2022, nous avons pu interviewer Marc Petit, Vice-Président en charge de l’écosystème Unreal Engine chez Epic Games.

Il nous a donné sa vision du chemin parcours par Unreal Engine depuis 2017, évoqué la présence d’Epic au SIGGRAPH, avant d’évoquer le fameux metaverse : quelle vision de ce futur ? Qu’apportera le metaverse ? Pourquoi le format USD est-il sur toutes les lèvres au SIGGRAPH 2022, et quels défis seront à relever ?
Enfin, il a évoqué avec nous la manière dont Epic gère les rachats d’entreprises et technologies : quels sont les clés pour que cette croissance externe se passe au mieux et ne débouche pas sur la mort d’un produit prometteur ?

N’oubliez pas de vous abonner à notre chaîne Youtube : d’autres interviews et vidéos sont en approche !

0:00 – Introduction & chemin parcouru
0:35 – Annonces au SIGGRAPH ?
1:07 – Metaverse
2:02 – USD : vers un standard unique ?
2:40 – SIGGRAPH & metaverse
2:56 – gestion des rachats externes

L’article USD, la clé du metaverse ? Interview de Marc Petit – Epic Games #SIGGRAPH2022 est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Performance capture : pour Disney, la barbe n’est plus un problème

Par : Shadows — 16 août 2022 à 17:34

L’équipe Disney Research profite comme chaque année du SIGGRAPH pour présenter ses dernières avancées technologiques.
La publication Facial Hair Tracking for High Fidelity Performance Capture a retenu notre attention : de la performance capture sans rasage !

Le fil du rasoir, un passage obligé par le passé

En effet, jusqu’ici les pipelines de production typiques ne géraient pas la pilosité faciale. Les techniques de reconstruction 3D et tracking sont pensées pour des surfaces classiques, pas pour des poils fins et avec de l’occlusion.

On demandait donc aux acteurs de raser barbe et moustache avant une séance de capture, ce qui peut poser de multiples problèmes, de la star refusant de modifier son apparence aux obligations pour d’autres films : on se souvient des reshoots de Justice League avec Henry Cavill, contractuellement obligé de garder sa moustache pour le film Mission Impossible: Fallout qu’il tournait en même temps. Et plus globalement, cette contrainte imposait de faire la performance capture en amont ou aval du tournage, mais pas pendant.
Bref : il s’agissait d’une contrainte forte.

Notons que les sourcils cachent également une partie du visage : une solution gérant les barbes et moustaches pourrait donc être utile même pour les visages fraîchement rasés.

Une capture au poil

C’est ici qu’intervient le projet de recherche Disney, la première méthode de performance capture faciale capable de fonctionner avec pilosité faciale.

Pour y parvenir, Disney adopte une approche qui passe par la division de la capture en deux parties qui viennent se rejoindre :

  • la reconstruction et le tracking de la peau du visage, avec une estimation approximative des zones masquées par la pilosité ;
  • la reconstruction de la pilosité elle-même (en partant d’une une pose neutre) puis son tracking ;
  • on tire de ces deux éléments un résultat amélioré.
Crédit : Facial Hair Tracking for High Fidelity Performance Capture

En pratique, le tracking de la peau et de la pilosité sont couplés et traités en alternance, avec de multiples étapes d’affinage : le tracking des poils permet d’améliorer la précision du tracking de la peau en rajoutant une contrainte puisque les poils sont forcément implantés sur la peau : ils ne peuvent ni flotter ni être « dans » la peau.
L’image ci-dessous donne une idée des effets de cet affinage : en bas à gauche, l’estimation initiale du visage et des poils reconstruits, à en bas à droite le résultat affiné.

Les couleurs sur le visage de droite donnent une idée de l’ampleur de la différence entre la version brute et la version affinée (jusqu’à 5mm de décalage).
Crédit : Facial Hair Tracking for High Fidelity Performance Capture

La vidéo de présentation donne une idée des résultats, plutôt convaincants même si les poils ne sont pas toujours trackés à la perfection.

Enfin, Disney souligne que son pipeline permet d’éditer la barbe ou la moustache : en modifiant le style ou la longueur de la pilosité en pose neutre évoquée plus haut, on va pouvoir répercuter ces changements sur toute la performance. Des exemples sont visibles en fin de vidéo (4 minutes 34).
Autrement dit, on peut transformer un bouc en moustache, rendre une barbe plus fournie, épaissir ou affiner une moustache. Ou, bien entendu, supprimer totalement barbe et moustache.
De quoi faire rêver les studios confrontés face à des situations similaires à celles vécue par Henry Cavill.

Et après ?

Comme toujours en recherche, des limitations sont présentes, et des améliorations possibles. On citera par exemple le fait que Disney n’a pas fait de tests sur de très grandes barbes, qui masqueront davantage le visage. Ou encore le fait que la méthode risque de donner de mauvais résultats si la couleur de la peau et des poils sont trop proches, par exemple avec une peau et une barbe noires.

Même si Disney ne l’évoque pas, on peut également se demander si ce type d’approche ne pourrait pas permettre d’améliorer la motion capture d’animaux, comme des chats et chiens. Une piste à explorer pour le SIGGRAPH 2023, qui sait ?

Pour en savoir plus

On trouvera chez Disney la publication complète avec plus de détails sur la méthode, sa mise en application et ses limites.
Facial Hair Tracking for High Fidelity Performance Capture est une publication de Sebastian Winberg (DisneyResearch|Studios/ETH Zurich), Gaspard Zoss (DisneyResearch|Studios/ETH Joint PhD), Prashanth Chandran (DisneyResearch|Studios/ETH Joint PhD), Paulo Gotardo (DisneyResearch|Studios), Derek Bradley (DisneyResearch|Studios).

L’article Performance capture : pour Disney, la barbe n’est plus un problème est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Storyboarding et texturing sous Unreal : Praxinos fait le point ! [Interview vidéo]

Par : Shadows — 12 août 2022 à 17:31

A l’occasion du Festival d’Annecy, nous avions retrouvé l’équipe de Praxinos sur le stand Epic Games. La jeune entreprise française s’appuie en effet sur Unreal Engine pour avancer sur son projet de solution d’animation 2D.

Nous en avons profité pour faire le point sur l’entreprise avec la cofondatrice et dirigeante Elodie Moog, qui est revenue sur les deux outils gratuits ILIAD et EPOS développés par Praxinos, leur seconde bourse Epic Games Megagrant. Enfin, elle nous propose une démo d’EPOS, la solution de storyboarding sous Unreal de Praxinos (écran de gauche dans la vidéo : n’hésitez pas à passer en 4K et plein écran si besoin !).

Au passage, n’hésitez pas à vous abonner à notre chaîne Youtube, d’autres interviews arrivent bientôt !

0:00 Présentation de Praxinos
0:30 EPOS, retours et adoption par les studios
1:35 Unreal Engine allégé; roadmap
2:21 Seconde bourse Megagrant
3:00 démo EPOS : storyboarding sous Unreal

Pour aller plus loins :

L’article Storyboarding et texturing sous Unreal : Praxinos fait le point ! [Interview vidéo] est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Du plasma pour vos étoiles numériques

Par : Shadows — 11 août 2022 à 19:45
Temps de lecture : 3 minutes

De nombreux films, séries ont mis en scène des étoiles vues de très près. On pourra citer Sunshine (2007), Passengers (2016).
Représenter une étoile en gros plan est un défi, surtout si l’objectif est de mettre en scène la turbulente atmosphère de ces astres.
La couronne de notre soleil, par exemple, zone la plus externe de son atmosphère, présente une apparence fibreuse en raison de plasma éjecté dans l’espace, qui forme des filaments influencés par le champ magnétique. Ces éléments donnent des plans mémorables au cinéma, avec des étoiles à la texture riche et complexe. On trouve évidemment ce même type d’effet dans des jeux vidéo, ou pour de la visualisation scientifique.

Sunshine (2007)
Passengers (2016)

Au SIGGRAPH 2022, la publication Filament Based Plasma propose une nouvelle approche pour produire ce genre de résultat.
Le projet de recherche propose de modéliser ces effets de plasma à l’aide de filaments sous forme de courbes mathématiques, dont la configuration initiale peut être créée artistiquement ou générée de façon procédurale. L’équipe explique qu’une simple map de la surface de l’étoile, définissant le flux magnétique, permet de contrôler artistiquement l’effet.

En bas, la map créée par un artiste pour définir le flux magnétique. En haut le résultat final.

Dans les deux cas, des équations issues de la physique sont ensuite utilisées pour déterminer la forme des filaments, mais aussi pour calculer la lumière émise (effet de glow). Le rendu est effectué sous Houdini à l’aide de Mantra.

Nous éviterons ici de trop nous focaliser sur la technique sous-jacente (la publication complète, Filament Based Plasma, vous donnera plus de détails sur le plan physique et mathématique). Nous nous concentrerons plutôt sur la qualité du résultat d’un point de vue artistique, et sa proximité avec le réel. Et justement, l’équipe propose quelques comparaisons :

  • Au milieu, le champ magnétique solaire durant une éclipse totale. A droite, la méthode de la publication.
  • Images obtenues avec la méthode de la publication (« ours ») et images réelles (« footage ») capturées dans les longueurs d’ondes UV et rayons X.
  • Au centre, images réelles capturées le 21 octobre 2011 ; à droite un rendu obtenu avec la méthode proposée.

La vidéo de présentation, visible ci-dessous, montre plus de résultats, y compris avec des animations.

Si la méthode n’est pas temps réel, les temps de calcul restent très raisonnables : moins d’une minute pour les plans du soleil complet de la vidéo en 1080p et sur un Ryzen 7 5800X CPU, sachant que l’équipe souligne que l’essentiel des calculs pourraient être parallélisés sur GPU.

Filament Based Plasma est un projet de recherche présenté par Marcel Padilla (TU Berlin), Oliver Gross (TU Berlin), Felix Knöppel (TU Berlin), Albert Chern (UC San Diego), Ulrich Pinkall (TU Berlin), Peter Schröder (Caltech).

L’article Du plasma pour vos étoiles numériques est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

MoonRay, le moteur de rendu de DreamWorks, devient open source !

Par : Shadows — 11 août 2022 à 13:46
Temps de lecture : 2 minutes

A l’occasion du SIGGRAPH 2022, DreamWorks Animation annonce que son moteur de rendu MoonRay va être mis à disposition en open source d’ici la fin de l’année.

MoonRay a été utilisé sur des films d’animation tels que Les Bad Guys, Les Croods 2, Dragons 3 : Le Monde Caché et le futur Le Chat potté 2 : la dernière quête (prévu pour la fin de l’année, et pour lequel nous vous proposerons bientôt une interview).

Sur le plan technique, MoonRay fait du raytracing Monte Carlo. Il comporte une librairie de matériaux physiques utilisés en production, un USD Hydra render delegate, gère le rendu multi-stations et le rendu dans le cloud via le framework de calcul distribué Arras (lui aussi inclus dans le code qui sera rendu open source), explique DreamWorks.
Le studio ajoute que MoonRay permet à la fois de faire du rendu photoréaliste et stylisé, qu’il propose un mode pixel matching XPU : en clair, les rayons lors du rendu peuvent être traités sur GPU et CPU en parallèle.
MoonRay s’appuie par ailleurs sur plusieurs technologies d’Intel, comme Embree et sa librairie dédiée au raytracing, ou le système de compilation ISPC. Le rendu de hair, fur a lui aussi été développé en collaboration avec Intel.

MoonRay sera proposé sous licence Apache 2.0 sur un site dédié. Nous vous tiendrons informés de sa mise à disposition ; d’ici là, nous vous invitons à regarder la vidéo ci-dessous, proposée par DreamWorks, qui met en avant les principales qualités de ce moteur de rendu.

L’article MoonRay, le moteur de rendu de DreamWorks, devient open source ! est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Avec sa démo Lion, Unity dévoile son avenir

Par : Shadows — 11 août 2022 à 00:30
Temps de lecture : < 1 minute

Unity présente au SIGGRAPH 2022 sa nouvelle démo technologique : Lion.

Cette démo temps réel combine différentes technologies du groupe : les outils Wētā Digital rachetés fin 2021, SpeedTree, Ziva, SyncSketch et l’Editor de Unity ont été employés.
Unity avance que la démo tourne à 30fps en 4K sur une PS5, mais ne permet pour le moment pas de le vérifier : il faudra vous contenter d’une vidéo, aucun téléchargement n’est disponible à ce stade.

Initialement, Lion était une démo non téemps réel mise au point par des élèves de la Monster Emporium Animation School, avec des lions créés grâce aux outils de Ziva VFX qui permet de simuler muscles et tissus mous. Unity a mis à jour cette démo pour la rendre temps réel, grâce notamment au système de déformations en machine learning de Ziva RT. Ces déformations sont exécutées dynamiquement dans le nouveau Ziva RT Unity player lancée en preview durant le SIGGRAPH 2022.
La démo s’appuie également sur la végétation de l’outil SpeedTree, ainsi que sur Wig, l’outil de hair et fur de Wētā Digital actuellement en pré-alpha.
Unity explique que le rendu et la simulation améliorés du hair visibles dans cette démo seront disponibles dans la version 2023.1 Tech Stream.

Enfin, l’équipe étant répartie dans différents pays, l’outil de collaboration SyncSketch a été indispensable pour mener à bien le projet.

L’article Avec sa démo Lion, Unity dévoile son avenir est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Comment Pixar améliore la diversité de ses personnages

Par : Shadows — 10 août 2022 à 01:37
Temps de lecture : 6 minutes

Ces dernières années, les studios Pixar ont fait plusieurs pas en direction d’une plus grande diversité dans leurs films d’animation. Une démarche qui se traduit derrière la caméra (Alerte rouge de Domee Shi est le premier des films du studio entièrement réalisé par une femme) mais aussi devant la caméra, avec des films d’animation tels que Soul, Alerte Rouge.

Au SIGGRAPH 2022, Pixar nous en dit un peu plus sur la manière dont cette volonté se traduit au sein du processus créatif, jusque dans les personnages secondaires, avec un outil dédié et une réflexion sur plusieurs années.

Soul et biais inconscients

Durant la production de Soul, le studio voulait coller à la réalité des quartiers de New York représentés à l’image : l’idée était que l’on verrait dans les foules et personnages d’arrière-plan 80 % de personnes issues de minorités (Afro-Américains, latinos, personnes d’origine asiatique, etc) et 50 % d’hommes et de femmes. Une bibliothèque de personnages correspondant à cette volonté fut donc créée. De cette manière, les foules générées aléatoirement auraient les bonnes proportions.
En pratique cependant, pour les personnages d’arrière-plan choisis manuellement, la même répartition était très différente : selon les calculs fait manuellement par l’équipe, sur les trois premières séquences entamées au début de la production, on trouvait 50 % de personnes issues de minorités, 70 % d’hommes.

Cela posait deux problèmes :

  • une diversité très inférieure à la direction artistique voulue, et absolument pas représentative des quartiers bien réels qui inspiraient le film ;
  • une partie des personnages se trouvaient utilisés bien trop souvent : 20 % d’entre eux étaient visibles 50 % du temps.

Un biais inconscient de la part des équipes avait donc fait dériver l’objectif, mais ces statistiques permirent d’ajuster le tir et, sur l’ensemble du film, on trouve 80 % de minorités, 48 % d’hommes, 52 % de femmes, un résultat quasi identique à la volonté de départ.

Pour Pixar, la conclusion était claire : disposer de statistiques automatisées aurait été d’une grande aide afin que l’équipe puisse, si elle le souhaitait, disposer d’éléments concrets pour contrer d’éventuels biais inconscients.

Soul
Crédit : Disney-Pixar

Ce type de réflexion n’est pas nouveau, comme l’explique l’équipe dans la présentation dévoilée au SIGGRAPH : des entités et initiatives ont déjà montré l’intérêt de mesurer la diversité, comme le Geena Davis Institute on Gender in Media, la Netflix + USC Annenberg Inclusion Initiative. La seconde a par exemple permis de souligner que la présence de rôles féminins parlants au sein des films les plus populaires aux USA était d’environ 34 % seulement en 2019, un chiffre stable depuis 10 ans. Les statistiques montrent par exemple que la part de femmes réalisatrices varie du simple au triple selon le studio : une analyse étant alors de voir dans ces disparités le reflet de choix et biais de recrutement, conscients ou non, et non pas un supposé déficit de femmes réalisatrices compétentes.

Reste à voir comment faire évoluer la situation. Dans sa présentation, Pixar souligne que comme un petit nombre de studios domine le box-office, ceux-ci ont un rôle potentiel énorme sur les représentations vues par le public.
Plutôt que d’attendre que les rapports évoqués plus haut soient mis à jour, une fois que les films sont sortis, les gros studios qui souhaitent plus de diversité dans leurs projets peuvent par conséquent choisir d’agir en amont, pendant la création des films.

Characater Linker : le chaînon manquant vers plus de diversité ?

D’où l’idée de mettre en place un outil au sein du pipeline de Pixar permettant de mesurer la diversité en prenant en compte tous les personnages d’un film donné, appelé Character Linker.

Character Linker
Character Linker
Crédit : Disney-Pixar

Ci-dessus à gauche, l’outil affiche tous les personnages du film.
À droite, les personnages de la séquence sélectionnée.
En bas, des statistiques sur leur répartition dans différentes catégories : genre, ethnicité, âge, morphologie, etc.
L’affichage des statistiques peut se faire sous forme de camembert mais aussi de barres : dans ce cas, Character Linker affiche aussi, s’il y en a, l’objectif ciblé pour le film.

On peut par exemple utiliser l’outil pour ajuster les personnages d’une scène. Une cour d’école manque de jeunes filles ? Il suffit alors de cliquer sur les parts de camembert « young » et « female », afin d’afficher à gauche les personnages de la bibliothèque qui correspondent, puis sélectionner un ou plusieurs de ces personnages et les ajouter à la séquence. Les statistiques de la scène sont ajustées en temps réel.
Character Linker gère aussi les « lineups » de personnages : des groupes précis comme, pour reprendre l’exemple de Pixar, des personnes travaillant sur un chantier visible dans le film.
Il est également possible de visualiser ces chiffres à l’échelle d’un plan, d’un acte du film, ou du film entier.
Mieux encore : une fois les personnages placés dans une scène, on peut disposer de chiffres sur leur temps effectif de présence à l’écran, mais aussi sur leur visibilité à l’image (un personnage distant ou coupé par le cadre est moins visible qu’un personnage en gros plan).
Enfin, les métadonnées OTIO (OpenTimelineIO) issues des dialogues audio permettent d’avoir des chiffres sur le temps de parole des personnages et groupes de personnage.

En coulisses, Character Linker s’appuie sur quatre étapes :

  • le tagging des personnages ;
  • l’identification, plan par plan, de la présence des personnages et de leur degré de visibilité ;
  • l’agrégation des données ainsi générées ;
  • leur visualisation.

Du côté technique, Pixar explique que l’identification se fait via une base de données tenue à jour lors du traitement des plans de la production, grâce à l’analyse des fichiers USD de ces plans (pour chaque frame, on calcule quels personnages sont visibles, et leur degré de visibilité dans l’image). L’usage d’USD plutôt que de faire des rendus finalisés permet de traiter plus rapidement les scènes.
L’agrégation va ensuite consister à récupérer ces données, les condenser pour en tirer les statistiques voulues. Elle se fait chaque nuit.

Mise en pratique avec Alerte Rouge

Le film Alerte Rouge a été l’occasion d’utiliser Character Linker. La réalisatrice Domee Shi avait le sentiment que l’école de l’héroïne, censée se situer dans le Chinatown de Toronto, ne collait pas à la réalité : il y avait trop peu d’élèves ayant des origines en Asie orientale, et elle en voulait deux fois plus. Character Linker a permis à l’équipe crowds d’analyser les personnages, et de constater que 20 % des élèves étaient originaires d’Asie orientale. Ils ont alors ajusté quelques groupes clés de personnages qui avaient une forte présence à l’écran, et ce taux est passé à plus de 40 %. Le résultat, approuvé par la réalisatrice, aida à valider l’utilité de Character Linker, qui avait donc permis d’agir rapidement et efficacement pour coller à la vision artistique du projet.

Alerte Rouge et son école.
Crédit : Disney-Pixar

Quelles pistes pour l’avenir ?

Pixar explique que si Character Linker est utile, son outil mérite tout de même des améliorations.
Par exemple, la visibilité à l’écran pourrait être affinée : un personnage au centre de l’écran ou mis en valeur par l’éclairage a plus d’impact qu’un personnage dans un coin sombre de l’écran. Les techniques de machine learning pourraient aider à pondérer la visibilité par cet impact plus ou moins grand qu’ont les pixels aux yeux des spectateurs.
En outre, les assets sont régulièrement personnalisés sur certains plans : Pixar donne l’exemple de fauteuils roulants, souvent ajoutés à la main et non pas présents dans les assets de départ. Pouvoir les suivre par des statistiques serait sans doute utile.

Pixar souligne également que son système a des limites et fait face à des défis. Il est évidemment difficile de l’appliquer dans certains contextes comme les films avec des personnages non humains. De plus, la diversité ne se limite pas à l’apparence des personnes : elle peut aussi passer par le storytelling, comme l’a montré le couple du très récent Buzz L’Eclair (voir notre interview du réalisateur et de la productrice, qui évoque cet aspect de diversité).
Par ailleurs, appliquer des labels implique des choix qui ne sont pas neutres : on peut définir des catégories plus ou moins large, en choisissant par exemple de créer un label « Asie orientale » ou de scinder par zone géographique/pays (Japon, Chine, Corée…). Sans compter les personnes ayant des origines mixtes.

En clair : il convient de rester très prudent face à ces outils, qui ne sont pas une solution miracle applicable aveuglément. Les catégories étudiées, les tags utilisés sont susceptibles d’évoluer d’un film à l’autre et doivent être questionnés au fil des projets et du temps.

Enfin, l’équipe du projet explique avoir eu des craintes au départ : ce type d’approche peut générer controverses et critiques. Mais les personnes du studio ont rapidement accueilli l’initiative positivement. Character Linker a été vu comme un moyen de disposer de plus d’informations pour faire de meilleurs films, pas comme un outil de contrôle ou d’accusation.

Pour en savoir plus, une publication est disponible chez Pixar, en accès libre. Si vous disposez d’une accréditation SIGGRAPH 2022, vous pouvez voir la présentation vidéo du projet, plus détaillée.

Character Linker est présenté au SIGGRAPH 2022 par Paul J. Kanyuk, Mara MacMahon, Emily Wilson, Peter Nye, Jessica Heidt, Joshua Minor des studios Pixar, Gordon Cameron d’Epic Games.

Pour aller plus loin

  • Vous pouvez suivre 3DVF sur YoutubeTwitterInstagramLinkedInFacebook.
  • Ci-dessous, notre interview d’Angus MacLane et Galyn Susman de Pixar, sur Buzz L’Eclair : à partir de 1 minute 20, l’équipe discute du personnage d’Alisha et de la question de la diversité et sa représentation à l’écran.

L’article Comment Pixar améliore la diversité de ses personnages est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

NVIDIA allège vos données volumétriques : NeuralVDB, le futur d’OpenVDB ?

Par : Shadows — 9 août 2022 à 21:26
Temps de lecture : 2 minutes

NVIDIA dévoile au SIGGRAPH la technologie NeuralVDB, présentée comme le moyen « d’amener la puissance de l’IA dans OpenVDB ».

OpenVDB est pour rappel une librairie informatique largement utilisée dans les effets visuels et l’animation pour la simulation et le rendu de données volumétriques. OpenVDB comporte à la fois une structure de données et des outils.
En bref, donc : OpenVDB est un élément indispensable pour les simulations d’eau, feu, fumée en animation et effets visuels.

NeuralVDB propose de faire évoluer ce standard, avec à la clé des gains séduisants : jusqu’à 100 fois moins de mémoire utilisée, ce qui est un atout majeur étant donné la place imposante souvent demandée par les simulations.
Il devient donc possible de travailler sur des simulations plus lourdes, ou de les manipuler sur des stations de travail bien moins puissantes.

En outre, NeuralVDB s’appuie aussi sur les avancées de la librairie NanoVDB, présentée l’an passé par NVIDIA et qui permettait d’apporter de l’accélération GPU au sein d’OpenVDB, avec des gains de performances suffisants (selon NVIDIA) pour permettre d’envisager de la simulation et du rendu en temps réel.

Plus léger, plus rapide, NeuralVDB permet par ailleurs d’utiliser les données d’une frame pour la suivante. NVIDIA explique que cela permet d’accélérer l’entraînement par 2, et d’apporter de la cohérence temporelle. En clair, vous aurez moins besoin d’effets tels que le motion blur pour obtenir un résultat satisfaisant.

Reste désormais à voir si NeuralVDB débarquera dans nos outils, et quand. L’adoption ne devrait pas rencontrer de gros freins techniques, selon NVIDIA, qui explique avoir pensé NeuralVDB pour assurer la compatibilité avec les pipelines VDB existants. Le groupe promet une beta « bientôt » : nous suivrons donc ce dossier de près.
Si vous le souhaitez, une page dédiée chez NVIDIA permet de s’inscrire pour recevoir les futures annonces liées à cette technologie.

L’article NVIDIA allège vos données volumétriques : NeuralVDB, le futur d’OpenVDB ? est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Omniverse DeepSearch : ne triez plus vos assets, NVIDIA cherche pour vous !

Par : Shadows — 9 août 2022 à 19:46
Temps de lecture : < 1 minute

NVIDIA profite du SIGGRAPH pour officialiser l’arrivée de DeepSearch dans Omniverse Enterprise.

Derrière cet outil se cache une promesse simple : utiliser l’IA pour effectuer des recherches dans des bibliothèques d’assets, sans avoir à les tagger.

Pour les studios d’animation, effets visuels ou encore de jeux vidéo, l’intérêt est évident : ne plus avoir à s’infliger le travail fastidieux de classement et ajout de tags, mais aussi pouvoir réutiliser des assets qui n’avaient jamais été correctement triés et soigneusement rangés dans une bibliothèque.

DeepSearch est donc désormais disponible dans la version Enterprise (payante) d’Omniverse.
NVIDIA en profite pour montrer ce que donne DeepSearch en pratique chez ILM. Le studio explique en vidéo comment DeepSearch lui permet d’explorer sa collection massive de photos d’environnements avec ciel, qui ont été prises aux quatre coins du monde. Puisque DeepSearch gère le langage naturel, des requêtes comme « gloomy moody sky » (ciel maussade et sombre) sont donc comprises par le système.

Rappelons au passage que notre partenaire Progiss est revendeur des solutions Omniverse. Si vous souhaitez en savoir plus, vous pouvez les contacter par téléphone au 01 49 89 07 90 ou par mail : info@progiss.com.
Notez également que l’équipe Progiss est à votre disposition pour vous proposer des présentations des logiciels de la boutique, que ce soit dans leurs locaux (Roissy, à côté de Paris) ou dans les vôtres.

L’article Omniverse DeepSearch : ne triez plus vos assets, NVIDIA cherche pour vous ! est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Pixup Academy présente ses formations 3D en ligne

Par : Shadows — 9 août 2022 à 16:46
Temps de lecture : < 1 minute

La Pixup Academy nous présente ses formations en ligne destinées au secteur créatif.

Au programme : compositing sous Nuke, FX avec Houdini, photogrammétrie avec RealityCapture, Maya, ZBrush, Substance Painter, matchmoving ou encore Unreal Engine 5.

Autant de formations qui s’appuient à la fois sur des cours en ligne et en direct, mais aussi des exercices complémentaires réalisés par les élèves. A titre d’exemple, la formation Houdini nécessite environ 4 semaines de 30h de travail.
Les cours ont lieu en effectif réduit (une dizaine de personnes par classe), et il est possible de demander une prise en charge du financement par les organismes classiques : Pôle Emploi, Afdas, FIFPL, Agefice.

Outre ces formations, Pixup Academy propose également des ateliers plus courts, du consulting, de la formation d’entreprise et de la formation personnalisée (par exemple pour les personnes avec handicap, ou en fonction de votre emploi du temps).

Fondée par Yannick Lampasona, Pixup Academy dispose d’un site web qui vous donnera plus de détails.

L’équipe de formation Pixup Academy

L’article Pixup Academy présente ses formations 3D en ligne est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Unity et Microsoft, main dans la main dans le cloud

Par : Shadows — 9 août 2022 à 15:42
Temps de lecture : < 1 minute

Unity et Microsoft annoncent un nouveau partenariat : Unity va s’appuyer sur les services cloud de Microsoft (Azure) pour proposer de nouveaux services au secteur de la création.

En bref, il s’agira de proposer des outils ou service tirant parti des capacités du cloud en matière de stockage (par exemple pour des projets très lourds en données, comme les jumeaux numériques) ou de calcul (par exemple pour de la simulation).
Unity rappelle d’ailleurs que certains de ses produits s’appuient déjà sur le cloud sous une forme ou une autre : Unity Game Services, Parsec, DevOps, Wētā Digital, Digital Twins, PIXYZ, Unity Headless Rendering, etc.

Nous suivrons évidemment les annonces à venir concernant les conséquences de cette nouvelle. Notons enfin que Unity et Microsoft ont déjà annoncé des partenariats stratégiques par le passé : il s’agit donc de la poursuite d’une collaboration de longue date.

L’article Unity et Microsoft, main dans la main dans le cloud est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Open Review Initiative : cap vers l’open source pour Autodesk, DNEG, Sony #SIGGRAPH2022

Par : Shadows — 9 août 2022 à 14:43
Temps de lecture : 2 minutes

L’Academy Software Foundation (ASWF),  fondation dédiée aux projets open source liés aux secteurs du cinéma et du divertissement, annonce au SIGGRAPH le lancement d’un nouveau projet centré sur la revue de projet et nommé Open Review Initiative.
Plusieurs entités majeures apportent leur contribution : Autodesk, les studios DNEG et Sony Pictures Imageworks.

Un Comité pour les unifier tous

L’objectif du projet est simple : travailler sur la mise en place d’un système d’outils open source unifié pour le playback et le reviewing de médias liés au secteur du cinéma (et donc, notamment, de vidéos, séquences d’images), utilisable tout au long de la production.

Autodesk, DNEG et Sony Pictures Imageworks apportent du code déjà en place : Autodesk rend RV open source, DNEG fait de même avec son outil xSTUDIO, et enfin Sony Pictures ImageWorks verse une partie de l’écosystème itView.
De quoi éviter de réinventer la roue, et réutiliser des briques déjà éprouvées en production.

Rappelons au passage que RV est issu d’un rachat d’Autodesk auprès de Tweak Software, en 2015 ; la technologie avait ensuite été intégrée au sein de la solution de gestion de production ShotGrid. Autodesk indique que cette nouvelle n’est pas à voir comme un abandon, et que l’éditeur compte bien continuer à assurer le support commercial de RV, via l’écosystème ShotGrid.

Quelles étapes ?

Le Technical Steering Committee (TSC), comité en charge de chapeauter l’initiative, aura fort à faire : tout en se focalisant sur le playback dans un premier temps, le but sera de faire converger graduellement les trois sources de code afin d’aboutir à un framework cohérent et moderne, capable de gérer à la fois la revue et l’approbation des contenus.
En pratique, le comité sera composé à la fois d’employés des trois entreprises qui contribuent et d’ingénieurs, utilisateurs de l’industrie.
Les personnes intéressées et souhaitant contribuer au projet peuvent d’ailleurs consulter la page « getting involved » de l’ASWF.

Pour l’heure, aucune roadmap précise n’est annoncée : il faudra donc patienter et suivre les avancées du projet dans les mois à venir.

L’outil RV d’Autodesk

L’article Open Review Initiative : cap vers l’open source pour Autodesk, DNEG, Sony #SIGGRAPH2022 est apparu en premier sur 3DVF.

☐ ☆ ✇ 3dvf.com - Actualité quotidienne

Interview : Nexus VI épisode 8, les coulisses d’un crash

Par : Shadows — 8 août 2022 à 22:53
Temps de lecture : 6 minutes

L’an passé, nous vous avions proposé une interview très détaillée sur les coulisses de Nexus VI épisode 7 : des effets impressionnants créés pour une chaîne Youtube traitant de science-fiction au travers d’une émission elle-même mise en scène dans un vaisseau spatial.
L’artiste Romain Toumi avait porté l’essentiel des effets de cet épisode riche en combats spatiaux, épaulé par une poignée d’autres artistes.

Pour l’épisode 8, sorti plus tôt cet été, nous vous proposons une nouvelle nouvelle interview plus légère. Au menu : crash de vaisseau, giclées de sang, astéroïdes dans le ciel, stations de ski à supprimer, et évolution du côté logiciel avec Blender 3.0 !

Attention, l’article dévoile évidemment des éléments de l’intrigue, y compris dans ses visuels d’illustration : si vous n’avez pas vu l’épisode 8 et que vous souhaitez conserver la surprise, regardez d’abord la vidéo ci-dessous avant de poursuivre votre lecture.

Profitons-en aussi pour rappeler que vous pouvez suivre 3DVF sur YoutubeTwitterInstagramLinkedInFacebook.

3DVF : Bonjour Romain ! Dans cet épisode 8, on retrouve évidemment des assets de l’épisode précédent : vaisseau, capsule de survie… A-t-il été nécessaire de les modifier pour les besoins de l’épisode, ou les as-tu réutilisés tels quels ?

Romain Toumi : Oui, ils ont dû subir quelques modifications, le vaisseau a une dizaine de versions pour le crash.
Je ne pouvais techniquement pas faire une version évolutive et ultra détaillée, c’était du cas par cas pour chaque plans étant donné les choses qui doivent êtres déformées ou manquantes d’un plan à l’autre, et suivant le point de vue et la distance de la caméra.

Nexus VI
Nexus VI
Nexus VI

Le dernier plan du crash était complexe parce que le vaisseau termine relativement proche de la caméra tout en ayant énormément de déformation et d’interaction physique avec en plus un environnement complexe. Il fallait donc optimiser et mettre du détail uniquement où il fallait, sans compter la simulation de la poussière qui pèse très lourd en temps de calcul. Il y a eu énormément d’optimisations et de triche pour que Blender/Cycles puisse l’encaisser.

Nexus VI

La capsule de survie a eu quelques modifications pour ajouter le fait qu’elle soit entrée dans l’athmosphère puis un crash, et permettre à la caméra d’être très proche. Il fallait ajouter du détail dans la géométrie, du displacement, certains objets déformés etc, et faire l’intérieur qui n’était pas fait pour l’épisode 7.

Nexus VI

3DVF : La suite de l’épisode contient une sonde volante : quelques mots à son sujet ?

Cette petite boule peut paraître très clairement inspirée de Wheatley dans Portal 2, mais ce n’était pas forcément volontaire au départ.
Pendant la pré-production, il fallait créer cet objet en vrai pour les besoins du tournage, il a été fait assez rapidement et avec des moyens du bord, avec une balle en mousse comme structure principale et quelques diverses pièces en plastique et en bois autour !

Nexus VI

Je l’ai ensuite entièrement reproduite en 3D pour les plans ou elle doit être « vivante » et voler, la boule réelle servait uniquement pour les plans de manipulation par les méchants et le crash.

Au fur et à mesure de sa reproduction j’ai réfléchi à la manière de lui faire faire des expressions et de la mettre en scène en suivant les premières idées du réalisateur. Etant donné qu’il y a juste un œil central, il fallait jouer avec les paupières pour donner de l’expression. J’ai ajouté des antennes et quelques mouvements « à la Transformers » pour son déploiement et le tour est joué.

J’ai beaucoup triché avec les paupières en les déformant pour la rendre plus méchante par exemple.

Nexus VI
Nexus VI

3DVF : Des combats sont aussi présents, avec tirs et sang qui gicle… Sur ce genre d’effet, on peut évidemment aller du discret au gore, en passant par l’exagération cartoon. Quels ont été les échanges en interne sur le style à adopter, et comment as-tu créé ces effets ?

Sur les combats je n’ai pas fait grand-chose. L’explosion de la tête est réelle, c’est l’œuvre de Lucie Schosseler notre spécialiste des effets pratiques sur le terrain.

Les tirs et le sang qui gicle, c’est des effets très simples avec des stockshots.

En ce qui concerne le style, c’est de l’improvisation !

Nexus VI
Nexus VI

3DVF : Le ciel comporte aussi des effets qui contribuent à l’ambiance, avec des astéroïdes. Peux-tu nous en dire plus ?

C’est simple, partout où il y’avais du ciel, il fallait ajouter des astéroïdes, et donc trouver un moyen de tracker, même si il n y’avait rien de prévu pour ça, au moment du tournage on l’avait pas anticipé.

C’était parfois complexe pour pas grands chose, mais ça participe à l’immersion. Parfois il fallait ajouter aussi des nuages ou de la montagne.

Nexus VI

3DVF : La météo en montagne étant changeante, as-tu eu des problèmes de raccord d’un plan à l’autre ? Et l’équipe a-t-elle eu quelques surprises durant le tournage ?

Oui mais ça a globalement été réglé avec un peu d’étalonnage et quelques triches au moment du tournage.

Nexus VI

3DVF : Y a-t-il eu des effets « invisibles », par exemple des villages, chemins ou autres éléments qui étaient visibles sur les plans filmés et qu’il a fallu supprimer ?

Oui il y en a pleins ! On a tourné principalement dans les Alpes ou il y’avais des stations de ski, des touristes, des télésièges et lignes électriques, des routes et maisons bien sûr, et même l’équipe de tournage a dû être effacée sur des plans drone par exemple. Il fallait tracker et mettre des pansements faits au préalable sur Photoshop.

Nexus VI

3DVF : Concernant le pipeline, y a-t-il eu des évolutions par rapport à l’épisode 7 ? As-tu basculé sur Blender 3.x ? Pour le moteur rendu, es-tu resté sur le mix Cycles et E-Cycles ?

Effectivement une mise à jour s’imposait, l’épisode 7 a été géré avec la version 2.93, je suis passé a la version 3.0 pour profiter des dernières nouveautés comme Cycles X, j’ai bien sur mis à jour mes addons et j’ai fait une build personnalisée avec mes features.

3DVF : Quel bilan tires-tu de cet épisode ? Et as-tu déjà commencé le travail sur la suite ?

La post-production de cet épisode a été plus longue que prévu, notamment à cause du crash.

L’épisode 9 est en cours de post-production, j’y travaille actuellement et il y’aura des choses spectaculaires !

Nexus VI
Ci-dessus et ci-dessous : les crédits VFX
Nexus VI

Pour en savoir plus

L’article Interview : Nexus VI épisode 8, les coulisses d’un crash est apparu en premier sur 3DVF.

❌