Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

SIGGRAPH 2022 : Pixar, Epic Games, mocap, VFX… Retrouvez toutes nos interviews vidéo !

Par : Shadows

Cet été, l’équipe 3DVF était au SIGGRAPH, le plus gros salon mondial sur la 3D et l’infographie en général. Nous en avons proposé pour interviewer différentes entreprises et studios. Toutes nos vidéos de l’évènement sont désormais en ligne, voici donc un récapitulatif afin que vous puissiez découvrir les vidéos que vous auriez manquées !
Les vidéos sont chapitrées, vous trouverez sous chacune d’entre elles le timing des différents sujets évoqués.

Et au passage, n’hésitez pas à vous abonner à notre chaîne Youtube.

Epic Games : quel avenir pour le metaverse et USD ?

Marc Petit, Vice-Président en charge de l’écosystème Unreal Engine chez Epic Games, nous a donné sa vision du chemin parcours par Unreal Engine depuis 2017, avant d’évoquer le fameux metaverse : quelle vision de ce futur ? Qu’apporte-t-il ? Pourquoi le format USD (Universal Scene Description) est-il sur toutes les lèvres au SIGGRAPH 2022, et quels défis seront à relever ? Enfin, il a évoqué avec nous la manière dont Epic gère les rachats d’entreprises et technologies : quels sont les enjeux pour que cette croissance externe se passe au mieux et ne débouche pas sur la mort d’un produit prometteur ?

0:00 – Introduction & chemin parcouru
0:35 – Annonces au SIGGRAPH ?
1:07 – Metaverse
2:02 – USD : vers un standard unique ?
2:40 – SIGGRAPH & metaverse
2:56 – gestion des rachats externes

Pixar : cap sur USD et RenderMan 25

Nous avons pu échanger avec Steve May, CTO de Pixar, pour discuter des dernières améliorations de RenderMan (nouveau denoiser, XPU), de la manière dont Pixar transforme la recherche en fonctionnalités utilisables par les clients RenderMan. Nous avons aussi abordé USD: est-ce vraiment la clé du Metaverse, comme l’affirment des entreprises comme Epic Games et NVIDIA? USD est-il prêt pour ce rôle, quel chemin reste-t-il à parcourir? Et comment Pixar et d’autres entreprises peuvent-elles travailler ensemble pour l’améliorer ?
Steve May nous a aussi donné sa vision de NVIDIA Omniverse, et nous a expliqué comment l’équipe Pixar exploite les innovations présentées au SIGGRAPH.

00:00 – Intro
01:44 – nouveau denoiser dans RenderMan
02:12 – Du projet de recherche à la sortie dans RenderMan
02:48 – XPU remplacera RIS
04:09 – USD, clé du Metaverse?
04:46 – créer un film Pixar se rapproche du Metaverse
05:41 – calques USD
06:38 – Limitations de USD?
07:44 – Contributions externes
08:29 – Une équipe USD renforcée
09:03 – Omniverse chez Pixar?
10:28 – SIGGRAPH 2022 – bilan
11:56 – Adoption de nouvelles technologies

Autre rencontre : Dylan Sisson, de l’équipe marketing des studios Pixar. Il présente régulièrement les conférences des studios Pixar sur RenderMan, sur des évènements comme le Festival d’Annecy et le SIGGRAPH. Il nous présente la future version 25 du moteur de rendu, et ses principales améliorations.

00:00 – Intro
00:14 – RenderMan 25
00:25 – nouveau denoiser par IA
00:55 – nouveaux looks, rendu stylisé
01:42 – Mises à jour XPU
02:24 – Version non-commerciale
02:50 – Avis sur NVIDIA Omniverse ?

Hypertec : un bain pour votre matériel

L’équipe d’Hypertec nous a fait découvrir ses solutions de travail distant, de cloud mais aussi et surtout ses technologie de refroidissement par immersion, que l’entreprise présente comme un moyen de rendre le secteur Media & Entertainment plus durable.

00:00 – Introduction
01:14 – Refroidissement par immersion
02:01 – Pourquoi SIGGRAPH?
02:42 – Consommation énergétique
03:27 – « On peut appliquer ce que l’on promeut »
03:41 – Pourquoi Hypertec?
04:16 – « Des économies tout en étant durable »

D’Alien Resurrection à L’Age de Glace, rencontre avec Steve Talkowski

Nous avons pu interviewer Steve Talkowski et revenir sur 35 années de carrière. Il a évoqué pour nous l’aube de l’industrie de l’animation 3D et des effets visuels, SIGGRAPH dans les années 80, la naissance des studios Blue Sky. Il a évoqué son travail sur des films comme « Bienvenue chez Joe » (1996), « Alien : La Résurrection » (1997), « L’Age de Glace » (2002). Il a aussi abordé l’utilisation des outils de l’époque, comme Softimage, et donné des conseils pour les jeunes artistes.

00:00 – Intro
00:32 – Débuts
02:23 – Rhonda Graphics
02:48 – SIGGRAPH 1987, Pixar
03:54 – Blue Sky
04:34 – Origines de Blue Sky: « Tron »
05:06 – « Bienvenue chez Joe » et ses cafards numériques
05:17 – Softimage
07:06 – « Alien : La Résurrection »
08:50 – Court-métrage « Bunny »
09:57 – Croissance du studio pour « L’Age de Glace »
10:44 – Layout sur « L’Age de Glace »
12:11 – licenciements chez Blue Sky
13:04 – Hornet
13:22 – freelancing, Sketchbot
13:38 – SIGGRAPH 2022
14:03 – astuces, Blender, UE

RISE : USD et coulisses de Matrix Resurrections

L’équipe du studio RISE a échangé avec nous sur leur adoption de USD et leur travail sur Matrix Resurrection, The Last Voyage of Demeter.
(la qualité de la captation sonore est perfectible, n’hésitez pas à activer les sous-titres, disponibles en français et anglais).

00:00 – Intro
00:13 – Pipeline USD Pipeline: raisons, Solaris/Houdini
01:48 – déploiement et réactions des artistes
04:03 – NVIDIA Omniverse chez RISE?
05:01 – AI, deep learning chez RISE ?
05:53 – Futur de USD?
06:48 – USD: conseils aux studios?
08:10 – USD & workflows VFX
09:04 – Matrix Resurrections
09:37 – Inspiration de Matrix I, II, III
10:07 – ville, drone
10:56 – Slow-motion & retiming
11:31 – Sati/Construct
12:07 – remplacement de visage/Lola/échange d’assets
12:38 – The Last Voyage of The Demeter
13:03 – distanciel vs hybride
15:05 – SIGGRAPH 2022

La motion capture, un secteur en mouvement

StretchSense nous a présenté leur solution de motion capture de mains et doigts: gants MoCap pro, pipeline dédié avec le Hand Engine, intégration avec des solutions tierces comme Unity, Unreal Engine, Xsense, Vicon.

La société danoise Rokoko présentait ses solutions de motion capture. Jakob Balslev, fondateur et dirigeant, nous a dévoilé les dernières annonces de l’entreprise et ce que Rokoko prépare pour l’avenir. Il a aussi donné des chiffres et informations sur les utilisateurs de Rokoko, évoqué une possible intégration NVIDIA Omniverse, expliqué en quoi 2022 était « l’année de la motion capture » pour SIGGRAPH. Enfin, il a évoqué les nouvelles solutions de mocap par vision informatique, sans marqueurs, qui font leur apparition : des outils reposant sur l’IA comme Plask.ai et Skinetix.

00:00 – 3 axes
00:30 – Technologies: IMUs / EMF
01:04 – Annonce !
01:17 – Avenir de la bibliothèque
01:53 – Clients
02:39 – NVIDIA Omniverse?
03:07 – SIGGRAPH
03:26 – « L’année de la motion capture »
03:52 – Mocap par caméra, sans marqueurs

Intel : ARC Pro, IA, rendu

Enfin, nous avons discuté avec Intel de leurs dernières annonces, technologies et partenariats, des GPUs ARC Pro au rendu et au denoising en passant par la VR ou l’IA.

00:00 – Introduction
00:14 – Pourquoi des cartes graphiques?
00:30 – Annonce ARC Pro
00:45 – Denoising, rendu, augmentation de résolution…
01:40 – VR: First Man, Le Musk
02:10 – Stratégie pour les GPUs

L’article SIGGRAPH 2022 : Pixar, Epic Games, mocap, VFX… Retrouvez toutes nos interviews vidéo ! est apparu en premier sur 3DVF.

RenderMan, USD, recherche, metaverse: notre interview de Steve May, CTO de Pixar !

Par : Shadows

Durant le SIGGRAPH 2022, nous avons pu échanger avec Steve May, CTO de Pixar, pour discuter des dernières améliorations de RenderMan (nouveau denoiser, XPU), de la manière dont Pixar transforme la recherche en fonctionnalités concrètes utilisables par les clients RenderMan.

Nous avons aussi abordé USD: est-ce vraiment la clé du Metaverse, comme l’affirment des entreprises comme Epic Games et NVIDIA? USD est-il prêt pour ce rôle, quel chemin reste-t-il à parcourir? Et comment Pixar et d’autres entreprises peuvent-elles travailler ensemble pour l’améliorer ?

Steve May nous a également donné sa vision d’Omniverse, et nous a expliqué comment l’équipe Pixar exploite les innovations présentées au SIGGRAPH.

Des sous-titres français et anglais sont disponibles.
Les différents chapitres sont indiqués sous la vidéo.
Enfin, n’hésitez pas à vous abonner à notre chaîne pour ne pas manquer nos prochaines interviews, tests, reportages !

01:44 nouveau denoiser dans RenderMan
02:12 Du projet de recherche à la sortie dans RenderMan
2:48 XPU remplacera RIS
04:09 USD, clé du Metaverse?
04:46 créer un film Pixar se rapproche du Metaverse
05:41 calques USD
06:38 Limitations de USD?
07:44 Contributions externes
8:29 Une équipe USD renforcée
09:03 Omniverse chez Pixar?
10:28 SIGGRAPH 2022 – bilan
11:56 Adoption de nouvelles technologies

L’article RenderMan, USD, recherche, metaverse: notre interview de Steve May, CTO de Pixar ! est apparu en premier sur 3DVF.

SIGGRAPH 2022 : le retour des entreprises françaises !

Par : Shadows

Chaque année, le SIGGRAPH dispose d’un pavillon France : une initiative portée par des pôles de compétitivité comme CAP Digital. Le principe est de louer un gros stand au coeur du salon, puis de proposer aux entreprises de réserver de petits espaces sur celui-ci. De quoi permettre aux sociétés françaises de faire le déplacement à moindre frais et en bénéficiant d’une bonne visivilité.

L’initiative n’a pas pu être reproduite cette année en raison de différents facteurs, mais la France était tout de même au rendez-vous avec des stands individuels. Nous avons justement croisé une partie de ces exposants cet été, afin de prendre la température sur cette édition 2022.
Quelle est leur vision du SIGGRAPH 2022 ? Pourquoi avoir choisi d’exposer ? La réponse avec 5 entreprises.

TechViz

TechViz se spécialise dans la visualisation VR/AR à destination des professionnels, en particulier du côté CAO (conception assistée par ordinateur), avec plus de 200 logiciels supportés comme Catia, Navisworks, NX.
L’équipe vient sur le SIGGRAPH depuis 2007 (exception faite des années 2020-21), une évidence pour eux : le SIGGRAPH est l’occasion parfaite de croiser tous les acteurs du secteur de la visualisation 3D.

Par rapport à 2019, une des plus grosses évolutions pour TechViz est la possibilité de streamer du contenu VR à l’aide de la solution CloudXR de NVIDIA. Une petite révolution, nous a indiqué l’équipe, qui facilite énormément le la collaboration multisites et les échanges de données CAD en direct.

Ci-dessous : démonstration de collaboration multi-sites. A partir de 2:46, plusieurs personnes interviennent sur les mêmes données 3D, dans deux lieux différents.

4DViews

4DViews, spécialiste de la capture volumétrique que nous avons pu interviewer plus tôt dans l’année (voir vidéo -ci-dessous), a souligné que le salon est véritablement revenu en force, là où d’autres conférences de ces derniers mois étaient encore timides en termes d’affluence. « Business is back », a souligné Richard Boradbridge, qui a également insisté sur la diversité des stands et des conférences techniques / scientifiques.

4DViews sur le salon Virtuality, au printemps 2022

Ranch Computing, la 3D dans les nuages

Nous avons aussi pu croiser l’équipe Ranch Computing, bien connu pour ses solutions de rendu CPU/GPU dans le cloud.
Ranch était satisfait de retrouver la foule du salon, et d’avoir l’occasion de suivre les évolutions du marché. L’équipe nous a par exemple expliqué avoir suivi avec attention une conférence axée production virtuelle qui traitait des murs de LED, avec la gestion de la calibration des objectifs et de la colorimétrie, ou le fait qu’il est parfois nécessaire de re-rendre de manière classique les décors en postproduction. En cause, le fait que la qualité en temps réel n’est pas toujours suffisante pour un projet. Un point qui a évidemment intéressé de près Ranch Computing, puisque cela signifie que les solutions de rendu classique trouvent leur place même dans des pipelines résolument axés temps réel..

Showreel animation 2022 – projets ayant fait appel à Ranch Computing

Exaion

Evoquons aussi brièvement Exaion, autre société spécialisée dans le cloud qui venait pour la première fois sur le SIGGRAPH. En collaboration avec Daregraphics et Progiss (partenaire de 3DVF), Exaion mettait en avant ses solutions cloud qui permettent aux studios de disposer de stockage et de stations distantes. Progiss proposait des démonstrations de NVIDIA Omniverse, l’idée étant de permettre aux studios d’utiliser la plateforme de NVIDIA dans le cloud, sans avoir à gérer son installation localement.
Les retours autour d’Omniverse semblent avoir été très bons, de gros studios d’effets visuels se montrant intéressés par la plateforme : un engouement en partie dû au fait qu’Omniverse permet de passer à USD et de servir d’interface entre différents logiciels sans avoir à développer des outils maison.

Golaem

On ne présente plus Golaem, dont les solutions de simulation de foules ont fait leurs preuves.

Si l’équipe venait à Vancouver retrouver des clients que l’entreprise n’avait pas pu croiser depuis le début de la pandémie, il s’agissait aussi de conquérir de nouveaux marchés.

Et justement, la production virtuelle, la VR s’intéressent désormais à ce type d’outil, sans forcément connaître Golaem jusqu’ici. Même chose du côté du deep learning : la demande étant ici non pas de créer des foules pour des films à effets visuels, mais pour entraîner des IA.
Autant de clients potentiels pour Golaem.

L’équipe a aussi profité du salon pour assister à des conférences, comme les making-of ou les présentations NVIDIA Omniverse. Leur but est notamment de suivre les tendances du marché : par exemple, pour Omniverse, l’intégration d’USD par Golaem permettra à ses solutions logicielles d’interagir avec l’écosystème NVIDIA sans trop de difficultés.

La dernière bande démo de Golaem

Cap sur 2023

Vous l’aurez compris : les entreprises françaises étaient satisfaites de pouvoir retrouver le salon.
Si fréquentation n’a pas encore retrouvé le volume des plus grandes années (avec environ 117 000 personnes en physique contre 18700 en 2019), le choix de Vancouver au lieu de Los Angeles explique en partie ce chiffre.

L’enthousiasme était au rendez-vous, et le SIGGRAPH a permis à de nombreux acteurs de l’industrie de la création de retrouver les forces du salon : mise en avant des tendances technologiques, de nombreuses démos de logiciels et de matériel, des conférences riches et variées, et surtout l’opportunité d’échanger avec des personnes du monde entier.
Pour l’édition 2023, on peut s’attendre à un retour du Pavillon France, et donc à encore plus d’entreprises françaises ; nous aurons l’occasion de vous en parler le moment venu.

L’article SIGGRAPH 2022 : le retour des entreprises françaises ! est apparu en premier sur 3DVF.

CGWhy : entre USD, IA et Omniverse, les sujets phares du SIGGRAPH 2022

Par : Shadows

Un nouvel épisode du podcast CGWhy est en ligne ! Au programme, le SIGGRAPH et les sujets phares de cette édition 2022. Metaverse, USD, Omniverse, motion capture sont abordés, de même que l’IA et ses usages artistiques avec les nouveaux outils de génération d’images.
Le tout, avec la participation d’un membre de l’équipe 3DVF.

Vous trouverez sur la page de l’épisode des liens pour vous abonner sur les plateformes de podcast, ainsi que des liens et ressources pour en savoir plus sur les sujets évoqués, ou encore la marche à suivre pour soutenir l’équipe du podcast via un don.

Ne manquez pas également l’épisode précédent du podcast, qui évoquait lui aussi le SIGGRAPH.

L’article CGWhy : entre USD, IA et Omniverse, les sujets phares du SIGGRAPH 2022 est apparu en premier sur 3DVF.

StretchSense, la motion capture au bout des doigts – SIGGRAPH 2022

Par : Shadows

Au SIGGRAPH 2022, StretchSense nous a présenté leur solution de motion capture de mains et doigts: gants MoCap pro, pipeline dédié avec le Hand Engine, intégration avec des solutions tierces comme Unity, Unreal Engine, Xsense, Vicon.

Une solution à découvrir dans notre nouvelle vidéo ; n’hésitez d’ailleurs pas à vous abonner à notre chaîne Youtube!

L’article StretchSense, la motion capture au bout des doigts – SIGGRAPH 2022 est apparu en premier sur 3DVF.

L’année de la motion capture au SIGGRAPH: Rokoko nous dévoile ses annonces !

Par : Shadows

La motion capture était un sujet phare du SIGGRAPH 2022, qui se tenait début août à Vancouver.
De nombreuses entreprises avaient fait le déplacement, comme la startup française Kinetix que nous avions interviewée avant le salon, mais aussi comme Rokoko, entreprise danoise spécialisée dans la motion capture abordable.
Ici, pas de systèmes se chiffrant en dizaines, centaines de milliers d’euros. Pas non plus d’installation complexe : selon le produit, il suffit d’enfiler une combinaison, des gants, d’allumer son iPhone… Ou de télécharger des données !

Jakob Balslev, fondateur et dirigeant, nous a dévoilé les dernières annonces de l’entreprise et ce que Rokoko prépare pour l’avenir. Egalement au menu, des chiffres concrèts sur le marché, ou encore l’émergence de la motion capture avec une caméra unique.
Des sous-titres français et anglais sont disponibles, et vous trouverez le sommaire sous la vidéo.

Nous en profitons également pour vous inviter à vous abonner à notre chaîne Youtube si ce n’est pas déjà fait.

00:00 – 3 axes pour Rokoko
00:30 – Technologies: IMUs / EMF
01:04 – Annonce !
01:17 – Avenir de la bibliothèque
01:53 – Clients
02:39 – NVIDIA Omniverse : avis, intégration ?
03:07 – SIGGRAPH 2022
03:26 – « L’année de la motion capture »
03:52 – Mocap par caméra, sans marqueurs : l’avenir ?

Pour en savoir plus :

L’article L’année de la motion capture au SIGGRAPH: Rokoko nous dévoile ses annonces ! est apparu en premier sur 3DVF.

RenderMan 25 : Pixar nous dévoile les nouveautés en interview

Par : Shadows

Durant le SIGGRAPH 2022, nous avons pu échanger avec Dylan Sisson, de l’équipe marketing des studios Pixar. Il présente régulièrement les conférences des studios Pixar autour de RenderMan, sur des évènements comme le Festival d’Annecy et le SIGGRAPH, et participe au développement du moteur. Enfin, il est aussi le créateur et designer des fameuse « teapots », les théières que Pixar distribue

Il nous dévoile ici le contenu de la future version 25 du moteur de rendu, et ses principales améliorations.

00:00 – Introduction
00:14 – RenderMan 25
00:25 – nouveau denoiser par IA
00:55 – nouveaux looks, rendu stylisé
01:42 – Mises à jour XPU
02:24 – Version non-commerciale
02:50 – Avis sur NVIDIA Omniverse ?

N’hésitez pas à vous abonner à notre chaîne Youtube : d’autres interviews vidéo sont en approche !

Pour plus d’informations :

  • RenderMan, la version gratuite à usage non commercial ;
  • Progiss (partenaire de 3DVF) est revendeur officiel RenderMan pour la France, le moteur est donc disponible dans la boutique 3DVF.fr. Vous pouvez contacter Progiss par téléphone au 01 49 89 07 90 ou par mail : info@progiss.com

L’article RenderMan 25 : Pixar nous dévoile les nouveautés en interview est apparu en premier sur 3DVF.

Les produits AWS Thinkbox désormais gratuits (Deadline, Draft, Krakatoa, Frost, XMesh, Sequoia, Stoke)

Par : Shadows

Amazon profite du SIGGRAPH pour faire un cadeau au secteur créatif. Les outils Deadline, Draft, Krakatoa, Frost, XMesh, Sequoia, Stoke deviennent gratuits.

Rappelons les usages de ces produits :

  • Deadline est une solution de gestion de rendu ;
  • Krakatoa permet de rendre des effets volumétriques et est compatible Max, Maya, Cinema4D ou en moteur de rendu de particules standalone ;
  • Frost permet de créer des meshes à partir de particules, et est compatible 3ds Max ;
  • Sequoia est une solution de traitement et meshing de nuages de points ;
  • Stoke se destine à la simulation de particules sous 3ds Max ;
  • XMesh permet d’accélérer le temps de chargement des scènes comportant des assets animés et supporte Max, Maya ou encore Nuke.

Ces outils sont issus du rachat de l’éditeur Thinkbox Software par AWS (la branche cloud d’Amazon) en 2017, Thinkbox Software devant au passage AWS Thinkbox.

5 ans plus tard, la gamme logicielle AWS Thinkbox est donc mise à disposition gratuitement. Vous pouvez les télécharger depuis la page dédiée chez AWS Thinkbox, sur la console AWS. Plus de précisions sont disponibles chez AWS, notamment si vous possédez déjà des licences.

Quel avenir ?

Bien évidemment, ce genre d’annonce peut causer quelques craintes : quand un éditeur donne gratuitement son logiciel, cela peut signifier un arrêt du développement.
Ici, AWS insiste sur le fait que son plan est de continuer à supporter ces produits, avec des équipes dédiées. Nous suivrons évidemment de près les futures mises à jour.

L’article Les produits AWS Thinkbox désormais gratuits (Deadline, Draft, Krakatoa, Frost, XMesh, Sequoia, Stoke) est apparu en premier sur 3DVF.

USD, la clé du metaverse ? Interview de Marc Petit – Epic Games #SIGGRAPH2022

Par : Shadows

A l’occasion du SIGGRAPH 2022, nous avons pu interviewer Marc Petit, Vice-Président en charge de l’écosystème Unreal Engine chez Epic Games.

Il nous a donné sa vision du chemin parcours par Unreal Engine depuis 2017, évoqué la présence d’Epic au SIGGRAPH, avant d’évoquer le fameux metaverse : quelle vision de ce futur ? Qu’apportera le metaverse ? Pourquoi le format USD est-il sur toutes les lèvres au SIGGRAPH 2022, et quels défis seront à relever ?
Enfin, il a évoqué avec nous la manière dont Epic gère les rachats d’entreprises et technologies : quels sont les clés pour que cette croissance externe se passe au mieux et ne débouche pas sur la mort d’un produit prometteur ?

N’oubliez pas de vous abonner à notre chaîne Youtube : d’autres interviews et vidéos sont en approche !

0:00 – Introduction & chemin parcouru
0:35 – Annonces au SIGGRAPH ?
1:07 – Metaverse
2:02 – USD : vers un standard unique ?
2:40 – SIGGRAPH & metaverse
2:56 – gestion des rachats externes

L’article USD, la clé du metaverse ? Interview de Marc Petit – Epic Games #SIGGRAPH2022 est apparu en premier sur 3DVF.

Performance capture : pour Disney, la barbe n’est plus un problème

Par : Shadows

L’équipe Disney Research profite comme chaque année du SIGGRAPH pour présenter ses dernières avancées technologiques.
La publication Facial Hair Tracking for High Fidelity Performance Capture a retenu notre attention : de la performance capture sans rasage !

Le fil du rasoir, un passage obligé par le passé

En effet, jusqu’ici les pipelines de production typiques ne géraient pas la pilosité faciale. Les techniques de reconstruction 3D et tracking sont pensées pour des surfaces classiques, pas pour des poils fins et avec de l’occlusion.

On demandait donc aux acteurs de raser barbe et moustache avant une séance de capture, ce qui peut poser de multiples problèmes, de la star refusant de modifier son apparence aux obligations pour d’autres films : on se souvient des reshoots de Justice League avec Henry Cavill, contractuellement obligé de garder sa moustache pour le film Mission Impossible: Fallout qu’il tournait en même temps. Et plus globalement, cette contrainte imposait de faire la performance capture en amont ou aval du tournage, mais pas pendant.
Bref : il s’agissait d’une contrainte forte.

Notons que les sourcils cachent également une partie du visage : une solution gérant les barbes et moustaches pourrait donc être utile même pour les visages fraîchement rasés.

Une capture au poil

C’est ici qu’intervient le projet de recherche Disney, la première méthode de performance capture faciale capable de fonctionner avec pilosité faciale.

Pour y parvenir, Disney adopte une approche qui passe par la division de la capture en deux parties qui viennent se rejoindre :

  • la reconstruction et le tracking de la peau du visage, avec une estimation approximative des zones masquées par la pilosité ;
  • la reconstruction de la pilosité elle-même (en partant d’une une pose neutre) puis son tracking ;
  • on tire de ces deux éléments un résultat amélioré.
Crédit : Facial Hair Tracking for High Fidelity Performance Capture

En pratique, le tracking de la peau et de la pilosité sont couplés et traités en alternance, avec de multiples étapes d’affinage : le tracking des poils permet d’améliorer la précision du tracking de la peau en rajoutant une contrainte puisque les poils sont forcément implantés sur la peau : ils ne peuvent ni flotter ni être « dans » la peau.
L’image ci-dessous donne une idée des effets de cet affinage : en bas à gauche, l’estimation initiale du visage et des poils reconstruits, à en bas à droite le résultat affiné.

Les couleurs sur le visage de droite donnent une idée de l’ampleur de la différence entre la version brute et la version affinée (jusqu’à 5mm de décalage).
Crédit : Facial Hair Tracking for High Fidelity Performance Capture

La vidéo de présentation donne une idée des résultats, plutôt convaincants même si les poils ne sont pas toujours trackés à la perfection.

Enfin, Disney souligne que son pipeline permet d’éditer la barbe ou la moustache : en modifiant le style ou la longueur de la pilosité en pose neutre évoquée plus haut, on va pouvoir répercuter ces changements sur toute la performance. Des exemples sont visibles en fin de vidéo (4 minutes 34).
Autrement dit, on peut transformer un bouc en moustache, rendre une barbe plus fournie, épaissir ou affiner une moustache. Ou, bien entendu, supprimer totalement barbe et moustache.
De quoi faire rêver les studios confrontés face à des situations similaires à celles vécue par Henry Cavill.

Et après ?

Comme toujours en recherche, des limitations sont présentes, et des améliorations possibles. On citera par exemple le fait que Disney n’a pas fait de tests sur de très grandes barbes, qui masqueront davantage le visage. Ou encore le fait que la méthode risque de donner de mauvais résultats si la couleur de la peau et des poils sont trop proches, par exemple avec une peau et une barbe noires.

Même si Disney ne l’évoque pas, on peut également se demander si ce type d’approche ne pourrait pas permettre d’améliorer la motion capture d’animaux, comme des chats et chiens. Une piste à explorer pour le SIGGRAPH 2023, qui sait ?

Pour en savoir plus

On trouvera chez Disney la publication complète avec plus de détails sur la méthode, sa mise en application et ses limites.
Facial Hair Tracking for High Fidelity Performance Capture est une publication de Sebastian Winberg (DisneyResearch|Studios/ETH Zurich), Gaspard Zoss (DisneyResearch|Studios/ETH Joint PhD), Prashanth Chandran (DisneyResearch|Studios/ETH Joint PhD), Paulo Gotardo (DisneyResearch|Studios), Derek Bradley (DisneyResearch|Studios).

L’article Performance capture : pour Disney, la barbe n’est plus un problème est apparu en premier sur 3DVF.

Du plasma pour vos étoiles numériques

Par : Shadows
Temps de lecture : 3 minutes

De nombreux films, séries ont mis en scène des étoiles vues de très près. On pourra citer Sunshine (2007), Passengers (2016).
Représenter une étoile en gros plan est un défi, surtout si l’objectif est de mettre en scène la turbulente atmosphère de ces astres.
La couronne de notre soleil, par exemple, zone la plus externe de son atmosphère, présente une apparence fibreuse en raison de plasma éjecté dans l’espace, qui forme des filaments influencés par le champ magnétique. Ces éléments donnent des plans mémorables au cinéma, avec des étoiles à la texture riche et complexe. On trouve évidemment ce même type d’effet dans des jeux vidéo, ou pour de la visualisation scientifique.

Sunshine (2007)
Passengers (2016)

Au SIGGRAPH 2022, la publication Filament Based Plasma propose une nouvelle approche pour produire ce genre de résultat.
Le projet de recherche propose de modéliser ces effets de plasma à l’aide de filaments sous forme de courbes mathématiques, dont la configuration initiale peut être créée artistiquement ou générée de façon procédurale. L’équipe explique qu’une simple map de la surface de l’étoile, définissant le flux magnétique, permet de contrôler artistiquement l’effet.

En bas, la map créée par un artiste pour définir le flux magnétique. En haut le résultat final.

Dans les deux cas, des équations issues de la physique sont ensuite utilisées pour déterminer la forme des filaments, mais aussi pour calculer la lumière émise (effet de glow). Le rendu est effectué sous Houdini à l’aide de Mantra.

Nous éviterons ici de trop nous focaliser sur la technique sous-jacente (la publication complète, Filament Based Plasma, vous donnera plus de détails sur le plan physique et mathématique). Nous nous concentrerons plutôt sur la qualité du résultat d’un point de vue artistique, et sa proximité avec le réel. Et justement, l’équipe propose quelques comparaisons :

  • Au milieu, le champ magnétique solaire durant une éclipse totale. A droite, la méthode de la publication.
  • Images obtenues avec la méthode de la publication (« ours ») et images réelles (« footage ») capturées dans les longueurs d’ondes UV et rayons X.
  • Au centre, images réelles capturées le 21 octobre 2011 ; à droite un rendu obtenu avec la méthode proposée.

La vidéo de présentation, visible ci-dessous, montre plus de résultats, y compris avec des animations.

Si la méthode n’est pas temps réel, les temps de calcul restent très raisonnables : moins d’une minute pour les plans du soleil complet de la vidéo en 1080p et sur un Ryzen 7 5800X CPU, sachant que l’équipe souligne que l’essentiel des calculs pourraient être parallélisés sur GPU.

Filament Based Plasma est un projet de recherche présenté par Marcel Padilla (TU Berlin), Oliver Gross (TU Berlin), Felix Knöppel (TU Berlin), Albert Chern (UC San Diego), Ulrich Pinkall (TU Berlin), Peter Schröder (Caltech).

L’article Du plasma pour vos étoiles numériques est apparu en premier sur 3DVF.

MoonRay, le moteur de rendu de DreamWorks, devient open source !

Par : Shadows
Temps de lecture : 2 minutes

A l’occasion du SIGGRAPH 2022, DreamWorks Animation annonce que son moteur de rendu MoonRay va être mis à disposition en open source d’ici la fin de l’année.

MoonRay a été utilisé sur des films d’animation tels que Les Bad Guys, Les Croods 2, Dragons 3 : Le Monde Caché et le futur Le Chat potté 2 : la dernière quête (prévu pour la fin de l’année, et pour lequel nous vous proposerons bientôt une interview).

Sur le plan technique, MoonRay fait du raytracing Monte Carlo. Il comporte une librairie de matériaux physiques utilisés en production, un USD Hydra render delegate, gère le rendu multi-stations et le rendu dans le cloud via le framework de calcul distribué Arras (lui aussi inclus dans le code qui sera rendu open source), explique DreamWorks.
Le studio ajoute que MoonRay permet à la fois de faire du rendu photoréaliste et stylisé, qu’il propose un mode pixel matching XPU : en clair, les rayons lors du rendu peuvent être traités sur GPU et CPU en parallèle.
MoonRay s’appuie par ailleurs sur plusieurs technologies d’Intel, comme Embree et sa librairie dédiée au raytracing, ou le système de compilation ISPC. Le rendu de hair, fur a lui aussi été développé en collaboration avec Intel.

MoonRay sera proposé sous licence Apache 2.0 sur un site dédié. Nous vous tiendrons informés de sa mise à disposition ; d’ici là, nous vous invitons à regarder la vidéo ci-dessous, proposée par DreamWorks, qui met en avant les principales qualités de ce moteur de rendu.

L’article MoonRay, le moteur de rendu de DreamWorks, devient open source ! est apparu en premier sur 3DVF.

Avec sa démo Lion, Unity dévoile son avenir

Par : Shadows
Temps de lecture : < 1 minute

Unity présente au SIGGRAPH 2022 sa nouvelle démo technologique : Lion.

Cette démo temps réel combine différentes technologies du groupe : les outils Wētā Digital rachetés fin 2021, SpeedTree, Ziva, SyncSketch et l’Editor de Unity ont été employés.
Unity avance que la démo tourne à 30fps en 4K sur une PS5, mais ne permet pour le moment pas de le vérifier : il faudra vous contenter d’une vidéo, aucun téléchargement n’est disponible à ce stade.

Initialement, Lion était une démo non téemps réel mise au point par des élèves de la Monster Emporium Animation School, avec des lions créés grâce aux outils de Ziva VFX qui permet de simuler muscles et tissus mous. Unity a mis à jour cette démo pour la rendre temps réel, grâce notamment au système de déformations en machine learning de Ziva RT. Ces déformations sont exécutées dynamiquement dans le nouveau Ziva RT Unity player lancée en preview durant le SIGGRAPH 2022.
La démo s’appuie également sur la végétation de l’outil SpeedTree, ainsi que sur Wig, l’outil de hair et fur de Wētā Digital actuellement en pré-alpha.
Unity explique que le rendu et la simulation améliorés du hair visibles dans cette démo seront disponibles dans la version 2023.1 Tech Stream.

Enfin, l’équipe étant répartie dans différents pays, l’outil de collaboration SyncSketch a été indispensable pour mener à bien le projet.

L’article Avec sa démo Lion, Unity dévoile son avenir est apparu en premier sur 3DVF.

Comment Pixar améliore la diversité de ses personnages

Par : Shadows
Temps de lecture : 6 minutes

Ces dernières années, les studios Pixar ont fait plusieurs pas en direction d’une plus grande diversité dans leurs films d’animation. Une démarche qui se traduit derrière la caméra (Alerte rouge de Domee Shi est le premier des films du studio entièrement réalisé par une femme) mais aussi devant la caméra, avec des films d’animation tels que Soul, Alerte Rouge.

Au SIGGRAPH 2022, Pixar nous en dit un peu plus sur la manière dont cette volonté se traduit au sein du processus créatif, jusque dans les personnages secondaires, avec un outil dédié et une réflexion sur plusieurs années.

Soul et biais inconscients

Durant la production de Soul, le studio voulait coller à la réalité des quartiers de New York représentés à l’image : l’idée était que l’on verrait dans les foules et personnages d’arrière-plan 80 % de personnes issues de minorités (Afro-Américains, latinos, personnes d’origine asiatique, etc) et 50 % d’hommes et de femmes. Une bibliothèque de personnages correspondant à cette volonté fut donc créée. De cette manière, les foules générées aléatoirement auraient les bonnes proportions.
En pratique cependant, pour les personnages d’arrière-plan choisis manuellement, la même répartition était très différente : selon les calculs fait manuellement par l’équipe, sur les trois premières séquences entamées au début de la production, on trouvait 50 % de personnes issues de minorités, 70 % d’hommes.

Cela posait deux problèmes :

  • une diversité très inférieure à la direction artistique voulue, et absolument pas représentative des quartiers bien réels qui inspiraient le film ;
  • une partie des personnages se trouvaient utilisés bien trop souvent : 20 % d’entre eux étaient visibles 50 % du temps.

Un biais inconscient de la part des équipes avait donc fait dériver l’objectif, mais ces statistiques permirent d’ajuster le tir et, sur l’ensemble du film, on trouve 80 % de minorités, 48 % d’hommes, 52 % de femmes, un résultat quasi identique à la volonté de départ.

Pour Pixar, la conclusion était claire : disposer de statistiques automatisées aurait été d’une grande aide afin que l’équipe puisse, si elle le souhaitait, disposer d’éléments concrets pour contrer d’éventuels biais inconscients.

Soul
Crédit : Disney-Pixar

Ce type de réflexion n’est pas nouveau, comme l’explique l’équipe dans la présentation dévoilée au SIGGRAPH : des entités et initiatives ont déjà montré l’intérêt de mesurer la diversité, comme le Geena Davis Institute on Gender in Media, la Netflix + USC Annenberg Inclusion Initiative. La seconde a par exemple permis de souligner que la présence de rôles féminins parlants au sein des films les plus populaires aux USA était d’environ 34 % seulement en 2019, un chiffre stable depuis 10 ans. Les statistiques montrent par exemple que la part de femmes réalisatrices varie du simple au triple selon le studio : une analyse étant alors de voir dans ces disparités le reflet de choix et biais de recrutement, conscients ou non, et non pas un supposé déficit de femmes réalisatrices compétentes.

Reste à voir comment faire évoluer la situation. Dans sa présentation, Pixar souligne que comme un petit nombre de studios domine le box-office, ceux-ci ont un rôle potentiel énorme sur les représentations vues par le public.
Plutôt que d’attendre que les rapports évoqués plus haut soient mis à jour, une fois que les films sont sortis, les gros studios qui souhaitent plus de diversité dans leurs projets peuvent par conséquent choisir d’agir en amont, pendant la création des films.

Characater Linker : le chaînon manquant vers plus de diversité ?

D’où l’idée de mettre en place un outil au sein du pipeline de Pixar permettant de mesurer la diversité en prenant en compte tous les personnages d’un film donné, appelé Character Linker.

Character Linker
Character Linker
Crédit : Disney-Pixar

Ci-dessus à gauche, l’outil affiche tous les personnages du film.
À droite, les personnages de la séquence sélectionnée.
En bas, des statistiques sur leur répartition dans différentes catégories : genre, ethnicité, âge, morphologie, etc.
L’affichage des statistiques peut se faire sous forme de camembert mais aussi de barres : dans ce cas, Character Linker affiche aussi, s’il y en a, l’objectif ciblé pour le film.

On peut par exemple utiliser l’outil pour ajuster les personnages d’une scène. Une cour d’école manque de jeunes filles ? Il suffit alors de cliquer sur les parts de camembert « young » et « female », afin d’afficher à gauche les personnages de la bibliothèque qui correspondent, puis sélectionner un ou plusieurs de ces personnages et les ajouter à la séquence. Les statistiques de la scène sont ajustées en temps réel.
Character Linker gère aussi les « lineups » de personnages : des groupes précis comme, pour reprendre l’exemple de Pixar, des personnes travaillant sur un chantier visible dans le film.
Il est également possible de visualiser ces chiffres à l’échelle d’un plan, d’un acte du film, ou du film entier.
Mieux encore : une fois les personnages placés dans une scène, on peut disposer de chiffres sur leur temps effectif de présence à l’écran, mais aussi sur leur visibilité à l’image (un personnage distant ou coupé par le cadre est moins visible qu’un personnage en gros plan).
Enfin, les métadonnées OTIO (OpenTimelineIO) issues des dialogues audio permettent d’avoir des chiffres sur le temps de parole des personnages et groupes de personnage.

En coulisses, Character Linker s’appuie sur quatre étapes :

  • le tagging des personnages ;
  • l’identification, plan par plan, de la présence des personnages et de leur degré de visibilité ;
  • l’agrégation des données ainsi générées ;
  • leur visualisation.

Du côté technique, Pixar explique que l’identification se fait via une base de données tenue à jour lors du traitement des plans de la production, grâce à l’analyse des fichiers USD de ces plans (pour chaque frame, on calcule quels personnages sont visibles, et leur degré de visibilité dans l’image). L’usage d’USD plutôt que de faire des rendus finalisés permet de traiter plus rapidement les scènes.
L’agrégation va ensuite consister à récupérer ces données, les condenser pour en tirer les statistiques voulues. Elle se fait chaque nuit.

Mise en pratique avec Alerte Rouge

Le film Alerte Rouge a été l’occasion d’utiliser Character Linker. La réalisatrice Domee Shi avait le sentiment que l’école de l’héroïne, censée se situer dans le Chinatown de Toronto, ne collait pas à la réalité : il y avait trop peu d’élèves ayant des origines en Asie orientale, et elle en voulait deux fois plus. Character Linker a permis à l’équipe crowds d’analyser les personnages, et de constater que 20 % des élèves étaient originaires d’Asie orientale. Ils ont alors ajusté quelques groupes clés de personnages qui avaient une forte présence à l’écran, et ce taux est passé à plus de 40 %. Le résultat, approuvé par la réalisatrice, aida à valider l’utilité de Character Linker, qui avait donc permis d’agir rapidement et efficacement pour coller à la vision artistique du projet.

Alerte Rouge et son école.
Crédit : Disney-Pixar

Quelles pistes pour l’avenir ?

Pixar explique que si Character Linker est utile, son outil mérite tout de même des améliorations.
Par exemple, la visibilité à l’écran pourrait être affinée : un personnage au centre de l’écran ou mis en valeur par l’éclairage a plus d’impact qu’un personnage dans un coin sombre de l’écran. Les techniques de machine learning pourraient aider à pondérer la visibilité par cet impact plus ou moins grand qu’ont les pixels aux yeux des spectateurs.
En outre, les assets sont régulièrement personnalisés sur certains plans : Pixar donne l’exemple de fauteuils roulants, souvent ajoutés à la main et non pas présents dans les assets de départ. Pouvoir les suivre par des statistiques serait sans doute utile.

Pixar souligne également que son système a des limites et fait face à des défis. Il est évidemment difficile de l’appliquer dans certains contextes comme les films avec des personnages non humains. De plus, la diversité ne se limite pas à l’apparence des personnes : elle peut aussi passer par le storytelling, comme l’a montré le couple du très récent Buzz L’Eclair (voir notre interview du réalisateur et de la productrice, qui évoque cet aspect de diversité).
Par ailleurs, appliquer des labels implique des choix qui ne sont pas neutres : on peut définir des catégories plus ou moins large, en choisissant par exemple de créer un label « Asie orientale » ou de scinder par zone géographique/pays (Japon, Chine, Corée…). Sans compter les personnes ayant des origines mixtes.

En clair : il convient de rester très prudent face à ces outils, qui ne sont pas une solution miracle applicable aveuglément. Les catégories étudiées, les tags utilisés sont susceptibles d’évoluer d’un film à l’autre et doivent être questionnés au fil des projets et du temps.

Enfin, l’équipe du projet explique avoir eu des craintes au départ : ce type d’approche peut générer controverses et critiques. Mais les personnes du studio ont rapidement accueilli l’initiative positivement. Character Linker a été vu comme un moyen de disposer de plus d’informations pour faire de meilleurs films, pas comme un outil de contrôle ou d’accusation.

Pour en savoir plus, une publication est disponible chez Pixar, en accès libre. Si vous disposez d’une accréditation SIGGRAPH 2022, vous pouvez voir la présentation vidéo du projet, plus détaillée.

Character Linker est présenté au SIGGRAPH 2022 par Paul J. Kanyuk, Mara MacMahon, Emily Wilson, Peter Nye, Jessica Heidt, Joshua Minor des studios Pixar, Gordon Cameron d’Epic Games.

Pour aller plus loin

  • Vous pouvez suivre 3DVF sur YoutubeTwitterInstagramLinkedInFacebook.
  • Ci-dessous, notre interview d’Angus MacLane et Galyn Susman de Pixar, sur Buzz L’Eclair : à partir de 1 minute 20, l’équipe discute du personnage d’Alisha et de la question de la diversité et sa représentation à l’écran.

L’article Comment Pixar améliore la diversité de ses personnages est apparu en premier sur 3DVF.

NVIDIA allège vos données volumétriques : NeuralVDB, le futur d’OpenVDB ?

Par : Shadows
Temps de lecture : 2 minutes

NVIDIA dévoile au SIGGRAPH la technologie NeuralVDB, présentée comme le moyen « d’amener la puissance de l’IA dans OpenVDB ».

OpenVDB est pour rappel une librairie informatique largement utilisée dans les effets visuels et l’animation pour la simulation et le rendu de données volumétriques. OpenVDB comporte à la fois une structure de données et des outils.
En bref, donc : OpenVDB est un élément indispensable pour les simulations d’eau, feu, fumée en animation et effets visuels.

NeuralVDB propose de faire évoluer ce standard, avec à la clé des gains séduisants : jusqu’à 100 fois moins de mémoire utilisée, ce qui est un atout majeur étant donné la place imposante souvent demandée par les simulations.
Il devient donc possible de travailler sur des simulations plus lourdes, ou de les manipuler sur des stations de travail bien moins puissantes.

En outre, NeuralVDB s’appuie aussi sur les avancées de la librairie NanoVDB, présentée l’an passé par NVIDIA et qui permettait d’apporter de l’accélération GPU au sein d’OpenVDB, avec des gains de performances suffisants (selon NVIDIA) pour permettre d’envisager de la simulation et du rendu en temps réel.

Plus léger, plus rapide, NeuralVDB permet par ailleurs d’utiliser les données d’une frame pour la suivante. NVIDIA explique que cela permet d’accélérer l’entraînement par 2, et d’apporter de la cohérence temporelle. En clair, vous aurez moins besoin d’effets tels que le motion blur pour obtenir un résultat satisfaisant.

Reste désormais à voir si NeuralVDB débarquera dans nos outils, et quand. L’adoption ne devrait pas rencontrer de gros freins techniques, selon NVIDIA, qui explique avoir pensé NeuralVDB pour assurer la compatibilité avec les pipelines VDB existants. Le groupe promet une beta « bientôt » : nous suivrons donc ce dossier de près.
Si vous le souhaitez, une page dédiée chez NVIDIA permet de s’inscrire pour recevoir les futures annonces liées à cette technologie.

L’article NVIDIA allège vos données volumétriques : NeuralVDB, le futur d’OpenVDB ? est apparu en premier sur 3DVF.

Omniverse DeepSearch : ne triez plus vos assets, NVIDIA cherche pour vous !

Par : Shadows
Temps de lecture : < 1 minute

NVIDIA profite du SIGGRAPH pour officialiser l’arrivée de DeepSearch dans Omniverse Enterprise.

Derrière cet outil se cache une promesse simple : utiliser l’IA pour effectuer des recherches dans des bibliothèques d’assets, sans avoir à les tagger.

Pour les studios d’animation, effets visuels ou encore de jeux vidéo, l’intérêt est évident : ne plus avoir à s’infliger le travail fastidieux de classement et ajout de tags, mais aussi pouvoir réutiliser des assets qui n’avaient jamais été correctement triés et soigneusement rangés dans une bibliothèque.

DeepSearch est donc désormais disponible dans la version Enterprise (payante) d’Omniverse.
NVIDIA en profite pour montrer ce que donne DeepSearch en pratique chez ILM. Le studio explique en vidéo comment DeepSearch lui permet d’explorer sa collection massive de photos d’environnements avec ciel, qui ont été prises aux quatre coins du monde. Puisque DeepSearch gère le langage naturel, des requêtes comme « gloomy moody sky » (ciel maussade et sombre) sont donc comprises par le système.

Rappelons au passage que notre partenaire Progiss est revendeur des solutions Omniverse. Si vous souhaitez en savoir plus, vous pouvez les contacter par téléphone au 01 49 89 07 90 ou par mail : info@progiss.com.
Notez également que l’équipe Progiss est à votre disposition pour vous proposer des présentations des logiciels de la boutique, que ce soit dans leurs locaux (Roissy, à côté de Paris) ou dans les vôtres.

L’article Omniverse DeepSearch : ne triez plus vos assets, NVIDIA cherche pour vous ! est apparu en premier sur 3DVF.

Unity et Microsoft, main dans la main dans le cloud

Par : Shadows
Temps de lecture : < 1 minute

Unity et Microsoft annoncent un nouveau partenariat : Unity va s’appuyer sur les services cloud de Microsoft (Azure) pour proposer de nouveaux services au secteur de la création.

En bref, il s’agira de proposer des outils ou service tirant parti des capacités du cloud en matière de stockage (par exemple pour des projets très lourds en données, comme les jumeaux numériques) ou de calcul (par exemple pour de la simulation).
Unity rappelle d’ailleurs que certains de ses produits s’appuient déjà sur le cloud sous une forme ou une autre : Unity Game Services, Parsec, DevOps, Wētā Digital, Digital Twins, PIXYZ, Unity Headless Rendering, etc.

Nous suivrons évidemment les annonces à venir concernant les conséquences de cette nouvelle. Notons enfin que Unity et Microsoft ont déjà annoncé des partenariats stratégiques par le passé : il s’agit donc de la poursuite d’une collaboration de longue date.

L’article Unity et Microsoft, main dans la main dans le cloud est apparu en premier sur 3DVF.

Open Review Initiative : cap vers l’open source pour Autodesk, DNEG, Sony #SIGGRAPH2022

Par : Shadows
Temps de lecture : 2 minutes

L’Academy Software Foundation (ASWF),  fondation dédiée aux projets open source liés aux secteurs du cinéma et du divertissement, annonce au SIGGRAPH le lancement d’un nouveau projet centré sur la revue de projet et nommé Open Review Initiative.
Plusieurs entités majeures apportent leur contribution : Autodesk, les studios DNEG et Sony Pictures Imageworks.

Un Comité pour les unifier tous

L’objectif du projet est simple : travailler sur la mise en place d’un système d’outils open source unifié pour le playback et le reviewing de médias liés au secteur du cinéma (et donc, notamment, de vidéos, séquences d’images), utilisable tout au long de la production.

Autodesk, DNEG et Sony Pictures Imageworks apportent du code déjà en place : Autodesk rend RV open source, DNEG fait de même avec son outil xSTUDIO, et enfin Sony Pictures ImageWorks verse une partie de l’écosystème itView.
De quoi éviter de réinventer la roue, et réutiliser des briques déjà éprouvées en production.

Rappelons au passage que RV est issu d’un rachat d’Autodesk auprès de Tweak Software, en 2015 ; la technologie avait ensuite été intégrée au sein de la solution de gestion de production ShotGrid. Autodesk indique que cette nouvelle n’est pas à voir comme un abandon, et que l’éditeur compte bien continuer à assurer le support commercial de RV, via l’écosystème ShotGrid.

Quelles étapes ?

Le Technical Steering Committee (TSC), comité en charge de chapeauter l’initiative, aura fort à faire : tout en se focalisant sur le playback dans un premier temps, le but sera de faire converger graduellement les trois sources de code afin d’aboutir à un framework cohérent et moderne, capable de gérer à la fois la revue et l’approbation des contenus.
En pratique, le comité sera composé à la fois d’employés des trois entreprises qui contribuent et d’ingénieurs, utilisateurs de l’industrie.
Les personnes intéressées et souhaitant contribuer au projet peuvent d’ailleurs consulter la page « getting involved » de l’ASWF.

Pour l’heure, aucune roadmap précise n’est annoncée : il faudra donc patienter et suivre les avancées du projet dans les mois à venir.

L’outil RV d’Autodesk

L’article Open Review Initiative : cap vers l’open source pour Autodesk, DNEG, Sony #SIGGRAPH2022 est apparu en premier sur 3DVF.

OptiTrack to Preview Motive 3.1 at SIGGRAPH 2022

At SIGGRAPH 2022, 3D tracking systems provider OptiTrack will preview Motive 3.1, the latest iteration of its robust motion tracking software featuring ‘Trained Marketsets.’ With the new feature, OptiTrack systems will enable users to track flexible and dynamic objects beyond biped skeletons, such as quadrupeds, fabric, ropes, and even trampolines, and do so with industry-leading […]

The post OptiTrack to Preview Motive 3.1 at SIGGRAPH 2022 appeared first on Broadcast Beat.

L’équipe 3DVF sera au SIGGRAPH 2022

Par : Shadows
Temps de lecture : < 1 minute

Du 8 au 11 août, l’édition 2022 du SIGGRAPH se tiendra à Vancouver, au Canada. Comme chaque année, on y retrouvera annonces du secteur 3D, innovations techniques, publications scientifiques novatrices, projets artistiques surprenants.

L’équipe 3DVF sera sur place pour couvrir le salon et vous proposer articles, interviews, vidéos durant le salon et dans les semaines qui suivront : N’oubliez pas de nous suivre sur les réseaux (YoutubeTwitterInstagramLinkedInFacebook) pour ne rien rater de notre couverture du salon.

Si vous comptez aller sur place, n’hésitez pas à nous contacter si vous souhaitez échanger avec nous et nous présenter vos annonces et nouveautés !

D’ici là, voici les aperçus vidéo postés par l’équipe SIGGRAPH, avec un aperçu des différents programmes.

L’article L’équipe 3DVF sera au SIGGRAPH 2022 est apparu en premier sur 3DVF.

SIGGRAPH 2022 : Exaion présente ses solutions cloud

Par : Shadows
Temps de lecture : 3 minutes

L’entreprise française Exaion sera cet été au SIGGRAPH 2022 (du 8 au 11 août à Vancouver), et y montrera ses solutions cloud pour les studios d’animation et effets visuels.
Filiale d’EDF, Exaion fournit des services dédiées pour l’industrie 2D/3D, grâce à des partenariats avec deux entreprises déjà spécialisées dans ce domaine. La vision d’Exaion: permettre aux indépendants et petites/moyennes structures de devenir des « entreprises étendues », avec une offre 100% numérique, collaborative et évolutive. L’idée étant par exemple de permettre à l’équipe d’un studio de collaborer avec des freelances et d’autres studios partenaires au sein d’un même espace numérique. Et puisque les services sont évolutifs, un studio peut renforcer ponctuellement son stockage en ligne ou sa puissance de calcul si un projet le nécessite.

A l’approche du SIGGRAPH, Exaion fait une double annonce.

Exaion se déploie en Amérique du Nord

Exaion nous explique que selon eux, beaucoup de studios adopteront Omniverse, la plateforme de collaboration temps réel dans le cloud de NVIDIA. Celle-ci permet pour rappel de partager des données, travailler sur des projets 3D et jumeaux numériques, ou encore de développer des outils spécifiques. Exaion se penche donc sur le sujet et veut déployer Omniverse sur ses serveurs, de façon à ce que les studios disposent d’une solution clés en mains, sans avoir à gérer d’installation fastidieuse.

Pour y parvenir, Exaion a formé un partenariat avec deux sociétés déjà bien implantées dans le secteur de la création numérique :

  • Progiss, partenaire de 3DVF et société française spécialisée dans les solutions logicielles, matérielles, les services à destination des studios créatifs, des artistes freelance ou encore des écoles d’animation/effets visuels/jeux vidéo ;
  • Daregraphic, société spécialisée dans les remote graphics située à Montréal.

Concrètement, Progiss et Daregraphic vont aider Exaion à déployer Omniverse, mais aussi aider les studios à définir leurs besoins avant de basculer vers cette plateforme, et les aider à faire la bascule. Exaion explique que son objectif est de faire en sorte que les clients se concentrent sur leur coeur de métier, Exaion/Progiss/Daregraphic gérant la maintenance et la partie technique.

Cette offre, qui sera donc notamment disponible en France, pourra peut-être faciliter l’adoption d’Omniverse, d’autant que les entités de petite/moyenne taille n’ont pas forcément le temps ou les ressources nécessaires pour gérer la partie technique d’un tel système : la déléguer a donc du sens. Cela pourra aussi inciter des studios à tester Omniverse sans risque pour voir si l’outil répond à leur besoin : ces derniers mois, nos échanges autour d’Omniverse avec différentes entreprises du secteur montraient clairement qu’un travail d’évangélisation est encore nécessaire pour convaincre les studios à faire le saut.

Exaion donnera plus de détails sur ces sujets durant le SIGGRAPH 2022.

Des solutions cloud bientôt disponibles en Amérique du Nord

Jusqu’à présent, les studios d’Exaion étaient localisés en France, puisque leur maison mère est EDF. L’entreprise ne proposait donc pas de services cloud hors Europe.

Mais Exaion veut évidemment se développer dans l’industrie créative dans son ensemble. Elle annonce donc qu’une branche canadienne est en préparation, avec un datacenter qui sera installé à Montréal, au Canada.

Exaion précise qu’un premier datacenter d’interconnexion entre l’Europe et l’Amérique du Nord (nom de code: QC0) sera mis en service en août. Il servira de base arrière aux datacenters d’Exaion. L’étape suivante aura lieu en septembre, avec la mise en service d’un premier datacenter à Montréal. Exaion disposera donc de serveurs fonctionnels pour Omniverse à la rentrée.

Exaion au SIGGRAPH : les informations pratiques

Pour plus d’informations sur Exaion et leurs solutions cloud, vous pouvez visiter le stand #1119 durant le SIGGRAPH, et consulter leur site. Exaion partagera son stand avec ses deux partenaires : Progiss pour les clients en France/Europe que vous pouvez contacter par e-mail, Daregraphic pour l’Amérique du Nord qui dispose d’une page contact. Vous pouvez les contacter si vous souhaitez planifier un rendez-vous durant le SIGGRAPH.

Précisons enfin que 3DVF sera au SIGGRAPH 2022 en tant que partenaire média officiel. N’oubliez pas de nous suivre sur les réseaux (YoutubeTwitterInstagramLinkedInFacebook) pour ne rien rater de notre couverture du salon, et n’hésitez pas à nous contacter si vous souhaitez échanger sur place!

L’article SIGGRAPH 2022 : Exaion présente ses solutions cloud est apparu en premier sur 3DVF.

Les Larmes de la Seine : un court Pôle 3D au sujet poignant

Par : Shadows
Temps de lecture : 10 minutes

Ces dernières années, les élèves de l’école Pôle 3D nous ont proposé des courts-métrages de fin d’études aux sujets forts et variés. Après Migrants en 2020, qui avait reçu de multiples prix et sur lequel nous vous avions proposé une interview, Les larmes de la Seine a lui aussi droit à de nombreuses sélections et sera présenté cet été durant le SIGGRAPH 2022, dont 3DVF est partenaire : le film a même d’ores et déjà reçu le prix « Best in Show » du festival d’animation du SIGGRAPH.

Nous vous proposons d’en savoir plus sur ce film au travers de sa bande-annonce et d’une interview de son équipe.

Le 17 Octobre 1961, les “travailleurs algériens” de France décident de manifester pacifiquement dans les rues de Paris contre le couvre-feu qui leur a été imposé par la préfecture de police.

Réalisation : Yanis BELAID, Eliott BENARD, Nicolas MAYEUR, Etienne MOULIN, Hadrien PINOT, Lisa VICENTE, Philippine SINGER and Alice LETAILLEUR
Musique: Ibrahim Maalouf, Pierre-Antoine Naline, Luis Galceran
Sound Design: Lisa Vicente
Final Mix: Thomas Rouvillain, Nextsoundlab
Distribution: Patrick De Carvalho – Je Regarde

3DVF : Bonjour à toute l’équipe, et merci d’avoir accepté de nous en dire plus sur Les Larmes de la Seine. Le court aborde un sujet fort : le 17 octobre 1961, une manifestation non déclarée mais pacifique de « travailleurs algériens » est organisée à Paris pour marquer le refus du couvre-feu imposé aux seules personnes originaires du Maghreb. Dans la nuit, la police française réprime très violemment cette manifestation, avec des estimations allant de 38 à plus de 200 morts selon les sources.
Des faits qualifiés de « sanglante répression » par François Hollande en 2012.
Pourquoi avoir choisi ce sujet ?

Yanis BELAID : Je suis issu de l’immigration algérienne et polonaise en France, cet événement fait partie de moi puisque ma famille, notamment mon grand père Mohammed Belaid, me parlait souvent de la guerre d’Algérie notamment dans le nord.
J’avais vraiment l’envie profonde de parler de ce sujet.
Lorsque j’ai proposé l’idée du film, ce qui fût le plus surprenant était que la plupart des personnes du groupe n’étaient même pas au courant que cet événement avait eu lieu, bien qu’il ne soit vieux que de 60 ans.
Ce constat fait écho au sein du groupe : il fallait faire découvrir ce bout d’histoire au nombre encore trop grand de personnes n’étant pas au courant.

3DVF : Quels étaient vos rôles respectifs sur le film ?

L’équipe Les Larmes de la Seine : Bien que la plupart des membres avaient plusieurs casquettes sur le projet, l’équipe était séparée en 3 groupes : la team animation, la team art et la team tech.
Dans la team animation nous avions Eliott en position de lead anim, ainsi que Philippine et Alice en animation.
Dans la team art nous avions Yanis en position de lead, avec Lisa et Hadrien en lighting compositing.
Et l’ensemble des tâches techniques de la team tech étaient réparties entre Nicolas et Etienne, avec notamment respectivement les FX / le tool dev / l’environnement modeling et le rig / la crowd simulation et le shot finalling.

3DVF : Le court nous présente le point de vue de Kamel, dont la caméra permet de suivre le déroulé de la soirée. Pourquoi avoir fait ce choix ?

La première partie du film se veut démonstrative, et la caméra embarquée s’y prêtait très bien car elle nous immerge dans la manifestation et retrace en globalité le parcours des travailleurs algériens. Cela a permis également de faire un gros travail sur le son, qui immerge le spectateur dans notre récit afin qu’il vive et ressente l’intensité de ce qu’il s’est passé au travers du film.
Le déroulé du film retrace le parcours qui a réellement été réalisé le soir de la manifestation, en montrant des points clés de la ville de Paris, autant dans l’esthétique que dans l’image. Nous avons voulu être le plus fidèle possible sur le déroulement des événements, la similitude avec l’environnement, et les actions qui se sont produites ce soir-là : c’est donc sur ça que nous avons axé nos recherches.

3DVF : A la troisième minute, le film bascule totalement lorsque le protagoniste, frappé par un coup de matraque, est jeté dans la Seine. La narration et la réalisation évoluent, mêlant le réel (l’usage de bus, les milliers de manifestants envoyés au Palais des Sport pour identification, où certains subiront des brutalités policières) et la fiction (un esprit festif, un concert dans lequel policiers et manifestants font la fête ensemble).
Pouvez-vous revenir sur cette décision artistique ?

Pour la deuxième partie du film, nous voulions continuer de raconter les événements du 17 octobre 1961 mais en amenant l’idée, notre vision, de communion. Il est très important de se souvenir de l’histoire de notre pays, d’accepter les zones sombres, pour bâtir le futur. Et cette fête, cette communion, est le symbole de cela.

3DVF : Plus largement, quelle a été votre réflexion sur la représentation de la violence et des faits, un sujet toujours délicat et aux réponses multiples ? On se souvient notamment de Funan de Denis Do, tout en retenue, Souvenir souvenir de Bastien Dubois (voir notre interview) qui mettait en scène des actes terribles de façon « frontale et cartoon », pour reprendre ses mots…
Comment avez-vous décidé quoi montrer, comment le montrer ? En particulier, comment avez-vous pensé la fin de la séquence du concert, avec le sang qui coule sur les danseurs ?

Nous ne voulions pas être accusateurs. Nous voulions montrer les faits. Faire connaître cet événement et donner envie aux gens de se renseigner sur cette nuit a été l’objectif principal de notre travail.
Montrer de la violence, pour montrer de la violence n’était pas notre but… Mettre de l’huile sur le feu sur un sujet aussi délicat et important, ne colle pas à notre objectif et au fond du film que l’on voulait mettre en scène.
Du coup, il a fallu doser et être habile avec ce que l’on montrait.

3DVF : Avez-vous eu des retours de la part de victimes survivantes, témoins, proches de personnes ayant vécu la manifestation ?

Parmi les retours que nous avons pu avoir sur le film, ceux qui sont les plus touchants sont souvent ceux provenant de personnes particulièrement touchées par ce sujet : des personnes issues de l’immigration, ayant de la famille, qui ont de près ou de loin vécue cette histoire ou des histoires similaires.
Durant certains festivals, certaines personnes sont venues juste pour nous dire merci.
Merci d’aborder cette thématique et cet événement. Cela prouve le besoin d’aborder des sujets comme celui-ci.

3DVF : Comment avez-vous abordé le character design puis la modélisation, le surfacing et le hair ? Quelles étaient vos intentions artistiques ?

Les recherches sur les personnages ont été la première étape dans notre recherche de stylisation du film, notamment au travers de la fabrication de notre personnage principal : Nabil.
Nous sommes partis directement dans la 3D, après avoir confectionné une banque de références provenant de la 3D ou la stop motion, afin de trouver le look et les intentions premières du visuel de nos personnages.
Nous avions comme intention de détacher le rendu visuel des propos que nous abordions; ce style puppet est adapté car il permet de traiter notre sujet sans être trop frontal, et il peut également être vu et assimilé par une tranche d’âge plus jeune. Une fois que le design était trouvé, le travail de surfacing et de hair à rapidement pu être mis en place. Dans la même démarche que le modeling, l’intention était de recréer des matières réelles, sur des références de stop motion et d’objets récupérés, en gardant une échelle de personnages miniatures.

3DVF : L’animation de la première partie évoque la stop-motion, ou peut-être plutôt le côté haché lié à la caméra utilisée par le personnage.
Quelques mots sur ce travail d’animation ? Avez-vous rencontré des difficultés ?

L’une des intentions principales du film était de retranscrire des mouvements de caméra réalistes, semblables aux images d’archives d’une caméra au poing. Nous avons pu pousser le détail de ces animations de caméra grâce à un outil fabriqué par Etienne, qui récupère les mouvements d’un boîtier à l’aide d’un gyroscope, afin qu’en animation nous ayons un contrôle total sur nos cadrages, que nous venons esthétiser dans Maya.
Pour l’animation des personnages, le but était d’avoir un style d’animation qui coulait avec le reste de la stylisation du film, nous voulions quelque chose qui semblait avoir été animé à l’aide de marionnettes et recréer ces petites imperfections. Toutefois, nous voulions quand même garder un style qui reste propre à la 3D et nous avons donc réalisé de nombreux tests avant d’arriver à ce résultat, qui mixe toutes ces intentions.
Comme le style final se rapproche du 12 fps, l’une des principales difficultés était liée au motion blur et aux simulations, car en ayant une image sur deux figée, cela créait des anomalies dans les calculs et rendait le tout très complexe. Nous avons donc affiné notre style d’animation pour que les images ne soient pas totalement fixes par rapport à la précédente, afin de simplifier les étapes suivantes dans la production tout en gardant
ce style qui est propre au film.

3DVF : Comment ont été mis en place les décors, avec les rues de Paris, les abords de la Seine ?

Pour fabriquer les décors de notre film, nous avons utilisé plusieurs méthodes. Tout d’abord le hard surface modeling pour les décors principaux, et au premier plan. Il permettait d’avoir un niveau de détail très poussé, en se basant sur de nombreuses références. Nous sommes restés les plus fidèles possible à l’esthétique des bâtisses parisiennes, que nous voulions reconnaissables au premier coup d’oeil, mais aussi au positionnement réel des endroits iconiques de la ville.
Pour les bâtiments du second plan, nous avons développé un système de bâtiment procédural, permettant à l’aide d’un plan au sol et de quelques paramètres, d’avoir n’importe quelle structure de bâtiment haussmannien en se basant sur les positions des bâtiments depuis une vue satellite.
Une fois ces décors placés, nous les avons habillés avec de nombreux props, modélisés en hard surface. Nous avons également, pour certains éléments importants, utilisé la photogrammétrie, qui consiste à photographier de nombreuses fois un objet à 360° pour le scanner, et venir le réintégrer en 3D. Cela nous a été utile notamment pour les bus et les camionnettes de police, que nous avions en modèle réduit, pour être le plus fidèle possible à ce style maquette miniature.

3DVF : Un très gros travail a été mené sur le lighting et la phase de rendu/compositing, avec des teintes fortes allant de l’orangé au bleu en passant par le rose, et une image traitée pour lui donner un grain, un côté ancien. Quels ont été les plans les plus délicats à gérer sur ces étapes ?
Comment avez-vous procédé ?

Les plans qui ont été les plus difficiles à gérer sont ceux de la partie sous l’eau au milieu du film, car ils permettent la transition entre les deux parties du film qui sont assez différentes dans le traitement de la lumière.
Il devait donc être assez équilibré pour mélanger ces deux ambiances opposées, tout en gardant cette crédibilité d’une ambiance sous-marine.
Nous avons donc dû tout d’abord gérer ce premier plan, dans lequel Nabil tombe dans l’eau, qui se compose de beaucoup d’aspects différents notamment les FX de splash et de bulle sous l’eau combinés avec quelques triches en compositing pour équilibrer le tout.
Puis la seconde difficulté à été de trouver la bonne direction pour la partie que l’on nomme « Upside down » qui met face à face les deux surfaces d’eau qui ont dû être homogénéisées, tout en gardant cet aspect de vide dans lequel Nabil se trouve.

3DVF : Comment avez-vous géré le concert, que ce soit en termes d’animation, de foules, de réalisation avec la gestion des ralentis et de l’effet de temps gelé ?

Pour cette partie du film nous avons basé notre mise en scène à partir de la musique d’Ibrahim Maalouf “True Sorry”, tout à été construit en fonction des différentes variation de la musique, ce qui nous a permis d’adapter la mise en place des plans en fonction de l’émotion transmise par la trompette d’Ibrahim Maalouf.
Pour ce qui est de la construction des plans, nous les avons séparés en différent layers, en fonction des besoins de chaque plan, avec des personnages au premier plans animés, un deuxième layer avec des animations utilisées et instanciées et offsetées, puis quand c’était nécessaire une dernière couche de crowd simulée en fond pour habiller l’image.
Pour la scène gelée, nous voulions la fabriquer comme une fresque, en se concentrant sur les petites scénettes avec Nabil pour venir ajouter par la suite tous les ingrédients qui la rendent crédible, comme les confettis par exemple, car figer de la 3D peut vite paraître étrange, alors il fallait ajouter des éléments dynamiques pour crédibiliser le tout.

3DVF : Quelques mots également sur les FX ?

Nous nous sommes imposé de nombreux défis dès le début de la production des Larmes de la Seine, certains d’entre eux été liés aux effets spéciaux, nous devions notamment créer une foule dense et cohérente, et nous avons effectué un important travail sur les fluides dans le film.
Tous les effets du film ont été réalisés sur Houdini Fx.
Pour créer une large foule il nous a fallu constituer une grande banque d’animation.
Nous avons simulé une partie de la foule, mais nous avons aussi simulé des petits groupes de foule que les animateurs pouvaient utiliser et placer à la main et ainsi travailler la composition de l’image au plan par plan.
Nous avons réalisé plusieurs types d’effets différents, des fluides et des fumées.
Comme pour le reste du film, nous avons développé ensemble l’aspect graphique des effets. Le sang qui coule sur la foule en liesse dans la scène de fin du film a été un défi autant sur le plan technique qu’esthétique.

Nous avons donc anticipé ces étapes très tôt ce qui a permis à la team Fx de relever les défis qui s’offraient à eux.

3DVF : La pandémie a-t-elle eu un impact sur la production ? Par exemple en termes de travail à distance, de communication ?

Forcément la pandémie n’a pas aidé au bon développement de notre petit bébé. Le film a été fabriqué en très grande partie en télétravail. La conception du film a duré 2 ans, et nous avons pu revenir dans notre école les 5 derniers mois. Je ne vous cache pas que ces 5 mois étaient du sport! Mais c’est ça qu’on aime et ce fut que du bonheur.

3DVF : Quel bilan tirez-vous de ce projet ?

Honnêtement ? Que du bonheur.
Travailler sur un sujet comme celui-là, qui nous tenait tous à coeur, avec des personnes humainement exceptionnelles, un kiff.
Il y a eu des moments difficiles forcément, notamment durant les différents confinements. Mais honnêtement c’était que du bonheur et on a la chance que notre histoire commune continue à travers les festivals.
C’est que le début!
Pour finir, merci à 3DVF pour l’attention que vous portez à notre travail!

Making-of vidéo du court-métrage

Pour en savoir plus

  • Les larmes de la Seine sera visible cet été au SIGGRAPH 2022, dans le Computer Animation Festival’s Electronic Theater.
    Vous pouvez réserver vos accréditations en physique ou hybride sur le site officiel, et il est possible de s’accréditer pour l’Electronic Theater uniquement si vous le souhaitez.
  • Un article sur le 17 octobre 1961 sur Wikipedia.

L’article Les Larmes de la Seine : un court Pôle 3D au sujet poignant est apparu en premier sur 3DVF.

❌