Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

SIGGRAPH 2021 : Comment éliminer les biais et tendre vers une recherche graphique antiraciste?

Par : Shadows

A l’occasion du SIGGRAPH 2021, Theodore Kim (ex Senior Scientist chez Pixar, désormais professeur à l’Université de Yale) a abordé la thématique des biais au sein de la recherche graphique.

Comme il l’explique, si l’idée même de biais en recherche peut sembler saugrenue au premier abord (après tout, les mathématiques et la physique sont censés être des sciences exactes, non biaisées), les choses sont plus complexes.

Par exemple, il montre qu’en pratique, les publications techniques du SIGGRAPH portant sur le rendu de la peau s’intéressent dans leur écrasante majorité aux peaux claires et non aux peaux noires. De même, lorsqu’il s’agit de rendu ou de simulation physique des cheveux, il s’agit par défaut de cheveux raides, considérés de facto comme le standard ; quand des projets s’intéressent aussi aux cheveux bouclés, ils auront tendance à le préciser explicitement. Les cheveux crépus, eux, sont très peu présents dans les travaux, alors même qu’ils n’ont rien d’une curiosité puisqu’ils concernent de l’ordre d’un milliard d’humains.

Theodore Kim souligne que si certaines personnes seront tentées de vouloir opter pour des approches universelles, en pratique ce choix est contre-productif, y compris d’un point de vue purement scientifique et technique (le rendu le plus proche de la réalité possible). Ainsi, les cheveux crépus ne bougent pas de la même manière que des cheveux raides, et les peaux noires n’ont pas la même interaction avec la lumière que les peaux blanches : leur composante spéculaire a une importance plus grande.
Conséquence : traiter de façon générique les peaux, à partir d’équations et valeurs physiques pensées pour simuler des peaux claires, peut conduire à des rendus peu convaincants. Theodore Kim pointe notamment du doigt MetaHuman Creator, qui génère des teints trop cireux, avec trop de subsurface scattering, lorsque la peau de l’avatar est noire.

Theodore Kim souligne au passage que ces biais sont profondément ancrés dans l’histoire des techniques d’imagerie. Ainsi, du temps de l’argentique, on utilisait des références avec un visage humain et une charte colorimétrique pour calibrer, ajuster le rendu du film photo ou des pellicules cinéma. Ces références visuelles, appelées « leader ladies » (au cinéma) et « Shirley Cards » (côté photo), étaient en pratique quasiment toujours des femmes à la peau blanche (avec néanmoins une diversification du côté des Shirley Cards à partir des années 90).

Conséquence : le rendu des peaux noires était souvent perfectible voire très mauvais, comme le montre Theodore Kim avec quelques extraits de films.

Le Carosse d’Or (Jean Renoir -1952) : en raison de procédés techniques et artistiques (pellicule, éclairage, développement…) optimisés pour les peaux claires, les acteurs à la peau noire sont totalement sous-exposés.

Theodore Kim explique que le but de sa présentation n’est pas de juger le passé : il ne s’agit pas de déclarer ce dernier raciste avec notre regard contemporain, mais plutôt de prendre conscience des biais afin de les dépasser. Il propose quelques pistes, comme la possibilité de créer un équivalent 3D des Shirley Cards mais avec des peaux noires : de quoi mieux juger, physiquement et objectivement, du réalisme de nouvelles techniques ou moteurs de rendu.

Un travail qui bénéficiera évidemment à l’ensemble de l’industrie, et permettra d’améliorer le rendu des humains, quel que soit leur type de cheveux ou leur couleur de peau.

Nous vous invitons évidemment à regarder la conférence complète, qui donne davantage d’exemple et détails.

Notez enfin qu’un Bird of a Feather (un format classique d SIGGRAPH, qui prend une forme de table ronde) a été organisé sur le sujet. L’évènement n’a pas été enregistré, mais un formulaire associé est toujours en ligne: il permet aux personnes intéressées par la thématique des biais dans la recherche graphique de s’inscrire afin de développer cette thématique en 2022. Vous pouvez par exemple indiquer que vous seriez intéressés pour tenir une conférence sur le sujet, ou aider à la relecture de publications.

Voici également trois livres mentionnés dans la présentation :

On pourra aussi lire ou relire notre interview de Raqi Syed et Areito Echevarria, qui ont créé l’expérience VR Minimum Mass. En fin de page 2, Raqi Syed revient sur son travail et la question des représentations dans les VFX.

Enfin, une publication liée à cette conférence est disponible sur le site de Theodore Kim : Countering racial bias in computer graphics research (T. Kim, Holly Rushmeier, Julie Dorsey, Derek Nowrouzezahrai, Raqi Syed, Wojciech Jarosz, and A.M. Darke – arXiv 2021). Quelques techniques anti-biais et axes de recherche y sont proposés..

L’article SIGGRAPH 2021 : Comment éliminer les biais et tendre vers une recherche graphique antiraciste? est apparu en premier sur 3DVF.

Gladius : un ex gladiateur hanté par son passé (court ESMA – sélection SIGGRAPH 2021)

Par : Shadows

Découvrez Gladius, court-métrage réalisé par Margaux Latapie, Grégory Diaz, Florian Cazes, Marie-Charlotte Deshayes-Ducos, Clément Petellaz, Baptiste Ouvrard, Jimmy Natchoo, Guillaume Mellet (promotion ESMA 2020).

Mis en avant dans le festival d’animation du SIGGRAPH 2021, ce film se démarque notamment par son traitement atypique des gladiateurs, loin de certains clichés hollywoodiens.

Pendant la Grèce antique, Marcus, vigneron, est hanté par son passé de gladiateur.

Musique / music: Sophian Alkurdi
Son / sound: José Vicente, Yoann Poncet, Sébastien Fournier, Tristan Le Bozec – Studio des Aviateurs

L’article Gladius : un ex gladiateur hanté par son passé (court ESMA – sélection SIGGRAPH 2021) est apparu en premier sur 3DVF.

SIGGRAPH 2021 : Adobe évoque avenir de Substance 3D, projets de recherche

Par : Shadows

A l’occasion du SIGGRAPH 2021, Adobe a voulu dévoiler quelques éléments sur l’avenir de sa gamme Substance 3D.

Sébastien Deguy (Vice-Président, 3D & Immersive – Adobe), Guido Quaroni (Senior Director of Engineering) et l’équipe de recherche Adobe ont donc pris une trentaine de minutes pour présenter à la fois quelques éléments des prochaines mises à jour, mais aussi des projets de R&D : l’occasion, donc, de revenir sur certaines publications techniques.

L’article SIGGRAPH 2021 : Adobe évoque avenir de Substance 3D, projets de recherche est apparu en premier sur 3DVF.

SIGGRAPH 2021 : fractales, USD, FX et créatures dans les présentations Houdini

Par : Shadows

SideFX a mis en ligne les présentations que l’éditeur a organisées durant le SIGGRAPH 2021 autour de son logiciel Houdini.
Au menu : des études de cas de clients, des problématiques de production, mais aussi la présentation d’innovations et outils.

  • « Fractales et autres folies procédurales en VR 360° relief », par Adrian Meyer. Celui-ci revient sur son projet Strands of Minds, que nous vous avions présenté en juin et qui fait preuve d’une grande inventivité, à mi-chemin entre trip hallucinatoire et exploration de fractales.
  • « Construire un pipeline CFX artist-friendly », par Philipp Buschauer d’Axis Studios.
    Buschauer revient sur la création d’un pipeline CFX de zéro, en s’appuyant sur Vellum, PDG et USD sous Houdini.
  • « Création de mondes avec USD chez Ingenuity Studios », par Grant Miller
    En s’appuyant sur un projet pour Spotify, Miller explique comment USD a transformé le pipeline du studio.
  • « Retour sur FATE », par Carl FairWeather – Cinesite VFX
    FairWeather s’appuie sur le cas de Fate: The Winx Saga pour présenter les différentes étapes de la gestion du contenu dans un pipeline FX, y compris le contrôle qualité et le rendu.
  • « Construire et déchirer un portail de chair pour Diablo IV: By Three They Come », par Nema Safvati de Blizzard
    Une plongée dans les coulisses d’une cinématique Diablo IV.
  • « Dans l’oeil d’une trombe marine – simulations et fluides et effets volumétriques à grande échelle » par Andreas Giesen de Rise
    Un retour sur des effets créés pour le film Jim Knopf und die Wilde 13, avec des navires voguant au coeur d’une trombe marine (l’équivalent en mer d’une tornade) et le naufrage d’une île.
  • « SideFX Labs 2021 – workflows nouveaux et améliorés pour les artistes » par Paul Ambrosiussen & Mai Ao
    Une présentation sur l’amélioration d’outils Houdini, en termes d’interface et fonctionnalités, avec en prime quelques nouveautés.
  • « Pourquoi est-ce que je reviens toujours vers Houdini ? » par Alex Veaux de Tendril Studio
    Alex Veaux s’appuie sur ses projets professionnels et personnels pour expliquer pourquoi Houdini lui est si utile. Il propose au passage quelques trucs et astuces.
  • « Outils Firehawk PDG » par Andrew Graham
    Firehawk PDG est un pack Houdini open source destiné à un usage en production.

L’article SIGGRAPH 2021 : fractales, USD, FX et créatures dans les présentations Houdini est apparu en premier sur 3DVF.

SIGGRAPH 2021 : Les meilleurs projets temps réel de l’année avec Real-Time Live!

Par : Shadows

Rendez-vous incontournable du SIGGRAPH, Real-Time Live présente chaque année une sélection de concepts innovants dans le secteur du temps réel, avec une règle d’or : les démonstrations sont faites en direct.

Au menu cette année, des liens entre arts et numérique, des projets sur les avatars et la communication, ou encore une vision de la classe du futur.
Vous pouvez découvrir ci-dessous l’enregistrement complet.
Si votre temps est précieux, nous vous proposons plus bas un résumé des différents concepts : vous pourrez ensuite revenir sur la vidéo et, avec les timings listés juste en-dessous, cibler uniquement les démos qui vous intéressent.

4:07 – The LiViCi Music Series : Real-Time Immersive Musical Circus Performance
10:59 – I am AI – AI-driver Digital Avatar made easy
18:40 – Shading Rig: Dynamic Art-Directable Stylised Shading for 3D characters
25:31 Coretet : VR Musical Instruments for the 21st Century
32:53 Technical Art Behind the Animated Shot « Windup »
40:37 Future Classroom
47:25 Normalized Avatar Digitization for Communication in VR

LiViCi : quand le cirque rencontre les nouvelles technologies

Premier projet de la sélection, le LiViCi (« Live and Virtual Circus ») était présenté par Athomas Goldberg, Samuel Tetreault en direct depuis le plateau de motion capture d’Animatrik Film Design. Le concept : mêler les arts du cirque avec les outils de motion capture et production virtuelle.
En pratique, des artistes exécutent une performance sur le plateau de motion capture ; celle-ci est retranscrite en temps réel sur des avatars 3D, avec une caméra virtuelle qui « filme » la scène. Des éléments live sont également intégrés à la scène, de sorte que l’on peut voir en même temps un artiste et son avatar.

Ce projet a reçu le prix du public (Audience Choice Award).

I Am AI : grâce à NVIDIA, de la visioconférence sans webcam !

Second projet de cette sélection 2021 : le résultat des travaux de NVIDIA Research. leur idée est d’utiliser le deep learning pour animer des avatars créés à partir d’une simple photo, à l’aide d’audio ou de texte. Ce sont uniquement ces derniers qui sont transmis afin d’animer l’avatar : aucun flux vidéo n’est envoyé, d’où des économies de bande passante.

Concrètement, vous pouvez donc utiliser une photo formelle de vous-même comme source pour l’avatar d’une réunion de travail, tout en étant en pyjama ou sur une plage. Et si des travaux font trop de bruit, au lieu de continuer à parler, vous pouvez taper au clavier le texte que prononcera l’avatar.

NVIDIA oblige, le système s’appuie sur le GPU. Il tourne à plus de 20fps avec une carte RTX.
Enfin, si vous souhaitez changer de tête, NVIDIA a aussi présenté un système de génération d’avatars stylisé.

Bien évidemment, cette innovation a aussi ses revers : une telle technologie facilite l’usurpation d’identité.

I am AI a remporté le Best in Show Award, prix décerné par un jury de professionnels du secteur.

Shading Rig : le toon shading s’améliore !

Le toon shading est une méthode classique pour donner un effet 2D à des animations 3D, mais les techniques d’ombrage actuelles posent problème : l’ombrage par défaut crée souvent des artefacts disgracieux nécessitant un nettoyage, et les techniques pour adoucir les ombres donnent généralement quelque chose de trop plat.
Lohit Petikam, Ken Anjyo, Taehyun Rhee présentent ici une approche qui permet d’avoir un résultat dynamique tout en conservant un bon contrôle sur le style, avec corrections dynamiques.

Coretet : la musique du 21ème siècle sera-t-elle virtuelle ?

Rob Hamilton est revenu sur un concept surprenant d’instruments de musique en réalité virtuelle, avec à la fois des instruments existants (violon, violoncelle…) et un autre totalement expérimental.
De quoi imaginer une nouvelle étape pour l’histoire des instruments électroniques après le thérémine, les premiers synthétiseurs ou encore la harpe laser de Jean-Michel Jarre. Et si, demain, les instruments virtuels se démocratisaient ? La réponse d’ici quelques années.

Windup : retour sur le court-métrage réalisé sous Unity

Chris Kang nous a proposé une très sympathique démonstration des coulisses de Windup, court-métrage/démo technique créée sous Unity. Timeline, contrôles divers, animation des feuilles, génération de racines en quelques clics à partir de curves ou encore shader pour donner un effet de vitre gelée dont partie des éléments présentés.

Et si vous aviez manqué le court quand nous l’avions publié, le revoici en intégralité :

Les cours du futur selon Ken Perlin

Ken Perlin (oui, le même qui a donné son nom au Perlin Noise de vos logiciels) du NYU Future Reality Lab, Zhenyi He, Un Joo Christopher, Kris Layng ont travaillé sur un projet de classe futuriste pour l’enseignement de la 3D.

L’idée est de rejeter l’approche classique et les réunions zoom au profit d’une classe immersive, à laquelle on accède via un écran classique ou en VR. Le système proposé (CLAY Software) permet une continuité entre les enseignements, passant par exemple de la création d’un personnage à son shading.
Si le concept peut sembler encore assez perfectible, nul doute que ces initiatives progresseront avec le temps, d’autant que le projet est open source.

Des avatars pour la VR

Enfin, McLean Goldwhite, Zejian Wang, Huiwen Luo, Han-Wei Kung, Koki Nagano, Liwen Hu, Lingyu Wei, Hao Li ont dévoilé un système de génération d’avatar pour la VR.

A partir d’une simple photo et d’un StyleGAN (technique d’intelligence artificielle), un visage 3D est généré ; dans les exemples présentés, les lunettes sont automatiquement supprimées s’il y en a sur la photo.
Un corps complet, riggé de façon paramétrique, est également créé. Le résultat : un avatar complet à votre image, qui s’anime en fonction de vos mouvements grâce aux manettes de l’Oculus Quest 2 (mais aussi via une gestion automatique des mouvements des pieds). Même les lèvres bougent et son animées quand la personne parle.

Des projets très divers

Arts expérimentaux, avatars, animation et école du futur : cette édition du Real-Time Live était éclectique et riche en concepts. Elle nous a offert une vision de ce qui nous attend peut-être à plus grande échelle dans les années à venir.
Nous avons particulièrement apprécié que le salon conserve au maximum le principe de démonstrations en direct, malgré la dématérialisation.

L’article SIGGRAPH 2021 : Les meilleurs projets temps réel de l’année avec Real-Time Live! est apparu en premier sur 3DVF.

SIGGRAPH 2021: la NASA vous emmène en voyage sur un astéroïde !

Par : Shadows

Si le festival d’animation du SIGGRAPH fait la part belle aux courts-métrages (notamment français), on y trouve aussi d’autres types de projets, comme des breakdowns de studios VFX ou de la visualisation scientifique.

C’est cette dernière catégorie qui nous intéresse aujourd’hui, puisque la NASA fait partie de la sélection grâce à son travail autour de l’astéroïde Bennu.

La mission spatiale OSIRIS-REx avait en effet permis de 2018 à 2020 de récolter un aperçu détaillé du sol, grâce à plusieurs techniques d’imagerie combinées. Le studio de visualisation scientifique du Goddard Space Flight Center, lui-même affilié à la NASA, en a tiré une « Visite de l’astéroïde Bennu » : un voyage de 5 minutes environ qui vous présentera les principales caractéristiques de cet astre céleste, avec un niveau de détail époustouflant.

Dan Gallagher (KBRwyle): Producer Kel Elkins (USRA): Lead Visualizer Rob Andreoli (AIMM): Videographer Ernie Wright (USRA): Visualizer Aaron E. Lepsch (ADNET): Technical Support

L’équipe a également dévoilé un making-of, qui explique que le relief est issu des données LiDAR captées lors de la mission spatiale OSIRIS-REx, habillées avec l’imagerie satellite de cette même mission. Tout est donc réel : les détails ne sont pas générés artificiellement.
L’équipe souligne également l’importance du lighting pour aider les spectateurs à comprendre le relief de rochers aux formes très complexes.
Enfin, la vidéo souligne que l’acquisition des données a été progressive : au fur et à mesure que la sonde spatiale se rapprochait de l’astéroïde, la sonde a capté des données de plus en plus précises, permettant d’affiner le modèle utilisé.

L’article SIGGRAPH 2021: la NASA vous emmène en voyage sur un astéroïde ! est apparu en premier sur 3DVF.

SIGGRAPH 2021: Chaos lance V-Ray 5 pour Unreal

Par : Shadows

Chaos lance la version 5 de V-Ray for Unreal, nouvelle version de son plugin de rendu destiné à l’import de scènes V-Ray, au baking d’éclairage et au rendu d’images et animations dans Unreal Engine.

V-Ray 5 apporte plus de contrôle sur le baking (personnalisation/optimisation des paramètres de rendu tels que l’illumination globale, l’échantillonnage et niveaux de bruit), mais aussi plus de performances en distribuant le rendu sur plusieurs machines et/ou en utilisant la totalité des CPUs et GPUs NVIDIA disponibles. Il est aussi possible d’utiliser le Chaos Cloud de façon directe.

La nouvelle version apporte en outre un Frame Buffer repensé avec des contrôles de post-processing intégrés. Il devient ainsi possible de faire des corrections colorimétriques et de combiner des render elements sans avoir recours à un outil tiers.

Enfin, d’autres avancées plus mineures sont présentes :

  • Un nouveau Coat Layer dans le V-Ray Material, utile pour les matériaux comme le bois laqué, le métal enduit;
  • Points de pivot améliorés : lors de l’import d’objets dans V-Ray for Unreal, leurs points de pivot ne sont plus modifiés;
  • Export sélectif vers une scène V-Ray: les artistes peuvent sélectionner un groupe d’objet, les exporter en tant que scène V-Ray et donc transférer ces assets vers d’autres applications V-Ray.
  • Intel Open Image Denoise: si vous ne disposez pas d’une carte NVIDIA, cet outil permet de réduire le bruit lors du rendu interactif, avec un traitement par le CPU;
  • Blue Noise Sampling: échantillonnage amélioré qui permet d’avoir des images paraissant plus propres sans augmenter le nombre d’échantillons. Particulièrement utile pour le motion blur et les effets de profondeur de champ;
  • Support out-of-core : encore en beta, cette avancée permet le rendu de scènes dépassant la taille de la mémoire GPU.

Pour plus de détails, on consultera la page produit. Rappelons que notre partenaire Progiss est revendeur des solutions Chaos : vous pouvez donc retrouver V-Ray 5 for Unreal dans la boutique 3DVF.fr, pour 70€HT/mois.
V-Ray 5 for Unreal est par ailleurs inclus dans la V-Ray Collection, qui donne accès à une quinzaine de produits et services Chaos pour 629,00 €HT/an.

Comme toujours, si vous avez des questions, n’hésitez pas à contacter notre partenaire Progiss, par téléphone au 01 49 89 07 90 ou par mail: info@progiss.com
Notez également que l’équipe Progiss est à votre disposition pour vous proposer des présentations des logiciels de la boutique, que ce soit dans leurs locaux (à côté de Paris) ou dans les vôtres.

Playard Studios

L’article SIGGRAPH 2021: Chaos lance V-Ray 5 pour Unreal est apparu en premier sur 3DVF.

SIGGRAPH 2021 : une nouvelle bande démo TV & cinéma pour Houdini

Par : Shadows

SideFX profite de l’été et du SIGGRAPH pour dévoiler une nouvelle bande démo, avec des projets de studios utilisant son logiciel Houdini.

Credits:
Alt.VFX
AXIS Studios
backspacetokyo
Electric Theatre Collective
Framestore
JAMM
Laika
Main Road Post
Pixomondo
REALTIME
RISE
Rodeo FX
Shirogumi Inc.
Tendril
The Embassy
The Mill
Time Based Arts
Walt Disney Animation Studio
XK studio
Music
‘Dancing in the Sand’ by Kadir Demir

L’article SIGGRAPH 2021 : une nouvelle bande démo TV & cinéma pour Houdini est apparu en premier sur 3DVF.

SIGGRAPH 2021 : les courts des écoles françaises une fois de plus très présents

Par : Shadows

30% : c’est la proportion de projets français sélectionnés dans le Computer Animation Festival Electronic Theater (vous pouvez vous accréditer ici), autrement dit le festival d’animation/VFX qui accompagne le SIGGRAPH chaque année.

Le chiffre est particulièrement élevé : si les USA sont légèrement devant (32% de projets y ont été fabriqués en totalité ou partie), les autres pays tels que le Canada, Royaume-Uni sont loin derrière ce duo de tête.

Pour autant, ce score élevé n’est pas une surprise : comme le montre l’infographie ci-dessous réalisée par Pierre Hénon, depuis les début des années 80 la France s’est faite de plus en plus présente dans le Festival.
Une domination s’explique notamment par la qualité des films de fin d’études issus des écoles françaises, mais aussi leur nombre, de nombreux pays n’ayant pas autant de formations en animation 3D (ou qui ne s’articulent pas sur la création de courts-métrages en équipe).

Infographie réalisée par Pierre Hénon

Des courts-métrages étudiants de qualité

Voici l’ensemble des courts-métrages français de la sélection, avec synopsis et teaser. De quoi vous donner un aperçu de leurs atouts.


Je suis un caillou – prix « Best Student Projet » 2021

Réalisation : Mélanie Berteraut, Yasmine Bresson, Léo Coulombier, Nicolas Grondin, Maxime Le Chapelain et Louise Massé. – ESMA – promotion 2020.
Un sublime court-métrage mettant en scène une loutre peu ordinaire. Le prix « Best Student Project » reçu par ce film est amplement mérité.
Nous avons publié une interview sur le projet en compagnie de l’équipe.

Bulle, une jeune loutre, vit avec des galets qu’elle considère comme sa famille. Elle s’imagine que ce sont des loutres normales, mais petit à petit, elle prend conscience de leur véritable nature et doit se confronter à sa solitude.


Trésor

Réalisation : Alexandre Manzanares, Guillaume Cosenza, Philipp Merten, et Silvan Moutte-Roulet – Ecole des Nouvelles Images – promotion 2020.

Une comédie marine confrontant des chasseurs de trésor, un poulpe et une mouette. Nous avons publié une interview sur les coulisses du projet.


La Source des Montagnes

Réalisation : Adrien COMMUNIER, Camille DI DIO, Benjamin FRANCOIS, Pierre GORICHON, Briag MALLAT, Marianne MOISY – ESMA Nantes – promotion 2020
Un conte très réussi mettant en scène un peuple, ses coutumes et son univers via une narration visuelle particulièrement efficace.

Les Paccha-Picchus sont de petits êtres festifs. Ils vivent dans l’insouciance d’un quotidien rythmé par le passage de Montagnes qui s’avancent jusqu’à soulever leur oasis, les élevant dans un climat hivernal qu’ils affectionnent et qui leur est vital. Mais un jour, elles cessent d’apparaître. L’impatience de l’un d’entre eux, KinKo, le pousse à partir à leur recherche.


Stranded

Réalisation : Alvin AREVALO-ZAMORA, Alwin DUREZ, Quentin GARAUD, Maxime SALVATORE, Florent SANGLARD, Thomas SPONY-IPIENS, Alex TREGOUET – ESMA – Promotion 2020
Un scénario puissant parfaitement servi par un travail graphique de qualité.

Dans lʼAlaska de la fin du 19e siècle, Hawk, un trappeur robuste, fait la rencontre imprévue dʼun élan surnaturel, annonciateur de lʼapocalypse.


Les chaussures de Louis

Réalisation : Marion Philippe, Ka Yu Leung, Jean-Géraud Blanc, Théo Jamin – MoPA – promotion 2020.
Un court-métrage touchant évoquant les troubles autistiques du point de vue d’un enfant.

Louis, un enfant autiste de 8 ans et demi arrive dans sa nouvelle école et va se présenter.


Migrants – « Best in Show » 2021

Réalisation : Zoé DEVISE, Hugo CABY, Antoine DUPRIEZ, Aubin KUBIAK and Lucas LERMYTTE – Pôle 3D – promotion 2020.
Un film qui traite en apparence du changement climatique, mais va finalement bien plus loin.

Deux ours polaires sont poussés à l’exil par le réchauffement climatique. Ils vont faire la rencontre d’ours bruns avec qui ils vont tenter de cohabiter.


Carried Away

Réalisation : Jean-Baptiste Escary, Alo M. Trusz, Johan Cayrol, Manon Carrier, Etienne Fagnere – MoPA – promotion 2020.
Au programme : de l’humour noir qui fait mouche !

Maman est morte. Ses deux fils devront profiter de sa dernière volonté : une randonnée en forêt.


Dead End

Réalisation : Robin ANDRE-BOURGUIGNON, Leia PERON, Romain EUVRARD, David BRUYERE, Antoine PERRIER-CORNET et Maxime RECUYER – New3dge – promotion 2020.

Un court-métrage de science-fiction mêlant robotique et voyage temporel.


Latitude du printemps

Réalisation : Chloé Bourdic Théophile Coursimault Sylvain Cuvillier Noémie Halberstam Maÿlis Mosny Zijing Ye – Rubika – Promotion 2020.
Techniques multiples, animation façon stop-motion, mais aussi un usage audacieux et des cadrages : un défi risqué mais relevé haut la main !

Un chien vient de se faire abandonner sur le bord de la route. Attaché à un lampadaire, il reste seul jusqu’au jour où il fait la rencontre d’un petit astronaute en herbe et d’une cycliste professionnelle qui s’acharne à battre son record.


Gladius

Réalisation : Margaux Latapie, Grégory Diaz, Florian Cazes, Marie-Charlotte Deshayes-Ducos, Clément Petellaz, Baptiste Ouvrard, Jimmy Natchoo, Guillaume Mellet – ESMA – Promotion 2020.
Un film poignant, loin des représentations habituelles des jeux du cirque.

Pendant la Grèce antique, Marcus, vigneron, est hanté par son passé de gladiateur.


Stuffed

Réalisation : Elise Simoulin, Clotilde Bonnotte, Anna Komaromi, Edouard Heutte, Helena Bastioni, Marisa Di Vora Peixoto – Rubika 2018
Le court avait reçu le prix Best Student Project en 2019.

L’histoire d’un petit chat capricieux faisant une drôle de rencontre qui va l’aider à grandir et à contrôler ses émotions…

L’article SIGGRAPH 2021 : les courts des écoles françaises une fois de plus très présents est apparu en premier sur 3DVF.

SIGGRAPH 2021 : un projet de recherche nettoie vos dessins

Par : Shadows

Nous continuons notre couverture des innovations présentées durant le SIGGRAPH avec une publication axée sur la 2D et l’esquisse : StrokeStrip : joint parameterization and fitting of stroke clusters.

Ce projet de recherche est issu du travail de Dave Pagurek van Mossel, Chenxi Liu (University of British Columbia), Nicholas Vining (University of British Columbia & NVIDIA), Mikhail Bessmeltsev (University of Montreal), Alla Sheffer (University of British Columbia).

En dessin, il est courant d’esquisser un tracé avec de multiples coups de crayon. Les humains devinent aisément la forme voulue par l’artiste :

En revanche, il est plus difficile de demander à une machine de générer ce tracé à partir des esquisses. Les travaux existants (méthodes d’Orbay et Kara en 20211, Lieu et al. en 2018) produisent des résultats intéressant mais les méthodes manquent de robustesse. La publication présente StrokeStrip, une nouvelle approche qui donne de bien meilleurs résultats :

En outre, StrokeStrip s’appuie sur une paramétrisation qui peut avoir des usages multiples, comme la colorisation ou la déformation facilitée du tracé.

Pour plus d’informations, nous vous invitons à lire la publication complète ( StrokeStrip : joint parameterization and fitting of stroke clusters). Vous y trouverez aussi le code utilisé.
Vous pouvez également jeter un oeil sur les vidéos de l’auteur principal, Dave Pagurek : la présentation du projet est disponible en trois versions de 30 secondes, 5 minutes et 20 minutes, selon le niveau de détail et technicité que vous souhaitez.

L’article SIGGRAPH 2021 : un projet de recherche nettoie vos dessins est apparu en premier sur 3DVF.

SIGGRAPH 2021 : derrière un projet NVIDIA, un pas vers une révolution ?

Par : Shadows

A première vue, Neural Scene Graph Rendering est une publication anodine, voire décevante : avec des résultats qui se limitent à des rendus de scènes 2D et 3D particulièrement basiques, on peut même se demander si l’on est bien en 2021.

Mais les apparences sont trompeuses.

Le meilleur des deux mondes

Les auteurs de la publication, Jonathan Granskog, Till Schnabel, Fabrice Rousselle, Jan Novak de NVIDIA, nous proposent en fait ici davantage qu’un simple projet de recherche : leurs travaux s’inscrivent dans une vision à long terme, qui pourrait révolutionner la manière dont nous rendons nos scènes.

En effet, on dispose actuellement de deux approches radicalement différentes pour effectuer un rendu, autrement dit générer une image :

  • Le rendu 3D « classique », qui règne en maître dans les effets visuels et l’animation 3D, permet de créer des scènes très diverses mais pour lequel le photoréalisme parfait est très difficile à atteindre.
Projet Meet Mike (SIGGRAPH 2017) : un exemple des capacités du rendu 3D (ici, 3D temps réel)
  • Le rendu neural : il s’agit ici de rendu s’appuyant sur les techniques d’intelligence artificielle (deep learning).
    Les outils que vous avez pu voir ces dernières années qui créent des portraits d’humains qui n’existent pas, ou les outils GauGAN/Canvas de NVIDIA permettant de créer des paysages à partir d’une simple esquisse, font partie de cette catégorie.
    Ici, la « représentation neurale » sera un ensemble de variables, et le « moteur de rendu neural » sera la partie de l’outil qui génère l’image finale.
Images générées par un StyleGAN : aucun de ces humains n’est réel, les visages ont été créées par une intelligence artificielle.

Si l’on compare les deux approches, et par exemple dans le cas du rendu d’un visage, on a d’un côté le rendu 3D qui crée des résultats très bons mais sans doute pas aussi bons que l’approche neurale, qui s’appuie « juste » sur une architecture adaptée et la phase d’apprentissage à partir d’un ensemble de données.

Inversement, expliquent les auteurs de la publication, si l’on veut modifier le résultat (par exemple générer un visage d’extraterrestre), le rendu 3D permet facilement de changer le matériau ou le modèle utilisés. L’approche neurale, en revanche, est fortement contrainte par les données d’apprentissage et produire un résultat radicalement différent de ces données sera difficile.

En haut, le rendu 3D classique
En bas, le rendu neural

Souplesse, contrôle artistique, réalisme… Au fond, chaque approche a ses avantages et inconvénients.

D’où la vision à long terme qui sous-tend la publication : au lieu d’opposer les techniques, pourquoi ne pas les combiner ? Pourquoi ne pas générer des images en partie avec du rendu neural, en partie avec un moteur de rendu 3D classique ?
Par exemple, suggèrent les auteurs, le rendu neural pourrait se charger des parties difficiles à gérer avec le rendu 3D classique comme les visages, la fourrure.

L’idée est alléchante, mais n’est à ce stade qu’une simple idée. Reste donc à la concrétiser et à faire cohabiter deux approches qui n’ont rien à voir.

Une scène 3D rendue sans moteur de rendu classique

Nous arrivons enfin au projet de recherche proprement dit : l’équipe s’est intéressée à la façon dont un scene graph classique, autrement dit la description d’une scène 3D dans un outil traditionnel (avec liste des modèles, leur position, matériaux…) pourrait être traduite en représentation neurale, puis envoyée à un moteur de rendu neural.

A ce stade, il ne s’agit donc pas encore de mêler les rendus, mais uniquement de faire en sorte que des scènes 3D classiques puissent être « comprises » et traitées par une approche neurale.

L’équipe est parvenue à des résultats concluants, et en montre quelques exemples :

  • Une animation de volley :
  • un petit outil qui permet d’éditer en temps réel un scene graph neural, et avec rendu neural : autrement dit, sur cette session de création 3D, les objets et leurs matériaux, le rendu de la scène ne sont pas gérés par du rendu 3D classique mais bien par de l’intelligence artificielle.
  • La méthode peut aussi être appliquée à des animations 2D à base de sprites : là encore, le visuel est donc issu de rendu neural, pas d’un moteur 2D.

Retour vers la vision globale

Encore une fois, ces premiers résultats restent très basiques, mais il faut les considérer avec du recul : ce sont des tests précurseurs, pas une méthode destinée à être utilisée dès demain en studio.

En revanche, avec ces essais, l’équipe de recherche a prouvé la validité de son concept. L’approche a pu être appliquée a des cas variés et a donc un bon potentiel de généralisation a des situations et usages très différents.

Une première brique est donc posée vers la vision plus large évoquée par les auteurs, avec à terme une interopérabilité entre les maillons de la chaîne de rendu 3D classique et celle du rendu neural.

Pour autant, est-ce vraiment le début d’une révolution ? Réponse dans quelques années, selon les progrès techniques qui seront accomplis.

Pour aller plus loin, nous vous invitons à visionner cette vidéo de présentation d’une quinzaine de minutes, et en particulier le passage à partir de la 30ème seconde, qui revient sur cette vision à long terme.
Vous pouvez aussi consulter la page de la publication : Neural Scene Graph Rendering.

L’article SIGGRAPH 2021 : derrière un projet NVIDIA, un pas vers une révolution ? est apparu en premier sur 3DVF.

SIGGRAPH Pioneers 2021: rencontre avec Donna J. Cox, pionnière de la visualisation scientifique

Par : Shadows

Chaque édition du SIGGRAPH est l’occasion de découvrir les dernières technologie en matière d’image numérique, mais le salon est aussi une bonne opportunité de prendre le temps de jeter un oeil vers le passé et d’écouter les pionniers, pionnières du secteur.

Pour cette édition 2021, l’équipe du SIGGRAPH a invité Donna J. Cox à évoquer son parcours. Dans cette conférence d’une cinquantaine de minutes, elle nous propose de revenir sur les moments forts de sa carrière dans le domaine de la visualisation scientifique. Elle en profite également pour évoquer le rôle des femmes au fil de l’histoire des technologies.

En tant que Chief Scholar pour le the National Center for Supercomputing Applications (NCSA), Professeure au sein de la School of Art and Design (University of Illinois at Urbana-Champaign) et directrice de l’Advanced Visualization Lab et du eDream Institute, Donna J. Cox a passé sa carrière (plus de 36 années) à élever la visualisation de données scientifiques au rang d’art.
Elle a appliqué ses compétences dans des domaines variés : informatique, interfaces homme/machine, installations interactives, systèmes de visualisation, communications ou encore mondes virtuels connectés.

L’article SIGGRAPH Pioneers 2021: rencontre avec Donna J. Cox, pionnière de la visualisation scientifique est apparu en premier sur 3DVF.

SIGGRAPH 2021 : ChoreoMaster fait danser vos personnages 3D

Par : Shadows

Créer des animations de danse crédibles est un vrai besoin, qu’il s’agisse de l’essor de concerts virtuels dans Fortnite, d’un bal dans La Reine des Neige ou d’une foule dans un film à effets visuels. Cette tâche reste néanmoins fastidieuse, d’autant plus que l’animation doit être en rythme avec la musique et respecter son style.

C’est ici qu’interviennent Kang Chen, Zhipeng Tan, Jin Lei, Song-Hai Zhang, Yuan-Chen Guo, Weidong Zhang et Shi-Min Hu du NetEase Games AI LAB et de l’université de Tsinghua, avec leur projet de recherche ChoreoMaster : Choreography-Oriented Music-Driven Dance Synthesis.

Le premier générateur de danse utilisé en production

L’objet de leur publication est ChoreoMaster, un système de synthèse d’animations de danse à partir de musique, prêt pour un usage en production. Il a même déjà été utilisé par le studio de jeux vidéo Netease Games pour plusieurs projets. Il s’agirait même, selon les auteurs, du premier outil du genre à être déployé en production.

La vidéo de présentation donne une bonne idée des capacités de l’outil. On la visualisera de préférence avec le son, pour apprécier la cohérence danse/musique :

Les coulisses techniques

A partir d’un morceau de musique, ChoreoMaster peut donc générer automatiquement une séquence de danse avec un style, un rythme et une structure adaptés.

Afin d’y parvenir, l’équipe de recherche, a mis en place plusieurs contributions. en particulier, la publication présente un framework qui fait en sorte que des notions telles que les relations entre musique, style, rythme puissent être traduites sous forme de métriques. Le framework est lui-même utilisé dans l’outil de génération de danse proprement dit, ChoreoMaster. Ce dernier s’appuie sur une base de données de mouvements de danse qu’il utilise pour obtenir des chorégraphies adaptés à la musique d’entrée.
Mieux encore, l’équipe a inclus des outils de contrôle artistique, visibles dans la vidéo (changement des mouvements sur une portion de la chorégraphie, trajectoire personnalisée du personnage, etc), afin que le résultat puisse être ajusté facilement si besoin.

Des tests concluants

L’équipe a également évalué la qualité des danses générées, tout d’abord de façon quantitative (autrement dit, avec des mesures mathématiques). Les résultats sont bons : ChoreoMaster surpasse d’autres méthodes déjà proposées par le passé sur la justesse du rythme. Mieux encore, la diversité des danses est là aussi supérieure.
Afin d’avoir également un avis s’appuyant sur la subjectivité humaine, un test a été mis en place avec 35 sujets, dont 10 étaient chorégraphes ou artistes. Ce jury devait noter, entre autres, le réalisme de la danse, la cohérence de style et rythme entre musique et danse. Les résultats sont là encore très bons : qu’il s’agisse d’un public lambda ou de chorégraphes/artistes, les mouvements générés par la méthode proposés surpassent l’état de l’art, et se rapproche de scores obtenus avec de la vraie danse.

Mouvements de danse générés automatiquement à partir d’une chanson traditionnelle chinoise

Et après ?

Comme indiqué plus haut, ChoreoMaster est d’ores et déjà utilisable en production, et a été utilisé dans plusieurs jeux du studio Netease Games.

Pour autant, des améliorations sont possibles. L’outil est incapable de synthétiser des danses dans un style (par exemple la valse) qui n’est pas dans sa base de données. Etendre cette base sera donc utile.
Par ailleurs, les mouvements de la base de donnée utilisée sont à 4 temps : une musique en 3 temps ne sera pas gérée correctement. Là encore, explique la publication, incorporer davantage de données de référence dans le système permettra de résoudre le problème.
Enfin, le possible lien entre danse et paroles de chansons n’est pas géré : incorporer un module de traitement du langage naturel, suggère la publication, pourrait régler cette limitation.

Pour plus d’informations, on consultera la page de la publication. Outre le pdf de la publication, très détaillé, on y trouvera des données supplémentaires et d’autres exemples de résultats en vidéo.

L’article SIGGRAPH 2021 : ChoreoMaster fait danser vos personnages 3D est apparu en premier sur 3DVF.

SIGGRAPH 2021 : un algorithme met de la vie dans vos paysages

Par : Shadows

Dans le cadre du SIGGRAPH 2021, Pierre Ecormier-Nocca, Guillaume Cordonnier, Philippe Carrez, Anne‑marie Moigne, Pooran Memari, et al. présentent leur publication Authoring Consistent Landscapes with Flora and Fauna.

Un paysage peuplé d’espèces animales et végétales, en quelques minutes

Ce projet de recherche propose une méthode pour créer des paysages avec faune et flore, en s’appuyant sur les interactions inter-espèces et sur des conditions climatiques choisies en amont.

Autrement dit, plutôt que de générer et placer à la main les êtres vivants sur un terrain (ce qui prend du temps) ou d’utiliser une approche aléatoire (ce qui donne des résultats qui ne seront pas forcément crédibles), la méthode proposée prend en compte les liens entre espèces pour automatiser le processus tout en restant crédible.
Concrètement, l’algorithme prend en entrée une chaîne alimentaire, certains éléments fixés par l’utilisateur comme un ratio entre espèces en compétition. Il génère des maps de densité pour chaque espèce, mais aussi leurs circuits quotidiens. Un terrain modifié est ensuite généré avec par exemple le rajout des pistes utilisées par les animaux et donc l’érosion qui en résulte.
Mieux encore, le système présenté permet d’explorer interactivement sous Unity le paysage résultant de ces calculs, avec instanciation à la volée de la faune et de la flore. Enfin, l’utilisateur peut éditer le résultat en modifiant/peignant manuellement les maps.

A partir d’un terrain et de conditions climatiques, la technique proposée permet de générer des maps et de visualiser une version « vivante » du terrain.

Trois innovations principales

En coulisses, la méthode proposée s’appuie notamment sur le Resource Access Graph (RAG), une structure de données qui encode les interactions entre les niveaux de la chaîne alimentaire ainsi que les déplacements des animaux sur le terrain pour accéder aux ressources.
En outre, la publication met en avant l’usage d’un algorithme procédural permettant d’approximer rapidement un écosystème stationnaire à chaque étape de la chaîne alimentaire.
La génération des maps sur une machine équipée d’un Xeon E5 et de 32Go de RAM se fait en 15 minutes en moyenne pour des terrains de l’ordre de 16km² ; en cas de modification manuelle des maps, la re-génération des maps prend de quelques secondes à quelques minutes, selon le type de modification.
Enfin, l’équipe décrit dans la publication une méthode pour l’instanciation à la volée de plantes animaux durant l’exploration interactive du terrain. Avec la machine évoquée dans le point précédent, équipée d’une Quadro M2000, la visualisation est temps réel.

Ces trois points sont les contributions principales du projet de recherche par rapport à l’état de l’art.

Exemple de maps générées par l’algorithme du projet de recherche, avec les trajectoires de différentes espèces (herbivores en vert, loups en noir, ours en brun) : ces trajectoires dépendent des ressources telles que les points d’eau mais aussi des interactions entre espèces.

De vastes débouchés, du cinéma à la recherche

Les débouchés de cette publication sont multiples : on pense évidemment à des usages artistiques, pour générer un terrain avec écosystème afin d’utiliser le résultat pour des effets visuels, de l’animation ou du jeu vidéo. L’équipe de recherche souligne en outre que les sciences peuvent bénéficier du projet, qu’il s’agisse de biologistes ou paléontologues, afin de disposer d’un outil supplémentaire pour explorer leurs modèles.
Des expérimentations ont d’ailleurs été menées pour évaluer le système proposé, avec deux groupes de personnes :

  • des paléontologues, qui se sont montrés enthousiastes à l’idée de pouvoir valider visuellement des hypothèses. ils ont également salué le gain de temps permis par l’outil, avec ses cartes générées rapidement tout en étant précises. Une de leurs critiques concerne l’envie de rajouter d’autres espèces en plus de celles incluses dans le prototype.
  • des infographistes davantage intéressés par l’aspect artistique. Ces derniers ont surtout fait des suggestions pour améliorer les contrôles manuels et la visualisation : le prototype actuel montre toujours le terrain en fin de matinée, avec un ciel ensoleillé de début d’été : un ajustement manuel des saisons, de l’heure et de la météo serait bienvenus. Un utilisateur de Unity a souligné le gain de temps massif apporté par le système : générer à la main les trajectoires de 120 troupeaux de 7 espèces différentes aurait pris au moins 10h à la main, contre quelques minutes avec l’algorithme.

Quelles limites et améliorations à venir ?

Comme toujours en recherche, le projet comporte des limites et améliorations possibles. En voici quelques-unes citées dans l’article :

  • Outre certaines approximations, les chercheurs ont pris en compte des chaînes alimentaires simplifiées, sans oiseaux, espèces animales de petite taille, faune sous-marine. Une approche plus complète serait toutefois totalement possible techniquement.
  • Visuellement, le réalisme du paysage pourrait être largement amélioré : par exemple, avec des dégâts sur les arbres situés à proximité des pistes utilisées par les gros animaux.
  • Le système pourrait prendre en compte les coopérations entre espèces : impact de la pollinisation par les insectes sur la végétation, déjections animales qui fertilisent le sol.
  • Au lieu de se contenter de générer un écosystème stable, on pourrait imaginer un système permettant de contrôler les évolutions temporelles, afin d’avoir un paysage évoluant graduellement au fil des années, siècles, millénaires.

Malgré les limitations actuelles, ce projet de recherche n’en reste pas moins passionnant, et laisse envisager de vastes débouchés.
La publication est disponible publiquement en ligne : Authoring Consistent Landscapes with Flora and Fauna.

Différentes maps générées pour un même terrain, avec des conditions climatiques diverses (ère glaciaire ou climat tempéré).

L’article SIGGRAPH 2021 : un algorithme met de la vie dans vos paysages est apparu en premier sur 3DVF.

❌