Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

La GTC de NVIDIA en approche : des conférences à ne pas manquer !

Par : Shadows

Du 8 au 11 novembre se tiendra en ligne une nouvelle édition de la GTC (GPU Technology Conference), événement organisé en ligne par NVIDIA.

On pourra notamment y retrouver une keynote du CEO de NVIDIA, Jensen Huang. Si NVIDIA se garde évidemment de dévoiler le contenu en amont, cette présentation est typiquement celle durant laquelle les annonces sont dévoilées (nouveaux produits et outils, nouvelles initiatives stratégiques).

L’autre volet majeur : plus de 500 présentations aux thématiques variées, de cas d’études aux conférences très pointues techniquement, en passant par des sessions axées sur la stratégie des entreprises.
Les sujets vont des thématiques de 3DVF (design 3D, simulation, XR) à ceux qui en sont plus éloignés (voitures autonomes, 5G). Nous vous invitons donc à parcourir les différentes sections du programme.
Voici une petite sélection :

Enfin, des workshops et formations sont proposés, et il est possible d’organiser des réunions avec des experts de NVIDIA pour évoquer vos projets, défis techniques, en groupe ou en session face à face.

L’accréditation GTC est gratuite ; certains contenus (journées complètes de workshops) sont payants.
Pour plus de détails, on se rendra sur le site de la GTC.

L’article La GTC de NVIDIA en approche : des conférences à ne pas manquer ! est apparu en premier sur 3DVF.

D’une cinématique PUBG à l’avenir du rendu : rencontre avec Brunch

Par : Shadows

Nous suivons l’équipe de Brunch depuis plusieurs années déjà : nous avions notamment eu l’occasion de vous proposer des interviews en leur compagnie autour d’une cinématique pour The Division 2 d’Ubisoft, puis d’une autre destinée à Riot Games et son Teamfight Tactics.

C’est désormais dans l’univers PlayerUnknown’s Battlegrounds (PUBG) que nous plonge Brunch, avec une cinématique sortie cet été pour promouvoir un nouveau jeu mobile lié à la licence.
Réalisée par Boddicker (Jean-Charles Kerninon et Clément Lauricella), produite par Eddy, cette cinématique adopte un rendu stylisé qui tranche avec l’approche photoréaliste de nombreuses bandes-annonces de jeu.

En compagnie de Brunch, nous vous invitons à découvrir le projet, ses coulisses et ses défis techniques et artistiques.
Démarche visuelle, narration poussée, travail en lien avec de la musique, animation en step, contraintes narratives liées à Youtube, vous saurez tout sur les coulisses de cette cinématique.

Et comme le projet adopte un rendu non photoréaliste, nous en avons profité pour échanger avec les réalisateurs sur les tendances actuelles en matière de rendu stylisé, mais aussi sur l’impact de l’IA et du deep learning sur l’avenir du rendu.

Le résultat : une interview dense et riche en informations à découvrir après avoir (re)vu la cinématique PUBG !

3DVF : Bonjour Boddicker/Brunch ! La cinématique PUBG : NEW STATE – La chute de Troi que vous avez récemment dévoilée trouve ses origines dans une autre licence : le travail que vous aviez fait pour The Division 2 d’Ubisoft, sur lequel nous vous avions d’ailleurs déjà interviewés.

Boddicker (Jean-Charles Kerninon et Clément Lauricella) : Tout à fait. En fait, PUBG Studio avait sorti une grosse cinématique, dans un style très photoréaliste et proche du jeu (en termes d’actions, de lighting). Or ils se sont rendus compte que cette approche ne fonctionnait pas : le projet était certes très beau et bien géré, il ne se démarquait pas du reste des cinématiques jeux vidéo en termes de rendu. La cinématique n’avait donc pas marqué le grand public autant que PUBG l’avait espéré.

Ils sont donc venus nous voir avec comme ambition d’aller vers quelque chose de plus stylisé, et d’avoir une narration plus approfondie pour sortir du lot.

Ils avaient eu l’occasion de voir notre travail sur The Division 2 (que nous avions co-réalisé avec Olivier Lescot), et cela correspondait à leur vision, un style fort et une vraie histoire.

Cinématique d’Olivier Lescot & Boddicker pour The Division 2

3DVF : Plus concrètement, quel était la demande, quels aspects du jeu fallait-il souligner ?

Il s’agissait d’accompagner la sortie d’un jeu mobile, PUBG : NEW STATE. L’action se situe dans le futur, et il y a une nouvelle map, des éléments plus technologiques (même si l’équipe est revenue en arrière par rapport à certains plans initiaux).
L’idée était notamment de mettre en place un lore, avec plusieurs factions du jeu. Quelques personnages principaux étaient déjà écrits mais sans avoir d’apparence visuelle associée, car ils n’étaient pas inclus dans le jeu.

Le brief, au fond, était assez simple : le studio avait trois gangs, trois factions, avec leurs leaders. Et une nuit, une équipe de chasseurs devait arriver et tuer tout le monde.
A partir de là on a pu écrire un scénario et leur proposer.

Visuellement, aucune référence, quartier libre pour présenter ce qu’on voulait, ils n’ont même pas demandé un style spécifique. La seule demande était d’éviter le photoréalisme.

Il y a eu une évolution dans le concept, nous avions proposé quelque chose de très narratif, avec des dialogues, une histoire accompagnée par de la musique (nous savions qu’un groupe de musique serait impliqué mais la musique n’était pas encore définie).
Cependant, eux voulaient vraiment appuyer la cinématique sur la musique.

Au final la cinématique est un mix de ces visions, avec un côté clip mais tout en gardant de la narration, et une longue intro sans musique. Ils nous ont tout de même bien permis de nous exprimer.
L’absence de dialogues a aussi des avantages : on a des non-dits, du mystère du fait par exemple que le dialogue final n’est pas audible (même si on l’a écrit dans le script !).

3DVF : Comment avez-vous géré ces contraintes au niveau sonore ?

Cela a beaucoup changé notre façon de réaliser et monter, par exemple nous avons mis en place beaucoup de coupes au moment des tirs.

Pendant longtemps il y a eu un flou pour savoir ce qui prenait le pas : est-ce que la musique devait s’adapter à l’image, ou l’inverse. On a reçu des maquettes que l’on a transformées, découpées, on a rallongé des moments… Nous avions aussi une courbe d’intensité pour le film que nous voulions respecter…

Les tests se sont poursuivis très tardivement, et au final le plus simple a été que le client nous fournisse la musique, qu’elle ne bouge plus et que l’on s’adapte, que l’on cale dessus nos rythmes, nos plans.

3DVF : Quelle était la taille de l’équipe, et combien de temps a duré le projet ?

5 mois de production, c’est un de nos plus longs projets.

Pour l’équipe, une quarantaine de personnes sur l’ensemble du projet mais sans dépasser la douzaine de personnes en même temps.

Et avec donc Eddy à la production, Brunch à la fabrication.

3DVF : Une ambiance nocturne peut être délicate à gérer au compositing, est-ce que ça a été le cas ici ?

Pas autant qu’on aurait pu le craindre. Evidemment, il a été nécessaire d’égaliser les plans durant la production, mais visuellement on est sur une nuit très graphique, teintée, pas sur une obscurité totale. Et comme les graphistes s’occupaient de séquences entières, on a pu facilement obtenir une unité de séquence.

3DVF : En termes de chara design, comment se sont passées les choses ?

Pour les leaders, nous n’avions pas de design, aucun élément, juste une fiche descriptive de la personnalité (faits d’arme par exemple).

Par contre nous avions quelques charas designs ou skins de personnages « lambda » qui étaient pressentis pour intégrer le jeu, nous avons donc étudié ces éléments afin d’avoir une cohérence visuelle. C’est ensuite que l’on a imaginé nos designs.

Nous avons eu une liberté énorme.

En pratique, quand on travaille sur le design de personnages, il y a des plannings, plusieurs designers en parallèle qui font plusieurs propositions par personnage, et c’est ensuite qu’il faut trouver un style global pour le film.

Or entre en design 2D et une retranscription 3D il est toujours difficile de se projeter ou d’avoir une bonne cohérence sur l’ensemble des designs. Il n’est jamais évident de dire à un graphiste « on voudrait tel type de rendu » et d’avoir un design adapté, c’est plutôt à l’étape de fabrication que l’on intègre tout ça, que l’on adapte tous les personnages, qu’on se les approprie. En décidant du type de textures, de la patte graphique.

D’autant plus que nous sommes des techniciens, nous maîtrisons la 3D plus que la 2D.

Si a posteriori on compare les characters designs et le résultat final, ça se ressemble mais il y a clairement une différence.

3DVF : Comment avez-vous abordé les visages ?

Notre parti pris était de nous affranchir d’un look 2D, de règles un peu idiotes que beaucoup se mettent pour avoir un « look 2D » ou « look 3D », on ne voulait pas que les gens pensent que le but était « d’imiter de la 2D », ce qui est très laborieux.

Nous avons donc opté pour garder du détail en modélisation, mais aussi pour le fait de mettre de la matière, de la texture. De même, sur les masques des chasseurs, on a assumé le côté 3D, mis une patine, des reflets réalistes et non bakés.

Un point qu’il faut souligner, c’est l’importance ici de la confiance que l’on nous a accordée. Sur ce genre de projet il faut généralement tout de suite, dès le pitch, montrer ce à quoi montrera le film. Ici, nous avons pu faire des essais, des recherches, le client et la production ont vraiment fait confiance, malgré l’attente que génère ce processus.

3DVF : Toujours sur les détails, le travail sur les yeux est impressionnant, de la texture, des reflets…

Il y a de la triche sur certains plans, avec par exemple des spéculaires 2D sur des petites plaques que l’on fait trembler pour créer du mouvement, par exemple à la fin quand Marion parle au Sherif et que ses yeux s’écarquillent. Ou quand une autre héroïne est allongée, avant de se faire exécuter. A l’inverse, sur d’autres plans ça ne marche pas visuellement, donc soit on retirait totalement, soit on mettait du spéculaire 3D.

Au final, tant que ça marche, peu importe la technique.

On a surtout gardé cet effet quand nous voulions raconter quelque chose avec le spéculaire, jouer sur les émotions.

3DVF : Vous avez opté pour une animation en step. Or il nous a semblé que certains FX sont animés avec plus de fluidité…

Pas tout à fait.

En fait on a adapté le framerate au plan, voire pendant le plan. Par exemple sur un plan un antagoniste court, manque de tomber, la caméra le suit et s’attarde. La caméra est fluide au début, puis beaucoup moins sur la fin pour renforcer le côté nerveux.

Les FX sont tous en step, mais comme ça bouge très vite on a cette sensation de fluidité. Et comme animer en 2 nous semblait parfois trop fluide, nous sommes parfois passés sur une animation en 3 ! Ca dépend vraiment du plan. Ca s’est fait au ressenti.

Pages suivantes : animation, FX, chara design, violence Youtube, rendu stylisé, machine learning.

L’article D’une cinématique PUBG à l’avenir du rendu : rencontre avec Brunch est apparu en premier sur 3DVF.

Comment Mac Guff a ressuscité Lady Di, Mitterrand et Jean Gabin

Par : Shadows

Le deep learning est désormais LA grande tendance à suivre dans le secteur des effets visuels, avec des usages surprenants : nous en avons récemment parlé sur 3DVF avec un spot mettant en scène Bruce Willis, via un générateur d’animations de danse ou encore du côté de NVIDIA. Des projets d’autant plus prometteurs que l’application de l’IA aux effets visuels n’en est qu’à ses débuts.

En France, Mac Guff a su voir le potentiel immense de ces technologies et s’est pleinement lancé dans ce nouvel eldorado. A la clé, un gain de temps et de réalisme phénoménaux.
La preuve : pour l’émission Hôtel du temps, qui sera bientôt présentée sur France 3 et mettra en scène Thierry Ardisson interviewant des célébrités décédées, Mac Guff n’a mis que 3 mois pour truquer 50 minutes de contenu.

En voici la bande-annonce, qui vous permettra de juger du résultat :

Hôtel du Temps

Le concept de l’émission Hôtel du Temps pose plusieurs défis de taille : le grand public a déjà une image précise de ces personnalités en tête, et le format interview implique un cadrage serré.

Rodolphe Chabrier, président de Mac Guff, nous a indiqué que les équipes du studio n’avaient pas pour mission d’embellir les personnalités, même si ce serait techniquement possible : l’idée était donc réellement de proposer un résultat proche des visages réels, et non une version idéalisée.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson
Lady Di dans Hôtel du Temps
Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

Une autre question consistait à définir l’âge cible pour chaque personnalité : souhaite-t-on interviewer un Jean Gabin dans sa jeunesse, ou plus tardivement ? Cette problématique est évidemment définie en amont du tournage, puisque comme seul le visage est remplacé, le comédien doit adapter son jeu et avoir une coiffure adaptée (l’outil Face Engine de Mac Guff ne gère pas encore les cheveux).

Une fois ces paramètres définis, le plus difficile reste à faire : trouver les bonnes données qui permettront de rendre vie aux personnalités.
En effet, le deep learning implique de disposer de données d’entrée qui vont servir à « entraîner » l’outil afin qu’il génère correctement les images du visage de chaque célébrité.

Jean Gabin dans Hôtel du temps
Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

Problème, les images d’archives de l’ère pré-HD et pré-numérique, d’une définition réduite, avec du grain et donc d’une qualité toute relative, ne constituent pas la source idéale. D’où la notion de « Face Retriever » mise en avant par Thierry Ardisson lors des interviews autour de son émission : l’idée est de souligner qu’il a fallu « récupérer » les visages en travaillant en profondeur sur le choix des images sources et leur amélioration. Sur ce dernier point, Mac Guff préfère ne pas trop s’étendre, le studio souhaitant évidemment préserver ses méthodes afin de garder un temps d’avance.

Rodolphe Chabrier a néanmoins pu nous donner quelques informations générales. Il souligne qu’il peut arriver qu’une personnalité « ne se ressemble pas » sur certaines archives. Un éclairage atypique, une posture ou expression inhabituelles pour une personne peuvent changer ponctuellement son apparence, auquel cas il faudra éviter d’utiliser les images associées.

Par ailleurs, un des problèmes classiques en deep learning est le côté « boîte noire » des outils, qui empêche d’avoir un contrôle artistique.
Cet obstacle a ici été surmonté grâce à une approche mixte et pas uniquement des outils de deep learning en boîte noire (là encore, Rodolphe Chabrier n’a pas pu nous donner trop de détails). Les artistes du studio ont donc le contrôle sur les images : il est donc possible de faire des retakes, d’ajuster certains détails. Une expression faciale inadaptée, un regard mal positionné peuvent être modifiés.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

« Industrialiser la bidouille »

Mac Guff a donc su mettre sur pied des outils expérimentaux, puis en faire un nouveau pipeline utilisable en production. Une démarche que Rodolphe Chabrier résume ainsi : « industrialiser la bidouille ».

Cette démarche du studio était déjà engagée depuis un certain temps (comme en témoigne le travail fait sur la série Le Bureau des légendes), mais elle a paradoxalement été accélérée par la pandémie : lors du début de la crise, l’effondrement du nombre de projets a libéré du temps. Rodolphe Chabrier et Martial Vallanchon (superviseur VFX au sein du studio) ont alors pu passer 3 à 4 mois à se focaliser sur le deep learning, à faire des tests qui ont aussi permis de convaincre l’ensemble de la direction du studio de la viabilité de cette technique. Mac Guff a ensuite mis en place une démarche pragmatique, avançant pas à pas, explorant peu à peu.

Le résultat de ce travail fastidieux est donc la création de 50 minutes de plans truqués en l’espace de 3 mois. Une rapidité impressionnante qui change radicalement la manière d’aborder un projet, la phase la plus lente étant le choix des données et l’entraînement de l’outil, tandis que la génération des images se fait très rapidement (mais pas encore en temps réel, malgré la puissance des GPUs actuels).

Le passage au deep learning n’est donc pas un simple changement d’outil, mais une véritable révolution qui impacte la fabrication comme la production. Comme le résume Rodolphe Chabrier : « les flux changent, les coûts changent, la crédibilité visuelle change ».

En revanche, explique-t-il, comme les autres innovations passées (y compris l’invention des VFX), l’IA n’a pas vocation à tuer des emplois, mais bien à en créer, à élargir les possibilités narratives en rendant possible ce qui ne l’était pas.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson
Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

Un atout concurrentiel

Une telle technologie peut évidemment constituer un atout pour les studios qui sauront prendre le train avant les autres. Même si Mac Guff est avant tout un studio généraliste (là où d’autres se spécialisent dans certains types d’effets, comme les créatures ou les simulations), ce travail sur les visages pourrait attirer des clients spécifiquement intéressés par cette compétence, en France comme à l’étranger.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

Et demain ?

Le studio ne compte évidemment pas en rester là, et l’objectif est d’étendre l’IA à de nouveaux domaines.

Les cheveux, d’abord, puisque comme indiqué plus haut seuls les visages ont été traités pour Hôtel du Temps (les cheveux sont donc ceux des acteurs, ou des perruques).
L’idée serait également de travailler sur les corps complets avec un « Body Engine », et même d’appliquer l’IA à d’autres champs techniques. Bref, de continuer l’approche pragmatique déroulée jusqu’ici.
Outre les humains, la rotoscopie est un autre bon candidat au deep learning. Ici, l’IA pourrait permettre de diminuer les coûts, d’automatiser le travail mais aussi de relocaliser une tâche souvent confiée à des studios asiatiques.

Reste à concrétiser cet avenir. Si Mac Guff dispose déjà d’un début de département dédié à l’IA et au deep learning, avec des ingénieurs issus de l’X ou des Ponts et Chaussées, le but est à terme mettre en place une équipe de 4 ou 5 personnes focalisées à 100% sur le sujet.

Ceci représentera un investissement conséquent, puisque les profils nécessaires sont issus d’écoles d’ingénieur et que les entreprises de tous secteurs s’arrachent actuellement les spécialistes de l’IA.
Le CNC sera un soutien précieux : Mac Guff vient de remporter un appel à projets « Choc de Modernisation » avec à la clé une aide financière. Si la somme accordée n’est pas aussi élevée que ce qu’aurait souhaité le studio, elle constitue tout de même un accélérateur précieux, et Rodolphe Chabrier nous a clairement indiqué à quel point Mac Guff peut remercier le CNC : sans ce support, les fonds propres du studio n’auraient pas suffi pour lancer le futur département IA.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

Le secret de la longévité ?

Visages rajeunis, maquillés, remplacés, et demain coiffures, corps, animation, décors… Mac Guff ouvre un nouveau chapitre de son histoire.

Une trentaine d’années après ses travaux pionniers en morphing – pour rappel, ILM n’a devancé l’équipe française que de quelques mois -, Mac Guff continue d’appliquer la recette qui a fait son succès : l’innovation.

L’émission Hôtel du Temps sera prochainement diffusée sur France 3.


En bonus de cet article, voici (en exclusivité !) l’ensemble des visuels que nous a transmis Mac Guff. Pour chaque paire d’images, celle de gauche est la version d’origine sans retouche, celle de droite la version en sortie du Face Engine de Mac Guff, mais avant le finishing (et donc sans l’étalonnage final).
Vous pouvez cliquer sur les images pour les ouvrir en pleine résolution.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

L’article Comment Mac Guff a ressuscité Lady Di, Mitterrand et Jean Gabin est apparu en premier sur 3DVF.

❌