Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Pour Acer, l’avenir de la création passe par le relief

Par : Shadows

Acer dévoile le ConceptD 7 SpatialLabs Edition, un nouvel ordinateur portable destiné aux créatifs. Le produit se démarque de la concurrence par un écran relief sans lunettes.

Les personnes qui nous lisent régulièrement ne seront pas surprises : au printemps dernier, nous avions évoqué les plans d’Acer sur le sujet.

Une configuration au goût du jour

Sur le papier, le ConceptD 7 SpatialLabs Edition propose un processeur Intel Core série H de 11ème génération, plusieurs options côté graphique dont la RTX 3080 de NVIDIA. Un écran UHD 4K vient compléter le tout, avec certification Pantone, 100% de couverture de l’espace Adobe RGB et un Delta E<2.
Rien de surprenant jusqu’ici, la gamme ConceptD d’Acer nous ayant habitués à ce type de positionnement.

En ce qui concerne l’écran relief, il s’agit d’une technologie lenticulaire qui permet donc d’éviter le recours aux lunettes : des lentilles au niveau de l’écran renvoient vers chaque oeil une image différente, d’où la perception du relief.
Bien évidemment, il est aussi possible d’utiliser l’écran de façon classique.

Le relief : vraie avancée ou fonction gadget ?

La démarche d’Acer peut poser quelques questions. En effet, la vague du relief amorcée à la fin des années 2000 avec Avatar est désormais bien loin, et la stéréoscopie ne fait plus vendre auprès du grand public.
Mais justement, ce produit ne se destine pas au grand public. Et Acer ne se contente d’ailleurs pas de proposer un simple écran.

On retrouve ainsi sur la machine le « SpatialLabs Model Viewer », un outil de visualisation d’objets 3D qui dispose de plugins pour différents outils 3D (Autodesk Fusion 360, Autodesk Inventor, 3Ds Max, Rhinoceros, Cura, Blender, SketchUp et Zbrush), mais permet également d’importer les formats 3D courants (OBJ, FBX, STL, Collada, glTF, DAE, IGES, 3DS, Blend, PLY).
Un système mêlant capteurs et IA ajoute par ailleurs un effet de parallaxe lorsque l’utilisateur déplace ou tourne sa tête.

Outre le viewer, Acer a incorporé un lecteur vidéo maison qui gère le relief, et une solution SpatialLabs Go censée générer un effet relief à partir de contenus 2D (photos, vidéos, jeux, visioconférences).

Enfin, un site dédié aux développeurs SpatialLabs est lancé ; il propose notamment un plugin Unreal Engine, et Acer évoque la prise en charge d’Ultraleap (solution de suivi des mains).

Quels usages ?

En termes de marché, Acer esquisse quelques cas d’usage concrets.Le groupe évoque par exemple un configurateur de voiture pour les concessionnaires et clients, des visites guidées pour architectes d’intérieur, ou encore l’observation géospatiale.

Marketing en quête « d’effet wow », industrie, secteur de la création : plus globalement, cet écran pourra être une alternative aux casques VR ou écrans avec lunettes, moins contraignant et plus facile d’usage, même si le fait de ne gérer qu’une seule personne à la fois est un handicap certain.

Premières impressions

Nous avons eu l’occasion d’avoir brièvement ce produit entre les mains dans les locaux d’Acer.

L’effet de relief est convaincant, avec un jaillissement généreux et une bonne définition : même si l’écran lenticulaire implique évidemment de diviser la résolution horizontalement, l’écran 4K permet un affichage de qualité, loin devant ce que l’on pouvait voir il y a une dizaine d’années.

Nous n’avons pas pu tester la conversion de contenus 2D en 3D, et nous ne pourrons donc pas vous donner notre avis sur le sujet à ce stade.
En revanche, la visualisation de modèles 3D est satisfaisante, de même que le visionnage de vidéos.

Le ConceptD 7 SpatialLabs Edition sera disponible en fin d’année aux alentours de 3600€ TTC.

L’article Pour Acer, l’avenir de la création passe par le relief est apparu en premier sur 3DVF.

D’une cinématique PUBG à l’avenir du rendu : rencontre avec Brunch

Par : Shadows

Nous suivons l’équipe de Brunch depuis plusieurs années déjà : nous avions notamment eu l’occasion de vous proposer des interviews en leur compagnie autour d’une cinématique pour The Division 2 d’Ubisoft, puis d’une autre destinée à Riot Games et son Teamfight Tactics.

C’est désormais dans l’univers PlayerUnknown’s Battlegrounds (PUBG) que nous plonge Brunch, avec une cinématique sortie cet été pour promouvoir un nouveau jeu mobile lié à la licence.
Réalisée par Boddicker (Jean-Charles Kerninon et Clément Lauricella), produite par Eddy, cette cinématique adopte un rendu stylisé qui tranche avec l’approche photoréaliste de nombreuses bandes-annonces de jeu.

En compagnie de Brunch, nous vous invitons à découvrir le projet, ses coulisses et ses défis techniques et artistiques.
Démarche visuelle, narration poussée, travail en lien avec de la musique, animation en step, contraintes narratives liées à Youtube, vous saurez tout sur les coulisses de cette cinématique.

Et comme le projet adopte un rendu non photoréaliste, nous en avons profité pour échanger avec les réalisateurs sur les tendances actuelles en matière de rendu stylisé, mais aussi sur l’impact de l’IA et du deep learning sur l’avenir du rendu.

Le résultat : une interview dense et riche en informations à découvrir après avoir (re)vu la cinématique PUBG !

3DVF : Bonjour Boddicker/Brunch ! La cinématique PUBG : NEW STATE – La chute de Troi que vous avez récemment dévoilée trouve ses origines dans une autre licence : le travail que vous aviez fait pour The Division 2 d’Ubisoft, sur lequel nous vous avions d’ailleurs déjà interviewés.

Boddicker (Jean-Charles Kerninon et Clément Lauricella) : Tout à fait. En fait, PUBG Studio avait sorti une grosse cinématique, dans un style très photoréaliste et proche du jeu (en termes d’actions, de lighting). Or ils se sont rendus compte que cette approche ne fonctionnait pas : le projet était certes très beau et bien géré, il ne se démarquait pas du reste des cinématiques jeux vidéo en termes de rendu. La cinématique n’avait donc pas marqué le grand public autant que PUBG l’avait espéré.

Ils sont donc venus nous voir avec comme ambition d’aller vers quelque chose de plus stylisé, et d’avoir une narration plus approfondie pour sortir du lot.

Ils avaient eu l’occasion de voir notre travail sur The Division 2 (que nous avions co-réalisé avec Olivier Lescot), et cela correspondait à leur vision, un style fort et une vraie histoire.

Cinématique d’Olivier Lescot & Boddicker pour The Division 2

3DVF : Plus concrètement, quel était la demande, quels aspects du jeu fallait-il souligner ?

Il s’agissait d’accompagner la sortie d’un jeu mobile, PUBG : NEW STATE. L’action se situe dans le futur, et il y a une nouvelle map, des éléments plus technologiques (même si l’équipe est revenue en arrière par rapport à certains plans initiaux).
L’idée était notamment de mettre en place un lore, avec plusieurs factions du jeu. Quelques personnages principaux étaient déjà écrits mais sans avoir d’apparence visuelle associée, car ils n’étaient pas inclus dans le jeu.

Le brief, au fond, était assez simple : le studio avait trois gangs, trois factions, avec leurs leaders. Et une nuit, une équipe de chasseurs devait arriver et tuer tout le monde.
A partir de là on a pu écrire un scénario et leur proposer.

Visuellement, aucune référence, quartier libre pour présenter ce qu’on voulait, ils n’ont même pas demandé un style spécifique. La seule demande était d’éviter le photoréalisme.

Il y a eu une évolution dans le concept, nous avions proposé quelque chose de très narratif, avec des dialogues, une histoire accompagnée par de la musique (nous savions qu’un groupe de musique serait impliqué mais la musique n’était pas encore définie).
Cependant, eux voulaient vraiment appuyer la cinématique sur la musique.

Au final la cinématique est un mix de ces visions, avec un côté clip mais tout en gardant de la narration, et une longue intro sans musique. Ils nous ont tout de même bien permis de nous exprimer.
L’absence de dialogues a aussi des avantages : on a des non-dits, du mystère du fait par exemple que le dialogue final n’est pas audible (même si on l’a écrit dans le script !).

3DVF : Comment avez-vous géré ces contraintes au niveau sonore ?

Cela a beaucoup changé notre façon de réaliser et monter, par exemple nous avons mis en place beaucoup de coupes au moment des tirs.

Pendant longtemps il y a eu un flou pour savoir ce qui prenait le pas : est-ce que la musique devait s’adapter à l’image, ou l’inverse. On a reçu des maquettes que l’on a transformées, découpées, on a rallongé des moments… Nous avions aussi une courbe d’intensité pour le film que nous voulions respecter…

Les tests se sont poursuivis très tardivement, et au final le plus simple a été que le client nous fournisse la musique, qu’elle ne bouge plus et que l’on s’adapte, que l’on cale dessus nos rythmes, nos plans.

3DVF : Quelle était la taille de l’équipe, et combien de temps a duré le projet ?

5 mois de production, c’est un de nos plus longs projets.

Pour l’équipe, une quarantaine de personnes sur l’ensemble du projet mais sans dépasser la douzaine de personnes en même temps.

Et avec donc Eddy à la production, Brunch à la fabrication.

3DVF : Une ambiance nocturne peut être délicate à gérer au compositing, est-ce que ça a été le cas ici ?

Pas autant qu’on aurait pu le craindre. Evidemment, il a été nécessaire d’égaliser les plans durant la production, mais visuellement on est sur une nuit très graphique, teintée, pas sur une obscurité totale. Et comme les graphistes s’occupaient de séquences entières, on a pu facilement obtenir une unité de séquence.

3DVF : En termes de chara design, comment se sont passées les choses ?

Pour les leaders, nous n’avions pas de design, aucun élément, juste une fiche descriptive de la personnalité (faits d’arme par exemple).

Par contre nous avions quelques charas designs ou skins de personnages « lambda » qui étaient pressentis pour intégrer le jeu, nous avons donc étudié ces éléments afin d’avoir une cohérence visuelle. C’est ensuite que l’on a imaginé nos designs.

Nous avons eu une liberté énorme.

En pratique, quand on travaille sur le design de personnages, il y a des plannings, plusieurs designers en parallèle qui font plusieurs propositions par personnage, et c’est ensuite qu’il faut trouver un style global pour le film.

Or entre en design 2D et une retranscription 3D il est toujours difficile de se projeter ou d’avoir une bonne cohérence sur l’ensemble des designs. Il n’est jamais évident de dire à un graphiste « on voudrait tel type de rendu » et d’avoir un design adapté, c’est plutôt à l’étape de fabrication que l’on intègre tout ça, que l’on adapte tous les personnages, qu’on se les approprie. En décidant du type de textures, de la patte graphique.

D’autant plus que nous sommes des techniciens, nous maîtrisons la 3D plus que la 2D.

Si a posteriori on compare les characters designs et le résultat final, ça se ressemble mais il y a clairement une différence.

3DVF : Comment avez-vous abordé les visages ?

Notre parti pris était de nous affranchir d’un look 2D, de règles un peu idiotes que beaucoup se mettent pour avoir un « look 2D » ou « look 3D », on ne voulait pas que les gens pensent que le but était « d’imiter de la 2D », ce qui est très laborieux.

Nous avons donc opté pour garder du détail en modélisation, mais aussi pour le fait de mettre de la matière, de la texture. De même, sur les masques des chasseurs, on a assumé le côté 3D, mis une patine, des reflets réalistes et non bakés.

Un point qu’il faut souligner, c’est l’importance ici de la confiance que l’on nous a accordée. Sur ce genre de projet il faut généralement tout de suite, dès le pitch, montrer ce à quoi montrera le film. Ici, nous avons pu faire des essais, des recherches, le client et la production ont vraiment fait confiance, malgré l’attente que génère ce processus.

3DVF : Toujours sur les détails, le travail sur les yeux est impressionnant, de la texture, des reflets…

Il y a de la triche sur certains plans, avec par exemple des spéculaires 2D sur des petites plaques que l’on fait trembler pour créer du mouvement, par exemple à la fin quand Marion parle au Sherif et que ses yeux s’écarquillent. Ou quand une autre héroïne est allongée, avant de se faire exécuter. A l’inverse, sur d’autres plans ça ne marche pas visuellement, donc soit on retirait totalement, soit on mettait du spéculaire 3D.

Au final, tant que ça marche, peu importe la technique.

On a surtout gardé cet effet quand nous voulions raconter quelque chose avec le spéculaire, jouer sur les émotions.

3DVF : Vous avez opté pour une animation en step. Or il nous a semblé que certains FX sont animés avec plus de fluidité…

Pas tout à fait.

En fait on a adapté le framerate au plan, voire pendant le plan. Par exemple sur un plan un antagoniste court, manque de tomber, la caméra le suit et s’attarde. La caméra est fluide au début, puis beaucoup moins sur la fin pour renforcer le côté nerveux.

Les FX sont tous en step, mais comme ça bouge très vite on a cette sensation de fluidité. Et comme animer en 2 nous semblait parfois trop fluide, nous sommes parfois passés sur une animation en 3 ! Ca dépend vraiment du plan. Ca s’est fait au ressenti.

Pages suivantes : animation, FX, chara design, violence Youtube, rendu stylisé, machine learning.

L’article D’une cinématique PUBG à l’avenir du rendu : rencontre avec Brunch est apparu en premier sur 3DVF.

Engineering Emmy Awards : and the winner is…

Par : Shadows

Le 21 octobre se tiendra l’édition 2021 des Engineering Emmy Awards. La cérémonie, analogue aux Sci-Tech Academy Awards des Oscars mais pour le petit écran, récompense chaque année les personnes et entités qui ont apporté des contributions techniques dans le domaine de la télévision.

Cette année, aux côtés de CEDAR Studio (solution de restauration audio et suppression de bruit) et des systèmes d’éclairage SkyPanels proposés par la marque ARRI, des simulateurs de foules et moteurs de rendu seront primés.

Les foules, reines des séries

Ces dernières années, les simulations de foules deviennent un outil incontournable pour les séries à grand spectacle. The Walking Dead, Game of Thrones, Once Upon a Time en sont de bons exemples.

C’est donc très logiquement que l’éditeur de logiciels Golaem (photo d’en-tête) va être primé. Un prix qui intervient alors que l’outil a récemment soufflé 10 bougies, et que la version 8 approche à grands pas.
Golaem Crowd a notamment été employé sur les séries Game of Thrones, Love, Death & Robots, Jack Ryan, The Walking Dead, Lego City Adventures (un projet évoqué dans notre interview du studio Circus, pages 3 et 4), Watchmen, Lost in Space, The Expanse, Versailles, …

L’outil Massive sera lui aussi primé. Cette solution a été employée entre autres sur Game of Thromes, Fear The Waliing Dead.

Les moteurs de rendu, toujours indispensables

Outre la simulation de foules, les Engineering Emmy Awards récompenseront aussi le rendu, avec deux produits : Arnold et son système d’illumination globale, ainsi que V-Ray de Chaos. Le choix des lauréats repose en partie sur leur popularité dans les studios.

Les 73emes Engineering Emmy Awards seront remis le 21 octobre à Los Angeles.

L’article Engineering Emmy Awards : and the winner is… est apparu en premier sur 3DVF.

Grâce à l’IA, l’expérience du stade depuis votre canapé

Par : Shadows

Depuis plusieurs années, des projets visent à améliorer l’immersion au sein des matches sportifs, en permettant aux spectateurs d’observer le terrain sous tous les angles.

De nombreux projets, une mise en place complexe

Dès 2017, nous vous avions par exemple parlé de Free Viewpoint Video System, un projet de Canon. Intel a lancé une initiative similaire avec True View. Dans les deux cas, l’idée est de disposer une armée de caméras autour du terrain, afin de générer de la vidéo volumétrique qui peut ensuite être observée sous tous les angles.

Dans le même esprit, Unity vient de dévoiler Metacast, qui utilise là aussi de la vidéo volumétrique.

Outre le fait de proposer de nouvelles images aux téléspectateurs, ces techniques peuvent avoir d’autres applications : VR, analyse de stratégie d’équipe, optimisation des performances sportives, arbitrage, etc.

Toutes ces annonces sont prometteuses, mais elles ont plusieurs défauts, comme la nécessité de devoir utiliser un ensemble complexe de caméras synchronisées. Le volume de données à traiter pose aussi question, d’autant que le temps réel est indispensable pour ce marché.

L’IA, une alternative ?

C’est ici qu’intervient un projet de R&D de l’ingénieur en vision informatique Guillaume Chican, qui propose une alternative beaucoup moins contraignante : n’utiliser qu’une seule caméra, et laisser le deep learning faire le reste.

Guillaume Chican (que nous avions déjà eu l’occasion de croiser durant Laval Virtual 2017, sur un tout autre projet) nous explique que dans son approche, le deep learning est utilisé à la fois pour la capture de la géométrie et le rendu des joueurs. Dans la vidéo de démonstration ci-dessous, qui alterne prises de vue réelles et survols du match générés par son approche, seul le terrain est créé avec du rendu 3D classique. Les joueurs sont entièrement confiés au machine learning.

Si la méthode n’a pour le moment été testée que sur du football, elle se déclinerait sans difficulté sur d’autres sports comme le basket, le tennis. En revanche, des disciplines comme le rugby poseront sans doute des défis, certaines manœuvres comme les mêlées représentant des cas très spécifiques qui demanderont probablement un développement dédié.
La technique n’est pas encore temps réel, mais Guillaume Chican y travaille. Un autre axe d’amélioration étant de proposer un rendu de meilleure qualité.

En termes d’usages, cette approche pourrait comme les propositions d’Intel, Canon et Unity être utilisée pour proposer de nouvelles images aux spectateurs, avec des analyses de matches, des retours sur une action précise, ou encore la possibilité, en temps réel, de changer de point de vue (un peu à la manière d’un jeu vidéo). En revanche, comme le rendu neural implique que l’image est générée de toutes pièces, un usage en arbitrage serait sans doute exclu.

Guillaume Chican souligne que combinée à un dispositif de réalité augmentée ou virtuelle, sa technique permettrait aux fans de reproduire l’expérience du stade grâce à une loge virtuelle, entre amis.

A noter enfin : puisque le système ne nécessite pas de matériel lourd, on peut imaginer un déploiement moins coûteux et plus facile. De quoi, peut-être, et dans un futur plus ou moins lointain, rendre cette technique accessible à davantage d’équipes, au sport amateur ou encore au secteur de l’éducation…
Pour le moment, nous n’en sommes évidemment pas là.

Pour en savoir plus

Pour toute question, Guillaume Chican peut être contacté sur LinkedIn.

L’article Grâce à l’IA, l’expérience du stade depuis votre canapé est apparu en premier sur 3DVF.

Critique : « 7 Jours », un anime moderne et optimiste, mais pas naïf

Par : Shadows

7 jours sort aujourd’hui dans les salles obscures françaises, via le distributeur Eurozoom. Ce film d’animation japonais est réalisé par Yuta Murano et animé par les studios Ajiadō. Nous avons pu le voir en avant-première, et nous vous en proposons donc une critique.


7 jours nous invite à suivre le jeune Mamoru, qui découvre que sa voisine Aya va déménager alors qu’il n’a jamais osé lui avouer ses sentiments pour elle.

Le scénario va rapidement prendre une tournure surprenante lorsque Mamoru propose à Aya de fuguer pour fêter ses 17 ans. Réfugiés dans une mine désaffectée, nos deux adolescents sont rapidement rejoints par d’autres jeunes de leur entourage, et croisent le chemin d’un réfugié thaïlandais qui fuit la police.

L’histoire légère se mue alors en révolte : le groupe passera plusieurs jours à s’opposer aux adultes, multipliant ruses et affrontements, tout en savourant une liberté précaire.

A la lecture de ce pitch, on pourrait craindre un n-ième film sur le passage à l’âge adulte, un John Hughes à la sauce anime totalement inoffensif. Il n’en est rien.

Certes, les personnages sont sans doute un peu trop stéréotypés, et le déroulé pourra parfois sembler manichéen.
Mais 7 jours complexifie la situation via des révélations en cascade, qu’elles soient intemporelles ou résolument d’actualité : corruption, réseaux sociaux, secrets inavoués, fautes passées, harcèlement, choix entre des idéaux lourds de conséquences et des solutions de facilité, question des migrants.
En résultent des échangent entre personnages qui dépassent les schémas classiques et évitent de sombrer dans la naïveté. On appréciera aussi un traitement des réseaux sociaux qui nous montre les deux visages des échanges en ligne, positifs comme négatifs. De quoi, là encore, apporter de la nuance là où de (trop) nombreux autres films n’en ont aucune.

7 jours a beau être issu d’un romain de Soda Osamu de 1985 dont le succès avait déjà donné lieu à une adaptation live quelques années plus tard (cette dernière a droit à une référence discrète dans l’anime), c’est une oeuvre qui se veut définitivement moderne.
Graphiquement, le scénario est soutenu par un character design plutôt efficace, et un joli travail sur les décors.

Le film devrait plaire au public adolescent par ses thématiques, son traitement, ses sujets d’actualité.
Les adultes, eux, pourront peut-être y raviver une étincelle d’optimisme et de rébellion qu’ils avaient trop longtemps oubliée.

7 Jours sort au cinéma aujourd’hui 6 octobre 2021.
Durée :1h28.
Séances disponibles sur Allociné.

L’article Critique : « 7 Jours », un anime moderne et optimiste, mais pas naïf est apparu en premier sur 3DVF.

Blue Curry : une délicieuse leçon (Gobelins 2021)

Par : Shadows

Nous continuons à découvrir les projets Gobelins 2021 avec Blue Curry de Magali Dunyach, Chien-Ju Hung, Jimin Jung, Vajra Pancharia, Léa Pietrzyk.
Un film qui parle de cuisine, et de bien plus encore…

Les plus belles leçons de vie sont apprises à travers les expériences les plus simples. Quand votre cuisine se transforme en salle de classe… Et que Maman vous sert une assiette de sagesse.

Soundtrack / Musique : Antoine DUCHENE
Sound editor / Montage sonore : Laurent JIMENEZ
Mix / Mixage : Benjamin CABAJ

L’article Blue Curry : une délicieuse leçon (Gobelins 2021) est apparu en premier sur 3DVF.

D’impressionnantes expressions faciales signées Chris Jones

Par : Shadows

Chris Jones a mis en ligne le résultat de son travail sur les expressions faciales réalistes.

Le réalisme de ses animations est saisissant ; Chris Jones explique qu’il travaille sous Blender et Krita, aucune motion capture n’étant employée (il a juste utilisé des vidéos en tant que références).

Chris Jones détaille la partie technique sur Blender Artists : maps de rides créées à la main, masques sont utilisées, ou encore un « crâne » interne ont notamment été utilisés.

Notez enfin que Chris Jones n’en est pas à son coup d’essai : nous avions déjà eu l’occasion de vous proposer la vidéo ci-dessous en 2014. A l’époque, il utilisait Lightwave.

L’article D’impressionnantes expressions faciales signées Chris Jones est apparu en premier sur 3DVF.

Lynx : et si l’avenir de la réalité mixte venait de Paris ?

Par : Shadows

La société Lynx lance une campagne Kickstarter pour son casque de réalité mixte (VR, AR) sans fil, le Lynx R-1.

Le produit fonctionne au choix de façon autonome ou filaire, et se démarque notamment par son design très compact par rapport aux casques du marché, ainsi que par son prix abordable au vu des caractéristiques (à partir de 530€TTC).

Des caractéristiques techniques alléchantes

Le Lynx R-1 dispose d’un système optique atypique,. La forme complexe de ses lentilles sont la clé de l’épaisseur réduite du casque.

Pour le reste, le Lynx R-1 dispose du même processeur qu’un Oculus Quest 2 ou un Vive Focus 3, d’une résolution supérieure au Valve Index mais inférieure au Quest 2 :

  • affichage de 1600×1600 pixels par oeil à 90Hz ;
  • caméras couleur avec affichage pass-through à latence réduite ;
  • processeur Qualcomm XR2, 6Go de RAM, 128Go de stockage interne ;
  • tracking 6DoF ;
  • WiFI 6, Bluetooth 5 ;
  • compatibilité SteamVR via un câble au lancement, et à terme en WiFi ;
  • slot pour carte SD, jusqu’à 1To de stockage additionnel ;
  • hauts-parleurs stéréo, prise jack 3,5mm, microphones ;
  • distance inter-pupillaire ajustable de 56 à 72mm ;
  • OS : Android 10 ;
  • SDK fourni, support OpenXR prévu à terme.

On notera l’absence de tracking du regard : cette fonction était initialement prévue quand Lynx visait un marché bien plus haut de gamme (avec un tarif 3 fois plus élevé), mais l’entreprise a depuis choisi de cibler un public bien plus large : la suppression du tracking fait donc partie des éléments qui ont permis de baisser le tarif.

Une vidéo mise en ligne par l’équipe donne une idée du rendu visuel en réalité augmentée? L’image est filmée à travers les lentilles sans retouche, et il convient de garder en tête qu’il s’agit d’un prototype.

En termes d’ergonomie, l’équipe a choisi de placer la batterie à l’arrière, de façon à équilibrer le poids de l’engin sur la tête.

Au vu des images du produit, vous aurez sans doute réalisé que le produit laisse passer la lumière par les côtés, ce qui n’est pas un souci en réalité augmentée mais pose problème pour l’utilisation en mode VR : de la lumière parasite sera présente.
Lynx y a évidemment pensé et un accessoire magnétique est inclus pour régler le problème. Une version de cet accessoire compatible avec des lunettes est aussi prévue.

Où en est le produit ?

A ce stade, le Lynx R-1 est en phase de pré-production : le design et les composants ont été validés, et il reste à produire en masse le casque.

D’où une campagne Kickstarter : pour 530€TTC, vous pourrez disposer d’un modèle standard, et pour 745€TTC, de l’édition limitée dotée d’une face avant transparente. La version Pro (950€TTC) permet de son côté de revendre le produit et de disposer d’un meilleur support.
Notez enfin que si vous vivez hors UE ou n’êtes pas assjeti à la TVA, l’équipe a pensé à vous.

Pour plus de détails et soutenir le projet, rendez-vous sur Kickstarter. Comme toujours, nous vous invitons à bien lire les informations données et à garder en tête que Kickstarter n’est pas un système de précommande : des risques sont toujours présents sur ce type d’initiative.

Que penser du Lynx R-1 ?

Sur le papier, le produit semble très intéressant, et nous essaierons de rapidement pouvoir le tester en conditions réelles.
Les solutions de réalité mixte du marché, comme le Microsoft Hololens 2, le Magic Leap ou les produits Varjo, sont proposée à des tarifs nettement plus élevés qui les rendent inaccessibles aux passionnés et en font un investissement non négligeable pour les petites entreprises.
Le Lynx R-1, de son côté, est bien plus abordable. Le support de Unity via le SDK proposé, mais aussi l’arrivée d’OpenXR d’ici la fin de l’année pour gérer également Unreal ou Godot vont grandement faciliter son usage pour les développeurs.

Le Lynx R-1 est donc un projet que nous allons suivre de près.

L’article Lynx : et si l’avenir de la réalité mixte venait de Paris ? est apparu en premier sur 3DVF.

Windows 11 est de sortie : nouveautés, compatibilité, déploiement

Par : Shadows

Microsoft lance officiellement aujourd’hui Windows 11, nouvelle version majeure de son OS. La mise à jour est gratuite si vous disposez déjà de Windows 10.

Quelles nouveautés ?

Les évolutions sont évidemment nombreuses par rapport à Windows 10, avec entre autres :

  • de nombreux changements en ce qui concerne l’interface et l’expérience utilisateur au quotidien, dont une barre des tâches centrée, une refonte du menu démarrer, un renouvellement des sons systèmes ;
  • côté jeu, la fonction « Auto HDR » qui rajoute automatiquement du HDR sur les jeux DirectX 11/12, DirectStorage qui devrait considérablement améliorer les temps de chargement sur les jeux qui en tireront parti, ou encore la possibilité de souscrire au Xbox Game Pass, un abonnement qui donne accès à une centaine de jeux PC ;
  • l’intégration de Teams par défaut, mais pas de Skype : ce dernier pourrait du coup prendre progressivement sa retraite ;
  • la section paramètres a été revue et est plus complète ;
  • le grand retour des widgets ;
  • une meilleure gestion du multitâches avec en particulier un docking largement amélioré que les personnes utilisant des écrans de grande taille, ou du multi-écrans, devraient apprécier ;
  • la refonte de la boutique Microsoft, plus pratique et performante ; elle permet par ailleurs désormais d’installer des applications Android ;
  • un mode tablette optimisé ;
  • Enfin, plus de performances et un OS moins gourmand en ressources : il faudra évidemment le vérifier en pratique et dans la durée.

On pourra regretter à l’inverse que certaines fonctions n’aient pas subi d’amélioration notable, comme le système de sauvegarde qui aurait bien besoin d’une refonte.

Windows 11, mais pas pour tout le monde

Microsoft a mis à disposition un test de compatibilité qui vous indiquera si votre machine Windows 10 peut tourner sous Windows 11 : en pratique, il faudra en particulier que votre machine dispose de TPM 2.0 (nos confrères d’INpact Hardware ont publié un guide sur comment le détecter et activer), et que votre processeur soit relativement récent.

Si les critères sont restrictifs en théorie, ils le sont moins en pratique : Microsoft explique qu’il est possible d’installer Windows 11 sur du matériel non éligible (auquel cas un avertissement s’affichera avant installation), et que l’on peut contourner l’obligation de TPM. Attention, ces approches ne sont recommandées que si vous savez ce que vous faites, et vous ne bénéficierez plus de certaines garanties.

Comment télécharger la nouvelle version ?

Pour les plus impatients, ou si vous avez de nombreuses stations à gérer, une page de téléchargement est disponible, avec assistant d’installation, outil de création de clé USB ou DVD de démarrage, ou encore image ISO.

Notez cependant que vous pouvez aussi tout simplement patienter le temps que Windows Update vous propose spontanément la mise à jour. C’est d’ailleurs la méthode officiellement recommandée par Microsoft pour le grand public.
Etant donné le nombre de machines concernées, cela va prendre du temps : Microsoft explique qu’il étalera les propositions de mise à jour jusque mi 2022.

Bien évidemment, nous vous recommandons de sauvegarder vos données avant la mise à jour… Ce qui devrait d’ailleurs être fait régulièrement.

Et après ?

Reste à voir si cette nouvelle version majeure saura convaincre le grand public, ainsi que le secteur professionnel. Nous aurons de notre côté sans nul doute l’occasion de revenir sur le sujet lors de prochains tests matériels.

L’article Windows 11 est de sortie : nouveautés, compatibilité, déploiement est apparu en premier sur 3DVF.

Le tour du Monde en 80 Jours : derrière le film, les concept arts et character designs !

Par : Shadows

Cet été, nous vous avions proposé une interview autour du film d’animation Le Tour du Monde en 80 Jours, réalisé par Samuel Tourneux, fabriqué chez Circus et Mac Guff sous la direction artistique de Mathieu Vavril.

Depuis, certains artistes ont pu mettre en ligne des travaux réalisés durant le développement visuel. Nous vous proposons donc une nouvelle plongée dans le film, centrée sur les concept arts et character designs.

La bande-annonce du film

Julien Le Rolland a travaillé sur le character design ; voici une sélection de ses créations pour le film ; on pourra en trouver d’autres sur son profil Artstation.

Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia

Yann Boyer, de son côté, était le Lead Background Artist durant le développement visuel. Il a travaillé sur de nombreux décors du film. Là encore, vous trouverez d’autres visuels sur Artstation.

Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia

N’hésitez pas à (re)lire notre interview sur le film, ou à consulter les portfolios de Yann Boyer et Julien Le Rolland.

L’article Le tour du Monde en 80 Jours : derrière le film, les concept arts et character designs ! est apparu en premier sur 3DVF.

La Traversée : le nouveau film de l’animatrice Florence Miailhe au cinéma

Par : Shadows

Réalisé par Florence Miailhe, le film d’animation La Traversée est actuellement visible au cinéma : un projet qui a connu une longue gestation, puisque le travail sur le film a débuté il y a 15 ans. La fabrication proprement dite a duré 3 ans.
Ce film d’animation utilise une technique dont Florence Miailhe s’est faite une spécialité : la peinture sur verre.

Un village pillé, une famille en fuite et deux enfants perdus sur les routes de l’exil…
Kyona et Adriel tentent d’échapper à ceux qui les traquent pour rejoindre un pays au régime plus clément. Au cours d’un voyage initiatique qui les mènera de l’enfance à l’adolescence, ils traverseront de multiples épreuves, à la fois fantastiques et bien réelles pour atteindre leur destination.

Voici la bande-annonce, suivie de deux vidéos qui vous en apprendront plus sur les coulisses du film.

L’article La Traversée : le nouveau film de l’animatrice Florence Miailhe au cinéma est apparu en premier sur 3DVF.

BOL, un nouveau nom dans l’animation et l’illustration

Par : Shadows

Découvrez BOL, nouvelle maison de production basée en Espagne et issue des studios d’animation Device, All In Pixel et Amigo Total.

Le concept : 21 talents du monde de la réalisation et de l’illustration, mais aussi une équipe de production et création à leurs côtés.
BOL explique que le choix des artistes s’est fait en raison de « leurs forces uniques et leurs voix diverses qui couvrent un vaste spectre de narratifs, styles et techniques ».BOL propose ses services à la fois en images fixes et animations.

En coulisses, BOL a en fait déjà commencé à travailler sur différents projets depuis un an. L’entité profite d’ailleurs de son officialisation pour dévoiler ses deux dernières productions :

  • pour les valises Away, une série d »animations mettant en scène des lieux mythiques, de l’Atlantide à Babylone. La réalisation a été confiée à Genís Rigol, la direction artistique à Emma Roulette.
    BOL explique que l’objectif était de mettre en avant les sensations associées à chaque lieu.
  • Une intro destinée à la licence de basketball Utah Jazz. Des vidéos des joueurs ont été manipulées et déformées : flous, gradients, animations brisées, impression et scan à répétition ont permis de donner des effets variés, avant de lier l’ensemble à l’aide de motion graphics.
    La réalisation est signée Amigo Total, la direction artistique Dan McKinney.
Produced by BOL
Directed by Amigo Total

On pourra trouver sur le site de BOL plus de détails sur l’équipe et les artistes qui composent l’entité.

L’article BOL, un nouveau nom dans l’animation et l’illustration est apparu en premier sur 3DVF.

Série League of Legends, studio à Montpellier : une riche actualité pour Fortiche

Par : Shadows

L’équipe de Fortiche Production, studio créé par Jérôme CombePascal Charrue et Arnaud Delord, est très active actuellement.
Deux nouvelles viennent en effet marquer l’actualité du studio : un déménagement et une nouvelle série d’animation.

Fortiche Montpellier s’installe dans ses locaux définitifs

Fin 2020, nous vous annoncions que Fortiche lançait deux studios à Montpellier et aux Canaries. L’antenne de Montpellier avait toutefois entamé ses projets dans des locaux temporaires : elle annonce désormais avoir intégré ses locaux définitifs.

Fortiche nous donne au passage quelques détails sur l’organisation interne :

Ce studio accueille un département Animation et un département CFX (Characters’ FX, dédié à la simulation des vêtements et cheveux des personnages) respectivement supervisés par Alexis Wanneroy et Julien Lefebvre, entourés d’équipes d’animatrices.teurs, de graphistes et de chargé.e.s de production.

Alexis Wanneroy est pour rappel un ancien animateur des studios DreamWorks, Julien Lefebvre étant un superviseur CFX passé par plusieurs studios canadiens, dont DNEG.

Crédit photo : Fortiche prod
Crédit photo : Fortiche prod
Crédit photo : Fortiche prod

Côté projets, Fortiche Montpellier travaille sur plusieurs projets en collaboration avec la maison mère parisienne, donc la série Arcane.

Arcane, la série évènement

Fortiche et le studio de jeux vidéo Riot Games collaborent depuis déjà plusieurs années : on se souvient notamment du fameux clip K/DA – POP/STARS, qui avoisine le demi-milliard de vues sur Youtube.

Il était donc logique que Riot poursuivre son partenariat avec Fortiche pour la série d’animation Arcane dérivée de l’univers du jeu League of Legends. Celle-ci sera dévoilée le 7 novembre prochain sur Netflix, en aval de la compétition mondiale annuelle dédiée au jeu.

Côté scénario, nous suivrons notamment les origines de personnages de la licence tels que Jinx, Vi, Jayce, Caitlyn :

Tout en narrant les origines de champions de League of Legends, Arcane se positionne comme une série animée à part entière dans un univers complexe, emprunt de dilemmes moraux et une histoire pleine de suspens, sublimée par une animation à couper le souffle réalisée par le studio français Fortiche. Partenaire de longue date, Fortiche s’est illustré par le passé grâce à la grande qualité de ses réalisations, comme Get Jinxed!, Warriors, Rise ou encore POP/STARS du groupe virtuel de pop K/DA.

La série met en scène l’équilibre précaire entre la riche cité de Piltover et les bas-fonds du district de Zaun, deux lieux connus du monde de Runeterra comme “terres du progrès” et qui abritent les esprits les plus brillants. Un équilibre menacé par la création du Hextech, une technologie permettant à quiconque de contrôler l’énergie magique. C’est dans cette atmosphère tendue, que deux sœurs au passé complexe – Jinx et Vi – verront leurs valeurs et croyances respectives remises profondément en question, d’une façon aussi inattendue que cruciale pour la destinée du monde de Runeterra et de ses deux citadelles.

Les épisodes seront dévoilés en trois actes de trois épisodes : le premier acte sera disponible le 7 novembre, les deux suivants les 13 et 20 novembre.

L’article Série League of Legends, studio à Montpellier : une riche actualité pour Fortiche est apparu en premier sur 3DVF.

Contretemps : Anna face à l’enfer du quotidien (promotion Gobelins 2021)

Par : Shadows

Laurine Baille, Gabriel Gérard, Lise Légier, Chloé Maingé et Claire Sun dévoilent Contretemps, leur court de fin d’études issu de la promotion Gobelins 2021.

Anna, atteinte de TOCs, tient un quotidien ordonné. Celui-ci est bouleversé lorsque sa sœur Maeve oublie une pièce de son instrument. Pour lui rapporter, Anna se confronte au monde extérieur où ses peurs se matérialisent.

Soundtrack / Musique : Arthur DAIRAINE
Sound editor / Montage sonore : Cédric DENOOZ
Mix / Mixage : Vincent MAUDUIT, Nathan ROBERT
Color Grading / Etalonnage : David CHANTOISEAU

L’article Contretemps : Anna face à l’enfer du quotidien (promotion Gobelins 2021) est apparu en premier sur 3DVF.

Chaos chez Chaos : panne majeure en cours

Par : Shadows

Mise à jour : la panne a finalement été résolue, et a duré près de 3h.

Le cloud a ses mérites, mais aussi ses revers. La preuve aujourd’hui avec Chaos, éditeur de V-Ray et Phoenix : le serveur de licences de l’entreprise est hors service depuis plus de deux heures, ce qui pose évidemment de lourds problèmes pour de nombreux studios et artistes, qui ne peuvent donc plus utiliser des licences qu’ils ont pourtant payées.

Si Chaos travaille évidemment d’arrache-pied pour trouver une solution, nous n’avons pour le moment pas d’informations sur une heure de rétablissement espérée. Nous vous invitons donc, si vous êtes touchés, à suivre le site Chaos Service Status en espérant un retour rapide au vert.

Quoiqu’il en soit, cette panne rappelle que les serveurs de licence dans le cloud restent un problème potentiel, et qu’ils peuvent facilement bloquer un projet en cas de problème.

L’article Chaos chez Chaos : panne majeure en cours est apparu en premier sur 3DVF.

Zoic Studios fait le pari du télétravail

Par : Shadows

Zoic Studios annonce basculer dans l’ère du télétravail : les employés du studio pourront à l’avenir travailler à distance, pandémie ou pas.

Télétravail forcé en 2020 : un bilan positif

Zoic Studios explique avoir constaté une hausse de productivité avec la mise en place du distanciel en raison de la pandémie : la transition vers le travail à distance ayant eu des effets positifs, l’entreprise ne voit pas de raison de revenir en arrière.

Pour autant, Zoic ne compte pas se délester de ses bureaux de Culver City, New York et Vancouver : ils resteront disponibles, notamment pour certains projets spécifiques, pour la collaboration face à face, ou encore pour toutes les personnes du studio qui préféreraient cette option, dans le respect des règles sanitaires locales.

L’importance de la communication

Kristen Branan (Executive Vice President – Global Production chez Zoic Studios) explique la hausse de la productivité et créativité s’expliquerait notamment par l’élimination des temps de transports et de certaines distractions. Paradoxalement, la cohésion de l’équipe aurait aussi été renforcée. Le studio souligne avoir pris soin de mettre en place des « opportunités » pour que les liens puissent se créer/renforcer au sein de ses studios, avec par exemple des réunions mensuelles de toute l’équipe afin de conserver transparence et motivation, ou encore des opportunités virtuelles de socialisation.

Zoic Studios compte plus de 400 personnes à temps plein qui ont pu travailler ces derniers mois en télétravail sur les séries WandaVision, Superman & Lois ou encore For All Mankind.
En outre, Zoic Studios a pu faire avancer sa stratégie autour des technologies temps réel, ces dernières ayant justement été employées sur certaines des séries citées plus haut.

Télétravail, oui, mais pas sans limites

En pratique, le communiqué de Zoic est toutefois à nuancer. Si le studio explique que le télétravail permet de recruter les talents là où ils se trouvent, en pratique il n’est pas toujours possible d’embaucher des personnes situées à l’autre bout du globe.
Zoic nous l’a explicitement confirmé : si le studio entend bien recruter de façon mondiale quand cela est possible ou pour des disciplines spécifiques, la majorité du temps l’entreprise devra se limiter au marché du travail associé à chaque studio : par exemple, la Colombie Britannique pour son studio de Vancouver. La raison principale : les fameux crédits d’impôt, qui ne fonctionnent évidemment pas si les employés sont situés à l’autre bout de la planète, le but de ces incitations fiscales étant justement d’attirer les investissements et dépenses localement.

Exemple d’offre d’emploi en télétravail sur le site de Zoic Studios

L’exemple de Zoic Studios prouve que le télétravail pourrait prendre de l’ampleur dans les années à venir, mais rappelle aussi que les contraintes financières de l’industrie ne permettront pas forcément de briser toutes les frontières.

L’article Zoic Studios fait le pari du télétravail est apparu en premier sur 3DVF.

Justine Louvet, infographiste freelance spécialisée en architecture

Par : Shadows

Découvrez les travaux de Justine Louvet, infographiste 3D et perspectiviste freelance spécialisée dans le rendu architectural (rendu fixe, animations).
Basée à Lyon, elle est cependant mobile, y compris hors de France. Elle utilise notamment 3ds Max, Corona Render, After Effects, Illustrator, InDesign, Photoshop.

Pour les studios qui utilisent notre plateforme emploi, notez que vous pouvez retrouver son profil et ses coordonnées dans la CVthèque.
Rappelons aussi aux personnes en recherche d’emploi/stage que vous pouvez créer votre profil gratuitement

Images réalisées au sein de l’agence d’architecture Soho Atlas In Fine à Lyon

L’article Justine Louvet, infographiste freelance spécialisée en architecture est apparu en premier sur 3DVF.

Comment Mac Guff a ressuscité Lady Di, Mitterrand et Jean Gabin

Par : Shadows

Le deep learning est désormais LA grande tendance à suivre dans le secteur des effets visuels, avec des usages surprenants : nous en avons récemment parlé sur 3DVF avec un spot mettant en scène Bruce Willis, via un générateur d’animations de danse ou encore du côté de NVIDIA. Des projets d’autant plus prometteurs que l’application de l’IA aux effets visuels n’en est qu’à ses débuts.

En France, Mac Guff a su voir le potentiel immense de ces technologies et s’est pleinement lancé dans ce nouvel eldorado. A la clé, un gain de temps et de réalisme phénoménaux.
La preuve : pour l’émission Hôtel du temps, qui sera bientôt présentée sur France 3 et mettra en scène Thierry Ardisson interviewant des célébrités décédées, Mac Guff n’a mis que 3 mois pour truquer 50 minutes de contenu.

En voici la bande-annonce, qui vous permettra de juger du résultat :

Hôtel du Temps

Le concept de l’émission Hôtel du Temps pose plusieurs défis de taille : le grand public a déjà une image précise de ces personnalités en tête, et le format interview implique un cadrage serré.

Rodolphe Chabrier, président de Mac Guff, nous a indiqué que les équipes du studio n’avaient pas pour mission d’embellir les personnalités, même si ce serait techniquement possible : l’idée était donc réellement de proposer un résultat proche des visages réels, et non une version idéalisée.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson
Lady Di dans Hôtel du Temps
Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

Une autre question consistait à définir l’âge cible pour chaque personnalité : souhaite-t-on interviewer un Jean Gabin dans sa jeunesse, ou plus tardivement ? Cette problématique est évidemment définie en amont du tournage, puisque comme seul le visage est remplacé, le comédien doit adapter son jeu et avoir une coiffure adaptée (l’outil Face Engine de Mac Guff ne gère pas encore les cheveux).

Une fois ces paramètres définis, le plus difficile reste à faire : trouver les bonnes données qui permettront de rendre vie aux personnalités.
En effet, le deep learning implique de disposer de données d’entrée qui vont servir à « entraîner » l’outil afin qu’il génère correctement les images du visage de chaque célébrité.

Jean Gabin dans Hôtel du temps
Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

Problème, les images d’archives de l’ère pré-HD et pré-numérique, d’une définition réduite, avec du grain et donc d’une qualité toute relative, ne constituent pas la source idéale. D’où la notion de « Face Retriever » mise en avant par Thierry Ardisson lors des interviews autour de son émission : l’idée est de souligner qu’il a fallu « récupérer » les visages en travaillant en profondeur sur le choix des images sources et leur amélioration. Sur ce dernier point, Mac Guff préfère ne pas trop s’étendre, le studio souhaitant évidemment préserver ses méthodes afin de garder un temps d’avance.

Rodolphe Chabrier a néanmoins pu nous donner quelques informations générales. Il souligne qu’il peut arriver qu’une personnalité « ne se ressemble pas » sur certaines archives. Un éclairage atypique, une posture ou expression inhabituelles pour une personne peuvent changer ponctuellement son apparence, auquel cas il faudra éviter d’utiliser les images associées.

Par ailleurs, un des problèmes classiques en deep learning est le côté « boîte noire » des outils, qui empêche d’avoir un contrôle artistique.
Cet obstacle a ici été surmonté grâce à une approche mixte et pas uniquement des outils de deep learning en boîte noire (là encore, Rodolphe Chabrier n’a pas pu nous donner trop de détails). Les artistes du studio ont donc le contrôle sur les images : il est donc possible de faire des retakes, d’ajuster certains détails. Une expression faciale inadaptée, un regard mal positionné peuvent être modifiés.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

« Industrialiser la bidouille »

Mac Guff a donc su mettre sur pied des outils expérimentaux, puis en faire un nouveau pipeline utilisable en production. Une démarche que Rodolphe Chabrier résume ainsi : « industrialiser la bidouille ».

Cette démarche du studio était déjà engagée depuis un certain temps (comme en témoigne le travail fait sur la série Le Bureau des légendes), mais elle a paradoxalement été accélérée par la pandémie : lors du début de la crise, l’effondrement du nombre de projets a libéré du temps. Rodolphe Chabrier et Martial Vallanchon (superviseur VFX au sein du studio) ont alors pu passer 3 à 4 mois à se focaliser sur le deep learning, à faire des tests qui ont aussi permis de convaincre l’ensemble de la direction du studio de la viabilité de cette technique. Mac Guff a ensuite mis en place une démarche pragmatique, avançant pas à pas, explorant peu à peu.

Le résultat de ce travail fastidieux est donc la création de 50 minutes de plans truqués en l’espace de 3 mois. Une rapidité impressionnante qui change radicalement la manière d’aborder un projet, la phase la plus lente étant le choix des données et l’entraînement de l’outil, tandis que la génération des images se fait très rapidement (mais pas encore en temps réel, malgré la puissance des GPUs actuels).

Le passage au deep learning n’est donc pas un simple changement d’outil, mais une véritable révolution qui impacte la fabrication comme la production. Comme le résume Rodolphe Chabrier : « les flux changent, les coûts changent, la crédibilité visuelle change ».

En revanche, explique-t-il, comme les autres innovations passées (y compris l’invention des VFX), l’IA n’a pas vocation à tuer des emplois, mais bien à en créer, à élargir les possibilités narratives en rendant possible ce qui ne l’était pas.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson
Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

Un atout concurrentiel

Une telle technologie peut évidemment constituer un atout pour les studios qui sauront prendre le train avant les autres. Même si Mac Guff est avant tout un studio généraliste (là où d’autres se spécialisent dans certains types d’effets, comme les créatures ou les simulations), ce travail sur les visages pourrait attirer des clients spécifiquement intéressés par cette compétence, en France comme à l’étranger.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

Et demain ?

Le studio ne compte évidemment pas en rester là, et l’objectif est d’étendre l’IA à de nouveaux domaines.

Les cheveux, d’abord, puisque comme indiqué plus haut seuls les visages ont été traités pour Hôtel du Temps (les cheveux sont donc ceux des acteurs, ou des perruques).
L’idée serait également de travailler sur les corps complets avec un « Body Engine », et même d’appliquer l’IA à d’autres champs techniques. Bref, de continuer l’approche pragmatique déroulée jusqu’ici.
Outre les humains, la rotoscopie est un autre bon candidat au deep learning. Ici, l’IA pourrait permettre de diminuer les coûts, d’automatiser le travail mais aussi de relocaliser une tâche souvent confiée à des studios asiatiques.

Reste à concrétiser cet avenir. Si Mac Guff dispose déjà d’un début de département dédié à l’IA et au deep learning, avec des ingénieurs issus de l’X ou des Ponts et Chaussées, le but est à terme mettre en place une équipe de 4 ou 5 personnes focalisées à 100% sur le sujet.

Ceci représentera un investissement conséquent, puisque les profils nécessaires sont issus d’écoles d’ingénieur et que les entreprises de tous secteurs s’arrachent actuellement les spécialistes de l’IA.
Le CNC sera un soutien précieux : Mac Guff vient de remporter un appel à projets « Choc de Modernisation » avec à la clé une aide financière. Si la somme accordée n’est pas aussi élevée que ce qu’aurait souhaité le studio, elle constitue tout de même un accélérateur précieux, et Rodolphe Chabrier nous a clairement indiqué à quel point Mac Guff peut remercier le CNC : sans ce support, les fonds propres du studio n’auraient pas suffi pour lancer le futur département IA.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

Le secret de la longévité ?

Visages rajeunis, maquillés, remplacés, et demain coiffures, corps, animation, décors… Mac Guff ouvre un nouveau chapitre de son histoire.

Une trentaine d’années après ses travaux pionniers en morphing – pour rappel, ILM n’a devancé l’équipe française que de quelques mois -, Mac Guff continue d’appliquer la recette qui a fait son succès : l’innovation.

L’émission Hôtel du Temps sera prochainement diffusée sur France 3.


En bonus de cet article, voici (en exclusivité !) l’ensemble des visuels que nous a transmis Mac Guff. Pour chaque paire d’images, celle de gauche est la version d’origine sans retouche, celle de droite la version en sortie du Face Engine de Mac Guff, mais avant le finishing (et donc sans l’étalonnage final).
Vous pouvez cliquer sur les images pour les ouvrir en pleine résolution.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

L’article Comment Mac Guff a ressuscité Lady Di, Mitterrand et Jean Gabin est apparu en premier sur 3DVF.

Alter Ego : quand la télé-réalité rencontre le Bigdil et les concerts virtuels

Par : Shadows

Les émissions de télé-réalité à base de chansons doivent évidemment se renouveler pour continuer à séduire le public, comme en témoignent les multiples concepts lancés ces dernières années tels que Mask Singer.

Pour l’automne, la Fox tente une approche high-tech avec Alter Ego. Le concept : les candidates et candidats restent en coulisses, et c’est un avatar en animation 3D qui les remplace sur scène.

Les effets ont été confiés à Lulu AR (qui s’appuie notamment sur la solution de réalité mixte Pixotope) et Silver Spoon, spécialiste de l’animation temps réel et de la production virtuelle.
En pratique, les chanteuses et chanteurs sont donc en coulisses, affublés d’une tenue de performance capture. Les images de promotion montrent que la capture faciale se fait avec un smartphone (très probablement un iPhone 12, vu le design). Les données de performance capture sont ensuite utilisées pour animer un avatar qui est incrusté dans les images du plateau, avec juges et public.

Bien évidemment, le résultat nécessite que juges et public se prêtent au jeu : ils sont face à une scène vide et doivent faire semblant de voir l’avatar en face d’eux pour que la magie fonctionne auprès des téléspectateurs.

Si la vidéo de promotion officielle présente évidemment le concept comme une révolution, il convient de prendre un peu de recul. On peut voir Alter Ego comme la suite logique de plusieurs décennies d’expérimentations : dès 1998, par exemple, l’émission Le Bigdil proposait sur le petit écran français un avatar animé en temps réel par un comédien depuis les coulisses, qui pouvait du coup dialoguer avec le présentateur. Plus récemment, les VTubeurs ont proposé un concept similaire mais en ligne.

Alter Ego est au fond la suite logique du Bigdil avec les technologies actuelles : l’avatar n’a plus besoin d’être cantonné à un écran présent sur le plateau et peut être fusionné avec les images filmées pour lui donner plus de corps. Faire correspondre l’éclairage plateau avec celui de la 3D renforce l’illusion.

Notons enfin que si le concept fonctionne, il est plus que probable qu’il sera décliné dans d’autres pays : nous verrons donc peut-être une version française arriver d’ici quelques mois.

L’article Alter Ego : quand la télé-réalité rencontre le Bigdil et les concerts virtuels est apparu en premier sur 3DVF.

Un mariage pour le meilleur et pour les VFX entre MPC et Mikros

Par : Shadows

MPC et Mikros, qui font tous deux partie du groupe Technicolor, annoncent le regroupement de leurs les activités VFX pour les longs-métrages, séries, documentaires.

En pratique, les studios de Paris et Liège changent de nom et travailleront sous le nom MPC Film & Episodic. Leur coeur de cible ne change pas, en revanche : les équipes continueront de proposer effets visuels et pré/post production aux marchés français et belges.

Les évolutions de ces dernières années et cette nouvelle annonce pouvant créer de la confusion, un récapitulatif s’impose.
Les activités liées aux noms MPC et Mikros sont désormais réparties sous trois marques, toutes affiliées au groupe Technicolor :

  • MPC Film & Episodic (alias « MPC ») avec des projets d’effets visuels et pré/post production pour le cinéma, les documentaires et les séries. Avec des studios basés à Londres, Los Angeles, Berlin, Bangalore, et donc désormais aussi Paris, Liège. Béatrice Bauwens, ex directrice générale de la division effets visuels et post-production de Mikros Image, dirige les studios de Paris et Liège ;
  • Mikros Animation pour les longs-métrages et séries d’animation, la création de contenus originaux animés ;
  • Mikros MPC Advertising (alias Mikros MPC), qui regroupe les activités liées à la publicité, aux clips, les projets VR/XR, les contenus à destination des musées.

Avec cette réorganisation, le groupe Technicolor simplifie et clarifie son offre VFX auprès des clients. Le communiqué donne également quelques indications sur les raisons de cette évolution : la mise en commun de technologies, l’apport des capacités françaises et belges au sein de MPC, ou encore de nouvelles options en matière de crédit d’impôts pour les clients VFX.

« Notre moteur a toujours été d’apporter notre expertise créative et technique aux projets en s’impliquant aux côtés des cinéastes. Nous partageons avec les équipes de MPC la même passion pour trouver des solutions qui servent au mieux les histoires. L’association de Mikros VFX et MPC est une formidable opportunité pour les équipes d’avoir accès à la plus haute technologie mondiale et à une communauté de talents exceptionnelle, au bénéfice de nos clients à Paris et à Liège. Nous sommes fiers d’apporter notre touche française et belge à la marque MPC.  » commente Béatrice Bauwens.

Tom Williams, directeur général de MPC Episodic, déclare : « Je suis ravi d’accueillir les incroyables équipes VFX de Mikros. En unissant nos forces, nous affirmons notre engagement à fournir les meilleurs talents et technologies VFX à nos clients longs-métrages et séries partout dans le monde. »

Il poursuit : « La France a une très riche histoire cinématographique et nous sommes honorés d’avoir l’opportunité de travailler au sein du marché français et d’offrir à nos clients internationaux un accès à la richesse des talents disponibles à Paris et à Liège, ainsi qu’à davantage d’options de réduction d’impôts pour les productions VFX ».

Notons enfin que les site de MPC et Mikros ont d’ores et déjà été mis à jour pour refléter la nouvelle organisation.

L’article Un mariage pour le meilleur et pour les VFX entre MPC et Mikros est apparu en premier sur 3DVF.

Matrix Resurrections : le retour de la licence mythique

Par : Shadows

Deux décennies après la trilogie Matrix, Neo et Trinity sont de retour ! Voici la bande-annonce de Matrix 4, prévu pour le 15 décembre 2021 au cinéma.

Réalisé par Lana Wachowski, ce nouvel opus est co-écrit par Lana Wachowski, David Mitchell & Aleksander Hemon.

Les effets visuels ont été confiés à de nombreux studios dont CIS Hollywood, Tippett, BUF, ESC, Sony Pictures Imageworks, CFX.
Les artistes ont donc la lourde tâche de poursuivre une saga qui a eu un impact important dans l’histoire du cinéma et des effets visuels.

Voici la bande-annonce en VOST puis VF :

L’article Matrix Resurrections : le retour de la licence mythique est apparu en premier sur 3DVF.

Xencelabs dévoile une nouvelle tablette

Par : Shadows

Xencelabs Technologies proposait déjà une tablette à stylet au format M, que nous venons d’ailleurs de tester. La marque étend désormais sa gamme avec un modèle au format S, moins onéreux.

Cette nouvelle tablette affiche un format de 234.18 x 184.66 x 8 mm, soit environ 2/3 de sa grande soeur (320,5 x 232,85 x 8 mm).
Côté poids, avec 400g environ, le modèle S gagne 300g sur la tablette M.

La tablette à stylet S de Xencelabs comparée à sa grande soeur en taille M

Le reste des caractéristiques techniques est sensiblement identique.
Cette Xencelabs est donc utilisable avec ou sans fil (autonomie annoncée en mode sans fil de 16h environ, comme la tablette M). Elle gère 8192 niveaux de pression, l’inclinaison, dispose d’une encoche de sécurité Kensington Nano.
En outre, la tablette est fournie avec deux stylets dont un fin, un gant en taille M (modèles S et L disponibles séparément), une pochette de transport, un étui de rangement pour les stylets, mines et certains accessoires.
La télécommande Quick Keys n’est pas incluse par défaut dans le pack proposé, mais peut être achetée en option.

La tablette à stylet S de Xencelabs est compatible Windows 7 ou supérieur, Mac OS X 10.12 ou supérieur, Linux.

La tablette à stylet S de Xencelabs, avec ses stylets et la télécommande optionnelle.
Vidéo de présentation de la tablette à stylet S de Xencelabs

En pratique, le choix entre le modèle S ou M est donc essentiellement une question de préférence personnelle, mais aussi de tarif : la S coûte environ 30% moins cher.

Xencelabs explique vouloir notamment cibler les artistes nomades, ne disposant pas d’un grand espace de travail, ou encore ceux dont l’écran est de petite taille, mais aussi « les utilisateurs sensibles au prix » comme les personnes encore en études ou venant d’arriver dans l’industrie.

Notez pour finir que Progiss, partenaire de 3DVF, est revendeur des solutions Xencelabs. La tablette à stylet S est donc disponible dans la boutique 3DVF.fr aux côté du modèle M.

L’article Xencelabs dévoile une nouvelle tablette est apparu en premier sur 3DVF.

SEGA s’offre la Lune

Par : Shadows

Afin de mettre en avant le lancement du jeu de stratégie Humankind développé par Amplitude Studios, SEGA a fait appel à l’agence BETC pour concevoir un spot lunaire.

Le résultat : une bande-annonce réalisée par Edouard Salier, produite par Wanda et avec des effets visuels signés Digital District. On y suit les premiers pas sur la Lune d’un astronaute américain, qui va rapidement réaliser qu’il n’est pas seul sur l’astre céleste…

Côté coulisses, l’équipe a fait le choix d’éviter une approche mixte et non full CG : comme le montre le making-of, une bonne partie des images sont issues d’un tournage en studio. Les artistes de Digital District (dirigées par le VFX Supervisor Etienne Salançon et la VFX Producer Dorothée Sémézis) ont notamment géré les extensions de décor, drapeaux, et créé une foule d’aventuriers avides de conquête spatiale.

Côté musique, on note la présence d’une version revisitée du Beau Danube Bleu de Johann Strauss, dont l’association à la conquête spatiale est gravée dans les esprits depuis son utilisation par Stanley Kubrick dans 2001, l’Odyssée de l’Espace.

Réalisation : Edouard Salier
Production : Wanda
Agence : BETC
VFX Producer : Dorothée Sémézis
VFX Supervisor : Etienne Salançon
Flame Artist : Eric Alcuvilla
Color Grading : Color
Colorist : Mathieu Caplanne
Editor : Walter Mauriot

Humankind est disponible depuis le 17 août. Le jeu de stratégie vous propose d’incarner une civilisation qui s’étendra, si vous la dirigez correctement, sur l’ensemble de l’histoire humaine. Le titre est présent sur Steam, Epic Games Store, Windows Store, Stadia.

L’article SEGA s’offre la Lune est apparu en premier sur 3DVF.

Theresa Plummer-Andrews (1944-2021): un grand nom de l’animation nous quitte

Par : Shadows

Nous apprenons le décès de Theresa Plummer-Andrews, productrice britannique de télévision qui a eu une forte influence dans le secteur des programmes jeunesse, et donc de l’animation. Elle fut notamment productrice exécutive de Bob le bricoleur, Les animaux du bois des Quat’Sous, et plus récemment de Pingu et Zou (productrice associée). Elle avait 77 ans.

Theresa Plummer-Andrews

Après un début de carrière en tant qu’agent artistique (Richard Burton, Elizabeth Taylor furent ses clients), elle se focalise sur le petit écran dans les années 70. Elle rejoint TVS (titulaire de la franchise du réseau de télévision privé ITV pour le Sud de l’Angleterre) en 81, puis la BBC en 1986, où elle devient productrice exécutive pour Children’s BBC (CBBC). Peu après, elle devient head of acquisitions and creative development (directrice des acquisitions et du développement créatif).

Les animaux du bois de Quat'Sous 01 Le bois en danger - YouTube
Les animaux du bois de Quat’Sous

Elle participe alors au lancement/à la production de très nombreux projets, comme Les moomins (1990), Sam Le Pompier (1994), Robinson Sucroë (1995), Les animaux du bois des Quat’Sous (1993-1995), Noddy (1998-2000), Little Robots (2003), Bob le bricoleur (1998-2004), Les frères Koalas (2003-2006), Le Pingu Show (2004-2006), Postman Pat (2003-2006), Le Petit tracteur Rouge (2003-2007), City of Friends (2011), Zou (2013-2014), The Jungle Book (2010-2019) et bien d’autres.

Zou

Ces projets l’amenèrent notamment à collaborer avec des studios français comme Action Synthèse, Cyber Group.

Les hommages se sont multipliées à l’annonce de son décès, notamment du côté français.

Olivier Lelardoux, réalisateur et directeur de l’animation chez Cyber Group Animation, salue ainsi « une personne merveilleuse qui se souciait énormément de nous et de notre travail ». Il a également souligné l’expertise et le talent de Theresa Plummer-Andrews, la qualifiant de « légende » dans l’industrie.

Hommage similaire du côté de Pierre Sissman, fondateur et PDG de Cyber Group Studios, qui évoque « une amie très, très chère de ma famille » avec laquelle il travailla durant une quinzaine d’années. Comme Olivier Lelardoux, il souligne le soin apporté par Plummer-Andrews, qui « ne faisait pas de compromis » sur la qualité des contenus sur lesquels elle travaillait.

Theresa Plummer-Andrews aura marqué plusieurs générations d’enfants, mais aussi toute une industrie, au Royaume-Uni comme dans le reste du monde.

L’article Theresa Plummer-Andrews (1944-2021): un grand nom de l’animation nous quitte est apparu en premier sur 3DVF.

Plan cul la praline : amour et sexualité s’animent pour la rentrée

Par : Shadows

Miyu Distribution décide de sortir le grand jeu en cette fin d’été, et annonce la sortie au cinéma de son premier programme de courts-métrages pour adultes.

Au menu : 7 petits films d’animation explorant amour et sexualité sous différents angles, de la comédie au drame en passant par l’érotique et le trash. Le tout est rassemblé sous le titre Plan cul la praline.

Voici le programme :

  • Toomas dans la vallée des loups sauvages, réalisé par Chintis Lundgren et produit par Chintis Lundgreni Animatsioonistuudio, Adriatic Animation & Miyu Productions.
    Nous vous avions déjà proposé d’explorer l’univers de cette réalisatrice avec Manivald, un court-métrage mettant en scène un renard trentenaire, sa mère et le fameux Toomas, loup au physique avantageux.
    Ici, Toomas a perdu son emploi et est devenu… Plombier gigolo.
  • Average Happiness, réalisé par Maja Gehrig et produit par Langfilm.
    Un film qui débute comme une présentation Powerpoint, mais va rapidement nous inviter à découvrir « le monde sensuel de la statistique ». Tout un programme.
  • Filles Bleues, Peur Blanche réalisé par Marie Jacotey et Lola Halifa-Legrand et produit par Miyu productions.
    Un couple tombe dans une embuscade sur les routes de Provence, une jeune femme fera face à ses doutes.
  • Hold Me Tight réalisé par Leo Robert-Tourneur et produit par Vivi Film & La Clairière Ouest.
    Une parade nuptiale au coeur d’une forêt, « romance amère et flamboyante ».
  • Wild Love réalisé par P. Autric, Q. Camus, M. Laudet, L. Georges, Z. Sottiaux, C. Yvergniaux et produit par L’Ecole des Nouvelles Images.
    Un court entre romantique et humour gore/trash, que nous avions publié en intégralité. Avec des marmottes bien décidées à se venger d’un couple de randonneurs amoureux.
  • #21xoxo réalisé par Sine Özbilge et Imge Özbilge et produit par Lunanime.
    Une jeune fille, des réseaux sociaux et une quête d’amour.
  • Just a guy réalisé par Shoko Hara et produit par Studio Seufz.
    Trois jeunes femmes reviennent sur leur relation avec un tueur en série.

Expérimental, rire, documentaire, concepts improbables : les films sont très divers mais restent reliés par le fil rouge thématique, ainsi que par le fait qu’ils ont déjà connu le succès en festivals.

Ce programme éclectique, mêlant les tons et les techniques, a été concocté à l’occasion de la prochaine Fête de l’animation organisée par l’AFCA. Il sera visible en salles à partir du 13 octobre.

Plan cul la praline

L’article Plan cul la praline : amour et sexualité s’animent pour la rentrée est apparu en premier sur 3DVF.

Chaos et Progiss fêtent l’été : 21% de réduction sur certains produits V-Ray/VRscans !

Par : Shadows

Dès à présent et jusqu’au 23 août 2021, Chaos organise ses Summer Sales: 20% de réduction sur une sélection de produits Chaos, tels que des abonnements V-Ray, V-Ray Collection, VRscans.

Progiss, partenaire de 3DVF, a décidé de renforcer cette promotion : pour cette année 2021, ce sont donc 21% de remise qui sont appliqués dans la boutique 3DVF.fr et non 20%.

Quatre produits sont en promotion :

Pour profiter de l’offre :

  • cliquez sur le produit de votre choix dans la liste ci-dessus ;
  • lors de la commande, cliquez sur « Vous avez un code promo ? » et rentrez SUMMER21
  • la remise sera alors appliquée.

Comme toujours, si vous avez des questions, n’hésitez pas à contacter notre partenaire Progiss, par téléphone au 01 49 89 07 90 ou par mail : info@progiss.com
Notez également que l’équipe Progiss est à votre disposition pour vous proposer des présentations des logiciels de la boutique, que ce soit dans leurs locaux (Roissy, à côté de Paris) ou dans les vôtres.

L’article Chaos et Progiss fêtent l’été : 21% de réduction sur certains produits V-Ray/VRscans ! est apparu en premier sur 3DVF.

SIGGRAPH 2021 : les courts des écoles françaises une fois de plus très présents

Par : Shadows

30% : c’est la proportion de projets français sélectionnés dans le Computer Animation Festival Electronic Theater (vous pouvez vous accréditer ici), autrement dit le festival d’animation/VFX qui accompagne le SIGGRAPH chaque année.

Le chiffre est particulièrement élevé : si les USA sont légèrement devant (32% de projets y ont été fabriqués en totalité ou partie), les autres pays tels que le Canada, Royaume-Uni sont loin derrière ce duo de tête.

Pour autant, ce score élevé n’est pas une surprise : comme le montre l’infographie ci-dessous réalisée par Pierre Hénon, depuis les début des années 80 la France s’est faite de plus en plus présente dans le Festival.
Une domination s’explique notamment par la qualité des films de fin d’études issus des écoles françaises, mais aussi leur nombre, de nombreux pays n’ayant pas autant de formations en animation 3D (ou qui ne s’articulent pas sur la création de courts-métrages en équipe).

Infographie réalisée par Pierre Hénon

Des courts-métrages étudiants de qualité

Voici l’ensemble des courts-métrages français de la sélection, avec synopsis et teaser. De quoi vous donner un aperçu de leurs atouts.


Je suis un caillou – prix « Best Student Projet » 2021

Réalisation : Mélanie Berteraut, Yasmine Bresson, Léo Coulombier, Nicolas Grondin, Maxime Le Chapelain et Louise Massé. – ESMA – promotion 2020.
Un sublime court-métrage mettant en scène une loutre peu ordinaire. Le prix « Best Student Project » reçu par ce film est amplement mérité.
Nous avons publié une interview sur le projet en compagnie de l’équipe.

Bulle, une jeune loutre, vit avec des galets qu’elle considère comme sa famille. Elle s’imagine que ce sont des loutres normales, mais petit à petit, elle prend conscience de leur véritable nature et doit se confronter à sa solitude.


Trésor

Réalisation : Alexandre Manzanares, Guillaume Cosenza, Philipp Merten, et Silvan Moutte-Roulet – Ecole des Nouvelles Images – promotion 2020.

Une comédie marine confrontant des chasseurs de trésor, un poulpe et une mouette. Nous avons publié une interview sur les coulisses du projet.


La Source des Montagnes

Réalisation : Adrien COMMUNIER, Camille DI DIO, Benjamin FRANCOIS, Pierre GORICHON, Briag MALLAT, Marianne MOISY – ESMA Nantes – promotion 2020
Un conte très réussi mettant en scène un peuple, ses coutumes et son univers via une narration visuelle particulièrement efficace.

Les Paccha-Picchus sont de petits êtres festifs. Ils vivent dans l’insouciance d’un quotidien rythmé par le passage de Montagnes qui s’avancent jusqu’à soulever leur oasis, les élevant dans un climat hivernal qu’ils affectionnent et qui leur est vital. Mais un jour, elles cessent d’apparaître. L’impatience de l’un d’entre eux, KinKo, le pousse à partir à leur recherche.


Stranded

Réalisation : Alvin AREVALO-ZAMORA, Alwin DUREZ, Quentin GARAUD, Maxime SALVATORE, Florent SANGLARD, Thomas SPONY-IPIENS, Alex TREGOUET – ESMA – Promotion 2020
Un scénario puissant parfaitement servi par un travail graphique de qualité.

Dans lʼAlaska de la fin du 19e siècle, Hawk, un trappeur robuste, fait la rencontre imprévue dʼun élan surnaturel, annonciateur de lʼapocalypse.


Les chaussures de Louis

Réalisation : Marion Philippe, Ka Yu Leung, Jean-Géraud Blanc, Théo Jamin – MoPA – promotion 2020.
Un court-métrage touchant évoquant les troubles autistiques du point de vue d’un enfant.

Louis, un enfant autiste de 8 ans et demi arrive dans sa nouvelle école et va se présenter.


Migrants – « Best in Show » 2021

Réalisation : Zoé DEVISE, Hugo CABY, Antoine DUPRIEZ, Aubin KUBIAK and Lucas LERMYTTE – Pôle 3D – promotion 2020.
Un film qui traite en apparence du changement climatique, mais va finalement bien plus loin.

Deux ours polaires sont poussés à l’exil par le réchauffement climatique. Ils vont faire la rencontre d’ours bruns avec qui ils vont tenter de cohabiter.


Carried Away

Réalisation : Jean-Baptiste Escary, Alo M. Trusz, Johan Cayrol, Manon Carrier, Etienne Fagnere – MoPA – promotion 2020.
Au programme : de l’humour noir qui fait mouche !

Maman est morte. Ses deux fils devront profiter de sa dernière volonté : une randonnée en forêt.


Dead End

Réalisation : Robin ANDRE-BOURGUIGNON, Leia PERON, Romain EUVRARD, David BRUYERE, Antoine PERRIER-CORNET et Maxime RECUYER – New3dge – promotion 2020.

Un court-métrage de science-fiction mêlant robotique et voyage temporel.


Latitude du printemps

Réalisation : Chloé Bourdic Théophile Coursimault Sylvain Cuvillier Noémie Halberstam Maÿlis Mosny Zijing Ye – Rubika – Promotion 2020.
Techniques multiples, animation façon stop-motion, mais aussi un usage audacieux et des cadrages : un défi risqué mais relevé haut la main !

Un chien vient de se faire abandonner sur le bord de la route. Attaché à un lampadaire, il reste seul jusqu’au jour où il fait la rencontre d’un petit astronaute en herbe et d’une cycliste professionnelle qui s’acharne à battre son record.


Gladius

Réalisation : Margaux Latapie, Grégory Diaz, Florian Cazes, Marie-Charlotte Deshayes-Ducos, Clément Petellaz, Baptiste Ouvrard, Jimmy Natchoo, Guillaume Mellet – ESMA – Promotion 2020.
Un film poignant, loin des représentations habituelles des jeux du cirque.

Pendant la Grèce antique, Marcus, vigneron, est hanté par son passé de gladiateur.


Stuffed

Réalisation : Elise Simoulin, Clotilde Bonnotte, Anna Komaromi, Edouard Heutte, Helena Bastioni, Marisa Di Vora Peixoto – Rubika 2018
Le court avait reçu le prix Best Student Project en 2019.

L’histoire d’un petit chat capricieux faisant une drôle de rencontre qui va l’aider à grandir et à contrôler ses émotions…

L’article SIGGRAPH 2021 : les courts des écoles françaises une fois de plus très présents est apparu en premier sur 3DVF.

SIGGRAPH 2021 : un projet de recherche nettoie vos dessins

Par : Shadows

Nous continuons notre couverture des innovations présentées durant le SIGGRAPH avec une publication axée sur la 2D et l’esquisse : StrokeStrip : joint parameterization and fitting of stroke clusters.

Ce projet de recherche est issu du travail de Dave Pagurek van Mossel, Chenxi Liu (University of British Columbia), Nicholas Vining (University of British Columbia & NVIDIA), Mikhail Bessmeltsev (University of Montreal), Alla Sheffer (University of British Columbia).

En dessin, il est courant d’esquisser un tracé avec de multiples coups de crayon. Les humains devinent aisément la forme voulue par l’artiste :

En revanche, il est plus difficile de demander à une machine de générer ce tracé à partir des esquisses. Les travaux existants (méthodes d’Orbay et Kara en 20211, Lieu et al. en 2018) produisent des résultats intéressant mais les méthodes manquent de robustesse. La publication présente StrokeStrip, une nouvelle approche qui donne de bien meilleurs résultats :

En outre, StrokeStrip s’appuie sur une paramétrisation qui peut avoir des usages multiples, comme la colorisation ou la déformation facilitée du tracé.

Pour plus d’informations, nous vous invitons à lire la publication complète ( StrokeStrip : joint parameterization and fitting of stroke clusters). Vous y trouverez aussi le code utilisé.
Vous pouvez également jeter un oeil sur les vidéos de l’auteur principal, Dave Pagurek : la présentation du projet est disponible en trois versions de 30 secondes, 5 minutes et 20 minutes, selon le niveau de détail et technicité que vous souhaitez.

L’article SIGGRAPH 2021 : un projet de recherche nettoie vos dessins est apparu en premier sur 3DVF.

SIGGRAPH 2021 : derrière un projet NVIDIA, un pas vers une révolution ?

Par : Shadows

A première vue, Neural Scene Graph Rendering est une publication anodine, voire décevante : avec des résultats qui se limitent à des rendus de scènes 2D et 3D particulièrement basiques, on peut même se demander si l’on est bien en 2021.

Mais les apparences sont trompeuses.

Le meilleur des deux mondes

Les auteurs de la publication, Jonathan Granskog, Till Schnabel, Fabrice Rousselle, Jan Novak de NVIDIA, nous proposent en fait ici davantage qu’un simple projet de recherche : leurs travaux s’inscrivent dans une vision à long terme, qui pourrait révolutionner la manière dont nous rendons nos scènes.

En effet, on dispose actuellement de deux approches radicalement différentes pour effectuer un rendu, autrement dit générer une image :

  • Le rendu 3D « classique », qui règne en maître dans les effets visuels et l’animation 3D, permet de créer des scènes très diverses mais pour lequel le photoréalisme parfait est très difficile à atteindre.
Projet Meet Mike (SIGGRAPH 2017) : un exemple des capacités du rendu 3D (ici, 3D temps réel)
  • Le rendu neural : il s’agit ici de rendu s’appuyant sur les techniques d’intelligence artificielle (deep learning).
    Les outils que vous avez pu voir ces dernières années qui créent des portraits d’humains qui n’existent pas, ou les outils GauGAN/Canvas de NVIDIA permettant de créer des paysages à partir d’une simple esquisse, font partie de cette catégorie.
    Ici, la « représentation neurale » sera un ensemble de variables, et le « moteur de rendu neural » sera la partie de l’outil qui génère l’image finale.
Images générées par un StyleGAN : aucun de ces humains n’est réel, les visages ont été créées par une intelligence artificielle.

Si l’on compare les deux approches, et par exemple dans le cas du rendu d’un visage, on a d’un côté le rendu 3D qui crée des résultats très bons mais sans doute pas aussi bons que l’approche neurale, qui s’appuie « juste » sur une architecture adaptée et la phase d’apprentissage à partir d’un ensemble de données.

Inversement, expliquent les auteurs de la publication, si l’on veut modifier le résultat (par exemple générer un visage d’extraterrestre), le rendu 3D permet facilement de changer le matériau ou le modèle utilisés. L’approche neurale, en revanche, est fortement contrainte par les données d’apprentissage et produire un résultat radicalement différent de ces données sera difficile.

En haut, le rendu 3D classique
En bas, le rendu neural

Souplesse, contrôle artistique, réalisme… Au fond, chaque approche a ses avantages et inconvénients.

D’où la vision à long terme qui sous-tend la publication : au lieu d’opposer les techniques, pourquoi ne pas les combiner ? Pourquoi ne pas générer des images en partie avec du rendu neural, en partie avec un moteur de rendu 3D classique ?
Par exemple, suggèrent les auteurs, le rendu neural pourrait se charger des parties difficiles à gérer avec le rendu 3D classique comme les visages, la fourrure.

L’idée est alléchante, mais n’est à ce stade qu’une simple idée. Reste donc à la concrétiser et à faire cohabiter deux approches qui n’ont rien à voir.

Une scène 3D rendue sans moteur de rendu classique

Nous arrivons enfin au projet de recherche proprement dit : l’équipe s’est intéressée à la façon dont un scene graph classique, autrement dit la description d’une scène 3D dans un outil traditionnel (avec liste des modèles, leur position, matériaux…) pourrait être traduite en représentation neurale, puis envoyée à un moteur de rendu neural.

A ce stade, il ne s’agit donc pas encore de mêler les rendus, mais uniquement de faire en sorte que des scènes 3D classiques puissent être « comprises » et traitées par une approche neurale.

L’équipe est parvenue à des résultats concluants, et en montre quelques exemples :

  • Une animation de volley :
  • un petit outil qui permet d’éditer en temps réel un scene graph neural, et avec rendu neural : autrement dit, sur cette session de création 3D, les objets et leurs matériaux, le rendu de la scène ne sont pas gérés par du rendu 3D classique mais bien par de l’intelligence artificielle.
  • La méthode peut aussi être appliquée à des animations 2D à base de sprites : là encore, le visuel est donc issu de rendu neural, pas d’un moteur 2D.

Retour vers la vision globale

Encore une fois, ces premiers résultats restent très basiques, mais il faut les considérer avec du recul : ce sont des tests précurseurs, pas une méthode destinée à être utilisée dès demain en studio.

En revanche, avec ces essais, l’équipe de recherche a prouvé la validité de son concept. L’approche a pu être appliquée a des cas variés et a donc un bon potentiel de généralisation a des situations et usages très différents.

Une première brique est donc posée vers la vision plus large évoquée par les auteurs, avec à terme une interopérabilité entre les maillons de la chaîne de rendu 3D classique et celle du rendu neural.

Pour autant, est-ce vraiment le début d’une révolution ? Réponse dans quelques années, selon les progrès techniques qui seront accomplis.

Pour aller plus loin, nous vous invitons à visionner cette vidéo de présentation d’une quinzaine de minutes, et en particulier le passage à partir de la 30ème seconde, qui revient sur cette vision à long terme.
Vous pouvez aussi consulter la page de la publication : Neural Scene Graph Rendering.

L’article SIGGRAPH 2021 : derrière un projet NVIDIA, un pas vers une révolution ? est apparu en premier sur 3DVF.

Maya : Autodesk met à jour Bifrost

Par : Shadows

Image d’en-tête : Lee Griggs.

Autodesk met à jour Bifrost : le plugin physique pour Maya passe en version 2.3.

La mise à jour propose plusieurs améliorations qui facilitent l’usage de l’outil et étendent ses fonctions. Il devient par exemple possible d’utiliser des sliders pour ajuster interactivement certaines valeurs, et donc itérer plus rapidement. En outre, les problèmes de graphe lors du renommage de fichiers externes sont mieux gérés.
Les artistes pourront par ailleurs utiliser fields et arrays pour diriger les paramètres de simulation.
Les améliorations portent aussi sur le solveur Aero (utilisé pour les simulations gazeuses) avec un workflow post-simulation simplifié. La simulation de cloth avec MPM propose de meilleures performances et une stabilité en hausse.
On notera aussi un meilleur support Alembic et OpenVDB. Enfin, les Terminals (une alternative aux nodes d’export pour créer de la géométrie prête au rendu) sortent de beta et sont prêts pour un usage en production.

Bifrost 2.3 est compatible Maya 2019 et supérieur. On trouvera plus de détails sur toutes ces avancées chez Autodesk.

L’article Maya : Autodesk met à jour Bifrost est apparu en premier sur 3DVF.

❌