Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Des humains photoréalistes en quelques clics avec MetaHuman Creator d’Epic Games

Par : Shadows

Pas un mois ne se passe sans une annonce d’Epic Games, éditeur de l’Unreal Engine.

En ce début d’année, le groupe nous dévoile MetaHuman Creator, une nouvelle application fonctionnant dans un navigateur web et permettant de créer en moins d’une heure des humains photoréalistes. L’affichage 3D tourne dans le cloud, grâce à Unreal Engine Pixel Streaming : le calcul de l’affichage 3D ne se fait donc pas en local, et ne nécessite donc pas d’installation.

Epic Games souligne que ce nouveau produit bénéficie des rachats successifs du groupe (3Lateral, Cubic Motion, Quixel) qui ont permis d’acquérir technologies, expérience, compétences en matière d’humains réalistes.

Comme le montre la vidéo de démonstration, MetaHuman Creator se veut intuitif, et permet de partir de presets pour ensuite personnaliser le visage de l’humain numérique selon ses envies. Les exemples mis en avant par l’éditeur sont assez parlants : il est possible d’obtenir une grande diversité de visages.

Côté cheveux, il est possible d’utiliser le système avancé d’Unreal Engine (système de mèches) ou des hair cards si le projet est destiné à des plateformes peu puissantes.
Il est également possible de choisir différents types de vêtements, et 18 morphologies sont proposées pour le corps.

Enfin, vos humains pourront être téléchargés via Quixel Bridge, riggés et prêts à l’animation sous Unreal, avec LODs. Un fichier Maya est aussi proposé, avec mesh, skeleton, rig facial, contrôles d’animation, matériaux.

Sur une page dédiée, Epic Games propose deux exemples à télécharger pour se faire une idée des résultats. Il est aussi possible de s’y inscrire pour être tenu au courant du lancement du produit, qui arrivera en beta dans les prochains mois, avant un lancement effectif.
Pour l’heure, Epic Games ne donne pas de précisions sur le modèle économique de cet outil.

L’article Des humains photoréalistes en quelques clics avec MetaHuman Creator d’Epic Games est apparu en premier sur 3DVF.

La 3D temps réel en série : un délice pour MIAM!

Par : Shadows

Le podcast Animashow est de retour, avec une interview de MIAM! Animation.

Hanna Mouchez et François Narboux, qui ont fondé la structure en 2016 et la dirigent, ont déjà pu travailler sur de nombreux projets, que ce soit en production ou distribution : Yetili, Petit Malabar, Selfish, Non-Non, Les Dangers, Culottées

Edmond et Lucy, projet preschool réalisé par François Narboux, mérite le détour : cette co-production avec Artefacts Studio (spécialisé dans le jeu vidéo) s’appuie sur Unity et est donc conçue en 3D temps réel. Le pilote est visible plus bas.

L’article La 3D temps réel en série : un délice pour MIAM! est apparu en premier sur 3DVF.

Unigine 2.13 : des nouveautés qui méritent le détour

Par : Shadows

Le moteur 3D temps réel Unigine se met à jour, avec une version 2.13 riche en nouveautés :

  • un outil de lightmapping GPU ;
  • le SRAA (Subpixel Reconstruction Anti-Aliasing) fait son apparition en tant que nouvelle technique d’anti-aliasing ;
  • amélioration du système de nuages 3D ;
  • optimisation des performances pour les grandes forêts ;
  • amélioration des outils de génération de terrain avec support de sources SIG en ligne ;
  • tessellation hardware adaptative ;
  • amélioration de l’outil Project Build ;
  • nouveaux exemples ;
  • librairie de scans 3D gratuits.

Unigine est disponible en trois éditions (Community, Engineering, Sim), ces dernières étant développées en parallèle avec des mises à jour tous les 3 à 4 mois.
Rappelons que la version Community est gratuite pour les petites équipes indépendantes.

L’article Unigine 2.13 : des nouveautés qui méritent le détour est apparu en premier sur 3DVF.

Cyberpunk 2077 : derrière l’animation faciale des personnages, un défi technologique

Par : Shadows

JALI Research a mis en ligne sa présentation du SIGGRAPH 2020 autour de l’animation faciale du jeu Cyberpunk 2077, prévu pour dans une poignée de semaines. L’enjeu était énorme : il s’agissait d’animer un nombre massif de personnages, sans motion capture, avec un grand réalisme et tout en gérant le lip-sync de langues multiples.

JALI Research et CD Projekt RED dévoilent ici les coulisses du système utilisé pour parvenir à ce résultat, avec une approche en plusieurs couches : lip-sync, ton, gestion du regard et des clignements, émotions ou encore mouvements du cou ont été nécessaires afin de proposer des performances convaincantes et fluides.

La vidéo, qui dure une vingtaine de minutes, comporte de nombreux exemples. En particulier, à partir de la 13ème minute, une démo met en avant les couches successives d’animation ; à la 17ème minute, vous retrouverez un aperçu de la gestion des langues (dont le français).

La présentation était assurée par :

  • Pif Edwards JALI Research Inc.U of T
  • Chris Landreth JALI Research Inc.U of T
  • Mateusz Popławski CD PROJEKT RED
  • Karan Singh JALI Research Inc.U of T
  • Eugene Fiume JALI Research Inc.Simon Fraser University
  • Robert Malinowski CD PROJEKT RED
  • Sarah Watling JALI Research Inc.

L’article Cyberpunk 2077 : derrière l’animation faciale des personnages, un défi technologique est apparu en premier sur 3DVF.

❌