Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

La 3D temps réel en série : un délice pour MIAM!

Par : Shadows

Le podcast Animashow est de retour, avec une interview de MIAM! Animation.

Hanna Mouchez et François Narboux, qui ont fondé la structure en 2016 et la dirigent, ont déjà pu travailler sur de nombreux projets, que ce soit en production ou distribution : Yetili, Petit Malabar, Selfish, Non-Non, Les Dangers, Culottées

Edmond et Lucy, projet preschool réalisé par François Narboux, mérite le détour : cette co-production avec Artefacts Studio (spécialisé dans le jeu vidéo) s’appuie sur Unity et est donc conçue en 3D temps réel. Le pilote est visible plus bas.

L’article La 3D temps réel en série : un délice pour MIAM! est apparu en premier sur 3DVF.

Unigine 2.13 : des nouveautés qui méritent le détour

Par : Shadows

Le moteur 3D temps réel Unigine se met à jour, avec une version 2.13 riche en nouveautés :

  • un outil de lightmapping GPU ;
  • le SRAA (Subpixel Reconstruction Anti-Aliasing) fait son apparition en tant que nouvelle technique d’anti-aliasing ;
  • amélioration du système de nuages 3D ;
  • optimisation des performances pour les grandes forêts ;
  • amélioration des outils de génération de terrain avec support de sources SIG en ligne ;
  • tessellation hardware adaptative ;
  • amélioration de l’outil Project Build ;
  • nouveaux exemples ;
  • librairie de scans 3D gratuits.

Unigine est disponible en trois éditions (Community, Engineering, Sim), ces dernières étant développées en parallèle avec des mises à jour tous les 3 à 4 mois.
Rappelons que la version Community est gratuite pour les petites équipes indépendantes.

L’article Unigine 2.13 : des nouveautés qui méritent le détour est apparu en premier sur 3DVF.

Cyberpunk 2077 : derrière l’animation faciale des personnages, un défi technologique

Par : Shadows

JALI Research a mis en ligne sa présentation du SIGGRAPH 2020 autour de l’animation faciale du jeu Cyberpunk 2077, prévu pour dans une poignée de semaines. L’enjeu était énorme : il s’agissait d’animer un nombre massif de personnages, sans motion capture, avec un grand réalisme et tout en gérant le lip-sync de langues multiples.

JALI Research et CD Projekt RED dévoilent ici les coulisses du système utilisé pour parvenir à ce résultat, avec une approche en plusieurs couches : lip-sync, ton, gestion du regard et des clignements, émotions ou encore mouvements du cou ont été nécessaires afin de proposer des performances convaincantes et fluides.

La vidéo, qui dure une vingtaine de minutes, comporte de nombreux exemples. En particulier, à partir de la 13ème minute, une démo met en avant les couches successives d’animation ; à la 17ème minute, vous retrouverez un aperçu de la gestion des langues (dont le français).

La présentation était assurée par :

  • Pif Edwards JALI Research Inc.U of T
  • Chris Landreth JALI Research Inc.U of T
  • Mateusz Popławski CD PROJEKT RED
  • Karan Singh JALI Research Inc.U of T
  • Eugene Fiume JALI Research Inc.Simon Fraser University
  • Robert Malinowski CD PROJEKT RED
  • Sarah Watling JALI Research Inc.

L’article Cyberpunk 2077 : derrière l’animation faciale des personnages, un défi technologique est apparu en premier sur 3DVF.

❌