Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hier3dvf.com - Actualité quotidienne

Kraken Pro dévoilé : mettez de l’ordre dans vos assets

Par Shadows

Initialement présenté l’été passé au SIGGRAPH, voici Kraken Pro, solution développée par Turbosquid. Si l’entité est bien connue pour son marché de modèles 3D et textures, elle a beaucoup investi en R&D ces derniers temps, comme elle nous l’expliquait l’été passé.
Kraken Pro est directement issu de ces projets : il s’agit d’un service cloud qui promet de vous aider à organiser les assets de votre studio avec génération automatique de tags, métadonnées et vignettes, grâce entre autres à de l’intelligence artificielle.
Une fois la librairie en place, il est bien évidemment possible d’effectuer des recherches poussées (format, tag, etc) et de gérer collections, accès par une partie de l’équipe, etc.
Enfin, le tout peut évidemment s’intégrer dans un pipeline déjà en place et propose éditeur web 3D, conversion automatique.

On se rendra sur le site officiel pour plus de détails. Le prix relativement élevé du service le destine aux studios ; le tarif de base permet de gérer jusqu’à 10 000 modèles et 50 utilisateurs.

L’article Kraken Pro dévoilé : mettez de l’ordre dans vos assets est apparu en premier sur 3DVF.

Freak : Framestore évoque son nouveau moteur de rendu interne

Par Shadows

A découvrir chez BeforeAndAfters, une interview de Mark Wilson (global head of CG) et Nathan Welster (head of rendering) du studio Framestore. Ils évoquent les raisons qui ont poussé l’entité à développer son propre moteur de rendu.

L’équipe explique son cheminement : après avoir basculé de RenderMan vers Arnold pour Gravity, le studio a développé énormément d’outils (shaders, intégrateurs, système de lights), pour arriver à un stade où, explique Mark Wilson, Arnold ne servait quasiment plus qu’à calculer les intersections entre rayons lumineux et géométries. A ce stade, une discussion interne a eu lieu sur l’intérêt de se passer totalement d’Arnold.

L’équipe a poursuivi dans cette voie, d’où l’émergence de son moteur “Freak”.

Framestore souligne que le coût d’un moteur interne est souvent nettement plus élevé que celui de l’achat de licences, mais le studio a des besoins spécifiques et travaille sur des projets à très grande échelle qui rendent viable le développement interne. Les deux interviewés soulignent que le moteur Freak est très modulaire, et a véritablement débuté en production avec Alita:Battle Angel.

D’autres points sont évoqués, comme le rendu GPU, le cloud, le machine learning ou encore USD. Nous vous invitons à lire l’ interview pour en savoir plus.

L’article Freak : Framestore évoque son nouveau moteur de rendu interne est apparu en premier sur 3DVF.

Production virtuelle et murs de LEDs : Pixomondo dans la lignée de The Mandalorian

Par Shadows

Pixomondo dévoile en vidéo une expérimentation mise en place en février dernier avec le SIRT Centre, APG Displays et Epic Games. A Toronto, le studio a créé une démonstration des possibilités de la production virtuelle.

L’ensemble évoque évidemment le travail d’ILM, The Third Floor et Epic Games sur la série The Mandalorian (à ce sujet, voir notamment notre interview de The Third Floor, agrémentée d’un making-of vidéo par ILM).
Trois pans de mur affichaient le décor virtuel, une caméra servant à la prise de vue. Cette dernière était manifestement trackée (on peut d’ailleurs voir des caméras de motion capture surplomber le plateau). A noter aussi, à la 54ème seconde, l’aperçu d’un système permettant d’ajouter des sources d’éclairage à volonté : l’opérateur pointe la position voulue sur un mur, définit couleur, taille et puissance. L’idée est évidemment intéressante : elle reste dans l’optique d’utiliser le mur de leds à la fois comme décor et comme source d’éclairage, sans matériel supplémentaire, mais permet en même temps de dépasser les limites d’un simple éclairage par le décor et d’ajouter une touche de créativité. On peut par exemple imaginer utiliser ce genre de source pour créer un effet de rim lighting sur une chevelure, ou améliorer les reflets sur un regard.

Une chose est en tous cas claire : ILM n’est sans surprise pas le seul studio à s’intéresser aux techniques de production virtuelle les plus récentes. On peut donc s’attendre à voir exploser le nombre de projets qui feront appel à ces méthodes.

L’article Production virtuelle et murs de LEDs : Pixomondo dans la lignée de The Mandalorian est apparu en premier sur 3DVF.

NVIDIA lance une série de vidéos sur le raytracing

Par Shadows

NVIDIA avait récemment publié en ligne Ray Tracing Gems, un ensemble de bonnes pratiques autour du raytracing temps réel disponibles sous forme d’un livre gratuit et destiné aux développeurs.

Eric Haine de NVIDIA, qui supervisait cet ouvrage, se lance désormais dans une série de vidéos sur le même sujet. En anglais, elles visent là aussi les développeurs, y compris les personnes n’ayant pas de bases sur le sujet : NVIDIA cherche clairement ici à faire de l’évangélisation afin de favoriser l’essor de sa technologie RTX pour les années à venir.

Trois vidéos sont déjà en ligne.

Les bases du raytracing :

Le raytracing face à la technique classique de la rastérisation :

Enfin, le matériel optimisé pour le raytracing :

L’article NVIDIA lance une série de vidéos sur le raytracing est apparu en premier sur 3DVF.

Les technologies du Mandalorien bientôt disponibles sous Unreal Engine

Par Shadows

Dans notre interview de Chris Edwards en partie consacrée à la série The Mandalorian, ce dernier expliquait que The Third Floor et ILM avaient travaillé étroitement avec Unreal Engine pour mettre en place le pipeline utilisé, et notamment le fameux affichage sur panneaux LED.

Dans un bref article, Jeff Farris d’Epic Games fait le bilan de cette expérience.
L’éditeur souligne que certains outils ont été développés, améliorés ou éprouvés dans le cadre du projet : les outils de collaboration multi-utilisateurs, le nDisplay System qui permet à un groupe de machines de rendre en temps réel des images massives de façon synchronisée, le système de compositing en direct qui a permis d’avoir des aperçus temps réel des séquences.
Epic Games évoque aussi le contrôle du mur de LEDs via un iPad, ou la possibilité d’enregistrer les données issues de prises de vue dans le Sequencer.

Toutes ces fonctionnalités, souligne Epic Games, sont soit déjà présentes dans Unreal Engine 4.24, soit arriveront dans la version 4.25. Comme nous l’expliquait Chris Edwards dans notre interview, Epic Games a bien compris que la production virtuelle représentait un marché intéressant. La guerre avec Unity se poursuit donc, pour le plus grand bien des utilisateurs qui se voient dotés d’outils toujours plus puissants.

On peut par conséquent s’attendre à voir de plus en plus de projets adopter le système de LEDs du Mandalorien, à petite ou grande échelle. Lors d’une la soirée de démonstration de motion capture chez Effigy, le 15 janvier dernier, des studios et techniciens français avaient d’ailleurs ouvertement indiqué leur intérêt pour cette approche.

L’article Les technologies du Mandalorien bientôt disponibles sous Unreal Engine est apparu en premier sur 3DVF.

Le studio Creative Assembly dévoile son pipeline et ses techniques de rig/animation

Par Shadows

La chaîne Youtube de la Game Developers Conference a mis en ligne une conférence donnée par Michael Malinowski en 2018. Ce dernier y dévoile les coulisses du fameux studio de jeux vidéo Creative Assembly, connu pour son travail sur les titres et licences Total War, Alien: Isolation et Halo Wars 2.

La conférence se concentre sur les outils de rigging, animation et pipeline employés par l’équipe.

L’article Le studio Creative Assembly dévoile son pipeline et ses techniques de rig/animation est apparu en premier sur 3DVF.

Capcom présente les technologies de son moteur de jeu propriétaire, RE Engine

Par Shadows

En octobre dernier, Capcom (Resident Evil, Monster Hunter) organisait une conférence au cours de laquelle l’entreprise a présenté ses dernières innovations techniques. Si l’utilisation de Houdini/Houdini Engine a été évoquée, c’est le moteur de jeu maison, le RE Engine, qui a occupé la majorité de la présentation.

Voici les vidéos enregistrées à cette occasion. Le tout est en japonais, mais il est possible d’avoir des sous-titres approximatifs via l’interface Youtube : activez les sous-titres puis avec la roue dentée sélectionnez “traduction automatique” dans la rubrique sous-titres.

On pourra en particulier jeter un oeil aux sessions 3-1 (rigging modulaire), 3-2 (retargeting, synchronisation de personnages), 3-3 (animation procédurale, motion matching) et 4-1 (physique, animations secondaires).

Via GameAnim.

L’article Capcom présente les technologies de son moteur de jeu propriétaire, RE Engine est apparu en premier sur 3DVF.

Aquifer : de la motion capture faciale abordable grâce à votre smartphone

Par Shadows

Découvrez Aquifer, un nouveau service de motion capture low cost. La plateforme s’appuie sur votre smartphone (iPhone X et plus récent pour le moment, mais une gestion Android est prévue) pour capturer vos expressions faciale puis les exporter.

Aquifer explique pouvoir capturer une cinquantaine de mouvements musculairs, y compris yeux et langue, à 60fps ; les données peuvent ensuite être prévisualisées puis exportées en FBX avec audio et vidéo, pour un usage dans votre outil favori.

Un second mode est encore plus rapide : les données sont directement streamées en temps réel vers Unity, avec la possibilité d’ajouter des exagérations au passage. Les mouvements sont lissés en temps réel pour nettoyer le résultat.
Ce mode sera bientôt également proposé avec Unreal Engine.

Sur le plan tarifaire, le service Aquifer est proposé sous forme d’abonnement mensuel. Le tarif est très accessible, le service étant encore en beta. A noter, 15 jours d’essai sont proposés.



L’article Aquifer : de la motion capture faciale abordable grâce à votre smartphone est apparu en premier sur 3DVF.

Aquifer : de la motion capture faciale abordable grâce à votre smartphone

Par Shadows

Découvrez Aquifer, un nouveau service de motion capture low cost. La plateforme s’appuie sur votre smartphone (iPhone X et plus récent pour le moment, mais une gestion Android est prévue) pour capturer vos expressions faciale puis les exporter.

Aquifer explique pouvoir capturer une cinquantaine de mouvements musculairs, y compris yeux et langue, à 60fps ; les données peuvent ensuite être prévisualisées puis exportées en FBX avec audio et vidéo, pour un usage dans votre outil favori.

Un second mode est encore plus rapide : les données sont directement streamées en temps réel vers Unity, avec la possibilité d’ajouter des exagérations au passage. Les mouvements sont lissés en temps réel pour nettoyer le résultat.
Ce mode sera bientôt également proposé avec Unreal Engine.

Sur le plan tarifaire, le service Aquifer est proposé sous forme d’abonnement mensuel. Le tarif est très accessible, le service étant encore en beta. A noter, 15 jours d’essai sont proposés.

L’article Aquifer : de la motion capture faciale abordable grâce à votre smartphone est apparu en premier sur 3DVF.

❌