Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hier3dvf.com - Actualité quotidienne

Vidéo : H.266 annoncé, avec une promesse ambitieuse

Par : Shadows

L’Insititut Fraunhofer Heinrich Hertz vient d’annoncer le codec H.266, alias VVC (Versatile Video Coding).

Destiné à remplacer le H.265/HEVC, le nouveau codec devrait permettre une division par 2 de la taille des fichiers vidéo à qualité visuelle identique, une promesse qu’il conviendra évidemment de vérifier en pratique. Ce gain permettra évidemment de diffuser plus facilement des contenus 4K voire 8K, ainsi que des vidéos 360° (qui sont sans surprise prises en charge), en diminuant le débit nécessaire et/ou en profitant du gain de poids pour améliorer la qualité visuelle.
A l’heure où la 5G et l’inflation des données fait débat, mais aussi dans une période où les visioconférences sont devenues indispensables, l’annonce tombe à pic.

Il faudra cependant encore attendre quelques mois le temps que les premiers outils compatibles en encodage et lecture soient disponibles (l’institut annonce qu’il publiera « le premier logiciel supportant H.266/VVC » pour l’automne). Puis le lancement progressif de systèmes matériels compatibles, un processus évidemment plus lent. Le H.265, d’ailleurs, 7 ans après son lancement, n’a pas encore réussi à enterrer le H.264 : une hégémonie du H.266 n’est donc pas encore pour demain.

L’article Vidéo : H.266 annoncé, avec une promesse ambitieuse est apparu en premier sur 3DVF.

Assises Éthique et technologies du futur : Laval Virtual nous invite à la réflexion

Par : Shadows

Le 1er décembre prochain, Laval Virtual et Ouest France organiseront un évènement commun : la première édition des Assises Éthique et technologies du futur.

Le concept : une journée pour échanger et débattre sur les questions éthiques soulevées par les nouvelles technologies telles que réalité virtuelle et augmentée. Des questions que nous avions déjà eu l’occasion d’aborder dans nos précédents comptes-rendus de Laval Virtual, la réalité virtuelle soulevant de nombreuses questions, qu’il s’agisse de sensibiliser, aider des victimes d’évènements traumatisants ou tout simplement nous plonger dans des univers visuels inédits avec ce que cela peut impliquer.

En pratique l’évènement devrait rassembler « élus, professionnels, chercheurs, philosophes, religieux », entre autres, mêler tables rondes, séances en face-à-face, interviews, opportunités de networking. 450 personnes environ sont attendues.
Yves Coppens, paléontologue et paléoanthropologue, sera le « grand témoin » de cette édition.

Le programme détaillé n’est pas encore en ligne, mais on peut déjà trouver une description du concept chez Laval Virtual et Ouest France. Laval Virtual précise que le tout aura lieu à la fois à Laval et dans le Laval Virtual World, l’espace virtuel qui avait permis de proposer une édition Laval Virtual plus tôt dans l’année malgré la pandémie.

Nous aurons l’occasion de reparler de l’évènement lorsque le programme détaillé sera annoncé.

L’article Assises Éthique et technologies du futur : Laval Virtual nous invite à la réflexion est apparu en premier sur 3DVF.

The Mandalorian : un breakdown pour le droïde

Par : Shadows

Après un breakdown signé Image Engine et une interview de Chris Edwards de The Third Floor agrémenté de vidéos des coulisses par ILM, voici un nouveau making-of sur la série évènement de Disney, The Mandalorian.

C’est cette fois Hybride Technologies qui nous présente son travail. Comme l’explique le studio dans un article dédié, la confiance de Lucasfilm était logique, puisqu’Hybride a déjà travaillé sur l’ensemble des derniers films Star Wars, du Réveil de la Force à L’Ascension de Skywalker.

IG-11 : un droïde sans visage

En pratique, le studio s’est vu confier le personnage d’IG-11, un droïde assassin, mais aussi la création d’environnements virtuels pour la ville de Nevarro et les Lava Flats, une zone volcanique désertique.

Pour IG-11, explique Hybride, le studio a pu participer aux étapes de conception. Hal Hickel, superviseur d’animation, voulait une machine évoquant un assemblage grossier de pièces de voitures et un design rétro faisant penser à un pantin désarticulé. Hybride s’est alors basé sur les concepts issus de la production pour créer un modèle 3D. Une version physique de ce dernier a été mise en place sur le plateau afin de vérifier que rien ne posait problème. Quelques corrections plus tard, un modèle définitif a servi de référence durant le tournage.

En termes d’animation, l’absence de visage représentait un défi ; il a fallu exprimer les émotions et pensées du robot uniquement par ses mouvements et déplacements.

Nevarro

La ville de Nevarro, située dans un désert volcanique, a été entièrement conçue par Hybride à partir de scans issus d’Hawaï et d’Islande : deux régions qui ont déjà inspiré de nombreuses oeuvres pour leurs décors.

Hybride précise avoir utilisé plusieurs textures haute résolution afin d’imiter la lave via de multiples réflexions et textures : l’idée étant d’obtenir un tout cohérent et composé de plusieurs types de sols et couches.

En ce qui concerne la ville elle-même, un ensemble d’éléments (façades, portions de sol, accessoires, tours, tourelles) rassemblés dans une banque d’assets ont servi à créer une douzaine de scènes. 250 éléments au total, précise Hybride, ont été intégrés à partir des références visuelles de la production. Afin de proposer un rendu plus naturel, une passe globale a été appliquée pour altérer les bâtiments : elle est censée simuler l’effet des intempéries atmosphériques sur cette bourgade vieillissante.

Au total, Hybride aura truqué 451 plans en 15 mois. Voici pour finir le breakdown vidéo :

L’article The Mandalorian : un breakdown pour le droïde est apparu en premier sur 3DVF.

USD en pratique : le cas Luma Pictures

Par : Shadows

Nous avons déjà eu l’occasion d’évoquer à plusieurs reprises USD (Universal Scene Description), qui facilite les échanges de données au sein d’un studio ou d’une production et offre de nombreux avantages théoriques par rapport aux techniques classiques. Notre confrère Ian Failes nous propose un cas concret de l’usage d’USD avec le studio d’effets visuels Luma Pictures. Un article revient sur l’implémentation d’USD au sein de la structure (en particulier avec leur pipeline de lighting et lookdev reposant sur le logiciel Katana), comment et pourquoi cette mise en place s’est faite, mais aussi comment USD a été employé sur des projets récents tels que Spider-Man : Far From Home.

L’article USD en pratique : le cas Luma Pictures est apparu en premier sur 3DVF.

Gnoumagbée Camara, environment artist

Par : Shadows

Découvrez les travaux de Gnoumagbée Camara, jeune artiste 3D en recherche de stage. Issue de la formation ATI à Paris VIII, elle utilise Unreal Engine, Blender ou encore Substance Designer et souhaite s’orienter vers des projets typés environment artist ou généraliste 3D.

Au-delà de ce stage, elle recherche également une entreprise pour une alternance d’un an en tant qu’artiste 3D, à partir d’octobre.

L’article Gnoumagbée Camara, environment artist est apparu en premier sur 3DVF.

Comment optimiser une application 3D sur le web : le cas Naker

Par : Shadows

Nous vous avions proposé il y a quelques mois une interview de Naker, plateforme en ligne de création de contenus 3D interactifs sur le web.
Le service a depuis bien évolué, en particulier concernant les performances : l’usage CPU/GPU a été divisé par trois, et celui des fonctions de scripting/rendu au sein d’un navigateur quasiment par 10.

Un article de blog détaille les techniques utilisées pour y parvenir :
– paradoxalement, l’équipe a fait chuter le nombre d’images par seconde. En abandonnant la sacro-sainte limite des 60fps au profit d’une cible de 30 fps, la fluidité est certes légèrement impactée, mais l’expérience reste satisfaisante, selon Naker. Et en contrepartie, on obtient un gain conséquent en usage des ressources ;


– autre amélioration, jusqu’ici Naker lançait le rendu de pages entières, même lorsque le contenu n’était au final pas affiché (car trop haut ou bas dans la page par rapport à la zone visible à l’écran). Ce n’est désormais plus le cas : une astuce qui évoque évidemment les techniques de chargement dynamique des images désormais largement employées sur le web, mais adaptée à la 3D.


-Enfin, l’équipe a mis en place un système permettant d’exécuter le rendu 3D dans un thread différent de celui du navigateur proprement dit.

Au final, les gains sont massifs, jusqu’à x10 selon la variable considérée. Une avancée évidemment cruciale pour un service comme Naker, puisque les performances sont un argument commercial clé pour séduire de nouveaux utilisateurs.

Naker

L’article Comment optimiser une application 3D sur le web : le cas Naker est apparu en premier sur 3DVF.

Sketchfab dit adieu au travail solitaire

Par : Shadows

La plateforme d’hébergement et visualisation de modèles 3D Sketchfab annonce Sketchfab for Teams, une version de son service tournée vers les équipes et la collaboration.
L’idée est de permettre à un groupe de personne de gérer des assets en commun, avec tout un ensemble de fonctionnalités : gestion des droits (d’accès, visualisation, édition, etc), inspection des modèles, recherche, conversion dans d’autres formats, publication et visualisation externe.

Pour le moment uniquement disponible pour les clients “Enterprise” (mais prévue pour les clients Premium et Business à terme), cette fonction pourra donc permettre de créer une banque d’assets centralisée pour un projet commun, au sein d’une équipe ou entreprise. Il vous faudra contacter Sketchfab pour activer ces fonctionnalités.

L’article Sketchfab dit adieu au travail solitaire est apparu en premier sur 3DVF.

BigSun : un outil de production virtuelle pour dire adieu à votre fond vert

Par : Shadows

Avec l’arrivée de la série The Mandalorian et son système de décor en mur de LEDs en lieu et place du traditionnel fond vert (vous pouvez revoir à ce sujet notre interview de The Third Floor, qui a directement participé au projet), de nombreux studios cherchent à s’inspirer de ce type de technologie pour leurs propres projets.

Le studio français Bizaroïd nous présente justement BigSun, un outil maison aux capacités plus réduites mais qui permettra, dans bien des cas, de se passer de fond vert sur un tournage. Une autre façon de travailler qui peut s’avérer très pertinente en fonction des besoins.

Sans plus tarder, voici un aperçu vidéo des capacités du système, avant une présentation plus détaillée par Bizaroïd.

3DVF : Bonjour Bizaroïd, vous venez d’annoncer BigSun, une solution de production virtuelle temps réel qui pourra remplacer l’habituel fond vert dans certaines situations. Concrètement, que permet l’outil ?

Gaston Marcotti, fondateur de Bizaroïd et superviseur VFX : Très concrètement, BigSun est un dispositif de projection sur mur de LED ou bien vidéoprojecteur, qui permet de remplacer le traditionnel fond vert nécessaire pour les effets visuels, et ainsi projeter directement le décor en arrière-plan. L’avancée majeure de BigSun est le tracking de caméra en temps réel qui pilote la projection de la scène, qui peut être en 3D, vidéo ou même photo. Émuler la parallaxe sur un écran de projection est maintenant possible.

Tout est parti du fond vert et de ses limites techniques.

Les plans réalisés sur fond vert exigent souvent des jours voir des semaines de travail avant d’obtenir une première maquette que l’on puisse intégrer au montage. La sélection, par le monteur, des rushs à truquer, puis les premières maquette VFX, font perdre beaucoup de temps à la production d’un film.

Puis vient l’étape de l’intégration VFX. Une bonne intégration dépend des conditions de tournage, du chef opérateur, du superviseur plateau et des studios de post production VFX. Les équipes de compositing doivent gérer les transparences, les réflexions et les retours de vert sur les personnages, etc.

Avec BigSun, grâce à un compositing naturel et en temps réel, offre un résultat immédiat et authentique.

La projection permet de créer l’environnement de tournage, le décor, sans attendre la postproduction VFX. C’est la technique la plus simple pour tourner des intérieurs en studio, elle a d’ailleurs été utilisée très tôt dans le cinéma. Une des références à ce jour reste le film d’Alfred Hitchcock « North by Northwest » ou « La mort aux trousses » en français. Notamment la séquence ou Cary Grant court devant l’avion qui le mitraille.

Mais malgré les possibilités de cette solution de compositing en temps réel, les points négatifs étaient nombreux. Parmi eux, l’obligation de faire des plans fixes, ou bien la perte de qualité du film projeté due à la nécessité de tirer des copies, ou encore les problèmes d’instabilité de la pellicule qui était entrainée par un système de griffe et d’encoche, et même la pollution lumineuse sur le plateau, etc.

Aujourd’hui, à l’ère numérique, la plupart de ces problèmes sont maintenant maitrisés, voire dépassés. Avec BigSun, du point de vue de la caméra, on peut maintenir la perspective en temps réel et l’illusion est parfaite.

De plus, les caméras numériques n’ont plus de pellicules, donc plus d’intermédiaires qui généraient beaucoup d’artéfacts. Elles ont de surcroît des sensibilités inégalées, rendant le travail d’éclairage beaucoup plus aisé.

Enfin, le support de projection, la LED en l’occurrence, a complètement changé la donne. Le ratio contraste/lumière est tel qu’il devient une source de lumière sur le plateau, un acteur technique et artistique. C’est d’ailleurs de là que vient le nom de « BigSun », le grand soleil.

Les avantages de cette solution de « Live compositing » :

• « what you see is what you get », ce que vous voyez est ce que vous aurez. Tous les participants au tournage voient le résultat final
• Capter et suivre l’action dans un décor interactif en mouvement
• Faciliter le traitement de la lumière en temps réel par le DOP et profiter de la luminosité émise par la projection
• Intégrer directement les zones de transparences et de réflexions
• Faciliter le changement de décor
• Les plans VFX sont truqués avant le montage, ce qui retire l’étape chronophage des maquettes par le monteur
• Une maîtrise et une économie du budget VFX

3DVF : Quels types de projets ciblez-vous, et quel sera le modèle économique ?

Gaston Marcotti / Bizaroïd : BigSun peut être mis à profit dans tout projet de cinéma, de série, de publicité et de télévision qui fait appel habituellement au fond vert et qui souhaite réduire les temps de post-production. Plus qu’une nouvelle technologie, BigSun propose une nouvelle façon de créer et d’organiser le tournage.

La nouvelle série « The Mandalorian » produite par Disney et Lucas Film en est l’exemple parfait. Elle a utilisé un procédé similaire et le résultat est magnifique.

Grâce à notre studio Bizaroïd spécialisé dans les VFX, nous proposons un service complet, de la création artistique à la création d’assets en 3D, mais aussi du tournage, avec notre partenaire Adrien Gontier et sa société FAMOUS, chef opérateur qui a testé depuis le premier jour BigSun. La projection est assurée par la société Fosphor, qui nous a accompagnés elle aussi dès le premier jour. Nous utilisons UNITY en moteur temps réel, et ingérons tous les types d’assets 3D (Maya, 3DS MAX, cinéma 4D, Houdini, Blender) qui pourraient venir d’autres studios de postproduction.

3DVF : Vous cherchez des partenaires… Pouvez-vous nous en dire plus ?

Gaston Marcotti / Bizaroïd : Absolument, contrairement aux grands studios cités plus haut, nous n’avons pas la force économique d’une multinationale. La prochaine grande étape est de mettre en place un studio dédié à BigSun, où l’on pourra tourner et repartir avec son film sous le bras, prêt à diffuser. J’exagère à peine.

Donc nous recherchons des acteurs financiers prêts à nous accompagner dans le développement de BigSun. Des partenaires techniques aussi pour la partie temps réel sous UNITY. Et enfin, nous désirons tester BigSun avec des artistes à l’imagination foisonnante et débordante. Nous ne voulons pas cantonner BigSun à ce qu’il sait faire aujourd’hui, c’est une technologie prometteuse qui ne demande qu’à expérimenter et révéler de nouveaux horizons, pour toujours plus d’histoire, toujours plus de cinéma.

Pour en savoir plus : vous pouvez contacter le studio Bizaroïd, situé à Vincennes.

L’article BigSun : un outil de production virtuelle pour dire adieu à votre fond vert est apparu en premier sur 3DVF.

L’Open Shading Language rejoint l’initiative ASWF

Par : Shadows

L’Academy Software Foundation (ASWF), initiative portée par l’Academy of Motion Picture Arts & Sciences (AMPAS, qui organise également les Oscars), ne cesse de prendre de l’ampleur.
Lancée en 2018, l’ASWF est pour rappel une fondation destinée à améliorer la qualité et la quantité des contributions open source aux industries des effets visuels et de l’animation, en lui offrant une structure complète : modèle de gouvernance, cadre légal, infrastructure de communauté.

En clair : l’ASWF cherche à centraliser, coordonner et faciliter les contributions aux outils utilisés par toute l’industrie de l’image. Elle rassemble déjà OpenVDB, OpenColorIO, OpenCue, OpenEXR, OpenTimelineIO.

Cette liste vient justement de s’étoffer avec l’Open Shading Language (OSL). Initialement développé par Sony Pictures ImageWorks et utilisé sur des projets tels que les films Angry Birds 2 ou Spider-Man : Far From Home, OSL a été open-sourcé en 2010 avant de devenir une référence dans le secteur VFX. Il est désormais intégré dans plusieurs moteurs de rendu largement employés par les studios, de RenderMan à V-Ray en passant par Arnold ou Blender.

Cette annonce devrait assurer l’avenir d’OSL, mais conforte également un peu plus d’importance de l’ASWF au sein de l’industrie.

L’article L’Open Shading Language rejoint l’initiative ASWF est apparu en premier sur 3DVF.

Tactility : l’avenir du gant à retour tactile ?

Par : Shadows

Avant de devoir comme la majorité d’entre vous se confiner, l’équipe 3DVF a pu assister à une démonstration associée aux premiers balbutiements de Tactility, un ambitieux projet de recherche européen.

Le principe : sur 3 ans et avec 3,8 millions d’euros de budget, penser et prototyper des gants avec retour tactile pour la réalité virtuelle/augmentée. Attention, il ne s’agit pas ici de retour de force (avec une sensation d’appui quand les doigts serrent un objet virtuel) mais plutôt de faciliter les interactions via le ressenti physique, de la même manière que le “clic” d’une souris apporte une information plus intéressante que le ressenti physique de sa forme.
Cette approche répond finalement assez bien à un souci que nous avons pu avoir en utilisant des systèmes VR/AR/MR dans des conditions dégradées, avec par exemple les gestes d’interaction de l’Hololens V1 qui ne provoquaient pas de retour (visuel ou autre) : l’utilisateur ne savait donc pas si la commande était prise en compte.

Tactility
Le concept de ce que devrait donner le projet Tactility : des gants dotés de capacités d’électrostimulation.

Le projet de recherche Tactility va évidemment au-delà de ce simple cas, et l’étendue des applications dépendra essentiellement de la palette de sensations proposées. Interfaces, accessibilité font évidemment partie des cibles les plus évidentes.
Coordonné par Tecnalia Research & Innovation (Espagne), le projet s’appuie sur 8 partenaires de 6 pays. On y retrouve, outre Tecnalia : Aalborg Universitet, Universita degli Studi di Genova, INRIA, Universitat de Valencia, Tecnalia Serbia Doo Beograd, Manus Machinae BV, SMARTEX S.R.L, IMMERSION.
Autrement dit, un regroupement qui comporte à la fois instituts de recherche et industriels. Ces derniers devront veiller à ce que le concept soit viable techniquement et commercialement.

Tactility

En pratique, cette première démonstration reposait sur l’électrostimulation (le même principe que les fameux engins qui ont fait la gloire des chaînes de télé-achat en vous promettant un corps parfait) : l’utilisateur plaçait trois doigts sur une série d’électrodes. Une démonstration en réalité mixte était ensuite affichée via un casque Hololens V2, le tout avec quelques effets sensoriels censés, par exemple, faire ressentir le déplacement de gauche à droite d’une moto virtuelle miniature qui roulait devant nos doigts.
Sans faire durer le suspense, le résultat actuel est aléatoire et assez décevant. Le système ne dispose pour le moment pas de calibration (pour s’adapter à une peau plus ou moins humide, par exemple) et les sensations varient beaucoup trop : une personne sentira un picotement très désagréable, une autre rien. De notre côté, nous avons ressenti une sensation équivalente à celle de poser un doigt sur les dents d’un peigne, mais seulement sur une partie des électrodes : pas de mouvement latéral perçu pour la moto.

Cette déception était attendue par l’équipe de Tactility : l’objectif de cette démonstration était justement, en partie, de recueillir des témoignages sur le ressenti et d’adapter le système.
Cet essai avait aussi en partie vocation à mettre en avant le projet de recherche. Nous aurons donc l’occasion d’aborder à nouveau Tactility au fur et à mesure de son avancée. Le projet était initialement prévu pour durer 36 mois, mais la situation actuelle pourra, on l’imagine, le retarder un peu. D’ici là, on pourra consulter le site officiel du projet.

Vue rapprochée des emplacements (en bas) sur lesquels l’utilisateur posait trois doigts.

L’article Tactility : l’avenir du gant à retour tactile ? est apparu en premier sur 3DVF.

Minecraft : des matériaux au path tracer, les secrets de la version raytracing

Par : Shadows

Elle n’est pas encore disponible, mais elle a déjà beaucoup fait parler d’elle : la future version raytracing du jeu Minecraft promet d’améliorer sensiblement les graphismes sans pour autant trahir l’esthétique du titre.

Pour parvenir à mettre en place cette approche, plusieurs étapes sont nécessaires : d’une part, la création d’un path tracer temps réel compatible avec NVIDIA RTX, et d’autre part la mise en place de matériaux PBR qui sauront en tirer parti.

C’est justement ce que présentent les deux vidéos ci-dessous, en environ 2h au total. En complément et notamment si vous comptez créer des matériaux pour cette nouvelle version, NVIDIA propose dans un article une série de liens dédiés avec guides, outils et tutoriels. On y trouvera en particulier un guide sur la création de textures PBR, et des bonnes pratiques pour convertir les mondes de la version Java vers RTX.

L’article Minecraft : des matériaux au path tracer, les secrets de la version raytracing est apparu en premier sur 3DVF.

Le Cryengine s’attaque enfin au marché mobile

Par : Shadows

Crytek annonce le lancement en beta d’un pipeline Android. Autrement dit, il devient enfin possible d’utiliser le moteur de jeu Cryengine sur des smartphones et tablettes.

Cette annonce fait suite à une première expérimentation par Crytek : le portage sur Oculus Quest, et donc du hardware mobile, de son jeu d’escalade en réalité virtuelle The Climb. A l’inverse, cette nouvelle initiative n’est qu’un début, l’annonce évoquant une “première étape”.

Vous pouvez dès à présenter tester ces nouvelles fonctionnalités en rejoignant le programme beta du moteur.

L’article Le Cryengine s’attaque enfin au marché mobile est apparu en premier sur 3DVF.

Kraken Pro dévoilé : mettez de l’ordre dans vos assets

Par : Shadows

Initialement présenté l’été passé au SIGGRAPH, voici Kraken Pro, solution développée par Turbosquid. Si l’entité est bien connue pour son marché de modèles 3D et textures, elle a beaucoup investi en R&D ces derniers temps, comme elle nous l’expliquait l’été passé.
Kraken Pro est directement issu de ces projets : il s’agit d’un service cloud qui promet de vous aider à organiser les assets de votre studio avec génération automatique de tags, métadonnées et vignettes, grâce entre autres à de l’intelligence artificielle.
Une fois la librairie en place, il est bien évidemment possible d’effectuer des recherches poussées (format, tag, etc) et de gérer collections, accès par une partie de l’équipe, etc.
Enfin, le tout peut évidemment s’intégrer dans un pipeline déjà en place et propose éditeur web 3D, conversion automatique.

On se rendra sur le site officiel pour plus de détails. Le prix relativement élevé du service le destine aux studios ; le tarif de base permet de gérer jusqu’à 10 000 modèles et 50 utilisateurs.

L’article Kraken Pro dévoilé : mettez de l’ordre dans vos assets est apparu en premier sur 3DVF.

Freak : Framestore évoque son nouveau moteur de rendu interne

Par : Shadows

A découvrir chez BeforeAndAfters, une interview de Mark Wilson (global head of CG) et Nathan Welster (head of rendering) du studio Framestore. Ils évoquent les raisons qui ont poussé l’entité à développer son propre moteur de rendu.

L’équipe explique son cheminement : après avoir basculé de RenderMan vers Arnold pour Gravity, le studio a développé énormément d’outils (shaders, intégrateurs, système de lights), pour arriver à un stade où, explique Mark Wilson, Arnold ne servait quasiment plus qu’à calculer les intersections entre rayons lumineux et géométries. A ce stade, une discussion interne a eu lieu sur l’intérêt de se passer totalement d’Arnold.

L’équipe a poursuivi dans cette voie, d’où l’émergence de son moteur “Freak”.

Framestore souligne que le coût d’un moteur interne est souvent nettement plus élevé que celui de l’achat de licences, mais le studio a des besoins spécifiques et travaille sur des projets à très grande échelle qui rendent viable le développement interne. Les deux interviewés soulignent que le moteur Freak est très modulaire, et a véritablement débuté en production avec Alita:Battle Angel.

D’autres points sont évoqués, comme le rendu GPU, le cloud, le machine learning ou encore USD. Nous vous invitons à lire l’ interview pour en savoir plus.

L’article Freak : Framestore évoque son nouveau moteur de rendu interne est apparu en premier sur 3DVF.

Production virtuelle et murs de LEDs : Pixomondo dans la lignée de The Mandalorian

Par : Shadows

Pixomondo dévoile en vidéo une expérimentation mise en place en février dernier avec le SIRT Centre, APG Displays et Epic Games. A Toronto, le studio a créé une démonstration des possibilités de la production virtuelle.

L’ensemble évoque évidemment le travail d’ILM, The Third Floor et Epic Games sur la série The Mandalorian (à ce sujet, voir notamment notre interview de The Third Floor, agrémentée d’un making-of vidéo par ILM).
Trois pans de mur affichaient le décor virtuel, une caméra servant à la prise de vue. Cette dernière était manifestement trackée (on peut d’ailleurs voir des caméras de motion capture surplomber le plateau). A noter aussi, à la 54ème seconde, l’aperçu d’un système permettant d’ajouter des sources d’éclairage à volonté : l’opérateur pointe la position voulue sur un mur, définit couleur, taille et puissance. L’idée est évidemment intéressante : elle reste dans l’optique d’utiliser le mur de leds à la fois comme décor et comme source d’éclairage, sans matériel supplémentaire, mais permet en même temps de dépasser les limites d’un simple éclairage par le décor et d’ajouter une touche de créativité. On peut par exemple imaginer utiliser ce genre de source pour créer un effet de rim lighting sur une chevelure, ou améliorer les reflets sur un regard.

Une chose est en tous cas claire : ILM n’est sans surprise pas le seul studio à s’intéresser aux techniques de production virtuelle les plus récentes. On peut donc s’attendre à voir exploser le nombre de projets qui feront appel à ces méthodes.

L’article Production virtuelle et murs de LEDs : Pixomondo dans la lignée de The Mandalorian est apparu en premier sur 3DVF.

NVIDIA lance une série de vidéos sur le raytracing

Par : Shadows

NVIDIA avait récemment publié en ligne Ray Tracing Gems, un ensemble de bonnes pratiques autour du raytracing temps réel disponibles sous forme d’un livre gratuit et destiné aux développeurs.

Eric Haine de NVIDIA, qui supervisait cet ouvrage, se lance désormais dans une série de vidéos sur le même sujet. En anglais, elles visent là aussi les développeurs, y compris les personnes n’ayant pas de bases sur le sujet : NVIDIA cherche clairement ici à faire de l’évangélisation afin de favoriser l’essor de sa technologie RTX pour les années à venir.

Trois vidéos sont déjà en ligne.

Les bases du raytracing :

Le raytracing face à la technique classique de la rastérisation :

Enfin, le matériel optimisé pour le raytracing :

L’article NVIDIA lance une série de vidéos sur le raytracing est apparu en premier sur 3DVF.

❌