Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 18 septembre 2019Vos flux RSS

GroomBear, nouvelle solution de grooming

Par Shadows

Kamil Wacławiak a lancé GroomBear, une série d’outils de grooming pour Houdini.
Le système, payant, vous permettra de modifier guides et cards à l’aide de nodes et brosses.

Compatible Windows et Linux, GroomBear fonctionne à la fois avec Houdini FX et Indie.

GroomBear toolkit allows you to create and modify guides/cards inside SideFX Houdini. 

Groom node has whole range of grooming tools, not only for short fur, but for long hair as well. Designed to use with a radial menu for faster workflow.

Brushes: mask, comb, force, shape, scatter, draw, move, copy, cut, lift, rotate, smooth, scale, clump, paint, custom, edit. Some brushes also includes sub-brushes.

Cards node, which allows you to convert guides to template geometry (for example planes, feathers, tubes) 

Nodes are locked. GroomBear’s groom node has digital asset wrapper, so it can be customized to some extent.

L’article GroomBear, nouvelle solution de grooming est apparu en premier sur 3DVF.

À partir d’avant-hierVos flux RSS

Realie, plateforme de reviewing et gestion de production

Par Shadows

La société française Realition nous présente Realie, solution en ligne de gestion de production.

L’équipe nous explique être partie du constat d’un écart entre, d’une part, des outils spécialisés comme Shotgun ou Ftrack, et d’autre part les outils réellement employés par de nombreux studios, indépendants, écoles, étudiants : des solutions généralistes comme Jira, Trello, Basecamp, Google.
Face à ce marché, nous explique Realition, Realie se positionne en tant qu’outil simple d’utilisation et avec une ergonomie proche des outils généralistes, mais en proposant des fonctions spécifiques aux besoins de l’industrie.

En pratique, Realie permet de mettre en place les équipes sur un projet, de gérer les tâches avec un système de type Kanban, de gérer des notifications, de visualiser et gérer les assets.. Un système de passage en revue est évidemment aussi inclus.
Les vidéos incluses plus bas vous donneront un bon aperçu (en français) des fonctionnalités proposées.

Le modèle économique retenu est sans surprise celui de l’abonnement, avec des offres pour indépendants, écoles et studios. Une offre d’essai gratuite mais limitée est aussi disponible pour tester l’outil.

1/4 : les tâches
2/4 : développement d’un asset manager
3/4 : review de médias
4/4 : applications collaboratives

L’article Realie, plateforme de reviewing et gestion de production est apparu en premier sur 3DVF.

Adobe enterre Fuse : quel avenir pour la 3D au sein du géant des logiciels créatifs ?

Par Shadows

Adobe a annoncé via un article de blog sa décision de mettre fin au développement d’Adobe Fuse.
Issue du rachat de Mixamo par Adobe en 2015, Fuse était une solution de création de personnages 3D.

Dans l’article, Jeanette Matthews d’Adobe précise que l’éditeur a « chercher à conserver Fuse disponible aussi longtemps que possible », ce qui semble clairement indiquer que le produit était considéré comme condamné depuis un moment. Elle précise que la nouvelle version de Mac OS (10.15) prévue d’ici la fin 2019 génère des incompatibilités : plutôt que d’adapter le produit, Adobe préfère donc en profiter pour jeter officiellement l’éponge, sous Mac et Windows.
En pratique, il restera possible d’utiliser Fuse sur des Macs non mis à jour, et sous Windows « pour l’année à venir ». A partir du 13 septembre 2020, Fuse ne pourra plus être téléchargé et sera supprimé du Creative Cloud.

Adobe réaffirme cependant sa volonté de continuer d’explorer la 3D. C’est précisément pour ne pas disperser les ressources que le développement prend fin, avance Jeanette Matthews qui assène que « [les ressources d’Adobe] restent engagées vers les initiatives 3D et RA ».
Adobe Dimension, Project Aero, la Suite Substance et « d’autres services 3D » sont au coeur des priorités du groupe, précise l’article, qui annonce au passage que Mixamo.com (service en ligne de rigging et animation de personnages 3D) vient de subir une refonte.

Ci-dessus : vidéo de présentation d’Adobe Fuse, publiée en 2015.

L’article Adobe enterre Fuse : quel avenir pour la 3D au sein du géant des logiciels créatifs ? est apparu en premier sur 3DVF.

Five Nights at Freddy’s va sortir une expérience d’horreur en réalité augmentée

Par Pierrick LABBE
Five Nights at Freddy's réalité augmentée Special Delivery

La célèbre franchise d’horreur indépendante, Five Nights at Freddy’s, a annoncé lancer plus tard dans l’année une expérience terrifiante en réalité augmentée. Voici les premières images.

La franchise est à l’origine de plusieurs jeux vidéo à succès. Le jeu, inspiré d’une sordide histoire vraie, plonge le joueur dans un univers particulièrement angoissant assez proche de la paranoïa. Le joueur incarne un gardien de sécurité dans une pizzeria de nuit. Le restaurant qui est doté d’animatroniques devient, le soir venu, un lieu particulièrement dangereux du fait des animatroniques qui prennent vie à la nuit tombée. Une expérience en réalité augmentée va donc voir le jour d’ici la fin de l’année et s’annonce particulièrement terrifiante. Voici les premières images.

Five Nights at Freddy’s : Special Delivery sera effrayant

C’est le studio Illumix qui développe l’expérience en réalité augmentée et baptisée Five Nights at Freddy’s : Special Delivery. Cette start-up envisage de changer la façon dans les jeux-vidéo sont consommés. La jeune pousse explique ainsi : « La réalité augmentée offre aux joueurs de nouvelles façons d’interagir avec leurs franchises préférées en combinant des environnements réels, des personnages fictifs et un gameplay innovant ».

Le patron d’Illumix poursuit : « Avec Five Nights at Fredddy’s AR : Special Delivery, nous voulions aller au-delà du jeu traditionnel de géolocalisation AR-optionnel et offrir une expérience AR plus significative en intégrant l’AR au cœur du jeu ». Peu d’informations ont cependant transpiré pour le moment à l’exception des premières images montrées. Nous ne savons pas s’il s’agit d’une seule expérience en réalité augmentée ou bien encore d’un véritable jeu AR. La date de sortie est prévue durant l’automne et devrait être disponible sur iOS et Android.

Cet article Five Nights at Freddy’s va sortir une expérience d’horreur en réalité augmentée a été publié sur Réalité-Virtuelle.com.

Un nouvel outil pour organiser vos matériaux PBR

Par Shadows

Le studio de jeux vidéo indépendant 21 12 Games nous présente Ptolemee. Il s’agit d’un petit outil payant (mais très abordable) qui vous permettra de lister, classer et avoir un aperçu de vos textures PBR. Le displacement est géré dans l’aperçu, et un système de tags est proposé.

Compatible Unreal Engine, Ptolemee a été développé en interne par le studio, qui nous explique ne pas avoir trouvé d’outil sur le marché répondant à ses besoins.

Notez enfin que les développeurs nous précisent que des mises à jour sont prévues, par exemple l’ajout d’un comparatif côte à côte, ou la possibilité d’organiser d’autres types d’assets (meshes, squelettes, animations).

L’article Un nouvel outil pour organiser vos matériaux PBR est apparu en premier sur 3DVF.

Explorez la forêt amazonienne en réalité augmentée avec TIME Magazine

Par Bastien L
forêt amazonienne réalité augmentée

La nouvelle expérience du TIME Magazine vous propose d’explorer la forêt amazonienne en réalité augmentée. Immergez-vous dans cette forêt en péril pour mieux prendre conscience de ce qui est menacé par les terribles incendies provoqués par l’Homme…

Depuis maintenant plusieurs semaines, le monde entier a le regard tourné vers la forêt amazonienne dévorée par les flammes. D’immenses incendies, principalement causés par l’Homme afin de dégager de l’espace pour l’agriculture, se répandent de façon plus intense et plus rapide que par le passé dans cette forêt considérée comme les poumons de la planète Terre.

Dans ce contexte, afin d’éveiller les consciences, et après nous avoir emmenés sur la lune pour les 50 ans d’Apollo 11, le TIME Magazine nous propose d’explorer la forêt Amazonienne via son application Immersive disponible sur iOS et Android.

TIME Magazine veut éveiller les consciences sur la forêt Amazonienne grâce à la réalité augmentée

Cette nouvelle expérience intitulée ” Inside the Amazon : The Dying Forest ” permet de s’immerger dans cette forêt en danger. Pour réaliser ce documentaire d’un genre nouveau, TIME a envoyé le reporter Matt Sandy accompagné de deux producteurs afin de visiter les zones les plus menacées par la déforestation. Durant tout leur périple, ils étaient équipés de caméras montées sur des drones afin de réaliser des scans en 3D de l’environnement.

Tout au long de l’expérience, la voix de la conservationniste Jane Goodall explique quelles sont les forces menant à la déforestation, qui sont les personnes qui la combattent et qui sont celles qui ont le plus à perdre face à ce phénomène. Un son spatialisé vient également accompagner le visuel pour renforcer la sensation d’immersion.

Cette expérience en réalité augmentée vient accompagner un numéro spécial du magazine entièrement dédié à la crise climatique. Un article de Matt Sandy explique comment la forêt la plus large et la plus biodiversifiée du monde a atteint un point où elle pourrait se transformer en savane…

Cet article Explorez la forêt amazonienne en réalité augmentée avec TIME Magazine a été publié sur Réalité-Virtuelle.com.

PPixel : le studio japonais Polygon Pictures (Star Wars Resistance, BLAME!) dévoile son avenir

Par Shadows

Polygon Pictures est un studio bien connu pour son approche stylisée du rendu. De Ghost In The Shell 2 : Innocence et Sky Crawlers dans les années 2000 aux plus récents Human Lost, Godzilla : La planète des monstres, Blame!, en passant par les séries Star Wars Resistance et Tron: Uprising, vous avez sans doute eu l’occasion de voir les capacités de ses artistes.

Le studio profite de la rentrée pour dévoiler une partie de son futur. Polygon Pictures annonce en effet travailler sur un nouveau moteur de rendu, PPixel. Spécialisé dans le rendu non photoréaliste (NPR), PPixel permettra entre autres de créer des images dans le style cel-shading cher au studio, mais pas seulement : Polygon Pictures souligne qu’en termes de rendu stylisé, la demande du marché ces dernières années a nécessité une grande diversité de styles visuels.

Polygon Pictures ajoute que PPixel devrait lui permettre de réduire ses temps de rendu et d’optimiser encore plus son pipeline, donc de pouvoir obtenir des images de meilleure qualité grâce aux gains de productivité.

Enfin, Polygon Pictures précise avoir choisi de développer en interne d’autres outils nécessaires à son travail quotidien. Une stratégie qui, selon l’entreprise, lui permettra de conserver son statut dans les années à venir.

L’article PPixel : le studio japonais Polygon Pictures (Star Wars Resistance, BLAME!) dévoile son avenir est apparu en premier sur 3DVF.

Maverick Indie : un nouveau challenger sur le marché du rendu ?

Par Shadows

L’équipe de RandomControl avait lancé en début d’année Maverick Studio, un moteur de rendu destiné aux utilisateurs de solutions de CAD. Son petit frère est désormais disponible : Maverick Indie, deux fois moins cher et ciblant plutôt les artistes.

La vidéo de présentation donne une bonne idée du produit : une approche glisser-déposer, un moteur de rendu spectral physiquement correct et un système de denoising intégré (via NVIDIA Optix).
Côté fonctionnalités, Maverick Studio est par ailleurs accéléré par GPU via CUDA (les cartes graphiques AMD passeront donc leur chemin), propose un rendu interactif, une librairie d’éclairage avec HDRIs et backplates associées, des fonctions classiques comme la gestion des render passes, un Shadow Catcher. En revanche, pas de rendu en ligne de commande.
Enfin, Maverick Indie propose un système de turntables et un import facilité des assets Substance Painter, Substance Designer et ZBrush.

Les caractéristiques de Maverick Indie en font un produit proche de Marmoset Toolbag : un moteur qui permettra de rapidement importer des assets puis les mettre en valeur via rendus et turntables.

Compatible Windows 64 bits, Maverick Indie est disponible sous forme de licence perpétuelle ou au mois.

L’article Maverick Indie : un nouveau challenger sur le marché du rendu ? est apparu en premier sur 3DVF.

PPI, un nouveau mode de paiement original pour RealityCapture

Par Shadows

Le logiciel RealityCapture est un des outils de scan 3D et photogrammétrie les plus réputés du marché, mais son tarif est positionné en conséquence : il faut compter plusieurs milliers d’euros pour une licence perpétuelle. Une offre de licence mensuelle est aussi proposée, mais elle est par définition limitée dans le temps et reste imparfaite pour un usage peu fréquent.

A l’occasion de sa mise à jour de septembre, le logiciel se dote désormais d’une nouvelle option qui répond à ce problème : PPI, ou Pay-per-input. Le concept : vous pouvez installer et utiliser le logiciel gratuitement et comme bon vous semble, et c’est lors de l’export du modèle que vous paierez, en fonction du nombre de photos d’entrée et de leur résolution, ou du nombre de points scannés au laser. Un avantage de l’approche est donc de ne payer qu’après avoir reconstruit un modèle, et en sachant précisément ce que l’on achète.

Plus intéressant : il ne s’agit pas d’un paiement lié à un export unique, mais à l’ensemble des assets d’entrée. Ce qui signifie que si vous payez pour, par exemple, l’export d’un modèle issu de 500 photos et d’une session de LiDAR, vous pourrez indéfiniment retravailler et ré-exporter ces mêmes données d’entrée.

Précisons également que la même mise à jour apporte aussi le support des images 16 bits/HDR en entrée mais aussi lors de la création de textures.

Mise à jour du 11/09 : compléments sur le modèle économique

Comme nous le signale un lecteur en commentaire, en parallèle de cette nouvelle offre, l’éditeur a annoncé la fin de son offre « Promo », qui permettait de disposer d’une licence de 3 mois pour 100€, avec toutefois une limite de 2500 photos et 50 Megapixels par image.
Or, avec le système de crédits introduit via PPI, 100€ permet de disposer de 10 000 crédits, soit le paiement du traitement de 2000 images de 20 megapixels, ou de 3333 images de 12 megapixels.

Autrement dit : si vous utilisiez la licence Promo au maximum de ses capacités, le prix que vous deviez payer pour trois mois correspond désormais à un scan unique. Un scan que vous pourrez certes traiter et exporter indéfiniment, mais un scan unique.
La fin de cette offre Promo sera donc clairement une mauvaise nouvelle pour ses adeptes.

L’article PPI, un nouveau mode de paiement original pour RealityCapture est apparu en premier sur 3DVF.

Puma saute le pas de la réalité augmentée pour les boutiques

Par Pierrick LABBE
Puma expérience en AR

La marque Puma vient de s’associer à Zappar pour permettre à ses clients de bénéficier d’expériences innovantes en réalité augmentée dans ses boutiques. 

C’est désormais une vraie habitude pour les marques qui vend du footwear ou qui s’appuient sur des produits jugés “tendance”. La réalité augmentée devient une évidence dans le marketing de ces marques. Après Nike et Adidas, une autre grande marque s’y met.

Des codes QR chez Puma pour la réalité augmentée

La fameuse marque au félin veut donc vouloir proposer des expériences qui sortent un peu de l’ordinateur à ses clients. C’est une proposition qui est pour l’instant disponible dans son principal magasin à New York et qui a été pensée pour le lancement de sa nouvelle ligne autour du basket-ball. Les utilisateurs peuvent donc scanner des codes QR qui sont présents dans la boutique avec l’application de l’entreprise et ainsi interagir avec la mascotte de Puma qui explique comment se rendre à la section dédiée dans la boutique. L’expérience continue ensuite avec les chaussures. Chacun des sept modèles différents de cette ligne propose un petit contenu spécifique en réalité augmentée.

En rentrant dans notre boutique, les clients reçoivent du contenu plus riche, plus engageant, tant avec la marque Puma dans sa totalité qu’avec des produits individuels ” explique Russ Kahn, le responsable de l’activité vente chez la marque. Cette expérience a été conçue par l’entreprise Alternative Genius en utilisant les capacités en réalité augmentées de Zappar. Cette dernière bénéficie ici d’un bel éclairage dans un univers très compétitif. Puma réussit de son côté un beau retour entre NBA et high-tech.

Cet article Puma saute le pas de la réalité augmentée pour les boutiques a été publié sur Réalité-Virtuelle.com.

Lenovo Mirage AR : après Star Wars, un jeu Marvel en réalité augmentée

Par Bastien L
lenovo mirage ar marvel

Lenovo lance un nouveau jeu pour son casque de réalité augmentée Mirage AR. Il s’agit d’un jeu basé sur l’univers de Marvel, proposant au joueur d’incarner les différents super-héros des films Avengers…

En 2018, Lenovo lançait son casque de réalité augmentée pour smartphone Mirage AR. À l’époque, l’appareil était fourni avec un seul jeu intitulé Star Wars : Jedi Challenges. Le titre regroupait plusieurs mini-jeux en réalité augmentée inspirés par l’univers de la saga Star Wars. Les joueurs pouvaient notamment combattre Dark Vador au sabre laser, jouer au HoloChess, ou encore combattre l’Empire dans un jeu de type RTS.

À présent, Lenovo est de retour avec un nouveau jeu en réalité augmentée tiré d’une autre franchise acquise par Disney : Marvel. Intitulé ” MARVEL, Dimension of Heroes “, le jeu propose d’incarner six super-héros différents : Doctor Strange, Captain America, Thor, Black Panther, Captain Marvel et Star-Lord. Dans la peau de ces justiciers, vous pourrez affronter les super-vilains emblématiques de l’univers Marvel au fil d’une nouvelle histoire originale.

Lenovo Mirage AR : incarnez les super-héros Marvel et combattez les forces du mal

En outre, un mode survie vous propose de tenter de tenir le plus longtemps face à des vagues d’ennemis de plus en plus redoutables pour vous hisser dans le tableau du classement mondial. Enfin, un mode coopératif local permet à deux possesseurs du casque Mirage AR de se connecter au même réseau WiFi pour unir leurs forces face à Loki, Ronan l’Accusateur, Ultron Prime ou encore le Soldat de l’Hiver.

Lenovo propose un nouveau bundle regroupant le casque Mirage AR avec les jeux Star Wars et Avengers, ainsi qu’une nouvelle paire de ” contrôleurs universels ” sans fil 6DoF permettant d’utiliser vos mains pour donner des coups de poing, trancher à l’arme blanche, ou tirer à l’arme à feu. Ces contrôleurs remplacent les ” sabres laser ” fournis avec le bundle Star Wars de 2018.

Ce nouvel ensemble est disponible dès à présent aux États-Unis pour 250 dollars, et devrait être très bientôt proposé dans nos contrées via Amazon et le site officiel de Lenovo. L’application quant à elle est à télécharger sur votre smartphone iOS ou Android.

Cet article Lenovo Mirage AR : après Star Wars, un jeu Marvel en réalité augmentée a été publié sur Réalité-Virtuelle.com.

L’éditeur Boris FX annonce deux nouveaux rachats

Par Shadows

L’éditeur Boris FX (Mocha Pro, Sapphire, Continuum…) poursuit sa politique d’expansion. Après Imagineer Systems en 2014 puis GenArts en 2016, l’entreprise annonce désormais le rachat de SilhouetteFX et Digital Film Tools.

Silhouette est une solution de rotoscopie/paint largement employée. L’outil a notamment été utilisé sur Avatar, Le Hobbit, Wonder Woman, Avengers: Endgame.

Les produits Digital Film Tools, de leur côté, sont constitués à la fois de produits standalone et de plugins. Ils ciblent la création photo, vidéo, le montage et la colorimétrie avec par exemple des effets optiques, ou la simulation d’objectifs ou de films argentiques.
Les plugins supportent Photoshop, Lightroom, After Effects, Premiere Pro ; Apple Final Cut Pro X et Motion ; Avid Media Composer ; et enfin les produits compatibles OFX comme Nuke et DaVinci Resolve.

Boris Yamnitsky, président et fondateur de Boris FX, explique dans l’annonce que Silhouette complémente Mocha et ses fonctions de tracking/suppression d’objets. Les produits Digital Film Tools, ajoute-t-il, on une clientèle fidèle derrière eux.

Marco Paolini, Paul Miller et Peter Moyer, les fondateurs de Silhouette, conservent leurs postes et continueront donc à travailler sur Silhouette et d’autres produits. Les produits Silhouette et Digital Film Tools seront désormais vendus sous la marque Boris FX avec mises à jour annuelles, support annuel et possibilités de souscription.

Notez enfin, si vous comptez vous rendre à l’IBC (du 13 au 17 septembre à Amsterdam), que Boris FX y présentera un aperçu de Silhouette 2020, prévu pour le mois d’octobre prochain.

L’article L’éditeur Boris FX annonce deux nouveaux rachats est apparu en premier sur 3DVF.

L’outil Instant Terra dévoile ses capacités avec une bande démo

Par Shadows

Nous avions déjà eu l’occasion d’évoquer Instant Terra, une solution 3D temps réel de génération de terrains. L’outil est développé par l’équipe de Wysilab, à Montpellier.

Néanmoins, avant de se lancer et d’adopter une solution logicielle, il est toujours intéressant d’avoir une bonne idée des capacités d’un tel produit. Et justement, une nouvelle bande démo est disponible : elle vous permettra d’avoir un aperçu de ce que permet Instant Terra en termes de création et diversité.

Notez qu’Instant Terra se décline en trois versions selon vos besoins, les deux versions de base (Classique, Unlimited) étant très abordables. Le modèle économique est celui des licences perpétuelles. Enfin, une démo 30 jours est proposé, et des licences éducation gratuites pour écoles et élèves sont disponibles sur demande.

L’article L’outil Instant Terra dévoile ses capacités avec une bande démo est apparu en premier sur 3DVF.

Rigger sous Modo : quels avantages ?

Par Shadows

Foundry a mis en ligne une conférence du SIGGRAPH 2019 présentée par Rich Hurrey. Ce dernier met en avant les capacités de MODO en matière de rigging.

L’article Rigger sous Modo : quels avantages ? est apparu en premier sur 3DVF.

Steam : la bêta ouverte de la nouvelle bibliothèque arrive le 17 septembre

Par Jason Filankembo
Steam

Les joueurs pourront tester la nouvelle bibliothèque de jeux Steam dès le 17 septembre lors d’une bêta ouverte.

La bibliothèque de Steam fait peau neuve. A partir du 17 septembre, une bêta ouverte permettra aux joueurs d’expérimenter une version inédite de la Bibliothèque. La navigation et l’installation de jeux, y compris ceux en VR, seront complètement revues. 

Bêta ouverte de Steam : de nombreux changements

Tous les joueurs pourront participer à la bêta ouverte du 17 septembre. Une bêta qui prévoit un bon nombre de nouvelles fonctionnalités. Tout d’abord, la page d’accueil de la Bibliothèque permettra d’accéder rapidement aux dernières mises à jour des jeux utilisés récemment. 

Il sera également plus simple de prendre connaissance des nouveautés que contiennent ces mises à jour. L’activité de nos amis sera également visible en un instant. Voir les jeux auxquels nos amis ont joué pourra se faire directement sur la page d’accueil. La Bibliothèque Steam paraît déjà plus clair et bien mieux agencé sur les images partagés par Valve.

Valve explique que par le passé, les développeurs ont pu être frustrés qu’une mise à jour importante de leur jeu soit mal, voire pas du tout mise en avant. Désormais, pour valoriser leurs nouveaux contenus, ceux-ci auront accès à de nouveaux outils de création d’événements si besoin est.

Après de nombreuses années à stagner, Valve a donc (enfin) décidé de chambouler sa Bibliothèque Steam. Bien que la firme n’ait pas indiqué si la façon d’interagir avec la VR sur la plateforme sera modifiée, ces changements sont bienvenus. Il ne reste plus qu’à attendre les premiers retours des joueurs, dès le 17 septembre, pour voir si cela paye. 

 

Cet article Steam : la bêta ouverte de la nouvelle bibliothèque arrive le 17 septembre a été publié sur Réalité-Virtuelle.com.

Unreal Engine 4.23 : Epic Games sème le Chaos

Par Shadows

Epic Games lance la version 4.23 de son moteur de jeu Unreal Engine. En voici les principales avancées.

Tout d’abord, Chaos fait enfin son arrivée (en beta). Dévoilé lors de la GDC 2019, il s’agit d’un nouveau système de physique et destruction. La promesse de l’éditeur : des effets du niveau de cinématiques en temps réel, et des destructions massives.
Avec Chaos, un nouveau type d’asset fait son apparition pour les objets destructibles, et de nombreux outils et contrôles permettent de maîtriser la destruction.

En parallèle, le raytracing temps réel reçoit de nombreuses améliorations : meilleures performances, plus grande stabilité et qualité en hausse sont au menu. Concrètement, cela se traduit par exemple par une amélioration du denoiser et de l’illumination globale (RTGI), le support de nouveaux types de matériaux et géométries (terrains, meshes procéduraux, transmission avec les matériaux SSS).

Autre nouveauté : le support en beta du Virtual Texturing, qui permet de créer et utiliser des textures de grande taille pour diminuer l’empreinte mémoire lors de l’exécution.

On notera également le support en beta d’Hololens 2, l’arrivée en beta d’Unreal Insights (pour collecter et analyser des données sur le comportement du moteur), ou encore un pipeline de production virtuelle amélioré.

Pour plus de détails et télécharger la mise à jour, nous vous invitons à faire un tour sur le site officiel.

L’article Unreal Engine 4.23 : Epic Games sème le Chaos est apparu en premier sur 3DVF.

KeyShot 9 sera plus rapide et plus efficace

Par Shadows

L’équipe de développement de KeyShot annonce l’arrivée prochaine du raytracing accéléré par GPU (via NVIDIA RTX) et du denoising via intelligence artificielle. Des avancées prévues pour la version 9 de KeyShot, disponible cet automne.

Dans l’annonce, l’équipe rappelle que KeyShot est historiquement un moteur de rendu standalone en raytracing sur CPU. Jusqu’ici, l’utilisation du GPU était exclue pour des questions d’optimisation ou de qualité de rendu, mais KeyShot va enfin sauter le pas avec l’arrivée des GPUs NVIDIA RTX. En pratique, ce rendu GPU se fera à l’aide du moteur NVIDIA OptiX. Le basculement vers le rendu GPU se fera en un clic, du moment que la carte graphique est supportée (donc récente).

Nous aurons l’occasion de revenir sur cette annonce lors de son lancement effectif, d’ici quelques semaines.

L’article KeyShot 9 sera plus rapide et plus efficace est apparu en premier sur 3DVF.

Altspace VR va débarquer sur l’Oculus Quest dans les prochains jours

Par Pierrick LABBE
Altspace VR

C’est un autre réseau social en réalité virtuel qui fait le saut en avant vers l’Oculus Quest. Le 12 octobre prochain, on aura le droit à une déclinaison de Altspace VR sur le dernier casque.

Pas vraiment une surprise de la part du réaseau social puisque le lancement était initialement espéré pour le mois d’août. Un peu de retard est donc à constater, mais l’information a été confirmée sur les réseaux sociaux par le réseau social comme vous pouvez le voir dans le tweet ci-dessous.

It's officially official: we launch on @oculus Quest on September 12! Mark your calendars… pic.twitter.com/A942hgu8XV

— AltspaceVR (@AltspaceVR) August 28, 2019

Altspace VR, bientôt incontournable ?

Sur son compte Twitter, Altspace VR a donc annoncé que c’est le 12 septembre prochain que son application serait déclinée sur l’Oculus Quest. Il n’y a pas eu de détails spécifiques, mais à priori, il devrait bel et bien s’agir de l’application complète. Jusqu’à présent, l’application sociale est déjà disponible sur une très large gamme de casques de réalité virtuelle allant de l’Oculus Go au HTC Vive. La bonne nouvelle, c’est que jusque-là, le crossplay était déjà au programme, on peut donc penser qu’il en ira de même ici.

Le concept de l’application Altspace VR est plutôt simple pour ceux qui ne le connaissent pas, elle offre la possibilité de rencontrer vos amis réels en réalité virtuelle, comme si vous étiez dans la même pièce. Vous pouvez créer votre avatar aux allures de cartoon, et vous projeter dans différents jeux et des espaces variés. C’est aussi l’opportunité de voir des spectacles comiques ou des Q&A de personnalités connues outre-Atlantique. Enfin, l’application devrait bien entendu rester gratuite. A découvrir donc.

Cet article Altspace VR va débarquer sur l’Oculus Quest dans les prochains jours a été publié sur Réalité-Virtuelle.com.

Les contrôleurs Index sont finalement compatibles avec The Lab

Par Pierrick LABBE
The Lab Valve Index

L’entreprise Valve s’est décidée à faire une mise à jour plutôt attendue concernant les contrôleurs de son casque de réalité virtuelle et The Lab, l’une de ses applications les plus populaires. On fait les présentations.

Le Lab est expérience bien connue de ceux qui ont pu avoir le HTC Vive à l’époque, en 2016. Bien sûr, elle a connu quelques évolutions depuis et les choses ne semblent pas terminées loin de là.

The Lab : petits jeux et expériences au programme

A l’époque de son lancement, l’idée était tout simplement de pouvoir montrer tout le potentiel de la réalité virtuelle. Cependant, loin d’être une simple démonstration, le résultat a réussi à se faire une vraie place, grâce à une esthétique et une approche soignées. De quoi en faire un incontournable sur Steam mais, trois ans après, The Lab vient d’avoir le droit à sa mise à jour la plus importante. Cela concerne notamment le support pour le retour squelettique du système Steam VR.

Cela inclut donc le suivi des doigts pour les contrôleurs du Valve Index, mais cela vous permet aussi de redéfinir la configuration des boutons complètement comme vous le souhaitez. Hands-On, la mise à jour du Lab permet aussi de gérer les interactions physique, et permettre à peu près à tous les objets dans le jeu de réagir à votre touche. Vous ne pourrez plus passer vos mains à travers d’une tasse à café, sans savoir que vous êtes là. A la place, vous pourrez le prendre, le toucher ou même le détruire.

Cet article Les contrôleurs Index sont finalement compatibles avec The Lab a été publié sur Réalité-Virtuelle.com.

Game of Thrones : la VR a joué un rôle capital dans un épisode mythique

Par Pierrick LABBE
Game of Thrones réalité virtuelle

Pour filmer la destruction de Port Real durant l’épisode 5 de la saison 8 de Game of Thrones, les équipes se sont basées sur la réalité virtuelle. Explications de la directrice artistique de la série sur l’utilité de la VR.

L’épisode 5 de la saison 8 de la série à succès de HBO (intitulé Les Cloches) a marqué les esprits. Alors que les habitants de la ville avait capitulé et, contre toute attente, Daenerys incarnée par l’actrice Emilia Clarke, décidait de réduire en cendres la ville de Port Real montée sur son dragon. Un choc pour de nombreux téléspectateurs et un changement important dans la trame de la série qui amènera, plus tard, John Snow à assassiner Daenerys. Pour filmer ces scènes spectaculaires, les équipes de la série se sont appuyés sur la réalité virtuelle. Explications…

Game of Thrones : la VR pour modéliser la ville

Réaliser les scènes très réalistes de la destruction de la ville de Port Real dans l’épisode 5 de la saison 8 de Game of Thrones a été un véritable défi. Les réalisateurs se sont inspirés de la ville de Dubrovnik en Croatie pour créer la capitale de Westeros. La directrice artistique de la série, qui a reçu pas moins de 3 Emmy pour ses réalisations dans la série, a expliqué à nos confrères américains du journal « IndieWire » comment cela avait été réalisé et l’importance de la réalité virtuelle dans cette préparation. En plus d’une vue globale de la cité d’aspect médiéval, les réalisateurs ont eu besoin de recréer une porte de la ville, la rue principale, une place, des rues de quartier, l’entrée du donjon ainsi que plusieurs intérieurs.

Tous ces lieux devaient être recréés en décor avant et après la destruction. Un travail titanesque et coûteux. Pour cela, la directrice artistique a d’abord fait modéliser numériquement la ville fictive de Game of Thrones en réalité virtuelle. Cette approche a permit aux réalisateurs : « d’avoir une bien meilleure idée de ce qui était en train de se construire parce qu’on pouvait “se tenir debout” au milieu du décor avant même qu’on commence à dépenser de l’argent ou que le premier coup de marteau soit donné. Cela a aussi donné aux directeurs de la photographie la possibilité de se retrouver concrètement dans l’espace pour créer leurs propres plans et animatiques sur le plateau virtuel ».

Une fois que tout était au point avec la réalité virtuelle, le chantier de construction du décor a commencé. Pour les scènes de la ville détruite, les réalisateurs de Game of Thrones se sont inspirés d’images de Londres après les bombardements allemands durant la seconde Guerre Mondiale. Deux versions de la même ville, entière et détruite, ont ainsi été réalisées puis superposées. Un travail d’orfèvre et de grande précision pour ces scènes spectaculaires. La réalité virtuelle a donc été d’une importance capitale pour réduire les coûts de décors et réduire le temps de conception de ceux-ci.

Cet article Game of Thrones : la VR a joué un rôle capital dans un épisode mythique a été publié sur Réalité-Virtuelle.com.

Nebula Render 2 : quelles nouveautés pour le moteur de rendu canadien ?

Par Shadows

L’équipe du moteur Nebula Render nous annonce le lancement de la version 2 de son produit.

Moteur physique non-biaisé disponible sous Windows, Nebula vise architecture, designers mais aussi effets visuels. Face à la concurrence, l’outil met l’accent sur la simplicité d’usage avec un éditeur facile à prendre en main, un viewport DirectX 12 et un mode de rendu progressif en raytracing pour faciliter les itérations. Un éditeur d’images est aussi inclus pour le post-processing.
Côté technique, Nebula dispose de modes CPU (par défaut) et GPU hybride (dans ce cas, le GPU est employé pour les rayons primaires, le CPU pour les secondaires). Pour le reste, on y retrouve des caractéristiques classiques : matériaux variés, area lights, ombres douces, SSS, medium participatif, denoising en post-processing, etc.

La version 2 apporte de nombreuses avancées, comme l’indique le changelog ci-dessous. On notera en particulier un panneau permettant de naviguer dans les assets, une interface revue, un meilleur contrôle sur l’occlusion ambiante en intérieur et du gain de temps sur le travail quotidien (raccourcis, copier-coller de meshes, etc).

New Features:
– Asset browser panel.
– Adds an ambient occlusion distance mode. Practical for indoor scenes.
– Popup message system in the real-time view.
– Completely renovated user interface.
– More shortcuts.
– Dielectric materials have now a « additional rays » property.
– Images are now separate entities and are selectable.
– Images have a « show in viewport » property allowing to load/unload them from the GPU.
– Nebula scene files(.nsn) can be opened in the application via the Windows explorer.
– Mesh copy/paste/delete.
– Mesh import in existing scene.
– Multiselection transform edition.
– Dynamic color pickers change preview.
– Adds Fresnel reflection checkbox for some materials.
– Participating media have now a « noise » property.


Bug fixes:
– Mouse capture assertion during application exit while clicking on the viewport.
– Final render checkbox should not be checkable when rendering.
– Black vertical line at the viewport right extent.
– When real-time view multi-select, clicking on the same entity makes gizmo move.
– Create an entity from tools should append to the lists.
– Image import assignations are lost when undo/redo.
– Camera unlock displaying a message when nothing to unlock.
– Lights can be selected when clicking in billboard square but looking in the opposite direction.
– Asset panel scroll position is lost when creating/deleting entities.
– Wrong layout of some modifier panels.
– Wrong ior tooltip of Metal and Hair materials.

Nebula Render 2 est disponible en deux versions.
La première, gratuite, autorise néanmoins l’usage commercial. La résolution est limitée en 800p, et d’autres limites sont présentes (rendu sur 8 cores maximum, pas de rendu GPU).

La seconde, payante mais abordable, faut sauter les limitations de la version gratuite.

L’article Nebula Render 2 : quelles nouveautés pour le moteur de rendu canadien ? est apparu en premier sur 3DVF.

Unity 2019.3b : que la lumière soit

Par Shadows

Unity 2019.3 est désormais disponible en beta. Interface revue, nouvel Input System, post-processing dans l’Universal Render Pipeline, physique, itérations accélérées, les avancées sont nombreuses, comme l’explique l’annonce. Ce n’est néanmoins peut-être pas la plus grosse nouvelle.

Car en parallèle de ces mises à jour, c’est aussi le raytracing qui fait ses débuts dans Unity. C’est au sein du High Definition Render Pipeline(HDRP) que cette avancée trouve sa place : rappelons que ce dernier vise plutôt l’ingénierie et l’architecture que le jeu.
Concrètement, on pourra désormais utiliser le raytracing pour calculer area shadows, illumination globale, reflets, transparence. Le tout se fait via l’API DXR de DirectX 12.

Cette avancée est évidemment la bienvenue, d’autant qu’Unreal a déjà sauté ce pas. Avec un support du raytracing par deux moteurs très largement utilisés, le nombre de projets utilisant cette technologie va véritablement pouvoir prendre son essor. A terme, le raytracing temps réel risque d’avoir des impacts majeurs sur la façon de travailler de bien des artistes. On se souvient par exemple que dans notre interview sur Ghost ot a Tale, Lionel « Seith » Gallat nous expliquait qu’il regardait de près cette avancée, y voyant la fin des contraintes du baking et la possibilité de travailler l’éclairage en temps réel dans un jeu.

L’article Unity 2019.3b : que la lumière soit est apparu en premier sur 3DVF.

Paper Beasts vous emmène vers de fabuleuses destinations

Par Pierrick LABBE
Paper Beasts

C’est un jeu qui sera une exclusivité du PSVR. Cependant, pour les amateurs de natures sauvages et de voyages originaux Paper Beasts pourrait bien se révéler incontournable.

On peut vous le dire, les présentations de nouvelles expériences ne sont pas toujours réussies. De nombreuses plateformes et développeurs s’y sont déjà cassés les dents. Ce n’est cependant vraiment pas le cas de cette initiative originale.

Paper Beasts : par le designer de Another World

Derrière le projet Paper Beasts présenté au Gamescom, on trouve Eric Chahi, le designer qui était à l’origine du très bon Another World. Son nouveau projet est du genre comme vous n’en avez sans doute jamais vu en réalité virtuelle. Une fois le casque PlayStation VR enfilé, vous vous retrouvez à l’intérieur d’un écosystème animalier entièrement simulé, parfaitement immersif et totalement séduisant. C’est une exploration en réalité virtuelle qui vous emmène aux racines de ce que vous aimez, de ce que vous connaissez. On se croirait parfois au milieu d’un documentaire animalier quand les animaux se déplacent entre les dunes de sables ou s’arrêtent pour boire dans une petite mare d’eau.

Avec Paper Beasts, on ressent un pincement quand ils succombent sous les attaques d’un prédateur. Vous pourrez vous surprendre à les regarder encore et encore, observant avec envie leurs mouvements, vous pourrez même leur donner à manger de petites boules de papier, alors qu’ils suivent du regard la main où vous tenez leur récompense. C’est toute une expérience qui vous donnera envie de rester puis d’y revenir. Cela nous manque déjà.

Cet article Paper Beasts vous emmène vers de fabuleuses destinations a été publié sur Réalité-Virtuelle.com.

World of Warcraft : Blizzard joue avec Snapchat en réalité augmentée

Par Pierrick LABBE
World of Warcraft filtres Snapchat réalité augmentée

Pour les 15 ans de World of Warcraft, Blizzard a noué un partenariat avec Snapchat pour proposer des filtres originaux en réalité augmentée. On vous fait les présentations.

Cela fait désormais une éternité (ou presque à l’âge numérique) que le jeu mythique écume nos ordinateurs. Le jeu de rôle en ligne massivement multi-joueurs est encore incontournable aujourd’hui. L’occasion de célébrer cet anniversaire de façon originale.

Des filtres Snapchat pour se plonger dans l’ambiance World of Warcraft

Avant Fortnite et autres jeux à succès d’aujourd’hui, il y avait World of Warcraft, mieux connu comme WoW. Pour l’occasion, Blizzard a relancé la version classique et s’est associé avec Snapchat pour proposer un mélange d’ancien et de moderne. Au programme, des vieux personnages connus, et de nouveaux filtres interactifs en réalité augmentée. Ils sont apparus dans le carrousel de l’application Snapchat sur les applications iOS et Android mercredi. L’opportunité pour les joueurs de se transformer en leurs deux personnages favoris de l’édition classique du jeu.

Il vous suffit d’appuyer ou de swiper sur l’écran pour choisir entre les deux et avec la bonne expression faciale déclencher une animation, qu’il s’agisse d’un toast de célébration, ou la réincarnation du célèbre meme de Leroy Jenkins. Il est aussi possible d’invoquer le méchant Ragnaros en filtrant le marqueur Snapchat que sur ce visuel. Aux Etats-Unis, il est possible de le trouver dans des lieux publics. Cependant, en France, le plus simple sera sans doute d’utiliser notre image comme filtre World of Warcraft. Une belle façon de célébrer un anniversaire.

Cet article World of Warcraft : Blizzard joue avec Snapchat en réalité augmentée a été publié sur Réalité-Virtuelle.com.

Israël investit massivement dans la réalité virtuelle pour son armée

Par Pierrick LABBE
Tsahal casques de réalité virtuelle

Tsahal, l’armée israélienne a investit des centaines de milliers de dollars dans des équipements de réalité virtuelle pour former ses soldats aux combats dans des conditions particulières. Durant leurs entrainements, les soldats chaussent un casque de réalité virtuelle pour simuler des combats dans des tunnels similaires à ceux qui sont creusés le long de la frontière avec la bande de Gaza et du Liban et servent aussi bien à acheminer des produits de première nécessité que des armes.

L’armée israélienne doit faire face à une situation peu commune pour certains combats. Aussi, pour familiariser et entraîner ses soldats à pénétrer des tunnels, détecter les nombreux pièges qui sont habilement disposés et affronter des combattants, Tsahal a massivement investit dans la réalité virtuelle. Après 3 ans, plus d’une centaine de soldats israéliens ont ainsi été formés.

L’armée d’Israël s’entraîne avec des casques de réalité virtuelle

Tsahal s’est équipé de casques Oculus Rift et HTC Vive pour entraîner ses soldats. Dans un centre d’entraînement se trouvant dans une base militaire du centre du pays, les recrues s’entraînement à affronter un ennemi imaginaire dans une simulation de tunnels. La réalité virtuelle permet une formation des soldats à des environnements difficiles. Il s’agit bien plus qu’une simulation de tunnels. En effet, l’armée israélienne a scanné de véritables tunnels découverts le long de la frontière avec la bande de Gaza et la frontière avec le Liban pour les modéliser de façon très fidèle.

Ainsi, le programme d’entraînement simule des attaques dans des tunnels similaires à ceux se trouvant le long de la frontière de Gaza mais aussi avec le Liban. Ces espaces, particulièrement étroits et sinueux, sont effectivement un terrain sur lequel les soldats ne sont pas préparés à évoluer en temps normal. Ces exercices, difficiles à reproduire en temps normal, et plus encore à superviser, trouvent, avec la réalité virtuelle, une facilité de mise en œuvre et une absence de risques. Une facilité et une efficacité nettement meilleure qu’un entraînement classique.

Un investissement de plusieurs centaines de milliers de dollars

L’armée israélienne n’a pas hésité à investir des centaines de milliers de dollars dans cette technologie. Un investissement particulièrement lourd justifié, selon les commandants de Tsahal, par l’importance de former ses troupes à ces environnements. Dix postes de travail sont ainsi disponibles avec des casques Oculus Rift ainsi qu’un simulateur de tunnels avec des casques HTC Vive. Le simulateur peut modifier, à loisir, la forme des tunnels produisant ainsi des exercices différents.

Les commandants de l’armée israélienne expliquent par ailleurs que, bien souvent, ces tunnels sont truffés de pièges mortels. Les entraînements permettent donc, non seulement d’apprendre à combattre dans ces tunnels, mais aussi à détecter ces pièges. Très satisfaits de cet entraînement, l’armée israélienne envisage d’investir dans de nouveaux casques et postes de travail. A noter, par ailleurs, que Tsahal utilise aussi, depuis un moment déjà, la réalité augmentée pour former ses militaires au démantèlement d’armes.

L’armée israélienne souhaite éviter l’horreur de sa précédente opération

Durant l’année 2014, l’armée israélienne avait mené une opération militaire très contestée dans de tels tunnels. Baptisée « Bordure protectrice », cette opération avait tué plus de 2.000 palestiniens, la plupart civils. 70 militaires israéliens avaient aussi trouvé la mort. Depuis la tension est montée avec le Liban. La découverte de 6 nouveaux tunnels creusés, selon Tsahal, par le Hezbollah pour enlever et tuer des soldats ou civils israéliens ont été découverts. Israël se souvient de la guerre de 2006 avec son voisin libannais et espère être mieux préparé en cas de nouveau conflit.

Cet article Israël investit massivement dans la réalité virtuelle pour son armée a été publié sur Réalité-Virtuelle.com.

Airbus donne un aperçu de son module militaire pour l’Hololens

Par Pierrick LABBE
Airbus militaire HOloLens 2

C’est un équipement militaire qui ne sera vraisemblablement pas disponible pour le grand public. Cependant, au vu des premiers visuels qui ont été dévoilés, il faut reconnaître que cela donnerait presque envie de s’engager…

C’est une publication surprenante de l’Airbus Defense and Space, une démonstration de l’outil baptisé « Holographic Tactical Sandbox ». Un projet que l’on aurait pu penser teinté du taux du secret.

Un juteux contrat militaire pour Microsoft

C’est un contrat faramineux que Microsoft a obtenu avec l’armée américaine. 480 millions de dollars pour fournir des casques de réalité augmentée Hololens 2 modifiés pour les soldats sur le terrain pour l’armée US. Cependant, au-delà du casque qui va être différent, il faut aussi avoir des applications en réalité augmentée. Là, c’est Airbus qui entre en jeu si on en croit cette révélation. Ce sandbox est donc conçu pour fonctionner avec l’application Airbus Fortion Tactical C2 qui permet à des officiers et au personnel militaire de voir de cartes en 3D du champ de bataille face à eux grâce au casque qu’ils ont sur le visage.

Une configuration qui peut potentiellement être utilisée pour prévoir des missions ou encore des entraînements. Le concept de sandbox n’a rien de neuf dans le domaine militaire mais c’est bien entendu la nouvelle version, pensée pour le 21e siècle qui modifie complètement la logique et les usages. L’armée espère pouvoir être plus efficace, se préparer plus vite et avoir une meilleure perception du champ de bataille et de ses enjeux. Un avantage non négligeable pour l’état major donc. Affaire à suivre…

Cet article Airbus donne un aperçu de son module militaire pour l’Hololens a été publié sur Réalité-Virtuelle.com.

3ds Max 2020.2 et au-delà : de quoi satisfaire les utilisateurs ?

Par Shadows

3ds Max 2020.2 est disponible, nous annonce Autodesk. L’éditeur en profite aussi pour esquisser l’avenir du produit, qui s’annoncerait très positif à en croire son équipe de développement.

2020.2 : des améliorations incrémentales

Sans surprise venant d’une mise à jour « .x », cette 2020.2 n’est pas une révolution mais une série d’améliorations venant compléter 3ds Max.
Concrètement, Autodesk annonce :

  • une mise à jour de l’importateur SketchUp (pour gérer les dernières versions et avoir des imports plus fiables) ;
  • encore des améliorations sur le modifier Chamfer : ce travail sur les chanfreins vient en fait compléter les efforts déjà entrepris sur la 2020.1 ;
  • des améliorations du viewport, notamment au niveau de la gestion des ombres. Les performances devraient aussi s’en trouver améliorées ;
  • Python3 alert mode : cette mise à jour devrait inciter les développeurs d’outils tiers à basculer de Python 2 à 3 si ce n’est déjà fait, sachant que la version 2 ne sera bientôt plus supportée ;
  • quelques améliorations liées à Arnold, qu’il s’agisse de MaxtoA, d’Arnold 5.4 ou d’Arnold beta GPU.

Cap sur l’avenir : un 3ds Max plus beau, plus rapide, plus efficace

Au-delà de cette mise à jour, l’annonce comporte aussi une roadmap. Nicolas Fonta (Senior Product Manager – 3ds Max) explique que l’équipe a été « très occupée » et dévoile quelques pistes pour les futures versions de 3ds Max.

En ligne de mire : un produit de meilleure qualité, plus stable, des performances en hausse, mais aussi des améliorations sur les fonctionnalités de création et modélisation de base, un viewport toujours plus beau et rapide, et enfin des capacités de rendu améliorées. Bref, un 3ds Max toujours plus beau et plus puissant. Une vision appréciable, mais qui demande un peu de concret pour être étayée ; et justement, Autodesk donne des détails un peu plus précis dans la suite de son annonce.

UV, viewport

L’éditeur évoque tout d’abord l’arrivée du machine learning dans ses outils UV : l’idée est de s’en servir pour la détection des seams et le dépliage automatique des textures. Autodesk espère que ce travail (encore au stade de prototype) permettra de faire gagner du temps aux artistes.

Côté viewport, Autodesk souhaite offrir un rendu « entièrement PBR » avec support de nouvelles fonctions visuelles : roughness, ambient occlusion progressive et rapide. Par ailleurs consciente de la complexité des options proposées, l’équipe veut simplifier la configuration du viewport.

Rendu

Au niveau du rendu, plusieurs avancées sont prévues. L’outil Render to Texture de Max n’a pas été mis à jour « depuis longtemps », admet Nicolas Fonta. Il est donc temps d’une refonte totale de l’outil de baking, avec une nouvelle version qui s’appuiera sur Arnold tout en continuant à supporter les moteurs tiers.
Le travail sur Arnold GPU va se poursuivre, avec des rendus plus rapides pour les images finales ou dans le viewport (via Active Shade) tout en disposant d’un résultat identique visuelle à celui obtenu via une renderfarm CPU classique.
Arnold ayant d’ailleurs vocation à être le moteur de rendu par défaut, Autodesk explique que l’expérience globale et les paramètres de rendu sont en cours de révision. L’idée : avoir un moteur toujours prêt à être utilisé dans 3ds Max. Les paramètres de rendu devraient mieux s’aligner sur les standards actuels.
Enfin, Autodesk s’intéresse à une convergence avec les standards de l’industrie sur les matériaux, ce qui passerait par une standardisation de nombreux workflows de 3ds Max vers Physical Material. A la clé, un meilleur support dans le viewport et pour n’importe quel moteur de rendu.

Modifiers

En ce qui concerne les modifiers, plusieurs pistes sont évoquées :
– Instance Modifiers : 3ds Max manque d’outils dédiées pour le layout d’environnements petits et grands, admet Autodesk, et l’équipe cherche à améliorer les capacités de layout procédural d’environnements en s’appuyant sur Bifrost (le moteur procédural en place dans Max et Maya).
– retopologie automatique : il s’agirait ici d’intégrer Reform pour une retopologie totalement automatique, mais aussi de proposer des workflows semi-automatique avec possibilité de guider l’outil (indication des edges importants).
– Booléens 3D : l’objectif serait de faire converger les workflows existants pour rationaliser l’ensemble, sans doute vers une expérience proche de celle des Shape Booleans.

Animation

– De l’interopérabilité, c’est la première avancée prévue par Autodesk : l’idée est de faciliter l’import/export de données d’animation sans pour autant baker ces dernières en keyframes. Une évolution qui devrait faciliter le travail en motion capture, mais aussi permettre aux artistes sous Max d’échanger plus facilement avec des animateurs utilisant d’autres outils. L’équipe explique expérimenter avec HumanIK et le retargeting en direct pour parvenir à ces objectifs.
En parallèle, 3ds Max deviendrait capable de retargeter les animation Populate vers n’importe quel rig, ce qui permettrait depuis Populate de contrôler n’importe quel personnage, sans pour autant perdre les interactions avec les environnements (contacts avec marches, pentes, etc).
– L’annonce évoque aussi une possible refonte de la Track View, dont l’interface actuelle est qualifiée de « old UI Technologie » par Autodesk.

Bifrost au menu

La technologie Bifrost va continuer à évoluer. L’article évoque feu, fumée, cloth.

Standards, partenariats, automation

USD, MaterialX (que nous évoquions récemment, justement via une conférence d’Autodesk) vont avoir leur place dans l’avenir de 3ds Max. En parallèle, Autodesk travaille sur sa Standard Surface en interne et avec des partenaires.

A propos de partenaires, d’ailleurs, Unity et Autodesk devraient proposer des workflows améliorés entre 3ds Max et Unity. NVIDIA est aussi cité, via une collaboration entre 3ds Max et Omniverse, un workflow reposant sur USD.

Pour le reste, Autodesk évoque le même point que pour la 2020.2, à savoir l’abandon programmé de Python 2. La version 3 prendra la relève. Le SDK 3ds Max devrait par ailleurs être consolidé, simplifié, revu en profondeur.
Enfin, Autodesk évoque des travaux liés à Forge, avec en ligne de mire une automation accrue.

Des ambitions à concrétiser

On ne peut évidemment que saluer la mise en place de roadmaps publiques, même si pour des raisons légales Autodesk se garde bien de donner des dates et prévient que ses indications ne sont pas des promesses.

Reste désormais à attendre de voir les fruits de ces développements. De grosses améliorations sur 3ds Max seront bénéfiques pour les artistes, y compris pour les personnes préférant d’autres outils : le passé l’a prouvé, en infographie, la concurrence est toujours positive.

N’hésitez pas à donner votre avis sur cette vision de l’avenir de 3ds Max en commentaire. Vous pouvez également consulter l’annonce complète d’Autodesk, et envoyer des retours à l’éditeur par plusieurs approches : forums officiels, test des versions beta.

L’article 3ds Max 2020.2 et au-delà : de quoi satisfaire les utilisateurs ? est apparu en premier sur 3DVF.

Snoop Dogg devient un personnage en réalité augmentée sur Snapchat

Par Pierrick LABBE
Snoop Dogg réalité augmentée Snapchat

Le rappeur américain, Snoop Dogg, vient de lancer son dernier album. L’artiste en a profité aussi pour lancer une fonctionnalité en réalité augmentée avec son personnage sur Snapchat.

Le rappeur, désormais âgé de 47 ans, est un artiste au succès incontournable. Le chanteur est aussi un fan de technologies notamment avec les jeux vidéo. Son personnage apparait dans plusieurs jeux ainsi que certaines de ses chansons. Il a même prêté sa voir aux paroles de certains personnage du célèbre Gran Theft Auto : San Andreas ainsi que dans la version V du jeu à succès. Cette fois, l’artiste aux différents genres musicaux prête son personnage en réalité augmentée sur Snapchat pour la sortie de son dernier album : « I Wanna Thank Me ».

Le personnage de Snoop Dogg en réalité augmentée

C’est ce week-end que l’expérience en réalité augmentée avec le personnage de Snoop Dogg est sortie, en conjonction avec son nouvel album. Pour en profiter, les fans doivent scanner le code instantané que vous trouvez ci-dessus. Après quoi, il faut pointer son smartphone sur l’image de couverture de son nouvel album « I Wanna Thank Me ». Le personnage de l’artiste prendra ainsi vie sous vos yeux en réalité augmentée.

Comme sa première couverture d’album, celle-ci comporte une illustration, dans ce cas, chaque personnage montre une version différente de ce à quoi Snoop a ressemblé au fil des ans. Une fois que l’objectif de la caméra Snapchat est activé, l’un des personnages souffle de la fumée et une version 3D de Snoop Dogg apparaît. Notez que l’expérience a été créée par Fishermen Labs, le même studio qui a développé l’expérience Snapchat de James LeBron plus tôt cette année.

Cet article Snoop Dogg devient un personnage en réalité augmentée sur Snapchat a été publié sur Réalité-Virtuelle.com.

Rencontre avec Marcos Fajardo, créateur d’Arnold

Par Shadows

A écouter chez Chaos Group, un nouvel épisode du podcast audio de l’entreprise. On y trouvera une interview d’un concurrent : Marcos Fajardo, créateur du moteur de rendu Arnold.

Au menu : un historique d’Arnold, une plongée dans le développement du moteur et les origines de son nom, l’implication de Sony dans le logiciel et le rachat par Autodesk. L’avenir du rendu est aussi abordé.

Image d’illustration : Blade Runner 2049, sur lequel Arnold a été utilisé.

L’article Rencontre avec Marcos Fajardo, créateur d’Arnold est apparu en premier sur 3DVF.

Alienbrain : l’outil de gestion de versions pour artistes et designers se met à jour

Par Shadows

Alienbrain lance Alienbrain 2019, nouvelle version de son système de contrôle de versions pour les industries du design et du divertissement.

Concrètement, Alienbrain promet de mettre fin aux fichiers perdus, à la recherche de la bonne version d’un document ou encore à l’écrasement involontaire du travail d’un autre artiste dans un studio. L’outil se charge de conserver un historique des fichiers, de gérer qui travaille sur quoi. L’éditeur avance que contrairement aux outils de versioning classiques pensés pour du code source, Alienbrain est spécifiquement optimisé pour gérer des fichiers d’art numérique.
Enfin, Alienbrain dispose de plugins pour différents outils du marché, comme Maya, 3ds Max et Photoshop.

La nouvelle version apporte notamment un plugin Unreal Engine, l’intégration 3ds Max 2020, et un passage en 64 bits. On notera également le support de nouveaux types de fichiers, qu’il s’agisse de projets Illustrator (AI, EPS), Unreal Engine (uasset), OpenEXR (exr).
Dernier changement majeur : l’outil est désormais disponible sous forme de souscription annuelle. Les versions perpétuelle et éducation restent disponibles.

L’article Alienbrain : l’outil de gestion de versions pour artistes et designers se met à jour est apparu en premier sur 3DVF.

❌