Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 16 août 2019Vos flux RSS

British Airways se lance à son tour dans la réalité virtuelle

Par Pierrick LABBE
British Airways

La compagnie aérienne britannique British Airways est la dernière en date à se lancer dans un test autour du contenu en réalité virtuelle ou en 360° pour les passagers à bord de ses avions.

Depuis des années, la possibilité de voir des films à bord des avions de ligne est désormais devenue une évidence. Cependant, les compagnies aériennes passent désormais au niveau suivant avec des offres destinées à toucher les plus férus de nouvelles technologies.

Réalité virtuelle à bord des avions British Airways : un essai prometteur

British Airways a annoncé cette semaine que les passagers voyageant entre London Heathrow et l’aéroport JFK à New York bénéficieront de cet essai en réalité virtuelle. L’entreprise s’appuie sur Skylights et son casque spécialisé : AlloSky. Pour ceux qui n’ont jamais pu en faire l’expérience, c’est beaucoup plus qu’un simple casque de réalité virtuelle fonctionnant avec un téléphone, sans pour autant faire rêver autant qu’un Oculus Quest. L’appareil est alimenté par une puce Qualcomm et ressemble à une paire de lunettes pour un poids de 250 grammes. Le casque de réalité virtuelle propose 3 degrés de liberté, le tracking de votre tête, et vous permet une vision à 360° avec des films 3D ou traditionnels.

Parmi les films 360 degrés proposés par British Airways, on trouve notamment Asteroids ! ou bien encore Bro Bots. La résolution proposée est de 1080 pixels par œil, soit une qualité qui peut sembler plutôt basse, mais dans un appareil vous n’avez pas non plus un espace infini. L’équipement sera limité à ceux voyagent en première classe uniquement. Il va donc falloir passer à la caisse pour pouvoir en profiter…

Cet article British Airways se lance à son tour dans la réalité virtuelle a été publié sur Réalité-Virtuelle.com.

Instagram se prépare à sauter à pieds joints dans la réalité augmentée

Par Pierrick LABBE
Instagram réalité augmentée

L’application Instagram s’apprête à connaître une petite révolution alors qu’elle va désormais proposer aux utilisateurs d’ajouter des effets en réalité augmentée pour la première fois.

Si vous êtes fans de l’application gratuite détenue par Facebook, il est temps de vous préparer à une petite révolution. Le cas échéant, c’est sans doute l’occasion ou jamais. Vos amis vont bientôt se transformer en Terminator, Pikachu, ou ce dont ils peuvent rêver.

Instagram souhaite proposer des stories 2.0

Les utilisateurs du réseau social de partage de photos et de vidéos, Instagram, vont donc bientôt pouvoir ajouter à leurs stories des effets en réalité augmentées, qui concernent tout autant les photos que les vidéos. Le résultat s’annonce par avance un peu fou. Ils seront mis en valeur différemment des contenus classiques puisqu’ils apparaîtront au sommet de l’application dans un format slideshow regroupant les différentes images et vidéos publiées dans les 24 heures précédentes.

Au niveau de la technologie, c’est sans surprise un outil de Facebook, le propriétaire d’Instagram qui va être déployé, il s’agit en l’occurrence de Spark. L’outil va permettre aux utilisateurs de piocher dans une bibliothèque d’effets, filtres et smileys, mais la fonctionnalité en réalité augmentée devrait permettre aux utilisateurs de vraiment s’approprier l’outil. C’est en tout cas l’ambition de Facebook. Si vous créez de nouveaux effets, vous pourrez ensuite les partager avec vos amis et vos followers à travers une galerie d’effets qui peut être envoyé aux différents utilisateurs. Les petites démonstrations d’Instagram s’annonce déjà très prometteuses entre ceux qui jouent à l’homme invisible ou planent dans l’espace.

Cet article Instagram se prépare à sauter à pieds joints dans la réalité augmentée a été publié sur Réalité-Virtuelle.com.

À partir d’avant-hierVos flux RSS

Project Lavina : découvrez en images l’avenir du rendu

Par Shadows

Chaos Group, éditeur de V-Ray, a mis en ligne une démo présentée cet été lors du SIGGRAPH. Il s’agit d’une vidéo du fameux Project Lavina, son futur moteur de rendu en raytracing temps réel.

La démo est pour le moins alléchante, avec des scènes massives et de l’animation. L’usage semble particulièrement simple : un glisser-déposer d’une scène V-Ray permet d’explorer cette dernière immédiatement et en temps réel. Autrement dit, tous les avantages d’une visualisation dans un moteur de jeu, mais sans le processus de préparation habituel.

Chaos Group donne quelques précisions : la scène de ville a été créée par Evan Butler de Blizzard Entertainement à l’aide de KitBash3d, et atteint le milliard de polygones ; plus loin, on reconnaîtra des scènes du fameux court Construct de Kevin Margo.
Côté fonctionnalités, Lavina gère déjà les animations et le multi-GPU. L’outil dispose aussi d’un nouveau système de réduction du bruit (on sent d’ailleurs un fourmillement dans l’image), prend en compte les collisions, permet d’appliquer matériaux et LUTs, de fusionner des scènes, de transformer/sélectionner des objets, ou encore de gérer caméra et profondeur de champ.

Bien entendu, tout ceci a un coût matériel : la démo a été enregistrée à l’aide de deux NVIDIA Quadro RTX 8000 (les performances devraient être similaires sur deux cartes GeForce 2080 TI). Lavina demande donc une machine solide, mais on peut imaginer que les progrès matériels à venir sauront répondre à ces besoins.

D’ici là, un formulaire permet d’être tenu au courant des avancées de Lavina, qui sortira « bientôt » en beta. Pour tester Project Lavina quand ce sera possible, il vous faudra une licence V-Ray Next Render, une carte graphique NVIDIA RTX et enfin une machine Windows compatible DirectX 12/DXR. Il sera possible de se contenter d’une carte Pascal ou Maxwell, mais les performances seront largement moindres : autant dire que Lavina en perdra fortement en intérêt.

Plus largement, cette démo de Project Lavina donne un aperçu de ce que permettra à l’avenir le raytracing temps réel : la fin des aperçus interactifs au profit du temps réel, et un rendu toujours plus proche de l’image finale.
Comme l’explique Lon Grohs de Chaos Group : quand la production du court Construct a débuté, Kevin Margo visualisait des scènes à 24 images par seconde avec 250 000$ de matériel. Aujourd’hui et avec Lavina, des performances similaires seraient obtenues avec une carte RTX coûtant un millier de dollars ou euros.

Autant dire que les années à venir s’annoncent prometteuses.

Le court-métrage Construct, si vous l’aviez manqué à l’époque de sa sortie

L’article Project Lavina : découvrez en images l’avenir du rendu est apparu en premier sur 3DVF.

Huawei dévoile le « Cyberverse », de l’AR dans le Cloud avec la 5G

Par Pierrick LABBE
Cyberverse

L’entreprise chinoise a dévoilé sa vision de la réalité augmentée dans le cloud avec la 5g. Un résultat particulièrement prometteur qui se nomme le Cyberverse. On fait les présentations de cette technologie.

La réalité augmentée dans le cloud fait partie des technologies que l’on attend avec impatience parce qu’elles pourraient définir le monde digital de demain. Et autant dire que dans ce secteur, ni la Chine, ni Huawei n’ont l’intention d’être laissés en arrière.

Cyberverse : une belle annonce de Huawei

L’information est tombée dans la conférence des développeurs de Huawei. L’entreprise a dévoilé comment elle imagine le monde de demain, mappé et repeuplé avec du contenu en réalité augmentée persistant et surtout des interfaces. Il s’agit d’une technologie de Cloud avec de la réalité augmentée disponible avec la 5G. Cette technologie combine un mapping plutôt avancé du monde réel et les informations de la réalité augmentée. Vous vous interrogez sur l’origine du nom Cyberverse, c’est sans doute parce que vous avez quelques références du côté de Transformers. On avait eu le droit au « Transformers Cyberverse » l’an dernier. Si on aime ce petit clin d’œil, on aurait tout de même tendance à trouver le mot « cyber » un peu retro.

Pour l’instant, il n’y a pas beaucoup d’informations qui ont été rendues disponibles sur ce nouveau système, mais Huawei a dévoilé une petite vidéo qui s’annonce pour le moins ambitieuse, avec les rendues prévus du Cyberverse avec un smartphone. Plus de 1000 endroits sur la planète devraient être compatibles. Cependant, avec les freins pour l’instant mis au développement du réseau 5G par Huawei, il faudra attendre.

Cet article Huawei dévoile le « Cyberverse », de l’AR dans le Cloud avec la 5G a été publié sur Réalité-Virtuelle.com.

Nukeygara fait le point avec 3DVF sur akeytsu, son outil d’animation

Par Shadows

Souvenez-vous : en 2014, nous vous avions présenté la solution d’animation akeytsu, qui s’apprêtait à être lancée sur le marché. Sa particularité : une interface et des outils censés placer l’animation au centre et accélérer le travail des artistes.
Depuis, nous avons eu l’occasion de suivre son évolution : sortie d’une version 1.0 en 2017 après une longue beta, levée de fonds d’un million d’euros fin 2018.

Nukeygara venant de faire plusieurs annonces majeures, nous en avons profité pour échanger directement avec son équipe, afin de faire le point sur la stratégie du logiciel et les évolutions en coulisses.

Une équipe renforcée

Nukeygara nous a expliqué que la levée de fonds a d’ores et déjà servi à étoffer ses effectifs : l’entreprise grimpe à 8 personnes. Cette évolution explique d’ailleurs en partie le faible nombre de mises à jour ces derniers mois : la structuration de l’entreprise a été au coeur des préoccupations d’Aurélien Charrier, dirigeant de Nukeygara et designer principal d’akeytsu. Cette phase étant terminée, l’équipe peut enfin multiplier les annonces et les concrétiser.
La première d’entre elles : un changement du modèle économique.

akeytsu

Un produit plus accessible

Initialement uniquement proposé sous forme de licence perpétuelle, akeytsu est désormais aussi disponible en version « live ». Comprendre : sous forme d’un abonnement. Ce dernier a deux particularités :

  • tout d’abord, la possibilité de mettre en pause et réactiver l’abonnement à tout moment : utile pour un studio dont le volume de travail évolue ;
  • ensuite, un système « rent-to-own » : si l’abonnement était actif durant 12 mois sur les 15 derniers, il devient possible de le basculer en licence perpétuelle moyennant une somme réduite (elle correspond pile à la différence entre le prix de ces 12 mois et le prix de la licence perpétuelle). Ceux qui n’aiment pas payer un produit sans le posséder seront ravis.
    La licence perpétuelle obtenue via cette offre sort donc du système d’abonnement, et les mises à jour pourront ensuite être obtenues (si le client le désire) via un système de maintenance payante.

La licence perpétuelle classique (dont le prix a légèrement augmenté) reste proposée : le but n’est donc pas de forcer le passage vers un abonnement, mais plutôt de proposer une nouvelle offre qui conviendra mieux à un certaine cible.
En particulier, l’abonnement Indie (chiffre d’affaires de moins de 100 000$ par an) à 15$ par mois environ bloque toute barrière à l’entrée : de quoi attirer de nouveaux clients et décourager le piratage.

akeytsu

Une rafale de mises à jour

Seconde annonce majeure : la publication d’une roadmap et la promesse de mises à jour plus fréquentes. L’équipe va lancer une série d’améliorations qui étaient en développement ces derniers mois, mais qui nécessitaient d’être finalisées : la fin de la réorganisation de l’entreprise permet justement de les boucler.

L’objectif de cette salve de mises à jour, nous explique Nukeygara : changer l’image du logiciel et sa perception par les artistes, en montrant plus de dynamisme. Bien entendu, la roadmap est aussi un moyen d’inciter à l’abonnement, en montrant que le soutien financier au logiciel se traduira réellement par des innovations. Il s’agit ici de contrer les craintes d’utilisateurs qui ont pu être déçus par d’autres éditeurs.

akeytsu

Conséquence logique de ces mises à jour rapprochées, la numérotation d’akeytsu (1.x) devrait changer et basculer vers des versions annualisées (de type 2019.x) pour plus de clarté.

La roadmap est visible ci-dessous ; nous aurons l’occasion de revenir plus en détails sur les avancées le moment venu, des vidéos de présentation étant prévues pour chaque mise à jour.
On notera tout de même un point atypique : la version Mac OS. Un choix surprenant pour un outil compatible Windows et absent de Linux. Nukeygara nous précise ici que l’idée est d’arriver en pionniers, les concurrents natifs sous Mac OS étant peu nombreux. Linux reste toutefois envisagé à long terme.
Une autre raison de ce portage : dans le cadre de la restructuration et comme le designer Aurélien Charrier était particulièrement pris, les nouveaux développeurs ont ainsi pu se focaliser ces derniers mois sur une tâche qui ne demande pas de choix de design lourd d’implications, et qui leur permettait en parallèle de se familiariser avec l’outil.

akeytsu

Et maintenant ?

On le voit, Nukeygara compte bien assurer l’avenir d’akeytsu. Le logiciel a déjà réussi à rassembler une communauté autour de lui : Nukeygara nous a précisé que 8500 clés ont été activés jusqu’ici. Un chiffre qui cumule versions d’essai, indie, apprentissage… Et qui ne correspond donc pas au nombre d’utilisateurs actifs, mais au nombre total d’activations.

Nukeygara ne compte pas en rester là : l’entreprise sera présente à la Devcom dans quelques jours, en Allemagne. Le but, séduire artistes, studios indépendants mais également studios de moyenne et grande taille, eux aussi ciblés par Nukeygara.
Dans le cadre de cette présence au Devcom, l’animatrice Elena Nikolova présentera akeytsu, qu’elle utilise dans le cadre de son travail autour du jeu Phoenix Point (jeu de stratégie en accès anticipé, par le créateur de X-Com).

Pour en savoir plus, on pourra se rendre sur le site officiel d’akeytsu.

Phoenix Point, un jeu dont les créatures ont été animées à l’aide d’akeytsu

L’article Nukeygara fait le point avec 3DVF sur akeytsu, son outil d’animation est apparu en premier sur 3DVF.

MARUI : travaillez sous Maya en réalité virtuelle

Par Shadows

Découvrez MARUI, un plugin Maya qui vous permettra de travailler en réalité virtuelle. Modélisation, animation, retopologie, revue d’un projet, animation de caméra, lighting… Selon l’éditeur, l’outil permet de faire tout ou presque en immersion.

Si certains points sont sans doute plus une affaire de goût que d’avantage réel par rapport à un écran classique, ce genre d’outil peut prendre tout son sens dans certains contextes. Nous vous en avions déjà parlé lors du Festival d’Annecy : Locksmith Animation avait proposé durant sa conférence une démonstration de travail collaboratif à l’aide d’un outil VR. Concrètement, un artiste travaillait en réalité virtuelle tandis que plusieurs membres de l’équipe disposaient d’un retour vidéo et donnaient des instructions (repérages dans un décor 3D, modifications, animation rapide…). L’éditeur du plugin ne s’y est d’ailleurs pas trompé, et la revue d’un modèle fait partie des démonstrations vidéo du produit.

Payant, MARUI se décline en deux versions (usage commercial ou non), avec un modèle économique de type abonnement mensuel ou licence perpétuelle, au choix. Une démo gratuite est aussi disponible.

L’article MARUI : travaillez sous Maya en réalité virtuelle est apparu en premier sur 3DVF.

La réalité virtuelle permet d’améliorer l’entraînement des chirurgiens

Par Pierrick LABBE
chirurgiens réalité virtuelle

Une étude menée par UCLA pour comparer l’entraînement classique et celui  en réalité virtuelle des chirurgiens montre une amélioration des capacités plus que conséquente.

C’est une étude qui devrait faire du bruit quant à son potentiel pour améliorer l’entraînement en réalité virtuelle. Menée par David Geffen de l’école de médecine de l’université de Californie, elle est intitulée « Essai aléatoire  et contrôlé d’un outil de réalité virtuelle pour enseigner la technique chirurgicale du clouage intramédullaire d’une fracture de la tige tibiale ».

Des chirurgiens davantage préparés

L’étude a été réalisée sur un groupe limité de 20 élèves chirurgiens étudiants, ce qui amène aussi à la relativiser pour l’instant. 10 d’entre eux se sont entraînés avec Osso VR, un casque de réalité virtuelle et des contrôleurs. Les autres avec les méthodes classiques. Après leur entraînement ils ont réalisé une opération sur un os d’entraînement artificiel et leur performance a été filmée puis évaluée par un chirurgien professionnel selon plusieurs critères : temps, mouvements, gestions des outils, connaissance des outils, gestion de l’opération et connaissances spécifiques de l’opération.

Le bilan est sans appel. Les étudiants chirurgiens entraînés par la réalité virtuelle ont été évalués 130 % plus haut que les autres. Ils ont aussi géré l’opération avec 38 % d’efficacité supplémentaire et 20 % plus rapidement. Pour l’instant, les résultats sont bien sûrs à observer avec prudence au vu de l’échantillon observé. Cependant, pour Osso VR qui défend l’approche de son outil par rapport aux méthodes classiques, il s’agit d’un vrai succès. La réalité virtuelle en médecine qu’il s’agisse de l’apprentissage ou pour les professionnels a de beaux jours devant elle.

Cet article La réalité virtuelle permet d’améliorer l’entraînement des chirurgiens a été publié sur Réalité-Virtuelle.com.

EmberGen : un futur simulateur de fluides temps réel

Par Shadows

JangaFX dévoile en vidéo son futur outil : EmberGen. Il s’agit d’un outil de simulation volumétrique de fluides temps réel qui permet de simuler, rendre et exporter des flipbook/sprite sheets pour les utiliser dans votre moteur de jeux vidéo favori.

Concrètement, EmberGen permet de créer feu, fumée ou encore explosions. Son atout principal est évidemment l’aspect temps réel, qui promet une absence de temps de rendu. La gestion des simulations se fait sans surprise via un système nodal.
A l’inverse, EmberGen ne permet pas d’exporter les données volumétriques vers les moteurs de jeux, même si cette fonction est prévue à terme.

La page produit permet de demander un accès à la beta fermée. EmberGen sera payant, mais le tarif n’est pas encore connu.

L’article EmberGen : un futur simulateur de fluides temps réel est apparu en premier sur 3DVF.

Open Image Denoise 1.0 : des avancées notables pour le denoiser d’Intel

Par Shadows

En février dernier, nous vous avions parlé du lancement d’Open Image Denoise, une librairie de réduction du bruit développé par Intel. Ce dernier se destine au traitement d’images issues de moteurs de rendu de type raytracing. Enfin, il est proposé en open source, sous licence Apache 2.0.

Si nous l’évoquons à nouveau, c’est car la version 1.0 a été dévoilée à l’occasion du SIGGRAPH. On y trouve deux avancées principales :

  • amélioration de la qualité du denoising : meilleure préservation des détails, moins d’artefacts ;
  • la mémoire utilisée par défaut a été largement revue à la baisse, et une option permet de limiter cette consommation mémoire (au prix évidemment de performances moindres).

Pour le reste, correction de bugs et corrections mineurs sont sans surprise aussi au programme.

Comme le veut la tendance actuelle, Open Image Denoise s’appuie sur un système de type deep learning. Il a été entraîné sur des images de qualité variable, de 1 échantillon par pixel jusqu’à des images ayant quasiment convergé. Le but de ce choix : obtenir un filtre qui fonctionne à la fois pour les aperçus et le rendu final.

En pratique, Open Image Denoise a commencé à être adopté par certains outils comme Cinema 4D R21, Corona Renderer 4, Unity. Il fonctionne avec les CPUs disposant d’une architecture Intel 64 ou compatible.

Intel Open Image Denoise

L’article Open Image Denoise 1.0 : des avancées notables pour le denoiser d’Intel est apparu en premier sur 3DVF.

RenderMan 22.6 : quoi de neuf ?

Par Shadows

Pixar a profité de l’été pour mettre à jour son moteur de rendu RenderMan, qui passe en version 22.6.
Les principales avancées sont PxrCurvature (un nouveau pattern qui pourra être utile pour des effets d’usure), un playblast Maya repensé, une intégration Hydra et un nouveau plugin de matériau pour Mari qui permet d’avoir un aperçu du shading PxrSurface tout en peignant sous Mari.

La liste complète des avancées est disponible chez Pixar. Rappelons au passage que RenderMan dispose d’une version gratuite, à usage non commercial.

L’article RenderMan 22.6 : quoi de neuf ? est apparu en premier sur 3DVF.

TopoGun : la version 3 enfin annoncée

Par Shadows

Sept ans après le lancement de sa version 2, on a enfin des nouvelles de la déclinaison 3.0 de TopoGun. Rappelons qu’il s’agit d’un outil de resurfacing et baking de maps.

Si la version 3 se fait attendre, explique le compte Twitter officiel, c’est parce que l’outil a été entièrement réécrit : une démarche apparemment indispensable pour pouvoir implémenter les nouvelles fonctions prévues.
En pratique, une beta publique sera lancée en octobre, et des vidéos de présentation sont prévues. On peut donc s’attendre à un lancement effectif fin 2019 ou début 2020.

D’ici là, voici une présentation de l’actuelle V2 :

L’article TopoGun : la version 3 enfin annoncée est apparu en premier sur 3DVF.

Le Samsung Galaxy Note 10+ se met au niveau pour la réalité augmentée

Par Pierrick LABBE
Samsung Galxy Note 10 + réalité augmentée

Nouveau chapitre dans la guerre entre Apple et ses concurrents asiatiques, Samsung en tête, dans la lutte pour la réalité augmentée sur mobile. L’entreprise sud coréenne prend des décisions audacieuses.

Avec le Galaxy Note 10 et le Note 10 +, l’entreprise asiatique confirme une tendance récente avec l’ajout d’une caméra de détection de profondeur sur le modèle haut de gamme qui devrait rendre quelques services aux amateurs de réalité augmentée.

Un lancement dans la tradition pour Samsung

La multinationale a donc lancé deux modèles, le Galaxy Note 10 et le Note 10 +. Le premier compte trois objectifs à l’avant : 16MP ultra large, 12MP grand angle et 12MP téléobjectif. Cependant, sur le modèle premium des nouveaux appareils Samsung, on trouve un quatrième objectif, un capteur VGA nommé DepthVision Camera pour la vision en profondeur. Concrètement, cela permet de donner quelques capacités supplémentaires à l’appareil d’un point de vue de la réalité augmentée notamment pour mieux jauger les distances. Cet objectif peut servir comme un scanner pour réaliser un rendu 3D d’un objet et le transformer en Gif animé.

On trouve aussi cependant, l’application maison de Samsung baptisée Quick Measure qui ressemble à ce que Apple et Google ont aussi. Enfin, il y a aussi des nouveautés du côté dessin en réalité augmentée avec le couplage entre l’objectif et le S-Pen. Ce stylet connecté fait partie des éléments identifiants du Note depuis ses débuts. Avec un capteur sur six axes, il peut désormais être utilisé dans l’appareil photo natif pour dessiner et suivre des objets dans le monde réel.

Cet article Le Samsung Galaxy Note 10+ se met au niveau pour la réalité augmentée a été publié sur Réalité-Virtuelle.com.

Fly, une nouvelle expérience en réalité virtuelle pour s’envoler

Par Pierrick LABBE
Fly expérience en réalité virtuelle vol

C’est un concept pour le moins étrange qui a été dévoilé à Londres, dans la galerie Saatchi pour ce mois d’août. On vous présente Fly, le vol nouvelle génération en réalité virtuelle.

Cette création de Charlotte Mikkelborg propose une approche très particulière avec un équipement installé dans un gigantesque œuf étrange, et deux positions différentes à utiliser au cours de l’expérience. Petit tour d’horizon de cette expérience en réalité virtuelle peu banale.

Direction la Toscane pour trouver Fly

Cette expérience vous propose donc d’enfiler un HTC Vive et de vous retrouver dans les champs de Toscane en Italie, à côté de… Leonardo Da Vinci tout simplement. Cependant, vous réaliserez rapidement que vous n’avez pas les pieds sur Terre sinon les ailes dans le ciel, puisque vous êtes dans la « peau d’un oiseau », survolant le génial inventeur. Ceux qui ont pu tester Eagle Flight d’Ubisoft noteront la référence, mais cette expérience va plus loin avec des petits détails qui permettent de compléter le sentiment d’immersion, d’intégration dans l’espace. Vous pouvez ainsi détourner le regard, battre des bras pour vous envoler plus haut…

Un ventilateur vous donne l’impression de la brise sur votre visage. Même les odeurs sont au rendez-vous d’une expérience qui ne délaisse pas l’aspect visuel. Plus avant vous pourrez commander l’avion des frères Wright, découvrant toute leur ingéniosité et regretterez de devoir vous poser. Fly vous le garantit, les dernières inventions, plus modernes vous paraîtront bien moins bluffantes, trop technologiques et moins immersives. Mais l’ensemble fournit tout de même une incroyable sensation d‘ailleurs.

Cet article Fly, une nouvelle expérience en réalité virtuelle pour s’envoler a été publié sur Réalité-Virtuelle.com.

Radeon ProRender se met à jour

Par Shadows

AMD a profité du SIGGRAPH pour mettre à jour Radeon ProRender. Ce logiciel est pour rappel un moteur de rendu GPU, compatible Windows/MacOS/Linux et gratuit. Au programme de cette mise à jour :

  • De nouvelles intégrations, avec un support natif pour la solution BIM Acca Edificius, l’outil d’optimisation InstaLOD Studio XL, le logiciel de textile 3D Z-Weave de Z-Emotion ;
  • Le support de Bullet Render Farm pour le rendu dans le cloud ;
  • Le support de Blender 2.8 via une réécriture complète de l’addon dédié. La nouvelle version gère notamment le rendu du hair et le denoising par intelligence artificielle. Tous les nodes Blender ne sont par contre pas supportés ;
  • Le plugin Maya a lui aussi été mis à jour avec support du tile rendering, meilleure interactivité dans le viewport, gestion des light portals ;
  • Du côté des développeurs, le SDK propose désormais sous forme d’aperçu un mode Full Spectrum.

AMD annonce annonce aussi quelques futures mises à jour : le support de Cinema 4DR21 est prévu pour l’automne, et une roadmap a été mise en ligne : on y découvre notamment l’arrivée prochaine de la V2 du moteur.

Radeon ProRender

L’article Radeon ProRender se met à jour est apparu en premier sur 3DVF.

PaintShop Pro 2020 : plus rapide, plus puissant

Par Shadows

Corel dévoile la version 2020 de PaintShop Pro, sa solution de retouche d’images.

Au menu :

  • SmartClone, une technologie qui évoque le remplissage intelligent à la Photoshop : l’idée est de facilement fusionner plusieurs images,
  • Un nouvel espace de travail Photographie, très simplifié et destiné aux retouches rapides uniquement.
  • Un pinceau Affiner, pour améliorer les sélections :
  • Du côté des avancées plus mineures, on note une amélioration des performances de l’outil Texte, de nouveaux styles et pinceaux, une stabilité accrue, ou encore une meilleure précision pour la fonction profondeur de champ.

PaintShop Pro est d’ores et déjà disponible en version classique et Ultimate. Une page dédiée vous permettra de comparer les deux versions.

L’article PaintShop Pro 2020 : plus rapide, plus puissant est apparu en premier sur 3DVF.

HitFilm Pro passe en version 13

Par Shadows

L’éditeur FxHome a mis à jour HitFilm Pro, qui passe en version 13.0.
L’outil de montage vidéo et effets visuels, disponible sous Mac et PC, se dote des avancées suivantes :

  • le système de tracking 3D de Foundry est désormais intégrée au logiciel ;
  • le système de tracking planaire Mocha HitFilm, lui, est mis à jour en 6.0.3 avec à la clé des améliorations mineures mais aussi des corrections de bugs ;
  • il devient possible de verrouiller calques et pistes : de quoi éviter tout changement accidentel ;
  • le masquage peut désormais se faire depuis la timeline de montage, pour éviter de sauter d’un mode à l’autre ;
  • Highpass Sharpen : un nouveau mode pour améliorer la netteté de vos images ;
  • Tone Coloring : cet outil dispose d’une interface améliorée qui devrait faciliter le grading final ;
  • Remove Stock Background : si vous utilisez des effets ou contenus issus de banques vidéo, HitFilm Pro peut désormais extraire le contenu de l’image en quelques clics ;
  • un slider fait son apparition pour l’application des LUTs, afin d’en moduler l’effet ;
  • enfin, une meilleure gestion des fichiers est annoncée, qu’il s’agisse de formats vidéo ou audio.

L’article HitFilm Pro passe en version 13 est apparu en premier sur 3DVF.

Tilt Five veut lancer Donjons et Dragons en réalité augmentée

Par Pierrick LABBE
Tilt Five Donjons et Dragons réalité augmentée

La start-up de gaming en réalité augmentée, Tilt Five, veut proposer de donner une nouvelle dimension aux jeux de société avec un produit pour le moins innovant. On vous fait les présentations.

Et si vous pouviez donner corps à vos aventures en réalité augmentée d’un simple coup de baguette magique ? C’est peu ou prou la promesse de la start-up américaine qui a présenté son projet à l’occasion du Gen Con 2019 la semaine dernière.

Super smooth bring up. No smoke! One step closer to shipping our mixed reality table top game system at @tiltfive pic.twitter.com/eVMnFKFjPD

— Jeri Ellsworth #PAXWest (@jeriellsworth) July 23, 2019

Tilt Five : le crowdfunding comme solution économique

L’entreprise Tilt Five veut donc populariser un casque de gaming, une baguette et un tapis de jeu. Voici ce qui a été présenté à l’occasion de la conférence à Indianapolis. L’exemple utilisé pour la démonstration est le jeu de rôle très classique Donjons et Dragons. Le projet devrait être bientôt lancé, sans doute au mois de septembre, sur une plateforme de financement participatif, avec les premiers produits envoyés au mois de décembre puisque une commercialisation plus générale au milieu de l’année 2020.

Côté tarif, les premières estimations, le placent à un tarif inférieur aux casques autonomes de réalité virtuelle qui se vendent entre 200 (Oculus Go) et 400 dollars (Oculus Quest). La clé est bien entendu le contenu et des accords sont en train d’être trouvés avec des développeurs. Cependant, la démonstration réalisée avec Donjons et Dragons montre l’intérêt évident que pourrait avoir une telle technologie pour les amateurs de jeux de plateau. La technologie peut afficher par exemple un contenu différent à chaque utilisateur et une vision d’ensemble au MJ. Surtout, le jeu à distance serait possible !

Cet article Tilt Five veut lancer Donjons et Dragons en réalité augmentée a été publié sur Réalité-Virtuelle.com.

Zynga assure les débuts de l’Hypercar Pagani en réalité augmentée

Par Pierrick LABBE
Hypercar Pagani

Découvrir une voiture en réalité augmentée pour la première fois. Voici ce que va permettre Zynga avec son Custom Street Racer 2 à l’occasion d’une collaboration pour la présentation de l’Hypercar Pagani Huayra Roadster BC. Une présentation historique.

Zynga a très vite compris l’intérêt de la réalité augmentée pour ses propres contenus. C’est l’un des premiers développeurs à avoir sauté le pas de l’ARKit. C’est désormais une nouvelle étape qui est franchie.

Hypercar Pagani : une opportunité incroyable

Avec cette collaboration, le pas en avant est clair et net. L’Hypercar Pagani est le premier véhicule à faire ses débuts en réalité augmentée à travers un jeu vidéo. Une rencontre à l’intersection de plusieurs univers qui devrait faire des heureux. CSR2 permet notamment aux utilisateurs de conduire des voitures superbes et surtout rares que l’on a rarement la chance en dehors de voir dans le monde réel. Un argument de vente qui se saisit encore d’une nouvelle dimension avec cette initiative. Le véhicule est décrit comme n’étant rien de mois que « l’amalgame triomphant entre la science et l’art ».

Pour bénéficier de l’Hypercar Pagani, il faudra toutefois faire quelques efforts au-delà de simplement installer l’application qui est disponible gratuitement sur iOS et Android. En effet, il faudra participer dans une compétition à bord de la Pagani Huayra Coupé puis essayer d’obtenir le nouveau modèle. Il est aussi possible de mettre la main (en réalité augmentée) sur la Pagani Zonda HP Barchetta. Une fois les véhicules débloqués, vous pourrez les découvrir sous toutes les coutures…

Cet article Zynga assure les débuts de l’Hypercar Pagani en réalité augmentée a été publié sur Réalité-Virtuelle.com.

CURÓ 2 : l’outil idéal pour concevoir vos budgets VFX ?

Par Shadows

Lancé l’an passé, CURÓ est un outil dédié à la budgétisation des effets visuels. Sa promesse : simplifier la création, l’organisation et la gestion du budget, de la pré-production au rendu final du projet.

A l’occasion du SIGGRAPH, une version 2.0 est lancée. Voici ses principales améliorations :

  • une interface revue à différents niveaux, certains sections ayant été complètement repensées ;
  • plus d’efficacité : la nouvelle interface rend le travail plus rapide et facilite l’accès aux composants clés ;
  • stabilité et sécurité : de multiples améliorations ;
  • support des séries/projets épisodiques ;
  • export Excel amélioré.

Le communiqué ne propose malheureusement pas de tour d’horizon de cette nouvelle version ; une vidéo de la version 1.0 avait été mise en ligne l’an passé :

CURÓ est un produit créé par Joyce Cox, productrice VFX qui a travaillé sur des films tels que Titanic, Harry Potter, Avatar, Men In Black 3, Le Livre de la Jungle. Une version d’essai 30 jours est disponible sur le site officiel.

CURO VFX

L’article CURÓ 2 : l’outil idéal pour concevoir vos budgets VFX ? est apparu en premier sur 3DVF.

A Kite’s Tale, une expérience VR incontournable signée Disney

Par Pierrick LABBE
A Kite’s Tale

Présentée au SIGGRAPH, A Kite’s Tale propose dans un format très court l’essence même de ce que Disney peut proposer au monde de la réalité virtuelle. Déjà un classique.

Ce sont seulement trois minutes et trente secondes. Une goutte d’eau comparé à certaines autres expériences ou encore par rapport aux films grand public. Cependant, l’expérience a su saisir l’essence de la réalité virtuelle.

A Kite’s Tale, la VR sans l’interactivité

Cette expérience qui a été proposée dans le programme dédié aux expériences courtes du SIGGRAPH a été dévoilée d’une façon surprenante. En effet, avec A Kite’s Tale il n’y a pas d’interaction, mais on sent que l’idée est de vous accrocher par votre cœur (et vos yeux), dans une expérience en réalité virtuelle dépaysante. Là haut dans les cieux, au milieu des nuages, vous retrouvez deux cerfs-volants. Un grand dragon orange et rouge et un autre aux airs de petit chien. On peut voir l’animal bondir de plaisir, exprimer des sentiments, des réactions qui débordent d’humanité (ou d’animalité) dans sa quête de devenir ami avec le dragon.

Ce programme A Kite’s Tale, n’aurait probablement jamais vu le jour si justement il ne s’agissait pas de Disney mais c’est l’avantage dans un marché aussi complexe que celui de la réalité virtuelle, que de pouvoir se permettre quelques douces folies comme celle-ci. Le seul souci c’est que c’est vraiment trop court au final et on se surprend à vouloir le voir et le revoir pour en saisir toutes les nuances. Notez que tout a été dessiné à la main avant d’être numérisé.

Cet article A Kite’s Tale, une expérience VR incontournable signée Disney a été publié sur Réalité-Virtuelle.com.

Amazon Sumerian passe à la vitesse supérieure pour l’AR

Par Pierrick LABBE
Amazon Sumerian

Une mise à jour du service Amazon Sumerian va permettre aux développeurs de proposer du contenu 3D plus réaliste mais aussi de construire des expériences de réalité augmentée plus facilement.

C’est la petite innovation de la semaine qui va faire plaisir aux développeurs utilisant la plateforme d’Amazon pour des contenus de réalité virtuelle ou réalité augmentée. Le rendu physique réaliste (Physically Based rendering ou PBR) est désormais compatible.

Amazon Sumerian : le rendu physique réaliste, une vraie avancée

C’est une technologie quelque peu obscure mais qui devrait rendre de multiples services afin de favoriser l’immersion et le sentiment du réalisme avec Amazon Sumerian. Concrètement, l’idée est de donner naissance à du contenu 3D qui prend en compte sa matière physique, selon s’il est en métal ou non, afin de permettre un vrai rendu de l’éclairage. Le PBR de Sumerian prend en compte deux types de matériaux : « metalness » qui correspond au métal et aux matériaux rudes, et Specular qui correspond aux surfaces réflectives et brillantes. A chaque fois, les développeurs peuvent l’utiliser pour spécifier des couleurs et le contrôle des textures.

Amazon fournit aussi une librairie de 11 matériaux différents qui contient par exemple la brique ou le métal et prend en compte 10 environnements lumineux différents pour des zones en intérieur et en extérieurs. L’idée de ces templates Amazon Sumerian est d’aider à créer des modèles de produits facilement customisables et ensuite consultables par les internautes.  Amazon propose le Sumerian comme une option pour la réalité virtuelle et augmentée où il n’est pas nécessaire de coder.

Cet article Amazon Sumerian passe à la vitesse supérieure pour l’AR a été publié sur Réalité-Virtuelle.com.

Slipknot et Guns n’Roses jouent la carte de la réalité augmentée

Par Pierrick LABBE
Slipknot réalité augmentée filtre

Le monde de la musique a déjà joué la carte de la réalité augmentée, notamment sur Snapchat. Cependant, Facebook semble vraiment avoir une carte à jouer et le démontre avec Slipknot et Gins n’Roses.

Quel est le point commun entre Ariana Grande, Drake, Slipknot Slipknot et Guns n’Roses ? Ce sont autant de groupes qui jouent la carte de la réalité augmentée pour faire entendre leur identité musicale mais surtout visuelle !

Glissez vous dans la peau des chanteurs Slipknot et Guns n’Roses

C’est Slipknot qui a lancé le phénomène en premier afin d’assurer la promotion de son prochain album « We are not your kind » qui sort dans les bacs le 9 août. L’idée est tout simplement d’utiliser Facebook Spark, la plateforme de réalité augmentée, en proposant à leurs fans de se glisser sous le masque. Une référence évidente aux neufs masques plutôt effrayants que les membres du groupe portent sur scène. Ils sont tous disponible dans l’expérience en réalité augmentée. En bonus, le single « Unsainted » se fait entendre.

Du côté de Guns n’Roses, il s’agit d’assurer la promotion de « Appetite for Destruction », un classique du groupe qui a le droit à une édition étendue et surtout remastérisée. L’expérience en réalité augmentée vous propose de vous « GnFnr » (essayez de le prononcer) avec des masques de Axl Rose, de Slash ou encore de Duff McKagen. Les visuels sont les mêmes que ceux qui apparaissent en couverture de l’album. Un concept très réussi qui devrait beaucoup plaire aux fans de ces groupes de musique. Nul doute que d’autres groupes s’y mettront aussi dans le futur.

Cet article Slipknot et Guns n’Roses jouent la carte de la réalité augmentée a été publié sur Réalité-Virtuelle.com.

Blender 2.80 sort de RC : nouveau départ pour le roi de l’open source

Par Shadows

Enfin ! Après une beta suivie d’une phase de release candidate, Blender 2.80 est désormais disponible en version finale.

Nous avions déjà largement eu l’occasion de faire le tour des nouveautés : nouvelle interface, moteur de rendu 3D temps réel employé notamment pour le viewport, amélioration notable de Grease Pencil qui devient un outil d’animation et dessin 2D à part entière… Que l’on soit adepte ou non de Blender, les efforts accomplis par l’équipe sont indéniables.

Bien évidemment, le travail continuera : la Blender Foundation a par exemple récemment fait le point sur le support d’USD, un standard en plein essor qu’il sera indispensable de gérer correctement si Blender veut s’imposer davantage.

Tandis qu’en parallèle Autodesk a dévoilé Bifrost for Maya et que SideFX a présenté le futur de Houdini, une chose est sûre : sur le marché des logiciels 3D, stagner n’est pas une option viable.

USD

L’article Blender 2.80 sort de RC : nouveau départ pour le roi de l’open source est apparu en premier sur 3DVF.

Solaris, Karma : l’avenir de Houdini dévoilé au SIGGRAPH

Par Shadows

L’éditeur SideFX présenté les avancées de son logiciel Houdini à l’occasion du SIGGRAPH. Pas de lancement pour le moment, mais une annonce : Solaris.

Lighting, lookdev, layout

Concrètement, Solaris apporte un nouveau context dans Houdini : les LOPs ou lighting operators. Ce système va permettre à Houdini de proposer un support natif de la technologie USD (Universal Scene Description) développée par Pixar et disponible en open source.

A la clé : de nouveaux workflows dans Houdinis centrés sur le lookdev, le layout et le lighting.

Mantra remplacé ?

En complément, SideFX annonce Karma, un nom à retenir : il s’agit d’un nouveau moteur de rendu compatible USD. On imagine qu’à terme, il pourrait bien remplacer totalement l’actuel Mantra.

Les détails

L’éditeur a donné quelques détails concrets :

– La géométrie amenée dans les LOPs devient USD, et les données USD restent USD au sein des LOPs ;
– Solaris fournit un éditeur viseul pour le travail avec USD ;
– Solaris gère une grande variété de tâches de lookdev, layout, lighting ;
– Solaris est un nouveau Context dans Houdini Core, Fx, Indie et Apprentice, pas une application séparée ;
– Un nouveau moteur de rendu compatible USD est annoncé pour Solaris/USD : SideFX Karma Render ;
– Ce nouveau moteur de rendu travaille avec Hydra pour un IPR (rendu photoréaliste interactif) rapide ;
– Il s’agira d’un moteur de rendu CPU, une version GPU étant prévue pour une future mise à jour ;
– Solaris peut travailler avec d’autres moteurs de rendu compatible Hydra, comme RenderMan.

Autre information utile, Solaris devrait faire partie de Houdini 2019, prévi pour la fin de l’année. Karma Render sera disponible en même temps, en beta.

Voici pour finir la conférence complète de SideFX en vidéo :

L’article Solaris, Karma : l’avenir de Houdini dévoilé au SIGGRAPH est apparu en premier sur 3DVF.

Bifrost disponible au téléchargement : testez le nouvel outil Autodesk

Par Shadows

Quelques heures après notre article sur l’annonce de Bifrost for Maya, Autodesk a comme prévu mis à disposition les téléchargements associés.

Vous pouvez donc, au choix :
– mettre à jour votre installation de Maya vers la 2019.2 qui intègre directement le plugin ;
– télécharger l’extension chez Autodesk, compatible avec Maya 2018.x et 2019.x.

L’article Bifrost disponible au téléchargement : testez le nouvel outil Autodesk est apparu en premier sur 3DVF.

3ds Max et Maya : des versions Indie, mais pas en Europe

Par Shadows

Autodesk vient de lancer 3ds Max Indie et Maya Indie, des déclinaisons à prix cassé de ses logiciels.

Des prix cassés pour attirer de nouveaux clients

Le principe est le suivant : une nouvelle souscription proposée pour 250$/an, sous réserve que le client (artiste, studio) affiche un chiffre d’affaires de moins de 100 000 dollars annuels. L’offre est limitée à une licence par client.
Le tout donne accès à une version complète des produits, sans restriction.

Un programme pilote

Cette nouvelle offre est présenté comme limitée dans le temps (et est automatiquement renouvelée sous forme de licence à tarif plein si le client n’agit pas) mais aussi l’espace : pour l’heure, seuls les USA, le Royaume-Uni, le Canada, la Nouvelle-Zélande sont concernés.

Depuis, l’Europe, les deux pages produit renvoient un message clair.

Proposer cette offre dans d’autres pays est envisagé par Autodesk ; si elle vous intéresse, n’hésitez donc pas à montrer publiquement votre intérêt, que ce soit en commentaire, auprès de votre revendeur ou directement envers Autodesk.

L’article 3ds Max et Maya : des versions Indie, mais pas en Europe est apparu en premier sur 3DVF.

Cinema 4D passe en R21 et simplifie ses licences

Par Shadows

Maxon a profité du SIGGRAPH pour dévoiler la nouvelle version de Cinema 4D. Nous avons pu rencontrer l’équipe du logiciel, afin d’en savoir plus sur ces avancées et la stratégie du groupe.

Des nouveautés…

Qui dit nouvelle version dit avancées et mises à jour. Comme le montre la vidéo de présentation ci-dessous et la liste complète des fonctionnalités, Cinema 4D gagne ici quelques améliorations et outils.
Ainsi, il devient possible de contrôler particules et objets dynamiques avec les Field Force Objects. En modélisation, le système de biseau est amélioré. On notera aussi Vector Volumes, curvature maps, améliorations de l’interface, nouveaux nodes de rendu physique, l’arrivée d’un denoiser issu des recherches d’Intel, un rig Adobe Mixamo, du weighting amélioré ou encore un inspecteur d’assets pour mieux gérer vos scènes et un système de cache pour les volumes qui améliorera les performances.

Autant d’avancées bienvenues, mais qui restent finalement assez limitées et ne constituent pas le coeur de cette R21.

… Mais surtout, une autocritique sur l’offre

En effet, LA grande nouveauté porte sur les licences. Lors de la conférence de presse, Maxon a fait son autocritique sur ses méthodes passées : avec le temps, Cinema 4D s’était décliné en de nombreuses versions comportant plus ou moins de fonctionnalités, brouillant totalement l’offre. Cinema 4D Prime, Broadcast, Visualize, Studio… Même un utilisateur régulier ne saurait pas forcément citer les différences entre ces versions. Un « méli-mélo » de variantes et fonctions, pour reprendre les propos de Maxon, qui nous a avoué que même en interne, cette offre était mal comprise par les employés. Autant dire que pour les clients, cette liste était encore plus obscure.

Un Cinema 4D pour les remplacer tous

Maxon décide donc de faire table rase de ce passé. A partir de la R21 (et plus précisément à partir du mois de septembre), l’éditeur proposera une déclinaison unique de Cinema 4D, sur laquelle les développeurs pourront donc se concentrer sans se disperser.

Achats et gestion facilités

Par ailleurs, l’éditeur veut favoriser une revente plus directe, quitte à court-circuiter les revendeurs locaux. Si passer par un revendeur n’est pas un souci en Europe, le processus peut être très long dans certaines régions (Maxon a cité l’Asie).
Une nouvelle boutique en ligne globale est donc annoncée, qui mettra directement en lien clients et Maxon.

Dans la même optique de simplification, un nouveau système de gestion des licences favorisera le passage d’une machine à une autre. Plus globalement, un système permettra de gérer l’ensemble de vos licences, numéros de série, etc : utile pour les studios qui souhaitent mieux gérer leurs licences.

Nouveaux tarifs

Jusqu’ici, acquérir Cinema 4D nécessitait de débourser environ 3600 dollars soir 3200 euros environ (taxes non incluses). La souscription pour disposer des mises à jour, elle, était proposée pour 720 dollars.
Une barrière d’entrée énorme, admet Maxon, pour les jeunes artistes ou les infographistes qui veulent s’initier à la 3D. L’éditeur en a profité pour lancer une petite pique à la concurrence, expliquant qu’il existe même « une société qui pense que vous devriez payer quasiment ces montants, mais par an ».

Pour Maxon, ces tarifs ne sont plus tenables dans l’univers actuel de la 3D et en prenant en compte son expansion.
L’offre évolue donc, avec trois approches :
– un abonnement annuel, avec ou sans Redshift ;
– un abonnement mensuel, là encore avec ou sans Redshift ;
– enfin, une licence perpétuelle.

L’offre la plus abordable, l’abonnement annuel sans Redshift, coûtera 60$ par mois en pratique (taxes exclues). L’Europe n’est pas lésée (là encore, Maxon a souligné qu’une « autre entreprise » « punit » ses utilisateurs européens), puisque le prix deviendra 50€ (hors taxes) de ce côté-ci de l’Atlantique.
A titre de repère, soulignons que les 3600$ évoqués plus haut correspondent au coût de 5 ans de licence en abonnement annuel.

L’abonnement mensuel, lui, sera sans surprise facturé plus cher, 85€ HT.
Enfin, la licence perpétuelle est toujours là, mais avec une légère baisse tarifaire.

Les licences flottantes, rabais pour achats groupés et autres besoins de base des studios restent évidemment prévus. Le programme étudiant/écoles continue lui aussi.

Cap sur l’abonnement

Il est assez clair que la nouvelle offre est centrée sur les souscriptions, et donc les revenus récurrents pour Maxon.
Etant donné que l’éditeur n’a pas profité du changement d’offre pour tuer totalement les licences perpétuelles et que les prix n’ont pas explosé, on imagine que la clientèle acceptera facilement cette évolution.

Une nouvelle ère pour Cinema 4D ?

Maxon s’est montré assez clair sur l’objectif de ces changements : il ne s’agit pas uniquement de contenter la clientèle actuelle, mais aussi et surtout d’attirer une nouvelle communauté. L’entreprise compte d’ailleurs organiser des présentations publiques et proposer davantage de tutoriels très accessibles pour les personnes débutantes.

Cette volonté d’ouverture se traduit aussi en termes de diversité : Maxon explique par exemple vouloir amener davantage de femmes dans l’industrie, et a admis avoir eu du mal à équilibrer sa présence sur des salons comme le SIGGRAPH, l’écrasante majorité de ses présentateurs étant des hommes.
Cette volonté de diversification se retrouvait aussi à d’autres niveaux : un des artistes invités sur le stand Maxon cette année a par exemple proposé sa conférence deux fois, en anglais puis espagnol.

Un dernier point : La question des supports mobiles a été évoquée lors des questions-réponses. Si amener Cinema 4D sur smartphone n’aurait pas de sens, Maxon s’intéresse aux smartphones et tablette : le tout est de savoir quels éléments ont du sens sur mobile. La réponse, sans doute, dans les années à venir.

L’article Cinema 4D passe en R21 et simplifie ses licences est apparu en premier sur 3DVF.

Autodesk dévoile Bifrost for Maya au SIGGRAPH

Par Shadows

Autodesk profite du SIGGRAPH pour présenter Bifrost for Maya. Il ne faut pas le confondre avec l’outil Bifrost déjà proposé ; Bifrost for Maya est à voir comme un environnement de programmation visuelle, mais aussi et surtout un moyen de créer toutes sortes d’effets : feu, neige, sable, fumée.

Un graphe pour tous vos effets ?

En pratique, Bifrost for Maya s’utilise à l’aide d’un Graph Editor, et donc à l’aide de nodes qui vous permettront de contrôler les paramètres de votre effet : diffusion, instancing, déformations, opérations sur des volumes, simulations, attribution de matériaux, entrée/sorties, etc.

Une grande diversité d’effets

Outre des fonctions de simulations gazeuses (utiles pour les explosions, feux, fumées, etc), Bifrost for Maya dispose aussi de l’approche MPM (Material Point Method) utilisée entre autres sur La Reine des Neiges. Autodesk a d’ailleurs ici fait directement appel à Jixie Effects, société fondée par des membres de l’équipe ayant mis au point la technique.
Autodesk précise qu’un des avantages de MPM est que le comportement reste cohérent lorsque la résolution augmente : indispensable pour maîtriser le résultat d’une simulation, que l’on soit à la phase d’ébauché ou aux finitions.

MPM ne se limite pas à la neige : outre les matériaux granulaires (sables, boue en plus de la neige), la technique peut désormais s’appliquer aux parois fines (textiles, aluminium, plastiques) ou encore aux fibres/mèches.

A noter aussi, Bifrost for Maya dispose de nodes de conversion entre meshes, points, volumes. Il est aussi possible de disperser des points dans des volumes, ou d’échantillonner les caractéristiques de ces derniers. De quoi, par exemple, utiliser le volume d’une simulation de feu pour en faire un mesh qui sera utilisé pour un effet artistique.

Instancing et rendu

Sans surprise, Bifrost s’appuie sur de l’instancing pour gérer les scènes complexes. Il est par exemple possible de créer des instances sur des points dispersés, des systèmes de particules (comme ceux du solveur MPM), ou sur les vertices d’une géométrie. Des mécanismes de sélection sont aussi proposés pour un contrôle plus fin.

Aperçus réalistes, graphes prêts à l’emploi

Des effets variés, de l’instancing… Mais comment travailler efficacement si on crée des effets sans les voir ? Justement, comme Arnold est intégré à Maya, il est possible d’avoir un aperçu directement dans le viewport Arnold. En outre, ajoute Autodesk, le Viewport 2.0 donne des aperçus « quasi finaux ».

Toujours dans cette optique d’efficacité, Autodesk a inclus dans Bifrost for Maya une librairie d’assets que vous pouvez réutiliser directement ou modifier. Envie d’ajouter de la glace carbonique, des nuages ou une explosion sans vous fatiguer ? Vous devriez y trouver votre bonheur.
Bien entendu, il est aussi possible de votre côté de publier vos graphes dans ce Bifrost Browser, par exemple pour les partager dans un studio. Parfait pour favoriser la réutilisation entre projets.

Quand Bifrost for Maya sera-t-il disponible ? A quel prix ?

Bifrost for Maya pourra être téléchargé d’ici quelques heures chez Autodesk. Compatible avec toutes les versions à partir de Maya 2018, il sera par ailleurs inclus dans l’installeur de la 2019.2.

Côté tarifaire, Bifrost for Maya n’entraîne aucun surcoût.

Quelles limitations, et quel avenir ?

Avec Bifrost for Maya, Autodesk cherche clairement à éviter de voir davantage d’utilisateurs se tourner vers Houdini. L’initiative concrétise enfin la vision mise en place lors du rachat de la solution de simulation Naiad au début des années 2010.
On notera néanmoins que Bifrost for Maya ne gère pas les liquides : pour eux, il faudra continuer à passer par Bifrost tout court. Nul doute que cette division n’aura plus lieu à terme, mais d’ici là elle risque de générer quelques confusions, étant donné les noms quasi identiques.

En ce qui concerne l’avenir du produit, Autodesk insiste sur une volonté de mises à jour fréquentes. Restera évidemment à voir ce qu’il en est en pratique.

A long terme, on peut penser que Bifrost for Maya a vocation à dépasser Houdini et non pas seulement à combler le fossé qui sépare Maya du logiciel de SideFX.
Etant donné l’architecture logicielle de Bifrost for Maya, une déclinaison 3ds Max ou l’apparition d’un Bifrost en tant que logiciel indépendant sont sans doute possibles.
Attention, il s’agit ici de spéculations et de possibilités : Autodesk n’a pas dévoilé de roadmap ou de stratégie à long terme.

Et pour tester Maya et Bifrost…

D’ici là, rappelons que Progiss, partenaire de 3DVF, est revendeur des solutions Autodesk et donc de Maya, que vous pouvez retrouver dans la boutique 3DVF.fr.
Comme toujours, si vous avez des questions, n’hésitez pas à contacter notre partenaire Progiss, par téléphone au 01 49 89 07 90 ou par mail : info@progiss.com
Notez également que l’équipe Progiss est à votre disposition pour vous proposer des présentations des logiciels de la boutique, que ce soit dans leurs locaux (Villepinte, à côté de Paris) ou dans les vôtres.

L’article Autodesk dévoile Bifrost for Maya au SIGGRAPH est apparu en premier sur 3DVF.

Oculus Cloud désormais disponible pour le Quest, le Go et le Gear VR

Par Pierrick LABBE
Oculus Cloud

Les utilisateurs de Quest, Go et de Gear VR pourront désormais profiter du système de sauvegarde Oculus Cloud qui n’était disponible que pour le Rift et le Rift S sur PC.

Dès 2016, la filiale de Facebook lançait son système de sauvegarde Cloud pour son unique casque de réalité virtuelle de l’époque, le Rift. Ce système permet d’enregistrer une partie en cours, les données d’un jeu ou d’une application dans le Cloud et de pouvoir reprendre depuis n’importe quel autre PC. Une solution intéressante mais qui n’était pas compatible avec les casques VR sortis depuis du fait des différences techniques qui existent entre ces casques. Ce n’est désormais plus le cas comme nous vous l’annoncions déjà en mai dernier.

Oculus Cloud désormais disponible pour les autres casques

Le kit de développement logiciel (SDK) du Store d’Oculus vient d’ajouter une prise en charge des sauvegardes Cloud sur Oculus Quest, Oculus Go et Samsung Gear VR. Ce SDK est appelé Cloud Storage V2. Concrètement, avec cette nouvelle version Oculus Cloud, les utilisateurs pourront sauvegarder leurs données de jeu ou d’application et les reprendre depuis un autre casque ou le même. Ces sauvegardes persistent même si l’utilisateur désinstalle le jeu ou l’application ou qu’il réinitialise son casque. Une bonne nouvelle pour ceux qui rencontrent des problèmes techniques.

L’API prend en charge 100 fichiers par utilisateur et par application, chaque fichier pouvant contenir jusqu’à 10 Mo. Théoriquement, cela signifie qu’un développeur peut économiser jusqu’à 1 Go par utilisateur, mais cela semble peu probable en pratique. Cependant, Oculus Cloud reste dépendant du bon vouloir des développeurs. En effet, cette prise en charge de sauvegarde dans le Cloud ne sera active que si les développeurs incluent la nouvelle API dans leurs applications. Amélioration notable par rapport à l’ancienne version est que le Store indiquera, via une petite icône si le système de sauvegarde Cloud est disponible.

Cet article Oculus Cloud désormais disponible pour le Quest, le Go et le Gear VR a été publié sur Réalité-Virtuelle.com.

PuzzlAR, un marqueur important pour Magic Leap

Par Pierrick LABBE
PuzzlAR

Il y a un an, Magic Leap annonçait son programme pour les créateurs indépendants. L’idée était d’ouvrir la porte de la réalité augmentée à un nombre croissant de développeurs. Ce projet semble commence à porter ses fruits avec PuzzlAR.

Ce prgogramme lancé par Magic Leap proposait des bourses et surtout un soutien technique et humain, qui peut se révéler indispensable face à l’ampleur du challenge d’un lancement sur Magic Leap One. Cependant, cette application en réalité augmentée a réussi à vaincre toutes les étapes.

PuzzlAR inaugure le système

PuzzlAR : World Tour est donc une création de l’équipe portugaise de Ontop Studios. L’idée est de réaliser un portage d’un jeu qui était jusque là disponible sur smartphone et qui va désormais être disponible sur les lunettes de réalité augmentée Magic Leap One. Qu’est-ce qui est au programme ? Vous pourrez visiter des lieux connus un peu partout sur la planète et assembler les monuments à la main comme vous le feriez pour un puzzle 3D.

Ok, on se sent un peu forcés de le dire, ce n’est pas vraiment le concept le plus original du monde, mais cela porte clairement ses fruits d’un point de vue visuel et technique si on en croit la vidéo ci-dessus. Selon Magic Leap, PuzzlAR est le premier jeu / expérience qui est lancé après avoir profité du système qui offre des bourses allant de 20.000 à 50.000 dollars. 6.500 projets avaient été présentés par des développeurs dans la première phase du projet. On peut désormais imaginer que d’autres devraient suivre dans les prochains mois.

Cet article PuzzlAR, un marqueur important pour Magic Leap a été publié sur Réalité-Virtuelle.com.

❌