Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 13 décembre 2019Vos flux RSS

Mudbox passe en version 2020 : derrières les promesses d’Autodesk, la déception

Par Shadows

Souvenez-vous : fin 2017, Autodesk lançait Mudbox 2018.1. Product manager de l’outil, Jill Ramsay avait alors multiplié les propos rassurants : oui, Autodesk avait conscience de la lenteur du développement de Mudbox ces dernières années, oui, la frustration était compréhensible. Mais, insistait Autodesk, les choses allaient changer et les futures mises à jour feraient la preuve d’une vraie volonté d’amélioration de l’outil de sculpture 3D.

Retour en 2019. Autodesk vient de lancer Mudbox 2020. L’aide officielle détaille les nouveautés :
– deux bugs corrigés sous Mac ;
– la possibilité d’envoyer directement des données vers Autodesk Flame et réciproquement : le lien entre les outils permet par exemple d’envoyer de la géométrie depuis Flame vers Mudbox, de la modifier puis de la renvoyer vers Flame.

Aucune autre nouveauté n’est annoncée. Sur les forums officiels, un utilisateur a lancé un sujet demandant si cette mise à jour “était une blague”. Nous vous laisserons le soin de répondre par vous-mêmes à cette question.

En parallèle, l’équipe ZBrush poursuit sa politique de mises à jour régulières riches en fonctionnalités et améliorations.

L’article Mudbox passe en version 2020 : derrières les promesses d’Autodesk, la déception est apparu en premier sur 3DVF.

RADI-RAF 2019 : Rumba, en embuscade, compte se faire une place dans l’animation

Par Shadows

Mercenaries Engineering est un nom désormais bien connu dans le secteur 3D. L’entreprise française a su grignoter des parts de marché dans un domaine compétitif avec Guerilla, sa solution de look dev, assemblage de scène, lighting et rendu pour l’animation et les VFX.

Nous vous l’avions déjà annoncé : Mercenaries ne compte pas en rester là et planche sur un outil d’animation 3D nommé Rumba. Quelques démonstrations brèves ont eu lieu, notamment à Annecy, mais les RADI-RAF ont été l’occasion de proposer un aperçu plus abouti et surtout, filmé par nos soins. On appréciera au passage le fait que Mercenaries ait opté pour une démo en direct et non pré-enregistrée.

Voici donc la vidéo de cette conférence, qui vous permettra de vous faire un avis sur cette nouvelle solution avant son futur lancement.

L’article RADI-RAF 2019 : Rumba, en embuscade, compte se faire une place dans l’animation est apparu en premier sur 3DVF.

RADI-RAF 2019 : l’outil d’animation Akeytsu se présente

Par Shadows

L’été dernier, nous vous proposions un point sur le développement de l’outil d’animation 3D akeytsu, de la société Nukeygara.

A l’occasion des RADI-RAF 2019, nous avons retrouvé l’équipe qui nous a cette fois proposé une démonstration des possibilités du produit, ainsi qu’un point sur la roadmap. Attention toutefois sur cette dernière : comme précisé dans la conférence, certains éléments sont susceptibles d’évoluer.

Rappelons enfin qu’une version d’essai du produit est disponible sur le site officiel.

L’article RADI-RAF 2019 : l’outil d’animation Akeytsu se présente est apparu en premier sur 3DVF.

À partir d’avant-hierVos flux RSS

RADI-RAF 2019 : avec The Beast Makers, animez des textures 2D sur votre 3D

Par Shadows

Nous poursuivons la mise en ligne de nos captations des RADI-RAF 2019 d’Angoulême avec la conférence de la société française The Beast Makers. Christophe Petit, directeur technologique/rig supervisor, nous a offert une démonstration prometteuse de leur solution d’animation d’éléments 2D sur des modèles 3D.

Concrètement, l’outil TBM 2D Texture fonctionne sous Maya et s’avère parfait pour animer des personnages cartoon. Avec entre autres une gestion d’effets de perspective, la démo proposée nous a semblée très convaincante : cils, effet de profondeur au niveau de la bouche, bump, compatibilité large avec les moteurs de rendu, on sent que l’outil a été bien pensé. Déjà éprouvé en production, le plugin est actuellement en version 0.2 mais la 1.0 beta est disponible sur demande. Elle apporte notamment une interface dédiée.

Si TBM 2D Texture est payant, les écoles peuvent de leur côté en bénéficier gratuitement.

L’article RADI-RAF 2019 : avec The Beast Makers, animez des textures 2D sur votre 3D est apparu en premier sur 3DVF.

Le moteur de rendu Arnold passe en V6 : le GPU à l’honneur

Par Shadows

Enfin ! Avec la nouvelle version 6 d’Arnold, il devient enfin possible de faire des rendus à la fois sur CPU et GPU.

Le nouveau mode Arnold GPU s’appuie sur NVIDIA OptiX et est optimisé pour tirer parti de la technologie RTX : une carte graphique récente sera donc bienvenue même si pas indispensable.
Si Arnold GPU avait été dévoilé en beta en mars dernier, la version 6 en fait un véritable outil de production, avec support des fonctions essentielles. Reste toutefois encore quelques limitations : une poignée de LPEs, de lights et de shaders ne sont pas encore gérés. La documentation vous donnera le détail de ces restrictions.

Outre Arnold GPU, le moteur de rendu progresse en ce qui concerne USD avec une collection de composants dédiés.
Enfin, une série d’optimisations sont annoncées :

faster creased subdivisions, Physical Sky shader improvements, dielectric microfacet multiple scattering, improved Oren-Nayer Diffuse Roughness Mapping, better rough thin wall transmission in Standard Surface shader, and more accurate albedo AOVs.

Arnold 6 est disponible dès à présent, en souscription standalone ou via les collections Autodesk. Arnold GPU est disponible via les plugins Maya, Max, Houdini, Cinema 4D, Katana.

L’article Le moteur de rendu Arnold passe en V6 : le GPU à l’honneur est apparu en premier sur 3DVF.

Maya 2020 dévoilé : vraies avancées ou annonces cosmétiques ? A vous de juger

Par Shadows

Autodesk dévoile en vidéo Maya 2020, avec “plus de 60 mises à jour en animation, de nouvelles fonctions dans Bifrost, la dernière version d’Arnold pour rendre à la fois sur GPU et CPU”.
En voici donc un aperçu global :

Revenons maintenant plus en détails sur ces annonces :

Animation

Cached Playback : arrivé avec la version 2019, il s’agit pour rappel d’un processus d’arrière-plan qui accélère le playback de l’animation, de façon à pouvoir analyser l’animation directement dans le viewport. La version 2020 supporte dynamics, image planes, aperçu lissé des meshes, plugins personnalisés et même un nouvel aperçu Ghosting.

Layered dynamics caching : le calcul des dynamics et de l’animation principale sont traités séparément. En ayant les dynamics sur un calque secondaire, on peut continuer à travailler et voir les simulations comme le cloth et les muscles en temps réel tout en animant.

Pour les image planes, si une séquence d’images est appliquée, elle sera aussi stockée par Cached Playback, pour accélérer le playback.

Smooth Mesh Preview utilise moins de mémoire, et s’appuie sur le GPU si possible. Une optimisation qui devrait être appréciable sur les scènes lourdes, où les limites mémoires sont rapidement atteintes.

Les utilisateurs techniques peuvent créer des ensembles de configurations personnalisées pour le comportement de Cached Playback sur les nodes qu’ils construisent. De quoi prioriser ce qui doit ou non être mis en cache.

Le nouvel aperçu Ghosting permet comme son nom l’indique de voir les positions et mouvements passés/futurs. Il est par ailleurs possible de colorer les meshes et de supprimer les textures, pour plus de clarté.

Un nouveau système de favoris pour l’animation permet de marquer, naviguer dans et organizer des évènements dans le temps.

Pour plus de détails sur les nouveautés en animation, on se reportera à la liste complète des avancées. Au menu, comme l’esquisse la vidéo de départ : fonctions audio, raccourcis, amélioration du mode tangent, …

Rendu

Maya intègre la nouvelle version 6 d’Arnold, utilisable à la fois en mode CPU et GPU. Passer d’un mode à l’autre se fait rapidement, tout en conservant les paramètres.
Le mode GPU repose sur NVIDIA OptiX et est optimisé pour NVIDIA RTX.

Un second article détaillera Arnold 6 d’ici quelques minutes.

Bifrost

Autodesk annonce plus de performances, de stabilité pour Bifrost, mais aussi le support du Cached Playback, un meilleur support Arnold, des nouvelles contraintes MPM Cloth, plus de graphes préconstruits pour mieux démarrer, et une centaine de bugs éliminés.

Viewport

Autodesk indique avoir amélioré le viewport : vous devriez constater en particulier une nette amélioration en travaillant sur de la géométrie dense ou sur un grand nombre de petit meshes dans le viewport et les éditeurs UV. D’autres cas tels que l’utilisation d’Isolate Select ont aussi été améliorés.

Modélisation

Un nouvel outil Remesh vous permet de spécifier où vous voulez plus de détails en affinant la topologie sur la zone voulue. Il est aussi possible de re-trianguler le mesh pour uniformiser la densité.

En parallèle, Retopologize permet comme son nom l’indique de générer rapidement une nouvelle topologie propre et respectant le mesh de départ. Parfait pour nettoyer un modèle.

Rigging

Les nouveaux nodes matrix-driven transform et operation aident à alléger vos scènes. Avant cette mise à jour, explique Autodesk, la plupart des contraintes dans Maya faisaient leurs calculs sous forme matricielle avant de décomposer le résultat (échelle, rotation, translation) pour contrôler une autre transformation. Ces valeurs étaient ensuite utilisées par driven transform pour créer une nouvelle matrice et calculer sa position.

Le nouveau workflow passe tout simplement outre les étapes de décomposition/composition, tout en conservant accessibles les données utiles en animation (échelle, rotation, translation). Les riggers n’ont plus besoin de créer autant de nodes DAG pour les animateurs.

Autodesk recommande de se rapporter à la documentation pour mieux comprendre les implications et possibilités de cette évolution.

Les nodes Proximity et UV Pin peuvent être utilisés pour tracker précisément des positions sur une géométrie qui se déforme. Les nodes peuvent par exemple être employés pour l’utilisation de props sur un personnage (bouton de chemise) ou pour mettre en place un rig contraint.

Le nouveau deformer Proximity Wrap, accéléré par GPU, allège l’usage mémoire et bénéficie de performances accrues.

La liste exhaustive des avancées est disponible chez Autodesk.

Rappelons que vous pouvez retrouver Maya dans la boutique 3DVF.fr, que vous souhaitiez une licence 1 mois, 1 an ou 3 ans, monoposte ou réseau. En cas de question sur ce produit, n’hésitez pas à contacter notre partenaire Progiss, par téléphone au 01 49 89 07 90 ou par mail : info@progiss.com
Notez également que l’équipe Progiss est à votre disposition pour vous proposer des présentations des logiciels de la boutique, que ce soit dans leurs locaux (Villepinte, à côté de Paris) ou dans les vôtres.

L’article Maya 2020 dévoilé : vraies avancées ou annonces cosmétiques ? A vous de juger est apparu en premier sur 3DVF.

« Instrument Studio VR » vous met aux commandes d’un studio d’enregistrement

Par Pierrick LABBE
« Instrument Studio VR » vous met aux commandes d'un studio d’enregistrement

Vous avez toujours rêvé d’être aux commandes d’un studio ? D’enregistrer des tubes ? De devenir le nouveau roi de la musique ? Cela pourrait (presque) être possible avec « Instrument Studio VR ». On fait les présentations.

Derrière ce projet très particulier, on trouve le musicien irlandais Paul Cullen, qui a passé deux ans a apprendre le développement en réalité virtuelle. Il a été accepté dans le programme Oculus Start en 2018, un programme de la filiale de Facebook destiné aux développeurs indépendants d’applications en réalité virtuelle.

« Instruments Studio VR », une touche indie, une vibe pro

Il est accompagné de Kenny et Carl, des spécialistes de l’audio qui appartiennent à Relish, un groupe irlandais connu. Leur objectif est de permettre à tous ceux qui ont envie de se lancer dans la musique de pouvoir composer facilement. Or, si c’est en effet plus facile, le prix des instruments et des studios d’enregistrement restent des barrières majeures. Ils espèrent en venir à bout grâce à « Instrument Studio VR » qui permet à des musiciens de créer et enregistrer de la musique, simplement grâce à un casque de réalité virtuelle et à des contrôleurs.

Le résultat est plutôt intéressant, notamment grâce à une latence faible et à des réponses dynamiques dans les tons et les volumes. Le retour haptique vous permet aussi de sentir ce que vous touchez et jouer. Pour se déplacer dans le studio, c’est très facile avec les contrôleurs. On appréciera particulièrement le goût des détails. Comptez 20 dollars pour vous procurer « Instrument Studio VR » sur le Rift. L’Oculus Quest et le Valve Index sont les prochains.

Cet article « Instrument Studio VR » vous met aux commandes d’un studio d’enregistrement a été publié sur Réalité-Virtuelle.com.

Toutes les applications Quest qui prennent en charge le suivi des mains

Par Pierrick LABBE
Applications jeux logiciels suivi des mains Oculus Quest

Voici une liste de tous les logiciels prenant en charge la fonctionnalité de suivi des mains ainsi que les développeurs avec des applications Quest qui prévoient de prendre en charge la fonctionnalité lors de la sortie du kit de développement logiciel.

Oculus vient d’annoncer qu’une mise à jour logicielle serait déployée cette semaine et permettrait le hand-tracking sur le casque de réalité virtuelle autonome Quest. Cette annonce a surpris car la sortie de cette fonctionnalité n’était attendue que pour le début de l’année 2020. Une bonne surprise donc avant noël. Cependant, pour fonctionner, celle-ci doit avoir des applications adaptées. Voici donc la liste des applications prenant déjà en charge ce suivi et celles a venir lorsque le SDK pour développeurs sera disponible. Le kit de développement pour développeurs est annoncé pour le 16 décembre.

Les applications Oculus Quest compatibles avec le suivi des mains

Voici toutes les applications qui prennent déjà en charge le suivi des mains sur Oculus Quest. Notez que vous ne pourrez utilise cette fonction que lorsque vous aurez mis à jour votre casque de réalité virtuelle autonome à la version V12. Il faudra aussi activer la fonction dans le menu.

Accueil et menus d’Oculus Quest

L’environnement Oculus Quest Home et tous les menus associés prennent en charge le suivi des mains au lancement. Vous pourrez sélectionner, faire défiler et naviguer dans Oculus Home, y compris la bibliothèque et le magasin, sans contrôleurs Oculus Touch.

Navigateur Oculus

Le navigateur Oculus prend en charge le hand-tracking depuis le lancement. Cela signifie que vous n’avez pas besoin de tenir les contrôleurs tactiles lorsque vous naviguez sur Internet avec votre Quest.

Oculus TV

Oculus TV prend également en charge le suivi des mains au lancement, vous permettant de mettre en pause, de lire et de parcourir des vidéos sans avoir besoin de contrôleurs tactiles.

Configuration du gardien stationnaire

Vous pourrez également installer une barrière de gardien fixe et utiliser vos mains pour régler la hauteur du sol en utilisant le suivi des mains. Cela signifie que vous pourrez essentiellement configurer votre environnement, mettre en place un tuteur et commencer à parcourir les menus sans avoir besoin de contrôleurs tactiles du tout.

Jeux et applications Quest prenant en charge le suivi des mains

Pour le moment, aucun éditeur de jeux ou d’applications pour Quest n’a indiqué qu’il offrirait cette fonctionnalité. Et pour cause, le kit de développement pour les développeurs ne sera disponible qu’à partir du 16 décembre. Il faudra aussi un peu de temps aux développeurs pour intégrer cette fonction et la tester pour ensuite proposer une mise à jour de leur jeu ou application prenant en compte cette fonction.

De nombreux jeux et applications nécessitent l’usage d’un contrôleur pour interagir avec le monde virtuel. Il est donc fort possible que de nombreux jeux ne puissent pas être compatibles avec cette fonction ou que l’intérêt de celle-ci soit très limité. Nous continuerons cependant à mettre à jour cet article car nul doute que des applications et de jeux tiers prendront en charge le suivi des mains prochainement. N’hésitez pas à nous laisser un commentaire pour nous avertir si un studio annonce cette prise en charge.

Cet article Toutes les applications Quest qui prennent en charge le suivi des mains a été publié sur Réalité-Virtuelle.com.

Une solide mise à jour pour Terragen

Par Shadows

Terragen passe en version 4.4 ; derrière cette numérotation se cachent des avancées majeures.

En effet, le path tracer proposé en interne, jusqu’ici loin d’être finalisé, a gagné en fonctionnalités : il est désormais officiellement présenté comme utilisable en production.
Concrètement, le path tracing supporte les mêmes fonctions que le rendu standard, tout en apportant un gain significatif en réalisme. Les scènes complexes, par exemple avec beaucoup de végétation ou en interieur, sont très largement améliorées.
Mieux encore, le path tracer gagne en vitesse par rapport à la 4.3 grâce à un meilleur échantillonnage et une gestion des ombres plus intelligente.

Outre l’illustration d’en-tête signée Terje Hannisdal, voici quelques cas concrets de rendus réalisés avec le path tracer :

Doug Campbell
Terje Hannisdal
David Guegain

Optimisé par rapport à la 4.3, le Robust Adaptive Sampler devient la méthode d’échantillonnage par défaut. Il devrait améliorer la qualité des rendus dans tous les scénarios nécessitant un échantillonnage poussé, par exemple pour le rendu de nuages.

D’autres avancées sont annoncées ; on retiendra notamment un rendu plus rapide des nuages, une amélioration de l’aperçu raytracé.

Pour la liste complète des améliorations, on consultera le site officiel.

L’article Une solide mise à jour pour Terragen est apparu en premier sur 3DVF.

Le New York Times mise sur la réalité augmentée contre la pollution

Par Pierrick LABBE
New York Times pollution

Une nouvelle visualisation pour les appareils iOS propose de la réalité augmentée pour découvrir la pollution géolocalisée. On fait les présentations avec un projet engageant du New York Times.

Cela fait plusieurs années que le célèbre journal américain mise sur la réalité augmentée pour raconter le journalisme 2.0 mais l’entreprise avait ralenti sérieusement ces derniers mois. Bonne nouvelle, le changement de stratégie n’était à priori que temporaire.

Compare your city’s air with the World’s most polluted air, in #AugmentedReality pic.twitter.com/Irntp5xNam

— Karthik Patanjali (@kartpat) December 3, 2019

Rendez la pollution visible avec le New York Times

C’est une publication qui s’avère séduisante et riche en promesses quand à ce que le New York Times peut faire en réalité augmentée. L’expérience nommé « See How the World’s Most Polluted Air Compares With Your City’s » (voyez comment les endroits les plus pollués au monde sont, comparés à votre ville), permet d’afficher la concentration en microparticules, aussi connues sous le nom de PM2.5, directement à travers l’application du journal.

Quatre environnement sont disponibles. Le premier correspond à ce que l’EPA (l’agence environnementale américaine) considère comme un environnement sain. Le second vous permet de voir comment sont les choses dans la ville où vous vous trouvez. Les deux suivants montrent des cas extrêmes. Le premier concerne la baie de San Francisco après les incendies de Camp Fire, le suivant est la ville de New Delhi, qui fait partie des pires villes du monde d’un point de vue de la pollution de l’air. Un concept à la fois séduisant et effrayant mais surtout particulièrement informatif. Une bonne manière de rendre visible un problème particulièrement important et qui affecte notre santé.

Cet article Le New York Times mise sur la réalité augmentée contre la pollution a été publié sur Réalité-Virtuelle.com.

Avec I am Jesus Christ, vous incarnez le fils de Dieu en réalité virtuelle

Par Pierrick LABBE
I am Jesus Christ

Avec le jeu « I am Jesus Christ », vous pouvez incarner celui qui, selon la Bible, serait le fils de Dieu. Une expérience en réalité virtuelle très particulière mais qui s’avère plutôt séduisante.

Et si vous deveniez, l’espace de quelques heures, le fils de Marie et Joseph, né  à Bethléem et accomplir des miracles ? C’est l’intrigante promesse en réalité virtuelle que vous propose l’éditeur polonais PlayWay que vous pouvez découvrir dans le trailer ci-dessous.

« I am Jesus Christ », sur les traces du Nouveau Testament

C’est une expérience très particulière qui vient d’être dévoilée avec une première bande annonce pour le moins originale. « I am Jesus Christ », vous permet donc d’incarner ni plus ni moins que le fils de Dieu dans une expérience pour le moins surprenante. Derrière ce projet quasi-divin, on trouve l’éditeur polonais PlayWay qui a déjà proposé de multiples jeux délurés sur PC et mobile. On se souviendra par exemple de « Thieft Simulator VR » qui vous mettait dans la peau d’un voleur ou bien encore du plus sage « I am your principal », qui vous mettait à la tête d’un établissement scolaire.

Deux expériences qui avaient déjà rencontré un certain public, mais le studio pousse encore plus loin la provocation avec « I am Jesus Christ ». Selon la page Steam du jeu, vous allez donc vous retrouver sur les pas de Jésus Christ il y a environ 2.000 ans, durant les événements du Nouveau Testament. Depuis le baptême, jusqu’à la résurrection, à vous de façonner l’histoire de la religion… Tentés par cette expérience pas banale qui sortira prochainement ?

Cet article Avec I am Jesus Christ, vous incarnez le fils de Dieu en réalité virtuelle a été publié sur Réalité-Virtuelle.com.

Unreal Engine 4.24 disponible, Unreal Studio prend sa retraite

Par Shadows

Epic Games profite du début de la semaine pour lancer la nouvelle version de son moteur de jeu Unreal Engine.

La principale évolution est la mise à la retraite de la version Unreal Studio, pourtant lancée il y a moins de deux ans. Il s’agissait d’un ensemble d’outils et ressources destinés aux secteurs de l’architecture, industrie, simulation, etc.
Pour autant, Studio ne meurt pas vraiment : toutes les fonctionnalités associées arrivent dans Unreal Engine. C’est par exemple le cas de Datasmith, un ensemble d’outils de conversion de scènes depuis Max, SketchUp Pro, Cinema 4D et plusieurs outils CAD/BIM. En parallèle, un nouveau système Dataprep visuel permet de faciliter la préparation des données quelle que soit la source.

On notera aussi le support USD, la possibilité d’accéder gratuitement aux Quixels Megascans dans la marketplace et via Quixel Bridge (suite à l’annonce du rachat de Quixel par Epic Games le mois dernier).

L’article Unreal Engine 4.24 disponible, Unreal Studio prend sa retraite est apparu en premier sur 3DVF.

Le studio d’Apollo 11 VR vient de lancer l’expérience Shuttle Commander

Par Pierrick LABBE
Shuttle Commander

Si vous avez un faible pour la réalité virtuelle éducative et la conquête spatiale, alors « Immersive VR Education » a une nouvelle petite surprise pour vous avec une mission pour le PlayStation VR baptisée Shuttle Commander.

C’est un studio qui a déjà pu faire « Apollo 11 VR » en 2016 et « Titanic VR » en 2018. La nouvelle mission en réalité virtuelle nous emmène, cette fois, vers l’espace, dans le télescope Hubble.

Shuttle Commander, l’Europe en premier

Depuis quelques jours, les utilisateurs européens ont pu découvrir une belle petite surprise baptisée « Shuttle Commander ». Plutôt rare, elle ne sera disponible aux Etats-Unis sur le casque PlayStation VR que dans quelques jours, le 11 décembre 2019. Voici la description que le studio fait de cette nouvelle expérience. « Célébrez les découvertes et expérimentez comment cet appareil remarquable a changé notre compréhension de l’univers qui nous entoure grâce à des visualisations scientifiques basées sur des données réelles découvertes par le télescope spatial Hubble au cours des 3 dernières décennies. Faites voler la navette spatiale dans une expérience réaliste physiquement, avec l’atterrissage ou encore la prise de contrôle des équipements. Vous pourrez aussi observer la Terre passer à travers un cycle jour / nuit ».

Pour l’instant l’expérience en réalité virtuelle Shuttle Commander est uniquement disponible avec le casque PlayStation VR de Sony mais elle devrait bientôt l’être aussi sur les casques compatibles Steam VR. Si c’est votre cas, il ne reste plus qu’à s’armer de patience avant de vous lancer dans la conquête spatiale qui s’annonce grandiose. Apollo 11 VR et Titanic VR du studio Immersive VR Education sont effectivement très réussi. Nul doute que ce soit aussi le cas avec cette nouvelle expérience.

Cet article Le studio d’Apollo 11 VR vient de lancer l’expérience Shuttle Commander a été publié sur Réalité-Virtuelle.com.

Comment télécharger des vidéos à 360 degrés sur YouTube

Par Gwendal P
vidéos 360 vr 360 degrés top meilleures sélection

Lorsque l’on souhaite profiter d’une vidéo à 360 degrés, le mieux est de pouvoir y avoir accès à tout moment. Pour cela, le meilleur moyen est de la télécharger. Il existe plusieurs méthodes pour y parvenir. 

La réalité virtuelle se développe et se démocratise de plus en plus auprès du grand public. La technologie embarquée par les casques s’améliore constamment, ce qui leur permet d’afficher une qualité d’image toujours plus nette et précise. Cet outil est ainsi un support pertinent pour regarder des vidéos, et plus particulièrement des vidéos à 360 degrés. Celles-ci permettent à l’utilisateur de regarder partout autour de lui afin d’observer le paysage dans son intégralité. Nous ne voyons plus seulement ce qu’une caméra classique peut nous montrer. Au contraire, c’est là une véritable expérience immersive qui propose plusieurs lectures en fonction de l’angle de vue choisi.

Télécharger les vidéos 360° pour les emporter partout

YouTube est l’une des premières plateformes à avoir joué un rôle majeur dans la mise en avant des vidéos à 360 degrés. Elles ont commencé à faire leur apparition sur le site dès 2014 alors que la réalité virtuelle prenait véritablement son essor. Aujourd’hui, l’application YouTube VR est disponible pour les casques Vive de HTC et ceux d’Oculus. Elle permet de consulter avec ces appareils toutes les vidéos disponibles. Mais elle possède quelques contraintes qui peuvent rendre l’expérience pas tout le temps satisfaisante. 

Pour remédier à cela, le meilleur moyen est de directement télécharger les vidéos à 360 degrés présentes sur YouTube. Et cela, afin de pouvoir les emporter partout avec soi, et d’en profiter même en l’absence d’une connexion à internet. Il existe de nombreuses solutions pour télécharger ces vidéos, mais toutes ne se valent pas. Certaines méthodes opèrent depuis un site web qui se charge de récupérer le fichier désiré et de le réencoder dans un format peu lourd. Même si cette manière de faire est simple, il ne faut pas s’attendre à obtenir la vidéo dans une qualité optimale. 

 

4K Video Downloader : Le logiciel parfait pour télécharger des vidéos 360° sur YouTube

L’autre manière de faire consiste à utiliser un logiciel dédié au téléchargement de vidéos sur YouTube. 4K Video Downloader est un logiciel gratuit qui permet de télécharger tous types de vidéos depuis Youtube, mais aussi d’autres plateformes comme Facebook ou Vimeo. Comme son nom l’indique, il respecte la qualité originale de la source et télécharge les vidéos en haute définition (HD, 4K, 8K…). En outre, ce logiciel prend en charge les vidéos à 360 degrés. Les tutoriels pour télécharger une playlist YouTube sont très simples et tout est clairement expliqué.

Se pose alors la question de la légalité d’une telle action. Télécharger une vidéo, à 360 degrés ou non, n’est pas interdit, à condition que l’utilisation soit à titre personnel. YouTube le précise sur son site. En revanche, il est aussi mentionné que l’ayant droit doit avoir donné son accord au préalable. Il est donc recommandé de demander cette autorisation avant de télécharger des vidéos sur YouTube.

Cet article Comment télécharger des vidéos à 360 degrés sur YouTube a été publié sur Réalité-Virtuelle.com.

Dreamworks dévoile Dragons : Flight Academy, une nouvelle expérience

Par Pierrick LABBE
Expérience en réalité virtuelle Dragons : Flight Academy

L’entreprise de réalité virtuelle localisée Dreamscape Immersive continue sur sa bonne habitude en proposant une nouvelle expérience qui s’inscrit dans la continuité du film « How to Train Your Dragon », sorti en 2010 et baptisée Dragons : Flight Academy.

Ce nouveau projet pourrait donc réaliser le rêve de beaucoup d’amateurs d’héroïc fantasy. Concrètement, vous pourrez voler sur le dos d’un dragon en réalité virtuelle, avec huit autres personnes comme dans le film.

Dragons : Flight Academy, une expérience à tester

Vous pouvez en profiter dès maintenant de Dragons : Flight Academy et ce jusqu’au début du mois de janvier dans les deux sites de l’entreprises, qui se trouvent à Dallas et à Los Angeles. Une liste qui limite considérablement les possibilités pour ceux qui se trouvent en Europe, en attendant que l’entreprise ne s’étende ou que son expérience en réalité virtuelle ne soit reprise par d’autres spécialistes de la réalité virtuelle se déroulant dans des endroits comme celui-ci.

Le prix est de 20 dollars par ticket et l’expérience dure 35 minutes. Le prix est donc plutôt honnête par rapport à la longueur et à la qualité de l’expérience. Attention, il serait conseillé de se présenter 15 minutes avant au moins. Dragons : Flight Academy n’est qu’une des expériences que propose Dreamscape Immersive. Il y a aussi une option avec Men in Black qui a été annoncée, mais dont les tickets ne sont pas encore annoncés à la vente. En attendant vous pouvez notamment profiter de The Blu : Deep Rescue. A chaque fois, vous pourrez vous déplacer librement et profiter du retour haptique.

Cet article Dreamworks dévoile Dragons : Flight Academy, une nouvelle expérience a été publié sur Réalité-Virtuelle.com.

V-Ray Next disponible pour Revit

Par Shadows

Chaos Group lance V-Ray Next for Revit. La nouvelle version de son moteur de rendu propose de nombreuses avancées : meilleure intégration Revit, nouvel éditeur d’assets, un “gestionnaire d’apparence” qui permet de basculer automatiquement les assets vers des versions plus réalistes au moment du rendu, meilleure interopérabilité vers et depuis d’autres outils 3D comme Max, Rhino ou SketchUp, mise au point de la caméra par simple clic dans le viewport, simplification et amélioration des outils d’éclairage, outil d’analyse de l’éclairage, refonte des effets d’objectif de caméra, support des decals, denoising NVIDIA…
Outre ces nombreuses améliorations de workflow, V-Ray Next propose aussi et surtout un gain en performances de l’ordre de x2 en moyenne, tandis que le rendu GPU dispose de davantage de fonctionnalités.

L’article V-Ray Next disponible pour Revit est apparu en premier sur 3DVF.

Sculptron : un nouvel outil entre sculpture et animation

Par Shadows

OTOY dévoile Sculptron, un nouveau logiciel au positionnement atypique. Il s’agit d’une solution de sculpture-animation s’appuyant sur le GPU.

OTOY précise d’emblée que le but n’est absolument pas de remplacer des solutions spécialisées comme ZBrush, qui reste une référence pour créer des modèles statiques. En revanche, l’idée est de proposer un outil de sculpture pensé pour aller de pair avec l’animation 3D.

Concrètement, Sculptron vous permet d’importer vos modèles (OBJ uniquement pour le moment) puis de les transformer. On peut stocker chaque état de sculpture dans une keyframe, avec aperçu temps réel de l’animation. Mieux encore : on peut importer un modèle différent en tant que keyframe de l’animation… Sous réserve que le nombre de polygones soit strictement identique à celui du mesh déjà chargé.

Sculptron propose par ailleurs des calques d’animation que l’on peut combiner, et l’animation finale est exportable en MDD (Alembic arrivera “bientôt”).

OTOY cite quelques usages potentiels de son outil, comme l’édition d’un cache animé pour corriger, par exemple, une simulation de cloth.
Autre point intéressant : la possibilité de convertir un mesh ou une animation en volume OpenVDB ou séquence OpenVDB.

La page de l’annonce vous donnera quelques détails ainsi qu’un accès à la version alpha, qui est gratuite. N’hésitez donc pas à tester l’outil !

L’article Sculptron : un nouvel outil entre sculpture et animation est apparu en premier sur 3DVF.

RenderMan 23 disponible : une mise à jour survitaminée pour le moteur de Pixar

Par Shadows

Pixar lance officiellement RenderMan 23, nouvelle version majeure de son moteur de rendu. Au menu, plusieurs avancées majeures :

– Le support natif d’USD (Universal Scene Description), la technologie open source développée par Pixar qui promet d’améliorer pipelines, collaboration et gestion des scènes ; USD était d’ailleurs LE mot clé phare du SIGGRAPH cet été chez les éditeurs ;
– Le support de Houdini 18 et de ses dernières avancées, en particulier l’outil de look-dev Solaris ;
– Une meilleure interactivité, avec la possibilité de mettre à jour facilement résolution et viewport ;
– Un look-dev plus rapide avec le mode Interactive Refinement ;
– une amélioration des APIs et plateformes de développement, avec par exemple la mise à jour du support de la VFX Reference Platform ;
– Un compositing amélioré avec l’ajustement interactif des LPEs et AOVs.

Pour plus de détails, on se rendra sur le site officiel. La mise à jour est gratuite pour les clients avec maintenance. La version gratuite à usage non commercial a elle aussi été mise à jour.

Rappelons enfin que Progiss, partenaire de 3DVF, est revendeur exclusif de RenderMan en France. Vous pouvez donc retrouver le moteur de rendu dans la boutique 3DVF.fr. En cas de question, n’hésitez pas à les contacter par téléphone au 01 49 89 07 90 ou par mail : info@progiss.com.
Notez également que l’équipe Progiss est à votre disposition pour vous proposer des présentations des logiciels de la boutique, que ce soit dans leurs locaux (Villepinte, à côté de Paris) ou dans les vôtres.

L’article RenderMan 23 disponible : une mise à jour survitaminée pour le moteur de Pixar est apparu en premier sur 3DVF.

National Geographic Explore VR lance l’expérience Macchu Picchu

Par Pierrick LABBE
Macchu Picchu National Geographic Explore VR

Le célèbre magazine a lancé une application de découverte, National Geographic Explore VR. Il est désormais possible de visiter virtuellement le Macchu Picchu et en savoir davantage sur cette citadelle perdue.

La citée perchée en haut d’une montagne est resté oubliée des hommes pendant des siècles. Cette citadelle inca, merveille du monde moderne, ne cesse de fasciner par son architecture et son emplacement. Perdue au sommet d’une montagne de la cordillère des Andes péruvienne près de la forêt amazonienne, la ville qui se découpe en trois secteurs, religieux avec ses temples, urbaine avec ses maisons et agricole avec ses cultures en terrasse reste, encore de nos jours, une énigme. Difficile d’imaginer comment la culture inca ait pu construire une telle citée en haut d’une montagne avec une architecture incroyable. Son accès est, encore de nos jours, particulièrement difficile.

Découvrez le Macchu Picchu en réalité virtuelle

L’application National Geographic Explore VR a été mise à jour et propose désormais une visite intrigante de la célèbre citadelle inca Macchu Picchu avec des vidéos à 360 degrés et des reconstitutions numériques. L’application vous expliquera la culture inca, depuis leurs techniques de momification à leurs cultes. Des reconstitutions numériques des bâtiments vous permettront de comprendre la vie des incas. L’application a recréé des espaces numériques pour redonner vie aux ruines de la citée.

L’expérience en réalité virtuelle fait aussi la part belle à Hiram Bingham, l’explorateur américain qui a redécouvert la citadelle de Macchu Picchu au début du 20ème siècle. Il s’agit donc aussi bien d’un voyage dans le temps et dans l’espace que vous propose National Geographic Explore VR. L’expérience est particulièrement  éducative. De tels voyages virtuels permettent non seulement de découvrir le monde depuis son salon mais aussi de préserver des lieux fragiles que le tourisme dégrade. L’application est disponible pour l’Oculus Quest au prix de 9,99 dollars ici.

Cet article National Geographic Explore VR lance l’expérience Macchu Picchu a été publié sur Réalité-Virtuelle.com.

EmberGen : “le simulateur de fluides le plus rapide du monde” arrive en alpha

Par Shadows

Nous vous le présentions l’été dernier alors qu’il ne se montrait que sous forme d’aperçus vidéo, le voici désormais disponible en version alpha. EmberGen, proposé par JangaFX, est un simulateur de fluides spécialisé dans le feu, la fumée et les explosions.

Concrètement, EmberGen permet de travailler en temps réel et d’exporter, au choix, flipbooks, séquences d’images et volumes VDB.

L’outil permet de travailler en temps réel et se destine à deux secteurs distincts :
– le jeu vidéo, tout d’abord, via l’export de séquences d’images et flipbooks. Attention, à ce stade aucun export volumétrique pour un usage temps réel n’est implémenté : cette fonction est néanmoins prévue à terme ;
– le cinéma, ensuite. Pour ce domaine, EmberGen permet l’export VDB, PONG, TGA et EXR, selon que vous souhaitiez séquences d’images ou volumes. L’éditeur souligne que sa rapidité peut être un atout en prévisualisation, et que l’outil pourra néanmoins aussi, bien entendu, utilisé pour créer les simulations finales.
A terme, EmberGen devrait proposer davantage de fonctions pour cette industrie, avec par exemple des exports alembic et la gestion des collisions avec des meshes importés.

Compatible AMD et NVIDIA, EmberGen nécessite l’équivalent d’une carte GTX 1060 au minimum.

Le site officiel vous permettra de demander un accès à l’alpha. De quoi vérifier par vous-mêmes si l’affirmation de l’éditeur, selon laquelle son outil est le simulateur de fluides le plus rapide du monde, est belle et bien respectée en pratique.
Notez également que les tarifs finaux du produit sont déjà annoncés.

L’article EmberGen : “le simulateur de fluides le plus rapide du monde” arrive en alpha est apparu en premier sur 3DVF.

260 liens sur VideoMapping Software, liste de liens collaborative

Par LeCollagiste
VideoMapping Software

Une page de liens dédiée à la culture VJing et VidéoMapping. L’image live à l’honneur sur VidéoMapping Software avec 260 liens répartis sur 9 catégories : #VJSoftware #VideoMapping #MediaServer #VJTools #NDITools #VideoTools #CreatingLive #SyphonTools #Frameworks.

Un méta moissonneur de lien collaboratif pour trouver l’application idéale à mettre dans votre boite à outils vidéo live.

Curator VJ depuis 1999.

VideoMapping Software

260 liens sur VideoMapping Software, liste de liens collaborative est un billet de LeCollagiste VJ.
LeCollagiste VJ - Mag du LeCollagiste, actu sur la culture VJING, Vidéo Mapping, info video et high tech.

Quad Remesher : une solution de retopologie pour vos outils préférés

Par Shadows

Si vous travaillez régulièrement avec des modèles à la topologie approximative, Quad Remesher est peut-être fait pour vous. Ce système édité par Exoside se propose de faire une retopologie automatique de vos modèles et de remplacer la soupe de polygones qui les composent de quads proprement placés.

L’outil est disponible en tant que plugin pour les principaux outils du marché : 3ds Max, Maya, Modo, Blender, Houdini, Cinema 4D.

Quad Remesher est payant mais dispose d’une version d’essai. Quelques exemples concrets (avant/après retopologie) ont par ailleurs été mis en ligne :

L’article Quad Remesher : une solution de retopologie pour vos outils préférés est apparu en premier sur 3DVF.

Le Black Friday VJ 2019

Par LeCollagiste
Black Friday VJ 2019

Les bons plans du Black Friday VJ de l’année 2019. Cette année encore il faut remplir sa boite à outils vidéo live, et c’est le vendredi noir ou il faut investir sur les licences. Rendez-vous chez vos dealers habituels pour toute la cablasse audio vidéo, vos contrôleurs MIDI ou mélangeurs vidéo.

  • HeavyM propose une réduction de 50 % de réduction sur les licences Lifetime et -30 % sur le kit Olga
  • Millumin propose 20 % de réduction
  • Arkaos propose 50 % de réduction Grand VJ XT, MediaMaster Pro
  • MadMapper propose 20 % de réduction
  • Resolume propose 50% de réduction
  • Blendy Dome VJ propose 80% de réduction
  • Synesthesia propose 40% de réduction
  • VDMX propose 30% de réduction
  • CoGe VJ propose 30% de réduction
  • Mitti propose 30% de réduction
  • Vezér propose 30% de réduction
Black Friday VJ 2019

Le Black Friday VJ 2019 est un billet de LeCollagiste VJ.
LeCollagiste VJ - Mag du LeCollagiste, actu sur la culture VJING, Vidéo Mapping, info video et high tech.

Houdini 18 disponible, avec Solaris et Karma

Par Shadows

Après avoir multiplié annonces et présentations, SideFX met aujourd’hui à disposition la version 18 de Houdini.

Rappelons les deux avancées phares de cette mise à jour :
– Solaris, un contexte de lookdev, layout et lighting s’appuyant sur la technologie open source USD (Universal Scene Description) développée par Pixar ;
– Karma Render, un nouveau moteur de rendu s’appuyant sur Hydra qui s’intègre à l’environnement Solaris.

Outre ces deux éléments, Houdini 18 propose évidemment des améliorations pour les destructions, effets pyrotechniques et des optimisations variées.

Houdini se décline pour rappel en différentes versions Core, FX, Indie. Pour l’apprentissage, Houdini Apprentice (gratuit) est aussi disponible, avec une restriction sur la résolution des rendus et un watermark.

Rappelons enfin que notre partenaire Progiss est revendeur Houdini, que vous pourrez donc retrouver dans la boutique 3DVF.fr.

L’article Houdini 18 disponible, avec Solaris et Karma est apparu en premier sur 3DVF.

V-Ray : toujours plus de performances avec RTX

Par Shadows

Si le moteur de rendu V-Ray Next de Chaos Group était bien évidemment déjà compatible avec les cartes NVIDIA RTX, le mois de novembre a comme un air de Noël anticipé pour les personnes disposant de cartes NVIDIA dernière génération.

En effet, l’éditeur annonce que V-Ray Next for 3ds Max Update 3 et V-Ray Next for Maya Update 2 apportent des gains sensibles en performances pour le rendu GPU.

Un article de blog détaille le fonctionnement sous 3ds Max : un menu permet désormais de choisir entre CUDA et RTX pour V-Ray GPU. Aucune modification de scène n’est nécessaire, et le rendu obtenu est strictement identique. En revanche, le mode hybride CPU+GPU n’est pas disponible en mode RTX.

En pratique, les performances obtenues sont très variables : quelques tests chez Chaos Group varient de +7% à +177%, avec une moyenne de +40%.

Côté Maya, un autre article annonce que l’outil dispose également de ce mode RTX grâce à l’update 2, sans toutefois apporter beaucoup de détails.

L’article V-Ray : toujours plus de performances avec RTX est apparu en premier sur 3DVF.

Glimt, une expérience de détective en réalité augmentée pour Magic Leap One

Par Pierrick LABBE
Glimt : The Vanishing at the Grand Starlight Hotel

Le Magic Leap One fait rêver beaucoup de monde par son potentiel et ses promesses. Il faut assurer cependant un catalogue d’expériences. Une autre vient de s’ajouter à la liste avec Glimt : The Vanishing at the Grand Starlight Hotel.

C’est Resolution Games, le studio de développement derrière Angry Birds : Isle of Pigs, qui est aux manettes de ce nouveau projet en réalité augmentée. Il s’agit cette fois d’un jeu d’enquête original.

Glimt : The Vanishing at the Grand Starlight Hotel : jouez à Sherlock Holmes

Glimt : The Vanishing at the Grand Starlight Hotel est une expérience en réalité augmentée, développée spécifiquement pour le Magic Leap One qui est décrite comme étant remplie de « mystères, de pouvoirs psychiques, de magie et bien sûr d’intrigue ». Pour l’instant, Resolution Games n’a dévoilé que quelques images de cette future expérience. Il s’agira tout de même de leur 10e jeu et de leur 3e expérience en réalité augmentée, après les deux premiers volumes liés à Angry Birds : First Person Slingshot et Isle of Pigs.

Les joueurs incarneront donc un détective psychique dans un environnement rempli de personnages hauts en couleur et avec des expériences extraordinaires. Des éléments de puzzle invitent aussi à penser en dehors du cadre habituel. On devrait en apprendre plus dans les prochains mois sur Glimt : The Vanishing at the Grand Starlight Hotel. Précision importante, le projet est développé dans le cadre du programme destiné aux créateurs indépendants qui a été lancé par Magic Leap. Celui-ci permet aux entreprises d’être candidate à des bourses de financement de 20.000 à 50.000 dollars. 31 entreprises en ont bénéficié l’an dernier.

Cet article Glimt, une expérience de détective en réalité augmentée pour Magic Leap One a été publié sur Réalité-Virtuelle.com.

SageThumbs : toujours plus de miniatures sous Windows

Par Shadows

Si vous manipulez régulièrement des formats graphiques très variés, SageThumbs est peut-être fait pour vous. Ce petit outil pour Windows vous permettra de disposer de miniatures pour un grand nombre d’extensions (162 formats d’image image / 224 extensions) via la librairie GFL.

L’article SageThumbs : toujours plus de miniatures sous Windows est apparu en premier sur 3DVF.

Le jeu en réalité augmentée Hello Kitty AR veut concurrencer Pokémon Go

Par Pierrick LABBE
Hello Kitty AR

Quel sera le jeu en réalité augmentée le plus populaire au monde ? Si Pokémon GO semble indétrônable, de nouveaux se joignent  la compétition, comme le prouve la version Hello Kitty AR.

 Beaucoup s’y sont déjà frottés ces dernières années, entre les zombies, les dinosaures, les magiciens ou les fantômes… Cependant aucun n’a pu effleurer la suprématie de Pokémon Go. Ce nouveau jeu en réalité augmentée sur smartphone espère toutefois venir taquiner le roi…

Découvrez Hello Kitty AR en réalité augmentée

Ce n’est pas forcément l’adversaire le plus coriace que l’on aurait pu imaginer ces dernières années à l’heure de chercher un rival à Pokémon Go. Cependant, Hello Kitty semble désormais vouloir relever le défi avec une expérience pour le moins « kawaii ». C’est même son nom, puisque le Bublar Groupe a annoncé jeudi « Hello Kitty AR : Kawaii World », un jeu en réalité augmenté géolocalisé créé en partenariat avec Sanrio, le fondateur du personnage mais aussi la plateforme Amazon Game Tech.

Le lancement du jeu Hello Kitty Ar devrait avoir lieu dans un premier temps début 2020 pour certains marchés sélectionnés. Puis, le  déploiement mondial serait lui prévu pour l’été 2020. En attendant, il est déjà possible de s’inscrire sur le site pour recevoir les informations mais aussi avoir une chance d’être sélectionné pour la version beta. Le jeu utilisera Google Maps API qui a déjà été utilisé pour les expériences de réalité augmentée de Walking Dead, Jurassic  World et Ghostbusters. Vous pourrez collecter des objets dans certains endroits et échanger avec vos amis. Chaque joueur pourra aussi bâtir son propre jardin Kawaii.

Cet article Le jeu en réalité augmentée Hello Kitty AR veut concurrencer Pokémon Go a été publié sur Réalité-Virtuelle.com.

La réalité virtuelle va-t-elle permettre de mieux comprendre l’Intelligence Artificielle ?

Par Pierrick LABBE
Intelligence artificielle réalité virtuelle

L’IUT Mines Albi vient de lancer, il y a quelques jours, un nouveau laboratoire destiné à mieux comprendre les liens entre réalité virtuelle et l’Intelligence Artificielle (IA). On vous explique de quoi il retourne.

Et si la réalité virtuelle permettait de mieux cerner ce qui est invisible ou difficilement à l’œil nu dans le monde réel. Dans ce projet international, avec l’institut Georgia Tech ISyE, basé à Atlanta aux Etats-Unis, la réalité virtuelle est mise à profit pour aider à la prise de décision.

Rendre concret des problèmes abstraits de l’Intelligence Artificielle

De quoi parle-t-on exactement avec la réalité virtuelle et l’Intelligence Artificielle ? C’est Frederick Benaben, professeur en génie industriel et directeur de ce laboratoire qui l’explique le mieux. Interrogé par l’Usine Nouvelle, il détaille : « La réalité virtuelle peut permettre de rendre concrets des problèmes abstraits. Qu’un outil d’aide à la décision prenne en compte 1.000 éléments lors d’une gestion de risque peut paraître insaisissable à l’esprit humain. Mais si vous avez ces 1.000 éléments représentés autour de vous par des bulles plus ou moins grosses et plus ou moins proches de vous, vous visualisez mieux comment les prioriser et les traiter ».

Cela permet notamment d’aider à faire face à un problème majeur pour rendre l’Intelligence Artificielle accessible au grand public. Si les décideurs ne sont pas transparents ou pas assez clairs dans les choix qu’ils font, la réalité virtuelle ajoute lors une « couche d’explicabilité » poursuit le spécialiste. Bien entendu, il s’agit encore des premiers pas mais le potentiel est là. Il est vrai que les mécanismes de prise de décision des IA reste souvent particulièrement obscur au commun des mortels.

Cet article La réalité virtuelle va-t-elle permettre de mieux comprendre l’Intelligence Artificielle ? a été publié sur Réalité-Virtuelle.com.

Une visite inédite de la Chapelle Sixtine en réalité virtuelle

Par Pierrick LABBE
Chapelle Sixtine en réalité virtuelle

A moins d’aller directement au Vatican, au cœur de Rome, la Chapelle Sixtine reste quelque chose que l’on découvre en photo. La réalité virtuelle va cependant désormais changer la donne.

Dans le domaine culturel, de nombreux sites jouent la carte de la réalité virtuelle et des nouvelles technologies afin de favoriser l’accessibilité. La célèbre chapelle du Vatican est la dernière dans la liste, proposant notamment une incroyable reproduction de la peinture du plafond.

La Chapelle Sixtine, dans une incroyable reproduction

La Chapelle Sixtine est sans doute l’un des lieux peints les plus célèbres au monde, incarnation du talent de la Renaissance. Grâce à la réalité virtuelle, il est désormais possible d’en profiter comme si vous y étiez. L’expérience, a été rendue disponible gratuitement sur la plateforme Steam ici et offre des incroyables plans-serrés du lieu avec une visite guidée audio d’une heure. Baptisée « Il Divino : Michelangelo’s Sistine Ceiling », cette nouvelle expérience est disponible sur tous les casques majeurs en réalité virtuelle, mais vous pouvez aussi en profiter sur votre écran d’ordinateur.

C’est un projet qui tient particulièrement à cœur à Chris Evans, le résultat d’une passion de 15 ans pour le lieu. C’est le leader de l’animation technique chez Epic Games et il tenait vraiment à rendre ce lieu plus accessible à n’importe qui sur la planète. Vous pouvez voir n’importe quelle espace du lieu de façon très détaillée, mais aussi comprendre comment Michel-Ange a peint le plafond de la Chapelle Sixtine. Dans le lot, on trouve plusieurs images en 4k, et des images hautes résolutions qui permettent de voir le détail des coups de pinceaux.

Cet article Une visite inédite de la Chapelle Sixtine en réalité virtuelle a été publié sur Réalité-Virtuelle.com.

❌