Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 23 juin 2021Vos flux RSS

L’US Space Force vend désormais ses propres NFT AR

Par : Ruan
US Space Force

La toute nouvelle branche de l’armée américaine US Space Force lance une série de NFT en réalité augmentée, à reconnaissance optique, en l’honneur de l’astronaute Neil Armstrong.

La société a l’intention de célébrer le lancement du cinquième engin spatial de la flotte de satellites GPS III de Neil Armstrong. Ainsi, elle vend ses propres NFT compatibles avec la réalité augmentée, à l’effigie de la légende elle-même.

Présentation des NFT AR de la société US Space Force

Les NFT (non-fongible tokens) sont des actifs numériques uniques qui existent sur un réseau de blockchain, comme Ethereum. Il s’agit d’images, de gifs, de vidéos et même de tweets. Les propriétaires peuvent échanger ces jetons numériques ou les vendre pour réaliser un bénéfice.

Cette collection NFT AR inspirée de l’espace porte le nom de “ARMSTRONG”. Elle comprend un NFT en édition limitée inspiré du satellite GPS III SV05, ainsi que la pièce commémorative. Le patch est offert aux membres de l’équipe de l’US Space Force participant à la mission.

Son programme de lancement et sa mise en vente

L’armée de l’espace américaine a mis en orbite un satellite en l’honneur du premier homme à avoir posé le pied sur la lune, Neil Armstrong.

Le NFT GPS III susmentionné sera disponible à l’achat trois jours avant le lancement du véritable satellite via Star Atlas. En outre, ce dernier constitue un métavers en ligne alimenté par la blockchain, avec une touche de science-fiction.

Les joueurs peuvent y voyager dans l’espace profond à la recherche d’actifs blockchain à réclamer. Le reste des NFT “ARMSTRONG” est disponible via la plateforme de collecte numérique Ethernity lors du lancement des actifs depuis le 17 juin. Les propriétaires pourront alors visualiser leurs NFT AR de l’US Space Force nouvellement acquis en utilisant l’application VueXR sur iOS et Android.

Cet article L’US Space Force vend désormais ses propres NFT AR a été publié sur Réalité-Virtuelle.com.

À partir d’avant-hierVos flux RSS

Substance 3D fait peau neuve : des annonces le 23 juin

Par : Shadows

Annonces d’importance, mises à jour majeures, surprises : c’est ce que promet Adobe pour sa gamme Substance 3D le 23 juin prochain.

L’éditeur invite les personnes intéressées à s’inscrire pour suivre les présentations, qui seront suivies le 24 juin d’échanges en direct avec les équipes produits.
Notez qu’Adobe a mis en place des créneaux dédiés pour différents fuseaux horaires : que vous nous lisiez de France, Londres, des USA/du Canada ou d’ailleurs, vous devriez trouver un horaire adapté.

Nous ne manquerons pas de relayer les nouveautés, qu’elles soient techniques ou qu’elles portent sur le modèle économique de la gamme.

L’article Substance 3D fait peau neuve : des annonces le 23 juin est apparu en premier sur 3DVF.

Quels sont les avantages de Grasshopper en fabrication additive ?

Grasshopper est un plug-in inclus dans le logiciel de modélisation 3D Rhinoceros. Il s’agit d’un outil de modélisation algorithmique, spécifiquement utilisé pour concevoir et modifier des formes complexes à l’aide de certains paramètres. Pour ceux qui ne connaissent pas ce…

Grasshopper-cover

Quest : une vue à la troisième personne disponible pour le streaming

Par : Serge R.
quest vue troisième personne

L’Oculus Quest propose dorénavant une vue à la troisième personne pour le streaming. La version bêta de la fonctionnalité vient de débarquer sur l’appareil suite à la dernière mise à jour du package Oculus Utilities Unity. Les spectateurs peuvent ainsi désormais regarder des jeux VR partagés par des développeurs VR avec cette fameuse vue sur un navigateur Web ou un smartphone.

À l’heure actuelle, il est possible pour tout joueur de montrer à un ami ce qui se passe dans son jeu Quest en temps réel. Pour cela, il peut diffuser tout ce qu’il y voit sur un smartphone, un téléviseur ou un navigateur Web en utilisant l’application Oculus. Le spectateur verra ainsi l’action qui se déroule dans le jeu VR avec une vue à la première personne. Cette vue ne lui permet toutefois pas de vraiment voir ce qui se passe dans la scène.

Effectivement, à cause du mouvement tremblant de la tête du joueur et du champ de vision recadré, il pourra avoir du mal à la regarder convenablement. C’est la raison pour laquelle certains jeux VR sur console et PC montrent l’action avec une vue à la troisième personne. Les développeurs de contenu Quest pourront donc bientôt profiter du même type de fonctionnalité.

Quest : les possibilités offertes par la vue à la troisième personne utilisée pour le streaming

La vue à la troisième personne peut être utilisée en même temps que la vue à la première personne lorsqu’on diffuse le contenu du Quest. Ainsi, le développeur VR ou le joueur peut passer de l’une à l’autre en fonction de ses besoins et de ses préférences lors de la diffusion.

La fonctionnalité donne même aux utilisateurs l’occasion de contrôler l’orientation de la caméra avec leur smartphone. Toutefois, on ignore encore si sa version bêta propose cette possibilité.

À noter qu’Oculus a souligné que la vue à la troisième personne est susceptible d’avoir un impact sur les performances de l’application Oculus.

Cet article Quest : une vue à la troisième personne disponible pour le streaming a été publié sur Réalité-Virtuelle.com.

Vuforia annonce le lancement de Vuforia Instruct

Par : Ruan
lancement de Vuforia Instruct

Le 3 juin 2021, Vuforia a annoncé le lancement d’Instruct, sa solution AR prête à l’emploi pour les entreprises et s’adaptant aux besoins spécifiques de chacune d’elles.

Avec le lancement de Vuforia Instruct, les utilisateurs peuvent effectuer des inspections avec précision. Ils pourront également enregistrer en temps réel des informations utiles dans leurs rapports d’audit.

Vuforia Instruct : quel intérêt pour les entreprises ?

Grâce à cette nouvelle offre de Vuforia, les entreprises peuvent valoriser leurs données CAO 3D. De plus, cela permet également de fournir et de partager des instructions de travail interactives en AR dans toute l’entreprise.  Ainsi, il devient facile de réaliser des inspections optimisées lors du processus de vérification de la qualité.

« Les instructions de travail créées avec Vuforia Instruct sont beaucoup plus précises et nous permettent de former les employés de nos clients… Les technologies d’AR aideront nos clients à réaliser d’importants gains de productivité en leur permettant d’améliorer la précision et la rapidité d’opérations manuelles complexes. » affirme Alexander Ouellet dans Innovation Engineer chez Harpak-ULMA Packaging.

Lancement de Vuforia Instruct : une nouvelle méthode d’audits ?

En effet, les manuels de procédures sur papier demeurent utilisés par environ 67% des entreprises dans le cadre des contrôles. Ces méthodes sur papier comportent généralement des erreurs. Elles ne permettent pas d’obtenir une vision adéquate. Au final, elles constituent un obstacle à la mise en œuvre de processus visant à l’amélioration continue.

Avec le lancement de Vuforia Instruct, de nombreuses entreprises pourront s’affranchir désormais des documents papier. La solution fournit des conseils et des repères visuels adaptés aux besoins des agents de terrain. Ces derniers peuvent également ajouter des observations à leurs inspections et sauvegarder les informations importantes.

« Vuforia Instruct permet aux industriels de transformer la façon dont elles créent et communiquent des instructions de travail à leurs opérateurs de première ligne » exprime Michael Campbell, vice-président exécutif et directeur général des produits de réalité augmentée chez PTC.

Cet article Vuforia annonce le lancement de Vuforia Instruct a été publié sur Réalité-Virtuelle.com.

Resolume Wire

Resolume Wire

Resolume intègre un nouvel outil de paching modulaire, le Wire. Resolume Wire est un outil nodale type TouchDesigner, Notch, Vuo ou Max se rapprochant plus du très vieux Quartz Composer. Wire permet de créer des effets 3D génératifs et audioréactifs, échantillonneur de courbe, du noise fractal, pilotage MIDI ou OSC, compatible Syphon sur Mac et Spout sur PC, comprend les Slices de Resolume, édition de compilation avec correctifs et compatibilité avec le système de plug Juicebar et bien d’autres choses encore.

Resolume Wire est à 399 € pour une machine sur Win et Mac, a tester sur la version Resolume Avenue ou Arena 7.4.0 de juin 2021.

Resolume Wire
Logo Resolume Wire
Resolume Wire
Resolume Wire

Resolume Wire est un billet de LeCollagiste VJ.
LeCollagiste VJ - Mag du LeCollagiste, actu sur la culture VJING, Vidéo Mapping, info video et high tech.

Blender 2.93 disponible : quoi de neuf ?

Par : Shadows

Blender se met à jour et passe en version 2.93 LTS : le « LTS » signifiant qu’il s’agit d’une version avec support sur le long terme (2 ans). De quoi intéresser en particulier les studios qui travaillent sur des projets de longue durée (par exemple un long-métrage animé) pour lesquels ils souhaitent figer le numéro de version.

Au menu de cette 2.93 : 22 nouvreaux nodes du côté géométrie, des améliorations en sculpture en ce qui concerne la selection et le masquage, un modifier Line Art qui génère des lignes stylisées facilement, l’opérateur Interpolate réécrit et étoffé, l’import SVG et l’export PDF pour Grease Pencil, un nouvel outil de remplissage, des amémiorations sur Eevee (volumétriques, profondeur de champ…), ou encore la mise à jour du denoiser Intel Open Image Denoise.

Pour l’occasion, l’équipe Blender a mis en ligne deux vidéos qui mettent en avant les nouveautés : la première avec des exemples concrets, la seconde accompagnée d’explications.

Voici également une plongée dans les coulisses du nouveau splash screen, dont le fichier source est disponible au téléchargement.

L’article Blender 2.93 disponible : quoi de neuf ? est apparu en premier sur 3DVF.

nanoCAD, le logiciel de CAO de Nanosoft

Si les procédés d’impression 3D fonctionnent pour la majorité différemment, ils commencent tous de la même façon : il est d’abord nécessaire de réaliser un modèle numérique 3D de la pièce. Et cela peut être fait de différentes manières. La…

Cover_SEO

Réussir un entretien d’embauche avec le nouveau simulateur de Bodyswaps

Par : Ruan
simulateur de Bodyswaps

Bodyswaps lance le simulateur d’entretien d’embauche. Le but de ce projet consiste à aider les candidats à se préparer à leur entretien d’embauche.

Bodyswaps booste l’efficacité des programmes de formation avec une pratique contextuelle évolutive. Pour ce faire, il combine les sciences comportementales, les données et les technologies immersives.

Fonctionnement du simulateur de Bodyswaps

Ce simulateur de Bodyswaps est une solution unique en son genre. Cette solution aidera les demandeurs d’emploi à assimiler les techniques d’entretien et à s’adapter à votre discours. En effet, le simulateur proposera d’entraîner les candidats à répondre à des dizaines de questions fréquemment posées lors d’un entretien.

Cette solution de réalité virtuelle couvre une série de stratégies et de techniques reconnues ainsi que plus de 75 questions d’entretien. Cela va des questions sur la personnalité aux questions comportementales. Il propose également différentes manières de gérer l’anxiété liée à l’entretien et d’élaborer des réponses gagnantes.

Ce simulateur d’entretien d’embauche permet aux étudiants de développer leurs compétences de manières autonomes à travers quatre modules de réalité virtuelle :

  • Gérer l’anxiété liée à l’entretien ;
  • Trouver l’emploi idéal ;
  • Trois étapes pour répondre à (presque) toutes les questions ;
  • Simulation d’entretien.

Une solution déjà accessible

Les utilisateurs peuvent se réjouir de la disponibilité de ce simulateur Bodyswaps dès aujourd’hui. En effet, il est accessible en réalité virtuelle, mobile et PC. En outre, une démonstration gratuite est disponible sur le site Web de Bodyswaps.

Christophe Mallet, PDG de Bodyswaps, a déclaré dans un communiqué : « Pour les étudiants, c’est l’occasion d’apprendre à se présenter sous leur meilleur jour et de décrocher l’emploi de leurs rêves. Pour les organisations, il s’agit d’une approche révolutionnaire pour améliorer les résultats des étudiants, rapidement et à grande échelle, en ces temps difficiles. »

Cette technologie révolutionnaire offre une gamme de solutions de formation aux compétences non techniques pour les particuliers et les employeurs. D’ailleurs, ce simulateur Bodyswaps vient de rejoindre le programme mondial XR de HTC, le Vive X, en 2020. La société ambitionne d’ailleurs de développer sa gamme de contenus. 

Cet article Réussir un entretien d’embauche avec le nouveau simulateur de Bodyswaps a été publié sur Réalité-Virtuelle.com.

Créer des expériences de suivi oculaire en réalité virtuelle avec le logiciel SightLab VR

Par : Ruan
logiciel SightLab VR - realite-virtuelle.com

Le suivi oculaire permet de résoudre les problèmes d’interface individuels liés à l’utilisation de la VR. Avec le logiciel SightLab VR, les utilisateurs peuvent améliorer la qualité visuelle globale.

L’eye tracking est l’un des éléments les plus importants dans le développement des technologies VR. C’est dans cette optique que WorldViz a lancé un outil permettant de mettre en place des expériences de suivi oculaire en réalité virtuelle.

Pourquoi combiner le suivi oculaire dans la réalité virtuelle ?

Avec le logiciel SightLab VR, les consommateurs peuvent profiter des avantages des deux technologies. En effet, cela est possible en travaillant avec l’eye tracking dans la VR.

D’un côté, la VR permet de créer n’importe quel type d’environnement simulé. En effet, les stimuli visuels et les scénarios peuvent être rapidement changés ou facilement répétés.

D’autre part, le suivi oculaire permet d’abord de savoir où se trouve l’attention visuelle du participant à chaque moment de l’expérience. Ensuite, il permet de savoir quels éléments visuels déclenchent certaines réponses et comportements.

Le suivi oculaire dans la réalité virtuelle peut alors améliorer les expériences VR. Cette technique favorise des interactions plus naturelles avec les yeux. Elle contribue à rendre les expériences plus immersives.

Logiciel SightLab VR : Suivre son regard dans la réalité virtuelle

Le logiciel SightLab VR révèle ce qui se cache derrière le comportement et les réactions subconscientes des participants. Pour ce faire, il tire pleinement parti du contrôle et de la flexibilité du monde virtuel.

Cette technologie se concentre sur le développement d’une combinaison qui permet la détection précise du prochain point de fixation des yeux. Elle réduit ainsi les imprécisions liées au clignement des yeux.

SightLab VR mesure le regard, la taille de la pupille et les emplacements de fixation, ainsi que les trajectoires de balayage et les interactions. Les chercheurs peuvent ainsi se faire une idée de l’expérience de l’utilisateur et de la charge mentale.

La combinaison de l’eye-tracking et de la VR offre aux utilisateurs un environnement naturel. Cela permet aux chercheurs de concevoir des expériences significatives.

Cet article Créer des expériences de suivi oculaire en réalité virtuelle avec le logiciel SightLab VR a été publié sur Réalité-Virtuelle.com.

Unreal Engine 5 : des ressources pour comprendre et débuter

Par : Shadows

Suite au lancement de la beta d’Unreal Engine 5, de nouvelles ressources arrivent en ligne. Présentations détaillées, premiers pas, focus sur des fonctions spécifiques : autant d’éléments qui vous permettront de mieux comprendre les enjeux de cette mise à jour majeure et d’expérimenter avec le moteur.
En voici une sélection.

  • Epic Games prévoit une série de présentations en direct détaillées dans les semaines à venir, mais d’ici là, le groupe propose déjà une introduction de 2h, en compagnie de l’équipe technique.
    Au menu : récapitulatif des nouveautés, des évolutions, mais aussi des changements à venir.
  • Epic Games propose aussi des vidéos plus courtes, de 2 à 4 minutes, sur Nanite (qui permet de gérer de la géométrie très lourde), Lumen (le nouveau système d’illumination globale), Niagara (utile pour créer des VFX), ou encore un making-of de la démo Lumen in the Land of Nanite.
  • Polygon Academy propose un tutoriel de 30 minutes, pour débutants, sur le système d’éclairage Lumen :
  • Ryan Kingslien, de son côté, a mis en ligne une vidéo qui aborde le sujet de la conversion des scènes UE4 vers la nouvelle version.

Si vous avez trouvé d’autres ressources utiles, et en particulier des sources francophones, n’hésitez pas à les signaler en commentaire !

L’article Unreal Engine 5 : des ressources pour comprendre et débuter est apparu en premier sur 3DVF.

Unreal Engine 5 disponible en early access : testez la révolution !

Par : Shadows

Epic Games annonce le lancement en accès anticipé d’Unreal Engine 5, nouvelle version majeure de son moteur 3D temps réel. Très attendue, cette V5 apporte des gains majeurs en termes de complexité visuelle et réalisme.

Cette version anticipée est disponible chez Epic Games, accompagnée de ressources d’apprentissage et d’un projet exemple, Valley of the Ancient, visible dans la vidéo ci-dessous.

Vous trouverez sous cette dernière le détail des avancées d’UE5.

Nanite

Le système Nanite permet de gérer des géométries massives, avec un niveau de détail jusqu’ici réservé aux cinématiques ou au cinéma. Il devient possible d’utiliser des assets comportant des millions de polygones, placés dans des scènes des millions de fois, explique Epic Games, tout en restant temps réel.
En pratique, Nanite gère automatiquement les polygones, et adapte le niveau de détail en fonction de ce qui sera réellement perçu, afin d’économiser les ressources.

Pour Epic Games, Nanite permet « d’éliminer les tâches fastidieuses telles que le baking de normal maps et la création manuelles de LODs ».

Lumen

Autre avancée majeure, Lumen est une solution d’illumination globale permettant de créer des scènes réalistes et dynamiques. Là encore, des tâches habituellement chronophages sont éliminées : exit les lightmaps et autres techniques d’éclairage précalculées, il suffit de placer l’éclairage et les assets, Unreal se charge du reste, même sur console.

Attention, à l’heure actuelle Nanite et Lumen ne sont supportés que sur les consoles next-gen et Windows. Il faudra donc patienter pour les autres plateformes.

Mondes Ouverts

Le nouveau système World Partition améliore la gestion et le streaming des mondes ouverts, avec une division automatique des niveaux. Un système permet en outre de travailler à plusieurs artistes sur une même zone. Enfin, un système de calques de données permet de créer facilement des variations d’un même monde, comme des versions jour/nuit.

Animation

Les outils d’animation ont été revus et devraient permettre aux artistes de travailler plus efficacement et précisément.

MetaSounds

MetaSounds est un nouveau système audio qui devrait considérablement améliorer la gestion sonore, à la manière d’un pipeline programmable de matériaux et rendu côté visuel.

Editor

L’éditeur Unreal a subi une refonte : interface revue, workflows améliorés.

MetaHumans

Unreal Engine 5 est bien évidemment compatible avec les humains réalistes issus de MetaHuman Creator.

Le lancement effectif d’Unreal Engine devrait avoir lieu début 2022, avec d’autres nouveautés que celles annoncées ici. Nous vous tiendrons évidemment au courant de ce lancement.

UE5 est rétrocompatible avec la version 4.26 : vous devriez pouvoir importer vos projets sans souci. La rétrocompatibilité s’étendra aussi à UE 4.27, mais ce ‘nest pas encore le cas.

Vous pouvez vous rendre chez Epic Games pour télécharger la version early access du moteur ainsi que la démo technique.
Pour cette dernière, et afin de disposer d’une expérience optimale, il faudra disposer au minimum d’une GTX 1080 / AMD RX Vega 64 ou carte graphique plus puissante, 32 Go de RAM. N’espérez cependant pas atteindre les 30 FPS sans un CPU 12 cores, une RTX 2080 ou 5700XT et 64Go de RAM.
La démo devrait pouvoir tourner sur les consoles nouvelle génération sans difficulté.

L’article Unreal Engine 5 disponible en early access : testez la révolution ! est apparu en premier sur 3DVF.

Maya Bonus Tools : la version 2022 disponible

Par : Shadows

Autodesk a mis à jour ses Bonus Tools pour Maya, qui viennent ajouter gratuitement des scripts et plugins utiles.

Cette cuvée 2022 comporte un outil Extrude Instance Mesh, ainsi qu’un outil de découpe rapide ; ce dernier n’est par contre compatible qu’avec Windows, et crashera si vous le lancez sous Mac OS/Linux.

Activez les sous-titres pour obtenir des explications sur les manipulations présentées

L’article Maya Bonus Tools : la version 2022 disponible est apparu en premier sur 3DVF.

HoloSuite par Arcturus : une suite d’outils pour la vidéo volumétrique

Par : Shadows

Avec l’essor de la vidéo volumétrique, utilisable par exemple en réalité augmentée ou virtuelle, des éditeurs proposent des outils spécialisés.
C’est le cas d’Arcturus, qui a récemment publié une vidéo autour de sa suite logicielle HoloSuite.

HoloSuite comporte deux outils principaux :

  • HoloStream, destiné au streaming de données et qui permet donc la diffusion des vidéos volumétriques ;
  • HoloEdit, de son côté, est un éditeur non linéaire de vidéo volumétrique.

En pratique, HoloSuite permet donc de gérer les principaux besoins de la vidéo volumétrique : réparation d’un mesh avec prise en compte de ces réparations tout au long de l’animation, retargeting de la tête d’un acteur, racord de performances pour gérer des embranchements narratifs, édition des performances, et bien évidemment la diffusion finale.

L’article HoloSuite par Arcturus : une suite d’outils pour la vidéo volumétrique est apparu en premier sur 3DVF.

MagicaCSG : découvrez le nouveau projet du créateur de MagicaVoxel

Par : Shadows

Ephtracy, bien connu pour son logiciel MagicaVoxel, a dévoilé un nouveau concept. MagicaCSG, c’est son nom, est un éditeur de signed distance fields (SDF) accompagné d’un moteur de rendu (path tracing).

Si le concept de signed distance fields ne vous dit rien, pas de panique : le plus simple est sans doute de jeter un oeil à la vidéo de présentation ci-dessous, qui vous donnera une idée des possibilités en modélisation 3D offertes par cette technique. Le compte Twitter d’Ephtracy est également une bonne piste pour découvrir les créations d’artistes ayant fait appel à MagicaCSG.

Compatible Windows, MagicaCSG est disponible gratuitement.

L’article MagicaCSG : découvrez le nouveau projet du créateur de MagicaVoxel est apparu en premier sur 3DVF.

TearKnit FX déchire vos vêtements sous Maya

Par : Shadows

Découvrez TearKnit FX, un outil pour Maa qui permet de créer des effets de tissu déchiré sous Maya.

Payant, l’outil est disponible sur Gumroad. Il s’appuie sur une approche procédurale qui ne nécessite donc pas de simulation, et permet d’obtenir des résultats très rapidement.

L’article TearKnit FX déchire vos vêtements sous Maya est apparu en premier sur 3DVF.

Nreal vs Unreal : le procès entamé par Epic Games

Par : Vonintsoa
Procès opposant Nreal et Unreal

En tant que concurrentes dans le même domaine, Epic Games accuse Nreal d’avoir copié son nom de leur propre marque Unreal.

Le fabricant de lunettes de réalité augmentée Nreal aurait copié le nom de la marque déposée Unreal. La ressemblance entre les deux désignations n’est sûrement pas une coïncidence selon les développeurs d’Epic Games.

Epic Games poursuit Nreal pour avoir copié Unreal

Epic Games a entamé une poursuite judiciaire contre le fabricant d’équipements AR, Nreal sous prétexte d’avoir copié la marque Unreal. En effet, ces deux noms sont très similaires, à la fois au niveau de l’apparence et de la prononciation. Selon eux, cette ressemblance n’est pas le fruit du hasard. Étant donné que les deux marques sont concurrentes dans le même domaine, il est impossible d’envisager leur coexistence. En d’autres termes, cela pourrait créer une confusion auprès des consommateurs.

La désignation Unreal est associée à une dizaine de produits et de services dont des logiciels, des jeux vidéo, des espaces et plateformes virtuels, etc. De son côté, la marque concurrente a lancé les lunettes de réalité mixte Nreal Light l’année dernière en Corée du Sud. Et prochainement, elle prévoit de les mettre sur le marché américain.

Certes, Unreal n’a pas encore développé des dispositifs AR/VR, contrairement à Nreal, mais son intérêt pour le secteur est évident.

Le procès

Avant d’en arriver au procès, des discussions ont eu lieu entre les deux marques. Malheureusement, elles ne sont pas parvenues à trouver un terrain d’entente, car les deux parties sont bien décidées à défendre leurs noms.

Cela fait déjà plusieurs années que Unreal revendique l’exclusivité sur le nom, par rapport à Nreal. Mais ce fut sûrement la décision de cette dernière à intégrer le marché américain qui a conduit au procès. Ainsi, Epic s’attend à ce que Nreal modifie le nom de la marque, et réclame des dommages-intérêts.

Néanmoins, d’après le porte-parole de l’accusée, cette poursuite judiciaire serait infondée. Nreal s’attribue une réputation qui serait le fruit de l’innovation et de ses performances en termes de réalité augmentée. Pour appuyer son argument, le porte-parole évoque les développeurs et les consommateurs asiatiques et européens qui la considèrent comme une start-up révolutionnaire.

Pourtant, ce n’est pas la première fois que Nreal et Unreal se trouvent mêlé à un procès. En effet, Nreal a déjà fait l’objet d’une poursuite pour vol de secrets industriels, bien que la plainte avait été rejetée. D’autre part, Unreal a également entamé un procès contre Apple au début du mois de mai.

Cet article Nreal vs Unreal : le procès entamé par Epic Games a été publié sur Réalité-Virtuelle.com.

Holo-Podium : les premiers appels holographiques

Par : Vonintsoa
Holo-podium

Le nouveau Holo-Podium de DVE transforme les appels vidéos en présentations holographiques.

Grâce à cette nouvelle technologie, un appel passé depuis les plateformes comme Zoom devient instantanément un hologramme. Désormais, les réunions holographiques peuvent se faire sans utiliser des lunettes de réalité augmentée.

DVEholographics lance Holo-Podium

Rappelons, d’abord que DVEholographics est un fournisseur de solution holographique de travail collaboratif. Ils ont annoncé une nouvelle expérience pour des réunions holographiques plus économiques et plus pratiques. En effet, cette nouvelle technologie permet aux entreprises d’éviter les locations de studios et des matériels de production qui coûtent chers. Par ailleurs, l’Holo-Podium offre des hologrammes compatibles avec les plateformes de communications telles que Zoom, Microsoft Teams et Webex.

Les images projetées sont de haute qualité avec la technologie HDR. De plus, il est possible de générer ces hologrammes peuvent depuis n’importe quel espace de travail même avec des ressources limitées.

Leur ancienne solution holographique, Light Mesh a été adoptée par beaucoup d’utilisateurs dans le monde, d’après Steve McNelley, directeur général de DVEholographics. Toutefois, les systèmes d’affichages ne satisfont pas tous les clients. Mais avec l’écran transparent proposé par l’Holo-Podium, les images 3D sont plus claires et plus détaillées grâce aux micro-pixels de lumières. D’autant plus que les communications en vidéo holographiques peuvent désormais se passer des lunettes de réalité augmentée. Autrement dit, les appels peuvent être passés à partir de votre maison ou de votre bureau.

Pratique, économique et rapide

En offrant des écrans transparents HDR, DVE amoindrit le nombre de matériels nécessaires pour les réunions collaboratives. En d’autres termes, il n’y a nul besoin d’utiliser des projecteurs ni de configurer l’éclairage de la salle. L’un des plus grands avantages est aussi la possibilité d’utiliser l’Holo-Podium avec les différentes plateformes de visioconférences. De ce fait, des milliers d’utilisateurs peuvent accéder à ce service.

En matière de coûts, outre la réduction des matériels, vous pouvez rayer la location de studio de la facture. En effet, une contrainte des précédentes méthodes de travail collaboratif était l’obligation de réserver des salles dédiées. Maintenant, les collaborateurs peuvent communiquer à partir de différents endroits simplement depuis une application. Cela va sans dire, cela va permettre à l’entreprise d’économiser du temps et de l’argent. Adopter des nouvelles technologies de communication contribuera, d’ailleurs, à augmenter la productivité.

Cet article Holo-Podium : les premiers appels holographiques a été publié sur Réalité-Virtuelle.com.

Des hologrammes 3D interactifs qui flottent dans les airs

Par : Vonintsoa
Hologrammes 3D

Des chercheurs de l’Université Brigham Young ont développé des hologrammes en 3D sans avoir recours à un smartphone ou à un casque de réalité augmentée.

L’équipe de recherche a créé une animation holographique 3D avec des faisceaux lasers et une particule flottante dans les airs. Autrement dit, l’image peut être visualisée sans utiliser un smartphone ou un casque AR dédié.

Des hologrammes 3D avec des faisceaux lasers

Le groupe de chercheurs sur le thème de l’holographie utilise des faisceaux lasers pour piéger une particule dans l’air. Ces faisceaux permettent de diriger la particule dans différentes directions. En les déplaçant suffisamment vite, cela crée des animations holographiques colorées qu’on peut voir sous différents angles. Par ailleurs, il n’est pas nécessaire d’utiliser un smartphone ou un casque AR pour visionner les images.

Dans une vidéo postée sur YouTube, Dan Smalley, professeur en ingénierie électrique, fait une démonstration. Il s’agit des hologrammes en 3D de USS Enterprise et un Klingon Warbird. L’animation montre une bataille de 4 minutes, avec des tirs de torpilles à photons, des lasers et des explosions.

Smalley précise que les images ne sont pas générées par un ordinateur, comme les hologrammes dans les films. Il s’agit d’une scène réelle, avec des faisceaux lasers qui se déplacent dans l’espace entre les deux vaisseaux.

L’origine du projet

Il y a trois ans, les chercheurs ont mis sur pied le dispositif Optical Trap Display (OTD). Il permet de produire des petits hologrammes 3D dans les airs. Par la suite, Smalley et son équipe de chercheurs ont développé leur technologie pour créer des animations. Aujourd’hui ils expérimentent des productions holographiques proches du Holodeck dans Star Treck ou le mode de communication dans Star Wars.

L’image créée peut interagir avec l’espace ou les objets physiques réels. Toutefois, étant donné qu’elle utilise une seule particule, cette interactivité reste limitée. Les hologrammes 3D peuvent apparaître dans le champ d’un écran volumétrique fixe. Les particules flottantes dans l’espace de cet écran peuvent donc servir à produire des animations à l’échelle de ce volume. Il est tout à fait possible de créer un hologramme de grande taille, à condition d’avoir le volume d’écran adéquat. 

Néanmoins, la parallaxe de mouvement peut créer une illusion optique pour afficher l’image en plus ou moins grande taille, en fonction de votre position. Selon Smalley, il est possible de créer de reproduire des scènes extérieures, comme une lune au-delà des fenêtres.

Cet article Des hologrammes 3D interactifs qui flottent dans les airs a été publié sur Réalité-Virtuelle.com.

Locomotion Vault : plus de 100 mouvements VR répertoriés

Par : Vonintsoa
Locomotion Vault

Locomotion Vault est une base de données qui répertorie plus de 100 techniques de locomotion en réalité virtuelle.

La locomotion est un élément fondamental en termes de réalité virtuelle car l’expérience et le confort de l’utilisateur se basent sur elle. Cette ressource permet aux développeurs d’analyser toutes les locomotions répertoriées et prendre des décisions appropriées.

Le Locomotion Vault

Depuis la conception de la technologie VR, les chercheurs et les développeurs ont créé un nombre impressionnant de locomotions. Chacune d’elles présente ses propres avantages, mais aussi ses inconvénients. Le Locomotion Vault répertorie plus de 100 techniques de locomotion pour comprendre l’espace et identifier les faiblesses pour une amélioration.

Ce projet de recherche a réuni Massimiliano Di Luca, Simon Ega et Hasti Seif qui viennent des universités de Birmingham, Washington et Copenhague ainsi que Mar Gonzalez-Franco du Microsoft Research. La base de données interactive contient 109 techniques de mouvement en réalité virtuelle classées en fonction de leurs attributs. Il peut s’agir de la posture, la vitesse, le multitâche, l’énergie, l’incarnation, et tant d’autres. 

Le Locomotion Vault peut également accueillir de nouvelles données. Pour les intégrer, il suffit de cliquer sur l’option «Entrer une nouvelle technique» depuis le site web. Les attributs servent à comparer les similarités entre les différentes techniques. Par ailleurs, les chercheurs affirment avoir choisi une approche automatisée pour que la base de données évolue avec la technologie.

Pour quel intérêt ?

L’objectif du Locomotion Vault est de fournir un large panel de techniques de locomotion pour faciliter la navigation et la visualisation. De cette manière, les développeurs et praticiens peuvent identifier les éventuelles lacunes et ainsi établir de nouvelles techniques plus appropriées.

Selon les chercheurs, cet outil contribue à développer le domaine de la locomotion. De plus, ce sera un support pour la découverte et la mise en œuvre de nouvelles méthodes de locomotions, en tenant compte des lacunes observées. D’autre part, le Locomotion Vault donne une longueur d’avance sur les nouveaux défis et enjeux de l’innovation technologique.

En d’autres termes, à court terme, ce projet aide à améliorer les techniques de locomotion actuelles. Et dans une vision plus lointaine, il vise également à soutenir les futures découvertes en matière de réalité virtuelle.

Cet article Locomotion Vault : plus de 100 mouvements VR répertoriés a été publié sur Réalité-Virtuelle.com.

Painting VR pour Quest : réveillez l’artiste qui sommeille en vous !

Par : Serge R.
painting vr

Painting VR est un simulateur de peinture qui vient de faire son entrée sur le marché. Pour le moment, l’application est disponible en accès anticipé exclusivement sur le Quest et le Quest 2 d’Oculus, même si son développeur envisage de l’étendre sur d’autres plateformes. Elle est donc disponible sur Oculus App Lab au prix d’environ 8 euros.

Les applications VR de peinture artistique disponibles sur le Quest, on en compte déjà pas mal à l’heure actuelle. On peut citer, entre autres, Gravity Sketch, Kingspray, et bien entendu Tilt Brush. Toutefois, les applis qui se concentrent exclusivement sur la peinture sur toile virtuelle sont assez rares. Heureusement, Painting VR vient de débarquer sur le casque VR d’Oculus pour le grand plaisir des artistes numériques. Elle leur permet ainsi de mélanger et d’utiliser des quantités illimitées de peinture fraîche sur des toiles virtuelles réalistes.

Painting VR : la solution pour devenir un véritable artiste

Selon son développeur Oisoi Studio, Painting VR est une application à la fois facile à comprendre et très pratique. De plus, elle s’adresse à tous les âges. Elle permet donc à tout le monde, notamment aux débutants, d’apprendre les bases des couleurs. Il en est de même pour la composition et le processus de peinture.

D’après le studio, elle constitue d’ailleurs une bonne solution permettant aux utilisateurs d’aiguiser leurs compétences. Pour cela, ils peuvent expérimenter des outils et des techniques à portée de main. Ils auront alors l’opportunité de faire partie d’une nouvelle vague d’artistes numériques.

Le meilleur avec Painting VR, c’est qu’on n’a pas à se soucier du nettoyage après chaque séance de peinture. À noter toutefois que l’application restera en accès anticipé pendant environ un an selon Oisoi Studio. Néanmoins, les utilisateurs auront droit à de nouvelles mises à jour tous les trimestres.

Des mises à jour régulières apportant plein de nouveautés

D’après Oisoi Studio, la prochaine mise à jour de Painting VR ajoutera donc davantage d’outils de création dans l’application. La mise à jour suivante, quant à elle, se focalisera sur la connexion avec les autres utilisateurs et le monde. Pour ce qui est de la troisième mise à jour, elle apportera la possibilité d’ajouter de nouveaux outils et environnements.

Cet article Painting VR pour Quest : réveillez l’artiste qui sommeille en vous ! a été publié sur Réalité-Virtuelle.com.

L’Oculus Quest pourrait bientôt prendre en charge certaines applications Android

Par : Serge R.
quest android

Certaines applications Android pourraient être disponibles sur Oculus Quest prochainement. Effectivement, TheMysticle, un Youtubeur spécialisé dans la réalité virtuelle, vient d’annoncer sur Twitter qu’il a vu des applis Android dans sa librairie Oculus ce week-end. Il en a donc fait des captures d’écran qu’il a partagées sur son compte Twitter.

Suite à des rapports d’utilisateurs disant que des applications Android sont apparues dans leur bibliothèque Quest, TheMysticle a partagé ces captures d’écran sur Twitter. Apparemment, ces applis ont fait leur apparition dans la section « preview » de la librairie. Il s’agit bien entendu de la section employée pour l’accès anticipé à des applications natives d’Oculus. Dans tous les cas, il faut savoir que rien n’est encore officiel du côté de Facebook.

This was brought up on our discord today and I just had to check it out to make sure it was real. It sure is! These are under preview apps in the store. The developer name in info is "Android Apps For Quest" and the website seems to be Oculus. Are they finally adding popular apps pic.twitter.com/aUuTuTowLz

— TheMysticle (@TheMysticle) May 7, 2021

Applications Android sur Quest : les applis les plus populaires à l’honneur ?

D’après les captures d’écran partagées par TheMysticle, on retrouve surtout dans sa bibliothèque Quest des applications Android populaires. Parmi celles-ci, on compte donc TikTok, Zoom, Candy Crush, Spotify, et même Among Us.

Bien qu’elles soient apparues dans la librairie Quest, personne n’a cependant réussi à les lancer. Après tout, Facebook n’a encore rien révélé quant à la validité des différentes images publiées. Il en est de même pour la prise en charge d’applications Android sur ses casques VR à l’avenir.

Toutefois, il est tout de même fort probable que les casques Oculus Quest pourraient un jour prendre en charge ces fameuses applications. Il ne faut pas en effet oublier que ces appareils tournent sous une version adaptée du système d’exploitation de Google.

Prise en charge d’applications Android : le Quest ne sera pas le premier à le faire ?

Il est bon de souligner que, même si le Quest d’Oculus prendra un jour en charge des applications Android, il ne sera pas le premier à le faire. Effectivement, le casque VR Daydream autonome de Google et Lenovo, Mirage Solo, a déjà pu les exécuter. Pour cela, il a juste eu besoin de quelques ajustements simples au niveau de son back-end.

Dans tous les cas, une telle fonctionnalité pourrait être bénéfique pour les professionnels puisqu’ils pourront travailler en VR avec l’appli Infinite Office sur Quest. Mais pour le moment, on attend encore une réponse officielle de Facebook et d’Oculus.

Cet article L’Oculus Quest pourrait bientôt prendre en charge certaines applications Android a été publié sur Réalité-Virtuelle.com.

Des avatars photoréalistes pour la plateforme Arthur

Par : Vonintsoa
Arthur avatars photoréalistes

Les développeurs de Arthur Technologies viennent de dévoiler leurs dernières mises à jour, à savoir l’extension des salles et la possibilité de créer des avatars photoréalistes. 

Arthur est une plateforme collaborative lancée par Oculus Quest en mars dernier. Il s’agit d’une solution pour les entreprises qui souhaitent mettre en place des bureaux virtuels pour collaborer à distance.

Arthur lance les avatars photoréalistes

La plateforme est disponible en mode grand public pour les startups et les professionnels individuels, si le mode Pro est encore au stade bêta. Toutefois la nouvelle fonctionnalité des avatars photoréalistes est disponible pour les deux versions de l’application Arthur. Les avatars sont générés automatiquement et les lèvres sont synchronisées pour donner l’impression de discuter avec une vraie personne. Ils disposent également d’un large garde-robe pour intensifier l’effet réaliste.

La version Pro dispose de plus de fonctionnalités que les entreprises peuvent expérimenter. L’extension des salles de réunions offre la possibilité de recevoir 50 participants en réalité virtuelle. Autrement dit, il est désormais possible d’organiser des réunions internes à plus grande échelle.

Par ailleurs, l’intégration des zones audio apporte des options supplémentaires. Par exemple, il est possible d’avoir des conversations privées en sous-groupe lors des réunions. La synthèse vocale permet aussi à chaque utilisateur de créer des notes par commande avec sa voix.

Un espace virtuel convivial

Christoph Fleischmann, fondateur et directeur général, décrit Arthur comme une plateforme plus entreprenante que les autres espaces de travail collaboratifs. Il n’est pas uniquement question de créer une salle de réunion virtuelle. Selon lui, il est utilisé pour des séances de brainstorming à grande échelle. Il permet d’avoir recours à des outils comme un tableau blanc, un organigramme, etc. en temps réel. L’objectif est de créer un environnement virtuel qui permet aux collaborateurs de l’entreprise d’être plus productifs. L’application met en place un lieu de rencontre convivial entre les collègues. Et grâce aux avatars photoréalistes, Arthur accentue encore plus cet aspect.

Les utilisateurs émettent un avis positif sur les fonctionnalités de l’application et quant à leurs futures collaborations, d’après Fleischmann. Les développeurs continuent d’améliorer la plateforme pour répondre aux besoins des entreprises qui ne cessent d’évoluer. Et bien avant la mise en ligne des avatars photoréalistes sur Arthur, les entreprises du Fortune 500 et des organisations telles que les Nations Unies, l’ont déjà adopté.

Cet article Des avatars photoréalistes pour la plateforme Arthur a été publié sur Réalité-Virtuelle.com.

HeavyM 2 Live logiciel de VidéoMapping pour tous

HeavyM 2 Live

Une mise à jour majeure du logiciel de VidéoMapping HeavyM en version 2 arrive dans nos contrées. Une nouvelle interface, un nouveau séquenceur équiper d’un nouveau moteur graphique, d’outils de dessin et de courbes de Bézier, et bien sur de nouveaux effets avec les ISF Shaders. Résolument pensé pour les créatifs cette nouvelle version d’HeavyM 2 intègre des effets visuelles génératifs pour du dessin prêts à l’emploi sans passer par du After Effects ou autres, de synchroniser la musique en audioréactif ou d’importer vos contenus pour créer une expérience visuelle très rapidement. Compatible Win ou Mac, Spout ou Syphon, clavier ou contrôle Midi. Intègre un gestionnaire de médias avec playlist.

HeavyM 2 live est à 249 €, pour le lancement il est proposé avec 20 % de réduction pour passer à 199 € jusqu’au 16 mai 2021.

La version HeavyM 2 Pro proposera des résolutions illimitées, du DMX et du NDI avec des conseils d’experts, des accès aux services pro et plus, sortie à venir dans quelques mois.

HeavyM 2 Live

HeavyM 2 Live logiciel de VidéoMapping pour tous est un billet de LeCollagiste VJ.
LeCollagiste VJ - Mag du LeCollagiste, actu sur la culture VJING, Vidéo Mapping, info video et high tech.

RenderMan 24 en approche : le point sur les avancées, l’impact sous Houdini

Par : Shadows

A l’occasion du FMX 2021, Sarah Forcier (lead developper du plugini RenderMan for Houdini chez Pixar) a présenté la future version 24 de RenderMan, dont le lancement est imminent.

9to3 Animation (studio néerlandais spécialisé dans le rendu stylisé) qui et SideFX étaient également présents, afin d’aborder le rendu non photoréaliste et l’usage de RenderMan 24 en tandem avec Houdini.

Voici la vidéo de la présentation, suivie d’un résumé des points essentiels.

XPU : l’avenir de RenderMan

Le moteur de rendu de Pixar a beaucoup à gagner avec cette mise à jour. Une des nouveautés les plus attendues : XPU, nouvelle génération de RenderMan centrée sur le lookdev et qui permet d’utiliser toutes les ressources disponibles (CPU et GPU) sur le rendu de la même image. Encore limité en termes de fonctionnalités, XPU aura vocation à remplacer l’implémentation actuelle de RenderMan, à terme.

A 4 minutes 45 dans la vidéo, nous avons droit à un comparatif XPU vs RIS (le moteur actuel). L’avantage de XPU est très net.
Le « time to first pixel », autrement dit le temps nécessaire avant d’avoir les premiers pixels rendus, s’effondre : même si la convergence n’est pas encore totale à ce stade, le premier aperçu est quasi instantané ;

En termes de look dev (qui est le focus de XPU pour le moment), là encore le gain est clair : changer la couleur d’un élément, par exemple, donne un retour visuel bien plus rapide que sous RIS.

A partir de 5 minutes 50, des tests sont proposés avec une scène lourde, puis une animation : là encore XPU surpasse nettement RIS. Dans le cas de l’animation, XPU permet même un aperçu de l’animation complète, même si évidemment le rendu reste bruité.
Tous les tests présentés ont été effectués avec 16 cores et une RTX 6000.

Un Lama venu d’ILM

A partir de 11 minutes 50, Sarah Forcier présente Lama (pour Layered Material), un système issu des avancées technologiques d’ILM.
Lama est une approche modulaire qui permet de combiner des matériaux ; une série de nodes disponibles avec RenderMan 24 pourront donc être utilisés, superposés, combinés avec des opérateurs de façon à créer des matériaux complexes.
Vers 12 minutes 55, l’exemple d’un shader de type car paint donne une bonne idée de la manière dont ces calques peuvent se combiner.

Rendu stylisé

A partir de 15 minutes 35, place au rendu stylisé sous RenderMan avec 9to3Animation. Le studio présente son travail et propose ensuite des démonstrations concrètes.

Mais encore ?

Outre les points déjà évoqués, RenderMan 24 proposera aussi :

  • des Patterns convertis en OSL ;
  • de nouveaux Patterns dont Bump2Roughness (qui permet de simuler de micro-rayures sur les surfaces) ;
  • le support OpenColorIO, ACES ;
  • des statistiques temps réel ;
  • l’échantillonnage Blue-noise, qui permettra une convergence plus rapide en rendu interactif.

Pour en savoir plus

Nous aurons l’occasion de revenir sur ces avancées lors de la sortie effective de RenderMan 24. D’ici là, notez que Progiss, partenaire de 3DVF, est revendeur RenderMan et propose également des formations : n’hésitez pas à les contacter par téléphone au 01 49 89 07 90 ou par mail : info@progiss.com.

RenderMan est disponible dans la boutique 3DVF.fr (750€ HT avec un an de maintenance) ; le site officiel du moteur propose de son côté une version gratuite à usage non commercial qui pourra vous permettre de tester l’outil.

L’article RenderMan 24 en approche : le point sur les avancées, l’impact sous Houdini est apparu en premier sur 3DVF.

Isotropix dévoile Clarisse 5

Par : Shadows

L’éditeur français Isotropix a dévoilé Clarisse 5, nouvelle version de sa solution de set dressing, lookdev, lighting et rendu.

Les nouveautés sont nombreuses ; on notera ainsi :

  • l’arrivée de vues orthographiques pour le viewport ;
  • affichage de différents guides de composition (règle des tiers, par exemple) en surimposition ;
  • nouveau Graph Editor ;
  • nouvel exporter USD, meilleur surpport des variants USD ;
  • amélioration du support des variables globales ;
  • rendu plus rapide, de l’ordre de x1,5 en raytracing, optimisations également en path tracing avec des gains très dépendants du contenu de la scène ;
  • amélioration des techniques d’anti aliasing ;
  • emission importance sampling ;
  • lights géométriques ;
  • nouveau moteur SSS ;
  • support Autodesk Standard Surface ;
  • amélioration de l’Attribute Editor ;
  • support de la VFX Platform 2020 ;
  • nouvelle architecture unifiée ;

Pour en savoir plus, on se rendra sur le site officiel. La keynote ci-dessous détaille également les avancées.
Enfin, notez que la version d’apprentissage (Personal Learning Edition /PLE) est mise à jour et peut désormais tourner à la fois en mode iFX et BUiLDER.

L’article Isotropix dévoile Clarisse 5 est apparu en premier sur 3DVF.

Stipple, un plugin Unity pensé pour les nuages de points

Par : Shadows

Light & Shadows, société française spécialisée dans les solutions VR/AR/MR/XR, nous dévoile son nouveau produit : Stipple.

Import, édition, visualisation, VR

Il s’agit d’un plugin d’import, visualisation et édition des nuages de points sous Unity. La solution est bien évidemment pensée pour pouvoir afficher des nuages très lourds : jusqu’à 5 milliards de points, promet Light & Shadows. De quoi, par exemple, ingérer sans broncher des données issues de lourdes séances de scan 3D.

Light & Shadows explique que son produit a été développé en partenariat avec le CEA (Commissariat à l’énergie atomique et aux énergies alternatives).

Stipple supporte différents formats (.e57, .pts, .ptx, .las), dispose d’outils d’édition variés (possibilité de couper/recadrer le nuage pour supprimer des éléments, de couper/coller une portion de nuage.
Autre fonction utile, la possibilité surligner visuellement les différences entre un nuage de points et un modèle 3D, ce qui peut s’avérer utile, par exemple, pour comparer un scan et un modèle BIM. Il est ainsi possible de comparer les plans théoriques d’un bâtiment avec ce qui a effectivement été construit.

Enfin, Stipple est compatible avec la visualisation en VR.

Contraintes et modèle économique

Stipple est uniquement compatible Windows. En revanche, il ne nécessite pas de licence Unity Pro. L’outil est proposé sous forme de licence annuelle et dispose d’une version d’essai 7 jours.

Pour plus de détails, on se rendra sur le site officiel.

L’article Stipple, un plugin Unity pensé pour les nuages de points est apparu en premier sur 3DVF.

Krita imite Blender et lance un fonds de développement

Par : Shadows

Par le passé, l’équipe derrière le logiciel de digital painting et animation 2D libre et gratuit Krita avait fait appel au développement participatif pour financer son travail. Nous avions d’ailleurs plusieurs fois relayé ces campagnes.

Depuis, Blender a mis en place son Development Fund, un fonds de développement qui a permis avec succès d’assurer un financement à la fois important et régulier (137 000€ mensuels à l’heure où nous écrivons ces lignes).
Un succès qui n’est manifestement pas passé inaperçu : Krita se dote désormais d’un fonds similaire.

Le but est donc de financer à long terme Krita en toute indépendance, qu’il s’agisse du coeur du code, de projets spéciaux ou encore des tâches telles que la gestion des bugs, le travail lié aux patchs, la documentation.

A l’heure actuelle, le Development Fund totalise un millier d’euros par mois. En comptant également les dons ponctuels, l’équipe explique disposer d’environ 4000€ par mois.
Le but serait de grimper à 25 000€, afin de soutenir le coeur de l’équipe de développement sans dépendre des revenus liés aux app stores.

Cette démarche est intéressante, ne serait-ce que du point de vue du financement des outils libres : elle va permettre de vérifier si la stratégie de Blender est applicable à d’autres projets de moins grande ampleur.

Ci-dessous : des tutoriels sur les bases du dessin et de l’animation sous Krita.

L’article Krita imite Blender et lance un fonds de développement est apparu en premier sur 3DVF.

SideQuest : une nouvelle application Android disponible pour le sideloader des applis

Par : Serge R.
SideQuest

SideQuest débarque désormais sur Android, et propose ainsi une nouvelle application pour le chargement de contenu sur le Quest d’Oculus. Les utilisateurs peuvent donc dorénavant laisser de côté leur PC pour ce faire. L’appli est déjà disponible sur Google Play dès maintenant.

Pour rappel, la plateforme de sideloading SideQuest a vu le jour en 2019, peu de temps après le lancement du Quest d’origine. Il s’agit d’une alternative incontournable à l’Oculus Store. On peut donc y retrouver les applications qui n’ont pas été validées pour sortir sur cette boutique. Pour sideloader des jeux ou des applis sur Quest, on avait toujours besoin d’un PC et d’un câble USB vers USB C. Maintenant, on peut délaisser ces derniers grâce à la nouvelle application Android de la plateforme.

Nouvelle application Android SideQuest : comment ça marche ?

Grâce à la nouvelle application de SideQuest, on peut désormais charger tout contenu de l’App Lab répertorié sur la plateforme à partir d’un smartphone Android compatible. Il en est de même pour les autres contenus qu’on peut sideloader sur Quest et Quest 2.

Le contenu App Lab sélectionné est donc ajouté au compte Facebook de l’utilisateur. Il peut ensuite y accéder très rapidement dans son casque VR. Pour les autres jeux ou applications qu’on peut sideloader, ils peuvent être transférés sur ce dernier via un câble USB C à partir du téléphone Android.

À noter qu’il est possible de laisser de côté ce câble et se tourner vers une option sans fil, mais la configuration est plus complexe. Il faut d’ailleurs savoir que certains projets disponibles sur SideQuest nécessitent des fichiers de jeu. Ceux-ci sont à placer dans un dossier sur le casque. On peut obtenir ces fichiers sur Steam, par exemple. Toutefois, leur chargement sur Quest sans PC semble encore être une tâche difficile.

Cet article SideQuest : une nouvelle application Android disponible pour le sideloader des applis a été publié sur Réalité-Virtuelle.com.

Sculptez en VR avec ShapeLab

Par : Shadows

Découvrez ShapeLab, solution de sculpture en réalité virtuelle éditée par Leopoly. Après une alpha qui a permis d’obtenir des retours d’artistes, l’outil est disponible en accès anticipé sur Steam. Néanmoins, passez plutôt par le formulaire de beta test sur le site officiel : il est a priori encore possible de pouvoir tester l’outil gratuitement, en acceptant évidemment de faire part de vos retours à l’éditeur.

Compatible avec les principaux casques du marchés, ShapeLab s’appuye sur de la sculpture de mesh polygonal et cible à la fois les novices et artistes expérimentés.

La vidéo ci-dessous vous donnera une idée de l’état actuel du produit ; vous trouverez également plus bas quelques exemples de réalisations ayant fait appel à ShapeLab.

L’article Sculptez en VR avec ShapeLab est apparu en premier sur 3DVF.

❌