Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Intel Jasper Lake, des circuits graphiques Gen11 sur Celeron et Pentium ?

Par Pierre Lecourt

Les Intel Atom ont vécu, on n’entend plus trop parler de ces processeurs aujourd’hui dans l’offre du fondeur pour le grand public. Ils restent cependant au cœurs de plusieurs puces puisque leur architecture Goldmont a servi de structure à des processeurs comme les Pentium et Celeron Gemini Lake par exemple. Les fameux Celeron N4100 ou Pentium N5000 offrent des performances très convaincante dans une foule d’usages pour une consommation très basse. Ce qui les rends particulièrement adaptés à un emploi dans nos minimachines.


The Intel Pentium Silver and Intel Celeron processors are based on Intel’s architecture codenamed Gemini Lake, and are engineered for a great balance of performance and connectivity for the things people do every day with great battery life(Credit: Intel
Mais il reste un hic, leur circuit graphique n’est pas aussi performant que leur coeur qui vient de l’architecture Skylake d’Intel. Si les puces arrivent a faire tourner des jeux 3D en basse définition ou en limitant les détails techniques, ce ne sont pas des monstres en terme de performances.

Cela pourrait changer avec la suite, les puces Jasper Lake d’Intel pourraient tout simplement passer à l’architecture graphique Intel Gen11, la même que celle présente dans les processeurs Intel Core de dixième génération. On ne retrouvera probablement pas le haut du panier en terme de circuit graphique Intel dans ces puces entrée de gamme mais cela pourrait avoir tout de même un impact important à l’usage.

2019-03-26 10_36_35-minimachines.net

Combinée avec l’annonce de puce Elkhart Lake proposant elles aussi un circuit graphique Intel Gen11, on dirait que l’offre du fondeur devrait sauter un pallier en terme de performances graphiques. Mais celles-ci engageront la nouvelle architecture Intel Tremont en 14 nanomètre. Ce sera là une différence notable avec Jasper Lake qui devrait quand a elle débarquer en 10 nanomètres.

Le site Phoronix indique qu’il a pu noter la présence de ce passage à la Gen11 sur les puces entrée de  gamme dans le code de Linux ces derniers mois. Ce qui suggère fortement ce changement majeur chez Intel. Chrome Unboxed de son côté note que le dépôt de Chromium a pris en compte la prise en charge des Jasper Lake ce qui pourrait laisser entendre l’arrivée de processeurs Intel de ce type dans de futures Chromebooks.

L’avenir de ces processeurs se jouera donc sur plusieurs tableaux : Elkhart Lake en 14 nm contribuera à la naissance de nouveaux Atom – probablement pour l’industrie – de Celeron et de Pentium avec un coeur graphique plus performant en 2D, en vidéo et en 3D tout en proposant une architecture de base plus puissante en calcul. Suivront les Jasper Lake en 10 nm qui devraient optimiser ce mouvement et peut être apporter plus de mémoire cache à ces puces. Dans tous les cas ces évolutions sont à la fois bonnes et nécessaires.

Bonnes parce qu’en augmentant les performances de son entrée de gamme, le fondeur s’oblige a répercuter cette hausse sur le reste de son offre. Intel ne peut pas se contenter de proposer plus de performances aux Pentium et Celeron sans toucher un tant soit peu aux capacités des Core.

Nécessaires parce que Intel perd de plus en plus de parts de marché sur le segment. Pris en tenailles entre AMD et ses offres Ryzen et ARM, le fondeur doit renouveler ses puces pour leur redonner de l’attrait. Si la marque parvient a hisser le niveau des Celeron et des Pentium à un niveau suffisamment élevé, ces puces qui correspondent parfaitement à un usage familial pourront en plus proposer des compétences 3D plus proches des besoins d’un joueur occasionel qui voudra lancer une petite partie de LoL ou de Fortnite.

Source : Liliputing

Intel Jasper Lake, des circuits graphiques Gen11 sur Celeron et Pentium ? © MiniMachines.net. 2019

Mudbox passe en version 2020 : derrières les promesses d’Autodesk, la déception

Par Shadows

Souvenez-vous : fin 2017, Autodesk lançait Mudbox 2018.1. Product manager de l’outil, Jill Ramsay avait alors multiplié les propos rassurants : oui, Autodesk avait conscience de la lenteur du développement de Mudbox ces dernières années, oui, la frustration était compréhensible. Mais, insistait Autodesk, les choses allaient changer et les futures mises à jour feraient la preuve d’une vraie volonté d’amélioration de l’outil de sculpture 3D.

Retour en 2019. Autodesk vient de lancer Mudbox 2020. L’aide officielle détaille les nouveautés :
– deux bugs corrigés sous Mac ;
– la possibilité d’envoyer directement des données vers Autodesk Flame et réciproquement : le lien entre les outils permet par exemple d’envoyer de la géométrie depuis Flame vers Mudbox, de la modifier puis de la renvoyer vers Flame.

Aucune autre nouveauté n’est annoncée. Sur les forums officiels, un utilisateur a lancé un sujet demandant si cette mise à jour “était une blague”. Nous vous laisserons le soin de répondre par vous-mêmes à cette question.

En parallèle, l’équipe ZBrush poursuit sa politique de mises à jour régulières riches en fonctionnalités et améliorations.

L’article Mudbox passe en version 2020 : derrières les promesses d’Autodesk, la déception est apparu en premier sur 3DVF.

RADI-RAF 2019 : Rumba, en embuscade, compte se faire une place dans l’animation

Par Shadows

Mercenaries Engineering est un nom désormais bien connu dans le secteur 3D. L’entreprise française a su grignoter des parts de marché dans un domaine compétitif avec Guerilla, sa solution de look dev, assemblage de scène, lighting et rendu pour l’animation et les VFX.

Nous vous l’avions déjà annoncé : Mercenaries ne compte pas en rester là et planche sur un outil d’animation 3D nommé Rumba. Quelques démonstrations brèves ont eu lieu, notamment à Annecy, mais les RADI-RAF ont été l’occasion de proposer un aperçu plus abouti et surtout, filmé par nos soins. On appréciera au passage le fait que Mercenaries ait opté pour une démo en direct et non pré-enregistrée.

Voici donc la vidéo de cette conférence, qui vous permettra de vous faire un avis sur cette nouvelle solution avant son futur lancement.

L’article RADI-RAF 2019 : Rumba, en embuscade, compte se faire une place dans l’animation est apparu en premier sur 3DVF.

RADI-RAF 2019 : l’outil d’animation Akeytsu se présente

Par Shadows

L’été dernier, nous vous proposions un point sur le développement de l’outil d’animation 3D akeytsu, de la société Nukeygara.

A l’occasion des RADI-RAF 2019, nous avons retrouvé l’équipe qui nous a cette fois proposé une démonstration des possibilités du produit, ainsi qu’un point sur la roadmap. Attention toutefois sur cette dernière : comme précisé dans la conférence, certains éléments sont susceptibles d’évoluer.

Rappelons enfin qu’une version d’essai du produit est disponible sur le site officiel.

L’article RADI-RAF 2019 : l’outil d’animation Akeytsu se présente est apparu en premier sur 3DVF.

In Moore we trust : Intel voit le futur (lointain) en 1.4 nm

Par Pierre Lecourt

Réduire sa finesse de gravure n’est pas une mince affaire. Passer de 14 nm à 1.4 nm représente un défi tellement énorme que même si les dates annoncées par Intel sont lointaines, on reste tout de même dans le domaine de la science fiction pour le moment. Cette communication doit donc être prise pour ce qu’il en est, une simple… communication.

2019-12-12 11_36_40-minimachines.net

Prix 2019 du PDF illisible attribué à l’unanimité

Il s’agit en réalité d’une présentation issue d’un partenaire d’Intel qui reprendrait la rhétorique de ce dernier pour ouvrir la porte sur un futur possible de la marque. Intel n’est pas assez bête pour livrer ce genre de documents au public directement, sachant que derrière cette publication il aurait a subir les remarques assassines de tout ceux qui le voient actuellement peiner a produire des puces en 10 nanomètres.

Est-ce pour autant une vision impossible du futur du fondeur ? Un simple contre feu à destination de ses clients qui pourraient se tourner vers AMD ou ARM ? Pas si sûr ou tout du moins pas si totalement irréalisable que cela. L’approche de la marque laisse a réfléchir sur ses ambitions.

2019-12-12 11_37_39-minimachines.net

En bas lmes dates, en rouge les finesses de gravure…

Ce calendrier d’Intel est très impressionnant. Le détail de son avancée technologique telle que la marque l’anticipe est étonnant. La marque prévoit d’arriver à 7 nm en 2021 puis de poursuivre soin effort vers le 5 nm en 2023, le 2 nm en 2025, le 2 nm en 2027 et le 1.4 nm en 2029. Si le 1.4 nm cristallise les regards, les précédents pas qui pavent la route des bonnes intentions d’Intel sont tout aussi impressionnant.

La marque reprendrait surtout sa mécanique de développement en deux temps, le fameux tick-Tock abandonné il y a quelques années. Passer d’une évolution de finesse de gravure la première année à une optimisation du processus la seconde. Et ainsi de suite de 2023 à 2025 puis 2027 et 2029… 

Il va sans dire qu’avec le mouvement actuel, un processus empêtré dans le 14 nm depuis 2014 et peinant a proposer du 10 nm cette année, le fondeur aura du mal a convaincre sans d’autres éléments que cette promesse de sa vision de l’avenir. Outre le fait qu’il est difficile de savoir ce qu’il se passera réellement dans le monde en 2029 et quelles seront les priorités du public, ce voyage vers une architecture extrêmement petite est un pari difficile a tenir. Il faudra insuffler une quantité phénoménale de moyens pour parvenir à ce résultat. Une perfusion en continu de Recherche et Développement intensif accompagné de montagnes de dollars en investissement dans les usines de fabrication des puces.

2019-12-12 11_48_07-minimachines.net

Le jeu en vaudra probablement la chandelle d’un point de vue résultats. Optimiser et réduire la finesse de gravure des processeur est un enjeu important pour optimiser leur performances en condensant plus composants au mm². C’est également un moyen de réduire leur tarif en fabricant plus de puces sur un même wafer. Enfin, c’st une façon de reprendre sa place de leader sur ce marché désormais dominés par des sociétés comme TSMC, Samsung et Global Foundries en terme d e capacité de gravure.

Alors communication rassurante vers les partenaires et les actionnaires alors qu’ARM et AMD touchent du doigt le 7 nm ? Auto-encouragement interne façon plan quinquennal ? Vrai plan découlant de travaux réalisés par le fondeur qui pourraient effectivement être mis à profit ? L’avenir nous le dira. Pour le moment il s’agit uniquement d’un document électronique interne qui n’aurait en tout logique jamais dû atterrir en ligne.

Source : Anandtech

In Moore we trust : Intel voit le futur (lointain) en 1.4 nm © MiniMachines.net. 2019

RADI-RAF 2019 : avec The Beast Makers, animez des textures 2D sur votre 3D

Par Shadows

Nous poursuivons la mise en ligne de nos captations des RADI-RAF 2019 d’Angoulême avec la conférence de la société française The Beast Makers. Christophe Petit, directeur technologique/rig supervisor, nous a offert une démonstration prometteuse de leur solution d’animation d’éléments 2D sur des modèles 3D.

Concrètement, l’outil TBM 2D Texture fonctionne sous Maya et s’avère parfait pour animer des personnages cartoon. Avec entre autres une gestion d’effets de perspective, la démo proposée nous a semblée très convaincante : cils, effet de profondeur au niveau de la bouche, bump, compatibilité large avec les moteurs de rendu, on sent que l’outil a été bien pensé. Déjà éprouvé en production, le plugin est actuellement en version 0.2 mais la 1.0 beta est disponible sur demande. Elle apporte notamment une interface dédiée.

Si TBM 2D Texture est payant, les écoles peuvent de leur côté en bénéficier gratuitement.

L’article RADI-RAF 2019 : avec The Beast Makers, animez des textures 2D sur votre 3D est apparu en premier sur 3DVF.

Le moteur de rendu Arnold passe en V6 : le GPU à l’honneur

Par Shadows

Enfin ! Avec la nouvelle version 6 d’Arnold, il devient enfin possible de faire des rendus à la fois sur CPU et GPU.

Le nouveau mode Arnold GPU s’appuie sur NVIDIA OptiX et est optimisé pour tirer parti de la technologie RTX : une carte graphique récente sera donc bienvenue même si pas indispensable.
Si Arnold GPU avait été dévoilé en beta en mars dernier, la version 6 en fait un véritable outil de production, avec support des fonctions essentielles. Reste toutefois encore quelques limitations : une poignée de LPEs, de lights et de shaders ne sont pas encore gérés. La documentation vous donnera le détail de ces restrictions.

Outre Arnold GPU, le moteur de rendu progresse en ce qui concerne USD avec une collection de composants dédiés.
Enfin, une série d’optimisations sont annoncées :

faster creased subdivisions, Physical Sky shader improvements, dielectric microfacet multiple scattering, improved Oren-Nayer Diffuse Roughness Mapping, better rough thin wall transmission in Standard Surface shader, and more accurate albedo AOVs.

Arnold 6 est disponible dès à présent, en souscription standalone ou via les collections Autodesk. Arnold GPU est disponible via les plugins Maya, Max, Houdini, Cinema 4D, Katana.

L’article Le moteur de rendu Arnold passe en V6 : le GPU à l’honneur est apparu en premier sur 3DVF.

Maya 2020 dévoilé : vraies avancées ou annonces cosmétiques ? A vous de juger

Par Shadows

Autodesk dévoile en vidéo Maya 2020, avec “plus de 60 mises à jour en animation, de nouvelles fonctions dans Bifrost, la dernière version d’Arnold pour rendre à la fois sur GPU et CPU”.
En voici donc un aperçu global :

Revenons maintenant plus en détails sur ces annonces :

Animation

Cached Playback : arrivé avec la version 2019, il s’agit pour rappel d’un processus d’arrière-plan qui accélère le playback de l’animation, de façon à pouvoir analyser l’animation directement dans le viewport. La version 2020 supporte dynamics, image planes, aperçu lissé des meshes, plugins personnalisés et même un nouvel aperçu Ghosting.

Layered dynamics caching : le calcul des dynamics et de l’animation principale sont traités séparément. En ayant les dynamics sur un calque secondaire, on peut continuer à travailler et voir les simulations comme le cloth et les muscles en temps réel tout en animant.

Pour les image planes, si une séquence d’images est appliquée, elle sera aussi stockée par Cached Playback, pour accélérer le playback.

Smooth Mesh Preview utilise moins de mémoire, et s’appuie sur le GPU si possible. Une optimisation qui devrait être appréciable sur les scènes lourdes, où les limites mémoires sont rapidement atteintes.

Les utilisateurs techniques peuvent créer des ensembles de configurations personnalisées pour le comportement de Cached Playback sur les nodes qu’ils construisent. De quoi prioriser ce qui doit ou non être mis en cache.

Le nouvel aperçu Ghosting permet comme son nom l’indique de voir les positions et mouvements passés/futurs. Il est par ailleurs possible de colorer les meshes et de supprimer les textures, pour plus de clarté.

Un nouveau système de favoris pour l’animation permet de marquer, naviguer dans et organizer des évènements dans le temps.

Pour plus de détails sur les nouveautés en animation, on se reportera à la liste complète des avancées. Au menu, comme l’esquisse la vidéo de départ : fonctions audio, raccourcis, amélioration du mode tangent, …

Rendu

Maya intègre la nouvelle version 6 d’Arnold, utilisable à la fois en mode CPU et GPU. Passer d’un mode à l’autre se fait rapidement, tout en conservant les paramètres.
Le mode GPU repose sur NVIDIA OptiX et est optimisé pour NVIDIA RTX.

Un second article détaillera Arnold 6 d’ici quelques minutes.

Bifrost

Autodesk annonce plus de performances, de stabilité pour Bifrost, mais aussi le support du Cached Playback, un meilleur support Arnold, des nouvelles contraintes MPM Cloth, plus de graphes préconstruits pour mieux démarrer, et une centaine de bugs éliminés.

Viewport

Autodesk indique avoir amélioré le viewport : vous devriez constater en particulier une nette amélioration en travaillant sur de la géométrie dense ou sur un grand nombre de petit meshes dans le viewport et les éditeurs UV. D’autres cas tels que l’utilisation d’Isolate Select ont aussi été améliorés.

Modélisation

Un nouvel outil Remesh vous permet de spécifier où vous voulez plus de détails en affinant la topologie sur la zone voulue. Il est aussi possible de re-trianguler le mesh pour uniformiser la densité.

En parallèle, Retopologize permet comme son nom l’indique de générer rapidement une nouvelle topologie propre et respectant le mesh de départ. Parfait pour nettoyer un modèle.

Rigging

Les nouveaux nodes matrix-driven transform et operation aident à alléger vos scènes. Avant cette mise à jour, explique Autodesk, la plupart des contraintes dans Maya faisaient leurs calculs sous forme matricielle avant de décomposer le résultat (échelle, rotation, translation) pour contrôler une autre transformation. Ces valeurs étaient ensuite utilisées par driven transform pour créer une nouvelle matrice et calculer sa position.

Le nouveau workflow passe tout simplement outre les étapes de décomposition/composition, tout en conservant accessibles les données utiles en animation (échelle, rotation, translation). Les riggers n’ont plus besoin de créer autant de nodes DAG pour les animateurs.

Autodesk recommande de se rapporter à la documentation pour mieux comprendre les implications et possibilités de cette évolution.

Les nodes Proximity et UV Pin peuvent être utilisés pour tracker précisément des positions sur une géométrie qui se déforme. Les nodes peuvent par exemple être employés pour l’utilisation de props sur un personnage (bouton de chemise) ou pour mettre en place un rig contraint.

Le nouveau deformer Proximity Wrap, accéléré par GPU, allège l’usage mémoire et bénéficie de performances accrues.

La liste exhaustive des avancées est disponible chez Autodesk.

Rappelons que vous pouvez retrouver Maya dans la boutique 3DVF.fr, que vous souhaitiez une licence 1 mois, 1 an ou 3 ans, monoposte ou réseau. En cas de question sur ce produit, n’hésitez pas à contacter notre partenaire Progiss, par téléphone au 01 49 89 07 90 ou par mail : info@progiss.com
Notez également que l’équipe Progiss est à votre disposition pour vous proposer des présentations des logiciels de la boutique, que ce soit dans leurs locaux (Villepinte, à côté de Paris) ou dans les vôtres.

L’article Maya 2020 dévoilé : vraies avancées ou annonces cosmétiques ? A vous de juger est apparu en premier sur 3DVF.

« Instrument Studio VR » vous met aux commandes d’un studio d’enregistrement

Par Pierrick LABBE
« Instrument Studio VR » vous met aux commandes d'un studio d’enregistrement

Vous avez toujours rêvé d’être aux commandes d’un studio ? D’enregistrer des tubes ? De devenir le nouveau roi de la musique ? Cela pourrait (presque) être possible avec « Instrument Studio VR ». On fait les présentations.

Derrière ce projet très particulier, on trouve le musicien irlandais Paul Cullen, qui a passé deux ans a apprendre le développement en réalité virtuelle. Il a été accepté dans le programme Oculus Start en 2018, un programme de la filiale de Facebook destiné aux développeurs indépendants d’applications en réalité virtuelle.

« Instruments Studio VR », une touche indie, une vibe pro

Il est accompagné de Kenny et Carl, des spécialistes de l’audio qui appartiennent à Relish, un groupe irlandais connu. Leur objectif est de permettre à tous ceux qui ont envie de se lancer dans la musique de pouvoir composer facilement. Or, si c’est en effet plus facile, le prix des instruments et des studios d’enregistrement restent des barrières majeures. Ils espèrent en venir à bout grâce à « Instrument Studio VR » qui permet à des musiciens de créer et enregistrer de la musique, simplement grâce à un casque de réalité virtuelle et à des contrôleurs.

Le résultat est plutôt intéressant, notamment grâce à une latence faible et à des réponses dynamiques dans les tons et les volumes. Le retour haptique vous permet aussi de sentir ce que vous touchez et jouer. Pour se déplacer dans le studio, c’est très facile avec les contrôleurs. On appréciera particulièrement le goût des détails. Comptez 20 dollars pour vous procurer « Instrument Studio VR » sur le Rift. L’Oculus Quest et le Valve Index sont les prochains.

Cet article « Instrument Studio VR » vous met aux commandes d’un studio d’enregistrement a été publié sur Réalité-Virtuelle.com.

Toutes les applications Quest qui prennent en charge le suivi des mains

Par Pierrick LABBE
Applications jeux logiciels suivi des mains Oculus Quest

Voici une liste de tous les logiciels prenant en charge la fonctionnalité de suivi des mains ainsi que les développeurs avec des applications Quest qui prévoient de prendre en charge la fonctionnalité lors de la sortie du kit de développement logiciel.

Oculus vient d’annoncer qu’une mise à jour logicielle serait déployée cette semaine et permettrait le hand-tracking sur le casque de réalité virtuelle autonome Quest. Cette annonce a surpris car la sortie de cette fonctionnalité n’était attendue que pour le début de l’année 2020. Une bonne surprise donc avant noël. Cependant, pour fonctionner, celle-ci doit avoir des applications adaptées. Voici donc la liste des applications prenant déjà en charge ce suivi et celles a venir lorsque le SDK pour développeurs sera disponible. Le kit de développement pour développeurs est annoncé pour le 16 décembre.

Les applications Oculus Quest compatibles avec le suivi des mains

Voici toutes les applications qui prennent déjà en charge le suivi des mains sur Oculus Quest. Notez que vous ne pourrez utilise cette fonction que lorsque vous aurez mis à jour votre casque de réalité virtuelle autonome à la version V12. Il faudra aussi activer la fonction dans le menu.

Accueil et menus d’Oculus Quest

L’environnement Oculus Quest Home et tous les menus associés prennent en charge le suivi des mains au lancement. Vous pourrez sélectionner, faire défiler et naviguer dans Oculus Home, y compris la bibliothèque et le magasin, sans contrôleurs Oculus Touch.

Navigateur Oculus

Le navigateur Oculus prend en charge le hand-tracking depuis le lancement. Cela signifie que vous n’avez pas besoin de tenir les contrôleurs tactiles lorsque vous naviguez sur Internet avec votre Quest.

Oculus TV

Oculus TV prend également en charge le suivi des mains au lancement, vous permettant de mettre en pause, de lire et de parcourir des vidéos sans avoir besoin de contrôleurs tactiles.

Configuration du gardien stationnaire

Vous pourrez également installer une barrière de gardien fixe et utiliser vos mains pour régler la hauteur du sol en utilisant le suivi des mains. Cela signifie que vous pourrez essentiellement configurer votre environnement, mettre en place un tuteur et commencer à parcourir les menus sans avoir besoin de contrôleurs tactiles du tout.

Jeux et applications Quest prenant en charge le suivi des mains

Pour le moment, aucun éditeur de jeux ou d’applications pour Quest n’a indiqué qu’il offrirait cette fonctionnalité. Et pour cause, le kit de développement pour les développeurs ne sera disponible qu’à partir du 16 décembre. Il faudra aussi un peu de temps aux développeurs pour intégrer cette fonction et la tester pour ensuite proposer une mise à jour de leur jeu ou application prenant en compte cette fonction.

De nombreux jeux et applications nécessitent l’usage d’un contrôleur pour interagir avec le monde virtuel. Il est donc fort possible que de nombreux jeux ne puissent pas être compatibles avec cette fonction ou que l’intérêt de celle-ci soit très limité. Nous continuerons cependant à mettre à jour cet article car nul doute que des applications et de jeux tiers prendront en charge le suivi des mains prochainement. N’hésitez pas à nous laisser un commentaire pour nous avertir si un studio annonce cette prise en charge.

Cet article Toutes les applications Quest qui prennent en charge le suivi des mains a été publié sur Réalité-Virtuelle.com.

Une solide mise à jour pour Terragen

Par Shadows

Terragen passe en version 4.4 ; derrière cette numérotation se cachent des avancées majeures.

En effet, le path tracer proposé en interne, jusqu’ici loin d’être finalisé, a gagné en fonctionnalités : il est désormais officiellement présenté comme utilisable en production.
Concrètement, le path tracing supporte les mêmes fonctions que le rendu standard, tout en apportant un gain significatif en réalisme. Les scènes complexes, par exemple avec beaucoup de végétation ou en interieur, sont très largement améliorées.
Mieux encore, le path tracer gagne en vitesse par rapport à la 4.3 grâce à un meilleur échantillonnage et une gestion des ombres plus intelligente.

Outre l’illustration d’en-tête signée Terje Hannisdal, voici quelques cas concrets de rendus réalisés avec le path tracer :

Doug Campbell
Terje Hannisdal
David Guegain

Optimisé par rapport à la 4.3, le Robust Adaptive Sampler devient la méthode d’échantillonnage par défaut. Il devrait améliorer la qualité des rendus dans tous les scénarios nécessitant un échantillonnage poussé, par exemple pour le rendu de nuages.

D’autres avancées sont annoncées ; on retiendra notamment un rendu plus rapide des nuages, une amélioration de l’aperçu raytracé.

Pour la liste complète des améliorations, on consultera le site officiel.

L’article Une solide mise à jour pour Terragen est apparu en premier sur 3DVF.

MaryTV Goes Global with Medialooks Video Transport

Par Desert Moon Communications

MaryTV Goes Global with Medialooks Video Transport Medjugorje, Bosnia and Herzegovina – December 5, 2019 – MaryTV, a lay apostolate that produces a full-time OTT television channel broadcasting Masses, prayers, rosaries, adorations, press conferences and other events on a daily basis, has integrated Medialooks Video Transpor​t into the channel’s workflow. Medialooks is a specialist provider ...

The post MaryTV Goes Global with Medialooks Video Transport appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Le New York Times mise sur la réalité augmentée contre la pollution

Par Pierrick LABBE
New York Times pollution

Une nouvelle visualisation pour les appareils iOS propose de la réalité augmentée pour découvrir la pollution géolocalisée. On fait les présentations avec un projet engageant du New York Times.

Cela fait plusieurs années que le célèbre journal américain mise sur la réalité augmentée pour raconter le journalisme 2.0 mais l’entreprise avait ralenti sérieusement ces derniers mois. Bonne nouvelle, le changement de stratégie n’était à priori que temporaire.

Compare your city’s air with the World’s most polluted air, in #AugmentedReality pic.twitter.com/Irntp5xNam

— Karthik Patanjali (@kartpat) December 3, 2019

Rendez la pollution visible avec le New York Times

C’est une publication qui s’avère séduisante et riche en promesses quand à ce que le New York Times peut faire en réalité augmentée. L’expérience nommé « See How the World’s Most Polluted Air Compares With Your City’s » (voyez comment les endroits les plus pollués au monde sont, comparés à votre ville), permet d’afficher la concentration en microparticules, aussi connues sous le nom de PM2.5, directement à travers l’application du journal.

Quatre environnement sont disponibles. Le premier correspond à ce que l’EPA (l’agence environnementale américaine) considère comme un environnement sain. Le second vous permet de voir comment sont les choses dans la ville où vous vous trouvez. Les deux suivants montrent des cas extrêmes. Le premier concerne la baie de San Francisco après les incendies de Camp Fire, le suivant est la ville de New Delhi, qui fait partie des pires villes du monde d’un point de vue de la pollution de l’air. Un concept à la fois séduisant et effrayant mais surtout particulièrement informatif. Une bonne manière de rendre visible un problème particulièrement important et qui affecte notre santé.

Cet article Le New York Times mise sur la réalité augmentée contre la pollution a été publié sur Réalité-Virtuelle.com.

Avec I am Jesus Christ, vous incarnez le fils de Dieu en réalité virtuelle

Par Pierrick LABBE
I am Jesus Christ

Avec le jeu « I am Jesus Christ », vous pouvez incarner celui qui, selon la Bible, serait le fils de Dieu. Une expérience en réalité virtuelle très particulière mais qui s’avère plutôt séduisante.

Et si vous deveniez, l’espace de quelques heures, le fils de Marie et Joseph, né  à Bethléem et accomplir des miracles ? C’est l’intrigante promesse en réalité virtuelle que vous propose l’éditeur polonais PlayWay que vous pouvez découvrir dans le trailer ci-dessous.

« I am Jesus Christ », sur les traces du Nouveau Testament

C’est une expérience très particulière qui vient d’être dévoilée avec une première bande annonce pour le moins originale. « I am Jesus Christ », vous permet donc d’incarner ni plus ni moins que le fils de Dieu dans une expérience pour le moins surprenante. Derrière ce projet quasi-divin, on trouve l’éditeur polonais PlayWay qui a déjà proposé de multiples jeux délurés sur PC et mobile. On se souviendra par exemple de « Thieft Simulator VR » qui vous mettait dans la peau d’un voleur ou bien encore du plus sage « I am your principal », qui vous mettait à la tête d’un établissement scolaire.

Deux expériences qui avaient déjà rencontré un certain public, mais le studio pousse encore plus loin la provocation avec « I am Jesus Christ ». Selon la page Steam du jeu, vous allez donc vous retrouver sur les pas de Jésus Christ il y a environ 2.000 ans, durant les événements du Nouveau Testament. Depuis le baptême, jusqu’à la résurrection, à vous de façonner l’histoire de la religion… Tentés par cette expérience pas banale qui sortira prochainement ?

Cet article Avec I am Jesus Christ, vous incarnez le fils de Dieu en réalité virtuelle a été publié sur Réalité-Virtuelle.com.

Unreal Engine 4.24 disponible, Unreal Studio prend sa retraite

Par Shadows

Epic Games profite du début de la semaine pour lancer la nouvelle version de son moteur de jeu Unreal Engine.

La principale évolution est la mise à la retraite de la version Unreal Studio, pourtant lancée il y a moins de deux ans. Il s’agissait d’un ensemble d’outils et ressources destinés aux secteurs de l’architecture, industrie, simulation, etc.
Pour autant, Studio ne meurt pas vraiment : toutes les fonctionnalités associées arrivent dans Unreal Engine. C’est par exemple le cas de Datasmith, un ensemble d’outils de conversion de scènes depuis Max, SketchUp Pro, Cinema 4D et plusieurs outils CAD/BIM. En parallèle, un nouveau système Dataprep visuel permet de faciliter la préparation des données quelle que soit la source.

On notera aussi le support USD, la possibilité d’accéder gratuitement aux Quixels Megascans dans la marketplace et via Quixel Bridge (suite à l’annonce du rachat de Quixel par Epic Games le mois dernier).

L’article Unreal Engine 4.24 disponible, Unreal Studio prend sa retraite est apparu en premier sur 3DVF.

Adobe poursuit ses ambitions en 3D via un rachat surprenant auprès d’Oculus

Par Shadows

Avec le rachat d’Allegorithmic puis la création d’une branche “3D & Immersive”, Adobe avait envoyé un message clair : le groupe comptait bien ne plus laisser de côté ce segment du marché de la création.

Sébastien Deguy (ancien dirigeant d’Allegorithmic et désormais Vice-Président – 3D & Immersive chez Adobe) confirme cette volonté et annonce le rachat d’un outil de modélisation et création 3D. La cible peut en revanche surprendre : il s’agit de Medium, logiciel lancé en 2016 par Oculus (qui fait partie du géant Facebook).
Plutôt qu’un outil de modélisation et création 3D classique, Adobe fait donc le pari de l’immersion. Il faut dire que Medium a su montrer ses qualités, et des artistes l’utilisent pour des concepts, du jeu vidéo ou encore des projets VR et VFX.

Côté Oculus, on peut voir dans ce rachat une volonté de se recentrer et de passer la main sur le domaine créatif, qui n’est sans doute pas le coeur de compétence de l’équipe. Transmettre le produit à un éditeur tiers est sans doute un bon moyen de lui assurer un avenir, tout en monétisant au passage les efforts de développement accomplis (précisons que le montant de la transaction n’est pas détaillé).

Oculus Medium est compatible Oculus Rift et Rift S. Il est disponible pour une trentaine d’euros, ou gratuitement lors de l’achat des nouveaux contrôleurs Oculus Touch.
Précisons enfin que l’annonce chez Oculus promet de nouvelles fonctions et améliorations dès 2020.

L’article Adobe poursuit ses ambitions en 3D via un rachat surprenant auprès d’Oculus est apparu en premier sur 3DVF.

USD : au-delà du buzz, que donne la technologie en pratique ? Pixar s’explique

Par Shadows

Lors du SIGGRAPH 2019, le système Universal Scene Description (USD) était LA technologie sur toutes les lèvres. Le support USD va par ailleurs arriver dans différents outils logiciels du marché très rapidement. D’où une question inévitable : concrètement, que donne USD ?

Pixar, qui est à l’origine de cette technologie, nous propose justement de le découvrir dans un article dédié.
Le studio s’appuie ici sur un cas concret : la production de Toy Story 4, dont le pipeline était très fortement centré sur USD :

Le pipeline standard de Pixar. Ci-dessous, les éléments du pipeline qui s’appuient sur USD.

Efficacité créative, collaboration entre départements, processus d’approbation facilité, aspect non destructif, système de variations qui donne un meilleur contrôle artistique pour chaque plan, optimisation mémoire… A en croire le studio, les avantages sont immenses.

Nous vous invitons donc à consulter l’article dédié de Pixar, en attendant que les mises à jour n’apportent USD dans les principaux logiciels du marché. Houdini supporte déjà cette technologie, et Maya ne devrait pas tarder à suivre le chemin.

L’article USD : au-delà du buzz, que donne la technologie en pratique ? Pixar s’explique est apparu en premier sur 3DVF.

Le studio d’Apollo 11 VR vient de lancer l’expérience Shuttle Commander

Par Pierrick LABBE
Shuttle Commander

Si vous avez un faible pour la réalité virtuelle éducative et la conquête spatiale, alors « Immersive VR Education » a une nouvelle petite surprise pour vous avec une mission pour le PlayStation VR baptisée Shuttle Commander.

C’est un studio qui a déjà pu faire « Apollo 11 VR » en 2016 et « Titanic VR » en 2018. La nouvelle mission en réalité virtuelle nous emmène, cette fois, vers l’espace, dans le télescope Hubble.

Shuttle Commander, l’Europe en premier

Depuis quelques jours, les utilisateurs européens ont pu découvrir une belle petite surprise baptisée « Shuttle Commander ». Plutôt rare, elle ne sera disponible aux Etats-Unis sur le casque PlayStation VR que dans quelques jours, le 11 décembre 2019. Voici la description que le studio fait de cette nouvelle expérience. « Célébrez les découvertes et expérimentez comment cet appareil remarquable a changé notre compréhension de l’univers qui nous entoure grâce à des visualisations scientifiques basées sur des données réelles découvertes par le télescope spatial Hubble au cours des 3 dernières décennies. Faites voler la navette spatiale dans une expérience réaliste physiquement, avec l’atterrissage ou encore la prise de contrôle des équipements. Vous pourrez aussi observer la Terre passer à travers un cycle jour / nuit ».

Pour l’instant l’expérience en réalité virtuelle Shuttle Commander est uniquement disponible avec le casque PlayStation VR de Sony mais elle devrait bientôt l’être aussi sur les casques compatibles Steam VR. Si c’est votre cas, il ne reste plus qu’à s’armer de patience avant de vous lancer dans la conquête spatiale qui s’annonce grandiose. Apollo 11 VR et Titanic VR du studio Immersive VR Education sont effectivement très réussi. Nul doute que ce soit aussi le cas avec cette nouvelle expérience.

Cet article Le studio d’Apollo 11 VR vient de lancer l’expérience Shuttle Commander a été publié sur Réalité-Virtuelle.com.

Comment télécharger des vidéos à 360 degrés sur YouTube

Par Gwendal P
vidéos 360 vr 360 degrés top meilleures sélection

Lorsque l’on souhaite profiter d’une vidéo à 360 degrés, le mieux est de pouvoir y avoir accès à tout moment. Pour cela, le meilleur moyen est de la télécharger. Il existe plusieurs méthodes pour y parvenir. 

La réalité virtuelle se développe et se démocratise de plus en plus auprès du grand public. La technologie embarquée par les casques s’améliore constamment, ce qui leur permet d’afficher une qualité d’image toujours plus nette et précise. Cet outil est ainsi un support pertinent pour regarder des vidéos, et plus particulièrement des vidéos à 360 degrés. Celles-ci permettent à l’utilisateur de regarder partout autour de lui afin d’observer le paysage dans son intégralité. Nous ne voyons plus seulement ce qu’une caméra classique peut nous montrer. Au contraire, c’est là une véritable expérience immersive qui propose plusieurs lectures en fonction de l’angle de vue choisi.

Télécharger les vidéos 360° pour les emporter partout

YouTube est l’une des premières plateformes à avoir joué un rôle majeur dans la mise en avant des vidéos à 360 degrés. Elles ont commencé à faire leur apparition sur le site dès 2014 alors que la réalité virtuelle prenait véritablement son essor. Aujourd’hui, l’application YouTube VR est disponible pour les casques Vive de HTC et ceux d’Oculus. Elle permet de consulter avec ces appareils toutes les vidéos disponibles. Mais elle possède quelques contraintes qui peuvent rendre l’expérience pas tout le temps satisfaisante. 

Pour remédier à cela, le meilleur moyen est de directement télécharger les vidéos à 360 degrés présentes sur YouTube. Et cela, afin de pouvoir les emporter partout avec soi, et d’en profiter même en l’absence d’une connexion à internet. Il existe de nombreuses solutions pour télécharger ces vidéos, mais toutes ne se valent pas. Certaines méthodes opèrent depuis un site web qui se charge de récupérer le fichier désiré et de le réencoder dans un format peu lourd. Même si cette manière de faire est simple, il ne faut pas s’attendre à obtenir la vidéo dans une qualité optimale. 

 

4K Video Downloader : Le logiciel parfait pour télécharger des vidéos 360° sur YouTube

L’autre manière de faire consiste à utiliser un logiciel dédié au téléchargement de vidéos sur YouTube. 4K Video Downloader est un logiciel gratuit qui permet de télécharger tous types de vidéos depuis Youtube, mais aussi d’autres plateformes comme Facebook ou Vimeo. Comme son nom l’indique, il respecte la qualité originale de la source et télécharge les vidéos en haute définition (HD, 4K, 8K…). En outre, ce logiciel prend en charge les vidéos à 360 degrés. Les tutoriels pour télécharger une playlist YouTube sont très simples et tout est clairement expliqué.

Se pose alors la question de la légalité d’une telle action. Télécharger une vidéo, à 360 degrés ou non, n’est pas interdit, à condition que l’utilisation soit à titre personnel. YouTube le précise sur son site. En revanche, il est aussi mentionné que l’ayant droit doit avoir donné son accord au préalable. Il est donc recommandé de demander cette autorisation avant de télécharger des vidéos sur YouTube.

Cet article Comment télécharger des vidéos à 360 degrés sur YouTube a été publié sur Réalité-Virtuelle.com.

Nous cherchons des animateurs high tech H/F (VR, AR, robotique, IoT…)

Par Gwendal P
recrutement animateur vr

Pour renforcer notre équipe événementielle, nous cherchons des animateurs High Tech polyvalents.

PRÉSENTATION DE L’ENTREPRISE :

Leader des médias en ligne spécialisés dans les nouvelles technologies (réalité virtuelle, réalité augmentée, objets connectés, big data, intelligence artificielle, etc.) nous recherchons des collaborateurs freelances (statut autoentrepreneur obligatoire) pour des missions récurrentes d’animation.

DESCRIPTION DU POSTE :

Agence spécialisée dans les animations basées sur les nouvelles technologies, également leader des médias en ligne spécialisés dans les nouvelles technologies (réalité virtuelle, réalité augmentée, objets connectés, big data, intelligence artificielle, etc.), nous recherchons des animateurs High Tech à Paris & en France pour des missions régulières (plus de 30 par mois).

Il s’agit d’animations type soirée d’entreprise, salons, journée de découverte innovation, journées porte ouverte. La prestation comprend la prise en charge du matériel et l’installation/démontage de l’animation.

– Animation réalité virtuelle et augmentée : proposer des expériences basées sur les casques de réalité virtuelle type HTC Vive, Oculus Rift/Quest, Oculus Go.
– Animation drones : animation de courses de drones volants et roulants
– Animation objets connectés : présentation d’une sélection d’objets connectés à un public professionnel
– Animation robotique : échanges sur scène avec un robot et un intervenant, présence de robot sur un salon pour attirer des visiteurs

Pour toutes ces animations, l’expérience n’est pas requise, mais une vraie appétence pour les nouvelles technologies et une adaptabilité/réactivité en situation sont exigées.

Des formations sont dispensées pour chaque type d’animation.

DESCRIPTION DU PROFIL ANIMATEUR HIGH TECH

Bac +2 minimum
Maîtrise des outils informatiques
– Technophile, geek
– Excellent relationnel, réactivité
– Prise d’initiatives & autonomie
– Sang froid & improvisation

Dynamique, polyvalent(e), impliqué(e) et organisé(e).

Envoyez votre CV à    

Cet article Nous cherchons des animateurs high tech H/F (VR, AR, robotique, IoT…) a été publié sur Réalité-Virtuelle.com.

Une mise à jour pour l’adaptateur infrarouge SmartGUS

Par Pierre Dandumont

La dernière fois que j’avais parlé des adaptateurs SmartGUS, qui permettent d’utiliser les anciennes télécommandes infrarouge Apple sur un Mac récent, j’avais noté un petit défaut : impossible de désactiver l’adaptateur sous macOS depuis High Sierra. Et bien c’est corrigé.

La FAQ donne le lien vers une mise à jour. Il suffit de brancher un adaptateur, lancer le programme (clic droit, ouvrir) et attendre quelques secondes. La mise à jour est automatique.

Une fois que c’est fait, l’adaptateur peut être désactivé dans les options de macOS (Préférences Système, Sécurité et confidentialité, Avancé…). Avant la mise à jour, la case n’avait pas d’effet avec les adaptateurs depuis macOS High Sierra. Maintenant, ça fonctionne (même sous Catalina). C’est intéressant de voir une correction de ce type, elle montre que le développeur effectue un suivi de son produit. Parce qu’en pratique, ce n’est pas un bug bloquant : comme l’adaptateur utilise l’USB, il suffit de le débrancher pour le désactiver…

GUS devices


La case fonctionne

Dreamworks dévoile Dragons : Flight Academy, une nouvelle expérience

Par Pierrick LABBE
Expérience en réalité virtuelle Dragons : Flight Academy

L’entreprise de réalité virtuelle localisée Dreamscape Immersive continue sur sa bonne habitude en proposant une nouvelle expérience qui s’inscrit dans la continuité du film « How to Train Your Dragon », sorti en 2010 et baptisée Dragons : Flight Academy.

Ce nouveau projet pourrait donc réaliser le rêve de beaucoup d’amateurs d’héroïc fantasy. Concrètement, vous pourrez voler sur le dos d’un dragon en réalité virtuelle, avec huit autres personnes comme dans le film.

Dragons : Flight Academy, une expérience à tester

Vous pouvez en profiter dès maintenant de Dragons : Flight Academy et ce jusqu’au début du mois de janvier dans les deux sites de l’entreprises, qui se trouvent à Dallas et à Los Angeles. Une liste qui limite considérablement les possibilités pour ceux qui se trouvent en Europe, en attendant que l’entreprise ne s’étende ou que son expérience en réalité virtuelle ne soit reprise par d’autres spécialistes de la réalité virtuelle se déroulant dans des endroits comme celui-ci.

Le prix est de 20 dollars par ticket et l’expérience dure 35 minutes. Le prix est donc plutôt honnête par rapport à la longueur et à la qualité de l’expérience. Attention, il serait conseillé de se présenter 15 minutes avant au moins. Dragons : Flight Academy n’est qu’une des expériences que propose Dreamscape Immersive. Il y a aussi une option avec Men in Black qui a été annoncée, mais dont les tickets ne sont pas encore annoncés à la vente. En attendant vous pouvez notamment profiter de The Blu : Deep Rescue. A chaque fois, vous pourrez vous déplacer librement et profiter du retour haptique.

Cet article Dreamworks dévoile Dragons : Flight Academy, une nouvelle expérience a été publié sur Réalité-Virtuelle.com.

Globecast strengthens Asian management team with appointment of Tan See Chai as Head Sales – Distribution

Par Jump

Globecast, the global solutions provider for media, has further strengthened its management team in Asia with the appointment of Tan See Chai as Head of Sales – Distribution. Beginning at the start of January 2020 and based in Singapore, See Chai will report to Shakunt Malhotra, Globecast Asia MD. See Chai is responsible for sales ...

The post Globecast strengthens Asian management team with appointment of Tan See Chai as Head Sales – Distribution appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Bambi, un court trash et WTF de Joseph Melhuish

Par Shadows

Joseph Melhuish présente Bambi, un court-métrage qui avait été diffusé sur Adult Swim. Très décalé, le film nous présente la jeune Bambi, qui a décidé de vivre en harmonie avec les ordures.

L’article Bambi, un court trash et WTF de Joseph Melhuish est apparu en premier sur 3DVF.

Chiens, tirs et blessures pour John Wick 3 : El Ranchito dévoile les coulisses du film

Par Shadows

Le studio El Ranchito présente son travail sur le film John Wick Parabellum, troisième opus de la licence. L’équipe du studio a notamment géré plusieurs plans avec des chiens numériques (décès d’un animal, attaque d’un figurant), ajouté des effets liés aux nombreuses armes à feu, mais aussi créé plusieurs blessures.

L’article Chiens, tirs et blessures pour John Wick 3 : El Ranchito dévoile les coulisses du film est apparu en premier sur 3DVF.

Entre Pokémon et dragons, une nouvelle bande démo de créatures pour Image Engine

Par Shadows

Image Engine met à jour sa bande démo créatures, avec des personnages très variés : entre Game of Thrones et le film Pokémon, en passant par des robots, les artistes du studio ont eu l’occasion de gérer une grande diversité de sujets.

L’article Entre Pokémon et dragons, une nouvelle bande démo de créatures pour Image Engine est apparu en premier sur 3DVF.

V-Ray Next disponible pour Revit

Par Shadows

Chaos Group lance V-Ray Next for Revit. La nouvelle version de son moteur de rendu propose de nombreuses avancées : meilleure intégration Revit, nouvel éditeur d’assets, un “gestionnaire d’apparence” qui permet de basculer automatiquement les assets vers des versions plus réalistes au moment du rendu, meilleure interopérabilité vers et depuis d’autres outils 3D comme Max, Rhino ou SketchUp, mise au point de la caméra par simple clic dans le viewport, simplification et amélioration des outils d’éclairage, outil d’analyse de l’éclairage, refonte des effets d’objectif de caméra, support des decals, denoising NVIDIA…
Outre ces nombreuses améliorations de workflow, V-Ray Next propose aussi et surtout un gain en performances de l’ordre de x2 en moyenne, tandis que le rendu GPU dispose de davantage de fonctionnalités.

L’article V-Ray Next disponible pour Revit est apparu en premier sur 3DVF.

❌