Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 11 décembre 2019Vos flux RSS

RADI-RAF 2019 : avec The Beast Makers, animez des textures 2D sur votre 3D

Par Shadows

Nous poursuivons la mise en ligne de nos captations des RADI-RAF 2019 d’Angoulême avec la conférence de la société française The Beast Makers. Christophe Petit, directeur technologique/rig supervisor, nous a offert une démonstration prometteuse de leur solution d’animation d’éléments 2D sur des modèles 3D.

Concrètement, l’outil TBM 2D Texture fonctionne sous Maya et s’avère parfait pour animer des personnages cartoon. Avec entre autres une gestion d’effets de perspective, la démo proposée nous a semblée très convaincante : cils, effet de profondeur au niveau de la bouche, bump, compatibilité large avec les moteurs de rendu, on sent que l’outil a été bien pensé. Déjà éprouvé en production, le plugin est actuellement en version 0.2 mais la 1.0 beta est disponible sur demande. Elle apporte notamment une interface dédiée.

Si TBM 2D Texture est payant, les écoles peuvent de leur côté en bénéficier gratuitement.

L’article RADI-RAF 2019 : avec The Beast Makers, animez des textures 2D sur votre 3D est apparu en premier sur 3DVF.

NVIDIA lance un nouveau Studio Driver

Par Shadows

Dans la foulée des annonces Autodesk sur Maya 2020 et Arnold 6, NVIDIA se félicite : le constructeur a en effet travaillé main dans la main avec l’éditeur pour certaines optimisations GPU.
En parallèle, NVIDIA indique aussi la sortie d’un nouveau pilote NVIDIA STUDIO. Estampillé 441.66, il propose des améliorations et un support optimal en prenant en compte Arnold 6, Maya 2020 et Unreal Engine 4.24.

Mais au fait, qu’est-ce qu’un driver NVIDIA Studio ?

Profitons de cette mise à jour pour rappeler ce qu’est et ce que n’est pas un driver estampillé NVIDIA Studio.
NVIDIA propose en fait deux types de drivers GeForce :

– Les drivers Game Ready, fréquemment mis à jour ;

– Les drivers NVIDIA Studio, mis à jour de façon moins rapprochée.

Les premiers sont surtout destinés aux joueurs invétérés qui veulent disposer aussi vite que possible des derniers correctifs pour leurs jeux, et qui lorsqu’ils lancent une application souhaitent qu’elle dispose de toute la puissance disponible.

Les drivers NVIDIA Studio, eux, se destinent plutôt aux besoin des créatifs. Ils sont testés bien plus rigoureusement par NVIDIA, et dans des conditions de travail multi-tâches intensif. Leur but est de fournir une stabilité optimale (le plantage d’un jeu étant moins critique que celui de Maya en fin de projet…), mais aussi de ne pas laisser l’application en premier plan cannibaliser toutes les ressources : la gestion du GPU est plus équilibrée.

Cela ne veut pas dire pour autant que les drivers NVIDIA Studio sont inutilisables en jeu : en pratique, et si votre jeu favori n’est pas concerné par les derniers correctifs d’un driver Game Ready, les performances seront en fait quasi identiques entre Game Ready et NVIDIA Studio.

Rappelons enfin que vous pouvez basculer d’un driver à l’autre en procédant comme pour une mise à jour : allez sur le site de NVIDIA, spécifiez votre matériel et indiquez juste “Studio Driver” ou “Game Ready” dans “type de téléchargement”. NVIDIA est évidemment conscient qu’une approche sans réinstallation complète, en quelques clics, serait bien plus pratique : le groupe nous a indiqué travailler sur une éventuelle solution, mais la complexité du problème demandera un peu de patience.

L’article NVIDIA lance un nouveau Studio Driver est apparu en premier sur 3DVF.

Le Xiaomi RedmiBook 13 passe sous Intel Comet Lake

Par Pierre Lecourt

Le fabricant Chinois met à jour son portable 13.3″ Xiaomi RedmiBook 13 avec un passage vers les nouvelles puces Intel Comet Lake-U. On retrouve trois nouveaux modèles déclinés autour de ce châssis de la taille d’une feuille de papier A4.

2019-12-11 12_19_02-minimachines.net

Les engins seront mis en vente dès le 12 Décembre en Chine avec 3 déclinaisons annoncées :

Le premier embarquera un Core i5-10210U, un quadruple coeur et octuple Threads avec 6 Mo de mémoire cache et des fréquences oscillant entre 1.6 et 4.2 GHz. Avec un TDP de 15 watts il propose un circuit graphique Intel UHD. Il sera associé à 8 Go de mémoire vive et 512 Go de stockage SSD. Il emploiera son chipset graphique interne et sera commercialisé à 4199 Yuans soit environ 540 €.

Le second modèle proposera le même Core i5-10210U et les mêmes stockages et mémoire vive mais proposera un circuit graphique Nvidia GeForce MX250 externe  associé à 2Go de mémoire vive GDDR5 dédiée. Il sera proposé à 4499 Yuans soit 580€environ.

Le dernier modèle passera au Core i7-10510U qui est une évolution plus musclée du Core i5 avec des fréquences allant de 1.8 à 4.9 Ghz et 8 Mo de mémoire cache toujours pour 15 watts  de TDP. Il emploiera toujours 8 Go de mémoire vive et 512 Go de stockage SSD et un circuit Nvidia GeForce MX250 pour 5199 Yuans soit environ 666€.

2019-12-11 12_13_27-minimachines.net

Afin de gérer au mieux la température dégagée par ces puces Comet Lake-U, la marque embarque un nouveau système de dissipation active. Un ventilateur souffle vers un système d’ailettes qui transfère la chaleur véhiculée par un double caloduc de 6 mm d’épaisseur. Xiaomi indique que le dispositif améliorer de 70% le transfert de chaleur par rapport à la précédente solution.

2019-12-11 12_13_08-minimachines.net

Ces Xiaomi RedmiBook 13 poursuivent le travail de la marque sur ce segment avec un travail esthétique assez abouti en particulier sur le châssis haut puisque la dalle est désormais tenue par un cadre mince et aérien sur la totalité des quatre bordures. L’écran est un 13.3″ FullHD IPS qui s’étale donc sur 89% de l’espace disponible. Cela donne un portable offrant un excellent ratio d’affichage au vu de son encombrement puisque le châssis complet occupe 96% d’une feuille de papier A4 (30.73 x 19.55 x 1.77 cm). Le poids de l’engin reste très contenu pour une telle diagonale avec 1.23 Kg sur la balance.

2019-12-11 12_18_48-minimachines.net

Le clavier semble classique, de type chiclet et évidemment QWERTY. Il n’est pas fait mention d’un rétro éclairage. Le pavé tactile est large et profond et semble bien adapté au gabarit de l’engin.

2019-12-11 12_13_17-minimachines.net

La connectique comprend deux ports USB 3.1 Type-A, un port HDMI plein format, un port de charge et un jack audio 3.5 mm stéréo pour casque et micro. Un modem Wifi5 calssique associé à un module Bluetooth 5.0 sera évidemment de la partie. La batterie est censée offrir 11 heures d’autonomie d’après le constructeur et profitera d’un système de chargement rapide. L’engin sera livré avec une version Chinoise de Windows 10 et proposera une application dédiée au transfert de données rapides depuis un smartphone de la marque.

J’ai déjà interrogé mes contacts en Chine. Le portable devrait être intégré rapidement au catalogue de plusieurs marchands. Comme d’habitude avec la marque, les particuliers ayant pré-commandé le jour de l’annonce seront servis les premiers avant que les acheteurs en gros ne soient servis. Il faudra donc attendre un peu avant de voir fleurir les Xiaomi RedmiBook 13 sur les pages de vos marchands préférés.

Le Xiaomi RedmiBook 13 passe sous Intel Comet Lake © MiniMachines.net. 2019

Le moteur de rendu Arnold passe en V6 : le GPU à l’honneur

Par Shadows

Enfin ! Avec la nouvelle version 6 d’Arnold, il devient enfin possible de faire des rendus à la fois sur CPU et GPU.

Le nouveau mode Arnold GPU s’appuie sur NVIDIA OptiX et est optimisé pour tirer parti de la technologie RTX : une carte graphique récente sera donc bienvenue même si pas indispensable.
Si Arnold GPU avait été dévoilé en beta en mars dernier, la version 6 en fait un véritable outil de production, avec support des fonctions essentielles. Reste toutefois encore quelques limitations : une poignée de LPEs, de lights et de shaders ne sont pas encore gérés. La documentation vous donnera le détail de ces restrictions.

Outre Arnold GPU, le moteur de rendu progresse en ce qui concerne USD avec une collection de composants dédiés.
Enfin, une série d’optimisations sont annoncées :

faster creased subdivisions, Physical Sky shader improvements, dielectric microfacet multiple scattering, improved Oren-Nayer Diffuse Roughness Mapping, better rough thin wall transmission in Standard Surface shader, and more accurate albedo AOVs.

Arnold 6 est disponible dès à présent, en souscription standalone ou via les collections Autodesk. Arnold GPU est disponible via les plugins Maya, Max, Houdini, Cinema 4D, Katana.

L’article Le moteur de rendu Arnold passe en V6 : le GPU à l’honneur est apparu en premier sur 3DVF.

Maya 2020 dévoilé : vraies avancées ou annonces cosmétiques ? A vous de juger

Par Shadows

Autodesk dévoile en vidéo Maya 2020, avec “plus de 60 mises à jour en animation, de nouvelles fonctions dans Bifrost, la dernière version d’Arnold pour rendre à la fois sur GPU et CPU”.
En voici donc un aperçu global :

Revenons maintenant plus en détails sur ces annonces :

Animation

Cached Playback : arrivé avec la version 2019, il s’agit pour rappel d’un processus d’arrière-plan qui accélère le playback de l’animation, de façon à pouvoir analyser l’animation directement dans le viewport. La version 2020 supporte dynamics, image planes, aperçu lissé des meshes, plugins personnalisés et même un nouvel aperçu Ghosting.

Layered dynamics caching : le calcul des dynamics et de l’animation principale sont traités séparément. En ayant les dynamics sur un calque secondaire, on peut continuer à travailler et voir les simulations comme le cloth et les muscles en temps réel tout en animant.

Pour les image planes, si une séquence d’images est appliquée, elle sera aussi stockée par Cached Playback, pour accélérer le playback.

Smooth Mesh Preview utilise moins de mémoire, et s’appuie sur le GPU si possible. Une optimisation qui devrait être appréciable sur les scènes lourdes, où les limites mémoires sont rapidement atteintes.

Les utilisateurs techniques peuvent créer des ensembles de configurations personnalisées pour le comportement de Cached Playback sur les nodes qu’ils construisent. De quoi prioriser ce qui doit ou non être mis en cache.

Le nouvel aperçu Ghosting permet comme son nom l’indique de voir les positions et mouvements passés/futurs. Il est par ailleurs possible de colorer les meshes et de supprimer les textures, pour plus de clarté.

Un nouveau système de favoris pour l’animation permet de marquer, naviguer dans et organizer des évènements dans le temps.

Pour plus de détails sur les nouveautés en animation, on se reportera à la liste complète des avancées. Au menu, comme l’esquisse la vidéo de départ : fonctions audio, raccourcis, amélioration du mode tangent, …

Rendu

Maya intègre la nouvelle version 6 d’Arnold, utilisable à la fois en mode CPU et GPU. Passer d’un mode à l’autre se fait rapidement, tout en conservant les paramètres.
Le mode GPU repose sur NVIDIA OptiX et est optimisé pour NVIDIA RTX.

Un second article détaillera Arnold 6 d’ici quelques minutes.

Bifrost

Autodesk annonce plus de performances, de stabilité pour Bifrost, mais aussi le support du Cached Playback, un meilleur support Arnold, des nouvelles contraintes MPM Cloth, plus de graphes préconstruits pour mieux démarrer, et une centaine de bugs éliminés.

Viewport

Autodesk indique avoir amélioré le viewport : vous devriez constater en particulier une nette amélioration en travaillant sur de la géométrie dense ou sur un grand nombre de petit meshes dans le viewport et les éditeurs UV. D’autres cas tels que l’utilisation d’Isolate Select ont aussi été améliorés.

Modélisation

Un nouvel outil Remesh vous permet de spécifier où vous voulez plus de détails en affinant la topologie sur la zone voulue. Il est aussi possible de re-trianguler le mesh pour uniformiser la densité.

En parallèle, Retopologize permet comme son nom l’indique de générer rapidement une nouvelle topologie propre et respectant le mesh de départ. Parfait pour nettoyer un modèle.

Rigging

Les nouveaux nodes matrix-driven transform et operation aident à alléger vos scènes. Avant cette mise à jour, explique Autodesk, la plupart des contraintes dans Maya faisaient leurs calculs sous forme matricielle avant de décomposer le résultat (échelle, rotation, translation) pour contrôler une autre transformation. Ces valeurs étaient ensuite utilisées par driven transform pour créer une nouvelle matrice et calculer sa position.

Le nouveau workflow passe tout simplement outre les étapes de décomposition/composition, tout en conservant accessibles les données utiles en animation (échelle, rotation, translation). Les riggers n’ont plus besoin de créer autant de nodes DAG pour les animateurs.

Autodesk recommande de se rapporter à la documentation pour mieux comprendre les implications et possibilités de cette évolution.

Les nodes Proximity et UV Pin peuvent être utilisés pour tracker précisément des positions sur une géométrie qui se déforme. Les nodes peuvent par exemple être employés pour l’utilisation de props sur un personnage (bouton de chemise) ou pour mettre en place un rig contraint.

Le nouveau deformer Proximity Wrap, accéléré par GPU, allège l’usage mémoire et bénéficie de performances accrues.

La liste exhaustive des avancées est disponible chez Autodesk.

Rappelons que vous pouvez retrouver Maya dans la boutique 3DVF.fr, que vous souhaitiez une licence 1 mois, 1 an ou 3 ans, monoposte ou réseau. En cas de question sur ce produit, n’hésitez pas à contacter notre partenaire Progiss, par téléphone au 01 49 89 07 90 ou par mail : info@progiss.com
Notez également que l’équipe Progiss est à votre disposition pour vous proposer des présentations des logiciels de la boutique, que ce soit dans leurs locaux (Villepinte, à côté de Paris) ou dans les vôtres.

L’article Maya 2020 dévoilé : vraies avancées ou annonces cosmétiques ? A vous de juger est apparu en premier sur 3DVF.

La gamme Era, une nouvelle ère pour Martin

Par admin

Après avoir repris la distribution Martin il y a près de 3 ans, la société Algam Entreprises est heureuse de nous présenter une toute nouvelle série de projecteurs, la série Era, avec pas moins de 6 modèles, dont une lyre led de 800 W et un modèle hybride étanche.
A cheval entre la gamme Rush et la gamme référence Mac, cette nouvelle lignée est développée par Martin pour Harman Professional Solution.

La boîte noire Martin lors des JTSE 2019.

Conçus au Danemark par le bureau d’études Martin, ces projecteurs sont fabriqués par des usines tiers suivant un cahier des charges précis, et un coût réduit pour soulager le portefeuille des clients fidèles à la marque danoise.
Nous avons interviewé Joël Azilinon, le très sympathique directeur technique lumière d’Algam Entreprises lors des JTSE afin d’en savoir plus.


Era 500 Hybrid IP

Projecteur Hybrid et étanche, l’Era 500 est prêt à affronter les éléments sans broncher. Équipé avec une lampe à décharge Philips Platinum 18R de 350 Watts, ce projecteur IP65 promet un flux quasi-irréel de 22 000 lumens avec une température de couleur de 7800 K et une durée de vie de 6 000 heures.

L’Era 500 est le premier projecteur IP65 conçu par Martin.

Le jeu d’optiques permet un rapport de zoom de 1:20, depuis le faisceau acéré d’un beam à 2° jusqu’à la large couverture d’un spot à 40°, augmenté d’un filtre spécial Wash.
Machine complète, sa trichromie CMY se complète d’une roue de 9 couleurs dont une déclinaison de filtres CTO en Full, ½ et ¼. Une roue de 15 gobos statiques côtoie une autre de 9 gobos rotatifs, aidés par deux jeux de prismes circulaires et linéaires capables de fonctionner en simultané, pour encore plus d’effets.

Si l’Era 500 met l’accent sur sa résistance à l’humidité et à la poussière, il présente aussi une résistance à la correction C3-M et une protection aux chocs IK07, indispensables pour supporter toutes les dures contraintes des installations extérieures. Son menu et l’ensemble de ses prises DMX et EtherCon sont bien entendu étanches, recouverts de capuchons certifiés Outdoor.

Comme tous les projecteurs étanches, l’Era 500 se pare d’une carrosserie robuste, striée en de nombreux endroits pour aider au refroidissement. Son poids conséquent de 46 kg est équilibré par la présence maintenant habituelle d’une paire de poignées supplémentaires en haut de sa lyre.
La sortie de l’Era 500 IP est prévu pour avril 2020.



Era Performance

Au début d’année 2019 nous avions découvert la petite lyre spot Era 300 Profile, sans nous douter qu’elle précéderait une large gamme de projecteurs led. Une surprise de taille nous attendait au JTSE avec trois autres modèles, bien plus aboutis, reprenant les codes des Mac Encore dans un échelonnage de puissance aussi complet que cohérent.

La gamme Era performance au complet avec, de gauche à droite, l’Era 600, l’Era 800 et l’Era 400.

Si certains s’interrogeaient il y a peu sur le futur de la marque Danoise, dont l’auteur de ces lignes, les voilà rassurés. Martin est toujours dans la partie, aussi bien dans des créneaux de prix contenus avec la ligne Era que prochainement avec la sortie de projecteurs haut de gamme sous l’égide Mac.

Les Era 400, 600 et 800 Performance sont des asservis à couteaux à insertion complète, dit Full-Frame, dont les puissances de leds sont respectivement de 300, 550 et 800 watts. Martin garde ainsi toujours son étrange dénomination historique ‘Profile’ pour les spots sans couteaux.

Era 400 Performance

L’Era 400 Performance est disponible en deux sources led, Cold ou Warm.

L’Era 400 se décline en deux types, en blanc froid étalonné à 6500K (le modèle 400 CLD) et en blanc chaud calibré à 3200K (Era 400 WRM). La version ‘lumière du jour’ est la plus puissante des deux, avec une prévision de 10 000 lumens contre 6 000 lumens pour la version ‘tungstène’.

Hormis cela, ces deux machines compactes de 22,5 kg offrent une base de travail agréable avec une nouvelle trichromie CMY en demi-lune, une cassette de 4 couteaux à rotation de 120° et un zoom 10°-30°.
Une roue de 9 couleurs, 9 gobos statiques et 7 gobos rotatifs issus du catalogue Martin, un iris, un frost et un prisme 3 facettes complètent les Era 400, dont le look plus sage tranche avec les dernières réalisations Martin.


Era 600 Performance

L’Era 600 est le projecteur le plus polyvalent de la gamme

L’Era 600 reprend les caractéristiques de l’Era 400 CLD, mais bénéficie d’une source led de 550 Watts à 6.500K, pour un flux théorique de 19 000 lumens.
Plus grand, plus puissant, l’Era 600 profite aussi d’un zoom qui s’étire de 6° à 45° sans compromettre l’homogénéité de son faisceau.

En sus de la trichromie CMY, la roue de 9 couleurs se complète d’un CTO linéaire. Les 8 gobos statiques et les 7 rotatifs s’accordent avec une roue d’animation et 2 prismes, un circulaire 4 facettes et un linéaire, ainsi qu’un iris et un frost.
Comme sur l’Era 400, la cassette de couteaux est particulièrement soignée, avec des croisements possibles entre lames.


Era 800 Performance

Fer de lance de la gamme Era, la 800 se place sous la barre des 40 kg malgré ses 800 Watts de led.

Si l’Era 800 est la plus puissance lyre à led conçue par Martin, sa fabrication économe lui permet de s’en tenir à un tarif raisonnable.

Autour de son module blanc froid 6500K de 34 000 lumens s’organise un ensemble d’effets complet.
Trichromie CMY, CTO progressif, roue de 6 couleurs se marient aux 7 gobos statiques et 6 rotatifs, aux prismes linéaire et circulaire, aux 2 frosts, à l’iris, à la roue d’animation et au module 4 couteaux Full Frame.

Sa lentille de 160 mm et son zoom 7°-56° la destinent aux grands espaces où elle exprimera tout son potentiel.


La société Algam propose un résumé condensé des différents modèles de la gamme Era.

Le retour des projecteurs Martin, certes dans des déclinaisons plus raisonnables économiquement, est une des bonnes nouvelles de ces JTSE. 2019 restera comme une année décidément très prolifique, à l’image de notre industrie du spectacle, dopée par une dynamique inespérée sur tous les fronts, autant en concert et en événementiel qu’en installation pérenne.

Plus d’infos sur le site Algam Entreprises

 

L’article La gamme Era, une nouvelle ère pour Martin est apparu en premier sur SoundLightUp..

« Fujii », le jeu de jardinage musical débarque sur PlayStation VR

Par Pierrick LABBE
Fujii

On avait pu découvrir cet ovni vidéoludique au mois de mai dernier. « Fujii », une application de  « jardinage créatif » et musical, arrivait alors sur les casques VR liés à des PC et l’Oculus Quest. Le PlayStation VR est le dernier à en profiter.

Derrière ce projet un peu fou se trouve Funktronic Labs, le studio qui avait signé, en 2017, le jeu délirant de stratégie en temps réel « Cosmic Trip ». On refait les présentations de ce jeu un peu particulier mais très attachant.

Fujii, une expérience déroutante est aussi désormais sur PS VR

L’expérience qui est désormais disponible sur le Playstation Store au prix de 15 dollars est donc une aventure mêlant musique, jardinage et créativité avec une ambiance propice à la méditation, au repos et à la détente. Avec Fujii, vous allez traverser une variété d’environnements plutôt déroutants qui vous permettront d’apporter un peu de magie au monde. L’histoire principale, qui propose une durée de vie déjà plutôt intéressante, se prolonge ensuite avec la possibilité offerte aux joueurs de collecter des graines et de faire pousser leurs jardins musicaux pour aussi longtemps qu’ils le souhaitent.

Le studio décrit Fujii comme « un répit pour les voyageurs fatigués », mélangeant « l’exploration du monde extérieur et la créativité dans le jardinage ». L’ensemble très déroutant est plutôt intriguant et on en profite sans peine. Le jeu avait initialement été lancé le 27 juin dernier sur HTC Vive, Oculus Rift, Valve Index et les casques Windows VR. L’Oculus Quest avait été servi peu ou prou à des dates similaires.

Cet article « Fujii », le jeu de jardinage musical débarque sur PlayStation VR a été publié sur Réalité-Virtuelle.com.

Prise en main du Beats Solo Pro et son adaptateur Lightning

Par Pierre Dandumont

J’utilise des AirPods (1re génération) depuis un moment, mais dans les transports, c’est franchement peu pratique : ça n’isole pas du tout. Du coup, quand Apple a sorti les AirPods Pro et le casque Beats Solo Pro, j’ai hésité.. et j’ai finalement craqué pour le Beats.

Je ne vais pas vous tester le casque lui-même, il y a des tests de gens spécialisés dans le son un peu partout. Disons que pour résumer, le casque serre un peu, le son est bon, avec moins de basse que d’habitude (enfin, c’est plus équilibré) et la réduction de bruit est vraiment efficace.

Le casque

Le point intéressant du casque, c’est évidemment l’intégration à iOS : on peut paramétrer facilement la réduction : avec, sans ou un mode transparence, qui amplifie les sons extérieurs pour entendre des annonces sonores (par exemple). Comme d’habitude avec la réduction de bruit, je suis un peu déçu du comportement quand il y a du vent : ça amplifie ce bruit précis. Mais bon, dans l’ensemble ça fonctionne plutôt bien.

Comme j’utilise souvent le casque pour de la vidéo, et même si iOS compense assez bien la latence, j’ai acheté l’adaptateur Lightning vers jack. Pour résumer, le casque est uniquement Bluetooth, sans prise jack, mais Apple vend un adaptateur qui a d’un côté une prise Lightning mâle et de l’autre une prise jack mâle. Question qualité (surtout pour les 40 € demandés), c’est un peu limite : le câble est super fin, sans tressage, ni rien. Comme ça, à vue de nez, il ne va pas tenir des années en usage intensif, c’est assez évident.

Le câble, très fin

Il se branche sur le casque, sur sa prise Lightning, et j’avais espéré – un peu naïvement – qu’un adaptateur Lightning vers jack (femelle) Apple fonctionnerait. Malheureusement, non : impossible de réutiliser l’adaptateur que vous avez peut-être eu avec un iPhone sans prise jack. Qui plus est, l’adaptateur ne fonctionne que si le casque est chargé : il est impossible de passer en filaire passif si la batterie du casque est vide. Bon, le problème n’est pas réellement important : le Beats Solo Pro a une bonne autonomie (et j’ai eu un peu de mal à le vider pour tester). Au passage, d’ailleurs : le câble Lightning vers jack du casque est réversible : on peut l’utiliser pour brancher un iPhone en Lightning à un appareil qui a une entrée jack.

Dans les autres choses à savoir, Beats fournit une housse et un câble Lightning noir, mais avec une prise USB-A. C’est un peu dommage en ces temps d’USB-C. Au passage, personnellement, le Lightning ne me dérange pas pour la charge, vu que j’ai un câble à demeure pour les accessoires Apple (clavier, iPhone, etc.) mais je peux comprendre que ça fasse bizarre. Et la puce H1 du casque fonctionne bien, que ce soir pour le jumelage ou pour « Dis Siri ».

le câble Lightning noir

Le seul défaut réel, assez classique avec les casques à réduction de bruit, c’est le prix. 300 € ça pique pas mal.

« Instrument Studio VR » vous met aux commandes d’un studio d’enregistrement

Par Pierrick LABBE
« Instrument Studio VR » vous met aux commandes d'un studio d’enregistrement

Vous avez toujours rêvé d’être aux commandes d’un studio ? D’enregistrer des tubes ? De devenir le nouveau roi de la musique ? Cela pourrait (presque) être possible avec « Instrument Studio VR ». On fait les présentations.

Derrière ce projet très particulier, on trouve le musicien irlandais Paul Cullen, qui a passé deux ans a apprendre le développement en réalité virtuelle. Il a été accepté dans le programme Oculus Start en 2018, un programme de la filiale de Facebook destiné aux développeurs indépendants d’applications en réalité virtuelle.

« Instruments Studio VR », une touche indie, une vibe pro

Il est accompagné de Kenny et Carl, des spécialistes de l’audio qui appartiennent à Relish, un groupe irlandais connu. Leur objectif est de permettre à tous ceux qui ont envie de se lancer dans la musique de pouvoir composer facilement. Or, si c’est en effet plus facile, le prix des instruments et des studios d’enregistrement restent des barrières majeures. Ils espèrent en venir à bout grâce à « Instrument Studio VR » qui permet à des musiciens de créer et enregistrer de la musique, simplement grâce à un casque de réalité virtuelle et à des contrôleurs.

Le résultat est plutôt intéressant, notamment grâce à une latence faible et à des réponses dynamiques dans les tons et les volumes. Le retour haptique vous permet aussi de sentir ce que vous touchez et jouer. Pour se déplacer dans le studio, c’est très facile avec les contrôleurs. On appréciera particulièrement le goût des détails. Comptez 20 dollars pour vous procurer « Instrument Studio VR » sur le Rift. L’Oculus Quest et le Valve Index sont les prochains.

Cet article « Instrument Studio VR » vous met aux commandes d’un studio d’enregistrement a été publié sur Réalité-Virtuelle.com.

Putting VR, Volumetric Video in Refresh Mode

Par Andy Marken

“I’m disappointed, not terribly, but still. It should have gone much further much faster. It’s okay, though, I know what the problem is.” – Jordan, “Real Genius,” Delphi III Productions, 1985   When you attend film festivals like Sundance, Toronto, Tribeca and most recently Cannes; all of the attention is on: The important (and self-important) ...

The post Putting VR, Volumetric Video in Refresh Mode appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Creativity Can be Augmented … Not Artificial

Par Andy Marken

“For every decision we make there are consequences.” — Dr. Lui Cheng, “Morgan,” 20th Century Fox, 2016     Okay we’re stoked!   We learned that a new Matrix is in the works.   We had to revisit the first one when film aficionado friends told us that it was a landmark piece of transgender ...

The post Creativity Can be Augmented … Not Artificial appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Positive Signs the M&E Industry Can Handle, Deliver Equality

Par Andy Marken

“Don’t take this the wrong way but your earnestness can be very hard to be around.” – Katherine Newbury, “Late Night,” 3 Arts Entertainment, 2019     Have you ever wondered how the M&E industry, a business that had such a basic premise (entertain folks, give them a few minutes/hours of escape) has evolved into ...

The post Positive Signs the M&E Industry Can Handle, Deliver Equality appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

AVOD Can Deliver Stuff You Really Want to See … Including Ads

Par Andy Marken

            “I know how hard it is to go out with someone new. I mean, there’s always that fear of… well… getting hurt. At least that’s how I feel inside.”  — Nick Marshall, “What Women Want,” Paramount, 2000     In our constantly connected world, good news/ideas travel fast.   But bad news/ideas travel even ...

The post AVOD Can Deliver Stuff You Really Want to See … Including Ads appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Industry Develops Realistic Future for Autonomous Cars

Par Andy Marken

              “Well, there’s nothing essentially wrong with the car. It’s just that it wants to go one way and I’d like to go the other.” – Jim Douglas, “The Love Bug,” Disney, 1968     While most of the folks who attend FMS (Flash Memory Summit) like to talk (brag) about their storage advances, ...

The post Industry Develops Realistic Future for Autonomous Cars appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Breathtaking Opportunities in the Content Industry Frontier

Par Andy Marken

“All the heritage of a people free to dream, free to act, free to mold their own destiny.” – Narrator, “How the West Was Won,” MGM, 1962     For a guy who not long ago was recommending that employees work from 9 a.m. – 9 p.m., six days a week to now advocating that ...

The post Breathtaking Opportunities in the Content Industry Frontier appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Tomorrow’s Car, Mobile Streaming are about Data, not Technology

Par Andy Marken

“When I look at him in the rear-view mirror, I can tell he’s always thinking about stuff in his head. I guess that’s what geniuses do. But it don’t look fun to be that smart.” – Tony Lip, “Green Book,” Dreamworks, 2018     When it comes to wireless data, psychologist Abraham Maslow was right ...

The post Tomorrow’s Car, Mobile Streaming are about Data, not Technology appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Negative income Unicorns Can’t Be Worth More Than Real Companies

Par Andy Marken

“An I.P.O. is an initial public offering. It’s the first time a stock is offered for sale to the general population. Now as the firm taking the company public, we set the initial sales price then sold those shares right back to our friends.” – Jordan Belfort, “The Wolf of Wall Street,” Red Granite Pictures, ...

The post Negative income Unicorns Can’t Be Worth More Than Real Companies appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

With Half the World Online, Privacy is Probably Wishful Thinking

Par Andy Marken

“Secrets are lies. Secrets make crimes possible… Secrets need accountability.” – Mae, “The Circle,” 1978 Films, 2017   My wife has a time distortion problem.   Nothing serious, but when she grabs her phone or computer to look something up, inevitably we’ll hear, “I’ve been at this for hours and can’t find the darn thing!” ...

The post With Half the World Online, Privacy is Probably Wishful Thinking appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Diversity Makes Visual Stories Better, People and Organizations Stronger

Par Andy Marken

“You don’t qualify for asylum, refugee status temporary protective status humanitarian parole non-immigration work travel visa, you at this time are simply “unacceptable”. – Frank Dixon, “The Terminal,” Dreamworks, 2004     In a lot of ways, our country’s – and actually every country – handling of the diversity issue is a lot like the ...

The post Diversity Makes Visual Stories Better, People and Organizations Stronger appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Streaming Media is so Promising Everyone’s Getting into the Act

Par Andy Marken

“When two hunters go after the same prey, they usually end up shooting each other in the back. And we don’t want to shoot each other in the back.” – Col. Douglas Mortimer, “For a Few Dollars More,” Produzioni Europee Associate (PEA), 1965     A millennium ago, we were visiting a small computer company ...

The post Streaming Media is so Promising Everyone’s Getting into the Act appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

The Content Industry is in the Midst of Dynamic, Dramatic Change

Par Andy Marken

“Funny, some men you see every day for ten years and you never notice; some men you see once and they’re with you for the rest of your life.” – Emmy, “3:10 to Yuma,” Columbia Pictures, 1957   People who think of M&E as more than a job, but a career care … a lot. ...

The post The Content Industry is in the Midst of Dynamic, Dramatic Change appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Toutes les applications Quest qui prennent en charge le suivi des mains

Par Pierrick LABBE
Applications jeux logiciels suivi des mains Oculus Quest

Voici une liste de tous les logiciels prenant en charge la fonctionnalité de suivi des mains ainsi que les développeurs avec des applications Quest qui prévoient de prendre en charge la fonctionnalité lors de la sortie du kit de développement logiciel.

Oculus vient d’annoncer qu’une mise à jour logicielle serait déployée cette semaine et permettrait le hand-tracking sur le casque de réalité virtuelle autonome Quest. Cette annonce a surpris car la sortie de cette fonctionnalité n’était attendue que pour le début de l’année 2020. Une bonne surprise donc avant noël. Cependant, pour fonctionner, celle-ci doit avoir des applications adaptées. Voici donc la liste des applications prenant déjà en charge ce suivi et celles a venir lorsque le SDK pour développeurs sera disponible. Le kit de développement pour développeurs est annoncé pour le 16 décembre.

Les applications Oculus Quest compatibles avec le suivi des mains

Voici toutes les applications qui prennent déjà en charge le suivi des mains sur Oculus Quest. Notez que vous ne pourrez utilise cette fonction que lorsque vous aurez mis à jour votre casque de réalité virtuelle autonome à la version V12. Il faudra aussi activer la fonction dans le menu.

Accueil et menus d’Oculus Quest

L’environnement Oculus Quest Home et tous les menus associés prennent en charge le suivi des mains au lancement. Vous pourrez sélectionner, faire défiler et naviguer dans Oculus Home, y compris la bibliothèque et le magasin, sans contrôleurs Oculus Touch.

Navigateur Oculus

Le navigateur Oculus prend en charge le hand-tracking depuis le lancement. Cela signifie que vous n’avez pas besoin de tenir les contrôleurs tactiles lorsque vous naviguez sur Internet avec votre Quest.

Oculus TV

Oculus TV prend également en charge le suivi des mains au lancement, vous permettant de mettre en pause, de lire et de parcourir des vidéos sans avoir besoin de contrôleurs tactiles.

Configuration du gardien stationnaire

Vous pourrez également installer une barrière de gardien fixe et utiliser vos mains pour régler la hauteur du sol en utilisant le suivi des mains. Cela signifie que vous pourrez essentiellement configurer votre environnement, mettre en place un tuteur et commencer à parcourir les menus sans avoir besoin de contrôleurs tactiles du tout.

Jeux et applications Quest prenant en charge le suivi des mains

Pour le moment, aucun éditeur de jeux ou d’applications pour Quest n’a indiqué qu’il offrirait cette fonctionnalité. Et pour cause, le kit de développement pour les développeurs ne sera disponible qu’à partir du 16 décembre. Il faudra aussi un peu de temps aux développeurs pour intégrer cette fonction et la tester pour ensuite proposer une mise à jour de leur jeu ou application prenant en compte cette fonction.

De nombreux jeux et applications nécessitent l’usage d’un contrôleur pour interagir avec le monde virtuel. Il est donc fort possible que de nombreux jeux ne puissent pas être compatibles avec cette fonction ou que l’intérêt de celle-ci soit très limité. Nous continuerons cependant à mettre à jour cet article car nul doute que des applications et de jeux tiers prendront en charge le suivi des mains prochainement. N’hésitez pas à nous laisser un commentaire pour nous avertir si un studio annonce cette prise en charge.

Cet article Toutes les applications Quest qui prennent en charge le suivi des mains a été publié sur Réalité-Virtuelle.com.

Google lance la Depth API pour ARCore et rattrape son retard sur Apple

Par Bastien L
google arcore depth api

Google vient de dévoiler la Depth API : un nouvel outil pour son framework de réalité augmentée ARCore. Grâce à cette API, les applications de réalité augmentée pour smartphones et tablettes Android permettront notamment d’afficher les objets virtuels de façon plus réaliste avec un phénomène d’occlusion…

En attendant l’ère des lunettes de réalité augmentée, Google poursuit le développement de son framework Google ARCore dédié au développement d’applications en RA. La firme dévoile aujourd’hui un nouvel outil intitulé ” Depth API “. Celui-ci offre plusieurs nouvelles possibilités.

Tout d’abord, cette API permet aux appareils mobiles de cartographier la profondeur par le biais d’une seule caméra RGB. Pour ce faire, elle s’appuie sur des algorithmes ” depth-from-motion ” conçus par Google. Ces derniers permettent la création d’une carte de profondeur en prenant de multiples images sous différents angles et en les comparant lorsque l’utilisateur bouge son smartphone. Cette méthode permet d’estimer la distance de chaque pixel.

D’ordinaire, les casques de réalité augmentée utilisent plusieurs capteurs de profondeur pour générer de telles cartes. La prouesse accomplie par Google est donc remarquable.

Grâce à cette capacité d’estimation de la profondeur, la Depth API permet de rendre les expériences en réalité augmentée plus naturelles en plaçant les éléments virtuels de façon réaliste. En effet, elle permet le phénomène d’occlusion consistant à placer les objets virtuels devant ou derrière les éléments physiques en fonction de leur position, comme dans le monde réel.

Dans un premier temps, l’occlusion sera tout d’abord proposée dans Scene Viewer : l’outil destiné aux développeurs sur lequel repose la réalité augmentée sur le moteur de recherche Search du géant. Plusieurs démonstrations ont été présentées pour montrer toutes les nouveautés apportées par cette API.

Google ARCore rattrape Apple ARkit et démocratise l’occlusion pour la réalité augmentée

Cet effet était déjà proposé par Apple ARKit, le framework de réalité augmentée du grand rival de Google, depuis la version 3 lancée en juin 2019. Google accuse donc un certain retard.

Cependant, rappelons que seuls les iPhone et iPad équipés du processeur Bionic A12 lancé en 2018 par Apple sont compatibles avec ARKit 3. De fait, seules deux générations de produits pouvaient profiter de cette innovation jusqu’à présent.

Grâce à la Depth API de Google, en revanche, les 200 millions de smartphones Android compatibles ARCore pourront profiter de cette nouveauté. La portée de cette API est donc considérablement supérieure à celle d’Apple ARKit 3 et signe la démocratisation de l’occlusion dans la réalité augmentée sur mobile.

Pour cause, la Depth API ne requiert pas de caméra ou de capteurs spécialisés. Néanmoins, sur les futurs smartphones qui seront équipés de nouveaux capteurs ” time-of-flight ” (ToF), les objets virtuels pourraient même être obstrués par des objets physiques en mouvement. Le réalisme des expériences de réalité augmentée s’en trouverait donc encore accru !

En mai 2019, lors de la conférence I/O, Google avait lancé son outil ” Environmental HDR “ qui permettait déjà un éclairage plus réaliste des objets et des paysages en réalité augmentée. Les reflets et les ombres s’en trouvent aussi améliorés. À présent, la Depth API vient à son tour perfectionner le framework. Elle sera disponible prochainement, et les développeurs intéressés pour l’utiliser peuvent signer un formulaire à cette adresse.

Pour l’heure, les applications de réalité augmentée créées avec Google ARCore ou Apple ARKit ne peuvent être affichées que par des smartphones et des tablettes. Cependant, on peut s’attendre à ce que les deux firmes se basent sur les progrès accomplis pour leurs plateformes respectives pour confectionner les outils de développement de leurs futurs casques et lunettes AR. Il est même probable que les applis créées avec ces frameworks soient directement compatibles avec ces appareils à venir…

Cet article Google lance la Depth API pour ARCore et rattrape son retard sur Apple a été publié sur Réalité-Virtuelle.com.

Le suivi des mains de l’Oculus Quest sera lancé cette semaine

Par Pierrick LABBE
Suivi des mains Oculus Quest

Annoncé pour le début 2020, le suivi des mains sur Oculus Quest se fera plus tôt que prévu et sera déployé dès cette semaine. Un SDK sera disponible pour les développeurs la semaine prochaine.

C’était l’une des grandes annonces de l’Oculus Connect 6, le hand-tracking sur le Quest. Cette technologie permet de se passer de contrôleurs en suivant directement les mouvements des mains et des doigts de l’utilisateur grâce aux caméras embarquées sur le casque autonome de la filiale de Facebook. Le lancement était prévu début 2020 mais Oculus a accéléré le rythme avec un déploiement avant noël, des cette semaine. Le kit de développement pour les programmeurs (SDK) sera, quand à lui, disponible dès la semaine prochaine.

Le suivi des mains disponible avec la mise à jour Quest V12

Dans un communiqué de presse, Oculus annonce que le déploiement de la mise à jour Quest V12 débutera cette semaine. Cette actualisation majeure du logiciel du casque autonome contiendra le suivi des mains (hand-tracking). Concrètement, la technologie repère la position des mains et des doigts en temps réel. Cela permet d’interagir avec les applications disponibles et donc de se passer de contrôleurs. Cela ouvre la voie à de nouveaux types de contenus en réalité virtuelle et à un nouveau type d’interaction plus naturelles avec ces environnements.

Pour pouvoir profiter de cette fonction, il faudra donc mettre à jour le logiciel de son casque de réalité virtuelle lorsqu’elle sera disponible puis d’activer le suivi des mains dans le menu. Pour les développeurs, un kit de développement sera disponible à partir du 16 décembre permettant d’intégrer facilement le hand-tracking dans des applications existantes ou de nouveaux projets.

Cet article Le suivi des mains de l’Oculus Quest sera lancé cette semaine a été publié sur Réalité-Virtuelle.com.

ETC France recherche un(e) Administrateur(trice) Produits

Par admin

ETC France est à la recherche d’un Administrateur Produits et Matériel de Démo dans ses bureaux de Paris. Tout candidat doit maitriser le français et l’anglais et être en mesure d’effectuer des mises à jour de logiciel et de fournir un support aux ingénieurs technique de terrain d’ETC.
En plus des qualifications minimales, les candidats doivent être capables de créer des documents de formation et posséder une connaissance approfondie des systèmes d’éclairage de spectacle.

Cliquez sur l’image de l’annonce ci-dessous pour y accéder :

 

L’article ETC France recherche un(e) Administrateur(trice) Produits est apparu en premier sur SoundLightUp..

Oppo se lance sur le marché de la réalité augmentée avec des lunettes

Par Bastien L
oppo ar glass

Oppo, le constructeur chinois bien connu pour ses smartphones, vient de dévoiler ses lunettes de réalité augmentée. L’entreprise asiatique compte également développer son propre contenu AR…

La réalité augmentée est porteuse de nombreuses promesses, et les géants de la technologie s’intéressent de plus en plus à cette technologie. Certains se sont déjà lancés, à l’instar de Microsoft avec son HoloLens ou Google avec son Glass. D’autres s’y préparent, comme Apple et Facebook qui prévoient de lancer leurs lunettes AR au début des années 2020.

Cependant, l’engouement pour la réalité augmentée ne se limite pas aux Etats-Unis. En Chine aussi, les mastodontes de la haute technologie souhaitent prendre leur part du gâteau.

Dans le cadre de son événement Inno Event, organisé à Shenzhen, Oppo vient de lancer ses lunettes de réalité augmentée. Leur design se révèle plutôt similaire à celui du HoloLens ou du Magic Leap One.

Oppo prêt à défier les géants américains sur le marché de la réalité augmentée

Our very first on-stage demo of #OPPOARGlass at OPPO INNO DAY 2019! #CreateBeyondBoundaries pic.twitter.com/v9N5PPEdOy

— OPPO (@oppo) 10 décembre 2019

Cependant, Oppo innove avec plusieurs fonctionnalités. On retrouve notamment une caméra de type fisheye, une technologie de guide d’onde diffractif, et une technologie de reconstruction 3D permettant de créer des images avec lesquelles il est possible d’interagir.

En outre, le son 3D surround permet de rendre les expériences plus immersives. La firme chinoise compte développer ses propres jeux, services et autres contenus en réalité augmentée pour accompagner son hardware. Elle semble donc décidée à devenir un acteur majeur du marché de la réalité augmentée…

Pour l’heure, la date de lancement et le prix de ces lunettes ” Oppo AR Glass ” n’ont pas encore été dévoilés. On ignore d’ailleurs si elles seront proposées en Europe…

Cet article Oppo se lance sur le marché de la réalité augmentée avec des lunettes a été publié sur Réalité-Virtuelle.com.

How Invisible Camera Movement Conveys Emotion

Par Rubidium Wu

Camera movement is an important variable in any scene. Today, we'll discuss how the subtleties in camera movement can evoke emotion.

❌