Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Beatport’s iOS app is here, & with it a company rebrand

Beatport is making the leap into the world of iOS with the release of their new mobile app for Beatport LINK users. It’s yet another step to grow the Beatport LINK ecosystem of DJ tools, with the intention of making an artist’s music searching, buying, prepping, and playing flow even easier. Now, with a Beatport […]

The post Beatport’s iOS app is here, & with it a company rebrand appeared first on DJ TechTools.

Un prototype de la première Apple Watch

Quand Apple a testé l’Apple Watch, la marque avait décidé de cacher le design dans une sorte de boîtier assez moche, qui ressemblait un peu à un iPod nano. Et on a quelques photos et même une vidéo.

C’est AppleDemoYT qui montre ça sur Twitter (et YouTube). L’OS est une version de test, mais finalement assez proche de la version finale, et le look est évidemment moins réussi que pour la version finale.

AppleDemoYT


AppleDemoYT


AppleDemoYT


AppleDemoYT


AppleDemoYT


AppleDemoYT

L’application Apple TV pour Android TV (et la Shield)

Apple continue à étendre la prise en charge de son application Apple TV. Après les produits Amazon (il y a un moment), les consoles (Xbox et PlayStation) ou les Roku, voici Android TV.

J’ai testé sur une Nvidia Shield, mais ça fonctionne sur pas mal d’appareils et même sur des téléviseurs (Sony, Philips, etc.). Visiblement, les absents sont pour le moment les boîtiers des opérateurs, genre Free ou Bouygues Telecom. Et bien évidemment Windows (même si iTunes existe encore) et Android dans sa version classique.

Comme avec les autres appareils, la version Android TV est réussie. C’est très proche de l’interface native de l’Apple TV, on a les mêmes fonctions, on peut acheter ou louer du contenu, on a (a priori, je n’ai pas le nécessaire) accès aux médias en 4K ou en HDR, etc. Sur la Shield, c’est très fluide (ce qui n’était pas nécessairement le cas sur le boîtier d’Amazon par exemple) mais le boîtier de Nvidia est plutôt réputé pour ça. La télécommande avec sa croix directionnelle, proche de celle de l’Apple TV 4K “2021” fonctionne assez bien avec l’interface d’Apple.

Dans le Play Store


L’interface


On peut regarder les événements.


Comme sur Apple TV (un “clic” vers le bas)

A noter que dans la vidéo on voit une erreur liée au fait qu’Apple TV nécessite du HDCP pour les films et que j’avais oublié de casser la protection (le message n’est pas très explicite).

Oups, pas de HDCP

Un prototype d’iPhone 5 noir

Encore un prototype du plus beau des iPhone (j’aime vraiment le design), cette fois avec un marquage particulier.

Cet iPhone 5 noir vu sur Twitter n’est pas particulier sur le design ou la couleur, mais le marquage à base de XXX est toujours intéressant. Et il est bloqué pour 44 ans (à peu près).


XXX



Un peu bloqué

Quest : une vue à la troisième personne disponible pour le streaming

Par : Serge R.
quest vue troisième personne

L’Oculus Quest propose dorénavant une vue à la troisième personne pour le streaming. La version bêta de la fonctionnalité vient de débarquer sur l’appareil suite à la dernière mise à jour du package Oculus Utilities Unity. Les spectateurs peuvent ainsi désormais regarder des jeux VR partagés par des développeurs VR avec cette fameuse vue sur un navigateur Web ou un smartphone.

À l’heure actuelle, il est possible pour tout joueur de montrer à un ami ce qui se passe dans son jeu Quest en temps réel. Pour cela, il peut diffuser tout ce qu’il y voit sur un smartphone, un téléviseur ou un navigateur Web en utilisant l’application Oculus. Le spectateur verra ainsi l’action qui se déroule dans le jeu VR avec une vue à la première personne. Cette vue ne lui permet toutefois pas de vraiment voir ce qui se passe dans la scène.

Effectivement, à cause du mouvement tremblant de la tête du joueur et du champ de vision recadré, il pourra avoir du mal à la regarder convenablement. C’est la raison pour laquelle certains jeux VR sur console et PC montrent l’action avec une vue à la troisième personne. Les développeurs de contenu Quest pourront donc bientôt profiter du même type de fonctionnalité.

Quest : les possibilités offertes par la vue à la troisième personne utilisée pour le streaming

La vue à la troisième personne peut être utilisée en même temps que la vue à la première personne lorsqu’on diffuse le contenu du Quest. Ainsi, le développeur VR ou le joueur peut passer de l’une à l’autre en fonction de ses besoins et de ses préférences lors de la diffusion.

La fonctionnalité donne même aux utilisateurs l’occasion de contrôler l’orientation de la caméra avec leur smartphone. Toutefois, on ignore encore si sa version bêta propose cette possibilité.

À noter qu’Oculus a souligné que la vue à la troisième personne est susceptible d’avoir un impact sur les performances de l’application Oculus.

Cet article Quest : une vue à la troisième personne disponible pour le streaming a été publié sur Réalité-Virtuelle.com.

(ne pas) créer une clé USB pour macOS depuis Windows 10

Assez régulièrement, des gens viennent me dire que les explications pour faire une clé USB de macOS depuis Windows 10 ne fonctionnent pas. Et après quelques autres essais, je comprends le problème et j’ai modifié la page.

Le point important : il faut la bonne image disque de macOS. Vous ne pouvez pas utiliser l’installeur téléchargé depuis un Mac. Vous ne pouvez pas utiliser les images disponibles chez Apple.

• Je l’avais indiqué, mais il faut une image disque bootable. La première solution pour en trouver une, c’est de chercher sur Internet, par exemple sur un site dédié aux hackintosh. C’est une mauvaise idée. Vous ne pouvez pas savoir si l’image a été modifiée, trifouillée, etc. La seconde solution, c’est de créer le fichier à restaurer depuis un Mac 🤓. Oui, c’est un peu idiot dans le contexte, mais pour avoir une image bootable de macOS, il faut un Mac. Ce que vous n’avez probablement pas si vous avez besoin de le faire sous Windows.

• Le second point, important aussi : il faut que la clé USB soit partitionnée en GPT (GUID). ce n’est pas le cas par défaut sous Windows et si vous avez formaté la clé sous Windows ou si elle n’a jamais été utilisée avec un Mac, elle est probablement en MBR. Sous Windows, il faut passer en ligne de commande avec diskpart.

Donc il faut lancer la ligne de commande (cmd sous Windows 10) et ensuite taper diskpart.

Maintenant, tapez list disk pour avoir la liste des disques. Le disque principal et la clé USB doivent être de la partie.

Tapez select disk x en remplaçant le x par le numéro de la clé USB (attention, le premier est bien le 0). Le logiciel indiquera que le disque est bien sélectionné.

Tapez clean puis – une fois que c’est fait – convert gpt.

Enfin, tapez create partition primary et ensuite exit.

A la base, je voulais expliquer comment créer la clé en vidéo, mais finalement j’ai juste modifié le tuto pour expliquer que c’est une mauvaise idée. J’ai gardé la page parce qu’elle est bien référencée et qu’il y a des commentaires, et j’explique à peu près les mêmes choses qu’ici. Le principal problème, vraiment, c’est qu’Apple ne distribue pas d’image disque bootable de macOS. Dans tous les cas, il faut soit en trouver une sur Internet, soit la créer. Et pour la créer, il faut un Mac, ce qui rend la création de la clé USB depuis Windows un peu inutile.

De fait, si vous avez besoin de réinstaller macOS sur un Mac qui ne fonctionne plus, la solution la plus simple va être de démarrer en pressant command + R, ce qui va démarrer soit sur la partition de restauration (si elle existe encore) soit sur la restauration de l’EFI (sauf si votre Mac date de 2009 ou avant). Après, si vous avez un bon exemple de conditions qui demandent de créer une clé USB de boot depuis Windows (et qui n’est pas « Je veux faire un hackintosh »), ça m’intéresse.

Vuforia annonce le lancement de Vuforia Instruct

Par : Ruan
lancement de Vuforia Instruct

Le 3 juin 2021, Vuforia a annoncé le lancement d’Instruct, sa solution AR prête à l’emploi pour les entreprises et s’adaptant aux besoins spécifiques de chacune d’elles.

Avec le lancement de Vuforia Instruct, les utilisateurs peuvent effectuer des inspections avec précision. Ils pourront également enregistrer en temps réel des informations utiles dans leurs rapports d’audit.

Vuforia Instruct : quel intérêt pour les entreprises ?

Grâce à cette nouvelle offre de Vuforia, les entreprises peuvent valoriser leurs données CAO 3D. De plus, cela permet également de fournir et de partager des instructions de travail interactives en AR dans toute l’entreprise.  Ainsi, il devient facile de réaliser des inspections optimisées lors du processus de vérification de la qualité.

« Les instructions de travail créées avec Vuforia Instruct sont beaucoup plus précises et nous permettent de former les employés de nos clients… Les technologies d’AR aideront nos clients à réaliser d’importants gains de productivité en leur permettant d’améliorer la précision et la rapidité d’opérations manuelles complexes. » affirme Alexander Ouellet dans Innovation Engineer chez Harpak-ULMA Packaging.

Lancement de Vuforia Instruct : une nouvelle méthode d’audits ?

En effet, les manuels de procédures sur papier demeurent utilisés par environ 67% des entreprises dans le cadre des contrôles. Ces méthodes sur papier comportent généralement des erreurs. Elles ne permettent pas d’obtenir une vision adéquate. Au final, elles constituent un obstacle à la mise en œuvre de processus visant à l’amélioration continue.

Avec le lancement de Vuforia Instruct, de nombreuses entreprises pourront s’affranchir désormais des documents papier. La solution fournit des conseils et des repères visuels adaptés aux besoins des agents de terrain. Ces derniers peuvent également ajouter des observations à leurs inspections et sauvegarder les informations importantes.

« Vuforia Instruct permet aux industriels de transformer la façon dont elles créent et communiquent des instructions de travail à leurs opérateurs de première ligne » exprime Michael Campbell, vice-président exécutif et directeur général des produits de réalité augmentée chez PTC.

Cet article Vuforia annonce le lancement de Vuforia Instruct a été publié sur Réalité-Virtuelle.com.

Un joli prototype d’iPhone 5S

Vous avez peut-être remarqué, quand j’arrive au bout d’un Canard PC Hardware, je passe des posts rapides à écrire. Comme ce joli prototype d’iPhone 5S.

Vu sur Twitter, donc, cet iPhone 5S noir. Il date de 5 mois avant la sortie, et il a quelques différences avec le modèle du commerce. En dehors de la couleur plus foncée, il est mat, quand le 5S final brille un peu plus.

Il est mat


Sous l’OS de test



Les conférences sur la Pippin à la WWDC de 1996

Sur un CD Apple distribué à l’occasion de la conférence WWDC de 1996, on trouve quelques documents techniques déjà vu (les Tech Notes) mais aussi quelques présentations, que j’ai mises en vidéo.

Dans la première présentation, on apprend assez peu de choses. Elle porte le nom de “Pippin Overview (1st half)” et présente essentiellement le concept.

La seconde présentation (Pippin Overview 2nd half) essaye de montrer que c’est simple de développer pour la Pippin (si on a un Mac) mais aussi que c’est une bonne idée. Si le premier point semble vrai, le second… ne l’est pas. Plus exactement, le passé a montré que ce n’était pas une bonne idée, vu le flop.

La dernière parle du matériel. On apprend qu’Apple avait bien prévu d’en faire un lecteur de DVD (en gros), que la version japonaise dispose de moins de mémoire libre (probablement à cause des kanjis), que la version PAL de la console a moins de fonctions (mais pratiquement personne n’utilise le PAL) et qu’il faut voir la manette comme une souris ADB avec 13 boutons.




Il y a aussi un petit logiciel pour les manettes, une sorte d’équivalent du Key Assistant livré avec la version ADB au Japon. Rien de spécial, il permet d’assigner des touches aux boutons et de tester. Attention, si vous n’avez que la manette comme souris, ça va bloquer le Mac…

Mode test


Mode classique


Le choix de la touche


Si ça vous intéresse, le CD se trouve assez facilement sur les sites de partage (et je peux partager le mien).

L’accès aux photos de l’iPhone enfin trié sous Windows

C’est iGen qui le note, Apple a (enfin) réglé un problème récurrent sous Windows : l’accès aux photos. Avec iOS 14.6, les photos sont triées par date.

Jusqu’à maintenant, un iPhone (ou iPad) connecté en USB sous Windows apparaissait dans le Poste de travail, mais les données étaient en vrac. Un tas de dossiers, sans logique apparente, avec les photos placées dedans. Pour les utilisateurs de Windows qui voulaient transférer les photos, c’était une plaie. Vraiment.

Sous iOS 14.5, en vrac

Avec iOS 14.6, donc, c’est enfin trié. C’est basique, mais les dossiers portent le nom de l’année et du mois (2021_05 pour le mois dernier, donc). Ce n’est pas parfait, mais ça permet de retrouver facilement les dernières photos ou un cliché en particulier, et ça simplifie les sauvegardes manuelles que certains apprécient.

Sous iOS 14.6, c’est trié.

Au passage, je le rappelle, l’iPhone est évidemment lisible sous Windows depuis des années (le début ?), même si certains affirment encore souvent le contraire 😅 et même si l’icône est moche).

L’iPhone apparaît bien.

Appel à participer Live Performers Meeting 2021

LPM 2021

Le LPM lance son appel à projet au plus grand événement au monde dédié à la vidéo live performée. Le LPM (Live Performers Meeting) recherche des performances AV, du VidéoMapping, des team de VJ’s, des ateliers, des conférences ou encore des installations audiovisuelles interactives.

La 22è édition du LPM se déroulera du 26 au 29 août 2021 à Apulia au Fattizze en pleine aire dans un lieu culturel polyvalent en Italie.

Les inscription sont ouvertes jusqu’au 15 juillet 2021.

Le LPM Apulia offre une occasion de participer à 4 jours de performances audiovisuelles, d’expériences Vjing, d’ateliers, de table rondes, de showrooms, d’explorer les pratiques de performances vidéo en live.

LPM 2021

Appel à participer Live Performers Meeting 2021 est un billet de LeCollagiste VJ.
LeCollagiste VJ - Mag du LeCollagiste, actu sur la culture VJING, Vidéo Mapping, info video et high tech.

Mettre un Mac à l’heure avec un modem… et un serveur des années 90

Il y a quelques semaines, je suis tombé sur une vidéo un peu étonnante : un gars utilisait un modem pour mettre un vieux Quadra à l’heure. Comme j’étais intrigue, j’ai essayé.

Premier point, comment ça marche ? Avant les serveurs NTP (qui permettent de synchroniser l’heure par Internet), on utilisait différents systèmes. Et l’ACTS (Automated Computer Time Service), qui date de la fin des années 80, fonctionne encore. Il fonctionne par modem, avec un débit minimal de 1 200 bauds (et au maximum 9 600 bauds) et est assez simple (il y a les sources). Il est géré par le NITS (National Institute of Standards and Technology), une agence gouvernementale américaine.

Pour se synchroniser, il faut un logiciel, et AutoClock fonctionne bien sur les Mac sous Mac OS (le vieux, pas macOS). La version 1.4.4 de 1994 se trouve encore facilement. Matériellement, il ne faut rien de spécial : un Mac sous Mac OS (9.2 dans mon cas) avec un modem. J’ai pris un PowerBook G4 Titanium, mais n’importe quel modèle avec un modem devrait suffire. Il faut installer une extension et lancer le logiciel. Magie du rétro, le numéro de téléphone présent dans l’application (de 1994) est encore valable, au moins pour le serveur de Boulder. Le numéro italien et celui du serveur de Washington semblent ne pas répondre (il y en a d’autres, je n’ai pas essayé). Si vous n’êtes pas aux USA, il faut mettre un 00 devant le numéro (donc 001 303 494 4774).

Le programme calcule le décalage (mais il faut indiquer la position)


Une jolie page “A propos”


Le numéro de téléphone existe encore


On peut demander une connexion régulière

On arrive à la partie compliquée : la communication. Si comme moi vous n’avez plus de ligne fixe, c’est… tendu. Je l’avais déjà expliqué, techniquement il est possible de communiquer par modem sur de la VoIP, mais ça reste assez aléatoire. Il vaut mieux régler la VoIP sur le codec G.711u (si vous avez le choix) et mettre des débits assez faibles (ici 2 400 bauds). En G.711a, je n’avais même pas la porteuse, mais même comme ça, il a fallu de nombreux essais pour que ça fonctionne correctement. J’imagine la tête de l’américain qui va voir les nombreux essais ratés sur son serveur…

La connexion


Planté


Planté


Ca marche !


Un trop grand décalage


L’heure est fixée

J’ai fait une vidéo avec le bruit du modem, pour montrer ce que ça donne (attention, c’est un montage : je n’ai pas trouvé comment enregistrer directement le bruit).

Bon, le NTP est quand même plus simple (surtout que ça fonctionne nativement sous Mac OS 9) mais ça reste amusant de voir qu’une technologie de la fin des années 80 répond encore dans sa forme initiale en 2021.

L’Apple TV, l’ARC et un téléviseur sans ARC

Avec la nouvelle version de l’Apple TV 4K, Apple a ajouté une fonction intéressante : la prise en charge (en bêta) de l’ARC. Cette fonction permet de récupérer le son d’un téléviseur pour l’envoyer vers un (ou des) HomePods. Et comme mon téléviseur n’a pas d’ARC, je me suis posé une question : est-ce qu’il existe des adaptateurs ?

La première chose à comprendre, c’est le fonctionnement de l’ARC. L’Audio Return Channel, apparu avec la norme HDMI 1.4, permet de faire passer un flux audio qui part d’une entrée vers une sortie. Je m’explique.

Dans un environnement classique, La source (par exemple l’Apple TV) envoie l’image et l’audio dans sa prise HDMI qui est une sortie. Et l’image et l’audio arrivent dans l’entrée HDMI du téléviseur, qui va traiter le tout. L’ARC permet d’envoyer un flux audio dans l’entrée HDMI du téléviseur, pour le transférer vers un amplificateur, une barre de son… ou l’Apple TV 4K. L’intérêt ? Récupérer le son du téléviseur sans mettre une sortie HDMI sur ce dernier. Le fonctionnement de l’ARC est un peu particulier : c’est essentiellement un flux S/PDIF envoyé sur la broche 14 de la prise, inutilisée dans les anciennes versions de la norme. La détection se fait à travers le CEC, ce qui pose parfois des soucis. Il existe une variante moderne (l’eARC) qui utilise un système différent, pour transmettre les formats audio modernes (sans pertes, Atmos, etc.) avec un débit nettement plus élevé et un peu plus de fonctions, et sans dépendre du CEC.

L’option en bêta


Le test (qui ne passe pas)

On en arrive à mon problème : mon téléviseur n’a pas d’ARC (il est un peu trop vieux). J’ai donc d’abord cherché si des appareils permettaient d’envoyer de l’audio en ARC. Mais les adaptateurs HDMI qu’on peut trouver un peu partout font essentiellement deux choses. La première, c’est récupérer l’ARC, ce qui semble assez trivial : c’est vraiment du S/PDIF. La seconde, c’est injecter de l’audio dans une prise HDMI (à partir d’une sortie S/PDIF) mais dans le « mauvais » sens. Plus exactement dans le sens classique : le même que la vidéo (donc d’une sortie vers une entrée). J’ai peut-être mal cherché, mais je n’ai pas trouvé d’adaptateurs capables d’injecter l’audio du téléviseur (depuis sa sortie S/PDIF) vers une barre de son ou un ampli.

Plus exactement, il existe bien un adaptateur : celui de Sonos. Prévu pour quelques barres de son du fabricant (qui n’ont qu’une prise HDMI qui attend de l’ARC), il propose d’un côté une prise S/PDIF mâle (optique) et de l’autre une prise HDMI femelle. J’ai testé avec l’Apple TV, mais sans succès, et ça semble logique : une fois l’adaptateur en place, l’Apple TV ne peut plus envoyer l’image (ou le son, d’ailleurs) vers le téléviseur. J’ai bien essayé en utilisant un switch HDMI, mais ça ne fonctionne pas. Je soupçonne Sonos d’avoir intégré de quoi le détecter dans ses appareils, et c’est tout.


J’ai bien une idée de solution, mais elle nécessite un peu de matériel, donc ça attendra. Et si un jour je trouve un adaptateur capable de faire le boulot, j’en parlerais (sauf si j’ai changé de téléviseur). Après, l’intérêt reste limité ; ça me permettra juste de regarder la télévision en utilisant les HomePods comme enceintes, mais pas de profiter de l’émulation de l’Atmos par Apple, qui nécessite de l’eARC. Et en attendant, j’utilise un vieil iPod Hi-Fi comme enceinte.

Enregistrer le contenu de l’Apple TV (et attention aux HomePod)

Il y a longtemps, j’expliquais qu’il fallait passer par un câble USB-C pour faire des captures d’écran d’Apple TV. Mais avec les modèles 4K, impossible : il n’y a pas d’USB-C. Heureusement, QuickTime le permet… sauf si vous avez des HomePods.

La manipulation de base est simple : il faut lancer QuickTime Player sur un Mac récent (aucune idée du premier OS qui permet ça), choisir Fichier -> Nouvel enregistrement vidéo dans la barre de menu et ensuite sélectionner l’Apple TV dans le menu déroulant à côté du bouton d’enregistrement. Il faut bien évidemment être sur le même réseau, et un message apparaîtra sur l’écran de l’Apple TV (et du Mac) pour demander un code. Ensuite, l’écran de l’Apple TV sera entouré de rouge pour bien indiquer que quelqu’un enregistre.

Le menu


Message côté mac


Message côté Apple TV


L’enregistrement est bien indiqué

C’est la théorie, et avec l’Apple TV 4K, j’ai eu un petit problème : ça n’apparaissait pas. Et après quelques essais pour trouver la cause, je me suis rendu compte que si l’Apple TV sort l’audio sur un (ou des) HomePods, l’option disparaît. Je dois aller manuellement forcer la sortie audio sur « Haut-parleurs TV » pour que le boîtier soit visible dans QuickTime Player. Je ne sais pas si c’est un bug ou changement délibéré pour des questions techniques, mais j’ai pensé que ça pouvait servir de l’indiquer… Et le simple fait de passer sur HomePods coupe la connexion et rend l’Apple TV invisible.

Attention à cette option

(presque) Mac ou Pippin : Shock Wave

Il y a quelques semaines, je parlais de Shock Wave, un jeu en 3D pour la Pippin. Et j’expliquais qu’il était sympa mais ramait un peu sur la console. Et s’il n’est pas officiellement compatible Macintosh, il fonctionne parfaitement (ou presque).

Je l’ai essayé sur un Power Mac G3 et il a les menus en anglais, se lance et fonctionne nettement mieux que sur la Pippin – le G3 à 300 MHz avec un cache L2 est évidemment plus rapide qu’un PowerPC 603 à 66 MHz sans cache -. On peut mettre tous les détails au maximum sans problèmes tout en gardant plus d’une dizaine de fps.

Les options servent enfin


Il faut lancer Invasion Earth

Le principal problème vient des contrôles : espace pour tirer, J pour aller à gauche, L pour la droite, I pour descendre et K pour descendre. Des valeurs pas très pratiques impossibles à changer. Mais il y a une astuce : une manette de Pippin en ADB. Il suffit de la brancher à la place de la souris et d’utiliser l’extension AppleJack 2.1.1 du CD (compatible avec Mac OS 9) pour que la manette fonctionne avec le jeu. Attention, l’extension livrée avec la manette (AppleJack 2.2.0) ne fonctionne bizarrement pas. Ca nécessite de jouer un peu sur les extensions, mais c’est assez simple avec les dernières versions de Mac OS 9. Le résultat ? Un jeu bien plus fluide et sympa, mais toujours en 640 x 480.

Une manette ADB et le jeu


La bonne extension (issue du CD)


La mauvaise

Attention tout de même : Shock Wave est un cas un peu particulier. En général, si un jeu Pippin n’est pas indiqué comme compatible Mac… il ne l’est pas. C’est par exemple le cas de Super Marathon.

Réussir un entretien d’embauche avec le nouveau simulateur de Bodyswaps

Par : Ruan
simulateur de Bodyswaps

Bodyswaps lance le simulateur d’entretien d’embauche. Le but de ce projet consiste à aider les candidats à se préparer à leur entretien d’embauche.

Bodyswaps booste l’efficacité des programmes de formation avec une pratique contextuelle évolutive. Pour ce faire, il combine les sciences comportementales, les données et les technologies immersives.

Fonctionnement du simulateur de Bodyswaps

Ce simulateur de Bodyswaps est une solution unique en son genre. Cette solution aidera les demandeurs d’emploi à assimiler les techniques d’entretien et à s’adapter à votre discours. En effet, le simulateur proposera d’entraîner les candidats à répondre à des dizaines de questions fréquemment posées lors d’un entretien.

Cette solution de réalité virtuelle couvre une série de stratégies et de techniques reconnues ainsi que plus de 75 questions d’entretien. Cela va des questions sur la personnalité aux questions comportementales. Il propose également différentes manières de gérer l’anxiété liée à l’entretien et d’élaborer des réponses gagnantes.

Ce simulateur d’entretien d’embauche permet aux étudiants de développer leurs compétences de manières autonomes à travers quatre modules de réalité virtuelle :

  • Gérer l’anxiété liée à l’entretien ;
  • Trouver l’emploi idéal ;
  • Trois étapes pour répondre à (presque) toutes les questions ;
  • Simulation d’entretien.

Une solution déjà accessible

Les utilisateurs peuvent se réjouir de la disponibilité de ce simulateur Bodyswaps dès aujourd’hui. En effet, il est accessible en réalité virtuelle, mobile et PC. En outre, une démonstration gratuite est disponible sur le site Web de Bodyswaps.

Christophe Mallet, PDG de Bodyswaps, a déclaré dans un communiqué : « Pour les étudiants, c’est l’occasion d’apprendre à se présenter sous leur meilleur jour et de décrocher l’emploi de leurs rêves. Pour les organisations, il s’agit d’une approche révolutionnaire pour améliorer les résultats des étudiants, rapidement et à grande échelle, en ces temps difficiles. »

Cette technologie révolutionnaire offre une gamme de solutions de formation aux compétences non techniques pour les particuliers et les employeurs. D’ailleurs, ce simulateur Bodyswaps vient de rejoindre le programme mondial XR de HTC, le Vive X, en 2020. La société ambitionne d’ailleurs de développer sa gamme de contenus. 

Cet article Réussir un entretien d’embauche avec le nouveau simulateur de Bodyswaps a été publié sur Réalité-Virtuelle.com.

Créer des expériences de suivi oculaire en réalité virtuelle avec le logiciel SightLab VR

Par : Ruan
logiciel SightLab VR - realite-virtuelle.com

Le suivi oculaire permet de résoudre les problèmes d’interface individuels liés à l’utilisation de la VR. Avec le logiciel SightLab VR, les utilisateurs peuvent améliorer la qualité visuelle globale.

L’eye tracking est l’un des éléments les plus importants dans le développement des technologies VR. C’est dans cette optique que WorldViz a lancé un outil permettant de mettre en place des expériences de suivi oculaire en réalité virtuelle.

Pourquoi combiner le suivi oculaire dans la réalité virtuelle ?

Avec le logiciel SightLab VR, les consommateurs peuvent profiter des avantages des deux technologies. En effet, cela est possible en travaillant avec l’eye tracking dans la VR.

D’un côté, la VR permet de créer n’importe quel type d’environnement simulé. En effet, les stimuli visuels et les scénarios peuvent être rapidement changés ou facilement répétés.

D’autre part, le suivi oculaire permet d’abord de savoir où se trouve l’attention visuelle du participant à chaque moment de l’expérience. Ensuite, il permet de savoir quels éléments visuels déclenchent certaines réponses et comportements.

Le suivi oculaire dans la réalité virtuelle peut alors améliorer les expériences VR. Cette technique favorise des interactions plus naturelles avec les yeux. Elle contribue à rendre les expériences plus immersives.

Logiciel SightLab VR : Suivre son regard dans la réalité virtuelle

Le logiciel SightLab VR révèle ce qui se cache derrière le comportement et les réactions subconscientes des participants. Pour ce faire, il tire pleinement parti du contrôle et de la flexibilité du monde virtuel.

Cette technologie se concentre sur le développement d’une combinaison qui permet la détection précise du prochain point de fixation des yeux. Elle réduit ainsi les imprécisions liées au clignement des yeux.

SightLab VR mesure le regard, la taille de la pupille et les emplacements de fixation, ainsi que les trajectoires de balayage et les interactions. Les chercheurs peuvent ainsi se faire une idée de l’expérience de l’utilisateur et de la charge mentale.

La combinaison de l’eye-tracking et de la VR offre aux utilisateurs un environnement naturel. Cela permet aux chercheurs de concevoir des expériences significatives.

Cet article Créer des expériences de suivi oculaire en réalité virtuelle avec le logiciel SightLab VR a été publié sur Réalité-Virtuelle.com.

Quelques prototypes d’iPod touch

Comme la liste de brouillons avec des images de prototypes commence à être un peu longue, je regroupe. Donc aujourd’hui, des images de prototypes d’iPod touch, de toutes les générations.

D’abord, un iPod touch v2 DVT, de 2008.

Ensuite un iPod touch v1 preEVT (donc assez anciens) sous « iOS 1 ».


Une carte mère rouge, caractéristique

Ici, des iPod touch v3 avec une caméra, un prototype courant d’un modèle sorti sans la caméra en question.

La caméra, rare

Cette fois, un modèle sous l’OS de test.


Encore un iPod touch v3 avec une caméra.



Un OS de test

Plus rare, un iPod touch v4, assez différent de la version finale selon l’auteur.



La différence de ton sur les inscriptions est visible

Et un autre v4, différent.




Un tweet supprimé, mais vu 😅.


Plusieurs modèles

Et enfin un iPod touch v3 en train de faire une photo.

Meet SEEDJ: a digital acceleration platform, academy for DJs to grow professionally

Announced earlier this month, a new web platform for DJs looking to grow in their career & skillset has emerged: SEEDJ. Self-described as “the first digital accelerator for techno, house, and tech-house DJs and producers”, it’s a one-stop platform that was created to bring “the services necessary for professional growth as a DJ/Producer” together under […]

The post Meet SEEDJ: a digital acceleration platform, academy for DJs to grow professionally appeared first on DJ TechTools.

The Naked King : Rapparu réalise le nouveau clip de BIGMAMA

Par : Shadows

Rapparu, animatrice japonaise indépendante spécialisée dans l’animation 2D, vient de réaliser le clip The Naked King du groupe BIGMAMA.

Streaming/Download https://BIGMAMA.lnk.to/WBL
Producer : Osamu Shinomiya
Character Design, Story Board, Animation, Background Art, Editing : rapparu
Inbetween : Ashitaka
Special Thanks : Honeyjelly

L’article The Naked King : Rapparu réalise le nouveau clip de BIGMAMA est apparu en premier sur 3DVF.

Désactiver la lecture automatique de Musique

Avec la dernière version de Musique sous Big Sur (11.3), Apple a ajouté une fonction déjà présente sous iOS 14 : la lecture automatique. L’idée ? Apple Music va essayer de générer une liste de lecture automatique et infinie, en fonction de ce que vous aimez/écoutez.

Dans un sens, c’est pratique : quand vous arrivez au bout de l’album, il ne se termine pas. Mais parfois, on peut préférer que ça s’arrête. La présence de la lecture automatique n’est pas très visible par défaut : si elle est activée mais que vous écoutez un morceau de la bibliothèque, rien ne s’affiche. Si vous êtes dans la liste en question, le symbole de l’infini apparaît sur le menu « hamburger » en haut à droite de la fenêtre. Quand on clique sur le menu en question, il faut simplement cliquer sur le ∞, qui change de couleur.

C’est activé, mais on ne le voit pas (en haut à droite)


C’est activé, on le voit (en haut à droite)


Il faut cliquer sur le symbole pour l’activer manuellement (ou le désactiver)


Hop, ça ajoute une liste de morceaux

Mac ou Pippin ? Anpanman to Asobou! 2

Cette semaine, je (re)teste un jeu Pippin… mais sur Mac. Une partie des titres de la console d’Apple et Bandai fonctionne en effet sur les deux plateformes. Il s’agit ici d’Anpanman to Asobou! 2.

Alors, le titre fonctionne sur Mac, mais je n’ai pas l’arrière de la pochette, qui indique la configuration minimale. Je peux juste dire qu’il s’affiche en 640 x 480 (comme souvent) et qu’il est un peu plus fluide sur un gros G3 que sur la Pippin et son PowerPC 603 à 66 MHz. Il a le bon goût de fonctionner sur un OS occidental sans bus graphiques, et de gérer le clavier en plus de la souris, pour déplacer l’énorme curseur dans le jeu. Pour le reste, il n’y a pas grand chose à dire de plus que pour la version Pippin : c’est un titre pour les enfants, répétitifs et simpliste, remplis d’animations amusantes. Il n’y a visiblement pas de bouton pour quitter, mais un simple  + Q (ou A sur un clavier francophone) suffit.

Tout en anglais


Comme d’hab, du 640 x 480 dans une grande fenêtre



@adlibcreations Digital Spaces. Célébration des 10 ans du centre...



@adlibcreations Digital Spaces. Célébration des 10 ans du centre de recherche INRIA Bordeaux Sud Ouest, le 22 septembre 2018. Carte blanche à Ad Lib Creations pour la scénographie de l'édifice. #inria #adlibcreations #mapping #3dmapping #motiondesigner #digitalart #barco #millumin #sharpy #christiangimat #motionfx #modelisation #building #bordeaux #talence #nouvelleaquitaine #visualart #inriabordeaux
https://www.instagram.com/p/CPLRKVJKDf7/?utm_medium=tumblr

(re)Flasher une Radeon Sun XVR100

Il y a quelques années, j’expliquais comment j’avais flashé une Radeon 7000 d’origine Sun (une XVR-100) pour l’installer dans un Mac.

Là, je viens de faire le contraire. En fait, je voulais remettre ma station Sun en état, mais les XVR-100 sont de plus en plus onéreuses, et j’ai trouvé une Radeon 7000 pour Mac (une vraie, pas une flashée) pour un prix correct. Du coup, j’ai mis la carte Apple dans un Mac et la carte Sun dans une machine Sun. Pour rappel, tout de même : les cartes Apple et Sun demandent une ROM qui fait physiquement 128 ko, quand la majorité des cartes PC contient une puce de 64 ko. Donc on peut passer sans trop de soucis d’une carte Apple à une Sun en flashant, mais avec une carte de PC, c’est plus compliqué.

Les deux cartes, plutôt proches (la Mac a une sortie TV)


La ROM de 128 ko


La carte Apple


La carte Sun

Le changement de carte n’a pas posé spécialement de problèmes : elles sont pratiquement identiques. J’ai eu une erreur au démarrage sur le Mac et j’ai perdu la définition que j’utilisais, mais rien de vraiment bloquant. Les deux différences (physique) entre les deux cartes viennent de la présence d’une sortie TV sur la version Mac, en plus des connecteurs VGA et DVI, et d’une quanité de mémoire un peu plus faible (32 Mo contre 64 Mo). Mais dans une machine de la fin des années 90, ce n’est vraiment pas quelque chose de gênant. Elle n’avais pas la dernière ROM Apple (la 208) mais c’est assez facile de mettre à jour, donc rien d’embêtant.

(re)flasher la carte Sun

Pour le (re)flash, le plus simple est une machine sous DOS, équipée d’une carte graphique principale qui n’est pas une ATi. Techniquement, on peut le faire, mais c’est une sécurité pour ne pas flasher la mauvaise carte. Là, j’ai dû bidouiller un peu dans le setup du BIOS, notamment pour mettre la carte AGP – celle que je ne vais pas flasher – en premier dans la liste. Le but est de démarrer sur une carte qui n’est évidemment pas la Radeon à flasher. Je vous mets les fichiers là.

Avec la première carte, j’ai eu une erreur, avec une seconde, ça a fonctionné. Il faut donc démarrer en mode DOS, taper flashrom -i pour vérifier que la carte est détectée, et bien noter son ID.

Ensuite, par précaution, sauver la ROM Apple : flashrom -s X apple.rom (X est l’ID).

Enfin, placer la ROM Sun : flashrom -f -pm X xvr.rom Ca devrait aller vite et indiquer que 128 ko ont été flashé.

Utiliser la carte dans une station Sun

La partie la plus compliquée : ma station Sun. J’ai utilisé la machine pour tester MAE (et MAE 3.0) mais elle a un petit souci : sa pile est vide. Et chez Sun, ce n’est pas comme dans les PC (une pile bouton), c’est un composant qui contient la mémoire NVRAM (en gros les paramètres de démarrage) et la pile, un peu comme les Dallas de certains vieux PC. Comme la batterie interne est vide, il faut la remplacer. La valeur sur le sticker est l’adresse MAC de l’Ethernet (les trois premières valeurs ne changent jamais) et la puce elle-même est une ST M48T59Y-70PC1. J’en ai commandé une que je programmerais (quelques lignes de commande), ça se trouve assez facilement.

La puce


Le modèle exact

Du coup, la machine démarre uniquement sur la console et sans puce NVRAM valable, la série de lignes à taper est longue.

Quelques erreurs au démarrage

Pour vérifier si la Radon est reconnue, quelques lignes à taper. C’est de l’Open Firmware, donc si vous utilisez de vieux Mac, vous reconnaîtrez peut-être.

show-displays

Il va liste les deux cartes (l’intégrée et la Radeon). Une fois la carte sélectionnée, il faut taper la ligne suivante suivie d’un control + Y (le control est placé au milieu sur le clavier Sun)

nvalias mydev

Enfin, trois lignes qui permettent de déplacer la console sur la carte Radeon et sa sortie DVI. Attention, il faut la dernière ROM (flashée ici) pour que ça fonctionne, sinon vous n’aurez que le VGA.

setenv output-device mydev
setenv use-nvramrc? true
reset-all

Le résultat est un peu bizarre, mais visiblement ma carte n’aime pas la définition en sortie.

Comme la carte semble fonctionner, je m’arrête là pour cette fois, en attendant une puce NVRAM de remplacement.

Activer Sidecar sur un vieux Mac n’est pas une bonne idée

A la sortie de Catalina, j’avais parlé de Sidecar et de la possibilité de l’activer sur un ancien Mac, incompatible. J’ai (re)testé… et j’ai compris pourquoi Apple ne le permettait pas.

Petit résumé : Sidecar permet d’utiliser un iPad compatible comme écran, sur un Mac compatible. Je mets deux fois compatible parce que la limite est double. Il faut un Mac capable d’encoder en HEVC (en gros, tout ce qui est sorti après 2016), et un iPad capable de décoder du HEVC (donc un appareil en A9 au minimum, c’est-à-dire 2015). Au lancement de Catalina, quelques lignes de commande permettaient d’activer Sidecar sur les anciens Mac, mais avec 10.15.7 (et probablement nettement avant), ça ne fonctionne plus. La solution s’appelle SidecarPatcher (en ligne de commande) ou Free Sidecar, qui mélange une interface et un peu de ligne de commande.

Avant de montrer que ça fonctionne, il faut parler de plusieurs choses. Premièrement, ça nécessite de modifier des fichiers systèmes de macOS, ce qui n’est pas anodin : on doit désactiver des sécurités de l’OS. Deuxièmement, ça ne fonctionne que sous Catalina, pas sous Big Sur (probablement à cause des sécurités en question, d’ailleurs). Ensuite, si le programme permet en théorie d’activer Sidecar pour pas mal d’iPad, il y a des cas ou ça ne fonctionne pas. J’ai essayé sur un ipad mini 2, resté sous iOS 12, et ça ne fonctionne pas. Même en activant explicitement Sidecar, rien, probablement parce que Sidecar nécessite iOS 13. C’est un peu bizarre de proposer de l’activer alors que ça ne fonctionne pas, du coup. Enfin, et je vais expliquer le titre, c’est une mauvaise idée.

Sidecar encode en HEVC pour envoyer l’image à l’iPad. Le HEVC (H.265) est un codec efficace, mais quand on active Sidecar sur un Mac qui ne le supporte pas nativement (matériellement), on passe sur un encodage logiciel. Ca implique deux soucis vraiment gênants. Premièrement, l’image sur l’iPad est affreuse. Ca fourmille, c’est flou dès que ça bouge, ce n’est vraiment pas propre, ni même réellement utilisable. Sur le coup, techniquement ça fonctionne, mais en pratique c’est vraiment inutilisable à mon sens tellement l’image est dégradée. j’ai essayé de filmer avec l’iPhone pour le montrer, et la partie avec le curseur montre bien le problème (et ce n’est pas la compression YouTube).

Enfin, et c’est un problème lié, l’encodage en temps réel et par le processeur est assez lourd. Sur un MacBook Air de 2012 (Core i7), l’encodeur prend entre 30 et 50 % du CPU en permanence, et la machine souffle pas mal.

Une occupation CPU assez élevée

L’installation

Si vous voulez quand même essayer, voici la marche à suivre.

Premièrement, aller télécharger la dernière version, et lancer le programme avec un clic droit -> ouvrir.

Sauvegarder le fichier qui va être modifié.

cp /System/Library/PrivateFrameworks/SidecarCore.framework/Versions/A/SidecarCore ~/Downloads/SidecarCore.bak

Copier le fichier qui va être modifié.

cp /System/Library/PrivateFrameworks/SidecarCore.framework/Versions/A/SidecarCore ~/Downloads

Dans le programme, sélectionner le fichier SidecarCore qui est dans le dossier Téléchargement.

Maintenant, il faut activer les iPad et les Mac. Pour trouver le type d’iPad, je vous conseille MacTracker. Si vous avez un iPad Air 2, par exemple, c’est un iPad5,3. Il faut cocher l’iPad que vous avez. S’il est supporté officiellement par Sidecar, pas besoin de le chercher évidemment.

Pour le Mac, faites  -> A propos de ce Mac -> Rapport système. Dans Matériel, vous aurez le modèle du Mac. Sinon, Mactracker aussi. Mon MacBook Air de test (11 pouces, 2021) est un MacBookAir5,1.

L’étape suivante, c’est désactiver le SIP. Il faut redémarrer le Mac en pressant command + R, lancer le Terminal, taper csrutil disable et redémarrer.

Maintenant, ce n’est pas fini. Il faut lancer le Terminal et taper les commandes suivantes.

sudo mount -uw /
sudo cp ~/Downloads/SidecarCore /System/Library/PrivateFrameworks/SidecarCore.framework/Versions/A/SidecarCore
sudo codesign -f -s - /System/Library/PrivateFrameworks/SidecarCore.framework/Versions/A/SidecarCore

Avec un macOS Catalina à jour (après 10.15.4), il faut aussi taper la commande suivante.

sudo nvram boot-args="amfi_get_out_of_my_way=0x1"

Maintenant, il faut (encore) redémarrer et ça devrait fonctionner. L’icône va apparaître dans les Préférences système, et l’iPad devrait être détecté. Mais comme expliqué plus haut, c’est vraiment très très moche, et la limitation aux Mac dotés d’un encodeur matériel (et efficace) est logique.

L’icône est là


Ca marche

Normalement, pour revenir à la version originale, il faut simplement taper cette commande.

sudo cp ~/Downloads/SidecarCore.bak /System/Library/PrivateFrameworks/SidecarCore.framework/Versions/A/SidecarCore

Ensuite, si vous avez un Catalina à jour, celle-ci.

sudo nvram -d boot-args

Nreal vs Unreal : le procès entamé par Epic Games

Par : Vonintsoa
Procès opposant Nreal et Unreal

En tant que concurrentes dans le même domaine, Epic Games accuse Nreal d’avoir copié son nom de leur propre marque Unreal.

Le fabricant de lunettes de réalité augmentée Nreal aurait copié le nom de la marque déposée Unreal. La ressemblance entre les deux désignations n’est sûrement pas une coïncidence selon les développeurs d’Epic Games.

Epic Games poursuit Nreal pour avoir copié Unreal

Epic Games a entamé une poursuite judiciaire contre le fabricant d’équipements AR, Nreal sous prétexte d’avoir copié la marque Unreal. En effet, ces deux noms sont très similaires, à la fois au niveau de l’apparence et de la prononciation. Selon eux, cette ressemblance n’est pas le fruit du hasard. Étant donné que les deux marques sont concurrentes dans le même domaine, il est impossible d’envisager leur coexistence. En d’autres termes, cela pourrait créer une confusion auprès des consommateurs.

La désignation Unreal est associée à une dizaine de produits et de services dont des logiciels, des jeux vidéo, des espaces et plateformes virtuels, etc. De son côté, la marque concurrente a lancé les lunettes de réalité mixte Nreal Light l’année dernière en Corée du Sud. Et prochainement, elle prévoit de les mettre sur le marché américain.

Certes, Unreal n’a pas encore développé des dispositifs AR/VR, contrairement à Nreal, mais son intérêt pour le secteur est évident.

Le procès

Avant d’en arriver au procès, des discussions ont eu lieu entre les deux marques. Malheureusement, elles ne sont pas parvenues à trouver un terrain d’entente, car les deux parties sont bien décidées à défendre leurs noms.

Cela fait déjà plusieurs années que Unreal revendique l’exclusivité sur le nom, par rapport à Nreal. Mais ce fut sûrement la décision de cette dernière à intégrer le marché américain qui a conduit au procès. Ainsi, Epic s’attend à ce que Nreal modifie le nom de la marque, et réclame des dommages-intérêts.

Néanmoins, d’après le porte-parole de l’accusée, cette poursuite judiciaire serait infondée. Nreal s’attribue une réputation qui serait le fruit de l’innovation et de ses performances en termes de réalité augmentée. Pour appuyer son argument, le porte-parole évoque les développeurs et les consommateurs asiatiques et européens qui la considèrent comme une start-up révolutionnaire.

Pourtant, ce n’est pas la première fois que Nreal et Unreal se trouvent mêlé à un procès. En effet, Nreal a déjà fait l’objet d’une poursuite pour vol de secrets industriels, bien que la plainte avait été rejetée. D’autre part, Unreal a également entamé un procès contre Apple au début du mois de mai.

Cet article Nreal vs Unreal : le procès entamé par Epic Games a été publié sur Réalité-Virtuelle.com.

Holo-Podium : les premiers appels holographiques

Par : Vonintsoa
Holo-podium

Le nouveau Holo-Podium de DVE transforme les appels vidéos en présentations holographiques.

Grâce à cette nouvelle technologie, un appel passé depuis les plateformes comme Zoom devient instantanément un hologramme. Désormais, les réunions holographiques peuvent se faire sans utiliser des lunettes de réalité augmentée.

DVEholographics lance Holo-Podium

Rappelons, d’abord que DVEholographics est un fournisseur de solution holographique de travail collaboratif. Ils ont annoncé une nouvelle expérience pour des réunions holographiques plus économiques et plus pratiques. En effet, cette nouvelle technologie permet aux entreprises d’éviter les locations de studios et des matériels de production qui coûtent chers. Par ailleurs, l’Holo-Podium offre des hologrammes compatibles avec les plateformes de communications telles que Zoom, Microsoft Teams et Webex.

Les images projetées sont de haute qualité avec la technologie HDR. De plus, il est possible de générer ces hologrammes peuvent depuis n’importe quel espace de travail même avec des ressources limitées.

Leur ancienne solution holographique, Light Mesh a été adoptée par beaucoup d’utilisateurs dans le monde, d’après Steve McNelley, directeur général de DVEholographics. Toutefois, les systèmes d’affichages ne satisfont pas tous les clients. Mais avec l’écran transparent proposé par l’Holo-Podium, les images 3D sont plus claires et plus détaillées grâce aux micro-pixels de lumières. D’autant plus que les communications en vidéo holographiques peuvent désormais se passer des lunettes de réalité augmentée. Autrement dit, les appels peuvent être passés à partir de votre maison ou de votre bureau.

Pratique, économique et rapide

En offrant des écrans transparents HDR, DVE amoindrit le nombre de matériels nécessaires pour les réunions collaboratives. En d’autres termes, il n’y a nul besoin d’utiliser des projecteurs ni de configurer l’éclairage de la salle. L’un des plus grands avantages est aussi la possibilité d’utiliser l’Holo-Podium avec les différentes plateformes de visioconférences. De ce fait, des milliers d’utilisateurs peuvent accéder à ce service.

En matière de coûts, outre la réduction des matériels, vous pouvez rayer la location de studio de la facture. En effet, une contrainte des précédentes méthodes de travail collaboratif était l’obligation de réserver des salles dédiées. Maintenant, les collaborateurs peuvent communiquer à partir de différents endroits simplement depuis une application. Cela va sans dire, cela va permettre à l’entreprise d’économiser du temps et de l’argent. Adopter des nouvelles technologies de communication contribuera, d’ailleurs, à augmenter la productivité.

Cet article Holo-Podium : les premiers appels holographiques a été publié sur Réalité-Virtuelle.com.

Des hologrammes 3D interactifs qui flottent dans les airs

Par : Vonintsoa
Hologrammes 3D

Des chercheurs de l’Université Brigham Young ont développé des hologrammes en 3D sans avoir recours à un smartphone ou à un casque de réalité augmentée.

L’équipe de recherche a créé une animation holographique 3D avec des faisceaux lasers et une particule flottante dans les airs. Autrement dit, l’image peut être visualisée sans utiliser un smartphone ou un casque AR dédié.

Des hologrammes 3D avec des faisceaux lasers

Le groupe de chercheurs sur le thème de l’holographie utilise des faisceaux lasers pour piéger une particule dans l’air. Ces faisceaux permettent de diriger la particule dans différentes directions. En les déplaçant suffisamment vite, cela crée des animations holographiques colorées qu’on peut voir sous différents angles. Par ailleurs, il n’est pas nécessaire d’utiliser un smartphone ou un casque AR pour visionner les images.

Dans une vidéo postée sur YouTube, Dan Smalley, professeur en ingénierie électrique, fait une démonstration. Il s’agit des hologrammes en 3D de USS Enterprise et un Klingon Warbird. L’animation montre une bataille de 4 minutes, avec des tirs de torpilles à photons, des lasers et des explosions.

Smalley précise que les images ne sont pas générées par un ordinateur, comme les hologrammes dans les films. Il s’agit d’une scène réelle, avec des faisceaux lasers qui se déplacent dans l’espace entre les deux vaisseaux.

L’origine du projet

Il y a trois ans, les chercheurs ont mis sur pied le dispositif Optical Trap Display (OTD). Il permet de produire des petits hologrammes 3D dans les airs. Par la suite, Smalley et son équipe de chercheurs ont développé leur technologie pour créer des animations. Aujourd’hui ils expérimentent des productions holographiques proches du Holodeck dans Star Treck ou le mode de communication dans Star Wars.

L’image créée peut interagir avec l’espace ou les objets physiques réels. Toutefois, étant donné qu’elle utilise une seule particule, cette interactivité reste limitée. Les hologrammes 3D peuvent apparaître dans le champ d’un écran volumétrique fixe. Les particules flottantes dans l’espace de cet écran peuvent donc servir à produire des animations à l’échelle de ce volume. Il est tout à fait possible de créer un hologramme de grande taille, à condition d’avoir le volume d’écran adéquat. 

Néanmoins, la parallaxe de mouvement peut créer une illusion optique pour afficher l’image en plus ou moins grande taille, en fonction de votre position. Selon Smalley, il est possible de créer de reproduire des scènes extérieures, comme une lune au-delà des fenêtres.

Cet article Des hologrammes 3D interactifs qui flottent dans les airs a été publié sur Réalité-Virtuelle.com.

Locomotion Vault : plus de 100 mouvements VR répertoriés

Par : Vonintsoa
Locomotion Vault

Locomotion Vault est une base de données qui répertorie plus de 100 techniques de locomotion en réalité virtuelle.

La locomotion est un élément fondamental en termes de réalité virtuelle car l’expérience et le confort de l’utilisateur se basent sur elle. Cette ressource permet aux développeurs d’analyser toutes les locomotions répertoriées et prendre des décisions appropriées.

Le Locomotion Vault

Depuis la conception de la technologie VR, les chercheurs et les développeurs ont créé un nombre impressionnant de locomotions. Chacune d’elles présente ses propres avantages, mais aussi ses inconvénients. Le Locomotion Vault répertorie plus de 100 techniques de locomotion pour comprendre l’espace et identifier les faiblesses pour une amélioration.

Ce projet de recherche a réuni Massimiliano Di Luca, Simon Ega et Hasti Seif qui viennent des universités de Birmingham, Washington et Copenhague ainsi que Mar Gonzalez-Franco du Microsoft Research. La base de données interactive contient 109 techniques de mouvement en réalité virtuelle classées en fonction de leurs attributs. Il peut s’agir de la posture, la vitesse, le multitâche, l’énergie, l’incarnation, et tant d’autres. 

Le Locomotion Vault peut également accueillir de nouvelles données. Pour les intégrer, il suffit de cliquer sur l’option «Entrer une nouvelle technique» depuis le site web. Les attributs servent à comparer les similarités entre les différentes techniques. Par ailleurs, les chercheurs affirment avoir choisi une approche automatisée pour que la base de données évolue avec la technologie.

Pour quel intérêt ?

L’objectif du Locomotion Vault est de fournir un large panel de techniques de locomotion pour faciliter la navigation et la visualisation. De cette manière, les développeurs et praticiens peuvent identifier les éventuelles lacunes et ainsi établir de nouvelles techniques plus appropriées.

Selon les chercheurs, cet outil contribue à développer le domaine de la locomotion. De plus, ce sera un support pour la découverte et la mise en œuvre de nouvelles méthodes de locomotions, en tenant compte des lacunes observées. D’autre part, le Locomotion Vault donne une longueur d’avance sur les nouveaux défis et enjeux de l’innovation technologique.

En d’autres termes, à court terme, ce projet aide à améliorer les techniques de locomotion actuelles. Et dans une vision plus lointaine, il vise également à soutenir les futures découvertes en matière de réalité virtuelle.

Cet article Locomotion Vault : plus de 100 mouvements VR répertoriés a été publié sur Réalité-Virtuelle.com.

Non, Apple n’envoie pas l’AAC d’Apple Music directement aux casques (et aux AirPods)

Comme Apple va (peut-être) annoncer une version sans pertes d’Apple Music aujourd’hui, j’en profite pour revenir sur un truc sur Bluetooth. On voit parfois (et je l’ai écrit, probablement sur ce site d’ailleurs) que chez Apple, l’AAC (issu d’Apple Music, iTunes, etc.) est transféré directement à un casque en AAC, sans (re)compression. Et c’est faux.

Sous iOS, macOS ou n’importe quel autre OS, d’ailleurs, l’AAC est bien recompressé. C’est assez peu audible parce que l’AAC est un bon codec (on en parle là) et que l’encodeur d’Apple est efficace. Globalement, de l’AAC à 256 kb/s est transparent à l’écoute dans la majorité des cas. Pour le dire plus simplement, les utilisateurs ne font pas la différence entre de l’AAC à 256 kb/s et de la musique sans compression. Ils peuvent le dire (et certains ne s’en privent pas) mais ma petite expérience le montre un peu, en réalité c’est… compliqué.

Maintenant, vous pourriez ne pas me croire : pleins de gens disent le contraire. Et pourtant, deux expériences (plus ou moins) simples prouvent qu’iOS et macOS recompressent bien l’AAC.

La première est assez basique : lancez un morceau sur Apple Music et un autre programme en même temps. Ou faites retentir un son système. Vous l’entendrez dans le casque en même temps que la musique, ce qui prouve que le casque ne reçoit pas uniquement le fichier AAC d’Apple Music. Il n’y a pas de dégradation ou de coupure, ce qui montre bien que ce qui est transmis (compressé) en Bluetooth est bien la sortie audio de l’OS. C’est empirique, mais efficace et simple.

La seconde méthode le prouve de façon bien plus efficace, mais nécessite un peu de manipulation. J’ai pris un morceau morceau sur Apple Music, et j’ai enregistré la sortie en Bluetooth, avec un périphérique qui m’indique explicitement que c’est de l’AAC. Il a une sortie S/PDIF, donc on évite les conversions numérique vers analogique : ce que j’ai obtenu, c’est ce qu’un casque va recevoir avant de l’envoyer dans vos oreilles. Si Apple envoyait le fichier directement au casque, on devrait obtenir le même fichier ou quelque chose de très proche (comme le décodeur peut varier). Mais le spectre est différent : on voit très nettement que la version Bluetooth coupe les fréquences hautes.

Apple Music dépasse les 20 kHz


La compression en AAC coupe les hautes fréquences

La version Apple Music, en AAC aussi, dépasse nettement les 20 kHz sur l’extrait. La version envoyée en Bluetooth, en AAC avec une recompression, coupe aux alentours de 19 kHz (un peu en-dessous). Ce n’est pas réellement un souci, dans le sens ou la majorité des gens est incapable d’entendre un son à plus de 19 kHz, mais ça montre bien qu’il y a une coupure franche, issue du processus de compression.

Dans le même ordre d’idée, l’encodeur utilisé avec les appareils Android (ici une Nvidia Shield) coupe nettement avant, et ce site l’explique bien. La Shield, sur un autre morceau, coupe vers 17 kHz quand l’encodeur Apple coupe donc vers 19 kHz.

L’AAC Android coupe tôt


L’AAC Apple coupe moins vite

Le but ici n’est pas de dire que la compression AAC est mauvaise, ou réellement un problème. Je suis plutôt convaincu que l’énorme majorité des gens (pour ne pas dire tout le monde) n’entend absolument pas la différence entre l’AAC et de l’audio sans compression dans des tests en aveugle. Mais par contre, Apple n’envoie pas le flux Apple Music aux casques. C’est techniquement possible (ça a été a priori fait en MP3 il y a quelques années) mais ce n’est pas le cas ici.

❌