Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 26 janvier 2020Vos flux RSS

Windows ou Pippin ? Action Designer: Ultraman Tiga

Par Pierre Dandumont

Cette semaine, je (re)teste un jeu Pippin… mais sur PC. Une partie des titres de la console d’Apple et Bandai fonctionne en effet sur les trois plateformes. Il s’agit ici d’Action Designer: Ultraman Tiga.

Ce titre fonctionne sur Pippin, sur Mac, mais aussi sous Windows. Mais c’est un peu compliqué.

J’en avais parlé il y a un moment, le jeu fonctionne donc sous Windows, mais demande deux choses : un Windows en japonais (idéalement) et un affichage en 256 couleurs. Pour le premier point, on peut éventuellement s’en passer, mais pas le second. Et c’est compliqué. J’ai tenté d’installer Windows 3.1 en japonais avec un pilote vidéo, mais sans succès. Que ce soit VMWare Fusion, Parallels, Qemu ou même Virtual PC (dans une machine virtuelle), l’installation se passe (plus ou moins) bien mais le passage en 256 couleurs ne réussit pas. C’est visiblement lié aux fonctions spécifiques des versions japonaises nécessaires pour afficher les kanjis. J’essayerais un jour sur du vrai matériel, mais en attendant j’ai tenté sur une machine virtuelle Windows 3.1 en anglais.

Le message indique qu’il veut un écran en 256 couleurs

Généralement, je teste les jeux Pippin sur une vraie machine (Mac ou Pippin), mais ici c’est donc une machine virtuelle Windows 3.1 en anglais.

Sous Windows, le jeu accepte les définitions élevées (ma machine virtuelle est en 1 024 x 768 et 256 couleurs) et il permet de sauver en BMP (Windows oblige) et pas en PICT, le format des Mac. Attention tout de même, la zone de « jeux » reste en 640 x 480. L’interface reste la même, avec simplement des menus à la Windows. Comme mon OS n’est pas en japonais, on a surtout un Gloubi-boulga de caractères dans les menus du jeux, que ce soit ceux de la barre de menu ou ceux du jeu lui-même.

A propos


Le jeu



Les menus sur un OS en anglais



Le jeu sauve en BMP


Ca s’ouvre avec Paint


L’image sauvée

Si jamais j’arrive à installer un Windows 3.1 ou 95 en japonais, je mettrais à jour.

LogicKeyboard, les claviers Apple pour les pros du raccourci

Par Pierre Dandumont

Pendant les soldes, LDLC a mis en vente un truc un peu particulier : un kit LogicKeyboard pour les anciens claviers Apple (et pour Logic Pro 8). Un truc qui devait traîner derrière une armoire, vu que le clavier en question n’est plus en vente depuis 2007. Vu le prix, et avec un code promo (SNOW10), j’en ai acheté un.

La société danoise LogicKeyboard est spécialisée dans les claviers personnalisés pour les logiciels professionnels, de Logic Pro X à Final Cut X en passant par Premiere, Photoshop, etc. Si vous n’avez jamais vu ce genre de claviers, ils intègrent des touches colorées avec les raccourcis indiqués directement. Dans un contexte professionnel, et avec des logiciels qui font énormément appel à des raccourcis, le gain en productivité est assez important.

Avant


Après

Pouir l’exemple, je suis allé voir ce que la société propose pour Logic Pro X. On trouve donc des skins, c’est-à-dire des caches à placer sur les claviers classiques (MacBook Pro après 2016, MacBook Pro avant 2016 – 2012 à 2015, je suppose – et Magic Keyboard avec pavé numérique. Mais la société vend aussi des claviers complets. Il peut s’agit de claviers compatibles avec les Mac (avec des touches adaptées à macOS) ou tout simplement des claviers Apple modifiés en usine. Pour Logic Pro X, la société vend un ancien clavier Apple aluminium pour 140 €. Dans les années 2000, la société vendait aussi des touches en kit, quand il était possible de les enlever facilement. Le passage sur un format à ciseaux à évidemment sonné le glas de cette possibilité.

Un clavier Apple modifié

Le kit

Le kit nécessite un clavier Apple Keyboard (le blanc, sorti en 2003, référence A1048). Le kit, adapté à l’AZERTY (agencement ISO), comprend toutes les touches nécessaires et un outil pour échanger facilement les keycap. La qualité des pièces est correcte, même si le plastique semble subjectivement meilleur sur le clavier Apple. Les touches n’ont pas exactement le même marquage (la police utilisée est différente) et les lettres sont plus petites pour afficher les raccourcis. Le changement de touches est assez rapide, en quelques dizaines de minutes, vous devriez arriver à changer toutes les touches. La seule partie énervante vient des grandes touches, il faut enlever les barres de métal internes pour les placer dans les nouvelles touches.

Le kit


Les touches


Enlever une touche


Petite comparaison


Le résultat


Le résultat

Je n’ai pas trouvé le prix du kit à l’origine, mais c’était a priori intéressant si vous possédez déjà le clavier Apple.

Revivre Notre-Dame : visitez la cathédrale en VR avant et après l’incendie

Par Bastien L
revivre notre dame oculus

” Revivre Notre-Dame ” est un documentaire en réalité virtuelle produit par Facebook / Oculus en partenariat avec TARGO, le spécialiste français du documentaire en VR. Cette expérience poignante vous propose de visiter la cathédrale avant et après l’incendie…

Le 15 avril 2019, l’incendie de la cathédrale Note-Dame de Paris bouleversait le monde entier. Neuf mois plus tard, TARGO dévoile ” Revivre Notre-Dame ” : un documentaire en réalité virtuelle de 16 minutes produit en partenariat avec Facebook et Oculus.

À travers cette expérience, réalisée par Chloé Rochereuil et produite par Victor Agulhon, vous pourrez visiter le célèbre monument tel qu’il était après l’incendie… mais aussi juste avant !

Par un heureux hasard, TARGO avait réalisé en janvier 2019 un documentaire en VR sur Patrick Chauvet : recteur-archiprêtre de Notre-Dame. Pour l’occasion, la cathédrale avait été entièrement filmée à l’aide d’une caméra à 360 degrés.

Après l’incendie, ces images ont pu être utilisées pour la première partie de ” Revivre Notre-Dame “. Le spectateur pourra ainsi découvrir les différentes parties du lieu tel qu’il était quelques mois avant le sinistre.

Au rythme de cette visite virtuelle, l’histoire de la cathédrale est contée par l’historien Jean-Michel Leniaud. La Maire de Paris, Anne Hidalgo, décrit quant à elle le rapport affectif des Parisiens avec cet édifice emblématique. Enfin, Patrick Chauvet évoque ses souvenirs et livre ses réflexions suite à l’incendie.

Revivre Notre-Dame : un documentaire poignant produit par le Français TARGO et Facebook / Oculus

Dans la seconde partie du documentaire, vous pourrez vous immerger au coeur du chantier de restauration de Notre-Dame. Les équipes de TARGO ont reçu l’autorisation de filmer le chantier, allant jusqu’à se rendre sous la nef à l’aide d’un robot télécommandé. Des prises de vues aériennes ont également été capturées par un drone.

Le Général d’armée en charge de la restauration, Jean-Louis Georgelin, raconte comment les opérations d’urgence ont été réalisées et quels sont les travaux nécessaires pour rebâtir la cathédrale et lui restituer sa splendeur.

Le documentaire s’achève par un avant-après spectaculaire, proposant de revivre une messe à Notre-Dame prenant place au beau milieu des décombres. Un final particulièrement émouvant…

En co-produisant cette oeuvre, Facebook / Oculus prouve que la réalité virtuelle peut être particulièrement pertinente pour la reconstitution historique et les documents d’archives. Le documentaire ” Revivre Notre-Dame ” est disponible dès à présent et gratuitement à cette adresse, en exclusivité sur l’appli Oculus TV pour Oculus Quest.

Cet article Revivre Notre-Dame : visitez la cathédrale en VR avant et après l’incendie a été publié sur Réalité-Virtuelle.com.

À partir d’avant-hierVos flux RSS

Les secrets de la touche option (alt, ou ⌥)

Par Pierre Dandumont

Ça fait beaucoup trop longtemps que je devais en parler. Guillaume Gète, une référence depuis des années dans le monde Mac francophone, a sorti un petit livre sur la touche option (alt).

Pour ceux qui l’ignorent, la touche option (alt ou ⌥) sert dans pa mal de cas à proposer une action alternative. Le livret de Guillaume propose 70 exemples, mais il y en a sûrement pas mal d’autres encore, parfois invisibles et peu documentés. Ca va de choses évidentes, comme presser alt pendant un déplacement de fichiers pour le dupliquer au lieu de le déplacer, à l’affichage d’informations supplémentaires dans le menu AirPort Wi-Fi. Et en pressant alt et une touche de raccourcis multimédias, saviez-vous que les préférences correspondantes apparaissent ?

Je suis certain qu’en lisant ce petit livret, vous apprendrez des choses qui vous aideront à mieux maîtriser macOS. Merci Guillaume !

Apple veut cartographier votre bout des doigts et votre visage

Par Pierrick LABBE
Apple brevets bout des doigts

Apple a déposé de nouveaux brevets destinés à améliorer la façon dont un utilisateur peut toucher et interagir avec des objets en réalité virtuelle ou augmentée.

Un autre brevet déposé aux Etats-Unis vise à étudier comment un casque pourrait être ajusté afin de mieux correspondre à la forme de la tête du porteur.

Apple veut améliorer l’expérience utilisateur

On le sait, Apple prépare bien des équipements à court ou moyen terme. La firme de Cupertino ne veut toutefois pas aller trop vite afin de s’assurer qu’ils seront bien reçus  par le public. Or, une grande partie de l’équation se joue en fait sur la qualité de l’expérience et l’utilité réelle d’une nouvelle technologie. La marque à la pomme vient de déposer deux brevets intéressants. Le premier est destiné à l’interaction avec des objets dans un espace virtuel. « Dans les systèmes de réalité virtuelle, des gants à retour de force peuvent être utilisés pour contrôler des objets virtuels. Les téléphones cellulaires peuvent avoir des écrans tactiles et des vibreurs qui sont utilisés pour créer un retour haptique en réponse à une entrée tactile. De tels appareils peuvent ne pas être pratiques pour un utilisateur, peuvent être encombrants ou inconfortables, ou peuvent fournir un retour inadéquat » explique ainsi le document.

Apple propose donc des capteurs minces pouvant être portés au doigt. L’autre brevet concerne la capacité à localiser et manipuler des objets. Apple sait que les casques actuels sont destinés à être remplacés par des lunettes, mais en attendant ils sont conçus pour s’adapter au plus grand nombre et ne sont donc pas forcément idéaux pour tout le monde. Apple imagine donc que les casques portent des capteurs similaires à ceux du Face ID pour scanner le visage de l’utilisateur. Un module d’ajustement facial personnalisé pourrait ensuite être utilisé pour ajustement le dispositif sur le visage.

Cet article Apple veut cartographier votre bout des doigts et votre visage a été publié sur Réalité-Virtuelle.com.

Octi lance le premier réseau social en réalité augmentée

Par Bastien L
octi réseau social réalité augmentée

Octi a créé le tout premier réseau social en réalité augmentée. Cette application cherche à donner aux jeunes accros aux réseaux l’envie de renouer avec les relations humaines dans le monde réel…

La startup Octi vient de dévoiler le premier réseau social en réalité augmentée. Le fonctionnement est très simple. Après avoir ouvert l’application, il suffit de filmer une personne à l’aide du smartphone pour lui envoyer une demande d’ajout.

Une fois la requête acceptée, différents éléments virtuels apparaitront autour de la personne. Ces éléments numériques auront été choisis par cette dernière. Il peut s’agir de vidéos, de chansons, de photos et autres contenus multimédias.

L’utilisateur peut aussi ajouter des effets et des stickers sur le profil de la personne qu’il filme, et vice versa. Un ami Octi pourra par exemple vous faire porter un chapeau ou vous associer à une chanson.

Cette application repose sur la reconnaissance faciale, basée sur un réseau de neurones artificiels en périphérie du réseau. Comprenez par là que l’intelligence artificielle traite les images filmées par le smartphone directement sur l’appareil, plutôt que de les transférer sur le Cloud.

Cette approche ” Edge Computing ” permet d’économiser des ressources, de gagner du temps et de préserver la confidentialité. Pour une reconnaissance faciale encore plus rapide, Octi effectue une recherche parmi les amis des amis de l’utilisateur plutôt que sur l’ensemble de sa base de données. Ainsi, un utilisateur peut être identifié en seulement 20 millisecondes.

Octi veut donner aux jeunes l’envie de se rencontrer dans le monde réel

Le principal objectif d’Octi est de donner envie aux jeunes de renouer avec une vie sociale dans le monde réel. Contrairement aux réseaux sociaux les plus populaires, cette application AR incite les utilisateurs à se rencontrer en face à face. Il est possible de consulter le profil de ses amis à distance, mais l’expérience est optimisée pour des interactions dans le monde réel.

La startup a levé un total de 12 millions de dollars auprès de Live Nation, Anheuser-Busch InBev, Peter Diamandis’ Bold Capital Partners, Human Ventures, I2BF, Day One Ventures, Tom Conrad, Scott Belsky et Josh Kushner.

À l’avenir, elle compte étoffer son réseau social en réalité augmentée de nombreuses fonctionnalités et autres jeux en laissant notamment les développeurs tiers créer des outils et du contenu. Octi est disponible dès à présent sur iOS, et la version Android devrait être lancée dans le courant de l’année.

Cependant, Octi risque de s’attirer les foudres de Facebook. Actuellement, la firme de Mark Zuckerberg s’apprête à lancer Horizon : un réseau social en réalité virtuelle. Cependant, la firme américaine prépare aussi des lunettes de réalité augmentée et compte probablement lancer une version AR de Facebook…

Cet article Octi lance le premier réseau social en réalité augmentée a été publié sur Réalité-Virtuelle.com.

La prise SATA cachée des Xserve (et un GPU MXM)

Par Pierre Dandumont

En regardant un sujet sur les Xserve sur les forums de MacRumors, je suis tombé sur un sujet amusant : certains s’amusent à mettre des GPU MXM dans le Xserve 2009, et la carte mère contient même un connecteur SATA caché.

Je commence par le MXM, parce que c’est le plus simple. Sur le Xserve 2009 (3,1), le GPU – une GeForce GT120 – est en MXM, et donc il est possible de remplacer la carte par une plus rapide. Visiblement, ça passe avec des cartes Nvidia, mais logiquement sans affichage dans l’EFI (et donc au démarrage). Mais visiblement, on peut aussi installer des cartes d’iMac directement, qui sont plus rapides que la GeForce et prennent en charge l’EFI et la sortie vidéo. La seule contrainte, c’est que le connecteur MXM du Xserve est lent : il n’utilise que deux lignes PCI-Express 1.1. C’est au niveau des premiers eGPU en PCI-Express et ça limite pas mal les performances tout de même.

La seconde partie intéressante, c’est le SATA. Le Xserve propose trois emplacements pour des disques, un connecteur pour un SSD SATA en 1,8 pouce (le même que les MacBook Air de l’époque) et un connecteur pour un lecteur optique (aussi en SATA). Mais un lecteur a découvert que la carte mère propose directement les traces d’une prise SATA classique. Il a donc soudé les composants nécessaires pour installer une prise. Et je trouve que ça, c’est de la bidouille de haut vol.

La flèche noire montre les traces


La prise installée

Bon, même avec un GPU (un peu) plus rapide et du SATA accessible, un Xserve ne devient pas une machine adaptée à un usage grand public, mais ça reste intéressant de voir ce que certains arrivent à faire.

L’Easter Egg de la ROM vidéo du Macintosh SE/30

Par Pierre Dandumont

La saviez-vous : la ROM de la partie vidéo du Macintosh SE/30 contient un Easter Egg : des crédits sur les développeurs.

Je l’avais vu passer dans ce document, mais comme je n’ai pas de Macintosh SE/30, je n’avais pas vérifié. Mais je suis tombé sur un site qui contient une copie de la ROM en question. Ca demande un peu de mise en forme pour être visible, donc je vous propose le texte.

Mac SE/30 Engineering

Hall of Fame

Video Software by David Fung
CPU Software by Bob Herold and the original cast of System

Software

A/UX buddies were Rick Daley and Eryk Vershen
SQA Team led by Steve Yaste
SCM releases by Wanshu Kuo

Hardware by Jim Stockdale

Ralph Pastor kept it all running

Project Manager (and Chinese character) was H.L. Cheung
Project team led by Mike DeLaCruz
Project sanity by Donna Keyes

Au passage, il existe des méthodes pour afficher le même contenu en jouant avec un éditeur de texte pour aller dans une zone précise de la mémoire, mais je n’ai pas de SE/30.

JP Delport joins Broadcast Solutions UK as Sales Director

Par broadcastsolutions

Having opened an office in Basingstoke, Hampshire, in 2019, Broadcast Solutions are pleased to announce a new member of the UK team. As of January 2020, JP Delport will join the company and take on the role of Sales Director (Broadcast Solutions UK). With this addition, Broadcast Solutions has now underpinned its commitment to the ...

The post JP Delport joins Broadcast Solutions UK as Sales Director appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

DxO One : l’appareil photo externe pour iPhone

Par Pierre Dandumont

Cette année, la FNAC a mis en solde un appareil intéressant : le DxO One. Il était proposé 100 € (loin des ~650€ du lancement en 2015) et offre des fonctions finalement intéressantes. Petite prise en main.

Le DxO One est un appareil photo (très) compact, qui se branche sur un iPhone en Lightning. Il intègre un capteur Sony de 20 mégapixels, équivalent à celui du Sony RX100 M3, un bon appareil compact. L’objectif fixe a une ouverture de 32 mm (équivalent 35 mm) et il film en 1080p. L’appareil n’a pas d’écran dans le senn classique du terme, mais un simple minuscule écran OLED monochrome qui permet vaguement de voir le cadrage et faire le point. Il dispose de son propre espace de stockage (une microSD de 8 Go fournie, incapable de dépasser 10 Mo/s) et fonctionne de façon indépendante.

L’appareil


Le port Lightning


Sur un iPhone SE

Le DxO One ressemble un peu aux appareils photo des téléphones du début des années 2000 mais il reste indépendant. La connexion à l’iPhone passe par un connecteur Lightning rétractable, et la charge (et la connexion à un Mac) par un connecteur microUSB femelle.

Je l’ai testé avec un iPhone SE, qui a un appareil photo nettement moins bon, mais je ne suis pas certain qu’il soit vraiment intéressant avec un iPhone moderne, bardé de capteurs et de possibilités de traitements. L’interface de l’application est assez complète, on peut cadrer, faire le point, gérer les photos déjà prises, etc. L’app’ offre pas mal de latitudes pour les réglages, comme un « vrai » appareil photo : ISO (jusqu’à 12 800), ouverture, vitesse, etc. L’appareil enregistre de trois façons : en JPEG, avec possibilité de copier le résultat dans la mémoire de l’iPhone, en RAW DNG – que macOS supporte depuis pas mal d’années – et en Super RAW, une fonction qui permet de combiner plusieurs photos.

L’interface


Quelques réglages

A l’usage, c’est assez efficace. Je ne suis pas un grand photographe, et l’iPhone me suffit généralement, mais cet article explique bien un des avantages : c’est assez ludique. L’appareil est vraiment petit et donc il rentre dans une poche de pantalon sans soucis. Si le meilleur appareil est celui qu’on a sur soi, il est même meilleur que l’iPhone, parce qu’il est plus petit, plus rapide, etc. J’ai un peu retrouvé les sensations de mon premier appareil numérique, un Sony U10 : très compact, sans viseur réellement utilisable.

En pratique, DxO, avant d’arrêter tout, a quand même proposé quelques options en plus au fil du temps, comme la possibilité de commander l’appareil en Wi-Fi. C’est assez objectivement peu efficace : il ne se connecte pas toujours à mon réseau Wi-Fi et le Wi-Fi Direct est tout sauf pratique avec un smartphone, mais ça a le mérite d’exister : plus besoin de connecter l’appareil pour viser, ce qui permet des cadrages atypiques.

Le DxO One souffre d’un temps d’enregistrement assez long en général, et je vous conseille tout de même de mettre une microSD moderne pour réduire un peu les temps d’enregistrement, même si ça reste un problème dès qu’on fait quelques photos rapidement.

La qualité d’image

Alors, la balance des blancs et la qualité des images est meilleure que celle de mon iPhone SE, mais ce n’est pas vraiment étonnant. Typiquement, l’iPhone dérive vers le vert/bleu dans ma tente photo, et pas le DxO One. Trois possibilités existent pour les images : le JPEG en sortie de boîtier, correct, le RAW en DNG, la conversion en JPEG (ou autre) par macOS et le développement RAW par le logiciel DxO. On peut déjà noter deux différences : le cadrage. La sortie de boîtier et le développement coupe légèrement l’image, avec des corrections liées à l’objectif – après tout, c’est un peu la marque de fabrique de DxO -, mais le développement RAW est visiblement meilleur, avec une correction plus poussée des défauts. Cette correction a un prix : ça prend beaucoup de temps. Le logiciels n’utilise que le CPU, et nécessite plusieurs dizaines de secondes sur un MacBook Pro 4 coeurs. La conversion Apple fait le boulot, mais sans plus : elle ne corrige pas en fonction de l’objectif, par exemple. En gros, si vous avez un catalogueur et que vous faites de la retouche, le RAW en DNG semble le meilleur choix, sauf si vous avez le temps de tout traiter avec le logiciel. Le reste du temps, le JPEG en sortie de boîtier est pas mal. La gestion du bruit, avec le traitement, est assez bonne et le développement offre un résultat plutpot bon pour la taille de l’appareil.

Le DNG ouvert par macOS


En sortie de boîtier


Corrigé par le logiciel


Le DNG


Le JPEG sortie de boîtier


Le JPEG corrigé


L’Ecosse, en DNG ouvert par macOS


Le même, corrigé (45 secondes sur un Core i7 4 coeurs)

Je n’ai pas tellement testé la possibilité de filmer : c’est du 1080p en H.264 propre, mais sans réglages et sans avantages particuliers.

Pour conclure, à 100 € (ou moins en occasion), il peut avoir de l’intérêt et offre des fonctions intéressantes. C’est loin d’être parfait et il y a des défauts qui peuvent vraiment gêner, mais comme appareil d’appoint pour un smartphone c’est finalement assez efficace.

Cleopatra: un livre pour enfants combine réalité virtuelle et réalité augmentée

Par Pierrick LABBE
A Case of The Missing Cleopatra

« A Case of The Missing Cleopatra » est une expérience innovante pour les enfants qui permet d’expérimenter de nouvelles façons de raconter une histoire. On fait les présentations.

Sortir le livre de ses pages. A l’heure des réseaux sociaux et des nouvelles technologies, conserver l’attention des plus jeunes ressemble parfois à un défi pour la littérature. Cependant, cet ouvrage mise sur une approche différente et véritablement moderne et utilisant la réalité augmentée et la réalité virtuelle pour rendre la lecture immersive.

A Case of The Missing Cleopatra : aider à retrouver Cléopâtre

Selon les premières images qui ont été publiées sur les  réseaux sociaux et les sites spécialisés, avec A Case of The Missing Cleopatra, les enfants auront pour objectif d’utiliser le téléphone ou la tablette de leurs parents afin d’activer du contenu interactif en réalité augmentée. Un cardboard VR, fourni avec cette expérience, permet aussi aux enfants de se plonger dans la réalité d’un environnement égyptien, parfaitement reconstitué en réalité virtuelle. L’objectif des enfants sera de réussir à retrouver Cléopâtre qui a disparu. Les éléments en VR et AR seront utilisés pour que les enfants cherchent des indices sur sa disparition et ce qui a pu lui arriver.

Le livre A Case of The Missing Cleopatra a été mis en vente au mois de décembre dernier et coûte 29 euros, tout compris, avec le cardboard VR mais aussi l’accès à l’application qui permet d’interagir avec le contenu sur iOS et Android. Seul problème, cette expérience qui a été réalisée en partenariat avec l’entreprise éducative Musemio et une technologie italienne ne semble pas être disponible en français. Il faudra donc assurer la traduction ou bien s’assurer que vos enfants comprennent tout.

Cet article Cleopatra: un livre pour enfants combine réalité virtuelle et réalité augmentée a été publié sur Réalité-Virtuelle.com.

Un prototype de carte mère de MacBook Pro

Par Pierre Dandumont

Vu sur eBay, un prototype de carte mère de MacBook Pro 17 pouces, dans sa version 2007. Le vendeur la propose pour 200 $.

En dehors de la couleur verte inhabituelle (même si le rouge est plus courant pour les prototypes), la carte intègre quelques connecteurs de debug. La photo ne permet pas de vérifier le modèle de GPU, mais la taille et la marque (Nvidia) ne laissent pas trop de doutes sur le fait qu’il s’agit du G84 (GeForce 8600M) de la version finale. Vu la fréquence, le CPU est a priori un Core 2 Duo T7700, un modèle avec deux coeurs à 2,4 GHz. Pour le reste, rien de spécial.




REXR veut transformer tous vos jeux en réalité virtuelle

Par Pierrick LABBE
REXR

Et si n’importe quel jeu pouvait devenir accessible avec la réalité virtuelle ? C’est la promesse de REXR, la technologie imaginée par une start-up estonienne  et disponible en avant-première en France.

Avec cette technologie, vos jeux vidéo PC classiques sont désormais portables en réalité virtuelle sans avoir besoin d’un casque haut de gamme ou d’un ordinateur de pointe. Voici comment cela est possible

REXR mise sur une offre de base

REXR se décompose en deux parties. Tout d’abord une application installée sur PC et mobile. Ensuite, un casque de réalité virtuelle pour smartphone. La communication entre les deux appareils passe par le Wi-Fi, mais uniquement en local. L’entreprise estonienne a décidé de miser sur la France pour lancer ce produit. Selon les premiers tests, le résultat s’avère plutôt satisfaisant et ne souffre pas de lag. Du côté du smartphone, il vous faudra un appareil qui peut faire tourner Android 8.0 et au moins 1.080p en qualité d’affichage. On conseille 2K ou 4K si vous voulez toutefois en profiter.

Concrètement, selon REXR, si votre jeu fonctionne sur votre PC, il pourra aussi tourner en réalité virtuelle. Il faut cependant préciser que les casques VR pour smartphones n’offrent pas non plus une qualité optimale ou même qui s’approche du RIFT ou du Quest. Surtout, transformer des jeux classiques en VR ne fonctionne pas dans tous les cas. Red Dead Redemption II se révèle par exemple injouable, faute de pouvoir avoir accès au HUD, aux indicateurs ou aux sous-titres de jeu. Côté prix, il faut tout de même compter 1 mois à 14 euros et une offre annuelle à 144 euros. Bref, un petit investissement. Charge à vous d’avoir tous les équipements, l’entreprise ne propose que son logiciel.

Cet article REXR veut transformer tous vos jeux en réalité virtuelle a été publié sur Réalité-Virtuelle.com.

Tunin’Glue et l’entrée audio de la Pippin

Par Pierre Dandumont

Quand j’avais testé le jeu Tunin’ Glue, j’avais raté un truc : il peut utiliser l’entrée audio de la console. La Pippin, et c’est quelque chose d’atypique dans les consoles, dispose en effet d’une entrée audio à travers deux prises RCA à l’arrière. Tunin’ Glue est a priori le seul qui utilise cette fonction (je crois).

Je suis tombé sur cette particularité en regardant deux threads sur Twitter, avec deux personnes qui utilisent un synthétiseur maison et Tunin’ Glue. Après quelques essais, j’ai fait une petite vidéo qui montre ce que ça donne.

Pour le contexte, j’ai branché une carte son USB avec des sorties RCA vers la console. Tunin’ Glue a une interface un peu particulière, qui n’utilise que les boutons de la manette (pas le trackball), et j’ai donc dû faire quelques essais avant de comprendre (une traduction à la volée du manuel a aussi aidé). Dans la vidéo, que je commente un peu, j’enregistre d’abord – en aveugle – mon extrait audio, avant de lancer un enregistrement en local avec des sons préenregistrés. La seconde partie de la vidéo (la fin) consiste simplement à rejouer les quelques sons, dont le sample. Je suppose qu’avec de l’entraînement et une traduction du manuel (entièrement en japonais), il doit être possible de faire des choses intéressantes, mais je ne suis pas du tout musicien…

Le manuel explique comment faire

Je vous mets une image d’Evan Amos pour montrer les entrées RCA.

Les entrées RCA (à droite)

La présentation de l’Apple Watch Hermès

Par Pierre Dandumont

Récemment, jai trouvé sur eBay un petit livret intéressant : celui livré lors de la présentation de l’Apple Watch Hermès en 2015. Il présente quelques conversations entre Jony Ive et Pierre-Alexis Dumas ainsi que des photos des modèles exclusifs de la marque.

Je l’ai numérisé, ce qui permet de voir le dégradé orange à l’intérieur. J’ai aussi numérisé le signet, mais c’est un peu compliqué de montrer l’effet de relief. Le texte est intéressant quand on s’intéresse au processus de création. J’ai mis le booklet complet , je ne publie ici que les pages avec du texte en français (il y a la version anglaise).

Si jamais quelqu’un possède le bracelet orange et ne l’utilise pas, ça m’intéresse.

⁣ ⁣⁣ ⁣#repost...




⁣⁣
⁣#repost @geraldinekwikmusic⁣
⁣__________________⁣
⁣⁣
⁣Ready for a new mapping light show with my new original music written for the Church in Lievin playing this night to Sunday night !!!⁣
⁣.⁣
⁣.⁣
⁣Visual Artists : Susie-lou CHETCUTI, Patrick GRANDI, Jules HUVIG @juleshuvig/, Lucille JEANNIN, Loan LE HOANG, Simon LEBON, Hamza MRABET, Aurélien WOJTKO @_aurelien.w/ ⁣
⁣Music & Sound Design : Geraldine Kwik⁣
⁣Technique & Lights : Aurélien WOJTKO⁣
⁣Place : Église Saint-Amé - LIEVIN - FRANCE .⁣
⁣.⁣
⁣.⁣
⁣#church #lightshow #lightart #light #lightinstallation #videomapping #loomprod  #originalsountrack #musicforpaintings  #mapping #composer #frenchcomposer #musicscore #ambient #composingmusic #sound #sounddesign #art #visual #millumin #madmapper #motiondesign #aftereffects #design #architecturalmapping #projectionmapping #movingimage #digitalartist #night
https://www.instagram.com/p/B7ba5jWppcU/?igshid=84b7s5bq9hzr

Un Fusion Drive externe en APFS, avec un dock Thunderbolt 3

Par Pierre Dandumont

Il y a quelques jours, je testais le Seagate FireCuda Gaming Dock, qui combine un disque dur externe et un SSD en Thunderbolt, avec la même connexion. Et je me suis posé une question : et si je faisais un Fusion Drive ?

Le Fusion Drive, pour rappel, est une technologie Apple utilisée dans les iMac et les Mac mini, qui permet de combiner un SSD et un HDD. le SSD stocke l’OS et les données souvent utilisées, le reste est déplacé automatiquement sur le HDD. Pour l’utilisateur, c’est normalement transparent, il ne voit qu’un seul volume et le système s’occupe en arrière-plan des transferts. C’est plus efficace que les équivalents Windows, essentiellement parce que l’OS peut être placé directement dessus et que la gestion dépend directement de macOS et pas d’un pilote ou d’un logiciel ajouté.

Faire un Fusion Drive externe est souvent une mauvaise idée parce que les boîtiers qui offrent deux volumes (un SSD et un HDD) sont rares. Et le Fusion Drive, comme le RAID 0, n’apprécie pas qu’un des deux périphériques soit absent. S’il est donc possible de le faire en USB avec deux boîtiers externes, c’est dangereux. Avec le FireCuda Gaming Dock, et si vous le branchez en Thunderbolt 3, vous aurez le SSD et le HDD sur la même connexion, avec en bonus un SSD rapide.

En HFS

Il existe deux méthodes pour faire un Fusion Drive. La première, l’originale, passe par un partitionnement en GPT et Core Storage. Il faut sortir le Terminal, et c’est documenté chez Apple.

Première chose, un petit diskutil list qui va liste les périphériques. Il faut noter les valeurs /dev/diskxx du SSD et du HDD. Je vous conseille de vérifier deux fois. Pendant la rédaction de ce post, j’ai effacé un disque dur de sauvegarde.

La commande va créer un volume Core Storage avec le SSD et le HDD.

diskutil cs create FusionDrive /dev/disk11 /dev/disk12

Maintenant, il faut utiliser la commande diskutil cs list et noter la valeur Logical Volume Group (ici 61B206D1-5393-4644-B797-D8260F166959).

Puis il faut créer un volume, en remplaçant logicalvolumegroup par la valeur trouvée juste avant.

diskutil cs createVolume logicalvolumegroup jhfs+ FusionDrive 100%

Et voilà, vous avez obtenu un Fusion Drive externe. Dans mon cas, il faut 4,25 To : le disque dur de 4 To et le SSD NVMe de 256 Go.

En APFS

Depuis Mojave, il est possible de créer un volume Fusion Drive en APFS, le récent système de fichiers d’Apple. Ce n’est pas forcément une bonne idée, APFS est très lent avec les HDD, mais c’est possible et j’ai utilisé ce tutorial.

Il faut commencer de la même façon, avec un diskutil list, et bien noter les identifiants.

Ensuite, la commande suivante va permettre de créer le Fusion Drive. Il faut bien indiquer le périphérique principal (le SSD) et le secondaire (le disque dur). Si vous voulez faire un Fusion Drive de SSD, placez le plus rapide en premier.

diskutil apfs createContainer -main /dev/disk10 -secondary /dev/disk11

Refaites un diskutil list, et cherchez la valeur liée au volume synthesized.

Avec cette valeur, il faut taper cette commande.

diskutil apfs addVolume /dev/disk13 APFS "Fusion Drive"

Et voilà, le volume Fusion Drive est monté.

Ça donne quoi ?

Dans les deux cas, le système va s’arranger pour écrire d’abord sur le SSD, puis sur le HDD. C’est un peu compliqué de montrer des benchmark, vu que l’OS fait sa popote interne : si vous faites un test d’écriture, il va d’abord mettre 4 Go en cache sur le SSD puis généralement passer sur le HDD, mais ensuite les données seront déplacée sur le SSD. Fusion Drive est vraiment pensé pour être utilisé pour l’OS, qui sera forcément sur le SSD, alors que le reste des données de l’utilisateur passeront du SSD au HDD (ou le contraire) en fonction de votre usage. L’intérêt avec le Gaming Dock est surtout de proposer un espace combiné qui sera rapide dans les usages du quotidien. Pour une sauvegarde Time Machine, ça peut notamment accélérer un peu les transferts au départ, et le système déplacera ensuite les données vers le HDD.

La Reine des Neiges 2 : Disney va présenter un film en VR au Sundance

Par Bastien L
myth frozen tale vr disney

Dans le cadre du festival Sundance 2020, Disney va présenter son deuxième court-métrage en réalité virtuelle. Ce film intitulé ” Myth ” est basé sur l’univers de ” La Reine des Neiges “…

Lors de l’avant-première mondiale de “ La Reine des Neiges 2 “, organisée à Los Angeles en novembre 2019, Disney avait présenté un court-métrage en réalité virtuelle intitulé ” Myth : A Frozen Tale. Basé sur l’univers de “ La Reine des Neiges “, il s’agit du second court-métrage VR du géant américain de l’animation.

Cependant, deux mois après cette diffusion, Myth n’est toujours pas disponible pour le grand public. Néanmoins, les visiteurs du prestigieux festival Sundance auront la chance de découvrir cette expérience lors de la prochaine édition. Celle-ci prendra place du 24 janvier au 2 février à Park City, dans l’Utah.

L’an dernier, Disney avait déjà présenté son tout premier court-métrage VR, intitulé ” Cycles, au Sundance. Le réalisateur Jeff Gipson avait d’ailleurs révélé qu’un autre projet VR ” top secret ” avait été approuvé par la firme.

Ce second court-métrage est également réalisé par Gipson, épaulé cette fois par Nicholas Russell. Selon ce dernier, cette approbation est la preuve que ” Disney a la volonté d’explorer les possibilités offertes par la réalité virtuelle pour le futur “.

La Reine des Neiges 2 : Disney déterminé à explorer la réalité virtuelle

Il convient de souligner que Myth est le second court-métrage en VR de Disney, mais le premier à se baser sur l’une de ses franchises populaires. Et ce n’est pas n’importe quelle franchise, puisque ” La Reine des Neiges 2 ” est le film d’animation le plus lucratif de tous les temps avec 1,3 milliard de dollars de recettes au 6 janvier 2020.

Si Disney fait désormais du streaming sa priorité absolue avec la plateforme Disney +, il est clair que la réalité virtuelle est aussi une technologie à laquelle s’intéresse le géant. Auparavant, plusieurs jeux VR ont été produits avec The Void en se basant sur les univers de Star Wars, Marvel Avengers ou encore Les Mondes de Ralph.

De même, le studio Pixar avait créé un projet basé sur le film Coco en partenariat avec Oculus en 2017. Si ” Myth ” est récompensé lors du Sundance, on peut s’attendre à ce que les projets Disney en réalité virtuelle se multiplient

Cet article La Reine des Neiges 2 : Disney va présenter un film en VR au Sundance a été publié sur Réalité-Virtuelle.com.

ED TISCHLER TO HEAD UP GRAVITY MEDIA’S UK BUSINESS

Par rlyl

Layla Cook also promoted to UK Broadcast Equipment Rental Manager Watford, UK, 15 January 2020 – Gravity Media, the leading global provider of complex live broadcast facilities and production services to content owners, creators and distributors, has promoted Ed Tischler to the position of Acting Managing Director. In this new role, Ed will be responsible ...

The post ED TISCHLER TO HEAD UP GRAVITY MEDIA’S UK BUSINESS appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

L’accélération vidéo dans HandBrake

Par Pierre Dandumont

J’utilise HandBrake depuis des années pour (re)compresser des vidéos ou passer d’un format un peu atypique à quelque chose de plus standards, et je me suis rendu compte récemment que depuis la version 1.2, HandBrake peut utiliser l’accélération vidéo sous macOS.

L’encodage chez Apple passe parce une technologie appelée VideoToolbox. Il y a assez peu d’options dans HandBrake (et sous macOS), et la technologie est supportée depuis pas mal de temps. Pour le HEVC (H.265), ça doit marcher sur tous les Mac sortis après 2015. Le principal problème de VideoToolbox va être « Qui encode ? ». La question n’est absolument pas triviale, les Mac intègrent plusieurs encodeurs différents.

Premièrement, il y a les fonctions des GPU Intel, disponibles sur les Mac avec un IGP (les portables, quelques iMac, les Mac mini, etc.). La technologie porte le nom de QuickSync et permet d’encoder plus ou moins bien en H.264 ou en H.265 sur les appareils récents. Sur d’autres Mac, c’est le GPU dédié qui prend la main, généralement à base d’AMD. Et en fonction de la carte graphique, les résultats varient. Enfin, sur les Mac avec une puce Apple T2, l’encodage (et le décodage) passent par cette dernière (et c’est a priori plus rapide, mon Mac n’a pas de T2).

Attention, l’encodage sur le GPU peut être moins bon que sur le CPU. Les encodeurs ont des fonctions fixes et la qualité diminue, un bon encodeur CPU évite les erreurs, compressent mieux et offre un résultat meilleur, mais généralement bien plus lent. Mais pour un usage grand public basique, genre regarder un film sur l’Apple TV, l’encodeur GPU suffit généralement. Il va manger quelques détails, mais il va aller 5 à 10x plus vite, ce qui n’est pas négligeable. L’encodeur Apple, on va le voir, a un défaut gênant pour HandBrake : il demande un bitrate précis (le débit). Avec le x264 ou le x265, on peut définir une qualité à obtenir, et l’encodeur va se débrouiller en fonction de la scène. Avec l’encodeur Apple, il faut définir une valeur de débit, et c’est tout. En pratique, on a donc des fichiers plus gros par défaut, et il faut tester pour atteindre le bon rapport débi/qualité (pas très pratique).

Avec HandBrake, une fois la vidéo choisie et les paramètres définis, il faut se rendre dans l’onglet Vidéo et modifier l’Encodeur vidéo. Par défaut, HandBrake va souvent proposer le x264, un encodeur logiciel efficace. Il suffit de passer sur un encodeur VideoToolbox pour activer l’accélération. Attention, surtout avec l’encodeur H.265, le résultat n’est visiblement pas toujours parfait, mais je n’ai pas eu de soucis.

HandBrake


Deux options VideoToolbox

Quelques tests

Je suis parti d’une vidéo d’une dizaine de minutes en 1080p (Big Buck Bunny) et j’ai testé plusieurs cas de figures. La machine est un MacBook Pro 2017, avec un CPU quatre coeurs (Core i7 7700HQ), une Radeon Pro 560 et un eGPU à base de Radeon Vega 64.

L’encodage en H.264 (x264) utilise le CPU pour encoder, et le processeur reste aux alentours de 2,9 GHz en permanence (entre sa fréquence de base, 2,8 GHz, et son Turbo à 3,4 Ghz). Il encode en 7 minutes et 23 secondes (~32 fps) pour un fichier final de 278 Mo.

L’encodage en H.264 par VideoToolbox utilise le GPU (l’Intel, j’y reviens). Le CPU reste utilisé pour pas mal de tâches, mais l’encodage prend seulement 2 minutes et 18 secondes (~104 fps). Petit défaut, le fichier final est plus gros : 459 Mo. Je n’ai pas remarqué de dégradations visuelles flagrantes. Pour la taille du fichier, c’est normal : l’encodeur Apple a peu d’options, et HandBrake sélectionne un bitrate fixe (6 Mb/s) avec ce dernier, contre un réglage de qualité sur l’encodeur software (RF 22).

Le second essai a été d’encoder de la même façon, mais en débranchant le eGPU. Le résultat ne bouge pas : 2 minutes et 17 secondes. C’est bien l’IGP Intel qui encode en H.264. Le dernier essai (uniquement avec l’IGP) confirme bien que c’est l’IGP qui encode : le GPU ne s’active pas, le temps ne bouge pas.

L’encodage en H.265 (x265) avec les mêmes réglages (RF 22) utilise le processeur. Il prend nettement plus de temps (14 minutes et 33 secondes, ~16 fps). Le fichier est un peu plus petit qu’en H.264 (243 Mo). Je suppose qu’il y a des réglages plus efficaces, ceci dit.

L’encodage en H.265 par VideoToolbox utilise le GPU, et plus spécifiquement dans mon cas l’eGPU (une Radeon RX Vega 64). C’est un peu tendu à voir, mais l’augmentation de la température montre bien que c’est cette carte précise qui encode. Il faut 2 minutes et 21 secondes (~101 fps) pour un fichier de 472 Mo. C’est aussi logique : HandBrake ne permet qu’un bitrate fixe.

On voit que la Vega 64 travaille un peu

Le seconde essai, là aussi, passe par le débranchement du eGPU. L’encodage s’effectue ici sur l’IGP Intel (on peut le voir avec Moniteur d’activité) mais une partie passe aussi par le GPU dédié (Radeon Pro 560 dans mon Mac). Vu l’occupation, je peut supposer que le décodage s’effectue sur le GPU et l’encodage sur l’IGP. Malgré tout, c’est nettement moins rapide : 5 minutes 19 secondes (~45 fps). Le troisième essai confirme : il faut le même temps et macOS force l’activation du GPU.

Ici, Radeon et Intel HD travaillent de concert


L’encodage force bien le GPU

Conclusion

L’encodage H.264 s’effectue visiblement uniquement via QuickSync, et rapidement. Pour le H.265 (HEVC), ça va dépendre de votre Mac, mais un eGPU peut donner un gros gain. Le jour ou j’ai une machine sans GPU ou une autre avec une puce T2 sous la main, j’effectuerais d’autres tests.

Facebook : comment créer des pubs en réalité augmentée

Par Bastien L
facebook pub réalité augmentée tutoriel

Les publicités mobiles interactives en réalité augmentée sur Facebook peuvent être très bénéfiques pour votre entreprise. Découvrez comment créer votre première pub AR pour le réseau social…

Depuis le mois de septembre 2019, les entreprises peuvent créer des publicités mobiles interactives en réalité augmentée pour Facebook. Ces pubs d’un genre nouveau peuvent encourager les utilisateurs à découvrir vos produits, et ainsi les inciter à l’achat de façon plus convaincante.

Ces publicités AR présentent aussi l’avantage de favoriser le partage. Les utilisateurs peuvent notamment prendre des photos ou des vidéos à partager avec leurs amis via le réseau social. Il est donc possible de toucher encore plus de consommateurs grâce à ce format novateur.

Comment créer votre première pub AR pour Facebook

Afin d’utiliser les pubs Facebook en réalité augmentée, vous devrez au préalable créer votre propre effet AR sur le Spark AR Hub. Cependant, vous pouvez aussi nouer un partenariat avec un producteur de réalité augmentée via le Spark AR Partner Network de Facebook. Celui-ci se chargera de créer votre effet.

Une fois l’effet créé et téléchargé sur Spark AR Hub, quelques clics suffisent pour créer votre publicité depuis l’Ads Manager. Vous devez créer une vidéo invitant les utilisateurs de Facebook sur mobile à utiliser votre effet.

Rendez-vous tout d’abord dans le Facebook Ads Manager (gestionnaire de publicités), et cliquer sur le bouton vert ” + créer ” . Choisissez un objectif, et cliquez sur ” Continuer “.

Choisissez ensuite l’audience, les placements et le budget, puis continuez. Dans la rubrique ” Format “, cliquez sur ” image seule ou vidéo “.

Téléchargez votre vidéo. Dans la checkbox près de ” ajouter une expérience instantanée “, choisissez ” ajouter une expérience AR “. Cliquez sur ” utiliser un template ” pour ouvrir la fenêtre ” ajouter une expérience AR “.

Choisissez l’effet que vous souhaitez utiliser dans le menu déroulant. Seuls les effets approuvés par Spark AR peuvent être utilisés. Ajoutez ensuite l’URL du site web et l’appel à l’action, puis confirmez.

Dans le menu déroulant ” texte superposé “, choisissez l’action à laquelle vous souhaitez inviter les internautes pour lancer votre expérience AR. Il ne vous reste plus qu’à prévisualiser votre publicité AR. Si le résultat vous convient, vous pouvez valider l’opération.

Gardez à l’esprit que vous pourrez mettre à jour votre effet après publication. Si vous souhaitez mesurer l’impact de votre publicité AR, vous pouvez consulter le temps moyen passé par les internautes sur votre expérience ou encore le nombre de partages.

Cet article Facebook : comment créer des pubs en réalité augmentée a été publié sur Réalité-Virtuelle.com.

Brainstorm Selected By MOOV For Virtual Set, Augmented Reality, And Motion Graphics Content Creation

Par Andres Benetar

  MOOV, The UK-based sports and events graphic services provider has selected Brainstorm solutions for their upcoming requirements for advanced content creation Last year, Brainstorm, the leading manufacturer of real-time 3D graphics, augmented reality and virtual studio solutions, announced the agreement with MOOV, the UK’s leading sport & events graphics company, to become a preferred ...

The post Brainstorm Selected By MOOV For Virtual Set, Augmented Reality, And Motion Graphics Content Creation appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

Comment gérer un écran 6K ? Le cas de l’Apple Pro Display XDR

Par Pierre Dandumont

Le nouvel écran d’Apple interpelle, tant par son prix que sa définition. Mais aussi par les technologies utilisées pour le relier à un Mac. La compatibilité est plutôt limitée, et il y a de bonnes raisons techniques derrière. Je vais essayer de résumer le tout. Je ne suis pas certain à 100 % des informations, je n’ai pas l’écran ni les Mac adaptés, mais je suis parti de données techniques assez factuelles, donc ça devrait être correct.

Attention, ça va être technique.

6K pour l’écran Apple (et 5500 € sans pieds)

Je vais commencer par la norme DisplayPort. Elle fonctionne avec ce qu’on appelle des lignes (comme en PCI-Express), entre une et quatre dans une prise classique. Dans une prise classique, on utilise quatre lignes. Dans de rares cas, comme avec les adaptateurs USB-C qui sortent de la vidéo et de l’USB, on se limite à deux lignes. Ensuite, il y a le mode de transfert, qui porte le nom de HBR (High Bit Rate). Le HBR1 (vieux, DisplayPort 1.1) est à 2,7 Gb/s par ligne, le HBR2 (Displayport 1.2) à 5,4 Gb/s par ligne et le HBR3 (DisplayPort 1.3) à 8,1 Gb/s par ligne. En plus de ces modes, il existe aussi une compression (DSC) qui permet de réduire la bande passante nécessaire en compressant « sans pertes visuelles visibles » (je vais y revenir). Pour résumer, avec quatre lignes (la valeur classique), on a 8,6 Gb/s en HBR1 (une partie de la bande passante sert à l’encodage), ~17,3 Gb/s en HBR2 et ~25,9 Gb/s en HBR3.

Premier truc lié, il faut que le GPU supporte les technologies. Tous les Mac modernes (depuis le Thunderbolt 2) supportent le HBR2. Le HBR3, plus récent, ne fonctionne que sur les cartes AMD à base de Polaris (Radeon RX 500), Vega ou Navi (5000). Le DSC, lui, ne fonctionne que sur les cartes à base de Navi, donc actuellement (janvier 2020) sur le MacBook Pro 16 pouces et certains GPU du Mac Pro (la Radeon Pro W5700X, pas encore en vente). Si vous avez une carte Intel, la question ne se pose pas : il n’y a pas de support du HBR3 actuellement dans les Mac (il faut attendre Ice Lake).

Cette carte graphique à plus de 6000 € ne supporte pas le DSC

Maintenant, le Thunderbolt. La première version transporte 8 lignes HBR1. La seconde version 8 lignes HBR2. La troisième version, elle, reste à 8 lignes HBR2 dans la majorité des cas. Attention, ça va devenir compliqué : il existe plusieurs contrôleurs Thunderbolt 3, et ils n’ont pas les mêmes fonctions. Le contrôleur original porte le nom d’Alpine Ridge et se retrouve dans la majorité des Mac depuis les MacBook Pro 2016. Le Titan Ridge, lui, gère le HBR3 (5 lignes) mais ne se retrouve que dans quelques Mac : les MacBook Pro 2018 (et plus), les iMac (2019) et le Mac Pro. Les Mac mini (2018), MacBook Pro (13 pouces) et MacBook Air (2018) ont aussi un Titan Ridge mais le GPU Intel ne supporte pas le HBR3. En pratique, ça fonctionne aussi avec un eGPU BlackMagic, qui possède un contrôleur Titan Ridge et un GPU compatible HBR3 (mais pas DSC). Vous trouverez pleins de détails dans ce sujet.

Troisième étape, la définition. On l’a vu, le DisplayPort offre une bande passante assez large. Pour se donner une idée, un écran 1080p 60 Hz demande 3,2 Gb/s, un écran 1440p monte à 5,6 Gb/s et un écran 4K60 monte à 12,5 Gb/s. Les deux premiers marchent donc en HBR1, mais pas le troisième. Un écran 5K, toujours à 60 Hz, demande ~22,2 Gb/s, et un écran 6K comme celui d’Apple demande ~33 Gb/s (un peu plus à cause du HDR, mais je ne sais pas comment le calculer).

Pour transmettre autant de données, il n’y a en pratique que deux solutions : le mode HBR3 à travers du Thunderbolt 3 (5 lignes, ~40 Gb/s) ou la compression. Même huit lignes HBR2 ne suffisent pas.

Enfin, dernier point un peu compliqué, le mode de transfert. Quand un moniteur demande plus de lignes que ce que propose une prise classique (par exemple un écran 5K en HBR2), il existe différentes façon d’utiliser les lignes supplémentaires. Le premier mode, abandonné depuis pas mal d’années, porte le nom de MST (Multi Stream Display). Il a été implémenté sur les premiers écrans 4K, et montre deux écrans au système. La carte graphique voit deux écrans et l’OS doit ensuire reconstruire l’image. C’est plus ou moins efficace (moins que plus) et se retrouver avec une demi dalle active n’est pas exceptionnel (j’ai un écran de ce type au boulot). Ensuite, il y a les écrans SST (le fonctionnement classique). Puis les Dual Link SST. Comme en DVI, ils utilisent plusieurs lignes, mais ne montrent qu’un seul écran au système. Le Dual Link SST peut fonctionner en interne (cas des iMac 5K), en externe avec deux câbles (Dell ou HP font ça avec les écrans 5K) ou avec un seul câble Thunderbolt, comme les écrans 5K LG ou le 6K Apple.

Dans la pratique

De ce que j’ai vu, l’écran Pro Display XDR fonctionne de deux façons. Soit en Dual Link SST avec cinq lignes HBR3, soit en SST avec quatre lignes HBR2 et de la compression. Le premier cas va être celui de la majorité des Mac compatibles : iMac 2019, MacBook Pro 15 pouces 2018, Mac Pro 2019 et eGPU BlackMagic. Dans ce mode, il ne reste pas assez de bande passante pour de l’USB rapide, et les ports USB-C derrière l’écran sont limités à l’USB 2.0.

Le second cas ne se retrouve que sur le MacBook Pro 16 pouces et éventuellement sur le Mac Pro 2019 avec une carte Navi (Radeon Pro W5700X, pas encore sortie). Il compresse l’image, et permet donc de garder de la bande passante pour de l’USB 3.0 (5 Gb/s).

Du coup, pourquoi l’iMac Pro ne peut-il pas gérer l’écran 6K en 6K ? Parce que son contrôleur Thunderbolt est un Alpine Ridge qui ne supporte pas le HBR3 (même si la carte graphique le supporte) et que la carte graphique ne prend pas en charge la compression DSC.

Pas de 6K pour l’iMac Pro

Si Apple se décide à mettre des processeurs Ice Lake (la 10e génération en 10 nm d’Intel) dans ses machines, le Mac mini, le MacBook Air ou les MacBook Pro 13 pouces pourraient profiter de l’écran : le GPU de ces processeurs prend en charge le HBR3 et le DSC.

Maintenant, les eGPU. Les cartes qui ne supportent que le HBR3 (Polaris ou Vega) ne peuvent pas gérer l’écran d’Apple en 6K, sauf dans le cas particulier du modèle de BlackMagic qui intègre le Thunderbolt 3 directement. De ce que j’ai vu, il fonctionne en USB-C ou en Thunderbolt 2 et 3 sans Titan Ridge (même si la documentation ne l’indique pas explicitement) avec quelques limites. En théorie, un eGPU avec une carte Navi (Radeon RX 5000) et un adaptateur DisplayPort vers USB-C devrait le faire fonctionner en 6K, mais je ne suis pas certain. Dans tous les cas, le fait que l’écran ne propose que de l’USB-C (ou du Thunderbolt 3) en entrée risque de poser des soucis avec un eGPU : l’USB-C n’existe pas dans les cartes AMD actuellement.

La compression

La question à 5 500 € (sans pieds) : est-ce que la compression a un impact visible ? L’association VESA présente cette compression comme avec pertes, mais sans pertes visuelles et sans latence. la compression théorique se situe entre un facteur 2 et un facteur 3, donc c’est plutôt efficace. Je dois avouer que je suis un peu dubitatif tout de même et que je n’ai pas trouvé de comparaison ni de test. Les moniteurs qui utilisent le DSC restent rares (il y a un écran 8K chez Dell, par exemple) et la comparaison directe n’est pas évidente : on a rarement le choix. En fait, l’écran Apple est potentiellement le meilleur client pour la comparaison vu qu’il fonctionne avec ou sans DSC.

L’écran 8K de Dell

Dernier point, l’écran 8K de Dell. Vu qu’il utilise du DSC et du HBR3 avec deux prises DisplayPort, il devrait (noter le conditionnel) fonctionner sur un MacBook Pro 16 pouces ou sur un Mac pro avec une (future) Radeon Pro W5700X. Mais vu la tendance habituelle d’Apple pour brider les écrans, je ne suis pas certain. En fait, on peut même supposer que l’atypique « 6K » d’Apple a été choisi parce qu’il permet justement de connecter un écran en Thunderbolt 3 sans passer par la compression.

L’usage de la VR dans le cinéma comme pour le Roi Lion devait augmenter

Par Pierrick LABBE
Roi Lion VR

Le remake live action du Roi Lion avait été une véritable étape dans le domaine de l’usage de la réalité virtuelle pour la réalisation d’un film. Son succès devrait ouvrir de nouvelles portes à l’avenir.

C’est Rob Legato, un des superviseurs sur l’usage des effets spéciaux dans le film de Disney qui s’est prononcé sur le sujet, montrant son enthousiasme et son optimisme.

Une technologie utilisée pour le Roi Lion qui étend les possibilités

Quels sont les bénéfices de la réalité virtuelle d’un point de vue de la réalisation d’un film ? C’est ce qu’a expliqué Rob Legato qui a participé aux effets spéciaux du Roi Lion dans une interview à nos confrères du magazine Cinema Blend. C’est vraiment génial de partager une idée avant de la concrétiser. Même en termes artificiels, c’est comme, « Vous savez quoi ? Permettez-moi de vous montrer autre chose. Je vais déplacer les arbres ici; que pensez-vous de cela ? ». Et cela ne vous coûte vraiment rien, et vous pouvez expérimenter et continuer à répéter et à améliorer.

Au cours du tournage du Roi Lion, Favreau et ses équipes ont régulièrement réalisé des sessions de réalité virtuelle afin d’évaluer comment était la scène qu’ils allaient filmer. Le réalisateurs l’avait déjà décrit comme un « Jeu de réalisation de cnéma VR multijoueur ». Legato, qui a participé avant à des projets de cinéma comme Titanic et Avatar, semble en tout cas avoir été bluffé par le résultat. Pour lui il ne s’agit pas que d’une tendance. « Je pense que cela va durer. C’est génial et c’est parti pour rester. C’est un outil très puissant ».

Cet article L’usage de la VR dans le cinéma comme pour le Roi Lion devait augmenter a été publié sur Réalité-Virtuelle.com.

Mon projet de NAS rapide sous macOS (partie 4)

Par Pierre Dandumont

Depuis un moment maintenant, j’utilise un vieux Mac Pro (2006) en tant que NAS, avec une carte 10 Gb/s et plusieurs disques en RAID. j’en avais parlé , et . J’ai profité d’un peu de temps pour le mettre à jour.

A la base, je voulais juste mettre une carte Wi-Fi pour régler un petit bug. Je mets le Mac en veille et je le réveille par Bonjour Sleep Proxy, mais ça ne fonctionne que si j’utilise une des prises Ethernet de la machine. Le problème, c’est qu’au réveil la liaison s’effectue sur cette prise et pas sur la prise 10 Gb/s, même en modifiant l’ordre des interfaces correctement. J’espérais – à tort – qu’intégrer une carte Wi-Fi réglerait le problème. Mais comme j’ai dû ouvrir une bonne partie du Mac pour installer la carte, ai profité pour faire la mise à jour des CPU.

J’en avais parlé dans le premier sujet, le Mac Pro utilise des Xeon 5150 (Woodcrest) avec un TDP de 65 W et une fréquence de 2,66 GHz. En charge, ce qui reste assez rare dans mon cas, la machine consomme donc environ 200 W. Comme Gilles, j’ai décidé de réduire (un peu) la consommation, en installant des Xeon 5148. Il s’agit de deux modèles Woodcrest LV avec une fréquence un peu plus basse (2,33 GHz), le même nombre de coeurs mais (surtout) un TDP de 40 W. A l’époque, la différence venait essentiellement de la tension : 1,5 V au max sur les CPU d’origine, 1,25 V sur les autres. Bonne nouvelle, le Mac démarre avec les nouveaux CPU, et l’horloge ne bouge pas (ils ont le même TDP). Pour mon usage, le gain en consommation est intéressant (je perds un bon 40 W en charge) et la perte de performances reste assez faible. Il faut bien prendre en compte que le Mac est en veille l’énorme majorité du temps, donc consomme assez peu dans l’absolu. Le seul problème, finalement, c’est que la mise à jour a pris quand même pas mal de temps, vu qu’il faut démonter beaucoup de choses avant d’accéder aux CPU…

L’ancien CPU


2,66 GHz


Deux CPU bien propres


2,33 GHz


Mac OS X reconnaît les puces


Pas de soucis

Varjo illustre le potentiel de la réalité virtuelle dans le monde du travail

Par Pierrick LABBE
Varjo

L’entreprise finlandaise Varjo, spécialisée dans les casques pensés pour l’univers professionnel, a présenté une démonstration plutôt séduisante à l’occasion du CES 2020.

La réalité virtuelle et augmentée est souvent pensée à travers le filtre du divertissement, jeux films… mais quels sont les usages que l’on peut imaginer dans le monde professionnel.

Le « Workspace » conçu par Varjo

L’entreprise, qui compte aujourd’hui 150 employés, a connu une croissance rapide, en se focalisant sur les petites entreprises avec des coûts limités. Le CES 2020 a permis de voir comment l’entreprise envisage de remplacer les écrans physiques de nos ordinateurs par des équivalents virtuels. Si le résultat peut encore clairement être amélioré, l’usage de l’entreprise dans le domaine de la réalité augmentée, avec une définition de haut niveau, un FOV grand, des caméras couleurs et la calibration très précise de Varjo permet d’avoir un résultat bluffant. On peut ainsi retrouver face à soi l’équivalent de l’écran de notre ordinateur et pouvoir tout lire, même les petites informations.

L’idée est simple, déployer du content 3D à l’extérieur de votre écran, dans le monde autour de vous. Une avancée rendue possible grâce à ce que Varjo nomme « Bionic Display », avec un affichage de très haute résolution au centre de l’écran et plus limité sur les rebords. Mais la fusion entre les deux est vraiment invisible au niveau du rendu proposé par Varjo. L’équivalent de l’œil humain, déployé dans l’univers du travail en réalité virtuelle. Quoi qu’il en soit la démonstration du fabriquant finlandais est impressionnante et nous laisse présager ce que sera la VR dans le futur pour le travail.

Cet article Varjo illustre le potentiel de la réalité virtuelle dans le monde du travail a été publié sur Réalité-Virtuelle.com.

La réalité virtuelle peut empêcher la création de souvenirs visuels

Par Bastien L
vr souvenirs visuels réalité virtuelle

La réalité virtuelle pourrait empêcher la formation de souvenirs visuels, et donc se révéler inutile pour le secteur de l’éducation. C’est ce que révèle une étude menée par des chercheurs japonais…

La réalité virtuelle est de plus en plus utilisée dans le domaine de l’éducation. Cependant, l’efficacité réelle de cette technologie sur le plan pédagogique reste encore difficile à déterminer.

C’est pourquoi une équipe de chercheurs japonais a décidé de mener une expérience à ce sujet. Plus précisément, cette étude visait à mesurer les différences de rétention de mémoire visuelle entre la réalité virtuelle active et passive.

Pour rappel, la VR active réagit aux actions de l’utilisateur et lui permet donc d’interagir de façon ” subjective ” avec l’environnement virtuel. La VR passive quant à elle n’offre qu’un point de vue et ne prend pas en compte les mouvements de l’utilisateur.

L’expérience a été menée auprès de 40 participants, dont la moitié utilisant un casque VR actif et la seconde un casque VR passif. Chaque participant a dû visionner une vidéo tournée dans un musée et présentant 10 oeuvres de Peter Paul Rubens et 10 oeuvres de Nicolas Poussin.

Les participants ont ensuite été invités à compléter une série de tests de mémoire, immédiatement après le visionnage puis deux semaines plus tard. Lors du test effectué immédiatement après l’expérience, les résultats étaient similaires pour les deux groupes.

En revanche, deux semaines plus tard, les souvenirs du groupe ” actif ” étaient largement atténués par rapport au groupe “passif “. La conclusion des chercheurs est que la réalité virtuelle active pourrait empêcher un individu de former de puissants souvenirs visuels.

La VR active moins efficace que la VR passive pour l’apprentissage ?

Il est difficile d’expliquer ce phénomène avec exactitude. Selon les chercheurs, l’explication la plus probable est que les sujets actifs passent moins de temps à observer les tableaux puisqu’ils étaient en mesure de regarder ailleurs.

Il est aussi possible que la VR active représente une charge cognitive plus importante pour le cerveau, et l’empêche donc de former des souvenirs visuels efficacement. Pour cause, la réception sensorielle nécessite des ressources cognitives qui ne peuvent donc pas être exploitées pour ” encoder ” le contenu du film.

Par conséquent, la réalité virtuelle pourrait s’avérer inefficace pour l’éducation. La prochaine étape pour les chercheurs sera toutefois de déterminer avec plus de précision la façon dont la VR active peut perturber la formation de souvenirs visuels, et si certains autres types d’apprentissages peuvent au contraire être stimulés par cette technologie…

Cet article La réalité virtuelle peut empêcher la création de souvenirs visuels a été publié sur Réalité-Virtuelle.com.

Apple confond encore Gb et Go

Par Pierre Dandumont

Un truc qui m’énerve quand ça vient de gens (ou de sociétés) qui travaillent dans l’informatique, c’est la confusion entre Go, GB et Gb. Et même Apple, dans son OS, fait parfois l’erreur.

Pour résumer : un b (minuscule) est un bit, soit la valeur de base en informatique (1 ou 0). Un B (majuscule) est un byte, c’est-à-dire un groupement de bits. Un byte vaut généralement 8 bits (depuis un moment), même s’il existe quelques (vieilles) machines ou ce n’est pas le cas. Un octet (o) est la traduction française du byte. L’octet fait 8 bits et vaut 1 byte, parce qu’au moment de franciser le mot, les ordinateurs utilisaient tous a priori une valeur de 8 bits.

Pour résumer : 1 Go = 1 GB = 8 Gb. Je vous passe la partie sur les Gio, Gib et GiB, vous devez juste savoir que dans le système international, 1 kb (k minuscule) vaut 1 000 b (et pas 1 024). macOS (depuis Snow Leopard) compte et affiche correctement, contrairement à Windows.

Pour ajouter à la confusion, on utilise généralement le byte ou l’octet pour le stockage (donc un SSD de 512 GB ou Go par exemple) mais le bit pour mesurer les débits. Dans le cas d’un SSD, on a donc une interface à 6 Gb/s (SATA) par exemple. Même chose, je vous passe les détails sur la conversion Gb vers Go dans ce cas-là, mais dans certains cas il ne suffit pas de diviser par 8. Dans le cas du SATA, 6 Gb/s deviennent 600 Mo/s.

Apple et les valeurs

Dans le cas d’Apple, les informations système affichent assez régulièrement des valeurs fausses. Pendant longtemps, c’était le cas dans les informations sur le Thunderbolt (la norme fonctionne à 10, 20 ou 40 Gb/s, certains OS affichent 10, 20 ou 40 Go/s), et c’est toujours le cas pour Mojave dans un cas précis. Si vous allez vérifier le débit d’un périphérique USB 3.1 « Gen. 2 », macOS Mojave annonce Jusqu’à 10 Go/s et pas Jusqu’à 10 Gb/s. C’est corrigé dans macOS Catalina de ce que j’ai vu, d’ailleurs, et pour les autres valeurs de l’USB (12, 480, 5, etc.), il affiche bien des Mb et des Gb/s.

Sous Mojave : WRONG


Dans les fichiers, il y a bien l’erreur


En 2014, l’erreur existait pour le Thunderbolt

⁣ ⁣⁣ ⁣#repost @raio__⁣ ⁣__________________⁣ ⁣⁣ ⁣Video Mapping...




⁣⁣
⁣#repost @raio__⁣
⁣__________________⁣
⁣⁣
⁣Video Mapping del espectáculo L.U.X de RAIO, cubos!! 🇬🇧3D Projection mapping from show L.U.X by RAIO, dynamics Cubes!! @ayuntamientovll @renault_esp @avsistemas @cover.club @alfonsolosco #madmapper #resolume #millumin #3dprojectionmapping #audiovisuales #videomapping #encendidodeluces #mappingprojection #mapping3d #blender #foley #moog #makenoise0coast #animationnodes
https://www.instagram.com/p/B7N6bZcpuO-/?igshid=2mj6gal6zhxt

⁣ ⁣⁣ ⁣#repost @mpstudio3d⁣ ⁣__________________⁣ ⁣⁣ ⁣Organic...




⁣⁣
⁣#repost @mpstudio3d⁣
⁣__________________⁣
⁣⁣
⁣Organic ⁣
⁣#museumfürnaturkundeberlin #mpstudio #projectionmapping #videomapping #cinema4d #fol2019 #xparticles #art #picoftheday #makeideasplay #3d #organic #berlin
https://www.instagram.com/p/B7N6o1WJLdJ/?igshid=hdz9v3rqzmp1

❌