Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 17 janvier 2020Vos flux RSS

Un Fusion Drive externe en APFS, avec un dock Thunderbolt 3

Par Pierre Dandumont

Il y a quelques jours, je testais le Seagate FireCuda Gaming Dock, qui combine un disque dur externe et un SSD en Thunderbolt, avec la même connexion. Et je me suis posé une question : et si je faisais un Fusion Drive ?

Le Fusion Drive, pour rappel, est une technologie Apple utilisée dans les iMac et les Mac mini, qui permet de combiner un SSD et un HDD. le SSD stocke l’OS et les données souvent utilisées, le reste est déplacé automatiquement sur le HDD. Pour l’utilisateur, c’est normalement transparent, il ne voit qu’un seul volume et le système s’occupe en arrière-plan des transferts. C’est plus efficace que les équivalents Windows, essentiellement parce que l’OS peut être placé directement dessus et que la gestion dépend directement de macOS et pas d’un pilote ou d’un logiciel ajouté.

Faire un Fusion Drive externe est souvent une mauvaise idée parce que les boîtiers qui offrent deux volumes (un SSD et un HDD) sont rares. Et le Fusion Drive, comme le RAID 0, n’apprécie pas qu’un des deux périphériques soit absent. S’il est donc possible de le faire en USB avec deux boîtiers externes, c’est dangereux. Avec le FireCuda Gaming Dock, et si vous le branchez en Thunderbolt 3, vous aurez le SSD et le HDD sur la même connexion, avec en bonus un SSD rapide.

En HFS

Il existe deux méthodes pour faire un Fusion Drive. La première, l’originale, passe par un partitionnement en GPT et Core Storage. Il faut sortir le Terminal, et c’est documenté chez Apple.

Première chose, un petit diskutil list qui va liste les périphériques. Il faut noter les valeurs /dev/diskxx du SSD et du HDD. Je vous conseille de vérifier deux fois. Pendant la rédaction de ce post, j’ai effacé un disque dur de sauvegarde.

La commande va créer un volume Core Storage avec le SSD et le HDD.

diskutil cs create FusionDrive /dev/disk11 /dev/disk12

Maintenant, il faut utiliser la commande diskutil cs list et noter la valeur Logical Volume Group (ici 61B206D1-5393-4644-B797-D8260F166959).

Puis il faut créer un volume, en remplaçant logicalvolumegroup par la valeur trouvée juste avant.

diskutil cs createVolume logicalvolumegroup jhfs+ FusionDrive 100%

Et voilà, vous avez obtenu un Fusion Drive externe. Dans mon cas, il faut 4,25 To : le disque dur de 4 To et le SSD NVMe de 256 Go.

En APFS

Depuis Mojave, il est possible de créer un volume Fusion Drive en APFS, le récent système de fichiers d’Apple. Ce n’est pas forcément une bonne idée, APFS est très lent avec les HDD, mais c’est possible et j’ai utilisé ce tutorial.

Il faut commencer de la même façon, avec un diskutil list, et bien noter les identifiants.

Ensuite, la commande suivante va permettre de créer le Fusion Drive. Il faut bien indiquer le périphérique principal (le SSD) et le secondaire (le disque dur). Si vous voulez faire un Fusion Drive de SSD, placez le plus rapide en premier.

diskutil apfs createContainer -main /dev/disk10 -secondary /dev/disk11

Refaites un diskutil list, et cherchez la valeur liée au volume synthesized.

Avec cette valeur, il faut taper cette commande.

diskutil apfs addVolume /dev/disk13 APFS "Fusion Drive"

Et voilà, le volume Fusion Drive est monté.

Ça donne quoi ?

Dans les deux cas, le système va s’arranger pour écrire d’abord sur le SSD, puis sur le HDD. C’est un peu compliqué de montrer des benchmark, vu que l’OS fait sa popote interne : si vous faites un test d’écriture, il va d’abord mettre 4 Go en cache sur le SSD puis généralement passer sur le HDD, mais ensuite les données seront déplacée sur le SSD. Fusion Drive est vraiment pensé pour être utilisé pour l’OS, qui sera forcément sur le SSD, alors que le reste des données de l’utilisateur passeront du SSD au HDD (ou le contraire) en fonction de votre usage. L’intérêt avec le Gaming Dock est surtout de proposer un espace combiné qui sera rapide dans les usages du quotidien. Pour une sauvegarde Time Machine, ça peut notamment accélérer un peu les transferts au départ, et le système déplacera ensuite les données vers le HDD.

La Reine des Neiges 2 : Disney va présenter un film en VR au Sundance

Par Bastien L
myth frozen tale vr disney

Dans le cadre du festival Sundance 2020, Disney va présenter son deuxième court-métrage en réalité virtuelle. Ce film intitulé ” Myth ” est basé sur l’univers de ” La Reine des Neiges “…

Lors de l’avant-première mondiale de “ La Reine des Neiges 2 “, organisée à Los Angeles en novembre 2019, Disney avait présenté un court-métrage en réalité virtuelle intitulé ” Myth : A Frozen Tale. Basé sur l’univers de “ La Reine des Neiges “, il s’agit du second court-métrage VR du géant américain de l’animation.

Cependant, deux mois après cette diffusion, Myth n’est toujours pas disponible pour le grand public. Néanmoins, les visiteurs du prestigieux festival Sundance auront la chance de découvrir cette expérience lors de la prochaine édition. Celle-ci prendra place du 24 janvier au 2 février à Park City, dans l’Utah.

L’an dernier, Disney avait déjà présenté son tout premier court-métrage VR, intitulé ” Cycles, au Sundance. Le réalisateur Jeff Gipson avait d’ailleurs révélé qu’un autre projet VR ” top secret ” avait été approuvé par la firme.

Ce second court-métrage est également réalisé par Gipson, épaulé cette fois par Nicholas Russell. Selon ce dernier, cette approbation est la preuve que ” Disney a la volonté d’explorer les possibilités offertes par la réalité virtuelle pour le futur “.

La Reine des Neiges 2 : Disney déterminé à explorer la réalité virtuelle

Il convient de souligner que Myth est le second court-métrage en VR de Disney, mais le premier à se baser sur l’une de ses franchises populaires. Et ce n’est pas n’importe quelle franchise, puisque ” La Reine des Neiges 2 ” est le film d’animation le plus lucratif de tous les temps avec 1,3 milliard de dollars de recettes au 6 janvier 2020.

Si Disney fait désormais du streaming sa priorité absolue avec la plateforme Disney +, il est clair que la réalité virtuelle est aussi une technologie à laquelle s’intéresse le géant. Auparavant, plusieurs jeux VR ont été produits avec The Void en se basant sur les univers de Star Wars, Marvel Avengers ou encore Les Mondes de Ralph.

De même, le studio Pixar avait créé un projet basé sur le film Coco en partenariat avec Oculus en 2017. Si ” Myth ” est récompensé lors du Sundance, on peut s’attendre à ce que les projets Disney en réalité virtuelle se multiplient

Cet article La Reine des Neiges 2 : Disney va présenter un film en VR au Sundance a été publié sur Réalité-Virtuelle.com.

ED TISCHLER TO HEAD UP GRAVITY MEDIA’S UK BUSINESS

Par rlyl

Layla Cook also promoted to UK Broadcast Equipment Rental Manager Watford, UK, 15 January 2020 – Gravity Media, the leading global provider of complex live broadcast facilities and production services to content owners, creators and distributors, has promoted Ed Tischler to the position of Acting Managing Director. In this new role, Ed will be responsible ...

The post ED TISCHLER TO HEAD UP GRAVITY MEDIA’S UK BUSINESS appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

Hier — 16 janvier 2020Vos flux RSS

L’accélération vidéo dans HandBrake

Par Pierre Dandumont

J’utilise HandBrake depuis des années pour (re)compresser des vidéos ou passer d’un format un peu atypique à quelque chose de plus standards, et je me suis rendu compte récemment que depuis la version 1.2, HandBrake peut utiliser l’accélération vidéo sous macOS.

L’encodage chez Apple passe parce une technologie appelée VideoToolbox. Il y a assez peu d’options dans HandBrake (et sous macOS), et la technologie est supportée depuis pas mal de temps. Pour le HEVC (H.265), ça doit marcher sur tous les Mac sortis après 2015. Le principal problème de VideoToolbox va être « Qui encode ? ». La question n’est absolument pas triviale, les Mac intègrent plusieurs encodeurs différents.

Premièrement, il y a les fonctions des GPU Intel, disponibles sur les Mac avec un IGP (les portables, quelques iMac, les Mac mini, etc.). La technologie porte le nom de QuickSync et permet d’encoder plus ou moins bien en H.264 ou en H.265 sur les appareils récents. Sur d’autres Mac, c’est le GPU dédié qui prend la main, généralement à base d’AMD. Et en fonction de la carte graphique, les résultats varient. Enfin, sur les Mac avec une puce Apple T2, l’encodage (et le décodage) passent par cette dernière (et c’est a priori plus rapide, mon Mac n’a pas de T2).

Attention, l’encodage sur le GPU peut être moins bon que sur le CPU. Les encodeurs ont des fonctions fixes et la qualité diminue, un bon encodeur CPU évite les erreurs, compressent mieux et offre un résultat meilleur, mais généralement bien plus lent. Mais pour un usage grand public basique, genre regarder un film sur l’Apple TV, l’encodeur GPU suffit généralement. Il va manger quelques détails, mais il va aller 5 à 10x plus vite, ce qui n’est pas négligeable. L’encodeur Apple, on va le voir, a un défaut gênant pour HandBrake : il demande un bitrate précis (le débit). Avec le x264 ou le x265, on peut définir une qualité à obtenir, et l’encodeur va se débrouiller en fonction de la scène. Avec l’encodeur Apple, il faut définir une valeur de débit, et c’est tout. En pratique, on a donc des fichiers plus gros par défaut, et il faut tester pour atteindre le bon rapport débi/qualité (pas très pratique).

Avec HandBrake, une fois la vidéo choisie et les paramètres définis, il faut se rendre dans l’onglet Vidéo et modifier l’Encodeur vidéo. Par défaut, HandBrake va souvent proposer le x264, un encodeur logiciel efficace. Il suffit de passer sur un encodeur VideoToolbox pour activer l’accélération. Attention, surtout avec l’encodeur H.265, le résultat n’est visiblement pas toujours parfait, mais je n’ai pas eu de soucis.

HandBrake


Deux options VideoToolbox

Quelques tests

Je suis parti d’une vidéo d’une dizaine de minutes en 1080p (Big Buck Bunny) et j’ai testé plusieurs cas de figures. La machine est un MacBook Pro 2017, avec un CPU quatre coeurs (Core i7 7700HQ), une Radeon Pro 560 et un eGPU à base de Radeon Vega 64.

L’encodage en H.264 (x264) utilise le CPU pour encoder, et le processeur reste aux alentours de 2,9 GHz en permanence (entre sa fréquence de base, 2,8 GHz, et son Turbo à 3,4 Ghz). Il encode en 7 minutes et 23 secondes (~32 fps) pour un fichier final de 278 Mo.

L’encodage en H.264 par VideoToolbox utilise le GPU (l’Intel, j’y reviens). Le CPU reste utilisé pour pas mal de tâches, mais l’encodage prend seulement 2 minutes et 18 secondes (~104 fps). Petit défaut, le fichier final est plus gros : 459 Mo. Je n’ai pas remarqué de dégradations visuelles flagrantes. Pour la taille du fichier, c’est normal : l’encodeur Apple a peu d’options, et HandBrake sélectionne un bitrate fixe (6 Mb/s) avec ce dernier, contre un réglage de qualité sur l’encodeur software (RF 22).

Le second essai a été d’encoder de la même façon, mais en débranchant le eGPU. Le résultat ne bouge pas : 2 minutes et 17 secondes. C’est bien l’IGP Intel qui encode en H.264. Le dernier essai (uniquement avec l’IGP) confirme bien que c’est l’IGP qui encode : le GPU ne s’active pas, le temps ne bouge pas.

L’encodage en H.265 (x265) avec les mêmes réglages (RF 22) utilise le processeur. Il prend nettement plus de temps (14 minutes et 33 secondes, ~16 fps). Le fichier est un peu plus petit qu’en H.264 (243 Mo). Je suppose qu’il y a des réglages plus efficaces, ceci dit.

L’encodage en H.265 par VideoToolbox utilise le GPU, et plus spécifiquement dans mon cas l’eGPU (une Radeon RX Vega 64). C’est un peu tendu à voir, mais l’augmentation de la température montre bien que c’est cette carte précise qui encode. Il faut 2 minutes et 21 secondes (~101 fps) pour un fichier de 472 Mo. C’est aussi logique : HandBrake ne permet qu’un bitrate fixe.

On voit que la Vega 64 travaille un peu

Le seconde essai, là aussi, passe par le débranchement du eGPU. L’encodage s’effectue ici sur l’IGP Intel (on peut le voir avec Moniteur d’activité) mais une partie passe aussi par le GPU dédié (Radeon Pro 560 dans mon Mac). Vu l’occupation, je peut supposer que le décodage s’effectue sur le GPU et l’encodage sur l’IGP. Malgré tout, c’est nettement moins rapide : 5 minutes 19 secondes (~45 fps). Le troisième essai confirme : il faut le même temps et macOS force l’activation du GPU.

Ici, Radeon et Intel HD travaillent de concert


L’encodage force bien le GPU

Conclusion

L’encodage H.264 s’effectue visiblement uniquement via QuickSync, et rapidement. Pour le H.265 (HEVC), ça va dépendre de votre Mac, mais un eGPU peut donner un gros gain. Le jour ou j’ai une machine sans GPU ou une autre avec une puce T2 sous la main, j’effectuerais d’autres tests.

À partir d’avant-hierVos flux RSS

Facebook : comment créer des pubs en réalité augmentée

Par Bastien L
facebook pub réalité augmentée tutoriel

Les publicités mobiles interactives en réalité augmentée sur Facebook peuvent être très bénéfiques pour votre entreprise. Découvrez comment créer votre première pub AR pour le réseau social…

Depuis le mois de septembre 2019, les entreprises peuvent créer des publicités mobiles interactives en réalité augmentée pour Facebook. Ces pubs d’un genre nouveau peuvent encourager les utilisateurs à découvrir vos produits, et ainsi les inciter à l’achat de façon plus convaincante.

Ces publicités AR présentent aussi l’avantage de favoriser le partage. Les utilisateurs peuvent notamment prendre des photos ou des vidéos à partager avec leurs amis via le réseau social. Il est donc possible de toucher encore plus de consommateurs grâce à ce format novateur.

Comment créer votre première pub AR pour Facebook

Afin d’utiliser les pubs Facebook en réalité augmentée, vous devrez au préalable créer votre propre effet AR sur le Spark AR Hub. Cependant, vous pouvez aussi nouer un partenariat avec un producteur de réalité augmentée via le Spark AR Partner Network de Facebook. Celui-ci se chargera de créer votre effet.

Une fois l’effet créé et téléchargé sur Spark AR Hub, quelques clics suffisent pour créer votre publicité depuis l’Ads Manager. Vous devez créer une vidéo invitant les utilisateurs de Facebook sur mobile à utiliser votre effet.

Rendez-vous tout d’abord dans le Facebook Ads Manager (gestionnaire de publicités), et cliquer sur le bouton vert ” + créer ” . Choisissez un objectif, et cliquez sur ” Continuer “.

Choisissez ensuite l’audience, les placements et le budget, puis continuez. Dans la rubrique ” Format “, cliquez sur ” image seule ou vidéo “.

Téléchargez votre vidéo. Dans la checkbox près de ” ajouter une expérience instantanée “, choisissez ” ajouter une expérience AR “. Cliquez sur ” utiliser un template ” pour ouvrir la fenêtre ” ajouter une expérience AR “.

Choisissez l’effet que vous souhaitez utiliser dans le menu déroulant. Seuls les effets approuvés par Spark AR peuvent être utilisés. Ajoutez ensuite l’URL du site web et l’appel à l’action, puis confirmez.

Dans le menu déroulant ” texte superposé “, choisissez l’action à laquelle vous souhaitez inviter les internautes pour lancer votre expérience AR. Il ne vous reste plus qu’à prévisualiser votre publicité AR. Si le résultat vous convient, vous pouvez valider l’opération.

Gardez à l’esprit que vous pourrez mettre à jour votre effet après publication. Si vous souhaitez mesurer l’impact de votre publicité AR, vous pouvez consulter le temps moyen passé par les internautes sur votre expérience ou encore le nombre de partages.

Cet article Facebook : comment créer des pubs en réalité augmentée a été publié sur Réalité-Virtuelle.com.

Brainstorm Selected By MOOV For Virtual Set, Augmented Reality, And Motion Graphics Content Creation

Par Andres Benetar

  MOOV, The UK-based sports and events graphic services provider has selected Brainstorm solutions for their upcoming requirements for advanced content creation Last year, Brainstorm, the leading manufacturer of real-time 3D graphics, augmented reality and virtual studio solutions, announced the agreement with MOOV, the UK’s leading sport & events graphics company, to become a preferred ...

The post Brainstorm Selected By MOOV For Virtual Set, Augmented Reality, And Motion Graphics Content Creation appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

Comment gérer un écran 6K ? Le cas de l’Apple Pro Display XDR

Par Pierre Dandumont

Le nouvel écran d’Apple interpelle, tant par son prix que sa définition. Mais aussi par les technologies utilisées pour le relier à un Mac. La compatibilité est plutôt limitée, et il y a de bonnes raisons techniques derrière. Je vais essayer de résumer le tout. Je ne suis pas certain à 100 % des informations, je n’ai pas l’écran ni les Mac adaptés, mais je suis parti de données techniques assez factuelles, donc ça devrait être correct.

Attention, ça va être technique.

6K pour l’écran Apple (et 5500 € sans pieds)

Je vais commencer par la norme DisplayPort. Elle fonctionne avec ce qu’on appelle des lignes (comme en PCI-Express), entre une et quatre dans une prise classique. Dans une prise classique, on utilise quatre lignes. Dans de rares cas, comme avec les adaptateurs USB-C qui sortent de la vidéo et de l’USB, on se limite à deux lignes. Ensuite, il y a le mode de transfert, qui porte le nom de HBR (High Bit Rate). Le HBR1 (vieux, DisplayPort 1.1) est à 2,7 Gb/s par ligne, le HBR2 (Displayport 1.2) à 5,4 Gb/s par ligne et le HBR3 (DisplayPort 1.3) à 8,1 Gb/s par ligne. En plus de ces modes, il existe aussi une compression (DSC) qui permet de réduire la bande passante nécessaire en compressant « sans pertes visuelles visibles » (je vais y revenir). Pour résumer, avec quatre lignes (la valeur classique), on a 8,6 Gb/s en HBR1 (une partie de la bande passante sert à l’encodage), ~17,3 Gb/s en HBR2 et ~25,9 Gb/s en HBR3.

Premier truc lié, il faut que le GPU supporte les technologies. Tous les Mac modernes (depuis le Thunderbolt 2) supportent le HBR2. Le HBR3, plus récent, ne fonctionne que sur les cartes AMD à base de Polaris (Radeon RX 500), Vega ou Navi (5000). Le DSC, lui, ne fonctionne que sur les cartes à base de Navi, donc actuellement (janvier 2020) sur le MacBook Pro 16 pouces et certains GPU du Mac Pro (la Radeon Pro W5700X, pas encore en vente). Si vous avez une carte Intel, la question ne se pose pas : il n’y a pas de support du HBR3 actuellement dans les Mac (il faut attendre Ice Lake).

Cette carte graphique à plus de 6000 € ne supporte pas le DSC

Maintenant, le Thunderbolt. La première version transporte 8 lignes HBR1. La seconde version 8 lignes HBR2. La troisième version, elle, reste à 8 lignes HBR2 dans la majorité des cas. Attention, ça va devenir compliqué : il existe plusieurs contrôleurs Thunderbolt 3, et ils n’ont pas les mêmes fonctions. Le contrôleur original porte le nom d’Alpine Ridge et se retrouve dans la majorité des Mac depuis les MacBook Pro 2016. Le Titan Ridge, lui, gère le HBR3 (5 lignes) mais ne se retrouve que dans quelques Mac : les MacBook Pro 2018 (et plus), les iMac (2019) et le Mac Pro. Les Mac mini (2018), MacBook Pro (13 pouces) et MacBook Air (2018) ont aussi un Titan Ridge mais le GPU Intel ne supporte pas le HBR3. En pratique, ça fonctionne aussi avec un eGPU BlackMagic, qui possède un contrôleur Titan Ridge et un GPU compatible HBR3 (mais pas DSC). Vous trouverez pleins de détails dans ce sujet.

Troisième étape, la définition. On l’a vu, le DisplayPort offre une bande passante assez large. Pour se donner une idée, un écran 1080p 60 Hz demande 3,2 Gb/s, un écran 1440p monte à 5,6 Gb/s et un écran 4K60 monte à 12,5 Gb/s. Les deux premiers marchent donc en HBR1, mais pas le troisième. Un écran 5K, toujours à 60 Hz, demande ~22,2 Gb/s, et un écran 6K comme celui d’Apple demande ~33 Gb/s (un peu plus à cause du HDR, mais je ne sais pas comment le calculer).

Pour transmettre autant de données, il n’y a en pratique que deux solutions : le mode HBR3 à travers du Thunderbolt 3 (5 lignes, ~40 Gb/s) ou la compression. Même huit lignes HBR2 ne suffisent pas.

Enfin, dernier point un peu compliqué, le mode de transfert. Quand un moniteur demande plus de lignes que ce que propose une prise classique (par exemple un écran 5K en HBR2), il existe différentes façon d’utiliser les lignes supplémentaires. Le premier mode, abandonné depuis pas mal d’années, porte le nom de MST (Multi Stream Display). Il a été implémenté sur les premiers écrans 4K, et montre deux écrans au système. La carte graphique voit deux écrans et l’OS doit ensuire reconstruire l’image. C’est plus ou moins efficace (moins que plus) et se retrouver avec une demi dalle active n’est pas exceptionnel (j’ai un écran de ce type au boulot). Ensuite, il y a les écrans SST (le fonctionnement classique). Puis les Dual Link SST. Comme en DVI, ils utilisent plusieurs lignes, mais ne montrent qu’un seul écran au système. Le Dual Link SST peut fonctionner en interne (cas des iMac 5K), en externe avec deux câbles (Dell ou HP font ça avec les écrans 5K) ou avec un seul câble Thunderbolt, comme les écrans 5K LG ou le 6K Apple.

Dans la pratique

De ce que j’ai vu, l’écran Pro Display XDR fonctionne de deux façons. Soit en Dual Link SST avec cinq lignes HBR3, soit en SST avec quatre lignes HBR2 et de la compression. Le premier cas va être celui de la majorité des Mac compatibles : iMac 2019, MacBook Pro 15 pouces 2018, Mac Pro 2019 et eGPU BlackMagic. Dans ce mode, il ne reste pas assez de bande passante pour de l’USB rapide, et les ports USB-C derrière l’écran sont limités à l’USB 2.0.

Le second cas ne se retrouve que sur le MacBook Pro 16 pouces et éventuellement sur le Mac Pro 2019 avec une carte Navi (Radeon Pro W5700X, pas encore sortie). Il compresse l’image, et permet donc de garder de la bande passante pour de l’USB 3.0 (5 Gb/s).

Du coup, pourquoi l’iMac Pro ne peut-il pas gérer l’écran 6K en 6K ? Parce que son contrôleur Thunderbolt est un Alpine Ridge qui ne supporte pas le HBR3 (même si la carte graphique le supporte) et que la carte graphique ne prend pas en charge la compression DSC.

Pas de 6K pour l’iMac Pro

Si Apple se décide à mettre des processeurs Ice Lake (la 10e génération en 10 nm d’Intel) dans ses machines, le Mac mini, le MacBook Air ou les MacBook Pro 13 pouces pourraient profiter de l’écran : le GPU de ces processeurs prend en charge le HBR3 et le DSC.

Maintenant, les eGPU. Les cartes qui ne supportent que le HBR3 (Polaris ou Vega) ne peuvent pas gérer l’écran d’Apple en 6K, sauf dans le cas particulier du modèle de BlackMagic qui intègre le Thunderbolt 3 directement. De ce que j’ai vu, il fonctionne en USB-C ou en Thunderbolt 2 et 3 sans Titan Ridge (même si la documentation ne l’indique pas explicitement) avec quelques limites. En théorie, un eGPU avec une carte Navi (Radeon RX 5000) et un adaptateur DisplayPort vers USB-C devrait le faire fonctionner en 6K, mais je ne suis pas certain. Dans tous les cas, le fait que l’écran ne propose que de l’USB-C (ou du Thunderbolt 3) en entrée risque de poser des soucis avec un eGPU : l’USB-C n’existe pas dans les cartes AMD actuellement.

La compression

La question à 5 500 € (sans pieds) : est-ce que la compression a un impact visible ? L’association VESA présente cette compression comme avec pertes, mais sans pertes visuelles et sans latence. la compression théorique se situe entre un facteur 2 et un facteur 3, donc c’est plutôt efficace. Je dois avouer que je suis un peu dubitatif tout de même et que je n’ai pas trouvé de comparaison ni de test. Les moniteurs qui utilisent le DSC restent rares (il y a un écran 8K chez Dell, par exemple) et la comparaison directe n’est pas évidente : on a rarement le choix. En fait, l’écran Apple est potentiellement le meilleur client pour la comparaison vu qu’il fonctionne avec ou sans DSC.

L’écran 8K de Dell

Dernier point, l’écran 8K de Dell. Vu qu’il utilise du DSC et du HBR3 avec deux prises DisplayPort, il devrait (noter le conditionnel) fonctionner sur un MacBook Pro 16 pouces ou sur un Mac pro avec une (future) Radeon Pro W5700X. Mais vu la tendance habituelle d’Apple pour brider les écrans, je ne suis pas certain. En fait, on peut même supposer que l’atypique « 6K » d’Apple a été choisi parce qu’il permet justement de connecter un écran en Thunderbolt 3 sans passer par la compression.

L’usage de la VR dans le cinéma comme pour le Roi Lion devait augmenter

Par Pierrick LABBE
Roi Lion VR

Le remake live action du Roi Lion avait été une véritable étape dans le domaine de l’usage de la réalité virtuelle pour la réalisation d’un film. Son succès devrait ouvrir de nouvelles portes à l’avenir.

C’est Rob Legato, un des superviseurs sur l’usage des effets spéciaux dans le film de Disney qui s’est prononcé sur le sujet, montrant son enthousiasme et son optimisme.

Une technologie utilisée pour le Roi Lion qui étend les possibilités

Quels sont les bénéfices de la réalité virtuelle d’un point de vue de la réalisation d’un film ? C’est ce qu’a expliqué Rob Legato qui a participé aux effets spéciaux du Roi Lion dans une interview à nos confrères du magazine Cinema Blend. C’est vraiment génial de partager une idée avant de la concrétiser. Même en termes artificiels, c’est comme, « Vous savez quoi ? Permettez-moi de vous montrer autre chose. Je vais déplacer les arbres ici; que pensez-vous de cela ? ». Et cela ne vous coûte vraiment rien, et vous pouvez expérimenter et continuer à répéter et à améliorer.

Au cours du tournage du Roi Lion, Favreau et ses équipes ont régulièrement réalisé des sessions de réalité virtuelle afin d’évaluer comment était la scène qu’ils allaient filmer. Le réalisateurs l’avait déjà décrit comme un « Jeu de réalisation de cnéma VR multijoueur ». Legato, qui a participé avant à des projets de cinéma comme Titanic et Avatar, semble en tout cas avoir été bluffé par le résultat. Pour lui il ne s’agit pas que d’une tendance. « Je pense que cela va durer. C’est génial et c’est parti pour rester. C’est un outil très puissant ».

Cet article L’usage de la VR dans le cinéma comme pour le Roi Lion devait augmenter a été publié sur Réalité-Virtuelle.com.

Mon projet de NAS rapide sous macOS (partie 4)

Par Pierre Dandumont

Depuis un moment maintenant, j’utilise un vieux Mac Pro (2006) en tant que NAS, avec une carte 10 Gb/s et plusieurs disques en RAID. j’en avais parlé , et . J’ai profité d’un peu de temps pour le mettre à jour.

A la base, je voulais juste mettre une carte Wi-Fi pour régler un petit bug. Je mets le Mac en veille et je le réveille par Bonjour Sleep Proxy, mais ça ne fonctionne que si j’utilise une des prises Ethernet de la machine. Le problème, c’est qu’au réveil la liaison s’effectue sur cette prise et pas sur la prise 10 Gb/s, même en modifiant l’ordre des interfaces correctement. J’espérais – à tort – qu’intégrer une carte Wi-Fi réglerait le problème. Mais comme j’ai dû ouvrir une bonne partie du Mac pour installer la carte, ai profité pour faire la mise à jour des CPU.

J’en avais parlé dans le premier sujet, le Mac Pro utilise des Xeon 5150 (Woodcrest) avec un TDP de 65 W et une fréquence de 2,66 GHz. En charge, ce qui reste assez rare dans mon cas, la machine consomme donc environ 200 W. Comme Gilles, j’ai décidé de réduire (un peu) la consommation, en installant des Xeon 5148. Il s’agit de deux modèles Woodcrest LV avec une fréquence un peu plus basse (2,33 GHz), le même nombre de coeurs mais (surtout) un TDP de 40 W. A l’époque, la différence venait essentiellement de la tension : 1,5 V au max sur les CPU d’origine, 1,25 V sur les autres. Bonne nouvelle, le Mac démarre avec les nouveaux CPU, et l’horloge ne bouge pas (ils ont le même TDP). Pour mon usage, le gain en consommation est intéressant (je perds un bon 40 W en charge) et la perte de performances reste assez faible. Il faut bien prendre en compte que le Mac est en veille l’énorme majorité du temps, donc consomme assez peu dans l’absolu. Le seul problème, finalement, c’est que la mise à jour a pris quand même pas mal de temps, vu qu’il faut démonter beaucoup de choses avant d’accéder aux CPU…

L’ancien CPU


2,66 GHz


Deux CPU bien propres


2,33 GHz


Mac OS X reconnaît les puces


Pas de soucis

Varjo illustre le potentiel de la réalité virtuelle dans le monde du travail

Par Pierrick LABBE
Varjo

L’entreprise finlandaise Varjo, spécialisée dans les casques pensés pour l’univers professionnel, a présenté une démonstration plutôt séduisante à l’occasion du CES 2020.

La réalité virtuelle et augmentée est souvent pensée à travers le filtre du divertissement, jeux films… mais quels sont les usages que l’on peut imaginer dans le monde professionnel.

Le « Workspace » conçu par Varjo

L’entreprise, qui compte aujourd’hui 150 employés, a connu une croissance rapide, en se focalisant sur les petites entreprises avec des coûts limités. Le CES 2020 a permis de voir comment l’entreprise envisage de remplacer les écrans physiques de nos ordinateurs par des équivalents virtuels. Si le résultat peut encore clairement être amélioré, l’usage de l’entreprise dans le domaine de la réalité augmentée, avec une définition de haut niveau, un FOV grand, des caméras couleurs et la calibration très précise de Varjo permet d’avoir un résultat bluffant. On peut ainsi retrouver face à soi l’équivalent de l’écran de notre ordinateur et pouvoir tout lire, même les petites informations.

L’idée est simple, déployer du content 3D à l’extérieur de votre écran, dans le monde autour de vous. Une avancée rendue possible grâce à ce que Varjo nomme « Bionic Display », avec un affichage de très haute résolution au centre de l’écran et plus limité sur les rebords. Mais la fusion entre les deux est vraiment invisible au niveau du rendu proposé par Varjo. L’équivalent de l’œil humain, déployé dans l’univers du travail en réalité virtuelle. Quoi qu’il en soit la démonstration du fabriquant finlandais est impressionnante et nous laisse présager ce que sera la VR dans le futur pour le travail.

Cet article Varjo illustre le potentiel de la réalité virtuelle dans le monde du travail a été publié sur Réalité-Virtuelle.com.

La réalité virtuelle peut empêcher la création de souvenirs visuels

Par Bastien L
vr souvenirs visuels réalité virtuelle

La réalité virtuelle pourrait empêcher la formation de souvenirs visuels, et donc se révéler inutile pour le secteur de l’éducation. C’est ce que révèle une étude menée par des chercheurs japonais…

La réalité virtuelle est de plus en plus utilisée dans le domaine de l’éducation. Cependant, l’efficacité réelle de cette technologie sur le plan pédagogique reste encore difficile à déterminer.

C’est pourquoi une équipe de chercheurs japonais a décidé de mener une expérience à ce sujet. Plus précisément, cette étude visait à mesurer les différences de rétention de mémoire visuelle entre la réalité virtuelle active et passive.

Pour rappel, la VR active réagit aux actions de l’utilisateur et lui permet donc d’interagir de façon ” subjective ” avec l’environnement virtuel. La VR passive quant à elle n’offre qu’un point de vue et ne prend pas en compte les mouvements de l’utilisateur.

L’expérience a été menée auprès de 40 participants, dont la moitié utilisant un casque VR actif et la seconde un casque VR passif. Chaque participant a dû visionner une vidéo tournée dans un musée et présentant 10 oeuvres de Peter Paul Rubens et 10 oeuvres de Nicolas Poussin.

Les participants ont ensuite été invités à compléter une série de tests de mémoire, immédiatement après le visionnage puis deux semaines plus tard. Lors du test effectué immédiatement après l’expérience, les résultats étaient similaires pour les deux groupes.

En revanche, deux semaines plus tard, les souvenirs du groupe ” actif ” étaient largement atténués par rapport au groupe “passif “. La conclusion des chercheurs est que la réalité virtuelle active pourrait empêcher un individu de former de puissants souvenirs visuels.

La VR active moins efficace que la VR passive pour l’apprentissage ?

Il est difficile d’expliquer ce phénomène avec exactitude. Selon les chercheurs, l’explication la plus probable est que les sujets actifs passent moins de temps à observer les tableaux puisqu’ils étaient en mesure de regarder ailleurs.

Il est aussi possible que la VR active représente une charge cognitive plus importante pour le cerveau, et l’empêche donc de former des souvenirs visuels efficacement. Pour cause, la réception sensorielle nécessite des ressources cognitives qui ne peuvent donc pas être exploitées pour ” encoder ” le contenu du film.

Par conséquent, la réalité virtuelle pourrait s’avérer inefficace pour l’éducation. La prochaine étape pour les chercheurs sera toutefois de déterminer avec plus de précision la façon dont la VR active peut perturber la formation de souvenirs visuels, et si certains autres types d’apprentissages peuvent au contraire être stimulés par cette technologie…

Cet article La réalité virtuelle peut empêcher la création de souvenirs visuels a été publié sur Réalité-Virtuelle.com.

Apple confond encore Gb et Go

Par Pierre Dandumont

Un truc qui m’énerve quand ça vient de gens (ou de sociétés) qui travaillent dans l’informatique, c’est la confusion entre Go, GB et Gb. Et même Apple, dans son OS, fait parfois l’erreur.

Pour résumer : un b (minuscule) est un bit, soit la valeur de base en informatique (1 ou 0). Un B (majuscule) est un byte, c’est-à-dire un groupement de bits. Un byte vaut généralement 8 bits (depuis un moment), même s’il existe quelques (vieilles) machines ou ce n’est pas le cas. Un octet (o) est la traduction française du byte. L’octet fait 8 bits et vaut 1 byte, parce qu’au moment de franciser le mot, les ordinateurs utilisaient tous a priori une valeur de 8 bits.

Pour résumer : 1 Go = 1 GB = 8 Gb. Je vous passe la partie sur les Gio, Gib et GiB, vous devez juste savoir que dans le système international, 1 kb (k minuscule) vaut 1 000 b (et pas 1 024). macOS (depuis Snow Leopard) compte et affiche correctement, contrairement à Windows.

Pour ajouter à la confusion, on utilise généralement le byte ou l’octet pour le stockage (donc un SSD de 512 GB ou Go par exemple) mais le bit pour mesurer les débits. Dans le cas d’un SSD, on a donc une interface à 6 Gb/s (SATA) par exemple. Même chose, je vous passe les détails sur la conversion Gb vers Go dans ce cas-là, mais dans certains cas il ne suffit pas de diviser par 8. Dans le cas du SATA, 6 Gb/s deviennent 600 Mo/s.

Apple et les valeurs

Dans le cas d’Apple, les informations système affichent assez régulièrement des valeurs fausses. Pendant longtemps, c’était le cas dans les informations sur le Thunderbolt (la norme fonctionne à 10, 20 ou 40 Gb/s, certains OS affichent 10, 20 ou 40 Go/s), et c’est toujours le cas pour Mojave dans un cas précis. Si vous allez vérifier le débit d’un périphérique USB 3.1 « Gen. 2 », macOS Mojave annonce Jusqu’à 10 Go/s et pas Jusqu’à 10 Gb/s. C’est corrigé dans macOS Catalina de ce que j’ai vu, d’ailleurs, et pour les autres valeurs de l’USB (12, 480, 5, etc.), il affiche bien des Mb et des Gb/s.

Sous Mojave : WRONG


Dans les fichiers, il y a bien l’erreur


En 2014, l’erreur existait pour le Thunderbolt

⁣ ⁣⁣ ⁣#repost @raio__⁣ ⁣__________________⁣ ⁣⁣ ⁣Video Mapping...




⁣⁣
⁣#repost @raio__⁣
⁣__________________⁣
⁣⁣
⁣Video Mapping del espectáculo L.U.X de RAIO, cubos!! 🇬🇧3D Projection mapping from show L.U.X by RAIO, dynamics Cubes!! @ayuntamientovll @renault_esp @avsistemas @cover.club @alfonsolosco #madmapper #resolume #millumin #3dprojectionmapping #audiovisuales #videomapping #encendidodeluces #mappingprojection #mapping3d #blender #foley #moog #makenoise0coast #animationnodes
https://www.instagram.com/p/B7N6bZcpuO-/?igshid=2mj6gal6zhxt

⁣ ⁣⁣ ⁣#repost @mpstudio3d⁣ ⁣__________________⁣ ⁣⁣ ⁣Organic...




⁣⁣
⁣#repost @mpstudio3d⁣
⁣__________________⁣
⁣⁣
⁣Organic ⁣
⁣#museumfürnaturkundeberlin #mpstudio #projectionmapping #videomapping #cinema4d #fol2019 #xparticles #art #picoftheday #makeideasplay #3d #organic #berlin
https://www.instagram.com/p/B7N6o1WJLdJ/?igshid=hdz9v3rqzmp1

⁣ ⁣⁣ ⁣#repost @jeronimo.roe⁣ ⁣__________________⁣ ⁣⁣ ⁣ #work...




⁣⁣
⁣#repost @jeronimo.roe⁣
⁣__________________⁣
⁣⁣
⁣ #work #led #light #mediaserver #millumin #madmapper #opera #lille #tour (at Opéra de Lille)
https://www.instagram.com/p/B7N6fzEpooM/?igshid=cob8d99zmgdo

Encore un « nouveau » jeu Pippin, sur les voitures de Subaru

Par Pierre Dandumont

Depuis un moment maintenant, j’essaye de faire un « Full Set » Pippin (au moins en version japonaise). Si je trouve assez régulièrement de nouveaux titres, un problème survient : la liste augmente. Parce que de temps en temps, je trouve des images (ou des disques) absents des listes habituelles.

Vous trouverez une liste assez exhaustive des disques sur cette page, et cette autre page liste pas mal de choses qui ne sont pas sorties commercialement.

Cette fois, il s’agit d’un disque liés aux voitures de Subaru. Je n’ai pour le moment qu’une image. Il s’agit sûrement d’un disque évoqué dans cette page, qui explique sur Subaru a utilisé des Pippin dans ses concessions pour présenter les véhicules. Vu le titre, il parle évidemment de la Subaru Legacy.

Une photo du disque

Mais comme il est visiblement possible d’en trouver, ma quête du Full Set s’éloigne encore un peu plus.

Test du FireCuda Gaming Dock de Seagate : Thunderbolt 3, SSD et HDD externe

Par Pierre Dandumont

Fin 2019, Seagate a annoncé un appareil un peu particulier : le FireCuda Gaming Dock. Ce boîtier combine en effet plusieurs fonctions : il fait office de station d’accueil Thunderbolt 3 (ou USB-C), de disques dur externe (4 To) mais aussi de SSD externe (en option). Le tout avec un soupçon de gaming, avec des LED. Petit bémol, c’est assez cher : 430 € (prix public) pour une capacité de 4 To.

Le boîtier est assez gros, vu qu’il contient un disque dur, mais la connectique est assez large. En pratique, une bonne partie des composants ne tire pas parti du Thunderbolt, mais du contrôleur USB interne de la puce Intel. Le disque dur interne (un modèle 3,5 pouces) est interfacé en USB, tout comme les prises audio (un codec basique, 16 bits/48 kHz) et l’Ethernet (une puce Realtek USB, la 8153). Le HDD, a priori un modèle 7 200 tpm moderne (je ne l’ai pas ouvert, c’est un prêt), atteint ~250 Mo/s, ce qui demeure plutôt pas mal. Truc à savoir, il arrive formaté en NTFS et Seagate indique qu’il faut le reformater sur Mac. Bonne nouvelle, et c’est plutôt rare, les prises USB (type A) sont compatible 10 Gb/s. Pour ceux qui veulent brancher un écran, il dispose d’une sortie DisplayPort plein format, à la norme 1.4. Attention, c’est une norme assez théorique, qui va dépendre de votre Mac : pour travailler en DisplayPort 1.4, il faut un Mac avec un contrôleur Titan Ridge. On le retrouve dans quelques MacBook Pro de 2018 et 2019 et c’est tout. Sur les 2017 et avant, c’est uniquement du DisplayPort 1.2.

Le dock


Les prises


A l’avant

En réalité, le seul composant qui tire parti du Thunderbolt 3 demeure l’emplacement PCI-Express M.2, qui accepte les SSD à ce format. Méfiez-vous, il n’est pas hybride : il faut brancher un SSD PCI-Express (NVMe ou AHCI) mais pas un modèle M.2 SATA. L’installation est simple : la partie éclairée se détache (elle est juste aimantée) et un emplacement M.2 avec un petit dissipateur apparaît.

L’emplacement NVMe


Un SSD NVMe


Pas de soucis : le SSD peut atteindre le maximum du Thunderbolt 3

Enfin, s’il permet techniquement de charger un Mac (ou un PC portable), c’est assez léger : seulement 15 W. Vous devrez garder votre chargeur avec ce dock : ça ne suffit vraiment pas pour alimenter un MacBook Pro, et même un simple MacBook ne chargera pas s’il est allumé.

Pas de charge sur MacBook

Triple interface

Le dock utilise le contrôleur Titan Ridge, qui a l’avantage de fonctionner en USB(-C) ou en Thunderbolt, alors que les anciens contrôleurs ne géraient que le Thunderbolt. Pour être plus clair, alors qu’un dock Thunderbolt 3 de première génération ne fonctionne que sur un ordinateur avec du Thunderbolt 3, le Seagate (et ceux en Titan Ridge) fonctionnent aussi sur de l’USB.

J’ai testé le Gaming Dock sur un MacBook Pro 2017 (en Thunderbolt 3), sur un MacBook 2017 (en USB-C uniquement) et sur un MacBook Air 2012 (avec un câble USB-A). Ça fonctionne dans les trois cas, mais avec quelques différences. Forcément, la sortie vidéo ne fonctionne pas avec un câble USB-A vers USB-C. Et si vous branchez le boîtier en USB (et pas en Thunderbolt), le SSD NVMe n’apparaît pas. Il fonctionne aussi en Thunderbolt 1 ou 2 avec l’adaptateur Apple, mais avec quelques limites sur les performances et sur les normes vidéo.

Le FireCuda Gaming Dock est un bon produit, mais il a quelques défauts. Premièrement, le câble Thunderbolt 3 livré reste assez court – c’est la norme qui veut ça – et le bloc d’alimentation est assez gros. Deuxièmement, le boîtier fait du bruit : il est ventilé (et il se déclenche de temps en temps, surtout si vous mettez un objet dessus), et on entend le disque dur. Troisièmement, la capacité reste un peu limitée, 4 To en 2020, ce n’est pas extraordinaire, surtout sans possibilités de changer le disque dur. Enfin, mais je pinaille, le fait que le disque dur et l’Ethernet passent par de l’USB augmente un peu la charge du CPU : les dock avec des connexions sur des contrôleurs PCI-Express sont plus efficaces sur ce point. Enfin, là aussi je pinaille, une sortie HDMI aurait été un plus.

Le logiciel fourni


Vive les couleurs

Mais il a aussi de nombreux avantages. D’abord, il propose pas mal de prises : du DisplayPort 1.4, cinq prises USB 3.0, de l’Ethernet 1000, un port Thunderbolt 3 pour le chaînage et même deux prises audio. En plus, il ajoute le disque dur (il n’est malheureusement pas prévu de le changer), un emplacement NVMe rapide et des LED (si on aime les LED). Le surcoût par rapport à un dock Thunderbolt 3 standard est assez faible, et la compatibilité USB-C (et même USB-A) reste assez pratique.

Les petites lumières

C’est la mode, le Gaming Dock a des LED. La partie droite s’allume et – de loin – ressemble un peu à un grille-pain. Deux bonnes nouvelles : on peut éteindre les loupiotes et il existe un logiciel pour Mac. On peut définir la couleur, mais aussi ajouter des effets (pulsations, cycles, etc.). On peut éteindre les LED quand le Mac est en veille, éteindre tout court, etc. C’est un peu gadget, mais pourquoi pas (ma moitié a voulu me le voler).

CES 2020 : Nreal présente Android en réalité augmentée

Par Pierrick LABBE
Nreal CES 2020

A l’occasion du grand salon américain, l’entreprise chinoise Nreal a annoncé pouvoir afficher vos applications classiques dans votre environnement avec ses lunettes de réalité augmentée.

A l’heure actuelle, Apple a plutôt une longueur d’avance sur Android dans le domaine de la réalité augmentée. Cependant, le constructeur chinois pourrait bien contribuer à changer les choses.

Quelle date pour les lunettes de Nreal ?

L’entreprise a été lancée en 2017 avec l’objectif de commercialiser des lunettes de réalité augmentée légère et efficaces, avant les autres géants du marché. Leur premier modèle, nommé Nreal Light possédait une vraie différence avec ce que l’on voit habituellement. La puissance n’est pas dans les lunettes, mais dans un petit pack connecté ou sur votre téléphone Android. Reste qu’il faut que ce dernier soit plutôt récent. Nreal exige en effet au moins la puce Snapdragon 855. Au programme, on trouve donc par exemple le Samsung Galaxy S10, le Pixel 4, le One Plus 7 ou encore le Galaxy Note 10. Les modèles plus récents ne devraient pas avoir de problèmes.

Leur kit développeur a été ouvert à la précommande à partir du mois de novembre, pour un prix de 1.200 dollars. A terme, les lunettes devraient être vendues autour de 500 dollars. Les premières livraisons sont attendues au printemps 2020 mais leur mise à jour logicielle annoncée au CES 2020 rend les choses beaucoup plus intéressantes puisque « Nebula », c’est son nom, pourrait concrètement augmenter n’importe quelle application, comme Messenger ou encore Whatsapp mais aussi les jeux , les mails ou encore Netflix. Plusieurs applications pourraient être utilisées en même temps et les lunettes se souviendraient de ce que vous avez utilisé dans une pièce en particulier.

Cet article CES 2020 : Nreal présente Android en réalité augmentée a été publié sur Réalité-Virtuelle.com.

Un pavé numérique qui fait office de calculatrice… en ADB

Par Pierre Dandumont

Il y a longtemps, j’avais reçu avec un Mac un pavé numérique. Et je ne l’ai remarqué quen rangeant un peu, il possède une fonction calculatrice assez intelligente.

J’ai eu un peu de mal à trouver le modèle exact, mais en cherchant avec le FCC ID (FTR9602), je suis remonté à la société à l’origine du produit, puis à une vieille page : il s’agit donc d’un Calculator Keypad KP9602 dans sa variante M9 (Macintosh), de chez Parex. Ce pavé numérique ADB propose donc une calculatrice et un câble ADB assez long, mais – malheureusement – pas de second port ADB ni de connecteur amovible. Il vise donc essentiellement les PowerBook et ne permet pas de chaîner une souris. Sur un Mac de bureau, vous ne pourrez souvent pas le brancher étant donné que les Mac n’ont qu’un seul ADB.

Le pavé

Les touches sont classiques pour un pavé numérique, avec évidemment les chiffres et les opérations, mais aussi une touche esc, un retour arrière, des flèches, une touche ⌘ accessible via une touche de fonction, etc.

La partie calculatrice affiche l’heure en mode pavé numérique

La partie calculatrice s’active avec une touche dédiée, et des touches de fonction permettent de gérer les opérations classiques, une mise en mémoire, etc. C’est un peu compliqué à cause des nombreuses indications sur les touches, mais avec un peu d’entrainement (et sûrement le manuel que je ne possède pas), ça doit être plus évident (j’espère). L’écran à cristaux liquide est lisible, et une touche send permet d’envoyer le résultat d’une opération à l’ordinateur. C’est assez intéressant pour ceux qui font beaucoup de calcul : ça évite de recopier la réponse.

La touche Send envoie la réponse dans le Mac

Dans les trucs à noter, le fait que par défaut l’écran affiche un compteur. Je suppose qu’il est possible de régler l’heure et sûrement une alarme, mais je n’ai pas trouvé comment sans le manuel. L’autre point intéressant, c’est que la calculatrice fonctionne par défaut sur des piles (4 piles boutons LR44) mais qu’elles ne sont nécessaires que pour un usage autonome. Une fois relié à un Mac, le pavé numérique peut alimenter la calculatrice avec le bus ADB. Attention, le bouton pour éteindre la calculatrice se trouve à côté des piles et il est petit.

Quatre piles dans un format un peu atypique et un interrupteur bien caché

The Remedy : une petite expérience narrative en réalité virtuelle gratuite

Par Pierrick LABBE
The Remedy

Tous les projets VR incontournables ne sont pas forcément des jeux ou le résultat du travail de grosses équipes avec un très important budget. The Remedy en fournit une brillante illustration.

Et si la réalité virtuelle pouvait révolutionner la narration ? Une promesse longtemps espérée, parfois entraperçue mais qui n’a clairement pas encore abouti complètement. Cette expérience narrative montre ce qui pourrait être une solution.

The Remedy, les comics 2.0 dans une version narrative intéressante

Qu’est-ce donc que The Remedy ? C’est une histoire en réalité virtuelle, un comic comme les affectionnent les Américains, mais raconté avec talent et innovation grâce à des animations. On y suit par exemple, dans la seconde partie, le chemin d’une mère vers le cœur d’un volcan actif  pour sauver son fils. Le talent de Daniel Martin Peixe, à la fois directeur artistique et artiste de ce projet, saute alors vraiment aux yeux. L’expérience se révèle immersive grâce à un séquençage pour le moins osé, qui propulse complètement le lecteur au cœur de l’action.

Les amateurs du genre ne manquent pas de voir une ressemblance avec Battlescar quant à la capacité à donner du rythme, mais The Remedy le fait avec encore plus d’intensité. Une expérience qui pourrait très vite se révéler incontournable pour les propriétaires de l’Oculus Quest. On regrettera simplement les images et les angles un peu trop bruts qui sont sélectionnés. Cependant, les combats très bien chorégraphiés et les visuels tout simplement bluffant permettront sans peine de passer l’éponge. On en redemande. L’expérience est disponible pour le Quest sur Oculus TV.

Cet article The Remedy : une petite expérience narrative en réalité virtuelle gratuite a été publié sur Réalité-Virtuelle.com.

Un prototype de lecteur CD 8 cm pour le PowerBook 5300

Par Pierre Dandumont

Il y a quelques mois, je parlais du PowerBook 5300 et du fait qu’Apple avait prévu de proposer un lecteur de CD-ROM limité aux disques de 8 cm. Et bien un lecteur de ce type est en vente sur eBay.

La vente comprend un PowerBook 5300 du commerce, mais aussi quelques accessoires plus rares. Premièrement, donc, le lecteur de CD-ROM. Il lit les disques de 8 cm et la référence est CR-371. Deuxièmement, dans un coin d’une photo, un lecteur de MO Apple. Les disques Magnéto-Optique permettent de lire et écrire comme sur une disquette, mais avec une capacité plus élevée (230 Mo à l’époque). Et troisièmement, une batterie Li-Ion de préproduction. J’avais évoqué ce point il y a longtemps : Apple avait prévu une batterie Li-Ion pour le 5300, mais la marque avait dû rappeler les quelques exemplaires vendus en 1995 à cause d’incendie. Dans la pratique, les PowerBook 5300 ont été vendus avec des batteries NiMH d’une capacité plus faible, mais sans la fonction incendie gratuit. Enfin, l’annonce propose aussi un prototype de chargeur.

Le lecteur de CD




La batterie Li-Ion


Le prototype de chargeur


Au milieu, le lecteur de MO

Le vendeur demande 1 600 $ pour l’ensemble, ce qui semble un peu beaucoup pour des prototypes d’accessoires.

Masterpiece Studio : un logiciel de sculpture et d’animation en VR gratuit

Par Bastien L
masterpiece studio

Masterpiece Studio est un nouveau logiciel en réalité virtuelle permettant de sculpter et d’animer des personnages 3D. Il permet d’aller dix fois plus vite par rapport à un logiciel traditionnel pour PC.

En 2017, MasterpieceVR lançait son logiciel de création artistique en réalité virtuelle sur PC. Cette application était similaire à Tilt Brush, Oculus Medium ou Quill, mais se distinguait par la possibilité pour un maximum de quatre artistes de collaborer sur une même oeuvre en invitant jusqu’à 20 spectateurs.

Trois ans plus tard, MasterpieceVR est de retour avec un nouveau logiciel intitulé Masterpiece Studio. Cette nouvelle suite d’outils combine le logiciel de modélisation 3D Masterpiece Creator avec le logiciel d’animation Masterpiece Motion.

Grâce à ces deux programmes, les artistes peuvent rapidement sculpter et animer des personnages à la main directement dans la réalité virtuelle. L’objectif est ici d’accélérer le processus de création et d’animation de personnages 3D, et de compléter voire de remplacer les outils de création déjà existants. Une offre similaire à ce que propose Oculus Quill depuis la mise à jour 2.0.

Masterpiece Studio : créez dix fois plus vite qu’avec les logiciels PC

Selon le développeur, le processus de la conception au modèle entièrement animé peut être dix fois plus rapide qu’avec les outils pour PC traditionnels. Le programme permet donc de ” convertir rapidement les idées en assets 3D utilisables à moindre coût “.

Masterpiece Studio est compatible avec les casques pour PC dont Oculus Rift, HTC Vive, Valve Index et Windows VR. Il est disponible en version gratuite sur le site officiel, sur Steam et sur HTC Viveport.

La version gratuite est disponible pour les usages non commerciaux, mais ne permet pas d’exporter les créations. Pour ce faire, il faudra opter pour la version payante par abonnement mensuel destiné aux entreprises et aux freelancers…

Cet article Masterpiece Studio : un logiciel de sculpture et d’animation en VR gratuit a été publié sur Réalité-Virtuelle.com.

Saison 2020 VideoMapping et VJing

Par LeCollagiste
Formation LeCollagiste

Compositing temps réel et VidéoMapping

Les sessions de formation VJing sur le logiciel Resolume et des sessions de formations professionnelles VidéoMapping sur les logiciels Millumin (formateur officiel) dédié au spectacle vivant et Resolume Arena. Les formations sont organisées toute l’année en France et tous les pays francophones.

Le VJing ou l’art du mixage et compositing en temps réel, création d’ambiance visuelle polymorphique jouant sur les rythmes. L’image live s’adapte à toutes les tendances actuelles pour les concerts, le stage design, les installations, le spectacle vivant …

Le VidéoMapping, introduction à une initiation à la vidéo projetée et à la transformation d’un objet réel par le virtuel pour du stage design, de la projection architecturale, installation artistique, VidéoMapping monumentale, la muséographie.

Les formations sont accessibles aux artistes auteurs (Agessa, MDA), aux intermittents du spectacle ou aux salariés d’entreprise culturelle.

Elles sont éligibles au CPF et AFDAS, se déroulent en groupe de 4 à 6 personnes maximum sur une période de 5 jours en continu, toute l’année.

Contact formation

scénographie LeCollagiste

Saison 2020 VideoMapping et VJing est un billet de LeCollagiste VJ.
LeCollagiste VJ - Mag du LeCollagiste, actu sur la culture VJING, Vidéo Mapping, info video et high tech.

Un écran cathodique monochrome sur un Mac moderne… et une réussite

Par Pierre Dandumont

J’avais parlé de mon écran monochrome (un 12 pouces de l’époque des Macintosh LC) il y a un moment, mais je n’avais pas réussi à obtenir une image depuis un Mac moderne. Assez régulièrement, je me posais la question, et j’ai tenté divers adaptateurs, avant – finalement – de comprendre le problème et de me fabriquer l’adaptateur nécessaire.

Dans mon précédent post, je pensais que l’écran nécessitait une sortie avec une synchronisation sur le vert (Sync On Green), mais c’est plus compliqué que ça. L’écran d’Apple demande une synchronisation composite. Je m’explique.

Spoil : ça marche

Pour schématiser, un écran cathodique nécessite deux signaux de synchronisation. La première valeur pour la partie verticale, la seconde pour la partie horizontale. La transmission des signaux varie en fonction des moniteurs, mais en VGA – la norme des PC, apparue en 1987 -, les signaux sont séparés. Il y a donc une broche qui transmet la synchronisation verticale, et une seconde qui transmet la synchronisation horizontale. Ensuite, sur certains écrans (notamment ceux des ordinateurs Sun ou SGI, mais aussi avec quelques ordinateurs Apple comme le Macintosh IIsi), il y a la technique Sync On Green. Dans ce cas là, les deux signaux sont combinés et transmis sur la broche du vert. Le Sync On Green pose deux soucis, en fonction de ce que vous voulez faire. Premièrement, l’ordinateur envoie un signal de ce type (SGI, Mac II, etc.), il faut un écran qui accapte ce signal. Ce n’est pas généralisé, mais même en LCD, il en existe (j’ai un Dell U2410 pour ça). Deuxièmement, l’écran n’accepte que du Sync On Green (rare). Dans ce cas là, il faut un ordinateur qui envoie le signal (encore plus rare) ou un adaptateur qui le génère. Mais je reviens à mon écran Apple : il n’utilise pas une synchronisation séparée ni une synchronisation sur le vert, mais du Composite Sync. Avec cette technique, les deux signaux sont combinés, mais sur une broche dédiée. Le problème, c’est que le VGA ne prend pas en charge cette technique.

En pratique, ça fonctionne sur les Mac équipés d’une sortie DB-15 (avant le Power Mac G3 Blanc Bleu), et pour une bonne raison : la prise propose une broche pour la synchronisation composite, et deux broches pour la synchronisation séparée. Dans la majorité des cas, le Mac génère donc le signal, et l’écran fonctionne. D’ailleurs, pour compliquer les choses, les appareils avec une sortie vidéo analogique peuvent aussi proposer deux autres possibilités : la synchronisation sur composite et la synchronisation sur luma, mais je m’égare.

Mon problème étant identifié, comment le régler ? Ce n’est pas évident. J’ai d’abord cherché un adaptateur capable de générer la synchronisation composite, mais c’est hors de prix, sans être certain que ça fonctionne. J’ai tenté des adaptateurs pour Mac qui peuvent normalement générer les différents synchronisations, mais sans succès parce qu’ils le font dans l’autre sens : ils prennent un signal DB15 (la prise Apple, qui transmet généralement une synchronisation composite) pour générer un signal VGA (HD15) avec une synchronisation séparée. Les différentes options servent donc essentiellement avec des moniteurs dotés d’une entrée VGA.

Le montage


Petit schéma basique

Finalement, j’ai trouvé une solution : un petit montage simple (un transistor à quelques centimes, deux résistances) pour combiner « manuellement » les deux signaux. En pratique, il faut donc combiner les deux signaux de synchronisation qui viennent de la sortie VGA, et relier les signaux vidéo vert ainsi que les différentes masse. Pourquoi le vert ? Parce que l’écran d’Apple reçoit son signal monochrome sur cette broche. Depuis un ordinateur moderne, il affichera donc en nuances de vert en ralité, mais ce n’est pas réellement un souci. Dans certains cas, il faudra aussi relier le signal du rouge, qui sert parfois à détecter la présence d’un moniteur (ou mettre une résistance). Sans cette petite astuce, l’ordinateur risque de ne pas détecter la présence du moniteur. J’ai donc dû récupérer un breakout VGA et un DB15 (avec un adaptateur pour inverser les broches), ainsi que des composants que j’avais dans une boîte, soit nettement moins que les plus de 200 $ demandés dans certains cas.

Un problème de fréquence

Maintenant, le second problème, parce que sinon ce serait trop simple. Bon, en réalité, je l’ai réglé avant, mais c’est plus logique de le mettre après. Les écrans modernes, quand ils ont encore du VGA, sont « Multi Sync », c’est-à-dire qu’ils peuvent fonctionner avec différentes fréquences horizontales et verticales. En clair, on peut travailler avec une définition élevée à 60 Hz, mais aussi avec une définition faible. Du temps de l’écran que j’utilise, c’était différent : il utilise des fréquences fixes et ne peut afficher qu’une seule définition (640 x 480) avec une seule fréquence de rafraichissement (66,67 Hz, la norme dans les Mac). Pour compliquer les choses, d’ailleurs, il existe des écrans avec une fréquence fixe (souvent l’horizontale) et une fréquence verticale variable, mais ce n’est pas le sujet. En pratique, les fréquences fixes et le taux de rafraichissement atypique impliquent qu’un Mac ne peut pas afficher une image par défaut, parce que macOS ne propose tout simplement pas le 66,67 Hz. La solution ? L’excellent SwitchResX de Stéphane Madrau. Il va permettre de créer les réglages nécessaires pour que l’écran accepte d’afficher une image. Je vous mets les paramètres dans la capture, ce sont les valeurs standards qui peuvent aussi servir pour capturer la sortie d’un Mac.

Les réglages des adaptateurs


Les informations dans SwitchResX


macOS ne propose pas le 66,67 Hz


Avec SwitchResX, ça passe au vide


Les infos système affichent les bonnes valeurs

Maintenant que l’écran reçoit une synchronisation et un signal, est-ce que ça fonctionne ? Oui. L’image est propre, contrastée, et bien cadrée, ce qui semble un peu étonnant vu l’âge de l’écran. Pourtant, c’est assez logique, au moins pour la géométrie : un moniteur à fréquences fixes peut être réglé en usine vu que la définition ne changera jamais. Le piqué est assez bon, et le fait qu’on soit en face d’un écran vert en réalité ne pose pas vraiment de soucis. Forcément, macOS s’affiche difficilement dans un moniteur en 640 x 480 et ce n’est évidemment pas utilisable au quotidien, mais pour regarder des films en noir & blanc (comme l’excellente édition Black & Chrome de Mad Max : Fury Road), c’est assez sympathique.

macOS Catalina


Mad Max : Fury Road

Dernier point, mes photos et mes vidéos. On voit très bien le balayage, et c’est lié essentiellement au fait que l’écran utilise une fréquence de rafraichissement atypique (66,67 Hz). C’est donc un peu compliqué de synchroniser de la vidéo ou même un appareil photo pour éviter le balayage. C’est possible, et certains appareils photo proposent même de fixer manuellement une valeur pour éviter ça, mais avec un iPhone ou un appareil photo basique, comme moi, c’est (beaucoup) moins évident. Pour vraiment terminer, je suppose qu’il doit être possible d’intégrer directement le montage dans un petit adaptateur avec des switchs, mais je n’en ai pas trouvé (même si ça existe visiblement, comme le 0248-CSA sur cette page). Si quelqu’un doué en électronique se décide à en fabriquer un, je suis client…

Mac ou Pippin ? Victorian Park

Par Pierre Dandumont

Cette semaine, je (re)teste un jeu Pippin… mais sur Mac. Une partie des titres de la console d’Apple et Bandai fonctionne en effet sur les deux plateformes. Il s’agit ici de Victorian Park.

Pour commencer, ce jeu affiche un message d’erreur au démarrage, et c’est le premier titre hybride qui me fait cette blague : il demande de désactiver la mémoire virtuelle. Ceci dit, il a au moins la bonne idée de fonctionner avec un Mac OS en anglais, ce qui n’est pas systématique. Pour le reste, c’est comme d’habitude (et ça peut lasser) : le jeu est en japonais pour les dialogues (l’interface est en anglais) et l’affichage reste en 640 x 480, la définition de la Pippin (et avec l’overscan). C’est donc très petit si vous tentez sur un moniteur LCD, vu que Mac OS 9 ne propose généralement pas de mise à l’échelle. Mais le constat que j’avais fait lors du test en vidéo sur la Pippin reste le même : le jeu semble sympathique, complet et bien pensé. A noter que c’est un des rares titres sur deux disques de la console.

L’erreur


La correction


Texte en anglais, mais voix en japonais



On voit bien l’overscan : l’image ne prend pas toute la surface



Avec un grand écran, c’est petit

Apple Vs. RED: Was the REDCODE RAW Patentable or Unpatentable?

Par Caleb Stephens

Let's take a close look at Apple's challenge to RED, the dispute, the decision, and what it means for the future of both companies.

Narrando Estructuras: taller de Videomapping en Madrid – 1 y 2 de febrero

Par volatil

Fechas y horarios
Sábado 1 Febrero: 10 a 4 pm ( dos pausas de media hora a las 12 y a las 2pm)
Domingo 2 Febrero 10 a 4 pm  (dos pausas de media hora a las 12  las 2pm)

Lugar
Paisajes Españoles Marqués de Monteagudo 223a Planta  28028 Madrid
Duración 10 horas
Precio 120 euros
Reserva tu plaza aquí

Dirigido a
El taller está orientado a las disciplinas de artes visuales, procesos, diseño gráfico, arquitectura y otras disciplinas afines. Asimismo en personas interesadas en otras técnicas y aplicaciones de la imagen en movimiento y videomapping. Además, el taller analizará el trabajo de diferentes artistas, sus técnicas y sus métodos de creación, y los propios alumnos podrán desarrollar sus trabajos sobre maquetas y espacios arquitectónicos.

Descripción
El curso está centrado en la técnica de videomapping y el concepto de proyección más allá de la pantalla.  Desarrollamos la técnica de proyección de imagen y su aplicación en instalaciones y performances. Enseñaremos cómo proyectar simultáneamente en diferentes superficies con diferentes motivos e imágenes en movimiento, así como la producción de contenido y su aplicación práctica usando MadMapper4. Investigamos la imagen proyectada no sólo como técnica sino como forma artística y lenguaje.
Este taller está apoyado por MadMapper.

Objetivos
Este taller introduce la técnica de videomapping y propone investigar y reflexionar sobre el concepto de la imagen proyectada más allá de la pantalla.

Temario
Historia y técnicas de la imagen proyectada, pre-cine, arte óptico, cine expandido y performativo. Técnicas de proyeccion y videomapping.El taller es teórico-practico.Cada sección teórica va acompañada de una practica o serie de ejercicios.Se estudiará la creación imagen analógica y digital proyectada (creada con video o fotografía a tiempo real o con código), el análisis de formas espaciales, la creación de blueprint, las técnicas de proyección en tiempo real en fachadas, espacios urbanos, instalaciones e incluso su aplicación artística, escénica para teatro y eventos.
Al finalizar el curso el alumno estará capacitado para diseñar proyectos y producir trabajos audiovisuales sobre arquitectura. Para cerrar el taller presentarán los ejercicios desarrollados durante el curso.

Nº Máximo de estudiantes: 12

Requerimientos técnicos
Este taller está orientado a usuarios de Mac y PC.Trae tu computadora con adaptadores de Mini DisplayPort si usas MacSi usas mac con sistema operativo Osx 10.7 o superior 10.6 noTrae si tienes controlador midi, proyector, modelo / forma en el que desea mapear, si bien nosotros proveemos superficies y proyectores.Si necesita alquilar algún equipo (computadora) para el taller, póngase en contacto.Este taller incluye una licencia temporal de acceso completo de 1 mes de MadMapper y otorga a los participantes un descuento educativo en la compra del software MadMapper.

Semblanza del tutor
Este taller está impartido por Blanca Regina, artista visual, docente y comisaria. Su trabajo se centra en la creación audiovisual y performance, videoarte, arte digital con técnicas analógicas, cine “ expandido “ e improvisación en directo. Entre los centros y espacios donde ha mostrado su trabajo se encuentran La Casa Encendida, (España), Mapping (Ginebra),  Barbican (Londres) VisionR (Paris), Maus Habitos (Oporto) Loop Videoart Festival y Galeríaa H2O (Barcelona), MUPO (Oaxaca, México). Consulta El VJ y la creación audiovisual performativa: hacia una estética radical de la postmodernidad. Tesis Blanca Regina, 2011 .

La entrada Narrando Estructuras: taller de Videomapping en Madrid – 1 y 2 de febrero aparece primero en Vjspain Comunidad Audiovisual, Mapping, Vj, Diseño Interactivo.

IKEA, INNR, OSRAM : compatible Hue mais pas HomeKit

Par Pierre Dandumont

Dans les monde des ampoules connectées, il y a celles qui utilisent le Wi-Fi, celles qui passent en Bluetooth et celles qui utilisent le ZigBee. Et avec cette norme, il y a une compatibilité basique entre les marques : vous pouvez en théorie relier des ampoules d’une marque à un pont d’une autre marque.

Dans le cas de cet article, je vais parler d’un cas précis : un pont Hue et des ampoules d’une autre marque. La première raison, c’est que l’écosystème de Philips est largement le plus complet, avec un énorme choix d’ampoules et d’accessoires, et un support assez large. Philips propose une API, la marque existe depuis 2012, les applications sont complètes, etc. La seconde, c’est que pas mal de marques mettent en avant la compatibilité Hue : OSRAM ou INNR, par exemple, indiquent bien que ça fonctionne sur du Hue, même si les deux sociétés proposent des ponts. Du reste, le pont Hue n’est pas le plus cher et se trouve facilement à bas prix, que ce soit dans des kits (il y en a régulièrement en promotion) ou d’occasion. Beaucoup de gens achètent des kits complets en promotion pour les ampoules et revendent le pont. En pratique, les écosystèmes Aqara ou IKEA peuvent éventuellement faire l’affaire, mais le pont Hue reste la référence. Enfin, la raison principale, les ampoules OSRAM, INNR ou IKEA (ou d’autres) sont moins onéreuses que les Hue. Parfois à raison (les IKEA couleur sont moins bonnes que les Hue), mais pas nécessairement.

Pour toutes ces raisons, donc, je m’intéresse essentiellement à la connexion d’ampoules tierces à un pont Hue, même si en pratique ça doit fonctionner avec d’autres ponts. Au passage, il n’y a pas nécessairement d’un pont dédié : certains produits connectés comme l’Echo Plus d’Amazon (une enceinte Alexa) disposent d’un hub ZigBee intégré.

ZigQuoi ?

Le ZigBee (IEEE 802.15.4) est une norme de communication sans fil, similaire au Bluetooth ou au Wi-Fi. Elle vise essentiellement les objets connectés et utilise la même bande de fréquence que le Wi-Fi et le Bluetooth en Europe, celle des 2,4 GHz. Il existe une variante spécifique pour les ampoules, et c’est cette norme que pas mal de marques utilisent. Le ZigBee est lent, mais la portée est bonne, essentiellement grâce au maillage. En simplifiant, le ZigBee est un réseau et chaque appareil peut servir à transmettre les messages. Si une ampoule est trop loin du point d’accès, elle peut passer par les autres ampoules (ou accessoires) pour relayer le signal. Si vous avez une grande surface à couvrir, les messages passent donc d’appareils en appareils, en supposant qu’ils soient actifs.

En théorie, il est possible d’ajouter une ampoule ZigBee à un hub ZigBee (le pont Hue). En pratique… ça dépend. La norme utilisée n’est pas nécessairement la même, les accessoires peuvent passer par des commandes propriétaires, le firmware peut poser des soucis (je vais y revenir), etc. Disons que le principal problème va être de mettre l’ampoule dans un mode appairage, pour la connexion. Sur certaines, c’est impossible (les anciennes Living White de Philips, j’en parlerais dans un futur post), pour d’autres, ça nécessite du matériel précis. Chez IKEA, par exemple, il faut un firmware précis pour connecter les ampoules sur un pont Hue et la mise à jour ne peut s’effectuer qu’avec un pont IKEA. Disons que pour faire simple, vous devriez pouvoir connecter des ampoules, mais pas des accessoires. Si vous avez besoin d’infos sur la compatibilité au sens large, la page d’aide de iConnectHue est très complète.

Le gros point à savoir si vous aimez les produits Apple : ça ne fonctionne pas avec HomeKit. Le pont Hue n’expose pas les ampoules d’autres marques à HomeKit, je suppose pour des raisons de certifications. Donc les ampoules OSRAM, IKEA et les autres, ainsi que les prises connectées resteront uniquement dans l’application Hue.

OSRAM

On commence par OSRAM. La marque vend des ampoules ZigBee en mettant en avant la compatibilité Hue, et même s’il existe un pont de la marque, il est difficile à trouver et moins complet que le Hue. OSRAM a aussi pas mal d’accessoires (dont des télécommandes) mais ils ne fonctionnent pas sur du Hue, sauf les prises connectées. Il existe des ampoules couleurs, blanches, des filaments, etc. Attention, il existe des ampoules ZigBee (compatibles Hue) mais aussi des Bluetooth.

Avant la détection de l’ampoule, j’ai dû la remettre à zéro. C’est un peu tordu : il faut allumer cinq fois l’ampoule avec 5 secondes entre chaque cycle. Ensuite attendre qu’elle clignote. Et je vous jure que j’ai dû passer par un chronomètre pour le bon timing. Une fois que c’est fait, elle a été détectée par l’application Philips. Les contrôles sont les mêmes que les ampoules Philips, mais comme prévu, pas de compatibilité HomeKit à l’horizon. Les ampoules Smart+ sont correctes, mais le rouge dérive un peu et quand elles s’éteignent, elles ont effet de fondu un peu désagréable.

Une ampoule OSRAM

INNR

INNR est dans le même cas qu’OSRAM : il existe un pont de la marque, mais c’est surtout la compatibilité Hue qui est mise en avant. La gamme est large, avec des bandeaux, des ampoules couleurs, des filaments, des spots en GU10, etc. Comme pour les OSRAM, il vaut mieux faire un reset avant la connexion. Première étape, allumer la lampe au moins 5 secondes. Ensuite, il faut éteindre et allumer six fois, avec un intervalle de 0,5 seconde. Elle clignotera deux fois, et c’est bon. Une fois que c’est fait, le pont Hue devrait détecter l’ampoule.


Elle est reconnue


Mais pas de réglage sur le comportement à l’allumage

Une fois connectée, elle fonctionne comme une Hue couleur dans le cas de l’ampoule testée, mais pour la moitié du prix. Par contre, on perd HomeKit et la gestion de la configuration à l’allumage.

IKEA

J’ai déjà parlé de la gamme Trådfri, mais en gros la solution d’IKEA est compatible Hue… dans certaines conditions. Il faut que les ampoules soient en firmware 1.2.217 au minimum, ce qui peut être vérifié avec le pont Trådfri (oui, ce n’est pas très pratique) ou sur la boîte. A priori le numéro à côté du code barre doit être supérieur à 1721. C’est normalement le cas en 2020, sauf si voius avez trouvé une (très) vieille boîte. Dans le cas contraire, pour mettre à jour l’ampoule, il faut le pont Trådfri et un accessoire.

Pour l’installation sur un pont Hue, première chose, commencez par faire un reset de l’ampoule. La méthode est encore une fois spécifique : il faut faire six cycles rapides (éteindre/allumer) et laisser allumer ensuite. La lampe clignote et c’est bon. Ensuiten une recherche dans l’application Hue devrait suffire. J’ai utilisé cette méthode avec une ampoule blanche réglable et ça a fonctionné. Avec une seconde ampoule (couleur), impossible. Je suis donc passé par la seconde méthode : TouchLink. Avec une application tierce (iConnectHue, etc.), il faut lancer une détection TouchLink en plaçant l’ampoule à moins de 30 cm du pont. Oui, ce n’est pas nécessairement pratique. Avec cette méthode, elle a été détectée et fonctionne dans l’application Hue. Attention, la lampe couleur a une luminosité plus faible que les Hue, et le vert est un peu bizarre. Mais comme elle vaut le tiers du prix d’une Hue, on peut pardonner.




La blanche réglable


La couleur


Elle se règle sans soucis

Chez IKEA, c’est donc mitigé. La détection est aléatoire, et si vous n’avez pas de chance, vous aurez besoin du pont pour faire une mise à jour. Mais si vous avez le pont, il faut être honnête : ça n’a pas réellement d’intérêt d’ajouter les ampoules sur celui de Philips. Surtout que le pont IKEA est HomeKit, alors que les ampoules IKEA sur un pont Hue ne fonctionnent pas avec HomeKit.

Le cas Aqara

Avec les ampoules Aqara (Xiaomi), c’est un peu différent. En théorie, elles sont ZigBee et fonctionnent avec un pont Hue. En pratique, je n’ai pas réussi. Le reset fonctionne en effectuant trois cycles d’allumage (donc on éteint, puis on rallume). Oui, une quatrième marque d’ampoules, une quatrième technique. Et même comme ça, le pont Hue ne détecte pas l’ampoule. La solution ? Selon quelques posts, le TouchLink fonctionne, mais chez moi… impossible. J’ai testé avec deux ZNLDP12LM sans succès, alors qu’elles fonctionnent avec le pont Aqara. Pour rappel, le TouchLink nécessite de rapprocher l’ampoule du pont, et de lancer une recherche spécifique, avec une application comme Hue Lights ou iConnectHue.

Pour terminer, ça doit marcher avec d’autres marques d’ampoules, comme les Sengled en ZigBee (attention, certaines sont Wi-Fi uniquement). Mais dans tous les cas, il faut trouver la méthode de reset ou passer en TouchLink, et vous perdrez la compatibilité HomeKit ainsi que la possibilité de régler le comportement à l’allumage.

Le cas de la mémoire cache des Mac Pro : Apple n’utilise pas des CPU custom

Par Pierre Dandumont

Vu que j’ai eu la discussion avec quelques personnes qui pensaient, en ayant vu cette page chez Apple, que le Mac Pro possédait des processeurs un peu particuliers avec plus de mémoire cache. Ce n’est pas le cas, Apple a juste une façon particulière (et pas nécessairement fausse) de compter la mémoire en question.

Un peu d’explications, je vais essayer d’être clair. Dans un processeur, vous avez différents niveaux de mémoire cache, le niveau 1 (L1), le niveau 2 (L2) et le niveau 3 (L3). Ces trois mémoires se placent entre le processeur et la mémoire vive, pour accélérer les transferts. Si on peut considérer la mémoire vive (RAM) comme rapide face à un disque dur ou un SSD, elle est lente par rapport au processeur. La mémoire cache est rapide, mais sa capacité assez limitée. J’omets volontairement ici le cache µOP (une sorte de L0) et la mémoire eDRAM de certaines puces qui fait office de cache L4.

Dans les architectures Intel classiques (on va prendre comme exemple un Core Skylake comme celui d’un MacBook Pro), l’architecture est la suivante. D’abord, deux L1 de 32 ko (un pour les données, un pour les instructions) par coeur. Ensuite, 256 ko de L2 par coeur. Enfin, jusqu’à 2 Mo de L3 par coeur. La gestion des niveau 2 et 3 est inclusive : le contenu du L2 est automatiquement présent dans le L3. De plus, le cache de niveau 3 est partagé entre les différents coeurs, donc sa capacité totale varie en fonction des puces. La valeur de 2 Mo par coeur est un maximum : Intel réduit parfois ce nombre pour segmenter sa gamme. Par exemple mon MacBook Pro 2017 dispose d’un processeur avec 4 coeur, mais seulement 6 Mo de cache, il faut passer sur un modèle plus rapide (et plus cher) pour disposer de 8 Mo.

N3 partagé

On résume : 2×32 ko par coeur, 256 ko par coeur, un L3 partagé qui contient automatiquement le L2 de chaque coeur. La valeur pratique, celle qu’Apple indique dans la page des MacBook Pro, va être celle du cache de niveau 3.

Le cas Mac Pro

Le Mac Pro 2019 utilise des puces Cascade Lake, avec des Xeon W. Techniquement, ce sont des Skylake “X” avec quelques corrections de bugs et quelques lignes PCI-Express de plus. Le point intéressant, qui a fait douter pas mal de gens, c’est qu’Apple indique une grosse quantité de mémoire cache sur la page du Mac Pro. Jusqu’à 66,5 Mo de mémoire cache sur le modèle 28 coeurs, alors qu’Intel annonce seulement 38,5 Mo de cache de niveau 3. Une erreur ? Un processeur avec plus de mémoire cache pour Apple ? Non. Une autre façon de compter. Par ailleurs, Apple indique bien « Mémoire cache » et pas « Mémoire cache de niveau 3 ».

Les valeurs Apple

L’architecture expliquée juste avant n’est pas la seule possible. AMD utilise une autre façon de faire, et Intel – avec les Skylake X – utilise la même. Dans un Xeon W de Mac Pro, donc, on retrouve deux caches de niveau 1 de 32 ko (données et instructions) et 1 Mo de cache de niveau 2 par coeur (une valeur nettement plus élevée qu’auparavant). Les deux premiers niveaux sont inclusifs (le contenu du L1 est dans le L2). Ensuite, et contrairement aux autres puces Intel, le cache de niveau 3 est exclusif. Sa capacité est de 1,375 Mo par coeur. Vu la taille du L2, c’est assez logique, d’ailleurs. En clair, le contenu du L2 et du L3 n’est pas le même. Sur une puce avec 28 coeurs, on a donc 38,5 Mo de L3 (28*1,375) et 28 Mo de L2 (28*1)… soit les 66,5 Mo d’Apple. Ce n’est pas très orthodoxe comme façon de compter, mais c’est techniquement valable : il y a 66,5 Mo de cache accessibles.

Pourquoi 24,5 ?

Maintenant, vous allez peut-être demander pourquoi le processeur avec 8 coeurs dispose de 24,5 Mo de cache, ce qui ne colle pas avec le calcul (8*1 + 8*1,375, ça fait 19 Mo). En fait, Intel intègre bien 1,375 Mo par coeur, mais les processeurs n’ont pas nécessairement tous les coeurs actifs. Je ne connais pas la raison exacte, mais Intel utilise des CPU avec une partie des coeurs désactivés, en fonction des références. Les versions 4 et 6 coeurs (qu’Apple n’utilise pas) ont 8,25 Mo de L3 (la valeur des 6 coeurs). Les 8 coeurs ont 16,5 Mo de L3 (la valeur de 12 coeurs). Les 10, 12 et 14 coeurs ont 19,25 Mo (la valeur des 14 coeurs). Les 16, 18, 24 et 28 coeurs ont la valeur attendue. A priori ça vient du type de die utilisé, en fonction des contrôleurs mémoire, de la gestion de la liaison entre les coeurs, etc. En clair, la valeur théorique est 1,375 Mo par coeur, mais ça peut varier selon l’architecture interne.

On résume : 2×32 ko par coeur, 1024 ko par coeur, un L3 partagé (1,375 Mo par coeur) qui ne contient pas le L2. La valeur pratique, celle qu’Apple indique dans la page du Mac Pro, va donc être l’addition du L3 et des différents L2.

Mais donc Apple ne ment pas. Apple compte d’une façon avantageuse pour sa communication, mais avec une base technique valable, qui a l’avantage (pour eux) d’empêcher la comparaison directe et peut induire en erreur.

Les vrais CPU custom

Au passage, pour revenir à cette légende : Intel propose rarement des CPU custom, même pour un gros client comme Apple (qui ne l’est pas tant que ça, d’ailleurs). On peut considérer les modèles avec un gros IGP (et de la mémoire eDRAM) comme des commandes pour Apple, et la marque à la  a parfois reçu des modèles avec des fréquences spécifiques, mais les vrais custom restent assez rares. Un des premiers exemples reste le Core 2 Duo des MacBook Air (2008), qui utilisait un package plus compact, et les CPU des Mac Pro 2009 (4,1) qui n’avaient pas d’IHS. Enfin, des rumeurs indiquent que le CPU Kaby Lake G (une puce Intel qui intègre un GPU AMD) a été pensée pour Apple… mais Apple ne l’a jamais intégré. Reste que dans l’absolu, c’est donc plutôt rare qu’Intel propose des puces spécifiquement pour Apple, et il s’agit généralement d’arrangements physiques plus que des changements profonds.

Bienvenue en 1920 : le bug de l’an 2020 de Mac OS

Par Pierre Dandumont

Aujourd’hui, je vous souhaite une bonne et heureuse année, mais je dois aussi vous parler du bug de l’an 2020. Car il existe. Si vous avez un vieux Mac.

Ce bug ne touche que les Mac sous Mac OS 8 (8.6 et avant) et empêche de fixer une date en 2020 avec le tableau de bord. Pour le Mac, après 2019… il y a 1920. C’est expliqué sur cette vieille page, qui montre que le tableau de bord (et les logiciels qui utilisent la même fonction) ne peut pas gérer les dates au-delà de 2019.

La conséquence est assez évidente : si jamais votre Mac a perdu la date, il est impossible de la fixer facilement en 2020. Le tableau de bord passe en 1920, comme le montrent les captures et la vidéo.

2019…


…1920

Par contre, truc amusant, le Mac lui-même passe parfaitement en 2020. Si vous avez une pile en état dans le Mac (ou une batterie dans certains portables), il va passer en 2020. Le bug ne touche que le tableau de bord de réglage.

❌