Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 20 janvier 2020Vos flux RSS

Un prototype de carte mère de MacBook Pro

Par Pierre Dandumont

Vu sur eBay, un prototype de carte mère de MacBook Pro 17 pouces, dans sa version 2007. Le vendeur la propose pour 200 $.

En dehors de la couleur verte inhabituelle (même si le rouge est plus courant pour les prototypes), la carte intègre quelques connecteurs de debug. La photo ne permet pas de vérifier le modèle de GPU, mais la taille et la marque (Nvidia) ne laissent pas trop de doutes sur le fait qu’il s’agit du G84 (GeForce 8600M) de la version finale. Vu la fréquence, le CPU est a priori un Core 2 Duo T7700, un modèle avec deux coeurs à 2,4 GHz. Pour le reste, rien de spécial.




À partir d’avant-hierVos flux RSS

Tunin’Glue et l’entrée audio de la Pippin

Par Pierre Dandumont

Quand j’avais testé le jeu Tunin’ Glue, j’avais raté un truc : il peut utiliser l’entrée audio de la console. La Pippin, et c’est quelque chose d’atypique dans les consoles, dispose en effet d’une entrée audio à travers deux prises RCA à l’arrière. Tunin’ Glue est a priori le seul qui utilise cette fonction (je crois).

Je suis tombé sur cette particularité en regardant deux threads sur Twitter, avec deux personnes qui utilisent un synthétiseur maison et Tunin’ Glue. Après quelques essais, j’ai fait une petite vidéo qui montre ce que ça donne.

Pour le contexte, j’ai branché une carte son USB avec des sorties RCA vers la console. Tunin’ Glue a une interface un peu particulière, qui n’utilise que les boutons de la manette (pas le trackball), et j’ai donc dû faire quelques essais avant de comprendre (une traduction à la volée du manuel a aussi aidé). Dans la vidéo, que je commente un peu, j’enregistre d’abord – en aveugle – mon extrait audio, avant de lancer un enregistrement en local avec des sons préenregistrés. La seconde partie de la vidéo (la fin) consiste simplement à rejouer les quelques sons, dont le sample. Je suppose qu’avec de l’entraînement et une traduction du manuel (entièrement en japonais), il doit être possible de faire des choses intéressantes, mais je ne suis pas du tout musicien…

Le manuel explique comment faire

Je vous mets une image d’Evan Amos pour montrer les entrées RCA.

Les entrées RCA (à droite)

La présentation de l’Apple Watch Hermès

Par Pierre Dandumont

Récemment, jai trouvé sur eBay un petit livret intéressant : celui livré lors de la présentation de l’Apple Watch Hermès en 2015. Il présente quelques conversations entre Jony Ive et Pierre-Alexis Dumas ainsi que des photos des modèles exclusifs de la marque.

Je l’ai numérisé, ce qui permet de voir le dégradé orange à l’intérieur. J’ai aussi numérisé le signet, mais c’est un peu compliqué de montrer l’effet de relief. Le texte est intéressant quand on s’intéresse au processus de création. J’ai mis le booklet complet , je ne publie ici que les pages avec du texte en français (il y a la version anglaise).

Si jamais quelqu’un possède le bracelet orange et ne l’utilise pas, ça m’intéresse.

Un Fusion Drive externe en APFS, avec un dock Thunderbolt 3

Par Pierre Dandumont

Il y a quelques jours, je testais le Seagate FireCuda Gaming Dock, qui combine un disque dur externe et un SSD en Thunderbolt, avec la même connexion. Et je me suis posé une question : et si je faisais un Fusion Drive ?

Le Fusion Drive, pour rappel, est une technologie Apple utilisée dans les iMac et les Mac mini, qui permet de combiner un SSD et un HDD. le SSD stocke l’OS et les données souvent utilisées, le reste est déplacé automatiquement sur le HDD. Pour l’utilisateur, c’est normalement transparent, il ne voit qu’un seul volume et le système s’occupe en arrière-plan des transferts. C’est plus efficace que les équivalents Windows, essentiellement parce que l’OS peut être placé directement dessus et que la gestion dépend directement de macOS et pas d’un pilote ou d’un logiciel ajouté.

Faire un Fusion Drive externe est souvent une mauvaise idée parce que les boîtiers qui offrent deux volumes (un SSD et un HDD) sont rares. Et le Fusion Drive, comme le RAID 0, n’apprécie pas qu’un des deux périphériques soit absent. S’il est donc possible de le faire en USB avec deux boîtiers externes, c’est dangereux. Avec le FireCuda Gaming Dock, et si vous le branchez en Thunderbolt 3, vous aurez le SSD et le HDD sur la même connexion, avec en bonus un SSD rapide.

En HFS

Il existe deux méthodes pour faire un Fusion Drive. La première, l’originale, passe par un partitionnement en GPT et Core Storage. Il faut sortir le Terminal, et c’est documenté chez Apple.

Première chose, un petit diskutil list qui va liste les périphériques. Il faut noter les valeurs /dev/diskxx du SSD et du HDD. Je vous conseille de vérifier deux fois. Pendant la rédaction de ce post, j’ai effacé un disque dur de sauvegarde.

La commande va créer un volume Core Storage avec le SSD et le HDD.

diskutil cs create FusionDrive /dev/disk11 /dev/disk12

Maintenant, il faut utiliser la commande diskutil cs list et noter la valeur Logical Volume Group (ici 61B206D1-5393-4644-B797-D8260F166959).

Puis il faut créer un volume, en remplaçant logicalvolumegroup par la valeur trouvée juste avant.

diskutil cs createVolume logicalvolumegroup jhfs+ FusionDrive 100%

Et voilà, vous avez obtenu un Fusion Drive externe. Dans mon cas, il faut 4,25 To : le disque dur de 4 To et le SSD NVMe de 256 Go.

En APFS

Depuis Mojave, il est possible de créer un volume Fusion Drive en APFS, le récent système de fichiers d’Apple. Ce n’est pas forcément une bonne idée, APFS est très lent avec les HDD, mais c’est possible et j’ai utilisé ce tutorial.

Il faut commencer de la même façon, avec un diskutil list, et bien noter les identifiants.

Ensuite, la commande suivante va permettre de créer le Fusion Drive. Il faut bien indiquer le périphérique principal (le SSD) et le secondaire (le disque dur). Si vous voulez faire un Fusion Drive de SSD, placez le plus rapide en premier.

diskutil apfs createContainer -main /dev/disk10 -secondary /dev/disk11

Refaites un diskutil list, et cherchez la valeur liée au volume synthesized.

Avec cette valeur, il faut taper cette commande.

diskutil apfs addVolume /dev/disk13 APFS "Fusion Drive"

Et voilà, le volume Fusion Drive est monté.

Ça donne quoi ?

Dans les deux cas, le système va s’arranger pour écrire d’abord sur le SSD, puis sur le HDD. C’est un peu compliqué de montrer des benchmark, vu que l’OS fait sa popote interne : si vous faites un test d’écriture, il va d’abord mettre 4 Go en cache sur le SSD puis généralement passer sur le HDD, mais ensuite les données seront déplacée sur le SSD. Fusion Drive est vraiment pensé pour être utilisé pour l’OS, qui sera forcément sur le SSD, alors que le reste des données de l’utilisateur passeront du SSD au HDD (ou le contraire) en fonction de votre usage. L’intérêt avec le Gaming Dock est surtout de proposer un espace combiné qui sera rapide dans les usages du quotidien. Pour une sauvegarde Time Machine, ça peut notamment accélérer un peu les transferts au départ, et le système déplacera ensuite les données vers le HDD.

L’accélération vidéo dans HandBrake

Par Pierre Dandumont

J’utilise HandBrake depuis des années pour (re)compresser des vidéos ou passer d’un format un peu atypique à quelque chose de plus standards, et je me suis rendu compte récemment que depuis la version 1.2, HandBrake peut utiliser l’accélération vidéo sous macOS.

L’encodage chez Apple passe parce une technologie appelée VideoToolbox. Il y a assez peu d’options dans HandBrake (et sous macOS), et la technologie est supportée depuis pas mal de temps. Pour le HEVC (H.265), ça doit marcher sur tous les Mac sortis après 2015. Le principal problème de VideoToolbox va être « Qui encode ? ». La question n’est absolument pas triviale, les Mac intègrent plusieurs encodeurs différents.

Premièrement, il y a les fonctions des GPU Intel, disponibles sur les Mac avec un IGP (les portables, quelques iMac, les Mac mini, etc.). La technologie porte le nom de QuickSync et permet d’encoder plus ou moins bien en H.264 ou en H.265 sur les appareils récents. Sur d’autres Mac, c’est le GPU dédié qui prend la main, généralement à base d’AMD. Et en fonction de la carte graphique, les résultats varient. Enfin, sur les Mac avec une puce Apple T2, l’encodage (et le décodage) passent par cette dernière (et c’est a priori plus rapide, mon Mac n’a pas de T2).

Attention, l’encodage sur le GPU peut être moins bon que sur le CPU. Les encodeurs ont des fonctions fixes et la qualité diminue, un bon encodeur CPU évite les erreurs, compressent mieux et offre un résultat meilleur, mais généralement bien plus lent. Mais pour un usage grand public basique, genre regarder un film sur l’Apple TV, l’encodeur GPU suffit généralement. Il va manger quelques détails, mais il va aller 5 à 10x plus vite, ce qui n’est pas négligeable. L’encodeur Apple, on va le voir, a un défaut gênant pour HandBrake : il demande un bitrate précis (le débit). Avec le x264 ou le x265, on peut définir une qualité à obtenir, et l’encodeur va se débrouiller en fonction de la scène. Avec l’encodeur Apple, il faut définir une valeur de débit, et c’est tout. En pratique, on a donc des fichiers plus gros par défaut, et il faut tester pour atteindre le bon rapport débi/qualité (pas très pratique).

Avec HandBrake, une fois la vidéo choisie et les paramètres définis, il faut se rendre dans l’onglet Vidéo et modifier l’Encodeur vidéo. Par défaut, HandBrake va souvent proposer le x264, un encodeur logiciel efficace. Il suffit de passer sur un encodeur VideoToolbox pour activer l’accélération. Attention, surtout avec l’encodeur H.265, le résultat n’est visiblement pas toujours parfait, mais je n’ai pas eu de soucis.

HandBrake


Deux options VideoToolbox

Quelques tests

Je suis parti d’une vidéo d’une dizaine de minutes en 1080p (Big Buck Bunny) et j’ai testé plusieurs cas de figures. La machine est un MacBook Pro 2017, avec un CPU quatre coeurs (Core i7 7700HQ), une Radeon Pro 560 et un eGPU à base de Radeon Vega 64.

L’encodage en H.264 (x264) utilise le CPU pour encoder, et le processeur reste aux alentours de 2,9 GHz en permanence (entre sa fréquence de base, 2,8 GHz, et son Turbo à 3,4 Ghz). Il encode en 7 minutes et 23 secondes (~32 fps) pour un fichier final de 278 Mo.

L’encodage en H.264 par VideoToolbox utilise le GPU (l’Intel, j’y reviens). Le CPU reste utilisé pour pas mal de tâches, mais l’encodage prend seulement 2 minutes et 18 secondes (~104 fps). Petit défaut, le fichier final est plus gros : 459 Mo. Je n’ai pas remarqué de dégradations visuelles flagrantes. Pour la taille du fichier, c’est normal : l’encodeur Apple a peu d’options, et HandBrake sélectionne un bitrate fixe (6 Mb/s) avec ce dernier, contre un réglage de qualité sur l’encodeur software (RF 22).

Le second essai a été d’encoder de la même façon, mais en débranchant le eGPU. Le résultat ne bouge pas : 2 minutes et 17 secondes. C’est bien l’IGP Intel qui encode en H.264. Le dernier essai (uniquement avec l’IGP) confirme bien que c’est l’IGP qui encode : le GPU ne s’active pas, le temps ne bouge pas.

L’encodage en H.265 (x265) avec les mêmes réglages (RF 22) utilise le processeur. Il prend nettement plus de temps (14 minutes et 33 secondes, ~16 fps). Le fichier est un peu plus petit qu’en H.264 (243 Mo). Je suppose qu’il y a des réglages plus efficaces, ceci dit.

L’encodage en H.265 par VideoToolbox utilise le GPU, et plus spécifiquement dans mon cas l’eGPU (une Radeon RX Vega 64). C’est un peu tendu à voir, mais l’augmentation de la température montre bien que c’est cette carte précise qui encode. Il faut 2 minutes et 21 secondes (~101 fps) pour un fichier de 472 Mo. C’est aussi logique : HandBrake ne permet qu’un bitrate fixe.

On voit que la Vega 64 travaille un peu

Le seconde essai, là aussi, passe par le débranchement du eGPU. L’encodage s’effectue ici sur l’IGP Intel (on peut le voir avec Moniteur d’activité) mais une partie passe aussi par le GPU dédié (Radeon Pro 560 dans mon Mac). Vu l’occupation, je peut supposer que le décodage s’effectue sur le GPU et l’encodage sur l’IGP. Malgré tout, c’est nettement moins rapide : 5 minutes 19 secondes (~45 fps). Le troisième essai confirme : il faut le même temps et macOS force l’activation du GPU.

Ici, Radeon et Intel HD travaillent de concert


L’encodage force bien le GPU

Conclusion

L’encodage H.264 s’effectue visiblement uniquement via QuickSync, et rapidement. Pour le H.265 (HEVC), ça va dépendre de votre Mac, mais un eGPU peut donner un gros gain. Le jour ou j’ai une machine sans GPU ou une autre avec une puce T2 sous la main, j’effectuerais d’autres tests.

Brainstorm Selected By MOOV For Virtual Set, Augmented Reality, And Motion Graphics Content Creation

Par Andres Benetar

  MOOV, The UK-based sports and events graphic services provider has selected Brainstorm solutions for their upcoming requirements for advanced content creation Last year, Brainstorm, the leading manufacturer of real-time 3D graphics, augmented reality and virtual studio solutions, announced the agreement with MOOV, the UK’s leading sport & events graphics company, to become a preferred ...

The post Brainstorm Selected By MOOV For Virtual Set, Augmented Reality, And Motion Graphics Content Creation appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

Comment gérer un écran 6K ? Le cas de l’Apple Pro Display XDR

Par Pierre Dandumont

Le nouvel écran d’Apple interpelle, tant par son prix que sa définition. Mais aussi par les technologies utilisées pour le relier à un Mac. La compatibilité est plutôt limitée, et il y a de bonnes raisons techniques derrière. Je vais essayer de résumer le tout. Je ne suis pas certain à 100 % des informations, je n’ai pas l’écran ni les Mac adaptés, mais je suis parti de données techniques assez factuelles, donc ça devrait être correct.

Attention, ça va être technique.

6K pour l’écran Apple (et 5500 € sans pieds)

Je vais commencer par la norme DisplayPort. Elle fonctionne avec ce qu’on appelle des lignes (comme en PCI-Express), entre une et quatre dans une prise classique. Dans une prise classique, on utilise quatre lignes. Dans de rares cas, comme avec les adaptateurs USB-C qui sortent de la vidéo et de l’USB, on se limite à deux lignes. Ensuite, il y a le mode de transfert, qui porte le nom de HBR (High Bit Rate). Le HBR1 (vieux, DisplayPort 1.1) est à 2,7 Gb/s par ligne, le HBR2 (Displayport 1.2) à 5,4 Gb/s par ligne et le HBR3 (DisplayPort 1.3) à 8,1 Gb/s par ligne. En plus de ces modes, il existe aussi une compression (DSC) qui permet de réduire la bande passante nécessaire en compressant « sans pertes visuelles visibles » (je vais y revenir). Pour résumer, avec quatre lignes (la valeur classique), on a 8,6 Gb/s en HBR1 (une partie de la bande passante sert à l’encodage), ~17,3 Gb/s en HBR2 et ~25,9 Gb/s en HBR3.

Premier truc lié, il faut que le GPU supporte les technologies. Tous les Mac modernes (depuis le Thunderbolt 2) supportent le HBR2. Le HBR3, plus récent, ne fonctionne que sur les cartes AMD à base de Polaris (Radeon RX 500), Vega ou Navi (5000). Le DSC, lui, ne fonctionne que sur les cartes à base de Navi, donc actuellement (janvier 2020) sur le MacBook Pro 16 pouces et certains GPU du Mac Pro (la Radeon Pro W5700X, pas encore en vente). Si vous avez une carte Intel, la question ne se pose pas : il n’y a pas de support du HBR3 actuellement dans les Mac (il faut attendre Ice Lake).

Cette carte graphique à plus de 6000 € ne supporte pas le DSC

Maintenant, le Thunderbolt. La première version transporte 8 lignes HBR1. La seconde version 8 lignes HBR2. La troisième version, elle, reste à 8 lignes HBR2 dans la majorité des cas. Attention, ça va devenir compliqué : il existe plusieurs contrôleurs Thunderbolt 3, et ils n’ont pas les mêmes fonctions. Le contrôleur original porte le nom d’Alpine Ridge et se retrouve dans la majorité des Mac depuis les MacBook Pro 2016. Le Titan Ridge, lui, gère le HBR3 (5 lignes) mais ne se retrouve que dans quelques Mac : les MacBook Pro 2018 (et plus), les iMac (2019) et le Mac Pro. Les Mac mini (2018), MacBook Pro (13 pouces) et MacBook Air (2018) ont aussi un Titan Ridge mais le GPU Intel ne supporte pas le HBR3. En pratique, ça fonctionne aussi avec un eGPU BlackMagic, qui possède un contrôleur Titan Ridge et un GPU compatible HBR3 (mais pas DSC). Vous trouverez pleins de détails dans ce sujet.

Troisième étape, la définition. On l’a vu, le DisplayPort offre une bande passante assez large. Pour se donner une idée, un écran 1080p 60 Hz demande 3,2 Gb/s, un écran 1440p monte à 5,6 Gb/s et un écran 4K60 monte à 12,5 Gb/s. Les deux premiers marchent donc en HBR1, mais pas le troisième. Un écran 5K, toujours à 60 Hz, demande ~22,2 Gb/s, et un écran 6K comme celui d’Apple demande ~33 Gb/s (un peu plus à cause du HDR, mais je ne sais pas comment le calculer).

Pour transmettre autant de données, il n’y a en pratique que deux solutions : le mode HBR3 à travers du Thunderbolt 3 (5 lignes, ~40 Gb/s) ou la compression. Même huit lignes HBR2 ne suffisent pas.

Enfin, dernier point un peu compliqué, le mode de transfert. Quand un moniteur demande plus de lignes que ce que propose une prise classique (par exemple un écran 5K en HBR2), il existe différentes façon d’utiliser les lignes supplémentaires. Le premier mode, abandonné depuis pas mal d’années, porte le nom de MST (Multi Stream Display). Il a été implémenté sur les premiers écrans 4K, et montre deux écrans au système. La carte graphique voit deux écrans et l’OS doit ensuire reconstruire l’image. C’est plus ou moins efficace (moins que plus) et se retrouver avec une demi dalle active n’est pas exceptionnel (j’ai un écran de ce type au boulot). Ensuite, il y a les écrans SST (le fonctionnement classique). Puis les Dual Link SST. Comme en DVI, ils utilisent plusieurs lignes, mais ne montrent qu’un seul écran au système. Le Dual Link SST peut fonctionner en interne (cas des iMac 5K), en externe avec deux câbles (Dell ou HP font ça avec les écrans 5K) ou avec un seul câble Thunderbolt, comme les écrans 5K LG ou le 6K Apple.

Dans la pratique

De ce que j’ai vu, l’écran Pro Display XDR fonctionne de deux façons. Soit en Dual Link SST avec cinq lignes HBR3, soit en SST avec quatre lignes HBR2 et de la compression. Le premier cas va être celui de la majorité des Mac compatibles : iMac 2019, MacBook Pro 15 pouces 2018, Mac Pro 2019 et eGPU BlackMagic. Dans ce mode, il ne reste pas assez de bande passante pour de l’USB rapide, et les ports USB-C derrière l’écran sont limités à l’USB 2.0.

Le second cas ne se retrouve que sur le MacBook Pro 16 pouces et éventuellement sur le Mac Pro 2019 avec une carte Navi (Radeon Pro W5700X, pas encore sortie). Il compresse l’image, et permet donc de garder de la bande passante pour de l’USB 3.0 (5 Gb/s).

Du coup, pourquoi l’iMac Pro ne peut-il pas gérer l’écran 6K en 6K ? Parce que son contrôleur Thunderbolt est un Alpine Ridge qui ne supporte pas le HBR3 (même si la carte graphique le supporte) et que la carte graphique ne prend pas en charge la compression DSC.

Pas de 6K pour l’iMac Pro

Si Apple se décide à mettre des processeurs Ice Lake (la 10e génération en 10 nm d’Intel) dans ses machines, le Mac mini, le MacBook Air ou les MacBook Pro 13 pouces pourraient profiter de l’écran : le GPU de ces processeurs prend en charge le HBR3 et le DSC.

Maintenant, les eGPU. Les cartes qui ne supportent que le HBR3 (Polaris ou Vega) ne peuvent pas gérer l’écran d’Apple en 6K, sauf dans le cas particulier du modèle de BlackMagic qui intègre le Thunderbolt 3 directement. De ce que j’ai vu, il fonctionne en USB-C ou en Thunderbolt 2 et 3 sans Titan Ridge (même si la documentation ne l’indique pas explicitement) avec quelques limites. En théorie, un eGPU avec une carte Navi (Radeon RX 5000) et un adaptateur DisplayPort vers USB-C devrait le faire fonctionner en 6K, mais je ne suis pas certain. Dans tous les cas, le fait que l’écran ne propose que de l’USB-C (ou du Thunderbolt 3) en entrée risque de poser des soucis avec un eGPU : l’USB-C n’existe pas dans les cartes AMD actuellement.

La compression

La question à 5 500 € (sans pieds) : est-ce que la compression a un impact visible ? L’association VESA présente cette compression comme avec pertes, mais sans pertes visuelles et sans latence. la compression théorique se situe entre un facteur 2 et un facteur 3, donc c’est plutôt efficace. Je dois avouer que je suis un peu dubitatif tout de même et que je n’ai pas trouvé de comparaison ni de test. Les moniteurs qui utilisent le DSC restent rares (il y a un écran 8K chez Dell, par exemple) et la comparaison directe n’est pas évidente : on a rarement le choix. En fait, l’écran Apple est potentiellement le meilleur client pour la comparaison vu qu’il fonctionne avec ou sans DSC.

L’écran 8K de Dell

Dernier point, l’écran 8K de Dell. Vu qu’il utilise du DSC et du HBR3 avec deux prises DisplayPort, il devrait (noter le conditionnel) fonctionner sur un MacBook Pro 16 pouces ou sur un Mac pro avec une (future) Radeon Pro W5700X. Mais vu la tendance habituelle d’Apple pour brider les écrans, je ne suis pas certain. En fait, on peut même supposer que l’atypique « 6K » d’Apple a été choisi parce qu’il permet justement de connecter un écran en Thunderbolt 3 sans passer par la compression.

Mon projet de NAS rapide sous macOS (partie 4)

Par Pierre Dandumont

Depuis un moment maintenant, j’utilise un vieux Mac Pro (2006) en tant que NAS, avec une carte 10 Gb/s et plusieurs disques en RAID. j’en avais parlé , et . J’ai profité d’un peu de temps pour le mettre à jour.

A la base, je voulais juste mettre une carte Wi-Fi pour régler un petit bug. Je mets le Mac en veille et je le réveille par Bonjour Sleep Proxy, mais ça ne fonctionne que si j’utilise une des prises Ethernet de la machine. Le problème, c’est qu’au réveil la liaison s’effectue sur cette prise et pas sur la prise 10 Gb/s, même en modifiant l’ordre des interfaces correctement. J’espérais – à tort – qu’intégrer une carte Wi-Fi réglerait le problème. Mais comme j’ai dû ouvrir une bonne partie du Mac pour installer la carte, ai profité pour faire la mise à jour des CPU.

J’en avais parlé dans le premier sujet, le Mac Pro utilise des Xeon 5150 (Woodcrest) avec un TDP de 65 W et une fréquence de 2,66 GHz. En charge, ce qui reste assez rare dans mon cas, la machine consomme donc environ 200 W. Comme Gilles, j’ai décidé de réduire (un peu) la consommation, en installant des Xeon 5148. Il s’agit de deux modèles Woodcrest LV avec une fréquence un peu plus basse (2,33 GHz), le même nombre de coeurs mais (surtout) un TDP de 40 W. A l’époque, la différence venait essentiellement de la tension : 1,5 V au max sur les CPU d’origine, 1,25 V sur les autres. Bonne nouvelle, le Mac démarre avec les nouveaux CPU, et l’horloge ne bouge pas (ils ont le même TDP). Pour mon usage, le gain en consommation est intéressant (je perds un bon 40 W en charge) et la perte de performances reste assez faible. Il faut bien prendre en compte que le Mac est en veille l’énorme majorité du temps, donc consomme assez peu dans l’absolu. Le seul problème, finalement, c’est que la mise à jour a pris quand même pas mal de temps, vu qu’il faut démonter beaucoup de choses avant d’accéder aux CPU…

L’ancien CPU


2,66 GHz


Deux CPU bien propres


2,33 GHz


Mac OS X reconnaît les puces


Pas de soucis

Apple confond encore Gb et Go

Par Pierre Dandumont

Un truc qui m’énerve quand ça vient de gens (ou de sociétés) qui travaillent dans l’informatique, c’est la confusion entre Go, GB et Gb. Et même Apple, dans son OS, fait parfois l’erreur.

Pour résumer : un b (minuscule) est un bit, soit la valeur de base en informatique (1 ou 0). Un B (majuscule) est un byte, c’est-à-dire un groupement de bits. Un byte vaut généralement 8 bits (depuis un moment), même s’il existe quelques (vieilles) machines ou ce n’est pas le cas. Un octet (o) est la traduction française du byte. L’octet fait 8 bits et vaut 1 byte, parce qu’au moment de franciser le mot, les ordinateurs utilisaient tous a priori une valeur de 8 bits.

Pour résumer : 1 Go = 1 GB = 8 Gb. Je vous passe la partie sur les Gio, Gib et GiB, vous devez juste savoir que dans le système international, 1 kb (k minuscule) vaut 1 000 b (et pas 1 024). macOS (depuis Snow Leopard) compte et affiche correctement, contrairement à Windows.

Pour ajouter à la confusion, on utilise généralement le byte ou l’octet pour le stockage (donc un SSD de 512 GB ou Go par exemple) mais le bit pour mesurer les débits. Dans le cas d’un SSD, on a donc une interface à 6 Gb/s (SATA) par exemple. Même chose, je vous passe les détails sur la conversion Gb vers Go dans ce cas-là, mais dans certains cas il ne suffit pas de diviser par 8. Dans le cas du SATA, 6 Gb/s deviennent 600 Mo/s.

Apple et les valeurs

Dans le cas d’Apple, les informations système affichent assez régulièrement des valeurs fausses. Pendant longtemps, c’était le cas dans les informations sur le Thunderbolt (la norme fonctionne à 10, 20 ou 40 Gb/s, certains OS affichent 10, 20 ou 40 Go/s), et c’est toujours le cas pour Mojave dans un cas précis. Si vous allez vérifier le débit d’un périphérique USB 3.1 « Gen. 2 », macOS Mojave annonce Jusqu’à 10 Go/s et pas Jusqu’à 10 Gb/s. C’est corrigé dans macOS Catalina de ce que j’ai vu, d’ailleurs, et pour les autres valeurs de l’USB (12, 480, 5, etc.), il affiche bien des Mb et des Gb/s.

Sous Mojave : WRONG


Dans les fichiers, il y a bien l’erreur


En 2014, l’erreur existait pour le Thunderbolt

Encore un « nouveau » jeu Pippin, sur les voitures de Subaru

Par Pierre Dandumont

Depuis un moment maintenant, j’essaye de faire un « Full Set » Pippin (au moins en version japonaise). Si je trouve assez régulièrement de nouveaux titres, un problème survient : la liste augmente. Parce que de temps en temps, je trouve des images (ou des disques) absents des listes habituelles.

Vous trouverez une liste assez exhaustive des disques sur cette page, et cette autre page liste pas mal de choses qui ne sont pas sorties commercialement.

Cette fois, il s’agit d’un disque liés aux voitures de Subaru. Je n’ai pour le moment qu’une image. Il s’agit sûrement d’un disque évoqué dans cette page, qui explique sur Subaru a utilisé des Pippin dans ses concessions pour présenter les véhicules. Vu le titre, il parle évidemment de la Subaru Legacy.

Une photo du disque

Mais comme il est visiblement possible d’en trouver, ma quête du Full Set s’éloigne encore un peu plus.

Test du FireCuda Gaming Dock de Seagate : Thunderbolt 3, SSD et HDD externe

Par Pierre Dandumont

Fin 2019, Seagate a annoncé un appareil un peu particulier : le FireCuda Gaming Dock. Ce boîtier combine en effet plusieurs fonctions : il fait office de station d’accueil Thunderbolt 3 (ou USB-C), de disques dur externe (4 To) mais aussi de SSD externe (en option). Le tout avec un soupçon de gaming, avec des LED. Petit bémol, c’est assez cher : 430 € (prix public) pour une capacité de 4 To.

Le boîtier est assez gros, vu qu’il contient un disque dur, mais la connectique est assez large. En pratique, une bonne partie des composants ne tire pas parti du Thunderbolt, mais du contrôleur USB interne de la puce Intel. Le disque dur interne (un modèle 3,5 pouces) est interfacé en USB, tout comme les prises audio (un codec basique, 16 bits/48 kHz) et l’Ethernet (une puce Realtek USB, la 8153). Le HDD, a priori un modèle 7 200 tpm moderne (je ne l’ai pas ouvert, c’est un prêt), atteint ~250 Mo/s, ce qui demeure plutôt pas mal. Truc à savoir, il arrive formaté en NTFS et Seagate indique qu’il faut le reformater sur Mac. Bonne nouvelle, et c’est plutôt rare, les prises USB (type A) sont compatible 10 Gb/s. Pour ceux qui veulent brancher un écran, il dispose d’une sortie DisplayPort plein format, à la norme 1.4. Attention, c’est une norme assez théorique, qui va dépendre de votre Mac : pour travailler en DisplayPort 1.4, il faut un Mac avec un contrôleur Titan Ridge. On le retrouve dans quelques MacBook Pro de 2018 et 2019 et c’est tout. Sur les 2017 et avant, c’est uniquement du DisplayPort 1.2.

Le dock


Les prises


A l’avant

En réalité, le seul composant qui tire parti du Thunderbolt 3 demeure l’emplacement PCI-Express M.2, qui accepte les SSD à ce format. Méfiez-vous, il n’est pas hybride : il faut brancher un SSD PCI-Express (NVMe ou AHCI) mais pas un modèle M.2 SATA. L’installation est simple : la partie éclairée se détache (elle est juste aimantée) et un emplacement M.2 avec un petit dissipateur apparaît.

L’emplacement NVMe


Un SSD NVMe


Pas de soucis : le SSD peut atteindre le maximum du Thunderbolt 3

Enfin, s’il permet techniquement de charger un Mac (ou un PC portable), c’est assez léger : seulement 15 W. Vous devrez garder votre chargeur avec ce dock : ça ne suffit vraiment pas pour alimenter un MacBook Pro, et même un simple MacBook ne chargera pas s’il est allumé.

Pas de charge sur MacBook

Triple interface

Le dock utilise le contrôleur Titan Ridge, qui a l’avantage de fonctionner en USB(-C) ou en Thunderbolt, alors que les anciens contrôleurs ne géraient que le Thunderbolt. Pour être plus clair, alors qu’un dock Thunderbolt 3 de première génération ne fonctionne que sur un ordinateur avec du Thunderbolt 3, le Seagate (et ceux en Titan Ridge) fonctionnent aussi sur de l’USB.

J’ai testé le Gaming Dock sur un MacBook Pro 2017 (en Thunderbolt 3), sur un MacBook 2017 (en USB-C uniquement) et sur un MacBook Air 2012 (avec un câble USB-A). Ça fonctionne dans les trois cas, mais avec quelques différences. Forcément, la sortie vidéo ne fonctionne pas avec un câble USB-A vers USB-C. Et si vous branchez le boîtier en USB (et pas en Thunderbolt), le SSD NVMe n’apparaît pas. Il fonctionne aussi en Thunderbolt 1 ou 2 avec l’adaptateur Apple, mais avec quelques limites sur les performances et sur les normes vidéo.

Le FireCuda Gaming Dock est un bon produit, mais il a quelques défauts. Premièrement, le câble Thunderbolt 3 livré reste assez court – c’est la norme qui veut ça – et le bloc d’alimentation est assez gros. Deuxièmement, le boîtier fait du bruit : il est ventilé (et il se déclenche de temps en temps, surtout si vous mettez un objet dessus), et on entend le disque dur. Troisièmement, la capacité reste un peu limitée, 4 To en 2020, ce n’est pas extraordinaire, surtout sans possibilités de changer le disque dur. Enfin, mais je pinaille, le fait que le disque dur et l’Ethernet passent par de l’USB augmente un peu la charge du CPU : les dock avec des connexions sur des contrôleurs PCI-Express sont plus efficaces sur ce point. Enfin, là aussi je pinaille, une sortie HDMI aurait été un plus.

Le logiciel fourni


Vive les couleurs

Mais il a aussi de nombreux avantages. D’abord, il propose pas mal de prises : du DisplayPort 1.4, cinq prises USB 3.0, de l’Ethernet 1000, un port Thunderbolt 3 pour le chaînage et même deux prises audio. En plus, il ajoute le disque dur (il n’est malheureusement pas prévu de le changer), un emplacement NVMe rapide et des LED (si on aime les LED). Le surcoût par rapport à un dock Thunderbolt 3 standard est assez faible, et la compatibilité USB-C (et même USB-A) reste assez pratique.

Les petites lumières

C’est la mode, le Gaming Dock a des LED. La partie droite s’allume et – de loin – ressemble un peu à un grille-pain. Deux bonnes nouvelles : on peut éteindre les loupiotes et il existe un logiciel pour Mac. On peut définir la couleur, mais aussi ajouter des effets (pulsations, cycles, etc.). On peut éteindre les LED quand le Mac est en veille, éteindre tout court, etc. C’est un peu gadget, mais pourquoi pas (ma moitié a voulu me le voler).

Un pavé numérique qui fait office de calculatrice… en ADB

Par Pierre Dandumont

Il y a longtemps, j’avais reçu avec un Mac un pavé numérique. Et je ne l’ai remarqué quen rangeant un peu, il possède une fonction calculatrice assez intelligente.

J’ai eu un peu de mal à trouver le modèle exact, mais en cherchant avec le FCC ID (FTR9602), je suis remonté à la société à l’origine du produit, puis à une vieille page : il s’agit donc d’un Calculator Keypad KP9602 dans sa variante M9 (Macintosh), de chez Parex. Ce pavé numérique ADB propose donc une calculatrice et un câble ADB assez long, mais – malheureusement – pas de second port ADB ni de connecteur amovible. Il vise donc essentiellement les PowerBook et ne permet pas de chaîner une souris. Sur un Mac de bureau, vous ne pourrez souvent pas le brancher étant donné que les Mac n’ont qu’un seul ADB.

Le pavé

Les touches sont classiques pour un pavé numérique, avec évidemment les chiffres et les opérations, mais aussi une touche esc, un retour arrière, des flèches, une touche ⌘ accessible via une touche de fonction, etc.

La partie calculatrice affiche l’heure en mode pavé numérique

La partie calculatrice s’active avec une touche dédiée, et des touches de fonction permettent de gérer les opérations classiques, une mise en mémoire, etc. C’est un peu compliqué à cause des nombreuses indications sur les touches, mais avec un peu d’entrainement (et sûrement le manuel que je ne possède pas), ça doit être plus évident (j’espère). L’écran à cristaux liquide est lisible, et une touche send permet d’envoyer le résultat d’une opération à l’ordinateur. C’est assez intéressant pour ceux qui font beaucoup de calcul : ça évite de recopier la réponse.

La touche Send envoie la réponse dans le Mac

Dans les trucs à noter, le fait que par défaut l’écran affiche un compteur. Je suppose qu’il est possible de régler l’heure et sûrement une alarme, mais je n’ai pas trouvé comment sans le manuel. L’autre point intéressant, c’est que la calculatrice fonctionne par défaut sur des piles (4 piles boutons LR44) mais qu’elles ne sont nécessaires que pour un usage autonome. Une fois relié à un Mac, le pavé numérique peut alimenter la calculatrice avec le bus ADB. Attention, le bouton pour éteindre la calculatrice se trouve à côté des piles et il est petit.

Quatre piles dans un format un peu atypique et un interrupteur bien caché

Un prototype de lecteur CD 8 cm pour le PowerBook 5300

Par Pierre Dandumont

Il y a quelques mois, je parlais du PowerBook 5300 et du fait qu’Apple avait prévu de proposer un lecteur de CD-ROM limité aux disques de 8 cm. Et bien un lecteur de ce type est en vente sur eBay.

La vente comprend un PowerBook 5300 du commerce, mais aussi quelques accessoires plus rares. Premièrement, donc, le lecteur de CD-ROM. Il lit les disques de 8 cm et la référence est CR-371. Deuxièmement, dans un coin d’une photo, un lecteur de MO Apple. Les disques Magnéto-Optique permettent de lire et écrire comme sur une disquette, mais avec une capacité plus élevée (230 Mo à l’époque). Et troisièmement, une batterie Li-Ion de préproduction. J’avais évoqué ce point il y a longtemps : Apple avait prévu une batterie Li-Ion pour le 5300, mais la marque avait dû rappeler les quelques exemplaires vendus en 1995 à cause d’incendie. Dans la pratique, les PowerBook 5300 ont été vendus avec des batteries NiMH d’une capacité plus faible, mais sans la fonction incendie gratuit. Enfin, l’annonce propose aussi un prototype de chargeur.

Le lecteur de CD




La batterie Li-Ion


Le prototype de chargeur


Au milieu, le lecteur de MO

Le vendeur demande 1 600 $ pour l’ensemble, ce qui semble un peu beaucoup pour des prototypes d’accessoires.

Un écran cathodique monochrome sur un Mac moderne… et une réussite

Par Pierre Dandumont

J’avais parlé de mon écran monochrome (un 12 pouces de l’époque des Macintosh LC) il y a un moment, mais je n’avais pas réussi à obtenir une image depuis un Mac moderne. Assez régulièrement, je me posais la question, et j’ai tenté divers adaptateurs, avant – finalement – de comprendre le problème et de me fabriquer l’adaptateur nécessaire.

Dans mon précédent post, je pensais que l’écran nécessitait une sortie avec une synchronisation sur le vert (Sync On Green), mais c’est plus compliqué que ça. L’écran d’Apple demande une synchronisation composite. Je m’explique.

Spoil : ça marche

Pour schématiser, un écran cathodique nécessite deux signaux de synchronisation. La première valeur pour la partie verticale, la seconde pour la partie horizontale. La transmission des signaux varie en fonction des moniteurs, mais en VGA – la norme des PC, apparue en 1987 -, les signaux sont séparés. Il y a donc une broche qui transmet la synchronisation verticale, et une seconde qui transmet la synchronisation horizontale. Ensuite, sur certains écrans (notamment ceux des ordinateurs Sun ou SGI, mais aussi avec quelques ordinateurs Apple comme le Macintosh IIsi), il y a la technique Sync On Green. Dans ce cas là, les deux signaux sont combinés et transmis sur la broche du vert. Le Sync On Green pose deux soucis, en fonction de ce que vous voulez faire. Premièrement, l’ordinateur envoie un signal de ce type (SGI, Mac II, etc.), il faut un écran qui accapte ce signal. Ce n’est pas généralisé, mais même en LCD, il en existe (j’ai un Dell U2410 pour ça). Deuxièmement, l’écran n’accepte que du Sync On Green (rare). Dans ce cas là, il faut un ordinateur qui envoie le signal (encore plus rare) ou un adaptateur qui le génère. Mais je reviens à mon écran Apple : il n’utilise pas une synchronisation séparée ni une synchronisation sur le vert, mais du Composite Sync. Avec cette technique, les deux signaux sont combinés, mais sur une broche dédiée. Le problème, c’est que le VGA ne prend pas en charge cette technique.

En pratique, ça fonctionne sur les Mac équipés d’une sortie DB-15 (avant le Power Mac G3 Blanc Bleu), et pour une bonne raison : la prise propose une broche pour la synchronisation composite, et deux broches pour la synchronisation séparée. Dans la majorité des cas, le Mac génère donc le signal, et l’écran fonctionne. D’ailleurs, pour compliquer les choses, les appareils avec une sortie vidéo analogique peuvent aussi proposer deux autres possibilités : la synchronisation sur composite et la synchronisation sur luma, mais je m’égare.

Mon problème étant identifié, comment le régler ? Ce n’est pas évident. J’ai d’abord cherché un adaptateur capable de générer la synchronisation composite, mais c’est hors de prix, sans être certain que ça fonctionne. J’ai tenté des adaptateurs pour Mac qui peuvent normalement générer les différents synchronisations, mais sans succès parce qu’ils le font dans l’autre sens : ils prennent un signal DB15 (la prise Apple, qui transmet généralement une synchronisation composite) pour générer un signal VGA (HD15) avec une synchronisation séparée. Les différentes options servent donc essentiellement avec des moniteurs dotés d’une entrée VGA.

Le montage


Petit schéma basique

Finalement, j’ai trouvé une solution : un petit montage simple (un transistor à quelques centimes, deux résistances) pour combiner « manuellement » les deux signaux. En pratique, il faut donc combiner les deux signaux de synchronisation qui viennent de la sortie VGA, et relier les signaux vidéo vert ainsi que les différentes masse. Pourquoi le vert ? Parce que l’écran d’Apple reçoit son signal monochrome sur cette broche. Depuis un ordinateur moderne, il affichera donc en nuances de vert en ralité, mais ce n’est pas réellement un souci. Dans certains cas, il faudra aussi relier le signal du rouge, qui sert parfois à détecter la présence d’un moniteur (ou mettre une résistance). Sans cette petite astuce, l’ordinateur risque de ne pas détecter la présence du moniteur. J’ai donc dû récupérer un breakout VGA et un DB15 (avec un adaptateur pour inverser les broches), ainsi que des composants que j’avais dans une boîte, soit nettement moins que les plus de 200 $ demandés dans certains cas.

Un problème de fréquence

Maintenant, le second problème, parce que sinon ce serait trop simple. Bon, en réalité, je l’ai réglé avant, mais c’est plus logique de le mettre après. Les écrans modernes, quand ils ont encore du VGA, sont « Multi Sync », c’est-à-dire qu’ils peuvent fonctionner avec différentes fréquences horizontales et verticales. En clair, on peut travailler avec une définition élevée à 60 Hz, mais aussi avec une définition faible. Du temps de l’écran que j’utilise, c’était différent : il utilise des fréquences fixes et ne peut afficher qu’une seule définition (640 x 480) avec une seule fréquence de rafraichissement (66,67 Hz, la norme dans les Mac). Pour compliquer les choses, d’ailleurs, il existe des écrans avec une fréquence fixe (souvent l’horizontale) et une fréquence verticale variable, mais ce n’est pas le sujet. En pratique, les fréquences fixes et le taux de rafraichissement atypique impliquent qu’un Mac ne peut pas afficher une image par défaut, parce que macOS ne propose tout simplement pas le 66,67 Hz. La solution ? L’excellent SwitchResX de Stéphane Madrau. Il va permettre de créer les réglages nécessaires pour que l’écran accepte d’afficher une image. Je vous mets les paramètres dans la capture, ce sont les valeurs standards qui peuvent aussi servir pour capturer la sortie d’un Mac.

Les réglages des adaptateurs


Les informations dans SwitchResX


macOS ne propose pas le 66,67 Hz


Avec SwitchResX, ça passe au vide


Les infos système affichent les bonnes valeurs

Maintenant que l’écran reçoit une synchronisation et un signal, est-ce que ça fonctionne ? Oui. L’image est propre, contrastée, et bien cadrée, ce qui semble un peu étonnant vu l’âge de l’écran. Pourtant, c’est assez logique, au moins pour la géométrie : un moniteur à fréquences fixes peut être réglé en usine vu que la définition ne changera jamais. Le piqué est assez bon, et le fait qu’on soit en face d’un écran vert en réalité ne pose pas vraiment de soucis. Forcément, macOS s’affiche difficilement dans un moniteur en 640 x 480 et ce n’est évidemment pas utilisable au quotidien, mais pour regarder des films en noir & blanc (comme l’excellente édition Black & Chrome de Mad Max : Fury Road), c’est assez sympathique.

macOS Catalina


Mad Max : Fury Road

Dernier point, mes photos et mes vidéos. On voit très bien le balayage, et c’est lié essentiellement au fait que l’écran utilise une fréquence de rafraichissement atypique (66,67 Hz). C’est donc un peu compliqué de synchroniser de la vidéo ou même un appareil photo pour éviter le balayage. C’est possible, et certains appareils photo proposent même de fixer manuellement une valeur pour éviter ça, mais avec un iPhone ou un appareil photo basique, comme moi, c’est (beaucoup) moins évident. Pour vraiment terminer, je suppose qu’il doit être possible d’intégrer directement le montage dans un petit adaptateur avec des switchs, mais je n’en ai pas trouvé (même si ça existe visiblement, comme le 0248-CSA sur cette page). Si quelqu’un doué en électronique se décide à en fabriquer un, je suis client…

Mac ou Pippin ? Victorian Park

Par Pierre Dandumont

Cette semaine, je (re)teste un jeu Pippin… mais sur Mac. Une partie des titres de la console d’Apple et Bandai fonctionne en effet sur les deux plateformes. Il s’agit ici de Victorian Park.

Pour commencer, ce jeu affiche un message d’erreur au démarrage, et c’est le premier titre hybride qui me fait cette blague : il demande de désactiver la mémoire virtuelle. Ceci dit, il a au moins la bonne idée de fonctionner avec un Mac OS en anglais, ce qui n’est pas systématique. Pour le reste, c’est comme d’habitude (et ça peut lasser) : le jeu est en japonais pour les dialogues (l’interface est en anglais) et l’affichage reste en 640 x 480, la définition de la Pippin (et avec l’overscan). C’est donc très petit si vous tentez sur un moniteur LCD, vu que Mac OS 9 ne propose généralement pas de mise à l’échelle. Mais le constat que j’avais fait lors du test en vidéo sur la Pippin reste le même : le jeu semble sympathique, complet et bien pensé. A noter que c’est un des rares titres sur deux disques de la console.

L’erreur


La correction


Texte en anglais, mais voix en japonais



On voit bien l’overscan : l’image ne prend pas toute la surface



Avec un grand écran, c’est petit

Apple Vs. RED: Was the REDCODE RAW Patentable or Unpatentable?

Par Caleb Stephens

Let's take a close look at Apple's challenge to RED, the dispute, the decision, and what it means for the future of both companies.

IKEA, INNR, OSRAM : compatible Hue mais pas HomeKit

Par Pierre Dandumont

Dans les monde des ampoules connectées, il y a celles qui utilisent le Wi-Fi, celles qui passent en Bluetooth et celles qui utilisent le ZigBee. Et avec cette norme, il y a une compatibilité basique entre les marques : vous pouvez en théorie relier des ampoules d’une marque à un pont d’une autre marque.

Dans le cas de cet article, je vais parler d’un cas précis : un pont Hue et des ampoules d’une autre marque. La première raison, c’est que l’écosystème de Philips est largement le plus complet, avec un énorme choix d’ampoules et d’accessoires, et un support assez large. Philips propose une API, la marque existe depuis 2012, les applications sont complètes, etc. La seconde, c’est que pas mal de marques mettent en avant la compatibilité Hue : OSRAM ou INNR, par exemple, indiquent bien que ça fonctionne sur du Hue, même si les deux sociétés proposent des ponts. Du reste, le pont Hue n’est pas le plus cher et se trouve facilement à bas prix, que ce soit dans des kits (il y en a régulièrement en promotion) ou d’occasion. Beaucoup de gens achètent des kits complets en promotion pour les ampoules et revendent le pont. En pratique, les écosystèmes Aqara ou IKEA peuvent éventuellement faire l’affaire, mais le pont Hue reste la référence. Enfin, la raison principale, les ampoules OSRAM, INNR ou IKEA (ou d’autres) sont moins onéreuses que les Hue. Parfois à raison (les IKEA couleur sont moins bonnes que les Hue), mais pas nécessairement.

Pour toutes ces raisons, donc, je m’intéresse essentiellement à la connexion d’ampoules tierces à un pont Hue, même si en pratique ça doit fonctionner avec d’autres ponts. Au passage, il n’y a pas nécessairement d’un pont dédié : certains produits connectés comme l’Echo Plus d’Amazon (une enceinte Alexa) disposent d’un hub ZigBee intégré.

ZigQuoi ?

Le ZigBee (IEEE 802.15.4) est une norme de communication sans fil, similaire au Bluetooth ou au Wi-Fi. Elle vise essentiellement les objets connectés et utilise la même bande de fréquence que le Wi-Fi et le Bluetooth en Europe, celle des 2,4 GHz. Il existe une variante spécifique pour les ampoules, et c’est cette norme que pas mal de marques utilisent. Le ZigBee est lent, mais la portée est bonne, essentiellement grâce au maillage. En simplifiant, le ZigBee est un réseau et chaque appareil peut servir à transmettre les messages. Si une ampoule est trop loin du point d’accès, elle peut passer par les autres ampoules (ou accessoires) pour relayer le signal. Si vous avez une grande surface à couvrir, les messages passent donc d’appareils en appareils, en supposant qu’ils soient actifs.

En théorie, il est possible d’ajouter une ampoule ZigBee à un hub ZigBee (le pont Hue). En pratique… ça dépend. La norme utilisée n’est pas nécessairement la même, les accessoires peuvent passer par des commandes propriétaires, le firmware peut poser des soucis (je vais y revenir), etc. Disons que le principal problème va être de mettre l’ampoule dans un mode appairage, pour la connexion. Sur certaines, c’est impossible (les anciennes Living White de Philips, j’en parlerais dans un futur post), pour d’autres, ça nécessite du matériel précis. Chez IKEA, par exemple, il faut un firmware précis pour connecter les ampoules sur un pont Hue et la mise à jour ne peut s’effectuer qu’avec un pont IKEA. Disons que pour faire simple, vous devriez pouvoir connecter des ampoules, mais pas des accessoires. Si vous avez besoin d’infos sur la compatibilité au sens large, la page d’aide de iConnectHue est très complète.

Le gros point à savoir si vous aimez les produits Apple : ça ne fonctionne pas avec HomeKit. Le pont Hue n’expose pas les ampoules d’autres marques à HomeKit, je suppose pour des raisons de certifications. Donc les ampoules OSRAM, IKEA et les autres, ainsi que les prises connectées resteront uniquement dans l’application Hue.

OSRAM

On commence par OSRAM. La marque vend des ampoules ZigBee en mettant en avant la compatibilité Hue, et même s’il existe un pont de la marque, il est difficile à trouver et moins complet que le Hue. OSRAM a aussi pas mal d’accessoires (dont des télécommandes) mais ils ne fonctionnent pas sur du Hue, sauf les prises connectées. Il existe des ampoules couleurs, blanches, des filaments, etc. Attention, il existe des ampoules ZigBee (compatibles Hue) mais aussi des Bluetooth.

Avant la détection de l’ampoule, j’ai dû la remettre à zéro. C’est un peu tordu : il faut allumer cinq fois l’ampoule avec 5 secondes entre chaque cycle. Ensuite attendre qu’elle clignote. Et je vous jure que j’ai dû passer par un chronomètre pour le bon timing. Une fois que c’est fait, elle a été détectée par l’application Philips. Les contrôles sont les mêmes que les ampoules Philips, mais comme prévu, pas de compatibilité HomeKit à l’horizon. Les ampoules Smart+ sont correctes, mais le rouge dérive un peu et quand elles s’éteignent, elles ont effet de fondu un peu désagréable.

Une ampoule OSRAM

INNR

INNR est dans le même cas qu’OSRAM : il existe un pont de la marque, mais c’est surtout la compatibilité Hue qui est mise en avant. La gamme est large, avec des bandeaux, des ampoules couleurs, des filaments, des spots en GU10, etc. Comme pour les OSRAM, il vaut mieux faire un reset avant la connexion. Première étape, allumer la lampe au moins 5 secondes. Ensuite, il faut éteindre et allumer six fois, avec un intervalle de 0,5 seconde. Elle clignotera deux fois, et c’est bon. Une fois que c’est fait, le pont Hue devrait détecter l’ampoule.


Elle est reconnue


Mais pas de réglage sur le comportement à l’allumage

Une fois connectée, elle fonctionne comme une Hue couleur dans le cas de l’ampoule testée, mais pour la moitié du prix. Par contre, on perd HomeKit et la gestion de la configuration à l’allumage.

IKEA

J’ai déjà parlé de la gamme Trådfri, mais en gros la solution d’IKEA est compatible Hue… dans certaines conditions. Il faut que les ampoules soient en firmware 1.2.217 au minimum, ce qui peut être vérifié avec le pont Trådfri (oui, ce n’est pas très pratique) ou sur la boîte. A priori le numéro à côté du code barre doit être supérieur à 1721. C’est normalement le cas en 2020, sauf si voius avez trouvé une (très) vieille boîte. Dans le cas contraire, pour mettre à jour l’ampoule, il faut le pont Trådfri et un accessoire.

Pour l’installation sur un pont Hue, première chose, commencez par faire un reset de l’ampoule. La méthode est encore une fois spécifique : il faut faire six cycles rapides (éteindre/allumer) et laisser allumer ensuite. La lampe clignote et c’est bon. Ensuiten une recherche dans l’application Hue devrait suffire. J’ai utilisé cette méthode avec une ampoule blanche réglable et ça a fonctionné. Avec une seconde ampoule (couleur), impossible. Je suis donc passé par la seconde méthode : TouchLink. Avec une application tierce (iConnectHue, etc.), il faut lancer une détection TouchLink en plaçant l’ampoule à moins de 30 cm du pont. Oui, ce n’est pas nécessairement pratique. Avec cette méthode, elle a été détectée et fonctionne dans l’application Hue. Attention, la lampe couleur a une luminosité plus faible que les Hue, et le vert est un peu bizarre. Mais comme elle vaut le tiers du prix d’une Hue, on peut pardonner.




La blanche réglable


La couleur


Elle se règle sans soucis

Chez IKEA, c’est donc mitigé. La détection est aléatoire, et si vous n’avez pas de chance, vous aurez besoin du pont pour faire une mise à jour. Mais si vous avez le pont, il faut être honnête : ça n’a pas réellement d’intérêt d’ajouter les ampoules sur celui de Philips. Surtout que le pont IKEA est HomeKit, alors que les ampoules IKEA sur un pont Hue ne fonctionnent pas avec HomeKit.

Le cas Aqara

Avec les ampoules Aqara (Xiaomi), c’est un peu différent. En théorie, elles sont ZigBee et fonctionnent avec un pont Hue. En pratique, je n’ai pas réussi. Le reset fonctionne en effectuant trois cycles d’allumage (donc on éteint, puis on rallume). Oui, une quatrième marque d’ampoules, une quatrième technique. Et même comme ça, le pont Hue ne détecte pas l’ampoule. La solution ? Selon quelques posts, le TouchLink fonctionne, mais chez moi… impossible. J’ai testé avec deux ZNLDP12LM sans succès, alors qu’elles fonctionnent avec le pont Aqara. Pour rappel, le TouchLink nécessite de rapprocher l’ampoule du pont, et de lancer une recherche spécifique, avec une application comme Hue Lights ou iConnectHue.

Pour terminer, ça doit marcher avec d’autres marques d’ampoules, comme les Sengled en ZigBee (attention, certaines sont Wi-Fi uniquement). Mais dans tous les cas, il faut trouver la méthode de reset ou passer en TouchLink, et vous perdrez la compatibilité HomeKit ainsi que la possibilité de régler le comportement à l’allumage.

Le cas de la mémoire cache des Mac Pro : Apple n’utilise pas des CPU custom

Par Pierre Dandumont

Vu que j’ai eu la discussion avec quelques personnes qui pensaient, en ayant vu cette page chez Apple, que le Mac Pro possédait des processeurs un peu particuliers avec plus de mémoire cache. Ce n’est pas le cas, Apple a juste une façon particulière (et pas nécessairement fausse) de compter la mémoire en question.

Un peu d’explications, je vais essayer d’être clair. Dans un processeur, vous avez différents niveaux de mémoire cache, le niveau 1 (L1), le niveau 2 (L2) et le niveau 3 (L3). Ces trois mémoires se placent entre le processeur et la mémoire vive, pour accélérer les transferts. Si on peut considérer la mémoire vive (RAM) comme rapide face à un disque dur ou un SSD, elle est lente par rapport au processeur. La mémoire cache est rapide, mais sa capacité assez limitée. J’omets volontairement ici le cache µOP (une sorte de L0) et la mémoire eDRAM de certaines puces qui fait office de cache L4.

Dans les architectures Intel classiques (on va prendre comme exemple un Core Skylake comme celui d’un MacBook Pro), l’architecture est la suivante. D’abord, deux L1 de 32 ko (un pour les données, un pour les instructions) par coeur. Ensuite, 256 ko de L2 par coeur. Enfin, jusqu’à 2 Mo de L3 par coeur. La gestion des niveau 2 et 3 est inclusive : le contenu du L2 est automatiquement présent dans le L3. De plus, le cache de niveau 3 est partagé entre les différents coeurs, donc sa capacité totale varie en fonction des puces. La valeur de 2 Mo par coeur est un maximum : Intel réduit parfois ce nombre pour segmenter sa gamme. Par exemple mon MacBook Pro 2017 dispose d’un processeur avec 4 coeur, mais seulement 6 Mo de cache, il faut passer sur un modèle plus rapide (et plus cher) pour disposer de 8 Mo.

N3 partagé

On résume : 2×32 ko par coeur, 256 ko par coeur, un L3 partagé qui contient automatiquement le L2 de chaque coeur. La valeur pratique, celle qu’Apple indique dans la page des MacBook Pro, va être celle du cache de niveau 3.

Le cas Mac Pro

Le Mac Pro 2019 utilise des puces Cascade Lake, avec des Xeon W. Techniquement, ce sont des Skylake “X” avec quelques corrections de bugs et quelques lignes PCI-Express de plus. Le point intéressant, qui a fait douter pas mal de gens, c’est qu’Apple indique une grosse quantité de mémoire cache sur la page du Mac Pro. Jusqu’à 66,5 Mo de mémoire cache sur le modèle 28 coeurs, alors qu’Intel annonce seulement 38,5 Mo de cache de niveau 3. Une erreur ? Un processeur avec plus de mémoire cache pour Apple ? Non. Une autre façon de compter. Par ailleurs, Apple indique bien « Mémoire cache » et pas « Mémoire cache de niveau 3 ».

Les valeurs Apple

L’architecture expliquée juste avant n’est pas la seule possible. AMD utilise une autre façon de faire, et Intel – avec les Skylake X – utilise la même. Dans un Xeon W de Mac Pro, donc, on retrouve deux caches de niveau 1 de 32 ko (données et instructions) et 1 Mo de cache de niveau 2 par coeur (une valeur nettement plus élevée qu’auparavant). Les deux premiers niveaux sont inclusifs (le contenu du L1 est dans le L2). Ensuite, et contrairement aux autres puces Intel, le cache de niveau 3 est exclusif. Sa capacité est de 1,375 Mo par coeur. Vu la taille du L2, c’est assez logique, d’ailleurs. En clair, le contenu du L2 et du L3 n’est pas le même. Sur une puce avec 28 coeurs, on a donc 38,5 Mo de L3 (28*1,375) et 28 Mo de L2 (28*1)… soit les 66,5 Mo d’Apple. Ce n’est pas très orthodoxe comme façon de compter, mais c’est techniquement valable : il y a 66,5 Mo de cache accessibles.

Pourquoi 24,5 ?

Maintenant, vous allez peut-être demander pourquoi le processeur avec 8 coeurs dispose de 24,5 Mo de cache, ce qui ne colle pas avec le calcul (8*1 + 8*1,375, ça fait 19 Mo). En fait, Intel intègre bien 1,375 Mo par coeur, mais les processeurs n’ont pas nécessairement tous les coeurs actifs. Je ne connais pas la raison exacte, mais Intel utilise des CPU avec une partie des coeurs désactivés, en fonction des références. Les versions 4 et 6 coeurs (qu’Apple n’utilise pas) ont 8,25 Mo de L3 (la valeur des 6 coeurs). Les 8 coeurs ont 16,5 Mo de L3 (la valeur de 12 coeurs). Les 10, 12 et 14 coeurs ont 19,25 Mo (la valeur des 14 coeurs). Les 16, 18, 24 et 28 coeurs ont la valeur attendue. A priori ça vient du type de die utilisé, en fonction des contrôleurs mémoire, de la gestion de la liaison entre les coeurs, etc. En clair, la valeur théorique est 1,375 Mo par coeur, mais ça peut varier selon l’architecture interne.

On résume : 2×32 ko par coeur, 1024 ko par coeur, un L3 partagé (1,375 Mo par coeur) qui ne contient pas le L2. La valeur pratique, celle qu’Apple indique dans la page du Mac Pro, va donc être l’addition du L3 et des différents L2.

Mais donc Apple ne ment pas. Apple compte d’une façon avantageuse pour sa communication, mais avec une base technique valable, qui a l’avantage (pour eux) d’empêcher la comparaison directe et peut induire en erreur.

Les vrais CPU custom

Au passage, pour revenir à cette légende : Intel propose rarement des CPU custom, même pour un gros client comme Apple (qui ne l’est pas tant que ça, d’ailleurs). On peut considérer les modèles avec un gros IGP (et de la mémoire eDRAM) comme des commandes pour Apple, et la marque à la  a parfois reçu des modèles avec des fréquences spécifiques, mais les vrais custom restent assez rares. Un des premiers exemples reste le Core 2 Duo des MacBook Air (2008), qui utilisait un package plus compact, et les CPU des Mac Pro 2009 (4,1) qui n’avaient pas d’IHS. Enfin, des rumeurs indiquent que le CPU Kaby Lake G (une puce Intel qui intègre un GPU AMD) a été pensée pour Apple… mais Apple ne l’a jamais intégré. Reste que dans l’absolu, c’est donc plutôt rare qu’Intel propose des puces spécifiquement pour Apple, et il s’agit généralement d’arrangements physiques plus que des changements profonds.

Bienvenue en 1920 : le bug de l’an 2020 de Mac OS

Par Pierre Dandumont

Aujourd’hui, je vous souhaite une bonne et heureuse année, mais je dois aussi vous parler du bug de l’an 2020. Car il existe. Si vous avez un vieux Mac.

Ce bug ne touche que les Mac sous Mac OS 8 (8.6 et avant) et empêche de fixer une date en 2020 avec le tableau de bord. Pour le Mac, après 2019… il y a 1920. C’est expliqué sur cette vieille page, qui montre que le tableau de bord (et les logiciels qui utilisent la même fonction) ne peut pas gérer les dates au-delà de 2019.

La conséquence est assez évidente : si jamais votre Mac a perdu la date, il est impossible de la fixer facilement en 2020. Le tableau de bord passe en 1920, comme le montrent les captures et la vidéo.

2019…


…1920

Par contre, truc amusant, le Mac lui-même passe parfaitement en 2020. Si vous avez une pile en état dans le Mac (ou une batterie dans certains portables), il va passer en 2020. Le bug ne touche que le tableau de bord de réglage.

Les lecteurs de disquettes USB et les Mac

Par Pierre Dandumont

Depuis quelques années – depuis la sortie d’El Capitan -, un truc revient souvent : Apple aurait supprimé le support des lecteurs de disquettes USB de macOS. Sauf que… ça marche chez moi.

Un lien vers cet article revient souvent, et j’en avais parlé à l’époque. Mais les témoignages sont nombreux, que ce soit ici dans les commentaires, sur des forums, etc. En réalité, c’est même indiqué dans les descriptions de certains lecteurs chez Amazon : « Peut ne pas fonctionner avec 2015 MacBook Pro avec OS X 10 (El Capitan ) ou iMac exécutant Yosemite (10.10.5) ».

Chez moi, j’ai testé sur un MacBook Pro 2017 (en USB-C) et un MacBook Air 2012, et dans les deux cas, mes lecteurs fonctionnent. macOS Catalina pose des soucis avec les disquettes formatées pour de vieux Mac (l’OS ne supporte plus le HFS) mais ça fonctionne tout de même. Mon premier lecteur est un Freecom sur une base Mitsumi (0x03ee/0x6901), le second un modèle Dell en mécanique Sony (0x054c/0x002c). Je ne sais pas si le type de Mac a de l’importance ou si c’est le modèle du lecteur de disquettes qui importe, mais en tout cas ça m’intéresse de découvrir la raison de cette incompatibilité.

De ce que j’ai vu, quand ça arrive, le lecteur n’est pas reconnu et ne s’active pas du tout, alors que dans mon cas, le simple fait de mettre une disquette lance le moteur. Si jamais vous avez le souci, ça m’intéresse donc de connaître le type de Mac, le modèle du lecteur et l’OS.

EyeTV 4 : une version finale qui ressemble à une bêta

Par Pierre Dandumont

Bon, EyeTV 4 (64 bits) est finalement sorti. Cette version est payante (même pour ceux qui avaient une licence EyeTV 3) mais le prix est plus doux qu’avant : ~30 €. Avant de commencer, il faut le dire : c’est instable, incomplet et ça ressemble à une bêta.

Je ne m’attendais pas vraiment à ce que cette version sorte, mais elle est finalement là. Elle n’est pas sans failles (loin de là), mais elle fonctionne pour regarder la TV, c’est déjà ça. Depuis les premières bêta, il y a quelques corrections, mais ce n’est pas encore parfait. Il reste encore pas mal de bugs, notamment.

Dans les trucs qui ne changent pas depuis la bêta, il y a le fait qu’EyeTV 4 est peut-être 64 bits, mais il n’utilise pas le GPU ou l’accélération vidéo. En clair, le décodage se fait sur le CPU. Ce n’est pas un énorme problème sur un Mac moderne, mais ça peut réduire l’autonomie. Et les options d’exportations sont ridicules, avec par exemple de l’AVI pour les contenus H.264 et l’utilisation d’un seul coeur (en réalité, il ne transcode pas). En 2020, c’est un peu du foutage de gueule. De même, un “bug” traîne : quand on dispose de plusieurs tuners, il va essayer d’utiliser le premier détecté. Dans mon cas, j’utilise assez souvent un tuner USB pour la capture analogique et un tuner réseau pour la télévision. Et bien ça pose deux soucis : si je branche le tuner USB après le lancement d’EyeTV, il est inutilisable. Si je le branche avant, EyeTV va essayer de l’utiliser pour la télévision. Autre petit souci, si vous zappez sur une chaîne payante, l’écran devient transparent, sans boutons. Et donc c’est un peu compliqué d’en sortir. Et je ne vous parle même pas du menu de debug dans la version finale.

Au moment de la configuration


Pas de fonctions d’export en dehors de l’AVI

je vous conseille de bien désinstaller EyeTV 3 avant de l’installer, d’ailleurs. La marque propose un outil pour ça.

Quelques appareils en test

J’ai pas mal d’appareils Elgato (et Geniatech), donc j’ai fait quelques essais. Premier truc à savoir, la liste des appareils compatibles doit être vue comme une liste d’appareils supportés. En réalité, EyeTV 4 prend pas mal de choses en compte, dont les HD HomeRun (mais pas les Freebox). Les deux images qui suivent montrent les appareils supportés au lancement.

Réseau (pas de Freebox)


USB

Pour commencer, un EyeTV Netstream (version DVB-T). Pas de soucis, même s’il n’est pas dans la liste des produits compatibles, ça fonctionne. J’ai accès à la télévision, aux informations du tuner, etc. Le logiciel indique qu’il est DVB-T2 (ce qui n’est pas le cas), mais comme je ne reçois rien en DVB-T2, ça n’a pas d’importance. Bonne nouvelle, les deux tuners fonctionnent, on peut donc recevoir deux chaînes (et donc enregistrer et regarder deux choses différentes).

Le Netstream TNT

Ensuite, un EyeTV Hybrid (version EU 2008). C’est assez simple : ça plante lors de la capture analogique. Il est bien reconnu, mais si j’essaye d’accéder à l’entrée composite ou à l’entrée analogique… ça plante. Par contre, relié à une antenne, pas de soucis : la TV fonctionne. Cette version dispose aussi d’un tuner analogique (que je n’ai pas testé pour des raisons évidentes) et un tuner FM. Je n’ai pas d’antenne (ni de radio) mais une recherche basique ne m’a trouvé que quelques canaux, et c’est tout. Impossible de les trouver dans l’interface. Je n’ai pas essayé le RDS.

Hybrid, T2 et Hybrid

Avec un second Hybrid (version US), même chose. Impossible de capturer de la vidéo analogique.

L’EyeTV T2 Lite fonctionne et comme avec EyeTV 3, on récupère la compatibilité DVB-C.

Le T2 Lite, compatible DVB-C

L’EyeTV 250 Plus, dans sa version US, fonctionne, que ce soit l’entrée S-Video ou l’entrée analogique. L’option pour activer l’encodeur MPEG2 existe. Je n’ai de façon évidente pas pu tester le tuner analogique, et le numérique est une version US (ATSC).

Le 250 Plus

Question satellite, je ne peux plus tester, mais l’EyeTV Sat Free est reconnu en direct (en USB) ou connecté sur un EyeTV Netstream Sat, lui aussi reconnu.

Le Sat Free


Le Netstream Sat


Un Netstream

Enfin, ça va faire plaisir à certains, les HD HomeRun fonctionnent (en tout cas mon modèle avec deux tuners). Il faut relancer l’assistant d’installation pour l’activer, mais il est ensuite reconnu et utilisable.

HD HomeRun


Le HD HomeRun marche


Quatre chaînes (ou presque, merci le bug) en même temps


Un HD HomeRun

Les télécommandes, celles fournies avec certains tuners, fonctionnent en partie. Le mute marche, le plein écran aussi (select) mais impossible d’en sortir, le bouton Play, l’enregistrement et les boutons du bas de la télécommande fonctionnent. Mais pas le pavé de commande ou le pavé numérique pour changer de chaîne.

Une vieille télécommande EyeTV

Les cartes Turbo.264 et Turbo.264 HD, qui permettaient d’accélérer l’encodage, ne fonctionnent plus avec EyeTV 4. En réalité, elles ne fonctionnent plus avec Catalina, car toute la partie logicielle dépend de QuickTime 7 et donc du 32 bits.

Mon WinTV-CI fonctionne… peut-être. En fait, je n’ai plus de parabole, donc je ne peux pas tester le satellite. Mais il plante bien EyeTV avec ma carte qui transcode, donc je suppose que d’une façon ou d’une autre il est pris en compte.

Un lecteur de carte CI en USB

Pour terminer, donc, ne dépensez pas 30 €. C’est vraiment une bêta publique.

Mac ou Pippin ? Music Island 4 (Le carnaval des animaux)

Par Pierre Dandumont

Cette semaine, je (re)teste un jeu Pippin… mais sur Mac. Une partie des titres de la console d’Apple et Bandai fonctionne en effet sur les deux plateformes. Il s’agit ici de Music Island 4 (Le carnaval des animaux).

Music Island 4 a un avantage sur pas mal de titres : il permet de choisir la langue. Si les noms des fichiers sur le CD semblent bizarres à cause de l’encodage spécifique, le jeu propose de passer facilement à l’anglais dans l’interface. Comme souvent avec les jeux hybrides, il reste en 640 x 480 sur Mac (un peu moins en réalité, à cause de l’overscan), donc on peut se retrouver avec une image assez petite quand on utilise un écran haute définition. Dans les trucs intéressants, il y a le MIDI. Il fonctionne bien en MIDI vers mon Mac moderne (astuce : SimpleSynth peut être compilé en 64 bits) et – petite surprise – un menu supplémentaire apparaît sur le Mac. Quand le titre détecte un Mac, il affiche un bouton setup avec quelques informations sur le meilleur moyen de brancher un synthétiseur MIDI. Ce bouton n’apparaissait pas sur Pippin. Pour le reste, c’est un titre musical bien fait, assez efficace et qui devrait être apprécié par les enfants ou les adeptes du compositeur français.

Sur un Mac en anglais


Sur un Mac en japonais


Une petite image



En anglais



Le MIDI, avec le bouton setup en bas à droite


L’aide


L’aide en japonais


Test d’un système Trådfri HomeKit

Par Pierre Dandumont

Si vous voulez un écosystème HomeKit pour l’éclairage, il y a Hue, mais il y a aussi Trådfri, la solution d’IKEA. Elle a quelques limites, mais c’est assez intéressant. Comme d’habitude, vous trouverez plus de détails dans Canard PC Hardware.

Chez IKEA, c’est un peu compliqué. Il faut en effet un pont (la passerelle) vendu 33 €, mais aussi un accessoire, par exemple une télécommande vendu 13 €. Sans cet accessoire, vous ne pourrez pas configurer une ampoule. Ça ressemble à une mauvaise méthode pour pousser à l’achat des accessoires, mais c’est aussi en partie lié à la manière de fonctionner du standard ZigBee. Dans le cas d’IKEA, comme avec les vieux systèmes Living White, la télécommande sert de point central au réseau.

Le gros pont


Plein de vide


Le chargeur cheap


La télécommande


Deux ampoules

Honnêtement, la configuration est tordue. Il faut d’abord remettre la télécommande à zéro avec des manipulation louches, puis la connecter au pont avec d’autres manipulations. Enfin, il faut connecter chaque lampe à la télécommande. Une fois les ampoules connectées, vous pouvez parfaitement abandonner la télécommande, elle sert essentiellement à gérer le réseau au départ (et à ajouter d’autres ampoules). La configuration HomeKit est native, donc il suffit de scanner le code et c’est fini.

Une fois dans HomeKit, rien à dire. Ca fonctionne bien, on a les options classiques. J’ai testé une ampoule 1 000 lumen, plutôt très lumineuse, et une RGB. Elle est un peu moins lumineuse que la moyenne et donne un vert un peu bizarre, mais pour le prix (20 €), c’est tout à fait correct. Attention, la télécommande est totalement invisible dans HomeKit et ne peut pas être programmée.

Une bonne intégration


L’app’ IKEA


Dans HomeKit

En fait, le kit IKEA a vraiment deux défauts. Premièrement, l’obligation de passer par des accessoires pour le jumelage, ce qui ressemble à une façon détournée de forcer à acheter des accessoires. Deuxièmement, le pont est assez gros et son alimentation USB franchement cheap d’aspect. Et même si vous comptez connecter les ampoules IKEA à un pont Hue (j’en reparlerais), vous risquez d’avoir besoin des accessoires : si elles sont vieilles, le firmware compatible Hue n’est pas en place et il faut le pont (et un accessoire) pour mettre à jour la partie logicielle.

Une ROM maison avec le ROM-inator II

Par Pierre Dandumont

Il y a longtemps, j’avais testé le ROM-inator II, dans sa version Mega (8 Mo). Et un post traînait dans l’interface : celui qui explique comment modifier manuellement la ROM.

Premier truc à savoir, il existe plusieurs cartes, mais l’actuelle a une capacité assez faible (2 Mo). J’avais expliqué pourquoi, mais en gros le créateur ne trouve tout simplement plus de puces. Pour programmer la ROM, il faut évidemment une ROM programmable mais aussi un appareil pour la programmer. Il n’est malheureusement plus en vente mais vous pouvez en fabriquer un, les plans sont open source.

La ROM dans son programmeur

Je ne vais pas vous expliquer comment hacker totalement la ROM. je ne connais pas l’ASM 68000 et j’ai déjà joué (il y a longtemps) avec le bruit de démarrage des Mac.

Une ROM maison

Ce que je vais faire ici, c’est simplement intégrer un système directement en ROM. Je l’avais expliqué dans la première partie : la ROM permet de démarrer directement en ROM (ou en RAM) sur un système interne. C’est dérivé de la fonction intégrée dans la ROM du Macintosh Classic, mais avec plus d’espace. Une ROM de Macintosh IIsi (qui marche sur plusieurs types de Mac) nécessite 512 ko, il reste donc 1,5 Mo, 3,5 Mo ou 7,5 Mo (selon le type de ROM programmable) pour les données. Et avec la compression développée par l’auteur (fc8, les outils sont là) il est possible d’intégrer une image disque de 2,2 Mo, 5,5 Mo ou 12 Mo dans la ROM.

Premièrement, l’image disque. Elle doit avoir une taille maximale qui dépend de votre barrette SIMM, et avoir une capacité multiple de 64 ko. Le plus simple est d’utiliser une image disque vide, disponible sur cette page. Maintenant, il faut la remplir. Il existe différentes solutions, de Mini vMac à Basilisk en passant par l’installation d’un système basique sur un Mac directement. J’ai tenté avec un Mac, j’ai dû modifier les ressources de l’image disque pour la monter, et ensuite j’ai copié un système basique (System 7.1, un jeu) à l’intérieur.

La création de l’image

Une fois l’image disque prête, il faut la compresser avec l’outil dédié (fc8). La commande est basique, et la seule chose à vérifier c’est que le fichier compressé ne dépasse pas la taille de la ROM physique (donc 1,5, 3,5 ou 7,5 Mo en gros). Dans mon cas, pas de soucis : mon image fait ~5 Mo.

./fc8 -b:65536 mondisque.dsk mondisque.fc8

L’étape suivante consiste à concaténer la ROM elle-même et l’image disque. On peut charger la ROM sur le site de l’auteur. Même chose, le total ne doit pas dépasser la capacité de la barrette (2, 4 ou 8 Mo).

cat iisi+romdrv1.2.rom mondisque.fc8 > marom.rom

Maintenant, le flash. Il faut le programmeur, le logiciel et une barrette. On choisit la bonne capacité en haut, une vérification et quelques réglages basiques (beaucoup d’options ne servent que pour des cas précis) et on attend. Le programme est un peu instable : j’ai dû redémarrer entre différents essais, mais ça fonctionne tout de même.

Le logiciel



Maintenant, il faut tester. J’ai placé la ROM dans un Macintosh IIsi avant de démarrer en pressant Q (A pour les gens avec un clavier QWERTY). Dans ce mode, un RAMdisk sauve les modifications sur le système de fichiers. C’est un peu lent, mais l’OS démarre sans soucis. En pressant R (démarrage en ROM uniquement), ça ne fonctionne pas, mais ça doit venir de mon image disque : il y a visiblement des fichiers que l’OS essaye de modifier au démarrage. Ca doit se régler, mais je n’ai pas essayé. En mode RAMdisk, Prince of Persia démarre, et ça c’est cool. Le motif sur les captures vient de la carte de capture et des modes vidéo un peu bizarres du Macintosh IIsi.

Ca démarre



Prince of Persia… en ROM


Quand on démarre en mode ROM, ça ne marche pas avec mon image

Je vous mets deux vidéos pour montrer ce que ça donne.

Mac ou Pippin ? Music Island 1 (Pierre et le loup)

Par Pierre Dandumont

Cette semaine, je (re)teste un jeu Pippin… mais sur Mac. Une partie des titres de la console d’Apple et Bandai fonctionne en effet sur les deux plateformes. Il s’agit ici de Music Island 1 (Pierre et le loup).

Alors, comme d’habitude, les défauts des titres hybrides reviennent : le jeu reste en japonais, en 640 x 480 et ne s’utilise qu’à la souris. C’est très commun dans le cas des titres hybrides : la partie Mac est franchement légère parce qu’elle s’adapte à la configuration de la Pippin. Et la Pippin est un mauvais Mac, avec 5 Mo de RAM, pas de disque dur et un processeur PowerPC 603 à 66 MHz. En fait, Music Island 1 est même plus petit que du 640 x 480 : il prend en compte l’overscan (le fait que les téléviseurs coupent une partie de l’image) et donc l’image utile est plus petite.

C’est… petit


L’orchestre



L’histoire est en anglais

Ce qui est évidemment intéressant, c’est de tester le MIDI. J’ai branché un Mini MacMan sur le Power Mac G3, installé le vieux MIDI Manager d’Apple et relié le Power Mac à une carte MIDI USB (ouf). Avec SimpleSynth, je récupère ensuite le flux MIDI qui sort du jeu. Lu comme ça, ça semble compliqué, mais en pratique c’est assez efficace.

L’orchestre joue bien du MIDI


MIDI Monitor reçoit le code

Sinon, le jeu en version Mac est identique au jeu en version Pippin, avec les mêmes fonctions. A noter qu’il existe une version uniquement Mac du même titre, et je ne sais pas si cette variante est différente dans son interface.

Test d’un système Aqara HomeKit

Par Pierre Dandumont

Encore un système HomeKit pour l’écalirage ? Oui, je profite de ce blog pour détailler un peu la partie Apple sur ce que contient le dernier Canard PC Hardware (en kiosque). Et j’ai testé Aqara.

Le cas Aqara (une marque de Xiaomi) est un peu particulier. Les produits ne sont pas commercialisés en France directement. On peut en trouver facilement, mais vous n’éviterez pas le packaging en chinois et l’adaptateur pour le pont. Pour tester, j’ai un pont et une lampe, acheté tous les deux à un vendeur tiers sur Amazon. Le tout avec des boîtes avec du texte en chinois et un adaptateur pour les prises françaises que j’ai jeté immédiatement tant la « qualité » était faible.

Le pont


Adaptateur obligatoire


Une ampoule (bon, c’est une ampoule, quoi)

Pour l’installation, j’ai installé Mi Home, je me suis rendu compte que j’avais un compte (Yeelight est aussi une marque de Xiaomi…), j’ai ensuite installé le pont en HomeKit, avant de me rendre compte que je devais installer Aqara Home pour bien gérer le tout. Oui, j’ai trois applications Xiaomi pour la même chose. L’installation du pont est assez peu ergonomique, le QR code HomeKit se trouve sous le pont (MAJ : et dans la partie supérieurs de la boîte, je n’avais pas remarqué), il faut donc le débrancher, le sortir de l’adaptateur, scanner le code, et refaire l’opération inverse assez rapidement pour qu’HomeKit puisse le détecter. A noter qu’il n’y a pas de compatibilité Alexa ou Google Assistant, même si ce n’est pas sujet ici.

Aqara Home

La gamme Aqara utilise le Zigbee et donc l’ajout d’accessoires fonctionne comme avec du Hue : il faut ajouter les lampes et accessoires dans l’application Aqara, qui ajoute le tout dans Maison. Truc amusant, le pont lui-même sert de lampe : la structure est entourée de LED, contrôlables via HomeKit. Ce n’est pas très puissant et les couleurs sont fausses (le rouge est franchement rose) mais c’est pratique. Il dispose aussi d’un switch virtuel qui lui permet d’émettre un bip un peu ridicule. Honnêtement, ça ne sert pas réellement d’alarme, ni à la retrouver. C’est complètement gadget.

Le pont a ses propres réglages


Le rouge (capture précédente) est rose

Dans les trucs un peu énervants, l’application en partie en chinois (j’ai reçu des mails totalement en idéogrammes) mais aussi le pont qui parle de temps en temps en chinois (ça se règle, mais il ne propose pas le français, uniquement l’anglais).

Passage en anglais

L’ampoule testé est particulière. Par défaut, elle démarre sur un blanc extrêmement froid (6 000 K, blanc hôpital). il est possible de la régler sur un blanc chaud classique (2 700 K) mais elle perd un peu sur le rendu des couleurs, qui n’est déjà pas extraordinaire au départ. Disons que vu le prix de l’ampoule avec un blanc réglable (12 €), on ne va pas chicaner.

L’ampoule propose le réglage du blanc

Honnêtement, je ne suis pas aussi enthousiaste que Nicolas, qui a testé plus en profondeur les accessoires. Même si j’aime bidouiller (vous vous en doutez), je préfère dans l’idéal avoir de la domotique qui marche, sans devoir installer des adaptateurs pour les prises, sans apprendre le chinois, etc. Une fois les accessoires dans HomeKit, l’ensemble marche bien et on peut presque oublier l’application Aqara, mais c’est un « presque ». L’ajout d’accessoires passe par là. C’est moins cher que du Hue, c’est évident (encore que le pont vaut à peu près le même prix), mais les ampoules sont de moins bonne qualité, et la mise en place nécessite plus de motivations, ce qui risque de décourager un utilisateur lambda.

MAJ : j’avais indiqué que les ampoules marchaient sur d’autres ponts, mais ça dépend du modèle. Celle dont je dispose (ZNLDP12LM) ne sont pas reconnues par un pont Hue.

Certains Mac lisaient les disquettes plus lentement

Par Pierre Dandumont

Le saviez-vous ? Certains Mac possèdent des lecteurs de disquettes plus lent que d’autres. Mais pas à cause du lecteur lui-même, mais de son contrôleur.

Il existe en effet plusieurs contrôleur différents dans les Mac. Premièrement, l’original, l’IWM, alias Integrated Woz Machine. Puis le SWIM (Sander/Woz Integrated Machine), qui ajoute la prise en charge des disquettes en mode MFM (1,44 Mo), celles des PC. Ensuite, il y a le SWIM2 et le SWIM3, des évolutions de ce dernier. Et enfin, un contrôleur plus rare, le New Age. On le trouve uniquement dans les Mac “AV” (840 et 660) et il est significativement plus lent que les autres avec les disquettes enregistrées en mode GCR (vitesse variable), soit celles de 400 et 800 ko. En tout cas, c’est ce qu’indique une vieille note technique Apple, et j’ai donc décidé de le vérifier. Attention, la note vient d’une vieille archive et je n’ai pas trouvé de copie, donc j’ai mis le fichier en ligne directement.

Une disquette double densité, en GCR

Pour rappel, le mode GCR consiste à faire varier la vitesse de rotation du lecteur pour gérer des secteurs de taille physique fixe sur la disquette, alors que le mode MFM des disquettes de PC utilise une vitesse de rotation fixe et donc des secteurs de taille physique variable. Ce choix permet de stocker un peu de données (800 ko vs. 720 ko) sur la même surface. Maintenant, vous pouvez vous demander pourquoi un contrôleur peut être plus lent qu’un autre. La réponse est assez trivial : l’IWM et les SWIM utilisent le CPU pour la majorité des traitements, alors que le New Age se base sur une puce dédiée (la NEC765) modifiée pour ajouter le support du GCR. Mais du coup, c’est le contrôleur qui doit gérer la prise en charge du GCR… et il est plus lent qu’un CPU, même le simple 68000 des premiers Mac.

Au passage, si vous ne connaissez pas les disquettes 3,5 pouces, il existe essentiellement deux types : les double densité (DD), d’une capacité de 800 ko (en GCR dans les Mac, 720 ko dans les PC), et les haute densité (HD) d’une capacité de 1,44 Mo dans les PC et dans les Mac. Apple n’a en effet pas utilisé la vitesse de rotation variable dans le cas. On peut différencier les disquettes par les encoches : un trou dans les DD, deux dans les HD.

Pour tester, j’ai prise une machine en SWIM2 (un LC III), une en New Age (un Centris 660 AV) et un Power Mac G3 en SWIM3. Dans chaque cas, j’ai lu et écrit des données sur un Floppy Emu avec une image de disquette GCR de 800 ko.

Le Floppy Emu

Avec un Power Mac G3, la copie d’un fichier de 620 ko prend 42 secondes. La lecture du même fichier prend 23 secondes.
De fait, avec un Centris 660 AV, l’écriture prend 98 secondes (plus du double) et la lecture 38 secondes, ce qui est très nettement plus. Avec un LC III (pas franchement un haut de gamme), l’écriture prend 100 secondes (comme le Centris, mais ça peut dépendre du SCSI2SD, pas franchement rapide) mais la lecture seulement 27 secondes.

Comme on le voir, c’est tout de même nettement plus lent sur le modèle AV, donc. La page de support Apple indique qu’il existe des extensions qui utilisent le DSP pour accélérer les transferts mais je n’ai rien trouvé de probant en cherchant. Si vous avez des infos sur ce point, ça m’intéresse.

Serial Disk : un disque dur externe série pour les vieux Mac… en ROM

Par Pierre Dandumont

J’en avais parlé il y a un moment, un développer (Rob Braun) propose un système qui peut sauver la mise avec de vieux Mac : la possibilité de monter un volume avec une liaison série. Et je me suis rendu compte que l’ensemble peut même être intégré dans une ROM.

Pour résumer : le Serial Disk Driver permet de charger un volume via un lien série et un petit programme (du côté de l’appareil moderne) permet de partager une image disque. C’est assez pratique, mais c’est assez lent (56K, et ce n’est pas une image) et il faut installer le programme (une extension et un tableau de bord) sur le Mac, ce qui nécessite donc au moins un lecteur de disquettes (par exemple). De base, il faut donc souvent un vieux Mac pour sauver un autre vieux Mac, et le LocalTalk (avec un adaptateur Ethernet/LocalTalk) est souvent plus efficace.

La ROM dans son programmeur

Mais sur un forum, Rob propose une alternative intéressante : une version en ROM. Alors, bien évidemment, il faut une ROM programmable. J’ai testé avec mon Macintosh IIsi, et ça fonctionne : sans installer l’extension, le disque monte au démarrage, on peut copier les données dessus, etc. C’est toujours aussi lent, mais il ne faut plus un vieux Mac pour transférer les données.

System 7.1


Pas d’extension spécifique


Le volume monte


Sur le Mac

Ce qui est intéressant, c’est qu’il est possible de démarrer sur le lien série. La ROM permet en effet de charger directement l’extension, et si le Mac ne trouve rien au démarrage (pas de disque dur), elle va essayer de démarrer sur le disque série. J’ai testé avec une image disque récupérée chez Macintosh Garden et ça fonctionne. le Mac démarre sans disque dur sur le disque série. C’est évidemment assez lent au démarrage (dans le meilleur des cas, le lien série travaille à ~7 ko/s) mais ça passe. J’ai fait une petite vidéo pour montrer le résultat. La qualité de la vidéo n’est pas géniale, mais ça vient des modes vidéo assez spécifiques du Macintosh IIsi.

Easter Egg : la « secret about box » de Mac OS 8

Par Pierre Dandumont

Petit easter egg amusant qui reprend une phrase déjà vue, et qui fonctionne sous Mac OS 8 et 8.1 (au moins).

Premièrement, il faut prendre une image PICT (par exemple une capture d’écran) et la renommer en secret about box.

Renommer une image en secret about box

Deuxièmement, il faut lancer Desktop Pictures (Fonds d’écran en français) et sélectionner une image.

Ouvrir fonds d’écran

Troisièmement, il faut simplement glisser l’image secret about box dans la zone. Magie, un oiseau apparaîtra, avec le nom de Greg Robbins et quelques autres personnes. Greg Robbins travaillait à l’époque sur la gestion des fonds d’écran de Mac OS dixit sa page Linkedin.

Glisser l’image et… magie

Je vous ai fait une petite vidéo, du coup.

Mac ou Pippin ? Gokigen Mama no Omakase Diary

Par Pierre Dandumont

Cette semaine, je (re)teste un jeu Pippin… mais sur Mac. Une partie des titres de la console d’Apple et Bandai fonctionne en effet sur les deux plateformes. Il s’agit ici de Gokigen Mama no Omakase Diary.

Ce titre a une particularité : il utilise une disquette pour sauver les données. Et bonne nouvelle, vous pouvez utiliser la même disquette sur un Mac et sur la Pippin, pour garder votre avancement. Le fonctionnement sur un Mac est assez classique avec les titre hybrides : il se limite au 640 x 480 sur le Mac (même avec un écran en 1 920 x 1 200 comme lors de mes tests) et il nécessite un OS en japonais pour être utilisable. Sur un Mac OS 9 en anglais (mon choix par défaut, assez logiquement), une partie des textes ne s’affiche pas correctement. En fait, les textes qui font appel aux polices de l’OS (en gros, tout ce que l’utilisateur va entrer) s’affiche avec des caractères bizarres, alors que pas mal de textes dans le jeu, eux, passent correctement. La raison est simple : ils sont stockés sous la forme de bitmap. Le problème vient du fait que la gestion des caractères, dans les années 90, n’était pas très standardisées : pas d’Unicode, une version d’OS par langue (ou presque), etc. Mac OS X, au début du siècle, a corrigé ce souci.

Comme d’habitude, je mets quelques captures le titre est identique à la version Pippin, testée en vidéo.

Dans un grand écran, c’est… petit



La version anglaise affiche mal certains caractères, comme le poids en haut à droite


En japonais, pas de soucis


❌