Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Un écran SGI aux couleurs de l’iMac

Par Pierre Dandumont

Un prototype sympathique sur eBay, mais assez cher (450 $) : un écran SGI 1600SW avec une coque aux couleurs de l’iMac.

Le vendeur a visiblement découvert que ce produit pouvait intéresser les collectionneurs, vu qu’il a augmenté de prix rapidement… Il est livré avec un adaptateur DVI (plutôt rare) pour le brancher sur un ordinateur moderne, et dans la première version de l’annonce, le vendeur montrait visiblement une carte ProFormance III. Pour rappel, l’écran SGI 1600SW est un écran plat de la fin des années 90 avec une définition élevée (1 600 x 1 024) et un design sympathique. Il a la particularité d’utiliser une connectique rare, l’OpenLDI. En simplifiant, il s’agit d’une version externe du LVDS des écrans d’ordinateurs portables. Il nécessite donc une carte graphique dotée du bon connecteur (rare) ou un adaptateur DVI (rare et cher).



Avec un jeu, il n’y a pas d’upscale




Sur une Proformance III


Un adaptateur DVI

En tout cas, les couleurs de ce modèles sont sympathiques et très originales…

De l’Ethernet 2.5 Gb/s pour Mac, en USB-C

Par Pierre Dandumont

Avec un an de retard, les premiers adaptateurs Ethernet à 2.5 Gb/s arrivent enfin dans les étals. Et bonne nouvelle, ça fonctionne bien sur les Mac.

Petit rappel : l’Ethernet 1 Gb/s (~125 Mo/s) existe dans le grand public depuis pas loin de 20 ans (dès 2000 dans les Power Mac G4) et en 2019, ça limite pas mal. Apple propose quelques Mac avec du 10 Gb/s (iMac Pro, Mac mini, mais pas iMac ou MacBook Pro) et on peut ajouter assez facilement une carte 10 Gb/s en Thunderbolt. Le problème, c’est que c’est cher : comptez plus de 200 € pour un adaptateur Sonnet. En pratique, il existe deux normes entre le 1 Gb/s et le 10 Gb/s : le 2.5 Gb/s et le 5 Gb/s. J’avais essayé une carte 5 Gb/s dans un Mac (sans succès) et les cartes 2.5 Gb/s arrivent enfin. La norme permet un gain correct (on peut espérer 300 Mo/s avec un NAS moderne en face), fonctionne sur des câbles Cat 5E et les adaptateurs ne coûtent pas trop cher. J’ai testé un modèle Club 3D en USB-C (environ 50 €) et il existe une version USB-A pour les anciennes machines. L’adaptateur fonctionne en USB 3.0 (ou USB 3.1 Gen. 1 si vous voulez) à 5 Gb/s, donc ça passe sur d’anciennes machines sans soucis. Attention quand même sur les docks Thunderbolt (ou sur un Mac Pro), l’USB 3.0 peut limiter.

L’adaptateur


USB-C


C’est de l’USB à 5 Gb/s

La bonne nouvelle : l’adaptateur fonctionne sans pilotes sous macOS (je vais y revenir) et j’ai atteint des débits pratiques de 2,35 Gb/s, soit pratiquement 300 Mo/s en réel vers mon Mac Pro qui sert de NAS. Seconde bonne nouvelle, la compatibilité est bonne : mon Mac est relié à un switch 10 Gb/s (Netgear, comptez vers 200 €), lui-même relié en RJ45 à un second switch 10 Gb/s (en SFP+). La machine en face est aussi en 10 Gb/s, mais en SFP+. Pas la solution la plus simple ni la plus pratique donc.

2,35 Gb/s mesurés

Maintenant, les petits défauts. Premièrement, Club 3D livre les pilotes Windows et macOS sur un CD de 8 cm, sans aucune possibilité de téléchargement. C’est un peu embêtant : aucun Mac n’a de lecteur compatible, et ça fait un moment. J’ai dû tenter sur deux lecteurs différents pour faire une image ISO, d’ailleurs. Pourquoi parler des pilotes ? Parce que les pilotes standards de macOS ont un souci : ils n’affichent pas la bonne vitesse. Dans mon cas, ça affiche une liaison à 1 Gb/s alors que l’ensemble fonctionne bien à 2.5 Gb/s. Tant les tests que l’interface de mon switch montrent que le lien fonctionne bien à 2.5 Gb/s. Les pilotes du mini CD (j’ai sorti un lecteur à tiroir) ont le même comportement malheureusement.

macOS dit 1 Gb/s (mais se trompe)


Le switch dit 2,5 Gb/s


Le CD de pilotes

Second défaut, classique avec ce genre de trucs, ça consomme pas mal. Typiquement, l’adaptateur consomme 400 mA sur la prise (2 W) et ça chauffe un peu. Ce n’est pas horrible et c’est stable (j’ai testé pendant 20 minutes de iPerf) mais c’est notable. Mais surtout, ça utilise (beaucoup) le CPU. Lors d’un test iPerf, j’obtiens ~30 % de charge totale en USB-C (200 % + 45 % de iPerf, sur un total théorique de 800 %, MacBook Pro oblige), contre la moitié en Thunderbolt 3 avec une carte à base de puce Tehuti (~120 % de kernel_task + 25 % de iPerf).

Un peu plus gros qu’un modèle 1 Gb/s

Le dernier défaut évoluera peut-être, mais pour le moment il faut un switch 10 Gb/s, qui vaut au moins 200 €. Les switchs compatibles 2.5 Gb/s devraient arriver un jour, Realtek vend le nécessaire, mais rien n’existe pour le moment à ma connaissance. De même, il faut évidemment l’équivalent en face, mais ça reste logique. En pratique, on peut trouver assez facilement des NAS avec 10 Gb/s ou même du 2.5 Gb/s, et pas mal de NAS modernes permettent d’en ajouter, que ce soit avec une carte PCI-Express ou… l’adaptateur USB testé ici.

Pour conclure, l’adaptateur de Club 3D fonctionne bien, ne vaut pas (trop) cher (50 € me semble correct vu le gain espéré) et offre des performances excellentes. Je vous le conseille pour un MacBook Pro (par exemple)… si vous avez le nécessaire pour en profiter.

Dernier point, pour les amateurs de Windows. Ca fonctionne nativement sous Windows 10, avec de la même façon une utilisation assez élevée du CPU. Sur le PC portable de test (un ultraportable HP), le passage sur batterie limitait les débits (1,6 Gb/s au lieu de 2,35 Gb/s), a priori à cause de réglages liés à l’autonomie.

Toshiba RC100 : un SSD NVMe compact sans RAM

Par Pierre Dandumont

Toshiba propose depuis pas mal de temps des SSD assez efficaces, et le RC100 m’a intéressé pour son côté compact. En effet, c’est un modèle NVMe en M.2 2242, donc très court.

Pour atteindre cette taille, Toshiba propose un SSD « BGA » : la mémoire flash NAND et le contrôleur sont sur la même puce, sans mémoire vive additionnelle. Cette solution permet de fabriquer un SSD compact, mais pas spécialement performant. Il utilise deux lignes PCI-Express 3.0 (~2 Go/s au maximum) et Toshiba annonce 1,6 Go/s en lecture et 1 Go/s en écriture. Ce sont les valeurs théoriques sur la version 480 Go, mais j’ai testé la variante de 240 Go, plus lente. Le SSD vaut ~75 € en version 256 Go. C’est assez cher : on trouve des NVMe (2280) de 500 Go pour moins cher, et c’est deux fois plus cher qu’un SSD SATA de la même capacité. Mais dans ce format compact, il n’existe pas vraiment d’alternative.

Le SSD à droite, bien court que la moyenne


Plus petit qu’un SSD mSATA

Le côté intéressant de ce SSD vient de la gestion de la mémoire. Dans un SSD classique, la RAM ne sert plus vraiment de cache, mais elle contient la correspondance entre l’agencement logique du SSD et l’agencement physique. Dans un SSD classique, on considère que 1 Go de RAM permet de gérer 1 To de mémoire (512 Mo pour 512 Go, etc.). Le SSD de Toshiba dispose d’un peu de mémoire interne, mais il peut aussi utiliser la RAM du PC (quelques dizaines de Mo, 38 Mo sous Windows) avec un OS adapté. Je me posais la question de savoir si macOS supportait cette fonction, la réponse est visiblement non. Par contre, ça fonctionne sous Windows 10 (à jour) ou a priori Linux. Sous Windows 10 (à jour), le HMB utilise donc 32 Mo de RAM et donne des gains intéressants sur les opérations aléatoire. Si vous voulez essayer sous Windows, il faut modifier le registre pour désactiver le HMB (HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\StorPort). Il faut ensuite mettre une clé HmbAllocationPolicy (DWORD) à 0. La valeur 1 met au minimum, 2 active au maximum, 3 en fonction de l’appareil. L’outil de Toshiba indique ensuite l’utilisation mémoire.

Sans


Sans


Avec


Avec

J’ai testé d’abord dans un boîtier Thunderbolt 3. Sous macOS, j’obtiens ~1,1 Go/s en lecture et seulement ~400 Mo/s en écriture. Sous Windows 10, ça monte à 1,5 Go/s et 1 Go/s en écriture (dans un benchmark). Dans la réalité, c’est plus proche de 800 Mo/s, d’ailleurs. Je n’ai aucune idée de la raison de la perte sous macOS : avec d’autres SSD, je n’ai pas ce comportement, et j’ai testé dans trois boîtiers Thunderbolt différents.

Adaptateur PCIe (avec un radiateur)


Sous macOS en Thunderbolt

Dans un boîtier USB vers NVMe. Sur mon modèle, je pourrais sans soucis couper le PCB à la taille du SSD étant donné qu’il s’agit juste d’un support, pour fabriquer une « clé USB » compacte et rapide. Niveau performance, j’obtiens ~900 Mo/s en lecture et ~730 Mo/s en écriture. C’est plus qu’en Thunderbolt, et je n’ai donc aucune idée de la raison. Attention, il descend assez rapidement vers 250 Mo/s en écriture dès qu’il chauffe : un radiateur n’est pas de trop pour l’aider, au moins dans une machine de bureau.

L’adaptateur USB, découpable


En USB, sous macOS

Comme pseudo clé USB compacte (et rapide), le SSD est intéressant (par exemple avec cet adaptateur). En interne, il n’a que peu d’intérêt, sauf si votre PC portable n’a que du 2242 ou du 2260. Et en théorie, il doit être possible de le placer dans un emplacement Mini Card avec un adaptateur (on en reparlera). Dans un Mac, forcément, l’intérêt est faible : il n’est pas possible de mettre du M.2 nativement et si vous utilisez un adaptateur, un modèle M.2 2280 rentre sans soucis.

Studio Technologies Unveils the Model 207, its First eSports-Specific Audio Product

Par D Pagan Communications

SKOKIE, IL, MAY 1, 2019 – Studio Technologies, manufacturer of high-quality audio, video, and fiber-optic solutions, introduces a new control hub for eSports applications, the Model 207 eSports Console. The Model 207 is optimized to address the microphone, audio monitoring, and interfacing needs of eSports players and personnel. Housed in a compact, tabletop enclosure, the ...

Configurer un Raspberry Pi A(+) sans Ethernet

Par Pierre Dandumont

Ce dont je parlais hier avec les Raspberry Pi Zero fonctionne aussi avec les Raspberry Pi A : il est possible de relier la carte à un Mac, en USB, et de se connecter dessus en SSH.

En fait, les Raspberry Pi A (A, A+, 3 A+) disposent d’une prise USB de type A qui peut fonctionner en mode OTG. La première chose à faire est donc de trouver un câble avec deux prises USB A mâle. On en trouve sur Amazon, mais je n’ai pas testé. Je suis passé par un câble de ce type que j’avais reçu avec un boîtier USB. J’ai tenté avec un câble USB-C vers USB-A, mais sans succès : le passage en USB-C doit limiter sur un point technique que je ne connais pas. Vous verrez facilement si ça fonctionne : le Raspberry Pi s’allume avec le bon câble. J’ai testé avec un Raspberry Pi A, un Raspberry Pi A+ et un Raspberry Pi 3 A+. Attention, il faut bien passer par le port USB classique, le microUSB ne transmets pas les données.

Un Raspberry Pi A+ avec un câble USB-A vers USB-A

La suite est assez proche de mon article d’hier, mais avec une différence. Le mode OTG s’active normalement de façon matérielle, en fonction de ce qui est branché, mais pas sur les Raspberry Pi A. Il faut le forcer logiciellement avec une commande.

Placez la carte dans un Mac, la partition boot devrait apparaître. Il faut ajouter la ligne suivante dans le fichier config.txt. Attention, elle diffère de celle utilisée avec un Raspberry Pi Zero.

dtoverlay=dwc2,dr_mode=peripheral

Ensuite, ajoutez cette ligne dans le fichier cmdline.txt. Vous pouvez la mettre à la fin du fichier, avec une espace devant.

modules-load=dwc2,g_ether

Enfin, ajoutez un fichier ssh à la racine de la partition (vide, c’est sans importance).

Et voilà. Rien de bien compliqué, le plus embêtant reste finalement de trouver un câble adapté. A noter, pour terminer, que ça peut aussi fonctionner avec un Raspberry Pi Compute Module, mais a priori uniquement avec les supports qui n’intègrent pas de hub USB interne. De même, ça ne fonctionne pas sur les Raspberry Pi B à cause de ce point.

Configurer un Raspberry Pi Zero avec un simple câble USB

Par Pierre Dandumont

Récemment, sur des forums, j’ai découvert un truc : un Raspberry Pi Zero peut se comporter comme un adaptateur Ethernet une fois branché sur un Mac, pour une configuration simple et rapide. C’est magique.

Les Raspberry Pi Zero (et les A, j’y reviens demain) ont un problème au départ : sans Ethernet, c’est compliqué de configurer une carte sans la connecter à un écran et un clavier. Jusqu’à maintenant, j’utilisais un adaptateur USB avec Ethernet (issu d’un Chromecast) mais il y a une alternative : le mode OTG (On The Go). Pour faire simple, il suffit de brancher un câble USB sur le Raspberry Pi, de le connecter à un Mac et il fonctionne comme un adaptateur Ethernet. Ensuite, il devient possible de se connecter en SSH dessus.

Un Zero avec un c^ble microUSB

Première chose, un câble USB avec une prise microUSB. Vous devez le brancher sur la prise USB du Raspberry Pi Zero (notée USB), pas sur la prise d’alimentation (notée PWR). Deuxièmement, une version pas trop vieille de l’OS (j’ai pris la dernière).

Placez la carte dans un Mac, la partition boot devrait apparaître. Il faut ajouter la ligne suivante dans le fichier config.txt.

dtoverlay=dwc2

Ensuite, ajoutez cette ligne dans le fichier cmdline.txt. Vous pouvez la mettre à la fin du fichier, avec une espace devant.

modules-load=dwc2,g_ether

Enfin, ajoutez un fichier ssh à la racine de la partition (vide, c’est sans importance).

Maintenant, vous pouvez démarrer le Raspberry Pi avec la carte. Après quelques secondes (c’est un peu long que d’habitude), il devrait apparaître comme un adaptateur Ethernet (RNDIS/Ethernet Gadget) dans les connexions de macOS. Il suffit ensuite d’ouvrir le Terminal et de taper la ligne suivante (le mot de passe sera raspberry).

ssh pi@raspberrypi.local

Magie, vous êtes connecté en SSH sur le Raspberry.

Accéder à Internet

Cette solution permet de se connecter sur le Raspberry Pi pour configurer des choses (comme le Wi-Fi sur un modèle W) mais il est aussi possible d’avoir un accès à Internet, merci macOS. C’est très simple : il suffit de faire un pont entre la connexion de votre Mac et le Raspberry Pi. Allez dans la section Partage des Préférences Système, puis dans Partage Internet. Choisissez l’interface utilisée pour vous connecter à Internet (Wi-Fi, Ethernet, etc.) et dans Aux ordinateurs via, choisissez RNDIS/Ethernet Gadget. Enfin, cochez la case à gauche pour bien activer le partage. Un simple redémarrage du Raspberry Pi devrait lui donner un accès à Internet via votre Mac.

La liste des interfaces


Le partage de connexion

Sous Windows

Je n’ai pas essayé et c’est moins simple, mais voici quelques conseils. Sous Windows, il faut un client pour le SSH, a priori un pilote pour l’Ethernet (Windows 10 doit le charger automatiquement, mais sinon les explications sont là) et Bonjour. En effet, le Raspberry Pi a une IP auto-assignée et le meilleur moyen d’y accéder (comme plus haut) passe par son adresse .local, qui dépend de Bonjour. Si vous avez iTunes, Bonjour doit être installé, sinon l’installation d’iTunes ou de l’utilitaire AirPort (mais pas les services pour l’impression).

Stockage, série, Raspberry A, etc.

Je vous ai montré comment gérer un adaptateur Ethernet, mais il existe d’autres possibilités. Il est possible d’émuler un clavier, un port série, un périphérique de stockage, etc. Vous trouverez quelques explications là, et j’écrirais sûrement un article sur la partie USB un jour. Point intéressant, aussi, ça marche sur d’autres Raspberry Pi (notamment les A) avec quelques différences. Je vous en parle demain.

MultiChoice Moves to Exceed Consumer Expectationswith IP Platform from Imagine Communications

Par Caroline Shawley

  Greenfield, software-defined playout centre delivers premium HD channels while providing business agility, operational flexibility and reduced TCO   MUNICH, 26 April 2019 – MultiChoice, the largest satellite broadcaster in Africa, is responding to rapidly growing customer demand for superior content by building a new playout centre. The new facility is the first stage of ...

Un Blu-ray qui ne veut pas afficher de HD en analogique

Par Pierre Dandumont

Il y a quelques années maintenant, je parlais d’un HD DVD – il y en a quelques autres – qui ne pouvait pas être lu en analogique. Et de temps en temps, je voyais passer des messages sur des Blu-ray avec la même limitation. Finalement, j’en ai trouvé un.

Au lancement des disques optiques HD, vers 2006, une partie significative des gens passait par une connexion analogique – composante – pour lire les films. Et donc la peur d’une technologie pouvant limiter cette sortie était forte. On trouvait régulièrement des messages affolés sur l’introduction du flag ICT (Image Constraint Token) qui allait soit empêcher la lecture, soit la bloquer en définition standard.

Dans la pratique, pas d’apocalypse. Premièrement, les disques qui bloquent l’analogique restent extrêmement rare. En gros, quelques HD DVD et a priori quelques rares Blu-ray. Deuxièmement, le blocage de l’analogique n’a pas été fait en limitant les disques, mais en limitant les lecteurs. En gros, les lecteurs sortis à partir de 2011 ne peuvent plus intégrer de sortie analogique “HD” (480i au mieux) et à partir de 2014, il ne peuvent plus intégrer de sortie analogique du tout. Donc en 2019, trouver un lecteur avec de l’analogique, c’est compliqué.

On trouve quelques exemples de disques bloqués sur des forums. Le premier que j’ai testé, le dernier des Mohicans, ne semble pas bloqué sur mon lecteur de Blu-ray Région A. Il passe en 1080i en composante. Visiblement, le problème existe tout de même. Le second, que j’ai essayé, c’est The Guard. Il date de 2012 et j’ai bien pu vérifier qu’il passe en 576i en analogique. A noter qu’il n’y a visiblement pas de version française et que toutes las variantes du Blu-ray ne se comportent pas comme ça.

Le menu de la PS3 en 1080i


Le menu du disque passe en 576i


Le film passe en 576i


Un autre disque, lui, passe bien en 1080i

J’ai testé avec une PlayStation 3 Fat (40 Go) et de fait : ma carte d’acquisition passe en 576i sur ce film précisément quand je suis relié en composante. Sur d’autres Blu-ray, je reste bien en 1080i. Contrairement au HD DVD que j’avais testé, il n’y a donc pas de message : la PlayStation 3 passe automatiquement en 576i. Sur mon téléviseur, c’est la même chose.

En 576i sur le téléviseur

Je n’ai pas pu vérifier directement la présence du flag parce que je n’ai aucune idée de comment le lire. Et je n’ai pas pu tester avec un autre lecteur car mon lecteur de salon principal est trop récent : il n’a qu’une sortie HDMI. Mon second lecteur, un Region A, n’accepte pas le disque : il est uniquement Region B. Mais en pratique, The Guard reste un cas particulier : dans l’énorme majorité des cas, il reste parfaitement possible d’afficher du 1080i en analogique depuis un Blu-ray… si vous avez un lecteur adapté.

Lire un Blu-ray Ultra HD sur un Mac (troisième)

Par Pierre Dandumont

Récemment, la version 1.1.1 de libbluray est sortie. Et elle permet de lire les menus des Blu-ray Ultra HD, du moins si vous avez les clés nécessaires (et le bon lecteur).

Le problème de la bibliothèque, c’est qu’elle est intégrée à VLC et celle intégrée passe avant celle compilée manuellement. Je n’ai trouvé qu’une solution efficace pour passer outre – en attendant que la dernière version soit intégrée d’origine – compiler VLC. Ce n’est évidemment pas la solution la plus évidente, mais ça me permet de corriger le problème et d’avoir les menus avec les disques Ultra HD. Je doute que quelqu’un teste ici, mais il suffit de suivre le tutorial sur le site de Videolan.

J’avoue que j’ai eu un peu de mal à compiler, entre certains trucs qui ne passent pas avec Xcode 10, d’autres qui nécessitent des mises à jour (merci homebrew) et les messages d’erreurs pas toujours clairs. Au passage, j’ai toujours un problème lié à Java : même les versions récentes de libbluray ne passent pas avec une version récente de Java dans mon cas. J’avais installé Java 11 et 12 (via Liberica) mais sans succès. Impossible de lire des menus sans installer Java 8. Si vous en avez besoin, deux lignes de commandes suffisent : brew tap caskroom/versions et brew cask install java8. En pratique, la lecture passe tout de même sans Java, VLC indique juste un message d’erreur et charge le film. Mais bon, voici quelques captures de menus une fois une version propre compilée.





Deux captures des films.


Dans l’absolu, je vous conseille tout de même de tout simplement attendre que la version 1.1.1 de la libbluray soit intégrée dans VLC, ça devrait arriver dans les prochaines versions.

Pour terminer, pour rappel, vous aurez besoin d’un lecteur compatible Ultra HD (mais pas trop) comme le LG BH16NS55 (~75 €) ou l’Asus BW-16D1HT (~80 €), des clés – je vous laisse chercher sur le Net -, d’un Mac suffisamment puissant (ou d’un modèle récent capable de décoder le HEVC) et d’une version récente de libaacs.

Comment j’ai tenté de récupérer un DVD

Par Pierre Dandumont

J’en parlais hier, j’ai reçu récemment un DVD illisible. J’ai donc tenté (avec plus ou moins de succès) de le récupérer. Explications.

Je vais commencer par la fin : j’ai acheté un Skip Doctor, en me disant que de toute façon le disque était perdu, donc autant tenter. Il y a des commentaires élogieux sur Amazon, d’autres qui expliquent que c’est inutile (et même dangereux)… et c’est un peu mon cas. Avant de passer le Skip Doctor, le disque était lisible en partie. Après… non. J’ai bien suivi la notice, je ne l’ai pas utilisé sur un Blu-ray – la notice et les commentaires indiquent bien de l’éviter -, mais après deux tours, le CD était moins lisible, et après deux tours de plus… il est complètement illisible. L’idée de base est visiblement de passer une roue abrasive sur le disque, mais dans mon cas, ça a fait plus de mal que de bien. Je ne peux pas juger sur un exemple, surtout que mon disque était franchement en mauvais état, mais je déconseille franchement.

Ça n’a pas fonctionné

Ce qui marche un peu

J’ai quand même deux conseils qui marchent plus ou moins. Premièrement, essayer plusieurs lecteurs si vous en avez la possibilité. Vraiment. Sur mon disque, en essayant de faire une image disque avec ISO Buster sous Windows, certains bloquaient à la lecture dès 50 % du disque, d’autres allaient beaucoup plus loin. Dans mon cas, les deux plus efficaces étaient – de façon plutôt étonnante – le SuperDrive USB d’Apple et un lecteur Lite-On. Avec ces deux lecteurs, j’arrivaient à lire ~95 % du disque. Le lecteur Lite-On, un 5,25 pouces, était évidemment nettement plus rapide (et plus bruyant). Mais si jamais un lecteur cale ou semble avoir du mal, tenter avec un second peut réussir, les lecteurs optiques ne sont pas tous égaux devant un disque rayé.

C’est plutôt efficace

La seconde technique qui m’a permis de récupérer une bonne partie des données, c’est un passage au polish avec du Novus numéro 2. Vous trouverez facilement des boutilles sur eBay pour une petite quinzaine d’euro et c’est franchement efficace pour des rayures pas trop profondes. C’est un polish spécifique pour le plastique et ça permet de régler pas mal de soucis sur un CD ou un DVD (et sur d’autres surfaces plastiques, genre le dos d’un MacBook). Ce n’est pas parfait – mon disque était un peu trop rayé – mais ça aide bien. Sans ça, le disque n’était totalement illisible. J’ai passé plusieurs fois le polish pour gagner quelques pourcents de données en plus, mais sans parvenir à effectuer une image disque complète malheureusement.

Après, si vous avez des solutions miracles pour les disques optiques en mauvais état, çà m’intéresse.

DTC Broadcast announces North American partnership with Wave Central

Par Manor Marketing

NAB 2019, Las Vegas, Wave Central Booth C6934: DTC Broadcast today announced a formal and extensive North American partnership with U.S. based Wave Central, a major provider of wireless broadcast camera and transmission technologies. Wave Central specializes in providing high end RF solutions for major sports venues across North America. The partnership is structured in a ...

Faire fonctionner un décodeur Canal+ des années 80

Par Pierre Dandumont

Après des années de recherche (pas très intensive), j’ai enfin trouvé un décodeur Canal+ Discret 11, soit le décodeur des années 80. Et je l’ai fait fonctionner.

Pour le premier sujet – je ferrais un second plus complet sur la remise en état -, je me suis concentré sur la mise en place du décodeur, pour vérifier son fonctionnement.

Mon décodeur, pas en super état mais fonctionnel

Premièrement, comment ça marche. Cana+, en 1984, utilisait le chiffrement Discret 11. Je vais parler dans la suite de crypter et décrypter, vu que c’était un peu l’usage à l’époque même si c’est sémantiquement faux. Le fonctionnement de base pour l’image va être de décaler les lignes de l’image en fonction d’un algorithme, avec trois possibilités (retard de 0, 902 et 1804 nanosecondes). Le Discret 11 utilise une clé sur 11 bits (le nom donnait un indice).

Le clavier pour taper le code

Canal+ changeait de clé tous les mois, en envoyant un code à ses abonnés. Ce code permettait de décoder l’image et dépendait du numéro de série du décodeur, présent dans la ROM. Pour éviter les problèmes avec les retards possibles pour la livraison des codes (par la poste), Canal+ utilisait un chiffrement avec une clé générique (le code audience 7) entre le dernier jour du mois à minuit et le premier lundi du mois à 9 heures. A ce moment là, n’importe quel décodeur – même sans abonnement – pouvait décoder l’image. Si vous avez une VHS enregistrée chiffrée et quelle a été enregistrée dans cette courte période, elle est donc déchiffrable. Si elle a été enregistrée à un autre moment, mais que vous avez le code, il faut le décodeur de l’époque ou changer le numéro de série d’un autre décodeur (en supposant que vous connaissez son numéro de série, ce qui est peu probable).

Le numéro de série sous le décodeur ne correspond pas au numéro de série de la ROM

Vous vous en doutez, il est donc assez peu probable de trouver une VHS déchiffrable avec n’importe quel décodeur, sans même prendre en compte la qualité déplorable des enregistrements en SECAM. Mais il y a une solution : Cryptimage.

Le programme miracle

Ce programme développé par un passionné permet de chiffrer (et déchiffrer) des vidéos. Ecrit en Java, il devrait fonctionner sous macOS… mais je n’ai pas réussi à charger une vidéo. De même, je n’ai pas réussi à chiffrer le son, il a visiblement du mal à lire le son en AAC de mes vidéos. Mais j’ai réussi – sous Windows – à chiffrer quelques vidéos. Pour que ça fonctionne, je vous conseille de choisir l’audience niveau 7, des couleurs en PAL, un seuil du blanc à 40 et une compression assez faible. De même, mieux vaut forcer une image en 720 x 576 pour simplifier les choses. Je suis parti d’un clip Hooverphonic issu d’un DVD (en PAL). Attention, pour être certain que ça fonctionne, la compression en H.264 reste assez faible (débit de 10 Mb/s, ce qui est élevé pour de la SD) donc ça fait de gros fichiers.

Audience 7



Dans un second article, je regarderais un peu plus en détail les options pour obtenir du son et pour choisir mon propre code. Le manuel est très complet et un long sujet de forum permet de discuter avec le développeur. J’ai franchement schématisé certains points ici, juste pour expliquer les bases et expliquer comment obtenir un fichier déchiffrable.

La partie technique

D’un point de vue technique, ensuite. Le décodeur ne propose qu’une seule prise Peritel, il faut donc un adaptateur avec une entrée et une sortie. Ce n’est pas une évidence : les quelques adaptateurs que j’avais à la maison ne fonctionnent que dans un sens, avec un interrupteur. J’ai donc acheté un adaptateur avec les deux prises. Pour la sortie, pas de soucis : j’ai relié la prise composite out à une carte d’acquisition et ça a fonctionné directement.

La prise Peritel


Un adaptateur complet

Maintenant, l’entrée. Dans l’idéal, il faut un appareil qui envoie un signal SECAM dans le décodeur. Sauf que les appareils un minimum moderne ne le font pas, et les transcodeurs PAL vers SECAM ne se trouvent pas si facilement, tout en proposant une qualité moyenne. En pratique, il est heureusement possible d’envoyer un signal PAL – la norme européenne sauf la France – qui est supportée par la majorité des périphériques modernes. Ca modifie un peu les couleurs, mais ça fonctionne. Deuxièmement, la source. Au départ, je comptais passer par un vieux Mac, mais ils ne sortent pas en SECAM et manquent de puissance pour lire une vidéo en H.264, même en SD. J’ai tenté un MacBook (2006) avec un adaptateur analogique, mais l’image n’est pas complète ou mal transmise. En tout cas, le décodeur ne réagit pratiquement pas, et les options de Mac OS X ne sont pas très claires. Finalement, je suis passé sur un iPhone 4 avec un adaptateur 30 broches vers composite. Avec l’iPhone, ça fonctionne, la seule contrainte est de bien rester en 4:3 et (surtout) de bien forcer le mode PAL. Un bug sur l’iPhone force en effet régulièrement (et à chaque branchement) la sortie en NTSC. A noter que j’ai testé avec un iPhone 3GS… sans succès. iTunes ne me laisse pas envoyer la vidéo parce que la définition dépasse le 640 x 480.

PAL obligatoire

Petit test

J’ai fait une vidéo pour expliquer comment ça fonctionne. L’iPhone contenant la vidéo, confoguré pour sortir du PAL, envoie l’image dans le décodeur. Il faut ensuite l’allumer, presser sur la touche ent qui active le décodeur. La LED jaune clignote en attendant un code. Il faut taper un code à 8 chiffres – au hasard, le niveau d’audience 7 ne nécessite pas un code en particulier – puis presser la touche memo. La LED jaune passe au fixe et le décodeur devrait déchiffrer l’image. Si c’est bon, la LED verte s’allume. En pratique, il faut un signal PAL (ou SECAM) propre, bien cadré – le décodeur utilise certaines lignes comme référence – et sans overscan. Je suppose que d’une façon ou d’une autre, le MacBook modifie un peu l’image. Il faut surtout éviter les fonctions qui passent l’image en 16:9 ou font un zoom.

Avec l’iPhone 4 réglé correctement, le décodeur déchiffre sans soucis mes vidéos et envoie le tout dans la sortie composite vers ma carte d’acquisition. On voit encore les décalages sur le côté et il y a quelques défauts de couleurs, mais le signal PAL est décodé proprement.

Avant


Après


Avant (oui, la vidéo du samedi soir)


Après

Même si c’est inutile dans l’absolu – chiffrer un truc pour le déchiffrer ensuite – c’est assez amusant et ça permet de voir comment ça fonctionnait à l’époque. Dans un second poste, je montrerais comment gérer le son et comment modifier le numéro de série du décodeur pour générer ses propres codes.

Un jeu Cryo sur un CD Plus d’Etienne Daho

Par Pierre Dandumont

Il y a quelques jours sur Twitter, Pierre Corbinais a fait un thread intéressant sur un CD Plus qui contient un jeu vidéo de chez Cryo. Il s’agit d’Eden d’Etienne Daho.

Le CD est un CD Plus, c’est-à-dire qu’il contient des données en plus de la musique. La piste de données a été insérée avec la solution la plus courante : deux sessions dont une avec les données. Aucun risque de se retrouver avec des données lues par un lecteur de CD Audio, donc. Attention aussi, je ne suis pas certain que toutes les éditions du disque contiennent les données.

La pochette (sur les vieux CD, il a des cheveux gris)


Le manuel


La config mini (en bas)

Le jeu nécessite un PC sous DOS ou Windows 95, 8 Mo de RAM, une carte graphique SVGA et au moins un Pentium à 75 MHz. Il supporte les cartes son (avec pas mal de modèles). Dixit Pierre, il a été codé en assembleur et dérive du travail de Cryo sur Riverworld. Dans l’absolu, il nécessite donc un vieux PC, mais on peut s’en tirer autrement.

Une compatibilité aléatoire

Premier écueil, impossible de le lancer avec une machine virtuelle sous Windows XP. Il ne veut pas s’installer, ne se lance même pas manuellement. Je suis donc passé sur une machine virtuelle (toujours) avec Windows 95. Mais là, si j’ai pu installer le jeu en mode DOS… il ne se lance pas.

Dans VMWare Fusion

Je suis donc passé sur Boxer, une jolie interface pour DOSBox. Mais une fois lancé, impossible d’installer le jeu : il ne semble pas détecter le disque dur. J’ai donc récupéré le jeu installé dans la machine virtuelle Windows 95 et copié le tout dans DOSBox. Là, le jeu se lance… presque. Dès que je lance une partie, le truc plante directement. Même chose sous DOSBox sous Windows 10, d’ailleurs. Finalement, avec l’aide de Pierre Corbinais, j’ai réussi : je me suis rendu compte que mon installation n’était pas complète. Après avoir recommencé sous Windows 95, il s’est installé proprement, j’ai récupéré le dossier du jeu et je l’ai lancé dans DOSBox (Boxer sous macOS, du coup).

L’installation, qui ne montre pas toujours le disque dur


Le choix de la carte son


Ralentir le CPU dans DOSBox

La 3D des années nonante

Le jeu propose un mode facile ou un mode difficile. Une option permet d’avoir les phrases parlées, écrites ou les deux, mais je ne vois pas vraiment la différence. Les décors en 3D façon années nonante sont pas trop mal pour l’époque (et le fait que ça vienne d’un CD Audio, en bonus). Le jeu se contrôle à la souris ou au clavier, ainsi qu’avec les touches F1 à F4. Le jeu commence sur une sirène en 3D, qui nous parle de la gourmandise. En mode facile, le jeu propose une carte (absente en mode difficile). Visiblement, comme le thread de Pierre l’explique, le jeu reprend en partie la vie d’Etienne Daho. Attention à un truc, le jeu est un peu trop rapide avec DOSBox, et je vous conseille de le ralentir avec l’interface (Boxer le propose) au niveau d’un Pentium.

Le menu


Un jeu Cryo


La sirène


La carte


Un personnage

Je vous laisse regarder le sujet sur Twitter pour le reste du jeu.

Si vous avez d’autres exemples de jeux vidéo sur des CD (ou de trucs atypiques dans le genre), ça m’intéresse. Je sais qu’un CD de Mike Oldfield propose un jeu Mac, j’en parlerais la semaine prochaine (j’avais complètement oublié de le tester). Et merci à Pierre pour la découverte (et l’aide).

Canard PC Hardware 40 est en kiosque

Par Pierre Dandumont

Le 40e opus de Canard PC Hardware, soit le dernier de la dixième année de publication, est disponible en kiosque. Du coup, on l’a appelé le numéro des (presque) 10 ans.


Dans ce numéro, outre les témoignages de nombreuses personnes ayant travaillées sur le magazine, vous pourrez lire un dossier sur les sex-toys connectés. Est-ce vraiment une bonne idée d’approcher ce genre de choses de vos parties génitales ? Quid de la sécurité des applications, de la liaison ? Je peux vous le dire directement, certains possèdent des applications iOS classiques mais d’autres passent par un certificat d’entreprise… et c’est mal. Et vous n’imaginez même pas ce que ça peut donner sous Android…

Les amateurs de cartes graphiques apprécieront des tests de GeForce RTX 2070 (plusieurs en lice) mais aussi les tests des GTX 1660 Ti, RTX 2060, GTX 1060 GDDR5X. J’ai aussi testé la Radeon VII d’AMD. Mais il faut bien l’avouer, ça ne sert à rien sur un Mac : les Nvidia n’ont plus de pilotes, et la Radeon VII d’AMD n’en a pas encore sans bidouiller (ça marche en 10.14.5 bêta).

Je vous raconte aussi la petite histoire du DVD (avec pas mal de choses vues ici, d’ailleurs), on a testé pleins de manettes chinoises à bas prix, des souris – la nouvelle MX 518 -, la Freebox Delta, etc.

Enfin, il y a plusieurs tests de SSD et un dossier sur le fonctionnement (et les problèmes) liés aux caches à base de mémoire SLC dans les SSD modernes. C’est un sujet que j’ai abordé ici avec une perspective précise – la gestion du cache en USB, sans TRIM -, qui a de l’intérêt au moment d’acheter un SSD.

Le Canard PC Hardware 40 est en kiosque ou sur la boutique de Presse Non Stop.

Mon projet de NAS rapide sous macOS (partie 3)

Par Pierre Dandumont

Depuis un moment maintenant, j’utilise un Mac Pro de 2006 comme NAS. J’avais installé des cartes Ethernet 10 Gb/s en fibre, mais ce n’est pas très pratique à la maison. Et tout passer en Ethernet 10 Gb/s sur cuivre a été un échec. Du coup, je suis passé sur une solution hybride qui marche pas mal.

Ma problématique, donc : les cartes à base de RJ45 pour le Mac Pro sous El Capitan valent assez cher, mais passer de la fibre d’une pièce à une autre n’est pas très pratique. De plus, pour des raisons fonctionnelles, je préfère éviter la liaison directe.

Du coup, je suis parti sur une liaison hybride. Le Mac Pro garde sa carte à base de fibre (achetée d’occasion sur eBay), avec une fibre qui va de la machine (placée à l’autre bout de l’appartement, pour des questions de bruit quand je travaille) vers un switch MikroTik CRS305. Il vaut environ 135 € et propose quatre emplacements SFP+ (pour du 10 Gb/s) et une prise RJ45 1 Gb/s qui peut servir à l’alimenter en PoE. Dans le premier emplacement SFP+, j’ai la fibre qui vient du Mac Pro. Dans le second, un adaptateur SFP+ vers RJ45, lui aussi MikroTik (comptez ~60 €). Le switch est relié en 10 Gb/s de mon salon vers mon bureau, en RJ45 avec un câble déjà en place. Un second câble, sur la prise RJ45 du switch, connecte les périphériques de mon salon (TV, consoles, borne Wi-Fi, etc.).

Dans mon bureau, le câble RJ45 qui arrive du switch entre dans un autre switch, un Netgear SX10. C’est un modèle gamer à l’esthétique discutable, mais il a l’avantage d’avoir deux prises 10 Gb/s et de se trouver à moins de 200 €. Il est ensuite relié au réseau de mon bureau (bornes Wi-Fi, domotique, Raspberry Pi, modem, etc.). Et la seconde prise 10 Gb/s, elle, part vers mon Mac principal.

Pour le moment, j’utilise mon second boîtier eGPU avec une carte Sonnet dedans. J’aimerais un modèle que je peux chaîner, mais ça reste assez cher et encombrant, que ce soit en Thunderbolt 2 ou en 3. Les appareils alimentés par le bus ne permettent malheureusement pas le chaînage.

Dans la pratique, et en attendant la fibre chez moi, ça me permet de gérer mes backups nettement plus rapidement. Comme toutes les informations que je récupère pour le blog sont archivées – ça me permet de fournir des trucs qui n’existent plus sur le Net quand un lecteur me le demande -, je gère un volume relativement conséquent de données. Sur mon Mac Pro, j’ai environ 5,5 To de backup (en RAID5, sauvegardé ensuite en local), donc envoyer les données à un peu plus de 300 Mo/s au lieu de 100 Mo/s aide bien. Et la limitation vient essentiellement du Mac Pro et de ses disques : avec un NAS moderne (et bien plus cher), je pourrais facilement doubler le débit.

Pas loin de 300 Mo/s en moyenne


Maintenant, le prix. Au total, le Mac Pro a coûté un peu moins de 700 € avec les disques (4x 3 To + 6 To en backup) et le réseau. J’ai ajouté le switch MikroTik et l’adaptateur (environ 200 €). Le reste, je l’avais déjà (SX10, boîtier Thunderbolt 3 et carte réseau) mais en pratique il y en a pour ~500 €. Ca fait 1 200 € pour aller nettement plus vite et avoir du stockage. C’est cher, mais si j’avais installé du RJ45 avec un “vrai” NAS, la facture serait nettement plus élevée. Plus le fait que j’ai construit le tout peu à peu, aussi.

Un Blu-ray « For Your Consideration »

Par Pierre Dandumont

Il y a quelques semaines, je vous parlais des DVD « For Your Consideration ». Mais ça existe aussi en Blu-ray. Pour résumer, ce sont des disques envoyés aux personnes qui votent pour les cérémonies (Oscar, etc.), et qui normalement ne doivent pas se retrouver dans la nature. Normalement.

Le Blu-ray en question est Loving, un film de 2016. Le Blu-ray porte un nom explicite (LOVING_SCREENER) et contient le minimum vital : la vidéo, une piste audio en DTS, des sous-titres en anglais. Un menu minimaliste recommande de détruire le film après le visionnage (ce que, de façon évidente, la personne n’a pas fait). la pochette liste toutes les catégories dans lesquelles le film est sélectionné.

Le disque


La pochette


La pochette intérieure


Premier avertissement


Second


Troisième

Pour le reste, c’est du 1080p, je n’ai pas remarqué de messages (je n’ai pas encore regardé le film, j’avoue) et s’il est logiquement protégé (c’est obligatoire en Blu-ray), il semble fonctionner sur toutes les zones en Blu-ray. A noter que la pochette indique que le disque peut être watermarké, mais comme le disque est visiblement pressé, le watermark (s’il est présent) ne doit pas permettre de remonter à une personne en particulier. Les rares exemples de disques que j’ai pu voir qui étaient protégés de façon individuelle étaient des disques gravés au cas par cas. Après, je peux me tromper et il est peut-être possible de faire presser des disques avec du contenu différent pour chaque disque ?

Pliant® Technologies to Present Paper On Managing the Spectrum Crunch at NAB 2019

Par D Pagan Communications

LAS VEGAS, MARCH 26, 2019 — Pliant Technologies will be presenting a paper titled Managing the Spectrum Crunch at a Broadcast Engineering and Information Technology Conference (BEIT) session during NAB 2019 on Thursday, April 11 from 9:00 to 9:20 a.m. (PST) in room N258. The paper covers the current landscape of not only the traditional ...

Frittage Sélectif par Laser, on vous explique tout !

Par Mélanie R.

Il existe plusieurs technologies d’impression 3D dans l’industrie, utilisées principalement dans différents secteurs et pour diverses applications. Parmi elles se trouve le frittage sélectif par laser, plus connu sous son acronyme anglais SLS (Selective Laser Sinteting). Comment fonctionne cette technologie […]

Pliant® Technologies Announces New Distributor in Sweden

Par D Pagan Communications

SWEDEN, MARCH 7, 2019 — Pliant Technologies is expanding its global reach with the addition of Visono Media AB as its new distributor in Sweden. Visono Media, a dealer and distributor of popular professional audio products, serves customers throughout Sweden within a range of industries including broadcasters, rental companies, theaters and sound production facilities for ...

Les DVD « For Your Consideration »

Par Pierre Dandumont

Le saviez-vous : les studios envoient régulièrement des DVD aux personnes qui votent pour les prix (Oscar, EMI, etc.) et ils se retrouvent souvent rapidement… sur eBay. Les disques de ce type portent souvent un nom : FYC, pour « For Your Consideration ».

Le sujet du jour part d’une recherche précise : à la base, je cherchais un DVD en « Region 7 ». Les régions (parfois appelées zones en français) sont au nombre de 8. Les six premières définissent des zones géographiques, la huitième aussi (l’espace, l’aviation, etc.). Et la septième n’a pas de rôle prédéfinis, mais la page Wikipedia indique qu’elle sert parfois pour les DVD envoyés aux personnes qui votent pour des prix, justement. C’est une forme extrêmement basique de protection contre le piratage, absolument sans intérêt depuis des dizaines d’années : les lecteurs PC (comme VLC) ne prennent pas véritablement en compte les zones.

Enfin, du coup, je suis tombé sur un business assez florissant et amusant : les DVD FYC. Une simple recherche sur eBay avec les mots FYC, screener ou Consideration donne des tas de réponses. Il s’agit de DVD envoyés aux gens qui votent pour les Oscar (Academy Awards), les EMI Awards et pas mal d’autres. Parfois ce sont des films, parfois des séries, et souvent avec des boîtes forcément adaptées. J’ai acheté un disque pour voir un peu le résultat, et la boîte donne les prix pour lequel le film était nommé. Vous trouverez même du Netflix ou de l’Amazon Prime, des sociétés qui ne vendent pas forcément leurs séries et films en DVD. Par contre, ce sont dans la majorité des cas des DVD et pas des Blu-ray, en partie pour éviter le piratage. Le sujet est pas mal documenté : les screeners et les DVD de ce type se retrouvent évidemment rapidement sur les réseaux.

La jaquette


Du coup, je me suis acheté Thank you for smoking, qui concourrait en 2006. La jaquette reprend un design basique : le nom du film, la liste des catégories (à l’arrière). Sur le DVD, pas de menus, juste quelques messages pour expliquer qu’il ne faut pas pirater (assez ironique, d’ailleurs), et c’est tout. Le film est protégé, mais fonctionne sur toutes les régions (1, 2, 3, 4, 5, 6). Il ne contient que la bande son en anglais (en AC3) et l’image n’est pas extraordinaire. En dehors des messages avant le film, il contient aussi un message au début du film (je n’ai rien vu après). Un des messages indique que le DVD est watermarké, mais je pense que c’est du pipeau : l’image et le son ne semblent pas modifiés et le DVD est pressé, donc il y a peu de chances que le disque doit watermarké de façon individuelle.

Un message





Un message au début du film


Zone 1 à 6

FlashPath, la disquette lecteur de cartes mémoire

Par Pierre Dandumont

Récemment, j’ai récupéré un lecteur de cartes mémoire qui prend la forme d’un lecteur de disquettes : un FlashPath. Et c’était une mauvaise idée.

Les FlashPath existent sous plusieurs formes, en fonction des cartes. On trouve des variantes pour les Smart Media, les Multimedia Card (une sorte d’ancêtre des cartes SD) et les Memory Stick de Sony. Dans tous les cas, le fonctionnement reste smilaire : on place la carte mémoire dans la fausse disquette, la disquette dans le PC et on lit les données. Attention, les lecteurs FlashPath ne permettent pas de créer des disquettes de plusieurs dizaines de Mo : ils nécessitent des pilotes et ne fonctionnent pas directement comme une disquette. Chaque OS nécessite son pilote – j’ai récupéré les versions pour Windows 3.x, Windows 9x, Windows NT 4, Windows 2000 et Mac OS 8 – et dans certains cas, le contenu de la carte est accessible uniquement en lecture, c’est notamment le cas sous Mac OS. Sans pilotes, c’est évidemment inutilisable.

La fausse disquette

Assez logiquement, il n’existe pas de versions pour les cartes Compact Flash, un peu trop épaisses pour s’insérer dans une disquette. Enfin, le FlashPath ne fonctionne que dans les lecteurs de disquettes classiques, donc dans une version 3,5 pouces compatible 1,44 Mo. N’espérez pas passer par un lecteur USB, un lecteur 2,88 Mo ou un LS120.

Avec une Smart Media

Pour les tests, j’ai une version Smart Media, vendue sous la marque Olympus et avec ses disquettes de pilotes. Premier gros point noir des cartes FlashPath, la batterie. Plus exactement, les batteries : la version Smart Media nécessite deux piles CR2016 (20 mm de diamètre, 1,6 mm d’épaisseur) et l’autonomie annoncée est de 3 heures environ. Il s’agit bien évidemment de 3 heures en fonctionnement, mais vu les débits, ça arrive assez rapidement. Deuxièmement, j’ai reçu deux lecteurs lors de mon achat, mais un des deux ne fonctionne pas.

Les piles…

Le fonctionnement reste un peu particulier, surtout sur Mac. Il faut lancer le logiciel, démarrer une importation et ensuite insérer la disquette. Avec un peu de chance, il va détecter le lecteur et lire le contenu. L’importation prend en charge les fichiers JPEG, et sur des fichiers compris entre 0,5 et 0,8 Mo, c’est interminable : 20 à 25 secondes par image (moins de 40 ko/s en pratique, donc). Pour information, c’est assez logique : les lecteurs de disquettes restent assez lents par défaut. Dans les PC – aucune idée sur les Mac – la majorité des ordinateurs utilise un contrôleur capable d’atteindre 500 Kb/s (~60 ko/s) et parfois une variante 1 Mb/s (~120 Ko/s). Contrairement aux indications du manuels, le programme prend en charge les cartes 3,3 V de 64 Mo (il indique uniquement 32 Mo) et 5 V. J’ai pu lire les photos de mon QuickTake. Le programme reste assez mal foutu : changer de carte laisse un volume monté sur le bureau et ensuite… impossible d’éteindre le Mac. Attention, le programme monopolise complètement le Mac : impossible de l’utiliser pendant le transfert (ni même de prendre des captures, d’ailleurs).

On choisit les fichiers


Et on sauve et on attend

En pratique, c’était donc une très mauvaise idée : c’est horriblement lent, pas très pratique, ça nécessite des batteries assez onéreuses et l’autonomie est ridicule. De plus, si l’idée de base semble bonne (après tout, tout le monde avait un lecteur de disquettes à l’époque), l’obligation de passer par un programme propriétaire casse l’intérêt. Les appareils qui enregistraient directement sur une disquette avaient bien plus d’avantages – c’était assez standard – et dans les autres cas, se promener avec le câble de connexion (souvent série) et les pilotes permettait la même chose que de se promener avec l’adaptateur pour disquettes et les pilotes.

USB-C vers jack : le cas des adaptateurs passifs

Par Pierre Dandumont

Quand j’ai parlé de l’adaptateur USB-C vers jack d’Apple, j’ai omis un point : le fonctionnement. Parce qu’à ce moment là, je pensais que tout le monde utilisait la même technique. Mais en fait… pas du tout.

L’adaptateur Apple (10 €, c’est important pour la suite) et l’adaptateur Google (12 €) sont similaires et peuvent êtres considérés comme des cartes son USB miniatures. La communication s’effectue en USB, il y a un DAC dans l’adaptateur et tous les périphériques dotés d’une prise USB-C devraient pouvoir les utiliser, pour peu qu’ils reconnaissent l’USB Audio. C’est au moins le cas des ordinateurs et des smartphones. Chez moi, l’adaptateur Apple fonctionne sur un Nokia 6.1 sous Android par exemple.

Apple vs. Huawei (un des deux contient un DAC)

La seconde solution, déployée dans pas mal de smartphones Android, passe par la norme Audio Adapter Accessory Mode. Pour faire simple, on fait passer l’audio analogique dans la prise USB-C, comme on fait passer de la vidéo, du Thunderbolt, etc. D’un point de vue pratique, ça évite de mettre un DAC dans le câble (on dépend du coup du DAC du smartphone) et – au moins en théorie – ça permet de diminuer le prix. Par contre, forcément, la compatibilité est limitée : ça ne fonctionne pas sur un appareil qui ne prend pas explicitement la norme en charge. J’ai acheté un adaptateur Huawei, il ne fonctionne pas sur mon Mac ou sur mon smartphone Nokia.

Qui utilise quoi ?

Alors, en smartphones, Apple utilise de l’actif (sur les iPad Pro) tout comme Google (avec ses Pixels), Essential, ou HTC. Motorola (avec les Moto Z), Huawei (Mate 10 Pro, P20), Xiaomi (6 Mix 2, Mi 8) ou LeEco utilisent plutôt le mode passif. Comme expliqué plus haut, les appareils en actif n’acceptent que les adaptateurs actifs, les appareils en passifs acceptent les deux. Pour les appareils en USB-C mais dotés d’une prise jack, on peut supposer qu’ils ne supportent que le mode actif. Et pour le futur, le mode passif semble devenir la norme.

La question du prix

A l’origine, le principal avantage de la version passive était le prix. En pratique, ce n’est pas réellement le cas. Un adaptateur actif avec un DAC se vend pour ~10 €, que ce soit des trucs noname chinois (genre ça) ou du Apple ou du Google. On peut descendre à la moitié si on achète directement en Chine. Et les adaptateurs passifs, eux, se vendent 7 € (pour de la marque) et encore un peu moins pour des trucs noname. Genre 10 € les deux ou même 9 € les quatre. En Chine, si vous êtes patients, ça descend même sous les 1 $. En pratique, si vous voulez un truc qui ne va pas casser en quelques jours, je vous conseille d’éviter les trucs vraiment trop cheap. Parce que quelqu’un qui vous vend quatre fois le même produit pour un prix ridicule, ce n’est pas très rassurant. Le Huawei que j’ai semble aussi solide que l’Apple, pour une différence de prix assez faible.

Il reste intéressant de constater que l’avantage du prix, en pratique, n’en est pas réellement un : la différence entre un adaptateur actif d’une grande marque et un passif d’une autre marque connue est plutôt faible, et même les trucs noname ne sont pas outrageusement moins chers.

Si votre ligne VoIP OVH ne reçoit pas les appels entrants

Par Pierre Dandumont

Depuis quelques années maintenant, j’utilise une ligne VoIP de chez OVH avec un vieux boîtier Linksys PAP2. Et depuis quelques mois, j’avais un problème bizarre : les appels entrants bloquaient dans certains cas. Dès que je décrochais, la communication tombait. Bizarrement, dans l’autre sens, pas de soucis.

Après pas mal de recherches, je suis tombé sur une page chez OVH qui parlait d’Orange. J’ai fait le lien : ça plantait uniquement avec les gens chez Orange. Et après quelques autres recherches infructueuses, j’ai finalement trouvé la solution : forcer le codec dans le boîtier sur G711a. Je n’ai aucune idée de la raison, mais mon boîtier était réglé sur le G729 et ça ne marchait pas. le simple fait de forcer le G711a (pas le u) a réglé le souci. La page de travaux d’OVH mentionne d’ailleurs des problèmes d’interconnexion avec les différents codecs.

Sur mon boîtier, c’est dans les réglages de ligne, il faut indiquer un codec précis et le forcer (Use Pref Codec Only : yes).

Forcer le G711a

A noter que le G711a demande un peu plus de bande passante (bon, 64 kb/s contre 8 kb/s) mais a l’avantage d’offrir dans certains cas une meilleure qualité. Et si vous avez deux lignes sur le boîtier, le G711 est obligatoire : la licence de base du G729 ne permet pas de l’utiliser en double, a priori. Enfin, je vais en profiter pour (re)tester des trucs qui ne fonctionnaient pas à cause de ça.

La quête assez vaine du pixel perfect

Par Pierre Dandumont

Depuis quelques années, je vois des gens acheter des Mac ou des consoles pour jouer en pixel perfect. Mais avec les solutions actuelles, c’est une quête assez vaine, sans même prendre en compte que le pixel perfect n’est pas nécessairement le rendu correct.

D’abord, le pixel perfect, c’est quoi ? Dans l’absolu, il s’agit d’un choix qui permet de faire coïncider un pixel logique (calculé dans la mémoire de l’appareil) avec un pixel physique (affiché). Pour beaucoup de gens, il s’agit du rendu correct, attendu, mais en réalité, pendant longtemps, ce n’était absolument pas le cas. En fait, avant l’arrivé des écrans LCD avec une grille de pixels fixes, le concept n’existait pas réellement.

Je vais commencer par les consoles et les anciens ordinateurs, qui sortaient un signal analogique sur des écrans cathodiques. A l’époque, le rendu en interne pouvait travailler dans des définitions atypiques, qui semblent bizarres actuellement. Un prompt DOS, par exemple, affiche du 720 x 400. Mais le rendu en pratique s’effectuait sur un écran cathodique analogique, sans grille de pixels au sens actuel du terme. Un écran avec un ratio de 4:3… et des pixels rectangulaires. C’est d’ailleurs le cas de pas mal de modes graphiques de l’époque, comme avec le classique 320 x 200. Le ratio de l’image avec des pixels carrés est en 16:10, mais l’image s’affiche avec des pixels rectangulaires, sans bandes noires sur un écran 4:3. Sur les Mac, les écrans utilisaient généralement des pixels carrés, avec dans certains cas des contraintes bizarres.

A gauche le pixel perfect, à droite la réalité


A gauche le pixel perfect, à droite la réalité (Doom, PC)

Les consoles suivent la même logique. L’image est calculé dans une définition précise, mais les pixels affichés seront rectangulaires. C’est assez flagrant avec les consoles qui disposent de plusieurs modes graphiques : qu’un jeu Megadrive soit calculé en 320 x 224 ou en 256 x 224 (deux modes courants), l’image affichée est en 4:3 à l’écran, avec des pixels rectangulaires. Toutes les consoles de la génération analogique (en gros avant la Xbox 360 et la PlayStation 3) peuvent poser des problèmes de ce type. Sur les plus récentes, la technique existe, mais vous ne le verrez pas parce qu’elles upscalent dans la majorité des cas dans la définition attendue (720p, 1080p, 2160p, etc.). En interne, elles peuvent utiliser des pixels rectangulaires ou des définitions plus faibles, mais elles sortent une image dans le bon format dans la majorité des cas.

A gauche le pixel perfect, à droite la réalité (Sonic, Genesis)


A gauche le pixel perfect, à droite la réalité (FlashBack, Genesis)

La question à 1 000 €, comment doit-on afficher sur un écran LCD ? En faisant correspondre un pixel calculé et un pixel affiché (pixel perfect) ou en utilisant le bon ratio (généralement le 4:3) ? Ce n’est pas innocent : dans le premier cas, l’image sera très nette sur un écran LCD, pas nécessairement dans le second, en fonction des méthodes utilisées (je vais y revenir). Les émulateurs et les consoles rétro modernes proposent généralement le choix, mais pour moi, le 4:3 avec des pixels rectangulaires semble plus logique. Dans pas mal de titres (même si ce n’est pas systématique), ça se voit rapidement sur les trucs qui doivent êtres circulaires : ils ne le sont pas nécessairement en pixel perfect parce que les développeurs prenaient en compte le souci. Cette vidéo montre bien qu’il faut prendre en compte ce point.

DVD, Blu-ray and co.

Le problème se pose aussi avec la vidéo, même si le seul média qui permet de montrer est le DVD. Les LaserDisc, VHS et autres médias des années 80 utilisaient de l’analogique, donc sans réelle notion de pixel. Le signal disposait d’un nombre de lignes qui permettait de calculer la définition mais il n’y a pas de pixels, juste des lignes. Les Blu-ray et les autres formats modernes utilisent généralement du pixel perfect, avec des pixels carrés, même si dans certains cas l’upscale s’impose vu qu’il existe des Blu-ray en 720p et même en 480i. Mais chaque pixel de la vidéo correspond à un pixel de nos écrans plats. Par contre, avec le DVD, les pixels de la vidéo ne correspondent pas à un pixel d’un écran. Un DVD en NTSC contient souvent une image en 720 x 480, ce qui n’est ni un ratio 4:3 ni un ratio 16:9. Dans tous les cas, les DVD affichent des pixels rectangulaires. Par nature, un DVD n’est pas pixel perfect. Sur les Blu-ray Ultra HD, on revient d’ailleurs à un rendu plus hybride, dans le sens ou l’image enregistrée sur le disque est bien en Ultra HD, mais pas nécessairement la source. Sur la TNT, la majorité des chaîne diffuse avec des pixels carrés (en 1 920 x 1 080, donc) sauf France 4, qui est en 1 440 x 1 080. En clair, on a une image 4:3 élargie. Mais pendant très longtemps, le 1 440 x 1 080 était la norme en TNT HD, le changement reste assez récent. Dans le monde de la vidéo, ce changement porte un nom : anamorphique. Parfois, il s’agit d’une astuce technique à la captation, avec des objectifs qui déforment. Dans d’autres cas, avec certains DVD, ça permet de caser plus de vidéos sur le même disque.

Un DVD classique (720 x 576 à gauche, en 4:3 à droite)


Un DVD un peu particulier, qui stockait une image basse définition (352 x 576)


France 4 diffuse toujours en anamorphique (1 440 x 1 080)

Les écrans LCD

J’en arrive aux Mac et aux écrans Retina. Mais avant, parlons de l’affichage sur les écrans LCD. Un écran LCD a par nature une dalle avec une grille de pixels. Pour obtenir une image de bonne qualité, la solution la plus simple consiste donc à faire correspondre un pixel calculé avec un pixel physique, soit la définition native. Si vous tentez d’afficher autre chose, souvent une définition plus faible, le rendu variera de flou à affreux en passant par très mauvais et passable. Il existe deux méthodes pour le faire dans les PC, le scaler de l’écran et le scaler du GPU. Dans le premier cas, l’ordinateur envoie une image dans la définition qu’il attend. Par exemple, au début des années 2000, du 800 x 600. L’écran, qui a une dalle en 1 024 x 768, reçoit du 800 x 600 et agrandit l’image en 1 024 x 768, plus ou moins bien. Plutôt mal que bien à l’époque. La seconde solution consiste à calculer l’image en 800 x 600 et l’agrandir avec la carte graphique pour l’envoyer en 1 024 x 768. Cette solution donne généralement un meilleur résultat parce que le GPU est plus efficace que le scaler d’un écran. Dans certains cas, certains passent par des scaler externes (et efficaces), mais c’est plutôt dans des cas particuliers, sur des appareils incapables de faire la mise à l’échelle. De plus, au début des années 2000, la liaison entre la carte graphique et le moniteur se faisait encore souvent en analogique, avec une double conversion : de numérique à analogique dans le GPU – avec une qualité parfois discutable, comme sur les premières GeForce – et d’analogique à numérique dans l’écran. L’arrivée des premiers écrans LCD avec une interface numérique (DVI, mais aussi OpenLDI ou DFP) améliorait directement la qualité de l’image.

Dans les Mac, c’est la seconde méthode qui est utilisée, pour une raison qui va sembler évidente : les écrans Apple n’intègrent pratiquement jamais de scaler. En dehors de quelques vieux (vieux) modèles, ils attendent uniquement la définition native. Apple a toujours proposé quelques options dans les réglages, comme la possibilité de rester en pixel perfect sur un écran avec une définition plus élevée, en mettant des barres noires. Dans l’exemple précédent, ça donne une image en 800 x 600 entourée de noir sur une dalle en 1 024 x 768 avec évidemment pas mal de pertes sur l’espace affiché.

En définition native (1 600 x 1 024)


Du 1 024 x 768 en pixel perfect sur la même dalle (montage)


Du 1 024 x 768 sur la même dalle sans pixel perfect

Pixel perfect ou pas, il faut bien se rendre compte que sauf à prendre du matériel d’entrée de gamme ou trop vieux, le redimensionnement sur du matériel moderne amène un peu de flou, mais reste assez éloigné (heureusement) des horreurs des vieux LCD. A l’époque, un scaler peu évolué couplé à des dalles peu performances et avec une résolution faible donnaient des résultats ignobles. Mais afficher du 1080p sur un écran en 1440p en 2019 donne un résultat au pire passable, loin d’être horrible.

Le cas du Retina

Pour les premières générations de Retina, Apple travaille en pixel perfect. Un Mac avec une dalle en 2 880 x 1 800 affiche par défaut du pseudo 1 440 x 900 par exemple. Chaque pixel logique s’affiche sur quatre pixels physiques. C’est forcément très propre, mais ça amène un défaut : l’espace de travail bouge peu. Beaucoup de gens restent bloqués sur cette époque (2012/2015 chez Apple) et veulent travailler dans ce mode. Ce n’est plus vraiment nécessaire dans la pratique.

Depuis quelques années maintenant, Apple a d’ailleurs abandonné ce choix. Les MacBook Pro, par défaut, ne sont pas en pixel perfect. Un MacBook Pro avec une dalle en 2 880 x 1 800 affichera du pseudo 1 680 x 1 050, avec un rendu tout aussi propre. Certains modèles, comme le MacBook ou les iPhone Plus, ne proposent même pas de mode pixel perfect. Sous Windows, c’est la même chose : par défaut, le rendu est agrandi mais pas en 200 % (pixel perfect) mais plutôt en 125 ou 150 %.

Sur un MacBook Pro 2017, le choix par défaut n’est pas pixel perfect

En pratique, les dalles actuelles permettent une résolution assez élevée qui – premièrement – va permettre de cacher les éventuels défauts liés au redimensionnement. Deuxièmement, le fonctionnement même du Retina sous macOS fait que la différence (qui existe) est ténue. Une personne déterminée à prouver que c’est mieux en pixel perfect (à raison dans l’absolu) pourra le faire en prenant des photos en macro ou en zoomant. Mais en pratique, c’est indiscernable sur les définitions proposées par défaut.

Sur un écran Ultra HD Dell, le choix par défaut n’est pas le pixel perfect

Pour rappel, macOS effectue pas mal de calculs quand vous choisissez une pseudo-définition. Si vous sélectionnez du 2 560 x 1440 sur un écran Ultra HD par exemple, l’OS va prendre la pseudo-définition, la passez en 200 % en pixel perfect (ce qui donne du 5 120 x 2 880) avant de réduire le tout en 3 840 x 2 160. Le point intéressant, c’est que les algorithmes de réduction marchent mieux que ceux d’agrandissement (c’est plus simple de supprimer des pixels que d’en ajouter) avec même parfois une impression de meilleure qualité (un cas assez typique sur les vidéos). Si vous choisissez une pseudo-définition pixel perfect (l’ancien choix par défaut), vous zappez simplement la réduction. Et si vous prenez une définition plus faible, la réduction devient un agrandissement.

Forcément, mettre une définition plus élevée a un impact sur les performances : si vous mettez du pseudo 1440p au lieu d’un pseudo 1080p, le Mac doit calculer plus de choses. En 2019, le redimensionnement a peu d’impact visible en Retina pour deux raisons. La première, c’est qu’avec les premiers écrans LCD, les utilisateurs mettaient une définition plus basse que la native, alors que sur les écrans Retina, la norme semble être de mettre une définition plus élevée. Ensuite, la résolution des écrans Retina et l’amélioration des algorithmes (liée à l’amélioration des performances) rend de toute façon le redimensionnement moins sujets aux défauts.

Si vous achetez un écran Ultra HD, surtout s’il a une diagonale élevée (28″, 32″, etc.), vous pouvez donc sortir sans soucis du carcan du pixel perfect. Afficher du pseudo 1440p en Retina donnera un résultat d’excellente qualité avec un espace de travail appréciable et sans défauts visibles, même pour les puristes. Avec l’augmentation de la résolution et de la définition, le pixel perfect reste juste un accident de parcours, une contrainte technique qui devrait disparaître d’ici quelques années. Et on pourra enfin afficher la définition que l’on souhaite sans se prendre la tête sur la qualité et les éventuels défauts.

Pour terminer, un mot sur le rendu des polices. Pendant de longues années, de l’avènement des LCD jusqu’à récemment, les OS filtraient le rendu des polices pour améliorer le rendu, en partie pour une raison qui semble idiote : la précision des écrans LCD. Sur un écran cathodique, le flou inhérent à la technologie et à l’absence de grille fixe permettait d’obtenir des polices lissées par défaut. Avec les premiers LCD, beaucoup plus nets que les écrans cathodiques, certains n’appréciaient pas le rendu des polices. Les développeurs d’OS ont donc utilisé des filtrages spécifiques (ClearType, anti-aliasing, etc.) pour adoucir le rendu. Mais avec la démocratisation des écrans (très) haute définition, les filtres de ce type n’ont plus de raison d’être, tout du moins pas avec les techniques utilisées (sous-pixels). De fait, avec Mojave, Apple a changé de type de filtre pour passer sur quelque chose de plus adapté aux écrans Retina. Et est-ce vraiment pixel perfect ?

Sans // Avec

Maintenant, quel est votre avis sur le sujet ? Personnellement, j’ai longtemps configuré mes écrans Retina en pixel perfect mais ce n’est plus le cas : je ne remarque pas réellement la différence sur les OS modernes et le gain en espace de travail est appréciable. Par contre, je reste évidemment en définition native sur les vieux écrans LCD.

UltraViolet va fermer

Par Pierre Dandumont

Vous vous souvenez d’UltraViolet ? Ce service affreux qui permet en théorie d’accéder à une version dématérialisée d’un film ? Et bien le service va fermer le 31 juillet 2019.

Bon, plus exactement, le mail indique que le service envisage de fermer. Et que « dans la majorité des cas, vos films et séries TV resteront accessibles auprès des distributeurs qui ont été liés auparavant. ». C’est rassurant.

Du coup, je suis allé vérifier sur le site. J’ai douze films dans ma liste (dont un en double, aucune idée de la raison). J’ai deux distributeurs (Sony et Flixster). Chez Sony, j’ai quatre films enregistrés et – incroyable – le service est finalement pas mal. Je peux lire les films dans Safari, sans Flash, sans Silverlight, avec des sous-titres et plusieurs langues. Pour Flixster… c’est plus compliqué. Le site d’UltraViolet renvoie vers la mauvaise adresse. Il renvoie vers www.flixster.com mais l’adresse est www.flixstervideo.com. Chez Flixster, il faut installer Flash Player pour lire les vidéos (clairement en sursis sur un Mac avec Safari) ou passer par une application pour macOS. Après… aucune idée. J’ai essayé de télécharger des films et le programme m’a juste indiqué « En attente ». Très clairement, donc, je ne peux pas lire les copies enregistrées sur Flixster.

L’app’ Flixster

Au passage, j’avais aussi un compte FimoTV, mais le service a fermé il y a quelques mois. Enfin, pas mal de films Fox proposent soit UltraViolet, soit une copie Google Play. Et dans ce cas là, évidemment, ça fonctionne parfaitement dans Safari et dans la majorité des appareils capables de se connecter à YouTube.

Comme prévu, donc, c’est peut-être finalement une bonne idée qu’UltraViolet décide de mourir. Surtout que dans les faits, j’ai évidemment les Blu-ray des films en question et pas mal d’entre-eux sont disponibles sur Netflix…

Quand Free bidouille de l’USB-C propriétaire pour les FreePlugs de la Freebox Delta

Par Pierre Dandumont

Quand Free a annoncé sa Freebox Delta avec des boîtiers CPL capables d’alimenter la Freebox en USB-C (lez FreePlugs), ma première intuition – fausse, nous allons le voir – a été que la société allait utiliser des standards. L’USB-C permet de fournir 100 W et intégrer un adaptateur USB vers Ethernet dans le boîtier pour le CPL semble une idée intéressante.

Depuis, j’ai eu un boîtier entre les mains. Premier point, connecté à un Mac… ça ne fonctionne tout simplement pas. Le Mac voit un chargeur 15 W mais il se connecte et se déconnecte en permanence. Deuxième point, le Mac ne voit pas d’interface USB sur le bus (et donc ne voit pas le CPL).

Un boîtier


De l’USB-C


Le Mac voit un chargeur 15 W (et déconnecte)

Free n’utilise pas le standard, et un truc le montre rapidement : sous le boîtier, il est indiqué que l’alimentation fournit 20 V et 6,5 A (130 W), soit significativement plus que ce que la norme USB-PD (Power Delivery) permet. Un appareil à la norme ne peut fournir que 5 A sous 20 V (100 W) et les chargeurs de cette puissance restent assez rares.

20 V, 6,5 A

Ensuite, intrigué, j’ai ouvert le boîtier. On trouve une alimentation à découpage assez classique, avec à côté une carte fille qui gère le CPL. Il y a une puce Qualcomm (QCA7500, qui fournit la compatibilité HomePlug AV2), un transceiver Atheros (AR8035) et un Pulse HC5005NL, un Ethernet Magnetic Transceiver. Mais pas de trace d’un contrôleur USB, ce qui semble logique vu que mon ordinateur ne détecte rien.

Les puces de la carte fille

De ce que je comprends actuellement (je vais investiguer pour le prochain Canard PC Hardware), Free utilise une version propriétaire de l’USB-PD pour gérer plus de puissance, ce qui empêche une compatibilité correcte avec les appareils USB-PD. A noter que le boîtier CPL alimente tout de même parfaitement un appareil qui ne tire que du 5 V (dans mon cas un smartphone Nokia). Et pour l’Ethernet, la liaison semble utiliser les broches de l’USB-C pour faire passer directement le signal dans le câble USB-C. En tout cas, il y a 10 fils qui partent de la carte fille avec quatre pairs qui utilisent les couleurs classiques utilisées en Ethernet. Je ne sais pas comment c’est géré en face (dans la Freebox) mais je suppose que c’est relié directement au switch du boîtier.

La sortie de la carte fille vers l’USB-C


Les couleurs classiques en Ethernet correspondent

Dans la pratique, ce genre d’interface semi-propriétaire n’est pas très intéressante et Free aurait pu essayer de faire quelque chose de standard. Un bloc d’alimentation USB-C avec un adaptateur CPL rapide intégré me semble plutôt une bonne idée pour un ultraportable, mais ce n’est malheureusement pas le cas ici. Puis surtout, quel est l’intérêt de mettre de l’USB-C pour le branchement si le boitier n’utilise pas réellement l’USB-C ?

The SDK “Power Mac G5” for the Xbox 360

Par Pan

Many years ago (in 2015), I told you about my Xbox 360 development kit, based on a Power Mac G5. And I finally managed to make it work.

Let’s summarize the story. We are in 2003 and Microsoft plans to release its Xbox 360 console in 2005. It is based on a new PowerPC processor (the Xenon, derived from the Cell but that’s another story) and an AMD graphics card. And initially, to provide test machines to the developers, Microsoft has an issue: the processor does not exist yet. The solution, quite pragmatic, to solve the problem while waiting for the first prototypes of consoles consists in using the most common mainstream PowerPC platform: a Macintosh.

My kit


My kit

Then, Microsoft buys many Power Mac G5 and installs a dedicated operating system on it for the devs. Before the arrival of the real console, the brand provides two variants to the developers: the Alpha 1 and the Alpha 2 kits. As we will see, they differ essentially by the graphics card used. The development kits are used during a few years, at least until the E3 2005: the demonstrations of the Xbox 360 at the time are on Mac. Then, Microsoft downgraded the machines, which were eventually sold to employees for $ 300, with obviously a completely erased hard drive. From time to time, those machines reappear on eBay or at private homes – I have one – but obviously without the Microsoft OS (and with Mac OS X).

The material part

Microsoft has used two versions of the Power Mac G5: the original 2003 one in its “dual 2 GHz” version, or the June 2004 variant, still with two G5 at 2 GHz (but in 970fx version, in 90 nm). Other variants do not work with the Microsoft OS. The kits had 512MB of RAM, a 160GB hard drive (Seagate ST3160023AS) and an ATi graphics card. The first kit (Alpha 1) had an ATi Radeon 9800 Pro 128 MB (R3xx), the second a Radeon X800 XT 256 MB (R420). The other GPUs did not work, and my kit, which came with a Radeon 9600 Pro, had therefore been modified. Finally, the kits include an Intel Pro100+ network card in PCI, because the Microsoft OS does not support the internal card of Power Mac G5s. The Alpha 1 kits disappear quite quickly, turning obsolete in February 2005 when the OS does not support GPU anymore. You may find more information on Alpha kits at this address.

The network card is not used for DRM

For a long time, the available information indicated that the Microsoft OS was checking the Mac on its serial number or that the network card was used as a pseudo-DRM, but actually… Nope. With the right OS and the right components, it is possible to install the operating system on a standard Power Mac G5.

We can install the OS

The interesting part is that in late 2018, a group broadcasted on the Net a copy (a disk image) of a Xenon system (the name of the OS). This is the 1529 version, which only supports Radeon X800 XT. With the right equipment, it becomes possible to launch the OS on a development kit of the time (like mine) but also on what they called a FrankenXenon. There are not really any differences between the two, apart from some “Property of Microsoft” stickers, even though it’s obviously classier with it.

The necessary equipment is quite accurate.

• A Power Mac G5 with two 2 GHz CPUs (only this frequency). You need a 2003 or 2004 version, but not a 2005 model, nor a PCI-Express model (with a dual core processor). If your Mac has four slots for RAM (not eight), it’s not good.
• At least 512 MB of RAM. Normally, it is not a problem.
• A hard disk of 160 GB, a priori necessarily a Seagate ST3160023AS. This is the original model. I tried with an SSD without success, and my Mac no longer had the original hard drive. It is easily found on eBay for a few euros with the right reference. It may work with others, but I did not succeed.
• An IDE optical drive, mandatory. This should not be a problem: Power Macs have one.
• An Intel network card if you want to connect the machine. It requires an Intel Pro100+ PCI, reference 741462-010 (the one provided by Microsoft) or 741462-010. It’s easy to find it on eBay.
• An Xbox controller (original) with a USB adapter or a wired Xbox 360 controller. Careful, not a “Play & Charge” version.
• An ATi Radeon X800 XT 256 MB with two DVI outputs (that’s important) and a Mac BIOS. This is the complicated part, let’s detail it.

The right hard drive


A compatible graphics card

You will also need time, a screen with DVI and a SATA to USB adapter or a machine on which you can connect a hard drive internally.

The case of the graphics card

This is the really bothering part. The ideal solution is a Radeon X800 XT for Mac: it has a DVI output and an ADC output and is powered through the AGP port through an Apple non standard connector. The problem is that it is overpriced (at least $ 150 to $ 200). Otherwise, you can flash a PC card. I explained the method in this post (in french) and it works perfectly. But be careful: do not use the same card as in my old example: the card must have two DVI outputs and not a DVI output plus a VGA output. And of course, you need an AGP version, not a PCI-Express.

For the alternative solution you will need an ATi FireGL X3. This is the professional version of the card, and it is possible to flash it with a Radeon X800 XT BIOS for Mac. The BIOS can be found on this site and the cards are at a fair price on eBay (well, less than 30 €), but with a default: the memory. There are cards with Samsung memory and others with Infineon memory. The Infineon does not seem to work at its standard frequency or has a bug with the Mac BIOS. If you have a card with Infineon memory and that artifacts appear at startup (this was my case), you should also flash the frequency down. I will not detail it here (unless someone really wants to try) but the method goes through the same softwares as the ones used to flash BIOS. Basically, you just have to get the frequency lower until you get a clean image. Or find a card with Samsung memory.

The molex plug


Integration of the power supply


The nasty memory Infineon


Once the memory is slowed down

Then, the integration of a PC card or a FireGL requires to recover the power. The cards for Mac are powered by the connector originally intended for the ADC, the PC cards go through a Molex plug. This requires a double Molex socket, which will allow to recover the power on the optical drive. Normally, the cables are long enough to put the adapter at the back of the optical drive. Be careful, the optical drive still needs power to make the Microsoft OS work.

Last step before installation, you need a DVI screen. In my case, the kit did not start properly with a VGA screen, even with a DVI to VGA adapter.

The OS

The download file is quite compact, less than 300 MB, but it contains a compressed disk image. Beware: it requires 160 GB of disk space and the decompression can take some time. In theory, it can be restored on any hard drive over 160 GB, but in practice I have managed to run it only on a Seagate ST3160023AS (7200.7) from Apple. It may work on a version that does not come from Apple, I did not test. On the other hand, on two different SSDs and on a 2.5-inch hard disk, it does not.

The restore goes through the dd command under macOS (there are equivalents under Linux and Windows). It is necessary to determine the logical name of the disk with the command diskutil list (for example /dev/disk8), then unmount the potential partition on the disk (sudo diskutil unmount /dev/disk8s1) and then restore the image.

Beware, the command will erase all the disk, and if you don’t pick the right disk, you will erase all your data. Be careful. The value after the if= is the path to the disk image (you can drag the file into the Terminal), the value after of= is the disk name and bs=1m indicates the size of the blocks. I had some problems fixing bs at 8 MB, but I do not know if it’s normal or not. I ran my last test without indicating it but it was extremely slow (not far from 20 hours). It may work with this value. If you try with an SSD, you can specify a higher value, which will speed up transfers.

sudo dd if=/Users/you/Downloads/imagedisque.img of=/dev/disk8 bs=1m

Once the image is restored, macOS will display a XeBoot partition of a few MB and that’s it. But that’s it: Apple’s OS does not support the Xbox’s FATX file system and so does not spot it.

The first boot

Now, let’s test. If you have the right components, it should work. The hard drive must be plugged into the SATA “A” slot (the top one), and I advise you to perform a complete reset of the Mac. Either with the classic command (command + option + P + R at startup) or by entering the Open Firmware (command + option + O + F at startup) with the following commands:

reset-nvram
reset-all
set-defaults

Then … it should start under Xenon OS. If that does not work, this forum topic can help you. If the machine crashes with a lot of noise, you may have not put back the transparent cover correctly. If you have a grey image then nothing, try changing the screen and plugs. And also check that the controller reacts: with a Xbox 360 model, the central LED should be activated and passing on the player 1 (top left). If not, come ask here.

The OS

The Xenon Launcher

The basic interface just shows the installed executables, with some options. It is controlled by the controller, either with an Xbox 360 controller or with an original Xbox controller (and a USB adapter). Settings are reduced to a minimum: definition (480p, 720p, 1080i), output type, network settings, etc. The disk image contains a few programs, like the Dolphin demo. It exists for Xbox 360 (.exe) and Xbox emulation (.xeb). There are also some other demos.

The options


The options


The Dolphin demo for Xbox 360 (.exe)


Dolphin


A test scene


The Xbox 360 dashboard


The Dashboard


The Dashboard


Quit and return to Launcher

In addition to that, there is an Xbox 360 Dashboard (quite old) with some options but mostly a lot of unusable functions. In theory, it is also possible to use beta versions of Xbox 360 games, but the few titles I found did not work. Let’s say that a beta of a title developed at the time on an Alpha kit should pass. At the end of the post, there is a video showing some screenshots of the interface.

The Xbox emulator

The SDK includes an Xbox emulator (the first one). In theory, it allows to launch images of Xbox games (the famous xbe), in practice it is extremely random. The emulation of the first Xbox has always been quite problematic, even though many thought it would be emulated easily because of its family air with a PC. In practice, it’s explained there, it’s complicated. Very complicated. The two emulators that work pretty well are those of Microsoft, Fusion (for Xbox 360) and Fission (for Xbox One). Both are actually used for backward compatibility of consoles, and in some cases require downloading data. Quite logically, the Xbox 360 development kit contains a preliminary (and partially functional) version of the emulator that would be used for backward compatibility.

A history of ROMs

Talking about emulation and (especially) games is always a little complicated. From what I could find, making a disk image of an Xbox game is something complicated, which requires a precise optical drive with a modified firmware (some models exist). Basically, I bought original games (at very fair prices) to try … but without the necessary equipment, it is useless. In practice, it is therefore necessary to download an ISO or a folder containing XBE files (the executables of the console) and it is inevitably illegal. If for some reason you get an ISO file, the QWIX program can extract the necessary files. It is also possible to extract the games from a modified Xbox … but I do not have any (and too lazy to use the debug version I have at work).

The launcher

Now, the part that can be quickly annoying: the world of ROMs for Xbox is a little complicated. First, there are several “versions” of games. Under the name Halo 2, I came across four different versions, including a demo and a beta. Then, a lot of downloadable games are patched to work on a modified Xbox console … which breaks the compatibility with the development kit. It is therefore to be hoped that the ISO will not be patched or that the person who made the change has thought of leaving the original executable (this is obviously often the case). Finally, the game must work and it is perhaps the most complicated thing I tested. If the original unpatched file is present, it must be renamed correctly (it is a priori named default.xbe_orig, just rename it default.xbe).

It will not work


Space Harrier


Dead Or Alive

The implementation first requires an Intel network card, and a little time. In fact, the Intel card is a 100 Mb/s model so the data goes to the development kit to a maximum of about 12 MB/s. Then you have to find an Xbox 360 SDK (the software, I’ll let you look for it) and install it on a Windows machine running on the same network as the development kit. Then launch the Xbox 360 Neighborhood, add the kit using its IP address (shown on the home screen) and simply copy the data into the Game Development Volume folder (DEVKIT:).

Halo


Halo 2


Halo 2


The Simpsons

After a few tests, and with the help of this page, I found some software that works. It goes from Halo (the first) to Halo 2 through a Simpsons game. So, I made a short video with some examples. The screenshot is a bit capricious: it’s 480p with the sound recorded from the analog audio output of the Power Mac, with an average quality (the sound cannot be played in digital with my acquisition card). The video shows Halo, a game about the Simpsons, an Xbox Arcade game (I tested an ISO with about thirty titles) and Halo 2. This one is not particularly fluid. It’s a bit arduous because I played without sound and (mostly) because I had never played Halo in my life.

Videos and images

I tried to capture some pictures, but it’s not easy. The kit starts all over again when it is connected to the acquisition card, and the only solution is to start with a screen and then change the plug. In addition, the change of definition (from 720p on the interface to 480p on some games) are issues, so there is a little work to do. Xbox applications apparently do not allow to come back to the interface, so you have to restart periodically. Finally, you will see artifacts in one of the scenes because I have obviously put a bit too high frequencies for my GPU. For the sound, the video card does not manage digital sound on the DVI, so I captured analog from the line output of the Mac.

Conclusion

Let’s be clear: it obviously useless in 2019. There are more advanced development kits and this solution is obsolete. From a historical point of view, it is rather interesting to see the choices of Microsoft, quite pragmatic, when developing the console. And frankly, having a Mac “Property of Microsoft” in a collection is still pretty fun.

Playing a CD+MIDI, the CD that contains hidden MIDI

Par Pan

Talking of weird CDs, the CD+MIDI is a special case: it’s rare, obscure, and complicated to read. And it’s been a while since I’ve been trying to find one, so it’s been a little hard to read. Demonstration.

Vous pouvez le lire en français.

When I did some research on the CD+G a while ago, I came across the CD+MIDI, a standard that even had its own logo. But it was impossible to find a compatible CD (or player). Regularly, I did some research, without much success. One day, just hanging on the CD+G Museum Channel, I came across an example of CD+G with MIDI, featuring explanations on how to read it. I learned that the Commodore CDTV (an Amiga equipped with a CD-ROM drive to place under the TV) could read CD+MIDI. Some searches later, I came across a page indicating that a Mozart CD contained MIDI. CD that I got.

The logo

Mozart’s CD

First step, the CD. In a three CDs box, you can find a disk containing one thing I would try to talk in another post (in french) : a HyperCard program (for Mac) able to control a LaserDisc player with a video version of the opera concerned (The Magic Flute). The CDs contain three things: a data track with a HyperCard program (again) for Mac to be used with the music at the same time, tracks with CD+G (images) and tracks with CD+MIDI, that is to say a MIDI partition (yes, it’s amazing).

CD-ROm, CD+G, CD+MIDI


Some information on MIDI

The CDs subchannels

An Audio CD contains music but also what we call subchannels. They are basically used for managing tracks but can also contain data such as images (CD+G), text (CD-Text) or, like here, MIDI. The amount of data remains quite low: each sector of a CD (there are 75 per second) contains 2 352 bytes of audio and 96 bytes of various data. In these 96 bytes, 64 bytes are used for subchannels, and in the 64 bytes in question, 16 are used for signaling. Remain 48 bytes of usable data per sector. These are called subchannels R to W (8 bytes each). On a second of music, we can recover 75 x 48 bytes, or 3.6 kB/s. Not much, then.

The Commodore CDTV emulation

First step, the Commodore CDTV emulation. Well, nothing complicated: WinUAE does it easy peasy. It was easier than finding a real Commodore CDTV. In the interface of the CDTV, it is necessary to use the function keys on the front to access the content, which was a little laborious: by default, they are mapped in the emulator on the multimedia keys of the keyboard. Unfortunately, I tried in virtual machine and VMWare Fusion does not connect the keys of my (physical) keyboard to its emulated version. After some research, I finally found how to change the configuration to use another key. And then came the failure: the Mozart CD could not be launched on CD+G in the emulator, while another random CD+G was working.

Do not activate the Turbo


Keys 1 to 3 mapped to physical commands


The interface


The interface playing CD+G / CD+MIDI

A problem of data track

It took a while before I came up with the problem: my CD contains data on track 1 and the Amiga do not like that (CD32 or CDTV). The not-so-delicate solution was to remake the CD without the data track. I made an image of the CD with CloneCD – able to extract subchannels, unlike a lot of other softwares – then changed the image to indicate that the first track contained audio (and not data) and re-wrote the CD. This version of the CD contains a first track that bursts ears (those who have tried to play a PlayStation CD on an Audio CD player will understand) instead of a data track. And suddenly… it works.

CD+G images

Take out the MIDI

Now, let’s recover the MIDI. Good news, the emulator supports MIDI, so I just redirected the stream to a USB to MIDI adapter connected directly to a Roland MT-32. And it works. Now, and the question came back on Twitter, how do you know if the synthesizer correctly interprets the data? No idea. The CD booklet does not indicate which synthesizer to use, just that you have to go through a CD+G player with a MIDI output. The CD was released before the standardization of General MIDI (1991) so I can assume that it does not use this standard. I used the Roland MT-32 because I had one available and because it was a common device in the 80s.

MIDI settings: output on the USB adapter


The entry connected to another software to recover everything

The MIDI track is not equivalent to the contents of the CD, it is more of a kind of accompaniment to the tracks. We can then listen to the tracks without MIDI, and I assume that the majority of customers have never listened to the tracks in question. Here are a few tampered examples. I do not have a mix table, so I recorded both outputs with two audio cards and mixed them up: the CD audio on one side, the MIDI audio on the other, lets you hear what the MIDI adds by playing on the scale. In a standard setup, the idea is to send the output of the MIDI synthesizer on the input of the player to mix CD and MID. Here, MIDI is played by the Roland MT-32.

I also saved a MIDI file. He was simply reassembled to put four tracks in a row.

I summarize: a hacked copy of the CD, a CDTV emulator in a virtual machine, a physical synthesizer, and presto! I can read my CD+MIDI. I suppose that it is also possible to directly recover the data in the subchannels: CloneCD provided me a .sub file of about thirty MB containing all the CD subchannels (images of the first tracks included) . If anyone knows how to interpret the data, I’m interested, and I guess the structure is the same as for the CD+G.

In any case, this CD+MIDI gave me a lot of trouble, but I’m cool: the thing did not resist me.

💾

Pliant®Technologies Showcases Latest Updates for CrewCom® Wireless Intercom System at ISE 2019

Par D Pagan Communications

AMSTERDAM, JANUARY 17, 2019 – Pliant Technologies’ latest updates to its CrewCom wireless intercom system will be on display for the first time internationally at ISE 2019 (Booth 7-V228). The newest firmware incorporates general system improvements as well as new Oceania 900MHz models. Pliant will also feature the system’s new Fiber Hub for a more ...

Jouer à des jeux Xbox (comme Halo 2) sur un kit de développement Power Mac G5

Par Pierre Dandumont

La semaine dernière, je parlais de mon Power Mac G5 qui servait de kit de développement pour Xbox 360. Et j’indiquais que le SDK intégrait un émulateur de jeux Xbox (l’originale). Et en une semaine, j’ai trouvé quelques jeux qui fonctionnent.

L’émulation de la première Xbox a toujours été assez problématique, alors même que beaucoup pensaient que sa proximité avec un PC permettrait de l’émuler facilement. En pratique, c’est bien expliqué là, c’est compliqué. Très compliqué. Les deux émulateurs qui fonctionnent à peu près sont ceux de Microsoft, Fusion (pour la Xbox 360) et Fission (pour la Xbox One). Les deux servent en réalité à la rétrocompatibilité des consoles, et nécessitent dans certains cas de télécharger des données. Assez logiquement, le kit de développement de la Xbox 360 contient une version préliminaire (et fonctionnelle en partie) de l’émulateur qui allait servir à la rétrocompatibilité.

Une histoire de ROMs

Parler d’émulation et (surtout) de jeux est toujours un peu compliqué. De ce que j’ai pu trouver, faire une image disque d’un jeu Xbox est quelque chose de compliqué, qui demande un lecteur optique précis avec un firmware modifié (il en existe quelques modèles). A la base, j’avais acheté des jeux originaux (qui se trouvent pour une bouchée de pain) pour tenter… mais sans le matériel nécessaire, c’est inutile. En pratique, il faut donc télécharger une ISO ou un dossier contenant des fichiers XBE (les exécutables de la console) et c’est forcément illégale. Si pour une raison ou pour une autre vous récupérez un fichier ISO, le programme QWIX permet d’extraire les fichiers nécessaires. Il est aussi possible d’extraire les jeux à partir d’une Xbox modifiée… mais je n’en ai pas (et la flemme de sortir la version debug du boulot).

La liste des exécutables

Maintenant, la partie qui peut être vite énervante : le monde des ROMs pour Xbox est un peu compliqué. D’abord, il existe plusieurs “versions” des jeux. Sous le nom Halo 2, je suis tombé sur quatre version différentes, dont une démo et une version bêta. Ensuite, pas mal de jeux téléchargeables sont patchés pour fonctionner sur une console Xbox modifiée… ce qui casse la compatibilité avec le kit de développement. Il faut donc espérer que l’ISO ne soit pas patchées ou que la personne ayant effectué la modification ait pensé à laisser l’exécutable original (c’est visiblement souvent le cas). Enfin, il faut que le jeu fonctionne et c’est peut-être le plus compliqué de ce que j’ai pu tester. Si le fichier d’origine non patché est présent, il faut le renommer correctement (il porte a priori le nom de default.xbe_orig, il faut simplement le renommer default.xbe).

Halo


Halo 2


Halo 2


Un jeu Simpsons

J’en avais parlé dans le sujet précédent, il suffit ensuite de copier les fichiers sur le disque dur du kit de développement, via le réseau. Ca peut être assez lent à cause de la liaison réseau à 100 Mb/s, mais ça fonctionne. Après quelques tests, et avec l’aide de cette page, j’ai trouvé quelques logiciels qui fonctionnent. Ca va de Halo (le premier) à Halo 2 en passant par un jeu sur les Simpsons. Du coup, j’ai fait une petite vidéo avec quelques exemples. La capture est un peu capricieuse : c’est du 480p avec le son capté depuis la sortie audio analogique du Power Mac, avec une qualité moyenne (le Mac ne sort pas le son en numérique dans ma carte d’acquisition). La vidéo montre Halo, un jeu sur les Simpsons, un jeu Xbox Arcade quelconque (j’ai testé une ISO avec une trentaine de titres) et Halo 2. Ce dernier n’est pas spécialement fluide. C’est un peu laborieux parce que je jouais sans son et (surtout) parce que je n’avais jamais touché un Halo de ma vie.

❌