Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Un jeu pour un ordinateur Sharp dans un vinyle de 1982

C’est probablement le plus vieux des exemples que j’ai de programmes sur un vinyle : un logiciel pour un ordinateur Sharp MZ-80 qui date de 1982. Et il m’a donné vraiment beaucoup de mal.

Au lieu de vous mettre tous les articles précédents à chaque fois, je vous renvoie vers la page dédiée, elle explique ce que je fais avec les vinyles et liste toutes les pages qui contiennent les programmes, les explications, etc.

 

Bon, le commencement. J’ai trouvé le disque The Peel Sessions. Sur ce disque (il existe aussi en cassette), il y a deux extraits de codes, mais qui ne mènent a priori à rien. Ce sont des extraits, visiblement sans header, et je ne sais pas exactement à quel ordinateur ils sont destinés. J’ai perdu pas mal de temps l’année dernière avec ces extraits, et je n’ai pas encore trouvé de solutions pour vérifier si c’est du texte, du code sans header, etc.

Maintenant, le second disque, The Traffic Tax Scheme. Il contient un programme, mais pas pour ZX Spectrum comme indiqué sur Discogs, mais pour le Sharp MZ-80 (je ne connais pas la variante). Il m’a fallu un moment pour trouver le disque, parce qu’il est (très) cher habituellement, pas loin de 200 €. Mais après pas mal de temps, j’ai trouvé une copie. Et pour le moment, je n’ai pas réussi à récupérer les données, même si j’ai quand même une copie du programme. Je m’explique.



Le jeu est indiqué, sans précisions

Quand j’avais essayé de décoder The Peel Sessions, une personne a donné un lien avec le programme sous forme de fichier .wav. Et une autre personne a réussi à décoder le code et a fourni le fichier mzf (en gros, le format de stockage classique avec les ordinateurs Sharp) et même un listing du code, ce qui m’a aidé.

Cette image dans un des flyers qui accompagnent le disque, fait probablement référence au jeu.

L’émulation

En fait, j’ai bloqué sur un truc, l’émulation. Parce que les Sharp MZ80 sont des ordinateurs anciens et finalement assez obscures. Les rares émulateurs sont donc assez bruts à l’usage, surtout quand on ne connait pas les machines. Je vais mettre un petit tutorial, tant pour ceux qui voudraient essayer que pour mon moi du futur. J’ai utilisé un émulateur de MZ-80A pour une raison bête et méchante : avec l’émulateur choisi, l’agencement du clavier correspond à mon clavier (plus ou moins). Et quand j’essaye d’émuler le MZ-80K, il n’y a pas de correspondance. Le BASIC utilisé cible normalement le MZ-80K, mais comme les deux machines sont proches, ça fonctionne.

• Télécharger l’émulateur sur ce site (Binary Archive). Récupérer mz80a.exe dans /binay_win10.
• Récupérer les ROMs sur ce site (dans Download) et les placer dans le même dossier que l’émulateur.
• Récupérer un interpréteur BASIC. Les Sharp MZ80 ont visiblement la particularité de ne pas avoir de BASIC en ROM. Dans mon cas précis, j’ai eu besoin du SP-5025 (c’était dans le code du programme).
• Lancer l’émulateur et taper LOAD.
• Faire CMT -> Play et choisir le BASIC. Attendre. C’est en temps réel, ça peut prendre un peu de temps.

• Quand le BASIC est chargé, taper LOAD. Dans le menu CMT, faire Eject, puis Play et choisir le fichier MZF.
• Dans le même menu, faire Fast Rewind, puis Play Button et attendre. Comme le code n’est pas très long, ça va (il fait une trentaine de secondes). C’est nécessaire parce que l’émulateur est en temps réel.
• Si le programme se charge (c’est le cas ici), faire RUN pour le lancer.

Pour trouver et comprendre le fonctionnement, j’ai perdu… beaucoup de temps. Certains émulateurs permettent de charger plus vite le BASIC (notamment) mais comme je ne maîtrise pas du tout la machine, j’ai évité.

Le programme

Alors, je n’ai pas bien compris le programme. Il commence par afficher un message, puis après 5 secondes, il affiche un écran en ASCII art avec un message qui dit Your Key Is… quelque chose. Il faut simplement presser 10x la touche en question et on passe à l’écran suivant. Mon problème, c’est que le layout du Sharp est évidemment différent de celui de mon Mac, donc j’ai dû tenter plusieurs fois avant d’avoir des touches classiques (chiffres/lettres) car c’est aléatoire. Si on se trompe ou si on ne va pas assez vite, on perd avec un message d’erreur. Si on arrive à faire la manipulation plusieurs fois de suite… on gagne. Oui, c’est basique (vous l’avez ?).

L’ordinateur au démarrage


Le BASIC chargé


Le programme


Le programme


Perdu

Si j’arrive un jour à utiliser mon propre fichier audio, j’expliquerais comment décoder le tout. Et si j’arrive à trouve ce que contiennent les deux extraits de The Peel Sessions, j’en reparlerais aussi.

Intel Optane et les Mac (3)

Je vais terminer la petite série sur Optane avec un produit encore plus particulier. Après le SSD hybride et le SSD de 16 Go, le SSD de 480 Go, c’est-à-dire le seul réellement utilisable comme disque système (même si le mot disque n’a évidemment aucun sens ici).

En fait, Intel a sorti une gamme de SSD à base d’Optane pour les personnes qui veulent… le plus rapide (dans une certaine mesure, on va le voir). Les modèles de la série 900p et ceux de la série 905p sont très proches (en gros, le second est une version optimisée du premier) et ils existent sous différentes formes. Le 900p existe en trois variantes : 280 Go en PCI-Express (sous la forme d’une carte) et en U.2 (un format professionnel, du 2,5 pouces – comme les HDD et SATA – avec une connexion PCIe -) et 480 Go en PCIe (le modèle que je possède). Le 905p existe en M.2, mais avec quelques limites : une capacité de 380 Go (ce n’est pas énorme) et un format pas très courant, le 22110. En gros, ça rentre probablement dans une carte mère de PC de bureau, mais pas nécessairement dans un PC portable ou un boîtier externe, limités au 2280 (les deux chiffres à la fin indiquent la longueur en mm). Il existe aussi en U.2 (480 Go, 960 Go, 1,5 To) et en PCI-Express (960 Go et 1,5 To). La différence entre 900p et 905p est assez faible (de l’ordre de 10 % selon Intel).

Le 900p en PCI-Express

A la question « Est-ce que ça marche sur Mac ? », la réponse est oui. D’un point de vue technique, c’est un SSD PCI-Express en NVMe standard, donc si vous avez un Mac sous High Sierra (au minimum) avec une ROM à jour, on peut l’utiliser et démarrer dessus. Dans les faits, j’ai vu dans mes recherches quelques personnes qui utilisaient ce type de SSD dans des Mac Pro « tour », que ce soit dans un 2012 ou dans un 2019. C’est aussi évidemment utilisable en Thunderbolt, mais on perd un des avantages d’Optane : la latence. Les tests sont un peu sommaires, mais le Thunderbolt ajoute un peu de latence au bus PCIe au départ, et le type de connexion en interne (CPU ou chipset) en ajoute aussi un peu.

macOS le voit


L’Optane en Thunderbolt


Le SSD du Mac (regardez la dernière ligne)

Pour le sujet, j’ai installé macOS Big Sur sur le 900p relié en Thunderbolt 3 à un MacBook Pro 2017 et ça fonctionne. A l’usage, ça ne change pas la vie, il faut bien le dire. Le SSD Optane est certes environ 3x plus rapide que le SSD Apple sur les accès aléatoires, mais les SSD NVMe actuels sont assez rapides pour rendre l’avantage anecdotique. Si vous partes d’un SSD SATA (ou même d’un mauvais SSD NVMe), le gain en réactivité peut se voir de façon marginale, mais c’est tout. En fait, et c’est un des soucis d’Optane, les usages normaux ne permettent pas réellement de mettre en avant les gains. Et pourtant, ils existent : on gagne (un peu) en réactivité, les performances ne bougent pas avec le remplissage étant donné l’absence de cache, les performances sont très stables sur toute la surface du disque (encore une fois, c’est une métaphore) et le TRIM n’est pas obligatoire. Sur un SSD NVMe moderne, par exemple, vous allez écrire à la vitesse annoncée pendant un certain temps, qui dépend de la façon de gérer le cache : ça peut varier de quelques dizaines de Go à environ 1/3 ou 1/4 de la capacité totale. Au-delà, vous allez perdre très nettement en performances, parfois avec des débits dignes d’un disque dur. Mais pas sur Optane. De même, la durée de vie annoncée est phénoménale : le commentaire de Gilles l’explique bien. Si vous prenez un SSD de ~500 Go classique, comme un Samsung 980, la limite annoncée en écriture est de 300 To. Vous pourrez probablement aller nettement au-delà, mais Samsung considère que la garantie se termine à cette valeur. Pour le 900p de 480 Go, la limite est de 8,7 Po (8 760 To).

L’Optane en interne sous Windows


Le Crucial P1

Il faut bien comprendre que sur un Optane, les performances en lecture et écriture sur du séquentiel sont moyennes, sans plus : on est sur 2 500 Mo/s en lecture et 2 000 Mo/s en écriture, quand les SSD NVMe modernes atteignent le triple (en PCIe 4.0) et bientôt quatre à cinq fois plus (en PCIe 5.0). Mais sur les accès aléatoires, ce n’est pas la même chose : Optane reste largement devant en lecture et c’est le nerf de la guerre pour les performances. La raison est technique : la mémoire flash NAND lit et écrit sur des blocs de données assez gros quand en Optane on peut accéder à chaque octet directement. De façon schématique (ça dépend un peu du type de mémoire flash), on doit lire entre 4 et 16 ko au minimum (une page) et quand on efface de la mémoire, c’est par blocs, qui contiennent plusieurs pages. Ce point technique ralentit donc certaines tâches (dans une certaine mesure) sur un SSD classique et pas sur Optane. Mais encore une fois, on atteitn en réalité de telles débits que la différence est finalement faible à l’usage, sauf dans des cas très particuliers, liés au monde professionnel.

La grille pourrait laisser penser à un ventilateur… mais non

Maintenant, pourquoi tout le monde n’a pas de l’Optane ? D’abord, j’en avais parlé, c’est cher. Mais genre vraiment. Intel n’en vend plus, mais un 900p de 480 Go valait 600 $ en décembre 2017 au lancement (~400 $ en 280 Go) quand un bon SSD SATA de 250 Go valait 115 $. En mai 2018, quand Intel a lancé le 905p de 960 Go, il était proposé à 1 300 $, alors qu’un SSD NVMe correct de l’époque valait 450 $ officiellement. Et avec la baisse continue des SSD NVMe (et Intel qui a rarement ajusté ses prix), l’écart a même augmenté avec le temps. Ensuite, ça chauffe pas mal. La version M.2 nécessite vraiment un dissipateur, les variantes PCI-Express chauffent beaucoup (vers 50 °C au repos) et consomment vraiment beaucoup : Intel indique 14 W pour le 900p de 480 Go (en pointe) et les 905p montent (un peu) plus haut. Ensuite, il y a la capacité, liée au prix en partie : les puces de mémoire ont une densité assez faible et donc il était compliqué de faire des SSD compacts et de grande capacité. C’est une des raisons de la faible capacité du seul modèle M.2, qui en plus utilise un format assez rare (le 2210). Et dernier point, lié encore une fois, les performances séquentielles sont moyennes et ne dépendent pas de la capacité. Sur un SSD à base de flash NAND, on peut gagner en performances en mettant plus de puces en parallèle, mais les SSD Optane ont déjà beaucoup de puces à cause de la densité faible et donc les performances sont constantes. Et si ~2 Go/s semblait une valeur correcte en 2017, en 2022 c’est vraiment dans le bas du panier (même s’il faut bien l’avouer, ça ne change pas grand chose en pratique).

Dans tous les cas, le 900p a trouvé sa place dans mon PC de boulot (et pas dans un Mac) en remplacement d’un Crucial P1. Et sinon, aussi, je n’ai malheureusement pas la version livrée avec un vaisseau Star Citizen (dommage).

Thinkpad X61 Tablet : débrider le SATA/SSD et activer le Wi-Fi

Récemment, j’ai acheté un Thinkpad X61 Tablet pour un truc (et aussi parce que j’avais besoin d’une machine compacte pour faire tourner d’anciens Windows). J’ai eu un souci avec ce que je voulais tester en priorité, mais comme pour mon vieux HP, il a fallu débrider la machine. Et sur ce Thinkpad, il y a vraiment des limites bizarres.

Les fabricants de PC portables, dans les grandes marques, ont une manie énervante : brider les BIOS. Dans mon vieil HP, il y avait une white list pour les cartes Wi-Fi, pour empêcher d’utiliser une carte Wi-Fi d’une autre marque. Et le Thinkpad X61 Tablet a la même limite… mais il y en a d’autres. La première, donc, c’est la liste blanche pour le Wi-Fi. Mais le BIOS Middleton que j’ai utilisé ajoute aussi la prise en charge de l’IDA d’Intel (une sorte de proto Turbo pour les Core 2 Duo, qui permet de gagner 100 MHz dans certains cas) mais il débride aussi… le SATA.

C’est noir

Le SATA ? Oui. Le PC que j’ai acheté est arrivé avec un SSD (plutôt qu’un disque dur) et il était bizarrement assez lent (~140 Mo/s). Et en fait, le BIOS Middleton règle ça. Le chipset gère bien le SATA à 3 Gb/s, mais le PC est limité logiciellement à 1,5 Gb/s (150 Mo/s) pour des raisons idiotes. En effet, un des accessoires en baie que la marque vend pose des soucis avec la seconde version du SATA. Du coup, même sur une tablette qui n’a pas de baie (enfin, elle est accessible dans la station d’accueil), tout est bridé dans le BIOS. Et le BIOS Middleton corrige ce point. Le SSD utilisé, sans être un foudre de guerre, gagne quand même pas mal en débit juste en changeant le BIOS.

Avant


Après

Pour info, j’ai simplement gravé un CD-R avec le fichier fourni pour mettre à jour, et tout est automatique. On peut probablement passer par une clé USB (j’ai vu des tutoriaux) mais comme j’ai un spindle de CD-R et un graveur, j’ai choisi la version rapide.

C’est une tablette

Le p*tain de Wi-Fi

Je vous passe l’installation d’un vieux Windows, qui est presque pire qu’un vieux Mac OS X (non, j’exagère, c’est bien pire pour avoir un Windows 7 à jour, par exemple), mais il faut que je parle d’un truc : le Wi-Fi. Comme sur mon HP, il y a d’abord un raccourci clavier idiot pour activer ou désactiver le sans-fil (Bluetooth et Wi-Fi). Comme le Wi-Fi ne marchait pas, j’ai d’abord tenté de trouver l’utilitaire nécessaire (astuce : il faut installer cet utilitaire). Mais même comme ça, j’avais un message d’erreur. Et en fait, il y a un truc : en plus du raccourci clavier (débile), il y a un bouton physique. Et j’ai cherché pendant plusieurs minutes avant de trouver l’interrupteur physique. Il est en fait sur l’avant du PC, et n’est pas vraiment mis en avant.

Le bouton, pas très explicite

Je comprends bien qu’il y a 15 ans, la possibilité de couper le Wi-Fi était important en entreprise, mais ça m’énerve toujours en pratique de devoir trouver ce bouton… et expliquer aux gens comment le trouver.

Le message caché de Radiohead dans une cassette exclusive

Dans la version collector d’un album mythique sortie en 2017 (OK Computer OKNOTOK 1997 2017), Radiohead a placé un programme pour ZX Spectrum sur une cassette proposée uniquement avec cette variante.

Au lieu de vous mettre tous les articles précédents à chaque fois, je vous renvoie vers la page dédiée, elle explique ce que je fais avec les vinyles et liste toutes les pages qui contiennent les programmes, les explications, etc.

 

Bon, je dois être franc : je ne l’ai pas acheté. C’était cher en 2017, c’est encore plus cher en 2022 (on est rapidement à plus de 120 €) et un lecteur (merci Pomme Granny) m’a envoyé une photo de la cassette et une version numérique. Parce que oui, le groupe a eu la bonne idée de fournir une version numérique de la cassette audio avec la version collector. C’est assez logique : on peut supposer qu’une partie significative des acheteurs n’avait plus de lecteur de cassettes, et que – comme pour les vinyles – l’ensemble a été acheté pour l’objet.

La cassette (merci Pomme Granny)


Maintenant, le programme. Avec une copie numérique sans compression, je m’attendais à ce que le programme que j’utilise habituellement (l’outil TZXWAV) convertisse directement. Mais en fait non. Après quelques essais, je suis tombé sur deux posts (un sur Medium, un sur Reddit) qui passaient par pas mal de traitements avant que le programme ne se lance. De fait, déjà, le niveau sonore est bien trop bas dans le fichier d’origine. Après pas mal d’essais (j’ai une trentaine de fichiers audio), j’ai trouvé la solution : une bonne amplification dans Audacity, suivi d’un filtre passe-bas à 3 800 Hz/48 dB appliqué deux fois. Et avec ces traitements, mon script a réussi à extraire le programme. Du coup, même si le fait qu’il y a un programme sur la cassette est explicite, ce n’est pas évident de le lancer. A noter, enfin, que ma méthode permet d’obtenir un fichier compact (il fait moins de 1 ko) alors qu’ouvrir l’audio dans un émulateur avant d’exporter amène un fichier plus lourd (77 ko pour celui sur Medium).

Le premier easter egg ne nécessite même pas de lancer le programme : dans le code source obtenu, on peut lire congratulations....you've found the secret message syd lives.

Pour le programme, il faut le lancer (avec R), il affiche ensuite un message puis il faut presser une touche quelconque pour lancer l’animation. Le texte et les couleurs sont aléatoires de ce que j’ai compris.

Il faut le lancer manuellement


Le texte d’ouverture


L’animation (à la fin)

Vislink to Debut Cliq OFDM Mobile Transmitter at IBC 2022

New Compact and Robust OFDM Wireless Video Solution Supports a Range of Applications for Tier 1 Live Event Broadcasts AMSTERDAM — SEPTEMBER 9, 2022 — Vislink (Nasdaq: VISL), a global technology leader in the capture, delivery and management of high quality, live video and associated data in the media & entertainment, law enforcement and defence […]

The post Vislink to Debut Cliq OFDM Mobile Transmitter at IBC 2022 appeared first on Broadcast Beat - Production Industry Resource.

Panasonic Group Releases Ethics Principles for AI

Panasonic Holdings Corporation today announced the establishment of its Panasonic Group AI Ethics Principles which must be observed during the development, implementation, and utilization of AI.

Un jeu Commodore 64 sur un MiniDisc (ou pas)

Assez récemment, j’ai vu un album (We Are Stardust, par Lukhash) qui a une particularité : il est sorti en vinyle, en CD, en cassette… et sur MiniDisc. Et il contient un jeu pour Commodore 64. Mais j’ai eu un petit problème.

Au lieu de vous mettre tous les articles précédents à chaque fois, je vous renvoie vers la page dédiée, elle explique ce que je fais avec les vinyles et liste toutes les pages qui contiennent les programmes, les explications, etc.

 

Pour mes premiers essais, j’ai acheté le MiniDisc. Ce n’est pas un disque “pressé” comme les MiniDisc préenregistrés de l’époque, mais visiblement un MiniDisc classique, enregistrable. Pour récupérer les données, j’ai mis toutes les chances de mon côté : j’ai utilisé un MZ-RH1, un baladeur capable de récupérer directement le contenu d’un MiniDisc. Ce n’est pas totalement du natif vu qu’il y a conversion de l’ATRAC au PCM, mais c’est la solution la plus propre pour pouvoir traiter ensuite le contenu.

Le MiniDisc


Le problème, c’est que je n’ai pas pu récupérer les données. J’ai tenté divers programmes pour convertir les données, sans succès. Les émulateurs ne voulaient pas des données, la conversion en PRG ne fonctionnait pas, etc. J’ai donc, en désespoir de cause, acheté le CD. Et avec ce dernier, ça fonctionne presque ; j’ai pu créer un fichier .tap utilisable dans un émulateur. La conversion en PRG ne fonctionne pas, mais comme je suis loin d’être un spécialiste du Commodore 64, il y a probablement des subtilités qui m’échappent. Du coup, j’ai comparé le fichier récupéré sur le MiniDisc et celui du CD et même visuellement dans Audacity, la différence saute aux yeux. Visiblement, la compression ATRAC détruit complètement le signal et du coup, ça ne fonctionne pas. Je ne sais pas si ça fonctionne avec un vrai Commodore 64, mais dans un émulateur, ça bloque. Avec le vinyle, c’est visiblement possible.

Le CD



Le CD en haut, le MiniDisc en bas


Le jeu

Si vous voulez essayer le jeu, il est disponible sur une page dédiée, dans une version un peu modifiée. Il y a en effet une musique différente, par exemple. Vous trouverez une vidéo de gameplay sur YouTube, mais comme d’habitude, je me suis enregistré en train de jouer, avec l’émulateur Denise. Visuellement, c’est assez sympa, et la musique est aussi assez efficace. Je ne vous mets pas la ROM issue du CD, vu que le créateur a préféré partager celle qui a été modifiée, avec notamment un tableau des scores différents.

Une jolie image



Le jeu lui-même est un runner, et il faut sauter, se baisser, etc. C’est un peu déstabilisant parce que certains obstacles semblent évitables en sautant mais ne le sont pas, donc je joue mal. Dans la vidéo, j’ai d’abord mis la version du CD puis celle du site, pour les différences (notamment sur la musique au chargement).

Panasonic Engages in Joint Research on Ultra-light EMC Shielding Material Development with JAXA

Panasonic Industry Co., Ltd. announced today that it has kicked off a joint research project on ultra-light EMC shielding material technology with the Japan Aerospace Exploration Agency, National Rese

Panasonic Joins Low Carbon Patent Pledge as first Japanese Company in Order to Help Build a Greener Future

Panasonic Holdings Corporation today announced that it had joined the Low Carbon Patent Pledge (LCPP), granting free licenses to the Panasonic green tech patents listed on the LCPP website to encourag

Mo-Sys to demonstrate live broadcast and cinematic Virtual Production at IBC 2022

Mo-Sys Engineering, world leader in precision camera tracking solutions for Virtual Production (VP), is to lead the market with stunning demonstrations and critical collaborations at IBC2022. The demonstrations will focus on cutting-edge applications for broadcast and cinematic production. The premium European manufacturer Alfalite and its exceptional LED display Modularpix Pro 1.9mm, and ground-breaking 8-color fos/4 […]

The post Mo-Sys to demonstrate live broadcast and cinematic Virtual Production at IBC 2022 appeared first on Broadcast Beat.

SSD externe : vitesse ou température, il faut choisir

Le choix d’un SSD externe (ou d’un boîtier pour installer un SSD M.2) est toujours un peu compliqué, et avec les modèles de plus en plus rapides, un problème se pose : il faut faire des concessions. En Thunderbolt 3, par exemple, vous devrez souvent choisir entre performances… et température.

On ne va pas partir dans des recherches archeologeek, donc je vais me contenter de l’USB et du Thunderbolt pour expliquer le problème.

• L’USB 2.0, apparu au début des années 2000, offre un débit théorique de l’ordre de 480 Mb/s, soit 60 Mo/s. En pratique, n’espérez pas plus de 35 Mo/s. C’est suffisant pour un vieux disque dur.

• L’USB 3.0 « 5 Gb/ » date de 2008 (2012 dans les Mac). Il propose un débit théorique de 5 Gb/s, donc, qui se traduit par 500 Mo/s. je n’ai pas fait une erreur de calcul : l’encodage fait que deux bits sur dix sont perdus. En pratique, on peut espérer atteindre 440 Mo/s sur un contrôleur rapide, ce qui est du même ordre qu’un SSD SATA. On parle parfois d’USB 3.1 (ou 3.2) Gen. 1. Dans les Mac, tous les ports USB « A » sont à cette norme, et les ports des Mac M1 sont (un peu) plus lents que ceux des Mac Intel.

• L’USB 3.1 « 10 Gb/s » (ou 3.1 Gen. 2, ou 3.2 Gen. 2). Il propose un débit théorique de 10 Gb/s avec un encodage plus efficace, soit ~1,2 Go/s. En pratique, on peut espérer ~1 Go/s sur un Mac Intel, plutôt 800 à 900 Mo/s sur un Mac M1. C’est la norme la plus courante dans les prises USB-C, spécialement dans les Mac (en dehors des MacBook de 2015/2017). C’est assez rapide pour un SSD externe en NVMe.

Un des nombreux logos de l’USB

• L’USB 3.2 « 20 Gb/s » (3.2 Gen. 2×2) et l’USB 4. Les deux normes proposent d’atteindre 20 Gb/s (~2,4 Go/s) en USB-C. La première n’est tout simplement pas supportée sur les Mac (il existe quelques rares boîtiers externes), la seconde l’est sur les Mac M1… mais les boîtiers sont encore plus rares.

• Le Thunderbolt 1. La norme permet d’atteindre 10 Gb/s, mais est souvent bridée à 8 Gb/s (4 lignes PCI-Express 1.1). Elle permet des débits de l’ordre de 800 Mo/s à 1 Go/s et est parfaite pour les SSD SATA avec un contrôleur efficace.

• Le Thunderbolt 2. La norme permet d’atteindre 20 Gb/s, mais c’est théorique. Premièrement, vous n’aurez généralement que 16 Gb/s (4 lignes PCI-Express 2.0). Deuxièmement, le débit est partagé avec les écrans, donc si vous branchez un moniteur 4K (par exemple), vous n’aurez que ~7,5 Gb/s (un écran prend 12,5 Gb/s à 60 Hz). Même un simple moniteur 1440p60 réduit un peu le débit (il nécessite 5,65 Gb/s). La norme a été utilisée pour certains SSD externes en PCI-Express, avec les premiers modèles AHCI, notamment. Le débit pratique maximale est d’environ 1,6 Go/s.

• Le Thunderbolt 3/4. Avec cette version moderne, on peut atteindre 40 Gb/s, et 32 Gb/s pour les données (4 lignes PCI-Express 3.0). Comme en Thunderbolt 2, le débit est partagé, mais il y a 8 Gb/s « réservés » pour la vidéo en pratique, donc un écran 1440p ne bride pas les données. Le Thunderbolt 3 et 4 utilise une prise USB-C et sont très similaires : la version 4 n’est pas plus rapides. Les différences sont anecdotiques : il est possible de créer des hubs Thunderbolt en Thunderbolt 4 (mais ça marche aussi dans certains cas en Thunderbolt 3), la gestion des moniteurs est améliorée et il est obligatoire de gérer deux écrans. Ce point est d’ailleurs ce qui explique que les Mac M1 ne sont pas Thunderbolt 4. La dernière différence est liée à l’implémentation : il est obligatoire de câbler les quatre lignes PCI-Express. En Thunderbolt 3, ce n’est pas le cas, et il y a donc quelques exemples d’ordinateurs avec des ports moins rapides. C’est le cas des MacBook Pro 13 pouces avec quatre ports : ceux de droites sont plus lents sur certains modèles. C’est aussi courant sur certains PC Dell.

Les SSD

Encore une fois, je vais faire (presque) court, parce qu’il y a finalement assez peu de possibilités pour les SSD.

• Les SSD SATA 2,5 pouces. L’interface peut atteindre 6 Gb/s (600 Mo/s, le codage est le même qu’en USB 3.0), le débit pratique est de l’ordre de 550 Mo/s au mieux. Pour en tirer pleinement parti, il faut donc du Thunderbolt 1 ou de l’USB à 10 Gb/s. L’USB à 5 Gb/s bride un peu… mais pas trop.

• Les SSD SATA M.2. Les mêmes, mais dans un format en barrette. C’est finalement assez rare en 2022, même en externe.

• Les SSD PCI-Express AHCI M.2. Ils utilisent le PCI-Express pour la liaison physique (généralement 4 lignes PCIe 2.0) et l’AHCI pour le protocole. C’est très rare en 2022, et les adaptateurs USB sont pratiquement introuvables, mais ça fonctionne en Thunderbolt sur un Mac. Les SSD Apple en barrettes sont souvent des modèles AHCI mais pas en M.2 (qui est le format physique).

• Les SSD PCI-Express NVMe M.2. Les plus courants, avec une liaison PCI-Express (physique) et un protocole NVMe. Sur Mac, ils nécessitent au moins High Sierra et les débits varient selon les normes. Le standard va être quatre lignes PCIe 3.0, soit 4 Go/s au maximum, et c’est justement ce que propose le Thunderbolt 3/4. Les SSD plus récents utilisent deux ou quatre lignes PCIe 4.0 (plus rapide), les SSD plus anciens parfois deux ou quatre lignes PCIe 2.0.

Deux exemples

C’est là que les problèmes arrivent. Dans un monde parfait, on pourrait brancher un SSD M.2 moderne dans un boîtier Thunderbolt 3 pour obtenir des débits en externe de l’ordre de 3,2 Go/s, ce qui est une valeur plutôt intéressante. Si vous allea acheter un boîtier comme le Wavlink Thunderdrive, c’est d’ailleurs le cas. Pour une centaine d’euros, vous aurez un boîtier avec un emplacement M.2 2280 (uniquement) et un câble Thunderbolt court (45 cm) mais amovible. Ce n’est pas visible par défaut, mais le câble est branché en interne, donc il suffit d’ouvrir le boîtier pour le remplacer. Le boîtier lui-même n’est pas sans défaut : il est assez gros et le système de fixation du SSD est vite énervant : le dissipateur se fixe avec un mécanisme à ressort et pas des vis. Est-ce que c’est performant ? Oui, on peut atteindre 3,2 Go/s en externe, tant en lecture qu’en écriture. Il faut bien évidemment mettre un SSD assez rapide pour atteindre ces débits.

2,6 Go/s dans les tests

Le problème va venir de la température : ça chauffe. Beaucoup. Ce n’est pas lié totalement au boîtier : même s’il n’est (heureusement) pas refroidi activement, il intègre un dissipateur en interne. Non, le problème vient du Thunderbolt et des SSD. Premièrement, les puces Intel chauffent, et c’est logique vu les débits. Deuxièmement, les SSD NVMe chauffent aussi pas mal, surtout si vous n’utilisez pas un SSD récent. En écrivant en continu pendant quelques minutes, un WD Black SN750 (un modèle de 2019) atteint 78 °C. C’est très chaud, et ce n’est pas bon : d’une part, on approche de la limite au delà de laquelle le SSD ralentit (80 °C), et d’autre part la mémoire flash n’aime pas la chaleur. En clair, on réduit la durée de vie et la durée de rétention. Même avec un SSD Samsung 980, plus récent, ça reste assez chaud avec 59 °C. Et le boîtier lui-même est assez chaud, avec 45 °C en surface.

Le Wavlink est nettement plus encombrant

Ce qui est intéressant, c’est qu’il y a une alternative, avec des compromis. J’ai essayé le boîtier de chez OWC (l’Envoy Express, environ 90 €) mais celui de Sabrent est dans le même cas. Le compromis est simple : réduire les performances. Au lieu de quatre lignes PCI-Express 3.0, ils n’utilisent que deux lignes, pour un débit divisé par deux. On a donc 2 Go/s au mieux (1,6 Go/s en pratique), mais une température bien plus faible. Avec les mêmes SSD, on se limite à 70 °C (ça reste élevé) et 48 °C, avec un boîtier qu’on peut prendre en main.

~1,6 Go/s


Le câble est amovible en interne

D’un point de vue pratique, le boîtier d’OWC a aussi l’avantage d’être un peu plus compact et plus simple à ouvrir. Comme le premier, le câble Thunderbolt est amovible en interne et il se limite aux SSD en M.2 2280, d’ailleurs. Enfin, OWC livre un support à coller sur (par exemple) le dos d’un PC portable pour fixer le SSD, un petit plus pratique.

Vitesse ou chaleur ?

Le choix n’est pas évident dans l’absolu, il dépend tout de même pas mal de vos besoins. Si vous voulez des performances élevées, un modèle qui câble toutes les lignes est évidemment le meilleur choix. C’est littéralement deux fois plus rapide, mais moins pratique. Le problème de la température est assez difficile à quantifier en pratique, vu qu’elle a plusieurs effets. Le premier, c’est que le boîtier est chaud, et ce n’est pas très agréable de le prendre en main. Vous n’allez pas vous brûler, mais ça reste un souci. Le second, c’est que le SSD peut se mettre en sécurité. Avec un modèle un peu ancien, un température ambiante élevée et de gros transferts, il semble possible d’atteindre les limites. Elles dépendent des SSD, mais c’est un peu dommage d’avoir un SSD très rapide qui va se brider de lui-même. Le dernier, c’est la durée de vie, et c’est compliqué. Théoriquement, ça réduit la rétention des données et augmente l’usure. En pratique… je n’ai pas de valeurs à partager. Il faut juste considérer que c’est mauvais pour la mémoire flash, et qu’il vaut mieux sauvegarder les données.

Maintenant, avec un autre point de vue, les modèles bridés à deux lignes suffisent. Ça reste plus rapide que 99 % des SSD externes (la norme est aux alentours de 1 Go/s, on peut atteindre 1,6 Go/s), c’est suffisant pour la majorité des usages et vous n’allez pas non plus attendre des plombes que les transferts se terminent. En fait, sur pas mal de Mac, le SSD interne n’est même pas nécessairement capable d’atteindre cette vitesse en lecture, donc ça reste un peu inutile (les Mac récents sont plus rapides). Et avec ces modèles, la température est moins un problème, avec des valeurs largement acceptables.

Comme j’ai le loisir de choisir (j’ai les deux boîtiers), je suis plutôt allé vers la seconde voie : le modèle bridé. Mais mon usage n’est pas très lourd, le SSD placé dans le boîtier sert essentiellement pour du stockage et un simple modèle SATA suffirait amplement.

Avec sa démo Lion, Unity dévoile son avenir

Par : Shadows
Temps de lecture : < 1 minute

Unity présente au SIGGRAPH 2022 sa nouvelle démo technologique : Lion.

Cette démo temps réel combine différentes technologies du groupe : les outils Wētā Digital rachetés fin 2021, SpeedTree, Ziva, SyncSketch et l’Editor de Unity ont été employés.
Unity avance que la démo tourne à 30fps en 4K sur une PS5, mais ne permet pour le moment pas de le vérifier : il faudra vous contenter d’une vidéo, aucun téléchargement n’est disponible à ce stade.

Initialement, Lion était une démo non téemps réel mise au point par des élèves de la Monster Emporium Animation School, avec des lions créés grâce aux outils de Ziva VFX qui permet de simuler muscles et tissus mous. Unity a mis à jour cette démo pour la rendre temps réel, grâce notamment au système de déformations en machine learning de Ziva RT. Ces déformations sont exécutées dynamiquement dans le nouveau Ziva RT Unity player lancée en preview durant le SIGGRAPH 2022.
La démo s’appuie également sur la végétation de l’outil SpeedTree, ainsi que sur Wig, l’outil de hair et fur de Wētā Digital actuellement en pré-alpha.
Unity explique que le rendu et la simulation améliorés du hair visibles dans cette démo seront disponibles dans la version 2023.1 Tech Stream.

Enfin, l’équipe étant répartie dans différents pays, l’outil de collaboration SyncSketch a été indispensable pour mener à bien le projet.

L’article Avec sa démo Lion, Unity dévoile son avenir est apparu en premier sur 3DVF.

Comment Pixar améliore la diversité de ses personnages

Par : Shadows
Temps de lecture : 6 minutes

Ces dernières années, les studios Pixar ont fait plusieurs pas en direction d’une plus grande diversité dans leurs films d’animation. Une démarche qui se traduit derrière la caméra (Alerte rouge de Domee Shi est le premier des films du studio entièrement réalisé par une femme) mais aussi devant la caméra, avec des films d’animation tels que Soul, Alerte Rouge.

Au SIGGRAPH 2022, Pixar nous en dit un peu plus sur la manière dont cette volonté se traduit au sein du processus créatif, jusque dans les personnages secondaires, avec un outil dédié et une réflexion sur plusieurs années.

Soul et biais inconscients

Durant la production de Soul, le studio voulait coller à la réalité des quartiers de New York représentés à l’image : l’idée était que l’on verrait dans les foules et personnages d’arrière-plan 80 % de personnes issues de minorités (Afro-Américains, latinos, personnes d’origine asiatique, etc) et 50 % d’hommes et de femmes. Une bibliothèque de personnages correspondant à cette volonté fut donc créée. De cette manière, les foules générées aléatoirement auraient les bonnes proportions.
En pratique cependant, pour les personnages d’arrière-plan choisis manuellement, la même répartition était très différente : selon les calculs fait manuellement par l’équipe, sur les trois premières séquences entamées au début de la production, on trouvait 50 % de personnes issues de minorités, 70 % d’hommes.

Cela posait deux problèmes :

  • une diversité très inférieure à la direction artistique voulue, et absolument pas représentative des quartiers bien réels qui inspiraient le film ;
  • une partie des personnages se trouvaient utilisés bien trop souvent : 20 % d’entre eux étaient visibles 50 % du temps.

Un biais inconscient de la part des équipes avait donc fait dériver l’objectif, mais ces statistiques permirent d’ajuster le tir et, sur l’ensemble du film, on trouve 80 % de minorités, 48 % d’hommes, 52 % de femmes, un résultat quasi identique à la volonté de départ.

Pour Pixar, la conclusion était claire : disposer de statistiques automatisées aurait été d’une grande aide afin que l’équipe puisse, si elle le souhaitait, disposer d’éléments concrets pour contrer d’éventuels biais inconscients.

Soul
Crédit : Disney-Pixar

Ce type de réflexion n’est pas nouveau, comme l’explique l’équipe dans la présentation dévoilée au SIGGRAPH : des entités et initiatives ont déjà montré l’intérêt de mesurer la diversité, comme le Geena Davis Institute on Gender in Media, la Netflix + USC Annenberg Inclusion Initiative. La seconde a par exemple permis de souligner que la présence de rôles féminins parlants au sein des films les plus populaires aux USA était d’environ 34 % seulement en 2019, un chiffre stable depuis 10 ans. Les statistiques montrent par exemple que la part de femmes réalisatrices varie du simple au triple selon le studio : une analyse étant alors de voir dans ces disparités le reflet de choix et biais de recrutement, conscients ou non, et non pas un supposé déficit de femmes réalisatrices compétentes.

Reste à voir comment faire évoluer la situation. Dans sa présentation, Pixar souligne que comme un petit nombre de studios domine le box-office, ceux-ci ont un rôle potentiel énorme sur les représentations vues par le public.
Plutôt que d’attendre que les rapports évoqués plus haut soient mis à jour, une fois que les films sont sortis, les gros studios qui souhaitent plus de diversité dans leurs projets peuvent par conséquent choisir d’agir en amont, pendant la création des films.

Characater Linker : le chaînon manquant vers plus de diversité ?

D’où l’idée de mettre en place un outil au sein du pipeline de Pixar permettant de mesurer la diversité en prenant en compte tous les personnages d’un film donné, appelé Character Linker.

Character Linker
Character Linker
Crédit : Disney-Pixar

Ci-dessus à gauche, l’outil affiche tous les personnages du film.
À droite, les personnages de la séquence sélectionnée.
En bas, des statistiques sur leur répartition dans différentes catégories : genre, ethnicité, âge, morphologie, etc.
L’affichage des statistiques peut se faire sous forme de camembert mais aussi de barres : dans ce cas, Character Linker affiche aussi, s’il y en a, l’objectif ciblé pour le film.

On peut par exemple utiliser l’outil pour ajuster les personnages d’une scène. Une cour d’école manque de jeunes filles ? Il suffit alors de cliquer sur les parts de camembert « young » et « female », afin d’afficher à gauche les personnages de la bibliothèque qui correspondent, puis sélectionner un ou plusieurs de ces personnages et les ajouter à la séquence. Les statistiques de la scène sont ajustées en temps réel.
Character Linker gère aussi les « lineups » de personnages : des groupes précis comme, pour reprendre l’exemple de Pixar, des personnes travaillant sur un chantier visible dans le film.
Il est également possible de visualiser ces chiffres à l’échelle d’un plan, d’un acte du film, ou du film entier.
Mieux encore : une fois les personnages placés dans une scène, on peut disposer de chiffres sur leur temps effectif de présence à l’écran, mais aussi sur leur visibilité à l’image (un personnage distant ou coupé par le cadre est moins visible qu’un personnage en gros plan).
Enfin, les métadonnées OTIO (OpenTimelineIO) issues des dialogues audio permettent d’avoir des chiffres sur le temps de parole des personnages et groupes de personnage.

En coulisses, Character Linker s’appuie sur quatre étapes :

  • le tagging des personnages ;
  • l’identification, plan par plan, de la présence des personnages et de leur degré de visibilité ;
  • l’agrégation des données ainsi générées ;
  • leur visualisation.

Du côté technique, Pixar explique que l’identification se fait via une base de données tenue à jour lors du traitement des plans de la production, grâce à l’analyse des fichiers USD de ces plans (pour chaque frame, on calcule quels personnages sont visibles, et leur degré de visibilité dans l’image). L’usage d’USD plutôt que de faire des rendus finalisés permet de traiter plus rapidement les scènes.
L’agrégation va ensuite consister à récupérer ces données, les condenser pour en tirer les statistiques voulues. Elle se fait chaque nuit.

Mise en pratique avec Alerte Rouge

Le film Alerte Rouge a été l’occasion d’utiliser Character Linker. La réalisatrice Domee Shi avait le sentiment que l’école de l’héroïne, censée se situer dans le Chinatown de Toronto, ne collait pas à la réalité : il y avait trop peu d’élèves ayant des origines en Asie orientale, et elle en voulait deux fois plus. Character Linker a permis à l’équipe crowds d’analyser les personnages, et de constater que 20 % des élèves étaient originaires d’Asie orientale. Ils ont alors ajusté quelques groupes clés de personnages qui avaient une forte présence à l’écran, et ce taux est passé à plus de 40 %. Le résultat, approuvé par la réalisatrice, aida à valider l’utilité de Character Linker, qui avait donc permis d’agir rapidement et efficacement pour coller à la vision artistique du projet.

Alerte Rouge et son école.
Crédit : Disney-Pixar

Quelles pistes pour l’avenir ?

Pixar explique que si Character Linker est utile, son outil mérite tout de même des améliorations.
Par exemple, la visibilité à l’écran pourrait être affinée : un personnage au centre de l’écran ou mis en valeur par l’éclairage a plus d’impact qu’un personnage dans un coin sombre de l’écran. Les techniques de machine learning pourraient aider à pondérer la visibilité par cet impact plus ou moins grand qu’ont les pixels aux yeux des spectateurs.
En outre, les assets sont régulièrement personnalisés sur certains plans : Pixar donne l’exemple de fauteuils roulants, souvent ajoutés à la main et non pas présents dans les assets de départ. Pouvoir les suivre par des statistiques serait sans doute utile.

Pixar souligne également que son système a des limites et fait face à des défis. Il est évidemment difficile de l’appliquer dans certains contextes comme les films avec des personnages non humains. De plus, la diversité ne se limite pas à l’apparence des personnes : elle peut aussi passer par le storytelling, comme l’a montré le couple du très récent Buzz L’Eclair (voir notre interview du réalisateur et de la productrice, qui évoque cet aspect de diversité).
Par ailleurs, appliquer des labels implique des choix qui ne sont pas neutres : on peut définir des catégories plus ou moins large, en choisissant par exemple de créer un label « Asie orientale » ou de scinder par zone géographique/pays (Japon, Chine, Corée…). Sans compter les personnes ayant des origines mixtes.

En clair : il convient de rester très prudent face à ces outils, qui ne sont pas une solution miracle applicable aveuglément. Les catégories étudiées, les tags utilisés sont susceptibles d’évoluer d’un film à l’autre et doivent être questionnés au fil des projets et du temps.

Enfin, l’équipe du projet explique avoir eu des craintes au départ : ce type d’approche peut générer controverses et critiques. Mais les personnes du studio ont rapidement accueilli l’initiative positivement. Character Linker a été vu comme un moyen de disposer de plus d’informations pour faire de meilleurs films, pas comme un outil de contrôle ou d’accusation.

Pour en savoir plus, une publication est disponible chez Pixar, en accès libre. Si vous disposez d’une accréditation SIGGRAPH 2022, vous pouvez voir la présentation vidéo du projet, plus détaillée.

Character Linker est présenté au SIGGRAPH 2022 par Paul J. Kanyuk, Mara MacMahon, Emily Wilson, Peter Nye, Jessica Heidt, Joshua Minor des studios Pixar, Gordon Cameron d’Epic Games.

Pour aller plus loin

  • Vous pouvez suivre 3DVF sur YoutubeTwitterInstagramLinkedInFacebook.
  • Ci-dessous, notre interview d’Angus MacLane et Galyn Susman de Pixar, sur Buzz L’Eclair : à partir de 1 minute 20, l’équipe discute du personnage d’Alisha et de la question de la diversité et sa représentation à l’écran.

L’article Comment Pixar améliore la diversité de ses personnages est apparu en premier sur 3DVF.

NVIDIA allège vos données volumétriques : NeuralVDB, le futur d’OpenVDB ?

Par : Shadows
Temps de lecture : 2 minutes

NVIDIA dévoile au SIGGRAPH la technologie NeuralVDB, présentée comme le moyen « d’amener la puissance de l’IA dans OpenVDB ».

OpenVDB est pour rappel une librairie informatique largement utilisée dans les effets visuels et l’animation pour la simulation et le rendu de données volumétriques. OpenVDB comporte à la fois une structure de données et des outils.
En bref, donc : OpenVDB est un élément indispensable pour les simulations d’eau, feu, fumée en animation et effets visuels.

NeuralVDB propose de faire évoluer ce standard, avec à la clé des gains séduisants : jusqu’à 100 fois moins de mémoire utilisée, ce qui est un atout majeur étant donné la place imposante souvent demandée par les simulations.
Il devient donc possible de travailler sur des simulations plus lourdes, ou de les manipuler sur des stations de travail bien moins puissantes.

En outre, NeuralVDB s’appuie aussi sur les avancées de la librairie NanoVDB, présentée l’an passé par NVIDIA et qui permettait d’apporter de l’accélération GPU au sein d’OpenVDB, avec des gains de performances suffisants (selon NVIDIA) pour permettre d’envisager de la simulation et du rendu en temps réel.

Plus léger, plus rapide, NeuralVDB permet par ailleurs d’utiliser les données d’une frame pour la suivante. NVIDIA explique que cela permet d’accélérer l’entraînement par 2, et d’apporter de la cohérence temporelle. En clair, vous aurez moins besoin d’effets tels que le motion blur pour obtenir un résultat satisfaisant.

Reste désormais à voir si NeuralVDB débarquera dans nos outils, et quand. L’adoption ne devrait pas rencontrer de gros freins techniques, selon NVIDIA, qui explique avoir pensé NeuralVDB pour assurer la compatibilité avec les pipelines VDB existants. Le groupe promet une beta « bientôt » : nous suivrons donc ce dossier de près.
Si vous le souhaitez, une page dédiée chez NVIDIA permet de s’inscrire pour recevoir les futures annonces liées à cette technologie.

L’article NVIDIA allège vos données volumétriques : NeuralVDB, le futur d’OpenVDB ? est apparu en premier sur 3DVF.

Evolving Energy Solutions to Contribute to a More Sustainable Society

The United Nations released a report in April warning that if urgent action is not taken to substantially reduce harmful carbon emissions, the world will face "unprecedented heatwaves, terrifying stor…

Advancing the Discussion on Reducing Carbon Emissions

On July 13, the Panasonic Group held its second sustainability management briefing followed by a panel discussion on the responsibility of reducing carbon emissions. In the opening session, Group CEO…

Analysis of Automotive Security Technology from Patent Data: Panasonic Ranks No. 1 in Japan, U.S. and Europe

Yokohama, Japan - With the innovative development of automated driving technologies, the progress of digitalization, and the increase in the number of vehicles connected to networks, known as connecte…

Panasonic to Conduct Space Exposure Experiments Aiming to Develop Cutting-edge Electronic Materials for Aerospace Applications

Osaka, Japan – Panasonic Industry Co., Ltd. (Headquarters: Kadoma-shi, Osaka; Representative Director, President, CEO: Shinji Sakamoto) announced today that it will conduct space exposure experiments[…

SD-Audio, les cartes SD avec des DRM pour la musique

Connaissez-vous les SD-Audio ? Probablement pas, car ces cartes SD protégées par des DRM ne sont jamais réellement sorties du Japon.

Si vous connaissez un peu les cartes SD, vous savez peut-être que le logo vient d’un format de disques abandonné, mais aussi que le S signifie Secure. En effet, une des différences entre les cartes SD et les MMC va venir de l’épaisseur (pas toujours)… mais aussi de la protection des données. Pour simplifier, les cartes utilisent le DRM « CPRM » pour stocker l’audio sur une carte SD. La norme est intégrée dans les cartes directement, et il existe des cartes incompatibles (comme l’explique la SD Association). Il y a quelques informations dans la FAQ de la SD Association, mais l’idée va être de chiffrer les données sur la carte SD, pour empêcher la copie et limiter les transferts de données (notamment sur le nombre de copies).

La page Wikipedia japonaise l’explique, et je lie la japonaise pour une bonne raison : le SD-Audio n’a pas été utilisé à ma connaissance en dehors de ce pays. Il faut bien dire que c’est assez frustrant à l’usage : le SD-Audio chiffre les données, ce qui implique pas mal de choses. Premièrement, il faut passer par un logiciel spécifique, SD-Jukebox est le plus courant, et il pourrait presque faire passer iTunes, Sonic Stage ou OpenMG pour des trucs ergonomiques. Deuxièmement, les lecteurs (physiques) SD-Audio n’acceptent généralement que les fichiers chiffrés. Il y a une liste sur Wikipedia, mais elle est assez mince : quelques baladeurs Panasonic, JVC et Toshiba, des appareils de chez Panasonic (téléviseurs, lecteurs Blu-ray, autoradio, etc.) et pas mal de téléphones japonais du début des années 2000. On parle ici d’une époque ou les téléphones japonais étaient très différents des smartphones actuels, mais aussi très différents des téléphones européens et américains. On trouve aussi parfois du SD-Audio dans des appareils OneSeg (la TV mobile japonaise) et dans des choses plus exotiques comme certaines platines vinyles Technics. Ensuite, il faut une carte compatible CPRM, mais ce n’est normalement pas un souci : toutes les cartes sorties avant 2018 le sont obligatoirement (ou, plus simplement, toutes les cartes de 2 Go et moins). Enfin, le point qui m’a le plus bloqué, il faut un lecteur de cartes SD compatible.

SD-Jukebox

Franchement, c’est vraiment la partie tendue. La page Wikipedia, encore une fois, en liste plusieurs, qui proviennent de chez Panasonic en grande partie, avec en plus un modèle Buffalo (DH-OP-SDCR) et un modèle I-O Data (USB2-SDMV). Sur le papier, ça semble simple : il suffit de trouver un des lecteurs compatibles. En pratique, ça ne l’est pas : ils ne sont pas réellement UMS (c’est-à-dire utilisables sans pilotes). Ou – plus exactement – la partie liée aux DRM nécessite un pilote. Forcément, vous êtes en train de vous dire que je suis un bras cassé, que ça se télécharge un pilote. Malheureusement… non. Premièrement, Panasonic ne distribue plus les pilotes depuis 2018 (aucune idée de la raison). Deuxièmement, même quand ils étaient disponibles, les pilotes demandaient une authentification : il fallait entrer le numéro de série du lecteur pour accéder aux téléchargements, ce qui a rendu le passage par archive.org impossible. Pour tout dire, j’ai trois lecteurs : un arrivé avec le baladeur (sans pilotes), un arrivé seul (sans le disque de pilotes, donc) et un troisième, arrivé – lui – avec le CD contenant les pilotes. J’ai archivé le tout si quelqu’un en a besoin, du coup.

Les trois lecteurs

Le dernier point a été SD-Jukebox. Le programme n’est pas spécialement rare, mais si vous voulez un peu comprendre comment ça fonctionne, je vous conseille d’aller chercher la version 2.4 “E” (en anglais). Il y a aussi quelques autres programmes et versions ici.

Un soft qui supporte mal plusieurs coeurs… très 1990


Les pilotes du lecteur USB


Quelques infos

Un petit essai

Pour essayer, j’ai trouvé un baladeur Panasonic, le SV-SD70. C’est assez compact pour le début des années 2000, et il fonctionne avec une simple pile AAA et une carte SD, donc. Il ne se relie pas directement à un PC en USB et n’accepte pas les fichiers MP3 standards (ce serait trop simple) : le passage en SD-Audio est obligatoire. Après avoir installé les pilotes, j’ai testé avec mes trois lecteurs : ça fonctionne avec un modèle USB 2.0 (BN-SDCLP3) et un USB 3.0 (BN-SDCMP3) mais pas avec le BN-SDCAAD, qui a peut-être besoin d’un autre pilote. Dans les trois cas, la carte SD est lisible, mais avec le lecteur “incompatible”, SD-Jukebox donne une erreur. Bien évidemment, il faut Windows (et plutôt une ancienne version) et pas un Mac.

Le baladeur et sa grosse boîte inutile


Le baladeur


Avec la carte SD

Dans SD-Jukebox, donc, on peut importer des données depuis un CD ou depuis des fichiers existants. Visiblement, il encode en AAC (protégé) depuis un CD ou du WAV, mais peut aussi gérer le MP3 protégé, ainsi que le WMA protégé. Une fois les fichiers encodés, on peut les transférer trois fois (si j’ai bien compris) vers une carte (check-out), et le chemin inverse est aussi possible (check-in), comme souvent avec des limites (n’espérez pas passer des fichiers à vos amis). Le programme lui-même n’est pas très clair, mais on peut notamment lister le contenu de la carte SD avec un bouton (oui, par défaut, il n’affiche rien). Bien évidemment, DRM oblige, on doit passer par le programme pour toutes les opérations de transfert… La copie elle-même va dépendre de la carte SD et un peu du lecteur, mais ça peut être rapide. L’encodage d’un CD m’a semblé un peu long, mais en même temps j’utilise un lecteur optique de PC portable dans une machine virtuelle, donc ce n’est pas la situation idéale.

Si on n’a pas le bon lecteur de cartes


L’importation d’un CD


La conversion d’un fichier


Les options


La liste sur ma carte SD


Les infos sur un fichier


Le transfert a bien fonctionné

Et les fichiers me direz-vous ? Il sont dans un dossier caché (SD_AUDIO) et sont évidemment illisibles avec les programmes standards (l’extension est SA1). Bien évidemment, tout fonctionne parfaitement dans le baladeur (que je ne peux pas vraiment appeler « lecteur MP3 »), et heureusement.

Les fichiers cachés et illisibles

La conclusion ? Le SD-Audio n’a jamais été un succès, même au Japon. Et comme tous les trucs basés sur des DRM et des logiciels compliqués et propriétaires, c’est (très) vite énervant.

Mettre à jour la Retroquest, la « Pippin mini »

J’avais déjà parlé de la Retroquest, une console chinoise (ou japonaise, je ne sais pas trop) qui reprend plus ou moins le design de la Pippin, mais en mini (et en gris). Et quand j’avais parlé de la Jumbo (une version un peu modifiée), j’avais expliqué qu’il était possible de mettre à jour.

Franchement, ce n’est pas évident. Premièrement, il faut télécharger un fichier énorme (~30 Go) sur Google Drive (parce que bon, un serveur, ça doit être trop cher). Et le fichier n’est pas copain avec macOS : lors de la décompression automatique, je me suis retrouvé avec un fichier de 4 294 967 295 octets. La valeur ne vous parle probablement pas, mais c’est 4 Gio – 1 octet. En récupérant le fichier dans la corbeille et en le décompressant avec The Unarchiver, c’est mieux. Ensuite, surtout, il faut un câble idiot : un USB-A vers USB-A. Comme le fabricant de la console n’a pas mis de prises micro USB sur sa console, il faut passer par la prise USB (femelle) d’une des manettes… et donc utiliser un câble hors-norme. Au départ, j’ai bien tenté avec un câble USB-C vers USB-A, mais ça ne fonctionne pas. Enfin, bon, ça se trouve facilement sur Amazon (même si j’ai dû en commander deux).

USB vers USB


Ensuite, il faut lancer un programme (fourni aussi sur Google Drive), charger l’image disque, attendre qu’elle soit vérifiée, connecter la console en suivant les instructions (presser Menu, brancher le câble sur la prise USB de droite, lâcher Menu) et écrire les données. C’est… lent. Il a fallu un peu plus de 50 minutes pour copier les ~32 Go de l’image disque dans la console.

Le soft


La validation (lente)


Le flash (lent)


Done !

Et qu’apporte la mise à jour ? Quelques ajustements sur les jeux « Arcade », un jeu en moins sur PlayStation (je ne sais pas lequel) et l’ajout de jeux pour MSX et MSX2. Il y a d’ailleurs une liste sur le site, ce qui montre le nombre de jeux (illégaux) préinstallés. Mais la nouveauté principale, montrée , c’est que la console accepte d’autres manettes que les mauvaises copies de manettes Super NES. J’ai testé ma manette de Mega Drive (six boutons) et celle de Saturn sans soucis. Par contre, ma manette « Pippin » ne fonctionne pas, dommage. Globalement, les manettes et joystick USB qui suivent à peu près la norme devraient fonctionner et c’est plutôt un bon point.

MSX2


MSX


Arcade

Bon, ça reste toujours une mauvaise console en chinoisium, mais qui ressemble à une Pippin…

Test rapide : une prise connectée HomeKit Meross

Récemment, j’ai acheté deux prises connectées Meross, compatibles avec HomeKit. Et elles permettent de couper les LED (c’est important pour moi).

Je ne suis pas un adepte des prises connectées au départ, parce que quand j’ai commencé à tester et installer de la domotique, je ne voyais pas tellement les usages. J’ai toujours préféré changer les ampoules directement plutôt que domotiser la prise, par exemple. Mais avec le temps, j’en ai installé plusieurs pour régler un problème idiot : les appareils qui plantent. J’ai une caméra HomeKit qui se déconnecte de temps en temps, un Power Mac G3 instable ou un pont domotique qui perd parfois la connexion. Et la seule solution pratique consiste à couper le courant pour redémarrer. Du coup, j’ai des prises connectées qui ne servent qu’à ça, même si c’est un peu bête : j’aurais préféré des appareils stables.

Et pour le cas du pont domotique – un Eve Extend -, j’avais besoin d’une prise compatible Thread ou Wi-Fi, mais pas Bluetooth. Encore une fois, c’est un peu idiot : le pont est dans la pièce pour gérer les objets Bluetooth, qui sont un peu trop loin des concentrateurs HomeKit. Donc je ne peux pas installer une prise Eve Energy (Bluetooth) pour rebooter le pont Eve. Comme les prises Eve Energy Thread restent assez onéreuses, je suis parti sur des prises Meross en format français (type E). Avec les promotions, elles valaient 31 € pour deux (le prix d’une seule Eve Energy en promotion).

Sur le côté technique, je n’ai rien à dire : l’installation a été rapide, le code pour HomeKit est sur la prise, la prise s’est connectée au réseau Wi-Fi rapidement (2,4 GHz) et la prise supporte 16 ampères (~3 500 W, largement de quoi gérer n’importe quel appareil). En fait, la prise Meross a un défaut : elle est énorme. Mais genre vraiment, avec 6,7 cm de côté, dans un format (presque) carré. En pratique, ça passe si c’est pour mettre au niveau du mur, mais pas vraiment sur une multiprise. Sur la photo, je vous mets une Eve Energy (première génération) et elle est vraiment plus compacte. Pour tout dire, elle est tellement imposante que j’ai dû changer de multiprise : sur celle en place, la Meross bloquait au moins une prise adjacente. Heureusement, j’avais un bloc qui a la bonne idée de séparer un des emplacements des autres, mais même comme ça, la Meross bloque en partie le trou qui est à côté.

Eve à gauche, Meross à droite


Meross à gauche


Là, on voit bien la différence de taille

Le second truc à dire (qui n’est pas forcément un défaut, et je le connaissais), c’est que la prise ne mesure pas la consommation. Pour mon usage, ce n’est pas vraiment un problème : j’ai un wattmètre dédié, et de toute façon j’utilise prise à 95 % avec HomeKit… qui ne gère pas ce type de données. L’Eve Energy le fait, par exemple, mais uniquement dans l’application dédiée.

Compte tenu du prix, la prise (enfin, les prises dans le cas présent) offre un bon rapport qualité/prix. La liaison Wi-Fi est efficace, la prise répond bien et HomeKit marche bien. Le seul problème, vraiment, c’est la taille du bloc. Au passage, méfiez-vous il existe plusieurs variantes et certaines sont incompatibles avec HomeKit. Ce n’est évidemment pas un obligation, mais je suppose que si vous lisez ce site, c’est important. Enfin, elle existe en type E (la mienne, avec une broche cylindrique pour la terre) et en type F, avec deux contacts latéraux pour la terre. En pratique, les deux fonctionnent en France : si vous avez des câbles IEC récents, ils sont probablement compatibles avec les deux types. Mais sur quelques vieux appareils français avec des câbles fixes, vous n’aurez parfois que la broche.

Le problème de la LED

Il faut que j’ajoute un truc vraiment important pour moi : la possibilité de couper la LED de la prise. Je veux du noir complet dans ma chambre, et même dans les autres pièces, je préfère éviter les lumières inutiles. Pas réellement pour l’écologie dans le cas présent (la consommation de la LED est totalement anecdotique), donc, juste pour des raisons totalement personnelles.

Et donc la prise de Meross propose l’option dans son application, et c’est une bonne idée. Assez bizarrement, il y a la même option pour la multiprise mais pas pour la double prise de la même marque (ne me demandez pas la raison, je ne la connais pas).

Avec la prise Meross, on peut couper la LED

Et par acquis de conscience, je suis allé vérifier si les prises Eve Energy proposaient cette option (c’est rarement mis en avant dans les présentations des produits) et la marque fait encore mieux. Elle propose d’abord un mode « Protection enfants », qui va empêcher d’activer la prise manuellement (ça désactive le bouton physique). Mais surtout, on peut régler la LED sur trois niveaux de luminosité, et régler son fonctionnement. Elle peut être coupée, activée quand la prise est allumée (le comportement par défaut) et activée quand la prise est coupée (je ne vois pas bien le cas d’usage, mais pourquoi pas). Franchement, c’est absolument parfait, et j’aimerais vraiment que les autres appareils proposent cette granularité.


Animator James Curran Renders 3D NFT Collection using Conductor

James Curran is not afraid of the bleeding edge. As an animator, he’s always been drawn to emerging software and new forms. He dabbled in Flash as a teenager, and learned to use Autodesk Maya and Adobe After Effects at university. He’s worked in video games, orchestrated month-long GIFathons in foreign cities, and collaborated with […]

The post Animator James Curran Renders 3D NFT Collection using Conductor appeared first on Broadcast Beat.

Evolving Energy Solutions to Contribute to a More Sustainable Society

The United Nations released a report in April warning that if urgent action is not taken to substantially reduce harmful carbon emissions, the world will face "unprecedented heatwaves, terrifying storms, widespread water shortages" and become uninhabitable. However, the UN's Intergovernmental Pane...

Advancing the Discussion on Reducing Carbon Emissions

On July 13, the Panasonic Group held its second sustainability management briefing followed by a panel discussion on the responsibility of reducing carbon emissions. In the opening session, Group CEO Yuki Kusumi announced the release of the Group's GREEN IMPACT PLAN 2024 (GIP2024), a milestone tow...

Analysis of Automotive Security Technology from Patent Data: Panasonic Ranks No. 1 in Japan, U.S. and Europe

Background Yokohama, Japan - With the innovative development of automated driving technologies, the progress of digitalization, and the increase in the number of vehicles connected to networks, known as connected cars, the risk of cyber attacks targeting automobiles is increasi...

Mettre à jour un BlueSCSI

Ça fait un moment que j’ai un BlueSCSI et quand j’ai voulu le mettre dans un PowerBook (on va en reparler), je me suis rendu compte qu’il n’était pas à jour. Si les dernières versions permettent une mise à jour en USB (c’est simple), le mien a nécessité un peu plus de manipulations.

La base, c’est le programme BlueSCSI Updater. Vous aurez aussi besoin (sous macOS) d’installer Homebrew et (s’il est déjà installé) de mettre à jour. Je l’indique parce que j’ai eu une erreur lors de mon premier essai. Donc si vous avez déjà installé Homebrew, c’est le moment de taper deux commandes.

brew update
brew upgrade

Maintenant, le côté physique : vous aurez besoin d’un adaptateur USB ST-Link V2 (j’avais le mien depuis des années, payé 3 € en 2018) et évidemment du BlueSCSI. Il faut enlever la carte microSD et simplement brancher quatre fils. Il faut relier GND, SWDIO, SWCLK et 3.3V aux broches correspondantes (rien de compliqué).

BlueSCSI et ST-Link

Ensuite, après avoir téléchargé le code de BlueSCSI Updater, j’ai lancé le programme flash-mac.command (clid droit -> ouvrir).

Un joli menu

Il faut ensuite choisir le menu numéro 2, qui va installer des programmes avec Homebrew (ce qui explique que c’est nécessaire). Dans mon cas, j’ai eu une erreur sur les outils de développement, mais les commandes listées dans la fenêtre ont permis de régler le problème.

Homebrew


Un souci vite réglé

Une fois le programme installé, il va demander de modifier la position d’un cavalier de 0 à 1 (BOOT0, le plus éloigné du bouton reset) et de brancher le BlueSCSI via le ST-Link. Le flashage a été très rapide.

Ca flashe

L’étape suivante nécessite un câble micro USB : il suffit de brancher le BlueSCSI (sans le ST-Link) et laisser le programme mettre à jour la carte.

Ca flashe (mais une autre partie)

C’est bon

Pour les prochaines fois, si un nouveau firmware sort, la méthode est nettement plus simple : BlueSCSI Updater fonctionne directement avec la liaison USB, sans passer par le ST-Link.

Relier un appareil photo numérique à une Pippin

Après avoir parlé de l’appareil photo Casio QV-10 sur le Mac, je l’ai testé… sur la Pippin. L’idée n’est pas totalement nouvelle : un des CD reçu avec une console de développement contenait le programme nécessaire, et j’avais vu quelqu’un (il y a de longues années) le faire avec Pease.

Pour commencer, j’ai donc utilisé le CD-R contenant la version japonaise du programme. Avec le câble spécifique aux Macintosh, ça fonctionne : il faut bien vérifier le port série utilisé (modem ou imprimante), lancer le programme, allumer l’appareil photo et tester. C’est la version 1.10 du logiciel en japonais (j’ai aussi la 1.21 en français) et elle a un comportement bizarre. En fait, j’ai dû de façon récurrente cliquer deux fois dans les menus pour qu’ils apparaissent. Les menus sont les mêmes que sur la version Mac… parce que la Pippin est (presque) un Mac comme les autres. C’est juste plus lent que sur un Power Mac G3 (il a fallu descendre la vitesse du port série, notamment) et je ne peux évidemment pas sauver les photos dans ce cas précis. Enfin, plus exactement, je pourrais sauver quelques photos sur la mémoire flash de la console (de seulement 128 ko) ou brancher un disque dur, un lecteur de disquettes ou même un lecteur de MO, mais j’ai juste enregistré la séquence sans sauver l’image. Les captures sont floues à cause de la carte d’acquisition (de temps en temps, le signal n’est pas propre).

Le programme sur le CD



Une erreur de liaison


Quelques options


La liste des photos


Chargement en cours


Une photo récupérée

Dans l’ensemble, ici, ça reste une sorte de démonstration technologique. C’est lent, pas très pratique depuis le CD, et la Pippin n’est pas l’appareil le plus évident pour partager des données vu l’absence de mémoire de masse par défaut.

Avec Pease

Pour Pease, il y a moyen de faire des choses amusantes. Pour commencer, j’ai branché un lecteur de disquettes à la console et j’ai placé le programme (en français) dessus. Avec Pease (Turbo ici), il est en effet possible de lancer un logiciel depuis la disquette. Mais peine perdue : les messages d’erreurs avec des accents bizarres sont les seules choses obtenues. J’ai donc mis le programme japonais sur la disquette (celui du CD-R vu plus haut). Avec ce dernier, ça fonctionne : il faut bien régler le bon port série dans l’interface, puis il est possible de charger les images depuis l’appareil photo et de sauver le tout sur la disquette. Attention, par défaut il sauve dans le format propriétaire de l’appareil photo, mais un menu « Enregistrer sous… » permet de faire du TIFF ou du PICT. Le programme lui-même nécessite 357 ko sur la disquette, donc on peut enregistrer 4 ou 5 images en TIFF en plus (elles font 231 ko). Bon, ça reste franchement lent (51 secondes pour charger une photo) et il faut tout de même un Mac derrière pour récupérer les photos, mais c’est faisable. Pour se donner une idée, mon Power Mac G3 à 300 MHz charge l’image en 6 secondes, en partie parce que la liaison est plus rapide, mais surtout parce que le CPU est (beaucoup) plus rapide.

La VF


La configuration


Et les erreurs


La version japonaise


La liste des images


Une photo chargée


La sauvegarde sur une disquette

Je vous mets l’image récupérée avec la disquette.

La version native

Je dirais bien que c’est un peu idiot d’essayer de lire des photos numériques depuis une console comme celle-ci, mais je ne suis pas le premier à l’avoir fait : le CD-R de développement contenait le logiciel, et une personne l’avait tenté avec Pease.

Le Casio QV-10, le premier APN avec un écran LCD (sur Mac)

Quand j’avais parlé du Casio QV-10 (il y a même un article dans Canard PC Hardware, abonnez-vous !), j’avais évoqué la récupération des photos et le passage sous Windows. Depuis, j’ai récupéré un câble pour Mac.

Petit rappel : le QV-10 est le premier appareil photo numérique avec un écran LCD pour voir les photos (et viser, aussi). Il est sorti en 1995 et ne se connectait donc pas en USB et n’utilisait pas de cartes mémoire. Les deux méthodes pour voir les photos (en dehors de l’écran médiocre) étaient simples : une connexion à un téléviseur (en composite) et une connexion à un ordinateur, en option, via un port série. Je l’avais expliqué, l’appareil utilise son propre protocole et le câble est actif : il contient de l’électronique pour effectuer la conversion de sa prise jack 2,5 mm (3 points) vers RS-232 (dans le cas du PC) et RS-422 (dans le cas du Mac). Je n’avais que le câble PC et même avec un adaptateur, je n’avais pas réussi à l’utiliser sur Mac. J’ai donc cherché (et trouvé) la version Mac, équipée d’une prise Mini DIN 8. Pour le logiciel, j’ai récupéré la version française du logiciel, qui ne fonctionne qu’avec le QV-10 (et pas le QV-100).

Le câble “PC”


Le câble “Mac”

Le logiciel est basique : on peut soit générer des miniatures (plusieurs secondes, j’y reviendrais), soit récupérer les images en fonction de leur position dans l’appareil (si vous savez ce que vous avez pris en dernier). A l’importation, le programme propose soit de récupérer en définition native (320 x 240), soit en 640 x 480 (avec un upscale). Idem à la sauvegarde, avec la possibilité de sauver en PICT (le format d’époque d’Apple) ou en TIFF (sans compression, plus pratique en 2022).


Les réglages


La liste des photos


C’est vite brouillon


Transmission (lente) en cours


La sauvegarde


Ca ne marche pas avec le QV-100

Point à noter, alors que c’est généralement plutôt le contraire, le PC est plus rapide que le Mac. Il prend 7 secondes pour récupérer les miniatures et 3 secondes pour récupérer une image complète (dans une machine virtuelle sous Windows XP, avec un adaptateur USB vers série). Sur le Mac, il faut 11 secondes pour les miniatures et 6 secondes pour l’image (4 secondes de transfert, 2 secondes de calcul pour l’affichage). Habituellement, le RS-422 des Mac est plus rapide, donc, mais pas ici.

L’appareil par l’appareil


L’adaptateur


En mode macro


Selfie


Selfie upscalé par le logiciel

❌