Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

VideoNow, la vidéo (moche) sur un CD Audio (bis)

Il y a bien 5 ans, j’avais fait un article sur VideoNow, une technologie qui permettait de stocker de la vidéo sur des CD Audio, pour proposer des lecteurs pour les enfants, à bas prix. Et en faisant une brocante en début d’été, je suis tombé sur un lecteur avec quelques disques, donc j’ai craqué.

Le lecteur est assez gros, prévu pour des mains d’enfant (et pour résister à des enfants, d’ailleurs). L’écran semble perdu au milieu de l’appareil, et il est assez mauvais : il y a beaucoup de rémanence et c’est sûrement au mieux du 320 x 240 (je n’ai pas mesuré). Mais à l’usage, ce n’est pas si mal pour les gosses : c’est solide, il y a des séries qu’ils aiment bien (j’ai des épisodes de Totally Spies!, Jimmy Neutron, des trucs sur Hilary Duff, etc.). L’image est évidemment meilleure avec des dessins animés, on voit bien trop les défauts avec des séries en live, et l’appareil est rétrocompatible avec la version noir et blanc de la technologie, même si c’est franchement pixellisé/moche dans ce cas là. On sent de toute façon vraiment l’orientation vers le coût et le côté pratique, avec par exemple des piles AA pour l’alimentation.

Le lecteur


Il utilise des piles


Quelques boutons et prises


Quelques exemples de vidéos

J’avais expliqué comment ça fonctionne à l’époque, mais je vais résumer. Premièrement, les disques monochrome : l’image est encodée dans l’audio d’un des canaux et c’est évidemment assez basique : du 80 x 80 à 5 images/s. Le MPEG était évidemment exclus pour des raisons de coût : ça devait être simple à décoder. Les versions en couleurs encodent en 144 x 80 en faisant tourner le disque plus vite (mode 2x). Truc amusant, les disques sont techniquement des CD Audio, mais avec un diamètre particulier : 108 mm pour les versions couleurs. La raison est vraiment pragmatique : Hasbro (Tiger) vendait des kits permettant de graver ses propres vidéos, et ce diamètre oblige les utilisateurs à acheter les disques de la marque. Les lecteurs n’acceptent pas les disques classiques de 12 cm et le logiciel ne permet pas d’encoder moins de 15 minutes, pour empêcher l’utilisation de CD-R de 8 cm.

Avec un VideoNow couleur


En natif (144 x 80)


Le disque est plus petit qu’un DVD

Si je trouve un jour des disques vierges (ou si je me motive à découper un CD), je vous montrerais qu’il est possible de mettre ses propres vidéos sur le VideoNow.

Les Blu-ray qui permettent de télécharger des MP3 en réseau

Récemment, un lecteur m’a montré un truc intéressant (merci M.E.), un Blu-ray qui permet de télécharger des MP3 vers un PC.

C’est notamment le cas sur le Blu-ray de l’OST de Final Fantasy VII : le disque contient un dossier avec des MP3 (lisible depuis un PC qui a un lecteur de Blu-ray) et les menus en Java permettent de générer une page qui va permettre de télécharger les MP3. Il faut un lecteur Blu-ray connectés, mais ça passe. Des réponses que j’ai eu sur Twitter, c’est assez courant dans les Blu-ray de musique depuis quelques années.

Avec VLC

A l’origine, on m’a envoyé l’ISO uniquement, et j’ai testé avec VLC. Mais ça ne fonctionne pas : le logiciel n’affiche pas les menus entièrement, il n’y a pas les textes et donc pas la possibilité de se déplacer dans les menus. Ensuite, j’ai voulu tenter sur un lecteur de Blu-ray, mais je suis tombé sur un problème : le disque fait plus que 25 Go et je n’avais que des BD-R(E) de cette capacité. Comme les BD-R DL de 50 Go valent assez cher (comptez au moins 25 € la boîte de 5), j’ai acheté directement le disque au Japon et attendu qu’il arrive.

Le menu avec VLC

Avec le vrai disque, c’est même impossible de lire le disque : il est assez récent et utilise un protection MKB70 et je n’ai pas les clés nécessaires.

Dans l’absolu, de toute façon, le fait que VLC ne propose pas le téléchargement des MP3 n’a pas d’impact réel : si vous essayez de lire le disque avec VLC, vous avez forcément un lecteur de Blu-ray sur l’ordinateur… donc un accès direct aux MP3.

Les fichiers sur le disque


Le menu explique comment faire

Avec un vrai lecteur de Blu-ray

J’ai d’abord testé avec le lecteur Samsung installé dans mon salon, puis – pour l’enregistrement – avec un vieux modèle Sony (un BDP-S490). Première chose à savoir, au départ j’avais une erreur : le disque indiquait que je n’avais pas accès au réseau. Mais c’est normal : le lecteur bloque l’accès au réseau pour les disques par défaut. Une fois l’option activée, ça a fonctionné. La page affiche une adresse IP (celle du lecteur), il suffit de se connecter (en http et pas en htpps) sur une page qui va afficher la liste des fichiers. En gros, le lecteur Blu-ray lance un serveur Web en Java (je crois) avec la possibilité de télécharger le contenu du disque.

Le menu complet, avec la section MP3 Download


Pas d’accès au réseau


L’option (chez Sony)


Ca fonctionne


La page, épurée

Ça fonctionne assez bien, mais les performances dépendent du lecteur. Pour se donner une idée : un des fichiers fait 132 Mo, il faut 23 secondes avec un lecteur Sony, 1 minute 58 avec le second, 33 secondes avec mon lecteur Samsung et 21 secondes avec une PlayStation 4. C’est entre ~1,1 Mo/s sur le lecteur le plus lent et ~6 à 7 Mo/s sur le plus rapide.

Après, très franchement, j’aurais apprécié autre chose que des fichiers MP3, même si c’est du 320 kb/s.

SuperDisk LS-240 : jusqu’à 32 Mo sur une disquette 1,44 Mo

A la fin des années 90, Imation avait essayé de lancer un successeur à la disquette avec le LS-120. J’avais déjà parlé de mon lecteur IDE, de la meilleure façon de récupérer les données et même de l’appareil photo LS-120 de Panasonic. Mais là, j’ai récupéré un LS-240.

Le LS-240 utilise la même technologie : un média de la taille d’une disquette avec un laser pour suivre les pistes pour le stockage. Comme le nom l’indique, la capacité passe de 120 à 240 Mo. Il n’y a pas grand chose à dire sur ce format : c’est assez lent (1 minute 45 pour un fichier de 18,5 Mo, soit 175 ko/s en écriture, ~300 ko/s en lecture), la capacité a bien doublé et la rétrocompatibilité existe. Un lecteur LS-240 lit donc les disquettes classiques et les disques LS-120. Bien évidemment, c’est uniquement rétrocompatible : les disques LS-240 ne passent pas dans un LS-120.

Le lecteur


USB fixé et prise propriétaire

Le lecteur Panasonic, un LK-RF240U, est compact et alimenté en USB, ce qui est une bonne nouvelle : les lecteurs LS-120 nécessitent souvent une prise de courant. Le mauvais point, c’est que le câble USB est intégré dans le lecteur, et qu’il est ridiculement court. A l’arrière, une prise interface sert sûrement à connecter le lecteur à du PC Card ou un truc dans le genre (le manuel en japonais ne semble pas indiquer exactement son usage). Ca ressemble à une interface de CD-ROM de PC portable, mais le positionnement bloque un peu.

Une disquette LS-240

Des disquettes de 32 Mo

Le truc intéressant avec les lecteurs LS-240, c’est qu’ils peuvent stocker 32 Mo sur une disquette de 1,44 Mo. Comment ? En utilisant les mécanismes d’asservissement pour graver une piste bien plus fine (on passe de 80 pistes à 777 (de 87,5 microns à 18,8) et donc stocker plus de données. Le problème, c’est que l’écriture demande des réglages particuliers et donc un logiciel dédié. C’est tout sauf pratique… et surtout lent. J’ai tenté avec un fichier de 18,5 Mo. Premièrement, il faut compter une vingtaine de secondes de préparation. Ensuite, l’écriture elle-même a pris 4 minutes et 10 secondes (74 ko/s). Une fois la disquette gravée, le lecteur affiche le contenu mais il est impossible d’écrire directement. En fait, il faut écrire entièrement la disquette à chaque fois, à chaque modification, un peu à la manière d’un CD-RW. En lecture, c’est heureusement nettement plus rapide : ~320 ko/s (le fichier écrit a été lu en moins d’une minute).

Le logiciel sous Windows


Attention…


On peut transférer avec un explorateur maison


Ecriture en cours


32 Mo


Une disquette de 32 Mo

En théorie, ça doit fonctionner sans les outils, au moins pour la lecture. Sous macOS Catalina, Utilitaire de disques voit bien une disquette de 32 Mo, mais impossible de la monter. Mais avec une machine virtuelle sous Windows, ça fonctionne. J’ai écrit une disquette sous Windows XP et lu le contenu sous Windows 7, sans erreurs. Même chose sur un vieux Mac. Au passage, la disquette contient tout de même une zone lisible sur les lecteurs de disquettes classique, avec un message qui demande de lire la disquette dans un lecteur LS-240.

macOS ne monte pas la disquette

Note for Windows user:
This disk is formatted as FD32MB. If you want to format this disk
as 1.44MB again, please select normal format option. If you select
quick format option, the disk does not work correctly.

Note for MAC user:
This disk is formatted as FD32MB. You can not format this disk
as 1.44MB again from standard formatter.

Pour les amateurs de (vieux) Mac, Panasonic livrait des pilotes… pour Mac OS. Pas Mac OS X, Mac OS. Bon, lecteur japonais oblige, les pilotes sont évidemment dans la langue du pays lors de l’installation, mais le programme SuperWriter32 existe donc sur Mac (et est en anglais une fois installé). Il permet, comme sous Windows, d’écrire jusqu’à 32 Mo sur une disquette. Bien évidemment, c’est tout aussi lent, et c’est encore pire si on ajoute des fichiers : le logiciel va lire la disquette, créer une sorte d’ISO et ensuite l’écrire entièrement, ce qui prend… beaucoup de temps.

Mac OS (9) voit les pilotes


Le choix du lecteur


Le programme fonctionne sous Mac OS

Au passage, les pilotes arrivent sur un CD-ROM mais aussi sur une disquette formatée en 32 Mo.

Les pilotes, sur une disquette 32 Mo

Pour conclure, comme pour le lecteur Hi-MD montré récemment, c’est une fausse bonne idée. Les LS-240 offrent une capacité correcte pour l’époque, mais c’est lent, et le mode permettant de mettre 32 Mo sur une disquette classique a tellement de limites qu’il n’a pratiquement aucun intérêt. C’est horriblement lent, l’écriture nécessite des manipulations trop compliquées et – dixit la société – la fiabilité moyenne.

Kyocera DA-1, l’appareil photo « pré-numérique » meilleur que les Canon ION

J’avais déjà parlé des Canon ION, une gamme d’appareils photo un peu particulière. Ces précurseurs des modèles numériques avaient en effet pas mal de défauts, mais Canon n’est pas la seule marque à avoir travaillé sur le sujety. j’ai récupéré récemment un Kyocera DA-1 et c’est bien plus convaincant.

Les Canon ION enregistrent une image vidéo (littéralement) sur une sorte de disquette magnétique. Ce n’est pas du numérique : c’est un signal analogique enregistré sur un support analogique, l’équivalent d’un arrêt sur image. La définition est donc assez moyenne, avec en gros une image 480p analogique en NTSC. Mais la disquette permet une lecture rapide, le stockage de 50 images et la suppression directe des clichés ratés.

DA-1 vs. ION

La gamme ION, spécialement les modèles d’entrée de gamme (Canon RC-25x et x60), pose pas mal de soucis. La forme est atypique, plus proche d’une paire de jumelle que d’un appareil photo (comme les premiers QuickTake d’ailleurs), l’alimentation s’effectue avec une batterie au plomb propriétaire, et la fiabilité est moyenne. Pour tout dire, si mes RC-250 et 251 font des photos, la relecture est impossible, et mon RC-260 est en train de mourir. Et Canon a complexifié un peu l’utilisation de ses appareils, avec des sorties vidéo qui passent par un bloc d’alimentation qui sert aussi à charger la batterie, etc.

Un appareil plus convainquant

Le Kyocera DA-1 reprend un design bien plus classique (et plus efficace) avec un format proche des appareils compacts de l’époque. On a donc un objectif qui sert à allumer l’appareil, un emplacement latéral pour la disquette, etc. Il n’a pas d’écran, mais pour le reste, ça ressemble aux compacts numériques du début des années 2000, et il date de 1996. Dans les avantages, on a le fait qu’il s’alimente avec des batteries classiques (CR123A, pas les plus courantes, mais ça se trouve) et qu’il peut s’alimenter avec une alimentation secteur standard (en 6 V). Même chose pour la sortie vidéo : c’est une prise jack 3,5 mm 4 points. Dans le pire des cas, comme moi, il suffit de tester toutes les possibilités pour avoir une image.

Shot with DXO ONE Camera



Pas d’écran

Même la partie pour regarder les images est plus simple : on allume l’appareil avec le bouton Play et on navigue avec les deux flèches. Sur les ION, c’est assez lourd à utiliser pour deux raisons : l’interface ne boucle pas (une fois arrivé sur la dernière photo, on doit reculer) et l’appareil « affiche » les zones sans photos (la disquette contient techniquement 50 emplacements). Avec le Kyocéra, ça boucle et ça passe les zones vides.

L’insertion de la pell… de la disquette

Sinon, c’est un modèle HiVF donc avec une qualité en théorie un peu meilleure, mais ce n’est pas flagrant. Comme souvent avec ces appareils un peu vieux, ce n’est pas très net, et l’exposition est aux fraises dans pas mal de cas.

En intérieur


Mon bureau


En extérieur, surexposé


Petite déception, je n’avais pas de disquettes avec, et donc pas d’images amusantes à récupérer. Enfin, l’appareil a une sortie vidéo numérique, mais je n’ai pas le câble et je n’ai pas réussi à trouver le manuel ni les informations sur la sortie en question. De toute façon, vu le fonctionnement des appareils de ce type, dans le meilleur des cas la sortie en question numérise directement l’image analogique.

Starfish granted international patents for TS Splicer

Reading, UK, 19 August 2020: Starfish Technologies, a pioneer in transport stream processing and advertising insertion, has been granted European and US patents that cover a range of techniques employed within its TS splicer product. The TS Splicer is a software-based solution for clean switching of encoded transport streams and is used for media switching and ...

The post Starfish granted international patents for TS Splicer appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

ATX2AT Smart Converter : l’adaptateur pour alimenter vos vieux Mac

Mon ancien collègue (et rédacteur en chef) de Canard PC Hardware, Samuel Demeulemeester, est un fou d’électronique, et il fabrique des trucs. Et parfois, des trucs intéressants, comme l’ATX2AT Smart Converter. Et malgré son nom, il fonctionne avec de vieux Mac.

Avant de commencer, il faut être clair : j’ai acheté l’adaptateur sur Kickstarter, comme n’importe qui. Samuel m’a juste fourni un câble pour alimenter un vieux Mac (un LC III), avec en plus une petite surprise : il s’était trompé dans le brochage. Donc je vais dire du bien de son adaptateur… parce que c’est un bon produit.

A la base, l’adaptateur a été pensé pour les vieux PC : il permet d’utiliser une alimentation moderne (ATX) avec un appareil qui demande de l’AT. Et surtout, il fait bien ça. Premièrement, il fournit une tension de – 5 V. Pas mal vieux ordinateurs (et surtout quelques vieilles cartes ISA) nécessitent en effet cette tension négative pour fonctionner, et c’est d’ailleurs le cas sur certains Mac. Deuxièmement, il permet de gérer correctement la demande en énergie : les ordinateurs modernes utilisent essentiellement du 12 V, les anciens du 5 V. L’adaptateur va limiter (et monitorer) ce qui passe pour éviter de voir de la fumée sortir de l’appareil. Il est programmable, il offre un petit écran qui affiche les informations, et il est possible de choisir les limites pour chaque tension. Enfin, il protège votre alimentation (et le matériel) des accidents éventuels. Il vaut ~50 € directement chez l’auteur.

La carte avec l’adaptateur Mac


Les câbles AT et Mac

Maintenant, parlons de mon cas particulier. Je l’ai acheté pour mes vieux Mac, notamment un Macintosh LC III dont l’alimentation est parfois capricieuse. Plus généralement, c’est assez courant sur ce modèle de se retrouver avec une alimentation qui claque (littéralement, elle font une sorte de tac tac tac) et qui nécessite des réparations. Et au lieu de la réparer ou de trouver un bloc d’occasion pour un usage occasionnel, passer par l’adaptateur et une alimentation ATX a du sens. Ce n’est pas forcément intéressant pour un usage standard : les alimentations ATX sont souvent volumineuses et le prix monte vite, mais pour des tests ponctuels, c’est très efficace. Et au pire, il reste possible d’installer l’adaptateur et une alimentation « Pico ATX » (des modèles très compacts) directement dans le boîtier, vu la consommation assez faible de ces modèles.

L’alimentation d’origine

Le Macintosh LC III (comme tous les LC) a un bloc assez basique, et l’ordinateur s’allume uniquement avec un bouton physique, pas par le clavier. J’avoue que je ne sais pas comment l’adaptateur fonctionne avec les modèles qui s’allument au clavier et nécessitent une tension permanente (même si elle est faible) sur le 5 V. Pour le Macintosh LC, le brochage est simple : deux fils pour la masse, un pour le + 5 V, un pour le + 12 V et un pour le – 5 V. Samuel m’avait fait un câble (en inversant le + 5 et le – 5 par erreur), donc pas de soucis. Au passage, le brochage est inscrit sur le PCB de la carte mère, donc ce n’est pas trop compliqué.

Par défaut, l’adaptateur limite à 4 A pour le 5 V (20 W) et 0,5 A pour le 12 V (6 W). J’ai donc vérifié sur l’alimentation d’origine et réglé l’adaptateur sur les bonnes valeurs. Elle fournit 3,75 A sur le 5 V (c’est OK) et 0,75 A sur le 12 V. Pour tout dire, par défaut, l’adaptateur arrête le Mac en indiquant qu’il y a un problème sur le 12 V, au démarrage, il demande bien donc plus que 0,5 A. Une fois réglé sur 1,5 A, pas de soucis. Les limites hautes sont 8 A en 5 V et 4,75 A en 12 V, donc c’est assez large pour les vieux appareils. Plus largement, le connecteur en sortie de l’adaptateur fournit la msse, le + 5 V, le – 5 V, le + 12 V et le – 12 V, donc c’est adaptable assez facilement à n’importe quel vieil ordinateur qui se base sur ces tensions.

Les valeurs de l’alimentation d’origine

Lors de mes tests, je n’ai pas eu de soucis : j’ai alimenté le Mac avec une vieille alimentation ATX, fait des benchs, etc. Tout fonctionne bien, et une fois réglé sur les bonnes valeurs en sortie, c’est stable. En dehors de la sécurité, l’adaptateur permet surtout d’utiliser des alimentations ATX qui sont souvent silencieuses (surtout sur des charges faibles) et bien plus efficaces que les alimentations de l’époque.

Après un certain temps (réglable), l’adaptateur coupe l’écran


Ca fonctionne bien

Donc si vous travaillez souvent avec de vieux ordinateurs, l’ATX2AT Smart Converter a sa place dans votre boîte à outils, aux côtés de l’émulateur de disquettes et de l’adaptateur pour remplacer un HDD par de la mémoire flash.

Enfin, il y a aussi une application Windows pour effectuer les réglages facilement, mais je ne l’ai pas encore testée.

Un LaserDisc accéléré : l’apprentie sorcière de Disney

Il y a quelques mois, je parlais des films accélérés à la télévision, et du problème du PAL speed up. Et j’expliquais que certains LaserDisc faisaient la même chose. J’ai donc trouvé un disque pour donner un petit exemple.

Je ne parle pas de LaserDisc PAL, qui sont accéléré à cause du transfert du cinéma (24 fps) vers les 25 fps d’un LaserDisc. Mais bien de films en LaserDisc, en NTSC, accélérés pour rentrer dans la longueur maximale d’un disque. La LaserDisc est un format analogique, avec des contraintes physiques fortes : chaque image prend une taille définie et il n’est pas possible de moduler la compression. Il existe différents modes d’enregistrement pour les LaserDisc, et le premier porte le nom de CAV. Dans ce mode, le disque tourne à une vitesse constante et chaque image prend physiquement un tour de disque. On peut stocker environ 30 minutes sur un disque NTSC, et comme un tour correspond à une image, on peut effectuer un arrêt sur image parfait. Le second mode, CLV, tourne à une vitesse variable, et chaque image prend physiquement la même longueur de piste. On peut donc stocker plus d’images (la piste est plus longue à l’extérieur) mais l’arrêt sur image propre n’est pas possible en analogique. On voit souvent qu’on peut stocker 60 minutes en CLV, mais ce n’est pas tout à fait exacte. En réalité, une bonne partie des disques « CLV » utilise du CAA, une méthode qui utilise des paliers pour la vitesse de rotation. Au lieu de la modifier graduellement, elle varie par étapes. Il existe plusieurs modes CAA, du CAA55 (~55 minutes) au CAA70 (~70 minutes). Le dernier mode date de la fin des LaserDisc et n’a jamais vraiment été utilisé, la limite réelle est vers 61 minutes (NTSC) et un peu plus de 63 minutes (PAL).

Cette version est plus courte. Dans un sens.

Au début des années 80, les modes permettant de stocker plus de 55 minutes n’existaient pas, et avant 1987, il n’était par exemple pas possible de stocker plus de 55 minutes avec de l’audio en numérique. Mais revenons au problème de l’accélération, qui est lié. Au début des années 80, donc, la limite pratique se situe entre 55 et 60 minutes par face, ce qui pose un souci : que faire avec les films qui font environ 2 heures, mais à peine plus ? Les éditeurs, pour éviter de devoir fabriquer deux disques pour un film (un LaserDisc possède deux faces) ont une idée : accélérer les films. On parle alors de films « Time Compressed », et c’est courant au début des années 80. En vrac, on trouve Battlestar Galactica (le film), qui fait 118 minutes au lieu de 123 minutes, certains James Bond, ou de vieilles éditions des premiers Star Wars, comme A New Hope (vers 1982) ou The Empire Strikes Back. Pour ce dernier, ils ont même enlevé les logos qui passent avant le film pour gagner quelques secondes. Dans tous les cas, on retrouve le symptôme du PAL speed up : une image un peu accélérée (peu) et un son légèrement plus aigu.

Pour mon exemple, je me suis procuré l’apprentie sorcière de Disney, dans sa version de 1983. La jaquette annonce 117 minutes, le film fait en réalité 113 minutes. Pour comparer, j’ai pris la version disponible sur Disney+, qui utilise le même montage. Il existe en effet différentes versions (plusieurs montages) du film, vous trouverez des infos sur le site « Les grands classiques », qui offre une analyse de la version standard (celle du LaserDisc, et disponible sur Disney+) et de sa version longue.

La valeur annoncée (117 minutes) est fausse

Et donc je vous propose quelques extraits (on va espérer que Vimeo ne bloque pas trop) pour bien comparer les deux et voir les différences de vitesse. On voit bien que le LaserDisc (en haut dans les deux scènes) est nettement plus rapide. Et à la fin, même si ça ne s’entend pas énormément, le son est un peu plus haut dans le second passage (le LaserDisc). L’accélération globale est assez faible : ~3,5 % et je n’ai aucune idée de la technique utilisée.

La technique a été utilisée sur les LaserDisc, mais aussi sur les CED (un autre format de disques contenant de la vidéo), au moins sur Star Wars. La page LDDB du film donne bien 118 minutes et 120 minutes pour les deux premiers. Le problème est exactement le même : les disques (avant 1984) se limitaient à 120 minutes, et la capacité a été augmentée plus tard (126 minutes en 1984). Sur les disques modernes (DVD, Blu-ray, etc.), le problème de la durée est plus rare. D’une part parce que la capacité de stockage est élevée, ensuite parce qu’il est possible de jouer (un peu) sur la compression pour que ça rentre. Ce choix peut poser des soucis de qualité (surtout quand on essaye de caser plusieurs bandes sonores) mais n’oblige pas à accélérer la vidéo.

Upright Go 2, le capteur pour bien se tenir

Aujourd’hui, petit test d’un produit dédié à la santé, le capteur Upright Go 2. Cet objet connecté compatible avec HealthKit va vous permettre de corriger votre posture.

Le produit a été financé sur Kickstarter au départ, et il va vous permettre de vous tenir droit. Le fonctionnement est simple : le capteur (placé sur la nuque) vibre quand vous n’êtes pas droit. Il travaille avec deux étapes : l’entraînement et le suivi. Dans le premier mode, l’appareil va vibrer et vous prévenir que vous vous tenez mal. Dans le second, il va enregistrer votre position, pour avoir des statistiques. La durée d’entraînement varie avec le temps, et en fonction de votre activité. Il est possible de définir si vous êtes essentiellement assis, debout (ou les deux), de définir une limite pour les alertes, etc. Pour passer de l’entraînement au suivi, il suffit de presser le bouton, ou de passer par l’application.

Le capteur


L’application détecte que je ne suis pas droit


Quelques réglages de vibrations

Truc à savoir, il existe deux versions : Upright Go et Upright Go 2. Attention à la confusion, surtout que certains – Apple – l’entretiennent. En France, la société vend l’Upright Go 2 (USB-C) mais sous le nom Upright Go. il faut aussi ne pas oublier une chose : il n’est pas waterproof, mais uniquement « splashproof ». En gros, il va résister à votre sueur, mais il ne faut pas aller nager avec. Le premier modèle, le Go, se charge en micro USB, avec une batterie annoncée pour 10 heures. Le second, le Go 2, passe en USB-C avec 35 heures d’autonomie, et il est plus petit. Il y a peu de raisons de préférer le premier, sauf si vous le trouvez à un très bon prix. Il y a donc une batterie, parce que oui, évidemment, nous ne sommes pas dans un film de science-fiction : il a besoin d’énergie et il ne se charge pas sur notre nuque.

Entrainement


Suivi

Le prix, justement. Le capteur Go 2 vaut environ 100 €, avec dans mon cas un kit d’adhésif en plus.

Premier truc, qui m’énerve, le capteur est USB-C pour la charge mais arrive avec un câble USB-C vers USB-A. C’est assez courant comme problème : il faut un adaptateur ou un autre câble pour charger l’appareil sur un Mac USB-C. Et pour un produit vendu notamment par Apple, c’est un peu dommage. On trouve aussi une boîte de rangement au déballage, mais c’est assez basique : c’est juste un étui avec un trou pour la prise USB-C, ce n’est pas une boîte de charge comme les AirPods (par exemple).

La boîte de rangement

Dans la boîte, vous trouverez aussi des adhésifs et de quoi nettoyer votre peau (et l’appareil). Dans la pratique, la fixation est assez bonne : ils annoncent 10 jours avec un adhésif et il y en avait ving-deux dans la boîte. Ca peut sembler un peu léger au premier abord, mais le capteur tient bien dans le dos (ou sur des vêtements, même si ce n’est pas très esthétique) et il est possible de le fixer à un collier, vendu à part. Question autonomie, j’ai tenu environ 3 jours sur une charge, ce qui est plutôt correct sur le ce genre de produits. Le seul défaut, c’est que l’indicateur de batterie n’est pas très visible, il est dans un coin du menu hamburger de l’app’.

Les adhésifs


La batterie, en haut à gauche

Parlons de l’application. Elle demande pas mal d’informations sur vous, informations qu’elle pourrait obtenir grâce à l’intégration de HealthKit. C’est un peu dommage de devoir ajouter manuellement des informations qui existent déjà dans le téléphone, mais comme expliqué plus bas, la prise en charge de HealthKit (Santé) est anecdotique. Je déplore aussi un peu un truc : l’application est en anglais, et pas en français. Par contre, il y a une application Apple Watch, qui offre les fonctions de base et le passage entre les modes, c’est plutôt efficace.

Des statistiques

Enfin, il faut passer rapidement sur l’intégration dans l’application Santé : l’app’ écrit dans Pleine conscience (Mindful minutes en anglais), la catégorie liée notamment à la respiration sur l’Apple Watch ou la méditation dans Petit Bambou. Il n’y a pas de notion de santé dans l’absolu, c’est donc essentiellement lié à la concentration, aux efforts faits pour rester droit.

Santé est une option


Dans Santé


Dans Santé

Est-ce que je me tiens plus droit ? Peut-être, en tout cas, je me pose un peu plus la question, mais je n’ai pas encore fini la période de trois semaines annoncées. Mais le produit a l’avantage d’être discret, pas trop bruyant et se fait facilement oublier en temps normal, et ce n’est pas plus mal. L’intégration Santé est un peu faible, mais l’application du produit reste complète et fonctionne bien.

Disney repense la manière de modéliser des visages réalistes

Par : Shadows

Les outils comme ZBrush sont particulièrement puissants pour créer des visages humains 3D, mais nécessitent des compétences importantes pour y parvenir, qu’il s’agisse de maîtriser l’anatomie ou le logiciel.

A l’inverse, des outils simple d’accès permettent de créer facilement des visages, mais il s’agit typiquement d’approches très contraintes avec peu de liberté, comme on en croise dans les jeux vidéo pour choisir un avatar.

Face à ce constat, Disney Research dévoile (dans le cadre de l’Eurographics Symposium on Geometry Processing 2020) une voie alternative : une approche intuitive même pour les débutants et qui produit des visages plausibles sur le plan anatomique, tout en proposant une plus grande liberté de création.

La vidéo ci-dessous, qui accompagne la publication (Interactive Sculpting of Digital Faces Using an Anatomical Modeling Paradigm), done une idée des résultats possibles et de la méthode de travail. L’artiste dispose d’une part d’une série de curseurs, d’autre part d’outils permettant de manipuler facilement et directement la géométrie : ajout de points de déformation, de régions d’influence pour modifier physiquement le modèle mais aussi pour appliquer l’influence des curseurs à une zone réduite.
En coulisses, le système s’appuie sur un modèle anatomique local construit à partir de centaines de scans 3D de personnes aux caractéristiques variées (origine, genre, taille, poids, etc). Les modifications de l’artiste sont mises en relation avec ce modèle, qui apporte des contraintes assurant un résultat qui reste plausible. Le tout s’appuie sur le GPU, avec des performances suffisantes pour un usage interactif.

Comme le montre la fin de la vidéo, il est possible de créer en une dizaine de minutes un visage unique et plausible. Un temps similaire à celui pris par des artistes confirmés, mais qui ne nécessite justement pas de disposer de compétences avancées.
Disney explique que cette méthode pourra être utilisée pour des projets de type animation/VFX à budget réduit. Le modèle anatomique pourra aussi être employé dans le secteur du jeu vidéo.

Digitally sculpting 3D human faces is a very challenging task. It typically requires either 1) highly-skilled artists using complex software packages for high quality results, or 2) highly-constrained simple interfaces for consumer-level avatar creation, such as in game engines. We propose a novel interactive method for the creation of digital faces that is simple and intuitive to use, even for novice users, while consistently producing plausible 3D face geometry, and allowing editing freedom beyond traditional video game avatar creation. At the core of our system lies a specialized anatomical local face model (ALM), which is constructed from a dataset of several hundred 3D face scans. User edits are propagated to constraints for an optimization of our data-driven ALM model, ensuring the resulting face remains plausible even for simple edits like clicking and dragging surface points. We show how several natural interaction methods can be implemented in our framework, including direct control of the surface, indirect control of semantic features like age, ethnicity, gender, and BMI, as well as indirect control through manipulating the underlying bony structures. The result is a simple new method for creating digital human faces, for artists and novice users alike. Our method is attractive for low-budget VFX and animation productions, and our anatomical modeling paradigm can complement traditional game engine avatar design packages.

Interactive Sculpting of Digital Faces Using an Anatomical Modeling Paradigm
Auteurs :
Aurel Gruber (DisneyResearch|Studios/ETH Joint M.Sc.) 
Marco Fratarcangeli (Chalmers University of Technology/DisneyResearch|Studios)
Gaspard Zoss (DisneyResearch|Studios/ETH Joint PhD)
Roman Cattaneo (DisneyResearch|Studios)
Thabo Beeler (DisneyResearch|Studios)
Markus Gross (Disney Research/ETH Zurich)
Derek Bradley (DisneyResearch|Studios)

L’article Disney repense la manière de modéliser des visages réalistes est apparu en premier sur 3DVF.

Pliant® Technologies Announces New V1.8 Firmware Update for its CrewCom® Intercom System

AUBURN, AL, JULY 16, 2020 — Pliant Technologies announces the release of its version 1.8 firmware update for all CrewCom wireless intercom systems and devices. This new V1.8 firmware offers several significant improvements, including refined communications for network devices, and provides an overall enhanced user experience for Pliant’s CrewCom customers. The 1.8 firmware update includes ...

The post Pliant® Technologies Announces New V1.8 Firmware Update for its CrewCom® Intercom System appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Le capteur d’UV de La Roche-Posay, l’iPhone 11 et Santé

Depuis un moment, je regardais un objet connecté lié à la santé : le capteur UV My Skin Track de La Roche-Posay. Mais j’avais un problème : il communique par NFC et mon iPhone SE ne gérait pas cette technologie.

J’ai donc profité de mon passage à l’iPhone 11 pour tenter. Et je suis bien embêté : il ne fonctionne pas. Ou – plus exactement – il ne fonctionne pas avec mon iPhone 11.

Le capteur sur son clip

Le produit lui-même est assez sympathique : c’est un minuscule capteur qui mesure les UV et peut vous prévenir (dans une certaine mesure) quand vous dépassez la dose recommandée. Il est livré avec deux clips : un qui permet de le fixer sur un vêtement (par exemple sur le col), un second pour le mettre autour du bras. L’objet est compact, assez discret, j’aime bien. Le fonctionnement reste un peu particulier : il ne contient pas de batterie à recharger (il s’alimente avec la lumière) et communique par NFC.

Sur son bracelet

Ce point limite largement la compatibilité : chez Apple, il faut un iPhone 7 au minimum. Les anciens modèles supportent bien le NFC, mais uniquement pour Apple Pay (iPhone 6, 6S et SE). Sous Android, ça marche par contre de façon assez large. Je mets en avant Apple pour deux raisons : la ligne éditorial du bsite, mais aussi un truc particulier : en France, La Roche-Posay ne vend pas le capteur en direct, il est uniquement disponible chez Apple. Ce choix pose aussi un autre problème : il ne communique pas comme les objets Bluetooth, il faut donc scanner manuellement le capteur, en NFC, pour récupérer les données. Si on a des doutes sur la dose d’UV, il faut donc le faire régulièrement.

Ca ne va pas plus loin avec mon iPhone 11

Mon problème, donc, c’est que s’il est annoncé compatible iPhone 11 chez Apple et chez La Roche-Posay, ça ne fonctionne pas. Au départ, j’ai pensé que le NFC de l’iPhone avait un souci (c’est le premier appareil que je testais). Mais en essayant avec un smartphone Android, ça fonctionne. Puis j’ai cherché. Dans les commentaires de l’application en français, deux personnes n’arrivent pas à le faire fonctionner (dont une avec un iPhone 6S, c’est normal). Les commentaires sur la version américaine sont encore moins bons. Et sur la page du produit aux USA (où il est vendu en direct), une bonne partie des commentaires indique que ça ne fonctionne pas avec les iPhone 11. Je ne sais pas si c’est lié aux iPhone 11 ou à iOS 13, mais ça ne marche pas. La réponse du SAV français est indigente, et j’ai aussi contacté le SAV américain (si j’ai une réponse, j’en parlerais).

Les accessoires

J’ai donc testé avec mon smartphone Android, sans l’intégration Santé. De toute façon, l’application est similaire, il y a juste visiblement un souci qui a été corrigé sous iOS : même avec une application en français, elle affiche la température en °F par défaut sous Android, et vu les commentaires sous iOS, ça a été le cas à une époque. A noter qu’il faut quand même une bonne exposition pour que le capteur décide de réagir : après 15 minutes en plein soleil, il ne disposait pas assez d’informations.

Sous iOS


Sous Android


Il capte


Il synchronise


Une température en °F ?


Poser le capteur 3 heures au soleil, ça donne ça.

C’est un peu compliqué de donner mon avis, je n’utilise pas assez mon smartphone Android et je préfère centraliser les données dans Santé. Mais le concept reste intéressant… quand ça fonctionne. J’espère que j’aurais une réponse du SAV, sinon il risque de repartir chez l’envoyeur.

En Avant, Soul : Pixar dévoile en vidéos ses derniers secrets techniques et artistiques

Par : Shadows

Pixar a mis en ligne de nouvelles vidéos et publications sur les dernières avancées et recherches du studio, employées notamment sur le film d’animation En Avant (sorti en début d’année) et sur Soul, prévu pour la fin 2020.

  • « Garment Refitting for Digital Characters », pour commencer, est une technique permettant d’ajuster des vêtements 3D entre différents personnages de morphologies variées. Le plan présenté dans la vidéo montre montre un cas concret : les jeans du premier homme ont été adaptés pour l’enfant, et celui de la femme adulte à l’adolescente. Le sweat du premier homme a été ajusté à tous les autres personnages. Enfin, le pantalon du second homme a été ajusté pour correspondre à la taille de l’adolescent.
    Fernando de Goes, Donald Fong, Meredith O’Malley, qui présenteront une publication sur le sujet durant le SIGGRAPH, donnent quelques détails techniques ci-dessous. La technique s’appuie sur des itérations successives avec deux grandes étapes : une phase de relaxation (le vêtement est adapté à la forme de la cible tout en minimisant les distorsions du mesh) et une phase de réajustement qui remet à zéro l’espace entre le vêtement et le corps du personnage à l’aide de valeurs données par l’utilisateur.
    La technique gère des contraintes variées comme les épaisseurs multiples ou les coutures, et a été employée sur le film Soul.

We present a new technique to refit garments between characters of different shapes. Our approach is based on a novel iterative scheme that alternates relaxation and rebinding optimizations. In the relaxation step, we use affine-invariant coordinates in order to adapt the input 3D garment to the shape of a target character while minimizing mesh distortion. In the rebinding step, we reset the spacing between the refitted garment and the character body controlled by user-prescribed tightness values. Our method also supports additional constraints that encode the spatial and structural arrangement of multi-layers, seams, and fold-overs. We employed this refit tool in Pixar’s feature film Soul to transfer garment pieces between various digital characters.

  • « Sculpt Processing for Character Rigging » vise à accélérer le travail de rigging : l’utilisation de sculpts permet en effet de corriger efficacement les rigs de déformation, mais demande un travail fastidieux et beaucoup de nettoyage manuel. Les outils présentés par Fernando de Goes, Patrick Coleman, Michael Comet, Alonso Martinez durant le SIGGRAPH, et détaillés là encore dans une publication, permettent d’accélérer drastiquement la génération et la réutilisation de ces éléments.

Pose-space sculpting is a key component in character rigging workflows used by digital artists to create shape corrections that fire on top of deformation rigs. However, hand-crafting sculpts one pose at a time is notoriously laborious, involving multiple cleanup passes as well as repetitive manual edits. In this work, we present a suite of geometric tools that have significantly sped up the generation and reuse of production-quality sculpts in character rigs at Pixar.
These tools include a transfer technique that refits sculpts from one model to another, a surface reconstruction method that resolves entangled regions and a relaxation scheme that restores surface details. Importantly, our approach allows riggers to focus their time on making creative sculpt edits to meet stylistic goals, thus enabling quicker turnarounds and larger design changes with a reduced impact on production. We showcase the results generated by our tools with examples from Pixar’s feature films Onward and Soul.

  • « FaceBaker: Baking Character Facial Rigs with Machine Learning », publication de Sarah Radzihovsky, Fernando de Goes, Mark Meyer, part du constat que les rigs utilisés au cinéma sont très complexes et donc lourds à utiliser. L’idée est ici d’utiliser le machine learning pour déterminer des déformations approximatives du mesh facial, afin d’alléger les calculs associés. La méthode a d’autres avantages, comme la portabilité de rigs propriétaires sur des plateformes externes.

Character rigs are procedural systems that deform a character’s shape driven by a set of rig-control variables. Film quality character rigs are highly complex and therefore computationally expensive and slow to evaluate. We present a machine learning method for approximating facial mesh deformations which reduces rig computations, increases longevity of characters without rig upkeep, and enables portability of proprietary rigs into a variety of external platforms. We perform qualitative and quantitative evaluations on hero characters across several feature films, exhibiting the speed and generalizability of our approach and demonstrating that our method out performs existing state-of-the-art work on deformation approximations for character faces.

  • « Making Souls: Methods and a Pipeline for Volumetric Characters », enfin, est une publication de Patrick Coleman, Laura Murphy, Markus Kranzler, Max Gilbert. Comme son nom l’indique, elle se concentre sur les personnages fantomatiques du futur long-métrage Soul.
    Pixar nous indique ici que le style visuel a nécessité l’implication de nombreuses personnes au sein du studio, de l’art department au lighting en passant par les shaders, TDs, développeurs. L’enjeu artistique était d’équilibrer l’aspect éthéré des âmes avec un design attrayant et une bonne lisibilité.
    L’équipe s’est notamment appuyée sur un système procédural sous Houdini pour obtenir l’aspect doux des personnages et les lignes dynamiques, et a mis en place un système de contrôle automatisé pour gérer les calculs de façon configurable et prendre en compte, lors des rendus, les modifications faites aux performances des personnages.

The soul characters in Disney/Pixar’s Soul have a stylized appearance that sets them into a unique world, which introduced many new challenges. Everyone from the art department and character modelers and shaders to the technical directors and developers in the effects, lighting, and software groups collaborated to bring this new visual style to screen. The soul world is abstract and ethereal; this needed to be balanced with visual clarity and design appeal. As our character rigging and animation tools use rigged surfaces, a key challenge was presenting a new representation derived from this data that meets our visual goals. To achieve softness of volumetric form and dynamically changing linework, we built a system to procedurally generate this data in Houdini. Significant numerical computation was required to create this data at the fidelity required. We developed an automated system for managing this computation in a configurable way, while keeping data for downstream renders in sync with changes to character performances.

Rappelons pour finir que Soul devrait sortir le 25 novembre en France.

L’article En Avant, Soul : Pixar dévoile en vidéos ses derniers secrets techniques et artistiques est apparu en premier sur 3DVF.

Plus de détails sur Unreal Engine 5 : quelles performances et limitations ?

Par : Shadows

Epic Games a publié une présentation autour de son moteur Unreal Engine, qui revient sur les avancées des déclinaisons 4.x mais aussi et surtout sur la très attendue version 5.

Nick Penwarden (VP of Engineering) et Marcus Wassmer (Engineering Director) reviennent sur la partie technique, puis le directeur artistique Jerome Platteaux propose une plongée dans la démo « Lumen in the Land of Nanite » sous UE5.
Voici le timing des éléments les plus intéressants, puis la vidéo :

  • La partie Unreal Engine 5 débute à 10 minutes environ ;
  • à 11 minutes 35, début de la présentation de Nanite, le nouveau moteur de géométrie. Epic Games dévoile les capacités du système mais aussi les performances, présentées comme largement compatibles avec une cible de 60 images/seconde en jeu ; la partie mémoire est également abordée vers 14 minutes 45. A 15 minutes 30 vient le détail de ce qui est géré ou non : l’équipe s’est concentrée sur la géométrie rigide et opaque. A l’inverse, les objets translucides, les déformations non rigides ou encore tessellation/displacement sont classés en « investigations futures ». Enfin, certains éléments comme les feuilles, cheveux, l’herbe devront passer par des techniques de rendu plus classiques ;
  • vers la 17ème minute, place à Lumen, nouveau système d’illumination globale dynamique. Là encore, beaucoup de détails sur ce qui est déjà géré, puis (18 minutes 20 environ) les éléments en cours de développement. En particulier, Lumen ne permet pour le moment que de tourner autour des 30fps sur les consoles next gen, Epic Games souhaitant plutôt atteindre les 60fps ;
  • à 21 minutes, place aux personnages réalistes et à leur animation, avant de passer à 23 minutes 30 aux interactions (nouveau moteur physique Chaos, dépréciation de PhysX) et à l’audio vers 24 minutes 15 ;
  • à partir de 25 minutes 40, outils d’édition de mondes massifs, outils de développement, ou encore vision des différentes plateformes (en particulier, l’abandon des consoles current-gen n’est pas au programme, et Epic Games rassure aussi sur son attention envers le marché mobile) ;
  • à 30 minutes, une frise chronologique qui vous aidera à savoir comment gérer la transition. Epic Games souligne que les utilisateurs peuvent faire la bascule au moment opportun, puisque UE4 gère les consoles next gen : il n’y a donc pas d’impératif à sauter le pas immédiatement. Lors de l’upgrade, vos projets UE4 devraient continuer à fonctionner sans problème (avec toutefois du travail supplémentaire si vous travaillez sur une version modifiée du moteur).
    L’éditeur encourage cependant d’adopter UE5 dès sa disponibilité (avec la preview début 2021) pour les projets dont le lancement aura lieu après le lancement de la release finalisée, fin 2021. Epic Games promet d’ailleurs que le jeu Fortnite basculera sous UE5 avant cette release, histoire de prouver que son nouveau moteur est utilisable en production ;
  • enfin, à partir de 30 minutes 46, place à Jerome Platteaux et à la démo « Lumen in the Land of Nanite » : s’il s’agit évidemment d’une démo technique soignée, cette partie de la présentation pourra tout de même vous donner une idée de ce dont UE5 sera capable, via un cas concret.

L’article Plus de détails sur Unreal Engine 5 : quelles performances et limitations ? est apparu en premier sur 3DVF.

La disquette du disque Cyberpunk de Billy Idol

J’aime bien les disques avec du multimédia, et Cyberpunk de Billy Idol, qui date de 1993, est un des premiers qui propose une expérience de ce type. Contrairement à d’autres trucs testés ici, il ne s’agit pas d’un CD-ROM : le CD était livré avec une disquette pour Mac.

Sur la jaquette du CD, il est uniquement indiqué de trouver un Mac avec un écran couleur. La disquette elle-même indique qu’il faut un Mac avec un écran 12 pouces couleur (c’est du 512 x 384), 3 Mo de RAM et un Mac sous System 6.0.7 (et plus). Il s’agit d’une disquette de 1,44 Mo bien remplie (il reste 19 ko) avec un programme qui utilise Macromedia Director (une sorte d’ancêtre de Flash). La page Wikipedia indique qu’un CD-ROM avait été imaginé au départ, mais que le format – rare à l’époque – impliquait des coûts trop élevés. Et comme l’album a été mal reçu, il n’a jamais été réédité en CD-ROM, comme prévu initialement.

Le CD


La disquette


Un Mac couleur


Un peu plus de détails

Le premier problème a été de faire fonctionner le logiciel. J’ai d’abord testé sur un Power Mac G3 (sous Mac OS 9), sans succès. Le programme indiquait un problème de mémoire. Ensuite sur un Macintosh LC III, et là j’ai eu des erreurs de l’OS (error 3). La machine a le maximum de RAM aussi, peut-être le problème. Enfin, ça a fonctionné sur un Macintosh IIsi. Pour la capture en vidéo, je l’ai fait depuis une image disque de la disquette. En dehors du fait que je n’avais pas envie de l’abîmer vu son âge, c’est surtout extrêmement lent à charger. La capture du son a aussi été compliquée : la sortie du Mac est vraiment mauvaise. Et pour l’image, j’ai dû chercher un adaptateur capable de forcer le 512 x 384 demandé (ils ne proposent pas tous l’option), pour une capture en 1 024 x 768 (ma carte d’acquisition double).

Avec 128 Mo de RAM.

C’est une expérience assez particulière, et c’est plutôt impressionnant pour un truc stocké sur une disquette. C’est un peu psychédélique, le son est finalement assez correct même si on sent bien les boucles, etc. Le programme propose les paroles des chansons, quelques informations sur l’auteur et sur la disquette, ainsi que quelques animations assez bizarres. C’est un peu compliqué à expliquer, donc j’ai enregistré le tout.

Voici quelques captures (elles sont doublées par ma carte d’acquisition).










Withings ajoute la détection de l’apnée du sommeil au Sleep

Quand une société fait bien son boulot, il faut en parler. Withings, il y a quelques mois, lançait le Sleep Analyzer. Cette « amélioration » du Sleep, que je possède, amenait la détection de l’apnée du sommeil, mais augmentait le prix du produit : il passait de 100 € à 130 €. Et Withings a ajouté récemment la fonction en question à l’ancien Sleep.

Au départ, j’était un peu dégoûté : cette détection avait été promise au lancement du Sleep, et – surtout – les premiers retours indiquaient que le Sleep et le Sleep Analyzer sont identiques. Et environ deux mois plus tard, comme promis, Withings a eu une bonne idée : la détection de l’apnée du sommeil arrive sur le Sleep classique. Il faut une application à jour et le firmware 1991, ensuite ça offre la même chose que le Sleep Analyzer. Dans mon cas, je n’ai même pas fait la mise à jour manuellement, c’était visiblement automatique.

La page de support l’indique bien, le Sleep offre les même fonctions. Bon, Withings joue un peu la langue de bois et sur les mots pour mettre en avant le « nouveau » modèle, vu qu’il est vendu plus cher, mais il faut être clair : un Withings Sleep (encore vendu 100 € chez Amazon) offre la même chose qu’un Sleep Analyzer. Pour moins cher.

Sinon, Withings explique que sa technologie a été validée scientifiquement avec des essais cliniques. Et actuellement, il n’existe pas de catégorie dans Santé pour l’apnée du sommeil (peut-être dans iOS 14, qui prendra en charge des catégories symptômes). Attention tout de même : le Sleep détecte l’apnée du sommeil mais ne peut rien faire d’autre.

Hacker une carte mémoire pour activer une fonction chez Olympus

Dans les années 90 et au début des années 2000, il y avait pas mal de formats de cartes mémoire. Et Olympus avait mis une sorte de DRM un peu bizarre dans ses appareils photo : si vous n’aviez pas une carte mémoire de la marque, certaines fonctions étaient désactivées.

Les appareils (comme le Camedia C-220 Zoom) ne permettent en effet l’enregistrement de photos panoramiques que si vous avez une carte SmartMedia Olympus. Et dans mon cas, je n’ai que des cartes d’autres fabricants. Les cartes SmartMedia, il faut le savoir, sont un peu particulières : alors que la majorité des cartes contiennent un contrôleur et de la mémoire, les SmartMedia (et les xD Picture Card) ne contiennent que de la mémoire. Techniquement, il s’agit essentiellement d’une puce de mémoire flash… et c’est tout. Le contrôleur est dans le lecteur ou l’appareil photo.

Pas d’option Panorama


Il faut une carte Olympus


L’appareil

Pour revenir au DRM, donc, il existe une solution : un logiciel qui va formater la carte et ajouter dans les informations que la carte est une Olympus compatible. C’est possible car la carte est une puce de mémoire flash, et que les données sont donc sur la mémoire elle-même, accessible, et pas dans une zone gérée par un contrôleur. Cette zone s’appelle le CIS et les lecteurs peuvent l’écrire. Vu comme ça, ça paraît trivial, mais ce n’est pas si simple. En fait, le logiciel est la version modifiée d’un pilote pour certains lecteurs de cartes SmartMedia en USB. Et donc si vous n’avez pas le bon lecteur, ça ne fonctionne pas.

L’installation d’un lecteur compatible


Un lecteur incompatible (à gauche), une carte et le lecteur compatible (à droite)

La liste est courte, mais la première chose à savoir, c’est que si votre lecteur n’a pas besoin de pilotes (donc s’il est UMS), ça ne fonctionne pas. J’ai trouvé un lecteur Zio sur eBay, mais ça fonctionne aussi a priori avec un modèle Sandisk, un modèle Microtech et un modèle Delkin. La seconde, c’est que le pilote doit être le smprep.exe. Une fois le bon lecteur trouvé, j’ai essayé dans ma machine virtuelle Windows XP… sans succès. Le pilote, prévu pour Windows 98 ou Windows 2000, plante complètement l’OS avec un écran bleu. J’ai donc tenté sous Windows 98, et ça fonctionne.

On joue avec de l’hexa

Le fonctionnement du logiciel est… particulier. Un premier programme (smprep1.exe) va formater la carte avec une erreur, exprès. Une fois la manipulation effectuée, il faut lancer le second programme (smprep2.exe). Sur le coup, avec mon lecteur Zio, j’ai eu un souci : ça ne fonctionnait pas. J’ai donc pris mon éditeur hexadécimal pour faire les modifications. Je suis parti du fichier smprep.exe du pilote de mon lecteur.

Première étape, créer une copie du fichier, par exemple smprep1.exe. Avec un éditeur hexa, il faut remplacer 01 03 D9 01 FF par 02 03 D9 01 FF. Il y a normalement deux occurrences dans le fichier.

Deuxième étape, créer une seconde copie du fichier, par exemple smprep2.exe. Il faut remplacer (là aussi deux fois) 20202020 20202000 20202020 00302E30 00 par une autre chaine. Soit 4F4C594D 50555300 50414E20 00312E30 00 (v1), 4F4C594D 50555300 50414E20 00312E31 00 (pour la version 1.1) ou 4F4C594D 50555300 50414E20 00322E30 00 (pour la version 2.0). Avec mon Olympus Camedia C-220 Zoom, ça a fonctionné avec la seconde chaîne. Je ne sais pas exactement comment vérifier ce qu’attend l’appareil photo.

Maintenant, la méthode. Il faut lancer smprep1.exe. Formater en Full, il va expliquer qu’il y a un souci de CIS à la fin.




Ensuite, lancer smprep2.exe, toujours en Full.








A noter que j’ai deux cartes SmartMedia et qu’une des deux fait une erreur, sans que je connaisse la raison.

Après cette erreur, le CIS n’est pas modifié

L’option panorama

Avec une carte modifiée, l’option apparaît (plus exactement, elle est utilisable). Le fonctionnement est assez classique ensuite : l’écran affiche une zone centrale et deux zones latérales, et il faut fait glisser les images pour que la zone latérale d’un côté passe dans la zone latérale opposée dans la photo suivante. L’appareil enregistre les photos avec un nom spécial, et le logiciel fourni avec l’appareil photo (Camedia Master) permet ensuite la reconstruction de l’image. La vidéo montre rapidement le fonctionnement, avec la sortie analogique de l’appareil. Et le résultat est en-dessous. Il y a quelques erreurs, mais le résultat reste assez bon vu l’âge de l’appareil.

Ca marche


Le logiciel

L’image

Vidéo : H.266 annoncé, avec une promesse ambitieuse

Par : Shadows

L’Insititut Fraunhofer Heinrich Hertz vient d’annoncer le codec H.266, alias VVC (Versatile Video Coding).

Destiné à remplacer le H.265/HEVC, le nouveau codec devrait permettre une division par 2 de la taille des fichiers vidéo à qualité visuelle identique, une promesse qu’il conviendra évidemment de vérifier en pratique. Ce gain permettra évidemment de diffuser plus facilement des contenus 4K voire 8K, ainsi que des vidéos 360° (qui sont sans surprise prises en charge), en diminuant le débit nécessaire et/ou en profitant du gain de poids pour améliorer la qualité visuelle.
A l’heure où la 5G et l’inflation des données fait débat, mais aussi dans une période où les visioconférences sont devenues indispensables, l’annonce tombe à pic.

Il faudra cependant encore attendre quelques mois le temps que les premiers outils compatibles en encodage et lecture soient disponibles (l’institut annonce qu’il publiera « le premier logiciel supportant H.266/VVC » pour l’automne). Puis le lancement progressif de systèmes matériels compatibles, un processus évidemment plus lent. Le H.265, d’ailleurs, 7 ans après son lancement, n’a pas encore réussi à enterrer le H.264 : une hégémonie du H.266 n’est donc pas encore pour demain.

L’article Vidéo : H.266 annoncé, avec une promesse ambitieuse est apparu en premier sur 3DVF.

Roland Sound Space, le son 3D en stéréo

Récemment, j’ai trouvé un LaserDisc intéressant : il contient de l’audio en Roland Sound Space. C’est quoi ça encore ? De l’audio en « 3D » en stéréo.

La technologie est parfois présentée comme un concurrent du Dolby Surround, mais c’est un peu plus compliqué. Le Dolby Surround contient les données pour les enceintes arrières dans l’audio et nécessite bien les enceintes en question (et un décodeur) alors que le RSS (Roland Sound Space) ne nécessite que deux enceintes. Le positionnement est généré au moment de l’enregistrement, pour simuler la présence des enceintes. En 2020, ce n’est pas vraiment mort, d’ailleurs : comme l’explique une des vidéos, c’est du binaural, une technologie revenue à la mode.

Le Roland Sound Space ne fait pas de miracles, ce n’est que du stéréo, mais l’impression de positionnement reste assez présente. Je vous mets les deux versions du contenu du LaserDisc à la fin, il y en a une pour les casques audio et une pour les enceintes. Parce que oui, le LaserDisc permet parfois deux pistes audio : c’est un disque NTSC, donc avec de l’audio en analogique et de l’audio en numérique. On trouve aussi un extrait d’un CD de démo sur YouTube. Le RSS a été un peu utilisé dans les CD Audio (une liste partielle est là) mais aussi dans quelques jeux vidéo. Sega a utilisé le RSS dans quelques jeux Mega CD et Mega LD. Mega LD ? Oui, Sega a proposé, en partenariat avec Pioneer, un lecteur de LaserDisc intégrant une console, le LaserActive, et quelques jeux – sur LaserDisc – contiennent de l’audio en Roland Sound Space. Il y a aussi un disque pour la version NEC de la même console (il y avait plusieurs modules) et quelques LaserDisc de démonstrations, dont le mien.

Le Roland Sound Space, comme le QSound de la même époque, sonne tout de même un peu artificiel en 2020, pour différentes raisons. La première, c’est évidemment qu’on a l’habitude d’entendre du vrai positionnement, que ce soit avec les systèmes home cinema ou avec les solutions modernes pour l’écoute au casque. La seconde, c’est que le positionnement semble exagéré à cause des contraintes de l’époque, notamment dans les jeux vidéo. Les utilisateurs écoutaient beaucoup moins de la musique avec un casque que maintenant, et les téléviseurs en format 4:3 offraient une image stéréo bien plus étriquée que maintenant (et le stéréo n’était pas généralisé). Un téléviseur correct en ~1990 avait une diagonale de ~55 ou ~70 cm (en gros, 45 ou 60 cm entre les deux haut-parleurs) alors qu’un modèle moderne de 55 pouces en 16:9 est bien plus large, avec ~120 cm entre les deux enceintes.

Après, je trouve ça assez convaincant tout de même, vous en pensez quoi ?

D’abord, la version pour les enceintes.

Ensuite, celle pour les casques.

Forcer une sortie sur un serveur d’un pays précis avec Tor Browser sous macOS

J’achète assez régulièrement des objets sur eBay, comme vous avez pu le constater, et j’ai parfois un petit problème : il y a des restrictions géographiques. Certaines annonces ne s’affichent que si vous êtes aux USA. Mais il y a une solution, et je voudrais vous parler de mon sponso…

Non, je déconne, je ne vais pas faire de pubs pour un VPN.

Les restrictions, donc : même si j’ai une solution pour faire envoyer aux USA, c’est peu pratique. Changer les réglages rend les recherches en France pénibles. Si j’ai le lien direct d’une annonce sur ebay.com, ça passe, mais je ne peux par exemple pas lister les ventes d’une personne précise (par exemple celui-ci). La première solution, c’est un VPN, mais je ne compte pas payer pour ça, et je considère que c’est inutile de payer un VPN pour un usage standard. Vraiment.

La seconde solution, c’est Tor Browser. Le logiciel intègre une version modifiée de Firefox et permet de se connecter à Tor facilement. Si vous l’avez déjà utilisé, vous allez vous dire que ça ne règle pas mon problème : l’IP de sortie n’est pas nécessairement aux USA et donc je risque d’être géolocalisé dans un autre endroit. Dans le fonctionnement normal de Tor Browser, c’est le cas, mais il est possible de forcer une sortie sur un serveur dans le pays de l’oncle Sam. Je ne vais pas vous expliquer le fonctionnement de Tor, mais il faut juste savoir que le programme va faire passer vos informations par différents serveurs avant d’utiliser un point de sortie, et que ce point de sortie va déterminer l’adresse IP vue par le serveur (ici eBay) et donc dans certains cas, votre localisation.

Sous macOS, une fois Tor Browser téléchargé, il faut faire un clic seconde sur l’icône du logiciel, choisir Afficher le contenu du paquet, puis se rendre dans /Contents/Resources/TorBrowser/Tor. Là, vous trouverez le fichier torrc-defaults qu’il faut éditer. Pour une sortie aux USA, il faut ajouter ExitNodes {us} à la fin du fichier. Vous pouvez forcer d’autres pays avec les valeurs standards (ISO-3166), en les séparant par des virgules. Il existe aussi d’autres options pour par exemple exclure certains pays.

Avec cette solution, le point de sortie est toujours aux USA, et dans mon cas je peux donc utiliser correctement eBay pour les annonces dans ce pays.

Le double écran sous DOS… pour le debug

Il y a longtemps, j’étais tombé sur un truc marrant sur un forum : des captures de vieux jeux DOS avec un double écran. Certains vieux jeux proposent en effet d’afficher des données sur l’écran classique, mais aussi sur un écran MDA (monochrome). Et donc je me suis dit que j’allais essayer ça.

D’abord, comment ça marche ? En fait, c’est un truc issu des premiers PC. IBM proposait deux cartes graphiques pour le premier PC : une en couleur (CGA) et une en monochrome, en mode texte (MDA). Le mode MDA affichait 80 x 25 caractères à l’écran et il était parfaitement possible d’installer deux cartes en même temps : les zones mémoire ne sont pas les mêmes (B800:0000 en couleur, B000:0000 en monochrome). Vous trouverez une vidéo YouTube qui montre bien ça, et il y a même une commande DOS (mode) qui permet de passer de l’un à l’autre.

Maintenant, comment tester ? Avec DOSBox. Il existe deux solutions, sous Windows dans les deux cas. La première, c’est un petit programme qui va aller lire directement dans la mémoire de DOSBox et afficher le contenu dans une seconde fenêtre. Il est sur Github et il y a une version compilée . La seconde solution, c’est une version modifiée de DOSBox (documentée) qui peut afficher une fenêtre avec le second écran.

Du coup, c’est le moment de tester, et ça m’a pris un peu la tête. Premier truc à savoir, la version classique de DOSBox n’implémente pas mode, donc il faut passer par la version modifiée. Mais quand on tape mode mono, on passe sur l’écran MDA, quand on retape mode bw80, on revient sur l’écran standard.

mode mono envoie sur l’écran MDA


mode bw80 renvoie sur le VGA

J’ai d’abord testé avec des logiciels adaptés. Le premier est un debugger de chez Borland (Borland Turbo Assembler 5.0). Si vous le lancer avec l’argument -do, il affiche normalement le debugger dans l’écran MDA. Attention, ça ne fonctionne pas avec le premier programme. Ensuite, il y a Mah Jongg -V-G-A-. La documentation explique bien qu’il est possible d’utiliser deux écrans, et ça fonctionne assez bien. Selon la version du jeu, il faut parfois le lancer avec l’argument D. La version 3.1 marche bien et affiche des informations sur le second écran.

Avec un logiciel séparé


Avec une version modifiée


Le debugger de Borland passe sur le second écran

Ensuite, il y a les logiciels où ça doit fonctionner… mais ça ne fonctionne pas. En cherchant, je suis tombé sur Rise of the Triad: Dark War. L’exécutable indique que c’est prévu… mais ça ne marche pas. Il n’affiche rien.

L’exécutable indique que ça existe


Le jeu n’affiche rien

Puis il y a les jeux Westwood. Le post de forum d’origine montre des captures de Dune II, Command and Conquer et The Legend of Kyrandia, mais j’ai essayé les trois sans succès. Il y a même une vidéo pour Command and Conquer.

The Legend of Kyrandia


C&C


Dune II


The Legend of Kyrandia met un message quand on quitte

En fait, il faut visiblement activer un mode debug et personne n’explique comment le faire. J’ai donc cherché un peu, et je me suis rendu compte que Red Alert contenait aussi le même mode debug. Donc j’ai cherché un peu, trouvé la commande magique (c’est l’argument -XM au lancement) et testé avec une version bêta du jeu. Dans les versions commerciales, la commande est en effet désactivée, et seules quelques fonctions de debug restent actives. Et de fait, on peut voir pas mal d’infos pendant le jeu. Attention, ça ne fonctionne qu’avec le programme externe : avec la version DOSBox modifiée, il y a un souci de positionnement sur les données.

Ici, c’est bien rendu


Ici, il y a un problème d’alignement

Enfin, dans ce sujet de forum, encore, il y a quelques logiciels qui supportent ça (AutoCAD, Lotus 1-2-3, etc.) et aussi Mechwarrior 2, que j’ai essayé. Il affiche sur le second écran quelques informations sur l’IA.

Il y a quelques infos sur l’IA

Dans tous les cas, c’est assez intéressant de voir comment les développeurs faisaient pour gérer (un peu) les données dans les jeux. De ce que j’ai vu, c’était assez courant dans les jeux Westwood, mais ce n’est évidemment pas actif dans les versions commerciales, sauf en trichant.

Pliant Technologies Launches New Webinar Series

Initial Webinar to Discuss the Benefits and Features of Company’s MicroCom M and MicroCom XR Digital Wireless Intercom Solutions AUBURN, AL, JUNE 30, 2020 — Pliant Technologies announces an upcoming free webinar series for existing and potential Pliant partners and customers to learn more about the company’s wireless intercom solutions. The first in the series ...

The post Pliant Technologies Launches New Webinar Series appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Assises Éthique et technologies du futur : Laval Virtual nous invite à la réflexion

Par : Shadows

Le 1er décembre prochain, Laval Virtual et Ouest France organiseront un évènement commun : la première édition des Assises Éthique et technologies du futur.

Le concept : une journée pour échanger et débattre sur les questions éthiques soulevées par les nouvelles technologies telles que réalité virtuelle et augmentée. Des questions que nous avions déjà eu l’occasion d’aborder dans nos précédents comptes-rendus de Laval Virtual, la réalité virtuelle soulevant de nombreuses questions, qu’il s’agisse de sensibiliser, aider des victimes d’évènements traumatisants ou tout simplement nous plonger dans des univers visuels inédits avec ce que cela peut impliquer.

En pratique l’évènement devrait rassembler « élus, professionnels, chercheurs, philosophes, religieux », entre autres, mêler tables rondes, séances en face-à-face, interviews, opportunités de networking. 450 personnes environ sont attendues.
Yves Coppens, paléontologue et paléoanthropologue, sera le « grand témoin » de cette édition.

Le programme détaillé n’est pas encore en ligne, mais on peut déjà trouver une description du concept chez Laval Virtual et Ouest France. Laval Virtual précise que le tout aura lieu à la fois à Laval et dans le Laval Virtual World, l’espace virtuel qui avait permis de proposer une édition Laval Virtual plus tôt dans l’année malgré la pandémie.

Nous aurons l’occasion de reparler de l’évènement lorsque le programme détaillé sera annoncé.

L’article Assises Éthique et technologies du futur : Laval Virtual nous invite à la réflexion est apparu en premier sur 3DVF.

Pliant® Technologies Supports Customers With Extended Warranty Promotion

AUBURN, AL, JUNE 24, 2020 — Pliant Technologies announces an extended warranty period in order to further support its customers during the uncertain times created by the COVID-19 pandemic. The extended warranty applies to Pliant products that have been purchased before August 1, 2020. This has been introduced as extra reassurance at no extra charge ...

The post Pliant® Technologies Supports Customers With Extended Warranty Promotion appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Backtrack C6, l’éthylotest connecté à l’app’ Santé

Dans les appareils connectés dédié à la santé, un type d’appareil revient assez régulièrement : l’éthylotest connecté. Il en existe pas mal, et je me suis procuré un modèle souvent mis en avant, un Bactrack C6.

Visiblement, la marque n’est pas distribuée directement en France, mais on trouve assez facilement tout de même les appareils, et Bactrack a une gamme assez large. En version connectée, il y a le C6 (le mien, ~70 €), le C8 (~100 €) et le Mobile Pro (~100 €). Il y a des versions moins onéreuses sans la partie connectée, d’autres plus chers, etc. L’avantage du C6, c’est qu’il est compatible Santé, donc on peut enregistrer les données assez facilement.

Le Bactrack C6


La marque fournit des embouts de rechange

Sur le coup, je ne suis absolument pas un gros buveur, je bois rarement de l’alcool et généralement des choses légères comme de la bière ou du cidre. Pour tout dire, j’ai même acheté un truc un peu plus fort exprès. L’appareil est compact, il s’alimente avec une pile AAA (fournie) et peut s’accrocher à un porte-clés. Il dispose d’un petit écran OLED parce qu’il possède deux modes de fonctionnement : autonome ou connecté. On passe facilement de l’un à l’autre, et le résultat est le même. La connexion s’effectue en Bluetooth LE et je n’ai pas eu de soucis de détection pendant mes essais. En mode autonome, il affiche les résultats sur son écran, en mode connecté il faut utiliser le smartphone.

Le fonctionnement est simple, l’application aussi. L’appareil chauffe (quelques secondes), il faut inspirer puis souffler quelques secondes. Le calcul du taux d’alcoolémie est assez rapide, et pendant les étapes, l’application vous propose d’estimer votre taux.

Une valeur très élevée, juste après un verre


La même dans une autre unité, avec un temps d’attente élevé avant d’être sobre


0, 15 minutes après une bière légère

En fait, j’ai un peu plus de doutes sur le résultat. Déjà, le premier souci, l’application (et le mode autonome) affiche différentes unités, mais pas celle utilisée en France par défaut. Ici, on utilise généralement une valeur en grammes d’alcool par litre de sang (la limite est de 0,5 gramme), l’application propose le milligramme par litre, le ‰ (grammes par litre), le ‰/poids (milligrammes par gramme de sang) et le milligramme par 100 ml de sang. Les deux premiers sont utilisables en mode autonome, pas les autres. Et dans Santé, on est en %, donc les valeurs ne sont pas directement comparables (il faut multiplier par 10).

On peut changer les unités et activer Santé (ou appeler un Uber)


Dans Santé


Pas de changement d’unité possible

J’ai testé avec des bières légère (3,5 et 4 %), du cidre (3 %) et du porto (19 %) avec des résultats un peu étonnants. SI on souffle directement après avoir fini un verre, on a des valeurs assez élevées qui peuvent induire en erreur. C’est un défaut de la technologie, bien expliqué : s’il reste des vapeurs d’alcool dans votre bouche, le résultat est artificiellement élevée. Typiquement, après un verre de porto, je suis monté à 1,13 g/l. Il faut donc attendre ~15 minutes avant de faire le vrai test, mais du coup les valeurs semblent faibles : 0,25 g/l pour le même verre de porto, et… 0 pour les bières ou le cidre. Même en considérant que c’est très léger, se retrouver à 0 peut aussi induire un doute. Dans l’absolu, de toute façon, la société indique bien que son produit ne doit pas être utilisé comme blanc-seing pour conduire, et le site de la marque met bien en avant les méfaits de l’alcool, tout comme l’application d’ailleurs. L’exemple type va être le temps indiqué pour être sobre, qui semble complètement aux fraises.

Un truc honteux


Un joli disclaimer

Disons que si vous avez peur de votre consommation d’alcool, ça reste un produit intéressant. je ne suis pas certain de la fiabilité, mais je ne suis pas médecin. Mon but est surtout de montrer que ça existe, que c’est simple d’utilisation et que les données sont facilement exportables. C’est peut-être le point le embêtant, d’ailleurs : comme expliqué plus haut, l’appareil ne propose pas toutes les unités en mode autonome (dont celle utilisée largement en France) et l’application Santé se limite au pourcentage. Attention quand même, l’application demande un enregistrement pour profiter de la garantie (oui, je sais…). Et dans les trucs sympas, elle dispose d’un lien pour appeler un Uber.

Ncam signs major reseller partnership with Portugal’s Pantalha

(June 2020) Ncam Technologies, the leading developer of real-time augmented reality technology for the media and entertainment industries, is delighted to announce that it has signed a deal with leading Lisbon-based reseller Pantalha for the distribution of Ncam products throughout Portugal.   Celebrating its 30th anniversary this year, Pantalha represents an impressive number of leading ...

The post Ncam signs major reseller partnership with Portugal’s Pantalha appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Pliant Technologies Continues to Expand its Reach With Three New Manufacturer’s Reps

AUBURN, AL, JUNE 16, 2020 — Pliant Technologies, a leading provider of professional wireless intercom solutions, adds three additional firms as part of its expanded manufacturer’s representatives initiative, with the appointment of Audio Biz, Mainline Marketing, and Pro Tech Marketing. By signing new manufacturer’s reps, Pliant has increased its scope of coverage and can offer ...

The post Pliant Technologies Continues to Expand its Reach With Three New Manufacturer’s Reps appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Un adaptateur USB pour les lecteurs de disquettes de PC

En rangeant mon matériel, je suis tombé sur un tas de lecteurs de disquettes. Et comme j’avais la flemme de sortir un PC pour les tester, je me suis posé une question : peut-on les utiliser en externe ? Avec une chinoiserie, la réponse est oui.

J’ai découvert ça via le compte Twitter de foone et j’en ai commandé un sur eBay. C’est un adaptateur USB super cheap qui permet de connecter un lecteur standard en USB. J’ai l’habitude de recevoir des trucs basiques, mais là, c’est vraiment cheap : la prise floppy tient uniquement sur ses broches et il n’y a même pas une prise USB femelle sur l’adaptateur (genre Mini USB), mais juste un câble soudé directement sur le PCB et consolidé à la colle chaude.

L’adaptateur


C’est cheap

A l’usage, ça fonctionne avec deux lecteurs sur les sept que j’avais, mais du coup, je ne suis pas avancé. Je ne sais pas si c’est l’adaptateur qui fonctionne mal ou mes lecteurs. Dans les cas où ça marche, le lecteur reste allumé en permanence, mais les disquettes 1,4. Mo sont bien détectées. Avec une disquette double densité (720 ko sur PC, DD), ça ne passe pas, mais c’est assez habituel avec les lecteurs USB.

Mais ça fonctionne


Et macOS Catalina ne lit pas les disquettes en HFS

Sinon, bizarrement, il s’annonce comme un lecteur TEAC en temps normal, mais à un moment il a indiqué “NEC”. C’est assez bizarre.

TEAC ?


Ou NEC ?

Dans l’absolu, ce n’est pas très intéressant : l’adaptateur vaut 8 € et un vrai lecteur USB noname sur Amazon vaut à peine plus. Et je vais devoir sortir un vieux PC pour tester mes lecteurs.

The Mandalorian : un breakdown pour le droïde

Par : Shadows

Après un breakdown signé Image Engine et une interview de Chris Edwards de The Third Floor agrémenté de vidéos des coulisses par ILM, voici un nouveau making-of sur la série évènement de Disney, The Mandalorian.

C’est cette fois Hybride Technologies qui nous présente son travail. Comme l’explique le studio dans un article dédié, la confiance de Lucasfilm était logique, puisqu’Hybride a déjà travaillé sur l’ensemble des derniers films Star Wars, du Réveil de la Force à L’Ascension de Skywalker.

IG-11 : un droïde sans visage

En pratique, le studio s’est vu confier le personnage d’IG-11, un droïde assassin, mais aussi la création d’environnements virtuels pour la ville de Nevarro et les Lava Flats, une zone volcanique désertique.

Pour IG-11, explique Hybride, le studio a pu participer aux étapes de conception. Hal Hickel, superviseur d’animation, voulait une machine évoquant un assemblage grossier de pièces de voitures et un design rétro faisant penser à un pantin désarticulé. Hybride s’est alors basé sur les concepts issus de la production pour créer un modèle 3D. Une version physique de ce dernier a été mise en place sur le plateau afin de vérifier que rien ne posait problème. Quelques corrections plus tard, un modèle définitif a servi de référence durant le tournage.

En termes d’animation, l’absence de visage représentait un défi ; il a fallu exprimer les émotions et pensées du robot uniquement par ses mouvements et déplacements.

Nevarro

La ville de Nevarro, située dans un désert volcanique, a été entièrement conçue par Hybride à partir de scans issus d’Hawaï et d’Islande : deux régions qui ont déjà inspiré de nombreuses oeuvres pour leurs décors.

Hybride précise avoir utilisé plusieurs textures haute résolution afin d’imiter la lave via de multiples réflexions et textures : l’idée étant d’obtenir un tout cohérent et composé de plusieurs types de sols et couches.

En ce qui concerne la ville elle-même, un ensemble d’éléments (façades, portions de sol, accessoires, tours, tourelles) rassemblés dans une banque d’assets ont servi à créer une douzaine de scènes. 250 éléments au total, précise Hybride, ont été intégrés à partir des références visuelles de la production. Afin de proposer un rendu plus naturel, une passe globale a été appliquée pour altérer les bâtiments : elle est censée simuler l’effet des intempéries atmosphériques sur cette bourgade vieillissante.

Au total, Hybride aura truqué 451 plans en 15 mois. Voici pour finir le breakdown vidéo :

L’article The Mandalorian : un breakdown pour le droïde est apparu en premier sur 3DVF.

Sony Ericsson MMV-100 : le Media Viewer Péritel

Il y a de longues années, Sony Ericsson a sorti un appareil bizarre : le MMV-100. C’est en effet une sorte de dongle Péritel, qui permettait de recevoir des images sur un téléviseur en Bluetooth.

Physiquement, il se présente sous la forme d’un gros boîtier avec une prise Péritel mâle, et deux prises femelle. La première pour un chargeur de Sony Ericsson de l’époque, la seconde pour une sortie audio/vidéo en jack 4 points. Premier truc à savoir, il ne s’alimente pas par la prise Péritel, et en pratique, il ne sort même pas du RGB. Il a donc besoin de son chargeur, et si votre téléviseur (ou écran, projecteur, etc.) n’a pas de Péritel, il y a un câble jack 4 points vers RCA et composite.

L’appareil


Les deux prises latérales

Il reçoit quoi ?

L’appareil peut recevoir des images, d’abord, mais avec de grosses limites : JPEG, maximum 800 x 600. La documentation recommande de rester en VGA. Pour l’audio, il accepte l’AMR (un truc compressé pour la voix), avec une taille maximale de 30 ko. Il lit aussi le MP3, en 44 kHz, 16 bits et 128 kb/s au maximum. La capacité de stockage maximale n’est pas indiquée dans la documentation. Pour les profils Bluetooth, on a le Object Push Profile (un classique)n, le Basic Imaging Profile (rare, une spécialité de Sony) et le File Transfer Profile. C’est suffisant pour envoyer des données depuis pas mal d’appareils, tant que ce n’est pas un iPhone. On peut aussi noter qu’il est PAL ou NTSC, mais pas SECAM, et pas les deux. La documentation indique que ça dépend du pays… et ce n’est pas indiqué sur le mien. Vu la provenance (Espagne), j’ai supposé – à raison – qu’il était PAL. La présence du NTSC est d’ailleurs étonnante : les pays qui utilisent cette norme n’ont généralement pas de Péritel.

Pour tester, j’ai commencé avec une carte d’acquisition et le câble composite (parce que les cartes qui prennent du Péritel, c’est rare). macOS a vu directement l’appareil en Bluetooth, mais l’a visiblement pris pour une imprimante (?). Quand j’ai essayé d’envoyer un fichier JPEG, j’ai eu une erreur selon macOS, mais c’est tout de même passé. C’est lent, même pour du Bluetooth : un peu moins de 20 ko/s. QUand on envoie une image de plus de 800 x 600 (ou 600 x 800), une erreur apparaît à l’écran, comme prévu. L’option Parcourir les fichiers de l’appareil ne donne aucun résultat : c’est vide.

macOS le voit


Mais détecte une imprimante


Pourtant, il ne se montre pas comme une imprimante


On peut envoyer des fichiers


macOS voit des erreurs


Impossible de lire le contenu


L’interface

Une photo envoyée, à la bonne taille


Quand on envoie une image trop grande, on obtient ce message

Pour l’audio, c’est compliqué. J’ai essayé avec un morceau en MP3 à 128 kb/s, et ça n’a pas fonctionné. Il commence à afficher une icône de musique, parfois les tags ID3, mais pas de son. Idem, évidemment, avec un fichier à 160 kb/s (je n’ai plus beaucoup de fichiers à 128 kb/s, d’ailleurs). En compressant manuellement les fichiers avec les bons paramètres, ça marche… plus ou moins. En fait, l’appareil lit visiblement le MP3 en streaming et le MP3 à 128 kb/s est vraiment à la limite : ça saccade parce que le boîtier reçoit les fichiers entre 15 et 20 ko/s (120 à 160 kb/s). Avec un fichier encodé à 96 kb/s ou 64 kb/s, c’est évidemment plus efficace… mais assez mauvais.

Il lit normalement les tags ID3

Enfin, pour terminer les tests avec un Mac, c’est parfois instable. L’appareil a planté deux fois pendant les tests, essentiellement lors de l’arrêt un peu violent d’un transfert.

Appareil photo et téléphone

Avec le T610 et son affreux capteur, et le FX77, deux appareils Bluetooth en BiP, ça marche aussi. Dans les deux cas, c’est assez rapide et l’appareil photo de Sony redimensionne les images pour les envoyer dans la bonne définition. Je n’ai pas testé avec le Clié, il n’a pas d’appareil photo et c’est une plaie à réinstaller (mais a priori ça marche).

Selfie au T610


Selfie au FX77

Pour terminer, j’ai essayé de vérifier s’il sortait du RGB, mais sans succès. Mon adaptateur RGB vers VGA ne donne rien, et mon téléviseur n’indique pas le type de signal. Avec un adaptateur Péritel vers S-Video et composite, j’ai uniquement du composite (pas de couleur en S-Video), donc je suppose qu’il se contente du composite.

Du coup, pour l’époque c’était amusant pour les photos, mais il y a énormément de limites et la qualité n’est franchement pas géniale, même sur du cathodique. Un bon gadget, quoi.

❌