Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 15 juillet 2020Vos flux RSS

En Avant, Soul : Pixar dévoile en vidéos ses derniers secrets techniques et artistiques

Par : Shadows

Pixar a mis en ligne de nouvelles vidéos et publications sur les dernières avancées et recherches du studio, employées notamment sur le film d’animation En Avant (sorti en début d’année) et sur Soul, prévu pour la fin 2020.

  • « Garment Refitting for Digital Characters », pour commencer, est une technique permettant d’ajuster des vêtements 3D entre différents personnages de morphologies variées. Le plan présenté dans la vidéo montre montre un cas concret : les jeans du premier homme ont été adaptés pour l’enfant, et celui de la femme adulte à l’adolescente. Le sweat du premier homme a été ajusté à tous les autres personnages. Enfin, le pantalon du second homme a été ajusté pour correspondre à la taille de l’adolescent.
    Fernando de Goes, Donald Fong, Meredith O’Malley, qui présenteront une publication sur le sujet durant le SIGGRAPH, donnent quelques détails techniques ci-dessous. La technique s’appuie sur des itérations successives avec deux grandes étapes : une phase de relaxation (le vêtement est adapté à la forme de la cible tout en minimisant les distorsions du mesh) et une phase de réajustement qui remet à zéro l’espace entre le vêtement et le corps du personnage à l’aide de valeurs données par l’utilisateur.
    La technique gère des contraintes variées comme les épaisseurs multiples ou les coutures, et a été employée sur le film Soul.

We present a new technique to refit garments between characters of different shapes. Our approach is based on a novel iterative scheme that alternates relaxation and rebinding optimizations. In the relaxation step, we use affine-invariant coordinates in order to adapt the input 3D garment to the shape of a target character while minimizing mesh distortion. In the rebinding step, we reset the spacing between the refitted garment and the character body controlled by user-prescribed tightness values. Our method also supports additional constraints that encode the spatial and structural arrangement of multi-layers, seams, and fold-overs. We employed this refit tool in Pixar’s feature film Soul to transfer garment pieces between various digital characters.

  • « Sculpt Processing for Character Rigging » vise à accélérer le travail de rigging : l’utilisation de sculpts permet en effet de corriger efficacement les rigs de déformation, mais demande un travail fastidieux et beaucoup de nettoyage manuel. Les outils présentés par Fernando de Goes, Patrick Coleman, Michael Comet, Alonso Martinez durant le SIGGRAPH, et détaillés là encore dans une publication, permettent d’accélérer drastiquement la génération et la réutilisation de ces éléments.

Pose-space sculpting is a key component in character rigging workflows used by digital artists to create shape corrections that fire on top of deformation rigs. However, hand-crafting sculpts one pose at a time is notoriously laborious, involving multiple cleanup passes as well as repetitive manual edits. In this work, we present a suite of geometric tools that have significantly sped up the generation and reuse of production-quality sculpts in character rigs at Pixar.
These tools include a transfer technique that refits sculpts from one model to another, a surface reconstruction method that resolves entangled regions and a relaxation scheme that restores surface details. Importantly, our approach allows riggers to focus their time on making creative sculpt edits to meet stylistic goals, thus enabling quicker turnarounds and larger design changes with a reduced impact on production. We showcase the results generated by our tools with examples from Pixar’s feature films Onward and Soul.

  • « FaceBaker: Baking Character Facial Rigs with Machine Learning », publication de Sarah Radzihovsky, Fernando de Goes, Mark Meyer, part du constat que les rigs utilisés au cinéma sont très complexes et donc lourds à utiliser. L’idée est ici d’utiliser le machine learning pour déterminer des déformations approximatives du mesh facial, afin d’alléger les calculs associés. La méthode a d’autres avantages, comme la portabilité de rigs propriétaires sur des plateformes externes.

Character rigs are procedural systems that deform a character’s shape driven by a set of rig-control variables. Film quality character rigs are highly complex and therefore computationally expensive and slow to evaluate. We present a machine learning method for approximating facial mesh deformations which reduces rig computations, increases longevity of characters without rig upkeep, and enables portability of proprietary rigs into a variety of external platforms. We perform qualitative and quantitative evaluations on hero characters across several feature films, exhibiting the speed and generalizability of our approach and demonstrating that our method out performs existing state-of-the-art work on deformation approximations for character faces.

  • « Making Souls: Methods and a Pipeline for Volumetric Characters », enfin, est une publication de Patrick Coleman, Laura Murphy, Markus Kranzler, Max Gilbert. Comme son nom l’indique, elle se concentre sur les personnages fantomatiques du futur long-métrage Soul.
    Pixar nous indique ici que le style visuel a nécessité l’implication de nombreuses personnes au sein du studio, de l’art department au lighting en passant par les shaders, TDs, développeurs. L’enjeu artistique était d’équilibrer l’aspect éthéré des âmes avec un design attrayant et une bonne lisibilité.
    L’équipe s’est notamment appuyée sur un système procédural sous Houdini pour obtenir l’aspect doux des personnages et les lignes dynamiques, et a mis en place un système de contrôle automatisé pour gérer les calculs de façon configurable et prendre en compte, lors des rendus, les modifications faites aux performances des personnages.

The soul characters in Disney/Pixar’s Soul have a stylized appearance that sets them into a unique world, which introduced many new challenges. Everyone from the art department and character modelers and shaders to the technical directors and developers in the effects, lighting, and software groups collaborated to bring this new visual style to screen. The soul world is abstract and ethereal; this needed to be balanced with visual clarity and design appeal. As our character rigging and animation tools use rigged surfaces, a key challenge was presenting a new representation derived from this data that meets our visual goals. To achieve softness of volumetric form and dynamically changing linework, we built a system to procedurally generate this data in Houdini. Significant numerical computation was required to create this data at the fidelity required. We developed an automated system for managing this computation in a configurable way, while keeping data for downstream renders in sync with changes to character performances.

Rappelons pour finir que Soul devrait sortir le 25 novembre en France.

L’article En Avant, Soul : Pixar dévoile en vidéos ses derniers secrets techniques et artistiques est apparu en premier sur 3DVF.

Plus de détails sur Unreal Engine 5 : quelles performances et limitations ?

Par : Shadows

Epic Games a publié une présentation autour de son moteur Unreal Engine, qui revient sur les avancées des déclinaisons 4.x mais aussi et surtout sur la très attendue version 5.

Nick Penwarden (VP of Engineering) et Marcus Wassmer (Engineering Director) reviennent sur la partie technique, puis le directeur artistique Jerome Platteaux propose une plongée dans la démo « Lumen in the Land of Nanite » sous UE5.
Voici le timing des éléments les plus intéressants, puis la vidéo :

  • La partie Unreal Engine 5 débute à 10 minutes environ ;
  • à 11 minutes 35, début de la présentation de Nanite, le nouveau moteur de géométrie. Epic Games dévoile les capacités du système mais aussi les performances, présentées comme largement compatibles avec une cible de 60 images/seconde en jeu ; la partie mémoire est également abordée vers 14 minutes 45. A 15 minutes 30 vient le détail de ce qui est géré ou non : l’équipe s’est concentrée sur la géométrie rigide et opaque. A l’inverse, les objets translucides, les déformations non rigides ou encore tessellation/displacement sont classés en « investigations futures ». Enfin, certains éléments comme les feuilles, cheveux, l’herbe devront passer par des techniques de rendu plus classiques ;
  • vers la 17ème minute, place à Lumen, nouveau système d’illumination globale dynamique. Là encore, beaucoup de détails sur ce qui est déjà géré, puis (18 minutes 20 environ) les éléments en cours de développement. En particulier, Lumen ne permet pour le moment que de tourner autour des 30fps sur les consoles next gen, Epic Games souhaitant plutôt atteindre les 60fps ;
  • à 21 minutes, place aux personnages réalistes et à leur animation, avant de passer à 23 minutes 30 aux interactions (nouveau moteur physique Chaos, dépréciation de PhysX) et à l’audio vers 24 minutes 15 ;
  • à partir de 25 minutes 40, outils d’édition de mondes massifs, outils de développement, ou encore vision des différentes plateformes (en particulier, l’abandon des consoles current-gen n’est pas au programme, et Epic Games rassure aussi sur son attention envers le marché mobile) ;
  • à 30 minutes, une frise chronologique qui vous aidera à savoir comment gérer la transition. Epic Games souligne que les utilisateurs peuvent faire la bascule au moment opportun, puisque UE4 gère les consoles next gen : il n’y a donc pas d’impératif à sauter le pas immédiatement. Lors de l’upgrade, vos projets UE4 devraient continuer à fonctionner sans problème (avec toutefois du travail supplémentaire si vous travaillez sur une version modifiée du moteur).
    L’éditeur encourage cependant d’adopter UE5 dès sa disponibilité (avec la preview début 2021) pour les projets dont le lancement aura lieu après le lancement de la release finalisée, fin 2021. Epic Games promet d’ailleurs que le jeu Fortnite basculera sous UE5 avant cette release, histoire de prouver que son nouveau moteur est utilisable en production ;
  • enfin, à partir de 30 minutes 46, place à Jerome Platteaux et à la démo « Lumen in the Land of Nanite » : s’il s’agit évidemment d’une démo technique soignée, cette partie de la présentation pourra tout de même vous donner une idée de ce dont UE5 sera capable, via un cas concret.

L’article Plus de détails sur Unreal Engine 5 : quelles performances et limitations ? est apparu en premier sur 3DVF.

La disquette du disque Cyberpunk de Billy Idol

J’aime bien les disques avec du multimédia, et Cyberpunk de Billy Idol, qui date de 1993, est un des premiers qui propose une expérience de ce type. Contrairement à d’autres trucs testés ici, il ne s’agit pas d’un CD-ROM : le CD était livré avec une disquette pour Mac.

Sur la jaquette du CD, il est uniquement indiqué de trouver un Mac avec un écran couleur. La disquette elle-même indique qu’il faut un Mac avec un écran 12 pouces couleur (c’est du 512 x 384), 3 Mo de RAM et un Mac sous System 6.0.7 (et plus). Il s’agit d’une disquette de 1,44 Mo bien remplie (il reste 19 ko) avec un programme qui utilise Macromedia Director (une sorte d’ancêtre de Flash). La page Wikipedia indique qu’un CD-ROM avait été imaginé au départ, mais que le format – rare à l’époque – impliquait des coûts trop élevés. Et comme l’album a été mal reçu, il n’a jamais été réédité en CD-ROM, comme prévu initialement.

Le CD


La disquette


Un Mac couleur


Un peu plus de détails

Le premier problème a été de faire fonctionner le logiciel. J’ai d’abord testé sur un Power Mac G3 (sous Mac OS 9), sans succès. Le programme indiquait un problème de mémoire. Ensuite sur un Macintosh LC III, et là j’ai eu des erreurs de l’OS (error 3). La machine a le maximum de RAM aussi, peut-être le problème. Enfin, ça a fonctionné sur un Macintosh IIsi. Pour la capture en vidéo, je l’ai fait depuis une image disque de la disquette. En dehors du fait que je n’avais pas envie de l’abîmer vu son âge, c’est surtout extrêmement lent à charger. La capture du son a aussi été compliquée : la sortie du Mac est vraiment mauvaise. Et pour l’image, j’ai dû chercher un adaptateur capable de forcer le 512 x 384 demandé (ils ne proposent pas tous l’option), pour une capture en 1 024 x 768 (ma carte d’acquisition double).

Avec 128 Mo de RAM.

C’est une expérience assez particulière, et c’est plutôt impressionnant pour un truc stocké sur une disquette. C’est un peu psychédélique, le son est finalement assez correct même si on sent bien les boucles, etc. Le programme propose les paroles des chansons, quelques informations sur l’auteur et sur la disquette, ainsi que quelques animations assez bizarres. C’est un peu compliqué à expliquer, donc j’ai enregistré le tout.

Voici quelques captures (elles sont doublées par ma carte d’acquisition).










Withings ajoute la détection de l’apnée du sommeil au Sleep

Quand une société fait bien son boulot, il faut en parler. Withings, il y a quelques mois, lançait le Sleep Analyzer. Cette « amélioration » du Sleep, que je possède, amenait la détection de l’apnée du sommeil, mais augmentait le prix du produit : il passait de 100 € à 130 €. Et Withings a ajouté récemment la fonction en question à l’ancien Sleep.

Au départ, j’était un peu dégoûté : cette détection avait été promise au lancement du Sleep, et – surtout – les premiers retours indiquaient que le Sleep et le Sleep Analyzer sont identiques. Et environ deux mois plus tard, comme promis, Withings a eu une bonne idée : la détection de l’apnée du sommeil arrive sur le Sleep classique. Il faut une application à jour et le firmware 1991, ensuite ça offre la même chose que le Sleep Analyzer. Dans mon cas, je n’ai même pas fait la mise à jour manuellement, c’était visiblement automatique.

La page de support l’indique bien, le Sleep offre les même fonctions. Bon, Withings joue un peu la langue de bois et sur les mots pour mettre en avant le « nouveau » modèle, vu qu’il est vendu plus cher, mais il faut être clair : un Withings Sleep (encore vendu 100 € chez Amazon) offre la même chose qu’un Sleep Analyzer. Pour moins cher.

Sinon, Withings explique que sa technologie a été validée scientifiquement avec des essais cliniques. Et actuellement, il n’existe pas de catégorie dans Santé pour l’apnée du sommeil (peut-être dans iOS 14, qui prendra en charge des catégories symptômes). Attention tout de même : le Sleep détecte l’apnée du sommeil mais ne peut rien faire d’autre.

Hacker une carte mémoire pour activer une fonction chez Olympus

Dans les années 90 et au début des années 2000, il y avait pas mal de formats de cartes mémoire. Et Olympus avait mis une sorte de DRM un peu bizarre dans ses appareils photo : si vous n’aviez pas une carte mémoire de la marque, certaines fonctions étaient désactivées.

Les appareils (comme le Camedia C-220 Zoom) ne permettent en effet l’enregistrement de photos panoramiques que si vous avez une carte SmartMedia Olympus. Et dans mon cas, je n’ai que des cartes d’autres fabricants. Les cartes SmartMedia, il faut le savoir, sont un peu particulières : alors que la majorité des cartes contiennent un contrôleur et de la mémoire, les SmartMedia (et les xD Picture Card) ne contiennent que de la mémoire. Techniquement, il s’agit essentiellement d’une puce de mémoire flash… et c’est tout. Le contrôleur est dans le lecteur ou l’appareil photo.

Pas d’option Panorama


Il faut une carte Olympus


L’appareil

Pour revenir au DRM, donc, il existe une solution : un logiciel qui va formater la carte et ajouter dans les informations que la carte est une Olympus compatible. C’est possible car la carte est une puce de mémoire flash, et que les données sont donc sur la mémoire elle-même, accessible, et pas dans une zone gérée par un contrôleur. Cette zone s’appelle le CIS et les lecteurs peuvent l’écrire. Vu comme ça, ça paraît trivial, mais ce n’est pas si simple. En fait, le logiciel est la version modifiée d’un pilote pour certains lecteurs de cartes SmartMedia en USB. Et donc si vous n’avez pas le bon lecteur, ça ne fonctionne pas.

L’installation d’un lecteur compatible


Un lecteur incompatible (à gauche), une carte et le lecteur compatible (à droite)

La liste est courte, mais la première chose à savoir, c’est que si votre lecteur n’a pas besoin de pilotes (donc s’il est UMS), ça ne fonctionne pas. J’ai trouvé un lecteur Zio sur eBay, mais ça fonctionne aussi a priori avec un modèle Sandisk, un modèle Microtech et un modèle Delkin. La seconde, c’est que le pilote doit être le smprep.exe. Une fois le bon lecteur trouvé, j’ai essayé dans ma machine virtuelle Windows XP… sans succès. Le pilote, prévu pour Windows 98 ou Windows 2000, plante complètement l’OS avec un écran bleu. J’ai donc tenté sous Windows 98, et ça fonctionne.

On joue avec de l’hexa

Le fonctionnement du logiciel est… particulier. Un premier programme (smprep1.exe) va formater la carte avec une erreur, exprès. Une fois la manipulation effectuée, il faut lancer le second programme (smprep2.exe). Sur le coup, avec mon lecteur Zio, j’ai eu un souci : ça ne fonctionnait pas. J’ai donc pris mon éditeur hexadécimal pour faire les modifications. Je suis parti du fichier smprep.exe du pilote de mon lecteur.

Première étape, créer une copie du fichier, par exemple smprep1.exe. Avec un éditeur hexa, il faut remplacer 01 03 D9 01 FF par 02 03 D9 01 FF. Il y a normalement deux occurrences dans le fichier.

Deuxième étape, créer une seconde copie du fichier, par exemple smprep2.exe. Il faut remplacer (là aussi deux fois) 20202020 20202000 20202020 00302E30 00 par une autre chaine. Soit 4F4C594D 50555300 50414E20 00312E30 00 (v1), 4F4C594D 50555300 50414E20 00312E31 00 (pour la version 1.1) ou 4F4C594D 50555300 50414E20 00322E30 00 (pour la version 2.0). Avec mon Olympus Camedia C-220 Zoom, ça a fonctionné avec la seconde chaîne. Je ne sais pas exactement comment vérifier ce qu’attend l’appareil photo.

Maintenant, la méthode. Il faut lancer smprep1.exe. Formater en Full, il va expliquer qu’il y a un souci de CIS à la fin.




Ensuite, lancer smprep2.exe, toujours en Full.








A noter que j’ai deux cartes SmartMedia et qu’une des deux fait une erreur, sans que je connaisse la raison.

Après cette erreur, le CIS n’est pas modifié

L’option panorama

Avec une carte modifiée, l’option apparaît (plus exactement, elle est utilisable). Le fonctionnement est assez classique ensuite : l’écran affiche une zone centrale et deux zones latérales, et il faut fait glisser les images pour que la zone latérale d’un côté passe dans la zone latérale opposée dans la photo suivante. L’appareil enregistre les photos avec un nom spécial, et le logiciel fourni avec l’appareil photo (Camedia Master) permet ensuite la reconstruction de l’image. La vidéo montre rapidement le fonctionnement, avec la sortie analogique de l’appareil. Et le résultat est en-dessous. Il y a quelques erreurs, mais le résultat reste assez bon vu l’âge de l’appareil.

Ca marche


Le logiciel

L’image

À partir d’avant-hierVos flux RSS

Vidéo : H.266 annoncé, avec une promesse ambitieuse

Par : Shadows

L’Insititut Fraunhofer Heinrich Hertz vient d’annoncer le codec H.266, alias VVC (Versatile Video Coding).

Destiné à remplacer le H.265/HEVC, le nouveau codec devrait permettre une division par 2 de la taille des fichiers vidéo à qualité visuelle identique, une promesse qu’il conviendra évidemment de vérifier en pratique. Ce gain permettra évidemment de diffuser plus facilement des contenus 4K voire 8K, ainsi que des vidéos 360° (qui sont sans surprise prises en charge), en diminuant le débit nécessaire et/ou en profitant du gain de poids pour améliorer la qualité visuelle.
A l’heure où la 5G et l’inflation des données fait débat, mais aussi dans une période où les visioconférences sont devenues indispensables, l’annonce tombe à pic.

Il faudra cependant encore attendre quelques mois le temps que les premiers outils compatibles en encodage et lecture soient disponibles (l’institut annonce qu’il publiera « le premier logiciel supportant H.266/VVC » pour l’automne). Puis le lancement progressif de systèmes matériels compatibles, un processus évidemment plus lent. Le H.265, d’ailleurs, 7 ans après son lancement, n’a pas encore réussi à enterrer le H.264 : une hégémonie du H.266 n’est donc pas encore pour demain.

L’article Vidéo : H.266 annoncé, avec une promesse ambitieuse est apparu en premier sur 3DVF.

Roland Sound Space, le son 3D en stéréo

Récemment, j’ai trouvé un LaserDisc intéressant : il contient de l’audio en Roland Sound Space. C’est quoi ça encore ? De l’audio en « 3D » en stéréo.

La technologie est parfois présentée comme un concurrent du Dolby Surround, mais c’est un peu plus compliqué. Le Dolby Surround contient les données pour les enceintes arrières dans l’audio et nécessite bien les enceintes en question (et un décodeur) alors que le RSS (Roland Sound Space) ne nécessite que deux enceintes. Le positionnement est généré au moment de l’enregistrement, pour simuler la présence des enceintes. En 2020, ce n’est pas vraiment mort, d’ailleurs : comme l’explique une des vidéos, c’est du binaural, une technologie revenue à la mode.

Le Roland Sound Space ne fait pas de miracles, ce n’est que du stéréo, mais l’impression de positionnement reste assez présente. Je vous mets les deux versions du contenu du LaserDisc à la fin, il y en a une pour les casques audio et une pour les enceintes. Parce que oui, le LaserDisc permet parfois deux pistes audio : c’est un disque NTSC, donc avec de l’audio en analogique et de l’audio en numérique. On trouve aussi un extrait d’un CD de démo sur YouTube. Le RSS a été un peu utilisé dans les CD Audio (une liste partielle est là) mais aussi dans quelques jeux vidéo. Sega a utilisé le RSS dans quelques jeux Mega CD et Mega LD. Mega LD ? Oui, Sega a proposé, en partenariat avec Pioneer, un lecteur de LaserDisc intégrant une console, le LaserActive, et quelques jeux – sur LaserDisc – contiennent de l’audio en Roland Sound Space. Il y a aussi un disque pour la version NEC de la même console (il y avait plusieurs modules) et quelques LaserDisc de démonstrations, dont le mien.

Le Roland Sound Space, comme le QSound de la même époque, sonne tout de même un peu artificiel en 2020, pour différentes raisons. La première, c’est évidemment qu’on a l’habitude d’entendre du vrai positionnement, que ce soit avec les systèmes home cinema ou avec les solutions modernes pour l’écoute au casque. La seconde, c’est que le positionnement semble exagéré à cause des contraintes de l’époque, notamment dans les jeux vidéo. Les utilisateurs écoutaient beaucoup moins de la musique avec un casque que maintenant, et les téléviseurs en format 4:3 offraient une image stéréo bien plus étriquée que maintenant (et le stéréo n’était pas généralisé). Un téléviseur correct en ~1990 avait une diagonale de ~55 ou ~70 cm (en gros, 45 ou 60 cm entre les deux haut-parleurs) alors qu’un modèle moderne de 55 pouces en 16:9 est bien plus large, avec ~120 cm entre les deux enceintes.

Après, je trouve ça assez convaincant tout de même, vous en pensez quoi ?

D’abord, la version pour les enceintes.

Ensuite, celle pour les casques.

Forcer une sortie sur un serveur d’un pays précis avec Tor Browser sous macOS

J’achète assez régulièrement des objets sur eBay, comme vous avez pu le constater, et j’ai parfois un petit problème : il y a des restrictions géographiques. Certaines annonces ne s’affichent que si vous êtes aux USA. Mais il y a une solution, et je voudrais vous parler de mon sponso…

Non, je déconne, je ne vais pas faire de pubs pour un VPN.

Les restrictions, donc : même si j’ai une solution pour faire envoyer aux USA, c’est peu pratique. Changer les réglages rend les recherches en France pénibles. Si j’ai le lien direct d’une annonce sur ebay.com, ça passe, mais je ne peux par exemple pas lister les ventes d’une personne précise (par exemple celui-ci). La première solution, c’est un VPN, mais je ne compte pas payer pour ça, et je considère que c’est inutile de payer un VPN pour un usage standard. Vraiment.

La seconde solution, c’est Tor Browser. Le logiciel intègre une version modifiée de Firefox et permet de se connecter à Tor facilement. Si vous l’avez déjà utilisé, vous allez vous dire que ça ne règle pas mon problème : l’IP de sortie n’est pas nécessairement aux USA et donc je risque d’être géolocalisé dans un autre endroit. Dans le fonctionnement normal de Tor Browser, c’est le cas, mais il est possible de forcer une sortie sur un serveur dans le pays de l’oncle Sam. Je ne vais pas vous expliquer le fonctionnement de Tor, mais il faut juste savoir que le programme va faire passer vos informations par différents serveurs avant d’utiliser un point de sortie, et que ce point de sortie va déterminer l’adresse IP vue par le serveur (ici eBay) et donc dans certains cas, votre localisation.

Sous macOS, une fois Tor Browser téléchargé, il faut faire un clic seconde sur l’icône du logiciel, choisir Afficher le contenu du paquet, puis se rendre dans /Contents/Resources/TorBrowser/Tor. Là, vous trouverez le fichier torrc-defaults qu’il faut éditer. Pour une sortie aux USA, il faut ajouter ExitNodes {us} à la fin du fichier. Vous pouvez forcer d’autres pays avec les valeurs standards (ISO-3166), en les séparant par des virgules. Il existe aussi d’autres options pour par exemple exclure certains pays.

Avec cette solution, le point de sortie est toujours aux USA, et dans mon cas je peux donc utiliser correctement eBay pour les annonces dans ce pays.

Le double écran sous DOS… pour le debug

Il y a longtemps, j’étais tombé sur un truc marrant sur un forum : des captures de vieux jeux DOS avec un double écran. Certains vieux jeux proposent en effet d’afficher des données sur l’écran classique, mais aussi sur un écran MDA (monochrome). Et donc je me suis dit que j’allais essayer ça.

D’abord, comment ça marche ? En fait, c’est un truc issu des premiers PC. IBM proposait deux cartes graphiques pour le premier PC : une en couleur (CGA) et une en monochrome, en mode texte (MDA). Le mode MDA affichait 80 x 25 caractères à l’écran et il était parfaitement possible d’installer deux cartes en même temps : les zones mémoire ne sont pas les mêmes (B800:0000 en couleur, B000:0000 en monochrome). Vous trouverez une vidéo YouTube qui montre bien ça, et il y a même une commande DOS (mode) qui permet de passer de l’un à l’autre.

Maintenant, comment tester ? Avec DOSBox. Il existe deux solutions, sous Windows dans les deux cas. La première, c’est un petit programme qui va aller lire directement dans la mémoire de DOSBox et afficher le contenu dans une seconde fenêtre. Il est sur Github et il y a une version compilée . La seconde solution, c’est une version modifiée de DOSBox (documentée) qui peut afficher une fenêtre avec le second écran.

Du coup, c’est le moment de tester, et ça m’a pris un peu la tête. Premier truc à savoir, la version classique de DOSBox n’implémente pas mode, donc il faut passer par la version modifiée. Mais quand on tape mode mono, on passe sur l’écran MDA, quand on retape mode bw80, on revient sur l’écran standard.

mode mono envoie sur l’écran MDA


mode bw80 renvoie sur le VGA

J’ai d’abord testé avec des logiciels adaptés. Le premier est un debugger de chez Borland (Borland Turbo Assembler 5.0). Si vous le lancer avec l’argument -do, il affiche normalement le debugger dans l’écran MDA. Attention, ça ne fonctionne pas avec le premier programme. Ensuite, il y a Mah Jongg -V-G-A-. La documentation explique bien qu’il est possible d’utiliser deux écrans, et ça fonctionne assez bien. Selon la version du jeu, il faut parfois le lancer avec l’argument D. La version 3.1 marche bien et affiche des informations sur le second écran.

Avec un logiciel séparé


Avec une version modifiée


Le debugger de Borland passe sur le second écran

Ensuite, il y a les logiciels où ça doit fonctionner… mais ça ne fonctionne pas. En cherchant, je suis tombé sur Rise of the Triad: Dark War. L’exécutable indique que c’est prévu… mais ça ne marche pas. Il n’affiche rien.

L’exécutable indique que ça existe


Le jeu n’affiche rien

Puis il y a les jeux Westwood. Le post de forum d’origine montre des captures de Dune II, Command and Conquer et The Legend of Kyrandia, mais j’ai essayé les trois sans succès. Il y a même une vidéo pour Command and Conquer.

The Legend of Kyrandia


C&C


Dune II


The Legend of Kyrandia met un message quand on quitte

En fait, il faut visiblement activer un mode debug et personne n’explique comment le faire. J’ai donc cherché un peu, et je me suis rendu compte que Red Alert contenait aussi le même mode debug. Donc j’ai cherché un peu, trouvé la commande magique (c’est l’argument -XM au lancement) et testé avec une version bêta du jeu. Dans les versions commerciales, la commande est en effet désactivée, et seules quelques fonctions de debug restent actives. Et de fait, on peut voir pas mal d’infos pendant le jeu. Attention, ça ne fonctionne qu’avec le programme externe : avec la version DOSBox modifiée, il y a un souci de positionnement sur les données.

Ici, c’est bien rendu


Ici, il y a un problème d’alignement

Enfin, dans ce sujet de forum, encore, il y a quelques logiciels qui supportent ça (AutoCAD, Lotus 1-2-3, etc.) et aussi Mechwarrior 2, que j’ai essayé. Il affiche sur le second écran quelques informations sur l’IA.

Il y a quelques infos sur l’IA

Dans tous les cas, c’est assez intéressant de voir comment les développeurs faisaient pour gérer (un peu) les données dans les jeux. De ce que j’ai vu, c’était assez courant dans les jeux Westwood, mais ce n’est évidemment pas actif dans les versions commerciales, sauf en trichant.

Pliant Technologies Launches New Webinar Series

Initial Webinar to Discuss the Benefits and Features of Company’s MicroCom M and MicroCom XR Digital Wireless Intercom Solutions AUBURN, AL, JUNE 30, 2020 — Pliant Technologies announces an upcoming free webinar series for existing and potential Pliant partners and customers to learn more about the company’s wireless intercom solutions. The first in the series ...

The post Pliant Technologies Launches New Webinar Series appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Assises Éthique et technologies du futur : Laval Virtual nous invite à la réflexion

Par : Shadows

Le 1er décembre prochain, Laval Virtual et Ouest France organiseront un évènement commun : la première édition des Assises Éthique et technologies du futur.

Le concept : une journée pour échanger et débattre sur les questions éthiques soulevées par les nouvelles technologies telles que réalité virtuelle et augmentée. Des questions que nous avions déjà eu l’occasion d’aborder dans nos précédents comptes-rendus de Laval Virtual, la réalité virtuelle soulevant de nombreuses questions, qu’il s’agisse de sensibiliser, aider des victimes d’évènements traumatisants ou tout simplement nous plonger dans des univers visuels inédits avec ce que cela peut impliquer.

En pratique l’évènement devrait rassembler « élus, professionnels, chercheurs, philosophes, religieux », entre autres, mêler tables rondes, séances en face-à-face, interviews, opportunités de networking. 450 personnes environ sont attendues.
Yves Coppens, paléontologue et paléoanthropologue, sera le « grand témoin » de cette édition.

Le programme détaillé n’est pas encore en ligne, mais on peut déjà trouver une description du concept chez Laval Virtual et Ouest France. Laval Virtual précise que le tout aura lieu à la fois à Laval et dans le Laval Virtual World, l’espace virtuel qui avait permis de proposer une édition Laval Virtual plus tôt dans l’année malgré la pandémie.

Nous aurons l’occasion de reparler de l’évènement lorsque le programme détaillé sera annoncé.

L’article Assises Éthique et technologies du futur : Laval Virtual nous invite à la réflexion est apparu en premier sur 3DVF.

Pliant® Technologies Supports Customers With Extended Warranty Promotion

AUBURN, AL, JUNE 24, 2020 — Pliant Technologies announces an extended warranty period in order to further support its customers during the uncertain times created by the COVID-19 pandemic. The extended warranty applies to Pliant products that have been purchased before August 1, 2020. This has been introduced as extra reassurance at no extra charge ...

The post Pliant® Technologies Supports Customers With Extended Warranty Promotion appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Backtrack C6, l’éthylotest connecté à l’app’ Santé

Dans les appareils connectés dédié à la santé, un type d’appareil revient assez régulièrement : l’éthylotest connecté. Il en existe pas mal, et je me suis procuré un modèle souvent mis en avant, un Bactrack C6.

Visiblement, la marque n’est pas distribuée directement en France, mais on trouve assez facilement tout de même les appareils, et Bactrack a une gamme assez large. En version connectée, il y a le C6 (le mien, ~70 €), le C8 (~100 €) et le Mobile Pro (~100 €). Il y a des versions moins onéreuses sans la partie connectée, d’autres plus chers, etc. L’avantage du C6, c’est qu’il est compatible Santé, donc on peut enregistrer les données assez facilement.

Le Bactrack C6


La marque fournit des embouts de rechange

Sur le coup, je ne suis absolument pas un gros buveur, je bois rarement de l’alcool et généralement des choses légères comme de la bière ou du cidre. Pour tout dire, j’ai même acheté un truc un peu plus fort exprès. L’appareil est compact, il s’alimente avec une pile AAA (fournie) et peut s’accrocher à un porte-clés. Il dispose d’un petit écran OLED parce qu’il possède deux modes de fonctionnement : autonome ou connecté. On passe facilement de l’un à l’autre, et le résultat est le même. La connexion s’effectue en Bluetooth LE et je n’ai pas eu de soucis de détection pendant mes essais. En mode autonome, il affiche les résultats sur son écran, en mode connecté il faut utiliser le smartphone.

Le fonctionnement est simple, l’application aussi. L’appareil chauffe (quelques secondes), il faut inspirer puis souffler quelques secondes. Le calcul du taux d’alcoolémie est assez rapide, et pendant les étapes, l’application vous propose d’estimer votre taux.

Une valeur très élevée, juste après un verre


La même dans une autre unité, avec un temps d’attente élevé avant d’être sobre


0, 15 minutes après une bière légère

En fait, j’ai un peu plus de doutes sur le résultat. Déjà, le premier souci, l’application (et le mode autonome) affiche différentes unités, mais pas celle utilisée en France par défaut. Ici, on utilise généralement une valeur en grammes d’alcool par litre de sang (la limite est de 0,5 gramme), l’application propose le milligramme par litre, le ‰ (grammes par litre), le ‰/poids (milligrammes par gramme de sang) et le milligramme par 100 ml de sang. Les deux premiers sont utilisables en mode autonome, pas les autres. Et dans Santé, on est en %, donc les valeurs ne sont pas directement comparables (il faut multiplier par 10).

On peut changer les unités et activer Santé (ou appeler un Uber)


Dans Santé


Pas de changement d’unité possible

J’ai testé avec des bières légère (3,5 et 4 %), du cidre (3 %) et du porto (19 %) avec des résultats un peu étonnants. SI on souffle directement après avoir fini un verre, on a des valeurs assez élevées qui peuvent induire en erreur. C’est un défaut de la technologie, bien expliqué : s’il reste des vapeurs d’alcool dans votre bouche, le résultat est artificiellement élevée. Typiquement, après un verre de porto, je suis monté à 1,13 g/l. Il faut donc attendre ~15 minutes avant de faire le vrai test, mais du coup les valeurs semblent faibles : 0,25 g/l pour le même verre de porto, et… 0 pour les bières ou le cidre. Même en considérant que c’est très léger, se retrouver à 0 peut aussi induire un doute. Dans l’absolu, de toute façon, la société indique bien que son produit ne doit pas être utilisé comme blanc-seing pour conduire, et le site de la marque met bien en avant les méfaits de l’alcool, tout comme l’application d’ailleurs. L’exemple type va être le temps indiqué pour être sobre, qui semble complètement aux fraises.

Un truc honteux


Un joli disclaimer

Disons que si vous avez peur de votre consommation d’alcool, ça reste un produit intéressant. je ne suis pas certain de la fiabilité, mais je ne suis pas médecin. Mon but est surtout de montrer que ça existe, que c’est simple d’utilisation et que les données sont facilement exportables. C’est peut-être le point le embêtant, d’ailleurs : comme expliqué plus haut, l’appareil ne propose pas toutes les unités en mode autonome (dont celle utilisée largement en France) et l’application Santé se limite au pourcentage. Attention quand même, l’application demande un enregistrement pour profiter de la garantie (oui, je sais…). Et dans les trucs sympas, elle dispose d’un lien pour appeler un Uber.

Ncam signs major reseller partnership with Portugal’s Pantalha

(June 2020) Ncam Technologies, the leading developer of real-time augmented reality technology for the media and entertainment industries, is delighted to announce that it has signed a deal with leading Lisbon-based reseller Pantalha for the distribution of Ncam products throughout Portugal.   Celebrating its 30th anniversary this year, Pantalha represents an impressive number of leading ...

The post Ncam signs major reseller partnership with Portugal’s Pantalha appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Pliant Technologies Continues to Expand its Reach With Three New Manufacturer’s Reps

AUBURN, AL, JUNE 16, 2020 — Pliant Technologies, a leading provider of professional wireless intercom solutions, adds three additional firms as part of its expanded manufacturer’s representatives initiative, with the appointment of Audio Biz, Mainline Marketing, and Pro Tech Marketing. By signing new manufacturer’s reps, Pliant has increased its scope of coverage and can offer ...

The post Pliant Technologies Continues to Expand its Reach With Three New Manufacturer’s Reps appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Un adaptateur USB pour les lecteurs de disquettes de PC

En rangeant mon matériel, je suis tombé sur un tas de lecteurs de disquettes. Et comme j’avais la flemme de sortir un PC pour les tester, je me suis posé une question : peut-on les utiliser en externe ? Avec une chinoiserie, la réponse est oui.

J’ai découvert ça via le compte Twitter de foone et j’en ai commandé un sur eBay. C’est un adaptateur USB super cheap qui permet de connecter un lecteur standard en USB. J’ai l’habitude de recevoir des trucs basiques, mais là, c’est vraiment cheap : la prise floppy tient uniquement sur ses broches et il n’y a même pas une prise USB femelle sur l’adaptateur (genre Mini USB), mais juste un câble soudé directement sur le PCB et consolidé à la colle chaude.

L’adaptateur


C’est cheap

A l’usage, ça fonctionne avec deux lecteurs sur les sept que j’avais, mais du coup, je ne suis pas avancé. Je ne sais pas si c’est l’adaptateur qui fonctionne mal ou mes lecteurs. Dans les cas où ça marche, le lecteur reste allumé en permanence, mais les disquettes 1,4. Mo sont bien détectées. Avec une disquette double densité (720 ko sur PC, DD), ça ne passe pas, mais c’est assez habituel avec les lecteurs USB.

Mais ça fonctionne


Et macOS Catalina ne lit pas les disquettes en HFS

Sinon, bizarrement, il s’annonce comme un lecteur TEAC en temps normal, mais à un moment il a indiqué “NEC”. C’est assez bizarre.

TEAC ?


Ou NEC ?

Dans l’absolu, ce n’est pas très intéressant : l’adaptateur vaut 8 € et un vrai lecteur USB noname sur Amazon vaut à peine plus. Et je vais devoir sortir un vieux PC pour tester mes lecteurs.

The Mandalorian : un breakdown pour le droïde

Par : Shadows

Après un breakdown signé Image Engine et une interview de Chris Edwards de The Third Floor agrémenté de vidéos des coulisses par ILM, voici un nouveau making-of sur la série évènement de Disney, The Mandalorian.

C’est cette fois Hybride Technologies qui nous présente son travail. Comme l’explique le studio dans un article dédié, la confiance de Lucasfilm était logique, puisqu’Hybride a déjà travaillé sur l’ensemble des derniers films Star Wars, du Réveil de la Force à L’Ascension de Skywalker.

IG-11 : un droïde sans visage

En pratique, le studio s’est vu confier le personnage d’IG-11, un droïde assassin, mais aussi la création d’environnements virtuels pour la ville de Nevarro et les Lava Flats, une zone volcanique désertique.

Pour IG-11, explique Hybride, le studio a pu participer aux étapes de conception. Hal Hickel, superviseur d’animation, voulait une machine évoquant un assemblage grossier de pièces de voitures et un design rétro faisant penser à un pantin désarticulé. Hybride s’est alors basé sur les concepts issus de la production pour créer un modèle 3D. Une version physique de ce dernier a été mise en place sur le plateau afin de vérifier que rien ne posait problème. Quelques corrections plus tard, un modèle définitif a servi de référence durant le tournage.

En termes d’animation, l’absence de visage représentait un défi ; il a fallu exprimer les émotions et pensées du robot uniquement par ses mouvements et déplacements.

Nevarro

La ville de Nevarro, située dans un désert volcanique, a été entièrement conçue par Hybride à partir de scans issus d’Hawaï et d’Islande : deux régions qui ont déjà inspiré de nombreuses oeuvres pour leurs décors.

Hybride précise avoir utilisé plusieurs textures haute résolution afin d’imiter la lave via de multiples réflexions et textures : l’idée étant d’obtenir un tout cohérent et composé de plusieurs types de sols et couches.

En ce qui concerne la ville elle-même, un ensemble d’éléments (façades, portions de sol, accessoires, tours, tourelles) rassemblés dans une banque d’assets ont servi à créer une douzaine de scènes. 250 éléments au total, précise Hybride, ont été intégrés à partir des références visuelles de la production. Afin de proposer un rendu plus naturel, une passe globale a été appliquée pour altérer les bâtiments : elle est censée simuler l’effet des intempéries atmosphériques sur cette bourgade vieillissante.

Au total, Hybride aura truqué 451 plans en 15 mois. Voici pour finir le breakdown vidéo :

L’article The Mandalorian : un breakdown pour le droïde est apparu en premier sur 3DVF.

Sony Ericsson MMV-100 : le Media Viewer Péritel

Il y a de longues années, Sony Ericsson a sorti un appareil bizarre : le MMV-100. C’est en effet une sorte de dongle Péritel, qui permettait de recevoir des images sur un téléviseur en Bluetooth.

Physiquement, il se présente sous la forme d’un gros boîtier avec une prise Péritel mâle, et deux prises femelle. La première pour un chargeur de Sony Ericsson de l’époque, la seconde pour une sortie audio/vidéo en jack 4 points. Premier truc à savoir, il ne s’alimente pas par la prise Péritel, et en pratique, il ne sort même pas du RGB. Il a donc besoin de son chargeur, et si votre téléviseur (ou écran, projecteur, etc.) n’a pas de Péritel, il y a un câble jack 4 points vers RCA et composite.

L’appareil


Les deux prises latérales

Il reçoit quoi ?

L’appareil peut recevoir des images, d’abord, mais avec de grosses limites : JPEG, maximum 800 x 600. La documentation recommande de rester en VGA. Pour l’audio, il accepte l’AMR (un truc compressé pour la voix), avec une taille maximale de 30 ko. Il lit aussi le MP3, en 44 kHz, 16 bits et 128 kb/s au maximum. La capacité de stockage maximale n’est pas indiquée dans la documentation. Pour les profils Bluetooth, on a le Object Push Profile (un classique)n, le Basic Imaging Profile (rare, une spécialité de Sony) et le File Transfer Profile. C’est suffisant pour envoyer des données depuis pas mal d’appareils, tant que ce n’est pas un iPhone. On peut aussi noter qu’il est PAL ou NTSC, mais pas SECAM, et pas les deux. La documentation indique que ça dépend du pays… et ce n’est pas indiqué sur le mien. Vu la provenance (Espagne), j’ai supposé – à raison – qu’il était PAL. La présence du NTSC est d’ailleurs étonnante : les pays qui utilisent cette norme n’ont généralement pas de Péritel.

Pour tester, j’ai commencé avec une carte d’acquisition et le câble composite (parce que les cartes qui prennent du Péritel, c’est rare). macOS a vu directement l’appareil en Bluetooth, mais l’a visiblement pris pour une imprimante (?). Quand j’ai essayé d’envoyer un fichier JPEG, j’ai eu une erreur selon macOS, mais c’est tout de même passé. C’est lent, même pour du Bluetooth : un peu moins de 20 ko/s. QUand on envoie une image de plus de 800 x 600 (ou 600 x 800), une erreur apparaît à l’écran, comme prévu. L’option Parcourir les fichiers de l’appareil ne donne aucun résultat : c’est vide.

macOS le voit


Mais détecte une imprimante


Pourtant, il ne se montre pas comme une imprimante


On peut envoyer des fichiers


macOS voit des erreurs


Impossible de lire le contenu


L’interface

Une photo envoyée, à la bonne taille


Quand on envoie une image trop grande, on obtient ce message

Pour l’audio, c’est compliqué. J’ai essayé avec un morceau en MP3 à 128 kb/s, et ça n’a pas fonctionné. Il commence à afficher une icône de musique, parfois les tags ID3, mais pas de son. Idem, évidemment, avec un fichier à 160 kb/s (je n’ai plus beaucoup de fichiers à 128 kb/s, d’ailleurs). En compressant manuellement les fichiers avec les bons paramètres, ça marche… plus ou moins. En fait, l’appareil lit visiblement le MP3 en streaming et le MP3 à 128 kb/s est vraiment à la limite : ça saccade parce que le boîtier reçoit les fichiers entre 15 et 20 ko/s (120 à 160 kb/s). Avec un fichier encodé à 96 kb/s ou 64 kb/s, c’est évidemment plus efficace… mais assez mauvais.

Il lit normalement les tags ID3

Enfin, pour terminer les tests avec un Mac, c’est parfois instable. L’appareil a planté deux fois pendant les tests, essentiellement lors de l’arrêt un peu violent d’un transfert.

Appareil photo et téléphone

Avec le T610 et son affreux capteur, et le FX77, deux appareils Bluetooth en BiP, ça marche aussi. Dans les deux cas, c’est assez rapide et l’appareil photo de Sony redimensionne les images pour les envoyer dans la bonne définition. Je n’ai pas testé avec le Clié, il n’a pas d’appareil photo et c’est une plaie à réinstaller (mais a priori ça marche).

Selfie au T610


Selfie au FX77

Pour terminer, j’ai essayé de vérifier s’il sortait du RGB, mais sans succès. Mon adaptateur RGB vers VGA ne donne rien, et mon téléviseur n’indique pas le type de signal. Avec un adaptateur Péritel vers S-Video et composite, j’ai uniquement du composite (pas de couleur en S-Video), donc je suppose qu’il se contente du composite.

Du coup, pour l’époque c’était amusant pour les photos, mais il y a énormément de limites et la qualité n’est franchement pas géniale, même sur du cathodique. Un bon gadget, quoi.

Installer HomeBridge pour une caméra HomeKit qui voit l’infrarouge

J’utilise HomeBridge depuis un moment, mais je trouve cet outil trop geek, trop compliqué à installer, à maintenir. Donc quand j’ai vu qu’il existait une version simple, j’ai tenté un petit projet, juste pour voir.

Pour bien me faire comprendre : HomeBridge est un bon projet, mais la mise en place est souvent assez aléatoire. Entre les mises à jour de HomeBridge, des plugins et des outils nécessaires (NodeJS), plus l’utilisation du JSON, ça reste loin d’être grand public. Mon principal souci, c’est que chaque mise à jour, chaque ajout, cassait un peu tout. Telle version voulait une MAJ, qui était impossible parce que NodeJS n’était pas à jour, il fallait passer par des dépôts différents de ceux de base, etc. Et donc cette image de Raspbian avec HomeBridge intégré est une bénédiction. Il suffit de mettre l’image sur une carte SD, attendre un peu et ça doit fonctionner. Bon, en réalité, j’ai quand même eu un petit souci : avec mon Raspberry Pi Zero et son adaptateur Ethernet, je me retrouvais régulièrement sans réseau. Mais une fois connecté en Wi-Fi, c’est bon.

Un petit projet

Je suis parti sur un truc basique qui pourrait me servir : intégrer une caméra NoIR dans un boîtier de Raspberry Pi Zero, pour filmer les trucs qui émettent de l’infrarouge. Les capteurs standards voient l’infrarouge, et dans la majorité des appareils, on met un filtre – plus ou moins efficace – pour limiter ça. C’est pour ça que les anciens iPhone peuvent servir à vérifier si une télécommande fonctionne, mais pas les modèles récents : les filtres sont plus efficaces.

La webcam d’un vieil écran Apple filtre mais on voit encore le violet de l’infrarouge


Celle du Mac ne voit rien

Et donc il existe des caméras NoIR pour les Raspberry Pi, qui ne possèdent pas de filtres. Elles peuvent donc voir l’infrarouge facilement. J’avais un modèle v1 depuis un moment, et je l’ai installé sur un Zero W. Petit aparté là aussi, parce que j’ai un problème idiot. Le boîtier officiel pour le Pi Zero (qui vaut ~5 €) arrive avec trois capot : un standard, fermé, un avec un trou pour les GPIO et un avec un trou pour une caméra et un petit câble CSI. Mais ça ne rentrait pas avec mon module, et j’ai dû limer l’intérieur. La raison ? Le module v1 est plus épais que le v2 et le trou du boîtier est adapté au v2. Ce n’est pas vraiment indiqué, et c’est un peu énervant.

Le boîtier


On voit bien les ajustements nécessaires


La partie carrée des modules v1 (à droite) est plus épaisse

Pour la partie logicielle, j’espérais utiliser le plugin Homebridge Camera FFmpeg. Mais avec la caméra du Raspberry Pi, ça nécessite des réglages manuels et – surtout – il y a une latence élevée (plusieurs secondes). Je suis donc passé sur homebridge-camera-rpi, qui a reconnu la caméra directement, avec un flux en temps réel… mais une image affreuse. La solution ? Augmenter le bitrate par défaut, qui est à 300 kb/s (c’est bien trop faible) en modifiant des fichiers de configuration. Et en cherchant évidemment ou ils sont, vu que ça dépend de l’installation. Vous comprenez pourquoi je n’aime pas HomeBridge ?

Le résultat

J’ai testé avec quelques trucs présents chez moi. Je n’ai pas d’iPhone ou d’iPad avec FaceID (dommage) et mon Kinect ne semble pas émettre sans un logiciel (ou une Xbox), donc j’essayerais peut-être un jour ou j’ai du temps. La qualité n’est pas extraordinaire : je filmais l’écran, et le module v1 est en 5 mégapixels sans autofocus.

Le projecteur de ma caméra IP (dans le noir).

Une souris infrarouge.


Une télécommande infrarouge (celle utilisée juste avant avec les webcams).


Un AirPod. Les écouteurs d’Apple ont des émetteurs sur les côtés qui servent à détecter s’ils sont dans les oreilles.


Les barrières virtuelles d’un Roomba.


Une manette sans fil de Pippin, qui illumine littéralement la pièce.


Bon, vous avez compris, l’infrarouge est très visible avec ce genre de caméras. Dans les autres appareils qui émettent pas mal, il y a aussi les casques VR, qui utilisent parfois l’infrarouge pour le positionnement, et les appareils qui transmettent en IrDA. Du coup, mon petit projet fonctionne, l’ensemble peut fonctionner sur batterie, et c’est efficace pour vérifier rapidement si un appareil émet de l’infrarouge. Mais je reste sur mon souci de départ : HomeBridge, c’est bien mais c’est quand même encore très brut de fonderie.

Studio Technologies’ Model 207 Optimizes Workflow for eSports Companies

First eSports-specific Player Console Captures Interplay Communication SKOKIE, IL, JUNE 4, 2020 – An important production aspect of professional eSports tournaments is being able to support the range of player audio needs. Unique to these events is the requirement of capturing interplay communication while also maintaining the integrity of the game. The Model 207 eSports ...

The post Studio Technologies’ Model 207 Optimizes Workflow for eSports Companies appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Pliant Technologies Announces Wireless Intercom Trade-In Promotion

AURBURN, AL, JUNE 3, 2020 — In partnership with its domestic dealers, systems integrators and international distributors, Pliant Technologies announces a wireless intercom equipment trade-in program that will run through September 1, 2020. With the purchase of Pliant CrewCom Control Units and Radio Packs, customers can trade-in any professional wireless coms product for a rebate. ...

The post Pliant Technologies Announces Wireless Intercom Trade-In Promotion appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Disney Mix Clip, la musique Disney sur carte SD

J’aime bien les formats un peu idiots pour la musique, et Disney Mix Clip entre bien dans la définition.

En 2005, Disney lance un « lecteur MP3 », un truc à la mode à l’époque qui permettait de lire de la musique. Vous vous souvenez des lecteurs MP3 ? Le lecteur en question contient sa propre mémoire (128 Mo) mais aussi un emplacement pour une carte SD ou MMC. Comme c’était sûrement un peu compliqué d’expliquer comment enregistrer un CD, Disney a eu une idée magique : vendre de la musique sur des cartes mémoire. C’est Disney Mix Clip.

Une photo d’époque d’un lecteur

Vendre de la musique sur une clé USB ou une carte mémoire, c’est finalement assez courant, pleins de groupes ont fait ça. Mais le faire de façon commerciale en masse (pas juste comme un album goodies), ce n’est pas si courant. Il y a eu Grüvi (de la musique avec DRM sur cartes microSD), slotMusic (de la musique sur microSD, sans DRM) et Disney Mix Clip, donc.

J’en ai acheté deux sur eBay pour tester. Le premier album est sur une carte MMC de 32 Mo (des cartes plus fines que les SD, mais généralement lisibles dans les lecteurs SD). Ca s’apple Girlz Rock, et la carte contient 15 titres en WMA. C’est dans un format sans DRM, c’est déjà ça, mais la qualité est assez faible (pour être gentil) : c’est du VBR avec un débit entre 70 et 120 kb/s. Ce n’est vraiment pas qualitatif, donc. Il y a aussi des pochettes en JPEG, mais elles sont petites (et illisibles). Bonne nouvelle, la carte est bloquée en écriture.

La carte MMC (à droite)


Le brochage change

La seconde génération de cartes utilise le format SD, plus classique. J’ai l’album Jonas Brother, du groupe éponyme. La carte fait aussi 32 Mo, et est verrouillée en écriture (bon, ça ne sert à rien). Sur cette carte là, la qualité de l’audio est encore pire : c’est du WMA (sans DRM, toujours) mais avec un débit fixe de 64 kb/s. C’est vraiment mauvais, il faut l’avouer.

Le packaging

Je ne sais pas pendant combien de temps Disney a vendu sa musique sous cette former, mais il existe la même chose avec des vidéos, et un lecteur « MP4 ». Dans tous les cas, c’était assez mauvais, loin de la qualité d’un CD Audio.

USD en pratique : le cas Luma Pictures

Par : Shadows

Nous avons déjà eu l’occasion d’évoquer à plusieurs reprises USD (Universal Scene Description), qui facilite les échanges de données au sein d’un studio ou d’une production et offre de nombreux avantages théoriques par rapport aux techniques classiques. Notre confrère Ian Failes nous propose un cas concret de l’usage d’USD avec le studio d’effets visuels Luma Pictures. Un article revient sur l’implémentation d’USD au sein de la structure (en particulier avec leur pipeline de lighting et lookdev reposant sur le logiciel Katana), comment et pourquoi cette mise en place s’est faite, mais aussi comment USD a été employé sur des projets récents tels que Spider-Man : Far From Home.

L’article USD en pratique : le cas Luma Pictures est apparu en premier sur 3DVF.

Gnoumagbée Camara, environment artist

Par : Shadows

Découvrez les travaux de Gnoumagbée Camara, jeune artiste 3D en recherche de stage. Issue de la formation ATI à Paris VIII, elle utilise Unreal Engine, Blender ou encore Substance Designer et souhaite s’orienter vers des projets typés environment artist ou généraliste 3D.

Au-delà de ce stage, elle recherche également une entreprise pour une alternance d’un an en tant qu’artiste 3D, à partir d’octobre.

L’article Gnoumagbée Camara, environment artist est apparu en premier sur 3DVF.

Harry Potter et l’accélération des films à la télévision française

Depuis quelques semaines, TF1 passe la série des films Harry Potter. Et avec le quatrième opus, il y a eu un petit drame sur Twitter : les fans se plaignaient d’une accélération du film. Et l’explication est intéressante.

Pour faire court, il y a bien une accélération, mais elle est assez faible (~4 %) et elle n’est pas là pour réduire la durée des films, mais pour des raisons techniques.

Pour faire long

Quand j’ai vu ça, et vu la réaction outrée des fans qui parlaient d’une accélération de 10 à 20 %, je pensais vraiment que TF1 avait accéléré le film (assez long). La semaine suivante, j’ai donc enregistré le film pour vérifier s’il était accéléré. De fait, il l’était… en PAL speed up. Et c’est normal en France.

Revenons en arrière. Du temps de la télévision analogique, les normes de télévision sont calées sur la fréquence du courant électrique. Il y a pleins de raisons derrière ça, pas besoin d’aller dans les détails. On a donc du 60 Hz en aux Etats-Unis, du 50 Hz en Europe. Les normes de l’époque (NTSC aux USA, PAL et SECAM en Europe) sont entrelacées : on transmet deux demi-images successives. On parle donc généralement de 480i (USA) et de 576i (PAL). On va éviter le Japon, qui travaille en 50 et en 60 Hz pour le courant, mais uniquement en 60 Hz pour la vidéo. Le truc à retenir : on a 60 images/s en NTSC, 50 images/s en PAL.

En 2020, la diffusion de la TV dérive encore de ces normes. La TNT diffuse en 1080i mais à 50 images/s (et en SD dans de rares cas, mais passons), comme à l’époque en SECAM. Ça peut sembler anachronique, mais même si tous les téléviseurs LCD supportent un affichage progressif à 60 Hz, ça permet de garder la compatibilité avec les vieux téléviseurs, les décodeurs TNT externes, etc.

Maintenant, les films. Ce qui est diffusé au cinéma (on ne parle pas de séries, de téléfilms, etc.) est filmé à 24 images/s (bon, sauf Pete Jackson et Ang Lee). Et mettre 24 images dans un truc qui en affiche 50 (la TV en Europe) ou 60 (la TV aux USA), ce n’est pas si simple. Il y a donc deux méthodes. En PAL (SECAM), c’est assez basique : on accélère. Ca s’appelle le PAL speed up, et c’est ce que les fans ont détecté. L’accélération est assez faible : environ 4 %. Pour l’audio, ça monte d’un demi-ton, et dans certains cas, on peut tout simplement corriger numériquement l’audio pour éviter ça (ce n’est a priori pas le cas chez TF1). En NTSC (USA), la technique s’appelle le 3:2 pulldown. Je ne vais pas détailler, mais les USA n’accélèrent pas (contrairement aux bêtises lues là) mais ajoutent des images pour monter de 24 à 30, ce qui induit de petites saccades visibles.

Dans les formats vidéo pour la maison, ce n’est pas systématique. Les LaserDisc utilisent cette technique, parce qu’ils contiennent un signal analogique, tout comme les VHS. Pour les DVD… ça dépend. On peut avoir du 50i accéléré en Europe, mais aussi parfois du pseudo-24p en trichant un peu, ou du 60i aux USA. Dans les Blu-ray, HD DVD, services de streaming, etc., on peut directement avoir du 24p.

Le problème TF1

C’était un peu long, mais le problème TF1 est amusant. De façon tout à fait pragmatique : les films sont tous accélérés (bon, je dis tous, il doit y avoir des exceptions pour les trucs tournés à autre chose que 24 fps). Mais en temps normal, personne ne le remarque, parce que c’est le cas depuis très longtemps, et que les sources classiques – avant l’arrivée des Blu-ray – étaient aussi accélérées.

Sauf pour Harry Potter. On est typiquement dans un cas particulier : des fans hardcore, qui connaissent bien les films, qui ont peut-être le Blu-ray, ou en tout cas une copie issue d’un Blu-ray, lue à la bonne vitesse. Sans point de comparaison, on peut difficilement se rendre compte qu’un film est accéléré de 4 %. Quand on a l’habitude de voir et entendre une version à la bonne vitesse, c’est tout de suite plus simple.

Sur le coup, au départ, je me suis fourvoyé. L’explication PAL speed up semblait illogique parce que les fans avaient l’air convaincus d’une grosse accélération sur la vidéo et l’audio. Et le PAL speed up est justement assez discret. Du coup, j’ai cherché, j’ai trouvé un enregistrement TV de la diffusion, que j’ai synchronisé avec ma copie en 24p. Et il n’y a pas d’accélération majeure. Juste du PAL speed up. Je mets un extrait rapide pour comparer ce qu’une personne a filmé avec la vidéo originale.

Le côté amusant de la chose, c’est que les fans hurlaient sur les réseaux sociaux pour le 4e, qu’il y a eu assez peu de messages sur les précédents et sur les suivants. Et j’ai pu le vérifier : l’accélération est la même. Je suppose que quand une personne a suggéré une accélération, certains ont essayé de l’entendre – elle existe – et ont conclu que TF1 essayait de raccourcir le film. Ça a quand même généré pas mal d’articles (1, 2, 3, 4, etc.), pour… rien. De ce que j’ai pu vérifier, l’accélération est la même sur tous les films (et généralisées à la télévision).

Je crois qu’ici on a un bon mélange : la suggestion de l’accélération (réelle, mais méconnue), des fans qui connaissent bien les films, un peu de haine du diffuseur (TF1). Et avec tout ça, on a un bon complot et un peu de buzz sur Twitter.

Pour terminer, ce qui me fait un peu rire, parce que j’aime bien les complots idiots, ce sont les gens qui affirment que TF1 a raccourci sciemment le film. Mais pourquoi ? Dans l’absolu, pour TF1, c’est un film long qui est intéressant : ils peuvent mettre plus de publicités.

Gameboard EGB-10 : la manette pour les téléphones Sony Ericsson

Dans les produits un peu particuliers du début des années 2000, il y a les accessoires de jeu pour les téléphones. Comme cette manette pour certains téléphones Sony Ericsson.

L’EGB-10 utilise le connecteur standard de l’époque (disparu avec le K750i en 2005) mais n’est pas compatible avec tous les appareils. La manette se présente sous la forme d’un pad assez basique, avec une croix directionnelle ronde et peu précise, et quatre boutons. L’ordre et les couleurs ne sont évidemment pas standards. La manette se place derrière un téléphone, avec une pince amovible prévue pour fixer le téléphone. Dans mon cas, j’ai la fixation pour un Z600 (un modèle à clapet) mais il en existe visiblement pour des modèles moins larges, comme le T610. Le connecteur mâle est sur un câble assez rigide, pour gérer les téléphones un peu grand, et l’accessoire possède aussi une prise femelle pour la charge.

La manette


Un guide à l’arrière pour le câble


Avec un T610

Sur un T610, le menu de l’accessoire passe bizarrement en anglais. On peut faire plusieurs choses pour adapter le pad aux jeux. Un système de profil permet de changer l’assignement des boutons, ce qui est pratique pour les jeux qui utlisent le pavé numérique, comme Q*bert. On peut aussi définir le fonctionnement au branchement, entre le profil par défaut et le choix d’un profil.

Menus en anglais

Avec mon T68i, c’est encore plus simple : ça ne fonctionne pas. Un « Not Supported » apparaît au branchement. En pratique, le menu fonctionne, mais c’est tout.

Pas de T68i

J’ai essayé avec quelques jeux sur le T610, et ça marche assez bien. En fait, le pad remplace directement le joystick en général (dans les menus aussi) et on peut assigner les boutons et la croix à n’importe quelle fonction. Le plus compliqué, surtout en 2020, c’est de trouver des jeux qui passent sur les vieux téléphones en Java, en fait. J’avais quelques jeux dans l’appateil, et j’ai installé OutRoad, qui marche assez bien avec la manette.

Q*bert


OutRoad


Un jeu de golf en allemand

Ce n’est pas vraiment l’accessoire du siècle, les boutons sont un peu cheap, mais pour les jeux mobiles de l’époque, c’est tout de même mieux que les touches du clavier et le joystick.

« Rainbow CD », l’expérience interactive ultime de 1995

J’aime bien les CD Audio un peu bizarre, et l’EP doors and windows de the cranberries est un cas assez particulier. Il contient en effet des données pour Mac, Windows, CD-i et même CD-i avec une carte MPEG, en plus de la musique. Philips appelait ça un « Rainbow CD ».

Il date de ~1995, à une époque ou le format CD Plus (Blue Book) n’était pas encore finalisé. Donc contrairement aux disques plus récents qui utilisent plusieurs sessions, les données sont sur la piste 1. iTunes Musique le montre bien : la première piste n’est pas lisible. Et le livret du CD met bien en garde sur le fait qu’il faut éviter de lire la première piste avec un lecteur de CD Audio.




Sous macOS Catalina, le disque ne montre que l’audio. Parce que par défaut, macOS va essayer de charger la piste de données en HFS (quand il y en a une) plutôt que celle en ISO 9660, et… macOS Catalina ne lit plus le HFS.

Les données en piste 1

Sous Windows 7, le disque ne monte pas. Assez bizarrement, il ne montre pas la piste de données. Mais IsoBuster voit une piste en ISO 9660 avec un dossier CDI (pour le CD-i), un dossier CDROM pour Windows et un dossier MPEGAV qui contient de la vidéo en MPEG1. Même chose sous Windows XP.

Erreur sous Windows XP


Le programme s’installe


Il demande QuickTime

Sous Snow Leopard, l’OS voit une partition HFS, mais le contenu est bizarre. Il voit l’application Mac OS (pour Mac OS 9) mais aussi les fichiers de la partition en ISO 9660 (Video CD, Windows, etc.), ce qui ne devrait pas être le cas.

Mac OS X voit le HFS+ et l’ISO

Je suis donc remonté plus loin, avec une machine virtuelle sous Windows 98… sans succès. Sur un vrai Mac sous Mac OS 9, ça fonctionne par contre : on a une application en 640 x 480 et 256 couleurs qui va lire des vidéos en timbre poste.

Sous Mac OS 9





En fait, je ne sais pas comment est conçu le CD, mais la gestion des systèmes de fichiers est vraiment bizarre. On dirait que la partition HFS est construite au-dessus de la partition ISO 9660 (je ne connais pas bien les possibilités des vieux CD-ROM). En tout cas, la partie MPEG1 est lisible (c’est du 352 x 240 à 30 fps, audio en MP2 à 192 kbps), et il y a une version QuickTime sur le CD pour Windows : du 240 x 136 compressé à la truelle (15 fps, son en 8 bits, 22 kHz et mono).

Le MOV


Le MPEG1

Dans tous les cas, cette expérience interactive de 1995 est inutilisable en 2020, sauf à avoir gardé un ordinateur de l’époque…

Comment optimiser une application 3D sur le web : le cas Naker

Par : Shadows

Nous vous avions proposé il y a quelques mois une interview de Naker, plateforme en ligne de création de contenus 3D interactifs sur le web.
Le service a depuis bien évolué, en particulier concernant les performances : l’usage CPU/GPU a été divisé par trois, et celui des fonctions de scripting/rendu au sein d’un navigateur quasiment par 10.

Un article de blog détaille les techniques utilisées pour y parvenir :
– paradoxalement, l’équipe a fait chuter le nombre d’images par seconde. En abandonnant la sacro-sainte limite des 60fps au profit d’une cible de 30 fps, la fluidité est certes légèrement impactée, mais l’expérience reste satisfaisante, selon Naker. Et en contrepartie, on obtient un gain conséquent en usage des ressources ;


– autre amélioration, jusqu’ici Naker lançait le rendu de pages entières, même lorsque le contenu n’était au final pas affiché (car trop haut ou bas dans la page par rapport à la zone visible à l’écran). Ce n’est désormais plus le cas : une astuce qui évoque évidemment les techniques de chargement dynamique des images désormais largement employées sur le web, mais adaptée à la 3D.


-Enfin, l’équipe a mis en place un système permettant d’exécuter le rendu 3D dans un thread différent de celui du navigateur proprement dit.

Au final, les gains sont massifs, jusqu’à x10 selon la variable considérée. Une avancée évidemment cruciale pour un service comme Naker, puisque les performances sont un argument commercial clé pour séduire de nouveaux utilisateurs.

Naker

L’article Comment optimiser une application 3D sur le web : le cas Naker est apparu en premier sur 3DVF.

Archos MiniDrive : le lecteur ZIP compact, en PCMCIA

Récemment, une personne qui m’a demandé de récupérer des données sur des disques ZIP m’a envoyé un lecteur un peu particulier avec : un Archos MiniDrive en PCMCIA.

Ce lecteur très compact s’interface en PCMCIA, avec un câble amovible, mais la technologie derrière est un peu particulière. En fait, il fonctionne comme l’adaptateur pour ZIP 250 d’Iomega et comme certains boîtiers externes : en IDE. Pour le reste, il est surtout beaucoup plus compact que les lecteurs ZIP d’Iomega, et donc bien plus facilement transportable.

Le lecteur


La prise arrière, avec le câble amovible

Pour essayer de faire simple, la norme IDE dérive à l’origine du bus ISA des premiers PC, et le PCMCIA (la version 16 bits) aussi. Il est donc possible d’interfacer des appareils IDE sur le bus PCMCIA passivement. C’est généralement reconnu par les OS (bon, Mac OS 9 a visiblement un peu de mal) sans pilotes, vu que fonctionnellement, c’est de l’IDE. Pour tester le lecteur, j’ai essayé sur un vieux PowerBook G4 (ça fonctionne sous Mac OS X, pas Mac OS 9) mais aussi avec un lecteur USB.

Le lecteur USB

En fait, Iomega a vendu il y a longtemps un média de stockage, le Click! (PocketZip) qui s’interfaçait en PCMCIA pour la lecture sur PC. Et le lecteur USB d’Iomega est un adaptateur USB vers PCMCIA avec un adaptateur USB vers IDE interne. En clair, on peut brancher des cartes PCMCIA « ATA » dedans. Ce n’est pas le plus rapide du monde (il est uniquement USB 1.1) mais ça fonctionne.

Sur un Mac moderne, en USB


Sur un vieux Mac, directement en PCMCIA, il est vu comme un lecteur ATA

Le seul bémol du lecteur d’Archos, c’est qu’il est normalement alimenté par le bus, mais ça dépend un peu des cas. S’il ne démarre pas, il faut passer par une alimentation 5 V assez classique.

❌