Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

MetaHuman : découvrez le rig derrière les humains photoréalistes

Par : Shadows

Epic Games avait annoncé MetaHuman Creator, une future solution de création d’humains photoréalistes (voir notre article). L’éditeur poursuit son teasing avec une longue vidéo dans laquelle vous découvrirez en détail le rig associé à ces personnages, les MetaHumans, sous Unreal Engine. De quoi vous faire une meilleure idée des capacités de ces acteurs numériques.
La présentation est assurée par Adam Walton de Cubic Motion, société spécialisée dans les humains photoréalistes rachetée par Epic l’an passé : c’est en partie ce type d’acquisition qui a permis d’aboutir à MetaHuman Creator.

MetaHuman sera pour rappel disponible d’ici quelques mois, avec une phase de beta. Nous vous tiendrons évidemment informés des annonces autour de ce produit.

L’article MetaHuman : découvrez le rig derrière les humains photoréalistes est apparu en premier sur 3DVF.

Petit échec avec un HD DVD-RW

Récemment, je suis tombé sur le site Obsolete Media, qui parlait de HD DVD-RW. Et comme je n’en avais pas, j’en ai évidemment commandé un sur eBay.

Et c’est un échec – au passage, le vendeur m’a prévenu – parce que mon graveur de HD-DVD (oui, j’ai un graveur de HD-DVD) ne supporte pas les HD DVD-RW. Il existe en effet deux graveurs de HD DVD (au moins), le SD-L902 (le mien) et le SD-L912. La différence ? Le second peut graver les HD DVD-RW. Pour information, les disques offrent une capacité de 15 Go (ce n’est pas si mal) avec la possibilité d’être réécrit 1 000 foix, comme les DVD-RW.

Un HD DVD-RW


Il n’est pas détecté, et macOS indique bien qu’il ne supporte pas les HD DVD-RW

Bon, j’en ai profité pour réessayer mes HD DVD-R avec mon graveur. Sur mes 4 disques (de marques différentes), j’en ai deux qui ne sont même pas détecté correctement, un qui est détecté comme vierge mais impossible à écrire (malgré ce que dit macOS, il est vierge) et un HD DVD-R DL qui est reconnu, mais macOS ne m’indique pas sa capacité.

Un HD DVD-R qui ne veut pas être écrit


Un HD DVD-R DL (30 Go)

Le Back Button pour la manette Dual Shock 4

L’année dernière, alors que la PlayStation 4 était déjà en fin de vie, Sony a annoncé un accessoire intéressant : le Back Button Attachment, ou Fixation Dorsale de Commandes en bon français. Et comme il est enfin en stock à un prix décent (il vaut officiellement 30 €), j’en ai acheté un.

Cet accessoire se fixe sur les manettes de la gamme Dual Shock 4 (v1 ou v2) à travers le connecteur d’extension et ajoute deux boutons en plus à la manette, sous la forme de deux palets. Plus exactement, il ajoute deux copies des boutons : les palets en question ne sont pas indépendants et répliquent en réalité deux autres boutons de la manette. Un petit écran OLED, placé à l’arrière, permet d’assigner des fonctions aux boutons de façon simple.

L’accessoire





L’accessoire est assez cher, vu qu’il vaut officiellement 30 € pour une manette qui se trouve parfois à ce prix là (et qui ne vaut pas tellement plus à l’origine). Par contre, il est bien fini, l’intégration est irréprochable, et l’efficacité redoutable. Vous pouvez vous poser une question : « A quoi ça sert ? » Et bien les palets permettent de répliquer n’importe quel bouton et (surtout) peuvent être activés facilement sans lâcher les sticks analogiques. Au lieu de perdre du temps à déplacer votre pouce du stick vers le bouton X, par exemple, vous pouvez presser X directement. Dans certains jeux, le gain en réactivité est assez intéressant.

Sony a pensé le bouton pour qu’il soit indépendant : il n’y a pas besoin d’un support précis dans les jeux ni même dans la console (ou dans le périphérique lié), tout se fait depuis l’écran. Le fonctionnement est simple : une pression rapide affiche le profil actuel, avec les fonctions. Une pression d’une seconde passe en mode programmation : il suffit de choisir les boutons assignés avec les palets. Et une double pression change de profil (il y en a 3).

A la question « Est-ce que ça marche avec un iPhone ? », la réponse est oui. Comme l’accessoire est totalement indépendant de l’appareil en face et fonctionne au niveau de la manette elle-même, ça fonctionne sur iPhone, Apple TV, macOS, etc.

Ca passe sur iPhone (ici en mettant un palet sur X)

Enlever la « white-list » Wi-Fi d’un HP Pavilion DV3500

Je n’en avais pas encore parlé ici (bien sur Twitter), mais j’utilise régulièrement un vieux PC portable HP, et quand je l’ai réinstallé sous Windows 10, j’avais un souci de Wi-Fi. Et quand j’ai voulu changer la carte, je me suis rendu compte qu’il bloquait le changement. J’ai donc cherché comment régler ça.

La version courte, vous pouvez aller à la fin, c’est qu’il existe un BIOS custom qui supprime complètement le problème. Mais je pense que la version longue peut être intéressante.

Le fond du problème n’est pas totalement lié à la carte Wi-Fi. Par défaut, cette machine a une carte Wi-Fi Intel (comme pas mal de PC de l’époque, c’est un Core 2 Duo arrivé sous Windows Vista) et un bouton d’activation du Wi-Fi. C’est un truc que je n’ai jamais compris sur les PC, il y a un raccourci qui permet de couper le Wi-Fi et c’est la source principale de « Le Wi-Fi de mon PC ne marche pas ». Il s’agit généralement d’un raccourci clavier abscons et parfois – comme ici – d’un bouton tactile. Le problème, c’est que le bouton en question ne répond pas sans les bons pilotes et que le comportement par défaut est de désactiver la carte. Ne me demandez pas la raison, c’est idiot. De façon très concrète, si vous réinstallez la machine sans les pilotes, pas de Wi-Fi. Et même avec, il m’arrive de temps en temps que le bouton se désactive, ce qui coupe le Wi-Fi. Et évidemment, les pilotes sont compliqués à trouver (bon, là, j’ai archivé).

Ma première idée a été de changer la carte Wi-Fi, car je pensais que la partie liée au bouton dépendait de la carte Wi-Fi. J’ai donc sorti une carte de mon stock, redémarré la machine et obtenu cette image. Une erreur 104.

La fameuse erreur 104

C’est un problème très courant chez HP ou Lenovo (notamment), il est impossible de changer la carte Wi-Fi. Le BIOS vérifie la carte et si vous n’avez pas un modèle validé, c’est mort. Dans le cas du Pavilion DV3500, la machine ne démarre même pas. Ce système de white-list (le BIOS contient une liste des cartes acceptées) est assez énervant : si jamais la carte tombe en panne, c’est parfois compliqué de trouver le bon modèle.

Mais j’ai l’habitude de ce genre de soucis, et j’ai donc cherché un peu. Je savais qu’il existe des BIOS modifiés ou la possibilité de modifier le BIOS pour changer la white-list. C’est une méthode pas forcément pratique, mais efficace. Je suis parti de ce tutorial.

Première étape, trouver le BIOS. Ce n’est pas si évident, HP ne liste plus les pilotes de ce modèle, mais quelques recherches plus tard, je suis tombé sur une mise à jour. Je l’ai installée (autant avoir un BIOS récent) puis j’ai cherché les fichiers. Petite astuce, ils sont dans les dossiers temporaires de Windows (C:/Users/Vous/AppData/Local/Temp, ensuite il faut chercher les dossiers récents), avec le programme de flash (sous Windows) et un fichier .fd qui contient le BIOS.

J’en ai profité pour récupérer les identifiants PCI de la carte Wi-Fi. Il faut généralement trois valeurs : le Vendor ID (l’identifiant du fabricant), le Product ID (l’identifiant de la carte) et le Subset ID (l’identifiant précis de la carte). Ensuite, il faut chercher dans le BIOS, avec un éditeur hexadécimal. L’organisation des données avec les CPU Intel (little endian) implique de rechercher les données avec des valeurs inversées. Ma carte est 8086 (Vendor ID, évidemment Intel) et 4237 (Product ID), il faut donc chercher 86803742 (inverse les deux valeurs). Jusque là, tout se passait bien, j’ai trouvé la valeur dans le fichier, dans une zone avec visiblement d’autres identifiants. Mais en cherchant le Subset ID… rien.

L’identifiant trouvé

Si j’avais trouvé le Subset ID, la suite de la manipulation consiste à remplacer les valeurs par celles d’une autre carte (il faut évidemment un second PC pour les trouver), sauver le tout et flasher le BIOS. Mais dans mon cas, c’est différent.

En cherchant les informations, je suis tombé sur une solution plus complète : un BIOS qui supprime totalement la vérification. La modification de base consiste à remplacer la valeur d’une carte par un autre, ce qui repousse le souci : on reste bloqué sur une carte particulière. Mais Kingnoob, quand il a décidé de se monter un Hackintosh, a trouvé cette solution bloquante. Il a donc analysé le BIOS, trouvé où se faisait la vérification et a modifié le code. Et même si le BIOS date d’il y a 10 ans, il est encore disponible.

Flash en cours


Flash réussi

Le flash a été assez simple, j’ai placé le fichier dans le dossier du programme de flash (récupéré au début), serré les fesses (les BIOS fait par quelqu’un d’autre, c’est toujours un peu inquiétant) et ça a fonctionné. Avec le BIOS custom, j’ai pu installer une carte Wi-Fi d’une autre marque sans soucis.

Tout ça pour rien

Le côté amusant de la chose (si on peut dire), c’est que ça n’a servi à rien. J’ai bien un BIOS qui n’a plus de white-list, mais mon problème de base ne change pas. Le bouton tactile n’est pas lié à une carte Wi-Fi HP ou un modèle précis, mais visiblement au connecteur lui-même. Donc même avec une autre carte Wi-Fi, il se désactive aléatoirement. Comme c’est un PC qui sert uniquement pour des tests quand je ne peux pas utiliser une machine virtuelle, je vais supporter le problème (au pire, l’Ethernet fonctionne). Mais j’ai perdu une bonne demi-journée pendant un week-end pour ça. Et accessoirement, le CPU chauffe vraiment beaucoup, mais comme le système de refroidissement est (vraiment) inaccessible, je n’ai pas la patience de tout démonter pour nettoyer le ventilateur et changer la pâte thermique…

C’est chaud

Creative BT-W2 : la première solution pour la voix en Bluetooth

Pendant quelques temps, ça va parler de Bluetooth. Avec un problème assez intéressant à analyser : le retour audio. En effet, le profil A2DP (la norme en Bluetooth) ne permet pas réellement le retour (c’est-à-dire la transmission de la voix) sans bidouiller. Et Creative propose deux solutions intéressantes pour régler ce problème. Aujourd’hui, commence par le BT-W2, un émetteur/récepteur USB.

Un peu de théorie basique, pour commencer. L’A2DP (le profil Bluetooth) a été pensé pour une liaison unidirectionnelle, d’un émetteur (par exemple un smartphone) vers un récepteur (un casque, des enceintes, etc.). Dans la majorité des cas – je vais y revenir -, il n’y a pas de possibilité de retour (du casque vers le smartphone) sans réduire la qualité. Pratiquement tous les casques du marché intègrent un microphone, mais quand il est activé, ils passent sur un autre mode de transfert, le profil HFP (mains-libres). Quand c’est le cas, la qualité audio est fortement dégradée : on passe d’une liaison avec une qualité correcte dans l’absolu (une compression avec pertes, mais un débit assez large) à une liaison bidirectionnelle de mauvaise qualité. Les anciens casques travaillent en CVSD (en gros, du PCM à 64 kb/s, avec une fréquence d’échantillonnage de 8 kHz) ou du mSBC (de la compression avec pertes, en 16 kHz). Dans les deux cas, la liaison passe dans les deux sens sur le codec en question. Si vous voulez un exemple simple du résultat, connectez un casque en Bluetooth à un Mac, lancez de la musique, puis allez dans les Préférences Système, section Son, et choisissez le casque audio dans Entrée. Le résultat est immédiat : l’activation du microphone force le mode mains-libres, ce qui réduit la qualité de l’audio.

La solution de Creative : un codec avec du retour

Creative, avec l’adaptateur BT-W2, a une solution partielle au problème : le FastStream ou l’aptX LL. Je passe rapidement sur le second : en théorie on peut avoir un canal de retour, mais il y a très peu d’informations, et Creative indique qu’il n’y a que deux produits compatibles, des cartes son capables de recevoir du Bluetooth, plutôt onéreuses. Le FastStream, lui, est un pseudo-codec développé par CSR – un fabricant de puces Bluetooth, racheté par Qualcomm – pour réduire la latence et propose un canal de retour audio. Il s’agit d’un pseudo-codec dans le sens le FastStream transmet du SBC avec un débit assez bas (~212 kb/s) vers le casque, et du SBC en mono (et 16 kHz) depuis le casque. C’est souvent considéré comme un hack de la norme, avec dans la pratique une compatibilité assez faible. Le FastStream a plusieurs défauts, le premier vient de la qualité : si du mono en 16 kHz suffit pour de la voix, le SBC avec un faible débit est franchement moyen. C’est mieux que de forcer du une qualité voix dans les deux sens, mais ça reste dégradé par rapport à la source. Le second problème, plus gênant, vient de la compatibilité. Les OS principaux (Android, iOS, Windows, macOS) ne supportent pas le FastStream, et le support sous Linux demande des modifications des pilotes, ce qui peut être bloquant. Du côté des casques, ça reste assez rare, avec essentiellement des modèles de chez Creative et de temps en temps des casques d’autres marques. On peut trouver une liste là, et visiblement certains écouteurs d’entrée de gamme (genre ces Aukey) sont compatibles, je testerais à l’occasion.

On en arrive au BT-W2, l’adaptateur de Creative.

Le dongle BT-W2

Un adaptateur audio

Le BT-W2 (un peu ancien, il se trouve vers 30 €) est un dongle audio. Pas un dongle Bluetooth. Il ne va pas remplacer le Bluetooth de votre Mac (PC), mais fonctionne comme une carte audio USB. L’idée est simple : c’est le dongle qui va gérer la transmission, et l’OS reçoit juste l’audio. Ça fonctionne sur à peu près n’importe quel OS, même un smartphone si vous avez un adaptateur USB. Sous macOS, il apparait simplement dans Préférences Système -> Son. Il ne propose pas de réglages particuliers pour la qualité, et travaille en 16 bits/48 kHz/stéréo pour la sortie, 16 bits/48 kHz/mono pour l’entrée. Attention, la transmission en entrée est en 16 kHz, mais ça doit simplifier le rééchantillonage.

48 kHz en entrée (c’est… théorique)


48 kHz en sortie

Le jumelage est assez simple : on met le casque en mode jumelage, ensuite on met le dongle en mode jumelage (en pressant son bouton quelques secondes) et la liaison va se faire d’elle-même. Premier bémol, impossible de régler le volume au clavier : il est géré uniquement par le casque. Par contre, les commandes des casques (play, pause, etc.) sont bien transmises, le dongle agit comme un périphérique HID.

J’ai d’abord testé avec un vieux casques Sony, qui ne prend que le MP3 et le SBC, et je n’ai donc pas de retour audio. Idem avec deux autres casques (Sony et Jabra) : pas de retour audio. J’ai rapidement testé avec un adaptateur Bluetooth “de salon” qui indique le codec utilisé : il passe en aptX LL (basse latence). Dans tous les cas, il n’y a tout simplement pas de canal de retour.

aptX LL

Ensuite, j’ai sorti un casque compatible FastStream, le Creative Outlier Sport (des écouteurs sportifs qui valent environ 40 €). Et là, il y a un canal de retour en 16 kHz (suffisant pour de la voix) avec de l’audio correct en même temps. Ce n’est pas extraordinaire (en partie parce de sont des écouteurs d’entrée de gamme) et j’entends clairement les défauts de compression sur certains morceaux, mais c’est parfaitement utilisable. Et surtout, le test de base qui consiste à activer l’entrée audio ne réduit pas la qualité. Comme expliqué plus haut, c’est flagrant avec les AirPods (ou n’importe quel autre casque) : il y a une dégradation immédiate… mais pas ici.

Des écouteurs FastStream

Une fois connecté de façon plus classique sous macOS, les écouteurs passent en aptX avec un son meilleur. Mais comme d’habitude, l’activation du microphone réduit la qualité drastiquement.

En aptX une fois connectés sous macOS directement

Une solution bâtarde

Est-ce que le choix de Creative avec le FastStream est intéressant ? Oui, et ça fonctionne. Mais est-ce la solution idéale ? Pas vraiment. Il faut un dongle (et donc utiliser une prise USB), un casque compatible (rare, Creative en propose) et on perd le réglage du volume direct. Qui plus est, le FastStream n’est pas un excellent (pseudo)codec : c’est du SBC avec un débit un peu faible. C’est suffisant pour du sport, écouter de la musique dans le métro (éventuellement) ou de la visio, mais on peut déceler les défauts, même sans être forcément entraîné.

Demain, on parlera du BT-W3, le nouveau modèle de dongle qui va dans une autre direction pour régler le problème.

Le MP3 comme codec en Bluetooth : comment ça marche ?

Si vous avez une petit idée de comment fonctionne un casque Bluetooth, vous savez peut-être que le codec est important. Et si les casques modernes proposent des codecs plutôt performants, à une époque il était possible de travailler en MP3. Ca fait un moment que j’essaye de faire fonctionner un casque dans ce mode pour vérifier un point, et là, j’ai réussi.

Le problème des codecs est souvent assez mal compris. Pour résumer rapidement, le codec de base est le SBC. Il est obligatoire, supporté par tous les appareils et offre une qualité assez moyenne. Il peut être assez bon sur des débits élevés, mais c’est de la bidouille. La norme propose d’autres codecs par défaut (MP3, AAC, etc.) et il existe la possibilité d’ajouter des codecs tiers, comme l’aptX, le LDAC, etc. Le sujet du jour est le MP3, mais il faut bien mettre les choses au point : dans tous les cas, les codecs impliquent des pertes (oui, même le LDAC), et dans 99 %, il y a un encodage lors de l’envoi. On peut lire ici et là (et je l’ai écrit à une époque) qu’Apple envoie l’AAC directement au casque, mais ce n’est pas le cas, j’y reviendrais. Malgré tout, la qualité de l’encodeur joue évidemment sur la perception du son. En AAC, l’encodeur Apple est meilleur (lors de tests en aveugle) que l’encodeur Fraunhofer, lui-même nettement devant une implémentation open source de l’AAC. Plus concrètement, la qualité du son varie en fonction des appareils émetteurs, même en utilisant le même casque. En aptX, le problème n’existe pas car Qualcomm fournit le même encodeur à tout le monde, par exemple.

Le cas MP3

A l’origine, l’idée de l’utilisation du MP3 était d’envoyer directement le son au casque, sans (ré)encodage préalable. C’est a priori ce que font quelques vieux lecteurs pour les smartphones Symbian du début des années 2000, mais c’est un comportement atypique. Dans l’exemple que j’ai pu tester, le MP3 est encodé en temps réel avec un débit assez faible (128 kb/s).

Le casque, le dongle

Il faut le savoir, le codec MP3 n’est utilisé que très rarement en Bluetooth, et pour tester, il y a deux écueils. Premièrement, trouver un périphérique qui accepte le codec. Les casques modernes ne le font généralement pas, il faut aller vers des appareils anciens, et fouiller les fiches techniques. Mon Sony DR-BT22, assez vieux, le propose. Deuxièmement, plus compliqué, l’émetteur doit le supporter aussi. La majorité des OS ne le fait pas, et j’avais trouvé à une époque quelques vieilles versions d’Android sur des appareils précis et c’est tout. macOS ne le fait pas, iOS non plus, avec GNU/Linux, c’est (peut-être) possible en bidouillant, etc. Sous Windows, ça va dépendre du pilote (la stack) et BlueSoleil, de chez IVT, le gère. Là, ça devient embêtant : on parle ici de vieilles versions de BlueSoleil, un pilote qui dépend énormément du dongle choisi. Je vais passer les détails, mais en gros la solution a été d’acheter un dongle Bluetooth d’occasion en espérant (après vérifications) que le pilote livré soit bien BlueSoleil. Et j’ai installé le tout sur un vieux PC sous Windows XP. Dans ce très long article sur les codecs, l’auteur n’a par exemple pas réussi à l’utiliser.

Par défaut, du SBC


Forcer le MP3


Il doit être avant le SBC


Pas de codec MP3 disponible ?

Une fois BlueSoleil installé, il faut forcer le MP3. Par défaut, le son est envoyé en SBC, il faut donc aller dans la configuration du protocole A2DP et mettre le MP3 devant le SBC. Et même après ça, j’ai eu un message d’erreur un peu bizarre : Professional MPEG Layer-3 Codec Not Detected. Après quelques recherches, je me suis rendu compte que le codec de base sous Windows XP est visiblement limité sur l’encodage, et il faut modifier deux entrées de la base de registre.

Dans [HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows NT\CurrentVersion\drivers.desc], remplacer "C:\\Windows\\System32\\l3codeca.acm" par "C:\\Windows\\System32\\l3codecp.acm".
Dans [HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows NT\CurrentVersion\Drivers32], remplacer "msacm.l3acm"="C:\\Windows\\System32\\l3codeca.acm" par "msacm.l3acm"="C:\\Windows\\System32\\l3codecp.acm".

Après un redémarrage, ça a fonctionné.

Ca marche

La première question à se poser est simple : est-ce qu’il y a une différence audible ? Honnêtement… pas tellement. Le casque est un modèle d’entrée de gamme assez ancien, et je ne peux pas faire de tests en aveugle facilement, vu que le changement de codec nécessite pas mal de manipulations. Je dirais oui parce que je sais que le MP3 est probablement meilleur que le SBC dans le cas présent, mais c’est subjectif. En tout cas, les défauts du MP3 ne sont pas les mêmes à l’écoute que ceux du SBC.

La seconde question, plus intéressant : qu’envoie réellement le programme. BlueSoleil n’indique pas explicitement le débit, mais on peut afficher le nombre d’octets transmis. Donc en lisant le même morceau encore et encore, on peut vérifier ce qu’il envoie. J’ai tenté le même morceau en MP3 à 160 kb/s, en MP3 à 128 kb/s et en WAV (sans compression, donc), avec une transmission en MP3 puis en SBC. En MP3, dans tous les cas, la transmission a donné les mêmes valeurs, qui correspond à du MP3 à 128 kb/s. En SBC, le débit était de ~235 kb/s, donc un bitpool (en gros, les valeurs prédéfinies) de 35. A ce débit, le SBC est considéré comme à peine moyen, mais les casques modernes ont généralement un débit plus élevé (souvent aux alentours de 350 kb/s). Dans les deux cas, on a donc un débit assez faible en Bluetooth, ce qui a un avantage évident : ça coupe assez peu. Avec les appareils modernes, on peut monter un peu plus haut (jusqu’à environ 900 kb/s avec les meilleurs codecs) mais la liaison peut en souffrir.

BlueSoleil indique le nombre d’octets transférés

Globalement, mon petit test a permis de vérifier qu’il est possible de transférer en MP3 depuis un PC, mais c’est à peu près tout : l’intérêt n’est pas évident, surtout avec des appareils aussi vieux et des débits aussi faibles.

Lexar et les Compact Flash USB-Enabled

En lisant un thread de foone, je suis tombé sur un truc qui m’a interpellé : des CompactFlash nativement compatibles avec l’USB, sorties chez Lexar au début des années 2000. Si vous me lisiez avant ce site, vous savez peut-être que je me suis pas mal intéressé aux cartes mémoire à une époque.

Vous vous demandez peut-être ce que je veux dire avec « nativement compatibles avec l’USB » ? Je m’explique. Les cartes CompactFlash dérivent du PCMCIA, qui dérive de l’ISA, et elles peuvent se comporter comme des disques durs PATA. Mais les cartes « USB-Enabled » de Lexar ajoutent la possibilité de connecter les cartes en USB directement. Dans un lecteur de cartes classique, il y a une puce qui va effectuer la conversion entre l’USB et la carte, ce qui a un coût. Si en 2021 un lecteur de cartes vaut quelques euros, on était fréquemment aux alentours de 50 $ à l’époque de la sortie des cartes en question.

Le lecteur jumpSHOT


Une carte USB-Enabled

Lexar, avec ses lecteurs jumpSHOT, propose une solution plus simple : le lecteur ne contient rien (ou presque). Il y a un câble USB, les broches pour connecter la carte… et c’est tout. La carte est reliée directement à l’USB et la puce de conversion est dans la carte elle-même. Je n’ai pas pu vérifier si les cartes étaient vendues nettement plus cher qu’une carte classique, mais les tests de l’époque semblent montrer une différence assez faible.

Attention, à utiliser uniquement avec les cartes compatibles


C’est vide


C’est vide

Le point positif, c’est que le lecteur est compact (vous l’avez ?) pour l’époque (forcément, le PCB est assez vide) et ne vaut pas grand chose. Le point négatif, évidemment, c’est la compatibilité : il faut une carte Lexar USB-Enabled. Si vous branchez le lecteur, rien ne se passe, il n’est même pas reconnu. Si vous insérez une carte compatible, ça fonctionne comme un lecteur standard. Si vous mettez une carte classique, la LED reste allumée et rien ne se passe, il y a une protection.

Il n’est reconnu qu’avec une carte


Bien évidemment, c’est assez lent : ça date de 2002 et la norme était l’USB 1.1 à 12 Mb/s. Si l’idée pouvait paraître intéressante à l’époque, on se rend compte presque 20 ans plus tard que c’est un peu vain. D’abord parce que le prix des lecteurs a baissé avec le temps, ensuite parce que le format CompactFlash était assez ouvert et limiter le lecteur a une marque précise était un problème. Parce qu’utiliser le lecteur jumpSHOT impliquait de n’acheter que des Lexar USB-Enabled… ou d’acheter un lecteur classique. Et le passage à l’USB 2.0 a permis d’augmenter les débits, ce que ne permettait pas nécessairement la technologie.

Une vieille souris à retour de force de chez Logitech… qui ne marche pas (non plus) sous macOS

Il y a quelques semaines, je parlais de la iFeel, une souris haptique de chez Logitech. Et j’évoquais la Logitech Wingman Force Feedback Mouse, une vraie souris à retour de force. De façon fortuite, alors que je cherchais depuis un moment, je suis tombé sur un modèle en vente. Petit test.

La iFeel est une souris classique qui intègre un vibreur, en simplifiant. La Wingman Force Feedback Mouse est… autre chose. De loin, elle ressemble à une souris des années nonante (elle date réellement de 1999, le test de Hardware.fr a été fait début 2000). Elle possède trois boutons, pas de molette, une forme classique de cette époque. Mais quand on la prend en main, on se rend compte qu’elle est solidaire du « tapis » et qu’il ne s’agit pas réellement d’une souris. En fait, il n’y a pas de boule ou de dispositif optique, il s’agit plus d’un joystick en forme de souris, c’est un peu perturbant. En interne, la zone ou il y a une boule est en fait placée sur l’équivalent du centre d’un joystick, et il y a un trou sous la souris qui définit les mouvements possibles.

La souris


Ça ressemble à une souris


Sous la souris


Sous la souris

Elle se branche en USB, avec un long câble fixe, et nécessite aussi une prise de courant, à travers un (gros) transformateur qui sort du 12 V.

La prise pour l’alimentation

Des pilotes… compliqués

De ce que j’avais pu voir (comme cette vidéo) le comportement est un peu particulier. Par défaut, elle expose juste un périphérique HID (sous le nom E-UB3) et ne fonctionne pas en tant que souris. Sous macOS (ou avec un Windows récent), elle est donc inutilisable. J’ai d’abord tenté différentes machines virtuelles : Windows XP, Windows 2000 (les pilotes 3.65 sont compatibles avec cet OS), Windows 98, etc. Mais même en réglant VMware Fusion pour que les périphériques HID passent directement à la machine virtuelle, je n’ai pas réussi à la faire fonctionner.

Elle ne fonctionne pas sous macOS

De ce que j’ai compris, les pilotes (encore disponibles sur le FTP de Logitech) activent en fait la souris, mais ça marche assez mal dans une machine virtuelle. Une personne a réussi à le faire sous Linux pour sniffer ce que le pilote fait, mais avec VMware Fusion, impossible. Je suis donc passé sur une vraie machine, sous Windows XP.

Sur un vrai PC

Il faut d’abord, avant de brancher, installer les pilotes Wingman dans une vieille version pensée pour Windows 2000, la 3.65. Ensuite, il faut installer les pilotes de la souris elle-même. Et enfin, il faut brancher le périphérique et attendre que Windows XP installe les pilotes nécessaires.

Le panneau de contrôle

Par défaut, ça va fonctionner comme une souris, mais une souris pas très pratique : comme on ne peut pas lever la souris du tapis, c’est parfois compliqué de traverser l’écran, la zone de déplacement est plutôt adaptée aux écrans 4:3, etc. Petite astuce : si vous n’arrivez pas à atteindre une zone, il faut faire un grand tour de la zone de mouvement, ça semble recalibrer l’appareil. C’est donc une souris… mais une mauvaise souris, et je vous conseille vraiment de ne pas considérer que ça remplace une souris : ce n’est pas le cas. Il faut garder une vraie souris. L’avantage c’est que l’ensemble est programmable. Le petit truc à savoir, c’est que ce périphérique est par défaut une souris (et s’expose comme une souris HID) mais qu’une combinaison de touches (ctrl + F12) permet – quand le panneau de réglage est actif – de changer de mode de fonctionnement. Il est en effet possible de configurer le produit comme un joystick HID à retour de force. J’ai testé dans un jeu compatible (Dethkarz, mais il y a une liste assez complète sur Wikipedia) et l’effet est assez saisissant. Le déplacement de la souris (vue comme un joystick à 3 boutons) ressemble un peu à un stick analogique, mais avec un retour de force, donc il faut réellement forcer pour aller dans une direction à fond, etc.

Le changement (ctrl + F12) n’est pas ratable



Mode joystick


Dans un jeu

J’ai aussi utilisé un petit logiciel de test qui fait bouger la souris en envoyant les commandes de retour de force (vibration, déplacement dans une direction précise, recentrage, etc.). En vidéo, c’est assez saisissant du coup. Certains effets, comme la friction, ne se voient pas, mais une fois la souris en main, on sent bien les effets.

Quelques effets de test

Je suis un peu triste de ne pas avoir pu tester le produit sous macOS, mais je n’ai pas les compétences pour déterminer (et reproduire) ce que le pilote fait pour activer le produit.

Ça donne quoi, un PC Windows 10 ARM ?

J’ai testé récemment Windows 10 ARM sur un Mac M1, j’ai testé la Surface Pro X pour Canard PC Hardware, et je me suis posé une question : ça donne quoi sur un PC Windows 10 ARM plus classique ?

Sur un Mac mini M1 avec Parallels, il y a quelques limites. Avec la Surface Pro X, ça marche de façon moyenne, et la tablette est surtout très onéreuse (on arrive vite à 1 500 ou 1 600 € avec le clavier). Et donc j’ai cherché quelque chose de plus abordable. Et une société « française » a une solution, le Thomson Neo Z3. Mon modèle, le Z3-13Q835-4T64, est en fin de vie, vaut environ 400 € neuf (honnêtement, je l’ai trouvé juste après Noël, même pas déballé, pour moins de la moitié). Thomson doit le remplacer par une version plus rapide cet hiver (à base de Snapdragon 850), mais je ne l’ai pas encore vu en magasin.

Une machine assez convaincante… avant l’allumage

Physiquement, c’est un ultraportable 13,3 pouces assez classique. Il est à moitié en métal (en gros, la coque de l’écran et celle du bas sont en métal, la partie clavier est en plastique), l’écran Full HD est tout à fait correct (même s’il est très brillant), tout comme la webcam 720p. La connectique est assez complète : une prise barrel pour l’alimentation (en 12 V), une prise USB-C compatible vidéo (DisplayPort) qui peut servir pour la charge, une prise USB 3.0 classique, un lecteur de cartes microSD, une prise jack et un emplacement nano SIM pour le modem 4G intégré. Le trackpad fonctionne globalement bien, et le clavier est un peu peu mou mais utilisable. Il a tout de même un petit défaut : une touche Entrée sur une seule rangée, à la manière des claviers américains. Il est bien AZERTY, mais ce point est vite énervant quand on a l’habitude de presser le haut de la touche. Le PC est un peu lourd pour son gabarit (1,5 kg) mais rien d’horrible. C’est en partie lié aux composants, mais la machine à l’avantage d’être passive, et ne chauffe pas trop (moins de 30°C). De plus, l’autonomie est correcte en vidéo : 8h50 heures avec une vidéo YouTube en boucle (sous Edge) avec la luminosité à 50 %. Physiquement, j’ai juste noté un truc bizarre : si j’essaye de le charger avec le bloc de mon MacBook Pro en USB-C, le trackpad se désactive. C’est visiblement lié à la mise à la terre et ça n’arrive pas avec le chargeur d’origine (ni un 18 W Apple).

L’écran est brillant


Barrel et USB-C


(nano)SIM, jack, microSD et USB



L’intérieur, avec une batterie correcte (38 Wh) et pas mal de vide.

Franchement, pour un PC portable à 400 €, c’est plutôt bien.

La partie interne

En interne, c’est malheureusement compliqué. Vu le prix, il utilise la première génération de SoC dédiée à Windows 10 ARM, autrement dit un Snapdragon 835. C’est un SoC de smartphone qui date de 2016 avec une architecture hybride. On a d’un côté quatre coeurs Kryo 280 Gold (en gros, des Cortex A73) à 2,35 GHz (max) et de l’autre quatre coeurs Kryo 280 Silver, des Cortex A53. Pour se donner une idée, les coeurs rapides sont de la génération qui suit le Cortex A72 des Raspberry Pi 4, les coeurs lents sont les mêmes que le Raspberry Pi 3. La machine a 4 Go de RAM LPDDR4X (bus 64 bits), du Bluetooth 5 et du Wi-Fi 11ac. Si vous voulez une comparaison qui fait mal, les coeurs basse consommation du M1 offrent des performances très nettement plus élevée (au niveau d’un Cortex A76).

Au moins, ça ne chauffe pas

Le stockage de base est de 64 Go sur mon modèle, avec un module UFS. Ce n’est pas vraiment un SSD, mais c’est mieux qu’une carte SD interne. Il lit assez rapidement (vers 900 Mo/s) et écrit assez lentement (moins de 200 Mo/s). Avant de parler du CPU, un mot sur le reste. L’USB 3.0 est lent (~160 Mo/s en lecture, ~280 Mo/s en écriture) et la partie graphique assez correcte en théorie. L’Adreno 540 doit atteindre environ 700 Gflops (soit nettement plus qu’un Intel HD 630, par exemple) mais les pilotes sont assez buggés et 3DMark affiche surtout des artefacts. Et avec 128 Mo de mémoire par défaut, pas mal de choses ne fonctionnent pas.

De biens beaux artefacts


Le “SSD”


L’USB, franchement lent

Mais le problème, c’est le CPU. Par défaut, c’est fucking lent (désolé pour la grossièreté). Mais vraiment. La majorité des applications, même basique, réagit lentement. On clique sur une application, et il ne se passe rien. Puis après quelques secondes, ça arrive. Et là, je parle des applications natives (Edge, ce que fournit Windows 10, etc.). Avec les applications émulées, c’est encore pire. Avec les applications natives, on est au niveau des PC portables à base d’Intel trucmont (en gros, les Atom modernes), en émulation, on a l’impression de retrouver un Pentium 4 d’il y a 20 ans. Si vous voulez, il y a le score Geekbench en natif et en émulation x86-64.

Pour vous donner une idée, un bon CPU moderne dépasse les 600 en single core


Idem ici

Le problème Windows 10

Le second souci, c’est Windows 10 ARM (non, pas juste Windows 10, bande de trolls). La machine est au départ sous Windows 10 S, mais ce n’est pas réellement un problème : il faut 30 secondes pour repasser en Windows 10 classique (pour information, Windows 10 S ne lance que les applications du Store Microsoft, mais c’est artificiel). Par défaut, il est surtout arrivé sous Windows 10 1904 (avril 2019) et s’est mis à jour en 1909 (septembre 2019)… et c’est tout. Pour rappel, la version déployée en masse est la 20H2 (automne 2020). Je n’ai pas pu forcer la version récente (il indique une erreur) et j’ai dû passer par le canal dev de Windows Insider (en gros, une bêta). Par ce biais, il a d’abord installé la version 2004 (printemps 2020), en bêta. Et un deuxième passage a permis d’installer la bêta de décembre 2020, qui ajoute la prise en charge du x86-64. Au passage, si jamais la page Windows Insider ne trouve pas de mise à jour, il faut aller activer le partage de diagnostics avec Microsoft dans les options.

Pas de MAJ

Parce que par défaut, j’en ai déjà parlé, Windows 10 ARM exécute les applications ARM (32 et 64 bits, ici) et x86 (32 bits). Ce qui fait qu’avec une installation de base, énormément d’applications Windows ne se lancent pas du tout. Il faut la bêta pour pouvoir utiliser l’émulateur x86-64. La bonne nouvelle, c’est qu’il fonctionne avec les Snapdragon 835. La mauvaise, c’est que c’est toujours aussi lent.

Avant la bêta, pas de x86-64

Un PC portable ambigu (et à éviter

La conclusion sur le Thomson Neo Z3 est la même que celle de la Surface Pro X, dans un sens. Physiquement, c’est plutôt bien pour le prix. Et à l’usage, c’est bien trop lent pour être agréable. Il n’est pas dénué totalement d’intérêt, mais dans la majorité des cas les performances risquent de rendre la machine énervante, même pour du basique. Disons que pour remplacer une tablette en déplacement, c’est vaguement passable : c’est assez autonome, silencieux et la 4G intégrée peut servir. Mais il vaut mieux ne pas aimer le multitâche et se contenter de quelques onglets avec Edge (à la limite Firefox, disponible en natif)… et c’est tout. Même pour du traitement de texte, c’est assez pataud. C’est un peu dommage, mais le fait est que Windows 10 ARM a deux défauts : l’absence d’applications natives (mais là, on va tourner en rond) mais surtout l’absence de processeurs assez rapides. Et sur ce point, il n’y a pas de solutions.

Cette feuille était collée sur l’écran

Pour terminer, Thomson a annoncé une version à base de Snapdragon 850 pour à peu près le même prix pour décembre, mais il n’est pas disponible à ma connaissance. Et le CPU un peu plus rapide ne change rien au problème, parce qu’il est moins lent, en réalité. Mais ça reste très loin d’un bon Core i5 moderne ou (a fortiori) d’un Apple M1.

SCMS-T, le DRM inutile en Bluetooth

En cherchant des infos sur les codecs en Bluetooth, je suis tombé sur un truc bizarre : une sorte de DRM intégré dans les périphériques audio Bluetooth, mais qui a très peu d’effet. Le SCMS-T.

Le SCMS (Serial Copy Management System) est un flag présent dans les flux numériques (par exemple les CD) qui empêche théoriquement la copie. J’en avais parlé il y a longtemps, c’est essentiellement utilisé sur les DAT ou les MiniDisc (par exemple) pour empêcher la copie numérique. Et chez Creative, j’ai découvert que la technologie est déployée en Bluetooth, sous le nom SCMS-T. Mais là aussi… elle ne sert pratiquement à rien.

Le principe semble être le même que le HDCP, en théorie il faut que les appareils soient compatibles SCMS-T pour que l’audio fonctionne. Mais c’est visiblement très théorique, de ce que j’ai pu tester. Pour essayer, j’ai sorti un vieux casque Bluetooth (Sony DR-BT22) qui a la particularité de pouvoir désactiver le SCMS-T. En pratique, c’est assez simple : 99 % des appareils Bluetooth sont compatibles, et pour trouver un appareil qui ne l’est pas, il faut vraiment aller chercher des antiquités.

Le casque propose de désactiver le SCMS-T (et il supporte le codec MP3)

Maintenant, il se passe quoi quand on désactive le SCMS-T ? Dans la majorité des cas… rien. J’ai testé avec macOS (Big Sur), iOS (14), un smartphone sous Android (10) et un PC sous Windows 10 et ça marche. En fait, la majorité des stacks (le pilote, au sens large) ne réagit pas en l’absence de SCMS-T. Il y a quelques cas où la technologie est obligatoire tout de même, notamment avec la stack Bluetooth de Toshiba. Elle était utilisée sur les PC portables de la marque, et elle nécessitait un périphérique compatible par défaut (on trouve quelques traces de ce problème sur de vieux forums, avec des réponses d’un certain… Dandu). Dans les trucs plus récents, la stack CSR Harmony (utilisée, par exemple, par ce dongle) peut être configurée pour l’imposer, même si ce n’est pas obligatoire. On trouve aussi des traces de la technologie dans les pilotes Bluetooth Intel.

Petit test

Pour vérifier ce que ça donnait, j’ai donc désactivé le SCMS-T sur le casque Bluetooth, et installé le pilote CSR. Au départ, il désactive SCMS-T par défaut, et il est possible de l’activer. On peut aussi ensuite le faire dans les pilote, avec un avertissement.


Ensuite, le SCMS-T ne semble pas bloquer : j’ai pu jumeler le casque et envoyer de l’audio dessus… mais uniquement avec le profil HFP, donc avec une qualité sonore (très) dégradée.


En fait, l’absence de SCMS-T (ici, donc avec l’option activée côté PC et désactivée côté casque) bloque la liaison A2DP, c’est-à-dire l’audio de qualité. La première capture montre le message d’erreur en cas de tentative de connexion, et ce n’est pas très explicite. La seconde capture montre le résultat quand on active le SCMS-T côté casque.

Une erreur pas très explicite


Une fois activé, ça marche

Du coup, le SCMS-T rejoint la longue liste des DRM inutiles, qui peuvent juste ennuyer les gens dans de très rares cas. Mais la protection elle-même n’empêche pas réellement de copier du contenu. Et de toute façon, vu la dégradation de l’audio en Bluetooth, il n’y a aucune raison de vouloir récupérer le flux nativement.

Edmond Couchot, pionnier des arts numériques (1932-2020)

Par : Shadows

Nous apprenons le décès d’Edmond Couchot, enseignant, théoricien et artiste contemporain, qui a beaucoup œuvré dans le domaine des arts numériques.

Il avait notamment cofondé le département Arts et Technologies de l’Image à l’Université Paris 8, produit une abondante littérature sur les liens entre arts et technologies (en particulier dans le secteur des arts visuels).
Dès les années 60, il avait lui-même créé différentes œuvres interactives avec par exemple des « mobiles musicaux » capables de réagir au sons externes. On notera aussi, à l’aube des années 90, le dispositif Je sème à tout vent (réalisé par Michel Bret) permettant au spectateur de souffler sur des pissenlits virtuels, ou l’installation La Plume (Michel Bret, Edmond Couchot, Marie-Hélène Tramus), assez similaire mais centrée sur une plume virtuelle.
Nous avions eu l’occasion, en 2018, de tester Je sème à tout vent durant Laval Virtual (photo d’en-tête), et constater que l’oeuvre n’a rien perdu de sa force poétique.

La page Wikipedia d’Edmond Couchot vous donnera une idée plus précise de son parcours et de ses publications.

Nous vous invitons aussi à (re)découvrir la conférence qu’il avait donnée en 2011, dans le cadre de l’évènement Le Futur a Un Passé organisé dans le cadre de Futur en Seine et proposé par EnsadLab, l’INA, l’IRCAV (Université de Paris 3) et Paris ACM Siggraph, en partenariat avec 3DVF. Il y revenait sur la création d’ATI à l’Université Paris 8. L’occasion également d’évoquer les premières oeuvres des élèves et enseignants.

L’article Edmond Couchot, pionnier des arts numériques (1932-2020) est apparu en premier sur 3DVF.

Une vieille souris haptique de chez Logitech… qui ne marche pas sous macOS

Il y a quelques mois, j’ai trouvé un produit marrant : la iFeel de chez Logitech, une souris à retour de force (haptique). Et j’ai tenté de la faire fonctionner sous macOS.

La iFeel est une souris haptique, c’est-à-dire qu’elle intègre un petit moteur qui va faire vibrer la souris en fonction du contexte. Ce n’est pas un one shot de la part de Logitech : elle utilise la technologie d’Immersion, intégrée dans Mac OS X avec Jaguar, et donc j’espérais qu’elle fonctionne comme un joystick à retour de force.

La souris, en USB

Ce n’est pas le cas, comme l’explique bien le site iFeelPixel, les souris utilisent une version spécifique de l’API, TouchSense. J’ai bien tenté de modifier les fichiers ImmersionForceFeedback.kext et LogitechForceFeedback.kext (ils contiennent tous les deux les identifiants des périphériques) mais sans succès : une fois que c’est fait, la souris n’est plus fonctionnelle comme souris, mais ne réagit pas en Force Feedback. En réalité, ça doit fonctionner avec un modèle précis, la Logitech Wingman Force-Feedback Mouse : dixit iFeelPixel elle fonctionne soit comme une souris, soit comme un joystick.

Et sous Windows ?

Sur ce site, vous trouverez pas mal de pilotes, et iFeelPixel en propose aussi, spécifiquement pour la souris de Logitech, d’ailleurs. J’ai testé sous Windows XP avec une machine virtuelle à travers VMWare Fusion. Attention, la détection des souris et clavier dans une machine virtuelle est compliquée : par défaut, c’est bloqué. Avec VMWare Fusion, il faut ajouter deux lignes dans le fichier de configuration VMX de la machine virtuelle.

usb.generic.allowHID = "TRUE"
usb.generic.allowLastHID = "TRUE"

Pourquoi bloquer ? Pour éviter que le système hôte perde l’accès aux périphériques de saisie. Donc attention avec cette commande : il est possible de connecter une souris (clavier, manette, etc.) directement à la machine virtuelle, mais il faut bien faire attention de ne pas connecter la « souris » du Mac.

Quelques réglages


Il y a différents profils

Avec cette commande et le pack de pilotes de iFeelPixel, la souris est reconnue et vibre dans certains cas. Par exemple, sous Windows XP, elle va générer des vibrations dans le menu Démarrer, pour essayer d’indiquer la navigation dans les différents items. La souris a une bonne vingtaine d’années, donc c’est assez rudimentaire : on est très loin des effets haptiques des appareils Apple modernes, c’est essentiellement un moteur de vibration basique, comme dans les manettes. Mais ça ne marche pas si mal : on ressent (enfin, on entend) bien les mouvements, c’est assez discret pour ne pas être gênant, mais assez présent pour être ressenti. Il y a des effets quand on approche de la croix dd fermeture, dans certains logiciels, tout est réglable, etc. Ça n’a pas grand intérêt en pratique, mais on peut trouver ça amusant.

Flash : une ultime mise à jour, que vous ne devriez pas installer

Par : Shadows

Adobe a lancé hier une ultime mise à jour de sécurité pour Flash, son lecteur autrefois incontournable sur le web pour lire des vidéos, jouer en ligne ou encore afficher les portfolios de nombreux artistes et studios.
Conformément à ce qui avait été annoncé en 2017, cet outil vieillissant va prendre sa retraite : entre l’essor de nouvelles technologies comme HTML5, les défauts de Flash et ses problèmes de sécurité, cette décision était inévitable.

Pour cette raison, et comme le support se termine le 31 décembre, Adobe recommande non pas de mettre à jour mais de supprimer dès à présent Flash Player. Ce dernier bloquera de toutes façons la lecture des contenus Flash dès le 12 janvier prochain, afin d’éviter les problèmes de sécurité.

Adobe propose une page dédiée sur la mort de Flash, avec notamment des instructions pour une désinstallation manuelle.

L’article Flash : une ultime mise à jour, que vous ne devriez pas installer est apparu en premier sur 3DVF.

L’application Apple TV pour les Xbox

La semaine dernière, je parlais de l’application Apple TV pour PlayStation (4 et 5). Et bien Apple propose la même application pour les Xbox (One et Series).

Sur les Xbox (ici une One X), l’application est la même que sur PlayStation visuellement, avec les mêmes fonctions : on peut lire les vidéos achetées sur iTunes, évidemment celle de l’abonnement Apple TV+, mais aussi acheter et louer du contenu. Je le précise parce que la version Amazon pour Fire Stick TV ne le propose pas. Les options d’accessibilités son là, les anciens contenus aussi, et la gestion des sous-titres et de l’audio passe – comme sur PlayStation – par le stick de gauche. La seule différence, c’est que ça tombe mieux sous le doigt avec le design asymétrique des manettes de Microsoft.




Une série de circonstance

Comme pour la PlayStation, il reste un souci : utiliser une console pour lire des vidéos implique une consommation très élevée pour une tâche qui peut se faire avec quelques W depuis un appareil dédié, que ce soit l’Apple TV ou un appareil comme le Fire Stick TV. C’est pratique quand on utilise beaucoup la console et l’interface a le mérite d’être fluide, mais ça demande entre 10 et 20 plus d’énergie.

Digital Domain dévoile Douglas, un humain (presque) plus vrai que nature

Par : Shadows

Digital Domain dévoile en vidéo un projet encore en développement : Douglas. Le concept est en apparence simple : utiliser des technologies réservées jusqu’ici aux effets visuels pour créer des humains numériques autonomes, capables de converser avec de vraies personnes.

Si la démo vidéo présente un unique visage, ne vous y trompez pas : l’objectif est bel et bien de pouvoir proposer des physiques variés, en numérisant l’apparence d’une personne mais aussi sa voix (avec 30 minutes d’enregistrement audio et/ou 10 minutes d’une vidéo de leur visage, précise Digital Domain).

Prévu pour 2021, Douglas a pour ambition de venir bouleverser le marché des chatbots et autres assistants virtuels, en proposant des échanges plus naturels. Digital Domain précise que Douglas est capable, via du machine learning, de reproduire les éléments et comportements d’un vrai humain, mais aussi de diriger des conversations, de se souvenir des personnes avec qui des discussions ont eu lieu. La rapidité de réponse serait compétitive avec celle d’Alexa ou Siri.

Enfin, Digital Domain propose aux entreprises intéressées de contacter ses équipes (dhginfo@d2.com) pour plus de détails, obtenir une démo ou mettre en place des partenariats.

L’article Digital Domain dévoile Douglas, un humain (presque) plus vrai que nature est apparu en premier sur 3DVF.

RapidCompact : optimisez automatiquement vos assets 3D

Par : Shadows

Découvrez RapidCompact, solution proposée par Darmstadt Graphics Group pour optimiser vos assets 3D.

L’outil, qui fonctionne directement dans un navigateur web, permet d’optimiser automatiquement vos modèles pour des usages tels que les plateformes mobiles ou la 3D temps réel.
En outre, une API est proposée pour le traitement par lots.

Une version d’essai gratuite est proposée ; plusieurs offres payantes sont aussi disponibles, avec un système d’abonnements mensuels. Pour les studios ayant des besoins très conséquents, des offres dédiées sont aussi proposées sur demande.

L’article RapidCompact : optimisez automatiquement vos assets 3D est apparu en premier sur 3DVF.

Graver des disques pour VideoNow, la vidéo (moche) sur un CD Audio

Il y a quelques mois, je parlais de VideoNow, un système de lecture de vidéo pour les enfants. Et j’expliquais qu’il était possible de graver ses propres disques. Du coup, j’en ai trouvé.

D’un point de vue pratique, VideoNow utilise des CD (audio) de 10,8 cm au lieu de 12 cm de diamètre, pour éviter le piratage. A l’époque, on devait donc passer par les disques vendus par Hasbro, qui sont de simples CD-R plus petits (et vendus cher, je suppose). Si ça se trouve encore assez facilement sur eBay, attention à une chose : il faut le logiciel VideoNow Media Wizard et je n’ai pas trouvé comment le télécharger. Lors de mon premier achat, j’ai juste reçu des CD-R, sans le logiciel. Et donc à part en bidouillant (il existe des solutions), impossible de graver. Du coup, j’ai acheté un autre ensemble, avec cette fois le logiciel (si quelqu’un en a besoin, je garde une ISO).

Le CD avec le logiciel, en-dessous d’un PVD gravé

Question pratique, il faut un graveur à tiroir, idéalement avec un moyeu central (genre portable), vu la taille atypique des disques. Oubliez les mange-disques des Mac, donc. La première partie est reloue : trouver des vidéos que le logiciel accepte. Il date un peu, donc il n’accepte que de vieux codecs et conteneurs : avi, asf, wmv, mov et mpeg. Le premier MPEG testé ne passait pas, mais un fichier H.264 converti avec QuickTime 7 (sur un vieil OS) est passé. Il faut juste éviter les codecs modernes. On peut aussi mettre des images (avec un temps d’affichage défini) ou de l’audio.

Peu de fichiers acceptés


Audio ou photo


Les options “cachées”


Vidéo ajoutée


On peut prévisualiser le résultat


Préparation


Gravure


C’est fini (en 8x)

Contrairement à ce que j’avais lu, le programme ne limite pas à une durée minimale pour empêcher de graver sur un disque de 8 cm, mais vérifie bien le type de média, je suppose sur la capacité (un peu moins de 500 Mo). Passer outre cette protection me semblait (très) simple, en changeant le disque pendant la préparation des données, mais j’ai eu des erreurs. Je ne sais pas si ça vient de la qualité de mes CD-R de 8 cm (des chinoiseries en forme de carte de visite) ou si c’est vraiment protégé.

Oups, pas le bon CD


Un peu moins de 500 Mo

Le résultat avec une vidéo d’Hooverphonic (oui, c’est obsessionnel, je suppose). J’ai gravé un PVD avec une vidéo d’une dizaine de minutes, et ça fonctionne plutôt bien, même si l’intérêt reste quand même bien limité. Mais bon, je suppose que ça permettait d’occuper un enfant en lui mettant sa vidéo préférée.

La manette DualSense de la PlayStation 5 sur Mac et iOS

La PlayStation 5 est sortie, et comme pour chaque console – ça semble intéresser les gens – j’ai testé la manette de la console sur un Mac (et sur iOS).

La manette de la console se nomme DualSense et propose des effets haptiques avancés, ainsi qu’un retour physique sur les gâchettes. Oubliez directement les effets en question sur Mac : ça ne fonctionne pas. D’un point de vue physique, elle garde le même agencement symétrique que les anciennes manettes Sony, mais avec une forme plus « Xbox » tout de même. Elle possède toujours un pavé tactile et intègre un microphone (là aussi, inutilisable en dehors de la console) et une prise jack 3,5 mm. Elle est onéreuse pour le moment (70 €) et ce sont les liens sponsorisés (comme celui juste avant) qui ont payé la manette. La finition est excellente (normal, vu le prix) mais Sony n’a pas mis de câble USB-C dans la boîte.


Le pavé


L’USB-C


Sur Mac

Pour la connecter en Bluetooth, il suffit de presser share (le bouton à gauche du pavé) et le bouton PlayStation en même temps, comme sur les manettes précédentes. Elle est ensuite reconnue en HID, le standard. Les boutons sont des boutons classiques (logiques), les deux sticks servent pour les axes avec des valeurs analogiques, comme les deux gâchettes à l’arrière. Le pavé numérique ne fonctionne pas (mais il sert de bouton), ni la partie audio. On peut aussi la brancher en USB-C directement, sans manipulations particulières.

Elle est reconnue en HID

Dans les jeux… c’est utilisable (ou presque). Les titres qui supportent les manettes HID devraient l’accepter directement, j’ai testé avec quelques jeux Apple Arcade et un émulateur (Open Emu). Si vous utilisez des jeux Steam, il faut se rendre dans les Préférences -> Manettes, puis la configurer. Les quelques jeux testés reconnaissent la manette et affichent les bons boutons tant que vous indiquez bien à Steam que c’est une manette de PlayStation. J’ai juste eu un souci : impossible d’assigner les gâchettes arrière. Techniquement, ce sont des axes analogiques, et Steam ne me permet pas de mettre deux axes sur les deux gâchettes. Ça risque de poser des soucis dans certains cas, mais je suppose que Valve corrigera ça rapidement.

Dans Steam


Dans Steam


On a les bonnes indications

iOS, Mac et MFi

Sous iOS, c’est assez simple : ça ne fonctionne pas. Tant qu’Apple n’ajoute pas la manette dans sa liste de compatibilité (elle est ici), vous ne pourrez pas en profiter avec un iPhone, Apple TV ou iPad. Normalement, ça devrait arriver rapidement : iOS 14.3 va a priori ajouter la manette (ainsi que celle de la Xbox Series X et la Luna d’Amazon).

Sur Mac, même si elle est reconnue, les jeux qui n’utilisent que les manettes MFi (c’est le cas de certains titres Apple Arcade) ne voient pas la manette. J’ai essayé avec ce programme et il ne voit pas la manette, mais bien une Dual Shock 4. Mais je suppose qu’une mise à jour de macOS Big Sur, comme pour iOS, règlera le souci rapidement.

vs. Dual Shock 4


Elle n’est pas vue en MFi

N’attendez tout de même pas toutes les fonctions de la manette : on peut espérer les fonctions de base, et c’est déjà pas mal.

MZ-RH1, le lecteur MiniDisc qui télécharge

Dans la gamme Hi-MD de Sony, le MZ-RH-1 (et le MZ-M200, son pendant professionnel) est un peu mythique. C’est le dernier des Hi-MD en 2006, c’est un modèle haut de gammme et – surtout – il permet le transfert des données en natif du MiniDisc vers un ordinateur. Et j’en ai trouvé un en bon état pour un prix correct.

Avant de passer au vif du sujet, quelques remarques. Le RH1 est cher, très cher, même d’occasion : vous en verrez fréquemment à 350 ou 400 € et même plus (j’ai payé le mien 150 € avec des disques). Deuxièmement, il vieillit assez mal, au moins sur un point : son écran OLED. Sony en avait mis un sur le côté du lecteur et comme tous ceux de cette époque, les pixels meurent et il perd sa luminosité. J’ai eu le souci avec une montre à l’époque, le MZ-RH1 est dans le même cas. Et troisièmement, ça fait très bizarre d’avoir un lecteur vraiment haut de gamme. J’ai un vieux MZ-N707 (le milieu de gamme en NetMD au lancement) et un DS-HMD1, un enregistreur USB, et le MZ-RH1 est à des années-lumières en qualité. C’est fin, léger, solide, en métal, la finition est excellente, etc. C’est vraiment un objet impressionnant sur ce point par rapport aux deux autres. Autre petit truc, il se charge en USB (via la prise mini USB) et c’est pratique.

Le lecteur enregistreur


Face au MZ-N707, bien plus épais


Face au DS-HMD1, tout plastique


Les écrans sont morts


Du mini USB pour la charge


Entrée microphone, entrée ligne (optique), sortie analogique

La récupération des MiniDisc

Le MZ-RH1 est renommé à cause d’une de ses fonctions : la possibilité de récupérer des enregistrements SP en numérique. Avec tous les autres MiniDisc, c’est impossible. Sur un NetMD, les données en vont que de l’ordinateur vers le MiniDisc, et avec les autres Hi-MD (et en considérant que vous avez Sonic Stage à jour), seul ce qui a été enregistré en Atrac3Plus ou en PCM peut passer du MiniDisc à l’ordinateur (avec quelques limites, visiblement). Avant le MZ-RH1, la solution était d’utiliser un lecteur avec une sortie optique (la majorité des appareils portable n’en a pas) et d’enregistrer en numérique, mais c’est assez fastidieux et ça demande du matériel précis. Le MZ-RH1, lui, peut récupérer de l’ATRAC SP (le codec d’origine) et peut de façon assez large récupérer ce qu’il y a sur un MiniDisc. Il y a tout de même des limites, de ce que j’ai pu tester : les morceaux protégés et envoyés dans un MiniDisc en mode NetMD ne peuvent pas être déplacés. Visiblement, les versions récentes de Sonic Stage (ou un logiciel comme Platinum MD) envoient l’Atrac3 sans DRM, ce qui permet de les récupérer. Disons que de façon globale, ce qui a été enregistré depuis un lecteur de MiniDisc (et pas envoyé depuis un ordinateur) est récupérable. En théorie les morceaux NetMD peuvent être récupérés… mais uniquement sur l’ordinateur qui a effectué le transfert, ce qui implique d’avoir gardé une installation de Sonic Stage (et aussi que vous avez probablement l’original).

Transfert en cours

Question logiciel, il y a Sonic Stage dans sa dernière version, et c’est malheureusement le meilleur choix. Il existe bien des alternatives pour passer du MiniDisc à l’ordinateur, mais c’est perfectible, encore moins ergonomique que Sonic Stage et avec des limites.

Impossible de transféré les fichiers envoyés depuis Sonic Stage dans un NetMD


Du LP2 transférable


Du LP2 intransférable


De l’Atrac3Plus transférable


Du SP transférable

J’ai essayé avec pas mal de MiniDisc (reçu avec le lecteur et certains de mes anciens), et aussi avec un MiniDisc préenregistré. Et assez bizarrement, sur le dernier, ça marche. On peut récupérer le contenu, mais pas réellement en natif : c’est du PCM et pas du natif. NetMDPython, lui, peut récupérer du natif, mais pas sur un MiniDisc préenregistré. Point intéressant, Sonic Stage a une option pour convertir automatiquement les fichiers en Atrac vers du PCM.

Une option pratique


On peut transférer un MiniDisc préenregistré


Le script Python ne peut pas

Que faire des fichiers ?

En plus de l’éventuelle copie en WAV, donc, on peut récupérer l’Atrac directement en .oma. Sous Windows XP, c’est dans C:\Documents and Settings\All Users\SonicStage\Packages. Dans tous les cas, les .oma sont lisibles par VLC, et vous pouvez ensuite vérifier le contenu exact : il peut s’agit de PCM encapsulé dans de l’oma, mais aussi d’Atrac3 ou Atrac3Plus directement.

Du PCM


De l’Atrac3


De l’Atrac3Plus

Les performances

Comme j’ai reçu un Hi-MD avec l’appareil, j’ai pu tester en comparant au DS-HMD1. Sur un MiniDisc standard formaté en Hi-MD (305 Mo), c’est équivalent au DS-HMD1 et c’est lent. Environ 340 ko/s en lecture et 240 ko/s en écriture. Sur un Hi-MD de 1 Go, on est à ~460 ko/s en écriture et ~280 ko/s en lecture. Oui, il écrit plus vite et j’ai essayé plusieurs fois avec quelques variations, mais on reste dans le même ordre d’idée. Le DS-HMD1, d’une génération plus ancienne, est plus lent : ~240 ko/s en écriture, ~270 ko/s en lecture. Dans les deux cas, c’est donc vraiment lent et surtout assez bruyant. La possibilité de stocker des données est donc un bonus intéressant dans l’absolu, mais n’importe quelle clé USB de l’époque fait mieux et c’est pitoyable actuellement.

C’est joli, mais c’est lent

Pour conclure, c’est un appareil sympathique (même si un peu fragile), bien fini et pratique pour récupérer des enregistrements en numériques sur un MiniDisc. Mais je ne pense pas que son prix élevé soit justifié : une platine de salon avec une sortie optique permet aussi de récupérer l’audio en numérique, même si c’est évidemment plus lent en enregistrement direct.

PLIANT® TECHNOLOGIES ANNOUNCES 30-DAY SATISFACTION GUARANTEE ON ALL 900MHZ INTERCOM SYSTEMS

Auburn, AL, NOVEMBER 12, 2020 — In support of its customers easing back into production, Pliant Technologies announces a 30-day return satisfaction guarantee on all of its CrewCom 900MHz and MicroCom 900MHz professional wireless intercom products. With this initiative, Pliant is going the extra mile to ensure that its customers are completely satisfied with their ...

The post PLIANT® TECHNOLOGIES ANNOUNCES 30-DAY SATISFACTION GUARANTEE ON ALL 900MHZ INTERCOM SYSTEMS appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

La sortie TV des PSP

Il y a quelques années, j’avais bien aimé la PSP de Sony, une console portable convaincante pour son époque. Et quand mon frère m’a donné sa PSP, j’ai pu tester un truc que je n’avais pas essayé à l’époque : la sortie TV.

Premier truc à savoir, il y a plusieurs PSP : la 1000 (le modèle original), la 2000 (plus compacte), la 3000 (cheap, encore plus compacte), la E1000 (Street, entrée de gamme sans Wi-Fi) et la N1000 (Go, sans lecteur d’UMD). Il y a de petites différences entre les consoles, dont la sortie TV. La première version n’a pas de sortie TV, tout simplement, au contraire des suivantes. J’avais (et j’ai encore) une PSP originale, donc sans sortie TV. Celle qu’on m’a donné est une 3000, compatible. La console est vraiment cheap sur les plastiques ou sur le lecteur d’UMD, mais l’écran est meilleur.

PSP vs. PSP


L’arrière est cheap sur la 3000


L’emplacement UMD est horrible

Ensuite, il y a des limites. Sony a sorti quatre câbles (j’ai une copie achetée sur eBay, d’ailleurs) : vers composite (pas bien), vers S-Video (mieux), vers composante (YUV), mieux, et vers D-Terminal, une norme japonaise équivalente à du composante. Et il y a une subtilité : sur la PSP-2000, les jeux ne fonctionnent que sur une sortie qui propose un affichage progressif, c’est-à-dire du composante ou du D-Terminal. Avec la PSP-3000, on peut afficher n’importe quel contenu en entrelacé (ou en composite/S-Video, donc). Attention, même si les jeux s’affichent, ils ne sont pas en 480p : on a juste l’image en définition native (480 x 272) avec un cadre noir. Pour les films, on est par contre normalement en natif. L’activation de la sortie TV passe par les menus ou en pressant cinq secondes le bouton écran et quand la sortie est activée, on perd l’écran de la console.

PSP-3000, caméra et sortie TV chinoise

J’ai testé avec une carte d’acquisition qui a une entrée composante, en 480p donc, mais l’image est en 654 x 480. Je ne sais pas si la console envoie un signal de ce type ou si c’est ma carte d’acquisition qui redimensionne : je devrais être en théorie en 16:9. Les captures sont passées dans le bon format, la vidéo n’a pas été retouchée sur ce point. J’ai d’abord essayé les menus, et tout fonctionne. J’ai aussi lancé l’appareil photo pour PSP, connecté pour l’occasion (avec son mauvais capteur…) puis j’ai lancé un film. On a des menus, des langues, et les mêmes affreux messages qui indiquent qu’il ne faut pas pirater d’UMD. Alors qu’en pratique, copier (ou ripper) un UMD, c’est assez compliqué. Le jeu (Wipeout Pure) est bien dans un cadre noir, mais c’est assez fluide et propre en 480p sur un écran. Je joue comme une merde pour une bonne raison : ma carte d’acquisition a plus d’une seconde de latence et je n’avais pas installé de second écran pour corriger ça. On peut aussi le voir au début de la vidéo : je me perds un peu dans les menus parce qu’il y a une bonne seconde entre la pression et le retour à l’écran.

Le menu


L’appareil photo


Le menu d’Alien


Alien


Wipeout Pure en 272p

En vidéo (mais pas dans le bon ratio).

Agfa CL30 Clik!, l’appareil photo qui upscale par IA sur des Iomega PocketZip

J’avai déjà parlé du PocketZip (ou Clik!) de chez Iomega. Ce média compact (il est de la taille d’une carte mémoire) offre une capacité de 40 Mo, pour un prix – en 1999 – assez faible. Et Agfa avait à l’époque lancé un appareil photo numérique, le ePhoto CL30 Clik!.

Le CL30 Clik! est une évolution du CL30 classique, qui utilise de la mémoire flash (avec un lecteur Compact Flash). C’est un mauvais compact, assez gros, avec quelques trucs… particuliers on va dire. Premièrement, l’écran est petit, de mauvaise qualité et surtout assez lent : impossible de viser correctement avec. Et comme noté dans ce vieux test, il a un comportement bizarre en mouvement, il sépare les composantes de l’image : on a donc des traînées rouges ou bleues. Deuxièmement, l’interface est bizarre : elle passe par une molette crantée clickable qui a tendance à remonter quand on se déplace (et donc qui inverse les déplacements). Il s’alimente avec 4 piles AA (ou une alimentation externe) et dispose d’une prise USB (connecteur B) et d’une sortie vidéo (jack deux points vers composite). Le viseur optique est juste au-dessus de l’objectif (ce qui n’est pas plus mal) et l’objectif est très enfoncé. Il n’y a pas de zoom optique, juste un zoom numérique peu accessible.



Les connecteurs cachés derrière des caches en caoutchouc (mauvaise idée)


L’écran, protégé (mais nul)


Le capteur est bien enfoncé, donc protégé

La partie stockage, donc, passe par le Click! de 40 Mo. A l’époque, c’est intéressant financièrement : une boite de 10 Clik! (400 Mo au total, donc) valait environ 80 $, contre plus de 100 $ pour une Compact Flash de 64 Mo. Par contre, la partie USB n’est pas standard (elle demande un pilote) et le Clik! est plutôt bruyant et lent. On entend très distinctement quand il démarre, quand l’appareil enregistre, etc. (bon, l’autofocus aussi est bruyant). Le format est peut-être plus pratique que les disquettes (ou les LS-120) mais la mémoire flash, même à l’époque, était tout de même nettement plus efficace comme média de stockage. Mais d’un point de vue purement pragmatique, avec le rapport capacité/prix, le Clik! n’était pas une mauvaise idée. En pratique, on peut stocker de ~60 (meilleure qualité) à ~360 photos (en VGA).

Le Clik!

Maintenant, les photos. Agfa se moque un peu de nous dans un sens : en standard, en mode high, on a une image en 1 152 x 854… soit 0,995 mégapixel. On a un mode medium en 1 024 x 768, en low en 640 x 480. Il y a aussi un mode « texte » en 1 152 x 864, qui est juste du noir et blanc. Le « zoom numérique », lui, c’est qu’une astuce logicielle : une image recadrée en 576 x 432. En clair, vous pouvez zoomer en recadrant manuellement. Au passage, les modes en basse définition sont très mauvais avec de gros effets d’escaliers à cause d’un redimensionnement interne plutôt mauvais. Mais la partie amusante, c’est le mode PhotoGenie.

En natif (cliquez pour agrandir)


Medium (cliquez pour agrandir)


Low (en VGA)


Le zoom


En noir et blanc (natif)

Bon, très honnêtement, je ne sais pas exactement comment ça fonctionne. Quand on enregistre une photo en mode PhotoGenie, on obtient un fichier JPEG en 1 152 x 864 (comme en mode high) mais plus gros (sur une photo de test, je passe de 409 ko à 605 ko). Et une fois passé dans le logiciel d’Agfa (PhotoWise, que j’ai dû installer sous Windows XP), l’image passe en 1 440 x 1 080 (~1,5 mégapixel). Ce n’est pas uniquement un agrandissement bête et méchant, la différence est très visible : il y a au moins un filtre de netteté et une accentuation dans le logiciel. Selon ce tweet, il y a des infos en plus dans le fichier, dans d’autres tests de l’époque, ils indiquent juste que la compression est plus faible et que le logiciel le détecte pour upscaler automatiquement. Dans ce texte, un représentant d’Agfa indique que l’agrandissement est meilleur que celui effectué par un logiciel, et en 2020 (au moins) c’est plutôt faux. Un passage de la même image dans la même définition avec Pixelmator donne une résultat plus propre. Avec le traitement de PhotoWise, par exemple, le V du clavier ressemble à un Y, et on voit des artefacts sur l’intérieur de l’écran. De toute façon, c’est assez mauvais dans l’absolu dans tous les cas. A l’époque (en 1999, donc, pas en 2020), Agfa parlait d’un agrandissement par IA. C’est autant du foutage de gueule que maintenant, il n’y a pas d’intelligence artificielle, mais c’est amusant de voir ce genre d’arguments.

Le PhotoGenie en natif (cliquez, pour les suivantes aussi)


Le PhotoGenie optimisé par PhotoWise


Le PhotoGenie optimisé par Pixelmator


Une version agrandie par « IA » par Pixelmator Pro (SuperML).

Pour terminer, comme il y a une sortie vidéo, j’ai enregistré l’interface. On peut voir que c’est lent à l’enregistrement, déjà, mais surtout que les artefacts colorés sur l’écran ne viennent pas… de l’écran. Parce que sur la sortie vidéo, on a les mêmes.

La protection d’Indiana Jones et la dernière croisade

En rédigeant un hors-série pour Canard PC Hardware (bientôt en kiosque), j’ai relancé un de mes jeux fétiches : Indiana Jones et la dernière croisade. Et en voulant montrer un truc précis lié à mes souvenirs, je suis tombé sur un problème : impossible de trouver la version d’origine. Je m’explique.

A l’époque, au début des années nonante, je jouais sur un PC XT, avec une version EGA du jeu (dans mon cas en monochrome, d’ailleurs) sur 6 disquettes. Et le jeu, dans cette version, avait une protection : au début, notre ami Marcus demande d’entrer des symboles issus du journal du Graal. En pratique, il s’agissait du manuel du jeu, donc si vous aviez une version piratée, vous n’aviez pas le journal. Dans mon cas, en réalité, j’avais une photocopie de photocopie, très usée parce que je jouais pas mal. Et donc quand on se trompait à ce moment là, le jeu continuait, je vais y revenir. Mais en y jouant avec SCUMMVM (ou à la version Steam, qui ne fonctionne malheureusement plus sous Catalina), impossible de reproduire ce souci. La version VGA (plus récente) n’a tout simplement pas de protections, et la version EGA que vous trouverez en cherchant un peu est crackée : dans tous les cas, on passe la protection. C’est expliqué dans la FAQ de SCUMMVM : les protections sont passées dans certains cas, quand c’est lié à l’exécutable, mais pas – comme Indiana Jones – quand c’est dans les scripts… si on a la version originale, non modifiée.

Après avoir cherché en vain sur le Net, j’étais résigné à appeler mes parents pour vérifier si les disquettes étaient encore dans un carton, mais j’ai demandé de l’aide sur Twitter. Et DiFFtY a pu m’aider, avec la version française originale, sans crack.

Un mode démo caché

Dans la version d’origine, la protection est plutôt intéressante : elle ne bloque pas le jeu. Vous pouvez jouer… un peu. En fait, le jeu avance un peu mais quand Donovan vous demande de lire la plaque qui indique qu’il faut aller à Venise, Indy dit n’importe quoi (« Ça a rapport au Grain Sacré, c’est peut-être un blé spécial que mangeaient les prêtres ? »). Du coup, le jeu continue, mais vous ne pouvez pas aller à Venise et le jeu est bloqué. C’est donc une sorte de démo intégrée, et je trouve le procédé amusant.





Du coup, j’en ai profité pour montrer ça en vidéo (bon, avec SCUMMVM mal enregistré). Une fois bloqué, j’ai aussi fait une partie rapide avec un truc marrant à la fin : j’ai perdu exprès. C’est assez rare dans les Point & Click de LucasArts, mais on peut perdre dans celui-ci, notamment quand on casse plusieurs fois la mauvaise dalle à Venise.

Cyberpunk 2077 : derrière l’animation faciale des personnages, un défi technologique

Par : Shadows

JALI Research a mis en ligne sa présentation du SIGGRAPH 2020 autour de l’animation faciale du jeu Cyberpunk 2077, prévu pour dans une poignée de semaines. L’enjeu était énorme : il s’agissait d’animer un nombre massif de personnages, sans motion capture, avec un grand réalisme et tout en gérant le lip-sync de langues multiples.

JALI Research et CD Projekt RED dévoilent ici les coulisses du système utilisé pour parvenir à ce résultat, avec une approche en plusieurs couches : lip-sync, ton, gestion du regard et des clignements, émotions ou encore mouvements du cou ont été nécessaires afin de proposer des performances convaincantes et fluides.

La vidéo, qui dure une vingtaine de minutes, comporte de nombreux exemples. En particulier, à partir de la 13ème minute, une démo met en avant les couches successives d’animation ; à la 17ème minute, vous retrouverez un aperçu de la gestion des langues (dont le français).

La présentation était assurée par :

  • Pif Edwards JALI Research Inc.U of T
  • Chris Landreth JALI Research Inc.U of T
  • Mateusz Popławski CD PROJEKT RED
  • Karan Singh JALI Research Inc.U of T
  • Eugene Fiume JALI Research Inc.Simon Fraser University
  • Robert Malinowski CD PROJEKT RED
  • Sarah Watling JALI Research Inc.

L’article Cyberpunk 2077 : derrière l’animation faciale des personnages, un défi technologique est apparu en premier sur 3DVF.

Starfish granted international patents for TS Splicer

Reading, UK, 19 August 2020: Starfish Technologies, a pioneer in transport stream processing and advertising insertion, has been granted European and US patents that cover a range of techniques employed within its TS splicer product. The TS Splicer is a software-based solution for clean switching of encoded transport streams and is used for media switching and ...

The post Starfish granted international patents for TS Splicer appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Pliant® Technologies Announces New V1.8 Firmware Update for its CrewCom® Intercom System

AUBURN, AL, JULY 16, 2020 — Pliant Technologies announces the release of its version 1.8 firmware update for all CrewCom wireless intercom systems and devices. This new V1.8 firmware offers several significant improvements, including refined communications for network devices, and provides an overall enhanced user experience for Pliant’s CrewCom customers. The 1.8 firmware update includes ...

The post Pliant® Technologies Announces New V1.8 Firmware Update for its CrewCom® Intercom System appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Pliant Technologies Launches New Webinar Series

Initial Webinar to Discuss the Benefits and Features of Company’s MicroCom M and MicroCom XR Digital Wireless Intercom Solutions AUBURN, AL, JUNE 30, 2020 — Pliant Technologies announces an upcoming free webinar series for existing and potential Pliant partners and customers to learn more about the company’s wireless intercom solutions. The first in the series ...

The post Pliant Technologies Launches New Webinar Series appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Pliant® Technologies Supports Customers With Extended Warranty Promotion

AUBURN, AL, JUNE 24, 2020 — Pliant Technologies announces an extended warranty period in order to further support its customers during the uncertain times created by the COVID-19 pandemic. The extended warranty applies to Pliant products that have been purchased before August 1, 2020. This has been introduced as extra reassurance at no extra charge ...

The post Pliant® Technologies Supports Customers With Extended Warranty Promotion appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Ncam signs major reseller partnership with Portugal’s Pantalha

(June 2020) Ncam Technologies, the leading developer of real-time augmented reality technology for the media and entertainment industries, is delighted to announce that it has signed a deal with leading Lisbon-based reseller Pantalha for the distribution of Ncam products throughout Portugal.   Celebrating its 30th anniversary this year, Pantalha represents an impressive number of leading ...

The post Ncam signs major reseller partnership with Portugal’s Pantalha appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

❌