Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 5 mai 2021Vos flux RSS

Amazon lance Nimble Studio : toujours plus de cloud

Par : Shadows

Déjà bien implanté dans le secteur de la création numérique avec ses services cloud (AWS – Amazon Web Services), Amazon dévoile Amazon Nimble Studio.

Le concept : un pipeline de création de contenu entièrement dans le cloud, en utilisant bien évidemment les serveurs Amazon pour le stockage des données, leur traitement et le rendu final. La promesse est également celle d’une infrastructure pouvant s’adapter aux besoins d’une équipe qu’elle soit située sur un site ou en des lieux multiples, et de faciliter l’intégration de nouveaux membres au sein d’une équipe, même en travail distant.

L’initiative bénéficie de partenariats multiples : Blackmagic Design, Foundry, Chaos, NVidia, SideFX, Qumulo ou encore Wacom.

Le site officiel permet d’en savoir plus. Vous trouverez aussi ci-dessous des vidéos de présentation.

L’article Amazon lance Nimble Studio : toujours plus de cloud est apparu en premier sur 3DVF.

À partir d’avant-hierVos flux RSS

Motion capture : Xsens lance MotionCloud et modifie ses tarifs

Par : Shadows

Le spécialiste de la motion capture Xsens annonce plusieurs évolutions majeures.
Rappelons que Xsens propose de la mocap inertielle : la capture se fait avec des combinaisons bardées de capteurs qui détectent les mouvements, et non par des marqueurs optiques filmés par des caméras externes.

Première nouveauté : MotionCloud, une plateforme dans le cloud pour Xsense Animate (solution d’animation de personnages 3D) et Xsens Analyze (outil d’analyse à destination des secteurs de la santé, du sport et de l’ergonomie).
MotionCloud permet donc de traiter ses données dans le cloud et quel que soit le lien, en disposant évidemment d’une connexion internet.

En parallèle, Xsens revoit son modèle économique et baisse ses prix, une évolution qui, on l’imagine, a aussi pour but de faire face à l’émergence de concurrents aux tarifs agressifs comme Rokoko.
Concrètement, un système de configurateur permet de personnaliser l’offre selon ses besoins, et d’obtenir en quelques clics des propositions de packs complets (matériel, logiciel, traitement cloud).

L’article Motion capture : Xsens lance MotionCloud et modifie ses tarifs est apparu en premier sur 3DVF.

Unreal Engine : un outil inévitable ?

Par : Shadows

Alex Tardif, Lead Graphics Programmer chez ZeniMax Online Studios, a publié sur son site personnel une réflexion intéressante autour d’Unreal Engine.

L’article, titré « On the Perceived Inevitability of Unreal« , est comme il l’explique issu de réflexions de personnes du milieu du jeu vidéo, et en particulier celles impliquées dans le développement de moteurs de jeu internes et d’outils maison.

Alex Tardif indique avoir vu passer récemment de nombreux articles et propos du type « ‘vous feriez mieux de vous mettre à Unreal, car vous allez forcément finir par travailler avec ».
Un point de vue qu’il partage en grande partie : il évoque un déclin du développement interne aux studios dans la décennie passée et l’approche d’Unreal Engine 5, avec des technologies qui seront difficiles voire impossibles à répliquer par un studio de jeu vidéo. Il lui semble clair qu’Unreal va s’imposer encore davantage.

En parallèle, il dresse le portrait d’un secteur en pleine mutation, pour le meilleur mais aussi parfois le pire. Il évoque notamment la mort du middleware indépendant, avec des outils rachetés à tous de bras par Unreal, Unity et d’autres, alors même que ces outils tiers faisaient partie de ce qui permettait à certains studios de rester indépendants des gros moteurs commerciaux. Même quand le rachat ne se traduit pas par un produit enterré, et que, par exemple, Epic Games poursuit la vente du middleware, Alex Tardif avance qu’il est évident qu’un géant comme Epic mettra moins d’efforts dans ce middleware que dans sa version intégrée au sein d’Unreal.
Tardif souligne aussi que cet état de fait est en grande partie de la faute des studios eux-mêmes, qui ont cherché encore et encore à négocier les prix : pour les éditeurs de middlewares, le rachat par un géant comme Epic est du coup l’issue la plus intelligente.

Alex Tardif pointe aussi du doigt l’effondrement du nombre de talents : de moins en moins de personnes sont disponibles sur le marché du développement des moteurs et outils graphiques, pour des raisons multiples : présence de géants qui embauchent massivement et assèchent le marché du travail, mais aussi conditions de travail difficiles dans les studios (crunch, salaires sous-évalués) qui font fuir de nombreuses personnes. Il explique que la seule solution est bien souvent d’embaucher uniquement des jeunes en sortie d’école et de les former, ce qui est néanmoins difficile quand on manque en interne de personnes expérimentées.

En bref, donc, Alex Tardif nous donne sa vision du secteur du jeu vidéo : celle d’un domaine dans lequel il est de plus en plus difficile, pour les studios, de travailler sur des outils internes plutôt que de céder aux sirènes d’Unreal Engine.

Nous vous invitons évidemment à lire l’article « On the Perceived Inevitability of Unreal » complet.

L’article Unreal Engine : un outil inévitable ? est apparu en premier sur 3DVF.

Thomas Grønning Knudsen brings extensive user experience to ELEMENTS

New colleague to lead integrations and security ELEMENTS, provider of innovative, high-performance media storage and server systems for the post-production and broadcast industry, is welcoming Thomas Grønning Knudsen to the team as head of integration and security. Knudsen joins from M2 Film in Denmark, where he has implemented ELEMENTS technology into their commercial production processes. ...

The post Thomas Grønning Knudsen brings extensive user experience to ELEMENTS appeared first on NAB Show News | 2021 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

LiveU Brings Mastercard® Sponsored Live Coverage of 2021 Australian Open Tennis Tournament to Fans Online

Par : Jump

LiveU’s live streaming and remote production solution was selected by Australian production company 5stream at the recent Australian Open for innovative viewer engagement and branding on behalf of the tournament’s official partner Mastercard®. The live production was a key element in the sponsorship activation campaign, managed by local advertising agency McCann Australia to connect fans ...

The post LiveU Brings Mastercard® Sponsored Live Coverage of 2021 Australian Open Tennis Tournament to Fans Online appeared first on NAB Show News | 2021 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Introducing NICOBO - Panasonic's Smart but Vulnerable Companion

It's one of the paradoxes of 21st century life in developed countries. The more "connected" we become with each other via smartphones and social media, the more disconnected and lonely many of us feel. Some derive superficial stimulation from online games and similar distractions, but miss the emo...

Mo-Sys takes virtual production to a truer focus

Mo-Sys Engineering (www.mo-sys.com), world leader in precision camera tracking solutions for virtual production, has solved a major creative limitation when using an LED volume for virtual production. Cinematographers who needed to pull focus between real foreground objects – such as actors – and virtual objects displayed on an LED wall – such as a car ...

The post Mo-Sys takes virtual production to a truer focus appeared first on NAB Show News | 2021 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Kinetix, l’animation à partir de vidéos : une alternative à la motion capture ?

Par : Shadows

Startup française fondée il y a presque un an par Yassine Tahi et Henri Mirande, Kinetix a un pitch attrayant : la génération automatique d’animations 3D de personnages, à partir d’une simple vidéo.

L’idée est donc de proposer une animation, certes moins précise qu’en motion capture, mais également beaucoup moins chère et complexe à capter.

Un fonctionnement intuitif

En pratique, le fonctionnement est relativement simple : il suffit d’envoyer un extrait vidéo à Kinetix, de sélectionner la portion qui nous intéresse, et l’outil se charge de détecter les mouvements du sujet. On pourra alors disposer d’un aperçu de l’animation, puis la télécharger aux formats FBX, GLB.

Pour un résultat optimal, le sujet devra être visible en permanence (en évitant qu’il ne sorte, même partiellement, du cadre, ou qu’il ne soit occulté par un objet/une personne). En outre, on évitera les vêtements amples, les mouvements trop rapides (si le framerate ne suit pas), les images trop sombres, les vidéos non stabilisées, ou encore les contenus basse définition.
Autant de contraintes qui sont finalement assez évidentes au regard de l’objectif : détecter les mouvements des différentes articulations.

Si ces conditions sont respectées, le résultat est plutôt intéressant, même si évidemment pas aussi précis qu’en motion capture : un nettoyage sera nécessaire. Notez également que la détection s’applique sur les mouvements généraux du corps : mains, expressions faciales ne sont pas au menu pour le moment.

Voici un aperçu de nos essais :

Cas 1 : Shia LaBeouf sur fond vert. La reconnaissance est plutôt efficace, sauf (évidemment) sur le bas des jambes, qui sont hors champ.
Cas 2 : la scène de danse du film Napoleon Dynamite. Là encore, détection plus approximative sur le bas du corps, sans doute par manque d’éclairage.
Cas 3 : un extrait de vidéo de gym (source : chaîne Youtube MadFit). Kinetix semble hésiter sur la détection de la jambe qui est levée (le pied droit ne reste pas au sol).

Voici également quelques vidéos mises en ligne par Kinetix :

Pour vous faire un avis objectif, nous vous conseillons de faire vos propres tests : l’outil est disponible en beta gratuite sur le site officiel. Après inscription vous pourrez convertir gratuitement jusqu’à 5 minutes de vidéo (il est possible de demander des crédits supplémentaires).

Une beta, et après ?

L’équipe de Kinetix nous a donné quelques détails sur sa roadmap. En ce qui concerne le modèle économique, Kinetix proposera un système d’abonnement, avec tarifs dégressifs selon la durée et une offre entreprise sur demande. On appréciera la présence d’une offre gratuite (à usage personnel uniquement) avec 1 minute d’animation par mois : suffisant pour suivre les améliorations du produit, mais aussi pour des projets de type court-métrage.

Kinetix nous indique par ailleurs qu’une version « Advanced Beta » sera lancée début mai.

Enfin, à plus long terme, la startup ne compte pas se limiter aux bipèdes : d’ici 2023, les quadrupèdes seront au programme.

Pour plus de détails et pour tester l’outil, rendez-vous sur le site officiel.

L’article Kinetix, l’animation à partir de vidéos : une alternative à la motion capture ? est apparu en premier sur 3DVF.

MetaHuman Creator disponible, levée de fonds : jusqu’où s’arrêtera Epic Games ?

Par : Shadows

Epic Games continue de faire l’actualité, avec deux annonces majeures ces derniers jours. En voici un résumé.

Epic Games pèse désormais 29 milliards de dollars

Tout d’abord, le groupe a levé 1 milliard de dollars, dont 200 millions issus du Sony Group Corporation. A ses côtés de nombreuses entités, dont des groupes d’investissement et fonds de pension :

Appaloosa, Baillie Gifford, Fidelity Management & Research Company LLC, GIC, funds and accounts advised by T. Rowe Price Associates, Ontario Teachers’ Pension Plan Board, funds and accounts managed by BlackRock, Park West, KKR, AllianceBernstein, Altimeter, Franklin Templeton and Luxor Capital.

Ce nouveau milliard permet à Epic Games d’atteindre une valorisation de 28,7 milliards de dollars. L’implication de Sony n’est pas surprenante : le groupe avait déjà injecté 250 millions en 2020. Comme nous l’indiquions à l’époque, il ne faut pas penser ici uniquement au secteur du jeu ou à la PlayStation : Sony a bien compris l’intérêt des technologies d’Epic Games pour le cinéma, la musique (on pense notamment aux concerts dans Fortnite) ou encore dans le domaine social.
Le communiqué sur cette nouvelle levée de fonds évoque d’ailleurs explicitement « la technologie, le divertissement et les sevices en ligne connectés socialement », soulignant que derrière leurs différences, Sony et Epic Games travaillent en partie sur des marchés communs.

MetaHuman Creator disponible en beta

Autre nouvelle de taille : MetaHuman Creator, l’outil dans le cloud permettant de créer des humains réalistes et riggés en quelques minutes dans un navigateur web, est disponible en accès anticipé. Une série de modèles prédéfinis sont proposés comme points de départ.

Application cloud oblige, les demandes d’accès ne sont pas validées immédiatement, afin de gérer la montée en charge ; dans notre cas, quelques heures seulement ont suffi avant de recevoir la validation.

Un de nos essais de MetaHuman Creator

Nos premiers tests sont très convaincants, même si nous avons quelques regrets : il ne semble pas possible de générer un humain aléatoirement, et nous aurions apprécié une option permettant de partir d’une photo pour créer facilement une doublure numérique.

Reste que les résultats sont très réalistes et que les nombreux presets permettront de créer une grande diversité d’humains virtuels. Pour un outil encore en beta, MetaHuman est clairement très prometteur.

L’article MetaHuman Creator disponible, levée de fonds : jusqu’où s’arrêtera Epic Games ? est apparu en premier sur 3DVF.

WFMJ selects StreamMaster PRIME for branding refresh

Pixel Power, the global leader in graphics production and master control playout automation, has delivered a configurable StreamMaster PRIME system to WFMJ, the NBC and CW affiliate in Youngstown, Ohio. The new StreamMaster PRIME is a direct replacement for an existing Pixel Power LogoVision graphics generator. StreamMaster PRIME is a turnkey appliance, implemented in software running ...

The post WFMJ selects StreamMaster PRIME for branding refresh appeared first on NAB Show News | 2021 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Unity adopte le DLSS : un gain en performances pour vos jeux et applications 3D

Par : Shadows

Unity annonce enfin le support du DLSS dans son moteur de jeu : à l’occasion de la GTC 2021, l’éditeur a indiqué que cette fonction sera supportée d’ici la fin de l’année, avec la mise à jour Unity 2021.2.

Rappelons que DLSS est une fonction mise en place par NVIDIA et s’appuyant sur la technologie RTX de ses dernières cartes graphiques. L’idée est de se servir de l’intelligence artificielle pour générer une image haute définition à partir d’une image de définition inférieure (par exemple, de la 4K à partir de 1440p).
L’intérêt est un gain net en performances : la qualité du DLSS peut être ajustée selon les objectifs voulus (obtenir l’image la plus belle possible, un gain en performances maximale, ou une cible intermédiaire entre ces extrêmes).
En pratique, le DLSS permet par exemple d’activer le raytracing temps réel proposé par NVIDIA RTX sans subir une chute de performances massives.

En pratique, le DLSS sous Unity sera géré nativement dans le High Definition Render Pipeline ( HDRP).
On trouvera ci-dessous une vidéo sur l’annonce, en compagnie de Mathieu Muller (chef de produit senior pour les rendus haute qualité chez Unity) ; une conférence plus complète est aussi disponible sur le site de la GTC (il vous faudra un compte gratuit pour y accéder). Unity y présente notamment l’intérêt du DLSS dans un cas concret, Light Brick Studio, quand le DLSS est combiné au raytracing.

Rappelons enfin que l’Unreal Engine gère déjà le DLSS via un plugin. Le support par Unity vient démocratiser un peu plus cette technique.

L’article Unity adopte le DLSS : un gain en performances pour vos jeux et applications 3D est apparu en premier sur 3DVF.

Arte se lance dans la HbbTV avec Arte.tv (canal 77)

Il y a quelques jours, une nouvelle chaîne est arrivée sur la TNT. Arte.tv est en effet diffusé sur le canal 77. Enfin, plus ou moins.

Ce qu’Arte lance (pour six mois, au moins) c’est une chaîne HbbTV. Et le HbbTV, c’est un concept un peu particulier, souvent mal compris et mal expliqué. Et ce ne sont pas les articles de la presse généraliste qui vont me contredire.

HbbTV ?

Le HbbTV (Hybrid Broadcast Broadband TV), c’est quoi ? Je vais résumer (et c’est un peu réducteur), mais l’idée est de proposer une sorte de télétexte amélioré, ou un site web sur un téléviseur. C’est une solution hybride, comme son nom l’indique, qui va utiliser une diffusion classique (ici en hertzien) couplée à des données. Elles peuvent arriver en broadcast (le premier b) ou en broadband (le second b). Pour schématiser rapidement, dans le premier cas, les données sont les mêmes pour tout le monde et arrivent par les airs (en hertzien), dans le second, elles sont téléchargées à la demande. En HbbTV, on travaille avec une norme dérivée du HTML classique, mais adapté aux téléviseurs, avec notamment quelques contraintes sur les possibilités et les performances. Dans le premier cas, on peut afficher des données vaguement interactive (le télétexte amélioré, donc) dans le second, un site accessible depuis le téléviseur, comme une offre de replay… ou Arte.tv.

Le HbbTV n’est pas nouveau, c’est utilisé depuis quelques années de façon assez erratique, mais la solution d’Arte est un peu particulière. En effet, ici, rien ne passe en broadcast de ce que j’ai pu voir. On travaille en broadband en permanence, pour simplement donner un accès au site Arte.tv. La compatibilité reste finalement assez limitée : il faut un téléviseur compatible (en gros, s’il est sorti après 2012, ça doit passer), connecté à Internet (c’est obligatoire et mal compris) et capable d’aller chercher les infos. Chez moi, mon (vieux) téléviseur n’est pas compatible et mes essais avec des logiciels sur ordinateur se sont soldés par des échecs. EyeTV ne supporte pas ça, et avec DVB Viewer (et son plug-in payant), je n’ai pas réussi à avoir un résultat. Avec les appareils incompatibles, c’est assez perturbant : chez moi, le canal 77 n’affiche rien. Juste une image noire et c’est tout.

Là, je vais donner mon avis : ça n’a aucun intérêt en 2021. Qu’on soit bien clair : pour que le service Arte.tv fonctionne, il faut un téléviseur pas trop vieux et connecté à Internet. Qui va donner accès à une version assez lente (les téléviseurs ont rarement des CPU rapides) du site Arte.tv. Celui que vous pouvez utiliser sur votre Mac (PC), votre tablette, votre Box (Orange et Free, bientôt les autres), votre Apple TV, votre boîtier Android ou votre Smart TV (Samsung, LG, Panasonic, Philips, Sony, Toshiba et Grundig). C’est un peu le problème, surtout en France : l’idée est bonne dans l’absolu, mais donne accès à un truc que tout le monde (ou presque) peut déjà recevoir.

Comment tester ?

Je suis allée sur le site dédié d’Arte pour chercher. Mais mon téléviseur est trop vieux, et mes logiciels (comme dit plus haut) ne fonctionnent pas en HbbTV. La solution ? Un émulateur. J’ai utilisé HybridTVViewer pour Firefox, qui affiche les boutons nécessaires et quelques options. La seconde étape a été de trouver l’adresse du portail et ce n’est pas si simple. En gros, j’ai enregistré le flux du canal 77 et je suis passé par un analyseur de fichiers .ts (Pandora). Je vous passe les détails, mais j’ai trouvé l’adresse : http://www.arte.tv/static/smartTV-portailHbbTVFR/current/index.xhtml?pf=prod&lang=fr. Et avec Firefox et l’émulateur (il en existe pour Chrome, etc.), on obtient l’interface. C’est bien la même que sur les téléviseurs, de ce que j’ai pu voir. Ce n’est pas totalement fonctionnel, mais ça montre à peu près ce que ça donne.

Un écran noir


L’adresse dans le code






J’ai ensuite testé avec RedOrbit HbbTV Emulator, une extension Chrome qui permet de charger un site HbbTV et voici une petite vidéo. Tout se contrôle au clavier (ou à la télécommande), c’est assez efficace.

Si je trouve un système avec lequel je peux enregistrer le tout sur un vrai téléviseur, j’en reparlerais. A noter que Salto doit arriver de la même façon sur la TNT (avec les mêmes limites).

JVC Professional Video Releases New SRT-Focused Firmware Upgrade for CONNECTED CAM Camcorders

Updates Include Network Adaptive Bitrate, PCR Fast Mode and Return Video Over the Internet For Brand’s GY-HC900 and GY-HC500 Cameras WAYNE, NJ, APRIL 12, 2021 – JVC Professional Video, a division of JVCKENWOOD USA Corporation, announces the latest firmware upgrades for its renowned GY-HC900 and GY-HC500 CONNECTED CAM™ camcorders. With the built-in SRT protocol, JVC added Network Adaptive ...

The post JVC Professional Video Releases New SRT-Focused Firmware Upgrade for CONNECTED CAM Camcorders appeared first on NAB Show News | 2021 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Plastic Raygun, un jeu ZX Spectrum caché dans un vinyle de 1998

On continue avec les jeux cachés dans des disques vinyles. Cette fois, on va parler de Plastic Raygun, un jeu pour le ZX Spectrum présent dans un vinyle de 1998.

Je risque d’en parler plusieurs fois (et on devrait le voir dans un prochain Canard PC Hardware), certains disques des années 80 et 90 contiennent des données pour d’anciens ordinateurs. Pas de vraies pistes de données, mais des informations encodées directement dans la partie audio. Je vous mets des liens vers les précédents sujets.

Camouflage (ZX81)
Camouflage (mais en mieux) (ZX81)
Över Tid Och Rum (Atari 8 bits)
Everybody Loves Urusei Yatsura (ZX Spectrum)
Peace and love, inc. (texte caché)
Inner City Unit (ZX Spectrum)

Le Spectrum EP est un disque sorti en 1998 sous le label Plastic Raygun, et qui contient trois morceaux et un jeu pour le ZX Spectrum. Le jeu lui-même était proposé sur un site web qui n’est plus disponible (et visiblement pas enregistré sur archives.org) mais il est trouvable sur un site d’archives de jeux ZX Spectrum. Ce n’est pas la même version que sur le vinyle, l’auteur explique bien que la version vinyle est moins complète pour des raisons de capacités. Il avait été proposé à la CSSCGC2000 (Comp.Sys.Sinclair Crap Games Competition 2000), une sorte de compétition de mauvais jeux.

La récupération n’a pas été simple. J’ai d’abord tenté différents outils pour enregistrer le disque et lancer le WAV directement ou le convertir en .tzx (le format généralement utilisé pour les programmes de ZX Spectrum). Mais après de nombreux essais en tentant de corriger les erreurs du vinyle, j’ai tenté une seconde solution : acheter un second disque. Il est courant et pas très cher, donc ce n’était pas un souci ici. Et entre la commande et l’arrivé, je suis tombé sur un script en python vraiment très efficace pour les enregistrements ZX Spectrum.

tzxwav -o PlasticRaygin.tzx -v -tlow -Thigh -lshort Enregistrement.wav

Des erreurs


Des erreurs, mais à un autre endroit


On déplace un bloc


Ca marche

Avec le premier vinyle, le début de l’enregistrement était valable, mais pas la seconde partie. Avec le second vinyle… le contraire. Comme les programmes sur ZX Spectrum sont divisés en blocs bien visibles dans l’enregistrement, j’ai simplement remplacé le bloc avec des erreurs dans un des enregistrements par un bloc sans erreurs venant de l’autre. Et une fois le tout exporté en WAV, ça a fonctionné : le script a réussi à convertir mon fichier. Il est un peu plus efficace que l’émulateur Fuse, d’ailleurs : dans le même cas, Fuse n’accepte pas le fichier WAV et génère des erreurs sur certains blocs. Une fois le fichier TZX obtenu, j’ai lancé le jeu. Il m’a fallu quelques minutes avant de comprendre les touches utilisées (6 pour aller à gauche, 7 pour aller à droite et 0 pour tirer) et encore un peu de temps pour me rendre compte que c’est plus simple avec la rangé de chiffres (sur le pavé numérique, la touche pour aller à droite est à gauche…). Puis j’ai enregistré une petite partie pour montrer ce que donne le jeu. Si la ROM vous intéresse, elle est là.

Le site n’existe plus




Panasonic VIXELL Cooling Boxes - Helping to Beat the Global COVID-19 Pandemic

As soon as the global threat from the coronavirus became apparent one year ago, the race was on to develop vaccines that would offer protection and allow normal life to resume around the world. Understandably, much attention has since focused on the incredible speed at which these vaccines have bee...

A near future lifestyle with an autonomous delivery robot

Panasonic Corporation carried out a field test of a delivery service for residential areas by a compact, low-speed robot in Fujisawa Sustainable Smart Town in Fujisawa City, Kanagawa Prefecture. By offering a new form of delivery service using robots that work closely with humans, the company aims t...

Le Dolby AC-4, la future TNT et l’Ultra HD

Vous l’avez peut-être vu, les évolution de la télévision d’un point de vue technique m’intéressent. On a eu le passage au « tout HD » il y a environ 5 ans, et la prochaine évolution va être le passage en Ultra HD.

Un peu de contexte, je parle ici de la TNT en tant que diffusion hertzienne, pas la TNT au sens large (c’est-à-dire les chaînes linéaires historiques). En France, la diffusion numérique a été lancée en plusieurs phases. Elle a été lancée en 2005 en SD (en MPEG2), améliorée dès 2008 (passage en HD) avec une couverture nationale vers 2012 (en H.264) et « réduite » en 2016, avec la (presque) suppression des chaînes SD. Chaque évolution a amenée des différences techniques, des soucis des compatibilités, etc. Pour la HD, par exemple, la France a choisi un codec audio un peu particulier, l’E-AC-3. Cette amélioration du Dolby Digital (Dolby Digital Plus) offre une meilleure efficacité que l’AC-3, mais a posé (et pose encore) des soucis de compatibilité. Ils venaient de deux points précis : premièrement, certains récepteurs TNT étaient livrés avec un vieux logiciel, incapables de lire le codec audio. Même chose, un vieux téléviseur ou un vieux décodeur externe ont pu avoir des soucis de décodage. Le second point est plus gênant : l’E-AC-3 est un codec propriétaire et dans certains cas, le constructeur ne voulait pas payer la licence. C’est par exemple le cas sur certains logiciels iPhone : tant qu’Apple n’a pas payé la licence AC-3, il était impossible de le faire sans prendre une licence (payante).

De jolies images en Full HD

La première question à se poser, avant même d’aller sur le sujet de l’AC-4, vient de la pertinence de développer de la TNT en Ultra HD. J’avais écrit pas mal de trucs (même dans Canard PC Hardware) sur le passage en HD en 2016, et déjà à l’époque, la part de la réception hertzienne était assez faible. Il y a 5 ans, les utilisateurs utilisaient majoritairement la télévision sur IP pour regarder la télévision. Je ne pense pas – et je suis un utilisateur de la TNT – que le passage en Ultra HD soit pertinent, en réalité. Il va impliquer un coût élevé pour le déploiement, un coût élevé pour les utilisateurs et il n’y a pas réellement de demande. Pour le premier point, c’est logique : il faut émettre en DVB-T2, en double, et installer de nouveaux équipements. Pour les utilisateurs, on est sur le même principe : il faut soit un téléviseur assez récent (compatible DVB-T2, au moins) ou un décodeur externe. Et la demande, c’est un peu particulier : qui veut vraiment voir de la télé-réalité, des jeux TV ou le journal en Ultra HD ? Je prends ces exemples pour une bonne raison : il s’agit de choses qui ne se retrouvent pas sur les plateformes de streaming (ou de façon marginale). Je ne crois pas que le film du dimanche soir de TF1 en 4K soit vraiment un argument valable, dans le sens ou le film en question est disponible dans tous les cas depuis des mois en location (ou physique) et que la semaine suivante, il est probablement sur Netflix.

Ou en Ultra HD

Sinon, pour info, ça va faire 7 ans que la TNT en Ultra HD (et en DVB-T2) est en test en France. Les contraintes techniques sont connues, les choix à faire aussi, ce n’est pas quelque chose qui a été discuté rapidement sur un coin de table, donc.

Passons à l’AC-4, donc. Actuellement (avril 2021), les canaux de tests en Ultra HD émettent en AC-4 pour l’audio, et ce codec pose de gros soucis de compatibilité. Quand je dis gros soucis, c’est gentil : en réalité une bonne partie des téléviseurs du marché n’arrive tout simplement pas à décoder le son. Tout comme les logiciels sur ordinateurs (VLC ne le fait pas, FFMPEG va seulement bientôt le faire, etc.). Même si on va voir chez Dolby, qui fait évidemment du lobbying pour son codec propriétaire, on voit que 2/3 des téléviseurs livrés est compatible AC-4. Pas 2/3 des téléviseurs du marché, 2/3 des téléviseurs vendus en 2021, ce qui est vraiment faible en fait.

Ce qui est un peu embêtant, c’est que le communiqué de TDF (qui émet) semble sous-entendre que la TNT en Ultra HD utilisera bien l’AC-4 comme codec, en mettant en avant des avantages un peu fallacieux. Parce que le choix de la langue ne dépend évidemment pas de l’AC-4, ni la gestion du 5.1. En réalité, l’AC3 classique (utilisé un temps) et l’E-AC-3 (utilisé actuellement) le permettent, mais les chaînes de TV diffusent très rarement en 5.1 (probablement jamais en 2021, à ma connaissance). De même, Dolby met évidemment en avant l’Atmos, mais outre le fait que le taux d’équipement est assez faible, l’Atmos peut de toute façon être transmis en parallèle de l’E-AC-3 (c’est le cas dans les solutions de streaming).

Son en AC-4

Le passage en Ultra HD, s’il s’effectue un jour, ne devrait pas voir le jour avant 2024 et on peut espérer que d’ici là, les téléviseurs seront tous compatibles, mais ce n’est pas certain. C’est en route actuellement pour une bonne raison, liée à la mondialisation (comme quoi…) : comme les téléviseurs se basent sur des plateformes communes dans le monde entier, le fait que l’ATSC 3.0 (la norme de diffusion américaine) utilise l’AC-4 implique que les téléviseurs modernes le décodent généralement.

Reste qu’à mon sens, le choix de l’AC-4 n’est que le résultat d’un lobbying de Dolby, couplé à la manie française de choisir des normes spécifiques. C’était un choix vaguement justifiable dans les années 60 quand le SECAM a été poussé, pour des raisons nationalistes, mais ça ne l’est pas en 2021. A l’époque, les téléviseurs étaient faits en France pour le marché français, mais le monde a changé. Imposer des normes peu utilisées ou propriétaires (comme l’E-AC-3, d’ailleurs) n’amène pas grand chose d’intéressant au point de vue technique, et un renouvellement forcé pour les utilisateurs.

Je terminerais par un point : la diffusion hertzienne est peu utilisée, et les réponses classiques pour justifier de la garder citent généralement le second téléviseur dans une maison, les résidences secondaires et les personnes qui vivent à la campagne avec des connexions à Internet lentes. Pourtant, les deux premiers sont plutôt à passer dans les défauts du passage en Ultra HD : il y a peu de chances que les téléviseurs en question puissent recevoir la norme, ils sont statistiquement moins récents que les autres et probablement incompatibles. Pour le dernier point, je veux bien l’entendre, mais on peut espérer que le problème sera réglé en 2024, ou tout du moins se dire que l’argent mis dans un passage en Ultra HD pourrait être mieux investis en étant investis dans une amélioration des infrastructures.

Son en AC-4

Terminons par quelques essais. Dixit Silicon Dust, à l’origine des HD HomeRun, les téléviseurs récents supportent l’AC-4 (de ce que j’ai pu voir sur Twitter, c’est le cas) tout comme évidemment leurs applications. Globalement, une compatibilité ATSC 3.0 pour le tuner implique la prise en charge du codec. Les extraits fournis par @slayerpapillon et @RomainHeuillard (merci à eux) ne fonctionnent malheureusement pas dans mes logiciels, mais certains appareils devraient quand même les lire avec l’audio. Au moins, MediaInfo indique bien le contenu.

Dejero Achieves ISO 9001:2015 Certification

Demonstrates company’s commitment to delivering high-quality products and services   Waterloo, Ontario, April 8, 2021 — Dejero, an innovator in resilient connectivity for critical communications, has received ISO 9001:2015 certification in recognition of its quality management system. The scope includes the design, development, realization, information assurance, and support of Dejero’s products and services. ISO 9001:2015 ...

The post Dejero Achieves ISO 9001:2015 Certification appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Panasonic's (MU)ROOM Spatial Solution Helps Guests Meditate and Relax at a Kyoto Hotel

Panasonic has developed a spatial solution called (MU)ROOM that allows hotel guests to experience mindfulness. Partners UDS Hotels have installed (MU)ROOM at one of their hotels in Kyoto, providing guests with a spiritually rich experience.

LED Fresnel Engineered with Five-Year Warranty

DALLAS – April 7, 2021 – U.S.-based broadcast studio lighting manufacturer, PrimeTime Lighting Systems, builds a longer-lasting LED Fresnel than other manufacturers. Luminaires are developed with the highest engineering standards and are guaranteed five years. PrimeTime designed a passive cooling system that enhances the longevity of its commercial-grade LED Fresnel known as the GUS 51 ...

The post LED Fresnel Engineered with Five-Year Warranty appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Stockage de données : Qumulo séduit les VFX et l’animation

Par : Shadows

Qumulo, société spécialiste du stockage et de la gestion de données, annonce ses résultats dans le secteur des médias et du divertissement.
Si le stockage de données est souvent considéré comme un domaine moins dynamique que les dernières innovations en matière, par exemple, de techniques de rendu, il n’en reste pas moins stratégique et concurrentiel, d’autant plus pour les studios du secteur de l’animation et des effets visuels.
Dans ce contexte, Qumulo propose une offre hybride, qui permet selon les besoins de stocker et gérer des données sur site ou dans le cloud.

Qumulo avance que ses systèmes gèrent « ’plus d’un exaoctet de données et plus de 235 milliards de fichiers » pour ses clients, et a su séduire certains gros acteurs des effets visuels et de l’animation.
Il donne quelques exemples de clients faisant appel à ses services.

FuseFX, Jam Filled, Industrial Brothers : trois cas, trois problèmes à régler

FuseFX, studio d’effets visuels de plus de 500 personnes réparties dans 7 studios (Los Angeles, NY, Vancouver, Atlanta, Montréal, Toronto, Bogota), s’est appuyé sur les solutions Qumulo de différentes manières : un cluster sur site, puis l’offre Qumulo Cloud Q liée au cloud Amazon (AWS). Le besoin, ici, était notamment d’étendre la renderfarm virtuelle du studio : leur solution ne permettait pas de dépasser plus de 200 à 300 machines virtuelles, ce qui devenait insuffisant pour leurs projets. Avec Cloud Q, FuseFX a pu cibler les 1000 machines.
Comme l’explique FuseFX, un tel volume aurait été impossible à mettre en place localement, que ce soit en termes d’alimentation électrique ou de refroidissement. Autre avantage, les instances mises en place peuvent être utilisées en fonction des besoins : un délai délicat sur la série Tick ? Les render wranglers peuvent alors activer autant de nodes que nécessaires. Les rendus sont finalisés et validés ? Il suffit de mettre fin aux instances.
Selon FuseFX, le bottleneck s’est du coup déplacé : il ne porte plus sur le rendu lui-même mais sur la vitesse à laquelle le studio pouvait rapatrier des frames depuis son cluster dans le cloud.
Un cas client chez Qumulo donne quelques détails techniques sur l’ensemble.

Autre cas évoqué par Qumulo, celui de Jam Filled Entertainment. Ce studio d’animation canadien travaille avec Nickelodeon et est connu, entre autre, pour DC Superhero Girls ou The Loud House.
Ici, explique Qumulo, c’est surtout le gain en sérénité qui a été notable : alors que le service informatique gérait près de 800 tickets d’assistance par an à cause de problèmes de disponibilité et performances sur son ancien système, la bascule vers Qumulo a permis de passer ce volume à zéro. On imagine que l’équipe IT a apprécié.

DC Superhero Girls

Troisième exemple, assez similaire en termes de problématique : Industrial Brothers. Ce studio d’animation était entravé par des arrêts représentant environ 2000 heures de travail par an. Le passage à la plateforme de données de fichiers Qumulo a permis là aussi d’éliminer le problème, avec à la clé 80 000 dollars économisés par an.

Industrial Brothers

D’autres cas clients sont disponibles sur le site officiel, comme Cinesite ou Marz.

Dans l’ensemble, ils rappellent que le stockage n’est pas un point à négliger : comme tout élément central du pipeline d’un studio, un système inadapté peut créer des pertes de temps et d’argent massives, et inversement un stockage adapté, qu’il s’agisse de Qumulo ou d’un de ses concurrents, facilite grandement le travail quotidien.

Pour aller plus loin

Ou trouvera plus de détails (notamment sur les aspects techniques) sur le site Qumulo.

Précisons enfin que Progiss, partenaire de 3DVF, est revendeur des solutions Qumulo : pour plus d’informations techniques, des présentations ou cas clients Progiss, vous pouvez les contacter par téléphone au 01 49 89 07 90 ou par mail : info@progiss.com.

L’article Stockage de données : Qumulo séduit les VFX et l’animation est apparu en premier sur 3DVF.

WD Black² : l’hybride SSD/HDD sur un Mac

Il y a de longues (longues) années, j’avais essayé un produit intéressant : un disque dur hybride, qui intégrait un SSD. Le WD Black² n’était pas une sorte de compromis comme pas mal de SSHD de l’époque, qui utilisaient quelques Go de mémoire flash comme mémoire cache. Non, il intégrait réellement un SSD classique (120 Go) et un HDD (1 To). Mais à l’époque, il n’était pas compatible avec Mac OS X.

Je l’avais testé fin 2013 et WD a attendu plusieurs mois (juillet 2014) pour proposer une compatibilité avec Mac OS X (je ne l’avais plus à l’époque, c’était un prêt). Le fonctionnement, même si le « disque » contient deux périphériques, est un peu particulier. Par défaut, l’OS risque de ne voir que le SSD, qui a une capacité de 120 Go. Il est basé sur un contrôleur JMicron de l’époque (667H) et ce n’est pas le plus rapide du monde. S’il est bien SATA 6 Gb/s, il ne dépasse pas 400 Mo/s en lecture, une limite commune aux modèles de l’époque. En écriture, il reste lent (environ 140 Mo/s). Le disque dur, lui, est un WD Blue de 1 To, qui tourne à 5 400 tpm, rien de fou.

Il est joli



J’avais testé sous Mac OS X sans succès à l’époque. Comme c’est expliqué sur ce post, WD utilisait une technique bizarre : des commandes envoyées au disque permettaient de le configurer comme unique « disque » de ~1120 Go (HDD + SSD) avec deux volumes distincts, un pour le SSD et un pour le HDD. La compatibilité Mac OS X officielle fonctionne de cette façon : l’OS voit un seul disque. La marque avait tout de même bien fait les choses : l’outil (on en parle dans la suite) permet de créer soit deux volumes séparés, soit un Fusion Drive directement.

Testons

J’ai pris un vieux MacBook (2008) pour tester. Ce n’est pas forcément la machine la plus adaptée, vu qu’il n’est que SATA 3 Gb/s, mais la machine était équipée d’un vieux SSD de 120 Go et elle a du SATA. Le WD Black² n’est en effet pas adapté aux ordinateurs récents (surtout les Mac) qui abandonnent peu à peu cette interface.

La première étape va être d’installer le WD Black² en interne. Il faut donc prévoir de quoi démarrer le disque d’origine en externe (WD livrait un adaptateur USB à l’époque) ainsi qu’une clé USB. Il faut deux outils disponibles sur le site de la marque : la mise à jour de firmware et les outils de configuration. La procédure est bien expliquée sur le site de WD, même si les captures datent un peu (c’est ou l’évolution visuelle de macOS en quelques années).

Les outils d’initialisation

Première étape, donc, démarrer Mac OS X (ici El Capitan) en externe, en USB 2.0. Il faut ensuite restaurer la mise à jour de firmware (qui fonctionne sous Linux) avec l’Utilitaire de disques sur la clé USB et démarrer dessus. C’est bien expliqué dans le PDF, je ne vais pas détailler. Une fois l’image sur la clé USB, il faut démarrer dessus (le volume s’appelle EFI Boot) et laisser la mise à jour s’effectuer. Ca démarre sous Linux avec pleins de textes, il faut accepter la licence et attendre quelques minutes que la mise à jour s’effectue, vers la version 01.01A02. Quand il a terminé, le Mac s’éteint.

Mise à jour en cours

Ensuite, il faut encore démarrer Mac OS X en externe et lancer le script d’initialisation (WD Black2 Dual Drive Initialize). Il va configurer le disque et (encore) redémarrer le Mac.

Pour tester, j’ai d’abord essayer de créer une double partition, avec le script Create Dual Drive Volumes. On se retrouve avec un volume HDD de 1 To et un volume SSD de 120 Go, avec les bonnes performances. Sur le MacBook de 2008, environ 130 Mo en écriture et 250 Mo/s en lecture sur le SSD (la limite du SATA 3 Gb/s) et 110 Mo/s sur le disque dur.




Deux volumes


Deux volumes


Les performances du SSD


Celles du HDD

Puis j’ai lancé le second script, qui va créer un Fusion Drive (Create Core Storage Volume). La, on se retrouve avec un volume de 1,12 To, combinés. On a les performances du SSD (une partie du temps) avec la capacité de l’ensemble.


Un seul volume


Un seul volume

La dernière étape va être de réinstaller Mac OS X sur le WD Black² et on touche à un souci de la solution : on perd la partition de restauration. Il faut démarrer sur la partition de restauration du disque d’origine (toujours en externe) et restaurer Mac OS X sur le WD Black². Mais pour éviter de casser le partitionnement très spécifique du WD Black², on ne peut restaurer que Mac OS X. Et sur un MacBook de 2008, c’est un souci en cas de problème : sur ce modèle, impossible de démarrer sur l’EFI. Il faut donc bien prévoir de soit garder le disque d’origine, soit avoir une clé USB avec les données nécessaires pour démarrer et tout recréer.

Mac OS X restauré

En dehors du fait que le WD Black² demandait quelques manipulations pour être fonctionnel (il doit aussi être initialisé sous Windows), son principal problème – même à l’époque – était son prix. Il valait environ 300 $ quand un SSD de 120 Go couplé à un disque dur de 1 To se négociait autour de 150 $. En 2021, la question ne se pose même plus : on trouve des SSD de 1 To à moins de 100 € en SATA. Le seul intérêt pratique, au moins en 2013/2014, c’était que le disque ne nécessitait qu’un seul emplacement SATA, ce qui le rendait intéressant dans les PC portables. Actuellement, avec les SSD en barrette, ce n’est plus un souci : en entrée de gamme, on a souvent une baie 2,5 pouces et du M.2, pour mettre un SSD d’entrée de gamme de 250 ou 500 Go, avec un HDD. Le WD Black² est surtout une curiosité ancrée dans son époque, et c’est déjà pas mal.

Une manette de Sega Saturn sur PC

En début de semaine, je parlais d’une carte PowerVR qui n’est pas une carte PowerVR. Parce qu’il s’agit en fait d’une carte d’interface pour brancher des manettes Saturn (deux) sur un PC.

Mon principal problème, au départ, c’est que je n’avais pas les pilotes originaux. La carte IF-SEGA2/PCI fonctionne en théorie avec les Windows de la famille 9x, et c’est tout. Mais je n’ai pas trouvé le pilote d’origine chez IO-DATA et je n’ai pas eu de disquettes avec ma carte.

La carte


Les prises pour des manettes de Saturn


La manette Saturn

Mais il existe une alternative : des bidouilleurs japonais proposent des pilotes pour la version PCI qui fonctionnent avec Windows 2000, XP (en 32 bits) et même avec des OS plus récents, comme Windows 7, 8 et 10 en 64 bits. Ce n’est pas si évident à utiliser : mes PC récents n’ont évidemment pas de PCI et je n’ai pas d’adaptateur PCI-Express vers PCI (ça marche selon eux). Mais avec une manette de Saturn (et pas en USB), ça fonctionne sous Windows XP. Du coup, j’ai réinstallé un PC exprès.

La carte reconnue



La manette

J’ai pu tester, vérifier que ça fonctionne et même jouer à Virtua Cop 2. La prochaine étape, c’est tenter le pistolet… et de trouver les pilotes originaux.

A la manette, c’est bof

A noter que ce n’est pas la seule solution pour utiliser une manette de Saturn sur PC : les cartes Nvidia à base de NV1 proposent parfois aussi cette option.

Un jeu ZX81 “caché” dans un vinyle

On continue avec les programmes cachés dans de l’audio. Cette fois, je reviens sur un disque que j’avais déjà présenté : Camouflage.

Je risque d’en parler plusieurs fois (et on devrait le voir dans un prochain Canard PC Hardware), certains disques des années 80 et 90 contiennent des données pour d’anciens ordinateurs. Pas de vraies pistes de données, mais des informations encodées directement dans la partie audio. Je vous mets des liens vers les précédents sujets.

Camouflage (ZX81)
Över Tid Och Rum (Atari 8 bits)
Everybody Loves Urusei Yatsura (ZX Spectrum)
Peace and love, inc. (texte caché)
Inner City Unit (ZX Spectrum)

Pour Camouflage de Chris Sievey, les données ne sont pas cachées : il est bien indiqué sur la pochette que les trois programmes pour ZX81 (un ordinateur du début des années 80) sont présents. Dans mon premier article, il y a environ 5 ans, j’expliquais que je n’étais pas arrivé à récupérer les données. Cette fois, j’ai persévéré.

La pochette

Première chose, il faut bien nettoyer le vinyle. Deuxième chose, je suis passé d’une platine basique (un modèle ION) à un modèle Sony un rien plus évolué (PS-LX300USB). Troisième chose, j’ai enregistré directement en mono (c’est important) avec une carte son USB plus efficace que l’USB de la platine. Avec tout ça, j’ai pu extraire sans erreurs le premier programme (Camouflage, une sorte de clip pour le titre principal du disque) et la version pour ZX81 1 ko de Flying Train (le troisième programme). Pour le second fichier, c’était plus… fastidieux.

Une analyse manuelle

La solution, c’est de charger le fichier WAV dans Audacity et de corriger manuellement. Pour essayer de faire simple : avec le ZX81, un 0 est codé avec 4 pulsations, un 1 est codé avec 9 pulsations, et il y a un blanc entre chaque groupe. C’est mieux expliqué là, mais l’idée est de chercher visuellement les erreurs, les endroits ou la lecture peut sembler compliquée. Je suis passé par un programme qui s’appelle ZX81 Tape Converter (en Java) et j’ai corrigé tous les endroits qui semblaient ambigus. Attention, il vaut mieux faire une modification, tester, puis ensuite la valider.

00010011


L’analyse du programme (il indique l’échantillon)


Une zone ambigue


Une zone à corriger

Du coup, j’ai passé le fichier en revue (~3 minutes) pour chercher les erreurs et faire un copier/coller d’une zone valable à la place. Heureusement, l’enregistrement était à peu près valable et j’ai dû modifier très peu de zones. Une fois les modifications effectuées dans le .wav, j’ai pu extraire des fichiers .p utilisables dans un émulateur avec ZX81 Tape Converter. je vous mets les trois fichiers ici.

Dernier petit souci, quand j’ai voulu synchroniser la piste audio avec l’image pour la vidéo, j’ai trouvé la chanson lente… avant de me rendre compte que si les données étaient enregistrées à 33 tpm, la musique, elle, devait être lue à 45 tpm. Pour la vidéo, j’ai joué un peu sur la vitesse de lecture pour synchroniser la vidéo et la musique, mais ce n’est pas parfait vers la fin, désolé.

On commence par Flying Train en version ZX81 1 ko, très basique. Dans cette version, il faut presser V pour descendre, et poser l’avion sur le train.

La seconde, c’est Flying Train en version ZX81 16 ko, avec une petite intro et une explication. C’est assez compliqué, mais le principe est le même : on doit descendre (avec V) ou tomber (avec C).

La troisième, c’est Camouflage, une sorte de clip interactif. J’ai synchronisé la musique (à peu près).

Analysis of Athletes' Faces with Contactless Vital Sensing Helps Improve Performance

Panasonic's Contactless Vital Sensing estimates athletes' heart rates from images of their faces. This new technology was successfully field tested at an archery tournament. It will add an extra dimension to sporting events on television, as well as help athletes in training and in competition.

iSIZE appoints Sherif Gallab as Vice President of Business Development

iSIZE Technologies, a pioneer in delivering deep-learning solutions to optimise the quality of video streaming, announces its appointment of Sherif Gallab as Vice President of Business Development. Sherif brings 25 years of experience across video coding and digital media systems. He will lead global business development for iSIZE as video streaming companies increasingly turn to ...

The post iSIZE appoints Sherif Gallab as Vice President of Business Development appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Adam Day to Lead Enterprise and Technology Sales for Telstra Americas

Telstra has appointed Adam Day to lead its Enterprise and Technology sales group for the Americas region. In this new role, Day will be responsible for both direct sales and indirect channels across the United States and Canada.

The post Adam Day to Lead Enterprise and Technology Sales for Telstra Americas appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Une carte graphique PowerVR… qui n’est pas une carte graphique PowerVR

Aujourd’hui, un petit sujet qui en amènera d’autres. Je vais vous parler de la carte IF-SEGA2/PCI, une carte qui possède une puce PowerVR… mais qui n’est pas une carte PowerVR.

Ça peut sembler un peu idiot dit comme ça. Et pourtant. La carte IF-SEGA2 (en version PCI) intègre une puce de chez NEC de type PowerVR PCX2 (en tout cas, les programmes voient la carte comme ça) mais il ne s’agit pas d’une carte graphique. C’est en fait une carte d’extension PCI qui sert à brancher des manettes de Sega Saturn sur un PC. La carte possède deux prises et elle gère même (avec quelques accessoires optionnels) les pistolets de la console. Au départ, je devais parler de sa première fonction, mais je n’ai pas les pilotes originaux de la carte (et je ne les trouve pas).

La carte

Revenons à la carte. IO-DATA a proposé plusieurs versions : deux en ISA, deux en PCI et une pour les PC japonais (PC-98 de chez NEC). Dans chaque variante PCI et ISA, il existe une version L (sans prise en charge du pistolet) et une version complète fournie avec le nécessaire. De ce que j’ai compris, la puce PowerVR sert en fait uniquement de pont PCI vers ISA pour le contrôleur qui va gérer les manettes. IO-DATA a vendu les cartes avec une version spécifique de Virtua Cop 2, et il existe un pack (optionnel) avec un pistolet et une version adaptée de House of the Dead. Enfin, il existe deux cartes graphiques IO-DATA qui se connectent directement à la carte pour éviter d’utiliser une carte fille pour le pistolet.

La puce PowerVR


Un connecteur pour l’extension liée au pistolet


Les prises pour des manettes de Saturn

Le côté intéressant de la chose, c’est que la carte intègre donc une puce PowerVR, mais sans mémoire. Et du coup, les programmes qui essayent d’utiliser la carte n’aiment vraiment pas ça. Elle est reconnue par les jeux (et par Windows) comme une carte PowerVR PCX2, mais tout plante évidemment directement. Les pilotes ne reconnaissent pas la carte directement, et en forçant le pilote, Windows 98 plante directement au démarrage. De même, la démo du premier Tomb Raider (compatible PowerVR) détecte bien une carte PowerVR PCX2 mais plante lamentablement au lancement. D’ailleurs, la page du produit (en japonais) indique bien que si vous avez une carte 3D PowerVR (ce qu’IO-DATA vendait), il faut utiliser la variante ISA de la carte.

L’installation détecte une carte PCX2


Windows voit une PCX2


Tomb Raider voit une PCX2


Mais ça plante évidemment lamentablement

Quand ça ne plante pas directement, on a ça.

Si je trouve les pilotes originaux, on parlera de la fonction principale de la carte.

❌