Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 22 janvier 2020Vos flux RSS

Screen Stopatch : Mesurez votre dépendance au petit écran

Par Pierre Lecourt

Screen Stopatch est un fond d’écran animé pour Android. L’application ne fait rien de spécial si ce n’est compter combien de temps vous utilisez votre smartphone ou votre tablette Android… chaque jour.

2020-01-22 18_25_10-minimachines.net

D’habitude ne ne vous parle pas trop de ce genre d’outil, d’autres en font la promotion bien mieux que moi. Mais pour une fois je me fend d’un petit billet pour mettre en lumière celle-ci. Parce que Screen Stopatch est un outil assez particulier.

Une fois téléchargé et installé, il va venir remplacer votre fond d’écran habituel et se mettre a comptabiliser le temps passé à utiliser votre smartphone chaque jour. Additionnant les secondes, les minutes et les heures passées sur votre engin à chaque fois que vous le déverrouillerez. Un chronomètre qui joue au vase communicant avec le reste de votre temps de vie. Cela ne fait que 24 heures que je l’ai installé sur mon smartphone mais l’impact est vraiment dérangeant. Difficile de voir le temps passé devant ces petits écrans. Difficile de se rendre compte dans quel tunnel on entre quand on commence a naviguer sur un site puis sur un autre… Quand on regarde ses réseaux sociaux ou que l’on entame la lecture de ses emails.  

Au bout du compte cependant, le chiffre s’étale en grand sur votre appareil. Et la réflexion s’installe. Combien de temps ais-je passé sur mon téléphone aujourd’hui ? Autant que ça ? Et pour quel résultat ? Était-ce pertinent ? Le nombre de fois ou je me suis fait la remarque qu’il me restait bien peu de temps pour moi. De temps pour lire ou pour faire autre chose de différent. Cet auto-apitoiement s’effondre vite face au démenti apporté par cette application. 

Je ne suis pas un gros consommateur de smartphone mais voir au sortir d’une simple consultation email que je viens de passer 15 ou 20 minutes de ma vie sans s’en m’en rendre compte, cela à un impact. 

L’auto asservissement a plein d’avenir

Le plus “drôle” avec Screen Stopach, c’est que l’application est développée par Google. Le papa d’Android et donc le responsable de votre enfermement au sein de votre smartphone. On peut se demander quel est le but du jeu pour le développeur ? Peut être qu’il s’agit de pointer du doigt le responsable de votre addiction. A savoir, selon Google : vous même.

En mettant en scène le temps que vous passez sur votre smartphone, Google vous désigne comme seul responsable de votre malheur. Votre propre petit tyran du petit écran. L’éditeur gommant ainsi au passage tous les artifices, toute l’énergie et toute la science déployée pour vous rendre accroc à ce dernier. Les excellents petits reportages “Dopamine” d’Arte sur comment les différents géants du loisir et des service liés à l’utilisation du smartphone parviennent a manipuler votre esprit sont assez éclairants sur le sujet.

Screen Stopatch est intéressant pour connaitre l’emprise de l’objet dans votre vie, la force de votre addiction. Mais ne vous laissez pas intimider par le chiffre que vous récolterez à la fin de la journée. Vous n’êtes pas le seul coupable. Toute la société s’efforce de vous rendre accroc. Bientôt on remplacera de plus en plus de choses par un smartphone, perdant au passage tout anonymat dans ses déplacements, toute liberté dans ses loisirs avec la sensation tenace d’être tenu en laisse. Ce temps passé le coup plié sur votre petit écran n’est pas uniquement votre faute. Et si c’est à vous d’en guérir si vous voulez récupérer un peu de liberté et de temps, cela ne sera pas une chose facile.

Screen Stopatch : Mesurez votre dépendance au petit écran © MiniMachines.net. 2020.

L’Easter Egg de la ROM vidéo du Macintosh SE/30

Par Pierre Dandumont

La saviez-vous : la ROM de la partie vidéo du Macintosh SE/30 contient un Easter Egg : des crédits sur les développeurs.

Je l’avais vu passer dans ce document, mais comme je n’ai pas de Macintosh SE/30, je n’avais pas vérifié. Mais je suis tombé sur un site qui contient une copie de la ROM en question. Ca demande un peu de mise en forme pour être visible, donc je vous propose le texte.

Mac SE/30 Engineering

Hall of Fame

Video Software by David Fung
CPU Software by Bob Herold and the original cast of System

Software

A/UX buddies were Rick Daley and Eryk Vershen
SQA Team led by Steve Yaste
SCM releases by Wanshu Kuo

Hardware by Jim Stockdale

Ralph Pastor kept it all running

Project Manager (and Chinese character) was H.L. Cheung
Project team led by Mike DeLaCruz
Project sanity by Donna Keyes

Au passage, il existe des méthodes pour afficher le même contenu en jouant avec un éditeur de texte pour aller dans une zone précise de la mémoire, mais je n’ai pas de SE/30.

Cooke Optics’ new Anamorphic/i Full Frame 85mm Macro to be revealed at BSC Expo 2020

Par Denise Williams

Cooke Optics will be presenting the very latest lenses in its line-up, including the newest Anamorphic/i Full Frame 85mm Macro, on Stand 548 at BSC Expo, which takes place at Battersea Evolution, London, Friday 31st January to Saturday 1st February 2020. Both coatings of the Anamorphic/i Full Frame Plus prime lenses, Standard and SF (Special ...

The post Cooke Optics’ new Anamorphic/i Full Frame 85mm Macro to be revealed at BSC Expo 2020 appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

Dejero Wins Second Prestigious Technology and Engineering Emmy® Award

Par Caroline Shawley

Globally recognized award underlines how Dejero exponentially improves flexibility in location coverage for newsgathering and live events crews   Waterloo, Ontario, January 20, 2020 — Dejero, an innovator in cloud-managed solutions that provide award-winning video transport and Internet connectivity while mobile or in remote locations, has been awarded a second prestigious Technology and Engineering Emmy® ...

The post Dejero Wins Second Prestigious Technology and Engineering Emmy® Award appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

JP Delport joins Broadcast Solutions UK as Sales Director

Par broadcastsolutions

Having opened an office in Basingstoke, Hampshire, in 2019, Broadcast Solutions are pleased to announce a new member of the UK team. As of January 2020, JP Delport will join the company and take on the role of Sales Director (Broadcast Solutions UK). With this addition, Broadcast Solutions has now underpinned its commitment to the ...

The post JP Delport joins Broadcast Solutions UK as Sales Director appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

DxO One : l’appareil photo externe pour iPhone

Par Pierre Dandumont

Cette année, la FNAC a mis en solde un appareil intéressant : le DxO One. Il était proposé 100 € (loin des ~650€ du lancement en 2015) et offre des fonctions finalement intéressantes. Petite prise en main.

Le DxO One est un appareil photo (très) compact, qui se branche sur un iPhone en Lightning. Il intègre un capteur Sony de 20 mégapixels, équivalent à celui du Sony RX100 M3, un bon appareil compact. L’objectif fixe a une ouverture de 32 mm (équivalent 35 mm) et il film en 1080p. L’appareil n’a pas d’écran dans le senn classique du terme, mais un simple minuscule écran OLED monochrome qui permet vaguement de voir le cadrage et faire le point. Il dispose de son propre espace de stockage (une microSD de 8 Go fournie, incapable de dépasser 10 Mo/s) et fonctionne de façon indépendante.

L’appareil


Le port Lightning


Sur un iPhone SE

Le DxO One ressemble un peu aux appareils photo des téléphones du début des années 2000 mais il reste indépendant. La connexion à l’iPhone passe par un connecteur Lightning rétractable, et la charge (et la connexion à un Mac) par un connecteur microUSB femelle.

Je l’ai testé avec un iPhone SE, qui a un appareil photo nettement moins bon, mais je ne suis pas certain qu’il soit vraiment intéressant avec un iPhone moderne, bardé de capteurs et de possibilités de traitements. L’interface de l’application est assez complète, on peut cadrer, faire le point, gérer les photos déjà prises, etc. L’app’ offre pas mal de latitudes pour les réglages, comme un « vrai » appareil photo : ISO (jusqu’à 12 800), ouverture, vitesse, etc. L’appareil enregistre de trois façons : en JPEG, avec possibilité de copier le résultat dans la mémoire de l’iPhone, en RAW DNG – que macOS supporte depuis pas mal d’années – et en Super RAW, une fonction qui permet de combiner plusieurs photos.

L’interface


Quelques réglages

A l’usage, c’est assez efficace. Je ne suis pas un grand photographe, et l’iPhone me suffit généralement, mais cet article explique bien un des avantages : c’est assez ludique. L’appareil est vraiment petit et donc il rentre dans une poche de pantalon sans soucis. Si le meilleur appareil est celui qu’on a sur soi, il est même meilleur que l’iPhone, parce qu’il est plus petit, plus rapide, etc. J’ai un peu retrouvé les sensations de mon premier appareil numérique, un Sony U10 : très compact, sans viseur réellement utilisable.

En pratique, DxO, avant d’arrêter tout, a quand même proposé quelques options en plus au fil du temps, comme la possibilité de commander l’appareil en Wi-Fi. C’est assez objectivement peu efficace : il ne se connecte pas toujours à mon réseau Wi-Fi et le Wi-Fi Direct est tout sauf pratique avec un smartphone, mais ça a le mérite d’exister : plus besoin de connecter l’appareil pour viser, ce qui permet des cadrages atypiques.

Le DxO One souffre d’un temps d’enregistrement assez long en général, et je vous conseille tout de même de mettre une microSD moderne pour réduire un peu les temps d’enregistrement, même si ça reste un problème dès qu’on fait quelques photos rapidement.

La qualité d’image

Alors, la balance des blancs et la qualité des images est meilleure que celle de mon iPhone SE, mais ce n’est pas vraiment étonnant. Typiquement, l’iPhone dérive vers le vert/bleu dans ma tente photo, et pas le DxO One. Trois possibilités existent pour les images : le JPEG en sortie de boîtier, correct, le RAW en DNG, la conversion en JPEG (ou autre) par macOS et le développement RAW par le logiciel DxO. On peut déjà noter deux différences : le cadrage. La sortie de boîtier et le développement coupe légèrement l’image, avec des corrections liées à l’objectif – après tout, c’est un peu la marque de fabrique de DxO -, mais le développement RAW est visiblement meilleur, avec une correction plus poussée des défauts. Cette correction a un prix : ça prend beaucoup de temps. Le logiciels n’utilise que le CPU, et nécessite plusieurs dizaines de secondes sur un MacBook Pro 4 coeurs. La conversion Apple fait le boulot, mais sans plus : elle ne corrige pas en fonction de l’objectif, par exemple. En gros, si vous avez un catalogueur et que vous faites de la retouche, le RAW en DNG semble le meilleur choix, sauf si vous avez le temps de tout traiter avec le logiciel. Le reste du temps, le JPEG en sortie de boîtier est pas mal. La gestion du bruit, avec le traitement, est assez bonne et le développement offre un résultat plutpot bon pour la taille de l’appareil.

Le DNG ouvert par macOS


En sortie de boîtier


Corrigé par le logiciel


Le DNG


Le JPEG sortie de boîtier


Le JPEG corrigé


L’Ecosse, en DNG ouvert par macOS


Le même, corrigé (45 secondes sur un Core i7 4 coeurs)

Je n’ai pas tellement testé la possibilité de filmer : c’est du 1080p en H.264 propre, mais sans réglages et sans avantages particuliers.

Pour conclure, à 100 € (ou moins en occasion), il peut avoir de l’intérêt et offre des fonctions intéressantes. C’est loin d’être parfait et il y a des défauts qui peuvent vraiment gêner, mais comme appareil d’appoint pour un smartphone c’est finalement assez efficace.

Moon Rider : le jeu WebVR cumule plusieurs milliers de joueurs quotidiens

Par Bastien L
moon rider web vr

Le jeu Moon Rider, disponible sur WebVR, cumule plusieurs milliers de joueurs quotidiens. La preuve, s’il en fallait une, que la réalité virtuelle sur navigateur web peut connaitre un réel succès…

Avec le standard WebVR et le framework A-Frame, l’industrie de la réalité virtuelle cherche à faciliter l’accès à la VR tout en remédiant au problème de la fragmentation du marché. Aujourd’hui, le succès du jeu Moon Rider se révèle très encourageant.

Lancé en mai 2019, ce simple jeu de rythme en réalité virtuelle s’inspire de Beat Saber et d’autres titres similaires. Cependant, ce jeu se distingue par sa simplicité d’accès.

Développé avec A-Frame, Moon Rider peut être lancé sur n’importe quel casque VR depuis un simple navigateur web. Nul besoin de le télécharger et de l’installer depuis une boutique d’applications spécifique.

C’est cette simplicité qui a permis au jeu de fédérer un grand nombre de joueurs. Selon l’un de ses créateurs, Diego Marcos, Moon Rider compte aujourd’hui entre 2000 et 3000 joueurs actifs au quotidien avec une durée de session moyenne de 45 à 60 minutes et un taux de rétention de 50%.

Moon Rider est actuellement le plus grand succès de WebVR

Il s’agit donc clairement du jeu WebVR le plus populaire à ce jour. À travers ce projet totalement open source, les développeurs voulaient prouver ” que le web et A-Frame sont désormais aptes à délivrer du contenu VR de qualité “.

Pour lancer Moon Rider sur un casque pour PC, lancer un navigateur compatible WebVR comme Firefox. Visitez ensuite la page ” moonrider.xyz ” et pressez le bouton ” Enter VR ” pour lancer le jeu sur votre appareil. De même, vous pouvez lancer le jeu depuis le navigateur web de l’Oculus Quest.

Si ce jeu est actuellement le plus grand succès de WebVR, d’autres projets impressionnants ont été développés avec A-Frame. On peut citer l’outil de création artistique Supercraft, ou encore l’application de Social VR Mozilla Hubs. À l’avenir, le nombre d’applications WebVR ambitieuses et convaincantes devrait se multiplier à mesure que davantage d’internautes s’intéressent à ce standard…

Cet article Moon Rider : le jeu WebVR cumule plusieurs milliers de joueurs quotidiens a été publié sur Réalité-Virtuelle.com.

Leeds Trinity University chooses Quicklink TX for Yorkshire Voice

Par quicklink

Leeds Trinity University, a university renowned for teaching excellence in television and radio, have adopted the Quicklink TX to introduce guests into their Yorkshire Voice news show. The Yorkshire Voice is a local live news show produced by Journalism students at Leeds Trinity University which is broadcast live across the University’s social media platforms and ...

The post Leeds Trinity University chooses Quicklink TX for Yorkshire Voice appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

À partir d’avant-hierVos flux RSS

Un prototype de carte mère de MacBook Pro

Par Pierre Dandumont

Vu sur eBay, un prototype de carte mère de MacBook Pro 17 pouces, dans sa version 2007. Le vendeur la propose pour 200 $.

En dehors de la couleur verte inhabituelle (même si le rouge est plus courant pour les prototypes), la carte intègre quelques connecteurs de debug. La photo ne permet pas de vérifier le modèle de GPU, mais la taille et la marque (Nvidia) ne laissent pas trop de doutes sur le fait qu’il s’agit du G84 (GeForce 8600M) de la version finale. Vu la fréquence, le CPU est a priori un Core 2 Duo T7700, un modèle avec deux coeurs à 2,4 GHz. Pour le reste, rien de spécial.




Tunin’Glue et l’entrée audio de la Pippin

Par Pierre Dandumont

Quand j’avais testé le jeu Tunin’ Glue, j’avais raté un truc : il peut utiliser l’entrée audio de la console. La Pippin, et c’est quelque chose d’atypique dans les consoles, dispose en effet d’une entrée audio à travers deux prises RCA à l’arrière. Tunin’ Glue est a priori le seul qui utilise cette fonction (je crois).

Je suis tombé sur cette particularité en regardant deux threads sur Twitter, avec deux personnes qui utilisent un synthétiseur maison et Tunin’ Glue. Après quelques essais, j’ai fait une petite vidéo qui montre ce que ça donne.

Pour le contexte, j’ai branché une carte son USB avec des sorties RCA vers la console. Tunin’ Glue a une interface un peu particulière, qui n’utilise que les boutons de la manette (pas le trackball), et j’ai donc dû faire quelques essais avant de comprendre (une traduction à la volée du manuel a aussi aidé). Dans la vidéo, que je commente un peu, j’enregistre d’abord – en aveugle – mon extrait audio, avant de lancer un enregistrement en local avec des sons préenregistrés. La seconde partie de la vidéo (la fin) consiste simplement à rejouer les quelques sons, dont le sample. Je suppose qu’avec de l’entraînement et une traduction du manuel (entièrement en japonais), il doit être possible de faire des choses intéressantes, mais je ne suis pas du tout musicien…

Le manuel explique comment faire

Je vous mets une image d’Evan Amos pour montrer les entrées RCA.

Les entrées RCA (à droite)

La présentation de l’Apple Watch Hermès

Par Pierre Dandumont

Récemment, jai trouvé sur eBay un petit livret intéressant : celui livré lors de la présentation de l’Apple Watch Hermès en 2015. Il présente quelques conversations entre Jony Ive et Pierre-Alexis Dumas ainsi que des photos des modèles exclusifs de la marque.

Je l’ai numérisé, ce qui permet de voir le dégradé orange à l’intérieur. J’ai aussi numérisé le signet, mais c’est un peu compliqué de montrer l’effet de relief. Le texte est intéressant quand on s’intéresse au processus de création. J’ai mis le booklet complet , je ne publie ici que les pages avec du texte en français (il y a la version anglaise).

Si jamais quelqu’un possède le bracelet orange et ne l’utilise pas, ça m’intéresse.

[TEST] VRNRGY Power Pack : donnez un second souffle à votre Quest

Par Gwendal P
test powerpack une

Depuis sa sortie il y a quelques mois, l’Oculus Quest a récolté un franc succès. En effet, ce casque autonome offre de nombreuses possibilités, et par-dessus tout, une liberté accrue par rapport aux autres casques du marché. Pas de câbles ni d’ordinateur nécessaire, le Quest se suffit à lui-même. Cela veut également dire qu’il fonctionne à l’aide d’une batterie. Or, l’utilisateur peut rapidement être frustré s’il est forcé d’interrompre sa partie ou une quelconque vidéo en plein milieu. Pour éviter une telle mésaventure, il existe des solutions pratiques et abordables. Nous testons ici l’une d’entre elles : le Power Pack de VRNRGY.

  • marque : VRNRGY
  • modèle : Power Pack pour Oculus Quest 
  • catégorie : Batterie externe
  • capacité : 7 000 mAh
  • autonomie : Jusqu’à 6h en jeu, 8h pour de la vidéo
  • prix : 58,99 euros
  • disponibilité : disponible

Unboxing

La petite boîte qui accueille le Power Pack est très simple, mais stylée. Elle contient la batterie, les sangles de fixation, la notice d’utilisation en anglais, ainsi que des câbles USB. S’y trouve également un adaptateur micro-USB vers USB-C. 

Design et ergonomie du Power Pack

Le Power Pack de VRNRGY est très compact. Il se fixe à l’arrière de l’Oculus Quest, sur l’arceau souple qui sert à maintenir le casque sur la tête. Livré avec ses propres straps, la manipulation pour l’attacher est très rapide, même si la brève notice n’est qu’en anglais. Le câble qui relie la batterie au casque est à la bonne taille pour ne pas gêner. Il sait également se faire discret pour ne pas déranger l’esthétique générale, même si ce n’est vraiment pas le plus important. 

Les sangles d’attache sont en néoprène respirant. Le Power Pack n’est pas directement au contact du crâne puisqu’un cache, partie intégrante des sangles, fait l’interface entre les deux. Ainsi, ce complément au casque n’est pas gênant, même après de longues sessions de VR. Le poids de la batterie quant à lui est contrebalancé, ou plutôt contrebalance celui du casque. Dans l’ensemble le niveau de confort est bon et le port de ce pack supplémentaire n’est pas désagréable. Nous apprécions particulièrement le côté pratique des sangles et la conception qui s’intègre directement à l’Oculus Quest sans bricolage particulier.

À l’arrière du Power Pack se trouvent les deux entrées USB pour la recharge et la connexion au casque. En outre, une rangée de quatre diodes bleues informe de l’état de charge de la batterie.

Utilisation du Power Pack

Rien de bien sorcier dans l’utilisation de cette batterie externe. Il suffit de l’installer, de la brancher (après avoir bien vérifié que le Quest est chargé à fond), et voilà ! Dans le casque, la jauge de batterie indique que le casque est en charge. Sa propre batterie rentre en jeu seulement quand celle du Power Pack s’est vidée. 

Cela donne une autonomie totale de l’ordre de 6h pour des sessions de jeu. C’est trois fois plus que la durée de vie normale de la batterie du casque autonome d’Oculus. Cette nouvelle période de jeu est suffisante pour satisfaire la plupart des gamers. Ils ont ainsi moins l’inquiétude de voir leurs parties s’interrompre en plein milieu d’un moment crucial. La capacité des batteries de 7 000 mAh aurait pu être revue à la hausse pour atteindre au moins 10 000 mAh et donc proposer une expérience de jeu encore plus longue. Cela aurait cependant pu rendre l’ergonomie du produit moins agréable. Au contraire, l’équilibre est ici bien trouvé entre confort et plaisir.

De plus, il est possible d’allonger encore plus l’autonomie du Quest en remplaçant les batteries du Power Pack. Le modèle spécifique qui s’intègre dans le boîtier de VRNRGY est disponible à l’achat séparément. Cela permet alors de s’approcher des 10 heures de jeu.  

Conclusion

L’autonomie de l’Oculus Quest est un des problèmes du casque et cela peut vite devenir frustrant. C’est pourquoi l’ajout d’une batterie externe est recommandée, si ce n’est nécessaire. Bien sûr il est possible d’acheter un produit lambda et de bricoler quelque chose soi-même. En revanche, il faut s’attendre à un résultat bancal et peu pratique. Le gros avantage du Power Pack de VRNRGY et sa configuration étudiée pour le Quest. Il s’intègre facilement et procure même un confort accru à l’expérience générale. Profitant d’un bon rapport qualité/prix, cet accessoire est indispensable pour les gamers VR invétérés. 

 

Points positifs

  • Batterie externe étudiée pour l’Oculus Quest
  • Session de 6h de jeu
  • Équilibre le poids du casque

Points négatifs

  • On aurait préféré une batterie 10 000 mAh

Cet article [TEST] VRNRGY Power Pack : donnez un second souffle à votre Quest a été publié sur Réalité-Virtuelle.com.

Intinor joins SRT Alliance

Par Manor Marketing

Umea, Sweden, 16 January 2020: Intinor, Sweden’s leading developer of products and solutions for high-quality video over internet, has joined the Secure Reliable Transport (SRT) Alliance. SRT is an open source video transport protocol that optimizes streaming performance across unpredictable networks, enabling the best quality live video to be transported over even the most questionable ...

The post Intinor joins SRT Alliance appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

Un Fusion Drive externe en APFS, avec un dock Thunderbolt 3

Par Pierre Dandumont

Il y a quelques jours, je testais le Seagate FireCuda Gaming Dock, qui combine un disque dur externe et un SSD en Thunderbolt, avec la même connexion. Et je me suis posé une question : et si je faisais un Fusion Drive ?

Le Fusion Drive, pour rappel, est une technologie Apple utilisée dans les iMac et les Mac mini, qui permet de combiner un SSD et un HDD. le SSD stocke l’OS et les données souvent utilisées, le reste est déplacé automatiquement sur le HDD. Pour l’utilisateur, c’est normalement transparent, il ne voit qu’un seul volume et le système s’occupe en arrière-plan des transferts. C’est plus efficace que les équivalents Windows, essentiellement parce que l’OS peut être placé directement dessus et que la gestion dépend directement de macOS et pas d’un pilote ou d’un logiciel ajouté.

Faire un Fusion Drive externe est souvent une mauvaise idée parce que les boîtiers qui offrent deux volumes (un SSD et un HDD) sont rares. Et le Fusion Drive, comme le RAID 0, n’apprécie pas qu’un des deux périphériques soit absent. S’il est donc possible de le faire en USB avec deux boîtiers externes, c’est dangereux. Avec le FireCuda Gaming Dock, et si vous le branchez en Thunderbolt 3, vous aurez le SSD et le HDD sur la même connexion, avec en bonus un SSD rapide.

En HFS

Il existe deux méthodes pour faire un Fusion Drive. La première, l’originale, passe par un partitionnement en GPT et Core Storage. Il faut sortir le Terminal, et c’est documenté chez Apple.

Première chose, un petit diskutil list qui va liste les périphériques. Il faut noter les valeurs /dev/diskxx du SSD et du HDD. Je vous conseille de vérifier deux fois. Pendant la rédaction de ce post, j’ai effacé un disque dur de sauvegarde.

La commande va créer un volume Core Storage avec le SSD et le HDD.

diskutil cs create FusionDrive /dev/disk11 /dev/disk12

Maintenant, il faut utiliser la commande diskutil cs list et noter la valeur Logical Volume Group (ici 61B206D1-5393-4644-B797-D8260F166959).

Puis il faut créer un volume, en remplaçant logicalvolumegroup par la valeur trouvée juste avant.

diskutil cs createVolume logicalvolumegroup jhfs+ FusionDrive 100%

Et voilà, vous avez obtenu un Fusion Drive externe. Dans mon cas, il faut 4,25 To : le disque dur de 4 To et le SSD NVMe de 256 Go.

En APFS

Depuis Mojave, il est possible de créer un volume Fusion Drive en APFS, le récent système de fichiers d’Apple. Ce n’est pas forcément une bonne idée, APFS est très lent avec les HDD, mais c’est possible et j’ai utilisé ce tutorial.

Il faut commencer de la même façon, avec un diskutil list, et bien noter les identifiants.

Ensuite, la commande suivante va permettre de créer le Fusion Drive. Il faut bien indiquer le périphérique principal (le SSD) et le secondaire (le disque dur). Si vous voulez faire un Fusion Drive de SSD, placez le plus rapide en premier.

diskutil apfs createContainer -main /dev/disk10 -secondary /dev/disk11

Refaites un diskutil list, et cherchez la valeur liée au volume synthesized.

Avec cette valeur, il faut taper cette commande.

diskutil apfs addVolume /dev/disk13 APFS "Fusion Drive"

Et voilà, le volume Fusion Drive est monté.

Ça donne quoi ?

Dans les deux cas, le système va s’arranger pour écrire d’abord sur le SSD, puis sur le HDD. C’est un peu compliqué de montrer des benchmark, vu que l’OS fait sa popote interne : si vous faites un test d’écriture, il va d’abord mettre 4 Go en cache sur le SSD puis généralement passer sur le HDD, mais ensuite les données seront déplacée sur le SSD. Fusion Drive est vraiment pensé pour être utilisé pour l’OS, qui sera forcément sur le SSD, alors que le reste des données de l’utilisateur passeront du SSD au HDD (ou le contraire) en fonction de votre usage. L’intérêt avec le Gaming Dock est surtout de proposer un espace combiné qui sera rapide dans les usages du quotidien. Pour une sauvegarde Time Machine, ça peut notamment accélérer un peu les transferts au départ, et le système déplacera ensuite les données vers le HDD.

Microsoft reconnaît des problèmes d’affichage avec son Hololens 2

Par Pierrick LABBE
Problèmes d'affichage HoloLens 2

Depuis le mois de novembre, Microsoft a commencé à envoyer aux premiers utilisateurs le Hololens 2, son nouveau casque de réalité mixte. Cependant, des problèmes d’affichage croissants sont signalés.

Concrètement, ce sont les développeurs qui ont l’appareil entre les mains et autant dire que le résultat ne leur plaît pas à 100%. En effet, de sérieux problèmes de consistance des couleurs sont apparus.

#HoloLens2 The cat is out of the bag…@TonyRogersVAai @CharlieFink @Scobleizer pic.twitter.com/QsHnaMxjHb

— César Berardini (@cesarberardini) December 18, 2019

Problèmes d’affichage : l’Hololens 2, pire que le premier ?

Microsoft a déjà reconnu l’existence du problème d’affichage sur l’HoloLens 2 et a annoncé être en train de discuter avec les utilisateurs qui en ont fait part pour tenter de réussir à régler ces soucis techniques rapidement. Le précédent modèle souffrait déjà du même type de problème, mais c’était plutôt marginal. Là, les rapports qui remontent font état de véritables problèmes et importants. C’est notamment le cas avec un visuel ressemblant à un arc-en-ciel qui apparaît par-dessus les images visualisées.

« Microsoft continue d’investir et d’innover dans le domaine de la technologie d’affichage. Microsoft HoloLens 2 contient un nouveau type d’affichage qui fait plus que doubler le champ de vision de l’HoloLens d’origine et est le résultat d’un ensemble de compromis d’affichage équilibrés. Nous connaissons les rapports de certains développeurs rencontrant des problèmes avec leurs écrans et nous travaillons en étroite collaboration avec eux pour comprendre la cause sous-jacente » a annoncé Microsoft dans un communiqué aux sites spécialisés. Quand on sait que l’appareil coûte tout de même la bagatelle de 3500 dollars, Microsoft devrait sans doute se mettre à régler les problèmes d’affichage rapidement avant d’envisager une commercialisation de ses lunettes.

Cet article Microsoft reconnaît des problèmes d’affichage avec son Hololens 2 a été publié sur Réalité-Virtuelle.com.

La bataille judiciaire entre Magic Leap et NReal se poursuit

Par Pierrick LABBE
Bataille judiciaire Magic Leap Nreal

C’est cette semaine que devait initialement commencer le processus judiciaire entre Magic Leap et NReal, son concurrent chinois accusé d’avoir volé des secrets commerciaux.

Concrètement, le fondateur de Nreal a travaillé auparavant à Magic Leap comme ingénieur logiciel, en 2015. Il a ensuite décidé de lancer Nreal Light la même année. Tout allait bien pour lui jusqu’à ce que Magic Leap lance le dossier devant la justice américaine.

Bataille judiciaire : une tentative de médiation en cours

De nouveaux éléments sont apparus dans les dossiers, à quelques jours de l’audience qui était initialement prévue pour commencer le 15 janvier. Concrètement, les deux entreprises ont décidé, suite à ces annonces, de repousser le lancement du procès jusqu’au mois de juin prochain. Ils se sont rencontrés le 3 janvier et ont décidé de tenter une médiation privée, afin de régler la situation entre eux et éviter un long processus judiciaire. Toutefois, rien ne garantit que cela règle le problème. Les deux entreprises pourraient même en ressortir avec l’impression d’avoir raison.

Dans ce cas, le tribunal récupérera donc le dossier judiciaire, sous la tutelle du juge Lucy Koh, déjà connue pour l’affaire Samsung vs Apple. Après une audience initiale en juin, elle a déjà prévu d’organiser un éventuel procès au mois d’octobre 2021. Une très longue attente donc qui pourrait donner l’avantage à Nreal. Le modèle beaucoup plus discret et moins cher que Magic Leap semble avoir les faveurs des spécialistes à l’heure actuelle. Surtout, pour Magic Leap, le problème se trouve dans toutes les autres entreprises qui lancent déjà des produits similaires.

Cet article La bataille judiciaire entre Magic Leap et NReal se poursuit a été publié sur Réalité-Virtuelle.com.

Mise à jour du DJI Smart Controller

Par Mélodie

Mise à jour Smart Controller

Bonne nouvelle ! DJI propose une mise à jour de sa radiocommande DJI Smart Controller. Cette mise à jour apporte son lot de nouvelles fonctionnalités et se fait très facilement soit depuis la radio ou depuis le logiciel DJI Assistant 2. Nous vous proposons de découvrir dans un premier temps les ajouts de cette mise […]

Scale Logic announces official partnership with UK-based Polar Graphics to manage European sales operations

Par Page Melia PR

Bloomington, Minnesota – 16 January 2020 — Scale Logic, the global leader in advanced media workflow solutions, announced today that it is embarking on a new agreement and relationship with industry veteran Polar Graphics, a leading UK-based manufacturer’s representative for the broadcast, post-production, and professional audiovisual industries. Under the newly forged partnership, Polar Graphics will ...

The post Scale Logic announces official partnership with UK-based Polar Graphics to manage European sales operations appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

L’accélération vidéo dans HandBrake

Par Pierre Dandumont

J’utilise HandBrake depuis des années pour (re)compresser des vidéos ou passer d’un format un peu atypique à quelque chose de plus standards, et je me suis rendu compte récemment que depuis la version 1.2, HandBrake peut utiliser l’accélération vidéo sous macOS.

L’encodage chez Apple passe parce une technologie appelée VideoToolbox. Il y a assez peu d’options dans HandBrake (et sous macOS), et la technologie est supportée depuis pas mal de temps. Pour le HEVC (H.265), ça doit marcher sur tous les Mac sortis après 2015. Le principal problème de VideoToolbox va être « Qui encode ? ». La question n’est absolument pas triviale, les Mac intègrent plusieurs encodeurs différents.

Premièrement, il y a les fonctions des GPU Intel, disponibles sur les Mac avec un IGP (les portables, quelques iMac, les Mac mini, etc.). La technologie porte le nom de QuickSync et permet d’encoder plus ou moins bien en H.264 ou en H.265 sur les appareils récents. Sur d’autres Mac, c’est le GPU dédié qui prend la main, généralement à base d’AMD. Et en fonction de la carte graphique, les résultats varient. Enfin, sur les Mac avec une puce Apple T2, l’encodage (et le décodage) passent par cette dernière (et c’est a priori plus rapide, mon Mac n’a pas de T2).

Attention, l’encodage sur le GPU peut être moins bon que sur le CPU. Les encodeurs ont des fonctions fixes et la qualité diminue, un bon encodeur CPU évite les erreurs, compressent mieux et offre un résultat meilleur, mais généralement bien plus lent. Mais pour un usage grand public basique, genre regarder un film sur l’Apple TV, l’encodeur GPU suffit généralement. Il va manger quelques détails, mais il va aller 5 à 10x plus vite, ce qui n’est pas négligeable. L’encodeur Apple, on va le voir, a un défaut gênant pour HandBrake : il demande un bitrate précis (le débit). Avec le x264 ou le x265, on peut définir une qualité à obtenir, et l’encodeur va se débrouiller en fonction de la scène. Avec l’encodeur Apple, il faut définir une valeur de débit, et c’est tout. En pratique, on a donc des fichiers plus gros par défaut, et il faut tester pour atteindre le bon rapport débi/qualité (pas très pratique).

Avec HandBrake, une fois la vidéo choisie et les paramètres définis, il faut se rendre dans l’onglet Vidéo et modifier l’Encodeur vidéo. Par défaut, HandBrake va souvent proposer le x264, un encodeur logiciel efficace. Il suffit de passer sur un encodeur VideoToolbox pour activer l’accélération. Attention, surtout avec l’encodeur H.265, le résultat n’est visiblement pas toujours parfait, mais je n’ai pas eu de soucis.

HandBrake


Deux options VideoToolbox

Quelques tests

Je suis parti d’une vidéo d’une dizaine de minutes en 1080p (Big Buck Bunny) et j’ai testé plusieurs cas de figures. La machine est un MacBook Pro 2017, avec un CPU quatre coeurs (Core i7 7700HQ), une Radeon Pro 560 et un eGPU à base de Radeon Vega 64.

L’encodage en H.264 (x264) utilise le CPU pour encoder, et le processeur reste aux alentours de 2,9 GHz en permanence (entre sa fréquence de base, 2,8 GHz, et son Turbo à 3,4 Ghz). Il encode en 7 minutes et 23 secondes (~32 fps) pour un fichier final de 278 Mo.

L’encodage en H.264 par VideoToolbox utilise le GPU (l’Intel, j’y reviens). Le CPU reste utilisé pour pas mal de tâches, mais l’encodage prend seulement 2 minutes et 18 secondes (~104 fps). Petit défaut, le fichier final est plus gros : 459 Mo. Je n’ai pas remarqué de dégradations visuelles flagrantes. Pour la taille du fichier, c’est normal : l’encodeur Apple a peu d’options, et HandBrake sélectionne un bitrate fixe (6 Mb/s) avec ce dernier, contre un réglage de qualité sur l’encodeur software (RF 22).

Le second essai a été d’encoder de la même façon, mais en débranchant le eGPU. Le résultat ne bouge pas : 2 minutes et 17 secondes. C’est bien l’IGP Intel qui encode en H.264. Le dernier essai (uniquement avec l’IGP) confirme bien que c’est l’IGP qui encode : le GPU ne s’active pas, le temps ne bouge pas.

L’encodage en H.265 (x265) avec les mêmes réglages (RF 22) utilise le processeur. Il prend nettement plus de temps (14 minutes et 33 secondes, ~16 fps). Le fichier est un peu plus petit qu’en H.264 (243 Mo). Je suppose qu’il y a des réglages plus efficaces, ceci dit.

L’encodage en H.265 par VideoToolbox utilise le GPU, et plus spécifiquement dans mon cas l’eGPU (une Radeon RX Vega 64). C’est un peu tendu à voir, mais l’augmentation de la température montre bien que c’est cette carte précise qui encode. Il faut 2 minutes et 21 secondes (~101 fps) pour un fichier de 472 Mo. C’est aussi logique : HandBrake ne permet qu’un bitrate fixe.

On voit que la Vega 64 travaille un peu

Le seconde essai, là aussi, passe par le débranchement du eGPU. L’encodage s’effectue ici sur l’IGP Intel (on peut le voir avec Moniteur d’activité) mais une partie passe aussi par le GPU dédié (Radeon Pro 560 dans mon Mac). Vu l’occupation, je peut supposer que le décodage s’effectue sur le GPU et l’encodage sur l’IGP. Malgré tout, c’est nettement moins rapide : 5 minutes 19 secondes (~45 fps). Le troisième essai confirme : il faut le même temps et macOS force l’activation du GPU.

Ici, Radeon et Intel HD travaillent de concert


L’encodage force bien le GPU

Conclusion

L’encodage H.264 s’effectue visiblement uniquement via QuickSync, et rapidement. Pour le H.265 (HEVC), ça va dépendre de votre Mac, mais un eGPU peut donner un gros gain. Le jour ou j’ai une machine sans GPU ou une autre avec une puce T2 sous la main, j’effectuerais d’autres tests.

Three Decades Of Steady Xytech Leadership In Dynamically Shifting Broadcast & Media Industry

Par Andres Benetar

Xytech is an age of linear editing, celluloid film and archaic operating systems precede a modern era of automated scheduling, seamless facility management, and artificial intelligence. Reagan, Thatcher and the Soviet Union were in the headlines. Rain Man, Die Hard and Coming to America were on the silver screen. Cable television served up just 36 ...

The post Three Decades Of Steady Xytech Leadership In Dynamically Shifting Broadcast & Media Industry appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

Brainstorm Graphics Engine Powers New Dalet CubeNG

Par Andres Benetar

  Brainstorm’s leading real-time render engine will be used by Dalet for its next-generation platform, the Dalet CubeNG, for news graphics and workflows. Brainstorm, a leading manufacturer of real-time 3D graphics, augmented reality and virtual studio solutions, announced its agreement with Dalet to include the Brainstorm real-time graphics engine in Dalet’s next-generation platform for news ...

The post Brainstorm Graphics Engine Powers New Dalet CubeNG appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

RUSHWORKS introduces REMO NDI Portable Touchscreen PTZ Production System

Par Desert Moon Communications

RUSHWORKS introduces REMO NDI Portable Touchscreen PTZ Production System Minimal hardware, maximum capabilities. Flower Mound, TX – January 15, 2020 – RUSHWORKS, provider of cool technology for production, playback and streaming since 2001, enters the market with a bang for 2020, introducing another “powerfully simple” integrated PTZ production system for remote and studio operation. “It’s ...

The post RUSHWORKS introduces REMO NDI Portable Touchscreen PTZ Production System appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

Witbe And Sofrecom Now Partners As They Support Customers In Indonesia With QoE Technologies

Par Andres Benetar

  Last October, Witbe (Euronext Growth – FR0013143872 – ALWIT), the leader in Quality of Experience Monitoring, proudly announced a new partnership with PT Sofrecom Indonesia, a consulting and engineering firm specializing in telecommunications. This partnership will take place at the 2020 NAB Show in Las Vegas. It will allow Sofrecom to offer support and ...

The post Witbe And Sofrecom Now Partners As They Support Customers In Indonesia With QoE Technologies appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

Brainstorm Selected By MOOV For Virtual Set, Augmented Reality, And Motion Graphics Content Creation

Par Andres Benetar

  MOOV, The UK-based sports and events graphic services provider has selected Brainstorm solutions for their upcoming requirements for advanced content creation Last year, Brainstorm, the leading manufacturer of real-time 3D graphics, augmented reality and virtual studio solutions, announced the agreement with MOOV, the UK’s leading sport & events graphics company, to become a preferred ...

The post Brainstorm Selected By MOOV For Virtual Set, Augmented Reality, And Motion Graphics Content Creation appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

Soundcheck Technologies’ Lance Gordon Discusses Mixing for Combat Sports and eSports Productions

Par D Pagan Communications

Q: Can you provide some background on who you are and what you do? A: As a freelance audio engineer and co-owner of Soundcheck Technologies, I have worked with some of the biggest rock bands and largest sporting events in the world. I have done just about everything from the Superbowl to NBA Finals, Winter ...

The post Soundcheck Technologies’ Lance Gordon Discusses Mixing for Combat Sports and eSports Productions appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

VideoSwitch Installs The First Integral Digital Television Laboratory In Costa Rica

Par Andres Benetar

VideoSwitch, a leading Argentine technology development company for television, together with SoniVisión, its strategic partner in the region, were in charge of designing and implementing a laboratory that will allow training both students and students. VideoSwitch will be showcasing its products at the 2020 NAB Show in Las Vegas. The National Learning Institute (INA), an ...

The post VideoSwitch Installs The First Integral Digital Television Laboratory In Costa Rica appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

CMD: Experiment in bio-algorithmic politics

Par Filip Visnjic
CMD: Experiment in bio-algorithmic politics
Created by Michael Sedbon, 'CMD' is an apparatus designed to explore how our technologies and ecosystems interact and what narratives and politics do they serve. The project questions what sort of ecological and social logic should be implemented in the design of automated infrastructures and algorithms.

❌