Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Les cartes SD et MicroSD n’ont pas dit leur dernier mot

Le lecteur de cartes SD était un impératif sur toutes les machines il y a quelques années. Il a aujourd’hui largement disparu, si on trouve encore des lecteurs de cartes MicroSDXC, on sent parfois qu’il s’agit plus d’un moyen de gonfler la fiche technique des machines qu’un véritable enjeu pour les constructeurs.

Il y a eu une « heure de gloire » pour les lecteurs de cartes SD, un moment où les implantations dans les portables étaient faites avec soin. Cela a coïncidé au moment où les appareils photos étaient encore les maitres du genre pour tout le monde. Juste avant qu’ils ne tombent derrière les smartphones dans les usages du plus grand nombre. Cet âge d’or a montré que les constructeurs pouvaient, quand il le voulaient, intégrer des lecteurs de qualité. Robustes, bien placés et rapides, ils étaient quasi systématiquement implantés dans les engins portables. Ces lecteurs n’ont pas disparu, ils existent toujours et ont même largement évolués mais les constructeurs n’en voient plus l’usage. La place disponible sur les châssis a été réduite et le maximum consenti à ce format est le plus souvent de glisser un lecteur de cartes MicroSDXC. Les rares engins qui ont encore droit à ces composants sont des machines à vocation « créative ». 

Minimachines-12-2021

Le lecteur de cartes SDXC Express 7.0 de l’Asus Pro Art Studiobook

Vous vous êtes déjà demandé pourquoi on intègre des lecteurs de cartes MicroSDXC sur un 15 ou un 16″ ? Quel sera vraiment son usage ? Hormis la lecture de cartes issues d’un smartphone une fois tous les ans, lecture qu’on peut faire avec un adaptateur USB qu’on laissera à demeure dans un tiroir ? Mais pour le reste pourquoi choisir un format MicroSDXC sur des appareils de cette taille ? Pourquoi ne pas intégrer un bon vieux lecteur de cartes SD ? C’est pour moi un mystère. Parce que l’argument classique est de dire que les smartphones utilisent des cartes MicroSD et que, par conséquent, c’est « plus pratique » pour l’utilisateur. Certes, c’est vrai, mais le smartphone à cette particularité d’avoir une connexion réseau en général assez rapide, ce qui fait que personne n’extrait sa carte mémoire de l’appareil pour la glisser dans un autre. On transfère en Wifi ou en 3G/4G et c’est largement suffisant pour cet usage. Les appareils photo numériques sont en revanche rarement pourvus de connexion Wifi et les rares modèles qui le sont n’ont pas un système aussi efficace que celui d’un smartphone. Et les lecteurs de cartes SD savent également lire les cartes MicroSD avec un adaptateur souvent fourni lors de l’achat des dites cartes…

Du changement à venir ?

La SD Association vient d’annoncer la version 9.0 de ses spécifications et dans celles-ci, on retrouve un nouvel élément qui pourrait redonner du sens à l’intégration de lecteurs SD un peu partout. Des fonctions de gestion système qui permettront de mieux intégrer un OS complet vont en effet être mise en œuvre. On retrouvera ainsi des éléments connus du monde des PC : Le FastBoot qui permet un démarrage rapide, le Secure Boot qui va le sécuriser. L’association annonce également le RPMB pour Replay Protected Memory Block. Une zone tampon, cachée derrière un processus d’authentification, qui servira de stockage pour des données sensibles. Le chiffrement des données sera également de la partie avec le TCG Storage, un traitement spécifique mis en œuvre par le Trusted Computing Group qui lui donne ses initiales. Pour vous donner une idée, c’est le même groupe qui gère le système TPM de Windows 11.

L’objectif est clair, permettre l’installation de nombreux systèmes d’exploitation directement sur une carte mémoire. Windows 11, par exemple, pourrait venir se loger sur un lecteur SD pour être simplement lancé sans pour autant quitter sa carte et sans être déployé sur la machine. Avec un démarrage rapide, des mesures de sécurité et un chiffrement sérieux. La majorité des systèmes sont exploitables sur ce type de cartes sans ces améliorations mais ils profiteraient également sans doute des fonctions Fast et Secure Boot.

Cette évolution sera également un élément intéressant pour d’autres outils comme les caméras de surveillance, les drones, les TV-Box, les casques de réalité virtuelle, les consoles mobiles, l’IoT, le Tech-à-porter et tous les appareils confiant leur stockage uniquement à ce type de carte. Le firmware de ces engins pourra être intégré directement sur la carte mémoire et ainsi apporter de nombreux avantages au système. Plus question de « briquer » son drone ou son lecteur multimédia lors d’une mise à jour, un changement de carte mémoire le rendrait à nouveau opérant. Il serait également possible de remplacer la carte mémoire d’une caméra de surveillance en partance pour un SAV en la glissant dans une caméra neuve : on bénéficierait  de toutes les mises à jour de micrologiciel sur la nouvelle. Les tablettes et même les smartphones pourraient également profiter de ces nouveautés pour permettre des  prises en charge de systèmes alternatifs ou de stockage avec un chiffrement matériel totalement indépendant de celui du constructeur…

Les cartes SD comme stockage unique ?

Dernier point de cette nouvelle normalisation 9.0, la vitesse. Les nouvelles solutions seront au standard SD Express et pourront atteindre de très bonnes vitesses de lecture et d’écriture. L’idée est de permettre à l’utilisateur de retrouver des performances égales à celles d’un SSD. Avec la Gen4 x2 SD Express une carte MicroSDXC ou SDXC pourra offrir des débits en lecture flirtant avec les 4 Gigaoctets par seconde. De quoi retrouver la performance d’un SSD NVMe dans un encombrement minimal et totalement amovible.

En option, les constructeurs pourront choisir un format SDUC pour SD Ultra Capacity avec des capacités de stockage pouvant monter très très haut. En théorie, il sera possible de proposer une carte de ce type en 128 To même si, en pratique, le format le plus courant sera plus proche des 2 To. Pour des raisons évidentes de coût, une carte SDUC de 64 ou 128 To serait évidemment très chère à l’achat.

Avec tous ces avantages techniques, les cartes SD pourraient retrouver un nouveau souffle. Rapides, efficaces, sécurisées et plus adaptées à des usages système sans compter leur énormes capacités à venir, elles pourraient accueillir des systèmes ou proposer des stockages alternatifs. C’est une excellente voie à suivre pour les fabricants de machines mobiles et peut être une bonne raison d’espérer le retour de ce format. Un portable proposant un stockage de base de 256 Go et un lecteur de cartes SDXC à la norme 9.0 pourrait ainsi doubler, tripler ou quadrupler son stockage de manière intéressante. Imaginez un engin comme le Steam Deck, qui permet de booter sur le lecteur de  cartes MicroSDXC, équipé d’une solution à la norme 9.0. Vous pourriez profiter de la machine sous SteamOS mais également sous Windows ou avec différents panels de jeux gourmands.

C’est également une excellente nouvelle pour le monde des SBC. Il serait bientôt possible de proposer à une carte de développement un stockage à la fois rapide, sécurisé et de capacité  très convaincante.

Les cartes SD et MicroSD n’ont pas dit leur dernier mot © MiniMachines.net. 2022.

Intel Alder Lake-HX : 16 coeurs et 24 threads pour machines mobiles

Plus le temps va passer et plus les machines mobiles offriront des performances suffisantes pour la très grande majorité des utilisateurs. C’est à vrai dire déjà le cas depuis quelques années mais avec les dernières sorties en terme de processeurs que ce soit chez AMD ou Intel, la tendance s’accentue encore. Le besoin d’acheter un PC de bureau s’efface petit à petit au profit d’engins portables jugés plus pratiques et moins encombrants.

Avec les Alder Lake-HX, Intel annonce une gamme de puces haut de gamme et performants qui suivent cette logique du mobile qui peut remplacer un PC de bureau. Une machine qui pourra suivre son utilisateur durant de longues années sans qu’il se sente dépassé par les nouveautés logicielles a venir. Un détail que beaucoup d’acheteurs apprécient et recherchent pour investir dans une nouvelle machine. Certaines évolutions permettent d’être sûr d’acheter une machine apte a vous suivre, aussi efficaces en 2022 qu’en 2027 ou en 2032, et HX en fait probablement partie.

Et c’est important de le rappeler car le tarif de ces puces ne devrait pas être des plus facile a accepter. La grande question sera alors de savoir si cela vaut plus le coup d’investir dans un portable Alder Lake-HX en se disant que cela permet de profiter d’une machine pour 5 ou 10 ans sans soucis. Ou bien préférer un engin un peu moins rapide mais qu’on changera dans ce même temps pour une version mise à jour.

Alder Lake-HX : La recette musclée d’Intel

La douzième génération de processeurs de la marque a été lancée totalement en réaction au succès des puces AMD. Après avoir  viré un boss un peu plus occupé par les actionnaires que par la Recherche & Développement, Intel s’est retroussé les manches et a mi les bouchées doubles pour imaginer des solutions concurrentes. Alder Lake est la réponse d’Intel avec le lancement d’une solution multicoeurs mélangeant des éléments Performance estampillés P et d’autres plus Efficaces que l’on désigne avec la lettre E. Trois gammes ont déjà été lancées en janvier dernier avec les Alder Lake-U et -P pour les machines mobiles les plus légères et les -H a destination des machines de créateurs et des joueurs.

La dernière production de la marque dans ce sens sont donc les Alder Lake-HX. Des processeurs conçus pour proposer encore plus de performances avec, comme toujours, la bonne vieille recette d’une multiplication des cœurs et d’une augmentation des fréquences.

Le problème de cette solution c’est qu’elle a une légère tendance a consommer beaucoup d’énergie. Multiplier les cœurs, sur le papier c’est assez facile. On agrandit les DIE des processeurs, on augmente leur capacités, leur mémoire et on compte sur un bon gros ventilateur pour assumer toute la chaleur qu’il dégage. Cette solution fonctionne bien sur un PC de bureau, beaucoup moins dans la contrainte d’espace d’un portable. Si Alder Lake-HX est issu des solutions de bureau du fondeur, et Intel ne s’en cache d’ailleurs absolument pas, il a été pensé pour correspondre aux impératifs du monde portable avant tout.

Les puces Alder Lake-H étaient ainsi limitées à un TDP de 45 watts, ce qui est relativement facile a encaisser pour une machine mobile. Avec Alder Lake-HX, Intel s’autorise 10 watts de plus. Ce ne sera pas anodin en terme de dissipation et les solutions des constructeurs auront tout intérêt a être réglées au millimètre pour encaisser ces 55 watts correctement. Si ce n’est pas un TDP trop éloigné des solutions actuelles, le profil de ce type de portable, accueillant les futurs HX, ne sera évidemment pas le même que les machines ultraportables dans lesquelles on retrouvera des puces U ou P de la 12e Gen. 

Intel vise ici les pros, les scientifiques et statisticiens, les monteurs vidéos, les créatifs de tous poils et les joueurs invétérés. Ceux qui vont rechercher des performances brutes assez lourdes pour faire face à des tâches complexes demandant assez de poumon de calcul pour ne pas étouffer. Cela veut dire des engins à la carcasse plus épaisse, des machines plus lourdes et probablement des diagonales assez conséquentes. On ne trouvera pas de HX dans des ultraportables hybrides et autres, ce seront plutôt les 15-16 et 17 pouces qui seront à la fête.

Et cela semble logique puisque le TDP annoncé est celui retenu par Intel parce que c’est son état moyen de fonctionnement. Les puces seront capables de descendre beaucoup plus bas en employant qu’un seul de ses cœurs E pour des tâches subalternes comme lire de la musique ou ramasser un email qui traine. Mais le TDP maximal qu’elles pourront atteindre en mode Turbo, quand elles donneront toute leur puissance, pourra grimper à 157 watts. Une augmentation beaucoup plus conséquente par rapport à la gamme précédente puisque les séries H actuelles ne dépassent pas 115 watts. Evidemment ces chiffres ont des impacts sur l’intégration des engins mais également sur leur autonomie en mobilité. La batterie a prévoir pour ces modèles sera imposante et lourde pour un résultat plus moyen que sur les portables classiques. 

Mais en échange de ces éléments, la gamme proposera des puces capables d’aller très haut en performances. Avec l’emploi de solutions utilisant 8 cœurs P et 8 cœurs E en parrallèle, contre 6 cœurs P et 8 cœurs E pour la série H, les puces pourront proposer jusqu’à 24 Threads. Pour garder ces processeurs relativement compacts il a fallut faire un peu de « ménage » sur leur DIE et Intel n’y est pas aller par quatre chemins. Conscient que ce type de processeur serait proposé sur des machines disposant de solutions graphiques annexes, il a raboté les capacités de ses processeurs graphiques. On reste sur une solution Intel Xe mais avec 32 EU contre 96 pour les séries H. La logique est simple ici, avec un processeur de série H la machine peut être autonome sans avoir recours au circuits de Nvidia, AMD ou même Intel avec ses puces ARC. Pour les séries Alder Lake-HX il faut impérativement ajouter une de ces puces externes pour rester cohérent dans la construction d’un portable efficace. D’ailleurs Intel a ajouté une ligne PCIe Gen5 spécifiquement pour piloter des circuits graphiques externes tout  en  conservant les lignes PCie Gen3 ou 4 pour du stockage.

Dernier changement de taille pour ce modèle, le Thunderbolt 4 intégré dans la 12e Gen précédente disparait ici du processeur. Probablement là encore pour laisser la place d’ajouter les deux cœurs P supplémentaires du produit. Il sera donc possible de trouver des portables de ce type sans port Thunderbolt 4. Si la puce reste évidemment compatible avec deux lignes dédiées, elle ne le fait qu’au profit de contrôleurs extérieurs. Les constructeurs décideront donc si leur ajout – parfois couteux – est nécessaire pour la construction de l’engin. La place disponible sur les machines visées, assez encombrantes et épaisses, pouvant laisser la place à une connectique plus complète avec Ethernet, sortie vidéo et autres ports USB. Le recours au Thunderbolt sera probablement étudié au cas par cas.

Dans ce design présenté par Intel on découvre un véritable réseau de caloducs dont le rôle est de distribuer la chaleur du processeur et du circuit graphique vers des ailettes qui seront ventilées de manière a repousser la chaleur vers l’extérieur. On découvre également pas moins de  quatre emplacements de SSD M.2 2280 NVMe PCIe Gen4. La mémoire vive enfin pourra grimper ici jusqu’à 128 Go avec l’emploi de 4 modules SoDIMM. La puce pourra accepter de la DDR4-3200 ou de la DDR5-4800 et la prise en charge de mémoire ECC pour les stations de travail de calcul scientifique est possible.

Face à la concurrence, Intel se pose en champion

Intel a présenté sa nouvelle gamme face à ses deux principaux rivaux que sont AMD avec ses Ryzen et Apple avec ses M1 mais aussi avec des processeurs Intel. Quatre puces ont finalement été choisies pour positionner l’offre HX. Le Ryzen 9-6900 HX d’AMD, Le M1 Max d’Apple et les Intel Core i9-11980HK et i9-12900HK. Face à eux le nouveau Core i9-12900HX qui propose, selon Intel, de meilleurs résultats en single thread comme en multi thread. Ce graphique étant sortis des labos d’Intel et retravaillé par ses équipes de communication, il faut le prendre avec les pincettes de rigueur. Un détail qui ne doit échapper à personne est la consommation annoncée pour obtenir ces résultats. De 140 à 175 watts suivant les puces… Hormis le M1 Max dont Intel ne semble pas connaitre le TDP exact et qui doit tourner beaucoup plus bas, toutes les puces sont ici sous leur meilleur jour. 

Impossible de dire pour le moment que les nouvelles puces sont meilleures ou plus adaptées. Le graphique n’étant pas gradué ni marqué d’aucune manière, il est même possible qu’avec 140 watts le Ryzen 9 soit au final plus efficace que le nouveau HX… Si je ne doute pas de la performance des nouveaux HX, leur véritable potentiel sera a juger à leur sortie réelle avec des tests indépendants et en vraie mobilité comme sur secteur.

Minimachines-05-2022

D’autant que l’emploi du Benchmark Spec qui est une solution très ancrée dans le monde professionnel, reste sans vraie base de comparaison pour les utilisateurs classiques. 

D’autres tests sont proposés avec toujours un scénario identique : Le nouveau processeur est en haut, les autres puces sont en dessous. Blender sera peut être plus lisible pour certains mais les machines employées ne sont pas de même génération et on manque encore une fois de chiffres vraiment précis.

Un des point fort de la puce M1 Max est sans doute son comportement qui n’est pas altéré suivant sa source d’alimentation. Sur batterie ou sur secteur la puce est toujours aussi rapide tandis qu’en règle générale les puces AMD et Ryzen ont tendance a s’effondrer une fois qu’elles sont débranchées d’une alimentation réseau. Il faudra également constater ce point en test réel pour se faire une véritable idée des compétences en mobilité de cette gamme.

Pour les joueurs, Intel propose un petit panneau résumant les résultats obtenus ave un i9-12900HX, 64 Go de DDR5-4800 et une puce graphique Nvidia GeForce RTX 3080 Ti. Pas la machine de monsieur tout le monde donc mais un engin haut de gamme aux capacités évidemment impressionnantes. Les scores sont a l’avenant avec des maximum impressionnants comme sous Rainbow Six Siege ou Hitman 3. Il va sans dire que le prix d’un engin de ce type ne sera pas forcément à la portée de tout le monde.

Alder Lake-HX : Le dernier wagon de la douzième gen

Cette gamme HX est la dernière de cette génération. Un wagon de queue intéressant et prometteur qui devrait permettre de concevoir des engins très haut de gamme avec des capacités de calcul étonnantes. Pas forcément les puces les plus adaptées à des minimachines mais un nouveau poids lourd sur le secteur qui pourrait bousculer le positionnement et les tarifs des gammes antérieures. Cela augure d’une treizième génération intéressante chez Intel qui va poursuivre ses efforts dans cet esprit de cœurs de différentes capacités.

La plupart des constructeurs se sont positionnés sur cette gamme avec en tête des cibles différentes. Dell, Lenovo et HP visant probablement le secteur des machines de travail avant tout, sans évidemment s’empêcher de penser aux solutions créatives et aux machines de jeu haut de gamme. MSI, Asus, Gigabyte et d’autres se pencheront probablement d’abord sur les segments porteurs que sont les portables créatifs et de jeu. Un challenge intéressant pour ces marques car si toutes vont partir avec des composants identiques, leurs traitements seront probablement assez distincts. Le but du jeu étant de résoudre l’équation difficile d’une machine certes puissante en calcul mais également autonome et, si possible pas trop bruyante.

Le travail mené par les différents constructeurs pour proposer des engins Alder Lake-HX relativement silencieux et dont l’autonomie reste convaincante est probablement le plus pertinent à suivre. Intel proposera sans doute ses services d’ingénierie pour concevoir ou améliorer des designs autour de ses puces mais le véritable gagnant sur ce type de gamme sera sans doute celui qui proposera la machine avec la solution la plus convaincante autour de la performance brute.

Intel Alder Lake-HX : 16 coeurs et 24 threads pour machines mobiles © MiniMachines.net. 2022.

Apple veut t-il vraiment que vous répariez votre matériel ?

Le Self Service Repair d’Apple fait partie d’un mouvement global du marché. Cette offre est proposée en réaction à des lois en cours d’élaboration aux US et ouvrant pour les particuliers à un droit à la réparation de leurs outils. Face à des amendes possibles et pour montrer un visage bienveillant teinté de greenwashing, de nombreuses sociétés commencent à déployer des programmes de réparation de leurs produits. Toutes ne le font cependant pas de la même manière, toutes n’ont pas autant à y perdre qu’Apple.

Pouvoir commander une batterie ou un écran neuf, directement chez Apple, pour réparer son smartphone. C’est une excellente nouvelle et, contrairement à beaucoup de commentateurs, le fait que les produits soient commercialisés à des tarifs assez proches du prix de remplacement en atelier par les services de la marque ne me choque pas plus que cela.

Commander une batterie et un kit de tournevis nécessaires au remplacement d’un iPhone 12 ou 13 coute 69$. Un kit identique pour iPhone SE coûte 49$. Des tarifs qui ne sont pas choquants pour des pièces officielles et garanties par Apple. Evidemment, on peut trouver en importation des produits compatibles qui seront moitié moins cher mais dont la qualité ne sera pas assurée de la même manière. Entre les fausses batteries, les soucis de charge rapide et les capacités réelles bien en dessous du produit officiel, payer 35$ au lieu de 69$ n’est pas forcément une bonne idée. Surtout si l’on prend en compte le tarif de base d’un iPhone. Personne n’a envie de voir une batterie « noname » exploser ou gonfler à l’intérieur.

Evidemment, se rendre compte que les services de remplacement d’Apple proposent en fin de garantie la possibilité de faire repartir en atelier votre iPhone 12 ou 13 pour un changement de garantie pour le même tarif de 69$ à de quoi poser question. Pourquoi devrais-je payer le même prix pour la batterie en Self Service Repair que pour la même batterie et le service de son remplacement ? 69$ pour la batterie seule et toujours 69$ pour la batterie et le changement effectif de celle-ci ?

Un superbe schéma très rassurant proposé sur la publicité d’une batterie noname

Il y a deux manières de voir ceci. La première est de se dire qu’Apple surtaxe grandement le prix de ses pièces détachées. Mais en importation, le tarif d’une batterie noname tourne entre 40 et 50$ pour le même smartphone. Le « surcoût » d’Apple n’est donc pas si démesuré pour une solution officielle,  disponible immédiatement avec un kit de tournevis nécessaire à l’opération. 

L’autre manière de voir ces prix similaires est de considérer que l’opération de maintenance ne vous est pas facturée par Apple. Ou qu’elle a été facturée en amont d’une manière ou d’une autre. Apple considérant que le remplacement de la batterie fait partie de la vie du produit. Encore une fois, si on doit prendre en considération le coût de main d’œuvre de remplacement d’nue batterie, les 69$ demandés ne sont pas hors de prix. Je ne sais pas combien de temps met un technicien qualifié pour changer la batterie d’un iPhone mais je doute que cela ne lui prenne moins de 10 minutes et plus de 20.

Dans le même esprit, un écran de remplacement pour iPhone 12 est proposé 267.96$ en achat direct en tant que pièce détachée. Le service de remplacement du même écran est facturé 279$ par Apple à la fin de votre garantie. Le jeu d’un changement autonome de cette pièce si délicate en vaut t-il la chandelle ? L’écart est trop faible et on aura tout intérêt à passer par Apple qui vous garantira la bonne prise en charge de votre matériel et une exécution parfaite de la réparation. L’opération est un poil compliquée et demande du doigté et un peu d’expérience. Evidemment, procéder vous même à l’opération a ses avantages, comme le fait de ne pas vous séparer de votre précieux. Ou la possibilité de ne pas avoir à effacer les données de votre smartphone mais au contraire de pouvoir l’utiliser sans interruption. On sera néanmoins tous d’accord que l’opération n’est pas sans risque et que la mise à jour, même pour quelqu’un ayant de l’expérience, se fera au prix de quelques gouttes de sueur. Apple a beau proposer des guides de maintenance, les iPhones, comme tous les smartphones haut de gamme du marché, sont des produits difficiles à réparer.

Recyclage et ré-emploi

Apple a une politique de recyclage qui peut être intéressante pour le client final. Une offre qui va alléger la facture. Le renvoi de votre vieille batterie par exemple pourra vous octroyer un remboursement d’un bon tiers du prix d’une batterie neuve via le Self Service Repair. L’écran rapportera beaucoup moins mais tout de même environ 33$. Des remboursements qui ne sont pas proposés en cas de prise en charge par le service de réparation interne d’Apple. Je ne sais pas exactement comment marche le système US au niveau recyclage et si une aide gouvernementale quelconque est à l’œuvre pour financer ce type d’opération.

Toujours est t-il que le site iFixit indique qu’Apple est susceptible de recycler ou d’employer à nouveau une batterie ou un écran au lieu de les recycler. Il est donc possible qu’un iPhone sous garantie avec une batterie Hors Service soit remis sur pied avec une batterie encore efficace mais accusant un certain nombre de cycles. Apple faisant alors l’économie d’une batterie neuve.

Libre au constructeur de mener la politique tarifaire qu’il souhaite et de la proposer à ses clients. Libre aux clients de choisir entre une offre de remplacement manuelle Self Service Repair ou un service clé en main auprès d’un centre agréé de la marque. Chaque option a ses défauts et ses avantages. Mais il m’apparait difficile de voir le verre à moitié vide sans imaginer le verre à moitié plein également. Apple ne survend pas forcément les pièces détachées qu’il propose et si le prix de l’écran d’un iPhone à presque 300$ vous parait démesuré, c’est en rapport avec le tarif global du smartphone. Il existe des solutions Android complètes vendues moins cher que le prix de cet écran. C’est vous qui choisissez un iPhone 12 pour des raisons qui vous sont propres.

Surveillance et auto-censure

Ce qui me pose plus problème dans cette approche du recyclage proposé par le Self Service Repair n’est pas le prix demandé, c’est plutôt la manière de le faire. Pour pouvoir acheter une batterie ou un écran de remplacement, il va falloir montrer patte blanche à la Pomme. Vous aurez beau acheter un produit officiel, la marque exigera que vous indiquiez le numéro de série du produit qui recevra la greffe. 

En clair, dans le dossier de suivi de votre iPhone, la mention d’un achat d’un composant pour un remplacement par un service non officiel sera indiqué. Ce qui sous entend beaucoup de chose lors d’un éventuel recours technique. Chaque technicien qui accèdera à la fiche de votre téléphone saura que vous avez ouvert l’appareil en n’étant pas agréé par Apple pour le faire.

Si, par exemple, votre smartphone est affecté par un défaut de série et que vous avez ouvert celui-ci, Apple pourrait très bien refuser tout remplacement de votre iPhone parce que vous avez procédé à des réparations vous même. Demander un numéro de série est problématique car cela ouvre une ombre dans votre cerveau. Vous vous demandez immédiatement pourquoi Apple a besoin de cette information et ce que la marque pourrait en faire. Au vu de la faible différence de tarif entre la prestation complète et la pièce détachée avec ce risque, cela ne pousse pas vraiment à donner envie de réparer ses produits.

Et Apple sait être très tatillon avec les utilisateurs, même si ceux ci ont payé une fortune leurs produits. Il y a peu, un de mes amis a eu un souci avec un MacBook présentant un défaut de charnière. Un défaut connu et reconnu par Apple par le passé suite à de nombreuses plaintes contre la société. En choisissant une nappe un peu trop courte, Apple a causé un défaut clair à cette gamme d’engins. L’action d’ouverture et de fermeture répétée de l’écran du MacBook entrainait dans le temps des défauts d’affichage ou de rétro éclairage. Baptisé Flexgate, ce problème a rendu des milliers de machines inexploitables. Apple a reconnu lui même le problème en procédant à un changement de longueur de nappe au gré d’une mise à jour matérielle de cette gamme de machine. La société a fini par trouver un arrangement avec les propriétaires de cette gamme de MacBook et a proposé une reprise même hors garantie des machines touchée par ce défaut… Enfin presque.

Un MacBook avec un soucis d’affichage lié au FlexGate

Car si les modèles 13 et 15 pouces de ces MacBooks de 2016 ont été touchés par le même souci et posaient donc le même problème, seul le 13 pouces a été pris en charge par Apple. Laissant les 15 pouces en dehors de toute tractation et de toute…prise en charge. Le problème est connu, il a été résolu aussi bien sur le modèle 13 que 15 pouces avec une nappe un peu plus grande lors de sa mise à jour mais les avocats d’Apple ont réussi à ne faire prendre en charge qu’un modèle sur deux. Mon ami a  donc un MacBook inexploitable et zéro prise en charge malgré un défaut d’origine dans la conception d’Apple. Penser que la marque ne fera pas tout ce qu’elle jugera possible de faire pour éviter le Service Après Vente d’un engin ayant été ouvert par du personnel non agréé semble donc très optimiste.

Un message précisant que l’écran de remplacement n’est pas officiellement reconnu par votre iPhone

La tambouille DRM d’Apple

Si Apple demande un numéro de série pour auto-réparer votre iPhone, c’est aussi pour une raison assez simple. Outre le suivi de votre dossier technique qu’on ne peut pas oublier. La traçabilité des différents composants est un élément essentiel de la philosophie du constructeur. Si vous changez d’écran pour un autre, même un modèle tout ce qu’il y a d’officiel, votre iPhone ne fonctionnera pas normalement tant qu’il ne se sera pas connecté pour vérifier la présence d’un matériel enregistré par Apple.

Votre nouvel écran est identifié de manière précise et les services d’Apple vont devoir procéder à un rapprochement de son identité numérique pour qu’elle soit reconnue comme valide par votre téléphone. Chaque pièce a sa propre identité numérique et échanger un écran officiel d’Apple ou un écran noname posera le même problème. Votre smartphone unique est sorti d’usine avec un écran unique et il doit être réorienté logiciellement par Apple vers un nouvel écran de remplacement unique pour qu’il puisse fonctionner de manière parfaite. Une politique d’identification très contraignante qu’Apple justifie pour lutter contre les contrefaçons mais qui, dans les faits, empêche toute autonomie et toute concurrence dans la réparation.

Ce contrôle complet sur les possibilités d’échange est le revers de l’ouverture à la réparabilité des produits Apple. A vrai dire, la marque pourrait tout à fait proposer des pièces détachées plus chères que les remplacements des pièces par ses propres services. Le fait de devoir obligatoirement passer par la marque pour valider l’usage des pièces détachées vide la possibilité d’une auto réparation de toute sa substance. Apple dit clairement, vous pouvez le faire et voilà comment faire mais ne sortez pas du chemin tracé par nos soins sous peine de ne pas pouvoir vous servir totalement de vos produits.

Cela, en plus d’un matériel aux autres composants aussi fermés et difficilement réparables, amène à un constat assez évident. Apple a bien lancé un Self Service Repair assez sérieux avec des points très positifs. Mais ce service n’a été pensé que dans une seule véritable optique : couper l’herbe sous le pied à toute éventuelle attaque juridique à moyen terme quand au droit à la réparabilité des produits. En procédant à ce service minimum, Apple va au devant des ennuis d’une éventuelle Class Action. Rien de plus.

Apple veut t-il vraiment que vous répariez votre matériel ? © MiniMachines.net. 2022.

Les nouvelles stations de travail Dell sous mémoire CAMM

CAMM est l’acronyme de Compression Attached Memory Module, un nouveau format de mémoire vive DDR5 développé par Dell en remplacement de la mémoire SoDIMM classique. But du jeu pour le fabricant, proposer un seul module plus plat au lieu d’un jeu de modules classiques sous la forme de barrettes. Dell annonçant que le format CAMM est 57% plus fin que la mémoire SoDIMM et permettrait donc des intégrations encore plus poussées des composants dans un châssis mobile. Au sein des stations de travail en question, cela permettrait sans doute de gagner quelques millimètres d’épaisseur au final.

CAMM est également une solution plus dense que les barrettes de mémoire classiques : avec un seul module CAMM Dell peut intégrer 128 Go de mémoire vive dans un PC. Il faut aujourd’hui additionner quatre emplacements SoDIMM pour quatre barrettes de 32 Go pour une capacité équivalente en DDR4 ou DDR5. Les constructeurs déploient en général des emplacement de mémoire de chaque côté de la carte mère ou choisissent des solutions mixant mémoire soudée à la carte mère avec des emplacements libres au format SoDIMM.

Autre point intéressant, la possibilité de monter 128 Go en DDR5 4800 MHz ce qui est techniquement impossible aujourd’hui avec 4 modules de 32 Go de DDR4 qui seront limités à de la DDR5 4000 Mhz. Cela ne touche qu’une fraction de machines. Dell n’a pas communiqué sur les mémoire DDR ECC de ses solutions CAMM, un élément pourtant prisé sur les stations de travail surtout avec des capacités aussi élevées.

On comprend également l’intérêt pour Dell de proposer un seul élément avec le CAMM. D’un point de vue montage, le constructeur dispose ici d’un unique élément a assembler avec une réflexion probablement poussée en amont pour penser à la robotisation de l’opération. La solution CAMM est fixée à la carte mère via un ensemble de vis qui viennent prendre le module en sandwich et le presser contre un connecteur. Un panneau arrière vient fixer solidement le tout. Si cela a été pensé pour être assemblé de manière mécanique, cela permet à Dell d’intégrer le module CAMM de son choix sur la chaine en une seule opération. Pas besoin de se compliquer à vie pour assembler des modules de mémoire souvent disposés en étages les uns au dessus des autres. On peut laisser un robot piocher l’unique module CAMM nécessaire et l’installer dans la foulée. Ce qui colle bien avec l’offre sur-mesure très travaillée par Dell sur son site.

Dell indique que si le format CAMM est bien une de ses invention, il est libre et peut être employé par toute l’industrie. La marque espère en effet en fait un nouveau standard. Ce qui peut se comprendre car économiquement parlant être l’unique client de ce type de technologie n’est pas une très bonne affaire. Si Dell fait fabriquer sur mesures des modules CAMM pour lui seul, les prix ne sont pas prêts de dévisser aussi rapidement que les solutions SoDIMM partagées par toute l’industrie. Il n’y aura pas la même concurrence entre les différents assembleurs pour proposer des modules moins chers. A vrai dire, si le reste de l’industrie de suit pas Dell dans cette voie, je ne donne pas cher de ce format.

Et c’est peut être pas plus mal a vrai dire. Car il suffit de se mettre dans la peau d’un acheteur final pour voir le soucis posé par le format. Outre la difficulté d’assemblage par rapport à une solution SoDIMM on ne voit pas très bien quel gain le nouveau format apportera. Une machine plus fine ? Sur une station de travail ? La belle affaire… Gagner 3 mm sur une engin de ce type n’apporte pas grand chose en règle générale si ce n’est moins de connectique et plus d’adaptateurs en tous genres .On imagine bien Dell compenser un engin plus fin avec la vente d’un dock adapté pour compenser le problème lié à la finesse de la machine.

Un adaptateur CAMM vers SoDIMM…

Est-ce qu’un acheteur pourra trouver un module CAMM dans le commerce pour remplacer l’ancien ? Peut être, un jour, si la sauce prend. Et pour combien ? Quel tarif pour ces solutions somme toute très spécialisées ? Ou alors il faudra passer par un adaptateur CAMM vers SoDIMM comme l’image ci-dessus ? Mais alors, si c’est possible ? Où est le gain annoncé en épaisseur ? Il y a la place pour installer des modules SoDIMM mais on préfère installer un module CAMM parce que c’est plus fin ? Cela n’a pas de sens.

L’autre problème étant que le module CAMM est unique et ne peut évoluer qu’en remplacement d’un autre. N’est t-il pas préférable d’acheter un portable avec des emplacements SoDIMM libres pour anticiper une évolution ? Si on doit remplacer des modules SoDIMM de 16 Go par des modules de 32 Go, on pourra intégrer les anciens dans d’autres machines. Au contraire des solutions CAMM qui resteront forcément plus difficiles a recycler.

A vrai dire il n’y a qu’un marché le module CAMM a du sens à mes yeux, celui des engins ultrafins : les ultraportables et autres tablettes. Des machines qui pourraient bénéficier de ce type de mémoire au vu de leurs designs. Mais si Dell intègre ses CAMM à des stations de travail, généralement assez imposantes, c’est parce que leur prix est pour le moment trop élevé pour rendre un ultraportable compétitif sur le marché. Les tarifs importants des stations de travail permettent de noyer le poisson. Le calendrier de cette sortie étant pertinent pour la marque puisque le prix de la DDR5 est pour le moment également très élevé, cela permet de gommer un peu le coût de ce type de solution. Mais a terme ? Quand la DDR5 va commencer a baisser et si Dell reste seul a proposer ces modules ? L’offre finira par être bien trop chère pour être poursuivie.

Je n’ai rien en général contre les nouveautés techniques et les formats qui évoluent. J’ai plus de mal a les voir issus des laboratoires d’un fabricant comme Dell. Surtout quand leur seule promesse est de rendre des engins plus… fins et non pas plus performant, plus silencieux ou utiles. Quand Intel sort un format Thunderbolt de ses laboratoires, je comprend bien l’intérêt pour le marché comme pour le client final. Quand le consortium USB définit un nouveau format c’est la même chose. Le gain de cette évolution profite réellement autant aux fabricants qu’aux consommateurs. Idem pour des développements comme Vulkan ou AV1. Mais s’embarquer dans un format de mémoire comme CAMM pour gagner quelques millimètres d’un côté et enfiler des menottes techniques qui vont nous lier au bon vouloir de mise  à jour d’un unique fabricant. Cela me parait beaucoup plus délicat.

Il est plausible que le marché évolue de format à l’avenir avec l’arrivée de futurs standards comme la DDR6. Et il est possible que ce format passe par des solutions type CAMM avec des connecteurs autrement plus riches en interface que les broches de nos modules. Cela dit, ce standard a tout le temps de naitre, de se développer, d’évoluer et d’être adopté par le marché. Car évidemment, le CAMM DDR5 d’aujourd’hui n’assurera jamais une évolution possible vers un format futur comme la DDR6.

Source : PCWorld

Les nouvelles stations de travail Dell sous mémoire CAMM © MiniMachines.net. 2022.

Intel Arc A-Series : la gamme de puces graphiques mobiles en détails

L’air de rien, cette fin de mois de mars annonce un évènement important sur le marché informatique. Avec le lancement de cette gamme Intel A-Series Mobile Graphics, la marque devient le troisième larron d’un jeu qui se joue à deux depuis trop longtemps. Face à AMD et Nvidia, Intel a des arguments à faire valoir. Et sa position particulière sur le secteur pourrait lui permettre de parvenir à leur faire un peu d’ombre.

La gamme A-Series Mobile Graphics part de loin et ne vise évidemment pas les mêmes sommets que ses concurrents. C’est un premier jet, une intention de la part d’Intel. Et cela pour plusieurs raisons. D’abord c’est culotté. Si Intel est le seul acteur qui a osé venir s’approcher des plates bandes de Nvidia et d’AMD, c’est peut être parce que c’est l’unique marque qui pouvait se le permettre. Lancer un circuit graphique indépendant pour des PC sous Windows en 2022… c’est un défi, un Everest à surmonter. Cette première gamme est peut être ce qu’il faut considérer comme l’établissement d’un camp de base. Un lieu que l’on établit avant de poursuivre son ascension.

Intel a probablement mis beaucoup d’argent sur la table, conscient que cette étape était indispensable pour croitre sur le segment. La marque sait pertinemment qu’aucun retour sur investissement ne sera immédiat. L’objectif est donc inscrit dans le futur et il est ambitieux. Il s’agit de rattraper l’offre des deux ténors qui continuent de grimper loin devant. Ca ne se fera pas en un jour ni même en un an mais l’important, aujourd’hui, est clairement de se positionner.

Prévus pour le mois d’avril, les circuits graphiques A-Series Mobile peuvent compter sur un atout majeur qui est la marque Intel. C’est un point important à prendre en compte dans l’équation. Intel est connu du grand public, c’est une marque forte et capable de piloter des gammes entières de machines auprès des constructeurs. C’est également un fabriquant de processeurs et les synergies entre les différentes puces peuvent être importantes dans cette offre. Tant d’un point de vue technique que dans un développement commercial. 

Trois gammes d’Arc et deux puces physiquement différentes

La gamme A-Series Mobile est composée à la manière des processeurs Core pour améliorer leur lisibilité et offrir une cohérence de gamme. On retrouve ainsi les Arc 3, Arc 5 et Arc 7 dans un crescendo de performances. Les différents modèles seront proposés dans deux variations de puces. La première embarquera 96 Xe Vector Engines et la seconde beaucoup plus avec pas moins de 512 XVE. Si vous vous demandez ce qu’est un XVE c’est simplement la nouvelle appellation d’Intel pour ses EU, ou Unités d’Execution. Des moteurs graphiques intégrés dans ses processeurs. Un nouveau nom qui s’accompagne de grosses évolutions techniques rendues possibles par une transposition des puces vers des solutions externes.

Le premier circuit attendu est le ACM-G11, le plus petit des deux, qui accueillera très rapidement le Arc 3. Les deux autres puces s’embarqueront à bord du design le plus imposant sous le doux nom de ACM-G10 et devraient arriver un peu plus tard en Arc 5 et Arc 7.

Sans vouloir m’appesantir sur les détails techniques, le ACM-G11 est une version basique du ACM-G10. Comme d’habitude sur ce marché tout est multiplié en terme de composants afin d’augmenter les performances globales des solutions. Le design de base est donc quadruplé dans la version la plus évoluée sur bien des postes. Le nombre de coeurs Xe est ainsi quatre fois plus important tout comme la mémoire cache et les coeurs destinés aux calculs de Raytracing. D’autres postes ne suivent pas la même évolution. C’est le cas de l’interface PCIe qui passe de X8 à X16. Les puces Arc 5 et 7 fonctionnent sur 256 bits tandis que le Arc 3 propose 96 bits.

De son côté, la partie décompression vidéo materielle est identique sur l’ensemble des puces : un double moteur Xe Media Engines et quatre moteurs d’affichage. Intel a donc composé sa gamme de manière très classique en déclinant les solutions à partir de la même architecture. Pour étager ses gammes, Intel a joué sur les réglages de chaque modèle. Cela crée en tout 5 déclinaisons pour le moment avec deux Arc 3, un Arc 5 et deux Arc 7. Un lancement au catalogue somme toute assez sobre.

Les variations concernent tous les postes avec des fréquences qui évoluent de 1150 à 1650 Mhz entre le premier Arc 3 et le dernier Arc 7. vous l’aurez sans doute remarqué, le Arc 5 est largement déclassé niveau fréquence avec 900 Mhz seulement mais compense avec plus de mémoire GDDR6 et de Xe Cores / RT Units ainsi qu’une bande passante plus large. La mémoire GDDR6 passe de 4 à 16 Go et la consommation oscille de 25 à… 150 watts. On devine ici que les puces ne s’adresseront pas vraiment au même public. Les Arc 3 seront intégrés dans des solutions ultramobiles, les Arc 5 viseront un milieu de gamme classique et les modèles Arc 7 chercheront plutôt à prendre place dans des portables plus imposants, avec une bonne batterie.

Intel proposera une solution de RayTracing qui correspond clairement aux blocs de Coeurs Xe. Toutes les versions A-Series Mobile proposent une unité de calcul spécialisée. On n’a pour le moment pas de grosses informations sur les capacités de ces solutions et Intel n’a clairement pas mis l’accent dessus lors de sa présentation. Il faut dire que la marque est loin derrière ses concurrents sur ces postes. Son Arc 7 A770M, le plus rapide de la gamme, propose 32 unités de Raytracing quand les concurrents comme Nvidia et AMD en proposent 80 ou plus… Ce n’est, gardons-le en tête, qu’un début pour la marque sur  ce segment.

Un autre poste est plus prometteur et correspond peut être plus à la première cible visée par ce nouveau grimpeur, l’accélération de tâches liées à l’Intelligence Artificielle. Les Matrix Core sont pensés pour des usages d’IA. L’accélération de calculs variés que la marque met en scène avec une pile de services ressemblant beaucoup à la formule Broadcast de Nvidia en est  la meilleure illustration. Cette offre baptisée Creator Studio offrira un panel de fonctions dédiées au streaming : on pourra par exemple flouter un arrière plan enregistré avec sa webcam en temps réel ou carrément en proposer un autre à la manière d’un « fond vert ». Une solution de reconnaissance faciale pour zoomer sur votre visage pendant vos déplacements devant l’objectif et autres fonctionnalités devenues plus « grand public » pendant les confinements sont ainsi mises en valeur. Intel cherche également à mobiliser un peu sur le jeu avec son moteur XeSS qui permet d’augmenter, via IA, la définition d’affichage d’un jeu. La démonstration en vidéo ci-dessus montre comment Intel affiche le même jeu en UltraHD depuis un rendu 1080P.

Cette première gamme A-Series Mobile ne va pas chercher à séduire en premier lieu les joueurs. Des capacités de calcul en 2D et 3D dédiés au jeu seront bien présentes au sein des puces et des résultats intéressants seront proposés mais cela ne va pas bouleverser le marché actuel couvert par AMD et Nvidia. L’ambition de la marque n’est pas encore là, il s’agit surtout de proposer une machine orientée vers le grand public et non pas se focaliser sur le marché « gaming ».

Ceux qui espéraient avoir ici un nouveau trublion dans l’arène du GPU haut de gamme sont les mêmes que ceux qui espèrent faire un repas étoilé en poussant la porte d’un restaurant d’autoroute. Ce n’est pas le sujet. Ici,  Intel promet de la jouabilité plus que de la vitesse et de la beauté. La marque assume sa jeunesse et se compare à… lui même. La barre est mise par rapport à son offre Intel Xe. Celle intégrée à ses processeurs Core Alder Lake-P. Et ce que cherche à faire Intel ici, c’est de dépasser cette offre en promettant une bonne jouabilité. Rien de plus mais rien de moins

Le fondeur est même relativement modeste. Pour se comparer à son Intel Xe, la marque utilise un Arc 3 A370M. Une puce de son entrée de gamme donc. L’idée proposée par Intel, c’est de faire mieux que le circuit intégré au processeur en promettant un niveau de performances au dessus de 60 images par seconde en jeu FullHD. Des titres récents sont ainsi listés dans cette optique avec, à chaque fois, une note au dessus de ce chiffre. Un repère censé assurer une bonne fluidité globale. Cela ne sera pas ce que recherche un joueur mais correspondra parfaitement à un PC familial ou à une machine plus sérieuse sur laquelle on voudrait tout de même pouvoir lancer un titre de temps en temps.

L’offre Intel A-Series Mobile actuelle

Deux puces sont donc disponibles dès maintenant, les Arc 3 A350M et Arc 3 A370M seront proposés dans des portables immédiatement début avril. Les modèles sous Arc 5 A550M proposeront une alternative avec plus de cœurs et de fonctions associés mais des fréquences plus basses. Enfin les Arc 7 A730M et Arc 7 A770M constitueront le haut de gamme de cette première vague. Ces trois derniers processeurs ne seront pas disponibles avant l’été.

Toutes ces puces offriront des capacités de traitement multimédia complètes avec des fonctions « câblées » de décompression vidéo. La prise en charge matérielle du Codec AV1 à la fois en compression et en décompression et la possibilité de prendre en charge un flux vidéo 8K à 60 images secondes en HDR 12bit sont assurées… Les formats avancés comme le VP9, le H.265 et le H.264 seront, bien entendu, présents dans le portefeuille d’action des 5 puces.

Intel fait de ces fonctions un cheval de bataille en comptant bien intéresser un maximum de partenaires pour les prendre en charge. Le recours au AV1 est ainsi tout indiqué, la puce s’appuie sur un Codec ouvert pour trouver des relais chez d’autres grands noms de l’industrie et du Web. Il est fort possible que ce nouveau codec devienne un nouveau standard un jour ou l’autre et la marque apporte ici une solution efficace. Cette capacité de décodage se conjugue avec une prise en charge matérielle avancée. Les puces Arc pourront piloter du HDMI 2.0b et du DisplayPort 1.4. Mais elles sont également annoncées comme compatibles avec le « futur » DisplayPort  2.0. Une prise en compte un peu hâtive puisque la norme n’a pas encore été implantée aujourd’hui mais un atout pour des solutions futures.

Ces fonctions sont mises en oeuvre via Arc Control, le nouveau chef d’orchestre des pilotes de la marque. Une suite logicielle qui permettra de régler les différents postes de chaque pilote avec une prise en charge complète de ses fonctions. De la mise à jour en passant par les divers réglages d’affichage. Une offre assez semblable aux pilotes actuels des solutions Intel Xe. A noter qu’Intel se chargera de cette gestion de pilotes, une bonne nouvelle même si cela devrait se traduire par un téléchargement lourd en mégaoctets. La marque ne livrera pas de pilotes spécifiques pour chaque portable ni même de versions différentes pour ses cartes graphiques. Un seul et même pilote quel que soit la solution Arc. Là où c’est intéressant, c’est que l’on peut compter sur Intel pour mettre à jour son offre quand de nombreux constructeurs de portables ne prennent pas vraiment la peine de les maintenir.

Premier jet, premiers essais, l’offre d’Intel a des points forts et des faiblesses. Personne de sensé n’imaginait la marque venir battre Nvidia et AMD sur un terrain aussi compliqué. Mais Intel n’a pas pour autant dit son dernier mot. Il est possible qu’avec des offres combinées comprenant processeur, circuit graphique et module Wifi par exemple, la marque propose des solutions au rapport performances / prix tout à fait intéressantes. Des solutions qui auront dans tous les cas un impact sur la concurrence en terme de prix et de capacités techniques.

 

Intel Arc A-Series : la gamme de puces graphiques mobiles en détails © MiniMachines.net. 2022.

Apple lance les Mac Studio équipés de SoC M1 Ultra

L’idée générale des Mac Studio correspond à ce que défend Minimachines depuis son lancement, il est possible aujourd’hui de faire aussi bien, voir mieux, dans moins d’espace qu’autrefois. Avec un paramètre supplémentaire qui vient appuyer cette démonstration en force, un changement de technologie de calcul grâce au basculement vers les puces ARM Apple M1.

Les Mac Studio sont des machines impressionnantes sur plusieurs points. Le premier est évidemment lié à leur aspect esthétique qui, sans révolutionner le genre, est beaucoup plus compact que les précédents Mac Pro sous processeurs Intel de la marque. L’engin mesure 19 cm de large et de profondeur pour 9.5 cm de hauteur. Un ensemble compact donc, sous la forme d’un demi cube aux angles arrondis construit dans un bloc d’aluminium brossé à l’aspect très dense.

Le soin porté aux détails, à la connectique et aux divers aspects techniques de sa conception est impressionnant. Cela s’explique par le prix de la machine évidemment mais également, je suppose, par la volonté d’Apple de faire de ce Mac Studio un format prévu pour longtemps. Je ne serais pas surpris de voir ce design durer pour quelques longues années et Apple déployer à l’intérieur plusieurs générations de puces.

La connectique est ainsi parfaitement ajustée, son déploiement est très réfléchi et la ventilation de l’ensemble a profité d’une attention particulière. Le système de refroidissement est clairement sur dimensionné avec comme objectif d’encaisser la chaleur importante dégagée par les puces M1 Max et M1Ultra embarquées dans le boitier sans faire de bruit. La solution employée est probablement assez performante pour encaisser un nombre de watts bien plus important que ceux déployés ici. Ce qui va permettre à la machine de faire tourner ses deux ventilateurs en sous régime et donc de ne pas les faire entendre.

La proposition est donc inversée par rapport à de nombreux concurrents de la marque. On ne choisit pas un système de ventilation capable d’encaisser x watts au maximum pour qu’il vienne assurer le refroidissement d’un puce qui atteindra systématiquement ce nombre de watts. Apple a choisi un système de ventilation outrageusement imposant pour qu’il puisse encaisser ces X watts au régime minimal. Une différence qui marquera l’utilisateur puisqu’il n’entendra pas sa machine et qu’Apple cultive soigneusement depuis la sortie de ses puces M1. Ce qui demandait une ventilation au bruit souvent important sur les précédentes solutions x86 chez Apple, ne se fait aujourd’hui plus un bruit avec les puces ARM. Et cela participe à la magie de ce changement, aussi bien pour les spécialistes que pour les néophytes.

La ventilation est classique en apparence avec deux flux générés par les ventilateurs qui aspirent de l’air frais depuis la base de la machine avant de le diriger vers l’arrière de l’engin. Refroidissant au passage l’alimentation intégrée dans le châssis. Cet air frais sera mis en contact avec des ailettes métalliques qui dégageront les watts générés par le SoC M1 avec qui ils sont en contact. A l’arrière du Mac Studio, on retrouve une large aération percée de nombreux petits trous qui laissent échapper cette chaleur. Il conviendra donc, et c’est assez important, pour cet engin de faible volume, de le laisser sur une surface dégagée avec un large espace derrière lui et de quoi respirer autour de lui.

A noter la finesse et la qualité de finition de l’ensemble du châssis. Les milliers de trous ronds bien espacés, l’ajustement des ports et l’ensemble de ces détails d’une coque monobloc qui vient coiffer la machine au millimètre. Tout cela a un coût élevé en usinage avec un probable nombre de châssis qui ne sont pas acceptés car présentant un défaut mineur, mais également en assemblage. Faire rentrer les composants dans ce boitier parfaitement ajusté demandé probablement plus de temps que dans des machines classiques.

Le boitier propose une connectique assez complète avec en façade un double port USB Type-C et un lecteur de cartes SDXC. Un lecteur de cartes dont on ne connait pas les spécifications techniques mais qui est évidemment bienvenu. Ce lecteur largement oublié par les constructeurs de PC étant, avec l’USB Type-C, le vecteur de nombreux rushes de films issus de cameras modernes. Ici, Apple propose exactement ce qu’il faut à une machine estampillée « créative » avec de quoi lire le plan que l’on vient de capturer sans avoir à sortir un adaptateur ou à se tourner vers une connectique alternative et plus mal placée. Ce lecteur SDXC est important et j’espère franchement que les fabricants PC en prendront note. Une petite LED blanche, témoin de la mise sous tension de l’engin illumine également la partie inférieure droite du châssis.

A l’arrière, la connectique est assez complète également avec quatre autres ports USB Type-C au format Thunderbolt 4. Des connecteurs qui seront capables aussi bien de prendre en charge des éléments externes comme du stockage ou un dock supplémentaire mais également des affichages. Le Mac Studio peut, par exemple, piloter quatre écrans en « 6K » et un autre écran en 4K grâce au port HDMI. 

Deux ports USB 3.1 Gen1 sont également disponibles au format Type-A pour connecter facilement des équipements anciens ou une simple clé USB au besoin. Un port Ethernet 10 Gb est également présent pour assurer une liaison filaire classique en plus du module Wifi6 et Bluetooth 5 interne. Je suis curieux de savoir d’ailleurs comment Apple a résolu le souci posé par leur châssis en aluminium pour qu’il ne bloque pas les signaux sans fil de sa machine. La présence d’un haut parleur interne au châssis pour livrer un son minimal me pose également question mais j’imagine que la qualité sonore n’est pas l’élément recherché ici par Apple alors que la robustesse et la vitesse du Wifi6E est importante pour la marque.

Un port jack audio 3.5 mm avec entrée casque et sortie audio stéréo vient terminer la litanie des ports de l’engin. Il se situe à côté d’un bouton de démarrage présentant un léger relief afin d’être sensible au toucher lorsque on le cherche à l’aveugle en tâtonnant la coque.

Minimachines-03-2022

Le SoC M1 Ultra entouré de sa mémoire vive

Mac Studio : un équipement très haut de gamme

Le point clé de cette offre Mac Studio vient de son équipement interne. Apple lance en même temps que sa machine son nouveau SoC qui est le Apple M1 Ultra. Le M1 Ultra est une version survitaminée du M1 de base de la marque. Une nouvelle solution SoC proposant 20 coeurs ARM, 64 coeurs graphiques et un circuit dédié à l’intelligence artificielle de 32 cœurs supplémentaires. Oubliez vos a priori sur le monde ARM, ici il s’agit d’une puce imposante, puissante et demandant beaucoup d’énergie et dégageant énormément de chaleur. On est loin du premier M1 des Mac Mini sur tous les points.

Le M1 Ultra du Mac Studio développe de très belles capacités de calcul et de gestion plus spécifique de certaines tâches et en particulier de la vidéo. Son aptitude à prendre en charge des flux vidéos et à les traiter avec aisance est impressionnante. 

Pour bien comprendre le travail effectué par Apple sur ces SoC, il faut remonter au M1 qui a été le lancement de cette gamme de puces et le point de basculement d’Apple. La première solution non Intel depuis des années chez le constructeur avec des résultats déjà incroyables. Il a été secondé par les M1 Pro et M1 Max. Aujourd’hui débarque le M1 Ultra.

Le M1 Max est pourtant la clé de voute de cette nouvelle offre. Cette puce offre 10 cœurs ARM avec 8 éléments haute performance (Big) et deux plus efficaces (Little).  De 24 à 32 cœurs graphiques sont intégrés à l’ensemble suivant les variants du modèle de M1 Max proposé. 16 cœurs Neural Engine pour l’IA sont également intégrés. Au final le M1 Max 32 cœurs graphique est quatre fois plus performant que le M1 d’origine. Sa mémoire embarquée grimpe à 64 Go avec une bande passante de 400 Gb/s. Le circuit de traitement vidéo est également plus performant que celui du M1 Pro et propose deux unités spécialisées dans la gestion d’un format ProRes très gourmand.

Et c’est de ce M1 Max que nait le M1 Ultra puisqu’il s’agit en réalité de deux M1 Max associés par un système de dialogue baptisé UltraFusion. Avec une bande passante de 2.5 TB/s, ce pont entre les deux puces offre une très faible latence et un dialogue optimisé entre les deux cœurs. Evidemment ce « collage » double les composants du M1 Ultra par rapport au M1 Max. On retrouve donc 20 cœurs avec 16 cœurs rapides et 4 cœurs plus efficaces, un circuit graphique 64 cœurs et un Neural Engine de 32 cœurs. 114 milliards de transistors au total et des éléments clairement hyper spécialisés dans certaines tâches. Apple met en avant les capacités de ces deux solutions et en particulier leur efficacité en terme de consommation d’énergie.

Les graphiques d’Apple sont toujours aussi peu lisibles et fiables puisqu’on manque cruellement de détails dans ses protocoles de test et dans les éléments testés. Mais l’idée générale est de proposer une excellente performance pour une consommation bien plus faible qu’une machine équivalente au format x86 classique. Toujours est t-il que, de même que le Apple M1 a surpris beaucoup de monde en terme de performances et cela même en émulation d’applications non optimisées, les M1 Max et M1 Ultra devraient relever la barre beaucoup plus haut de part les optimisations effectuées et la simple multiplication des transistors embarqués.

L’absence d’un circuit graphique indépendant est, bien entendu, un gros point positif pour la solution Apple en terme d’efficacité énergétique. Même si cette absence aura des conséquences en terme de rendu 3D pour le jeu, par exemple. Quand Apple parle de performances, la marque oriente son point de vue sur des usages spécifiques comme le traitement vidéo et le calcul brut classique. Pas forcément de la même manière qu’un PC qui se base beaucoup sur les capacités 3D en temps réel demandés en jeu pour s’évaluer. Les Mac Studio ne sont pas spécifiquement des machines de loisir et il est logique qu’Apple oriente son discours ainsi. Même si cela profite beaucoup à son message de performance face aux PC classiques sous solutions X86 qui ont recours à un circuit graphique spécialisé très gourmand en énergie.

Point essentiel de l’offre des SoC Apple, la mémoire vive embarquée directement sur la puce. Cette mémoire qui proposera une bande passante de 400 GB/s en version M1 Max et 800 GB/s en M1 Ultra pourra atteindre 128 Go sur ce dernier en option avec 64 Go de base. Le M1 Max sera, quant à lui, établi sur une base de 32 Go et pourra évoluer vers 64 Go au maximum. 

A l’intérieur des Mac Studio, on retrouvera de 512 Go à 8 To de stockage NVMe PCIe avec une vitesse maximale annoncée de 7.4 GB/s. Des capacités impressionnantes qui mènent d’ailleurs les engins à des tarifs élevés dans leurs développements les plus importants. Prix de base du Mac Studio en version M1 Max 24 cœurs avec 32 Go de mémoire et 512 Go de stockage ? 2299€. Prix de base de son équivalent entrée de gamme Mac Studio M1 Ultra 20 cœurs, un GPU 48 cœurs avec 64 Go de mémoire vive et 1 To de stockage ? 4599€.

Les options peuvent pousser les engins bien plus haut en terme de tarif, le passage à une puce M1 Ultra 20 cœurs et un GPU 64 cœurs ? +1150€. Le doublement de la RAM pour atteindre 128 Go demandera 920€ supplémentaires. Le saut de 1 To à 8 To de stockage SSD NVMe rajoutera 2530€ à la note. Prix total pour cet engin dans sa version la plus extravagante ? 9199€.

Un prix très élevé donc, mais qui propose un produit sans réelle alternative sur le marché. Il est difficile d’appréhender le Mac Studio comme un PC lambda sous Windows. La machine est une solution à mi chemin entre l’ordinateur personnel et l’engin spécialisé. Le fait qu’Apple intègre ses circuits sur un SoC spécifique au lieu de les glisser dans des composants plus épars laisse penser que l’on a une machine classique. Il n’en est rien. Les composants spécialisés sont bel et bien intégrés dans les puces M1 Max et M1 Ultra de la marque et ils composent leurs capacités avec le développement logiciel tout aussi spécifique des logiciels Apple.

Les prix demandés par la marque pour les versions les plus musclées s’expliquent également par les implantations effectuées. Les 128 Go de mémoire vive sont unifiées au SoC M1 Ultra ce qui a un coût très différent des solutions externes. Non seulement la production coûte plus cher mais Apple doit en gérer tous les aspects au lieu d’au contraire faire jouer la concurrence de différents fournisseurs. Le stockage est peut être la solution la plus critiquable, encore qu’elle participe au fonctionnement du marketing de la marque. En posant l’engin dans une configuration au prix très élevé avec un SSD de 8 To, Apple offre des alternatives plus « accessibles » dans les déploiements en 1, 2 et 4 To. Ce qui rend mécaniquement ces offres plus « raisonnables ». Il y a également qu’Apple vise ici une clientèle professionnelle qui ne se posera pas forcément la question du tarif de l’engin avec des amortissements à long terme.

Evidemment, Apple marge de manière considérable sur ses Mac Studio, cela va de soi, mais il est totalement contre productif de comparer les prix du marché des ordinateurs sous Windows et leur assemblage avec celui d’Apple aujourd’hui. Il ne reste pas grand chose de commun ni dans la philosophie ni même dans les composants embarqués.

Que penser de l’Apple Mac Studio ?

Il faudra laisser le temps à des acteurs indépendants de réaliser l’ensemble des tests nécessaires pour évaluer réellement l’étendue des possibilités de ces deux machines. Le grand public est moins concerné par ces engins qu’il l’a été par le Mac Mini M1 mais le monde de l’édition vidéo et de nombreux métiers créatifs devraient prendre note de l’apparition de ces solutions qui ont le bon goût de concentrer énormément de performances dans un boitier aussi discret que compact.

L’intérêt pour Minimachines est évident. Le saut que vient de faire Apple est impressionnant, la marque a raboté son boitier tout en proposant plus de performances. Cela est dû à son changement stratégique avec le passage d’une technologie de processeur x86 vers une solution ARM. Ce même passage est sensible dans le monde x86 en général avec des machines toujours plus compactes et rapides, des portables de plus en plus légers et autonomes. C’est le sens de l’histoire depuis l’émergence de l’informatique et l’apparition des PC personnels.

La modularité reste évidemment la solution la plus efficace et économique sur le marché, le fait de pouvoir composer un ordinateur sur mesure pour répondre à ses besoins spécifiques est la grande force du monde PC. Cela permet d’obtenir un engin adaptable aux besoins de chacun en rajoutant une carte supplémentaire, plus de mémoire ou de stockage. Une vision qui colle bien aux appétits mouvants d’un usage de particulier. Mais on sent également une volonté de basculer vers des solutions plus compactes, moins visibles et moins bruyantes. Cela passe par des choix techniques, des appétits qui évoluent et des offres de fonctions externalisées de plus en plus présentes comme le Cloud-Gaming par exemple.

Le Mac Studio pense différemment, il se veut comme une machine performante pensée avant tout pour le monde professionnel. Il ne correspondra donc pas ni au budget ni aux aspirations d’un particulier. A moins d’être un vrai mordu de montage vidéo UltraHD, réalisateur amateur, ou autre,  nul besoin d’un engin de ce genre dans votre chambre ou votre salon. Pas plus qu’un tracteur sur votre place de parking ou qu’un projecteur de cinéma dans votre appartement. Un PC classique, un Mac M1 ou un Mac Mini M1 seront plus adaptés à vos besoins.

Reste qu’Apple offre ici une belle leçon technique avec des éléments impressionnants dans la qualité d’implantation de la machine. La gestion d’un scénario de ventilation à minima, l’intégration de l’ensemble dans ce châssis et la disposition générale montrent que l’on peut faire du compact de grande qualité. Cela n’aura malheureusement qu’une faible influence sur le marché PC pour diverses raisons.

Le MacPro sous Intel Xeon W d’Apple, un changement d’échelle.

D’abord parce que penser comme Apple entrainerait des surcoûts élevés à performances égales. C’est un des travers du monde PC qui ne réfléchit souvent qu’en terme de puissance de traitement et de capacités maximales. On veut plus de vitesse et de Gigaoctets avant tout. Et si un concurrent essayait de proposer un système de ventilation haut de gamme pour faire en sorte que son engin soit inaudible, cela serait quasiment invisible pour l’acheteur final. Les fiches techniques n’en parleraient que peu, les revendeurs n’en parleraient pas et une grande partie des acheteurs ne seraient pas sensible à cet argument.  Si le PC en question était juste un peu plus cher qu’un produit concurrent avec le même niveau de performances, même si la machine concurrente était bruyante, le PC le plus cher aurait bien du mal a se vendre.

Dans le même esprit, personne ou presque ne va aller regarder les efforts d’intégration de sa machine. Et, si cela est fait, c’est après les considérations de prix et de performances. Le pari de proposer un engin aussi bien intégré sur un segment aussi concurrentiel semble donc délicat. Chez les constructeurs on préfère souvent masquer des boitiers et des intégrations médiocres avec des LEDs de toutes les couleurs et des effets sans réel impact sur l’usage de la machine.

Il faudra encore quelques générations de puces pour que le monde PC puisse arriver à des intégrations de ce type. AMD et Intel travaillent a rendre certaines de leurs solutions moins gourmandes en énergie et plus efficaces. Cela n’ira pas aussi vite qu’Apple avec son changement de technologie mais le temps de solutions à la fois très rapides et de format hyper compact devrait arriver un jour ou l’autre. Reste la problématique des processeurs graphiques qui, de génération en génération, deviennent plus encombrants et gourmands en énergie. Un problème qu’Apple a résolu de manière élégante avec ses M1 et qui propose un Mac Studio sans aucune correspondance technique en terme de traitement vidéo aujourd’hui dans le monde PC. Mais une équation qui semble toujours aussi insoluble pour les joueurs et professionnels désireux de conserver un environnement différent d’une base MacOS.

Apple lance les Mac Studio équipés de SoC M1 Ultra © MiniMachines.net. 2022.

AMD lance les Ryzen 6000HS avec circuit graphique RDNA2

AMD a annoncé en début d’année une nouvelle gamme de processeurs Ryzen 6000HS pour machines mobiles au sein de deux gammes distinctes. Les U-Series de 15 à 28 watts et les H-Series de 35 à 45W+. Présents dans cette seconde gamme de processeurs, ces séries « HS » viennent d’être officiellement lancées.


Les nouveaux Ryzen 6000HS vont débarquer dans une nouvelle galaxie de machines mobiles signées Acer, Asus, Alienware et Dell, HP, Lenovo, Razer et bien d’autres. Une gamme de solutions  allant du PC ultrafin qui se contentera de son très bon circuit graphique RDNA2 embarqué, à des engins plus musclés qui accompagneront les processeurs de puces graphiques externes.

La gamme de Ryzen 6000HS est composée de quatre puces en Ryzen 5, Ryzen 7 et Ryzen 9. Ils exploitent l’architecture Zen 3+ d’AMD et leur  circuit graphique est d’architecture RDNA 2. Ils sont tous gravés en 6 nanomètres. La gamme est composée ainsi :

  Cores / Threads Fréquences Base / Max Cache L2 + L3 Coeurs et Fréquences GPU TDP
Ryzen 9 6980HS 8 / 16 3.3 GHz / 5 GHz 20MB 12 / 2.4 GHz 35W
Ryzen 9 6900HS 8 / 16 3.3 GHz / 4.9 GHz 20MB 12 / 2.4 GHz 35W
Ryzen 7 6800HS 8 / 16 3.2 GHz / 4.7 GHz 20MB 12 / 2.2 GHz 35W
Ryzen 5 6600HS 6 /12 3.3 GHz / 4.5 GHz 19MB 6 / 1.9 GHz 35W

Les premiers retours de ces puces Ryzen 6000HS ont lieu principalement grâce à deux machines signées Asus et Acer. Le Asus ROG Zephyrus G14 et la dernière fournée du Acer Nitro 5. Les tests de ces nouvelles machines devraient bientôt arriver et nous donneront une bonne idée de leurs capacités. 

Les premiers constats risquent toutefois d’être assez amers puisque le gain en performances sera sans doute assez léger par rapport à la génération précédente de Ryzen 5000. On parle d’une évolution inférieure à 10% en terme de performance brute. C’est peu mais cela cache un détail assez important, l’efficacité énergétique est meilleure sur cette génération de puce. Ce qui veut dire que vous n’aurez certes pas une évolution monstrueuse de vos performances mais une meilleure gestion de celles-ci et une plus vaste autonomie de l’ensemble. Et cela sans compter le passage d’un circuit graphique Vega au RDNA2 sur ce type de gamme mobile. Les Ryzen 6000HS disposent de 6 à 12 cœurs graphiques avec des fréquences assez élevées qui leurs donnent un vrai bonus de performances.

Mais la vraie particularité de ces Ryzen 6000HS vient de leurs limitations. Ce sont tous des processeurs en 35 watts de TDP. Une consommation techniquement très intéressante et relevée depuis des années par Intel dans ses puces Core de séries T. Une dépense qui vise le mobile et les machines très compactes comme les MiniPC. Des processeurs plus faciles à discipliner en terme de chaleur mais proposant d’excellentes performances malgré tout. On profitera ici de toutes les nouveautés d’AMD : une architecture Zen 3+ qui embarque un circuit graphique RDNA 2. Le tout laissé aux bons soins de fabrication de TSMC et de ses lignes de production 6 nanomètres.

Le but avoué d’AMD avec cette gamme Ryzen 6000HS est de trouver le meilleur ratio entre performance et autonomie, le Saint Graal en mobilité. Et le moins que l’on puisse dire c’est que la marque a su trouver un équilibre assez impressionnant entre les deux postes. Pour AMD le concurrent direct du Ryzen 9 6900HS chez Intel semble être le Core i9-12900HK, une puce au TDP de 110 watts. Alors soyons d’emblée très clair sur ces TDP, ni AMD ni Intel ne respecte vraiment la valeur réelle de ces indications. Il s’agit d’enveloppes définies de manière assez impérieuse et qui sont régulièrement dépassées par les deux processeurs suivant la configuration dans laquelle ils sont implantés. Ainsi la puce d’Intel ne restera pas du tout à 110 watts de consommation en permanence mais établira d’elle même un TDP en fonction du besoin en ressources de ce qu’on lui demande et des impératifs techniques de son environnement : chaleur dégagée et ressources en autonomie. Ces 110 watts de TDP peuvent être vus comme un maximum de consommation sur une machine mobile. Chez AMD c’est le même scénario, un engin sédentaire, branché sur secteur et posé sur un poste ventilé aura un comportement très différent en mode mobile. Les TDP, et donc la réserve de watts disponibles pour alimenter les processeurs, variera amplement.

Et tout l’effort mené par AMD pour ces Ryzen 6000HS a été de trouver le meilleur développement de performances sur les TDP les plus bas, les plus utiles en mobilité. La marque l’indique elle même, en 35 watts comme en 45 watts, 25 watts ou 15 watts, les machines équipées de ces processeurs seront parmi les plus performantes du marché. Et cela en partie parce que les puces d’AMD sont équipées uniquement de cœurs haute performances et non pas d’une solution Hybride comme celle d’Intel.

Il faudra évidemment juger sur pièces mais les premiers indices laissent penser que cette solution est plus compétente sur les TDP les plus faibles. Nous auront probablement le loisir de juger sur pièces, la marque indique que plus de 200 machines sous Ryzen 6000 – toutes références confondues – sont dans les cartons des constructeurs.

Parmi ces références donc, des modèles de portables sous Ryzen 6000HS qui visent un des poste clé du marché actuel : des machines relativement fines et légères, suffisamment performantes pour piloter des jeux modernes, des applications créatives mais en deçà des solutions les plus rapides qui ne touchent pas la majorité du public. AMD vise clairement un segment très porteur de l’offre actuelle en matière de PC Portable. Il a donc créé cette gamme de puce pour y répondre le mieux possible. De cette nouvelle gamme, qui devrait être disponible aux mois de mai/juin prochain, on devrait espérer non seulement des performances mais également des services et de l’autonomie. Deux modèles ont déjà commencé a apparaitre avec un Asus ROG Zephyrus G14 2022 qui embarque une Ryzen 9 6900HS et un Acer Nitro 5 sous Ryzen 7 6800HS.

Le changement de finesse de gravure explique en partie l’évolution des performances de ces puces. Le passage d’un mode de gravure de 7 nanomètres à 6 nanomètres offre à cette gamme une augmentation de 18 % de la densité des processeurs. Et cela sans avoir a changer la puissance nécessaire pour les faire fonctionner. Cette évolution additionnée à d’autres postes comme l’évolution vers de la mémoire vive DDR5 et l’ajout d’un nouveau circuit graphique RDNA2, pousse plus avant les capacités de ces modèles.

Cinq points ont été optimisés par la marque de manière a augmenter la performance par watt des puces proposées. C’est un élément essentiel a comprendre pour vraiment saisir cette gamme. AMD n’a pas forcément cherché a faire plus rapide que l’ancienne génération de puces sur tous les postes mais a proposer au moins aussi bien pour moins de consommation en énergie. Ce qui suppose une chauffe moins importante, moins de bruit et une meilleure autonomie pour le même résultat.

L’architecture du processeur nous montre le détail des changements effectués par AMD. On remarque par exemple l’arrivée d’une gestion très différente de la mémoire vive avec le passage vers la DDR5-5200 et LPDDR5-6400. Celle-ci communique désormais via un double contrôleur 128 bits. Pas moins de quatre contrôleurs 32 bits se combinent pour améliorer le dialogue avec la puce. La partie graphique des processeurs en profitera et le circuit RDNA 2 tirera partie de cette bande passante également. Le contrepoint de ce choix technique des Ryzen 6000 sera une augmentation du prix des engins face à des solutions en DDR4. Un élément qu’il faudra tempérer par la pérennité de ces offres dans le temps.

L’optimisation de la finesse de gravure a également permis à AMD de mieux employer l’espace disponible sur ses puces. Cela passe par une optimisation du placement des transistors et de leur vitesse en fonction des besoins de chaque zone. 50 nouvelles fonctions ont été ajoutées dur cette génération Rembrandt et des efforts supplémentaires ont été portés pour améliorer la consommation électrique. De quoi assurer une meilleure autonomie mais également proposer une plus grande tenue des hautes fréquences de ces processeurs.

Une fonction intéressante est également proposée avec le PC6 Restore. Une fonctionnalité qui permet d’accélérer matériellement la restauration de session après une mise en veille profonde. La marque déclare que cette fonction sera désormais quatre fois plus rapide qu’avec un processeur AMD Cézanne. Un détail pas si anodin car cela proposera un travail en saut de puce où on n’hésitera plus a mettre en veille sa machine si on est sûr de pouvoir la retrouver prête à l’emploi en un instant.

Autre point clé, l’arrivée du CPPC qui va permettre aux systèmes d’exploitation de confier des tâches à des coeurs spécifiques. Une fonction clé pour gérer aux mieux les besoins du système et des programmes. Sur un Ryzen 6000, seuls deux coeurs peuvent prétendre à la fréquence de Boost maximale. Sur un Ryzen 7 6800HS par exemple, le système fonctionne de 3,2 à 4,7 GHz sur 8 coeurs mais seuls 2 coeurs dur les 8 peuvent fonctionner à 4,7 GHz. Il sera inutile et contre productif de donner les tâches les plus ardues à des coeurs cadencés à 3,2 GHz pendant que des tâches plus simples seraient traitées par les coeurs les plus rapides. Avec le CPPC l’ensemble sera directement harmonisé au mieux. Bien d’autres optimisations ont été intégrées aux processeurs, en particulier en terme de gestion de la mémoire cache disponible. De nouveaux postes sont visibles dans le schéma de ces puces avec en particulier l’apparition de la solution de sécurité Microsoft Pluton. Un co-processeur TPM 2,0 qui protégera au mieux votre machine contre les intrusions locales et toute installation de programmes vérolés. Cette technologie assurera également la distributions de mises à jour logicielles certifiées.

Cet ensemble de modification ne changera toutefois pas spécialement la donne d’un point de vue performances pures entre les Ryzen 5000 et ces nouveaux modèles. En réalité le choix fait par AMD est légèrement différent d’une course à la performance brute. Face à un processeur Intel Core-H de 12e Gen il est même possible que les puces Ryzen 6000 soient moins bien positionnées par défaut. Mais dès que l’on réduit les watts disponibles pour les puces des deux fabricants la solution d’AMD devrait être plus efficace. Peut être pas de la manière dont AMD les annonce, avec des chiffres parlant de plus de 2,62 fois plus efficaces, mais très certainement à son avantage.

En clair, dans un scénario d’usage de portable en mobilité, avec une puce bridée en 35 watts pour économiser de l’énergie, les solutions AMD Ryzen 6000HS seraient finalement plus rapides. Une fois de retour en mode sédentaire, ce seraient les Core d’Intel qui reprendraient l’avantage. Peut être une question de philosophie d’usage pour l’acheteur. Savoir si on va lancer une opération très gourmande en mobilité tout en sachant qu’on perdra alors pas mal de performances et d’autonomie ou si on réservera ces usages en mode sédentaire ? Ou bien  choisir de garder la possibilité de trouver le meilleur ratio performances / autonomie à l’usage avec une puce finalement plus musclée au quotidien lorsque l’on est loin d’une prise de courant ?

Autre point clé de l’offre d’AMD, le RDNA2 qui semble offrir des capacités étonnantes au Radeon 600M embarqué. AMD le positionne loin devant l’Intel Iris Xe et même le rapprocher à un cheveux d’une solution mobile Nvidia GeForce RTX 1650.

On est dans tous les cas loin de l’offre passée d’AMD qui avait très peu d’outils pour venir se battre contre un Intel omniprésent sur les solutions à faible TDP. Avec les Ryzen 6000HS et les 6000 en général, la marque se positionne désormais comme une alternative très crédible. Le marché ne s’y est d’ailleurs pas trompé. Il est loin le temps où AMD n’apparaissait que dans quelques références anecdotiques et rarement disponible. Désormais les puces Ryzen font largement jeu égal avec les Core et, force Intel a se réveiller.

Quoi qu’il en soit ces Ryzen 6000HS semblent être la meilleure solution jamais proposée par AMD pour construire des engins mobiles et compacts, performants et autonomes mais également des MiniPC de nouvelle génération. Les Ryzen 6000-U et 6000H/HX ont également d’énormes potentiels sur le segment mais ils s’adressent à d’autres formes de machines.

AMD Ryzen 6000, du silicium neuf pour machines mobiles

AMD lance les Ryzen 6000HS avec circuit graphique RDNA2 © MiniMachines.net. 2022.

❌