AMD annonce des puces Strix Halo devant les RTX 4070 mobiles

AMD aurait-il trouvé la méthode miracle ? Celle qui permettrait à ses puces Ryzen Strix Halo de renverser la vapeur face à Nvidia ?

Annoncées au CES en janvier, les puces mobiles Strix Halo d’AMD montraient des capacités impressionnantes. On parle ici de 16 cœurs Zen 5 associés à un circuit graphique développant 40 Compute Unite RDNA 3.5 et une bande passante très élevée.

Tous les ingrédients pour concevoir une puce très haut de gamme et aux performances remarquables. AMD ne cache pas sa fierté par rapport à cette gamme de processeurs, assurant qu’il s’agit ici du modèle de processeur mobile le plus incroyable jamais mis à disposition du grand public. Et comme d’habitude avec ce genre d’annonce, la marque ne peut s’empêcher d’étaler un tableau comparatif face à son éternel concurrent Nvidia. Un tableau tout à son honneur évidemment.

Car pour mettre en valeur ses compétences, il ne suffit pas d’étaler des éléments techniques. Pour vraiment être pris au sérieux, il faut montrer ses muscles. Le Ryzen AI Max+ 395 par exemple déploie 16 coeurs Zen 5 et 32 threads. Il propose également un circuit graphique Radeon avec 40 cœurs RDNA 3.5. Le tout fonctionnant dans un TDP de base de 55 watts pouvant évoluer de 45 à 120 watts au total suivant son intégration. Le constructeur intégrant cette puce peut par ailleurs offrir à la puce un plateau d’argent de mémoire vive avec un total maximal de 128 Go. 128 Go dont 96 Go peuvent être employés uniquement par le circuit graphique si le système propose cette option.

Ce scénario d’excellence mis en avant dans les tableaux de comparaison par AMD est un montage de laboratoire. Il prend les meilleurs composants, les mélange avec la configuration la plus avantageuse et ne prend pas en compte des détails techniques accessoires, comme, au hasard, l’autonomie de l’engin. Le bruit généré par la ventilation qui lui est nécessaire ou la chaleur dégagée par le système. Seule la performance compte.

 

Et pour faire bonne mesure, AMD met en face un produit équipé par Nvidia avec un circuit GeForce RTX 4070 mobile. Un Asus ROG Flow Z13 qui combine un processeur Intel Core i9-13900H et un circuit mobile RTX 4070. Une machine de génération précédente lancée en 2023, mais surtout un produit dont la puce mobile est conçue pour rester dans un TGP de 65 watts. Pourquoi ? parce que le ROG Flow est une tablette avec un clavier amovible. Pas un PC de jeu classique. Asus a choisi ici de proposer un engin mobile de 13.4 pouces tout à fait inhabituel sur le marché du PC de jeu. 

Le ROG Flow d’Asus est une tablette de jeu

C’est donc une comparaison pour le moins biaisée qui est proposée. Un système de laboratoire d’un côté pour AMD et une solution pleine de compromis pour répondre à un cahier des charges particulier de l’autre pour le duo Intel / Nvidia. Un peu comme si vous mettiez au départ de la même course deux champions internationaux de la discipline, mais que vous chaussiez le premier de chaussures à crampon et le second de chaussures de ski.

Dans ces conditions, AMD clame que son processeur Strix Halo 395+ est devant la puce de Nvidia. Avec des tests parfois assez sauvages pour différencier les deux : on note par exemple que sur certains jeux, comme Borderlands 3, la puce d’AMD est 68% plus rapide que la formule concurrente. 

En matière de productivité, le test est encore plus fou avec des scores sous Blender qui positionnent la puce d’AMD plus de 300% devant celle d’Intel. Mais il ne faut pas perdre de vue la différence de génération et de consommation des deux processeurs. On parle ici d’une solution 17 Watts chez Intel face à une puce 30 watts chez AMD. Les presque avantages du Strix Halo face au SoC Apple M4 Pro varient beaucoup suivant les usages. Passant de 86% en V-Ray à 12% sir Cinebench R24. Les éléments techniques liés aux calculs NPU sont comme souvent assez dépendants des LLM utilisés. Certains semblent plus au goût du processeur AMD que d’autres.

Cette image annonce clairement la couleur. Il s’agit d’un argumentaire de formation destiné à vendre les puces. « Comment vendre » la nouvelle gamme AI Max. Ici en mettant en avant les capacités de calcul des puces en matière d’Intelligence Artificielle. Il s’agit d’un ensemble d’informations destinées à appuyer sur les bons boutons, tirer les bons leviers pour convaincre un client. Un argumentaire qui n’a rien de faux en soi, mais qui n’a pas pour but d’être parfaitement scientifique malgré l’avalanche de chiffres présentés. Comparer le nombre de TOPS maximum que proposeront plusieurs puces n’éclairera sans doute pas le client final sur les suages des NPU embarqués. Mais cela permet de dire que la solution est parée pour l’avenir dessiné par l’industrie. Avenir qui semble être fantasmé comme un monde ou l’IA fera bientôt tout  votre travail à votre place.

Ce qu’il faut retenir de ces tableaux d’AMD sur le Strix Halo

Ne prenez pas cette présentation pour autre chose que ce qu’elle est. Il s’agit ni plus ni moins qu’une pratique de Cherry Picking traditionnelle. On prend les éléments les plus avantageux pour ce que l’on veut démontrer en exploitant les matériels qui permettront la meilleure mise en scène. L’objectif étant de faire passer le message assez simple que les puces Strix Halo sont équivalentes en performances aux puces RTX de génération précédente. Ce n’est pas la première fois qu’AMD propose ce genre de scénario et à la sortie des RTX 40, des tests du même type mettant en scène les RTX 30 ont également été publiés.

Non ce qu’il faut retenir ce n’est pas la comparaison classique entre les puces qui n’a pas beaucoup de sens au vu des conditions du test. C’est plutôt que les performances de Strix Halo sont exceptionnelles pour une puce mobile. Il n’est point besoin de faire jouer son processeur face à des concurrents incapables de déployer tout leur potentiel pour s’en rendre compte. La puce est performante sur l’ensemble des services demandés et préfigure une génération de machines assez incroyables. La preuve, le nouvel Asus ROG Flow de 2025 est attendu avec un Strix Halo. Un portable sous Ryzen AI Max+ 395 sera vraiment un monstre en termes de capacités pour des usages très variés et c’est une excellente nouvelle pour le marché.

Cette méthode marketing qui distille une vision d’un processeur unique plus performant qu’une solution combinant deux puces chez les concurrents a probablement deux objectifs. Vous faire croire que c’est la vérité bien sûr. Mais pour cela, il sera toujours temps d’attendre des tests indépendants qui mesureront précisément les écarts dans des conditions adéquates. Mais aussi adapter votre cerveau à la température des prix qui vont être pratiqués. En associant Strix halo à une solution processeur et carte graphique positionnée sur un segment haut de gamme, AMD marque sa grille tarifaire vers le haut. Rendant moins difficile l’acte d’achat dans le futur pour les machines ainsi équipées.

Pouvoir se positionner face à une solution RTX 4070 souvent vendue à un tarif très élevé, c’est le cas pour le ROG Flow 2023 par exemple, est un défi pour AMD. La production de ce genre de publication produit clairement un biais qui va avoir tendance à relativiser le prix demandé. En auto-anticipant un prix élevé, on désamorce le réflexe d’un choc de tarif en tant qu’acheteur. On se prépare psychologiquement à cette dépense et le cerveau croit alors que cela est justifié alors qu’il y a été juste préparé. C’est la même méthode que celle pratiquée par le vendeur d’antiquité qui ne vous répond surtout pas à la question posée du prix d’un beau meuble mais commence toujours par vous raconter son histoire. Préparer le terrain, c’est mieux réussir sa vente.

 

Strix Halo, des puces mobiles haut de gamme chez AMD


Soutenez Minimachines avec un don mensuel : C'est la solution la plus souple et la plus intéressante pour moi. Vous pouvez participer via un abonnement mensuel en cliquant sur un lien ci dessous.
2,5€ par mois 5€ par mois 10€ par mois Le montant de votre choix

Gérez votre abonnement

17 commentaires sur ce sujet.
  • 31 janvier 2025 - 12 h 18 min

    Bien vu l’analyse de la tablette du Row flow 13 !

    Il y a aussi la mention « competes rx4070 *at TDP and similar form factor* » et le « up to » sur les performances quand on sait que les latences et les chutes de fps sont plus marquées chez amd en général pour le moment.

    Adapter le matériel à ses besoins logiciels et d’usage est notre commun partagé sur ton site (exemple : un picotracker avec son rp2040 ou un dirtyM8 avec son Teensy4.1 qui suffisent bien pour prototyper et faire de la musique électronique). Sans compter que le low tech devrait aider à développer du matériel à la meilleur performance énergétique et de matériaux pour une tache donnée.

    Hâte de voir tout de même les performances énergétiques de ces puces.

    Répondre
  • 31 janvier 2025 - 12 h 46 min

    de belle machine pourrait être faite… 120W, bien hate de voir cela dans certain machine

    mais le prix…. risque d’être encore plus salé que les AI 9 HX 370

    Répondre
  • SDK
    31 janvier 2025 - 13 h 08 min

    J attends surtout ces puces dans les mini pc.

    Répondre
  • to
    31 janvier 2025 - 13 h 30 min

    96 Go pour le circuit graphique ca va etre sympa pour faire de l’IA

    Répondre
  • CHP
    31 janvier 2025 - 15 h 39 min

    Humm… Je dirais que NVidia nous la joue exactement de la même manière avec ses puces mobiles (et depuis longtemps).

    Entre les chiffres théoriques qui sont affichés et la réalité il y a un monde et c’est dû principalement au monde du jeu sur portables. On ne compte plus les problèmes de ralentissements des puces CPU Intel et GPU NVidia dus au « throtlling » et à cause de problèmes de ventilations mal adaptées aux « longues sessions de jeu ». (Ou, comme moi, lors de longues périodes d’encodages vidéo).

    (Je note, au passage, que les tests des cartes graphiques sont toujours faits avec des jeux et très rarement avec des outils de montages vidéo ni sur des durées réelles de séances de jeu).

    Les chiffres affichés, et forcément avantageux, sont pratiqués par tous les constructeurs technologiques et pas que de la part d’AMD, Intel ou Nvidia. Par exemple : Qui peut encore croire aux chiffres affichés WLTP pour les véhicules électriques?

    Et NVidia qui annonce, avec les RTX5080 et RTX5090, des fréquences d’images triplées par rapport à la génération précédente mais uniquement sur les jeux supportés et sans gain majeur pour tout le reste (hors jeux).

    Répondre
  • 31 janvier 2025 - 21 h 16 min

    @CHP: L’encodage vidéo se fait sur une puce dédiée à cette fonction et n’utilise pas le GPU (enfin à proprement parler), je ne vois pas comment cela engendrerait des problèmes de ventilation/refroidissement soudains.

    Répondre
  • 31 janvier 2025 - 21 h 42 min

    Au moins AMD sait encore faire des GPUs qui se contentent en premier lieu de reproduire un rendu vidéo et graphique tel que voulu par le développeur/concepteur de logiciel ou du jeu et non plus simplement interpréter une information à sa sauce (coucou Nvidia et ses unités fakes frames, fake ia) pour afficher une image plus ou moins approximative.

    Répondre
  • 31 janvier 2025 - 22 h 06 min

    @Le breton: C’est pas vraiment le sujet ici. Le sujet c’est de comprendre le biais induit par ce genre de communication. Et oui, cela fonctionne aussi dans l’autre sens.

    Répondre
  • CHP
    1 février 2025 - 11 h 27 min

    @Le breton:

    Çà fait très longtemps que les fonctions de décodage et d’encodage vidéo sont intégrées aux GPUs (ATI, AMD, NVidia et Intel) et qu’on utilise plus des circuits (cartes) dédiés à cet effet.

    En fonction de la complexité du codec (MPEG, H264, H265, AV1, VP9…) mais aussi du mode d’encodage (software, hardware, OpenCL, mixte) cela prend de plus en plus de puissance GPU lors des encodages et par conséquent cela fait chauffer le GPU (dGPU ou eGPU). Si tu fais de montages et encodages multipistes (plusieurs audio et plusieurs vidéo plus les effets spéciaux), cette phase d’encodage, issues de logiciels « PRO » tels que Adobe Première ou Davinci-Resolve, peuvent solliciter la totalité don ton CPU et GPU (100% du GPU et du CPU) et cela peut pas mal chauffer et ce pendant un bon moment. On est très loin du simple transcodeur de vidéos en terme de charges GPU et CPU.

    Remarque personnelle : En fonction de ce que tu veux faire comme type de montage et pour quel objectif, Chacun de ces GPUs ont des avantages et inconvénients. Par exemple : AMD est très bon pour les vidéos orientées format PAL,colorimétrie et hauts débits (Mariages, Baptèmes, Vacances,…) tandis que NVidia est plutôt NTSC (mauvais en PAL) et Youtube. Intel est moyen en tout mais est intégré aux . On choisis sa carte GPU en fonction du but recherché.

    Répondre
  • 1 février 2025 - 17 h 36 min

    @CHP: Mon explication était pas claire.
    Oui les fonctions d’encodage et de décodage se font bien sur le GPU j’en suis conscient, je précisais que c’était juste gérer par des composants dédiés et non par les unités de calcul du GPU.
    c’était bien une erreur de sémantique de ma part.

    Répondre
  • 1 février 2025 - 17 h 39 min

    @CHP: A propos de ton dernier paragraphe j’ai toujours eu des échos comme quoi AMD proposait une qualité de transcodage non pas médiocre mais de qualité moindre à ses concurrents.
    Ca aurait changé de ce côté donc ?

    Répondre
  • CHP
    1 février 2025 - 20 h 02 min

    @Le Breton:

    Je ne veux pas entamer ici un débat sur kiki a la plus grosse et Pierre n’aimerait certainement pas car il y a le forum pour ça. Mais étant très versé dans le monde du montage vidéo (et maintenant mon fils aussi) et ce depuis 1995, je peux donner mon avis sur comment à évolué ce métier:

    ATI à toujours été un pionnier dans le décodage matériel MJPEG, MPEG et MPEG2 (comme MATROX).Décodage effectué, non plus par des puces dédiées, mais par ses cartes graphiques (on ne parlais pas de GPU chez ATI à l’époque). suivi quelques temps après par NVidia.
    ATI à toujours eu (avec ses cartes PRO et AIW) et contrairement à NVidia, une qualité vidéo bien supérieure à NVidia surtout sur les contenus PAL et le traitement de l’iVTC (inverse téléciné qui permet de convertir le NTSC/60 vers le PAL/50) ce qui était très recherché quand on avait des camescopes DV NTSC (720*480/30-60fps) et le convertir dans la norme TV européenne 720/576/25 fps (et c’est toujours le cas même en 4K). Cette conversion se traduisait par un décalage du signal YPbPr et les couleurs semblaient délavées et des sauts d’images sur NVidia (malgré leur pub). Les circuits de sortie vidéo (S-Vidéo, VGA, DVI,…) sur ATI puis AMD, offraient, aussi, une image plus nette et plus fidèle (je ne sais pas pourquoi). Le résultat était une image vidéo bien plus « vendable » aux clients et nécessitant moins de corrections colorimétriques que celle obtenue avec une carte NVidia.

    Pour mes besoins actuels, j’utilise des MiniPC basé sur du Ryzen 9 7940HS et des Laptops Intel + NVidia RTX3060 et la qualité des vidéos en FHD et 4K (H264 ou H265) est toujours supérieure avec les AMD mais uniquement à haut débit (débit d’encodage supérieur à 8000Kbps). C’est un peu plus lent sur AMD que sur NVidia (1 à 2 mn sur une vidéo de 30mn) mais je trouve que cela en vaut la peine. Par contre, j’utilise les NVidia quand je veux poster sur Youtube (et que la qualité de la vidéo importe moins).
    Je constate qu’avec les laptops Intel+NVidia, j’ai plus souvent des plantages (hard) lors des montages vidéo en h264 et h265.
    Derniers constats : avec les 2 types de cartes, ça tourne bien mieux sur Windows 10 que sur Windows 11.

    Répondre
  • CHP
    1 février 2025 - 20 h 09 min

    Petite correction : l’IVTC permet de convertir depuis 24ips vers 25,30 ou 60 ips

    Répondre
  • 2 février 2025 - 22 h 38 min

    Concernant le dernier paragraphe : certes, c’est une stratégie de vente avérée. Il n’empêche, cela m’amènera à acheter des processeurs vieux d’une à deux générations, pour peu que je me décide à nouveau à acheter des pc neufs et non sur le marché de l’occaz.

    Répondre
  • 3 février 2025 - 8 h 38 min

    CHP c’est super intéressent l’historique.

    est-ce que par curiosité intel avec son quick sync (si c’est toujours ce terme) avec son petit gpu intégré est performant en qualité ou en vitesse réputation ?

    Et sous linux daVinci resolve il fonctionne mieux ?

    Répondre
  • CHP
    3 février 2025 - 9 h 43 min

    @Luc91:

    J’utilise très rarement (voire plus jamais) le Quick Sync de Intel car mes PC Intel sont tous équipés de NVidia (ou AMD) et quand on a un décodeur/encodeur bien plus efficace, on en profite. Mais j’ai fait quelques essais, à l’époque, sur d’anciens CPU Intel (pas sur les dernières générations) et c’était moyen en tout. Mais ça peut peut-être, dépanner chez certains.

    Mon Fils tourne Davinci sous Linux Mint 22 (base Ubuntu 24.04 LTS) sur un MiniPC basé sur du Ryzen 9 9740HS. Il à eu quelques problèmes au début car la configuration de DR est beaucoup plus délicate sur Linux (gestion de l’OpenCL HW et du h264 HW je crois) mais maintenant il a tout réglé et il en est très satisfait. Par contre, aucune différence de perfs avec Windows 10 si ce n’est une meilleure gestion de la mémoire.

    Répondre
  • CHP
    3 février 2025 - 10 h 19 min

    Nota : On voit beaucoup de comparaisons (sur youtube) entre les 4 moteurs d’encodages (NVenc, AMD-VCE, Quick Sync et x264) et NVenc (NVidia) est toujours le « meilleur ».

    Mais il faut garder en mémoire que ces comparaisons sont effectuées soit par des gamers qui n’ont aucune réelle notion du montage vidéo, soit pour de la diffusion sur youtube (soit pour du RIP) et quasi tous pour du 60ips (NTSC « youtube ») et non du 23.976 ips (film), 25ips (PAL) ou du 50ips (25ips entrelacé PAL TV). Comme dit plus haut, quand on crée des vidéos (et films) de qualité pour être diffusées dans nos contrées et non pas pour du « stream youtube » AMD est un cran (léger) au dessus (hors x264 mais beaucoup plus lent).

    De plus, NVenc (NVidia) sur Linux (Ubuntu), c’est une vraie galère à mettre en œuvre comparé à AMD (gros problèmes de config des drivers).

    Répondre
  • LAISSER UN COMMENTAIRE

    *

    *