L’architecture hybride des puces Phoenix 2 d’AMD se dévoile

Avec l’architecture Phoenix 2, AMD va mélanger à son tour des cœurs de deux types. Les Zen 4 classiques et les moins gourmands Zen 4c.

On connait les puces AMD Phoenix au travers des solution Ryzen 7040 qui associent des puces Zen 4 et un circuit graphique RDNA 3. Phoenix 2 va pousser un peu plus loin le concept, avec une hybridation des cœurs dans le même esprit que le big.LITTLE d’ARM. Une méthode qu’a déjà suivie Intel avec ses processeurs de 12e et 13e Gen mélangeant des cœurs Performants et d’autres plus Efficients.

Les processeurs Ryzen Phoenix 2 proposeront deux types de cœurs au sein du même circuit. L’idée est là encore de s’adapter au mieux à la puissance demandée par le système tout en économisant de l’énergie. Les premiers processeurs de ce type devraient être les Ryzen 3 7440U qui proposeront deux cœurs Zen 4 « classiques » et deux cœurs Zen 4c. Les Ryzen 5 7540U qui associeront 2 cœurs Zen 4 et 4 cœurs Zen 4c ainsi que le Ryzen Z1 avec 2 coeurs  Zen 4 et 4 cœurs Zen 4c.

La grosse différence entre Intel et AMD dans cette approche hybride vient des choix faits pour chaque type de cœur. Intel a décidé d’employer deux architectures différentes au sein de la même puce. AMD a, de son côté, choisi de réduire la voilure de ses cœurs Zen 4 mais n’en change pas les possibilités. Ainsi les cœurs Efficient d’Intel, que l’on retrouve dans les puces Alder Lake N, ne prennent pas en charge l’hyperthreading. Par contre, les cœurs Zen 4c d’AMD piloteront chacun deux threads. Ainsi un Ryzen Z1 affichera 12 Threads. Les Zen 4c auront, en revanche, moins de cache L2 et seront associés à un circuit graphique doté de moins de Compute Units. 

L’idée est encore et toujours de trouver la meilleure solution entre performances et autonomie. Les puces de ce type pouvant activer les cœurs les moins gourmands pour remplir chaque mission. Aucun besoin de réveiller un cœur Zen4 pour afficher une interface basique. Ce qui peut permettre de grapiller des watts. 

La solution d’AMD a également pour elle l’avantage de réduire l’empreinte physique du processeur comme le montre ce cliché de @9550pro. Cela va permettre de proposer une puce plus compacte mais également d’en produire plus sur le même wafer. Une pratique qui diminuera le coût de production de chaque processeur pour AMD.


Soutenez Minimachines avec un don mensuel : C'est la solution la plus souple et la plus intéressante pour moi. Vous pouvez participer via un abonnement mensuel en cliquant sur un lien ci dessous.
2,5€ par mois 5€ par mois 10€ par mois Le montant de votre choix

Gérez votre abonnement

9 commentaires sur ce sujet.
  • 14 septembre 2023 - 16 h 17 min

    On peut parler au présent, puisque ce sont les dies qui équipent les Z1 (mais vous en avez parlé).

    Selon des spécialistes, il s’agit strictement de la même implémentation logique que les Zen 4 classiques. C’est l’implémentation physique qui diffère.
    Un target de fréquence moins élevé a permis de rapprocher les transistors, du fait de distances d’isolement pouvant nécessairement être réduits.
    Une techno de cache L2 made in TSMC, utilisant 6 transistors par cellule au lieu 8 (si je me rappel bien).
    Et enfin, une stratégie de routage automatique plus fouillis, mais du coup plus optimisé, alors que les règles de l’art moderne tendent plutôt à isoler chaque bloc logique dans des grande cases, et à auto-router les circuits à l’intérieur de ceux-ci. Ca rend les designs plus modulaires, mais engendre fatalement plus d’espace gâché à l’intérieur de chaque blocs. Zen 4c aurait été conçu avec moins de blocs, de plus haut niveau, autorisant ainsi les machines de routage automatique à réaliser de meilleures optimisations de placements, en ayant moins de contraintes.

    Parc contre l’objectif des Zen 4c n’est pas nécessairement d’avoir des cœurs plus économes en énergie. D’ailleurs les premiers benchmarks indépendant ne montrerait pas de gros gains de ce côté-là, apparement. Et les ordonnanceurs intégré dans la puce et les OS ne seraient pas aussi évolué que ceux d’Intel, pour le dispatchement des tâches.
    D’ailleurs AMD a toujours considéré que ses architectures avaient toujours été extrêmement bien optimisé du point de vue de l’efficience énergétique dès la conceptions, et qu’ils n’avaient ainsi pas besoin de recourir à deux architecture différentes. Ils leur suffisaient de décliner leur gammes suivant les fréquences et TDPs, des plus économes aux plus démesurés. Et, il faut bien l’avouer, AMD n’a probablement pas les ressources pour mener de front de développement de deux architectures différentes. Déjà qu’ils ont abandonné leur prototypes ARM et qu’ils doivent bosser les RDNA/CDNA…

    L’objectif affiché des Zen 4c est bien l’économie de surface. Afin de faire des dies plus petits et ainsi les rendre moins chère pour ces phoenix 2, ou bien pour en caser massivement dans des Epic Bergamo.

    Répondre
  • 14 septembre 2023 - 17 h 11 min

    Je suppose que les petits coeurs Zen4c prennent en charge les instructions vectorielles AVX-512, non?

    Alors que les petits coeurs Alder-Lake d’Intel ne prennent en charge que l’AVX(256), les gros coeurs sont bridés en désactivant complètement l’AVX-512…
    Je ne comprends décidément pas vraiment ce recul d’Intel. (pas eu assez de temps face à AMD pour développer un petit coeur compatible AVX512? Il fallait vite sortir un CPU qui tienne la route face à un Zen3?…)

    Certes l’AVX-512 n’est pas encore très utilisé, mais Intel a retardé d’autant son adoption et généralisation dans les softs.

    Au taf, l’AVX-512 me permet des gains en vitesse de bien 20% pour des calculs mathématiques alors que l’AVX-512 n’est pas complètement vectorisé en interne: en effet l’AVX512 est encore calculé en 2 temps sur des unités AVX dans les CPU Tiger-Lake (et probablement aussi sur les Xeon Saphhire Rapids)
    Sinon, on pourrait s’attendre à de bien meilleurs gains!

    A part ça: c’est bien que le Zen4c prenne en charge l’hyperthreading, mais ce n’est pas très important à mon avis

    Répondre
  • Lee
    14 septembre 2023 - 19 h 32 min

    Franchement cette nouvelle architecture AMD hybride me fait plutot peur au final.Outre les gains qui semble bien nul, je rappelle quand meme qu’un ryzen 5800U est un 8 cores puissant HT soit 16 thread et un igpu 8 CU assez performant pour 18 watt.Je pense meme qu’on va y perdre en performance au final avec cette nouvelle plateforme 8000 hybride mobile.Si en plus on a moins de performance en igpu et moins de bon core soit 6 cores HT (2 plus performant) pour un Ryzen 5 7540U avec des performances qui n’ont pas l’air miroblante au final.Je pense que le but de la plateforme est plutot pour faire des économies de production et bénéfice a amd derriere et de rendre bien opaque la gamme pour le client.Donc grosse méfiance.On verra donc si on arrive a avoir un 16 CU a partir des 8 cores zen 4 et l’igpu sans une consommation doublé comme avec ryzen 7000 et les 12 CU, sinon ce n’est pas la peine.Les meteor lake mobile d’intel ont l’air mauvais aussi,car le 7 nm d’intel n’est toujours pas pret, il faudra attendre arrow lake mobile pour avoir 8 P cores HT, 6 P HT maximum sur meteor lake mobile, dommage.Bien sur pas de processeur meteor lake fixe, cette serie a ete annule.Arrow lake fixe en fin 2024, pas avant.Bref, c’est quand même mprose tout cela.

    Répondre
  • ron
    15 septembre 2023 - 1 h 26 min

    La gamme AMD Mendocino en péril ? Je crois qu’elle est condamnée à terme…
    Quand ? Là, c’est une vraie question ! Le fondeur TSMC, seul, connait la réponse. En fonction des usines et en fonction de son carnet de commandes (Apple est par exemple un gros client de TSMC)
    Il me senble évident que les Phoenix 2 vont ratisser large ! Architecture Zen4 + gravure 4nm + nouveau design qui combine des cores « C » pleine puissance et des coeurs « c » plus limités !!
    Effet KissCool avec les Phoenix 2, des SOCs plus compacts avec moins de matière, ça revient moins cher (Plus de puce par wafer)…
    Déjà, côté puissance graphique, on aura plus de lattitude face aux Mendocino (4 coeurs graphiques RDNA3)
    Donc, puissance graphique doublée au pifomêtre en rapport aux « anciennes » puces Mendocino !
    Possible, et même certain, on retient le facteur 2x !

    Les « Mendocino » les plus connus sont les Ryzen 3 7320 et Ryzen 5 7520 avec dans les deux cas 4 cores & 8 threads ;
    Pour ceux qui sont un peu perdu avec les gammes AMD 2022~2023 ; Rappel Mendocino, c’est « Zen 2 » et 2 coeurs graphiques RDNA2) et côté CPU, on ne cherchera pas de 6 cores (12 threads) dans la gamme, car, ça n’existe pas !
    Demain alors : Allez, on anticipe…
    -> Ryzen 3 7440U Destination Mini machines avec des performances bien au dessus des N100 Intel pour des SOCs avec…
    – 2 cœurs Zen 4 « classiques » et deux cœurs Zen 4c (2 cores C + 2 cores c (8 threads))

    -> Ryzen 5 7540U Destination Mini machines & PC portables « Acces » ou « Budget » ! Bon, rien, n’est écrit à l’avance, je suppose (sans aucune certitude) bien sûr qu’avec…
    2 cœurs Zen 4 « classiques » et quatre cœurs Zen 4c (2 cores C + 4 cores c (12 threads)), on aurait des machines sympas avec des performances plus ou moins égales à un Ryzen 5 5560U un peu exotique – il faut le dire – qu’on retrouve sur certains Mini PC !

    Phoenix et Phoenix 2 se complètent bien évidemment… Mais il fallait peut être changer le nom pour Phoenix 2…
    Phoenix « Acces » peut être !
    A suivre !!

    Répondre
  • 16 septembre 2023 - 1 h 19 min

    @Patz: Ce n’est pas une question de temps, c’est juste que les petits et gros cœurs Intel sont des architectures radicalement différentes. Les petits, hérité de la ligné Atom, sont développé en Israël, les gros, petits enfants des Cores, aux Etats-Unis.
    Et que par ailleurs, l’AVX-512 sont des instructions qui demandes énormément de transistors, et donc de surface de silicium, et consomment beaucoup lorsqu’ils sont très sollicité. Donc c’est une fonction qui n’est pas compatible avec des cœurs ouvertement optimisé pour la basses consommation.

    Par contre, ce qui m’a toujours étonné, moi, c’est qu’avec tous leur dispatcheurs de tâches côté OS et côté silicium, avec toutes leurs métriques permettant d’analyser et d’assigner telle tâche sur un gros cœurs, et telle autre sur un petit, qu’ils n’aient pas été fichu de repérer que pour un fil d’instructions donnée, telle processus requérait un cœurs supportant les instructions AVX512, et telle autre pouvait s’en passé et être assigné sur un LITTLE. Ça me paraissait être le B-A-BA, quelque chose de facile à repérer, mais non. Ils ont été obligé de désactiver ça sur les gros, pour les aligner sur les fonctionnalité petits et éviter les problèmes. Mais où est du coup l’intérêt pour une architecture hétérogène?

    Côté AMD, j’ignore si ils supportent ça (je ne suis pas à la page là-dessus). Mais si les gros les ont, les petits les ont aussi, ça c’est certain.

    Répondre
  • 16 septembre 2023 - 1 h 43 min

    @Lee: Si AMD ne communique pas dessus, c’est bien parce qu’à leur yeux ce n’est pas vraiment une architecture hybride.
    D’ailleurs il me semble que parait-il il y aurait 2 version de Phoenix 2 en circulation: une avec que des gros, et une autre en version mixé, sans qu’on sache réellement quelle version on va recevoir dans le paquet bonux (ou en tout cas j’avais lu un truc comme ça, mais peut-être que j’avais mal compris).

    Officiellement, on n’est pas sensé observer de différence. C’est uniquement pour leurs essais internes pour le moment. Le seul gain il est pour eux: celui de pouvoir économiser quelques mm² de silicium et ainsi baisser un peu les prix (donc un gain pour nous aussi au final, sur le portefeuille).

    Car même si les Zen 4c sont designé pour des fréquences plus basse et ne peuvent donc pas monter aussi haut que les Zen 4, sur ce genre de chip basse consommation, c’est en fait les Zen 4 qui sont bridé en fréquences, et au final ils chanteront tous à l’unisson aux mêmes fréquences.
    Donc pas d’architecture hybride, en pratique, du point de vue de l’OS.

    Mais là où tu te goures, c’est que ce Phoenix 2 est toujours de la génération 7000, et n’est pas du tout comparable à un 5800U. Ce 7540U vise clairement l’entrée de gamme, en Ryzen 3.
    Pour la prochaine génération 8000, celui qui se positionnera dans la descendance du 5800U, ça sera un 12c/24t, composé de 4 cœurs Zen 5 et 8 cœurs Zen 5c. Et c’est grâce au gain de place permis par ces Zen c, qu’ils arriveront enfin à dépasser la barre des 8 cœurs monolithiques, pour monter à 12.
    Et avec les 16 CU RDNA3+, lui il s’annonce clairement comme du très lourd. Mais je ne sais pas si ils arriveront à le présenté au CES comme ils en ont l’habitude depuis des années, ou bien si ils nous sortiront un autre truc intermédiaire pour patienter.

    Répondre
  • 16 septembre 2023 - 9 h 50 min

    @TiTi:
    Je sais que Zen4 est compatible AVX-512 :)
    Sinon, je ne suis pas trop à la page non plus, surtout sur AMD (que je n’ai jamais eu l’occasion de benchmarker face à Intel)

    Je pense donc que le petit coeur Zen4c est également compatible AVX-512. Ca fait sens, surtout si on considère que le Zen4c est un Zen4 élagué avec des unités de calculs en moins.

    En effet, un dispatcher (hard ou soft) de tâches AVX-256/512 auraient pu être une solution adoptée par Intel pour faire cohabiter les architectures différentes, et conserver les gains de l’AVX-512.
    J’y connais rien, mais ça ne me parait quand-mème pas évident à réaliser (sinon Intel l’aurait déjà fait je présume…)

    L’approche d’AMD me parait globalement meilleure qu’Intel.
    Leur Zen4c n’est probablement pas aussi efficace énergiquement qu’un petit coeur Alder-lake-N, mais ça ne bride pas l’AVX-512.

    (Je ne suis juste pas convaincu par l’hyperthreading. Mais j’ignore la surface de silicium supplémentaire requise, pour quel gain attendu. L’HT est peut-être utile pour les tâches de fond…
    Au taf, l’HT d’Intel ne m’a jamais permis le moindre gain en calculs mathématiques)

    Répondre
  • 16 septembre 2023 - 21 h 16 min

    @Patz: Non, pas élagué. Du cache en moins, ça oui, mais, je l’ai expliqué dans mon premier post, Zen 4c possède exactement le même shémas logique que Zen 4. C’est uniquement l’implémentation physique qui diffère, le positionnement des transistors.
    Pour le reste, c’est strictement la même architecture. C’est pour ça du coup qu’ils en conservent le SMT.

    Et c’est pour ça qu’on ne peut pas vraiment parler d’architecture hybride, puisqu’il n’y a rien qui les défères vraiment.

    Pour le SMT, le coûts en transistors doit concerner surtout le management des deux threads.
    Pour les gains attendu, ça varie généralement entre +10% à +30% en fonction des applis, rarement plus. Parfois, comme en jeux vidéo, c’est même carrément nul, voir négatif, d’un ou deux petits pourcents.
    C’est pour ça qu’Intel à été malin avec ses petits cores sur desktop. Mieux vaut en effet deux petits cœurs sans HT, qu’un seul gros avec.

    Mais en soit, mieux vaut tout de même avoir le SMT, puisque c’est généralement gratuit. En fait, ça aide surtout à mettre en pleine charge le CPU, et améliorer son efficacité au travail.
    Quant il y a un programme qui s’exécute, le sheduler va examiner le flot d’instructions et tenter de les réorganiser dans le désordre, le plus efficacement possible, en repérant quelles parties sont indépendantes les unes des autres et pourraient être exécuter en parallèle, sans avoir à attendre le résultat d’une opération précédente.
    Cela permet d’alimenter toutes les petites unités de calculs qui composent un cœur CPU (ALUs, FPUs, loads/stores, etc..).

    Mais avec un programme très linéaire, des fois ça ne suffit pas, et on peut se retrouver avec tout de même un certain nombre d’unités à l’arrêt, obligé d’attendre qu’on leur fournisse du travail. Et un CPU qui n’est peut-être du coup qu’à 70% de sa charge nominale.
    C’est à ce moment là qu’intervient le SMT (ou l’HyperThreading chez Intel): avoir un deuxième flux à analyser permet d’alimenter au mieux toutes les unités restantes, qui seraient en train de se tourner les pouces.

    Par contre, pour les applications qui seraient déjà bien parallélisables en elles-mêmes, si elles arrivent déjà par elles-mêmes à mettre le CPU en charge à, mettons, 90% ou 95%, il ne resterait du coup plus beaucoup de place pour un deuxième thread à exécuter.

    C’est pour ça que c’est très dépendant des applications qui tournent. Mais dans l’absolue, même si ça n’apporte pas toujours de gros gains spectaculaires, c’est toujours mieux de l’avoir. Ça ne mange pas de pain, et au moins on est sûr de toujours un CPU tournant à sa pleine capacité, ou en tout cas très proche.

    Et c’est pour ça que je suis content qu’AMD ne joue pas sur la présence ou non du SMT pour décliner ses gammes, alors que c’était pendant longtemps très à la mode chez Intel.

    Répondre
  • 18 septembre 2023 - 10 h 42 min

    C’est l’APU bureau ? Ah OK je sors…

    Répondre
  • LAISSER UN COMMENTAIRE

    *

    *