Lunar Lake : le futur d’Intel 1.5x plus rapide que Meteor Lake ?

La rumeur d’une puce Lunar Lake 1.5x plus rapide que les puces Meteor enfle rapidement et suggère des changements majeurs chez Intel.

Intel semble rebâtir ses fondations technologiques ces dernières années avec des investissements colossaux dans la fabrication de ses puces. Mais Lunar Lake, une gamme de puces mobiles prévue pour cette année, pourrait bien montrer des bouleversements majeurs dans la manière dont la marque fabrique ses puces.

Nous en sommes à Meteor Lake, une gamme de puces mobiles pilotées par deux architectures distinctes en plus de son circuit graphique. Sortie à la fin de 2023, Meteor Lake utilise des cœurs Performants d’architecture « Redwood Cove » et des cœurs Efficients « Crestmont » gravés en Intel 4. Plus tard cette année, nous aurons Arrow Lake, une gamme de puces prévues pour machines sédentaires et mobiles en Intel 20A avec les architectures Lion Cove et Skymont. Enfin, toujours en 2024, Lunar Lake devrait faire son annonce avec une cible uniquement mobile.

Cette architecture n’a pas encore dévoilé toutes ses technologies et on ne sait pas pour le moment comment elle sera gravée, par exemple. On sait que le duo « Lion Cove » pour l’architecture des cœurs P et « Skymont » pour les cœurs E sera toujours à l’œuvre. La partie graphique sera confiée à une puce Intel Xe2-LPG. Tout comme Meteor Lake a été annoncé en 2023 pour une disponibilité réelle en 2024, l’annonce de Lunar Lake ne veut pas dire sa commercialisation effective. Les puces ne devraient pas apparaitre dans des machines avant 2025.

Cela fait un moment que, de rumeur en rumeur, de fuites en échos, on parle de Lunar Lake comme d’un « renouveau » technologique chez Intel. La gamme serait en effet largement chamboulée avec énormément de nouveautés. Un premier bouleversement majeur serait la disparition de l’hyper Threading. Je parle au conditionnel puisque si la rumeur est largement persistante, Intel ne l’a pas confirmée ni infirmée. Cette technologie permet de proposer des cœurs logiques capables de traiter simultanément plus de tâches que si l’on confiait le même travail à un seul cœur physique. Le système doit les prendre en charge – c’est généralement le cas par défaut sur les PC modernes – et cela permet une meilleure efficacité générale. Pourquoi Intel serait sur le point de se débarrasser de cette technologie pour Lunar Lake ? Aucune idée ? Mais quand on voit les résultats des cœurs E, sans Hyper Threading, et les excellentes prestations de puces qui n’emploient que des cœurs de ce type comme les Alder Lake-N, on peut se poser la question de la pérennité de cette nouvelle voie.

Est-ce que Intel va intégrer de nouvelles solutions plus efficaces que l’Hyper Threading dans ces puces ? Nul ne le sait pour le moment mais la rumeur enfle d’une prestation de calcul 1.5x plus rapide sous Lunar Lake que sous Meteor Lake. Ce qui serait une énorme évolution sur un temps si court. Bien entendu, tout cela est à prendre avec les pincettes de rigueur. Tout comme il faut regarder avec du recul les annonces de consommation intéressantes de ces processeurs. Là encore, on parle de chiffres très intéressants pour Lunar Lake avec 17 watts de TDP contre 15 pour le Meteor Lake actuellement. Une hausse de 2 watts avec un changement majeur de performances (+50%) et un circuit graphique qui change de génération. La puce pourrait en outre grimper à 30 watts en consommation de pointe pour des performances boostées sur de plus ou moins longues périodes. Des versions 8 watts de TDP, construites pour des machines totalement passives, sont également dans les tuyaux.

Nous aurons largement le temps de nous replonger dans cette gamme Lunar Lake d’ici sa sortie. 

Source VideoCardz


Soutenez Minimachines avec un don mensuel : C'est la solution la plus souple et la plus intéressante pour moi. Vous pouvez participer via un abonnement mensuel en cliquant sur un lien ci dessous.
2,5€ par mois 5€ par mois 10€ par mois Le montant de votre choix

Gérez votre abonnement

16 commentaires sur ce sujet.
  • 12 mars 2024 - 12 h 13 min

    Vous ne parlez pas des benchmarks (et c’est tout à vôtre honneur), mais vous relayer des rumeurs de performances sur benckmarks. Là j’ai un peu du mal avec la cohérence de la ligne rédactionnelle, lol.

    Répondre
  • s@s
    12 mars 2024 - 12 h 15 min

    Ah bah zut Pierre, la lune n’est plus ronde ? Ou lors la Terre est plate finalement :-)

    Répondre
  • 12 mars 2024 - 12 h 49 min

    @TiTi: Je n’ai pas promis de ne pas parler de Benchmarks, j’ai dis que je n’aimais pas les benchmarks car ils peuvent dire tout et son contraire ou faire apparaitre un élément comme différent de ce qu’il est. J’écris même noir sur blanc que les benchmarks peuvent être utiles. Mais ce qui me gène avec eux c’est leur angle faussé de l’usage des machines.

    https://www.minimachines.net/actu/pourquoi-je-naime-pas-les-benchmarks-122936

    Tant que l’information est explicitement indiquée comme une rumeur et sans m’appuyer sur ces chiffres pour autre chose que d’indiquer que l’architecture serait en train de changer, je ne vois pas le problème ?

    Si demain je disais « Achetez ce truc car il fait XXX points sur Geekbench ou CineBench » je comprendrais le malaise. Car c’est vraiment pas comme cela que je vois les choses. Mais dire qu’Intel va changer d’architecture et peut être sabrer un truc comme l’HT qu’il utilise depuis plus de 20 ans tout en conservant ou améliorant ses performances. Cela me parait intéressant.

    @s@s: C’est une photo perso :)

    Répondre
  • 12 mars 2024 - 14 h 53 min

    Cela parait vu de haut ressembler à ce qu’avait initié Freescale il y a plus d’une décennie avec ses PowerPC e6500 destiné à sa famille de SoC QorIQ pour l’embarqué: Ce qu’ils appelaient HT n’était pas chez eux 2 chemins d’exécution vers un même cœur afin d’optimiser un parallélisme interne entre unités d’exécution (chose faite dès les premiers PowerPC du milieu des années 90 qui torchaient déjà 1 instruction/cycle en moyenne, largement perfectionnée ensuite)…

    C’était en fait 2 vrais cœurs, 1 complet et l’autre dépourvu de tout ce qui prends de la place (et aussi consomme) sur le silicium (unités flottantes, de calcul vectoriel en particulier)…

    Mais Intel nous dira, un peu comme Free dans le passé, que c’est une révolution!

    Répondre
  • 12 mars 2024 - 17 h 13 min

    Mouais pas convaincu de la réussite d’Intel avec cette annonce mirobolante.
    Qu’ils essayent déjà de rattraper leur retard face à AMD et surtout à proposer un jour un cpu aussi efficient que les M1 / M2 / M3… on en est loin.

    Car pour le moment les CPU intel sont de véritables chaufferettes si on espere de bonne perf de calcul.

    Répondre
  • 12 mars 2024 - 17 h 22 min

    @tibo: Intel n’a RIEN annoncé.

    Répondre
  • JB
    12 mars 2024 - 17 h 57 min

    Intéressant ! On devrait avoir de super perfs en low TDP fanless avec cette génération :-) Je l’attends pour remplacer mon N5000 (archi Gemini Lake en 14nm et TDP de 6W) monté en fanless sur l’excellent – mais peu puissant – Acer Swift 1 2018 que j’utilise au quotidien depuis cette époque.

    Hâte de voir non pas la course à la puissance mais à la décroissance thermique permise par ces nouvelles gammes. La puissance relative (par watt) et l’autonomie des machines vont faire 1 grand bond en avant si les promesses sont tenues (et si les fabricants réfléchissent au-delà des chiffres bruts) !

    Répondre
  • 12 mars 2024 - 18 h 09 min

    @tibo: en meme temps, intel grave encore en 10nm…

    Répondre
  • Tof
    12 mars 2024 - 21 h 19 min

    Je me permet d’émettre une hypothèse quant au pourquoi Intel serait sur le point de se débarrasser de cette technologie Hyper Threading. Les failles successives révélées au cours des années quant aux processeurs Intel sont, il me semble, toutes plus ou moins liées à l’Hyper Threading… A chaque faille, des correctifs OS et des mises à jour de microcode sortent, réduisant à chaque tour les performances des processeurs: 20% pour la 1ere, 30% pour la seconde puis jusqu’à 40% pour la dernière. Soit une perte de performance CPU cumulée qui ramene un processeur Intel à 33% de sa performance originelle. Et pour la dernière faille il était même recommandé de carrément désactivé l’Hyper Threading pour être réellement en sécurité.

    Bref, je pense que Intel se rend compte qu’il ne peut pas faire de l’Hyper Threading sans y laisser une belle surface d’attaque, qui finira un jour ou l’autre par une faille découverte. Faille découverte = mauvaise image, impact sur le cours de bourse, communication de crise, développement de patchs et baisse de perf de ses CPUs, etc…

    Répondre
  • 12 mars 2024 - 22 h 08 min

    @Tof: Le fait que même ARM n’a jamais penser à développer une technologie SMT (ou un dérivé comme utilisé pour Bulldozer) pour ses propres coeurs montrent que c’est loin d’être une solution miracle aux yeux de tout le monde dans cette industrie.

    Répondre
  • 12 mars 2024 - 22 h 23 min

    ainsi que la chasse aux cm3.

    Répondre
  • Jle
    12 mars 2024 - 23 h 52 min

    @Tof:

    La plupart des failles auxquelles tu penses n’ont pas de lien avec l’HT. Il est souvent question de prédiction de branchement plutôt, ce genre de chose.
    Quant aux pertes de performances, elles concernent des instructions très spécifiques, et les pourcentages mentionnés sont les valeurs maximales des pertes. Pour la plupart des gens, ces failles sont passés inaperçues en terme d’impact sur les performances.

    Si Intel venait à abandonner l’HT (rien d’officiel là dessus), peut-être serait-ce pour des raisons de consommation. Le gain de performance est modeste en plus d’être très variable or, la hausse de consommation, elle, reste en défaveur du HT.
    Sur laptop, sa désactivation fait sens (même aujourd’hui, configurer ton laptop pour désactiver l’HT peut être bénéfique si tu privilégie l’autonomie ou le silence). Sur desktop et serveurs par contre, ça reste intéressant.
    A voir donc.

    Répondre
  • Jle
    12 mars 2024 - 23 h 56 min

    @Jle:
    Pour compléter, les failles mentionnées sont pour la plupart corrigées matériellement dans les CPU qui sont sortis après. L’impact sur les perfs, pour ce su’il vaut, il s’est manifesté sur les CPU déjà en circulation, pour lesquels les correctifs s’appliquent sous forme de micro code (ce qui est lent, d’où les possibles pertes de perfs). Les CPU corrigés matériellement n’ayant pas le soucis de perfs (ou beauuucoup moins), c’est presque devenu un argument de vente.

    Répondre
  • Tof
    13 mars 2024 - 9 h 03 min

    @Jle: Oui ils le corrigent les failles matériellement dans les nouveaux CPU, et ça fait peut-être un argument de vente pour renouveler son matériel informatique tous les 2 ans. L’obsolescence non-programmée, mais accélérée.
    Pour un investissement plus long terme ça laisse plutôt le gout amer d’avoir acheté des ordis avec CPU Intel et qu’au prochain investissement ils seront très probablement équipés d’un CPU issu du concurrent ;)

    Répondre
  • 13 mars 2024 - 13 h 29 min

    @tibo:
    Comme dit plusieurs fois Intel n’a rien annoncé mais leur niveau directeur ( depuis quelques années) est un architecte et a récupèré la boîte dans un état lamentable ( les budgets r&d avaient été drastiquement amputés par le précédent).
    Vu les délai pour que la r&d arrive au produit vendu les délais sont longs, mais je pense que les choix fait sont bon et qu’après des années d’évolutions à coup de 1% Intel peut arriver à des avancées significatives dans certains domaines.

    Répondre
  • 13 mars 2024 - 23 h 54 min
  • LAISSER UN COMMENTAIRE

    *

    *