Si la démarche est temporaire et qu’AMD ne s’interdit pas de revenir dans cette course particulière tel que le confirme Jack Huynh à Tom’s Hardware, c’est une excellente nouvelle pour le marché.
Jack Huynh
La réflexion d’AMD autour de ces circuits haut de gamme est assez logique. Si être le premier en terme de performances a toujours un côté positif puisque cela rejaillit mécaniquement et publicitairement sur le reste de son catalogue, les mesures à prendre pour y parvenir sont extrêmement couteuses pour une frange de population assez faible. Dépenser des fortunes pour construire des cartes qui ne seront au final que vendues à peu de personnes ne semble pas des plus malin. Même si, il faut le reconnaitre, AMD a beau jeu de tenir se discours en étant l’éternel second sur ce marché derrière Nvidia.
Reste que c’est une démarche intéressante pour l’univers des minimachines. Parce qu’une chose est sûre, qu’elle soit fabriquée par AMD ou Nvidia, une carte graphique très haut de gamme n’entrera jamais dans le châssis d’un MiniPC ou d’un ultraportable. Ses besoins physiques en terme d’énergie et de refroidissement la rende totalement incompatible.
Ce que le directeur général du Graphics Business Group d’AMD indique donc ici, c’est que la marque veut se recentrer sur le cœur du marché, ce qui génère des ventes. Le milieu de gamme. Les puces les plus puissantes seront donc laissées à Nvidia qui pourra les commercialiser seul. Le milieu et le plus bas de gamme seront le nouveau terrain de jeu et d’affrontement entre AMD, Intel et Nvidia. Une manière pour AMD d’augmenter ses parts de marché et, à vrai dire, un constat de ce qui existe déjà dans la pratique. AMD n’arrive pas à rattraper Nvidia sur le haut de gamme ni à lui prendre des parts de marché sur le milieu de gamme. Cesser de lutter inutilement dans ces sables mouvants est donc la meilleure chose à faire.
Une GeForce RTX 4060 Low Profile de chez Gigabyte
Les conséquences de ce choix pourraient s’avérer excellentes pour les clients. D’abord parce que la concurrence sur ce segment des circuits graphiques milieu de gamme va multiplier les références et donc le choix. Intel s’y intéresse, les puces embarquées dans les CPU et les SoC sont également bien positionnés, le marché est assez bien portant. Ensuite parce que le nerf de la guerre sur ce segment est orienté différemment que dans la course à la puissance brute. Les services annexes comme l’économie d’énergie, la compacité, le bruit généré sont également importants. Quand un constructeur sort une carte milieu de gamme solide, si il ne veut pas être invisible dans l’énorme catalogue d’offres concurrentes, il doit trouver un moyen d’attirer les regards. Proposer un excellent prix est une technique classique mais des offres un peu plus chères, silencieuses et compactes peuvent tout à fait fonctionner également. Là où le haut de gamme ne compte que les points d’un benchmark, le bouillon de culture du milieu de gamme propose d’autres voies d’évolution.
Il y a également un effet secondaire à ce changement. Le déplacement du prix de l’offre des circuits graphiques. Si Nvidia se retrouve seul sur le marché du haut de gamme, libre à lui de proposer n’importe quel montant pour ses puces. On imagine souvent que l’absence de concurrence se traduit toujours par une hausse importante des prix. Mais c’est en réalité un jeu dangereux car en étant plus agressif sur le milieu de gamme et l’entrée de gamme, AMD va changer le prix moyen d’une carte graphique sur le marché.
La RTX 4090, fleuron de la gamme Nvidia
Si AMD lutte efficacement sur le ticket moyen des cartes intégrées au cœur de la majorité des configurations, la marque se distancera du montant demandé pour les cartes haut de gamme. Cela creusera un écart toujours plus important entre ce qui est jugé comme suffisant pour la majorité des usages et les caprices d’une carte d’excellence. Et le point capital à retenir est cette idée de caprice. Beaucoup d’acheteurs ont bien conscience que pour leur usage, l’investissement dans une solution très très haut de gamme n’a rien de rationnel. Ils se font plaisir avec un circuit d’exception mais le poids de celui-ci sur le budget global de leur PC n’a pas vraiment de sens. Si la différence entre le raisonnable et le caprice devient un gouffre, la position de beaucoup de clients sera le classique investissement sur le milieu de gamme.
Les statistiques de Steam sur les circuits employés pour jouer en aout 2024 : le moyen de gamme truste le haut du classement.
Ce nouveau positionnement d’AMD est donc bénéfique pour l’acheteur à court et moyen terme. Sur le long terme par contre il présente un risque. Celui d’un ralentissement des évolutions des circuits de l’ensemble des acteurs du marché. Sans l’aiguillon concurrentiel et face à l’immense coût de développement des puces haut de gamme, Nvidia pourrait diminuer sa Recherche et Développement dans ses circuits graphiques grand public. Ce qui aurait des conséquences en terme d’évolution, de capacités et de services.
2,5€ par mois | 5€ par mois | 10€ par mois | Le montant de votre choix |
On peut même en déduire que la majorité des cartes graphiques indépendante vont disparaitre d’ici 10 ans
Les Strix Halo & cie vont donner suffisamment de puissance (4060) pour faire disparaitre tout le segment des GPU pcie MDG ce qui reste d’être compliqué pour Nvidia
Sur le HDG (4080) c’est plus difficile à dire mais il y aura encore de la concurrence entre Amd et Nvidia; mais ce n’est pas un très gros marché
Et sur le segment THDG comme la 4090 qui se vend tout de même très bien aux pros de la 3d, Nvidia sera seul à proposer à la fois le hardware et les optimisations logiciels pour le rendu 3d/vidéo.
@snakesolid: J’ai connu le même discours à l’arrivée des puces graphiques dans les circuits Intel et AMD. Une annonce de la disparition des cartes externes. En pratique les développeurs de puces graphiques arrivent toujours a inventer des nouvelles fonctionnalités pour garder leur avance et leur marché. Je ne serais donc pas si catégorique même si je pense comme toi qu’une bonne partie des gens vont largement se contenter des puces Xe RDNA dans les années a venir.
@Pierre Lecourt: Oui mais les circuits intégrés n’étaient pas aussi matures que maintenant à l’époque, il y a 15-20 ans tu utilisais l’intel GMA de ta carte mère (souvent bien accompagnée d’un charmant Celeron monocore sur les machines pré-montées dans le commerce pour avoir un truc bien poussif jusqu’au bout) pour naviguer sur minimachines.net, lire des films en HD de manière fluide, pour lancer les sims éventuellement mais tu n’arrivais généralement pas à faire bien plus.
Maintenant, même le matériel graphique « bas de gamme » d’aujourd’hui permet bien des usages qui étaient encore inimaginables sans carte graphique il n’y a pas si longtemps.
@Pierre Lecourt:
Pour moi il y à peu de doute car tout le marché convergent vers les APU et un Strix Halo c’est 8-10x une steam deck, sachant qu’une steam deck parvient à faire tourner beaucoup des derniers jeux.
L’autre facteur c’est que le marché s’est totalement stabilisé, j’ai une 2080 qui fait tout tourner en 4k encore en 2024.Ce qui n’est pas loin de ce qui sera dans le Strix Halo.
Et il n’y à plus vraiment de jeu qui sortent et nécessite une carte graphique de l’année en court, comme ce fut dans les années 2000-2010
@Le Breton: Je suis bien d’accord mais qu’a tu vu pousser entre temps chez AMD et Nvidia ? Le RTX ? Le Super Sampling, les usages de cœurs pour des activités graphiques, des fonctions d’IA etc. Les concepteurs de ces puces ont pris conscience il y a fort longtemps de ce besoin d’innover en permanence pour ne pas se laisser rattraper par le milieu de gamme. Et ils trouveront toujours de nouveaux moyens pour donner envie de choisir leurs puces.
Je suis le premier a dire qu’un MiniPC sous N100 a 200€ suffit pour un usage familial assez large. Mais la pression des constructeur tend a expliquer que sans RTX ni UltraHD point de salut.
@Snakesolid: Et pour une bonne et simple raison. Les cartes sont trop chères. Si un studio lance un jeu qui nécessite une RTX 4080 comme ils n’hésitaient pas a le faire du temps des 2080, alors ils n’amortiront pas leur jeu.
Un titre comme Cities Skylines 2 est un bon exemple. Le jeu a fait un flop parce que beaucoup trop gourmand. Si les jeux ne nécessitent plus de cartes récentes et puissantes, c’est parce que les éditeurs ont appris a faire un effort pour vendre. Si les 4080 étaient au prix des 2080 de l’époque, rapportée à l’inflation, ce ne serait pas la même histoire à mon avis.
Les deux écosystèmes sont interdépendants, c’est pour cela que j’ai publié le classement Steam, cela rappelle bien à quel point le marché est concentré sur le milieu de gamme.
La PS5 pro a une puce graphique équivalente à une 7800m. Ça montre que, même pour des gamers, le haut de gamme PC serait tout à fait dispensable.
Un noyau de passionnés ont pour plaisir et centre d’attention la technologie de ces haut de gamme ; Un groupe de personnes voulant de toute façon avoir le meilleur ou le plus couteux pour l’apparence, les suit, les mêmes qui ont une grosse voiture ou une montre à 3 smics pour pouvoir la montrer et en parler. Mais la masse des joueurs ont du matériels du milieu de gamme d’une à deux générations passées, et en change non par besoin ou envie mais parce que les nouvelles sorties de jeux les y obligent.
Perso, je pense que la communauté, les industriels voire les états devaient réguler la course à la puissance, surtout avec le ralentissement des progrès (sortie de la loi de Moore), et limiter l’enveloppe de consommation électrique.
Car on voit depuis 2 à 3 générations que la tendance est à une augmentation de la conso des GPU haut de gamme, pour des améliorations discutables (sauf pour des passionnés), et l’introduction de nouvelle technologie (le ray tracing) pour que la course au renouvellement de matériel continu.
Le vrai problème est que les moteurs graphiques et les développeurs de jeu suivent cette course bénéficiant à Nvidia, AMD et dans une moindre mesure intel. Les développeurs de jeux vidéos devraient se concentrer sur le gameplay et la direction artistique, et laisser tomber les envies de réalisme dans les graphiques et la physique en général, car pour arriver à un réalisme des graphiques et/ou de la physique, il faudra une infinité de puissance de calcul pour finalement arriver à simuler un monde/planete complet avec sa physique etc. … donc avoir le besoin énergétique d’un deuxième monde.
Bref, vivement la fin de cette course à la consommation (électrique et de matériel), avec une stabilité des matériels, que l’informatique se concentre sur ses fonctionnalités au service des humains plutot qu’à la captation et la sécurisation économique d’un marché.
Hier je me suis fait tinykin sur mon intel hd4000, ça tourne à 50-60fps le moteur unity est bien optimisé, j’aimerais bien que le lossless scaling marche sur mon media center, à part le doom+doom2 qui fait une difference le pc n’est pas assez puissant pour gagner au lieu de perdre.
Ce que je veux dire c’est que pendant des années on nous a vendu du vent et de la stagnation et un manque d’optimisation.
Et pour moi une mini machine c’est quelque chose de miniature et qui a la particularité d’être autonome électriquement, soit par batterie soit par alimentation passive.
Exemple le fire stick tv et quand on voit un constructeur comme unisoc qui est capable de sortir la puissance d’un snapdragon haut de gamme avec moins de 5 ans de retard pour quelques euros il ne manque plus que l’émulation x86 avec cette puissance et tout simplement la continuité de l’écosystème arm par des développeurs.
La puissance atteint un plafond de verre, la wii n’est qu’une gamecube et nintendo n’a pas amélioré ses jeux depuis cette période point de vue gameplay et intérêt ludique.
Astrobot n’a que pour lui un gamplay au niveau des jeux nintendo et des particules dans tous les sens. 5 ans de retard sur le pc master class et 5 ans d’avance sur une puce à quelques euros, et après ?
On va x par 10 le service marketing et virer le creatif pour le remplacer par des IA parce-que les jeux de ne se vendent pas.
@Pierre Lecourt: Il n’empêche tout le segment des carte entré de gamme à pratiquement disparue.
Le peut qui reste est sur de très vieux GPU (certaine puces ont 7 ans).
Alors dans 5 ans ça n’aura peut-être pas trop évolué et pour avoir de bonne perf il faudra prendre encore une carte graphique en PCI-e, mais je pense que les CPU+GPU+RAM sur la même puces vont petit à petit grignoté se marché.
@ben: Je suis en plein dans le sujet alors je vais pas divulgacher, mais un billet va te répondre très vite.
Le marché a aussi beaucoup évolué. Les cartes haut de gamme étaient accessibles, elles ne le sont plus. J’ai pendant longtemps acheté les cartes haut de gamme que ça soit chez ATI (maintenant AMD) ou nVidia, le budget tournait pendant longtemps autour des 450/500 euros pour avoir le fleuron de l’époque. Puis… ça c’est envolé ! Une 4090 ne se trouve pas à moins de 1900 euros, ce qui est tout simplement délirant.
Et avec l’augmentation de la puissance des cartes, on a aussi atteint un seuil qui fait que ces cartes exceptionnelles ne sont plus utiles. A quoi bon prendre une 4090 à ce prix là si on peut jouer à quasiment tous les jeux du moment en HD voire en 4K avec aisément 100 fps avec une « simple » 3070 qui se trouvait dans les prix du haut de gamme de l’époque. A moins d’avoir un écran d’exception, cela ne se justifie pas.
Les chipset intégré ne vont pas remplacer ceux dédiés, c’est sûr. Mais quand je vois comment tournent les jeux sur mon 780M intégré au CPU, il ne manque plus grand choses pour que ça tourne bien, la nouvelle génération qui sort en ce moment où la suivante sera largement suffisante pour une bonne partie des joueurs. Les jeux étant de toutes façon optimisés pour les consoles en premier lieu, on n’aura pas de suite un nouveau gap.
@Rtvf: Unisoc, j’ai l’impression qu’ils ont émergés du néant, ils inondent les smartphones les plus bas de gamme depuis 2, 3 ans comme si de rien n’était.
Bonjour,
Dans les années à venir, il y a de très fortes chances que le marché du PC évolue de façon totalement différent.
Depuis qu’Apple à sortie ses « SOC » (CPU tout en un avec RAM et carte graphique) ils ont rebattu les cartes, la puissance de ces SOC M1, M2, M3 et maintenant M4 est époustouflante sur un ordinateur portable, hors plus de 80 % des ventes d’ordinateur sont des ordinateurs portables.
Dernièrement Les puces de SNAPDRAGON X (de type SOC) ont montré (dans leurs versions 1 actuel) de très bonnes performances sous Windows ARM (le futur …).
Donc, avec la puissance des futur puce SOC ARM pour Windows à venir, il y a grand à parier que dans 2 à 3 ans le « monde » actuel du PC (représenté par plus de 80 % de vente de portables) aura bien changer (d’autant plus que microsoft abandonnera rapidement la technologie X86/64).
OK, il restera toujours des « aficionado » pour utiliser des PC « INTEL / AMD X86/64 » dopé, mais si NVIDIA est le seul acteur des cartes PCI haut de gamme, seront-ils d’accord pour payer le prix que NVIDIA décidera ?
Autre petites choses à savoir concernant le marché des cartes graphiques haut de gamme : une bonne partie d’entre elle sont aussi vendu dans l’industrie de la vidéo ou la photo professionnelle, simplement pour la puissance de leurs processeurs graphiques. En exemple, en tant que photographe, j’utilise DXO Pure RAW pour le dématricage et le débruitage de mes photos, j’ai une carte graphique haut de gamme de chez NVIDIA et pourtant je ne joue pas, par-contre celle-ci m’accélère le traitement de manière phénoménale (ex. même image RAW de 50 Mpixel : AMD RX580 ou NVIDIA GTX 1070 = 2 minutes, NVIDIA RTX 4090 = 4 secondes).
@EL: C’est quand même un championnat du monde de raccourcis ce commentaire.
@EL: Par curiosité, quel intérêt de photographier en format RAW pour tripoter la photo numériquement par la suite ?
@Le Breton: C’est tout l’intérêt du format RAW. Un format qui enregistre une image neutre, sans les « préréglages » du constructeur de l’appareil photo et que l’on peut ensuite manipuler pour lui faire correspondre des couleurs plus justes (et souvent moins flatteuses par défaut que ce que font les APN par défaut…)
On applique des « recettes » de colorimétrie qui correspondent à ce que l’on veut. Soit pour imiter des appareil historiques, des pellicules ou pour coller à ce que l’on veut proposer comme image. On appelle ces « recettes » des LUT.
Tu as une explication en détail ici : https://larryjordan.com/articles/understanding-raw-log-and-lut-files/
Je suis photographe pro, et je fais tourner capture one sur une steamdeck😂😅😃 tout simplement la version 2021 qui fait parfaitement fonctionner open gl, avec des raw mais des préset pour avoir une base de départ
La même steamdeck sert aussi de contrôleur en parallèle pour piloter dès flash de studio, et ça fait bien marrer les clients, pas besoin de plus pour mon usage, un gpu intégré suffit pour de la photo 2D, mais je déclenche assez peu : et je déteste trier les photos, et c’est instantané par batch de 100 photos de 5ds pour la conversion jpeg Tiff
Par contre, quand je fais de la photogrametrie, je reste un aficionados d’une bonne tour avec 2 3090, voir d’un cluster gpu et pourtant les photos ne font que 10 millions de pixel ;) mais il y a autres chose à traiter que des LUT
(Duo est excellent sur l’etalonnage et les mesures, mais l’ergonomie et les beugs de ses soft derawtisation sont problématiques dans un usage professionnel)
Tant mieux que cela freinera l’évolution des puce et de la techno, cela permettra au dev d’optimiser leur code, ce qu’il ont tendance à oublier
@Pierre Lecourt: Ok merci toujours utile à prendre comme renseignement.
@leclerc, malheureusement comme la indiqué Oud’s, « DXO est excellent … les bugs … ». Utilisant DXO depuis des années, je peux te dire que l’optimisation du code, ce n’est pas leur truc. Plus les versions de DXO (Pure RAW, Lab, etc.) avances, plus il te faut de puissance (mais pas de moyenne puissance, de la Big puissance, l’éditeur il s’en tape lui).
@Le Breton, un RAW c’est comme un négatif, comme quand j’avais 20 ans et que l’on travaillait dans des bacs de développement. Nous ressortions ce que l’on désirait d’une photo. Autre avantage : « La chaîne colorimétrique » : cela te permet d’avoir un appareil photo + un logiciel avec écran + une imprimante en sortie, le tout parfaitement calibré. En gros, ce que tu imprimes est 100 % identique à ce que tu as photographié sans dénaturer les couleurs. Maintenant l’inverse est tout aussi possible et cela te permet des déclinaisons « très psychédéliques » !
Tu as aussi l’avantage de pouvoir travailler sur « un gamut » plus large que les 16 millions de couleurs du JPEG souvent limité à la palette RGB. Tu peux beaucoup récupérer une photo saturée, corriger une déviation vers une couleur, etc.. Bref, le RAW c’est fantastique (du moins dans mon cas).
Si cela t’intéresse, j’ai un ami qui a mis en ligne un petit site web (qui a l’air en standby depuis le covid ?) dédié spécialement aux débutants en photographie. Il a le mérite d’expliquer les choses en français, avec des mots simples et des exemples communs de tous les jours : http://www.mpixel.fr
@EL: Je prendrai le temps de regarder merci.