Intel ARC A770 : la carte débarquera début octobre pour 329$

Avec ses cartes Arc A770, Intel se positionne en outsider sur le marché des solutions graphiques. Un choix logique et plutôt intelligent.

La solution graphique la plus évoluée de la gamme Intel, l’Arc A770, est prévue pour le 12 octobre prochain. Annoncée à 329$ en 8 Go de mémoire, elle se positionne sur l’entrée de gamme des générations précédentes. Est-ce pour autant un produit à bouder ?


La carte Intel Arc A770 est une proposition assez intéressante et cela à plus d’un titre. D’un point de vue compétences pour commencer mais également dans sa destination et au vu de son historique.

Intel Arc A770 : une proposition technique honnête

La carte propose un équipement intéressant architecturé autour d’un circuit graphique Intel AGM-G10. Une puce gravée en 6 nanomètres qui regroupe 32 coeurs Xe, 512 processeurs XMX et autant d’unités de calcul. Déclinée en deux versions, cette carte sera disponible en 8 Go ou 16 Go de mémoire vive dédiée GDDR6. La consommation de la carte sera de 225 Watts pour un fonctionnement à 2.1 GHz. Elle assurera un pilotage complet de DirectX 12 Ultimate.

Rien d’extravagant ni de merveilleux donc, et Intel le reconnait lui même, ce premier essai est un… premier essai. On devrait retrouver un niveau de performances équivalent à la Nvidia GeForce RTX 3060.

Le haut de gamme des uns, le milieu de gamme des autres

Chez Intel, on ne se fait pas d’illusions, si la marque propose des circuits graphiques dans la majorité de ses processeurs depuis des années, son retour sur le marché des cartes graphiques est très récent. La solution proposée par la carte Arc A770 est donc jeune, probablement encore pleine de défauts et son évolution logicielle sera à surveiller de près. 

Mais ce rapprochement annoncé avec les compétences d’une RTX 3060 de Nvidia est une excellente chose pour les utilisateurs. D’abord parce que cela va permettre d’avoir un peu de concurrence face au tandem AMD/Nvidia. Ensuite parce que ce niveau de performances est finalement une voie suivie par de nombreux utilisateurs. Je n’ai pas parlé ici des cartes graphiques RTX 40×0 de Nvidia annoncées il y a peu. Surtout parce que leur consommation les rend impropres à toute exploitation dans un MiniPC. 

Intel a fait le pari, probablement également contraint par sa jeunesse technique, de ne pas viser le très haut de gamme. Ainsi, la marque ne proposera pas de jouer en UltraHD tous détails graphiques à fond mais vise un plateau FullHD plus accessible et surtout plus commun. Cela n’empêche pas Intel de proposer des effets techniques avancés comme la gestion du Ray tracing « RTX » ou le XeSS.

Nvidia et AMD resteront loin devant avec leurs gammes en terme de vitesse, de qualité d’affichage et de fonctions avancées. Promettant ainsi des fonctions très larges et intéressantes avec quasiment 2 gammes d’avance. Si on considère la RTX 3060 comme l’entrée de gamme de la génération passée, avec les RTX 3050, il existe donc encore plusieurs marches avant d’atteindre les RTX 3080 et autant en considérant toutes les nouvelles RTX 40×0.

Mais tout le monde ne vise pas le super haut de gamme, l’UltraHD tous pixels à fond et la consommation gargantuesque de watts. Je sais que de nombreux constructeurs de cartes graphiques ou de PC de jeu mettent en avant à longueur d’année le « Gaming » et l’ascension du « E-Sport » et tout ce que cela représente comme marché. Mais j’ai l’impression qu’il y a un fossé entre les éléments que l’on voit chez les joueurs chevronnés et l’équipement de monsieur et madame tout le monde.

Certains joueurs ont certes un équipement matériel très haut de gamme qu’ils mettent en avant pour de probables bonnes raisons. Mais tout le monde ne va pas faire ce calcul et injecter des milliers d’euros chaque année pour jouer en plus haute définition, plus vite ou juste plus « confortablement ». Il y a une bonne place à prendre non pas dans le groupe de tête mais plutôt dans une gamme que je pourrais qualifier de « réaliste » pour les utilisateurs.

Intel dans la roue arrière des concurrents ou loin derrière ?

Dernier point, qui ne vous aura peut être pas échappé, Intel est un nouveau venu sur ce marché. Ce qui est l’entrée de gamme de la concurrence est actuellement le haut de gamme du fondeur. L’Intel Arc A770 n’est pas au niveau des propositions d’AMD ou de Nvidia mais c’est un début. Il y a encore quelques semaines des « spécialistes » annonçaient avec fracas que la marque aurait jeté l’éponge et que l’Arc A770 ne sortirait jamais. Non seulement cela semble faux mais c’est totalement ridicule de se baser sur les performances d’une première gamme de circuits pour décider de continuer ou d’arrêter les frais d’un tel développement.

Nvidia et AMD ont dépensé des milliards de dollars pendant des dizaines d’années pour arriver au niveau où ils sont aujourd’hui. Je ne vois pas par quelle coup de baguette magique Intel aurait pu les rattraper aussi vite avec un investissement beaucoup moins conséquent. Intel savait à peu près ce que donnerait cette première génération Arc au moment où ils ont commencé à injecter de l’argent dans leur Recherche et Développement. 

Aujourd’hui, les ingénieurs hardware d’Intel travaillent sans doute au développement de la suite, du prochain GPU de la marque et je peux vous assurer que leur objectif n’est pas de battre Nvidia ou AMD sur leur prochaine Gen. Ce sont des ingénieurs, pas des vendeurs de formations en ligne. Leur objectif n’est pas de vous  faire croire à un truc farfelu mais sans doute de proposer un milieu de gamme solide. Ils ne viseront toujours pas un marché destiné à un fragment de la population, celui de personnes capable d’acheter une carte graphique à plus de 1500€. 

Les ingénieurs logiciels d’Intel vont avoir probablement fort à faire pour améliorer leurs pilotes pendant ces prochains mois. Optimiser les jeux, corriger des bugs qui vont se révéler au fur et à mesure de l’intégration des cartes dans des configurations exotiques, améliorer les services proposés par leurs solutions. 

Cela augure un avenir intéressant pour ce segment dans les prochaines années. Si on m’avait demandé si je croyais à l’apparition d’un nouvel acteur sur le secteur graphique il y a quelques années en arrière, j’aurais probablement dit non. En aucun cas. Le retard était trop important, trop cher à rattraper. J’aurais probablement ajouté que les deux seules entités capables de se jeter à l’eau auraient été Apple et Intel. Apple a choisi une autre voie avec le succès qu’on lui connait autour des solutions ARM. Reste Intel qui, contre toute attente, s’y est collé. C’est à mon sens le seul qui pouvait se le permettre.

Le chemin va être long et difficile, et probablement très couteux. Intel ne gagnera pas d’argent avec cette première génération et peut être pas non plus avec la seconde. Mais si le cap est tenu et que la marque propose une solution milieu de gamme toujours plus efficace, elle a un coup important à jouer sur le marché. Parce qu’elle pourra proposer logiciellement et matériellement des processeurs et circuits graphiques travaillant de concert mais aussi parce qu’elle aura une offre tout en un à négocier avec ses partenaires.


Soutenez Minimachines avec un don mensuel : C'est la solution la plus souple et la plus intéressante pour moi. Vous pouvez participer via un abonnement mensuel en cliquant sur un lien ci dessous.
2,5€ par mois 5€ par mois 10€ par mois Le montant de votre choix

Gérez votre abonnement

4 commentaires sur ce sujet.
  • 28 septembre 2022 - 23 h 38 min

    A titre perso, j’ai toujours une 1060 6 Go dans mon PC, avec un écran Full HD.
    Mon jeu le plus gourmand est Cyberpunk 2077, qui passe en Medium-Low : c’est pas hyper beau mais ca reste jouable, entre 25 et 45 images/secondes.
    Et je pense effectivement qu’Intel vise le bon segment de marché car le plus populaire : le « familial » où les gens attendent un résultat acceptable pour un prix acceptable .

    Répondre
  • 29 septembre 2022 - 9 h 11 min

    une très longue histoire démarre et sera semer d’embuches pour intel

    Répondre
  • 29 septembre 2022 - 9 h 34 min

    Merci Pierre pour cet article. Je joue très peu et ma résolution d’écran est limitée au full HD. Donc je me sens concerné.
    J’ai juste besoin d’une bonne gestion du multi-écran et une compatibilité totale sous linux.
    Je regarde donc avec intérêt les développement d’Intel sur les GPU. Je ne changerai pas de si tôt ma RTX 3060 (achetée cette année), mais à la prochaine évolution dans quelques années, Intel aura peut être une solution compétitive.
    Si je devais faire ce choix aujourd’hui ce qui me chagrinerai avec cette solution Intel est qu’elle se compare bien à une RTX 3060 en terme de performance, mais avec une consommation plus grande (225W vs 170W). Et surtout, quid du calcul sur GPU avec les cartes Intel ? J’utilise beaucoup CUDA et j’ai des logiciels gourmands qui utilise CUDA pour accélérer les calculs (et pas l’opencl).
    J’imagine que le transcodage vidéo sera performant sur ces cartes intel (c’est déjà le cas sur les génération précédentes inclus dans les CPU), mais est ce qu’Intel développe des librairies et des API pour le calcul sur GPU ? J’ai choisi Nvidia essentiellement pour ça.

    Répondre
  • 3 octobre 2022 - 16 h 32 min

    @mat&meth:
    Bonnes remarques. Concernant CUDA je n’y avais pas trop pensé à l’achat de ma carte mais dernièrement j’ai voulu tester la génération d’images par IA et j’ai pu faire tourner Stable Diffusion sur ma 3060Ti. J’étais bien content d’en avoir la possibilité.

    Répondre
  • LAISSER UN COMMENTAIRE

    *

    *