Des cartes graphiques signées Intel en 2020

Ce n’était plus un secret pour personne, la marque avec ses recrutements chez son concurrent AMD avait dévoilé l’information bien avant mais c’est désormais officiel. Intel va proposer des puces graphiques indépendantes en 2020.

Intel est déjà un des plus gros fournisseurs de solutions graphiques sur le marché actuel. La faute à ses processeurs qui, pour la plupart, proposent par défaut un circuit graphique embarqué. Des circuits pas si mauvais d’ailleurs si on arrête de les regarder uniquement via le prisme du jeu 3D.

Mais si Intel a recruté de nombreux transfuges d’AMD ces derniers mois, ce n’est pas pour proposer des circuits embarqués. L’équipe menée par Raja Koduri, Tom Forsyth et Jim Keller travaillent donc bel et bien à la création de puces graphiques indépendantes.

On ne sait évidemment pas quel objectif ils se sont fixé : Celui de circuits graphiques en relais des capacités de calcul des processeurs de la marque à destination des serveurs ? Celui de puces capables de se positionner sur un marché 3D très orienté jeu ? Impossible de savoir exactement de quoi il retourne pour le moment.

Ce mouvement paraissait, de toutes façons, inéluctable pour Intel qui voit ses évolutions technologiques ralentir ces dernières années avec des puces grimpant péniblement des barreaux de 10% de performances en plus. Le marché du GPU est vraiment devenu le plus impressionnant aujourd’hui en terme de performances et la guerre menée par AMD et Nvidia est véritablement extraordinaire aujourd’hui.

Ce tweet publié cet été par Intel confirme l’existence d’une carte graphique indépendante. Il reste 2 ans à Intel pour la soigner et, si le calendrier de la marque est respecté, l’annonce de ce circuit aurait lieu en 2020. 

Quelles options pour Intel sur ce marché ? Viser le haut de gamme semble difficile. Même avec une armée d’ingénieurs et une palanquée de brevets, rattraper AMD et Nvidia en si peu de temps semble difficile. Les GeForce et Radeon sont des merveilles en terme de développement tant au niveau matériel que logiciel. Il semble illusoire d’imaginer Intel parvenir à ce niveau de maîtrise en si peu de temps.

Viser un marché dédié au calcul GPU plus qu’à la 3D pure et dure est également plausible. Cela permettrait à la marque de proposer des solutions plus compétentes en performances sans forcément exploser les budgets de ses clients.

Un GPU moyen de gamme permettrait de viser largement le secteur et offrirait à Intel la possibilité d’une communication originale. En développant des Core adaptés en parallèle de ces nouvelles puces, des chipsets et des cartes mère pouvant en profiter, Intel aurait la possibilité de proposer des solutions capables de faire tourner des jeux 3D de manière tout à fait honnête tout en profitant des capacités GPU pour d’autres tâches. La marque a les moyens de faire connaitre ce type d’usage et suffisamment d’appui pour pousser de nombreux développeurs à se pencher sur ce type de développement.

Enfin Intel peu s’associer avec des marques tierces actuellement sur le marché pour développer des solutions indépendantes. Les constructeurs de carte-mères, généralement également constructeurs de cartes graphiques, pourraient lancer des solutions « Intel » comme elles le font pour les puces AMD ou Nvidia.

Il reste pas mal de temps avant que l’on découvre cette nouvelle solution, et la petite vidéo présentée par la marque ne nous dit pas si 2020 est une date de lancement de ces puces ou une simple présentation de celles-ci…


Soutenez Minimachines avec un don mensuel : C'est la solution la plus souple et la plus intéressante pour moi. Vous pouvez participer via un abonnement mensuel en cliquant sur un lien ci dessous.
2,5€ par mois 5€ par mois 10€ par mois Le montant de votre choix

Gérez votre abonnement

7 commentaires sur ce sujet.
  • 7 septembre 2018 - 18 h 37 min

    Personnellement, j’attends beaucoup d’Intel sur ce coup. Sur le secteur de GPU orienté jeu, NVidia a depuis quelques année une situation quasi-monopolistique. AMD tente tant bien que mal de suivre mais ça fait belle lurette qu’ils ne sont qu’en position de suiveur. Du coup, le marché se sclérose progressivement et NVidia en profite un maximum (le tarif annoncés de la nouvelle génération de GPU des verts est assez éloquent, surtout quand on voit que le gain de perf net est vraiment pas exceptionnel)

    Répondre
  • 7 septembre 2018 - 20 h 51 min

    Une bonne initiative si INTEL est capable de se positionner sur un prix bas avec un produit intéressant .
    Je pense pas que l’acheteur habituel de carte Nvidia achètera du circuit graphique Intel .
    Inversement ,il existe un marché pour des cartes graphiques offrant un bon prix et de bonne performance sur des jeux classique .

    Répondre
  • 9 septembre 2018 - 18 h 29 min

    En calcul GPU ça me paraît assez compromis… parce que développer une solution GPGPU avec OpenCL relève encore du masochisme. Pour avoir créé des projets en OpenCL et en CUDA, y’a pas photo, CUDA reste bien plus accessible à tous les niveaux…

    Répondre
  • 10 septembre 2018 - 14 h 32 min

    @Alex: personnellement, je pense qu’Intel va se casser la gueule dans se secteur comme il l’a fait dans celui des smartphones. Il essaye tout pour compenser la chute des x86…

    @ptitpaj: Intel avec prix bas dans la même phrase…ça fait bizarre.

    @yattoz: ça ne peut pas être facile, mais ça là que je le verrai le mieux. Il y a une tendance des accélérateurs pour serveurs. Intel y est bien implanté avec une maîtrise certaine.

    Répondre
  • 10 septembre 2018 - 15 h 52 min

    @Skwaloo: C’est possible (et même très vraissemblable). Mais quand bien même, un nouvel acteur sur ce secteur ne fera vraiment pas de mal, ne serais-ce que pour faire réagir temporairement.

    Répondre
  • 11 septembre 2018 - 9 h 26 min
  • 10 décembre 2018 - 13 h 15 min

    […] de ce type de port d’extension car ce marché était inoccupé par la marque. Avec le lancement des circuits graphiques Intel prévues pour 2020, le marché évolue et la marque pourrait tout à fait proposer des offres NUC Ghost Canyon X et […]

  • LAISSER UN COMMENTAIRE

    *

    *