Intel officialise son arrivée sur le marché des cartes graphiques pour 2020

C’est dans un court et bizarre tweet qu’Intel confirme au grand public l’arrivée de cartes graphiques à son nom pour 2020. Le fondeur ne semble plus faire mystère de ses intentions même si il n’enrobe pas son annonce d’une communication très classique.

La rumeur existait depuis des mois, l’embauche de Raja Koduri par Intel était un point clé. Surtout quand cet ancien architecte en chef chez AMD indiquait lui même travailler sur des puces graphiques indépendantes était ensuite rejoint par Jim Keller…

Si des rumeurs d’une arrivée beaucoup plus rapide d’Intel sur ce marché des cartes graphiques sont rapidement apparues, elles sont peut être le fruit d’une certaine impatience de voir la marque rejoindre AMD et Nvidia sur ce terrain. Une arrivée qui pourrait être bénéfique pour les consommateurs avec un troisième larron en concurrence sur ce marché très restreint aujourd’hui par rapport à ce qu’on connaissait à la fin des années 2000.

La confirmation par ce simple tweet est doublée par Brian Krzanich, le PDG d’Intel, qui a confié à des analystes qu’Intel va rentrer sur le marché des circuits graphiques d’ici 2020. Cela laisse un peu plus de marge de manœuvre pour le développement de ces solutions. 2020, c’est une date assez lointaine et on sait que les calendriers ne sont pas forcément respectés au pied de la lettre par le fondeur… 2020 cependant est un objectif atteignable à marche forcée. Entre l’embauche de Koduri et cette date, il n’y a guère que trois ans ce qui est très peu pour développer un circuit graphique performant. Plusieurs scénarios sont donc possibles.

D’abord que cette embauche est intervenue après le début du travail de base d’Intel autour de cette puce et que le transfuge d’AMD est venu pour raccrocher des wagons techniques et établir une voie après un premier travail du constructeur. Cela peut aussi signifier qu’Intel met en place des moyens importants pour rattraper son retard. Les experts estiment qu’il faut 5 ans pour accoucher d’un circuit graphique digne de ce nom aujourd’hui… Mais si certains éléments du calendrier sont incompressibles comme les réalisations techniques nécessaires à valider les puces, le reste peut être compensé par une débauche de moyens financiers avec l’embauche de nombreux ingénieurs.

2020 est, en tout cas, une date plus réaliste pour proposer une solution crédible sur un marché où la concurrence dispose de nombreuses années d’avance sur le terrain du très haut de gamme. Intel n’est pas un petit  acteur du marché graphique, ses puces étant intégrées à ses processeurs, il est par défaut un des acteurs les plus importants du monde PC. Mais si ses propositions sont intéressantes pour un usage multimédia classique, ce ne sont pas les plus impressionnantes en terme de capacités.

IrisLogo

Des puces graphiques pour quoi faire ? Probablement pas pour permettre de jouer mieux, du moins pas dans un premier temps. L’objectif d’Intel ne sera pas de proposer d’énorme capacités graphiques en 3D et des tas d’effets pour concurrencer les GeForce et les Radeon. Le point d’achoppement qu’Intel doit atteindre, c’est celui des calculs que permettent les circuits graphiques et leurs myriades de cœurs en parallèle. Des applications de plus en plus gourmandes comme l’Intelligence Artificielle ou plutôt le machine learning sont désormais toutes calibrées pour fonctionner sur des circuits graphiques et Intel n’a pas de solutions pour répondre à ces avancées.

2018-06-13 11_21_22-minimachines.net

Tout juste mis en service, le Summit, un supercalculateur construit par IBM et Nvidia est annoncé comme le supercalculateur le plus rapide au monde avec 200 petaflops. Il n’embarque aucun processeur Intel…

Les Xeon, les puces les plus puissantes d’Intel en matière de serveurs, ne sont pas adaptées à ce type de calcul et les solutions de Nvidia sont bien plus performantes en terme de puissance mais également en rendement par rapport à la dépense énergétique demandée. Les premières puces graphiques d’Intel devraient donc viser ce marché des data center et non pas les machines de jeu. Histoire de ne pas voir ce marché se détourner du fondeur vers Nvidia ou d’autres.

Evidemment, si le développement de cartes graphiques à destination des serveurs peut amener Intel à proposer des solutions indépendantes au grand public pertinentes, il ne devrait ps se priver d’y réfléchir.


Soutenez Minimachines avec un don mensuel : C'est la solution la plus souple et la plus intéressante pour moi. Vous pouvez participer via un abonnement mensuel en cliquant sur un lien ci dessous.
2,5€ par mois 5€ par mois 10€ par mois Le montant de votre choix

Gérez votre abonnement

13 commentaires sur ce sujet.
  • 13 juin 2018 - 15 h 16 min

    Je dirai trop tard pour Intel…
    et cela même si Intel a racheté certaines entreprises,
    particulièrement intéressantes, Altera, Movidius, Mobileye, Nervana…

    Il faut du temps, l’argent et de l’expérience pour pouvoir se placer
    sur le marché des cartes graphiques, et 2020, c’est beaucoup trop loin…
    car Nvidia et AMD vont aussi beaucoup évaluer !

    La perte de la maîtrise de son pré-carré sur le X86
    va faire énormément de mal à Intel, avoir laisser
    AMD les rattraper, quel erreur stratégique !!!

    Intel a force d’être devenu un Mammouth obèse,
    n’arrives plus à se déplacer assez vite !
    Je ne suis pas sûr qu’Intel soit en mesure de survivre
    à l’effondrement de ses marges de plus de 50%…
    Je crois que tout dépendra de la Stratégie d’AMD !

    Répondre
  • 13 juin 2018 - 15 h 53 min

    @JeanD: AMD n’est pas vraiment un souci pour Intel. Et a vrai dire Intel l’a maintenu pendant des annees sous perfusion pour éviter se retrouver en monopole. Par contre ARM …

    Répondre
  • Tux
    13 juin 2018 - 17 h 26 min

    Tout me semble logique suite aux différentes annonces Nvidia qui était dédié sur des circuits graphiques pros. Cette contre offensive se fait tard chez Intel, et risque de perdre de gros systèmes. Et c’est encore plus vrai avec les problèmes de sécurités de début d’année (meltdown & spectre).

    Répondre
  • 13 juin 2018 - 18 h 05 min

    @R2D2:
    Je te dirais qu’il est déjà trop tard pour ARM,
    car le marché, c’est fait sur x86…
    Arm aurait pu et du tout exploser au temps de l’Archimède en 1987…
    maintenant les X86 sont en mesure de s’introduire
    dans les smartphones, ce qu’ils n’ont jamais pu réaliser concrètement avant,
    car beaucoup trop gourmand !!!

    Aujourd’hui, AMD ou Intel seraient en mesure de créer
    un x86 pour smartphone avec un TDP de moins d’1 Watt,
    et il était temps…
    Donc il y aurait possibilité de rabattre les cartes
    du marché du smartphone avec une compatibilité x86 et Windows 10 !

    Je penses qu’AMD est techniquement en mesure de ‘tuer’ Intel,
    mais derrière l’économie, il y a aussi le politique !!!
    Ce n’est donc pas obligatoirement le Meilleur qui gagne…
    regarde le Film Antitrust parlant de Microsoft,
    sans parler des intérêts de la Défense National,
    NSA et autres !

    Il existe un équilibre des puissances,
    qui fait qu’à partir d’un certain niveau de puissance,
    Tu n’as pas vraiment besoin de plus,
    et justement avec la Nouvelle Génération de processeur Ryzen
    avec GPU Vega intégré, on y arrive !!!

    Le marché va être complétement redistribué d’ici à 2 Ans…

    Donc que demander de plus une IA personnel pour remplacer
    le cerveau des gens lobotomisés par la ‘programmation’ médiatique ?!

    Répondre
  • 13 juin 2018 - 22 h 46 min

    @JeanD: à quoi bon la compatibilité x386 dans un téléphone Android? Pour faire tourner des apps MSDOS en natif peut-être?
    C’est cuit pour Intel depuis quelques années. Il y a une nouvelle génération de jeunes qui grandissent en ce moment sans le moindre besoin de compatibilité IBM PC.

    Pour revenir au sujet, c’est amusant de voir le titre de l’article: Intel arrive sur le marché des cartes graphiques? Retour vers le futur: au début des années 2000 au temps de la 3DFX Voodoo3, Intel avait osé sortir des cartes vidéo « INTEL EXTREME GRAPHICS » en bus AGP. Pas la peine de chercher les benchmarks de l’époque, ils étaient accablants. Après quelques mois, Intel jette l’éponge, incapable de sortir de nouvelles cartes tous les 6 mois. Les mastodontes bureaucratiques ne peuvent pas faire à des marchés concurrentiels.

    Répondre
  • 13 juin 2018 - 23 h 04 min

    @zhir:
    ‘Les mastodontes bureaucratiques ne peuvent pas faire à des marchés concurrentiels.’
    Tout à fait d’accord avec Toi…

    Je crois personnellement à l’intégration d’une vrai compatibilité Windows 10,
    dans les smartphones, et que ce n’est pas encore trop tard !
    Pouvoir emmener mon PC partout avec moi de manière automatique et naturel…

    Je n’ai rien contre l’ARM et Android, mais Microsoft, Intel et AMD
    auraient une carte à jouer face à Google et son Android,
    qui me semble beaucoup trop intrusif et un véritable Viol de nos vies privées…

    Je suis personnellement pour le démantèlement de GOOGLE (Android)
    car il est devenu beaucoup trop puissant, même hégémonique !

    Répondre
  • 13 juin 2018 - 23 h 24 min

    Intel a possédé un certain savoir faire en matière de technologie .
    A l’époque mon petit chipset i815 était même supérieur a ma carte ATI Rage pour la vidéo sur mon émulateur Playstation.
    Ensuite INTEL a surtout regardé le marché des PROCESSEURS et des Chipset pour ses cartes mères .

    INTEL a un atout a jouer ,celui de la finesse de gravure de ses processeurs ,technologie facilement applicable au GPU.

    Peut etre qu’INTEL aurait du séparer le GPU du Chipset a l’époque ou racheter 3DFX pour disposer d’une bonne technologie GPU .

    Intel peut aussi offrir un GPU d’entrée de GAMME assez puissant pour offrir un peu de jeux vidéo et un bon décodage de Vidéo .

    Reste a INTEL de présenter une Gamme de GPU d’un prix abordable et aux performance pas trop castrées .

    Répondre
  • 14 juin 2018 - 9 h 20 min

    @JeanD:
    Intel a littéralement été incapable de rentrer sur les marchés smartphone et au delà IoT. Ils en sont d’ailleurs sorti brutalement après avoir foutu l’argent en l’air, plantant dans le dos les partenaires qui leur ont fait confiance: Le cas fera école, après cela impossible de revenir.

    Sur le serveur, ils peuvent dire merci à l’héritage PC qui a largement débordé du marché de l’ordinateur personnel: Il a tué d’abord celui de la station de travail Unix (grâce à Linux, auquel Wintel a pourtant bien résisté) puis en partie celui du serveur.

    Je dis en partie car, l’article l’illustre, IBM et ses PowerPC devenu Power tout court est là en alternative: Le supercalculateur de l’article est en effet construit autour de Power9 reliés aux GPU Nvidia via un crossbar qui n’a pas les limites du PCI puis PCIe auxquels Intel reste scotché: Même dans leurs « SoC » (qui ne sont que la mise sous le même capot de tout ce qui était avant séparé sans réelle évolution architecturale), tout est construit là dessus pour minimiser les portages.

    Le x86 traine presque 4 décennies d’historique (et de compatibilité ascendante, qui a fait sa force mais est désormais une faiblesse) de plus en plus lourd à porter. Quand on a connu autre chose, crois moi, il faut se boucher le nez hermétiquement pour travailler là dessus. Avec en prime un support minable quand on n’est pas un marché valable comparativement au PC. Dans ce cadre, il parait difficile d’être optimiste: Toujours en retard, de plus en plus coincés techniquement dans le passé, ne faisant aucun effort soutenu pour sortir du marché PC en déclin.

    Un mastodonte pareil ne meurt pas en quelques années, mais à continuer ainsi c’est inéluctable.

    Répondre
  • 20 juin 2018 - 14 h 36 min

    […] a confirmé il y a très peu de temps son intention de revenir sur le marché des chipsets graphiques indépendants pour 2020. Une voie que le fondeur orientera vers le marché professionnel dans un premier […]

  • 25 juin 2018 - 16 h 49 min

    … J’ai du mal croire que ne va pas finir comme Intel sur les smartphones.

    @JeanD: « Ce n’est donc pas obligatoirement le Meilleur qui gagne… »
    C’est bien pour ça qu’il n’est pas trop tard pour les ARM. Parce que même s’il ne sont pas les meilleurs en technique, ils seront certainement toujours meilleur au niveau prix/perfs. Maintenant que Micro$oft a permis à des ARM d’être compatible Windoz, plus aucun grand secteur ne leur et inaccessible. Intel n’est plus le numéro 1 des semi-conducteurs, le nombre de puces produites et le nombre de concurrents sont énormément plus grand du côté des ARM que du côté des x86.

    Répondre
  • 25 juin 2018 - 16 h 58 min

    @ptitpaj: « INTEL a un atout a jouer ,celui de la finesse de gravure de ses processeurs ,technologie facilement applicable au GPU »
    Intel est justement à la traîne question gravure. Il a annoncé que c’est l’année prochaine qu’il sera prêt pour le 10nm… La concurrence en sera au 7nm !

    Répondre
  • 25 juin 2018 - 17 h 13 min

    @Skwaloo: Pour être exact la façon dont les différents fondeurs calculent leur finesse de gravure nb’est pas la même.

    Intel prend le plus grand espace du DIE comme mesure. Si un seul transistor est en 10 nanomètres alors l’ensemble du CPU est annoncé comme gravé en 10 nanomètres même si 99% du DIE est gravé en 7 nanomètres.

    Les concurrents font l’inverse. Si un seul transistor est en 7 nanomètres alors l’ensemble du CPU est annoncé comme gravé en 7 nanomètres même si 99% du DIE est gravé en 10 nanomètres.

    Cette info permet de relativiser certaines annonces.

    Répondre
  • 25 juin 2018 - 17 h 20 min

    @Skwaloo:
    Le x86 n’est pas obligatoirement fini pour les Smartphones,
    car les technologies ont beaucoup évoluées en matière d’Autonomie et de gestion du TDP,
    en gravure CPU, le 12 nm FinFET et même le 7nm pourraient changer complètement la donne…

    Ce sont des choix plus liés aux politiques commerciales
    de Microsoft, d’AMD ou d’Intel…
    Mais Il y aurait peut-être un GROS coup à jouer pour Microsoft !!!

    Répondre
  • LAISSER UN COMMENTAIRE

    *

    *