Nvidia Tegra 4 : Quad core Cortex-A15, 28 nm et 72 coeurs graphique ?

Nvidia Tegra 4 : Quad core Cortex-A15, 28 nm et 72 coeurs graphique ?

La présentation du Tegra 4 de Nvidia devrait être un des temps fort du CES 2013, ce nouveau processeur en ARM Cortex-A15 va proposer des performances haut de gamme pour des tablettes encore plus impressionnantes tout au long de 2013. Une fuite non vérifiée présente ce que le nouveau processeur Nvidia pourrait avoir dans le ventre.

La puce du nom de code Wayne en référence au héros qui se cache sous le masque de Batman, devrait être officiellement lacée au CES 2013 si l’on en croit le calendrier de Nvidia. Beaucoup de rumeurs laissent entendre un processeur reprenant ce qui a fait le succès du Tegra 3 en version améliorée. Elles semblent confirmées par ces infos qui commencent a fuiter mêmle si il faut rster circonspect par rapport à ces documents dont on ne sait pas la source exacte.

tegra-4-wayne-leaked-specs-slide-640x353

A vrai dire je ne crois pas à la véracité de ce document, je pense qu’il s’agit d’un montage, mais il reprend l’ensemble de ce que l’on anticipe sur le Tegra 4.

Nvidia reprendrait donc bien le principe de l’architecture du Tegra 3 dans son concept : A savoir 4 coeurs de processeur ARM Cortex plus un 5eme coeur, baptisé « core companion », attaché à l’exécution des tâches les plus faciles, afin d’économiser de l’énergie. Lire un MP3 ou afficher une page ne demande pas ou peu de ressources et alimenter un processeur plus puissant n’est donc pas nécessaire. Cette opération permet de ne  pas sacrifier la batterie en employant une puce Cortex-A15 pour faire une tâche qu’un processeur très entrée de gamme est capable de faire.

Car les puces de base, les 4 coeurs qui servent à la gestion de la tablette, devraient être des petits monstres de performance. Le Cortex-A15 est la dernière génération de processeur ARM. Les 4 coeurs seraient eux même accompagnés d’une partie graphique comprenant un certains nombre de coeurs de calcul spécialisés signés Nvidia. Le document par le de 72 coeurs GeForce, contre les 12 du Tegra 3 actuel), impossible de savoir si il s’agit d’une info réelle mais le principal  élément à prendre en compte et la technologie employée dans ces coeurs et pas leur nombre. Le tout est présenté comme ayant 20 fois la puissance d’un Tegra 2 et 6 fois celle d’un Tegra 3. Si il faut rester calme par rapport à ces échelles non confirmées par le constructeur, le bref passage d’un double coeur Cortex-A15 de chez Samsung entre mes mains m’a fait forte impression sur sa capacité a gérer la Nexus 10 en très haute définition.

Pour le reste cela semble logique puisque hérité des spécifications de l’ARM Cortex-A15 : Gestion de la vidéo en encodage et décodage Full HD jusqu’au 4K (  3820×2160 ) du HDMI avec HDCP et de l’USB 3.0… Rien de suffisamment sérieux pour être parfaitement créadible mais peut être un avant gout de ce qui va débarquer au CES.

Source : Extremetech

19 commentaires sur ce sujet.
  • 18 décembre 2012 - 17 h 01 min

    Une Asus Vivo RT avec le Tegra 4 dans le ventre, je signe :D
    (et courant 2013 Unreal Engine et Unity3D qui vont logiquement compiler sur win RT ca sera que du bon si les editeurs jouent le jeu)

    Répondre
  • 18 décembre 2012 - 17 h 36 min

    Un vrai smartbook avec la puissance de cette puce et un windows RT/linux ?
    Nan … je voudrais un mac book air avec un A7X et iOS!

    C’est toujours bien d’avoir ces puces qui bousculent le marché, Intel et AMD vont s’intéresser aux puces basses consommations et tout le monde va y gagner.

    Répondre
  • 18 décembre 2012 - 17 h 39 min

    « m’a fait forte impression sur sa capacité a gérer la Nexus 10 en très haute définition »
    Gérer la très haute définition en calculs 2D n’est à mon avis pas une prouesse exceptionnelle.
    Par contre pour les calculs 3D, c’est une autre histoire. Sauf que sur une Nexus 10 avec son écran 2560×1600, les jeux peuvent s’afficher en 1280×800 sans interpolation : 1 pixel logique = 4 pixels physiques, donc image parfaitement nette. C’est donc le mode idéal pour faire tourner des jeux dans une définition confortable tout en ne mettant pas à genoux le GPU.

    Répondre
  • 18 décembre 2012 - 17 h 48 min

    Comme d’habitude, le triomphe du marketing nvidia.
    Si il est évident que le tegra 4 sera plus puissant que le tegra 3, du simple fait du passage de l’architecture Cortex A9 à du A15, pour le reste c’est encore et toujours du blabla marketing.

    L’expérience passée montre que tous les processeurs tegra ont été équivalents, voire souvent inférieurs aux puces maisons qualcomm, samsung, ou même apple sortis à peu près en même temps. Le tegra 2 était incapable de décoder de la vidéo HD; le tegra 3 était battu en terme d’optimisation énergie par certains processeurs snapdragon sortis juste avant…

    Bref, à part une bonne couche de marketing et la promotion de la fragmentation logicielle (le fameux market « tegra zone », où les jeux soit disant « optimisés tegra » tournent en fait aussi bien voire mieux sur des puces concurrentes), je ne sais pas trop ce qu’apporte de plus la gamme tegra. Est-elle plus économique pour les constructeurs ?

    Répondre
  • 18 décembre 2012 - 18 h 01 min

    Gros +1 Simon. Jusque là je n’ai pas trouvé les Tegra très séduisants.
    Cela dit, le monde ARM évolue vite. Le 4 pourrait être un bon cru.

    Répondre
  • 18 décembre 2012 - 18 h 07 min

    J’avoue que je suis tombé des nues quand ma Xoom (Tegra 1) s’est avérée incapable de décoder des vidéos qui passent sur ma Nook Color (TI A8 monocoeur je crois). En l’attente de tests, j’ai mis les Tegra sur ma liste de « a éviter ».

    Répondre
  • 18 décembre 2012 - 18 h 07 min

    @Simon JB: 2 trucs :

    Il s’agit surement d’un fake et Nvidia est probablement dans ce « triomphe marketing » que tu dénonces ;)

    Ensuite, concevoir et fabriquer un processeur ARM c’est plus ou moin 24 mois de développement, aussi penser qu’un processeur sorti 2 mois avant ou après un autre puisse avoir un rapport avec un concurrent est illusoire. les développements de toutes ces puces sont parallèles.

    Le choix de ne pas integrer les instructions NEON dans le Tegra 2 qui lui enlevaient la lmecture HD High Profile (et non pas la lecture HD) était un choix pertinent. A l’poque les tablettes étaint au mieux en 32 Go et un film HD High Profile de 8 Go n’avait pas vraiment d’intérêt sur la tablette à mon sens, surtout sur un écran 1204 x 600 a l’époque… Les instructions NEON étant très gourmandes en énergie, le choix a été fait de décoder en interne que le HD basique, des fichiers déjà assez lourds sur une tablette 8Go non ? 1.4Go le film classique de 90 minutes ça en fait pas lourd.

    L’intérêt pour les constructeurs ? C’est simple, Nvidia les aide a implémenter facilement les puces avec le KAI, ils leurs livrent une solution prête a l’emploi et aident le développement derrière de jeux en les optimisant. Ils communiquent sur leurs avancées auprès du grand public. Ca c’est du marketing oui, mais c’est du marketing pertinent puisque les utilisateurs y gagnent. C’est une façon de se démarquer et d’obtenir des engins moins chers.

    Répondre
  • 18 décembre 2012 - 18 h 12 min

    @obarthelemy: Xoom = Tegra 2 : http://fr.wikipedia.org/wiki/Motorola_Xoom

    Elle lit la plupart des fichiers HD sans soucis, juste les HP qui ne passent pas. Avec MX Player je fait tourner tout type de fichiers, séries, films autres… Xvid, mkv plein de codecs. Juste le High Profile qui ne passe pas.

    Répondre
  • 18 décembre 2012 - 19 h 05 min

    Je ne suis pas fan non plus des appellations abusives de nvidia qui garde en réserve des technologies déjà au point et nous les distille au compte goutte en changeant au passage le numéro de version de la puce.

    On a vécu cela avec les puces intel depuis le tout début et franchement il y en a marre. Cette puce sera ni plus ni moins équivalentes à celles qui sortiront au même moment.

    Je sais par expérience que les spécifications sur papier sont toujours des mystifications, rien ne vaut le feeling d’un test en réel pour se faire un avis qui tienne la route.

    Souvenez-vous du cache misère technologique « optimus », ils se sont bien foutus de nous…

    Répondre
  • 18 décembre 2012 - 19 h 30 min

    @Pierre Lecourt:

    Tu as raison d’apporter une précision sur le High Profile. Cela ne m’a jamais posé problème d’ailleurs à titre personnel, je suis convaincu depuis longtemps que regarder des vidéos HD de 8Go sur un écran 10 pouces n’a pas de sens.
    Après, le choix était peut-être pertinent, mais en terme de « technique pure » (puisqu’ici il est questions de performances graphiques 72 foix supérieures et autres hyperboles) d’autres puces savaient le faire, sans pour autant accuser un déficit d’autonomie.

    Là où je ne suis pas d’accord c’est ça :
    « Nvidia les aide a implémenter facilement les puces avec le KAI, ils leurs livrent une solution prête a l’emploi et aident le développement derrière de jeux en les optimisant »

    Des solutions prêtes à l’emploi, fort bien. Des « optimisations » propriétaires avec kit de développement incompatibles et markets artificiellement bridés, non. Il ne devrait pas y avoir des jeux « tegra » et des jeux « android », incompatibles les uns avec les autres, ça n’a pas de sens ; on s’emmerde depuis trop longtemps sur PC avec des driver de cartes graphiques propriétaires, versions de directx incompatibles et autres pratiques anti-concurrentielle pour se réjouir de voir ça arriver sur android.
    Un développeur de jeu devrait optimiser son programme en fonction des performances de calcul de la machine hôte ; pas en fonction de la marque de sa puce graphique…

    Répondre
  • A
    18 décembre 2012 - 20 h 06 min

    Nvidia ne fait pas les meilleures puces (ni les plus mauvaises) mais ils sont bons en marketing, c’est vrai.
    D’ailleurs les seules puces que connaissent le grand public sont les Tegra.
    Sur ce coup, ils font un peu comme Intel (à leur échelle) avec le fameux « Intel inside ».
    Par contre leurs campagnes marketing n’aident pas le consommateur ni ne rendent leurs puces meilleures.

    Leur plateforme KAI permet néammoins de faire baisser un peu le prix.

    Aussi le SnapDragon S4 (pro ou pas) ainsi que tous les Cortex A15 sont en 28nm.

    Répondre
  • 18 décembre 2012 - 20 h 07 min

    @Simon JB: Ce que je vois c’est le résultat, Vector Unit propose des titres optimisés Nvidia Tegra grâce à Nvidia. Ce que l’on sait moins c’est que les ingés de Nvidia ont en plus aidé Vector Unit ou Madfinger a développer leurs titres en général et pas que « Tegra ».

    ils font ça sur les jeux PC depuis toujours et cela marche plutôt bien. Tu remarqueras que ça n’empêchera pas l’editeur de proposer le jeu hors Tegra Zone. Du coup l’utilisateur y gagne 2 trucs : Lea finalisation rapide de certains titres et l’assurance d’une compatibilité. Ca n’a l’air de rien mais depuis le Tegra 2 ceux qui se fient à ce logo sur la boite ont au moins lm’assurance de retrouver une puce capable de faire tourner des titres 3D. Sinon ils ont des produits avec des indications comme 1.2 GHz qui additionne 3 fréquences sans rapport. C’était ça le marché AVANT les tablettes de marque.

    Alors oui, Big.LITTLE arrive pour toutes les tablettes ARM mais le concept est déjà implanté avec le Tegra 3, comme la facilité d’input de l’écran, PRISM et plein d’autres choses. Ce que j’apprécie dans ce marketing c’est que si il n’apporte rien de révolutionnaire il est éducatif et donc il forme les utilisateurs a bien choisir leur produits.

    Répondre
  • 18 décembre 2012 - 23 h 27 min

    Si cela s’avère vrai ce sera un vrai petit monstre, en espérant que le software utilisera cette puissance intelligemment.

    Sur tegra 3 T33 le 4K passe au niveau de la vidéo mais le son bloque un peu. Sur ICS en tout ca, sur JB plus aucun lecteur ne fait tourner cette fameuse vidéo en 4K.

    Répondre
  • 19 décembre 2012 - 0 h 13 min

    Nvidia, c’est un peu la technique des bourrins, et ce depuis toujours (e.g. simple les cartes graphiques où la seule chose qu’ils ont su faire c’est empiler les cores, et encore mieux, les slots pci express, et ce, bien sur, en consommant comme des malades. ATI a bien plus apporté en terme de design, avec un compromis perf/conso bien meilleur. Alors quand je vois sur la slide « with patented 5th battery saver core », là, je suis vraiment mort de rire sur la mention « patented ». Genre Nvidia a inventé le big.LITTLE, on va les croire! Perso, le quad-A15 me semble ridicule par rapport aux usages d’une tablette. Ils sont où les hardcore gamers sur tablettes lol. Le pire c’est qu’ils arrivent à sortir des time-to-market de folie, et que rien que parce qu’ils sont les premiers avec un soc nouvelle génération, ils font des design wins. J’attends de voir les retours utilisateurs sur le TG4, quand ils verront que les concurrents sont bien meilleurs en autonomie en usage courant.

    Répondre
  • 19 décembre 2012 - 1 h 51 min

    @Pierre Lecourt: Je suis d’accord avec tout mais j’ai des problemes avec ca : « Ca n’a l’air de rien mais depuis le Tegra 2 ceux qui se fient à ce logo sur la boite ont au moins lm’assurance de retrouver une puce capable de faire tourner des titres 3D. »

    Oui c’est vrai les puces Tegra sont capables de faire tourner des jeux, le probleme c’est la facon dont ils tournent, a quelques mois d’intervalle j’ai eu un Optimus 2X (Tegra 2) et un HTC Sensation (Snapdragon S3 MSM8260) et une Acer Iconia Tab (Tegra 2) et meme si sur les jeux 3D je n’avais pas les effets d’éclaboussure sur Riptide GP par exemple, c’était bien plus agréable et fluide sur le Snapdragon et son Adreno 220 que sur les Tegra a base de puces GeForce, et a ce que j’ai pu voir des One X c’est la meme chose, oui Shadowgun THD est plus beau que le Shadowgun original puisqu’il ajoute des effets de fumée, d’eau ect, mais meme sur des jeux casu jouer a 15 ips l’année ou le cinéma se décide a passer a 48 très peu pour moi :p

    Répondre
  • 19 décembre 2012 - 10 h 53 min

    @Pierre Lecourt:

    Un marketing éducatif ? Pardonne moi, mais le marketing nvidia il enseigne juste au consommateur à acheter du tegra. Comme n’importe quel marketing.
    Et il n’éduque rien, au contraire, il noie le consommateur sous des effets de manche technique sans aucun sens (72 fois plus puissants, on dirait la parodie Apple – le macbook est 2300 fois plus rapide qu’une tranche de jambon ^^) tout en présentant comme propriétaires des « innovations » qui sont des standard marché (le companion core par exemple).

    Après, si ils aident les développeurs de jeux à sortir et optimiser leurs produits, c’est bien pour les développeurs et pour les joueurs. Quand ils négocient une exclusivité provisoire qui consiste à ajouter une ligne de code au programme pour l’empêcher de tourner sur les processeurs non tegra, c’est un danger pour l’écosystème. J’ai le souvenir de jeux soit disant « exclusifs tegra 2 » qui tournaient mieux sur un galaxy S2 que sur ma tablette transformer.

    « Perso, le quad-A15 me semble ridicule par rapport aux usages d’une tablette. Ils sont où les hardcore gamers sur tablettes lol »

    Le jeu sur tablette évolue très, très vite. Le gameplay sera toujours limité par l’écran tactile, mais la qualité technique augmente chaque année. Par ailleurs, avec des résolutions d’écran type Nexus 10 qui vont se généraliser en 2013, des puces plus puissantes ne seront pas de trop. Quand tu achètes une tablette, autant qu’elle soit compétitive plusieurs années…

    Répondre
  • 19 décembre 2012 - 11 h 37 min

    @Simon JB: Le Companion Core, c’est très bien de la part de Nvidia d’avoir capitalisé dessus. Je ne vois pas le problème. avant le Companion Core de Nvidia et le marketing qui a été fait autour, personne n’en parlait. Personne. Même pas ARM. Du coup, le public ne connaissait même pas son existence et je continuais à lire des réflexions ineptes sur la course inutile à la puissance comme la remarque sur les Quad Core A15…

    Ok, Big.LITTLE fait partie du design de base des puces de 2013 mais en attendant quelle puce ARM propose un système similaire en 2012 ? Qui s’est dit en 2009-2010 qu’il fallait miser la dessus pour sortir une puce avec un cinquième coeur en 2012 ? Quand Nvidia s’est fait sortir du jeu des netbook par Intel, le PDG de la marque s’est pris par la main et a fait le pari d’investir dans ARM. Ils ont pensé en 2009-2010 a un core Companion. Je trouve ça bien et courageux, je vois pas pourquoi ils s’empêcheraient d’en parler en 2012 alors que leur Tegra 3 en a un.

    Les concurrents en auront un en 2013 ? Oui, mais si le public s’intéresse à la question c’est parce que Nvidia a communiqué dessus auparavant c’est ce que j’appelle un marketing éducatif.

    Coller une demie-douzaine d’ingénieurs expérimentés pour aider une boite Tchèque a sortir un jeu plus vite, ce n’est pas un coût anodin. Evidemment que Nvidia a une idée derrière la tête, et alors ? 1 mois d’exclusivité pour TegraZone ? C’est le prix a payer pour avoir des jeux de qualité sur Android ? Franchement c’est pas cher payé parce que jusqu’à peu, les titres étaient franchement minables sur cet OS. Nvidia n’est pas philanthrope et son approche des programmeurs et calculée mais je préfère ça plutôt que la promesse d’un Angry Birds StarWars préchargé sur ma tablette…. C’est à dire ce que font la plupart des concurrents.

    Tant que cela fragmente le système de façon temporaire avec des exclusivité de quelques semaines, je trouve l’effet positif pour tout le marché.

    En attendant cela pousse l’ensemble de l’écosystème a se remuer : Intégrer du double, du quadruple coeur, du core companion mais aussi le direct touch, ou la techno Prism. Cela force tous les constructeurs a évoluer parce que le marketing de Nvidia fait mouche. Si Samsung, Qualcomm font mieux, alors cela forcera Nvidia a faire encore mieux. C’est tout benef pour nous. Si aujourd’hui les gens veulent acheter une boite ou est écrit Tegra dessus, Samsung et d’autres vont devoir faire quelque chose pour inverser la vapeur. Et le faire sans être plus cher que Nvidia.

    Je suppose que les tablettes auraient un meilleur écran si il y avait un concurrent sérieux à Corning sur le marché des dalles de verre, je suppose qu’elles auraient plus souvent un stylet si Wacom et Ntrig devaient se battre contre une technologie concurrentes. La concurrence a du bon et le fait que Nvidia communique pousse les gens a mieux lire les specs, c’est ça ce que j’appelle le marketing éducatif.

    Répondre
  • 20 décembre 2012 - 4 h 45 min

    Plusieurs choses:
    – Je ne sais toujours pas quel pourcentage de la batterie est bouffé par le CPU en mode idle ou peu chargé. A mon avis c’est négligeable, donc le big.LITTLE c’est bien, mais pas énorme non plus.
    – Corning fait juste le verre inrayable de l’écran qui protege le LCD, ca n’a pas grand’chose avoir avec sa qualité, juste avec sa résistance. Et il y a des concurrents:
    http://www.geek.com/articles/mobile/gorilla-glass-has-a-new-competitor-called-dragontrail-20110120/
    http://www.phonearena.com/news/Xensation-Cover-is-the-Germans-alternative-to-Gorilla-Glass-claims-it-is-tougher_id30952

    Bref, mon probleme avec nVidia, c’est qu’il y a trop de hype, et des défauts cachés: comme ma Xoom qui ne lisait pas les videos HD. Bon, c’était du Tegra2, mais sur le principe, c’était un mauvais produit qui a été encensé.

    Ca amène un deuxieme point, qui est que les journalistes manquent d’esprit critique. Pour 3.000 billets qui s’extasiaient sur les jeux, il y en a 0 qui ralaient sur la HD. nVidia communique plus et mieux que leurs concurrents. Que les clients lambda se fassent avoir, on peut comprendre. Que les journalistes se fassent avoir aussi, c’est nettement mons normal et plus inquiétant. Tout ça a base de jeux, des FPS en plus, donc l’immense majorité des gens n’ont rien a f… aire.

    Répondre
  • 26 décembre 2012 - 9 h 13 min

    […] La présentation du Tegra 4 de Nvidia devrait être un des temps fort du CES 2013 annoncant des tablettes encore plus impressionnantes tout au long de l'année.  […]

  • LAISSER UN COMMENTAIRE

    *

    *