Haswell c’est l’arrivée chez Intel de puces extrêmement performantes en double et quadruple coeur pouvant aller jusqu’à 10 watts de TDP. De quoi les intégrer au coeur de minimachines de type ultrabook tout en proposant une belle autonomie.
Intel reprend son architecture 3D issue des Ivy Bridge actuels, rajoute un régulateur de tension dans la puce elle même afin d’ajuster la consommation d’énergie le plus efficacement possible et grave le tout extrêmement finement. La partie graphique a elle aussi considérablement évolué et affichera d’excellents scores en vidéo, 2D et 3D.
Le but du jeu étant d’associer autonomie et performances en attendant la génération Broadwell qui sera quand a elle gravée en 14 nano. La production de cette dernière devrait débuter à la fin de cette année pour une commercialisation en 2014. La course aux watts et à la performance est engagée et Intel pourrait surprendre avec ces processeurs certes plus gourmands que ceux d’ARM mais également dotés d’une puissance de calcul sans commune mesure.
2,5€ par mois | 5€ par mois | 10€ par mois | Le montant de votre choix |
« La partie graphique a elle aussi considérablement évolué et affichera d’excellents scores en vidéo, 2D et 3D »
Come d’habitude en matière de gpu intel j’ai un doute ! Ce serait bien la première fois qu’ils sortent un truc valable dans ce domaine, mais bon il faut bien une première fois !
D’après un article que j’ai pu lire, la parti graphique serait plus performante qu’un GT620M.
il me semble avoir lu quelque part que le gpu sera equivalent a un 650m
J’ai depuis un certain temps l’impression qu’Intel a de la réserve sous le coude en terme de puissance et de consommation. Jusqu’à maintenant, Intel me semblait se contenter de rester au niveau d’AMD en rentabilisant au maximum ses investissements.
L’arrivée des processeurs ARM qui se répandent de plus en plus oblige Intel a sortir des choses peut être plus rapidement que prévues.
http://techreport.com/news/24187/haswell-integrated-graphics-keeps-up-with-geforce-gt-650m
Ca l’air OK… sauf pour les gros joueurs.
@obarthelemy: Oui, ça sera suffisant pour la grosse majorité de la population à mon avis.
@Pascal: C’est le lièvre et la tortue… Sachant qu’on se fout pas mal de qui gagne au final, l’important c’est qu’ils aient envie de faire la course :)
Bien trouver le lièvre et la tortue. C’est exactement ce que je pense.
@Pascal: Même impression, Intel est sur la réserve. Sur les parties graphiques, ils avaient sans doute aussi des arrières pensées (pacte?) pour laisser du business à Nvidia/AMD-ATI sur le marché PC classique.
Avec l’évolution en cours, se retrouver avec des parties graphiques de smartphones/tablettes qui poutrent jusqu’a la garde ce qu’ils intègrent sur des PC cela devient tout simplement ridicule.
Si on ajoute que Nvidia s’est mis à leur faire des infidélités avec ARM pour entrer sur ce marché ultramobile et qu’AMD, a la traine côté processeur généraliste, se rattrape sur le côté graphique des PC et propose désormais des APU qui forment sans doute un ensemble bien plus cohérent que chez Intel pour bien des usages (ce que bien des gens semblent ignorer, chance d’Intel qui ne devrait pas durer)… tout en permettant un fonctionnement de concert si on joint une carte graphique externe AMD et non un simple bête switch entre GPU intégré et externe: On ne perds en prime pas son investissement dans le GPU intégré si on veut monter en puissance.
Là, il semble que cela en est trop et il semble que si AMD s’est bien loupé initialement dans son approche des netbook pour les APU ils avaient par contre bien vu l’avenir.
Ca va les stimuler j’espère… avec toujours cet avantage de pouvoir cumuler la puissance du GPU intégré à un externe de leur marque.
Ben une gt 650 m c’est plus que correct je trouve !!
4coeurs et l’ équivalent d’ une bonne carte nvidia, le tout avec 10 watts de tdp… Ca sent l’entourloupe… annoncer que la production est déjà lancée, bof. D’autres fondeurs ont peut être lancé eux aussi d’autre produits.
Je ne suis pas sur qu’il y ait un gros problème de puissance. Le problème de pas mal de monde est de pouvoir ne recharger sa machine qu’une fois par jour et si possible encore moins souvent.
Est ce que la cpu (et la gpu) sont vraiment responsable de ce problème ? Le wifi, la 3G me semble aussi grandement responsable.
Intel, une puissance de calcul sans commune mesure ?! Les Intel capablent d’être sur les marché s des smartphones et tablettes n’ont pas de quoi faire les fières en puissance de calcul. Surtout qu’ils ont du GPU anémique qui ne fera rien de bon face à l’ouverture des ARM à l’OpenCL et RenderScript. Dans le HPC ce sont les GPU qui prennent le dessus, mais pas ceux d’Intel. Du HPC à base d’ARM va sortir avec nVidia ou encore avec le projet Mont-Blanc. Les serveurs à base d’ARM c’est 10 fois moins de conso pour la même puissance de calcul !
Dans le monde ARM aussi il y en a encore sous le pied. La gravure en 28nm arrive sous peu. Le Cortex-A15 présente une puissance intéressante, et avec le big.LITTLE la conso moyenne est contenue. Pour l’instant les fréquences restent en dessous des 2GHz pour les principaux acteurs, mais pour de la puissance Aplied Micro montre qu’il peut y avoir bien plus avec son 128 coeurs à 3GHz !
Il y a le Cortex-A57 qui l’année prochaine aura 3 fois + de puissance pour le même TDP qu’aujourd’hui.
@Skwaloo: Euh, ce billet ne se focus pas sur les machines de type smartphones et tablettes. Regarde autour de toi, en entreprise, chez les particuliers, tu vois combien de PC sous ARM et combien de PC sous Intel ?
A ton avis, le cortex-A57 il lui faudra combien de temps pour poser un traitement d’images sur un cliché de 3Mo si ce traitement ne fait pas partie des outils cablés de son code de base ? Parce qu’un Ivy Bridge actuel c’est de l’ordre de la seconde quand aux Nexus 10 ou iPad 4eme generation, dans la courte liste des outils graphiques disponibles sur Android ou iOS, c’est plutot 15 à 20 :)
La puissance de calcul brute des ARM reste très légère et insuffisante pour l monde PC. C’est pas de la vantardise, c’est un constat. Les besoins du monde PC et celui du monde tablette ne sont pas les mêmes.
@Pierre, pourquoi dans cette article il y a une comparaison avec ARM alors ? Regarder autour de moi n’a aucun rapport.
15 a 20 seconde est invivable pour le particulier ? Et qui fait ça en permanence si ce n’est une poignée de pationés et une niche de pro ? Surtout ton exemple est tout à fait applicable à OpenCL qui permet de grosses amélioration. http://streamcomputing.eu/knowledge/sdks/imagination-technologies-powervr/ Sur ARM on en est qu’au début, le meilleur est a venir.
Cet exemple est aussi bien adapté aux multi-coeurs, a ton avis l’Ivy Bridge qui n’a pas + de 8 coeurs est + rapide que les 128 coeurs à 3GHz du X-gene ?… un indice : « Selon nos calculs, l’unité de traitement sur les flottants des Cortex-A15 ne serait que 2,1 plus lente (à fréquence égale) que celle des Core i7 de dernière génération. Ce ratio monte à 6,3 pour les Intel Atom, ce qui donne une idée du chemin parcouru par ARM. Un écart qui devrait encore grandement se réduire avec les Cortex-A50. » vu sur http://www.silison.fr
@Skwaloo: C’est pas une comparaison, c’est une constatation : Les puces Intel montent à 85 watts mais n’offrent pas les mêmes performances.
Oui 15 à 20 secondes c’est trop. Pas trop quand tu es en mobilité avec une tablette et que tu veux envoyer une cliché avec une retouche photo minimale, trop quand tu batches le redimensionnement de 50 clichés avant de les envoyer dans le cloud.
Je suis parfaitement au courant de la perf d’un ARM ou des gestions câblées, je sort de 3 ans d’Atom. Je monte mes vidéos avec une Quadro également…
Je veux bien te laisser croire qu’une puce ARM à 3 watts fera la même chose qu’un Core i7 à 85 watts si ça te fait plaisir hein, genre les ingés d’Intel sont des gros nains incapables alors que chez ARM ils ont trouvé la pierre philosophale. Logiquement un processeur ARM, a part des trucs câblés en hard, ne sera pas jamais au niveau d’un processeur x86 qui se permet de dépenser 10 fois plus d’énergie. C’est volontaire de la part d’ARM et c’est logique.
Le calcul câblé que propose ARM est génial, la vidéo HD décodée avec 0.7 watts de conso c’est super… mais c’est aussi un vrai danger à mon goût les trucs câbles, les applications qui ne prennent que le chemin prédéfinis par la puce, ça donne Instagram et les mêmes photos sur toute la planète. Moi je veux des puces 4×4 qui peuvent aller partout et être rapide même avec le programme d’un développeur génial qui sort des sentiers battus pour mettre en place son idée.
Des ingés travaillent sur la vectorisation complète de vidéo, de quoi faire d’un long metrage un fichier de quelques dizaines de Mo. Si cela se valide ce sera la révolution pour la vidéo en ligne. Et si les ARM Cortex A-9 A-7 A-15 et A-57 ne le gèrent pas en câblé, ils ne pourront pas l’afficher, les machines équipées ne vaudront plus rien alors. Les x86 pourront quand a eu toujours faire appel à leurs capacités de calcul brutes, dégager des watts, et lire ces vidéos.
Le x86 c’est un 4 x 4 et l’ARM c’est un train. Les 2 sont intéressants mais dire que l’un va exploser l’autre est un peu exagéré, les visions sont différentes et se complètent à merveille.
Faire du batch correspond à une utilisation de – de 0,1% de la population, regarde autour de toi.
Le i7 à 85W n’est pas à la même fréquence que l’ARM de 3W, la comparaison était à fréquence égale.
Serveurs ARM qui consomment 10 fois moins d’énergie qu’en x86 :
http://www.lemondeinformatique.fr/actualites/lire-hp-teste-des-serveurs-avec-288-puces-arm-calxeda-42457.html
Si la compression vidéo vectoriel est similaire à la fractal alors la compression demande beaucoup de ressource mais pas la lecture. Si c’est largement adopté alors ça se retrouvera en cablé.
Je ne sais pas ce que tu entend par exploser, mais les ARM se vendent + que les x86 depuis longtemps et les proc surper puissant avec leur super conso se dirige de + en + vers des marchés de niche.
@Skwaloo: 0.1% de la population ? Je sais pas d’ou tu tires ce chiffre mais des outils comme Picasa font du batch et ce sont des outils du quotidien.
Ca se vends plus mais je vois pas le rapport :) Oui ca se vends plus mais pas dans des PC non ? Ou alors on est sur un autre site et sur un autre billet ? « De quoi les intégrer au coeur de minimachines de type ultrabook tout en proposant une belle autonomie. » Je ne parle pas ici de tablettes, de smartphones ou de serveur mais bien d’ultrabooks. Des Ultrabooks ou autres Portables sous ARM j’en vois pas des masses actuellement et a l’avenir non plus : Rien en 2013 d’apres les gens rencontrés au CES.
Je sais qu’un serveur ARM consomme moins, je suis pas nouveau sur ce marché. Mais encore une fois ce n’est pas le sujet. Juste qu’avec un ultrabook Haswell je vais faire tourner la suite Creative en 10 watts et aucun ARM n’aura la possibilité de proposer aussi bien avant plusieurs années puisque ni les softs ni les puces n’en sont capables. Tout comme aucun ultrabook ne proposera les mêmes fonctionnalités qu’une tablette cette année.
Et alors on s’en fout non ? Qui a dit que les produits devaient grimper sur un podium ? Le fait que tel ou tel produit soit meilleur dans une catégorie qu’un autre ne veut pas dire qu’il est meilleur en tout. Moi je m’intéresse aux usages je suis pas là pour tenir un discours manichéen sur qui est le meilleur. Dire « ARM et meilleur qu’x86 » ca fait un peu bizarre non ?
Le jour ou ARM me montrera une puce capable de faire ce que je fait avec mon PC je serais ravi, mais croire que ce sera possible en 3 watts me parait une douve illusion quand je vois la tête de l’alim de ma machine.
Le nombre de vente n’a rien a voir avec la qualité du produit, Colonel Reyel et Jhon Kennedy Toole en savent quelque chose :D
Outil du quotien ou pas, très peu connaissent ce qu’est un un bacth ou un traitement par lot… déjà que tout le monde ne fait pas régulierement de la photo…
Tous ceux qui utilise Word n’en connaissent pas forcément toutes les fonctions, généralement c’est même – de 20%.
Les power-users ne sont pas majoritaires.
Haaa, cet article ne parle que d’ultrabook !… je ne comprend toujours pas pourquoi avoir cité ARM alors qu’on ne veut pas débattre sur l’ARM.
…mais je ne comprend pas non plus pourquoi un ARM serait systématiquement limiter à 3W. 128 coeurs Cortex-A15 en 64bits à 3GHz en 3 W ?! Même si l’idée en plaisante, ce n’est pas du tout le cas.
Un peu bizare ?! Bizare comment, comme le tel portable de Dell il y a moins de 3 ans qui ne s’est pas bien vendu parce que c’était aussi une mini tablette de 5″ et il avait été moqué parece que trop grand pour le tenir comme un téléphone ? Moins de 2 ans après, il s’en vend des millions et beaucoup de marques en font des + grand
Les ARM de 3W d’aujourd’hui ont autant de puissance qu’un gros ordi d’il y a quelques années.
Pour le nombre de ventes qui ne correspond pas à la qualité ? Oui j’ai vu du Wintel ! :-) :-) :-)
Ça vaaa, je décone… quoique…
Ben alors j’attends de voir ce que va donner ARM en puissance de calcul, en attendant je sais ou investir mon argent quand je veux une machine pour faire du lourd et ou investir quand je veux une tablette. Je changerais ptet d’avis dans 5 ans…
Un p’tit coup d’oeil sur Geekbench… on trouve le Xeon 5150 équivalent à la Nexus10 ! Pourtant l’Intel coûte 690$ (soit 1,5 fois la Nexus10 à lui tout seul !), TDP 65W (soit 10 fois + que celui de la Nexus10 !), et fonctionnant à 1GHz de + (oui, 1GHz de +) !!! Ah ben oui, sans commune mesure ! ;-)
…Huawai promet dans quelques mois un 8 coeurs avec du Cortex-A15 à 2,3GHz, ça devrait être mieux pour faire du batch de crop en multi-thread. ;-)
@Skwaloo: Oui oui, GeekBench :)
C’est super GeekBench, comme ils le disent eux même ça compare des pommes et des oranges. Tu peux aussi comparer les puces au poids, dans un 1Kg de puces ARM il ya plus de processeurs que dans 1 Kg de puces Intel. Maintenant ca ne fait pas avancer le débat.