Samsung Exynos 7 Octa, une puce 64 bits en Cortex-A57/A53

Samsung vient d’annoncer son Exynos 7 Octa, un processeur nouvelle génération employant des coeurs ARM Cortex-A57 et A53 en 64 bits. Un nouveau venu en 8 coeurs , exploitant la technologie big.LITTLE ARM et gravé en 20 nanomètres.

Coïncidence malheureuse ou décision volontaire, le Samsung Exynos 7 Octa n’aura pas eu la couverture médiatique la plus importante qui soit. L’annonce simultanée des nouveaux produits de Google et l’apparition d’Android Lollipop aura fait de l’ombre à ce processeur pourtant marquant dans la stratégie du Coréen.


Samsung Exynos 7 Octa
L’Exynos 7 Octa est la première puce 8 coeurs 64 bits  du fondeur coréen. Gravée en 20 nanomètres, elle emploie 4 coeurs ARM Cortex-A57 et 4 coeurs ARM Cortex-A53. L’idée étant, comme d’habitude, de mixer les performances de ces puces et leurs dépenses énergétiques propres, pour assouvir les besoins des machines équipées avec la meilleure performance possible tout en préservant l’autonomie de l’engin.

Avec l’annonce de Lollipop, l’intérêt des puces 64 bits émerge enfin, le nouveau système sait enfin gérer cette évolution, c’est d’ailleurs probablement un des éléments qui a poussé HTC et Google à prendre à bord de la Nexus 9 un processeur Nvidia Tegra K1 Denver.

Samsung Exynos 7 Octa

Samsung choisi une puce gravée en 20 nanomètres afin de réduire la consommation globale d’énergie de celle-ci sans renier les performances de l’objet. Cette Exynos 7 Octa acceptera de fonctionner à plein régime, les 8 coeurs en même temps, à la demande d’une application ou de l’utilisateur. Dans ce cas de figure, baptisé Heterogeneous Multi Processing, il et possible de choisir précisément quels coeurs seront actifs ou éteints. D’un seul Cortex-A53 à l’ensemble des 8 puces en parallèle. La marque promet un bon de plus de 50% de performances par rapport à un Samsung 5 Octa. La présence d’un processeur graphique Mali-T760 ayant probablement quelques incidences dans les résultats annoncés.

La puce sera capable de lire du H.265 bien entendu, d’afficher à des définitions WQHD ou WQXGA tout en consommant moins d’énergie. Truc rigolo, la puce est parfaitement en mesure d’enregistrer des vidéos haute définition en parallèle depuis les 2 capteurs vidéos classiquement installés sur une tablette. Un modèle 16 Mégapixels en façade et un 5 Mégapixels en frontal ne lui feront pas peur.

Pour le moment, aucun produit n’a été annoncé avec cette nouvelle puce, Samsung jouant ici son rôle de fournisseur de solutions matérielles et pas encore celui de concurrent potentiel. Aucune idée de la mise en production de ce bout de silicium, de son tarif et d’un éventuel premier candidat à son intégration.

12 commentaires sur ce sujet.
  • 16 octobre 2014 - 15 h 19 min

    Enfin, on y arrive !

    Répondre
  • 16 octobre 2014 - 15 h 56 min

    Par contre, où sont les exynos 6 ?? série spécifique pour de l’intégration sans communication (TV, voiture …)? nombre porte malheur en corée ? faut que je consulte mon ophtalmo ?

    Il faut appeler un détective xD

    Répondre
  • 16 octobre 2014 - 16 h 12 min

    @Sopilou: ne nous réjouissons pas trop vite, le monde ARM impose le secure boot et de ce fait est une véritable plaie pour la « liberté » numérique… le x86 a encore de beaux jours devant lui ;)

    Répondre
  • 16 octobre 2014 - 16 h 15 min

    @Paulin ARBOUX:

    Après recherche, ce serait un renaming de l’exynos 5433 qui n’avait pas vraiment sa place au sein de la gamme 5 (tous comprenant des A15).

    Répondre
  • 16 octobre 2014 - 16 h 34 min

    Ce processeur est sympathique…
    une simple évolution naturelle !
    Mais je serai aussi pour l’intégration
    d’ un ou plusieurs coeurs X86 !

    Samsung, ça ne te dirai pas de racheter Via?!
    Ou d’acheter à AMD une licence pour inclure
    certains coeurs X86 dans certains de tes processeurs?

    Honnêtement, je ne comprend pas pourquoi,
    on ne trouve toujours pas de processeurs ARM à plus de 4Ghz !
    Justement,la simplicité de ces processeurs devrai permettre
    facilement plus de 5 Ghz…

    Quelqu’un connaitrai-t-il la ou les raisons ?
    Merci

    Répondre
  • 16 octobre 2014 - 16 h 43 min

    @Jean-Toulouse : au hasard, l’autonomie et la dissipation thermique ;) et moins au hasard, dans quel but ? Pour les jeux, je suis d’accord, mais la plupart du temps nos CPU sommeillent d’aise en rendant mollement quelques affichages de ci et de là.

    AMD et son projet HSA est justement en plein dans la « fusion » des coeurs x86,ARM et GPU afin de créer des « outils » pour permettre une utilisation judicieuse de tout ce petit monde par les applications. ça se passe ici :

    http://www.hsafoundation.com/

    Répondre
  • 16 octobre 2014 - 16 h 52 min

    @Jean Toulouse:

    Il me semble que c’est surtout des problème thermique et d’alimentation. Les soc arm sont développer aujourd’hui pour aller dans des tablettes et/ou téléphones ou le TDP ne doit pas dépasser quelque W.

    Ensuite ce pose le problème du marketing, un grand nombre de core fait plus flateur qu’un nombre limité mais haut en fréquence. Novathor prévoyait un dual core A9 pouvant monté à 2.5 ghz pour 2012 mais malheureusement ils ont fermé la branche avant.

    Le problème de la monté en fréquence est à mettre en parallèle avec le ratio perf/conso. Entre un core i3 à 1ghz et un i3 à 2ghz, la consommation n’est pas du simple au double. La conso d’un proc est = coeffA de l’architecture * Intensité au carré * fréquence + coeffB fonction de la superficie du die. Mais si à 1ghz ton proc est à 1A, il sera à 1.2A à 2ghz et se retrouvera donc à consommé 1+1.2²=2.44 fois plus pour une fréquence double.

    Si tu prends les données d’ARM concernant les GPU mali (je pense que c’est le même principe pour les CPU), les performances sont linéaires à 95% en fonction du nombre de core et de la fréquence. Ainsi un GPU à 400mhz sera 95% plus performant qu’un GPU à 200mhz et aussi performant qu’un dual core à 200mhz.

    Et là on commence a toucher au fond du problème, le coeffB dépendant de la surface du die est bien plus faible que ton surplus d’intensité requise par la monté en fréquence des processeurs. Ainsi il est plus facile d’avoir beaucoup de processeur avec un très bon rendement et une fréquence réduite : ce que fait mediatek avec le 6592 par exemple. Mais les performances resteront limitées à cause du A7. Viennent ensuite les problématiques de cout, bien sur plus de core = plus de superficie de die = coûts de production plus important. C’est un éternelle compromis.

    Sur le seul critère de la fréquence, je suis sur qu’a une carte qui l’alimentation est dimensionnée en conséquence et avec un refroidissement actif, tu pourrais facilement doublée la fréquence des proc ARM actuel.

    Répondre
  • 16 octobre 2014 - 16 h 53 min

    @Paulin ARBOUX:

    «  »Sur le seul critère de la fréquence, je suis sur qu’aVEC une carte DONT l’alimentation est dimensionnée en conséquence et avec un refroidissement actif, tu pourrais facilement doublée la fréquence des proc ARM actuel. «  »

    Répondre
  • 16 octobre 2014 - 17 h 20 min

    @baldarhion @Paulin ARBOUX : Merci !
    Je me doutais bien que ce n’était pas un problème technique,
    mais plus la logique marketing et commerciale !

    Honnêtement, qui ne rêverait pas de Desktop « machine de bureau »,
    à processeurs ARM à 5Ghz, seul ou avec un port PCI Express ?!
    Vous me direz qu’il manque d’applications…Certainement !

    Mais si on avait déjà cette puissance disponible,
    des applications spécifiques seraient certainement déjà développées,
    codage/décodage, images de synthèses, applications 3D…

    Je dirai que le monde ARM prend beaucoup de retard dans
    la montée en fréquence de ses processeurs,
    car malheureusement, le multi-cœurs ne résout pas tout !!!

    Répondre
  • 16 octobre 2014 - 21 h 39 min

    @jean toulouse: Si justement, le multicoeur ou le multisocket est la solution, Intel était arrivé dans une impasse à pousser ses CPU à 4Ghz où il fallait un ventillateur aussi bruyant qu’un reacteur pour refroidir la machine. Il faut aussi utiliser plus le GPU.
    Mixer une puce ARM et x86 n’a pas de sens. Techniquement il n’y a rien qui tourne sur x86 qui ne puisse tourner sur un autre processeur. Un programme ça se compile pour un CPU. Ton problème vient du couple Wintel. Tu veux garder ta logithèque, garde ton pauvre x86 ! Tu veux tenter la nouveauté ARM pour de meilleures perfs, soit prêt à faire des concessions dans les premiers temps !
    Une remise a plat ça a du bon de temps en temps !

    Répondre
  • 16 octobre 2014 - 22 h 07 min

    @aiRVB : Justement, le fait de devoir recompiler un programme,
    pose automatiquement un problème de compatibilité !
    Et comme la majorité des « Kidams », j’ai pris pas mal d’habitudes…
    Et malheureusement, en changer demanderai donc énormément de temps,
    donc en définitive « beaucoup » d’argents !
    C’est pourquoi, je suis pour le multicoeur d’un coeur ARM et X86,
    il est important de se simplifier la vie au maximum !

    Pourquoi, faire compliquer si on peut faire simple et fonctionnel ?!

    La vie est suffisamment courte, pour ne pas vouloir la gaspiller !!!

    Répondre
  • 17 octobre 2014 - 12 h 21 min

    Mixer ARM et x86 est a mon sens une mauvaise idée.
    Une solution via l’emulation ou le cloud est nettement plus pratique/fiable.

    Après au sujet de la montée un fréquence,
    1 – cela ne fait pas tout (voir l’exemple du Pi)
    2 – Même avec un bon ventillateur, vu la surface du die et le dégagement thermique c’est pas forcement gérable d’avoir 8 cœurs a 4Ghz. Sauf erreur ARM a développer l’architecture big.LITTLE a la base pour répartir les différents type de cœurs sur le die et contenir le dégagement de chaleur.

    Enfin dire que ARM est plus performant que x86 est un non sens, les architecture sont différentes. C’est comme dire que ARM chauffera toujours moins que x86. Il n’y a qu’a voir les énormes progrès d’Intel sur ce point pour voir que cela n’est plus vrai.

    Répondre
  • LAISSER UN COMMENTAIRE

    *

    *