Adapteva : 26 gigaflops pour 99$, le calcul parallèle pour tous

Adapteva : 26 gigaflops pour 99$, le calcul parallèle pour tous

Adapteva, un concepteur de puces et de systèmes, a proposé sur KickStarter une nouvelle machine baptisée Parallella, de la taille d’une carte Raspberry Pi, ayant une puissance de calcul de 26 Gigaflops. Une performance plutôt réservée d’habitude à de très grosses et très coûteuses machines.

Le calcul parallèle est synonyme de performances importantes pour de nombreuses tâches, il met en scène des processeurs qui, utilisés en batterie par des algorithmes dédiés, permettent de traiter des données de manière plus rapide qu’en augmentant simplement la fréquence d’une puce. On le vit tous les jours avec des processeurs double ou quadruple coeurs… Le souci du parallélisme informatique c’est qu’il ressemble en général à une énorme armoire de serveur en batterie, très bruyante, très coûteuse en énergie et totalement inabordable pour un particulier.

Désormais financée, cette idée d’une mini carte capable de belles performances est  quelque peu révolutionnaire : Elle pourrait rendre accessible au plus grand nombre un mini serveur performant en terme de calcul.

Plusieurs points sont effectivement révolutionnaires dans l’approche d’Adapteva.

  • L’ensemble du projet sera libre et documenté. Un SDK permettra à tout programmeur compétent de porter son travail sur la carte et donc de l’ouvrir au parallélisme  L’idée qui en découle est que toute application, tout programme ou usage demandant une grosse capacité de calcul, pourrait en profiter.
  • Pas de dépenses supplémentaires ni de niveaux d’accès, tout sera disponible en ligne. Pas besoin d’acheter la carte pour en profiter. Plusieurs programmeurs pourront donc profiter de l’objet pour porter leurs propres créations sans aucun frais.
  • Le prix de la carte est raisonnablement placé sous les 100$ de façon à garder le projet abordable pour tous. On retrouve l’idée d’un Raspberry Pi.

La carte embarque un processeur ARM Cortex-A9 Zynq-7010 qui pilote lui même une solution baptisée Epiphany conçue par Adapteva qui embarque au choix 16 (26 Gigaflops) ou 64 coeurs (90 gigaflops)  RISC.

 Pour le moment déployée sur une carte externe de prototype, cette seconde carte sera implémentée directement au coeur de la carte pour plus de compacité sur le modèle final.

Cette carte de développement montre l’état du projet et son avenir. Les éléments encerclés de vert seront gardés et réorganisés, la partie calcul en bleu sera intégrée et les éléments en rouge, dédiés au développement de la carte, supprimés.

Le reste de la carte est plus classique : 1 Go de mémoire vive, un lecteur de carte MicroSDHC, 2 ports USB 2.0, deux ports d’extension, un support Ethernet Gigabit, un port HDMI.

L’engin sera livré avec Ubuntu ainsi que tous les codes sources de développement pour piloter l’architecture Epiphany.

Pour finir, en imaginant que vous ayiez besoin d’une solution de ce type pour calculer des rendus de vidéo en batterie, compresser des données, faire des calculs longs ou plus simplement crypter des données à la volée avec une clé de chiffrement très importante, il y a de fortes chances pour que cela puisse se faire avec ce type de carte. Mais ce n’est que le début pour cette forme de fonctionnement.

Si le chip est aujourd’hui « limité » à 64 coeurs au maximum avec un processus de gravure en 28 nano, le futur annoncé par Adapteva est brillant ; Vos programmes de 2012 pourront exploiter 64 coeurs mais la marque prévoit 1000 processeurs RISC en 2014. Vos programmes de 2012 pourront prendre en compte cette puissance disponible sans avoir à les retravailler, racheter une licence ou autre.

Adapteva y trouve son compte en proposant les puces sur le marché, j’y vois un intérêt majeur pour ma part avec l’émergence de machines de plus en plus nombreuses sous ARM : La possibilité d’intégrer ce type de solution dans d’autres engin en ajoutant simplement un chip de calcul parallèle dans un boitier de type Google Box ne me semble plus bien compliquée.

15 commentaires sur ce sujet.
  • 29 octobre 2012 - 9 h 39 min
  • 29 octobre 2012 - 9 h 58 min

    @Jonathan: Pourquoi plus d’avenir ?

    Répondre
  • 29 octobre 2012 - 10 h 10 min

    Tu le verras bientot ;)

    Répondre
  • 29 octobre 2012 - 10 h 25 min

    L’article est intéressant, mais j’aurai insisté sur un point essentiel dont tu n’as pas parlé : la consommation. Si j’en crois le dernier slide, 100GFlops pour 2W, c’est ENORME.

    Parce que 100GFlops pour 100€, dit comme ça, ça ne me fait pas plus bander que ça en soit : une carte graphique Nvidia est potentiellement capable de faire la même chose au même prix avec Cuda. Voire même mieux niveau rapport Performance/Prix, avec des CG haut de gamme qui offrent des TFlops de puissance de calcul pour 500€.

    Là, il faut vraiment mettre l’accent sur la consommation, qui est tout simplement géniale. Et même sans parler de puissance de calcul, si cette carte consomme vraiment que 2W, c’est super intéressant de voir si on peut faire des choses « classiques » avec, type HTPC ou navigation web en rajoutant du wifi.

    Répondre
  • fpp
    29 octobre 2012 - 10 h 59 min

    Ce qui est curieux c’est que ce « dev board » Samsung ressemble étrangement à ce qu’il y a dans le nouveau Chromebook de la marque, et au même prix :-)

    Répondre
  • 29 octobre 2012 - 11 h 17 min

    Honnêtement je ne sais pas trop quoi en penser, quand je compare à une carte graphique à 140€ qui développe 1400 Gflops. Est-ce qu’à terme ils pourront faire mieux que les solutions cuda ou onpencl ?

    Répondre
  • 29 octobre 2012 - 12 h 05 min

    @pipin: D’un point de vue énergétique, prix et autonomie : Oui :)

    Répondre
  • 29 octobre 2012 - 15 h 08 min

    Je dirais surtout qu’il faut pas tout mélanger.
    un GPU a plus de puissant qu’un CPU en calcul de virgule flottante.
    Pour exemple un core i7 980XE, de 2010, tourne à 109GFLOPS!!
    http://techgage.com/article/intels_core_i7-980x_extreme_edition_-_ready_for_sick_scores/8

    Alors qu’un GPU: par exemple la Radeon HD 7970M a 2176 GFLOPS
    http://en.wikipedia.org/wiki/Comparison_of_AMD_graphics_processing_units

    Pour en revenir à l’exynos 5, c’est le GPU 4-core ARM Mali-T604 qui est à 72GFLOPS.
    http://hexus.net/tech/news/cpu/47273-249-exynos-5-dev-kit-specifications-reveal-monster/

    Donc 100GFLops avec juste du CPU à 2W à c’est du très très bon.

    Une solution hybride de CPU-GPU augmenterais beaucoup plus la puissance brute!

    Répondre
  • 29 octobre 2012 - 17 h 21 min

    Ca me parait impossible 2W a moins que ca fonctionne comme des FPGA et donc super dur à programmer (quoique recemment il y en a de compatibles OpenCL)
    Car 100GFlops pour 2 watt ca ferait un ratio power watt supérieur a la K20 de nvidia qui fait 1.3 TFlops en double précision ca ferait 10 Tera flops pour 200 watt avec 100 cartes dans un cluster ca me parait impossible
    Car

    Répondre
  • 13 novembre 2012 - 20 h 37 min
  • 30 janvier 2013 - 19 h 52 min

    […] (MINIMACHINES.NET): Adapteva, un concepteur de puces et de systèmes, a proposé sur KickStarter une nouvelle machine baptisée Parallella, de la taille d’une carte Raspberry Pi, ayant une puissance de calcul de 26 Gigaflops. Une performance plutôt réservée d’habitude à de très grosses et très coûteuses machines. FULL ARTICLE […]

  • 12 mars 2013 - 12 h 11 min

    @pipin: 99$ c’est le prix d’un système complet. De plus les gains annoncés pour les cartes graphiques sont la plupart du temps en simple précision, sans compter qu’il est plus dur d’atteindre la puissance théorique des cartes graphiques en OpenCL.

    Répondre
  • 12 mars 2013 - 12 h 15 min

    @Jonathan: Il y a une « légère » entre 250$ et 99$ de plus le parallella embarque également un processeur ARM, sans compter que si l’on veut exploiter toutes la puissance des Exynos il faudra passer par le GPU et OpenCl. Et le fait que l’Exynos 5 se retrouvera dans le galaxy S4 ne garantit en rien son succés dans le monde de l’embarqué.

    Répondre
  • 2 septembre 2015 - 9 h 34 min

    trois ans plus tard quand est il de ce merveilleux concept ?

    Répondre
  • 2 novembre 2015 - 12 h 15 min

    Comme le dis Daniel Hillis (The Connection Machine), les machines parallèles doivent être pilotées par un « vrai » problème du Réel (qui
    est parallèle). En paraphrasant Douglas Adams (Guide du Routard G…)
    le chiffre de la bête est : 4096 CPU. C’est en effet le nombre de CPU’s
    massivement parallèles qui permet, sans perte, des calculs sur grille
    2D, 3D, 4D de la physique actuelle.
    « Dieu écrit droit en lignes courbes ».

    Répondre
  • LAISSER UN COMMENTAIRE

    *

    *