Turing Pi 2 Cluster Computer : une carte pour construire un Cluster

Le Turing Pi 2 est une solution conçue pour embarquer des cartes de développement et construire un cluster tirant partie du groupement de celles-ci.

Le Turing Pi 2 n’est pas une solution très classique puisque pour en tirer partie, il vous faudra passer à la caisse et investir dans une à quatre autres machines. Mais cela reste un engin intéressant pour créer un cluster de solutions type SBC comme les Raspberry Pi Compute Module 4, les Jetson Nvidia ou une future solution maison, baptisée Turing TK1, fonctionnant sous Rockchip RK3588. Cette dernière n’a pas été spécifiquement dévoilée et on n’a aucune idée de sa date de sortie ni de son tarif.

L’idée derrière cette Turing Pi 2 est donc de pouvoir expérimenter avec un serveur abordable, peu gourmand en énergie et capable de faire tourner des applications variées allant du serveur aux solution d’IA ou tout autre expérimentation de ce type.

C’est également une superbe « maquette » fonctionnelle pour apprendre à maitriser les mécanismes d’un serveur classique. L’utilisation de l’ensemble avec les Raspberry Pi et  Turing RK1 permettra une utilisation classique tandis que les cartes Nvidia Jetson Nano, Jetson TX2 NX et Jetson Xavier NX seront explicitement dédiées aux applications d’IA et de machine learning.

A noter qu’il sera possible de mixer les modules, ce qui veut dire qu’il sera possible de brancher 4 cartes identiques ou de faire fonctionner deux paires différentes avec par exemple deux Compute Module RPI4 et un ou deux Nvidia Jetson pour apporter des fonctions d’IA.

On retrouve sur le Turing Pi 2 deux slots mini PCIe pour ajouter des cartes accessoires, deux ports SATA 3.0, un MIPI-DSI pour piloter un écran, les traditionnelles 40 broches GPIO et une connectique assez importante avec un port HDMI, deux Ethernet Gigabit, deux USB 3.0 et deux brochages pour en ajouter deux supplémentaires. Un Micro USB OTG et un second pour flasher la carte et un lecteur de cartes SIM.

Le financement participatif est vraiment là pour aider le développement et la finalisation de la carte et l’équipe n’en fait pas mystère. Proposée à 219$ dans ces confitions, elle sera finalement commercialisée à 239$ en direct une fois la carte produite. Si vous soutenez le projet, c’est avant tout pour le voir aboutir plus que pour faire une vraie économie.

Faites découvrir le site en le partageant


Soutenez Minimachines avec un don mensuel : C'est la solution la plus souple et la plus intéressante pour moi. Vous pouvez participer via un abonnement mensuel en cliquant sur un lien ci dessous.
2,5€ par mois 5€ par mois 10€ par mois Le montant de votre choix

Gérez votre abonnement

6 commentaires sur ce sujet.
  • 18 mai 2022 - 19 h 50 min

    Hello, merci du partage. J’apprends la data en ce moment et j’avoue que c’est particulièrement intéressant et bien fini comme machine pour apprendre à faire des clusters sous Hadoop ou Spark.

    Répondre
  • 19 mai 2022 - 0 h 15 min

    @prog-amateur:

    + un mini cluster Kubernetes d’apprentissage pour tester du mlops :-)

    Répondre
  • 19 mai 2022 - 0 h 16 min

    @prog-amateur:

    + un mini cluster Kubernetes d’apprentissage pour tester du mlops en plus sympa avec du GPU avec les Jetson nano :-)

    Répondre
  • 19 mai 2022 - 10 h 53 min

    Ou vous pouvez juste faire un cluster avec des VMs sur votre OS actuel. C’est bien mieux pour apprendre car vous pouvez les démarrer et les éteindre à volonté pour simuler des défaillances. Second avantage, c’est gratuit…

    Répondre
  • 19 mai 2022 - 21 h 41 min

    @calvin: toi ceinture noire, moi ceinture blanche lol

    @notme: oui c’est vrai c’est indéniable, surtout l’argument prix, après pour les perfs, une grosse config subdivisé en VM vaut-elle 4 Jetson nano pour du calcul Deep Learning sur GPU, là est la question. Même débat RAID logiciel vs RAID matériel, etc.

    Répondre
  • 20 mai 2022 - 9 h 28 min

    @prog-amateur:
    Si tu utilises une seule machine, faut pas jouer à faire plusieurs vm pour du deep learning. Les VM, c’est juste pour apprendre le clustering.
    Les Jetson nano sont juste d’une puissance ridicule. Jetson nano x 20 = Jetson Xavier. Xavier * 20 = RTX moderne. Cf https://forums.developer.nvidia.com/t/geforce-rtx-3090-versus-jetson-agx-xavier-for-inference-in-ai/185876
    Si tu veux un vrai cluster, faut des machines avec des GPU, des machines avec des SSD et une belle connexion infiniband entre tout ça.

    Répondre
  • LAISSER UN COMMENTAIRE

    *

    *