Samsung PM1643, Un SSD de 30.72 To, que reste t-il au stockage mécanique ?

Le lancement de la production du Samsung PM1643 n’affectera pas les ventes du marché actuel mais ce nouvel SSD de très haute capacité fait désormais de l’ombre aux technologies de stockage classiques. Avec 30.72 To de capacité et 40Go de mémoire DRAM, il allie performances et stockage à un niveau impossible à atteindre pour un disque dur.

Le Samsung PM1643 profite d’une interface SAS avec une bande passante de 12 Gbps, une interface – et un tarif – qui devraient le destiner à un secteur professionnel uniquement. Construit grâce aux technologies Samsung V-NAND 64 couches dans une densité de 512 Go sur 3 bits.

Le prix de ce  SSD sera probablement aussi impressionnant que sa capacité, avec 32 groupes de mémoire NAND de 1 To constitués de 16 éléments V-NAND de 512 Gbits. De quoi doubler la capacité de sa précédente génération qui « stagnait » à 15,36 To lors de sa présentation en 2016. Au passage, Samsung améliore également largement les performances globales de la nouvelle version.

2018-02-22 12_32_47-minimachines.net

Le Samsung PM1643 promet une vitesse de lecture de 2100 Mo/s et une vitesse d’écriture de 1700 Mo/s. Pour parvenir à ce résultat, le constructeur assemble 9 contrôleurs ainsi que 10 groupes de 4 Go de mémoire DDR4, soit un joli total de 40 Go. Evidemment, vu la destination de ce type de stockage, Samsung a intégré dans la solution l’ensemble des options de sauvegarde et de sécurité de son arsenal. Le MTBF est estimé à 2 millions d’heures, ce qui assure une durée de vie très importante (225 ans) au SSD avec un DWPD par jour, c’est à dire la capacité pour le Samsung PM1643 de lire et écrire la totalité de ses 30.72 To chaque jour pendant 5 ans.

Pas de prix, bien sûr, pour le moment et vous vous doutez que le stockage ne sera vraiment pas donné. Il vise sans aucun doute un parc de serveurs qui ne regarde pas à la dépense pour aller le plus vite possible dans la recherche et le transfert de données. Pour vous donner une idée, le précédent modèle de 2016 de 15 To, le Samsung PM1633A, est facturé plus de 8000 €uros pièce. Samsung va décliner ce nouveau modèle par groupes en 15.36To, 7.68To, 3.84To et 1.92To. Des modèles en 960 et 800 Go sont également prévus.

La grande question concerne l’impact de ce type de technologie à long terme sur le marché global. Je doute que l’on achète un jour un SSD de 30 To pour un usage de particulier, le risque en cas de panne serait énorme et il serait difficile de concevoir des stockages adaptés à de telles capacités. Cela dit, ces nouvelles solutions vont probablement mener à des transferts de technologie du monde pro au grand public et on peut imaginer des SSD de plus grandes tailles assez rapidement à des tarifs plus abordables. Les premiers SSD d’entreprises étaient largement en dessous des capacités de ceux que l’on trouve en soldes dans le grand public et leurs tarifs étaient stratosphériques. Si les SSD arrivent un jour à proposer les mêmes capacités que les disques mécaniques à un tarif équivalent, il ne restera plus beaucoup de clientèle pour ces bons vieux HDD. Les grands constructeurs de disques durs l’ont d’ailleurs compris il y a des années et se sont mis a investir massivement dans le SSD.

Source : Samsung

32 commentaires sur ce sujet.
  • 22 février 2018 - 12 h 59 min

    Plus le temps avance, plus je me dis qu’un bon vieux HDD 7200 tr/mn, c’est quand même super bien pour faire des backup, ou en NAS. Les SSD sont très bien pour la réactivité d’un PC portable/bureau. Mais leurs modes de défaillances (mort subite irrécupérable notamment) me font un peu flipper. Voir une vidéo dessus (c’est récent et en français, autant en profiter) :
    https://www.youtube.com/watch?v=ziz8e6KesC4

    C’est pour ça que pour moi, les 2 types se complètent.

    Répondre
  • Alu
    22 février 2018 - 13 h 17 min

    UE RESTE T-IL AU STOCKAGE MÉCANIQUE ?

    1) Le prix pour les particuliers
    2) Le nombre quasi infini de ré-écriture pour tout ce qui est bases de données…parce que sur du transactionnel les SSD arrivent vites à leurs limites physiques de réécriture. Ce qui n’est pas le cas de HDD.

    Bon après il y a « optane »/3D Xpoint qui n’a pas se dernier problème…si un jour on a de bonnes capacités et surtout que les prix deviennent abordables: Ca sera la fin des HDD.

    Répondre
  • 22 février 2018 - 13 h 43 min

    Ce type de disque est orienté Datacenter du fait du coût prohibitif. Dans cette configuration, on ne voit jamais un disque directement mais un volume présenté par une baie. Il en faut d’ailleurs plusieurs donc le coût est encore plus important. De plus, l’utilisation d’architecture hyper convergée (réseau) ajoute une couche d’abstraction et permet de changer un disque unitaire ou un volume de manière transparente.
    Pour les particuliers, les NAS commencent à incorporer la possibilité de « mémoire tampon » (stockage non mécanique) en frontal. Le SSD peut jouer un rôle intéressant pour augmenter les perfs mais vraiment comme tampon (éphémère) du fait des réserves sur leur fiabilité.
    Je pense donc que les deux systèmes vont continuer un certain temps en parallèle surtout s’il n’y a pas une grande baisse du prix au To.
    Comme il est indiqué que les constructeurs des 2 systèmes sont « les mêmes » la bascule risque d’être longue.

    Répondre
  • 22 février 2018 - 13 h 43 min

    @prog-amateur:
    J’ai un SSD depuis le début un CRUCIAL est toujours aucuns problèmes.
    Par contre mes HDD plusieurs SAV et autre.

    Répondre
  • 22 février 2018 - 14 h 04 min

    @Foxraph: Ca tombe bien, le même type fait une vidéo sur les Crucial et n’en dit que du bien (il l’a fait juste avant les SSD) :
    https://www.youtube.com/watch?v=QfvJT5HVUyc

    J’insiste sur le fait que les HDD sont fiables quand ils ne sont pas en mouvement ou qu’on a pas trop besoin de réactivité. C’est le cas des NAS, je précise surtout le mode RAID 1, car effectivement, quand tu as un disque cramé à cause d’un pic de tension, ou choc ou autre, l’autre prend le relai. Et remplacer le défaillant coûte bien moins cher. Aussi pour les disques durs externes qui ne sortent pas de la maison (genre backup), s’ils sont corrompus, tu peux en principe récupérer quelques données, alors que pour le SDD, il n’est en général pas possible de récupérer quoi que ce soit.

    L’avantage des SSD c’est quand tu veux du mouvement ou de la réactivité (PC portable/de bureau). Il est d’ailleurs difficile de bosser aujourd’hui avec un HDD car on a pris l’habitude que tout soit instantané, et c’est normal.

    Moi aussi j’ai découvert Crucial il y a bien longtemps, à la base pour leur rapport qualité/prix, mais en fait avec le temps, ce sont ceux pour lesquels je fait le plus confiance. Ceci dit, même si leur process de production semble d’excellente qualité, comme disait Pierre dans un autre article, on ne doit pas seulement se fier à la marque. Notamment pour une nouvelle techno, mieux vaut attendre quelques mois (pour les SSD, on parlerait d’un an) pour voir s’il n’y a pas de défaillance irrécupérable de série.

    Répondre
  • Dan
    22 février 2018 - 14 h 36 min

    Anecdote 1.
    Quand j’étais étudiant dans les 70’s, j’ai visité l’observatoire astronomique de Nice et en particulier, en ce qui me concernait dans le cadre de l’IUT Informatique, on m’a montré avec un brin de fierté :) la «mémoire de masse».
    Dommage, je ne trouve aucune photo sur le net de cet engin. Faut imaginer un truc sous verre, d’environ 1,80 m de haut, de 1 m de large, contenant une vingtaine de plateaux de disques, chaque face de plateau pourvue d’un bras fixe avec autant de têtes de lecture/écriture que de cylindres !
    Je ne me souviens plus de la marque (peut-être IBM) ni de la capacité de l’engin.

    Anecdote 2.
    Toujours à l’IUT dans les 70’s, le prof de techno nous avait cité pour exemple paradoxal de sécurité de sauvegarde des datas, le fait qu’après un véritable incendie dans un local informatique, il avait été constaté que les supports magnétiques (bande, disque) étaient foutus et irrécupérables et que ce qui avait le mieux résisté au feu était les cartes perforées bien tassées dans leur bac métallique.

    Répondre
  • 22 février 2018 - 14 h 44 min

    « La grande question concerne l’impact de ce type de technologie à long terme sur le marché global. Je doute que l’on achète un jour un SSD de 30 To pour un usage de particulier »

    A long terme, pourquoi pas ? Je me rappelle d’un article de Science et Vie Micro au milieu des années 90 qui évoquait sur le ton de la blague un disque dur de … 2 To ( à l’époque le Go n’était pas encore atteint ).
    A force de se filmer le nombril en 8K@120 Hz il faudra bien des disques de cette taille un de ces jours pour tout le monde non ? et les HDD vont bien finir par décliner…

    A moins que le développement du cloud ne te donne définitivement raison ou que les cartes amovibles ne progressent plus vite

    Répondre
  • 22 février 2018 - 15 h 10 min

    @Dan: Oui, c’est assez marrant j’ai eu de nombreux échos de ce type :)

    @Alain: Pas pour une raison d’accebilité je pense mais pour le danger que cela représente. 30 To de données sur un device c’est la mort de toute archive perso en cas de panne/vol/accident. Perso je préférerais effectivement une solution 10 To de SSD + une sauvegarde RAID/cloud et des sauvegardes physiques pour des éléments importants.

    Imagine 30 To de stockage uniques, cela aurait des effets désastreux en cas de panne.

    Répondre
  • 22 février 2018 - 16 h 56 min

    @Pierre:

    Je comprends la pensée d’Alain. Te rappelles tu de cette chère interface IDE avec ses ~130Mo/s, balayée par le SATA qui lui même subit le même sort avec le NVMe? De même que pour le réseau où l’on a vu se succéder dans le même temps 1, 5, 10, 100M/s pour en finir de nos jours sur du 1G/s.
    Les interfaces de stockage et réseaux évoluent en même temps que les capacités.

    « A long terme, pourquoi pas ? Je me rappelle d’un article de Science et Vie Micro au milieu des années 90 qui évoquait sur le ton de la blague un disque dur de … 2 To ( à l’époque le Go n’était pas encore atteint ). »

    De nos jours, quasi tout le monde a 1T ou 2T en disque secondaire pour du stockage. Ce qui peut étre fou ajd ne l’ai pas forcément dans 5 ou 10 ans. ;-)

    Répondre
  • 22 février 2018 - 17 h 07 min

    @Voci:

    « De même que pour le réseau où l’on a vu se succéder dans le même temps 1, 5, 10, 100M/s pour en finir de nos jours sur du 1G/s »

    Mon mac est en 10GbE, et l’Ethernet 40GbE et 100GbE existent. Confidentiellement, mais ils existent.

    Répondre
  • 22 février 2018 - 17 h 22 min

    @Pierre
    au contraire, je pense que dans peu de temps, on atteindra les 30 To sur les machines grand public. C’est une évolution naturelle.
    Si je me souviens bien, au début des 90’s, la capacité des disques dur était plutôt de quelques dizaines de Mo.
    Maintenant, je passe mon temps à faire de la place sur le ssd de mon portable qui ne fait que 256 Go et mes disques USB de 1 et 2 To sont pleins aussi.

    Répondre
  • 22 février 2018 - 17 h 28 min

    il manque la fin de l’article ?

    Répondre
  • 22 février 2018 - 17 h 31 min

    @patatroce oui, pour mes souvenirs domestiques en 1992 : 40 Mo, en 1999 : 6 Go. Avouons que le rythme de progression n’est plus le même en ce moment!

    Répondre
  • 22 février 2018 - 17 h 36 min

    La taille de la perte de données, c’est de l’anecdote : on achète deux NAS, un chez maman et l’autre à la maison, et on sycnhronise. Je n’achète que des disques… de 100€. La capacité est croissante avec le temps. Un jour ce sera un SSD de 30To. On prend RDV Pierre ?

    Répondre
  • 22 février 2018 - 17 h 58 min

    @starlord: TR’es au courant que la plupart des PME/PMI et prof libérale n’ont pas de NAS ? Alors les particuliers…

    Répondre
  • 22 février 2018 - 19 h 38 min

    Flûte j’ai mon NAS depuis 2008 avec le même disque dur… :-)

    Répondre
  • 22 février 2018 - 22 h 06 min

    En fait, si on va au bout de la démarche, même un NAS n’est pas suffisant.
    Si vraiment on tient à ses données, on a une sauvegarde externe locale type NAS ou copie sur un autre PC. Mais en plus on a aussi une sauvegarde dans le cloud avec versioning. Et là je pose la question : combien de personnes ont une sauvegarde dans le cloud avec versioning ? Pas assez en tout cas ^^

    Répondre
  • 22 février 2018 - 22 h 21 min

    @Richard:

    Pareil … depuis 2008 😂

    Répondre
  • 23 février 2018 - 9 h 10 min

    @Darian: Le bout de la démarche est infini. Moi je pense qu’il faut aussi une copie gravée dans des tablettes de pierre au burin, enfouies dans un lieu secret et désert distant d’une centaines de kilomètre de la première habitation humaine, qu’on réactualise chaque jour… :-D

    Répondre
  • 23 février 2018 - 10 h 25 min

    Je ne comprendrais jamais les réactions du style x To, trop dangereux en cas de crash.
    On pouvait dire la même chose il y a 10 ans avec des disques de 2 To. C’est juste relatif aux capacités actuelles. Dans 10 ans 30 To ça sera peanuts.

    Si on tient vraiment à ses données, il faut multiplier les copies, c’est pas nouveau et c’est pas la capacité des supports qui changera la donne.
    Personnellement, j’ai toujours 3 copies actives 2 en ligne + 1 offline. Dès que j’en perds une, je fais tout pour la réparer rapidement parce qu’il y a un risque de perdre les deux restantes. Par exemple, récemment, j’ai perdu 2 disques en même temps sur mon RAID5 à 4 disques…

    J’ai perdu un disque dur par le passé avec beaucoup de photos dessus, ça m’a servi de leçon.

    Répondre
  • 23 février 2018 - 11 h 06 min

    @Darian : j’ai bien dit qu’un seul NAS n’était pas assez, c’est pour cela que je parle de la synchro. La solution Cloud n’est pas une alternative en terme de confidentialité.

    @Pierre : On doit pas travailler avec les mêmes entreprises. Non, excuses moi Pierre, je comprends ce que tu dis. C’est pour cela que l’on peut faire un numéro de sauveur, une fois que le client pleure de la perte de ses données, en mettant en place ce qu’il faut pour que cela n’arrive plus. En général il faut un bon gros sinistre pour que quelqu’un décide d’arrêter les conneries.

    Répondre
  • 23 février 2018 - 11 h 37 min

    @starlord: Le nombre de boites, de petites comme de moyennes, qui ferment parce que le PC de la compta a cramé. Que toute la compta, les contrats, les payes, TOUT était stocké dans un PC acheté en grande surface et jamais mis à jour… C’est énorme. Des PME de 50, 100 personnes qui ferment car elles ne peuvent même plus relancer leurs clients ou établir de facture… Pire, certains perdent tous les réglages de leurs machines outils et autres !

    Les prof libérales vont mieux désormais car pas mal de changements ont été opérés. Les professions juridiques doivent communiquer de manière particulière pour se connecter aux tribunaux. Les médecins ont des obligations avec les cartes vitale et autres… Mais dans l’ensemble il y a encore un bon paquet de gens qui se servent de l’informatique pour tenir leur boite et qui ont un PC grand public comme seule architecture de sauvegarde.

    J’ai même connu un gars qui avait installé un vieux NAS perso de manière non officielle dans sa boite parce qu’il était inquiet pour son taff. Le NAS copiait les données de la compta et autre en RAID. Cela a sauvé la boite quand le portable de la compta a cramé. Et cela a également finalement failli lui coûter son emploi…

    Comme tu dis, c’est quand la compta a crashé que le boss s’est rendu compte que le directeur « informatique » était une buse et qu’il n’avait jamais rien foutu pour la sauvegarde des données de la PME.

    Répondre
  • 23 février 2018 - 12 h 10 min

    @Pierre : Pour moi ce que tu racontes c’est de la science fiction, complètement suréaliste… J’arrive pas à croire qu’en 2018 on puisse encore jouer le feu avec des données essentielles. Surtout que ça coûte franchement plus rien et il y a des tonnes de solution simples à mettre en oeuvre.

    J’en connais aussi qui à ma question « et tes données tu les sauvegardes ? » me répondent « oui, je les copie aussi sur un disque externe! »… dans la genre pas fiable et risqué…

    Répondre
  • 23 février 2018 - 12 h 48 min

    @edredon: Tu te souviens du 11 Septembre ? Les tours abritaient des milliers de sièges sociaux d’entreprises et des entreprises dont le boulot était juste cela : louer des bureaux de sièges avec 1 personne et 1 poste info; suite à l’effondrement des tours, des milliers de petites et moyennes boites US ont perdu toute leur informatique. La boite éatit située ailleurs, au Nebraska, au Texas ou autre part mais la logique et les données étaient dans les twins towers. Quand l’attentat a eu lieu, des tas de boites à des milliers de kilomètres de là ont fermé.

    Répondre
  • 23 février 2018 - 16 h 00 min

    @prog-amateur:

    La plupart des disques des datacenters ne sont pas en mouvement et pourtant c’est ce qui tombe le plus en panne ! Je bosse dans un datacenter, on a eu une déflagration dans une salle à cause d’un déclenchement intempestif du système d’extinction d’incendie, les disques Flash n’ont pas bronché, alors que les disques mécaniques…
    On a perdu sur une baie 70% des HDD et rien d’autre n’est tombé en panne.

    Avoir un RAID 1 ne protége que d’une défaillance mécanique d’un disque. C’est une sécurité qui me semble faible et pas forcément utile si on a plusieurs copies synchronisées sur des supports fiables. il faut surtout pas se sentir sécurisé parce qu’on a un NAS en RAID1 dans son salon !
    Sur un disque magnétique on peut effectivement récupérer des données, mais ça coûte cher. Enfin tout est relatif par rapport aux données qu’on souhaite restaurer…

    Pour les SSD, on peut aussi récupérer des données. https://www.ttrdatarecovery.com/solid-state-drive-data-recovery/ssd-data-recovery-possible/
    On le voit notamment dans les enregistreurs de vol sur les avions commerciaux, ils sont passés depuis longtemps sur des puces abandonnant au passage la bande magnétique. Et les récupérations de données sont possibles avec une carte très endommagée.

    Pour moi le disque magnétique est bel et bien enterré, à cause de sa lenteur et de sa capacité physiquement limitée. Et puis ça reste quand même spartiate, des disques en mouvement avec des têtes de lecture…

    Ce n’est qu’une question de temps, le temps que les prix des SSD de plusieurs To baissent. Et ça sera pas dans 10 ans…

    Répondre
  • 23 février 2018 - 16 h 17 min

    @edredon:
    Tout à fait d’accord.
    J’allais aussi ajouté pour répondre à prog-amateur qu’on peut faire du RAID sur des SSD aussi…

    Répondre
  • 23 février 2018 - 16 h 35 min

    @edredon:

    en 2008, un SSD Samsung de 16Go valait 300€, le 32Go valait 600€, bref, on était environ autour des 18€ le Go

    10 ans plus tard, un SSD de 2To vaut 600€. On est donc, 10 ans après, aux alentours des 0,30€ le Go, soit un prix divisé par 60

    Si l’on tire une ligne linéaire, ce qui ne représentera pas forcément la réalité mais je suis pas madame Irma hein, on devrait avoir en 2028 des SSD de 80 To qui couteront 400€.

    … et ce modèle à 30To, qui doit couter entre 10000 et 15000€ aujourd’hui, ne vaudra plus que 150€

    Répondre
  • 25 février 2018 - 20 h 21 min

    Intéressant ce billet mais je vois 2 points concernant la prospective du stockage pour le particulier:
    – le marché évolue vers une stratégie du consommateur captif=> stockage comme service
    – Il n’y aura pas beaucoup d’inflation de la taille des données mais une inflation de la quantité de donnée.

    Donc je crois de moins en moins au stockage informatique pour le particulier qui sera davantage orienté vers du stockage hébergé mais sous forme de service (ex: Google avec Android).

    Bien sûr cela soulève quelques questions notamment sur la propriété des données mais c’est une tendance lourde: l’économie de biens se transforme très rapidement en économie de service.

    Répondre
  • 25 février 2018 - 21 h 41 min

    Comme d’autres, pour répondre à la question du titre : que reste-t-il au stockage mécanique ? je répondrais également la longévité … Parce qu’effectivement, sur des disques beaucoup sollicités (comme c’est la tendance actuellement – beaucoup de techno de stockage de données sont I/O intensive !), on a des pannes assez rapidement sur des SSD.

    Répondre
  • 26 février 2018 - 0 h 54 min

    @Dan:
    Quelques dizaines de kio probablement voire, s’il s’agissait de la fin des années 70, quelques centaines.
    10 ans plus tard (mi 80s) on comptait en Mio.
    20 ans plus tard (mi 90s) en Gio.
    30 ans plus tard (mi 00s) en centaines de Gio.
    40 ans plus tard en Tio.
    Db

    Répondre
  • 26 février 2018 - 6 h 45 min

    J’avais lu un article il y a longtemps sur des SSD qu’on stockait dans des étagères et qui perdaient peu à peu les données qu’ils contenaient car non-alimentés. Je me suis toujours posé la question de savoir s’il s’agissait d’une légende urbaine… Parce que sinon, le HDD mécanique a encore de beaux jours devant lui !

    Répondre
  • 28 février 2018 - 8 h 08 min

    @Alu:

    tout est dit donc les HDDs on encore de l’avenir surtout quand on voit des 8to à peine au dessus de 200€, certe c’est frais mais c’est là (https://www.reichelt.com/fr/fr/ST8000VN0022/3/index.html?ACTION=3&LA=55&ARTICLE=184196)

    4*8 =32to donc 29.80go utilisable ok ça tient pas dans la main mais le prix est de 850€ pour la même capacité, l’intérêt de trasporté 30to est inutile aujourd’hui, une bonne clé de 128 256go fait largement l’affaire pour transporté un film UHD série FHD jeux photos etc

    Répondre
  • LAISSER UN COMMENTAIRE

    *

    *