Densité et vitesse des SSD, un des gros chantiers 2015/2016

Ces derniers jours, de nombreuses annonces ont été faites autour des SSD. Intel et Micron ont annoncé à la fin du mois de Juillet le 3D XPoint. Plus récemment, Samsung exhibe un SSD de 16 To. Des annonces qui montrent les bouleversements à venir.

3D CrossPoint, ou plutôt 3D XPoint, une annonce de Micron et Intel autour d’un stockage électronique d’un nouveau type.  Un stockage jusqu’à 10 fois plus rapide que les technologies de mémoire NAND actuellement utilisées. Et une densité de 8 à 10 fois supérieure…

3d_xpoint

Samsung qui expose un petit 2.5 pouces de 16 To exploitant sa technologie 3D V-NAND sur 48 couches. De quoi faire de l’ombre à pas mal de grosses machines au sein d’une solution ultraportable. Qui dit augmentation de la capacité dit augmentation de la densité et baisse du prix de revient. Quand on sait fabriquer un SSD de 2.5 pouces de 16 To, on peut facilement concevoir des solutions de plus petite capacité pour une fraction du prix. Proposer des formats de type mSATA ou M.2 de 256 ou 512 Go à prix très abordables.

Minimachines.net 2015-08-17 12_47_01

D’autres annonces moins récentes ont émaillé l’année, et la course à la densité et à la vitesse, coordonnées avec une très nette baisse des tarifs des SSD de basse capacité, annoncent un véritable bouleversement des habitudes de stockage.

C’est probablement le gros chantier en cours et celui qui aura le plus de conséquences d’ici les prochains trimestres. La disparition progressive des solutions mécaniques de toute l’offre portable au profit de solutions hybrides dans un premier temps puis, petit à petit, vers du pur stockage électronique.

Avec des SSD de 256 ou 512 Go de moins en moins chers, mais surtout un énorme changement de performances entre un PC équipé d’un système mécanique classique et un système équipé d’un SSD, les constructeurs ont plus intérêt à miser sur un stockage électronique que sur un plus gros processeur.

Minimachines.net 2015-08-17 12_46_31

Les disques ultra réactifs ou les stockages de très grande capacité, les évolutions vers des solutions de moins en moins chères à fabriquer, signifient la disparition des disques durs sur les solutions mobiles. Les stockages mécaniques auront encore et toujours l’avantage d’un très faible coût, mais hormis sur des solutions sédentaires, on les voit mal continuer à s’intégrer sur les portables et ultraportables.

3d_xpoint_die

La probable contre-attaque des fabricants de disques mécanique sera dans la densité, le pari de la vitesse, malgré les formules hybrides mêlant stockage sur plateau et SSD au sein d’un même disque, semble déjà perdu. La conséquence logique sera donc de proposer des équipements 2.5 et 3.5 pouces de très hautes capacités à des prix sensiblement identiques.

Minimachines.net 2015-08-17 12_50_42

Les options de stockage de portables haut de gamme aujourd’hui, bientôt désuètes ?

La minimachine portable de base à la mi-2016 aura probablement 256 Go de stockage. Pour le prix des solutions équipées d’un disque dur d’aujourd’hui.


Soutenez Minimachines avec un don mensuel : C'est la solution la plus souple et la plus intéressante pour moi. Vous pouvez participer via un abonnement mensuel en cliquant sur un lien ci dessous.
2,5€ par mois 5€ par mois 10€ par mois Le montant de votre choix

Gérez votre abonnement

13 commentaires sur ce sujet.
  • 17 août 2015 - 13 h 22 min

    bon retour Pierre , au plaisir de te lire à nouveau :)

    Répondre
  • 17 août 2015 - 16 h 12 min

    Le principal problème des SSD reste malgré tout la fiabilité et surtout la longévité en regard avec la durée de vie limitée des cellules surtout dans un contexte « d’usage intense »…
    De plus, ce que l’on gagne d’un côté, on le perd de l’autre avec toutes les technologies de gestion des cellules : « Wear levelling », « Trim », etc…
    Donc, si dans le cadre d’un usage de STOCKAGE, les SSD semblent prometteurs, il n’est pas évident que le surcoût par rapport à un HDD classique soit forcément pertinent, à fortiori si cela consiste en du stockage justement.

    A l’opposé, dans le cadre d’un usage intense nécessitant d’innombrables I/O sur une très longue durée, les gains ne semblent pas flagrant.

    Les disques hybrides mêlant HDD mécaniques et SSD servant de cache n’ont pas non plus d’avenir technologique (le maillon faible restant toujours le SSD), mais je désespère que les constructeurs sauront s’appuyer sur le Marketing et la courte mémoire des usagers pour vendre davantage des technologies à fortes valeurs ajoutées par rapport aux « vieillissants » HDD mécaniques bien plus fiables, mais pas éternels non plus…

    La durée de vie des produits mobiles dépassant rarement ceux des « unités de stockage » et les possibilités d’interchangeabilité devenant de plus en plus limitées (eMMC intégré aux SOC ou à la carte mère, obsolescence programmée toussa), les plus prévoyants devront malgré tout s’appuyer sur les « anciennes » technologies s’ils tiennent à préserver leurs données sur la durée !
    Les autres n’auront tout simplement plus de mémoires…

    La garantie d’un SSD grand public dépasse rarement 3 ans actuellement, y compris avec des capacités proche du To à ~300 € (en solde !) comparée aux 10 ans d’une version pro, mais hors de prix pour le commun de mortels, il faudra à chaque fois prévoir un budget mémoire de masse de rechange durant ce même laps de temps, voire intervalle de temps plus court.

    Répondre
  • 17 août 2015 - 16 h 20 min

    Je précise que je possède depuis quelques semaines un Sandisk Ultra II de 960 Go acheté sur un coup de tête et je ne suis toujours pas persuadé de la pertinence de cet achat compulsif, tout comme l’acquisition du Lenovo Thinkpad 8 de 128 Go sous Windows 8.1 Pro (il ne passera pas sous Windows 10 !)… ^^

    :P

    Répondre
  • 17 août 2015 - 16 h 21 min

    @Docteurcpu: :)

    @Arobase: Je crois que la combinaison gagnante serait bien sur une solution mobile sur SSD accessible avec un système de sauvegarde simple et efficace sur un NAS en mode sédentaire. Quand je dis simple, c’est pour dire « totalement transparent ».

    Répondre
  • 17 août 2015 - 18 h 30 min

    @Pierre LECOURT:

    En quoi cela change la problématique précédemment soulevée ?
    Si les constructeurs développent des SSD avec des capacités de plus en plus importantes à des coûts plus bas (je n’évoque même pas le critère vitesse qui risque de stagner à un moment ou un autre) c’est avec l’espoir de pouvoir remplacer les HDD dans les NAS Pro ou autres technologies de stockage de même type parce qu’avant de pouvoir bénéficier de SSD de 16 To dans un PC portable à prix grand public (ou pas) et surtout pour quel usage ??? ^^ LOL
    (Je sais, le LOL serait soit disant devenu « has been »… ^^ ;) )

    Donc, pour le stockage de données qu’est-ce qui justifierait une telle débauche de performance avec un tel surcoût ? Si l’on se base simplement sur le Streaming où le temps d’accès en lecture pourrait se justifier, c’est plus les performances du système au sens de l’OS qui intervient que celui du ou des SSD.

    Pour ce qui est des produits mobiles, on constate que les capacités augmentent pour le même prix voire pour un prix inférieur, mais au détriment de la fiabilité, des performances, mais ces mêmes produits deviennent toujours plus jetables.

    Donc, est-ce les clients continueront de dépenser plusieurs centaines d’euro pour des produits avec une durée de vie toujours plus courte ?

    A l’opposé, les ultra-portable restent très/trop onéreux avec des SSD plus importants par rapport aux SSD achetés en pièces détachés… au moment des soldes ou des « bonnes affaires » et qu’il faudra de toute façon remplacer à plus ou moins brève échéance… et pas que les SSD d’ailleurs…

    Même avec un Windows 10 devenu « mieux optimisé » (SIC), remplacer un ultra-portable à +2000 € même avec 256 Go ou 512 Go tous les deux ans, j’ai le sentiment que l’on marche sur la tête, y compris avec les Netbook moins coûteux…

    Pour conclure, j’ai le sentiment que l’on transforme en phénomène de mode un usage qui ne se justifie pas dans la majorité des cas !
    Les constructeurs essayant simplement de se récupérer avec les SSD là où ils ne peuvent plus le faire avec les processeurs toujours plus surpuissants ou la quantité de RAM.

    Répondre
  • 17 août 2015 - 18 h 44 min

    @Arobase: On se fout pas mal de la capacité effectivement, maintenant le phénomène de mode n’en est pas forcément un, il faut le voir dans une optique de performance.

    En tant que constructeur, proposer un PC avec un processeur de 2013 ou un processeur de 2015 dans la même gamme de prix, il n’y aura pas de gros gain de performances.
    Par contre construire un PC avec un HDD ou SSD aura des conséquences réelles et immédiates sur les performances ressenties par l’utilisateur. Au delà de la capacité, les constructeurs visent aujourd’hui ce gros gain de performances, surtout face à des systèmes concurrents qui frôlent l’instantanéité de réaction.

    Quand aux SSD en soldes moins chers que les options dans les machines, c’est un problème habituel, aussi vrai pour les disques mécaniques. Les prix des composants subissent une augmentation différentes dans les machines. La marge de chaque acteur influe sur ceux-ci et les taxes globales font également leur effet.
    Mais cet effet « boule de neige » peut être compensé par le volume. C’est ce qui est arrivé aux gros disques surs par exemple, une transition très visible avec les netbooks qui sont passés en 2 ans de 4 Go de SSD à 320 Go de HDD pour le même tarif en subissant des étapes de 60/80/120/160/240 Go.

    Répondre
  • 17 août 2015 - 21 h 40 min

    @Pierre LECOURT:

    Pierre, ne m’en veut pas si j’entretiens le débat mais j’essaie de comprendre le gain que l’on peut avoir dans un environnement PC, qu’il s’agisse de Windows ou de Linux dans le cadre d’un usage intensif.

    Autant je peux comprendre le ressentie utilisateur avec des OS mobiles, genre Android, iOS, voire Winphone avec des applications taillées pour cet usage : « accès disque » limités, ainsi qu’avec des OS Desktop avec un usage trivial, autant je suis beaucoup moins persuadé que la solution SSD soit pertinente pour un usage plus intensif, mais je peux me tromper…

    Je me souviens que lorsque j’ai acheté mon premier SSD de 160 Go (Intel Truc je ne me rappelle plus quoi) pour mon Acer 1825PTZ sous Windows 7 (Windows 8 n’existant sans doute même pas à l’état de projet), ça passait encore assez bien pour un usage pas trop intensif car j’avais peur de griller mon SSD dans le cadre de compilations sous Ubuntu du kernel, et surtout lors de compilation de « ROMs Android-x86 ».

    Avec Windows 8.1, même avec un PC portable largement plus puissant, je ne ressens pas cette sensation d’instantanéité, loin très loin de là.
    Avec Linux, ça passe beaucoup mieux bien que je suis loin d’avoir tout parfaitement optimisé le système pour le SSD, mais ce n’est toujours pas réellement génial pour de la grosse compilation.
    Pour un usage « normal », j’utilise une partie de ma RAM (16 Go au total) afin de stocker les caches et les fichiers temporaires pour limiter au mieux les I/O…

    « Mais cet effet « boule de neige » peut être compensé par le volume. C’est ce qui est arrivé aux gros disques surs par exemple, une transition très visible avec les netbooks qui sont passés en 2 ans de 4 Go de SSD à 320 Go de HDD pour le même tarif en subissant des étapes de 60/80/120/160/240 Go. »

    Sauf erreur de ma part, je pense que tu as du oublier une bonne décennie au passage car le premier Netbook avec 4 Go de SSD doit dater d’au moins 2007… :P

    Répondre
  • 17 août 2015 - 22 h 38 min

    Bonsoir à tous, et merci Pierre d’être revenu ^^.
    @arobase: je ne reviendrai jamais en arrière, le disque mécanique est une corvée, surtout lors des Windows Update, des installations…
    Si tu crois ne rien ressentir, as-tu fait l’essai de remettre un disque mécanique ? Souvent on s’habitue vite dans un sens et on ne s’en rend compte que si l’on fait demi-tour :o).
    Si tu ne vois pas de grosse amélioration lors des compils, ce n’était peut-être pas les I/O qui limitaient ta machine… peut-être le CPU ?

    Répondre
  • 17 août 2015 - 23 h 44 min

    @IvanP.:

    Pour ce qui est des installations de Windows 8.1, je possède une licence de Acronis True Image 2014 et donc, ce n’est pas pour perdre mon temps à le réinstaller dès qu’il y a un petit problème. Pour ce qui est de Windows Update, que ce soit en 4G ou en ADSL, je n’ai justement pas ressenti de différences notoires au point que cela me fasse tilter : c’est tout autant laborieux avec un SSD qu’avec un HDD et comme mon SSD date d’il y a à peine quelques semaines je ne risque pas d’oublier ce genre de détails…

    D’ailleurs, essaie de nettoyer ton HDD des hotfixes de Windows et dis moi combien de temps cela te prend ? Je serai vraiment curieux de connaitre le résultat.

    Avec mon core i5-3210M CPU, 16 Go de RAM, cela me prend tout de même plusieurs heures juste pour quelques centaines de Mo : j’ai pas eu le courage ni la patience de chronométrer, c’est dire… Sur mon Lenovo Thinkpad 8 avec 2Go/128Go/Atom, c’est encore pire puisque cela me prend bien une demi-journée juste pour le nettoyage des cochonneries.

    Pour ce qui est de mes compils, comme tu peux le voir avec ma configuration bien que ce ne soit pas le dernier cri ce n’est pas non plus un veau.

    Lorsque je compile une ROM Android-x86 sous Linux en ext4, cela génère environ 26.4 Go de fichiers temporaires pour avoir au final un fichier Iso de 276.8 Mo… ^^
    Donc, le trim derrière doit réorganiser un sacret paquet de données…

    Sous Windows avec NTFS, ce serait encore bien pire car j’aurais fini à l’asile depuis longtemps… ;)

    Comme j’ai toujours mon HDD d’origine, je verrais d’ici quelques semaines si je conserve mon SSD ou pas.

    Répondre
  • 18 août 2015 - 23 h 25 min

    @Arobase: quand je parlais de Windows Update, il s’agissait de la seconde partie (l’installation), le download ne dépend que de ta vitesse de connexion (j’ai résolu le problème par l’installation d’un WSUS).
    Je n’ai jamais supprimé les màj, généralement j’évite tout ce qui pourrait perturber les fragiles équilibres de Windows :o).
    En ce qui concerne ton processeur effectivement il est loin d’être has been. As-tu regardé la charge CPU pendant les compils ? Sont-elles bien parallélisées (autant de threads que tu as de cœurs, réels ou dus à l’hyper-threading) ?
    Enfin, je suis sûr qu’il y a sous linux des outils permettant de voir la longueur de la file d’I/O en attente sur le disque afin de voir si c’est ce dernier qui traîne.
    Je suis toujours étonné des gens qui ne voient pas la différence avant/après installation du SSD ; j’ai plus d’une dizaine de PC, serveurs, etc… et ils ont tous un SSD (je ne pourrai plus m’en passer). Les reboots de VM sur mon serveur sont bien plus rapides, la réactivité quand on clique, quand on ouvre les consoles d’administration… est sans commune mesure avec avant. Non non si on me propose deux barils de HDD contre mon baril de SSD je refuse en bloc :o).
    Mais j’ai des 4To pour le stockage, bien sûr.

    Répondre
  • 19 août 2015 - 6 h 56 min

    Arobase tu nous as fait tout un pavé sur l’importance de la longévité, des faiblesses des SSD dans le cadre d’une utilisation intensive, etc… Mais au final tu achètes un SSD d’entrée de gamme avec une garantie réduite à seulement 3 ans et qui possède par dessus le marché une mémoire économique de type TLC connue pour avoir une des plus faible durée de vie… Ce n’est pas du tout logique comme choix… Effectivement je veux bien croire que tu aies acheté ton SSD sur un coup de tête et que tu regrettes maintenant ! Si tu avais réfléchi davantage à ton achat tu te serais sans doute rendu compte que c’était le modèle qui correspondait le moins à tes critères les plus importants pour toi.

    Et clairement tous les modèles de SSD ne sont pas de véritables cracks sur le plan des performances, je pense notamment aux scandaleux V300 de Kingston par exemple avec leur contrôleur qui a changé en cours de route sans que le nom du modèle n’ait été modifié, effectivement les acquéreurs de ces modèles version 2 ont eux aussi de quoi pleurer avec des performances divisées par deux… Les SSD c’est comme le reste des composants, il faut qu’ils soient choisis soigneusement. Pour ma part je suis très heureux avec mon Samsung 840 Pro de 512 Go (mémoire MLC et garantie de 5 ans), dans les jeux c’est appréciable d’avoir des temps de chargement quasi-inexistants et sur bien d’autres domaines le SSD m’a convaincu.

    Pour moi ça ne fait absolument aucun doute que la NAND 3D va enterrer le HDD classique. Sur les HDD classiques les fabricants font actuellement face à une véritable limitation physique avec la taille limitées des plateaux, il devient de plus en plus difficile de fabriquer des plateaux contenant toujours plus de Giga-octets, tandis que la NAND 3D ouvre des perspectives beaucoup moins limitantes et pourra enfin rivaliser en terme de coûts de fabrication. Les fabricants n’ont désormais plus aucune raison de continuer à investir dans la technologie des HDD classiques depuis la découverte de la NAND 3D. D’ailleurs je pense que ce n’est plus qu’une question de temps maintenant, les plus gros fabricants de puces l’ont déjà compris et ce n’est pas un hasard s’ils se sont tous tournés vers cette technologie de NAND 3D. En d’autres termes quand elle sera démocratisée ce sera alors la fin des HDD classiques.

    Répondre
  • 19 août 2015 - 8 h 00 min

    ‘LLo,
    Question à deux balles:
    & sous linux avec une RAM normale & si l’on est attaché à l’hibernation ou aux « trouzemille » onglets/trucs ouverts en même temps sur plein de bureaux, on la met oû la swap sur un SSD ?
    Moi avec i3/4Go je n’utilise + ça, d’autant + que c’est le meilleur moyen de ne pas refaire un vrai démarrage à froid (salvateur & nettoyant) régulièrement ;-)

    Répondre
  • 20 août 2015 - 10 h 37 min

    @fassil: D’un autre coté tu n’es pas censé faire de l’hibernation toutes les deux minutes, au pire une ou deux fois par jour, ce qui ne va pas dégrader tant que cela ton SSD. Pas plus que la sauvegarde automatique des documents en cours d’édition par exemple (là je vais stresser les inquiets ;-) ).
    Et sur un Linux, avec un démarrage aussi rapide, la veille normale suffit.

    Répondre
  • LAISSER UN COMMENTAIRE

    *

    *