IBM grave des processeurs en 5 nanomètres avec Samsung et GlobalFoundries

5 nanomètres, c’est le nouveau challenge de l’industrie des micro processeurs. IBM est désormais en mesure de graver à cette finesse grâce à un nouveau procédé avec GlobalFoundries. Cela ne va pas pour autant changer la face du monde, enfin, pas tout de suite.

IBM agit ici en chef d’orchestre, la marque s’est associée à  plusieurs autres au  sein d’une alliance pour mener à bien ses recherches. Point intéressant, GlobalFoundries qui est un des principaux graveurs mondiaux, est partenaire de cette évolution.

Minimachines.net

IBM utilise une technique de gravure GAAFET, trop complexe pour être ridiculement expliquée en 5 lignes. ExtremeTech en fait une présentation relativement complète

En 2015, IBM franchissait le seuil des 7 nanomètres en laboratoire, l’année prochaine1 cette finesse devrait être atteinte sur des solutions commerciales avec des propositions de SoC signées Samsung. Le Coréen est, au passage, partenaire d’IBM et GlobalFoundries pour cette réalisation. Le passage au 5 nanomètres montre qu’IBM poursuit son travail d’optimisation tant qu’il le peut et pousse encore plus loin ses expérimentations. Le détail complet du processus est complexe mais le résultat est impressionnant, en dessinant sur la surface du DIE avec une finesse de “trait” de 5 nanomètres, 30 milliards de transistors sont réunis sur un morceau de silicium de “la taille d’un ongle” pour citer IBM.

Aujourd’hui, les processus commerciaux les plus  efficaces en terme de finesse sont des techniques de gravure FinFET en 14 et 10 nanomètres. Intel conçoit et fabrique des processeurs comportant jusqu’à 15 milliards de transistors en utilisant ce processus. En divisant la finesse par deux, on peut donc, en théorie, doubler le nombre de transistors sur le même espace et augmenter drastiquement les performances de la solution.

IBM avance également que les puces issues de cette technique serait moins énergivores et plus efficaces que les précédentes. 75% d’économie d’énergie seraient ainsi réalisées face aux solutions actuelles.

Minimachines.net

Mais il faut distinguer le travail en laboratoire et le travail de terrain. Ce qu’IBM parvient à faire est équivalent à une cascade de film. Un gars poursuivi en voiture prend pas mal d’élan et, passant par un tremplin, il saute par dessus toute une file de véhicules pour ne pas être coincé par un bouchon. Laissant derrière lui ses poursuivants pris au piège. Ça marche au cinéma, un gars sait le faire une fois pour un film, ça coûte une fortune à réaliser et ça demande des heures de calculs et de préparation. Bref, cela ne semble pas vraiment possible de répéter l’opération dès le lendemain, au premier feu rouge, dans la vraie vie.

Minimachines.net

Graver en 5 nanomètres coûte encore beaucoup trop cher et les usines nécessaires pour entrer dans une production de masse de ce type de finesse n’existent pas encore. Cela reste donc une “cascade” de laboratoire, reproductible de manière satisfaisante par des Rémy Julienne habillés en cosmonautes mais absolument pas faisable en masse et encore moins rentable. Si IBM devait commercialiser les puces ainsi produites, leur coût serait abominablement élevé.

Minimachines.net

C’est tout de même un bel effort pour tenter de coller à la fameuse Loi de Moore édictée par Gordon Moore vice président d’Intel en 1965. Il affirmait que la complexité des semi-conducteurs doublerait tous les deux ans. Une projection compréhensible à l’époque où les puces les plus rapides comprenaient 64 transistors… Une “Loi” qui s’est révélée exacte au fil du temps notamment grâce à cette capacité à faire tomber les barrières d’une finesse de gravure de plus en plus exceptionnelle. Ce que n’avait probablement pas prévu Gordon Moore, c’est que ce résultat ne serait pas obtenu par Intel mais par une alliance de plusieurs de ses concurrents.

 

 

 

Notes :

  1. Si le calendrier est respecté ce qui n’est pas sûr
6 commentaires sur ce sujet.
  • 7 juin 2017 - 13 h 14 min

    “En divisant la finesse par deux, on peut donc, en théorie, doubler le nombre de transistors sur le même espace” = on grave des wafers qui sont une surface plane en 2D donc si on divise le finesse par deux on doit pouvoir theoriquement quadrupler et pas doubler la densite de transistors, Non ?

    Répondre
  • 7 juin 2017 - 18 h 22 min

    oui et non… c’est vrai dans la théorie, bcp moins dans la pratique car tout n’est pas gravé à la même finesse !

    sinon, pour la loi de Moore j’attend avec impatience le stackingdie, 1er étage le CPU, 2eme le GPU et 3ème la mémoire !

    :D

    Répondre
  • 7 juin 2017 - 20 h 51 min

    la loi de Moore n’a jamais été une loi “technologique” mais une loi marketing sur le comment arnaquer les gogos en leur faisant acheter un nouvel ordi tous les 2 ans avec bien sur la précieuse aide de leur copain Micro…

    Répondre
  • 8 juin 2017 - 4 h 15 min

    @riton comme le dit Augure, tout n’est pas grave a la même finesse, de plus depuis une vingtaine d’années on a vu certains microprocesseurs gagner 70% de transistors et d’autres seulement 30% pour une même réduction de finesse de gravure.

    Donc dire que l’on double le nombre de transistor est une bonne moyenne :)

    Par contre l’histoire nous a montré qu’on avait tendance a diminuer la taille des die haha

    Répondre
  • 8 juin 2017 - 7 h 32 min

    @titi95830: vraiment n’importe quoi…faut remettre la loi dans son contexte ( comme l’a fait Pierre…64 transistor, ça ouvre des perspectives….avec15 Milliard, essai de doubler! -courant de fuite, physique quantique en action etc….-)

    BREF…..

    Répondre
  • 8 juin 2017 - 15 h 53 min

    RIRE de tout cela ne coûte rien .
    Les processeurs sont de plus en plus puissants c’est sur ,reste a savoir qui a besoin d’une telle puissance ?

    IMAGINONS le pratique de cette solution ,une seule puce dans une télévision .
    Cette puce disposerai d’une capacité a géré tout ce qu’une télé fait actuellement + Internet + téléphone voir pourquoi pas etre le centre de commande domotique de la maison .

    Sauf ,qu’en cas de panne ,tout est en panne donc premier défaut du système .
    Gardons que l’usage TV sur cette puce ,il faut qu’elle gère a la fois l’image et le son .
    Soit aussi capable d’analyser la source qui fourni le signal contenant l’information demandé .
    Rajoutons que si une seule puce suffit pour tout faire ,il reste la connectique et la taille de l’écran a géré .
    D’un coté 2 ou 6 petits watts pour la puce mais 100 a 200 Watts minimum pour le reste du système TV .

    D’un coté pratique ,c’est sur que la puissance est nécessaire pour gérer un contenu multimédia demandant de plus en plus de pixels ou d’autres informations .
    Du coté écologique ,je suis curieux de connaitre le nombre de puces ratées ou d’écrans Haute Définition jeté car raté a la fabrication ou bien non conforme a un usage sur une longue durée .

    Je ne suis pas un Guerrier Écologiste mais j’utilise encore pas mal de vieilles machines informatiques .
    Si une puissance moindre peut me satisfaire comme beaucoup d’utilisateurs d’ailleurs ,il reste évident que je ne recherche pas affichage 4K ou affichage sur LCD de trop grande taille .

    Je suis sur et certain qu’en optimisant a la fois le logiciel et les connaissances technologiques ,il doit etre possible de sortir des ordinateurs performant sans pour autant rechercher une technologie du troisième millénaire.

    J’ai quelques vieux processeurs et c’est amusant de voir qu’un petit Zilog Z-80 ou un Nec V-30 utilise un boitier plastique tandis que d’autre comme mon Cyrix 286 ou mon Motorola 68030 sont en boitier céramique .
    Il suffit de passé a la génération ATHLON Socket 462 ou Pentium III Socket 370 pour redécouvrir des processeurs offrant alors une puissance nécessitant grosses ventilations .

    Quand ,je vois Intel ou AMD proposer des processeur puissant ,je trouve que le seul intérêt de ces processeurs est la présence d’un GPU et le fait qu’il sont destinés a gérer beaucoup de RAM .

    5 nanomètres OUI pourquoi pas maintenant si c’est pour jeter toute la génération informatique précédente ,je pense que cela sert a rien .
    Une solution moins fine mais fabriquée avec des normes demandant moins de silicium et consommant moins d’eau pure me semble plus valable a long terme .
    La chasse aux Gigahertz est fini ,une bonne intégration dans nos processeurs , avec un peu de sagesse un Socket universel permettant de construire un PC ou autre type de machine avec la puce de son choix .

    Répondre
  • LAISSER UN COMMENTAIRE

    *

    *