Apple prépare la suite du SoC M1 avec des puces 16 et 32 coeurs

Avec ses SoC M1 intégrés dans ses premières machines, Apple est en train de dépoussiérer le monde du PC. Cette première phase va logiquement se poursuivre avec des puces encore plus performantes.

Les SoC M1 d’Apple sont des solutions de première génération et, évidemment, Apple na va pas rester sur cette première génération de puces pour la suite. La marque conçoit sans doutes depuis des mois la suite des opérations. A savoir des solutions encore plus performantes.

Soc M1

Le potentiel ouvert par cette nouvelle génération de puces est énorme, Apple va le faire fructifier à long terme et on commence à en avoir les premier échos. Il y a un mois, trois machines sortaient sous SoC Apple M1. Trois machines “légères” avec deux portables et un MiniPC. Les MacBook Air, MacBook Pro 13 et le Mac Mini sont pourtant déjà considérés comme des solutions d’exception par beaucoup d’utilisateurs.

Performants, discrets, efficaces et présentant pour certains usages des performances inaccessibles à des machines beaucoup, beaucoup plus chères, ces premiers outils emploient une puce somme toute assez basique constituée de 4 coeurs hautes performances et 4 autres moins rapides mais également moins gourmands. Ces puces équipées en 7 ou 8 coeurs graphiques et de 8 à 16 Go de mémoire vive sont de vrais petits monstres. Ce premier catalogue équipé de solutions Apple est la première pierre d’un barrage que la marque espère construire entre ses produits et Intel d’ici 2022.

Bloomberg indique aujourd’hui la suite des évènements avec l’apparition de solutions proposant non plus 4 mais 16 coeurs à hautes performances associées toujours à 4 coeurs plus sages et moins gourmands. Ces puces viendraient équiper des solutions de bureau plus classiques comme les iMac mais également des MacBook Pro plus musclés. Une autre gamme de puces se développerait autour de 32 coeurs hautes performances et serait l’élément central des futurs Mac Pro qui arriveraient en 2022. 

IMac SoC M1

La partie graphique serait également améliorée avec des solutions 16 et 32 coeurs graphiques pour les MacBook Pro et iMac mais également des solutions 64 et 128 coeurs pour les Mac Pro. Une évolution rendue nécessaire par l’allergie chronique de la puce M1 aux solutions graphiques externes et qui devrait apporter plus de muscles aux machines sans toutefois les faire rivaliser en 3D avec ce que proposent les solutions haut de gamme AMD et Nvidia existantes.

Si, pour le moment, cette information n’est pas autre chose qu’une rumeur, il ne faut pas être devin pour imaginer la suite des évolutions de l’Apple M1. L’architecture choisie est parfaite pour ce type de déploiement et techniquement, il est fort possible de pousser ces solutions dans ce sens. Apple tient déjà un produit d’exception avec sa première génération, nul doute que les suivantes poursuivront sur le même modèle.

Source : Bloomberg

Soutenez Minimachines, partagez le !


Jaune
29 commentaires sur ce sujet.
  • 7 décembre 2020 - 17 h 02 min

    Si cela peut donner des bonnes idées aux acteurs du PC, ce serait fantastique !

    Mais par contre le marché PC, et surtout les entreprises, est surtout attaché à la rétro-compatibilité … (quasi-)impossible avec un passage de l’architecture x86 a ARM.
    Il y a 7-8 ans:
    – j’ai travaillé dans une société qui utilisait encore un logiciel maison sous M$ DOS
    – et participé dans une autre à la migration vers Demandware d’un logiciel sur VAX !

    A l’opposé, Apple a pu IMPOSER à ses fidèles clients 2 sauts d’architecture majeurs :
    1. Motorola 68000 -> IBM Power PC
    2. IBM Power PC -> Intel x86

    Est-ce possible dans le marché PC professionnel ?
    J’en doute…

    Répondre
  • 7 décembre 2020 - 17 h 26 min

    Pour ma part, le grand questionnement que j’ai est l’intérêt pour le monde pro qui a besoin de Mac Pro. En effet, je me souviens qu’un musicien expliquait le besoin d’avoir un Mac Pro pour l’utilisation de cartes qui se branchent en Pci-E. Or, actuellement, rien ne prouve que les puces ARM le supporte, voir même, via l’impossibilité de brancher des cartes graphiques en Thunderbolt, prouve que cela est impossible. J’attends tout de même avec impatience la présentation de ces futurs puces qui présagent du très bon.
    PS : ci joint la vidéo du musicien en question : https://youtu.be/xNrG2mwt4Uo

    Répondre
  • 7 décembre 2020 - 17 h 29 min

    @Baervar: J’était dubitatif, et puis en vrai rosetta2 n’est pas un gadget. Cela juste fonctionne on ne perçois quasi pas de différence sur l’utilisation day-to-day. J’ai par exemple lancé un starcraft2 avec une meilleur perf (graphique) que mon ancien mbp

    Répondre
  • 7 décembre 2020 - 17 h 37 min

    Je suis curieux de voir ce que ca donne en pratique, la multiplication des threads. Célèbre analogie: 9 femmes ne font pas un bébé en un mois. Bon, c’est utilisé pour la création des programmes pas pour leur exécution, mais a un moment donné…
    Ce qui est amusant dans l’histoire, c’est qu’Apple (et ses fans) vient de passer 10 ans a mettre en avant la performance single-thread pask’en multi- ils étaient derriere, et la on va avoir droit a un 180° ^^

    Répondre
  • 7 décembre 2020 - 17 h 51 min

    @Baervar: Apple ne vend pas qu’aux particuliers. Une partie du monde professionnel n’utilise que des outils clés en main. À ceux là, l’affaire est surtout une question d’adéquation entre le catalogue Apple et le besoin de ces sociétés. Il se trouve qu’Apple n’a pas beaucoup de machines différentes.

    Pour ceux qui développent une partie de leur programmes, c’est effectivement plus problématique.

    Répondre
  • 7 décembre 2020 - 18 h 10 min

    reste à voir si apple va réussir à continuer de scaler…

    et le hic demeure toujours les logiciels… encore trop peu utiliser 6, 8… coeurs

    Répondre
  • 7 décembre 2020 - 18 h 30 min

    Depuis toujours Apple met peu de ram et se limite à des puces ayant peu de cœur comparé à la concurrence, et pourtant les résultats sont majoritairement meilleurs que la concurrence. Question d’optimisation des « faibles » ressources à disposition.

    Est-ce que le fait d’augmenter drastiquement ces ressources ne va pas inciter les développeurs à optimiser encore moins leurs app sous prétexte qu’avec 32 cœurs et 128go de ram, bah y a pas besoin d’optimiser chrome par exemple (oui je troll un peu, je sais qu’il s’est assagi grandement ces dernières semaines).

    Et de facto finir par laisser sur le bord de la route les machines entrée de gamme plus vite que nécessaire ?

    Si des gens du milieux sauraient me contredire (ou non !) afin d’éclairer ma lanterne, d’avance merci :)

    Répondre
  • 7 décembre 2020 - 18 h 54 min

    @Olivier Barthelemy: personne n’est sûr qu’Apple ne fera pas des coeurs cadencés + rapidement (ça serait bien bizarre qu’il ne le fasse pas pour des machines bien ventilées). Pour ça il n’y aura peut-être pas d’augmentation du nombre de coeur, comme du 6+2, ou comme du 2(turbo)+2+4, ou… ou le mieux est d’attendre de voir. La seule chose qu’on peut être à peu près sûre, c’est qu’il y aura une suite au M1.

    Répondre
  • 7 décembre 2020 - 18 h 56 min

    @Yann & Kikimoo : Pour les entreprises utilisant des logiciels Apple-centric clé en mains, je suis d’accord : aucun problème en vu .
    Par contre, pour toutes les autres, et en particulier si des logiciels spécifiques ont été créés, c’est nettement plus problématique.

    Le calcul est donc TRES vite fait, surtout si on ajoute les risques d’indisponibilités : un 38 tonnes bloqué au dépôt peut contenir des marchandises valant le prix d’une maison.

    Ce qui coûte cher en entreprise, ce n’est pas tant le matériel que les personnes chargées de le maintenir : un cadre informatique interne coûte 6000 a 7000€/mois, une journée de consultant est facturée 250 à 1000 € suivant le profil, alors qu’un ordinateur de marque coûte 1000 à 2500€ (amortis sur 3 ans, soit environ 650 jours de travail soit 1,5 a 4€/j) .

    Par ailleurs, je ne conteste pas le fait que l’émulateur Rosetta 2 est excellent, mais c’est le genre de risque que les entreprises n’aiment PAS prendre : par expérience, les soucis complexes en informatique ne se révèlent pas dans un logiciel mais dans les interactions entre eux.
    Rosetta 2 peut être vu comme un middleware bas-niveau impossible à enlever puisque c’est lui qui fait la traduction des appels entre logiciel applicatif et hardware.

    Mon post n’a pas pour but d’être anti-Apple mais de rappeler que les entreprises (surtout les grosses) raisonnent de manière très différente des particuliers, avec des priorités totalement différentes : €, €, €, €, ….

    Répondre
  • 7 décembre 2020 - 20 h 02 min

    @RoseLicorne:

    il y a une limite à découper un algo pour utiliser x coeurs… un moment donné il faut rassembler le résultat de chacun… et cela à un coût.. et ajouter encore plus de coeurs ne donne plus rien…

    pas pour rien qu’on a rarement vu des machines à 2, 4, 8 cpu chez les particulier…

    Répondre
  • 7 décembre 2020 - 21 h 37 min

    @Marc Collin: on voit quand même des puces comme les AMD EPYC Rome qui vont de 16 à 128 coeurs (virtuels).

    Répondre
  • Alu
    7 décembre 2020 - 22 h 37 min

    @Baervar:
    Bon après il faut aussi relativiser le pourcentage de Mac chez les Pros.

    Il y a des domaines ou les macs sont présents…mais le gros du marché PC pro appartient à Lenovo, Dell et HP pas à Apple… Il suffit d’avoir mis les pieds une journée dans la plupart des entreprises du monde pour savoir que les DSI investissent beaucoup plus dans des Dell Latitude, HP Elitebook/Probooks ou des Lenovo Serie T que dans des Macbook Pro…

    Quand au Mac Pro c’est une ultra niche…

    Répondre
  • 7 décembre 2020 - 23 h 00 min

    @Marc Collin

    Je me suis peut être mal exprimé, mais ma question portait sur le fait de savoir si rajouter plein de cœurs/ram (comme dans le monde Windows) ne va pas inciter les développeurs à se dire « on a plus de ressources a dispo, donc osef de l’optimisation »

    Je prends l’exemple des iPhones/iPad qui ont très longtemps tourné avec des config « similaires » (3/4 go de ram max, des soc avec un nombre de cœurs identique), du coup sur 3/4 générations, l’écart se faisait sur le gain de puissance de chaque cœur, mais limitait (je pense) les développeurs ce qui les forçait à optimiser un minimum.

    Répondre
  • 8 décembre 2020 - 11 h 13 min

    “présentant pour certains usages des performances inaccessibles à des machines beaucoup, beaucoup plus chères”…
    J’ai failli m’en étouffer, apple qui fait mieux que des machines beaucoup plus chères… C’est une première info ça, il existe des machines beaucoup plus chères ;-) ;-)
    Plus sérieusement, je demande à voir sur autre chose que du apple ou du adobe tuné aux p’tits ognons, (ce que les adeptes de la pomme appellent “utilisation usuelle”)
    A ce titre, les formats des Keynote (apple mais pas que, intel a de grands “spécialistes” de la pratique) avec des beaux Graphiques sans échelles et plein d’effet bling bling et des légendes type “day to day use” sont extrêmement frustrants -les perfos de word sous roseta, on s’en moque, winword 2 tournait déjà très bien sur mon 386sx-. j’attends avec impatience un match entre de vrais équivalents en gamme (ce qui implique aussi niveau soft, un Windows “façon entreprise” nettoyé de toute saleté inutile et avec des drivers à jour ou un linux avec un pilote graphique optimisé pour la carte), et sur autre chose que des appli “pure apple” (photoshop, montage video, etc …): par exemple du Catia, un rendu de scene sous blender, du calcul lourd sous matalab ou scilab…

    Répondre
  • 8 décembre 2020 - 11 h 15 min

    @Bastien B.: Ben regarde un peu les retours de ces engins. Tu seras assez surpris.

    Vu le prix d’un Mac Mini M1 et les capacités développées, ce n’est pas un mauvais calcul d’en acheter un pour certains usages. Bien au contraire.

    Répondre
  • 8 décembre 2020 - 11 h 21 min
  • 8 décembre 2020 - 13 h 25 min

    @Pierre Lecourt:
    J’en ai eu un aperçu, je dois avouer que le contenant est irritant à écouter, même si le contenu est instructif
    – le gars doit être fâché avec les consonnes dures comme la plupart des américains, parce que j’ai mis une plombe à comprendre que “zeeee-h’nn” c’était xéon
    – des superlatifs à tour de bras, du “mind blowing” en veux tu en voilà. Je pense que si un commercial francophone me ventait le truc et disant “wahouu ça déchire sa race” toute les 3 minutes, il ne se passerait pas deux minutes avant que je sorte la boîte à gifle.
    Du coup j’ai coupé le son
    Et ce que je retiens c’est que le mac mini fait largement mieux que les “1/10e” de Mac pro auxquelles on aurait pu s’attendre, mais certains comparatifs n’ont ni queue ni têtes, comme ceux liés à la puissance dissipée (le macpro est sur secteur et ventilé, on se fout comme d’une guigne de combien il dissipe), ou les comparatifs entre le GPU intégré au M1, qui doit être tout juste un “super PowerVR sous stéroides” avec ses qualités (après tout, même un gros MALI a parfois une meilleure efficacité au Watt que certains GPUS Pc) ayant accès à 4Go parmi les 16 à un Véga Pro qui a accès à 32Go dédiés, et donc à des résolutions, des banques et densités de textures, etc … inaccessibles au M1
    Mais après, pierre, je maintiens l’intéressants serait Mac Mini VS bécane compact sous Rizen du même niveau qualité/prix (et avec un windows “clean”)…

    Répondre
  • 8 décembre 2020 - 13 h 50 min

    @Bastien B.: C’est pas si inintéressant la conso parce que cela permet de construire une machine compacte (chose qui m’intéresse assez) et fanless ou du moins pas bruyante. Cela montre également qu’une évolution du M1 ne sera pas forcément un monstre en terme de consommation.

    Pour certains métiers, il est plus pertinent aujourd’hui d’acheter un M1 qu’une carte graphique a ajouter à un PC. Je pense au montage vidéo et à d’autres métiers graphiques. Pour le prix d’une 3080 tu as une unité de travail complète capable de monter 4 flux 4K avec correction colorimétrique en temps réel. En montage et assemblage audio les puces d’Apple font également des miracles. C’est une première génération de puces, cela a plein de défauts inhérents au monde et aux choix d’Apple mais ce n’est pas rien. C’est concret.

    Pour info sinon quelques scores de tests entre un MacBook Air M1 (8/256 Go) et un Ryzen 4700U (8/512 Go) :

    Cinebench R23 :
    AMD : 6155
    M1 : 6800

    GeekBench 5 Single core :
    AMD 1100
    M1 1700

    GeekBench 5 Multi core :
    AMD 4820
    M1 7429

    GeekBench 5 OpenCL :
    AMD 11907
    M1 16924

    GFXBench (AZTEC)
    AMD 42
    M1 36

    GFXBench (MANHATTAN)
    AMD 38
    M1 38

    Unigine Heaven
    AMD 32
    M1 50

    Shadow of the Tomb Raider (1680 x1050 Medium)
    AMD 17 FPS
    M1 25 FPS

    CIV VI (1680 x 1050 LOW)
    AMD 45 FPS
    M1 45 FPS

    Rendering Premiere du même fichier :
    AMD 9.01′
    M1 5.48′

    Répondre
  • 8 décembre 2020 - 15 h 27 min

    Ah oui, là ça parle plus. On est sur le même ordre de prix?
    Ce qui me frappe c’est la question des rendus 3D, les Macs ont pendant longtemps été des chèvres dans ce domaine
    En en plus AMD n’a pas l’excuse d’intel d’être prisonnier d’une architecture Cisc (même si dans les faits intel ne l’a plus non plus)
    – leur premier pentium était un 29K (risc maison) affublé d’un décodeur x86
    – l’architecture hammer comme celles qui ont suivi (Zen & Epic inclus) ont probablement hérité plus de dec que d’intel.
    …et ils ont l’un des meilleurs coeurs graphiques au monde
    La vache, ils vont donc devoir affronter deux adversaires au lieu d’un

    Je comprends mieux ton intérêt pour la conso.
    Après personnellement compact ou pas, tant que ça n’est pas portable… J’ai toujours eu le sentiment ce type de machine se destinait aux bureaux de gens recevant des clients, ceux ayant besoin de place (bureau chargé par des activités denses, ou ceux désireux d’un aménagement harmonieux. Moi mon bureau est aussi mon atelier pour circuits, entre les fer à souder et l’oscillo partable qui s’y baladent, l’harmonie n’a jamais été ma prorité ;)

    Répondre
  • 8 décembre 2020 - 15 h 38 min
  • 8 décembre 2020 - 15 h 50 min

    @Bastien B.: Pour le moment cette puce M1 est a considérer comme une puce de portable.

    Répondre
  • 8 décembre 2020 - 17 h 00 min

    Apple est en train de dépoussiérer le monde du PC… Ben seulement accessoirement, la motivation première d’apple n’est pas le ménage, mais comme d’habitude de créer un besoin tout en liquidant le passé pour marger plus et rendre les matériels à peine utilisé déjà obsolète. On en parle jamais, ca devient pénible.

    Mais le monde a changé… Mes amis apple fans et fortunés en plus, ceux qui peuvent même se permettre de passer leur équipement en frais, ben ils en ont marre de raquer. La ficelle est tellement grosse.

    Ben non je ne m’esbaudie plus devant le nouveau proc d’intel ou d’apple. J’achète plus rien de récent parce que moi aussi j’ai changé et la ficelle trop grosse.

    Répondre
  • 8 décembre 2020 - 17 h 07 min

    @Dadoo: D’un autre côté, je ne connait aucun fabriquant de PC dont la motivation première n’est pas l’argent hein :)

    Répondre
  • 8 décembre 2020 - 17 h 14 min

    @sartor:

    Excellent. Merci pour le partage

    Répondre
  • 8 décembre 2020 - 20 h 07 min

    @sartor:
    L’article est d’un sacré niveau à la fois simple à comprendre et détaillé aussi bien pour un initié qu’un débutant
    Et encore un peu trop de “outstanding” et d'”amazing”, mais à l’écrit et sans l’accent texan, c’est déjà plus supportable
    Plus sérieusement
    – SSD comme “mémoire cache”? a moins d’être basé sur une techno analogue à une NVRAM dont on utiliserait par une astuce que la partie RAM, ça frôle l’hérésie: à moins de taper dans du haut de gamme, ces bêbêtes ne supportent qu’un nombre de cycle limité, alors des phases d’écritures à la fréquence d’une mémoire cache…)
    – Intégration d’un ou plusieurs processeurs spécialisés
    … euh je ne vois pas ce qui bloque pour le faire dans une archi intel ou amd…. Durant des années les Fabricants de Chip voir de CPU ont intégré un GPU “par défaut”, ça n’a jamais empêché le gamer de base de simplement l’ignorer et d’ajouter sa carte graphique top moumoute hors de prix à la place. ET la plupart des fabriquant de SOc ARM même chinois, intègrent tout un tas de coeurs Video, dsp, chiffrage… alors que ceux qui les intègrent ne s’en servent pas toujours
    – taille des instructions variables, reliquat de l’ia32
    C’est un problème connu de longue date, qui concerne à priori autant le X86-64 (d’après OSDEV WIKI) que la partie historique (X86, ia 32)
    Mais néanmoins c’est un problème, pour que ce soit aussi limitant dans le design des décodeurs. c’est à se demander si intel comme AMD ne vont pas devoir revoir complètement la façon dont ils traitent la compatibilité x86 (comme par exemple la gestion par le CPU d’une “machine virtuielle d’émulation x86 embarquée” à la façon des transmeta crusoe?….)

    Répondre
  • 8 décembre 2020 - 21 h 54 min

    @ Bastien B et Pierre :

    Qu’est-ce qui empêche Intel et AMD de complètement basculé ?

    Si Apple a mis moins de 10 ans (avec les Soc iPhone) pour devenir aussi fort, qu’est-ce qui empêcherait deux spécialistes de le faire également ?

    Et sinon, si le x86 est pas condamné, l’utilisateur de PC va t il se retrouver avec des SoC partout et des PC non modifiables/améliorables ?

    Répondre
  • 9 décembre 2020 - 10 h 31 min

    @Etienne:
    “Qu’est-ce qui empêche Intel et AMD de complètement basculer ?”
    dans du pur RISC: Rien, du moins rien de technique AMD a dans son portefeuille une architecture risc interne depuis la nuit des temps, qui lui a entre autre servi pour “bricoler” son premier 586. Intel aussi a eu les siennes, dont l’itanium, qui n’est à la fois un peu les deux, et a également fait les beaux jours de l’ARM dans les PDA avec son xscale, revendu depuis à Marvell semicon. Bref ils savent faire, …ou savaient, parce que les architectes aussi, un jour prennent leur retraite.

    Dans du SOC: rien non plus, et à part peut être pour la mémoire, ou la stratégie d’apple promet de transformer tout ordinateur en un vulgaire ipad géant. L’architecture des PCs est telle que dans l’immense majorité des cas un périphérique intégré peut tout simplement être ignoré et remplacé par un externe plus performant, pour peu de disposer d’un bus ayant la vitesse adéquate. Ca fait des éons qu’intel comme AMD incluent un GPU dans leur chipset ou dans leur APU (ils n’auraient pas pu trouver un autre nom, APU c’est déjà pris bordel), et y fourguer d’autres choses(VPU, IPU) n’est qu’une question de coût, de watts et de compatibilité du process de Fab (surface occupée==> nb de core par waffer….)

    Nan le sujet, c’est la compatibilité X86: c’est assez basique: plus ton design est complexe, moins il peut monter en fréquence et moins il est évolutif. Et plus ton jeu d’instruction est lourd à décoder, plus le design de ton décodeur est complexe.

    C’est pour ça que le sujet pour eux va être de déterminer comment ils conservent cette compatibilité dans le futur:
    – hardware, seul ou conjointement à un nouveau jeu d’instruction
    – middleware, façon transmetta par exemple, dans une sorte de machine virtuelle, conjointement à un nouveau jeu d’instruction
    – Soft?

    Je ne pense pas que le X86 soit condamné à court terme. On verra bien, à moins que les mouvements de Microsoft vers qualcomm ne précipitent la sortie d’un PC ARM, auquel cas les premier gros à fourbir leurs armes, outre la myriade de Chinois (Rockchip, peut être même allwinner) et Taiwannais (Médiatek) seront Samsung, Qualcomm, et bien sûr NVIDIA et AMD.

    Et là dieu sait quelles options resteront à Intel.

    Répondre
  • 9 décembre 2020 - 11 h 10 min

    @ Bastien : merci pour ta réponse bien complète !

    Répondre
  • 9 décembre 2020 - 12 h 48 min

    @Etienne: Bah ecoute, avec plaiz’, Mais je ne prétends pas avoir la science infuse -personne n’est devin-, et j’ai aussi des partis-pris (je vais être franc, la philo marketing d’apple, qui consiste à faire d’une techno un objet de différenciation “vous aimez un objet exceptionnel, donc vous êtes exceptionnel”, de dévotion et d'”amour” me porte sur les nerfs. Un ordinateur, c’est un outils technologique, et comme tous les outils ça demande à être maîtrisé, point). tu peux jeter un oeil à des sites comme OSDEV, ou par exemple l’article partagé par sartor, même si il y a encore un peu trop de “astonishing” ou d'”amazing” dedans

    Répondre
  • LAISSER UN COMMENTAIRE

    *

    *