Intel définit en détail ce qu’est un « AI PC » (pour eux)

Alors que le terme Intelligence Artificielle est désormais employé par toutes les entreprises à tort et à travers, l’Intel AI PC mérite une mise au point.

La première phase du plan d’Intel pour les AI PC a été lancée en octobre auprès des développeurs puis présentée au grand public en décembre avec le lancement des puces Meteor Lake d’un côté et les  ambitions du fondeur de l’autre. De son côté Microsoft a dès le mois de janvier établi les éléments de son développement de l’Intelligence Artificielle au sein de Windows avec Copilot.

Mais tout cela reste assez flou, assez vague dans son approche comme de ses définitions. Savoir que son processeur est capable de piloter une IA c’est une chose, mais connaitre quel usage aura cette IA et donc quel curseur on aura besoin de surveiller pour savoir le niveau de performances correspondant à ses besoins en est une autre. Aujourd’hui, on sait à peu prêt de combien de mémoire vive ou de stockage on a besoin selon que l’ont veuille faire du traitement de texte ou de la conception 3D. Mais de combien de TOPS – l’unité de capacité de calcul en IA – aura t-on véritablement besoin dans quelques années pour faire tourner des IA sur son PC ? Qui le sait vraiment ? Qui sait même à quoi tout cela pourra t-il lui servir ?

Intel a donc annoncé le lancement d’un nouveau programme de développement pour attirer de nouveaux acteurs dans la course à l’IA. Des petites structures comme des indépendants tentés par l’exploitation de ces nouveautés pour élaborer de nouveaux logiciels. Le fondeur annonce en parallèle un programme pensé pour les fabricants de matériel souhaitant tirer, eux aussi, parti de ces fonctionnalités avec leurs produits.

Pour définir une base de travail afin d’estimer les compétences réelles des machines, un élément sur lequel bâtir une IA locale, il faut un étalon. Les AI PC sont là pour proposer cette unité de mesure chez Intel. Si un développeur veut se pencher sur une IA spécifique il peut prendre comme échelle les machines estampillées AI PC afin de déterminer la capacité de calcul qui lui sera nécessaire pour faire fonctionner ces algorithmes. Il ne sert à rien de proposer un outil local inexploitable, qui exigerait un matériel hors de prix, cela ne génèrerait aucune vente1

De la même manière si vous voulez proposer des outils matériels s’appuyant sur des IA, il faut pouvoir contrôler la demande en ressources disponibles. Une webcam qui rajoute des effets en temps réel ou fait de la reconnaissance d’objets. Un micro qui profite du NPU pour assourdir votre environnement sonore. Un dispositif USB capable de reconnaitre des odeurs ou autres. Tout cela a besoin d’une échelle pour se lancer sur un marché large non réservé à des machines spécialisées. Il  ne sert à rien de lancer un outil génial qui vous place automatiquement dans les meilleures conditions possibles pour télétravailler en vidéo si la machine nécessaire pour son usage n’existe pas sur le marché.

Le hard examinant le soft ou… l’inverse.

Ce que propose Intel avec ces AI PC c’est donc de définir cette mesure en se basant sur… ses propres puces. Il s’agit bien entendu d’une proposition commerciale qui, en tant que poule, tente d’inventer l’œuf dont elle à besoin. Les produits sont là, sur les étagères d’Intel avec les puces Meteor Lake et leur NPU intégré. Ce qu’il manque ce sont les outils logiciels et matériels capables d’en tirer parti. Cela ne veut pas dire qu’un engin sous processeur AMD ne pourra pas faire aussi bien pour autant. Ce que tente de faire Intel c’est de proposer une norme comme avec Centrino, Thunderbolt ou Ultrabook. Quelque chose d’assez puissant pour que les industriels et développeurs réagissent en sortant des produits dépendants des processeurs Core.

Intel prévoit de livrer environ 100 millions de PC avec un NPU d’ici la fin de 2025. Rien d’extraordinaire devant ce chiffre, cela correspond à peu près aux expéditions globales de machines avec des puces de dernières générations chez Intel sur 2 ans. Pour cela, le fondeur peut compter sur ses nombreux partenaires et sur un panel d’environ 300 applications prenant en charge les IA anticipé d’ici la fin de l’année 2024. Un bouillon de culture sur lequel il compte donc beaucoup.

La marque qui s’identifiera comme celle la plus capable de répondre à la problématique IA sera la grande gagnante de des années a venir.

Peu importe que vous ayez besoin ou non d’un NPU, que vous comptiez utiliser l’IA ou non, l’étau marketing pour mettre en avant le principe de son usage se resserre de jour en jour. Les particuliers sont confrontés à l’apparition de nouveaux termes. Les PME sont interrogées sur leur rapport à ces nouvelles technologies et l’ensemble du marché n’a plus que ce mot clé à la bouche. Il est urgent pour chaque constructeur de créer un signe fort autour d’un concept d’Intelligence Artificielle pour attirer les regards. Pour Intel, qui dispose d’une force médiatique conséquente, cela passe par la définition de ces « AI PC ».

Il n’ y a aucune raison qu’une machine Intel soit plus dédiée à l’IA qu’une machine exploitant un processeur AMD, Apple, ou même une puce Qualcomm. Toutes ces entreprises ont ou préparent une solution en ce sens. Mais là où Intel mène la danse c’est en inventant un terme générique et en le présentant au monde. Pour cela, le fondeur s’appuie sur son partenaire de toujours qu’est Microsoft. Le fameux couple « Wintel » qui a déjà remporté tant de batailles aussi bien marketing que technologiques.

Avec Copilot, Microsoft s’offre une touche de publicité

Dans sa logique, Intel indique qu’un AI PC est une machine sous Windows, qu’elle doit proposer un processeur, un circuit graphique et bien entendu un NPU dédié aux calculs d’IA. Cet ensemble doit prendre en charge Copilot, l’IA connectée de Microsoft. Ce tapis rouge déployé sous les pieds de l’éditeur de Windows oblige ce dernier à un retour diplomatique. Pour obtenir l’agrément Copilot de Microsoft et la touche dédiée sur les claviers des machines certifiées, on pourra évidemment employer toute la gamme de puces Meteor Lake d’Intel. 

Cette alliance a du bon pour les marques. Le grand jeu de toutes ces normes « AI PC » et Copilot » étant de flécher un parcours lisible pour le grand public. L’idée est de voir des logiciels estampillés « AI PC » ou des applications « Copilot compatibles » et de pouvoir retrouver ces logos sur des machines en rayon de supermarché ou sur des listings en ligne. L’acheteur lambda verra que la mise à jour de son logiciel de montage vidéo ou de son jeu préféré héritera d’une compatibilité de ce type et cherchera le jour de son nouvel achat un engin avec ces références. Ce fléchage assurera à Intel et Microsoft des ventes de machines plus aisées.

Imaginez un logiciel de retouche photo capable de répondre à vos questions comme « Comment améliorer les contrastes ? » avec une interface Copilot intégrée qui pourrait non seulement vous expliquer la procédure à suivre mais également vous proposer des exemples ou modifier votre image à votre place. C’est en quelque sorte le pari d’un support des IA en local que de fournir de plus en plus d’applications entrainées et adaptées à leur usage.  Si le Copilot de Windows est un système de Chat toujours dépendant d’une connexion au réseau internet, rien n’empêche un éditeur de logiciel de proposer une IA locale déjà entrainée pour répondre à ses sujets via son interface. Mâcher consciencieusement et précisément le travail que représente la fameuse lecture du manuel en le traduisant dans une interface plus digeste.

Cette définition d’un AI PC se fait donc de manière assez simple. Ces machines disposent de trois solutions de calcul (processeur, circuit graphique et NPU) proposant chacune une accélération des IA  sur un champ spécifique. Pour Intel, la capacité de jongler entre ces diverses unités pour maximiser la performance est un point important. Le NPU excellera dans son approche basse consommation pour des usages très courants comme les travaux de gestion d’image, de son ou de vidéo. Sans besoin d’être connectée en permanence au réseau, une puce de ce type pourra reconnaitre, par exemple, toutes les photos contenant tel ou tel  type d’objet et vous les présenter. Cela évitera de décharger la batterie en se connectant à un serveur dans le cloud pour effectuer la même opération après y avoir chargé vos précieux clichés…

Cette fonction de base assurée par le NPU permettra également au processeur et au circuit graphique de ne pas prendre en charge ce type de calcul sur lequel il sont moins pertinents. Les tâches les plus gourmandes en IA pourront s’appuyer sur ces derniers éléments à plein régime. Et, au besoin, le NPU et le GPU pourront travailler de concert pour accélérer certains calculs.

Autre point clé pour l’attribution d’un petit label « AI PC », la disponibilité minimum de 16 Go de mémoire vive. Une porte déjà largement ouverte par le marché mais, on l’a vu récemment, celle des engins en 8 Go par défaut n’est pas encore tout à fait refermée. Dernier coupable en date ? Bizarrement il s’agit de Microsoft qui a présenté des produits Surface qui débutaient avec 8 Go de RAM seulement. Il faut dire que de son côté Microsoft n’a pas encore défini ce poste précis. Le risque étant d’impacter le prix des machines de manière trop importante. Imposer un minimum de 16 Go pour être Copilot compatible aurait un impact probablement trop important. Notamment pour le monde des entreprises, premiers acteurs visés par ces campagnes. Mais, si le manque de mémoire se révèle être un véritable handicap pour l’exploitation de son IA sous Windows, il est possible que Microsoft se décide de véritablement tirer enfin un trait sur les engins avec 8 Go de mémoire vive seulement.

Cette dissension d’avis entre Intel et Microsoft sur les minimums requis pour être une vrai PC compatible Intelligence Artificielle n’est pas la seule étrangeté de cette annonce. Copilot est déjà distribué sur les dernières mises à jour  de Windows 11 et cela même sur des machines n’ayant aucun NPU à bord. Des engins équipés de puces Intel ou AMD, de « vieilles » machines qui ont téléchargé le fameux Chatbot de Microsoft sont donc des PC Copilot mais pas forcément des AI PC selon les critères d’Intel. Et on comprend bien qu’il s’agit avant tout d’un souci de calendrier et que le discours devrait rejoindre les faits… dans le futur.

Il reste énormément à faire pour que la sauce à l’IA prenne.

Si les AI PC sont une évidence pour Microsoft et Intel, ainsi que pour d’autres acteurs de ce marché, le chemin sera encore très long pour que ces usages entrent dans les mœurs. Le problème vient bien des usages puisque pour le moment, mis à part tailler le bout de gras avec Copilot via un serveur dans les nuages, l’usage sous Windows n’est pas  évident. Tout le monde n’a pas les capacités techniques nécessaires pour installer une IA générative d’images. Les outils restent encore mystérieux et flous dans leur intérêt et surtout le marché n’a pas développé des programmes aussi pratiques que ce que proposent les services en ligne. Autant donc passer par un ChatGPT ou un Midjourney pour ce type d’exploitation.

Si les premières réponses seront probablement des solutions textuelles pour aider l’utilisateur à rédiger des documents ou à mâcher le travail de réponse à un email. Le grand public comme les professionnels balbutient encore beaucoup quand on leur demande leur avis sur leurs éventuels usages. On sait que le monde du jeu va s’emparer des IA pour générer des dialogues plus touffus et des personnalités plus consistantes. Nvidia a présenté des solutions dans ce sens et on peut imaginer des jeux s’appuyant sur des modèles de langages pilotés par NPU avec de la synthèse vocale assez facilement. D’autres éléments comme de l’aide à la programmation, de la correction syntaxique en plus des habituelles surveillances orthographiques et grammaticales sont également évidents.

Mais d’autres fonctions pourront débarquer avec des conséquences plus directes sur les performances des machines : une gestion de la spatialisation du son, une amélioration des rendus de vidéo conférence, la  gestion plus fine des relevés biométriques pour des raisons de sécurité. La détection de la lecture de vos documents par un tiers au dessus de votre épaule ou une demande d’identification supplémentaire si le système ne reconnait pas vos comportements habituels. Des éléments encore plus techniques comme l’adaptation de l’affichage en gérant très finement les rafraichissements d’écran en temps réel pour améliorer l’autonomie. En équilibrant ces types de calculs et surtout en les déportant vers le NPU – comme la gestion de la vidéo conférence par exemple – la consommation pourrait largement baisser nous dit Intel. La prise de notes avec reconnaissance vocale comme la transcription automatique d’enregistrements,  la reconnaissance d’écriture ou l’OCR vont bénéficier de ces évolutions tout en ne consommant plus que quelques watts en sourdine, sous les radars, via une exploitation des fonctions du NPU. Mais pour que le public s’intéresse vraiment à ces nouveaux usages il faut qu’il soit possible de les essayer, de les tester et de les… trouver.

C’est là que le rapprochement « Wintel » prend tout son sens. Microsoft va servir de passerelle diplomatique entre l’utilisateur, les outils et le matériel. Les éditeurs vont s’appuyer sur ce que propose l’éditeur avec Windows pour dialoguer avec les différents éléments technioques. Cela va faciliter leur travail et, peut être, apporter rapidement des outils aux utilisateurs.

C’est la dernière facette de ce rapprochement hard et soft. Intel va proposer aux éditeurs de logiciels intéressés par son programme des Kits de développement matériel et logiciel. Il s’agit au passage d’une suite logique dans l’approche du fondeur puisque les machines proposées avec ce kits ne seront rien d’autres que des MiniPC NUC. Cet AI PC Development Kit sera constitué d’un ASUS NUC 14 Pro sous Core Ultra sous Windows et blindé des applications nécessaires à la programmation des différents éléments de l’équation Intel : CPU, GPU et NPU. Avec ces engins qui délivreront au total jusqu’à 65 TOPs de puissance de calcul, dont 11 rien que pour le NPU, les éditeurs pourront développer leurs outils et tester des scénarios d’usages cohérents avec ce qui sera présent dans les futures machines de 2024 et 2025.

Une norme AI PC en évolution

Comme pour la norme Ultrabook par le passé, poussée par Intel, celle-ci n’est pas figée. Et si pour le moment le fondeur estime que son NPU intégré dans les puces Meteor Lake est suffisant pour satisfaire la norme, celui-ci devra évoluer dans le futur. La « Next-Gen » de ces machines devra ainsi être capable de développer 40 TOPS uniquement grâce au NPU. Vous aurez immédiatement compris l’astuce présentée ici. Ce chiffre doit correspondre exactement à ce que proposeront les futurs processeurs d’Intel. La marque s’assurant ainsi de faire correspondre les « besoins » du marché à son offre en définissant aussi bien l’un que l’autre.

 

AiPC : le futur du monde PC passera par l’Intelligence Artificielle

Notes :

  1. On ne voit ce genre de scénario hors-sol que dans le jeu vidéo.

Soutenez Minimachines avec un don mensuel : C'est la solution la plus souple et la plus intéressante pour moi. Vous pouvez participer via un abonnement mensuel en cliquant sur un lien ci dessous.
2,5€ par mois 5€ par mois 10€ par mois Le montant de votre choix

Gérez votre abonnement

23 commentaires sur ce sujet.
  • 28 mars 2024 - 9 h 00 min

    J’ai quand même l’impression que l’AI dans les PC cherche à répondre à un besoin qui n’existe pas vraiment pour le grand public. Et je ne parle même pas du manque de logiciel exploitant le matériel, mais juste de l’usage.
    A quel besoin répondrait une IA locale ? Accélérer des traitements sous photoshop ? De la reconnaissance vocale ? Ce sont des niches ne concernant pas la majorité des utilisateurs de PC.
    En bonus, ça va à l’encontre du « tout cloud » vers lequel les markéteux nous poussaient depuis des années.

    Répondre
  • 28 mars 2024 - 10 h 22 min

    @Procrastination:
    Retenons juste la dernière phrase car elle est la plus pertinente.
    C’est du marketing. Tout comme le Cloud avant et les assistant vocaux, l’IA est un buzzword pour faire rêver et donc vendre.
    Intel se fourvoie gravement, ils vont sûrement en vendre à vil prix de ces AI-PC, puis comme pour les autres campagnes précédente le marché va s’effondrer et ils passeront à autre chose.

    Clairement comme dans votre première phrase, il n’y a pas de marché. Le marketing fait juste son boulot et c’est horrible, typiquement le genre de job qui pourrait (devrait ?) être remplacé par une IA sans qu’on voit une vraie différence.

    Répondre
  • J
    28 mars 2024 - 10 h 46 min

    @Procrastination: Plutôt d’accord pour les limites sur PC. Qui plus est les IA génératives les plus utiles, types GPT, sont bien trop volumineuses pour tourner localement. Ce sont surtout les différents éditeurs de logiciel qui seront content de pouvoir gagner en latence ou décharger leurs serveurs vers les clients, parceque l’IA c’est gourmand.

    @Cinos: dire que tout n’est que de l’enfumage c’est un peu gros.

    Je peux témoigner de première main que l’accéleration d’IA sur mobile est très attendue, tout simplement parceque pour les flottes d’appareils pro il y a un vrai besoin de pouvoir faire des traitement en condition réseau dégradée, et envoyer des images de haute définition dans ces conditions est impossible. C’est pas pour un usage grand public mais c’est réel pour des processus métier. J’imagine que sur PC certains éditeurs de logiciel sont aussi ravis d’apprendre, pour des besoins spécifiques, que l’acceleration arrive.

    Tout n’est pas destiné aux particuliers. Le « cloud » par exemple c’est limité pour les particuliers, mais je ne vois pas en 2024 une entreprise sérieuse qui continuerait à avoir des devs qui demandent aux équipes infra d’aller installer des machines en datacenter pour déployer un nouveau composant. Le « cloud » c’est une interface de découplage, c’est très utile : on a d’un coté des équipe infra pures qui provisionnent des machines et de l’autre des devs qui peuvent allouer des ressources matérielles sans jamais toucher chassis.

    Répondre
  • 28 mars 2024 - 11 h 43 min

    @Procrastination: Il y a tout a imaginer et plein de choses aussi bien techniques que matérielles.

    Tu parles de retouche photo comme un truc de niche. Mais si c’est un truc de niche c’est parce que les gens ne savent pas s’en servir sur PC. Par contre sur smartphone ce sont les premiers a faire joujou avec des trucs pilotés par des IA locales ou dans le cloud avec leurs photos. Améliorer les couleurs, corriger des défauts, supprimer un élément, coloriser un cliché ou contraster un autre. C’est à la portée de tous sur smartphone mais cela reste complexe sur PC.

    Si demain on leur propose de faire cela sur PC aussi facilement et sans pour autant recourir à des machines avec des cartes graphique de fou, cela basculera d’un marché de niche à un marché grand public.

    Et les exemples peuvent être retravaillés à l’infini. Tout ce qui demande une science complexe et un apprentissage long sur PC va être facilité par l’IA. La programmation, la création, la rédaction.

    Cela me rappelle ARJ sous MS-DOS. Un programme qui ne s’exécutait que en ligne de commande. J’étais un pro d’ARJ, je connaissais son fonctionnement par cœur et ses moindres capacités et réglages. Je faisais tenir sur disquette des trucs que d’autres n’arrivaient pas a compresser. Et quand Winzip est sorti, mon savoir a perdu toute sa valeur. J’étais dégouté car j’avais investit plein de temps pour apprendre ARJ. Et puis j’ai réfléchis et je me suis dit qu’au final c’était super ce Winzip et que cela ouvrait la compression à plus de monde.

    Quand je me suis mis à Photoshop, avec les premières versions, c’était une tannée d’arriver à un résultat. Quand Photoshop 4.0 est sorti je l’ai acheté et je m’y suis mis à fond. Je faisais alors des trucs qui laissaient bouche bée des copains. Des montages, des gommages, des intégrations… Et puis, petit à petit tout ce que je savais faire est devenu plus facile grâce à des outils que Adobe a intégré dans son produit. J’ai pas perdu de compétences mais celles du logiciel ont rattrapé les miennes. Là encore j’ai eu une phase un peu rageuse avant de me dire que, au final, c’était top pour le plus grand nombre.

    Et je pense que l’IA va faire un pas supplémentaire dans cette aventure informatique. En touchant tous les types d’usages. L’envoi d’un courrier devant suivre un protocole précis, par exemple une lettre à une mairie, aura l’enrobage nécessaire de formules de politesses consacrées. La photo de mariage rigolote ou une bouche d’aération gâche le cadrage pourra être supprimée. La rédaction d’un devis d’un artisan plombier se fera en 3 clics, le suppression du bruit de souffle sur un enregistrement d’une cérémonie se fera en 3 clics. Le burn d’un écran OLED pourra être ralenti parce que le PC détectera les zones a rafraichir intensément des autres qui peuvent s’en passer. Un jeu pourra détecter si des utilisateurs emploient des logiciels de triche en analysant leurs actions.

    Il y a 1000 choses a imaginer avec l’IA. Pour le moment c’est surtout assez faible comme imaginaire à mon goût mais le potentiel est énorme. Et je vois beaucoup de gens que cela ennuie parce que, comme moi avec ARJ ou Photoshop, ils comprennent bien que cela permettra à tout le monde de les rattraper en compétences. Programmer un Arduino avec l’aide d’une IA est une expérience assez impressionnante par exemple. J’ai pris mon parti de me dire que à chaque fois qu’un outil me permet de me vider le cerveau d’un savoir devenu inutile, cela fait de la place pour d’autres apprentissages. Aujourd’hui j’ai oublié la totalité de ce que je savais faire avec ARJ. Mais si je dois cumuler le temps gagné a ne plus avoir a écrire de lignes de commande pour compresser des trucs depuis toutes ces années grâce à Winzip et 7Zip, je suis le grand gagnant dans cette affaire. Et si demain un « IAZip » me promet de choisir les meilleurs algorithmes de compression pour optimiser chaque fichier, et bien, je serais ravi.

    @J: Une IA entrainée pour répondre aux questions concernant l’emploi d’un outil particulier, au hasard un logiciel de montage vidéo ou un tableur, ne serait pas si volumineuse. Elle pourrait utiliser Copilot et le NPU et donnerait les conseils équivalent à une recherche sur un net devenu une machine à pub parasite en quelques secondes. Le fichier PDF de la doc étant un machin de 500 pages illisible que personne ne regarde jamais.

    Répondre
  • 28 mars 2024 - 11 h 57 min

    @Cinos: Je ne suis pas d’accord, je pense que le marché n’est clairement pas prêt mais que le potentiel est là.

    J’ai connu les premiers traitements de texte et tout le monde trouvait que c’était du temps perdu de les apprivoiser pour écrire une simple lettre. Papyrus sur Apple IIe c’était déjà une merveille mais c’était pas vraiment ce qu’on appelle un logiciel grand public. Quelques années plus tard avec Word, le monde entier a sauté le pas du traitement de texte. Word n’apportait pas grand chose de plus que Papyrus alors, simplement il était disponible sur des machines moins chères.

    Envoyer un email, c’était un truc de niche à une époque. En 1984 par exemple il y a cette vidéo qui est assez explicite :
    https://www.youtube.com/watch?v=szdbKz5CyhA

    « Très simple » d’après l’auteur mais absolument pas quelque chose de grand public. Et puis quand le net s’est démocratisé, que les éditeurs ont compris qu’il y avait un marché a développer, ils ont rendu l’opération plus simple et l’usage a explosé. Mais en gros de 84 à 94 les petites entreprises préféraient en majorité recourir aux FAX qu’aux mails…

    L’arrivée de l’IA aujourd’hui c’est l’équivalent de cette vidéo de 1984 pour le mail par rapport à aujourd’hui. Dans 10 ans elle sera tellement intégrée à tous les outils qu’elle rendra l’équivalent en service que ce que proposent un correcteur d’orthographe, un traducteur de langue ou un tableur pour faire des opérations complexes. Enfin, c’est mon avis.

    Répondre
  • 28 mars 2024 - 12 h 20 min

    La seule chose que je retiens (pour l’instant) de ce marketing « IA » c’est qu’on tombera de moins en moins sur des PC avec moins de 16 Go de RAM.
    Il était temps !

    Répondre
  • 28 mars 2024 - 14 h 02 min

    @Will:
    Ce n’est pas un si bon signe, ça voudrait dire que leur avancée requière plus de ressources.
    Pas vraiment une optimisation, la puissance de calcul augmente cette « intelligence » peut dont être utilisée mais maintenant il lui faut plus de mémoire vive.
    Pour le marketing c’est donc tout bénef’.

    Répondre
  • 28 mars 2024 - 17 h 47 min

    Les processeurs x86 d’aujourd’hui disposent de jeux d’instructions très avancés et performants (bien que très consommateurs pour certains), ne peuvent-ils pas se substituer à tous ces NPU « révolutionnaires » que l’on cherche à nous vendre ?

    Répondre
  • 28 mars 2024 - 17 h 52 min

    @Le Breton c’est désormais une question de vitesse et rien ne vaut un composant de type GPU pour faire des calculs très simples et massivement parallèles.

    Répondre
  • 28 mars 2024 - 18 h 02 min

    @Le Breton: Si mais comme expliqué, certains process seront mieux exploités par les NPU avec une consommation nettement inférieure.

    Et personne ne va vouloir amputer la capacité de calcul de ses CPU par l’IA. Par contre si les NPU prennent en charge les calculs en sous marin, ça passera beaucoup mieux.

    C’est marrant parce qu’on a eu les mêmes débats avec l’apparition de puces 3D type Matrox ou Voodoo. Certains ne voyaient pas l’intérêt de la 3D dans le jeu vidéo. Ensuite ca a été les avancées de l’IA pour l’affichage de cette même 3D comme le DLSS. Au final le marché propose et les utilisateurs en font ce qu’ils veulent.

    Répondre
  • j
    28 mars 2024 - 20 h 49 min

    @jmax: les calculs des IA generatives sont pour beaucoup des multiplications de nombres flottants. C’est pas les calculs les plus simple. Ceci dit les operations sur des matrices ont un coté parallelisable. C’est grace a ca qu’on peut exploiter le nombre d’unités de calculs des GPU, et c’est pour ca que les NPU ont beaucoup d’unités de calcul.

    @Le Breton: a date on peut tout faire tourner sur CPU. Au taf on fait ca pour les prototypes et les démonstrations. C’est beaucoup plus lent mais ca fonctionne.

    @Pierre Lecourt: je te l’accorde on peut faire des choses avec peu de resources. Il y a des LLM plus compacts que d’autres. Mais dans l’ensemble aujourd’hui il faut une bonne dizaine de Go de RAM pour faire tourner un Llama 2 « quantized » raisonablement, et sans NPU ca sort a quelques tokens par seconde max. Faudra voir les perfs reelles des NPU en question. Les LLM ca reste des grosses bete aujourdh’hui et meme avec NPU je crois que pour un usage nomade où la batterie est comptée on n’y est pas. Je ne conteste pas ta vision de la trajectoire de la techno : elle est inevitable, c’est un nouvelle classe de problemes automatisables. Mais je travaille d’assez pres sur le sujet pour dire que le generatif hebergé localement ca ne sera pas avant quelques années, sauf station de travail. Tout ca pour dire que si le grand publique a ete habitué a chatgpt, ce n’est pas quelque chose d’aussi puissant qui va arriver sur les machines avec les NPU, en tout cas pas tout de suite.

    Répondre
  • j
    28 mars 2024 - 21 h 08 min

    J’ajoute un point : aujourd’hui la taille des modelės d’IA ne depend pas de la quantité de données ingérée mais du nombre de parametres que le modele utilise pour ses predictions. C’est le nombre de parametres qui defini la complexité des motifs que le modele est capable de gérer. Faire un modele plus petit ca veut dire moins de parametres, ce qui veut dire moins de motifs. In fine pour faire un modele qui soit simplement capable de sortir une phrase en francais intelligible il faut beaucoup de parametres. Disons qu’a ce stade il y a une limite basse incompressible.

    Je pense que le marché va s’orienter dans un premier temps vers un LLM de taille raisonnable par machine avec un API de « prompt engineering », typiquement envoyer la documentation d’une app en initialisation. L’ecosysteme applicatif va probablement commencer par du prompt engineering avant de deployer ses propres modeles. C’est probablement ce qui se passe avec intel et copilot : intel fourni le hardware, copilot c’est LE LLM systeme, puis les app taperont dedans. Ensuite a voir pour le multimodal. Mais faut pas se leurer non plus : un modele de taille raisonnable pour une usage specialisé doit etre entrainé specifiquement, et donc il faut plusieurs modeles par machines, qui potentiellement tournent en meme temps, ce qui est gourmand en resource.

    Répondre
  • 28 mars 2024 - 21 h 43 min

    @j: Ah ça je suis parfaitement d’accord, ces premiers AI PC c’est une blague. Au même titre que beaucoup de technos en tous genre (coucou les premiers SSD, la 5G, les premiers écrans OLED). D’un point de vue perfs les NPU actuels sont juste de grosses blagues par rapport aux besoins. Mais d’un côté personne n’est dupe et de l’autre l’impact du NPU sur le prix et le fonctionnement des PC est faible.

    Tout se passera dans quelques années quand les NPU cracheront des capacités plus raisonnables. En attendant Microsoft ne parle jamais d’un Copilot « offline ».

    Répondre
  • Tof
    29 mars 2024 - 0 h 17 min

    En lisant cet article, je me dis que Qualcomm devrait comprendre qu’il vient donc de se prendre un joli vent de la part de Microsoft.
    Faudrait peu-être que Qualcomm arrête de s’entêter à ne restreindre le support de ses puces ARM puissantes sur laptop que pour Microsoft…. (et j’entends par là s’ouvrir à d’autres OS plus libres et plus accueillants). Tous les tentatives ARM/Windows ont foiré, et là MS ferme clairement la porte à la puce Snapdragon X Elite avec un NPU pourtant à 45 TOPs.

    Répondre
  • 29 mars 2024 - 0 h 37 min

    @Tof: Alors oui et non. Evidemment Intel soigne son plus gros partenaire qui est Intel. Mais Microsoft a son propre « label » avec Copilot. Si on n’aura pas de machines AMD ou Qualcomm avec le label « Ai PC » rien n’empêche AMD ou Qualcomm de sortir leurs propres labels à eux comme « PC AI » ou « Ryzen AI » ou que sais je encore.

    Le terme Ultrabook, par exemple, était normalement 100% réservé aux machines Intel mais ça n’a jamais empêché les vendeurs de classer les machines AMD sous la catégorie Ultrabook dans leurs listings.

    La vraie grosse nuance c’est la force de frappe d’Intel en terme de marketing. Ils aident les marques qui mettent en avant leurs machines en payant une part de leur budget pub. Comme Microsoft d’ailleurs. Ce qui fait que quand un HP, un Dell ou un Asus présente un PC à la presse ou dans une campagne de pub, c’est un PC Intel + Windows. Et ça ni Qualcomm, ni AMD le font.

    Répondre
  • 29 mars 2024 - 5 h 04 min

    @Pierre Lecourt: Une analogie m’a interpelé: avec les bases de données. Ca fait rapidement des petits trucs utiles au niveau individuel/équipe, puis ca s’integre en profondeur dans les process des entreprises, puis on rajoute SAP par-dessus SQL, ca prends des décennies… Sauf que comme le dit j (tres intéressants ces comms, merci !) ca va etre des le départ Cloud plus que local, donc hop loyer et problemes de fiabilité, confidentialité, …

    J’espere juste que la législation va suivre pour encadrer un peu tout ca. L’IT c’est le far-west, on est a l’age des robber barons. On en est a la bataille d’arriere garde pour le right to repair, apres y’aura le right to updates, apres y’aura les tenants’ rights pour tous ces machins cloud…

    Répondre
  • 29 mars 2024 - 5 h 08 min

    @Pierre Lecourt: re. ta longue réponse a procrastinaton: et le smartphone laisse toujours ma vieille maman envoyer des textos a des numéros fixes… l’IA c’est surement bien, mais y’a encore pas mal de boulot a faire en simple heuristique, hein…

    Répondre
  • Tof
    29 mars 2024 - 9 h 40 min

    @Pierre Lecourt: Oui c’est vrai, j’ai un moment omis que tout cela n’était que du marketing. De plus en 2024 il semble que Qualcomm envisage d’autres débouchés que Windows, en embauchant Linaro pour l’upstream sur Linux mainline: https://www.linaro.org/blog/qualcomm-and-linaro-enable-latest-flagship-snapdragon-compute-soc/

    @Olivier Barthelemy: ah les base de données ça me parle, dans une précédente vie je travaillais sur des outils de datamining et d’abstraction de base de données pour du reporting (des trucs par la suite rachetés par SAP).
    Concernant la possibilité de faire tourner de l’IA en local ça permet aussi de délester la charge des datacenters dans le cloud et ainsi de réduire leur coût pour les fournisseurs de solution. Simple exemple de réduction de coût: un assistant vocal au lieu d’enregistrer ta voix puis uploader le fichier audio (toujours trop lourd, coûteux en bande-passante) pour un traitement par reconnaissance vocale dans le cloud (coûteux en temps de traitement CPU/GPU/NPU) pour en ressortir une commande textuelle. Si cela est fait en local (AI to edge), c’est une sacrée économie si tu multiplies cela par des centaines de millions d’utilisateurs. Le fournisseur de solution IA aura tout loisir de récupérer tes commandes textuelles d’une façon ou d’une autre pour la surveillance et la capitalisation des données.
    C’est un shift de délocalisation du traitement déjà effectué sur le web depuis longtemps, en délocalisant beaucoup de traitement « server-side » vers « client-side » grâce à javascript et les appels asynchrones. Ceci explique pourquoi quand quelqu’un consulte certains sites (ex:une page facebook) la charge CPU et mémoire de l’ordi grimpe au plafond.

    Répondre
  • 29 mars 2024 - 10 h 18 min

    @Olivier Barthelemy: Pas besoin d’IA pour régler ce genre de soucis, cela fait des années que des outils Android permettent de gérer des comportements spécifiques très finement mais que ce n’est pas intégré dans les systèmes pour de bonnes ou mauvaises raisons. D’aucun râleraient à coup sûr que le système les flique.

    Répondre
  • 29 mars 2024 - 11 h 21 min

    En parlant d’AIPC quelqu’un a t’il déjà essayé les npu de Rockchip? Par exemple le RK3566 ? On en trouve sur des tv box a 30 euros. Si on n’utilise pas le wifi, le Bluetooth…. elles fonctionnent généralement bien sous linux.

    Répondre
  • 29 mars 2024 - 12 h 30 min

    @Simon: En se contentant de la reconnaissance de sujet (object, visage etc) c’est utilisable.
    Ce qui n’a rien de surprenant quand la surveillance a créé ce besoin. Au delà de cette application ce n’est pas assez puissant apparemment.
    A noter d’ailleurs que la version Retro-engineered du NPU des RK3588 est arrivé au même niveau que la version propriétaire:
    https://blog.tomeuvizoso.net/2024/03/rockchip-npu-update-2-mobilenetv1-is.html

    Répondre
  • 4 avril 2024 - 16 h 28 min

    @Pierre Tu as parlé de programmer une arduino en utilisant une aide d’IA. Tu pourrais en dore plus à ce sujet ? Ici ou dans un billet propre.

    Répondre
  • 4 avril 2024 - 16 h 54 min

    @Jean-Pierre: En fait Chat GPT est très fort pour récupérer des sources éparpillées et te faire gagner du temps sur de la programmation simple (Arduino, ESP32 ou Python par exemple.)

    Du coup tu peux lui demander textuellement des trucs ou alors de te documenter du code et il propose des choses assez pertinentes. Rien de vraiment original bien sur, ce n’est que du piochage d’info à droite ou à gauche, mais tout de même.

    Tu as ce billet très intéressant si cela t’intéresse (en Anglais)

    https://dronebotworkshop.com/chatgpt/

    Répondre
  • LAISSER UN COMMENTAIRE

    *

    *