XPG Nia : une consolePC qui promet beaucoup (trop ?)

La XPG Nia est un prototype de ConsolePC très intéressant et novateur, peut être trop pour qu’il soit tout simplement viable sur le marché.

La XPG Nia est une Console PC pas tout à fait semblable aux autres déjà disponibles sur le marché. Elle propose plusieurs éléments qui en font une proposition différente de l’offre actuelle.

La console XPG Nia est proposée par ADATA, marque qui propose au départ des composants de stockage et de mémoire mais qui a étoffé son catalogue au fil des ans en proposant des engins en tous genres, souvent en marque blanche. On se souvient du XPG Gaia, un MiniPC sous NUC Element fabriqué par un tiers. On se souvient également de ses portables désignés « en collaboration » avec Intel. Des engins qui avaient pour point commun de passer par un fabricant externe, Adata se limitant à coller une étiquette XPG sur ces produits avant de les distribuer dans ses canaux.

Cette console XPG Nia proposant des choses très innovantes, j’ai comme un doute sur la transformation nécessaire à Adata pour avoir développé ce projet en solo, il est donc fort possible que l’engin soit fabriqué par un tiers pour Adata et ensuite distribué sous le nom de XPG Nia.

Qu’est ce qui change sur la XPG Nia ? Pour commencer elle proposera un écran, pas encore finalisé en terme de diagonale, mais entre 7 et 8 pouces. Un écran qui permettra à l’engin un affichage fovéal. Cette technologie est censée améliorer la fluidité des jeux en trichant sur le rendu affiché de l’image. Héritée des casques de réalité virtuelle, cette technologie consiste à diviser la qualité de l’image en plusieurs zones.

Au centre, là où l’oeil fait le point, la qualité du rendu est complète, avec beaucoup de détails, des ombres, un anti aliasing parfait et du Ray Tracing. Mais en périphérie de ce point, là où l’oeil ne fait pas le même focus, la qualité se dégrade légèrement et de manière « invisible » pour soulager le processus de gestion d’images et augmenter la cadence de rendu. L’oeil est conçu pour fixer une zone précise de manière très efficace mais ne voit que de façon plus floue les côtés, autant en profiter. Pour que cela fonctionne, la technologie doit évidemment savoir où pointe votre regard, à quel endroit vous faites le point sur l’écran et adapter le contenu affiché en conséquence. Pour cela, on utilise un système d’Eye Tracking Eyewear qui va déterminer précisément l’endroit où mettre le paquet niveau rendu graphique.

Si vous regardez au centre de l’image, celui-ci sera très détaillé. Un élément se mettra à bouger sur le côté et attirera votre regard, vous déplacerez vos yeux, la machine analysera cette nouvelle cible, relâchera l’attention sur les détails au centre pour magnifier ceux du côté. Et ainsi de suite au fil du jeu. Dans l’ensemble cela fonctionne bien. Et si votre algorithme de rendu est bien optimisé, vous pouvez économiser énormément de temps de calcul à dégrader les contenus autour du point de base. Si vous ajoutez à cela des technologie comme le AMD FidelityFX Super Resolution, vous pouvez largement gagner en fluidité d’affichage.

L’idée est bonne et sur le papier la proposition est très intelligente. Mais cela se heurte à quelques petits soucis pratiques dans le réel. Sur un casque de rendu VR, l’avantage est que l’écran est très proche des yeux. L’écran est même solidaire de votre visage puisqu’il y est rattaché. La distance entre chaque oeil et chaque écran est donc toujours la même. Mieux la distance entre les yeux et les caméras qui analysent votre regard est également toujours la même. Vos pupilles sont facilement identifiables et le système profite de la lumière des écrans pour les identifier précisément. Ce qui permet une mesure constante plus simple de l’endroit où mettre cet accent graphique. Enfin, si le système de Eye Tracking est très proche de vos yeux, il a tout de même un champ d’analyse assez large pour déterminer finement les angles de la focale car la distance entre vos pupilles est séparée de manière constante. Tout cela facilite grandement les calculs nécessaires.

Mais sur une console tenue à bout de bras, de multiples problèmes se posent. D’abord il faut faire confiance à une seule caméra pour calculer l’ensemble des paramètres. La caméra va analyser l’endroit où se pose votre regard et agir en conséquence en modifiant l’image… Premier problème, la distance entre votre regard et la caméra n’est plus fixe, elle fluctue puisque vous portez l’objet à bout de bras. Pire, l’angle peut changer puisque vous allez bouger la tête et la position de la console dans vos mains. Je mets au défi quiconque de jouer à un jeu sur Console mobile en restant fixe comme une statue. Les mains bougent la console au fur et à mesure qu’on l’utilise, le visage se déplace naturellement, la tête se penche et change d’angle. Analyser l’ensemble de ces données et les reporter suffisamment précisément sur un écran de 7 à 8″ de diagonale tenu à 30 ou 40 cm me semble totalement impossible. A moins d’y consacrer d’énormes ressources ou d’embarquer des composants étudiés précisément pour cette tâche et pas forcément donnés. La luminosité de l’analyse ne sera pas non plus constante et la détection de votre regard sera donc plus complexe.

Sur le casque Apple Vision, des caméras IR analysent le regard et des LED IR illuminent vos yeux.

Pour avoir essayé plusieurs de ces équipements, la détection du regard est toujours très dépendante des conditions de son emploi. Si sur un casque cela fonctionne assez bien, sur un écran externe, c’est un poil plus compliqué. Sur les écrans 3D Spatial labs de Acer par exemple, un système de double caméra fait ce travail d’analyse de la rétine pour pouvoir proposer un affichage en vraie 3D stéréoscopique à l’utilisateur. C’est bluffant et très efficace mais cela ne fonctionne qu’avec un poste fixe, posé sur un bureau, que l’on regarde bien en face… et cela coute très cher à mettre en place.

Autre problème soulevé par ce dispositif, la compatibilité avec les différents jeux. Implémenter la gestion de ce rendu dégradé en périphérie du focus nécessite un dialogue particulier avec le matériel et donc une prise en charge logicielle. Cette prise en charge ne sera pas forcément simple à obtenir de la part des différents éditeurs même si elle s’appuie sur la technologie Eyeware. Solution logicielle qui est aujourd’hui plus utilisée pour contrôler des mouvements dans les jeux qu’un rendu de zones. 

Pour la XPG Nia, je ne crois pas une seule seconde au fonctionnement d’un bon rendu Fovéal. C’est à mon avis un bon moyen de faire parler de la console sur un salon comme ce Computex mais c’est tout. La seule solution pour que ce rendu particulier fonctionne serait de positionner l’écran sur un support fixe et de s’asseoir bien sagement devant, sans trop bouger, en pilotant ses jeux à la manette. Au vu du design de cette XPG Nia c’est peut être la solution retenue d’ailleurs. L’écran pivote en effet sur une petite charnière pour se relever. On peut ainsi le poser sur un bureau et avoir l’écran bien en face. Cela ne règle pas tous les soucis d’un vrai rendu Fovéal efficace mais cela a du sens.

La XPG Nia comme porte étendard des produits Adata

Autre point clé de la console, la possibilité de mettre à jour sa mémoire vive et son SSD. Ca tombe bien, c’est le métier de base d’Adata de vendre de la mémoire vive et des SSD. Sur la XPG Nia, l’utilisateur pourra intégrer de la mémoire vive LPCAMM2. Ce nouveau format ultraplat qui permet des mises à jour plus faciles et qui pourrait remplacer la DDR sur slot à l’avenir. L’utilisateur pourrait donc acheter un modèle avec 16 Go de mémoire vive et le faire évoluer dans un second temps vers 32 ou même 64 Go. Le SSD sera monté sur un port M.2 2230, là encore une source possible de mise à jour.

Le SSD M.2 2230 « spécial ConsolesPC » de XPG

Mieux encore, sur le stand du Computex, les personnes présentes indiquent à qui veut bien l’entendre que leur solution serait bien placée niveau tarif. « Moins de 600$ » selon certaines sources. « Proche des 500 $ » selon d’autres. Des prix alléchants qui placeraient la console en position de force face aux propositions concurrentes. Et cela même si les mêmes personnes sur le stand du Computex ne peuvent pas encore dire quel processeur, montant de mémoire, dalle d’écran stockage et autres seront réellement embarqués. De là à croire que la présence de la XPG Nia n’est là que pour faire le buzz ?

Je ne sais pas si la console sortira réellement un jour, dans cet état ou dans une version plus sage, mais en attendant elle a suffisamment fait parlé d’elle pour que tout le monde fasse le rapprochement entre les modules de mémoire LPCAMM2 et Adata. Que tout le monde sache que la marque propose des SSD M.2 2230 compatibles avec les autres consoles déjà sur le marché. Et ma fois c’est bien le plus important.

Car la XPG Nia reste un prototype sans calendrier plus précis qu’un vague « 2025 ». Sans fiche technique précise, sans tarif et sans autre ambition a mon avis qu’attirer au maximum les regards sur la marque. Il sera toujours temps d’enterrer le projet au besoin dans quelques mois ou de le rectifier dans une solution beaucoup plus classique loin des projecteurs.

Sources : Retrohandleds et Anandtech


Soutenez Minimachines avec un don mensuel : C'est la solution la plus souple et la plus intéressante pour moi. Vous pouvez participer via un abonnement mensuel en cliquant sur un lien ci dessous.
2,5€ par mois 5€ par mois 10€ par mois Le montant de votre choix

Gérez votre abonnement

5 commentaires sur ce sujet.
  • hle
    7 juin 2024 - 11 h 42 min

    On ne peut pas plus simplement fixé un rendue au max au centre de l’écran et moindre sur les bords ?
    En plus, on peut faire une rendue max sur les objets qui bouge car ceux si « attirent » l’oeil.

    Répondre
  • 7 juin 2024 - 12 h 29 min

    @hle: Cela limite drôlement les jeux exploitables de ne se concentrer que sur le centre. Les détails comme une carte, un barre d’info, les alertes et autres menus sont en général positionnés en périphérie de l’action. Si cela pourrait fonctionner pour des jeux de tir à la première personne, trop d’autres genres seraient désavantagés.

    Pour ce qui est des rendus de mouvement, c’est problématique parce que finalement tout bouge aujourd’hui dans un jeu.

    Répondre
  • 7 juin 2024 - 13 h 47 min

    Je ne vois effectivement aucun intérêt sur un écran autant éloigné des yeux …

    Répondre
  • 7 juin 2024 - 13 h 52 min

    L’idée est très intéressante ! Si les ressources gagnées sont réellement importantes, je pense qu’un système annexe de suivi des yeux pourrait être développé : il permettrait d’avoir les mêmes conditions qu’un casque de réalité virtuelle/augmentée mais avec un sujet mobile.

    Un genre de Google Glass avec seulement le suivi de la rétine et un système de localisation des « lunettes » par rapport à l’écran. On aurait ainsi la distance et l’angle des lunettes par rapport à l’écran ainsi que l’orientation des yeux par rapport aux lunettes : un simple calcul vectoriel permettrait de trouver le point de focalisation de l’œil sur l’écran en temps réel.

    Mais ça ne résout pas le problème de compatibilité des jeux.
    Et je doute aussi de l’intérêt sur un si petit écran aussi loin de l’œil : la partie du champ de vision occupé par l’écran n’est déjà pas bien grande…

    Répondre
  • 7 juin 2024 - 14 h 41 min

    @Lionel: Je ne sais vraiment pas si le jeu en vaut la chandelle.

    Pour que ce soit efficace il faut un système vraiment balaise… Cela couterait alors très cher pour un usage uniquement lié à quelques jeux. Autant pousser les performances du CPU/GPU.

    Répondre
  • LAISSER UN COMMENTAIRE

    *

    *