Razer Blade : Un ultrabook vitaminé pour jouer et travailler

La sortie du nouveau chipset graphique Nvidia GeForce 700M a destination des machines mobiles rime avec l’annonce du Razer BLADE : un ultrabook dédié au jeu. Pour une fois l’engin ne ressemble pas à une brique de 5 kilo mais se profile dans un encombrement réduit et un poids contenu.

Autant je n’ai jamais cru en la Razer Edge Pro, la tablette à poignées a destination des joueurs PC de la marque, autant ce nouveau Razer Blade ne me laisse pas indifférent. Si ce n’était son tarif, on débute à 1799$, je crois que je pourrais être tenté. Il faut dire que l’engin est séduisant sur le papier pour toute personne qui a déjà lancé une triple session de travail image-video-son et un jeu gourmand dans la même journée.

Etre à l’aise en « mobilité » avec un engin capable d’encaisser réellement ce type de travail de création c’est au minimum avoir mal aux épaules avec un portable lourd et encombrant. La proposition de ce  Razer Blade est donc très tentante : 1.87 Kg pour un engin 14″ de 1.68 cm d’épaisseur avec une autonomie annoncée de 6 heures… C’est plutôt alléchant.

Razer BLADE

Le materiel embarqué est tout neuf, en fait il n’est pas encore sorti : Les pré-commandes débuteront le 3 Juin, date à laquelle le processeur Intel Haswell de quatrième génération devrait être disponible officiellement.

Razer BLADE

On ne connait donc pas encore la puce qui équipera cet engin à 1800$, probablement un modèle alliant une jolie performance et une dépense d’énergie mesurée. Cette information sera dévoilée lors du Computex.

Razer BLADE

La partie graphique ne sera pas laissée uniquement à Intel qui, malgré ses annonces d’efforts fait avec sa gamme  HD4600 intégrée aux processeurs Haswell, ne fait pas encore le poids pour assurer de bons et loyaux services à un engin dédié au jeu. Razer a donc embarqué une puce Nvidia GTX 765M, un processeur robuste, associé à 2 Go de mémoire GDDR5 dédiée qui permettra d’afficher correctement sur l »écran 14″ 1600 x 900 pixels de la machine. La puce Nvidia sera employée lorsque le besoin s’en fera sentir via la technologie Optimus de Nvidia.

Razer BLADE

8 Go de mémoire vive DDR3 et un SSD de 128 Go minimum (il pourra évoluer vers 512 Go en option) voilà qui explique également le prix de cette machine de jeu. D’autres éléments ont été mis en avant comme l’emploi d’une puce Wifi performante Qualcomm Killer en 802.11 a/b/g/n et Bluetooth 4.0.

Razer BLADE

La connectique se compose de 3 ports USB 3.0, une sortie HDMI 1.4a, un port jack combinant casque et micro. L’ergonomie a été pensée pour le jeu avec un clavier adapté et des gestions de raccourcis propres aux machines de la marque. Le Razer BLADE dispose également d’un son Dolby Theater V4 et d’une paire d’enceintes stéréo. Un microphone numérique et une webcam 1.3 mégapixel sont également présents.

Razer BLADE

On ne sait pas grand chose sur la batterie si ce n’est qu’elle est Lithium Polymer et délivre du 70 Wh. Pas d’info non plus sur la technologie employée pour la dalle de l’écran.

La machine, son processeur et sa carte graphique représentent un bel aboutissement en terme de compacité et d’efficacité : Sur le papier, bien que les 6 heures d’autonomie annoncées ne soient probablement pas comptabilisées en mode jeu ou en travail graphique intensif, le Razer Blade offre de belles possibilités. La compatibilité CUDA et OpenCL de la carte graphique associée à un processeur performant permettront des travaux d’édition vidéo lourds comme un vrai travail de retouche d’image ou de création audio. Dans le même temps l’offre devrait pouvoir satisfaire des joueurs exigeants à la recherche d’une solution réellement mobile. Razer assure que même son alimentation est compacte et colle au 34.5 cm de large pour 23.5 cm de profondeur de son 14″.

Razer BLADE

Razer BLADE

Enfin, le Razer Blade est censé rester « discret » et convenablement refroidi par un système de dissipation sur mesure. Si cela se confirme et si les performances sont bonnes, je pense que ce type d’engin pourrait trouver un public lassé des solutions actuellement mise en avant pour les joueurs. Reste que si Razer est le premier à dégainer sur ce marché de la machine compacte à destination des joueurs, les autres acteurs du marché ne devraient pas tarder a proposer leurs propres solutions : Asus, MSI et Alienware ont du également réfléchir à des engins plus fins pour ce public particulier.

Source : Razer


Soutenez Minimachines avec un don mensuel : C'est la solution la plus souple et la plus intéressante pour moi. Vous pouvez participer via un abonnement mensuel en cliquant sur un lien ci dessous.
2,5€ par mois 5€ par mois 10€ par mois Le montant de votre choix

Gérez votre abonnement

34 commentaires sur ce sujet.
  • 31 mai 2013 - 12 h 49 min

    Whaou need

    512 go pierre ptite coquille

    Répondre
  • uko
    31 mai 2013 - 13 h 09 min

    En effet, une belle machine et très polyvalente. Ça laisse rêveur !

    Reste que c’est vraiment un produit de luxe, dans lequel la mobilité se paye le prix fort.
    Ce n’est pas tout à fait le même usage, mais mon 17″ ROG avec son Core I7 pas ULV, ses 2X750MO de HDD (dont l’un remplacé par un SSD), ses 16GO de RAM et sa Geforce GTX 670MX (3GO de RAM) payé 1300€ l’année dernière sera toujours plus confortable et performant tout en restant transportable, pour 500€ de moins.
    En contrepartie il pèse le double, a l’autonomie d’une moule pas fraiche et n’est de toutes façons pas vraiment exploitable dans les transports.

    Un usage à bien réfléchir donc, probablement à réserver aux grands voyageurs, aux professionnels qui ont besoin de puissance graphique en déplacement et aux plus fortunés des gamers.

    Répondre
  • 31 mai 2013 - 13 h 41 min

    tres belle machine,à tous niveaux

    Répondre
  • 31 mai 2013 - 13 h 51 min

    Intéressant Pierre. Perso j’attends le 14nm pour le Intel et le 20nm pour le GPU pour ce genre de machine. Fin 2014.

    Répondre
  • 31 mai 2013 - 14 h 31 min

    Très belle machine effectivement.
    Pas sûr qu’une version Azerty voit le jour en revanche.
    Le tarif est certes élevé, d’autant que je ne connais pas la « valeur » de la carte graphique annoncée, mais ce n’est pas si aberrant quand on voit le prix d’un ultrabook « classique » ou d’un macbook.

    Répondre
  • 31 mai 2013 - 14 h 44 min

    Ships to US and Canada only
    sur la précommande…

    Dommage

    Répondre
  • Jay
    31 mai 2013 - 14 h 48 min

    Quelqu’un aurait une idée du titre de la bande son utilisée ? <3

    J'ai essayé de shazamé mais pas de résultat :(

    Répondre
  • 31 mai 2013 - 14 h 49 min

    On dirait un MBP peint en noir…

    Répondre
  • 31 mai 2013 - 14 h 56 min

    ça serait quand même vachement bien si les constructeurs essayaient de développer un système de carte graphique externe pour brancher une carte de PC de bureau sur le portable.

    Répondre
  • 31 mai 2013 - 15 h 22 min

    Vraiment sympa. Pour mon travail j’ai un pc portable puissant mais super lourd, j’avoue que je le troquerais volontiers contre celui-ci. Par contre il va falloir attendre que ce type de solution se démocratise parce que je ne me vois pas mettre plus de 1.000€ dans un pc portable.

    Répondre
  • uko
    31 mai 2013 - 15 h 31 min
  • 31 mai 2013 - 15 h 36 min

    le même en 12’5 (car 14′ reste trop gros pour moi) et je suis aux anges !
    et puis en Ci5+GPU plus light biensur…

    mais j’adore le design, et oui un vrai petit mbp black, mais il ne ressort que mieux ! :)

    … par contre il faudrait attendre les soldes car là c’est juste pas possible … :D

    Répondre
  • 31 mai 2013 - 17 h 47 min

    Il est trop beau !!! Le meme en 13 pouces et si ils se sentent obligés ben ils mettent une gt 740m / 730m et un atom new gen (ou un apu new gen quand ils sortiront tous !)

    Répondre
  • 31 mai 2013 - 19 h 15 min

    Superbe

    Répondre
  • 31 mai 2013 - 23 h 36 min

    Sympa en effet, mais mettre des touches fleches si petites pour un portable de gameur, n’est ce pas une Hérésie/Connerie ??

    Répondre
  • 1 juin 2013 - 1 h 32 min

    @CerfVolant: non ils utilisent plutôt ZQSD

    Répondre
  • 1 juin 2013 - 11 h 30 min

    Magnifique mais dommage pour la resolution, quand ils arrivent a cote a mettre du full hd sur du 13 pouce.

    Répondre
  • 1 juin 2013 - 12 h 26 min

    Je vais refroidir l’enthousiasme ambiant avec le surlignage de deux petits mots de l’article de Pierre : « Optimus Nvidia ». Cette épouvantable cache misère logiciel est le gage de multiples ennuis à l’usage au niveau des graphismes.

    J’ai eu un netbook de chez alienware avec cette technologie, je n’ai pas tenu une semaine avant de le revendre.

    Pour mémoire Optimus est la réponse à Intel qui a introduit une carte graphique dans tous ses nouveaux processeurs, rendant inutile l’intégration d’une autre carte. Du coup nvidia prise à la gorge à bricolé ce truc qui est sensé switcher de la carte intégrée à sa propre carte, dès qu’on passe en affichage directX. Oui mais voila depuis Windows 7 on est tout le temps en directX. Du coup la surcouche logicielle est sensée inventorier les logiciels de jeu et démarrer la bonne carte au bon moment.

    Enfin razor avait planifié un clavier oled ou tft totalement reconfigurable ou réassignable, qui semble-t-il est passé à la trappe.

    Bref, c’est comme une très jolie fille avec un furoncle sur la fesse.

    Répondre
  • 1 juin 2013 - 12 h 38 min

    @Dadoo: J’ai un Samsung avec cette techno Nvidia Optimus = aucun soucis. La surcouche logicielle établit certes un profil par défaut pour chaque application à lancer, mais il est possible de modifier ce choix manuellement et très simplement (un simple clic droit sur une appli permet de choisir).

    Répondre
  • 1 juin 2013 - 12 h 48 min

    @Dadoo: Faudrait que tu ré-essaye sur une machine récente à l’occasion :) Le furoncle s’est ptet transformé en joli grain de beauté :)

    Répondre
  • 1 juin 2013 - 13 h 43 min

    mmm, j’ai déjà donné.

    En fait sur la technologie optimus j’estime qu’il y a tromperie, en faisant passer pour un avantage une obligation matérielle propriétaire destinée à prendre des parts de marché par intel sur nvidia.

    Le fait que leur guéguerre aboutisse à cette absurdité carrément sur nos machines est inadmissible. Je suis contre l’importation de conflits situés à l’étranger sur le territoire national :)

    Les deux gpu ayant désormais des exigences en énergie considérables, on ne peut même pas dire qu’on économise la batterie.

    La seule solution serait de pouvoir désactiver dans le bios une des deux cartes et encore il faut apprécier trimbaler dans sa machine du matériel désactivé ou bridé, ce qui ma foi est une spécialité de chez intel depuis le tout début de la gamme x86.

    Répondre
  • 1 juin 2013 - 14 h 59 min

    @Dadoo: On peut désactiver la carte Intel.

    Répondre
  • 1 juin 2013 - 21 h 10 min

    @Dadoo: A l’usage, je peux te garantir que les 2 gpu ne consomment pas la même chose, notamment par le fait que si on fait tourner la Nvidia, c’est qu’on a besoin de ressources graphique là où la HD4000 est trop limitée, et là… cela consomme sévère sur la batterie (et au passage on entend bien le ventilo aussi). Par contre, pour un usage « standard » du PC, la HD4000 est moins sollicitée, et surtout moins gourmande, du coup la batterie ne se vide pas à grand V et le ventilo est presque inaudible.

    A titre d’exemple, en usage « standard » (mixe surf, bureautique, vidéo) mon Samsung se balade sur batterie dans les 5H. Dès que je passe en mode jeu, l’autonomie chute à environ 3H, mais d’un autre coté, je balance mes jeux en « full tout » et c’est parfaitement fluide (chose que ne me permet pas la HD4000).

    L’ajout d’un GPU complémentaire à celui d’Intel, c’est aussi que le premier a sa propre ram dédié là où celle intégré par Intel se partage la mémoire dédié normalement au processeur. Pour le coup, si j’utilise la HD4000 sur un jeu, elle me bouffe le maximum de ram possible et du coup la mémoire restant dispo pour le processeur est moindre.

    Donc, pour ma part, et alors que je découvre cet Optimus truc much, je trouve que c’est plutôt une bonne solution ; Après peut-être que quand tu en avais l’expérience ce n’était peut-être pas au point, mais là il semble que ce soit assez probant (enfin pour le moment).

    Répondre
  • 2 juin 2013 - 12 h 31 min

    Quand j’ai réagit sur ce billet je voulais juste prévenir les futurs acheteurs d’un système sous optimus qu’ils allaient vers des problèmes.

    Je voulais aussi dénoncer la malhonnêteté marketing qui fait passer cela pour un avantage, alors que clairement c’est un cache misère initié par nvidia à cause d’Intel.

    Bien entendu en jeu la nvidia va consommer plus mais en mode bureautique elle fera jeu égal ou mieux avec la 4000 embarquée, j’ai consulté notebook check à ce sujet. Et comme on me le fait remarquer à propos, elle a sa propre mémoire dédiée donc elle n’empruntera pas les ressources de la machine.

    Conclusion, la hd4000 ne sert bien à rien, on ne peut simplement pas la séparer du processeur car elle y est intégrée.

    Après chacun fait ce qu’il veut, à lui le bonheur d’un linux sous ce système, ou encore une future mise à jour Windows etc.

    J’ai encore eu à faire avec des machines sous optimus depuis la préhistoire (l’alienware c’était il y a un an et demi)et ca s’est terminé par une désactivation de la carte nvidia.

    Evidemment il est de notoriété publique que sa propre expérience ne sert jamais aux autres ; pourquoi je m’entête moi ?

    Répondre
  • 2 juin 2013 - 12 h 45 min

    @Dadoo: « Evidemment il est de notoriété publique que sa propre expérience ne sert jamais aux autres ; pourquoi je m’entête moi ?  »

    Au contraire, l’expérience de chacun est bénéfique aux autres, la tienne tout autant que la mienne, ou que n’importe quelles autres ;-) Continue de t’entêter ;) Les contradictions des uns ou des autres enrichissent le débat. C’est d’ailleurs ce qui fait l’intérêt de MiniMachines, on peut se contredire sans s’invectiver, dans la bonne humeur et la tolérance. Le débat est toujours intéressant quand chaque partie apporte sa pierre.

    Je ne conteste pas ton « Je voulais aussi dénoncer la malhonnêteté marketing qui fait passer cela pour un avantage, alors que clairement c’est un cache misère initié par nvidia à cause d’Intel. », bien au contraire je le partage. Tu as également probablement raison en cas d’usage de ce « couple infernal Intel/Nvidia » sous Linux, il y a trop longtemps que j’ai lâché ce système pour me prononcer.

    Le système Optimus existe, inévitablement il y aura des « Pour » et des « Contre ». Cela dépend donc des usages de chacun ;-)

    Répondre
  • 2 juin 2013 - 13 h 02 min

    ^_^

    Répondre
  • uko
    2 juin 2013 - 20 h 44 min

    @Dadoo:
    Je ne comprends pas ta position, et ne suis pas convaincu que tu aies bien compris le fonctionnement de la technologie Optimus.

    Pour commencer, les processeurs graphiques intégrés aux solutions Intel datent du début des années 2000. Leur présence n’a jamais posé de problèmes à Nvidia, dont les cartes bien plus puissantes étaient déjà embarquées en surplus sur les machines intel. Il suffisait de désactiver la puce Intel dans le BIOS et d’utiliser la Nvidia à la place, de la même manière que si aucune puce Intel n’avait été prévue.

    Par la suite, les constructeurs ont de plus en plus travaillé sur des solutions d’optimisation de la gestion d’énergie des machines. C’est dans cette optique que se sont développés les processeurs mobiles et cartes graphiques mobiles, plus économes en énergie et en dissipation thermique. Jusqu’à l’arrivée des particulièrement autonomes Atoms chez Intel, que Nvidia a suivi avec sa gamme Ion.

    Reste que les cartes Nvidia représentaient un handicap d’autonomie pour les machines sur lesquelles elles étaient embarquées. Plus puissantes, elles consommaient aussi plus d’énergie.
    C’est ce constat qui a poussé certaines marques (Sony en tête pour ses ultraportables) à proposer un switch physique sur leurs machines permettant d’activer et désactiver la puce Nvidia en fonction des besoins de l’utilisateur.

    Une idée plutôt bien pensée qu’Nvidia a décidé d’intégrer à ses solutions avec une fonction logicielle « intelligente » pour effectuer le switch sans intervention de l’utilisateur. Une solution qui permet de bénéficier du meilleur des mondes dans les deux situations: Usage bureautique ? La carte Nvidia n’est pas en service, l’autonomie est optimale. Besoin de puissance graphique ? Optimus détecte ce besoin et active la puissance carte Nvidia.

    Dans la pratique, ce fonctionnement s’accompagne de certaines contraintes: Le logiciel tourne en tâche de fond. Il peut planter ou être mal configuré, et ne pas activer la carte Nvidia chaque fois que ça serait nécessaire. Mais la solution a bien évolué avec le temps, et ce genre de problèmes se font de plus en plus rares. En outre, comme l’indique Mxte29fr il est possible de configurer le fonctionnement d’Optimus de manière plus personnalisée.

    Dés lors, je ne comprends pas ton « Je voulais aussi dénoncer la malhonnêteté marketing qui fait passer cela pour un avantage, alors que clairement c’est un cache misère initié par nvidia à cause d’Intel ».
    J’ai peut-être manqué quelque-chose dans tes explications: ce ne sont pas les dysfonctionnements du système que tu sembles pointer, mais son fonctionnement.
    Pourtant, ce fonctionnement n’a rien d’un cache misère ? Il permet effectivement de bénéficier d’une autonomie accrue en usage bureautique sur une machine capables de tâches vidéo plus lourdes en cas de besoin.

    « Bien entendu en jeu la nvidia va consommer plus mais en mode bureautique elle fera jeu égal ou mieux avec la 4000 embarquée, j’ai consulté notebook check à ce sujet. »
    Pour résumer si je comprends bien tes propos, tu reproches à Nvidia d’avoir fait d’énormes progrès sur la consommation de ses puces en mode bureautique et de continuer à proposer Optimus. Une telle situation me surprendrait beaucoup: Nvidia vend des solutions graphiques, pas Optimus qui n’est qu’un outil qui permet d’optimiser l’usage de ces solutions. A mon avis, la marque se ferait un plaisir de faire savoir que sa propre puce est meilleure sur tous les fronts que la solution Intel.

    Je veux bien tes sources, j’ai cherché en long en large et en travers sur notebook check et je n’ai rien vu sur le sujet. Les seules informations pertinentes que j’y ai trouvé pour le moment sont les suivantes:
    HD 4600: 22nm 3D Tri-Gate, 20 cores @ 400 – 1350 MHz // Conso estimée 37 à 47W **il s’agit de la consommation de l’ensemble processeur quadcore + solution graphique**
    Source: http://www.notebookcheck.net/Intel-HD-Graphics-4600.86106.0.html
    GTX 765M: 28nm, 768 cores @ 850 MHz // Conso estimée 50 à 75W **pour la solution graphique seule**
    Source: http://www.notebookcheck.net/NVIDIA-GeForce-GTX-765M.92907.0.html

    Je ne comprends pas bien comment une solution mieux intégrée de 20 cores gravés en 22nm et tournant à 400 MHZ pourrait consommer plus en mode bureautique qu’une autre de 768 cores gravés en 28nm et tournant à 850 MHZ. Si tu as un article sur le sujet, ça m’intéresse au plus haut point.

    « Conclusion, la HD4000 ne sert bien à rien, on ne peut simplement pas la séparer du processeur car elle y est intégrée. »
    En fait, le fait qu’elle soit intégrée est plutôt un atout. L’ensemble processeur + solution graphique se partages les ressources disponibles en fonction de la manière dont elle est sollicitée. Si la partie graphique est désactivée, le processeur se montrera plus véloce et/ou plus économe en énergie.

    Alors c’est sur qu’Optimus n’est pas parfait. Il n’est pas compatible avec Linux, ce qui est un élément important à prendre en compte pour les linuxiens lors de l’achat de la machine. Il n’est pas 100% fiable dans sa reconnaissance des applications gourmandes en puissance, mais les options de configuration permettent de résoudre la plupart des problèmes.
    La solution reste plutôt intéressante, et les feedbacks des testeurs sont globalement positifs, même avant que son fonctionnement soit optimisé:
    http://www.notebookcheck.net/Nvidia-Optimus-Review.25467.0.html
    http://www.laptopspirit.fr/test-de-la-technologie-nvidia-optimus-un-choix-judicieux
    http://www.01net.com/editorial/512758/nvidia-optimus-pour-des-pc-portables-autonomes-et-performants/

    Répondre
  • 2 juin 2013 - 22 h 40 min

    Ce que je disais, a quoi bon m’entêter, apparemment tu as compris mieux que moi car tu as fait des recherches sur des sites qui reprennent mot pour mot les plaquettes des conf de presse de Nvidia.

    J’ai lu ton post, il y a trop de choses à discuter et je ne le ferais pas.

    Mon objectif est d’introduire le doute, pas de donner des leçons ni de convaincre. Par la suite certaines personnes vont saisir le message, d’autres vont reproduire l’information qu’ils ont lue ici ou là.

    Ce serait nier la réalité de la guerre qui oppose intel à nvidia et dont optimus n’est qu’un artifice qui permet à nvidia de continuer à vendre. A ton avis si la hd5000 ou 6000 à venir fait presque aussi bien que nvidia, que va devenir optimus ? Voilà, fait toi du bien, doute ! ^_^

    Répondre
  • uko
    2 juin 2013 - 23 h 10 min

    @Dadoo:
    Ben… Nvidia se fout d’Optimus ? C’est un outil pour optimiser l’usage de ses produits.

    Les puces graphiques d’Intel montent en puissance, c’est certain. Mais ils ne pourront jamais rivaliser avec des fonctions graphiques intégrées face à une carte dédiée comme celles proposées par Nvidia avec ses Gforce. A moins peut-être de créer une nouvelle gamme deux fois plus chère et qui consommerait deux fois plus d’énergie, mais je n’ai rien vu dans ce sens pour le moment.

    Ce qu’Intel concurrence surtout, ce sont les solutions AMD qui proposent eux aussi des GPU intégrés au processeur et pour le moment à des tarifs inférieurs pour une puissance graphique supérieure.

    Mais ce qui m’intéresse surtout dans ton post, ce sont tes sources concernant la consommation des puces Nvidia en bureautique. Parce-que si elles consomment effectivement moins que les modèles Intel, alors effectivement la techno Optimus devient complètement obsolète: Il suffirait d’utiliser exclusivement la carte Nvidia pour obtenir une solution plus cohérente.

    Je ne suis pas un expert en conception de processeurs, j’établis mes raisonnements sur les données à ma disposition. Il est possible que tu disposes d’informations qui m’échappent qui justifient une position aussi catégorique de ta part. Je suis là pour apprendre, et j’aimerais comprendre. Je t’en prie, partage ta science avec nous.

    PS: Note que j’ai tout de même commencé par la même référence que toi pour les tests, à savoir Notebookcheck. Pourquoi les discréditer dans ta réponse, alors que tu semblais leur faire confiance dans le message précédent ? Surtout qu’à la lecture du test, tout laisse à penser qu’ils basent leur jugement uniquement sur leurs observations.

    Répondre
  • 3 juin 2013 - 9 h 50 min

    @fred: J’ai eu la même réaction !

    Répondre
  • 6 juin 2013 - 16 h 28 min

    Pour info, il intègre un i7-4702HQ qui est un quad core avec HT, nickel pour bosser. Bref, à part la résolution de l’écran, ça semble être un quasi sans faute !

    Répondre
  • uko
    6 juin 2013 - 17 h 15 min

    @Moumoule:
    Sa résolution me semble parfaite au contraire: un très bon compromis entre finesse d’affichage et gourmandise en puissance graphique, qui devrait permettre de faire tourner les jeux les plus récents en résolution native sans sacrifier trop de paramètres visuels.

    Il ne faut pas oublier que c’est avant tout une machine étudiée pour les gamers,

    Répondre
  • 6 juin 2013 - 17 h 29 min

    @uko: Tout à fait d’accord avec toi !

    Mon problème c’est que je cherche un portable de cette trempe mais avec une dalle full hd quitte à avoir des problèmes de performances graphiques dans les jeux récents. C’est surtout pour combiner le jeu et le travail en fait.

    Répondre
  • 7 juin 2013 - 21 h 09 min

    vraiment ras le bol de cette merde d’hdmi, ON VEUT DU DISPLAY PORT pour nos écran 1440P !

    Répondre
  • LAISSER UN COMMENTAIRE

    *

    *