Mise à jour 31/05/2017 : On en sait un peu plus sur le prix de ce VivoBook Flip 12 qui devrait débuter à 399€ dans sa version la plus abordable, c’est à dire en Celeron N3350 avec 4 Go de ram et 32 Go de eMMC. Difficile de se faire un avis sur cette proposition pour l’instant.
Une petite vidéo de prise en main faite au Computex le 30/05/2017
Billet originel du 17/05/2017 : On ne connait pas le tarif de cet Asus VivoBook Flip 12 qui devrait être disponible en de multiples versions mais cela devrait être plus raisonnable que les tablettes hybrides du genre. Evidemment, cela suppose également que les performances et services proposés seront en deçà des machines plus haut de gamme.
Mais l’essentiel de la proposition est là : Un format 11.6 pouces classique dont la charnière s’ouvre à 360° et permet de disposer les dos du clavier et de l’écran l’un contre l’autre pour se transformer en pseudo – et assez épaisse – tablette. Le support du stylet maison, l’Asus Pen et ses 1024 niveaux de pression, permettra alors de dessiner sur l’écran et de profiter des fonctions de reconnaissance d’écriture de Windows 10.
Parmi les concessions importantes faites par la marque par rapports aux modèles haut de gamme, la définition de l’écran est bien moindre que les solutions Full HD des machines haut de gamme. Asus a choisi un affichage 1366 x 768 pixels ouvert sur un angle de 178° pour ce VivoBook Flip 12. Une mauvaise idée ? Pas forcément car si cela vous choque, c’est probablement parce que le produit n’est pas fait pour vous. Si il vous faut absolument un 1920 x 1080 pixels, tournez vous plutôt vers des solutions plus haut de gamme et probablement plus chères. La machine est ici cohérente en autonomie, batterie et performances avec cet affichage 720p.
La définition de l’écran a, en effet, d’énormes conséquences sur l’autonomie des machines, alimenter ce type de solution FullHD demande pas mal de ressources et pompe évidemment la batterie, ce qui oblige à employer des composants plus chers. Le choix fait par Asus est donc cohérent avec cette machine qui embarque un Celeron N3350 ou un Pentium N4200, des solutions Apollo Lake peu gourmandes et pourtant efficaces.
Je suis plus circonspect sur la quantité de mémoire vive minimum de cet Asus VivoBook Flip 12. Windows 10 tourne avec 2 Go de mémoire vive mais ce n’est pas confortable pour un engin qui a besoin de réactivité. L’utilisation de l’Asus Pen, par exemple, réclame un minimum de traitement et le lancement d’un logiciel de dessin est généralement assez gourmand. Heureusement, des versions 4 Go de l’engin seront également disponibles, j’espère qu’elles seront la norme en France.
Le stockage est composé de mémoire eMMC en 32, 64 et 128 Go. Les 32 Go me semblent très justes encore une fois pour une machine de ce gabarit, il ne s’agit pas d’un Chromebook et l’usage de Windows demande un minimum d’espace pour être confortable. Là encore, j’espère que l’antenne Française d’Asus ne fera pas des choix trop mauvais pour son image.
Le scénario de cette machine me rappelle énormément l’Asus Vivobook E12 annoncé pour la rentrée, un autre engin avec des choix techniques discutables qui vise clairement des prix d’appel. Le VivoBook Flip 12 est la version hybride de l’engin, avec une charnière 360° mais sans l’option disque dur.
On retrouve beaucoup d’équipements communs, le Wifi de type 802.11AC, le Bluetooth 4.1, la même batterie 2 cellules 38 Whr annoncée comme offrant 8 heures de lecture vidéo 720p et une connectique identique avec un USB 3.1 Gen1 Type-C, deux USB 3.0, un HDMI, un port jack 3.5 mm unifié proposant sortie casque et entrée micro, un lecteur de cartes microSD et un port secteur.
Le capteur est sur la tranche de l’appareil
Un capteur d’empreintes digitales est également présent pour une reconnaissance biométrique sous Windows 10.
L’Asus VivoBook Flip 12 pèse 1.1 Kg pour des dimensions classiques de 29.34 cm de large sur 19.8 cm de profondeur et une épaisseur de 1.71 cm. Un format A4 qui rentrera dans n’importe quel sac.
Suivant la qualité de sa finition et son tarif, un modèle 4 Go / 64 Go sous Celeron pourrait être abordable, cette machine sera une bonne réponse à plusieurs problématiques d’équipement actuelles.
Source : Winfuture.de et Asus
2,5€ par mois | 5€ par mois | 10€ par mois | Le montant de votre choix |
Effectivement un portable à surveiller!
Quelques choix discutable comme le port d’alimentation qui n’est pas du USB-C (sûrement encore réservé au haut de gamme).
Mais il reste une question importante, est-il fanless ? il y a ‘que’ 6W à dissiper …
@BlackCat : je ne vois aucune aération sur les photos, il semble donc bien fanless.
J’aime beaucoup le format Flipbook pour la variété d’utilisation possibles. Et je n’avais pas encore pensé à la position sur les genoux comme sur l’une des photos de l’article. Essayez de faire ça avec une tablette ou un portable classique !
Pierre, je me pose sérieusement une question, parce que je vois ce truc défiler tout le temps dans pas mal d’article ( pas juste ici), et moi ça me semble pas fondé… (et j’adore tout ce que t écris en général donc n’y voit pas offense!)
Je cite le truc qui fait tiquer mon esprit :
« alimenter ce type de solution FullHD demande pas mal de ressources et pompe évidemment la batterie »
pour moi, ce qui pompe dans un écran c’est le rétroéclairage… la résolution ça ne change rien… ni dans les dépenses énergétiques des ressources…. ça fait bien longtemps que les carte graphiques sont équivalentes en environnement GDI, il n’y a que la consomation de ressources qui augmente ( quantité de ram, temps de traitement…) mais la carte graphique chauffe pas plus, etc..donc elle consomme autant… ça prend juste plus de VRAM…
Bref, j’attends une vrai réponse parce que pour moi, un écran de plus haute résolution ça consomme pas plus d’énergie, techniquement parlant. (après oui , derrière un peu plus de ressources ne fait pas de mal pour une exploitation correcte, mais on est juste sur du full hd là, rien de transcendant comparé à ce qu’on utilisait en résolution il y a des lustres sur les cathodiques de DAO avec des cartes graphiques bien plus limitées à tous les niveaux)
Pareil un petit article intéressant sur le sujet?
ps : juste pour un peu me conforté dans mon avis que j’ai déjà… on a vu un bon dans l’autonomie des pc portables quand les dalles sont passés au rétroéclairage LED….
les périphériques qui ont une autonomie de ouf sont depuis toujours ceux qui ont des affichages passifs….
et pour moi c’est logique… les calculs etc… c’est de l’électricité qui transite en gros….(la seule perte c’est le dégagement thermique etc…)
le rétroéclairage : c’est créé de la lumière à partir d’un flux d’électron…. c’est de la transformation d’électricité en lumière (photon) et ça a un coût bien plus grand dans mon esprit.
toujours dans ma tête, le fait de changer la couleur d’un pixel, c’est un changement d’état, ça consomme que dalle, donc le nombre de pixel influence pas énormément la conso…par contre faut éclairé le pixel et sans faire le vieux qui radotte, pour moi c’est le rétroéclairage :-)
tu creuses la question avec tout ton savoir faire journalistique?
mince zéro réponses ici… on appelle ça un gros VENT….
toujours à la trappe ma demande????
J’avais pas vu ^^
4 trucs, 3 matériels et un facteur humain :
– Le nombre de pixels à l’écran se traduit par un nombre équivalent de transistors a alimenter. Pour faire simple pour du FullHD tu as donc 2.073.600 pixels et autant de transistors a alimenter. Pour de la QHD tu multiplies ce nombre par deux puis encore par deux pour de l’UHD pour arriver à 8,29 millions de pixels. Chaque transistor nécessite du courant qui est prélevé dans la batterie en permanence. Tu comprends alors le problème.
– Les GPU ne peuvent pas proposer un nombre d’information illimité par cycle, calculer un rendu dans un jeu leur demanderait un cycle entier pour du QHD par exemple, mais la moitié pour du FullHD. C’est ce qui explique pourquoi on divise le nombre d’images par seconde dans un jeu 3D en augmentant la définition d’affichage. Pour parvenir a alimenter correctement en données un écran QHD la machine va demander un maximum de ressources à son GPU. La totalité d’un cycle voire deux ou trois ou dix suivant la capacité de la puce. Mais pour le même calcul en FullHD la même puce n’aura pas besoin d’être autant sollicitée et ne demandera donc pas la totalité de son cycle, elle brûlera donc moins d’énergie au final pour un rendu optimal.
En gros même un circuit graphique haut de gamme a une limite à ce qu’il peut calculer et dépasser cette limite par cycle pose non seulement un problème de vitesse mais aussi de consommation globale. La solliciter en permanence à fond de train alors qu’avec une définition plus sage elle serait deux fois moins sollicitée, cela laisse des traces sur l’autonomie. Et pas uniquement dans les jeux, certains CPU/GPU sont en mode panique sur un écran QHD dès l’allumage, même les plus performants consomment plus avec un QHD qu’avec du FullHD. Il faut donc être plutôt cohérent entre les deux.
– Les dalles UHD son en général plus énergivores que les dalles FullHD a de rares exceptions près car les constructeurs de ces dalles visent un marché haut de gamme et n’hésitent pas a intégrer des rétro-éclairage autrement plus poussé en UHD qu’en FullHD ou en HD. Tu feras le test en magasin, pousse le contraste à fond sur les portables en rayon (c’est souvent déjà le cas, les vendeurs le font pour contrebalancer la lumière du lieu) et regarde ce que ça donne. Les machines en UHD ont une luminosité largement plus poussée que les autres, à de rares exceptions près. Cela participe également à la dépense.
-Enfin un dernier point plus humain mais qui a une incidence forte. On ne travaille pas de la même façon sur une solution mobile en HD qu’en FullHD ou en QHD. En HD on va être essentiellement monotâche et basculer d’un écran à l’autre soit avec des bureaux différents sous linux, soit à coup de Alt-Tab sous Windows. Mais en général on limite son nombre de tâche faute de place où afficher ses programmes.
En FullHD il n’est pas rare de positionner deux fenêtre à l’écran et de travailler avec plus de programmes ouverts et ainsi de suite puisque avec le QHD on a un vaste bureau qui peut supporter un placement de fenêtres encore plus complexe. J’ai lu plusieurs études en ce sens (malheureusement des études constructeurs pas ouvertes au public mais je vais fouiller pour voir si de vieilles sont dispo, je linkerais les PDF) qui montrent que plus les dalles montent en définition, plus le public utilise lourdement ses machines ce qui explique pourquoi il leur faut adapter le reste du materiel : ram, cpu, gpu, en conséquence.
En gros plus tu donnes de performances, confort, possibilité à l’utilisateur, plus il s’en sert; ce qui est normal. A priori on n’achète pas un engin QHD a plusieurs milliers de brouzoufs pour faire du démineur. Mais cela a une incidence très nette sur les batteries des machines.
Il faudrait que je récup à l’occase deux engins identiques mais avec juste une option d’affichage différente, ca doit pouvoir se trouver en OEM chez Clevo par exemple. Pour faire des tests.
@OCMan:
Ben, en 10s
– 4x plus de pixels a animer = 4x plus de boulot = 4x plus de conso
– des pixels plus petits = un ratio pixels /grille plus bas = faut un backlight plus fort pour un ecran aussi lumineux
– 4x plus de vidram = 4x plus de conso
– plus haute rez = techno moins mature, moins optimisée = plus de conso
Apres si tu veux qu’on passe 3-4j un banc test avec le matos idoines et des procedures normalisées, ca a un cout ;-p
@olivier
* non 4x plus de pixel a animer ne demande pas forcement plus de boulot.
Animer un cube, quelle que soit le nombre dE pixel demande exactement le meme nombre de travail…
Ce que tu ecrit est vrai si et seulement si tu cherche a tout gerer independement. Or le cube est defini par 8 points de calcul, le reste etant une ligne droite geree par le GPU et la complexite n est pas proportionnelles au nombre de pixel
* la vidram non plus ne consomme pas proportionnellement a sa taille mais au nombre d actions. Encore une fois, si je dessine un cube, cela ne change qu’au niveau des droites et pas de la surface par exemple…
* non plus haute def peut etre bien mature.
@pierre :
* non on divise le nombre d image par seconde quand on augmente le nombre de calcul , c est a dire quand on utilise la haute definition pour afficher plus d information. Mais pour reprendre le cube, dans ce cas cela ne change rien. Et dans la vraie vie, la majorite des jeux upsacle par defaut et donc pas de consommation de plus quasiment
* et non les transistors ne controlent pas 1 pixel sauf dans le cas de l’oled…
@Olivier Barthelemy:
Oui ta réponse part de logique mais pas de logique de fonctionnement….comme je l’ai dit, le changement d’état(couleur) de pixel ne consomme rien, à part pour l oled vu que le rétro éclairage se fait par pixel….sur nos elle LCD classique le rétro-éclairage est global…une grand led ou plusieurs….
Donc non on va pas y passer 3-4j….mais sans doute plus de temps que ton analyse pas bonne du tout ;-)
@Pierre Lecourt:
je suis d’accord avec la réponse dans la vision globale, mais moi je parle surtout de la technique.
Tu prends un PC avec une dalle HD, un autre avec du full HD (ce que tu proposes à la fin avec clevo), tu fais les mêmes tests dessus ( si en 3d avec la même résolution pour pas biaiser le résultat à cause de la conso GPU, mais pour la 2D je suis sûr que l’écart de conso est négligeable), et bien je pense que l’autonomie est kif kif.
Pour le facteur Humain, les 3/4 des gens que je connais qui ont des écrans tres hautes résolutions sur leur laptop, et ben ils grossisse le dpi sur windows bonjour les problème sur les applis) ou ils utilisent pas la résolution native de la dalle ( bonjour la finesse d’affichage au final…) donc leur usage à pas vraiment changé mais quand ils regardent leurs photo et video c’est plus beau et plus fin c’est mieux…(bref lol)
pour ce qui est de la conso prise par les transistor des pixel, Pierre, franchement je demande à voir leur conso, pour moi c’est anecdotique, comme je l’ai dit, c’est juste un transit du courant, pas une transformation d’électorn en photons….si ca savait se faire avec un rendement à 100%, on aurait plus besoin du soleil….
J’estime franchement que c’est une question qui mérite une réponse , technique, et pas sur la façon d’utiliser l’appareil qui demande plus de ressource…(jeux qui tournent en résolution plus haute, plus d’appli en mode fenétré, biensûr que ça consomme plus… mais c’est pas l’écran qui fait consommer plus….petit HS donc)
ça fait quand même mal aux fesses 400€ pour un dual core avec 32 Go EMMC