Nvidia GeForce GTX 1650 : une carte à 159€ pour évoluer en douceur

Nvidia a enfin annoncé ses nouvelles cartes GeForce GTX 1650 et libère ainsi les différents constructeurs qui peuvent annoncer leurs modèles. Comme pour les GTX 1660, la marque ne proposera pas ses propres modèles mais laissera les constructeurs jouer des coudes entre eux.

La Nvidia GeForce GTX 1650 est une nouvelle déclinaison des puces Turing de la marque. Sous le nom de code TU117, la solution fait suite au TU116 des GTX 1660 Ti dont elle reprend une architecture amputée des fonctions avancées laissées aux circuits des modèles RTX 20×0 qui exploitent quand à eux les TU106.

GeForce 1650

La GeForce GTX 1650 de Zotac

La GeForce GTX 1650 est une solution entrée de gamme et Nvidia ne cache pas sa destination. Si elle n’apportera pas les performances d’une GeForce 1660, elle a pour elle d’autres avantages techniques dont le premier est une grande facilité d’intégration.

La GeForce 1650 est moins bien équipée qu’une 1660 Ti et ne proposera donc pas toute son expertise en jeu 3D en FullHD. Elle vise un autre objectif, celui de proposer des cartes compactes, moins gourmandes en énergie et plus facilement intégrables. Avec des consommations plus faibles, la puce fonctionnant entre 35 et 50 watts, elle offre la possibilité de construire des cartes consommant 75 watts et donc dépourvues de prise d’alimentation PCIe. On pourra donc, comme avec les GeForce 1030, les intégrer dans des configurations aux alimentations modestes – 300 watts seulement – et en tout cas non spécialisées.

Est-ce que ce sera pour autant des puces au rabais ? Pas vraiment, la promesse de Turing est de proposer un meilleur ratio de performances par watt consommé sur son architecture précédente. On a donc la promesse d’une solution efficace et performante. 

GeForce 1650

La GeForce GTX 1650 de PNY

On retrouve une solution disposant de 896 coeurs CUDA contre 1408 coeurs pour la GeForce GTX 1660 et 1536 pour les GeForce GTX 1660 Ti. Evidemment  comme pour les autres GTX de la gamme, Nvidia n’intègre pas les fonctions spécifiques des modèles RTX : Pas de moteurs de rendu de Raytracing ou d’IA. On se contentera d’une solution basique avec 4 Go de mémoire vive GDDR5 sur un bus 128 bits à 2 GHz. La bande passante reste limitée à 128 Go/s. Des choix qui permettent aux partenaires de Nvidia de proposer une carte à moins de 160€, ce qui correspond à un prix psychologique lié à une mise à jour de machine ou à un investissement d’un utilisateur qui ne-joue-pas-sauf-des-fois-un-peu-quand-même. 

2019-04-23 20_38_00-minimachines.net

D’un point de vue fréquences, c’est encore une fois assez modeste. Les puces partent sur une base de 1485 MHz avec un GPU Boost pouvant atteindre 1665 MHz. C’est  moins qu’une GeForce 1660 qui grimpe à 1785 MHz mais cela correspond à des choix cohérents de la marque pour ce segment.

2019-04-23 20_28_20-minimachines.net

A quoi on peut s’attendre avec ces GeForce 1650 ?

Peu ou prou ce qu’une carte graphique de type GeForce 1050 Ti propose aujourd’hui, c’est à dire une solution apte à encaisser un jeu 3D récent en FullHD avec un nombre d’images par seconde correct en laissant les détails graphiques sur une qualité moyenne. Ce sera évidemment en dessous de la 1660 de la marque qui permet de piloter sans soucis des jeux de ce type en haute qualité toujours sur un FullHD mais au dessus des solutions de génération Pascal situées sur la même gamme de prix.

La destination de ces cartes est claire, un acheteur de 2019 qui n’est pas un joueur chevronné mais qui veut une bonne carte graphique pour lancer de temps en temps une partie d’un jeu récent y trouvera son bonheur. Surtout si il ne s’attache pas trop à avoir un rendu de qualité très haut de gamme. En restant modeste sur les détails graphiques, la carte saura prendre en charge les titres 3D exigeants. Nvidia indique des performances doublées par rapport à une GeForce GTX 950 et jusqu’à 70% plus rapide qu’une GTX 1050 dans les dernières productions 3D. 

Les usages annexes comme l’accélération graphique des solutions de montage ou de retouche photos comme l’ensemble des programmes sachant prendre en charge les unités CUDA seront évidemment accélérées par la solution. Les constructeurs habituels sont sur les rangs et proposent déjà diverses solutions de GeForce GTX 1650 sur le marché avec des prix pour le moment sagement alignées sur les 159€.

D’autres fonctions sont présentes avec une compatibilité G-Sync pour piloter des écrans compatibles, la prise en charge des flux HDCP 2.2, de DisplayPort 1.4a et du HDMI 2.0b. La fonction d’encodage de la marque est également présente. La puce saura gérer un affichage maximal confortable de 7860 x 4320 pixels à 120 Hz.

2019-04-23 20_40_01-minimachines.net

L’AMD Radeon RX 570 en concurrence ?

Les cartes 4 Go équipées de la puce AMD sont désormais positionnées à 140€, les versions 8 Go sont à 150€… Des tarifs qui laissent entrevoir un avantage majeur pour les solutions AMD. Il ne faut pas perdre de vue que si le nom choisi par AMD pour ses RX 570 date de 2017, les puces embarquées sont beaucoup plus anciennes. Il s’agit d’une RX 470 d’architecture Polaris avec une finesse de gravure améliorée. Seule véritable raison autre que marketing à ce changement de nom. Les RX470 annoncées sur le marché à l’été 2016 commencent vraiment à accuser leur âge. Si leurs performances sont très correctes, elles sont désormais à la traîne en terme de ratio d’efficacité et de fonctionnalités. Les RX 570 sont également moins sages en terme de consommation avec 150 watts en moyenne, l’obligation de recourir à une alimentation 6 broches et un bruit en fonctionnement probablement également à leur désavantage. Pas de miracle, AMD n’a pas encore de concurrence de nouvelle génération à opposer à Turing sur ce segment. L’apparition cet été de l’architecture Navi devrait offrir à AMD plus de latitudes même si on se doute que la marque ne débutera pas cette nouvelle génération par des solutions entrée de gamme.

La véritable concurrence à Nvidia sur cette GeForce 1650 est à mon sens a chercher du côté de… Nvidia lui même et de ses offres GeForce 1660 et 1660 Ti qui proposent des capacités plus élevées pour le même objectif. Si le prix de la GTX 1650 est de 159€, la 1660 se situe à 70€ de plus et augmentera les performances de votre machine pour plus d’images par seconde avec un meilleur rendu graphique. La GeForce 1660 Ti poussera le bouchon un peu plus loin avec un prix de 299€ mais offrira alors des performances très élevées en FullHD tous détails activés en très haute qualité.


Soutenez Minimachines.net !
31 commentaires sur ce sujet.
  • 23 avril 2019 - 21 h 27 min

    Cette nouvelle 1650 est parfaite pour mettre d’anciennes machines
    ayant une petite alimentation à jour !

    On peut aussi très bien imaginer voir cette puce directement intégrée
    sur des Cartes Mères pour Mini PC performants et peu chers !

    Comme la si bien dit @Pierre LECOURT a réservé que pour des joueurs occasionnels,
    autrement passé au minimum à une 1660 pour jouer en FullHD de qualité.

    J’ai aussi entendu parler de 2 versions de 1650 pour PC portables,
    commençant à partir de 799 Euros TTC, plus puissants et moins chers
    que ce qui existaient; encore chers, mais normal pour des nouveautés !

    Je dirais que cette carte va relancer le marché de la carte graphique 1ier Prix,
    surtout par sa très grande facilité d’intégration…
    la nouvelle brique de base sur laquelle il faudra s’aligner !

    Répondre
  • 23 avril 2019 - 21 h 31 min

    La GT 1630 dans deux mois.

    Répondre
  • 23 avril 2019 - 21 h 44 min

    @Le Breton:
    Il te faudrait être un peu plus précis… Merci !

    En ce qui concerne les caractéristiques techniques, les cartes vidéo GeForce GT 1610 / GT 1630 recevront 6 à 8 multiprocesseurs de diffusion (Streaming Multiprocessor), ce qui correspond à 384 et 512 cœurs CUDA, 32 unités de texture (TMU) et 16 unités de rastérisation (ROP). Un bus 64 bits sera utilisé pour communiquer avec le tampon vidéo. La capacité de mémoire est susceptible d’être
    de 2 Go, bien que les modifications de 4 gigaoctets ne soient pas exclues.

    Avec un prix recommandé de 60 à 80 USD, nous pouvons obtenir un niveau de performance
    équivalent à la GeForce GTX 1050.

    Ces informations sont à prendre bien sûr avec les pincettes de vigueur…

    Répondre
  • 23 avril 2019 - 21 h 53 min

    Nvidia aurait dû les appeler 1150 et 1160 mais non une 1650 et une 1660 font plus HDG (dans la tête du grand public) et peuvent se vendre plus cher. Et du coup les marques en profitent.
    Et c’est pire dans le secteur mobile (PC portable).

    Répondre
  • 23 avril 2019 - 22 h 11 min

    Une 1630 n’aurait aucun intérêt face à ces 1650 qui vont tourner avec 75W

    Répondre
  • 23 avril 2019 - 22 h 32 min

    @Nylan:
    Tu as raison, il n’y a pas vraiment d’intérêts,
    plus une segmentation du marché par le prix…
    disons que la majorité des acheteurs n’y connaissent rien en informatique,
    et donc regarde plutôt le prix !

    Pour moi, la GTX 1650 me semble être le minimum raisonnable,
    car moins… pour faire quoi ?!

    Répondre
  • 23 avril 2019 - 22 h 42 min

    @Nylan: Si, le prix => si c’est 2x moins cher, ça ratisserait 2x plus de clientèle que des 1650 seules… marketing….

    Répondre
  • 24 avril 2019 - 8 h 26 min

    @leroidelaparaphrase :

    Les “pincettes de vigueur” m’intéressent beaucoup :P , où peut-on s’en procurer ?

    Répondre
  • 24 avril 2019 - 17 h 17 min

    Perso ,j’attends plutôt de voir les tests comparatifs entre cette carte positionnée entre entrée de gamme et milieux de gamme .

    EXEMPLE concret disons que je veuille acheter une carte mère ,un processeur et une carte graphique pour une utilisation bureautique et jeux de base .

    Je prends entrée de gamme PENTIUM au dessous du i3 ,une carte a prix moyen pouvant accepter une bonne carte graphique .
    Question prix disons 90 euros processeur ,70 euros carte mère et 110 a 150 euros pour la carte graphique .

    Quelle carte graphique Nvidia 1150 Ti , cette 1650 ou une RADEON ?

    Disons que mon alimentation Corsair pas trop vieille donne 400 Watts qualité +80 BRONZE et que mon alimentation COUGUAR fait 450 watts en qualité ° bronze aussi .

    Comme monter un PC d’entrée de gamme qui tiendra pour 4/5 ans environ .

    Répondre
  • 24 avril 2019 - 17 h 53 min

    Pour du montage vidéo via cuda, du coup une bonne carte , ce serait laquelle chez nvidia ?
    Pas de jeu du tous et pour des vieux pc type intel core I3 I5 de deuxième, troisième génération max.

    Répondre
  • 24 avril 2019 - 18 h 05 min

    @orangina rouge: C’est assez simple : Plus tu as de coeurs, plus tu as de capacités de calcul. Plus la carte est haute en fréquence plus elle aura de performances pour ce travail.

    Répondre
  • 24 avril 2019 - 18 h 09 min

    @orangina rouge: Ça dépend surtout de ton budget… et de tes besoins en montage vidéo,
    disons que le minimum est la 1660, car :
    “La GTX 1650 se contente pour sa part d’un moteur multimédia hérité de l’architecture Volta, plus ancienne. Sous Volta, le NVENC est 15 % moins performant que sous Turing, laissant la GTX 1650 à la traîne sur le plan multimédia.”
    NVIDIA a fortement “castré”, bridé les 1650 au niveau multimédia !!!

    Répondre
  • 24 avril 2019 - 19 h 17 min

    @J. DEBON: merci, je n’avais pas vu ça.
    c’est pas pour moi, mais pour des personnes que je connais qui se lancent massivement dans le vblog youtube en ce moment.
    Idem, je connais pas leurs logiciels (première ou équivalent j’imagine. perso je suis sous linux donc je peux pas leur donner mon avis à ce niveau là. je sais même pas si KDEnlive utilise cuda pour ma part alors sous win…).

    En tous cas, merci des conseils (même si je leurs ai déjà conseiller de commencer sans investir et de voir après si ça vaut le coup…ou pas !).

    Merci à tous pour la réponse

    Répondre
  • 24 avril 2019 - 19 h 22 min

    @Pierre Lecourt: Oui, c’est vrai (mais comme c’est sur des pc qui vont se retrouver au milieu du salon ou dans des chambres, une carte assez calme serat pas de refus j’imagine).

    Disons que j’aimerais avoir une bonne carte à conseiller à tous pour ce type d’usage (et un bon WAF donc silencieuse.
    Je vais les faire partir sur des 1660 ou TI (à voir les retours sur le bruit).

    Je verrais ça quand j’aurais le temps mais merci encore

    Répondre
  • 24 avril 2019 - 20 h 38 min

    Une 1660 pour du montage vidéo ? C’est pas un peu overkill ? :d

    Sinon fut un temps, il y a plusieurs années, t’avais des cartes pour jouer très correctement à peine à ce tarif (cf: HD4850 et frangines/cousines)… maintenant ils nous font gober que c’est de l’entrée de gamme, et tout le monde semble s’en réjouir :/

    Répondre
  • 24 avril 2019 - 21 h 05 min

    @Pjotr: cuda, c’est pas mon truc et je sais pas si justement ça vaut le coup.

    Je sais que les pc sont vieux (il y a même du quad core génération core2duo dans le “parc”) et qu’au moins une personne fait du photoshop régulièrement (donc lui, il sera content).

    Pour le reste, je connais pas la fréquence d’utilisation future du logiciel de montage.

    D’où ma question d’une bonne petite carte pour du montage (et laisser le proc pour autre chose) et savoir si ça vaut le coup et si le montage et encodage sera vraiment réduit sur windows ou pas (étant sous linux, je ne connais pas la réponse).

    Répondre
  • 24 avril 2019 - 21 h 23 min

    @orangina rouge: Le plus simple fait une recherche sur GOOGLE,
    pour te faire une idée…
    “montage video configuration pc”

    En gros ça te dit d’avoir déjà un bon CPU avec au moins 4 coeurs,
    au moins 8 Go de RAM, et un SSD minimum de 120 Go,
    la carte graphique semble assez secondaire sauf s’il y a des effets vidéo…
    “Si il n’y a pas d’effets, seuls le processeur et la Ram sont sollicités.
    Elle accélère en fait les effets ajoutés à vos rushs.”

    Disons que le montage Vidéo n’est vraiment pas mon domaine !!!

    Répondre
  • 24 avril 2019 - 21 h 38 min

    @J. DEBON: 4 cœurs, 8 gigas de ram, là plupart les ont déjà.
    pour les effets, je demanderais mais je pense pas.
    En gros, de ce que je comprends, à part le père de famille qui utilise photoshop, je pense pas que cuda serve à grand monde pour le profil “youtube” de base.
    Je demanderais quand même ce qu’ils comptent faire (je les vois la semaine prochaine pour le plus gros).

    Re merci à tous et bonne fin de soirée

    Répondre
  • 24 avril 2019 - 21 h 42 min

    Pour le photoshop, perso il tourne très très bien sur une (très) vieille HD7970… jamais vu aucune différence avec un autre ordi que j’avais à disposition doté d’une Quadro soit-disant dédiée à ce genre de bouiboui, sauf que t’es pas prêt de te faire une partie de quoique ce soit avec tes potes le jour où… pour le même prix :D

    Répondre
  • 24 avril 2019 - 22 h 20 min

    @Pjotr: Le montage simple c’est pas un soucis, le rendu c’est autre chose :)

    Par contre avoir un montage avec des effets de colorimétrie ou de transitions calculés en temps réel ce sera possible avec une grosse carte CUDA, pas avec un processeur basique.

    @Pjotr: Lance juste une image RAW pleine définition d’un Reflex sous Photoshop ou Lightroom avec une machine sous Quadro ou une machine sous GPU basique et tu verras une grosse différence. Si c’est juste pour faire une retouche d’un JPG classique en Haute def, les solutions basiques son suffisantes.

    Répondre
  • 25 avril 2019 - 10 h 05 min

    C’est mieux de préciser ces points pour Orangina Rouge de sorte qu’il sache vers quel type de produit s’orienter.
    En l’occurrence, il cherche une carte pour le montage vidéo, en vue d’un vblog youtube, pour reprendre ses propos. C’est bien en répondant à cette demande que j’estime qu’une 1660 est un peu overkill…

    Pour le RAW effectivement, cependant nous ne connaissons pas ses besoins dans l’utilisation de PS.
    En dehors du RAW et autres panorama en 30000px par 20000px, même raisonnement que précédemment ;)

    S’acheter une Porsche pour aller au pain à 900m, ca revient un peu à ca ;)
    Effectivement cette même Porsche dans l’exemple du circuit auto, c’est le top. Mais l’utilisateur ira-t-il souvent sur circuit, sachant que ca 4L saura elle aussi faire le tour, plus lentement, mais sûrement ;)

    Répondre
  • 25 avril 2019 - 11 h 29 min

    @Pjotr:

    Tu écris “une Quadro soit-disant dédiée à ce genre de bouiboui”

    Définition de “soi-disant” : “Soi-disant est un adjectif invariable utilisé pour parler d’une chose ou d’une personne qui se prétend telle qu’elle n’est pas en réalité.”

    Comme tu n’as pas constaté de différence entre une Quadro que des professionnels font pourtant l’effort d’acheter à grand frais, tu estimes que leur usage n’a pas de sens et qu’elles ne sont pas du tout valables. Tu dis même que leur utilité est nulle, qu’il s’agit d’un mensonge de la part de Nvidia. J’explique en quoi ce “soi-disant” est injustifié en précisant les usages spécifiques de ce type de carte. Carte que personne n’avait mentionnée avant toi.

    Et toi tu prends cette remarque pour expliquer qu’une carte en dessous de la Quadro comme la 1660 c’est Overkill. “Soi-disant” ce n’est pas anodin, c’est accuser de mensonge la destination réelle du produit en sous entendant qu’il ne sert à rien dans ta phrase.

    Pour reprendre ton exemple, je pourrais écrire que les Porsche sont “soi-disant” plus rapides que les 4L parce que je ne m’en serais servi que pour aller chercher du pain. Remettre en doute les capacités d’une Porsche ou d’une Quadro en se basant sur une expérience qui n’utilise pas leurs compétences c’est totalement contre productif.

    Faire de la vidéo c’est faire du rendu et faire du montage. Plus le traitement est fluide, plus il sera agréable a utiliser. Plus le rendu est rapide, plus il sera pratique. Il y a une chose que l’informatique m’a apprise, c’est qu’on accepte volontiers de faire une tâche qui prenait 30 minutes en 10 minutes mais qu’au bout de quelques heures cette nouvelle vitesse devient la norme.

    Acheter une Quadro pour une chaine Youtube n’est sans doute pas utile c’est d’ailleurs pour cela que personne n’en a parlé. Prétendre qu’il n’y aura aucune différence entre une carte comme la 1660 sous Turing en sortie en 2019 et une HD7970 sous archi Southern Islands de 2011 qui se place grosso modo au niveau technique d’une GeForce GTX 680 avec une prise en charge connectique de 2011 (HDMI 1.4/DVI et DP 1.2) avec l’encodage via un moteur VCE bien daté qui ne prend pas tous les codecs modernes en charge ni ne gère une accélération materielle au delà du FullHD en 60 fps…. C’est ma foi plus compliqué.

    Overkill la 1660 pour du montage ? Peut être. Moi je n’ai fait que rappeler une évidence : Plus il y a de cœurs CUDA et plus la fréquence est haute et plus les logiciels de montage et de rendu sont heureux. Ce n’est pas conseiller une Quadro ni une 1660, c’est juste comprendre que c’est là dessus que s’appuient les logiciels aujourd’hui pour bosser. Libre ensuite à chacun d’adapter cet état de fait suivant son budget, ses besoins et ses envies.

    Faire un vlog avec une carte comme la 1660 qui pourra compresser et envoyer en streaming direct un signal sur Youtube ou Twitch à la volée via une webcam c’est par exemple une solution intéressante. Faire un rendu de 10′ de vidéo en 10′ au lieu d’une heure ou deux c’est également intéressant si le rythme de publication est quotidien.

    Je ne dis pas qu’il faut acheter une 1660 mais de bien prendre en compte tous les paramètres avant l’achat.

    Je ne me permettrais pas par contre de remettre en doute les compétences d’une carte comme la Quadro sans la connaitre et sans l’utiliser. Pas plus que je dirais que les Porsche n’ont rien dans le coffre en m’en servant sur un trajet de 500 mètres en ville.

    Répondre
  • 25 avril 2019 - 12 h 03 min

    Oula !
    Cette leçon habituelle de Pierre quand on le contredit :)
    Toujours très professoral, il joue sur les mots quand notre argument tient la route, nous donne des leçons en dehors du contexte.
    Ce n’est pas la première fois ! C’est habituel, malheureusement.
    Je n’ai pas encore pris le temps de tout te lire, ca commençait déjà bien avec ce ton bien trop professoral à mon goût. Je verrai plus tard !

    Répondre
  • 25 avril 2019 - 13 h 09 min

    Il faudrait apprendre à relire correctement… avant de faire des leçons de français :/

    “Quadro pour Photoshop”, aucun rapport avec Youtube dont tu parles… Pour utilisation professionnelle dans mon cadre de boulot (pas de RAW, pas de panoramas photos), je ne voyais pas de différence entre ma HD7970 et la Quadro.

    “les cartes graphiques Quadro® pour stations de travail de bureau sont le choix incontournable des utilisateurs créatifs et techniques dans le monde entier.” https://www.nvidia.com/fr-fr/design-visualization/quadro-desktop-gpus/
    Ok ?

    Et pour faire du Youtube, je maintiens, et persiste, même un genre de gopro suffirait à gérer une vidéo qualitativement suffisante. Mais connais-tu la finalité demandée ? Non.

    Mais ne sachant pas ce que veut faire le pote d’Orangina Rouge, il est très décevant de voir des conseils d’achat sur basés sur des hypothèses ! Il faudrait mieux cibler le besoin de la personne avant de se prononcer.

    Répondre
  • 25 avril 2019 - 13 h 40 min

    @Pjotr: Jouer sur les mots ? Le choix de “soi-disant” n’est pas anodin, je ne joue pas avec. Il a un synonyme clair : “Prétendument”. Cela veut bien dire que tu écris que la carte prétend des performances qu’elle n’a pas. Ce n’est pas moi qui l’ai employé et je ne fais que te le renvoyer pour que tu l’assumes. Ou que tu le dénonce en disant simplement que tu as mal choisi ton expression. Ce qui ne me poserait pas de soucis. Je suis même persuadé que c’est le cas.

    C’est facile de ton côté de faire croire que je suis professoral et de tenter de faire venir à toi d’autres lecteurs avec ce stratagème. Perso je signe mes commentaires avec mon vrai nom. Facile donc de remonter les archives et de pointer du doigt des moments où je suis pointilleux en oubliant les dizaines de milliers de moments ou je laisse couler et ou je ne suis pas pointilleux. Facile de dire ”il fait toujours cela”… Mais moi j’assume mes écrits et effectivement je prend au sérieux les commentaires de mon blog.

    Laisser dire “soi-disant” efficace au sujet d’une Quadro c’est le début d’une fausse info. J’utilise des Quadro, je sais à quoi ça sert. J’ai une 1660 Ti en test, je sais ce qu’elle a dans le ventre. J’ai une HD7970 et une 680 en rayon, je sais ce qu’elles sont capables de donner. Les comparer n’est pas un conseil ici, d’abord parce que Orangina Rouge n’a pas de machine a remonter le temps pour les acheter ensuite parce que ce n’est pas l’info qu’il demande.

    Ton commentaire me pose soucis pour cela, et cela seulement.

    Dire qu’une Quadro c’est du pipeau et qu’une carte de 2011 offre les mêmes possibilités n’a aucun sens et je ne peut pas le laisser passer.

    @Pjotr:

    ““Quadro pour Photoshop”, aucun rapport avec Youtube dont tu parles… Pour utilisation professionnelle dans mon cadre de boulot (pas de RAW, pas de panoramas photos), je ne voyais pas de différence entre ma HD7970 et la Quadro.”

    Donc tu expliques à quelqu’un qui cherche une solution de montage vidéo que parce que tu n’as pas l’usage d’une carte pro qui aurait pourtant un intérêt avec sa propre utilisation, que cette carte pensée pour son usage n’est pas un produit valable ?

    Pour reprendre ton exemple c’est comme si quelqu’un qui voulait faire de la course automobile amateur demandait un conseil d’achat de voiture, tu lui expliquerais que les Porche sont pas utiles parce que avec ta 4L tu vas acheter du pain aussi vite en ville. Donc la Porche n’est pas un produit valable.

    Je ne vois pas l’intérêt de venir dire qu’une carte Quadro n’a pas d’intérêt pour faire de la retouche photo de JPG à quelqu’un qui demande si les CUDA sont utiles pour faire du montage vidéo Youtube ?

    “Et pour faire du Youtube, je maintiens, et persiste, même un genre de gopro suffirait à gérer une vidéo qualitativement suffisante. Mais connais-tu la finalité demandée ? Non.”

    C’est pour cela que je ne fais que répondre à sa question de base qui est : “Pour du montage vidéo via cuda, du coup une bonne carte , ce serait laquelle chez nvidia ? Pas de jeu du tous et pour des vieux pc type intel core I3 I5 de deuxième, troisième génération max.”

    Je ne parle pas de 1660 ni même d’un modèle en particulier, je répond, juste sur CUDA et Fréquences :

    “C’est assez simple : Plus tu as de coeurs, plus tu as de capacités de calcul. Plus la carte est haute en fréquence plus elle aura de performances pour ce travail.”

    Ce qui permet ensuite de comparer les différentes offres du marché facilement : D’une Geforce 1030 GT à 80/85€ avec 384 coeurs CUDA et une fréquence Boost de 1531 MHz. A une GTX 1650 à 160€ avec 896 CUDA et une fréquence de 1665 MHz. Deux cartes qui n’auront pas besoin a priori de changer les autres composants de la machine de destination, alimentation comprise.

    Tout le reste n’est qu’une réaction de ma part à ton “soi-disant” qui gomme d’un mot la réalité de ces cartes que sont les Quadro. A savoir des cartes pro pour un usage pro.

    Répondre
  • 25 avril 2019 - 17 h 35 min

    Euh, merci tous mais par pitié, on s’écorche pas pour ça !

    Je demande ici car je sais que beaucoup passent et connaissent les perf en montage avec cuda et windows (généralement, quand on parle carte graphique, on parle jeux ou décodage, pas vraiment de bench sous première ou blender alors qu’ici je sais qu’il y a des utilisateurs).

    Sinon, je peus en dire un peu plus sur un projet (les autres sont flous pour l’instant mais le principe va être le même, seul les ses sujets vont variés).

    Un blog (à priori avec chaine youtube) de cuisine.
    Fiches (avec un bon appareil), recette clé en main avec tuto bien ficelé et des astuces “de famille” (c’est de la cuisine asiatique).

    Le paternel est un fondu de photos en amateur (il a un canon, pour moi acheter à prix d’or, mais se sert au final plus d’un olympus “à l’ancienne” mais en numérique parce qu’il le trimbale tous le temps avec lui au contraire de son canon de compet).

    Il va lui passé son caméscope Panasonic pour tous ça (le caméscope l’énerve d’ailleurs parce qu’il est en avchd et que ça met des plombes en traitement sur son pc justement).

    Je sais qu’il utilise photoshop donc sa gosse doit avoir été biberonnée à la sauce adobe niveau numérique (et moi, avec mes linux, je ne suis d’aucune aide).

    La gopro, ils ont oublié direct (effet fisheyes affreux, même une Sony est reparti à la fnac. c’est pas pour eux).

    Niveau pc, je ne me souviens plus de leur generations de core I, mais je sais que c’est assez ancien vu que justement il était emmerdé avec son socket pour upgrader (donc gen 2, voir 3 max).

    Le pc de la gamine, je pense que c’est son ancien quad core avec son ancienne nvidia (fanless).

    Ah oui !
    le WAF !

    pour monsieur (qui voit une différence quand il upgrade sa carte graphique sous photoshop), le hic, c’est le bruit !
    (pc dans le salon donc fanless type HTPC homemade)

    pour sa gosse, le streaming, on en avait parlé vite fait mais elle, c’est l’adsl son problème (je pense pas que son abonnement tienne, alors que chez ces parents en fibre, ça passait).

    Bref, un paquet de problématique à prendre en compte.

    J’en saurais plus la semaine prochaine, on va re passer plusieurs jours tous ensemble et je sens qu’on va en parler pas mal (ça trotte dans la tête de plein de monde en fait. même des retraités !).

    En tous cas, re merci à tous mais pas de clash pour pour ça SVP

    Répondre
  • 25 avril 2019 - 20 h 16 min

    @Pierre Lecourt (qui donne son vrai nom, mais on s’en fiche, hein ?!)
    Tu restes encore sur ce ton professoral, c’est très irritant pour ton lectorat.
    Les fautes d’orthographes que j’ai pu faire et dont tu te délectes à reprendre systématiquement… je passe… tes articles en contiennent aussi, et je ne m’amuse pas à utiliser une coquille pour “tenter de faire venir à toi d’autres lecteurs avec ce stratagème” (je te reprend, car tu es pareil).

    Bref, j’ai souvenir que tu désires avoir toujours le dernier mot, en tentant d’argumenter en mélangeant tout et n’importe quoi depuis mes propos. La preuve, ca continue !

    Désolé, mon idée de 1660 overkill pour ce type d’utilisation PS et du montage vidéo (pas de Star Wars, hein!) pour Youtube, je reste positionné dessus.
    (au fait, si je parle de quadro, c’est que j’utilise au taf…)

    Allez mon cher Pierre, je te laisse remettre encore un peu d’essence sur le feu, en mélangeant tout ce que je dis, et “tenter de faire venir à toi d’autres lecteurs avec ce stratagème”.

    Pjotr (même pseudo depuis bien longtemps)

    Répondre
  • 25 avril 2019 - 20 h 45 min

    @Pjotr:

    “(qui donne son vrai nom, mais on s’en fiche, hein ?!)”

    Ben non, parce que cela te permet d’incriminer une personne alors que tu restes inattaquable puisque dilué dans l’anonymat. Parce que demain tu peux changer de pseudo. Parce que cela t’offre l’opportunité de monter un “dossier”.

    “on” : Qui est ce on ? Si ce n’est une tentative de rassembler autour de ton avis d’autres lecteurs ?

    “Tu restes encore sur ce ton professoral, c’est très irritant pour ton lectorat.”
    Tu as fait un sondage ?

    “Les fautes d’orthographes que j’ai pu faire et dont tu te délectes à reprendre systématiquement… je passe…”
    Quelles fautes d’orthographe ? Où ? Quand ? Jamais je ne le fait. Je parle ici d’un problème de sens. De sens. Tu écris quelque chose qui me semble faux. Je le souligne car c’est à mon sens important de le souligner. Je ne remet nullement en cause ton orthographe et serait mal placé pour le faire.

    “Bref, j’ai souvenir que tu désires avoir toujours le dernier mot, en tentant d’argumenter en mélangeant tout et n’importe quoi depuis mes propos. La preuve, ca continue !”

    Mais je ne mélange rien. Tu écris, en substance, que les Quadro c’est du pipeau et que cela ne sert à rien : “Pour le photoshop, perso il tourne très très bien sur une (très) vieille HD7970… jamais vu aucune différence avec un autre ordi que j’avais à disposition doté d’une Quadro soit-disant dédiée à ce genre de bouiboui”
    -> Je ne fais que reprendre ce point. Les Quadro ce n’est pas une technologie trompeuse inventée par Nvidia mais qui ne sert à rien. C’est tout ce qui m’intéresse.

    “Bref, j’ai souvenir que tu désires avoir toujours le dernier mot, en tentant d’argumenter en mélangeant tout et n’importe quoi depuis mes propos. La preuve, ca continue !”

    tu la vois là, la différence entre un commentateur qui signe ses commentaire et un anonyme qui peut changer de pseudo. Tu viens juste de monter un “dossier” avec des “souvenirs”. Comment puis-je le faire moi si tu changes de pseudo demain ?

    Note que je peux tout de même déjà retourner ton argument.
    ->Tu tentes d’argumenter
    ->Tu mélanges tout et n’importe quoi (orthographe, quadro)
    ->Tu continues également.

    “Désolé, mon idée de 1660 overkill pour ce type d’utilisation PS et du montage vidéo (pas de Star Wars, hein!) pour Youtube, je reste positionné dessus.”

    Mais je n’ai JAMAIS dis le contraire ! relis les commentaires précédents. Je n’ai jamais parlé de 1660 ou de Quadro pour lui répondre ! Je n’ai évoqué que le fait que les coeurs CUDA et les fréquences sont des briques a prendre en compte pour choisir sa solution. Tu lui répond que le 1660 est overkill, je n’ai rien a dire la dessus. Je ne te contredis pas du tout. Je n’en parle même pas !

    N’essaye pas de me faire passer pour un vilain qui cherche a envenimer la situation alors que je t’ouvre une porte de sortie dans mon précédent commentaire. Il n’y a qu’un point sur lequel je tique, celui de dire que la Quadro c’est “soi-disant” inutile en vidéo. Je t’offre l’occasion de compléter/amender cette affirmation. Chose facile si tu utilises ce type d’équipement professionnellement. Tu vas trouver sans doute cela trop “professoral” mais c’est de mon côté le seul point sur lequel je tique. Le reste, je n’ai pas grand chose a ajouter.

    “Pjotr (même pseudo depuis bien longtemps)”

    Très bien mais ce n’est pas le soucis. On m’identifie facilement ici, toi beaucoup moins. Tu en conviendra.

    Comprend bien que je n’ai rien contre toi, relis le déroulé des messages. tu verras que mon propos se focalise sur un seul et unique point comme évoqué plus haut. Je me fiche de ton orthographe, je suis plutôt d’accord avec ton analyse des besoins et de la non utilité de la 1660. Le seul truc qui me chiffonne c’est de laisser passer un écrit qui laisse a croire qu’une carte Pro est une invention marketing face à une solution grand public qui propose en réalité les mêmes performances. C’est juste faux.

    Sur ce, je n’ai aucune amertume ni rancune. Ne va pas croire que je savoure une quelconque chasse aux sorcières, je suis plutôt amer de ce genre de discours teinté d’incompréhension.

    Répondre
  • 25 avril 2019 - 20 h 45 min

    @Pjotr: Mais moi c’est ce que je demande !
    L’avis d’un “professeur tournesol” éclairé !

    Et ma demande d’une carte “pour tous”, c’est parce que j’ai des machines vieillissantes dans ma famille (et pourtant LARGEMENT encore vaillantes), aucune ne me semble avoir besoin de faire racheter des bécanes complètes ou kit evo (même si en ce moment, je les ferais tous migrer vers AMD), et eux ne veulent que de l’upgrade “souple” sans rien changer d’autre qu’une CG (il n’y a pas que le poste info à prendre en compte là ) !

    Désolé d’avoir foutu la merde ici mais finalement, NON aucun regret !

    Je pense pas être, moi et ma famille, les seul quand on parle de carte graphique à se poser cette question

    Répondre
  • 25 avril 2019 - 21 h 03 min

    Ca continue ! Comme prévu ! Encore et encore ! Haha !
    Merci professeur !!!

    Entre nous, ne me fais pas croire que ton CMS n’est pas capable de te montrer mon IP et mon adresse mail qui n’ont pas changé depuis un certain temps. Mais bon…

    Ton discours me reste fatiguant, désolé. C’était juste pour te donner mon avis de lecteur du blog.

    Je te laisse en remettre une couche… en tentant de m’expliquer la vie (encore et encore) avec ce ton professoral éternel, une fois de plus, à toi maintenant (haha! moi aussi j’aime bien!) :

    Répondre
  • 25 avril 2019 - 21 h 13 min

    @Pierre Oops désolé… croisement de messages…

    Ok, “Sur ce, je n’ai aucune amertume ni rancune. Ne va pas croire que je savoure une quelconque chasse aux sorcières, je suis plutôt amer de ce genre de discours teinté d’incompréhension.”
    Moi non plus. Je pense qu’il semble que nous n’arrivions pas à nous comprendre l’un l’autre.
    Le ton que tu emploies me fatigue, mais ca me regarde.
    Bref, pour terminer (j’espère), j’utiliserai aussi tes propos qui me conviennent tout à fait “Sur ce, je n’ai aucune amertume ni rancune.”
    Bien à toi.

    @Orangina
    Désolé pour cet échange apparemment virulant dans lequel tu t’es retrouvé mêlé auquel tu ne t’attendais certainement pas, non je te rassures tu n’as pas “foutu la merde” ;) Et j’imagine que Pierre nous souhaitera toujours la bienvenue ;)

    Répondre
  • LAISSER UN COMMENTAIRE

    *

    *