Le problème n'est pas le DLSS 3.0 mais le fait que nvidia "scam" les clients en vendant des cartes graphiques trop chère ou les performances proviennent n'ont pas principalement du GPU en lui même mais d'une technologie (DLSS 3.0 dans notre case).
je suis d'accord sur le fait que Nvidia abusent au niveau du prix de leurs CG mais il faut que vous compreniez que dans le puce de la CG il y a une partie qui est dedié aux DLSS donc forcement il y a moins de place pour mettre des Cuda core (c'est ce qui fait les performances de la carte en quelque sorte)
@@Raykeur21 toi t'as jamais vu la gueule de PCB de la 4080 ou 4070 xD il y aurait la place pour doubler la puissance surtout mettre des centaines de Gb de Vram si il le souhait :) tout ceci n'est qu'un choix commercial point barre, la place ils l'ont je peux te l'assurer
@@mike_datpseudo il n'y a pas que la suite logicielle il y a aussi le matos qui diffère. Entre une 2080 et une 4080 par exemple la différence n'est pas que sur le dlss... faut pas exagérer non plus
Triché ? Non, ce serait comme dire que jouer en 1080 au lieu de jouer en 4k c'est triché. Le Frame Générator est top, 99% identique à l'original, juste une latence légèrement en hausse. Un peu comme sur consoles, mettre un jeu en 900p, puis l'upscaler ... Utiliser le FSR ... Ce n'est pas tricher, c'est juste se rapprocher au plus près de l'image originale, avec un minimum de perte de qualité. Heureusement, sinon faudrait acheter des CG à 1000€ pour tenir dans le temps. La partie vidéo est la partie qui demande le plus de calcul. Les GPU évoluent lentement, tu peux garder ton GPU en sautant 2 génération, soit 5/6 ans, et tu peux toujours jouer. J'ai connu l'époque où il fallait changer son GPu tous les 2 ans, juste avant les années 2000, et un PC c'était 2500€ d'aujourd'hui ... Aujourd'hui avec 1000€ tu te fais un bon truc, à l'époque avec 1000€ tu avais limite un truc que pour la bureautique ... Quoi qu'on en dise, c'est devenu plus abordable, avec un smic aujourd'hui tu te fais un PC gamer, à l'époque c'était 3 salaires au smic pour un bon truc ... Les gens ne s'en rendent pas compte. Ils sont sur 1000€, pour un PC, alors que normalement c'est 200/2500€ pour jouer dans de bonnes conditions, et tout en le gardant assez longtemps.
Le DLSS ou FSR sont du downgrade, que nous le voulions ou non. Que le résultat ce rapproche d'un jeu en natif ou non ca ne change rien c'est bien du downgrade. Donc à partir de la je peux répondre "oui c'est tricher que d'indiquer des résultats de benchmark avec le dlss ou fsr activé". A savoir que qu'importe le mode de DLSS choisi(perf ou beauté) cela rajoute aussi une latence, quoi qu'on fasse. Aprés est-ce que le DLSS est inutile, je dirais non et il peut dans certains cas trouver son utilité mais par contre pour faire des bench ca je trouve ça juste honteux ! ps : et très bonne video au passage, t'as rendu ca audible pour les néophytes en herbes je pense
Gars je joue plus en natif de puis très très longtemps je suis en full diss qualité même quand je peux trouver en natif je veux quand même le dlss pourquoi ? Parceque le jeu est plus net.😂🤷♂️et jais plus de fps quand que du + le natif c’est trop moche face au dlss qualité
Je regarde même des vidéo avec l’upscale sur TH-cam par exemple pourquoi ? Parceque la vidéo et plus net 🤷♂️les technologique sont là suite du Gaming mec clairement sachant que on a de plus en plus de carte puissante et qui sont silencieuse!! Non parceque j’avais un avion de chasse moi avant (rtx3070ti) horrible ça chaufer comme jamais et ça hurler. Mtn j’ais même pas l’impression de jouer tellement elle fait pas de bruit😂(rtx4070❤)
Moi la question que je me pose c’est est-ce que les développeurs ne négligent pas l’optimisation vu qu’ils y a maintenant le dlss et le fsr ? Puis j’ai remarqué que les AAA sorties depuis se début d’année sont une catastrophe au niveau optimisation
Quel plaisir tes vidéos, simple de compréhension, fluide, tout pour être parfait ❤ je te suis de loin depuis le JDH et vraiment toutes tes chroniques sont des maîtres classes 🔥🔥🔥🔥
Petit doute / question sur les ombres raytracing : je suis pas sur que toutes les ombres soient gérées par le raytracing, de plus vu qu'il est désactivable, ils doivent le prévoir dans tout les cas : auto-baked ou pas. Sur CoD le raytracing était mis sur les objets dynamiques, le reste étant toujours prérendu.
I'm playing this now with a 7900 xtx and 9800x3d at 3440x1440p. Ultra settings, ray tracing on, and with FSR. The game looks amazing I see no difference in the graphics with FSR on or off. Only in fps
L'argument du Ray Tracing qui permet aux développeurs de gagner du temps sur le travail des éclairages est faux dans tous les jeux où le Ray Tracing est optionnel, c'est à dire presque tous, puisqu'en plus de l'éclairage classique il faut aussi implémenter le Ray Tracing, et donc bien plus de travail. On remarque aussi qu'il faut une série RTX4000 obligatoirement pour le DLSS 3, là où le FSR2 est compatible Nvidia sur ma carte RTX3000 par exemple. On verra pour le FSR3 la compatibilité GPU mais AMD fait mieux de ce côté. Il serait intéressant de ne pas faire de raccourcis et d'expliquer la technologie jusqu'au bout, avantages et inconvenients... Et puis le Ray Tracing c'est un peu le PhysX de l'époque, beaucoup de chutes de performances, de chauffe et de consommation pour pas grand chose.
Bonjour, La vidéo est top, très pédagogique concise et claire ! Mais il me viens une question à la suite. Est-ce que le DLSS qui permet de faire des jeux plus " facilement ", ne nuit pas a la qualité de l'optimisation des jeux ? J'ai l'impression qu'on compte sur le DLSS pour gagner du temps là dessus. Et si c'est le cas, les joueurs PC ne devraient-ils pas arrêter de prendre en considération les performances qu'une carte fournit sur des gros jeux en natifs ? Au final on en arrive à la même conclusion, l'époque où le seul critère technologique pour le JV dans le choix d'une carte était la puissance brute et le nombre de FPS en natif est révolue. Il faudra analyser précisément le logiciel puisque celui-ci conditionnera bien plus encore la qualité de l'expérience.
C'est un vrai point, mais du même temps, on peut aussi inverser la question. Est-ce que les technologies comme le DLSS/FSR/XeSS n'aident justement pas à faire tourner des jeux sur PC, la plateforme où la variété de configurations existantes est tellement immense qu'optimiser de manière approfondie un titre précis est une tâche quasi impossible ? Honnêtement, les deux questions qu'on soulève au bout sont tellement complexes à analyser par nature que je ne suis même pas sûr qu'il y ait une vraie réponse à apporter à ça haha
Salut j'ai une question, y a til une grosse différence graphique entre le dlss qualité et celui sur performance, ? est ce que ca faut le coup de perdre une vingtaine de fps pour le mettre sur qualité ? de ce que je vois sur les test a par celui sur ultra qualité qui est infame je vois pas une si grosse différence (sur une config genre ryzen 5 7600 4070 super 1440p)
C'est vrai que chez NVIDIA c'est clairement abusé, les mecs ont juste trop d'avance ! clairement les gpu s'upgrade très niveau performance, mes grace au DLSS les perfs sont juste dingue !
le niveau de vram des 4070-4070ti est décevant pour des cartes prévue pour du ultra 1440p surtout au vu du prix. sinon le dlss 3 est intéressant pour les jeux solo ou la latence compte pas.
Ok mais la vidéo néglige un point. Ces technologies permettent aussi d'optimiser les jeux avec les pieds et puis bon le dlss ou le fsr avec frame generation cachera la misère. Donc pour ceux qui n'ont pas les dernières technologies d'autant qu'avec nvidia y'a pas trop de rétrocompatibilité, les possesseurs de cartes d'il y a une génération ou deux iront bien se faire voir.
Salut ! Est ce que upgrade ma 2060 à une 4060 ti est une bonne affaire ? (Sachant que je joue en 1080p) Ps +1 tu es super à l'aise et très claire dans t'as vidéo et ça la rend tellement plus ludique à regarder 😄
En vrai, ça m'étonnerait pas que ça finisse par arriver. Plusieurs marchés de la tech ont vécu ça. Les ordinateurs portables notamment ont fini par se spécialiser à fond pour survivre, en mode ultrabook/gamer/ultra léger/transformable... Pourquoi pas les CG, j'avoue. A voir ce qu'il adviendra !
C'est ce que je me suis dit, les GPU sont à la traîne par rapport aux techno écrans, QHD, ,4K, 240Hz… et des développeurs de jeux. Obligés de faire des logiciels DLSS pour garder le rythme Vas faire tourner un Cyberpunk avec le GPU le plus cher du marché, mets ton jeu en qualité medium et peut-être, tu atteindras les 240fps en 4K… Sinon fait ton choix : Qualité ou fluidité ! Mais les 2 tu n'auras pas.
Jai une 4070Ti Le RT bouffe tellement les performances pour rien sur Warhammer 40k darktide DLSS 3 + RT je suis à 140 150 FPS j'ai désactivé le RT je suis à 220 fps.... le RT a bannir et inutile... bien sur tout en ultra à fond
Ah enfin quelqu’un qui le dit merci cher confrère (étant du milieu) évidemment que hormis l aspect tarifaire discutable il faut savoir que derrière ce travail de software il y a de vraie collaboration pour aider les développeur la preuve avec le Unreal Engine 5.2 qui désormais intègre nativement les outils d’aide de nvidia pour Dlss 3.0 reflex and co / bien sûr que oui actuellement on paye plus une technologie qu’une carte graphique a l ancienne en perf pure de rasterisation ( bon quand même la 4090 est un MONSTRE ) mais cette technologie apporte beaucoup à nos jeux qui sont là ou qui vont arriver surtout qu’on demande aussi à avoir des écrans 4K / 21:9 / 32:9 avec 144 240 360 HZ voir même 1440p ou 1080p 500 HZ donc il faut les sortir ces chiffres aussi pour les grosses ou plus modestes Cg c’est l IA en backstage et en active stage qui seront l avenir :) bonne journée
La plupart des humains ne voit pas de différence entre 60 images/sec et 120 images/sec, mais ils nous sortent des écrans 500hz... C'est beau le marketing 😅
Les images créées s'enchaînent tranquillement, mais en s'arrêtant image par image (y a des vidéos qui le font sur TH-cam), on peut parfois voir des aberrations çà et là. On est encore au début de cette techno, y a toujours des améliorations à faire, mais en jeu je n'ai encore jamais vraiment ressenti de différence majeure. C'est moins fin que le natif, mais je consens au sacrifice pour le gain en fluidité sur des gros jeux solo facilement.
Bon. Moi j'ai 3000€ de budget pour un PC. A la fin de ta vidéo je sais toujours pas si je pars sur 7900XTX ou sur 4090. Parce que du coup, oui au moment T le DLSS3 c'est supérieur et Nvidia propose un RT plus stable etc.. Mais les séries 3000 peuvent meme pas avoir ce DLSS3. Donc le DLSS4 avec les séries 5000 on se le met dans le c** ? De l'autre coté, AMD met à jours tout ce qui peut être à jour et met en avant la retro compatibilité. Je sais plus où me foutre... Tu m'aides ? :D
Entre 7900XTX et RTX 4090, y a pas vraiment photo si t'as les moyens des deux : la RTX 4090 est juste le GPU le plus puissant du marché haha Et je comprends tes craintes, mais du même temps, faut voir qu'AMD a mis presque un an à ne serait-ce que proposer une alternative au DLSS3, et qu'au moment où ils l'ont lancé... Le DLSS 3.5 a été annoncé et est rétrocompatible pour booster les capacités RT. Et la techno est plutôt dingue. Donc voilà, pour moi y a pas photo !
@@OtaXou Merci pour ta réponse tu déchires haha. Allez, je vais aller sur la 4090 dans ce cas car mon budget peut l'englobé. Mais bordel, je me sentirai tellement sale si en 2025 ils annoncent un DLSS4 exclu aux RTX 5000. Sachant que le DLSS 3 et 3.5 n'ont rien a voir, la retro-compatibilité risque d'être compliqué sur des séries 2K 3K sans le DLSS3. Déjà que la 4090 affiche 38FPS en 4K avec le RT activé, j'ai du mal à envisager un apport vraiment constructif du DLSS3.5 pour les séries d'avant. J'espère me tromper. J'espère aussi VRAIMENT qu'ils vont pas faire les put** tous les deux ans en proposant des technos comme ça sans donner de quoi manger aux anciens. Dernière petite chose, un ecran 4K pour accompagner le tout en genre 27 pouces 144hz ca sert à quelque chose ? Ou vu la petitesse de l'écran c'est mieux un UltraWide QHD en genre 34/40 pouces ? Jusqu'ici je n'ai eu d'expérience QUE de la 1080p dans TOUTE MA VIE.
Ça me sert pour la prod, mais pour jouer sur cette diagonale, je privilégierai du 1440p avec un taux de rafraîchissement de mini 120 Hz et la meilleure dalle que je puisse trouver. La 4K je trouve intéressant à partir de 32" (et encore), mais avant ça c'est accessoire.
Je suis diamétralement opposé à votre avis. L'Apple silicon nous prouve le contraire. En fait ce que fait Nvidia, c'est juste des économies en R&D pour engrenager un max d'oseille, pcq c'est plus facile de prendre de vielles recettes en jouant juste sur la finesse de gravure et en augmentant le nombre de transistor, et d'ajouter un algo au dessus de tout ça ! Apple a fait ce qui était inimaginable il ya encore 5 ans en boostant la puissance sans pour autant atteindre les sommets dans la conso. Ce qu'il faudrait, c'est que AMD ou Intel, sortent une nouvelle Archi révolutionnaire pour les GPUs, comme ça, Nvidia se remuera le derche !
L'une des plus grosses annonces GPU de la dernière keynote Apple, c'était la création d'un moteur d'upscaling maison accéléré matériellement et l'addition du Ray tracing. Donc euh j'avoue que là, avec beaucoup de respect, je comprends pas trop ton point de vue puisque ça a au contraire tendance à confirmer la direction déjà prise par NVIDIA, AMD et Intel.
@@OtaXou c'est tout à fait logique dans ce cas car Apple ne fabrique pas de GPU dédié pour l'instant. De telles technologies ont beaucoup plus de sens dans des systèmes "embarqués", et je classe les ordinateurs portables et les téléviseurs dans cette catégorie.
Sache que les pilotes (drivers) sont ultra importants et acheter la 4090 RTX sans attendre 2 Ans tu n'auras jamais son plein rendement ! et ça varient en fonctions des cartes et model ! tu veux être sur du résultat ce n'est pas les cartes Pro au niveau hardwares que ça pèche mais le drivers est quasiment abouti à la techno sortie ! ;-) d'où les prix élevées ! "Les grands publics" sont moins prioritaires et fait petit à petit surtout pour que ça fonctionne et souvent mise à jour et le moteur et l'harmonisation matérielle est importante (vitale même) ! et avec RTX on est en total Next Gen alors que nvidia abusent un peu oui ! mais amd c'est pire quand GTA4 est sortie j'avais une 6970m dalle 120 Hz sur mon PC portable avec tridef 3D gta 4 été à 9 fps en 2D 3 ans plus tard plus de 120 fps et profit avec tridef 3d de la 3d avec des lunettes synchros à ma dalle 120 Hz et la seule chose et j'y avais veiller ! C'est d'avoir juste changer les drivers pour une techno très rare en native comme les jeux deus ex : human revolution qui lui fonctionné certes quelques glitchs) mais pas assez pour être notable ! et dans les drivers y'a de plus en plus de choses ! alors si alan wake 2 peut etre en mode misère avec le path tracing etc.... les experts savent normalement reglé les options par defauts sur chaque jeux pour les optimisés ! ;-) en soit je critique pas ta vidéo mais Tricher oui(mais temporairement) le temps que ce soit approfondi dans le temps sur les drivers ;-)
Alors moi j aimerai bien que tu m’aides ou quelqu un. J’active le dlss3 sur cyberpunk … sauf que je ne peux plus activer la synchro vertical … on me dit alors de l activer dans le panneau nvidia directement … sauf que là. Omg la latence est ENOOOOORME. et meme avec le low latence active. bref c´esT INJOUABLE. quelqu´un pourrait il m aider afin d avlir le dlss 3 une syncrho verticql et une faible latence svp.
ya pas 36 solution , sois tu prend un ecrans digne de ce nom donc forcement tu va ' lacher les enfers ' comme je le dit souvent donc ta cg aura plus de marge ou alors tu met la vsync sur rapide , la combine serais que si tu a un 144/165hz tu pose tes fps juste avant le 165hz par ex en mettant a 163fps sa te permet non seulement de gratter en latence et 2 tu reste dans la plage du gsync / freesync ^^ , dernierement j'avais remarqué que ma 3080 avec FG ( frame gen ) et dlss equilibré je pouvais grimpé a 230 fps sauf que j'avais du tearing du coup me suis pris un ecrans 240hz je te laisse deviné la suite xD ..
Le seul vrai problème, c'est que comme souvent depuis que le matos puissant se démocratise, les dev ne font plus aucun effort d'optimisation sur leurs jeux... Regarde les démo Amiga 500 ou autres de l'époque, le code tenait sur 10ko ou 20ko... et c'était génial, d'ailleurs il y avait des concours d'optimisations pour une machine donnée... maintenant c'est foutage de gueule et pognon... Ta machine de l'année passée ne suit pas ? Ben... change.... 🤮 Un peu comme les consoles... PS j'ai encore une PS2, PS3, PS4 et j'arrête là les consoles, je suis repassé au pc depuis 9 ans... Pourquoi?... PS3... PS3 slim, PS3 pro, PS3 HDD + gros... et idem pour PS4 et maintenant PS5... bientôt la PS5 pro... Édit sur PS3 fat les 2 gros mods Skyrim faisait tout beuguer (vampire loups garous etc ...) fallait la pro pour que ça tourne... Osef et Fuck... les consoles plus jamais pour moi.... Merci pour les vidéos 😊👍
Je trouve que ça reste de l'arnaque pur et simple, 1800€ pour une carte qui est incapable de faire tourner de gros jeux correctement, pour moi, c'est simplement la flemme d'optimiser un jeu, sinon arrêter de faire des graphismes de ouf et revoir ça a la baisse.
Je pense que l'importance grandissante de l'aspect logiciel peut etre un excellente chose, ce que je trouve dommage c'est de limiter celle ci au GPU haut de gamme, le dlss 3 serait logiquement bien plus utile sur une carte graphique plus ancienne qui commence a avoir du mal a faire tourner les jeux recents plutot que sur les toutes meilleures du marché qui permettent deja de jouer dans d'excellentes conditions a tout les jeux. Bien sur ni Nvidia ni AMD ne rendront ses technologies accesibles puisqu'elles augmenteraient drastiquement la durée de vie de nos cartes graphiques et donc limiterais leurs capacités a vendre de nouvelles cartes (peut etre qu'intel dans sa position de "challeger" decidera de rendre cette technologie accesible sur tout ses GPU pour gratter des parts de marché a Nvidia et AMD?)
Alors oui je suis d'accord avec ce que tu dis mais sache que AMD met en libre accès son FSR 2.0 sur tous les jeux qui le supporte et pour tous les GPU (que ce soit les GTX ou les vieilles RX) (ce qui permet à plein de monde de jouer avec une bonne fréquence d'images sans forcément acheter la dernière gen de GPU). Bonne journée à toi :D !
@@katiimelody j'étais pas du tout au courant, j'ai toujours eu des GPU NVIDIA mais c'est vrai que maintenant que tu le dis le FSR était disponible, je ne l'ai jamais activé en pensant qu'elle ne marcherait qu'avec une carte AMD mais du coup c'est bon a savoir. Maintenant c'est pas sur qu'AMD fasse la même chose avec les FSR 3.0 mais si ils le font ça serait vraiment incroyable pour se faire des PC entrée de gamme avec des supers perf
Ça me rappelle logiciel de Volkswagen pour tromper les tests anti-pollution. Ça affiche une meilleure définition et fluidité mais est-ce que ça améliore vraiment l'image ? Peut-être que c'est comme filmer une écran pourri avec une très bonne caméra : inutile
Pour le coup c'est pas vraiment ça. Ça sacrifie un peu de définition pour une meilleure fluidité, avec l'ajout du fait que l'IA vient maximiser le potentiel de l'image en définition plus basse.
Je viens de tester une RTX4070 et après plusieurs essais j'en conclue que la meilleure config c'est en natif sans artifice, du coup je viens sur youtube pour voir si je n'ai pas raté quelque chose et je tombe sur ta très bonne vidéo qui résume exactement mon ressenti, merci !
Dans les faits on augmente les fps de max 30% sauf qu'une frame sur deux est simulée donc l'impression de fluidité est là mais vous êtes moins compétitif.
Pour être honnête, je pense pas que le DLSS 3 ait sa place sur les jeux compétitifs de toute manière. D'ailleurs j'ai pas connaissance d'un jeu esport qui l'intègre, genre Valorant y a aucune option haha À mes yeux c'est pour le kiff sur les gros jeux en solo ou multi fun avant tout
Le problème n'est pas le DLSS 3.0 mais le fait que nvidia "scam" les clients en vendant des cartes graphiques trop chère ou les performances proviennent n'ont pas principalement du GPU en lui même mais d'une technologie (DLSS 3.0 dans notre case).
je suis d'accord sur le fait que Nvidia abusent au niveau du prix de leurs CG mais il faut que vous compreniez que dans le puce de la CG il y a une partie qui est dedié aux DLSS donc forcement il y a moins de place pour mettre des Cuda core (c'est ce qui fait les performances de la carte en quelque sorte)
@@Raykeur21 toi t'as jamais vu la gueule de PCB de la 4080 ou 4070 xD il y aurait la place pour doubler la puissance surtout mettre des centaines de Gb de Vram si il le souhait :)
tout ceci n'est qu'un choix commercial point barre, la place ils l'ont je peux te l'assurer
@@mike_datpseudo il n'y a pas que la suite logicielle il y a aussi le matos qui diffère.
Entre une 2080 et une 4080 par exemple la différence n'est pas que sur le dlss... faut pas exagérer non plus
après faut bien payer la techno
Triché ?
Non, ce serait comme dire que jouer en 1080 au lieu de jouer en 4k c'est triché.
Le Frame Générator est top, 99% identique à l'original, juste une latence légèrement en hausse.
Un peu comme sur consoles, mettre un jeu en 900p, puis l'upscaler ...
Utiliser le FSR ...
Ce n'est pas tricher, c'est juste se rapprocher au plus près de l'image originale, avec un minimum de perte de qualité.
Heureusement, sinon faudrait acheter des CG à 1000€ pour tenir dans le temps.
La partie vidéo est la partie qui demande le plus de calcul.
Les GPU évoluent lentement, tu peux garder ton GPU en sautant 2 génération, soit 5/6 ans, et tu peux toujours jouer.
J'ai connu l'époque où il fallait changer son GPu tous les 2 ans, juste avant les années 2000, et un PC c'était 2500€ d'aujourd'hui ...
Aujourd'hui avec 1000€ tu te fais un bon truc, à l'époque avec 1000€ tu avais limite un truc que pour la bureautique ...
Quoi qu'on en dise, c'est devenu plus abordable, avec un smic aujourd'hui tu te fais un PC gamer, à l'époque c'était 3 salaires au smic pour un bon truc ...
Les gens ne s'en rendent pas compte.
Ils sont sur 1000€, pour un PC, alors que normalement c'est 200/2500€ pour jouer dans de bonnes conditions, et tout en le gardant assez longtemps.
Je continue à parcourir ta chaine et je me régale devant la pertinence de tes propos et de tes sujets, encore bravo tu nous régale.
Le DLSS ou FSR sont du downgrade, que nous le voulions ou non. Que le résultat ce rapproche d'un jeu en natif ou non ca ne change rien c'est bien du downgrade.
Donc à partir de la je peux répondre "oui c'est tricher que d'indiquer des résultats de benchmark avec le dlss ou fsr activé".
A savoir que qu'importe le mode de DLSS choisi(perf ou beauté) cela rajoute aussi une latence, quoi qu'on fasse.
Aprés est-ce que le DLSS est inutile, je dirais non et il peut dans certains cas trouver son utilité mais par contre pour faire des bench ca je trouve ça juste honteux !
ps : et très bonne video au passage, t'as rendu ca audible pour les néophytes en herbes je pense
Gars je joue plus en natif de puis très très longtemps je suis en full diss qualité même quand je peux trouver en natif je veux quand même le dlss pourquoi ? Parceque le jeu est plus net.😂🤷♂️et jais plus de fps quand que du + le natif c’est trop moche face au dlss qualité
Je regarde même des vidéo avec l’upscale sur TH-cam par exemple pourquoi ? Parceque la vidéo et plus net 🤷♂️les technologique sont là suite du Gaming mec clairement sachant que on a de plus en plus de carte puissante et qui sont silencieuse!! Non parceque j’avais un avion de chasse moi avant (rtx3070ti) horrible ça chaufer comme jamais et ça hurler. Mtn j’ais même pas l’impression de jouer tellement elle fait pas de bruit😂(rtx4070❤)
Super vidéo !! Hate de voir la vidéo sur le fsr 3 !!
Moi la question que je me pose c’est est-ce que les développeurs ne négligent pas l’optimisation vu qu’ils y a maintenant le dlss et le fsr ?
Puis j’ai remarqué que les AAA sorties depuis se début d’année sont une catastrophe au niveau optimisation
non pas tous Resident evil remake et atomic heart sont assez bien optimisé
Quel plaisir tes vidéos, simple de compréhension, fluide, tout pour être parfait ❤ je te suis de loin depuis le JDH et vraiment toutes tes chroniques sont des maîtres classes 🔥🔥🔥🔥
Merci infiniment, ça me touche beaucoup de lire ça !
Super vidéo mais vraiment si tu peux sortir plus de contenu explicatifs de ce genre je suis preneur
C'est dans les plans pour sûr ! Aussi bien en shorts qu'en grosse vidéo comme ça, selon le sujet !
Petit doute / question sur les ombres raytracing : je suis pas sur que toutes les ombres soient gérées par le raytracing, de plus vu qu'il est désactivable, ils doivent le prévoir dans tout les cas : auto-baked ou pas. Sur CoD le raytracing était mis sur les objets dynamiques, le reste étant toujours prérendu.
Merci pour cet éclairage, je n'y avais pas pensé mais ça me semble assez évident maintenant, et cohérent avec la montée en puissance de l'IA
I'm playing this now with a 7900 xtx and 9800x3d at 3440x1440p. Ultra settings, ray tracing on, and with FSR. The game looks amazing I see no difference in the graphics with FSR on or off. Only in fps
Content que YT m'aie recommandé cette chaîne ! Je m'abonne ! Bonne vidéo !
5:29 - la 3070 Ti en 4K rastérisation à 61 FPS sur cyberpunk ??? Soit 19 FPS de plus que la 4090...
Très bien expliqué ta vidéo. Merci infiniment pour tes explications. +abo ;)
Merci beaucoup et bienvenue par ici !
Bravo pour la chaîne, très didactique j'ai trouvé les infos simplement alors que tout cela restait vague. Aller hop abonné!
L'argument du Ray Tracing qui permet aux développeurs de gagner du temps sur le travail des éclairages est faux dans tous les jeux où le Ray Tracing est optionnel, c'est à dire presque tous, puisqu'en plus de l'éclairage classique il faut aussi implémenter le Ray Tracing, et donc bien plus de travail.
On remarque aussi qu'il faut une série RTX4000 obligatoirement pour le DLSS 3, là où le FSR2 est compatible Nvidia sur ma carte RTX3000 par exemple.
On verra pour le FSR3 la compatibilité GPU mais AMD fait mieux de ce côté.
Il serait intéressant de ne pas faire de raccourcis et d'expliquer la technologie jusqu'au bout, avantages et inconvenients...
Et puis le Ray Tracing c'est un peu le PhysX de l'époque, beaucoup de chutes de performances, de chauffe et de consommation pour pas grand chose.
Merci pour cette vidéo ! Clair, rapide et de l'humour :D
Bonjour,
La vidéo est top, très pédagogique concise et claire ! Mais il me viens une question à la suite. Est-ce que le DLSS qui permet de faire des jeux plus " facilement ", ne nuit pas a la qualité de l'optimisation des jeux ? J'ai l'impression qu'on compte sur le DLSS pour gagner du temps là dessus.
Et si c'est le cas, les joueurs PC ne devraient-ils pas arrêter de prendre en considération les performances qu'une carte fournit sur des gros jeux en natifs ?
Au final on en arrive à la même conclusion, l'époque où le seul critère technologique pour le JV dans le choix d'une carte était la puissance brute et le nombre de FPS en natif est révolue. Il faudra analyser précisément le logiciel puisque celui-ci conditionnera bien plus encore la qualité de l'expérience.
C'est un vrai point, mais du même temps, on peut aussi inverser la question. Est-ce que les technologies comme le DLSS/FSR/XeSS n'aident justement pas à faire tourner des jeux sur PC, la plateforme où la variété de configurations existantes est tellement immense qu'optimiser de manière approfondie un titre précis est une tâche quasi impossible ?
Honnêtement, les deux questions qu'on soulève au bout sont tellement complexes à analyser par nature que je ne suis même pas sûr qu'il y ait une vraie réponse à apporter à ça haha
Salut j'ai une question, y a til une grosse différence graphique entre le dlss qualité et celui sur performance, ? est ce que ca faut le coup de perdre une vingtaine de fps pour le mettre sur qualité ? de ce que je vois sur les test a par celui sur ultra qualité qui est infame je vois pas une si grosse différence (sur une config genre ryzen 5 7600 4070 super 1440p)
salut , pour moi en 1440p c'est dlss balanced maximum et en 4k tu peux mettre dlss perf ( pas l'ultra perf )
Salut,
Vidéo super pertinente, merci beaucoup et je n'avais jamais pensé à le poser de cette façon là.... un p'tit like comme demandé 👍
C'est vrai que chez NVIDIA c'est clairement abusé, les mecs ont juste trop d'avance ! clairement les gpu s'upgrade très niveau performance, mes grace au DLSS les perfs sont juste dingue !
le niveau de vram des 4070-4070ti est décevant pour des cartes prévue pour du ultra 1440p surtout au vu du prix. sinon le dlss 3 est intéressant pour les jeux solo ou la latence compte pas.
Ok mais la vidéo néglige un point. Ces technologies permettent aussi d'optimiser les jeux avec les pieds et puis bon le dlss ou le fsr avec frame generation cachera la misère. Donc pour ceux qui n'ont pas les dernières technologies d'autant qu'avec nvidia y'a pas trop de rétrocompatibilité, les possesseurs de cartes d'il y a une génération ou deux iront bien se faire voir.
Jai une question j'hésite entre 4060 et 3060 ti vu le dlss sur la 4060 elle est moin cher en ce moment que la 3060 ti
Dans ce cadre là y a pas photo, 4060 !
En activant le dlss est ce que la température augmente du gpu ?
Nan ! Le DLSS n'est pas un overclock, il n'y a pas de raison qui expliquerait une augmentation de température.
@@OtaXou d'accord merci
@@OtaXou donc le mieux cest de toujours lactiver ? Meme si on a une bonne config cest ca pour gagner du fps ?
Salut ! Est ce que upgrade ma 2060 à une 4060 ti est une bonne affaire ? (Sachant que je joue en 1080p)
Ps +1 tu es super à l'aise et très claire dans t'as vidéo et ça la rend tellement plus ludique à regarder 😄
Yo ! Je te conseille de regarder mon test de la 4060 classique. Je pense qu'elle suffit plutôt que la Ti, surtout en considérant le DLSS3 !
J'hésite entre la 4060 et la 3060 ti je pense le dlss 3 est un point a pas négliger
@@squall1710 je suis finalement parti sur la Rx 6800xt de chez AMD les prix étant presque équivalent aux prix d'une Rtx 3070 je me suis fait plaisir 😆
@@killian_lgdc a quel prix svp?
Peut être voir pour des cartes spécialisés comme le faisait 3dfx pour la 3d dans les années 90. Ne serait-il pas une solution viable ??
En vrai, ça m'étonnerait pas que ça finisse par arriver. Plusieurs marchés de la tech ont vécu ça. Les ordinateurs portables notamment ont fini par se spécialiser à fond pour survivre, en mode ultrabook/gamer/ultra léger/transformable... Pourquoi pas les CG, j'avoue. A voir ce qu'il adviendra !
C'est ce que je me suis dit, les GPU sont à la traîne par rapport aux techno écrans, QHD, ,4K, 240Hz… et des développeurs de jeux.
Obligés de faire des logiciels DLSS pour garder le rythme
Vas faire tourner un Cyberpunk avec le GPU le plus cher du marché, mets ton jeu en qualité medium et peut-être, tu atteindras les 240fps en 4K…
Sinon fait ton choix : Qualité ou fluidité ! Mais les 2 tu n'auras pas.
led sur nos configs euh ca change rien XPTDR :D juste le look et moi j'aime ^^
Jai une 4070Ti Le RT bouffe tellement les performances pour rien sur Warhammer 40k darktide DLSS 3 + RT je suis à 140 150 FPS j'ai désactivé le RT je suis à 220 fps.... le RT a bannir et inutile... bien sur tout en ultra à fond
Ah enfin quelqu’un qui le dit merci cher confrère (étant du milieu) évidemment que hormis l aspect tarifaire discutable il faut savoir que derrière ce travail de software il y a de vraie collaboration pour aider les développeur la preuve avec le Unreal Engine 5.2 qui désormais intègre nativement les outils d’aide de nvidia pour Dlss 3.0 reflex and co / bien sûr que oui actuellement on paye plus une technologie qu’une carte graphique a l ancienne en perf pure de rasterisation ( bon quand même la 4090 est un MONSTRE ) mais cette technologie apporte beaucoup à nos jeux qui sont là ou qui vont arriver surtout qu’on demande aussi à avoir des écrans 4K / 21:9 / 32:9 avec 144 240 360 HZ voir même 1440p ou 1080p 500 HZ donc il faut les sortir ces chiffres aussi pour les grosses ou plus modestes Cg c’est l IA en backstage et en active stage qui seront l avenir :) bonne journée
La plupart des humains ne voit pas de différence entre 60 images/sec et 120 images/sec, mais ils nous sortent des écrans 500hz... C'est beau le marketing 😅
Super video merci !
Tu ma bien expliqué merci 🙏
Est ce que les fps crées par les technologies se voient autant que les fps normaux ?
Les images créées s'enchaînent tranquillement, mais en s'arrêtant image par image (y a des vidéos qui le font sur TH-cam), on peut parfois voir des aberrations çà et là. On est encore au début de cette techno, y a toujours des améliorations à faire, mais en jeu je n'ai encore jamais vraiment ressenti de différence majeure. C'est moins fin que le natif, mais je consens au sacrifice pour le gain en fluidité sur des gros jeux solo facilement.
Ok merci
Bon. Moi j'ai 3000€ de budget pour un PC. A la fin de ta vidéo je sais toujours pas si je pars sur 7900XTX ou sur 4090. Parce que du coup, oui au moment T le DLSS3 c'est supérieur et Nvidia propose un RT plus stable etc.. Mais les séries 3000 peuvent meme pas avoir ce DLSS3. Donc le DLSS4 avec les séries 5000 on se le met dans le c** ? De l'autre coté, AMD met à jours tout ce qui peut être à jour et met en avant la retro compatibilité. Je sais plus où me foutre... Tu m'aides ? :D
Entre 7900XTX et RTX 4090, y a pas vraiment photo si t'as les moyens des deux : la RTX 4090 est juste le GPU le plus puissant du marché haha Et je comprends tes craintes, mais du même temps, faut voir qu'AMD a mis presque un an à ne serait-ce que proposer une alternative au DLSS3, et qu'au moment où ils l'ont lancé... Le DLSS 3.5 a été annoncé et est rétrocompatible pour booster les capacités RT. Et la techno est plutôt dingue. Donc voilà, pour moi y a pas photo !
@@OtaXou Merci pour ta réponse tu déchires haha. Allez, je vais aller sur la 4090 dans ce cas car mon budget peut l'englobé. Mais bordel, je me sentirai tellement sale si en 2025 ils annoncent un DLSS4 exclu aux RTX 5000. Sachant que le DLSS 3 et 3.5 n'ont rien a voir, la retro-compatibilité risque d'être compliqué sur des séries 2K 3K sans le DLSS3. Déjà que la 4090 affiche 38FPS en 4K avec le RT activé, j'ai du mal à envisager un apport vraiment constructif du DLSS3.5 pour les séries d'avant. J'espère me tromper. J'espère aussi VRAIMENT qu'ils vont pas faire les put** tous les deux ans en proposant des technos comme ça sans donner de quoi manger aux anciens.
Dernière petite chose, un ecran 4K pour accompagner le tout en genre 27 pouces 144hz ca sert à quelque chose ? Ou vu la petitesse de l'écran c'est mieux un UltraWide QHD en genre 34/40 pouces ? Jusqu'ici je n'ai eu d'expérience QUE de la 1080p dans TOUTE MA VIE.
Ça me sert pour la prod, mais pour jouer sur cette diagonale, je privilégierai du 1440p avec un taux de rafraîchissement de mini 120 Hz et la meilleure dalle que je puisse trouver. La 4K je trouve intéressant à partir de 32" (et encore), mais avant ça c'est accessoire.
Merci pour tout tes réponses. Ça me conforte dans l'idée de prendre un écran qhd parce que le 4k en 32"+ avec un MHz correcte c'est hors de prix.
Mon plaisir, et merci d'être par ici !
Je suis diamétralement opposé à votre avis. L'Apple silicon nous prouve le contraire. En fait ce que fait Nvidia, c'est juste des économies en R&D pour engrenager un max d'oseille, pcq c'est plus facile de prendre de vielles recettes en jouant juste sur la finesse de gravure et en augmentant le nombre de transistor, et d'ajouter un algo au dessus de tout ça !
Apple a fait ce qui était inimaginable il ya encore 5 ans en boostant la puissance sans pour autant atteindre les sommets dans la conso. Ce qu'il faudrait, c'est que AMD ou Intel, sortent une nouvelle Archi révolutionnaire pour les GPUs, comme ça, Nvidia se remuera le derche !
L'une des plus grosses annonces GPU de la dernière keynote Apple, c'était la création d'un moteur d'upscaling maison accéléré matériellement et l'addition du Ray tracing. Donc euh j'avoue que là, avec beaucoup de respect, je comprends pas trop ton point de vue puisque ça a au contraire tendance à confirmer la direction déjà prise par NVIDIA, AMD et Intel.
@@OtaXou c'est tout à fait logique dans ce cas car Apple ne fabrique pas de GPU dédié pour l'instant. De telles technologies ont beaucoup plus de sens dans des systèmes "embarqués", et je classe les ordinateurs portables et les téléviseurs dans cette catégorie.
2080 ti = au same result que tu affiche ! et suis expert en info !!!!
Sache que les pilotes (drivers) sont ultra importants et acheter la 4090 RTX sans attendre 2 Ans tu n'auras jamais son plein rendement ! et ça varient en fonctions des cartes et model ! tu veux être sur du résultat ce n'est pas les cartes Pro au niveau hardwares que ça pèche mais le drivers est quasiment abouti à la techno sortie ! ;-) d'où les prix élevées ! "Les grands publics" sont moins prioritaires et fait petit à petit surtout pour que ça fonctionne et souvent mise à jour et le moteur et l'harmonisation matérielle est importante (vitale même) ! et avec RTX on est en total Next Gen alors que nvidia abusent un peu oui ! mais amd c'est pire quand GTA4 est sortie j'avais une 6970m dalle 120 Hz sur mon PC portable avec tridef 3D gta 4 été à 9 fps en 2D 3 ans plus tard plus de 120 fps et profit avec tridef 3d de la 3d avec des lunettes synchros à ma dalle 120 Hz et la seule chose et j'y avais veiller ! C'est d'avoir juste changer les drivers pour une techno très rare en native comme les jeux deus ex : human revolution qui lui fonctionné certes quelques glitchs) mais pas assez pour être notable ! et dans les drivers y'a de plus en plus de choses ! alors si alan wake 2 peut etre en mode misère avec le path tracing etc.... les experts savent normalement reglé les options par defauts sur chaque jeux pour les optimisés ! ;-) en soit je critique pas ta vidéo mais Tricher oui(mais temporairement) le temps que ce soit approfondi dans le temps sur les drivers ;-)
Alors moi j aimerai bien que tu m’aides ou quelqu un. J’active le dlss3 sur cyberpunk … sauf que je ne peux plus activer la synchro vertical … on me dit alors de l activer dans le panneau nvidia directement … sauf que là. Omg la latence est ENOOOOORME. et meme avec le low latence active. bref c´esT INJOUABLE. quelqu´un pourrait il m aider afin d avlir le dlss 3 une syncrho verticql et une faible latence svp.
ya pas 36 solution , sois tu prend un ecrans digne de ce nom donc forcement tu va ' lacher les enfers ' comme je le dit souvent donc ta cg aura plus de marge ou alors tu met la vsync sur rapide , la combine serais que si tu a un 144/165hz tu pose tes fps juste avant le 165hz par ex en mettant a 163fps sa te permet non seulement de gratter en latence et 2 tu reste dans la plage du gsync / freesync ^^ , dernierement j'avais remarqué que ma 3080 avec FG ( frame gen ) et dlss equilibré je pouvais grimpé a 230 fps sauf que j'avais du tearing du coup me suis pris un ecrans 240hz je te laisse deviné la suite xD ..
Le seul vrai problème, c'est que comme souvent depuis que le matos puissant se démocratise, les dev ne font plus aucun effort d'optimisation sur leurs jeux...
Regarde les démo Amiga 500 ou autres de l'époque, le code tenait sur 10ko ou 20ko... et c'était génial, d'ailleurs il y avait des concours d'optimisations pour une machine donnée... maintenant c'est foutage de gueule et pognon...
Ta machine de l'année passée ne suit pas ? Ben... change.... 🤮
Un peu comme les consoles...
PS j'ai encore une PS2, PS3, PS4 et j'arrête là les consoles, je suis repassé au pc depuis 9 ans...
Pourquoi?... PS3... PS3 slim, PS3 pro, PS3 HDD + gros... et idem pour PS4 et maintenant PS5... bientôt la PS5 pro...
Édit sur PS3 fat les 2 gros mods Skyrim faisait tout beuguer (vampire loups garous etc ...) fallait la pro pour que ça tourne...
Osef et Fuck... les consoles plus jamais pour moi....
Merci pour les vidéos 😊👍
par contre tu te trompe la 4090 en 4k ultra fait tourner cyberpunk a environ 70 fps
Je trouve que ça reste de l'arnaque pur et simple, 1800€ pour une carte qui est incapable de faire tourner de gros jeux correctement, pour moi, c'est simplement la flemme d'optimiser un jeu, sinon arrêter de faire des graphismes de ouf et revoir ça a la baisse.
Je pense que l'importance grandissante de l'aspect logiciel peut etre un excellente chose, ce que je trouve dommage c'est de limiter celle ci au GPU haut de gamme, le dlss 3 serait logiquement bien plus utile sur une carte graphique plus ancienne qui commence a avoir du mal a faire tourner les jeux recents plutot que sur les toutes meilleures du marché qui permettent deja de jouer dans d'excellentes conditions a tout les jeux. Bien sur ni Nvidia ni AMD ne rendront ses technologies accesibles puisqu'elles augmenteraient drastiquement la durée de vie de nos cartes graphiques et donc limiterais leurs capacités a vendre de nouvelles cartes (peut etre qu'intel dans sa position de "challeger" decidera de rendre cette technologie accesible sur tout ses GPU pour gratter des parts de marché a Nvidia et AMD?)
Alors oui je suis d'accord avec ce que tu dis mais sache que AMD met en libre accès son FSR 2.0 sur tous les jeux qui le supporte et pour tous les GPU (que ce soit les GTX ou les vieilles RX) (ce qui permet à plein de monde de jouer avec une bonne fréquence d'images sans forcément acheter la dernière gen de GPU). Bonne journée à toi :D !
@@katiimelody j'étais pas du tout au courant, j'ai toujours eu des GPU NVIDIA mais c'est vrai que maintenant que tu le dis le FSR était disponible, je ne l'ai jamais activé en pensant qu'elle ne marcherait qu'avec une carte AMD mais du coup c'est bon a savoir. Maintenant c'est pas sur qu'AMD fasse la même chose avec les FSR 3.0 mais si ils le font ça serait vraiment incroyable pour se faire des PC entrée de gamme avec des supers perf
J'en ai touché mot sur le JDH yes, mais je pense que je ferai une plus grande vidéo sur l'open source et ses avantages
@@patec4rb0 le XeSS de Intel est aussi activable sur des anciennes cartes
Ça me rappelle logiciel de Volkswagen pour tromper les tests anti-pollution. Ça affiche une meilleure définition et fluidité mais est-ce que ça améliore vraiment l'image ? Peut-être que c'est comme filmer une écran pourri avec une très bonne caméra : inutile
Pour le coup c'est pas vraiment ça. Ça sacrifie un peu de définition pour une meilleure fluidité, avec l'ajout du fait que l'IA vient maximiser le potentiel de l'image en définition plus basse.
Je viens de tester une RTX4070 et après plusieurs essais j'en conclue que la meilleure config c'est en natif sans artifice, du coup je viens sur youtube pour voir si je n'ai pas raté quelque chose et je tombe sur ta très bonne vidéo qui résume exactement mon ressenti, merci !
Dans les faits on augmente les fps de max 30% sauf qu'une frame sur deux est simulée donc l'impression de fluidité est là mais vous êtes moins compétitif.
Pour être honnête, je pense pas que le DLSS 3 ait sa place sur les jeux compétitifs de toute manière. D'ailleurs j'ai pas connaissance d'un jeu esport qui l'intègre, genre Valorant y a aucune option haha À mes yeux c'est pour le kiff sur les gros jeux en solo ou multi fun avant tout
je vien de découvrir et serieux tres bien ta vidéo simple et éfficace comme je les aime
Beau boulot !
Perso, natif sinon rien. Mais après chacun ses goûts bien sûr.
Tout à fait !
Et chacun sont port feuille surtout
@@jackaylie622 Cela ne présage pas un porte feuille. Natif, ça peut-être du 800x600 si j'exagère le trait :).
incroyable t'es trop intéressant, j'admire ta connaissance dans le domaine ! tu dois continuer sur yt , je m'abonne en échange
tres bonne video :)
tu parles beaucoup vite ...pas le temps pour la compréhension