Aus meiner Sicht sehr viel besser als 2.2 . Das mit den Schlieren ist aber ein Thema in mehr als einem Game. Zudem glaube ich dass es aktuell einen Bug gibt bei FG mit den rucklern. Wenn ich vsync angemacht habe hatte ich mehr FPS und vorallem dauerhaft, als mit unbegrenzt. Wird hoffentlich noch gelÃķst.
wiso verbreitet ihr lÞgen ? jedes upsampling FSR und DLSS verschlechtert deutlich die grafik quali , deutlich besser ist es eine schtarke grafikarte , cpu , ram und m.2 ssd zu benutzen , ein pc ist nur so gut in spielen wi sein schwehstwes teil , das eswehnt ihr ni.
@@TheInvisible84 einmal das. Der weitaus wichtigere Grund ist aber der, dass Entwickler aus Performance-GrÞnden bei allerlei Effekten und Texturen Undersampling betreiben und das dann mit TAA glatt bÞgeln. Schau dir mal an wie zb RDR2 oder Cyberpunk mit abgeschaltetem TAA aussieht... Lauter Grafik- und Texturfehler. Hat schon seinen Grund warum man TAA bei einigen modernen Spielen nicht im GrafikmenÞ abschalten kann. Besser wÃĪre es einen hÃķheren Detailgrad anzubieten und die Spieler selbst entscheiden zu lassen, ob sie mit oder ohne TAA spielen mÃķchten, aber das wÃĪre ein zusÃĪtzlicher Aufwand, den sich kaum ein Entwickler leisten kÃķnnen wird. Daher leben wir im Gaming-Zeitalter von Bildartefakten und erzwungenem motion blur durch temporale KantenglÃĪttung. Juhu...
@@Meinhardt.ErschwansDa finde ich es gut das bei AMD der Treiber wirklich die Einstellungen im Spiel Þberschreibt was bei NVIDIA nicht in jeden Game funktioniert. Habe nun die XTX sehr lange benutzt und nun die 4090, und muss sagen das NVIDIA ganz schÃķn nachgelassen hat. Der neuste Treiber bringt pc zum Absturz wo bei amd wenn Treiber Probleme auftreten man nur zurÞck auf den desktop geworfen wird und Treiber sich zurÞck setzt. Mit begrenzter FPS konnte ich auch kein unterschied feststellen das NVIDIA sparsamer sein soll. Hier nehmen sich beide high end Karten nichts. Trotzdem guter Test macht weiter so ð
Ein richtig tolles und auch amÞsantes Video! Es hat mir sehr gefallen und weiter geholfen :) . Bei Phil frage ich mich manchmal, wie er die RealitÃĪt war nimmt ^^. Ist sie auch pixlig und verwaschen oder benutzt er einen Real life Filter ^^? Er sieht auch wirklich alles der arme ^^âĨ.
#fragpcgh was auch mal cool wÃĪre, wÃĪre ein Video welche basis Grafikeinstellungen zu empfehlen sind am PC. Raff hat es angesprochen, "..TAA ist immer schlecht, merkt euch das." ErklÃĪrung wieso was ist das welche anderen Einstellungen. Gibt so unglaublich viele Einstellungen - das verwirrt manchmal sehr :D Sehr cooles Video und besonders, dass alle am Start waren und mitgewirkt haben. Top weiter so, einfach der Beste Kanal!!
#fragpcgh kÃķnntet ihr mal bitte ein umfassendes Video zu deine einzelnen Grafikoptionen von mehreren Spielen machen also deren Bedeutung und Auswirkungen und ob ihr die jeweilige Option empfehlen wÞrdet... Also ruhig sehr sehr Einsteigerfreundlich damit man das mal Leuten teilen kann die sich nicht auskennen. DankeschÃķn
Mega geil das Video. Zocke gerade Horizon und hab das vergleichen aufgegeben. Jetzt weià ich auf jeden Fall, dass ich das TAA nicht nutzen sollte. ð Mir haben die kommentierten Blindtests sehr gefallen. Da hat man gesehen, dass ihr doch Ãķfter mal auf den Bildschirm schaut. ð
input lag ist halt die crux bei den ganzen Bildverbesseren. Was bringt mir der optisch geilste screen mit no tearing u. optimalen fps, wenn die Reaktion auf meine Eingabe endlos verspÃĪtet erfolgt?
Sehr cooles video, hab mir das schon lange gewÞnscht und FSR kommt ja schon immer nÃĪher an DLSS ran. Die Artefakte finde ich momentan zu stÃķrend um es in Spielen zu verwenden.
Ich bin jetzt 35 und zocke seit N64 Zeiten. FrÞher hats mir gereicht wenn das Spiel gut war, WoW zb war bis Pandaria eine einzige Ruckelpartie bei mir. Heute muss in den meisten FÃĪllen die Grafik erst mal ansprechend sein, sonst kann das Spiel gut sein wie es will, es wird mir deutlich weniger Spaà machen. Trotzdem muss ich sagen ich erkenne kaum die Unterschiede, die im Video angesprochen werden. AuÃer den schmierenden Streifen hinter den fliegenden BlÃĪttern in Ghosts of Tsushima wÃĪre mir nichts aufgefallen. Und bei den Spuren hinter den BlÃĪttern dachte ich eigentlich dass das Teil der Spielegrafik wÃĪre. ð In den Spielen wo es vorhanden ist verwende ich einen Upscaler, wenn ich sonst nicht mit hohen oder Ultra Einstellungen auf 60-120FPS komme. Benutze eine 4080 mit 3440x1440p AuflÃķsung.
FSR3.1 +FG macht tatsÃĪchlich zumindest bei mir ebenfalls Massive Probleme bis ich aber darauf mal gekommen bin das es an der FG hÃĪtte liegen kÃķnnen hat es einiges an Zeit gebraucht Deaktiviert und Tadda Super Fluffiges Gameplay
Letztens war schon mal so eine Zeitspanne da, in der AMDs FG einfach in allen Spielen kaputt war, Avatar, Last of Us, Robocop. Nun ist anscheinend Round 2 mit Forbidden West und Ghost of Tsushima.
Ich spiele seit einem Jahr eigentlich alles auf DLSS Quality ohne Þberhaupt zu testen, ob nativ eine Option ist mit meiner RTX 4070@1440p. Bin von dem Ergebnis begeistert und wÞrde nicht mehr auf die zusÃĪtzlichen Frames oder hÃķhere Raytracing-Einstellungen verzichten wollen, welche durch dieses Upsampling ermÃķglicht werden.
Horizon Forbiden West ist mit aktivierten FG mit bei mir nicht spielbar, sobald ich quasi die Maus berÞhre ist es kein Ruckeln, sondern eher ein hÃĪngen bleiben. AMD 5800X3D mit AMD 6700XT WQHD. Ich spiele es tatsÃĪchlich in Nativ mit 70-80 FPS. FÞr mich sieht es so Bombe aus.
Hallo Team von der #PCGamesHardware ich nutze grundsÃĪtzlich DLSS 2 (3080TI) und ab und zu wenn es die Hardware zulÃĪsst (wenn ich Raytracing aus habe) Nativ und DLAA, da habe ich mit das schÃķnste Bild fÞr mein Empfinden. So ich gehe dann mal weiter zocken und wÞnsche Euch eine schÃķne Woche und danke fÞr das informative Video ð
Hmm... also ehrlich gesagt bringt mir ein Direktvergleich, wie ihn z.B. DigitalFoundry macht, deutlich mehr. Da kann man sich die Unterschiede selber anschauen und entscheiden. Besonders bei Partikeleffekten ist FSR 3.1 leider _immer noch_ echt bescheiden. Da werden viele Partikel komplett verschluckt und die, die Þbrig bleiben, ziehen Schlieren ohne Ende. DLSS hatte mit Partikeln frÞher auch zu kÃĪmpfen, ist aber inzwischen _fast_ perfekt mMn. Wer eine RTX Karte hat und immer noch native AuflÃķsung nimmt, obwohl DLSS unterstÞtzt wird, macht einfach was falsch oder hat's einfach gerne wÃĪrmer in der Wohnung. DLSS sieht spÃĪtestens im Quality-Modus oft besser aus als Nativ... und das is bei DLSS schon seit Version 2 so, wo die krassesten Artefakte gefixt waren. FSR ist schon in Ordnung, in 3.1 deutlich besser als 2.2, und es ist nett, dass man das auf allen Karten verwenden kann, aber sowohl XeSS als auch DLSS sehen einfach deutlich besser aus.
FSR3 Native AA ist aber nicht neu ;), nur in den Games. Der Flimmer-Effekt war ganz witzig. Musste zurÞckspulen und schauen ob mir mein Hirn da was vorgespielt hat :D Also von der Idee her fand ich das ganz gut, aber da Nativ an der Performance erkennbar war, sollte man in Zukunft vielleicht eher zur 4090 und 7900XTX greifen und die FPS bei jeder Einstellung auf 80 cappen oder so
Bitte einen groÃen Test von FSR 3.1 in Vergleich zu DLSS 3.7 und XeSS 1.3. Speziell XeSS 1.3 soll ja qualitativ besser sein als FSR 3.1 und hier wÞrde ich echte Tests dazu sehen (als die Laien-TH-cam Videos von Hobby-Gamern)
ey das habe ich aber auch mit FSR framegen, 120fps auch stabil mit 0.1% lows um die 100fps fuehlt sich aber an als ob es manchmal ruckelt.. wie und warum?
Also DLSS nutze Ich zB bei vielen Games, aber nur wenn es nicht ohne geht und was Ich zB ganz schlimm finde und dass bei beiden AMD und Nvidia ist... FrameGen. Sobald man Framegen anmacht, fÞhlt es sich an, als wÞrde man mit einem Schwamm spielen (getestet mit 6800xt/6900xt und der 4070S) (persÃķnliches GefÞhl dabei). FSR und DLSS sind ganz nett, aber auch leider nicht mehr weg zu denken, da auch viele GPUs vor allem moderne einfach die Leistung nicht schaffen alles flÞssig (60+) FPS, hinzubekommen (je nach AuflÃķsung natÞrlich). Aber es ist zB fÞr 20xx Series und/oder 60xx Series gut, um FPS zu pushen und trotzdem mit einer ÃĪlteren GPU etwas flÞssiger zu spielen :) (sofern die GPU diese Technologie unterstÞtzt) NatÞrlich hat das restliche System auch noch Einfluss mit darauf, wie das Spiel lÃĪuft. Und damit einen wunderschÃķne Woche an alle :) :)
@Herr_PCGH-Auf-T.elegramm ? Upscaling aus, frame gen an. Geht zumindest bei ratched. Die frage ist wie ist der inputlag und wie der grafische rÞckschritt
Konsolen: Spielen mit Brechreizgrafik und Rucklern mit Low FPS, PC: Konfigurieren und danach feinste Bombast-Grafik grandios flÞssig mit High FPS genieÃen
Konsolen: FÞr 500 Euro ein fÞr das System optimiertes Spiel spielen. PC: Das System selbst fÞr das Spiel optimieren und versuchen mit einer 500 Euro Grafikkarte gerade so Konsolenniveau zu schaffen. Und natÞrlich ein paar Cent fÞr die restliche Hardware
@@holynoise2758 PC Spiele sind fast immer spÞrbar gÞnstiger. Keyboard/Maussteuerung ist bei Shootern klar Þberlegen, der PC als vielschichtiges MultifunktionsgerÃĪt kann fÞr den Aufpreis neben der unzweideutig und interpretationsfrei besseren Grafik und hÃķheren FPS auch generell exorbitant mehr als so eine einfache kleine Spielebox, sogar halbwegs aktuelle Konsolen emulieren. Das Argument "nur Konsole ist optimiert" ist meiner Meinung nach hinfÃĪllig, auf beiden Systemen wird Software nur noch so hingerotzt und es gibt Þberall Bugs, Glitches und Unfertigkeit. Auch Konsolen fahren mittlerweile hÃĪufig Updates mit Wartezeiten, das macht sie nicht mehr so "schnell zugÃĪnglich und unkompliziert" wie vielleicht frÞher mal. Ich zahle sehr gerne mehr Geld fÞr einen richtigen PC und konfiguriere ihn entsprechend, die oben beschriebenen PRO-PC Argumente sind es mir einfach Wert. Sieht aber jeder anders. Nicht jeder hat den Anspruch oder die Notwendigkeit fÞr das Maximum. Game On!
Sag mir ein Spiel aus der Testliste fÞr Grafikkarten welches nicht ein Konsolenport ist. Und da liegt das Problem. WÞrden Games am PC entwickelt dann wÃĪren 8GB dicke ausreichend. Eine Konsole hat halt mehr shared Speicher und das wird dann auf den PC geschleudert. Und das darf man mit teuren Grakas kompensieren. Meine erste Graka war ne ET4000, dann S3 und jetzt ne RX570. Aber wenn gejammert wird dass ne 4070 mit 12GB Speicherprobleme bekommen kÃķnnte...nee da bin ich raus
bin kein freund von all diesen techniken. ich gehe die sache ganz anders an... ich spiele primÃĪr story games mit controller in nativer 4k auflÃķsung und setze die fps im treiber auf 30, mit vsync, mit "modus fÞr geringe latenz" auf ultra und nutze "motionflow" bei meinem sony oled tv. fÞr mich ist es perfekt und mehr grafik geht nicht, weil ich die leistung von meinem pc (gpu/cpu) verdoppele und es keine leistung kostet. stelle dir nur mal vor du hast eine rtx 4090 im sli und es skaliert immer zu 100% und hast die doppelte fps und immer perfekte frametimes (_________33,3ms), genau so ist es und das bisschen delay was drauf kommt, stÃķrt Þberhaupt nicht.
FSR, DLSS und XESS sind eine gute Erfindung aber das Problem sind die entwikler/publischer. Wenn die Upsampling nicht aktuell gehalten werden machen sie keinen sin meiner Meinung nach. Da bleibe ich doch erst mal bei resulution scaling das funktioniert auf allen Karten und muss nicht upgedatet werden.
@@Butzelbatzer Da gebe ich dir recht und da immer mehr Firmen schlieÃen und Leute entlassen werden haben sie auch nicht das Geld und die Leute sowie die zeit um sich bei allen spielen um so etwas zu kÞmmern. Dessen bin ich mir bewusst.
Nahezu jeder fand das native am schÃķnsten aber eben zu ruckelig. FÞhle mich darin bestÃĪtigt den AuflÃķsungshype nicht mit zu machen und mit 1080p nativ und wenn mÃķglich "oldscool" DSR (DL) zu spielen, also quasi den gegenteiligen weg. FÞr mich hat dies nur Vorteile beim zocken und im Geldbeutel. Ich gebe aber auch zu, dass auf dem Desktop 1080p schon schwer zu ertragen ist und ich dort gerne mindestens 1440p hÃĪtte.
Spiele Cyberpunk nativ 1080p + DLAA, sieht einfach am besten aus. Bisher, jedenfalls 3,5 und das alles sieht nicht ok aus, meine Erfahrung mit der 3070 bisher.
nja das waren jetzt auch 2 extrem beispiele fÞr amd. aus erfahrung kann ich leider schon sagen wenn man dlss kennt das fsr weit darunter mitspielt. fsr merkt man einfach an das es ein algorhytmus ist und nicht mehr
Ich zocke auf nem 34"Uwqhd, IPS, 120hz, Curved, G-sync Pannel und ner 4080RTX, meistens alles Nativ mit DLAA, ansonsten DLSS auf QualitÃĪt, fsr meistens aus, weils schlechter aussieht und auf 117fps begrenzt, kommt allerdings auch selten vor das ich mehr Fps hab, da ich immer alles auf maximalen Grafikeinstellungen Nativ spiele!
ðNa ja, im Gegensatz zu Nvidias "Tie" statt Ti bei GPUs klang "Kzess" fÞr mich intuitiver und noch akzeptabel genug. Und fÞr mich leichter auszusprechen als "Ex I es es" oder "Ix e es es" im laufenden Satz. Wenn's doch zu komisch klingt, beuge ich mich der Alternative hehe. - Richie
DLSS weiterhin mit Abstand die beste Technik muss man leider so sagen. Vorteil von FSR natÞrlich, dass es per se Þberall lÃĪuft. Nun wÃĪre noch XeSS interessant. Und 1440p fÃĪnd ich deutlich spannender als UHD.
GoT spiele ich in UWQHD mit 3090 DLSS Q+FG von AMD. Ich merke da keinen Lag noch ruckler. CPU ein 5800x3d mit starken RAM Timings auf 3733mhz. Monitor AW3423DWF.
geil das wir uns nur noch Þber Upscaling und Framegeneration unterhalten nur weil die (trotzdem) viel zu teuer verkauften Grakas keine native 4K AuflÃķsung mit Raytracing hinbekommen.
Spannend, dass mittlerweile sogar die Experten so genau hingucken mÞssen. Also sowohl FSR als auch DLSS sind definitiv ein Gewinn. Interessanterweise gingen beide Spiele auf der PS5 voll klar. Keine Ruckler, alles scharf, keine Schlieren.
Also ich sehe den Unterschied sofort auf 1440p und mit DLSS vs FRS Quality. Zumindest in den Spielen wo ich es ausprobiert habe. KÃķnnte nie mit FSR spielen deshalb und wegen der niedrigen Raytracing Leistung kommt AMD momentan eh nicht in Frage. Selbst XeSS ist mittlerweile besser als FSR und Intel hat gerade erst angefangen. Vielleicht funktionieren meine Augen da anders aber ich sehe z.B. keinen Unterschied zwischen 60 und 165 fps auf meine 2 Monitoren egal wie sehr ich es versuche, keine flÞssigere Maus, nichts. DafÞr sehe ich sofort ob DLSS oder FSR an ist, fsr sieht immer so komisch grainy und interlaced aus beim schnellen bewegen. Ich benutze DLSS immer nur um gerade so die 60 FPS zu erreichen mit max Raytracing, bei FSR wÞrde ich die Krise bekommen und den Bock aufs zocken verlieren weil es zu kacke aussieht ich aber ohne Raytracing keinen Spaà an den Games habe.
@@williehrmann also mittlerweile ist allgemein bekannt das FSR Q und DLSS Q beide immer besser aussehen als Nativ. Wenn man weià was eingeschaltet ist, sieht man es natÞrlich sofort, beide Methoden haben ja unterschiedliche SchwÃĪchen.
Das ist die Gamakay LK75 in WeiÃ/Orange, mit kleinem Display und Pegasus-Switches. Nutzen wir ganz gern fÞr solche Zwecke, weil es a) von der GrÃķÃe und optisch zum Tisch passt, b) das GefÞhl beim Tippen super und c) die sehr leisen Tasten fÞr solche Blindtests perfekt sind, damit in der Tonaufnahme kein Geklacker zu hÃķren ist. Hatten wir mal im Heft getestet, kÃķnnte ich bei Interesse mal raussuchen. Zum Dealbreaker wird fÞr viele das US-ANSI-Layout sein (im Vergleich zu unserem DE-ISO). - Richie
FSR3.1 ist gut, Hauptsache das Spiel lÃĪuft flÞssig, wenn das Spiel geil aussieht und langweilig ist und mich nicht packt, dann kann es so gut aussehen wie es will, ab auf den Pile of Shame damit. Wenn das Spiel bisschen schliert und pixlig ist, aber Spaà macht achte ich eh nicht auf die Kleinigkeiten und zocke, weil das Spiel gut ist
@@deamon_xviii ich hoffe die Probleme werden sich in Grenzen halten die nÃĪchsten 2 Jahre, zumindest eine deutliche Steigerung zu meiner 3060 ti jetzt.
@@michaelh.7622 Ja also mehr Performance bekommst du devinitiv. Ich hÃĪtte zwar lieber eine 4070ti wegen den 16gb und der mehr leistung die ich gerne hÃĪtte aber in sachen Preisleistung und meinem Budget bin ich super zufrieden (hab die weiÃe KFA2 mit RGB:)
Hab schweren Herzens meine 3060ti mit dlss gegen eine 7800xt getauscht. Aber die 8gb gingen mir auf den Wecker. Und die 3060tiot 8gb war damals quasi die 4070 mit 12 von heuteâĶ reicht grad noch aber (zu Recht) schlechtes BauchgefÞhl.
Dein erster Satz war âUpsampling wird immer wichtigerâ das finde ich leider gar nicht. Dadurch wird die Entwicklung der GPU gebremst. Die Entwickler ruhen sich darauf aus weniger performante Hardware zu entwickeln, da man ja per Software die Frames optimieren kann. Das ist in meinen Augen ein RÞckschnitt zu einer nativen Performance, welche in keinster Weise als normal angesehen werden sollte. Nichts ist durch eine native AuflÃķsung zu ersetzen. Die sollten sich lieber drauf konzentrieren, performantere Hardware zu entwickeln, als dass sie so viel Zeit und Geld investieren in diese Software KrÞcke. NatÞrlich fÞr alte Systeme ist das vorteilhaft aber diese Software KrÞcke wirkt sich leider auch auf die Top End GPUs aus. Man sieht es doch an AMD, die keine bessere GPU 2024/2025 prÃĪsentieren wird. Ich danke euch dennoch fÞr diesen detailreichen Test! ððžððŧââïļ Bitte RTS und Strategie Spiele testen bei denen viele kleine Details zu erkennen sind. Zum anderen wieso keine RTX 4090 zum Vergleich herzunehmen? Die geringere FPS bei native ist natÞrlich ein KO Kriterium. Bitte auch Apple Upsampling mit einbeziehen zb gibt es das bei Fort Solis.
Amd Ist aber auch nur fÞrs zocken gut. Wollte so gern von meiner 4080 auf eine 7900xtx wechseln. StÃĪndig schwarzer Bildschirm wenn man mit Adobe Photoshop gearbeitet hat. Schade eigentlich
Das ist schade und wÃĪre interessant zu wissen was da fÞr ein Problem ist. Hast du etwas recherchiert? Aber mal davon abgesehen: Warum wolltest du denn auf ne 7900XTX wechseln wenn du schon eine 4080 hattest. Macht irgendwie wenig Sinn. Oder brauchst du so viel VRAM?
@@christianwetzel103 GrundsÃĪtzlich mehr vram wÃĪre nicht schlecht. HÃĪtte man lÃĪnger was von als mit 16 GB. Jedoch Wechsel ich mein System auf Linux zumindest hauptsÃĪchlich ab und an boote ich von Windows fÞr Adobe Programme etc. Aber linux und AMD Karten harmonieren besser. Dachte somit win win insbesondere wenn ich fÞr die 4080 noch innerhalb der GewÃĪhrleistung mehr bekomme, als wenn die 5000er Serie kommt.
Der momentane Upscaling-Sieger ist fÞr mich momentan XeSS 1.3. Intel hat damit eine echt super Arbeit geleistet und liegt optisch sogar vor AMD's FSR 3.1. Also AMD, Hausaufgaben machen und ranklotzen.
wiso verbreitet ihr lÞgen ? jedes upsampling FSR und DLSS verschlechtert deutlich die grafik quali , deutlich besser ist es eine schtarke grafikarte , cpu , ram und m.2 ssd zu benutzen , ein pc ist nur so gut in spielen wi sein schwehstwes teil , das eswehnt ihr ni.
Die Sony ports wurden aber alle von der selben Firma gemacht also kann das mit dem ghosting auch auf ne schlechte Umsetzung von denen handeln, das muss man mit den fsr umsetzungen von anderen Firmen vergleichen
ððððð Und weil Santi dabei war: ððððð NÃĪchstes Mal kÃķnnt ihr ja einen echten Blindtest machen. Also mit verbundenen Augen. ð
Mich schreckt der Input Lag bei den AMD oder Nvidia Upsampling Methoden immer ab, da ich Þberwiegend schnelle Multiplayer Shooter spiele und da sind Lags ein absolutes no go. Hab allerdings eine 4090 im Rechner da sind immer genug FPS vorhanden.
Es gibt bei Upscaling keinen erhÃķhten Input Lag denn Upscaling erhÃķht die nativen FPS. Je mehr native FPS desto geringer Input lag, Latenz und Frametimes. Die negativen Eigenschaften die man hier nennt betrifft Frame Generation.
Also was andere als meine 4090 kommt mir nicht in den PC âš bin seit Tag eins immer wieder fasziniert, was die raushaut, klar ist teuer, aber wenn man aktiv zockt und regelmÃĪÃig, warum nicht. AMD hab ich ausprobiert und wieder zurÞck geschickt, Þberhaupt kein Vergleich. Ãhnlich wie bei den Prozessoren, ich bleib einfach bei Intel, fÞr mich ganz klar der bessere Prozessor.
Geht eigentlich nichts Þber nativ. TAA gehÃķrt einfach nur verboten und von FG lasse ich auch die Finger, weil der Input Lag ist eine Vollkatastrophe. Ich halte von dem ganzen Upsampling Zeug sowieso nichts auch wenn ich teilweise drauf angewiesen bin trotz 1080p und einer 4070 S. Dying Light 2 lÃĪsst grÞÃen
Jap, genau das was ich nach dem ersten GoT spielen auch meinte. Die LÞcke zu DLSS wird geringer, teilweise verschwindend gering. Hoffentlich zieht Nvidia daraus in den nÃĪchsten Generationen eine Lehre und haut wieder kaufbare Mittelklassenkarten auf den Markt mit ordentlichem Performance-Zuwachs.
ââ@@TheInvisible84habe den Treiber manuell ersetzt. Ich meine das Problem wurde dabei nur teilweise gelÃķst. Oder wo es stÃĪrker auftritt ist Avatar.
es muss geil sein erst mit cuda mit shader zu berechnen und dan mit DLSS mit KI glÃĪten lassen. mein gott das funktioniert immer was nicht funktioniert ist eigentlich die magie. das ist mit KI direkt zu rendern wie in der demo im kinderzimmer wo man einfach mal mit minimum 300 FPs berechnet hat weil KI geil ist aber das was ihr meint geil zusein ist nur der hlbe weg von RTX und nur mÃķglich weil man cuda nutz fÞr die eine sache. WTF keiner will so viel power mit der alten cuda technik verbrennen und den strom dafÞr bezahlen weil die games alle keine KI nutzen wende im mit tensor zu rendern noch um irgend was fÞr windows oder ÃĪnliches zu beschleunigen.. ladet nur die shader in den v ram die mÞssen seit 8 jahren nicht mehr geladen werden. das ist halt der mist. das was ihr bewertet ist nur die alte GTX technik nicht die ware RTX technik. hÃķrt auf mit dem fsr vergleich mit shader NVIDIA verzichtet auf den mÞll. zumindest solten games das ermÃķglichen aber weil game hersteller seit jahren nur mÞll manchen den weg fÞr AMd und EPIC wird auch seit dem kaum was besser. und wo ist aMD auf dem letzen plartz. der witz ist das AI sie nicht retten wird darum nutzt auch kein modernes spiel auch die ai. warum AMD bittet die technik nur an aber was damit machen. genau das ist das problem. KI ist dazu da probleme zu beseitigen der rest ist bonus wie caht GPT und co. aber man lÃķst nicht die probleme die der pc seit x jahren aht immer zur windows version auch vererbt oder kann man auch endlich programme auf der GPU laufen lassen. ??? weil das ist mÃķglich mit KI und die GPU kann das seit CUDA. aber nun ja lustig das es zwei arten vonKI gibt cuda und tensor nur tensor power sieht man nicht den angeblichen mega boost den es von generation zu generation geben soll. und das ist der verlust beim kunden weil man dann nich die 300 mindest FPS bekommt nur 200 und das schon mit DLSS. was peinlich ist weil mit und direkt sind bis zu 600 FPS drin. aber sagt das dLSS geil ist kone KI und das es die zukunft ist damit AMD weiter ihren greck anbitten kan was einfach der reiste soar verein ist. ich glaube man hat eines nicht verstanden warum man heute die leistung nicht bekomme die man auch gekauft aht. es kann doch nicht sein das man mit 6ghz und der besten karte kaum schneller ist als ein pc von vor 10 jahren. meine 2080 bringt fast mehr und das ohne DLSS ist sahlte den mÞll sogar ab weil man es oft einfach nicht mal braucht. ja es gibt titel das macht auch die 2080 die kretsche aber warum das ist das entschedende weil meine COU einfach in mudernen spiele zu gemÞllt wird mit phisk und co. nix harfdre oder nein software dank epic braucht jeder PC im grunde immer 6ghz. ich frage mich was macht die GPU eigentlich noch wen man eine 4090 drin hat schlÃĪft sie oder was muss man so har hochtakten um fPS aus der karte zu prÞgeln. ist schÃķn das DLSS durch deep lerning wider was neues kann. aber das ist nix neues das ist seit der 2000 serie standard.. nent sich aus seed coding. wow einfach nur krank das man das mit cuda so minimalisiert.. mich kotzt der nicht KI mÞll nur noch an. in spielen. ich frage mich auch was man simuliert mit shader bei fest vorgegebenen dingen uns sachen. ich dachte wen die KI weià was ein baum ist kann man den mit KI sogar modifizieren und wachsen lassen und auch seine bewegungen zufÃĪllig mit wind machen. ich kenne nur ein system das dafÞr die grundlage heute schn hat. das ist star citizen. ich frage mis warum die spiele wie GTA immer auf den ÃĪltesten mÞll nutzen bauen oder weiter so verkauf werden. ich finde wenn man mit DLSS und RT wirbt sollte auch die KI dabei sein weil ohne ist die ganze technik mÞll. und warum bringt MS eigentlich die dy12 schnittstelle auf die alle so schwÃķren um genau das und spielern auch zu geben.. es ist halt geil past trasing zumachen wen man das nur auf CPU und cuda basis macht. weil tensor kerne nicht angefast werden und wenn das nur um die werte von cuda zu schÃķnigen. doppel berechnung und gemopel hlt besser.. ich raff das einfach nicht. seit x jahren keine KI in spielen die selbst fÞr das game was verbessert. wie bessere KI die dan mit einer cuda berechnet wird. einheiten limite werden nicht auf 40 ÃÃÃgesetzt sondern nur auf 1000 weil die CPU einfach nur dumm ist. das ist krank. eine technik kaufen zu mÞssen die man schn hat aber nicht gewinnbringen nutzen kann weil spiele den support nicht geben. wie starfild die krank heit ever. das aus dem hause MS. der totle witz. mit windows ohne KI macht auch kein besseres bild es ÃĪndert sich nix weil MS ki vermarkten will mÞssen sie auch was bringen MS sind die grÃķsten egos. es kann doch nicht sein das alles am RTX drum herum entwikeln weil AMD mit den konsilen unter durchschnitt ist. das man nur die power nutzen kan was takt und mehr ram hergeben aber gut nutzen hesit effizent nutzen und das macht RTX mit KI und die fehlt komplett. und ihr wollt mihr sagen alles gut hier neue technik. wow. man komt RTX einen mm nÃĪher weil ohne ki ist kein sprung mÃķglich. stalker hat geschriben das sie die grafik reduzieren mÞssen das das was gezeigt wure einfach mit der technik nicht mÃķglich ist.. ligts an RTX oder was oder and eer immer noch festhalten von shadern obwohl es ander gehen sollte.. warum 50 nutzen wenn man 100 kann und kÃķnnte. ich weis das ich mit dlss und rt aus meiner karte 100 erreichen kÃķnnte Þber tensor aber ohne ki wird das ein traumsein und der ist bei mir seit 8 jahren da. seit 8 jahren den shader mÞll.. wo ist also die KI. der boost ich habe den boost nie gesehen oder habt ihr ih in spielen bei RTX karten je gesehen wie auch games ohne KI sind nicht in der lage Tensor direkt zu nutzen weil tensor keine shader berechnen kann. weil das irgend wie keiner versteht kaooiert und nur nach alten shema macht . sind nur 50% einer RTX karte mÃķglich. die frage ist was 25% windows boost bringt und dann mit den letzen 25$ man das sein game mit DLSS und RT auf reinem tensor boosten kann. und cuda ist fast komplett frei fÞr neue dinge wie gegner KI zu berechnen oder irgend einen anderen mÞll so ist RTX gedacht nicht den reinen cuda berechnungs quark. das ist einfach nur irre. ich will simulation statts emitation mit shadern. mir bringt DLSS fast nix weil ich einfach aus gegrenst werde mit meiner karte.. das ist einfach noch viel schlimmer. und sollte es mal schlecht laufen wir sicher geforce now es dam mit der 4080 richten. fÞr nur 20 âŽ. warum brauche ich eine 2000 ⎠karte wen ich das gÞnstiger haben kann. das sind so dinge die einfach nur peinlich sind. eigentlich ist das dep lerning system fÞr alle RTX karten da.
Konntet ihr FSR 3.1 schon ausprobieren? Wie findet ihr es?
Man kann auch fsr mit dlss verbinden in ghost of tsushima. Richtig episch
Aus meiner Sicht sehr viel besser als 2.2 . Das mit den Schlieren ist aber ein Thema in mehr als einem Game. Zudem glaube ich dass es aktuell einen Bug gibt bei FG mit den rucklern. Wenn ich vsync angemacht habe hatte ich mehr FPS und vorallem dauerhaft, als mit unbegrenzt. Wird hoffentlich noch gelÃķst.
Woher bekommt man die leuchtende PCGH Schrift die auf dem Ragal steht? Kann man die kaufen?
wiso verbreitet ihr lÞgen ? jedes upsampling FSR und DLSS verschlechtert deutlich die grafik quali , deutlich besser ist es eine schtarke grafikarte , cpu , ram und m.2 ssd zu benutzen , ein pc ist nur so gut in spielen wi sein schwehstwes teil , das eswehnt ihr ni.
Liebes PC Games Hardware Team,
bitte mehr von dem Format hier !!! Sehr gutes Video !
Ich muss explizit den Kollegen loben, der fÞr den Schnitt verantwortlich ist ð Sehr gut parallel zum Sprecher Beispiele ins Video eingebaut
Kudos to Felix. :)
Das Video zeigt eines sehr gut...alle Upsampling Methoden haben in bestimmten Szenarien Nachteile und Vorteile. Keine LÃķsung ist 100% perfekt.
Stimmt nicht Mal nativ ;-)
â@@TheInvisible84was am obligatorischen TAA liegt. Nativ ist auch nicht mehr das was es mal war
@@Meinhardt.Erschwans naja der detailgrad und Texturen sind heute so hoch das es ohne aa nur mehr flimmern wÞrde, deswegen ja taa.
@@TheInvisible84 einmal das. Der weitaus wichtigere Grund ist aber der, dass Entwickler aus Performance-GrÞnden bei allerlei Effekten und Texturen Undersampling betreiben und das dann mit TAA glatt bÞgeln. Schau dir mal an wie zb RDR2 oder Cyberpunk mit abgeschaltetem TAA aussieht... Lauter Grafik- und Texturfehler. Hat schon seinen Grund warum man TAA bei einigen modernen Spielen nicht im GrafikmenÞ abschalten kann. Besser wÃĪre es einen hÃķheren Detailgrad anzubieten und die Spieler selbst entscheiden zu lassen, ob sie mit oder ohne TAA spielen mÃķchten, aber das wÃĪre ein zusÃĪtzlicher Aufwand, den sich kaum ein Entwickler leisten kÃķnnen wird. Daher leben wir im Gaming-Zeitalter von Bildartefakten und erzwungenem motion blur durch temporale KantenglÃĪttung. Juhu...
@@Meinhardt.ErschwansDa finde ich es gut das bei AMD der Treiber wirklich die Einstellungen im Spiel Þberschreibt was bei NVIDIA nicht in jeden Game funktioniert. Habe nun die XTX sehr lange benutzt und nun die 4090, und muss sagen das NVIDIA ganz schÃķn nachgelassen hat. Der neuste Treiber bringt pc zum Absturz wo bei amd wenn Treiber Probleme auftreten man nur zurÞck auf den desktop geworfen wird und Treiber sich zurÞck setzt. Mit begrenzter FPS konnte ich auch kein unterschied feststellen das NVIDIA sparsamer sein soll. Hier nehmen sich beide high end Karten nichts. Trotzdem guter Test macht weiter so ð
Ein richtig tolles und auch amÞsantes Video! Es hat mir sehr gefallen und weiter geholfen :) . Bei Phil frage ich mich manchmal, wie er die RealitÃĪt war nimmt ^^. Ist sie auch pixlig und verwaschen oder benutzt er einen Real life Filter ^^? Er sieht auch wirklich alles der arme ^^âĨ.
Tolles Video! ðž Danke ð
#fragpcgh was auch mal cool wÃĪre, wÃĪre ein Video welche basis Grafikeinstellungen zu empfehlen sind am PC. Raff hat es angesprochen, "..TAA ist immer schlecht, merkt euch das." ErklÃĪrung wieso was ist das welche anderen Einstellungen. Gibt so unglaublich viele Einstellungen - das verwirrt manchmal sehr :D
Sehr cooles Video und besonders, dass alle am Start waren und mitgewirkt haben. Top weiter so, einfach der Beste Kanal!!
Liebe das Format
#fragpcgh kÃķnntet ihr mal bitte ein umfassendes Video zu deine einzelnen Grafikoptionen von mehreren Spielen machen also deren Bedeutung und Auswirkungen und ob ihr die jeweilige Option empfehlen wÞrdet...
Also ruhig sehr sehr Einsteigerfreundlich damit man das mal Leuten teilen kann die sich nicht auskennen. DankeschÃķn
Das waren ZeitenâĶ als ich in meine PSX noch Spiele einlegte, Spass hatte, weil alles geil aussah ð
Mega geil das Video. Zocke gerade Horizon und hab das vergleichen aufgegeben. Jetzt weià ich auf jeden Fall, dass ich das TAA nicht nutzen sollte. ð
Mir haben die kommentierten Blindtests sehr gefallen. Da hat man gesehen, dass ihr doch Ãķfter mal auf den Bildschirm schaut. ð
Interessantes Video, danke dafÞr. ð
Was ist schlimmer als inputlag? Noch mehr Inputlag
input lag ist halt die crux bei den ganzen Bildverbesseren. Was bringt mir der optisch geilste screen mit no tearing u. optimalen fps, wenn die Reaktion auf meine Eingabe endlos verspÃĪtet erfolgt?
Danke
ThX
Habe jetzt viel mehr dazu gelernt was die Features bedeuten da ich selber gerne ein gaming pc bauen mÃķchte.
Sehr cooles video, hab mir das schon lange gewÞnscht und FSR kommt ja schon immer nÃĪher an DLSS ran. Die Artefakte finde ich momentan zu stÃķrend um es in Spielen zu verwenden.
Santi ist einfach zufrieden, wenn das Spiel flÞssig lÃĪuft :D
Ich bin jetzt 35 und zocke seit N64 Zeiten. FrÞher hats mir gereicht wenn das Spiel gut war, WoW zb war bis Pandaria eine einzige Ruckelpartie bei mir.
Heute muss in den meisten FÃĪllen die Grafik erst mal ansprechend sein, sonst kann das Spiel gut sein wie es will, es wird mir deutlich weniger Spaà machen.
Trotzdem muss ich sagen ich erkenne kaum die Unterschiede, die im Video angesprochen werden. AuÃer den schmierenden Streifen hinter den fliegenden BlÃĪttern in Ghosts of Tsushima wÃĪre mir nichts aufgefallen. Und bei den Spuren hinter den BlÃĪttern dachte ich eigentlich dass das Teil der Spielegrafik wÃĪre. ð
In den Spielen wo es vorhanden ist verwende ich einen Upscaler, wenn ich sonst nicht mit hohen oder Ultra Einstellungen auf 60-120FPS komme. Benutze eine 4080 mit 3440x1440p AuflÃķsung.
Warum macht ihr den Blindtest nicht mit einer 4090? Dann checkt man es nicht so leicht was Native ist.
FSR3.1 +FG macht tatsÃĪchlich zumindest bei mir ebenfalls Massive Probleme
bis ich aber darauf mal gekommen bin das es an der FG hÃĪtte liegen kÃķnnen hat es einiges an Zeit gebraucht
Deaktiviert und Tadda Super Fluffiges Gameplay
0:32 ð
Das ist hier ist der Offizielle nativ Button
Das bei diesem ganzen Wirrwarr die Spiele-Entwickler noch mitmachen, wundert mich.
Ich liebe DLSS. Mit der 4090 und Balanced ist in den meisten Games kein Unterschied zu Quality zu sehen und Pathtracing lÃĪuft damit mega.
Welche AuflÃķsung ist denn bei diesen Upsampling eingestellt?
Vielleicht sollte ihr alle Szenarien auf die selbe FPS locken.
Bei atomic heart wird der kontrast weniger mit dlss. hab dann lieber nativ + taa genommen.
4K-Videos sind schon ziemlich nice, aber bitte in Zukunft mit 60 Fps, danke! ;)
Letztens war schon mal so eine Zeitspanne da, in der AMDs FG einfach in allen Spielen kaputt war, Avatar, Last of Us, Robocop. Nun ist anscheinend Round 2 mit Forbidden West und Ghost of Tsushima.
ich erkenne kaum die Unterschiede, die im Video angesprochen werden
Direkter Vergleich wÃĪre doch mal ne Idee ;)
Ich spiele seit einem Jahr eigentlich alles auf DLSS Quality ohne Þberhaupt zu testen, ob nativ eine Option ist mit meiner RTX 4070@1440p. Bin von dem Ergebnis begeistert und wÞrde nicht mehr auf die zusÃĪtzlichen Frames oder hÃķhere Raytracing-Einstellungen verzichten wollen, welche durch dieses Upsampling ermÃķglicht werden.
DLSS scheint mir aber nach wie vor am (deutlich?) besten... Aber hat es denn wirklich merkbar hÃķheren input lag?
Na dann kÃķnnen wir bald wieder Vette in CGA Grafik auf dem 4K Widescreen zocken.
The First Decendant nutzt auf den Konsolen FSR, der Test wÃĪre dazu doch toll.
Horizon Forbiden West ist mit aktivierten FG mit bei mir nicht spielbar, sobald ich quasi die Maus berÞhre ist es kein Ruckeln, sondern eher ein hÃĪngen bleiben. AMD 5800X3D mit AMD 6700XT WQHD. Ich spiele es tatsÃĪchlich in Nativ mit 70-80 FPS. FÞr mich sieht es so Bombe aus.
ich blicke seit einiger Zeit nicht mehr durch. Ich habe eine 4080. HeiÃt ich habe durch den neuesten Nvidia-Treiber Dlss 3.0 und Dlss V.3.7?
Hallo Team von der #PCGamesHardware ich nutze grundsÃĪtzlich DLSS 2 (3080TI) und ab und zu wenn es die Hardware zulÃĪsst (wenn ich Raytracing aus habe) Nativ und DLAA, da habe ich mit das schÃķnste Bild fÞr mein Empfinden. So ich gehe dann mal weiter zocken und wÞnsche Euch eine schÃķne Woche und danke fÞr das informative Video ð
Hmm... also ehrlich gesagt bringt mir ein Direktvergleich, wie ihn z.B. DigitalFoundry macht, deutlich mehr. Da kann man sich die Unterschiede selber anschauen und entscheiden.
Besonders bei Partikeleffekten ist FSR 3.1 leider _immer noch_ echt bescheiden. Da werden viele Partikel komplett verschluckt und die, die Þbrig bleiben, ziehen Schlieren ohne Ende. DLSS hatte mit Partikeln frÞher auch zu kÃĪmpfen, ist aber inzwischen _fast_ perfekt mMn.
Wer eine RTX Karte hat und immer noch native AuflÃķsung nimmt, obwohl DLSS unterstÞtzt wird, macht einfach was falsch oder hat's einfach gerne wÃĪrmer in der Wohnung. DLSS sieht spÃĪtestens im Quality-Modus oft besser aus als Nativ... und das is bei DLSS schon seit Version 2 so, wo die krassesten Artefakte gefixt waren.
FSR ist schon in Ordnung, in 3.1 deutlich besser als 2.2, und es ist nett, dass man das auf allen Karten verwenden kann, aber sowohl XeSS als auch DLSS sehen einfach deutlich besser aus.
FSR3 Native AA ist aber nicht neu ;), nur in den Games. Der Flimmer-Effekt war ganz witzig. Musste zurÞckspulen und schauen ob mir mein Hirn da was vorgespielt hat :D
Also von der Idee her fand ich das ganz gut, aber da Nativ an der Performance erkennbar war, sollte man in Zukunft vielleicht eher zur 4090 und 7900XTX greifen und die FPS bei jeder Einstellung auf 80 cappen oder so
Bitte einen groÃen Test von FSR 3.1 in Vergleich zu DLSS 3.7 und XeSS 1.3. Speziell XeSS 1.3 soll ja qualitativ besser sein als FSR 3.1 und hier wÞrde ich echte Tests dazu sehen (als die Laien-TH-cam Videos von Hobby-Gamern)
ey das habe ich aber auch mit FSR framegen, 120fps auch stabil mit 0.1% lows um die 100fps fuehlt sich aber an als ob es manchmal ruckelt.. wie und warum?
Also DLSS nutze Ich zB bei vielen Games, aber nur wenn es nicht ohne geht und was Ich zB ganz schlimm finde und dass bei beiden AMD und Nvidia ist... FrameGen. Sobald man Framegen anmacht, fÞhlt es sich an, als wÞrde man mit einem Schwamm spielen (getestet mit 6800xt/6900xt und der 4070S) (persÃķnliches GefÞhl dabei).
FSR und DLSS sind ganz nett, aber auch leider nicht mehr weg zu denken, da auch viele GPUs vor allem moderne einfach die Leistung nicht schaffen alles flÞssig (60+) FPS, hinzubekommen (je nach AuflÃķsung natÞrlich).
Aber es ist zB fÞr 20xx Series und/oder 60xx Series gut, um FPS zu pushen und trotzdem mit einer ÃĪlteren GPU etwas flÞssiger zu spielen :) (sofern die GPU diese Technologie unterstÞtzt)
NatÞrlich hat das restliche System auch noch Einfluss mit darauf, wie das Spiel lÃĪuft.
Und damit einen wunderschÃķne Woche an alle :) :)
Wie findet ihr nativ und nvidias frame generation?
@Herr_PCGH-Auf-T.elegramm ? Upscaling aus, frame gen an. Geht zumindest bei ratched. Die frage ist wie ist der inputlag und wie der grafische rÞckschritt
Wenn man schon "raten" muss was man Þberhaupt aktuell aktiviert hat, kann man wohl sagen das sowohl FSR als auch DLSS easy spielbar sind.
Naja, FSR wurde hier klar erkannt und nicht "geraten", weil es einfach immer noch merklich schlechter ist als die Konkurrenz.
Ist so ein struggle, bei The Finals das richtige Upsampling auszuwÃĪhlen
Bei 16:45 das GefÞhl hab ich bei dlss framegen aber auch. Liegt wahrscheinlich daran, dass ich immer mit frameratelimiter spiele
Konsolen: Spielen, PC: Konfigurieren
Konsolen: Spielen mit Brechreizgrafik und Rucklern mit Low FPS, PC: Konfigurieren und danach feinste Bombast-Grafik grandios flÞssig mit High FPS genieÃen
Konsolen: FÞr 500 Euro ein fÞr das System optimiertes Spiel spielen. PC: Das System selbst fÞr das Spiel optimieren und versuchen mit einer 500 Euro Grafikkarte gerade so Konsolenniveau zu schaffen. Und natÞrlich ein paar Cent fÞr die restliche Hardware
@@holynoise2758 PC Spiele sind fast immer spÞrbar gÞnstiger. Keyboard/Maussteuerung ist bei Shootern klar Þberlegen, der PC als vielschichtiges MultifunktionsgerÃĪt kann fÞr den Aufpreis neben der unzweideutig und interpretationsfrei besseren Grafik und hÃķheren FPS auch generell exorbitant mehr als so eine einfache kleine Spielebox, sogar halbwegs aktuelle Konsolen emulieren. Das Argument "nur Konsole ist optimiert" ist meiner Meinung nach hinfÃĪllig, auf beiden Systemen wird Software nur noch so hingerotzt und es gibt Þberall Bugs, Glitches und Unfertigkeit. Auch Konsolen fahren mittlerweile hÃĪufig Updates mit Wartezeiten, das macht sie nicht mehr so "schnell zugÃĪnglich und unkompliziert" wie vielleicht frÞher mal. Ich zahle sehr gerne mehr Geld fÞr einen richtigen PC und konfiguriere ihn entsprechend, die oben beschriebenen PRO-PC Argumente sind es mir einfach Wert. Sieht aber jeder anders. Nicht jeder hat den Anspruch oder die Notwendigkeit fÞr das Maximum. Game On!
Sag mir ein Spiel aus der Testliste fÞr Grafikkarten welches nicht ein Konsolenport ist. Und da liegt das Problem. WÞrden Games am PC entwickelt dann wÃĪren 8GB dicke ausreichend. Eine Konsole hat halt mehr shared Speicher und das wird dann auf den PC geschleudert. Und das darf man mit teuren Grakas kompensieren. Meine erste Graka war ne ET4000, dann S3 und jetzt ne RX570. Aber wenn gejammert wird dass ne 4070 mit 12GB Speicherprobleme bekommen kÃķnnte...nee da bin ich raus
DLAA ist bei DCS fÞr mich die Grafikeinstellung to go und bei Star Citizen DLSS ð
bin kein freund von all diesen techniken. ich gehe die sache ganz anders an... ich spiele primÃĪr story games mit controller in nativer 4k auflÃķsung und setze die fps im treiber auf 30, mit vsync, mit "modus fÞr geringe latenz" auf ultra und nutze "motionflow" bei meinem sony oled tv. fÞr mich ist es perfekt und mehr grafik geht nicht, weil ich die leistung von meinem pc (gpu/cpu) verdoppele und es keine leistung kostet. stelle dir nur mal vor du hast eine rtx 4090 im sli und es skaliert immer zu 100% und hast die doppelte fps und immer perfekte frametimes (_________33,3ms), genau so ist es und das bisschen delay was drauf kommt, stÃķrt Þberhaupt nicht.
FSR, DLSS und XESS sind eine gute Erfindung aber das Problem sind die entwikler/publischer. Wenn die Upsampling nicht aktuell gehalten werden machen sie keinen sin meiner Meinung nach.
Da bleibe ich doch erst mal bei resulution scaling das funktioniert auf allen Karten und muss nicht upgedatet werden.
Das Problem sind das immer weniger Zeit/Geld in Optimierung gesetzt wird und mehr auf dlss u. Fsr gepocht wird
@@Butzelbatzer Da gebe ich dir recht und da immer mehr Firmen schlieÃen und Leute entlassen werden haben sie auch nicht das Geld und die Leute sowie die zeit um sich bei allen spielen um so etwas zu kÞmmern. Dessen bin ich mir bewusst.
Nahezu jeder fand das native am schÃķnsten aber eben zu ruckelig. FÞhle mich darin bestÃĪtigt den AuflÃķsungshype nicht mit zu machen und mit 1080p nativ und wenn mÃķglich "oldscool" DSR (DL) zu spielen, also quasi den gegenteiligen weg. FÞr mich hat dies nur Vorteile beim zocken und im Geldbeutel. Ich gebe aber auch zu, dass auf dem Desktop 1080p schon schwer zu ertragen ist und ich dort gerne mindestens 1440p hÃĪtte.
Was eine SchmierenkomÃķdie ð
Kostet aber auch mehr Leistung aus der Steckdose. Alles nicht so prickelnd.
was ist eigentlich die beste native AA MEthode?
TAA
Ich hÃĪtte gesagt dlaa ist besser als taa
Spiele Cyberpunk nativ 1080p + DLAA, sieht einfach am besten aus. Bisher, jedenfalls 3,5 und das alles sieht nicht ok aus, meine Erfahrung mit der 3070 bisher.
nja das waren jetzt auch 2 extrem beispiele fÞr amd. aus erfahrung kann ich leider schon sagen wenn man dlss kennt das fsr weit darunter mitspielt. fsr merkt man einfach an das es ein algorhytmus ist und nicht mehr
Ich dachte schon, dass ich die Nerd bin, der die Perfektion im Bild sucht, aber ihr schieÃt den Vogel ab :D :D diese Fehler sieht kein Mensch :D
Ich spiele einfach weiter in nativer AuflÃķsung, da ich einfach nicht in die Birne kriege ðŪâðĻ
Sind mir einfach zu viele Versionenð
Ich zocke auf nem 34"Uwqhd, IPS, 120hz, Curved, G-sync Pannel und ner 4080RTX, meistens alles Nativ mit DLAA, ansonsten DLSS auf QualitÃĪt, fsr meistens aus, weils schlechter aussieht und auf 117fps begrenzt, kommt allerdings auch selten vor das ich mehr Fps hab, da ich immer alles auf maximalen Grafikeinstellungen Nativ spiele!
I9 12900k mit RTX 3090 4k und DLAA, stabile 60fps in ETS2 und ATS
KSESS! Warum? ð
ðNa ja, im Gegensatz zu Nvidias "Tie" statt Ti bei GPUs klang "Kzess" fÞr mich intuitiver und noch akzeptabel genug. Und fÞr mich leichter auszusprechen als "Ex I es es" oder "Ix e es es" im laufenden Satz. Wenn's doch zu komisch klingt, beuge ich mich der Alternative hehe. - Richie
@pcgh rollt nicht gerade von der ZungeâĶ sehe ich ein ð
DLSS weiterhin mit Abstand die beste Technik muss man leider so sagen. Vorteil von FSR natÞrlich, dass es per se Þberall lÃĪuft. Nun wÃĪre noch XeSS interessant. Und 1440p fÃĪnd ich deutlich spannender als UHD.
6:50 Kompromiss: schnellere Grafikkarte kaufen ððððð
GoT spiele ich in UWQHD mit 3090 DLSS Q+FG von AMD. Ich merke da keinen Lag noch ruckler. CPU ein 5800x3d mit starken RAM Timings auf 3733mhz. Monitor AW3423DWF.
Finde XeSs kommt an DLSS echt gut ran. Freu mich schon auf Battlemage ð
geil das wir uns nur noch Þber Upscaling und Framegeneration unterhalten nur weil die (trotzdem) viel zu teuer verkauften Grakas keine native 4K AuflÃķsung mit Raytracing hinbekommen.
Spannend, dass mittlerweile sogar die Experten so genau hingucken mÞssen. Also sowohl FSR als auch DLSS sind definitiv ein Gewinn.
Interessanterweise gingen beide Spiele auf der PS5 voll klar. Keine Ruckler, alles scharf, keine Schlieren.
Also ich sehe den Unterschied sofort auf 1440p und mit DLSS vs FRS Quality. Zumindest in den Spielen wo ich es ausprobiert habe. KÃķnnte nie mit FSR spielen deshalb und wegen der niedrigen Raytracing Leistung kommt AMD momentan eh nicht in Frage. Selbst XeSS ist mittlerweile besser als FSR und Intel hat gerade erst angefangen. Vielleicht funktionieren meine Augen da anders aber ich sehe z.B. keinen Unterschied zwischen 60 und 165 fps auf meine 2 Monitoren egal wie sehr ich es versuche, keine flÞssigere Maus, nichts. DafÞr sehe ich sofort ob DLSS oder FSR an ist, fsr sieht immer so komisch grainy und interlaced aus beim schnellen bewegen. Ich benutze DLSS immer nur um gerade so die 60 FPS zu erreichen mit max Raytracing, bei FSR wÞrde ich die Krise bekommen und den Bock aufs zocken verlieren weil es zu kacke aussieht ich aber ohne Raytracing keinen Spaà an den Games habe.
Du brauchst auch schon ein monitor mit mehr hz um es zu bemerken ð
@@I3loodyTV ein OLED mit 120hz wird wohl reichen.
@@williehrmann also mittlerweile ist allgemein bekannt das FSR Q und DLSS Q beide immer besser aussehen als Nativ.
Wenn man weià was eingeschaltet ist, sieht man es natÞrlich sofort, beide Methoden haben ja unterschiedliche SchwÃĪchen.
@@ericius59 dann hast du es vermutlich nicht richtig eingestellt sonst wÞrde man es sofort merken
mir gehts wie santi, sehe keinen unterschied^^
Die Tastatur is cool. WIe heiÃt die?
Das ist die Gamakay LK75 in WeiÃ/Orange, mit kleinem Display und Pegasus-Switches. Nutzen wir ganz gern fÞr solche Zwecke, weil es a) von der GrÃķÃe und optisch zum Tisch passt, b) das GefÞhl beim Tippen super und c) die sehr leisen Tasten fÞr solche Blindtests perfekt sind, damit in der Tonaufnahme kein Geklacker zu hÃķren ist. Hatten wir mal im Heft getestet, kÃķnnte ich bei Interesse mal raussuchen. Zum Dealbreaker wird fÞr viele das US-ANSI-Layout sein (im Vergleich zu unserem DE-ISO). - Richie
@@pcgh Danke fÞr die Antwort. :)
FSR3.1 ist gut, Hauptsache das Spiel lÃĪuft flÞssig, wenn das Spiel geil aussieht und langweilig ist und mich nicht packt, dann kann es so gut aussehen wie es will, ab auf den Pile of Shame damit.
Wenn das Spiel bisschen schliert und pixlig ist, aber Spaà macht achte ich eh nicht auf die Kleinigkeiten und zocke, weil das Spiel gut ist
Hab mir jetzt eine 4070 fÞr unter 500 Euro bestellt aufgrund DLSS und der besseren RT Leistung, aber die 12GB machen mir etwas Sorgen fÞr WQHD.
ja wqhd kann Probleme machen, ich komme mit meiner 4070 in qhd knapp an die 12 GB zb in Cyberpunk
@@deamon_xviii ich hoffe die Probleme werden sich in Grenzen halten die nÃĪchsten 2 Jahre, zumindest eine deutliche Steigerung zu meiner 3060 ti jetzt.
@@michaelh.7622 Ja also mehr Performance bekommst du devinitiv. Ich hÃĪtte zwar lieber eine 4070ti wegen den 16gb und der mehr leistung die ich gerne hÃĪtte aber in sachen Preisleistung und meinem Budget bin ich super zufrieden (hab die weiÃe KFA2 mit RGB:)
@@deamon_xviii ja optimal wÃĪre die 4070 ti super, aber die geht so ab 800+ los, das war mir echt zu viel.
Hab schweren Herzens meine 3060ti mit dlss gegen eine 7800xt getauscht. Aber die 8gb gingen mir auf den Wecker. Und die 3060tiot 8gb war damals quasi die 4070 mit 12 von heuteâĶ reicht grad noch aber (zu Recht) schlechtes BauchgefÞhl.
Dein erster Satz war âUpsampling wird immer wichtigerâ das finde ich leider gar nicht. Dadurch wird die Entwicklung der GPU gebremst. Die Entwickler ruhen sich darauf aus weniger performante Hardware zu entwickeln, da man ja per Software die Frames optimieren kann. Das ist in meinen Augen ein RÞckschnitt zu einer nativen Performance, welche in keinster Weise als normal angesehen werden sollte. Nichts ist durch eine native AuflÃķsung zu ersetzen. Die sollten sich lieber drauf konzentrieren, performantere Hardware zu entwickeln, als dass sie so viel Zeit und Geld investieren in diese Software KrÞcke. NatÞrlich fÞr alte Systeme ist das vorteilhaft aber diese Software KrÞcke wirkt sich leider auch auf die Top End GPUs aus. Man sieht es doch an AMD, die keine bessere GPU 2024/2025 prÃĪsentieren wird. Ich danke euch dennoch fÞr diesen detailreichen Test! ððžððŧââïļ Bitte RTS und Strategie Spiele testen bei denen viele kleine Details zu erkennen sind. Zum anderen wieso keine RTX 4090 zum Vergleich herzunehmen? Die geringere FPS bei native ist natÞrlich ein KO Kriterium. Bitte auch Apple Upsampling mit einbeziehen zb gibt es das bei Fort Solis.
Amd Ist aber auch nur fÞrs zocken gut. Wollte so gern von meiner 4080 auf eine 7900xtx wechseln. StÃĪndig schwarzer Bildschirm wenn man mit Adobe Photoshop gearbeitet hat. Schade eigentlich
Das ist schade und wÃĪre interessant zu wissen was da fÞr ein Problem ist. Hast du etwas recherchiert? Aber mal davon abgesehen: Warum wolltest du denn auf ne 7900XTX wechseln wenn du schon eine 4080 hattest. Macht irgendwie wenig Sinn. Oder brauchst du so viel VRAM?
@@christianwetzel103 GrundsÃĪtzlich mehr vram wÃĪre nicht schlecht. HÃĪtte man lÃĪnger was von als mit 16 GB. Jedoch Wechsel ich mein System auf Linux zumindest hauptsÃĪchlich ab und an boote ich von Windows fÞr Adobe Programme etc. Aber linux und AMD Karten harmonieren besser. Dachte somit win win insbesondere wenn ich fÞr die 4080 noch innerhalb der GewÃĪhrleistung mehr bekomme, als wenn die 5000er Serie kommt.
Der momentane Upscaling-Sieger ist fÞr mich momentan XeSS 1.3. Intel hat damit eine echt super Arbeit geleistet und liegt optisch sogar vor AMD's FSR 3.1. Also AMD, Hausaufgaben machen und ranklotzen.
wiso verbreitet ihr lÞgen ? jedes upsampling FSR und DLSS verschlechtert deutlich die grafik quali , deutlich besser ist es eine schtarke grafikarte , cpu , ram und m.2 ssd zu benutzen , ein pc ist nur so gut in spielen wi sein schwehstwes teil , das eswehnt ihr ni.
Die Sony ports wurden aber alle von der selben Firma gemacht also kann das mit dem ghosting auch auf ne schlechte Umsetzung von denen handeln, das muss man mit den fsr umsetzungen von anderen Firmen vergleichen
Bei Cyberpunk siehts nicht anders aus.
@@silviogeisler3927 da ist es doch auch noch FSR2.1 soweit mir bekannt ist
meine fresse ist das eindeutig xD AMD ey bitte macht doch einmal was richtig. EINMAL
Hast du das Video Þberhaupt geguckt? Es ist mittlerweile alles andere als eindeutig.
ððððð Und weil Santi dabei war: ððððð NÃĪchstes Mal kÃķnnt ihr ja einen echten Blindtest machen. Also mit verbundenen Augen. ð
Wtf Xess
ksÃĪÃĪÃĪÃĪss
Mich schreckt der Input Lag bei den AMD oder Nvidia Upsampling Methoden immer ab, da ich Þberwiegend schnelle Multiplayer Shooter spiele und da sind Lags ein absolutes no go. Hab allerdings eine 4090 im Rechner da sind immer genug FPS vorhanden.
Es gibt bei Upscaling keinen erhÃķhten Input Lag denn Upscaling erhÃķht die nativen FPS. Je mehr native FPS desto geringer Input lag, Latenz und Frametimes. Die negativen Eigenschaften die man hier nennt betrifft Frame Generation.
am Ende, wenn man schon paar Minuten am spielen ist merkt man es auch nicht mehr.
Einzige was dann nur auffÃĪllt sind nicht stabile FPS.
@Herr_PCGH-Auf-T.elegramm der Name kommt etwas zwielichtig, also Nein.
Also was andere als meine 4090 kommt mir nicht in den PC âš bin seit Tag eins immer wieder fasziniert, was die raushaut, klar ist teuer, aber wenn man aktiv zockt und regelmÃĪÃig, warum nicht. AMD hab ich ausprobiert und wieder zurÞck geschickt, Þberhaupt kein Vergleich. Ãhnlich wie bei den Prozessoren, ich bleib einfach bei Intel, fÞr mich ganz klar der bessere Prozessor.
Geht eigentlich nichts Þber nativ. TAA gehÃķrt einfach nur verboten und von FG lasse ich auch die Finger, weil der Input Lag ist eine Vollkatastrophe. Ich halte von dem ganzen Upsampling Zeug sowieso nichts auch wenn ich teilweise drauf angewiesen bin trotz 1080p und einer 4070 S. Dying Light 2 lÃĪsst grÞÃen
kauft euch lieber ne ordentliche karte.....
wo man den schmutz nicht braucht
Jap, genau das was ich nach dem ersten GoT spielen auch meinte. Die LÞcke zu DLSS wird geringer, teilweise verschwindend gering.
Hoffentlich zieht Nvidia daraus in den nÃĪchsten Generationen eine Lehre und haut wieder kaufbare Mittelklassenkarten auf den Markt mit ordentlichem Performance-Zuwachs.
einfach wqhd - dlss fsr usw. alles schmutz
Ich persÃķnlich wÞrde inm WQHD nur im Notfall Quality Upsampling nutzen. Bei 4k Monitoren sieht es dagegen schon ganz anders aus.
Die "Schlieren" kommen 100% von Option; TiefenschÃĪrfe, darum stell ich die in jedem Spiel aus...
Betrifft das auch das DLSS Ghosting, das z.B. in Cyberpunk auftritt?
@@SebbS82 mÞsste ich testen bzw. genau darauf achten, bei der TiefenschÃĪrfe Option bzgl verschwommener Hintergrund bin ich 100% sicher.
â@@SebbS82kann auch eine alte dlss Version sein
ââ@@TheInvisible84habe den Treiber manuell ersetzt. Ich meine das Problem wurde dabei nur teilweise gelÃķst. Oder wo es stÃĪrker auftritt ist Avatar.
es muss geil sein erst mit cuda mit shader zu berechnen und dan mit DLSS mit KI glÃĪten lassen. mein gott das funktioniert immer was nicht funktioniert ist eigentlich die magie. das ist mit KI direkt zu rendern wie in der demo im kinderzimmer wo man einfach mal mit minimum 300 FPs berechnet hat weil KI geil ist aber das was ihr meint geil zusein ist nur der hlbe weg von RTX und nur mÃķglich weil man cuda nutz fÞr die eine sache. WTF keiner will so viel power mit der alten cuda technik verbrennen und den strom dafÞr bezahlen weil die games alle keine KI nutzen wende im mit tensor zu rendern noch um irgend was fÞr windows oder ÃĪnliches zu beschleunigen..
ladet nur die shader in den v ram die mÞssen seit 8 jahren nicht mehr geladen werden. das ist halt der mist. das was ihr bewertet ist nur die alte GTX technik nicht die ware RTX technik.
hÃķrt auf mit dem fsr vergleich mit shader NVIDIA verzichtet auf den mÞll. zumindest solten games das ermÃķglichen aber weil game hersteller seit jahren nur mÞll manchen den weg fÞr AMd und EPIC wird auch seit dem kaum was besser.
und wo ist aMD auf dem letzen plartz. der witz ist das AI sie nicht retten wird darum nutzt auch kein modernes spiel auch die ai. warum AMD bittet die technik nur an aber was damit machen.
genau das ist das problem. KI ist dazu da probleme zu beseitigen der rest ist bonus wie caht GPT und co. aber man lÃķst nicht die probleme die der pc seit x jahren aht immer zur windows version auch vererbt oder kann man auch endlich programme auf der GPU laufen lassen. ??? weil das ist mÃķglich mit KI und die GPU kann das seit CUDA. aber nun ja lustig das es zwei arten vonKI gibt cuda und tensor nur tensor power sieht man nicht den angeblichen mega boost den es von generation zu generation geben soll. und das ist der verlust beim kunden weil man dann nich die 300 mindest FPS bekommt nur 200 und das schon mit DLSS. was peinlich ist weil mit und direkt sind bis zu 600 FPS drin. aber
sagt das dLSS geil ist kone KI und das es die zukunft ist damit AMD weiter ihren greck anbitten kan was einfach der reiste soar verein ist.
ich glaube man hat eines nicht verstanden warum man heute die leistung nicht bekomme die man auch gekauft aht. es kann doch nicht sein das man mit 6ghz und der besten karte kaum schneller ist als ein pc von vor 10 jahren. meine 2080 bringt fast mehr und das ohne DLSS ist sahlte den mÞll sogar ab weil man es oft einfach nicht mal braucht.
ja es gibt titel das macht auch die 2080 die kretsche aber warum das ist das entschedende weil meine COU einfach in mudernen spiele zu gemÞllt wird mit phisk und co. nix harfdre oder nein software dank epic braucht jeder PC im grunde immer 6ghz.
ich frage mich was macht die GPU eigentlich noch wen man eine 4090 drin hat schlÃĪft sie oder was muss man so har hochtakten um fPS aus der karte zu prÞgeln.
ist schÃķn das DLSS durch deep lerning wider was neues kann. aber das ist nix neues das ist seit der 2000 serie standard..
nent sich aus seed coding. wow
einfach nur krank das man das mit cuda so minimalisiert.. mich kotzt der nicht KI mÞll nur noch an. in spielen.
ich frage mich auch was man simuliert mit shader bei fest vorgegebenen dingen uns sachen. ich dachte wen die KI weià was ein baum ist kann man den mit KI sogar modifizieren und wachsen lassen und auch seine bewegungen zufÃĪllig mit wind machen.
ich kenne nur ein system das dafÞr die grundlage heute schn hat. das ist star citizen. ich frage mis warum die spiele wie GTA immer auf den ÃĪltesten mÞll nutzen bauen oder weiter so verkauf werden. ich finde wenn man mit DLSS und RT wirbt sollte auch die KI dabei sein weil ohne ist die ganze technik mÞll.
und warum bringt MS eigentlich die dy12 schnittstelle auf die alle so schwÃķren um genau das und spielern auch zu geben..
es ist halt geil past trasing zumachen wen man das nur auf CPU und cuda basis macht. weil tensor kerne nicht angefast werden und wenn das nur um die werte von cuda zu schÃķnigen.
doppel berechnung und gemopel hlt besser.. ich raff das einfach nicht. seit x jahren keine KI in spielen die selbst fÞr das game was verbessert. wie bessere KI die dan mit einer cuda berechnet wird. einheiten limite werden nicht auf 40 ÃÃÃgesetzt sondern nur auf 1000 weil die CPU einfach nur dumm ist.
das ist krank. eine technik kaufen zu mÞssen die man schn hat aber nicht gewinnbringen nutzen kann weil spiele den support nicht geben. wie starfild die krank heit ever. das aus dem hause MS. der totle witz.
mit windows ohne KI macht auch kein besseres bild es ÃĪndert sich nix weil MS ki vermarkten will mÞssen sie auch was bringen MS sind die grÃķsten egos.
es kann doch nicht sein das alles am RTX drum herum entwikeln weil AMD mit den konsilen unter durchschnitt ist. das man nur die power nutzen kan was takt und mehr ram hergeben aber gut nutzen hesit effizent nutzen und das macht RTX mit KI und die fehlt komplett. und ihr wollt mihr sagen alles gut hier neue technik. wow. man komt RTX einen mm nÃĪher weil ohne ki ist kein sprung mÃķglich.
stalker hat geschriben das sie die grafik reduzieren mÞssen das das was gezeigt wure einfach mit der technik nicht mÃķglich ist.. ligts an RTX oder was oder and eer immer noch festhalten von shadern obwohl es ander gehen sollte.. warum 50 nutzen wenn man 100 kann und kÃķnnte. ich weis das ich mit dlss und rt aus meiner karte 100 erreichen kÃķnnte Þber tensor aber ohne ki wird das ein traumsein und der ist bei mir seit 8 jahren da. seit 8 jahren den shader mÞll.. wo ist also die KI. der boost ich habe den boost nie gesehen oder habt ihr ih in spielen bei RTX karten je gesehen wie auch games ohne KI sind nicht in der lage Tensor direkt zu nutzen weil tensor keine shader berechnen kann. weil das irgend wie keiner versteht kaooiert und nur nach alten shema macht .
sind nur 50% einer RTX karte mÃķglich. die frage ist was 25% windows boost bringt und dann mit den letzen 25$ man das sein game mit DLSS und RT auf reinem tensor boosten kann. und cuda ist fast komplett frei fÞr neue dinge wie gegner KI zu berechnen oder irgend einen anderen mÞll so ist RTX gedacht nicht den reinen cuda berechnungs quark.
das ist einfach nur irre. ich will simulation statts emitation mit shadern.
mir bringt DLSS fast nix weil ich einfach aus gegrenst werde mit meiner karte.. das ist einfach noch viel schlimmer.
und sollte es mal schlecht laufen wir sicher geforce now es dam mit der 4080 richten. fÞr nur 20 âŽ. warum brauche ich eine 2000 ⎠karte wen ich das gÞnstiger haben kann.
das sind so dinge die einfach nur peinlich sind. eigentlich ist das dep lerning system fÞr alle RTX karten da.
Geiler Dude^^
FSR 3.1 sieht immer noch Þbel mies aus :/