würde mir die kleine gerne holen, aber auch wenn sie "günstiger" als die Nv Karten sind, 1k ist immer noch eine Menge Holz. Von daher leider eher nicht.
Lieber PC Games Hardware, ich möchte mich herzlich für den ausführlichen Test der Radeon RX 7900 XTX und RX 7900 XT bedanken. Es war sehr hilfreich, die Leistung dieser Grafikkarten in verschiedenen Szenarien zu sehen und zu vergleichen. Der Test war sehr gut recherchiert und aufschlussreich. Vielen Dank für die Mühe, die ihr euch gemacht habt. Ich schätze eure Arbeit sehr und werde eure Videos weiterhin verfolgen. Vielen Dank!
@21:10 - Soweit ich es verstanden habe, geht das Problem noch viel tiefer. Es besteht ebenfalls auf niedrigen Auflösungen, sofern man entsprechend hohe Refreshraten nutzt und der Grafikkarte einen Headroom liefert. Es besteht auch nicht nur im IDLE, sondern auch während des Gamings von grafisch-leichter Kost wie Overwatch, Quake, CS, aber auch Farcry 6. Das merken viele nur nicht, weil viele "Gamer" nicht auf hohen Refreshraten zocken oder verstehen wie man diese in beide Richtungen einrichtet. Sie stellen die Refreshrate um und lassen adaptive Sync den Rest machen. [Da das Tearing nicht nur entsteht, wenn die FPS geringer als die maximale Refreshrate des Monitors sind, sondern auch wenn sie jene übersteigen, muss man eine Methode wählen die FPS zu limitieren. Eine Möglichkeit ist ein Framelimiter, entweder Ingame oder mit Programmen wie RTSS.] Mein bisheriger Eindruck aus diversen Foren, Reviews und Kommentaren ist, dass in diesem Fall keine verringerte Leistungsaufnahme bei AMD erfolgt, während Nvidia eben die Leistung der Last anpasst. Man verbraucht mit einer XTX dann also immer noch 350w, anstatt 230w, obwohl sie keine 300 fps mehr liefern muss, sondern nur knapp unter der Refreshrate mit den Frames landen sollte. Das heißt man hat nicht nur im IDLE eine zu hohe Leistungsaufnahme von 60-80w, während ich surfe oder in LaTeX arbeite, sondern eine noch größere Differenz von 100w bis 160w, wenn ich kompetitive, Indie oder leichte games zocke. Auf das Jahr gerechnet ist das im Vergleich zu einer 4080 nicht weniger als ein schlechter Witz und ganz sicher kein gewolltes Verhalten, um irgendeine "Performance" zu halten. Nvidia kriegt es doch auch hin. Ich weiß, dass AMD der Underdog ist, aber dieses Problem unter den Teppich zu kehren wie es laut Aussagen einiger AMD-Spieler der Fall ist, schadet mehr als zu nützen. Ich wollte zu Team Tomate wechseln, nachdem ich seit fast 3 Dekaden nur von Team Greed ausgebeutelt wurde, aber so? Entweder darf ich mir einen überteuerten und überdimensionalen Backstein mit einem zerfledderten Adapterkabel ins Gehäuse quetschen als würde sich ein 150 Kg schwerer Rastamann in der U-bahn auf mich und meine beiden Nebensitze pressen, oder ich darf Knight-Rider-Style ein geistig gehandicappten K.I.T.T. fahren, der zu doof ist seinen Spritverbrauch unter Rennstrecken-niveau zu halten, wenn ich mit ihm Einkaufen oder auf der Landstraße fahre.
In dem Fall muss ich sagen, da ist die 4080 deutlich effizienter. Also würde ich in den nächsten 1-2 Jahren alles im Regal liegen lassen, was nach GPU aussieht, damit die Preise schön weiter abschmelzen.
Wenn du das machst ist es okay. Aber die Karten sind oft direkt vergriffen, selbst die 4090 für 2.000 Euro. Da wird so schnell nichts passieren, außer die Stückzahlen werden deutlich erhöht
Wieder ein sehr gelungenes Video. Eine Frage ist mir dabei aber offen geblieben: Wie viel Strom verbrauchen denn die anderen Karten auf dem Markt so im Idle mit verschiedenen Displaykonstellationen? Ein Vergleich mit einigen anderen Karten der letzten 2-3 Jahre wäre sehr hilfreich das etwas besser einordnen zu können.
20:30 ff. - Ich bin diesem Problem jetzt auch mehrfach auf die Spur gekommen, und das bereits bei 2xFHD@144Hz. Das Problem hatte ich aber bei Nvidia mit der RTX 3070 mit den gleichen Monitoren auch. Die RTX 3070 war zunächst ziemlich identisch vom Verhalten, ich konnte hier jedoch mit einigen Einstellungen im Control Panel gegensteuern. Bei AMD sieht es danach aus, als ob genau das nicht machbar wäre. In meinen Augen ist das höchstproblematisch, man kann im Grunde kein Silent-Setup im idle mit Multimonitorbetrieb herstellen, wenn es nicht irgendwann Möglichkeiten gibt im Adrenalin gegenzusteuern. Und überhaupt ist das absurd. Es gibt Szenarien, wo man ältere Spiele in 4K@144Hz spielt und der Verbrauch einer 7900 XTX z.B. vielleicht bei ca. 130-140 Watt oder auch bei 110 Watt liegen würde, weil die Karte hier kaum ausgelastet wird. Und daher würde sie hier zwischen idle, also Desktop wie Office / Surfen etc. und einem etwas älteren 3D-Game in 4K@144Hz überhaupt keinen Unterschied machen. Das kann und darf es nicht sein.
Mein heutiger Test mit der 6700 XT. 2xFHD@60-100Hz --> 7W@~70-130MHz RAM Clock ~ 38-40 C° SOBALD einer der beiden Monitoren (oder beide) mehr als 100Hz bekommt (nächster Schritt wäre 120Hz) --> 30W@1995MHz RAM Clock. ~ stetig steigend bis 60-65 C°, wenn nicht die Lüfter anspringen Der heftige Sprung des RAM Clock ist für mich nicht nachvollziehbar. Diese hohe Taktung braucht natürlich mehr Leistung, bringt mehr Wärme etc, und das NUR (!) weil einer der beiden Monitore 20Hz schneller läuft. Sorry, aber AMDs Aussage ist purer Bullshit denn das Problem hat offensichtlich RDNA2 auch. Es sollte sich eigentlich problemlos über Adrenalin steuern lassen, für mich ganz klar ein großes Versäumnis von AMD.
Gibt es eine weitere Liste zu dem Stromverbrauch? Um weitere Karten in allen Situationen zu vergleichen. Würde mich halt sehr interessieren, welches Modell man sich nach der effizient eher holen soll
Eines ist mir nicht ganz verständlich geworden: Wird der viel zu hohe Stromverbrauch bei 4K 120Hz nur über die Displayports oder auch über HDMI verheizt? 🤔🤒
Hi, Super Video. Das ganze ist jetzt 4 Monate her. Hat sich in Sachen Stromverbrauch bei Leerlauf/Desktop und Co. langsam was getan? Ein aktuelles Update wäre echt cool von euch.
Wie siehts mit Overclocking aus? Laufen die neuen AMD Karten schon weit oberhalb des sinnvollen Bereichs der Effizienzkurve, oder kann man da mit +30% power target noch viel rausholen?
eher im gegenteil, habe gehört das mit -10% undervolting das ding kühler läuft, deshalb höher taktet und mehr FPS ausspuckt !? (ist halt die Frage obs dann noch stabil läuft, silicon lottery etc.) ...mal abwarten was die tech tuber da die nächsten wochen so berichten.
#FragPCGH Könntet ihr vielleicht ein Undervolting / Powerlimit Test machen? Z.B. auf die gleiche Leistungsaufnahme wie die 4080 begrenzen oder den Effizienz-Sweetspot herausfinden und dann nochmal vergleichen und die Temperaturen, Lautstärke und Spulenfiepen vorher/nachher gegenüberstellen. Wäre mega interessant was diese Karten für einen Optimierungsspielraum bieten.
Danke für das tolle und ausführliche Video. #FragPCGH Mich würden Benchmarks der XTX interessieren auf Basis mit einem AM5 Board mit einem AMD Prozessor, da soll es ja Vorteile geben, bessere Timings? Oder wäre das zu vernachlässigen? Danke für eure Arbeit
#FragPCGH: Werdet ihr mitteilen, inwieweit sich die Leistungsaufnahme (z.B. 144FPS, 2 Displays) durch Updates verbessert? Was darf man da erwarten? Erfolgen noch Standardtests, wie PortRoyal etc.? Temperaturen? Warum wurde in Sone, statt Dezibel gemessen? Warum liegen die Werte für Gaming und 100% manuell so extrem auseinander und sind somit ein Vielfaches lauter? Könnt ihr Videos machen, in dem die Specs und ihre Bedeutung und Messung thematisiert werden (ähnlich aber tiefgreifender als hier unter "Specs")? Schonmal vielen Dank für das Video, die ehrliche und faire Bewertung der Karten und dafür, dass ihr auch Coil whine miteinbezieht : )
Vor 4-5 Jahren konnte ich für ~1500€ eine guten Gaming PC bekommen, der fast alle Spiele locker geschafft hat! Da sich die Gehälter nicht im gleichen Maß erhöht haben, wie diese völlig abgefahrenen Preissteigerungen 😢, gibt es auf absehbare Zeit keinen neuen PC.
Schön zusammengefasst. DLSS/FSR wurden jedoch nicht erwähnt. Für mich ist das für Games in 4K das wichtigste Feature und hier hat Nvidia einen klaren Vorteil.
Mich würde die Streaming Performance im Vergleich zu den Nvenc Encodern von Nvidia interessieren. Und wie sieht es aus, wenn man die Karten unter PCI 3.0 laufen lässt, gibt es starke Leistungseinbußen ?#FragPCGH
Die angebliche Verbesserungen der Video-Engine fände ich auch interessant... NVenc oder Quicksync waren immer so deutlich besser, als AMDs AMF, dass sich die Karten schon fast disqualifizierten, wenn man mit OBS & Co etwas hochwertigere Feierabendstream produzieren wollte - von Videobearbeitung ganz zu schweigen.
Hallo Raff. War ein sehr informatives Video. An sich schmecken die Karten schon, vor allem wegen des größer dimensionierten VRAMs . In meinem Fall besteht ein größeres Interesse am XT-Modell. Die Leistung liegt zwar unter der 4080, allerdings ist der Preis deutlich günstiger. Raytracing ist bei den Karten weniger ein Thema, aber gut. Es gibt einen Punkt, der mich etwas schlucken lies: Der Stromverbrauch im Multi-Monitoring Betrieb. Ich habe mir die PCGH Tests zu der 4070 TI und 4080 angesehen. Leider wird nirgends erwähnt, wieviel Strom die Nvidia-Karten mit mehreren Monitoren einfordern. Und leider fand ich dazu nichts im Internet. Tja, wie auch bereits andere in den Kommentaren geschrieben haben, ist der Stromverbrauch ein Thema. Währe klasse, wenn Du dazu ein paar Infos hättest.
Darf ich mal was fragen, ich hab die Vega64 könnt ihr nicht auch die in den Benchmark packen? Damit ich und viele andere wissen wie groß der Leistungsunterschied ist? Weil die Vega64 ist ja ebenfalls 4k Ready.
Dass die GPU 100w im Idle bei hohen Auflösungen braucht, ist ein absolutes Nogo (gerade in der heutigen Zeit). Keiner holt sich sone GPU, um die hinterher bei FullHD 60Hz zu betreiben.
Ich behalte meine 580€ 3080 10GB. Das waren schon 200€ mehr, als ich sonst für eine GPU bereit war. Wer mal vom Gedanken weg kommt immer alles auf maxed out stellen zu müssen, der wird erstaunt sein wie gering der optische Unterschied ist, aber wie groß der Framegewinn dafür.
Hab immer noch meine 2080 und kann alles was ich habe auf hohen Einstellung sauber spielen. Mal abgesehen davon, dass die meisten guten Spiele überhaupt keine großen Grafikmonster sind.
Dann aber sicher gebraucht? Ich kaufe prinzipiell gebrauchte Karten nur von Leuten, die ich kenne. Aber die neuen NVIDIA-Karten sind einfach nur überteuert. Meine Schmerzgrenze wurde mit der 3080 12GB erreicht.
Also mein Sohn hat eine "Sapphire Vega 64 Nitro+" aus 2018 und spielt aktuelle Titel auf Ultra. Ich hab mal bei ihm "Sniper Ghost Warrior Contracts 2" auf Ultra gespielt. Das lief problemlos. Ich hatte zwar nur 40fps, aber dennoch war das Spiel immer noch sehr gut spielbar! Auch "Horizon 5" läuft auf seinem Rechner mit "Extrem" Einstellungen flüssig. Eine Nvidia macht nur Sinn wenn man Rytracing will, aber ist Raytracing diesen Aupreis wert? - Definitiv nicht! Ich habe eine RX6900XT und zocke auf einem OLED mit 4K und HDR - das ist der Wahnsinn. Die kostet 500 Euro weniger als die RTX4080 und über 1000 Euro weniger als die RTX4090. Kauft man sich heute eine Karte aus dem Mittelfeld, ist man bestens für die nächsten Jahre bedient.
#FragPCGH Bei dem erschreckenden Anstieg das Verbrauchs bei Anschluss eines 144 Hz Monitors...habt Ihr mal getestet, wie sich das bei einem 240 Hz oder gar 360 Hz Monitor verhält? Liegt dieser hohe Verbrauch nur bei 4k Monitoren vor? Habe einen 21:9 Monitor mit 2560*1080 , aber eben 144 Hz.. wäre der Verbrauch hier auch so hoch?
Habe gerade den Artikel regelrecht verschlungen! Vielen Dank für die herausragende Arbeit und die vielen interessanten Informationen! Rein objektiv betrachtet, sind das wirklich performante Produkte die AMD da am Markt platzieren möchte. Bedauerlicherweise leidet aktuell noch die Workload Effizienz, was hoffentlich noch durch Treiber Updates gefixt werden kann, denn insbesondere heutzutage ist dieser Faktor nicht zu vernachlässigen und muss beim Preis der Karten miteinkalkuliert werden, denn Energie wird auf absehbare Zeit garantiert nicht günstiger. Leistung und Lautstärke stimmen ansonsten absolut.
Wenn AMD schon sagt es ist so gewollt,dann wird da nix passieren Im Prinzip die gleiche Sache wie ryzen 7000 durchgehend bei 95°...laut AMD gewollt....und nach wie vor immer noch so
So wie erwartet, gleich auf +- 4080 in Raster, letzte generation Nvidia RT Leistung und dabei höherer Verbrauch und lauter als die 4080. So wie erwartet hat der niedrige Preis seinen Grund. Trotzdem sind die XTX und die 4080 beide interessant , wenn die XTX als Custom kommt sind es wohl dann 1199 oder 1249 Euro und kommt der 4080 umso näher im Preis. Irgendwie kommt es mir doch so vor als ob Nvidia und AMD wissen was der andere machen wird.. Das Ganze ist so angepasst, wenn Nvidia günstiger gewesen wäre hätte AMD nochmal runter gehen müssen im Preis, aber ist ja nur meine Meinung. Man muss aber auch sagen dass die RT Leistung einer 3090Ti mit DLSS und dann ggf. auf der XTX mit FSR 2/3 gut genug sein wird um es gut nutzen zu können. Die 4090 ist nunmal schon auf dem Level der nächsten Generation in 2 Jahren, wenn man es haben und es sich leisten kann, dann warum nicht...
@@lokibier Dafür 25% mehr Leistung im Raytracing. Wir sprechen hier von High-End...da muss das ordentliches Raytracing schon drin sein. Zudem 80-100w weniger Verbrauch im Schnitt, wesentlich leiser und wesentlich besser im Bereich Rendern und Bild/Video/3D-Bearbeitung (ist auch vielen wichtig) usw usw. Ich denke beide Karten haben ihre Zielgruppen.
#FragPCGH Mich würde das Undervolting Potential der RDNA3 Karten interessieren. 🤓 Lässt sich die Effizienz der neuen Karten (so deutlich wie bei den RTX 4000 Karten) erhöhen, indem man das Powertarget senkt, oder undervolted? 😊 Bei den Ada Karten waren ja noch ordentlich Effizienzgewinne ohne grobe Leistungseinbußen drinnen - das würde die AMD Karten noch deutlich attraktiver machen, wenn man da noch etliche Watt sparen kann 😇 also vielleicht ein "Stromspar-Guide 2022 GPUs"😁
Vielen Dank für den ausführlichen Test, aber was ich mich noch frage: wie ist die Performance unter Pci 3.0? Aktuell reicht mir noch mein X370 Board, aber ich will nicht 1200€ verpulvern. Gibt es eigentlich Mikroruckler? Also im Vergleich zu Monolithdesigns? Und wie sehen die 1% und 0,1% low aus?
Schade. Ich habe sehr sehr lange gewartet, bin aber doch enttäuscht. Wenn ich die Entscheidung zwischen einer Customdesign AMD Karte vs Nvidia entscheiden muss, dann fällt die Entscheidung "leider" auf die Nvidia. Stromverbrauch, RT, Treiberprobleme und die absolut ungewisse Zukunft der DLSS Variante von AMD. Wenn das nächstes Jahr in die Hose geht, dann steht man mit einer 1300€ Karte extrem doof da. Somit dann doch die absolut sichere, leise und stromsparende 4080 für 150€ mehr.
Ich bleibe für die nächsten 1 bis 2 Jahre bei meiner 3080, es muss nicht immer alles in Ultra und Raytracing sein. Ich wage zu behaupten, den Unterschied zwischen High und Ultra sieht so gut wie keiner.
Danke für die Mühe und das zusammentragen der ganzen Fakten. Wie immer super informativ und auf den Punkt. Leider bin ich mir immer noch unsicher obs jetzt ne 4080 oder ne 7900xtx wird, mal schauen was die nächsten 2 Wochen so passiert und wie die Partnerkarten sich mit den neuen GPU´s machen und was sie dann am Ende tatsächlich kosten.
Also ich habe seit Freitag meine RTX 4080 FE und kann dir sagen...absolut geile Karte! 🥰👍 Aber ja...den Preis braucht man nicht schön zu reden. Da musste ich auch 10x überlegen, ehe ich auf "Kaufen" gedrückt hab. Aber die Nutzungsdauer von min. 4 Jahren und die Tatsache, das Gaming mein einziges Hobby ist, haben mir die Entscheidung dann deutlich leichter gemacht. 😉
@@D4rkResistance hammer karte alles richtig gemacht. hab mir auch eine 4080 fe gekauft. hat deine karte auch etwas spulenfiepen? meine hat leider etwas spulenfiepen und ich hoffe das wird mit der zeit besser.
Ich schließe mich allen an , habe auch ne 4080 sie hält was sie verspricht , wirklich Flüsterleise , extrem gute Leistung , sehr Effizient und ein Raytracing Monster. Meine Kaufentscheidung hängt auch am Raytracing und ich würde auch eher zu Nvidia greifen. Ich hab übrigens die Gamerock 4080 von Palit. Grüße Dave
Jo denk ich auch, dann muss man sich wohl entscheiden, das eine gegen das andere.....bei 100€ hin oder her, würde ich persönlich tatsächlich die Nvidia nehmen, aber die hat wiederum kein USB-C was ich für VR bräuchte -.-
Ist vielleicht nicht ganz das Thema für diese spezifischen Karten Modell bei AMD, aber wie ist es denn Software seitig von AMD mittlerweile? Habe oft gehört dass die Treiber für AMD Karten halt nicht so optimal sind wie bei Team grün zumal Nvidia ja auch noch Features hat wie Broadcast, kann da nun AMD mit halten?
Ist halt der Wandel der Zeit, ein Golf kostet heutzutage auch so viel wie früher ein BMW. Wenn man bei der Technik das aktuellste und beste haben will muss man halt dafür bezahlen, ansonsten gibt es ja genug Alternativen die günstiger sind und genau so funktionieren wenn man hier und da Abstriche macht
@@LA_3000 Schlechter Vergleich von dir. Ein passenderer Vergleich: Wenn du für ein Auto, dass mit 100km/h fahren kann, 70.000 Euro verlangst. Eine Einsteigergrafikkarte die nicht mal richtig FHD kann, für 300€ im Jahr 2023 zu verkaufen, ist einfach nur krank und kann nicht schöngeredet werden. Aber hey, jeder wie er es mag. Es gibt Menschen, die denken ein Handy wäre über 2000 Euro wert, weil es Whatsapp Nachrichten schreiben kann und TH-cam unterstützt. Das zeigt einfach nur, dass sich die Menschen gerne abzocken lassen und die etwas Klügeren nutzen es halt aus.
@@massivebuilder dann kauf es nicht und nutz 10 Jahre alte Technik und zock alles in low Details. Aber heul nicht rum von wegen „abzocken lassen“ offne mal die Augen was in der Wirtschaft so abgeht….
Hallo zusammen, ein sehr informatives Video! Allerdings auch viel Informationen. Ich nutze sehr intensiv den Microsoft Flugsimulator 2020 und für den soll nun ein neuer Rechner her. Die Konfiguration steht soweit, allerdings ist nun die Frage AMD RX 9500 xtx oder die RTX 4080. Habt ihr, nur bezogen auf den MSFS 2020 eine Empfehlung?? Herzlichen Dank. VG Thomas
Den Preisunterschied zur 4080 frisst die XTX mit dem Stromverbrauch bei den aktuellen ganz gut weg... Meine Treiber-Erfahrungen waren bei AMD sehr negativ, daher wird es wohl die 4080
Bis jetzt ist die aktuelle GPU Generation einfach unfassbar uninteressant. Die RTX 4080 ist überteuert, die kleine schwester ist am Markt komplett verschwunden und wird wohl als 4070 rebranded und die 7900 XT/X sieht schlechter aus als sie beworben wurde, waren da nicht zwischen 50-70% mehr FPS die Rede? Im Endeffekt stehen beide hersteller schlecht da. Naja wie auch immer...gute Arbeit und danke dafür.
Video wie immer top....ich persönlich bleibe jedoch bei meiner Aussage vor 3 Monaten.....beide gpus werden als Referenz nie verfügbar sein...und eine custom xtx wird sich zwischen 1270-1500€ einpendeln Ich bin davon überzeugt daß die sehr schlecht verfügbar sein werden und gute 250€ teurer als angegeben,hab mich die letzten Jahre nur selten geirrt....aber wir werden sehen
Hab was gehört das zum launch 3000 Karten in Deutschland verfügbar sein sollen, 7000 Europaweit ...also wirklich nicht viel. und die Boardpartner halten sich noch ein paar Wochen zurück damit sie auch paar Karten zum verkaufen haben.
Daumen nach oben Top Video 🙂. AMD war ja früher nicht bekannt für gute Treiber was sich aber seit den Radeon 6000er Karten doch ziemlich verbessert hat! Wenn ich mir die Leistung der 6000er Karten nach release anschaue und diese mit jetzt vergleiche hat sich da einiges getan. Ich bin da sogar der Meinung, dass AMD in den letzten drei Jahren bessere Arbeit geleistet zu haben wie NVIDIA. Wie seht Ihr das und was könnte man dann noch von diesen Karten erwarten. Zu Euerer Frage: ja
@@nicobraun9540 wo soll ich nur anfangen?😂....bei der Adrenalin Software die rumspackt sobald irgendwas umgestellt wird statt auf Auto zu lassen,microruckler alle paar Sekunden in diversen Games,plötzlicher schwarzer Bildschirm ingame...und Man ist im Desktop weil Treiber gecrashed ist Alles Sachen die ich in 10 Jahren Nvidia nicht hatte Und das schlimmste davon ist,du kauft eine 6800xt,6700xt und 6900xt...und mit allen 3 bekommst du kein Bild ,weil AMD das Software und Chipsatzmäßig nicht schafft es zum laufen zu bringen Jedesmal musste erst die gute GTX 970 als Retter in Not herhalten Ich würd's ja noch vertehen wenn es mit einem Intelbrett so wäre.....aber hauseigener ryzen 5000 ,b550 Brett mit neuesten BIOS und AMD GPU..... Und hola...der Computer sagt nein 😖 Für mich unverständlich
Kann ich so unterschreiben, meine 6900XT wurde mit jedem größeren Treiberupdate besser. Wenn ich daran denke, das ich bei Cyberpunk zu Beginn die reinste Diashow hatte als ich RT aktiviert hatte und das mit jetzt vergleiche, wo ich mit 60+ fps auf WQHD zocken kann. Auch kann ich diese ganzen Treiberprobleme die es geben soll nicht nachvollziehen. So lange man nicht irgendwelche Einstellungen im Treiber ohne zu wissen was man dort eigentlich macht ändert, laufen die Karten auch 1A. Vorrausgesetzt natürlich, man hat alte NVidia-Treiber sofern vorhanden sauber mit DDU entfernt oder das System mal komplett neu aufgesetzt. Denn oftmals sitzt das Problem nicht im Treiber sondern im Anwender vorm Monitor.
@@waldowaldo1980 Tja und davon ist nicht mal ein einziges der Probleme bei mir oder bekannten (welche alle AMD nutzen) aufgekommen. Eher im Gegenteil, mit meiner alten GTX 1060 hatte ich wesentlich mehr Probleme 🫠
#FragPCGH Thema Treiber: Ich habe oft diesen "Grauenbildschirm" Fehler und der Fehlerbericht sagt mit immer was von Treiber Timeout..... habt ihr sowas auch beim Testen oder garnicht? Habe schon viel rumprobiert und diesen Fehler zu beheben aber er kommt immer wieder. Ich denke das es an meinem Odysee WQHD Bildschirm liegt. -.-
Ist es möglich, dass Board Partner (Karten) oder Treiber Updates den Stromverbrauch in Ruhezustand mit mehreren Monitoren (mit hoher Bildwiederholrate) runterdrosseln können?
Gute Konkurrenz zur RTX 4080 und dazu noch rund 200-250€ günstiger. Für alle die nicht mit ach und krach nur auf RT achten eine sehr gute Alternative 👍
Raytracing ist seit Jahren das am meisten überbewertete Feature, was keiner den ich kenne nutzt. Daher achte ich nur auf die normalen Frames und Leistungsaufnahme / Verbrauch.
@@primus_DE ALS RTX 3070 Besitzer muss ich leider zugeben das es stimmt. RT wird in 99% der Spiele derart beschissen umgesetzt, das ich gut gemachte Cube, light und shadowmaps vorziehe. Das macht man mal fürn Benchmark an und ist schnell gefrustet. Bevor ich auf das native rendern verzichte, kommt RT aus. Denn DLSS/FSR ist Sondermüll. ich hab dadurch in 1440p einfach oft ein derart unscharfes Bild mit Artefakten, das ist kein RT wert. Auch wenns Ausnahmen wie Controll gibt.
Schade, jetzt sind 1 Tag vor Release schon all meine Hoffnungen kaputt. Wollte mir endlich Mal wieder ein Upgrade zur GTX 1070 holen. Aber bei den Preisen... Dann muss sie halt noch ein Jahr durchhalten...
kauf dir doch von so einem vollhonk eine 6900XT für 500-600€ bei ebay und fertig. Haste wieder 4 jahre ruhe und einen sehr intelligenten menschen der JEDE generation mitnimmt gibt es doch immer :)
Vielen Dank für das ausführliche Video. #fragPCGH Ist denn bekannt, ob Customdesigns auch andere Displayanschlüsse verwenden? Ich betreibe derzeit eine Valve Index @DP und drei 4k-Panels an 2xDP, 1xHDMI. Mit einem solchen Setting wären die aktuellen AMD schon direkt raus.
899€ für die XTX und 699€ UVP für die 7900 XT wären bei der gebotenen Performance "gut" gewesen. Hier haben wir nun zwei weitere GPUs auf dem Markt, welche die RTX 4080 und 4090 noch besser aussehen lassen und deren Preise quasi in Stein meißeln. AMD muss die Preise anpassen, sonst kaufen nur AMD Fanboys und ein paar Fehlgeleitete diese Karten, der Rest holt sich die RTX 4080 oder 4090, die ebenfalls überteuert sind. Echt schade, ich hätte die 7900 XTX sonst gerne im Referenzdesign gekauft.
@@syrocoo1 USB-C geht mit 4080 leider nur über entsprechende Mainboards, die DP/alt oder Thunderbolt haben. Der USB-C Anschluss ist für mich auch ein selling point. Für meinen mobilen Rechner habe ich da eine RX 6800 XT mit USB-C gekauft. Da läuft der mobile Monitor mit nur einem USB-C Kabel, ohne extra Stromanschlüsse.
@@BarisYener Hmm....was kostet die Welt XD Also doch eher ne Powerbank für die VR und über W-lan 🤔 n goldesel hab ich einfach nicht🥲 Mal abwarten was die Hersteller so verlangen....
@@BarisYener 700€ wäre knapp die Hälfte der 4080 für ~10% weniger Leistung... Deine Preise sind absolut unrealistisch. Ich finde auch AMD muss leicht unter Nvidia bleiben da die Karten weiterhin bei RT nicht auf dem Level sind und FSR 3.0 aktuell noch nicht verfügbar ist. 1200€ für die 7900XTX passt aber, AMD hat leider auch kein Geld zu verschenken. Ich finds eher interessant was dann die Mittelklasse kosten wird, die wenigsten wollen im Endeffekt so ne 1000+ Karte
Der Stromverbrauch in Display 4K ist ja nicht sehr erfreulich. Wie sieht es mit der Leistungsaufnahme beim Display in WQHD aus?...Würde mich interessieren, ob die Energieeffizienz in WQHD ansprechender ausfällt. Gibt es dazu schon Fakten?
Danke Raff! Du bist der beste Grafikkarten-Profi und nach deinen Videos und den hervorragenden Online-Tabellen ist man definitiv optimal informiert. Ich mag den integrierten USB-C für VR-Headsets sehr. Schade, dass nVidia Karten das nicht haben. Und wie immer ordentlich RAM. Ich mag aber auch Raytracing und sitze da zwischen zwei Stühlen. _____ #FragPCGH: - Man liest viele Benchmark-Tabellen, ich würde gerne mal in einem Vergleichsvideo sehen, wie die Unterschiede im Gameplay visuell ausfallen. - Als Beispiel ein Gameplay-Splitscreen-Vergleichsvideo von Cyberpunk 2077 der beiden Flaggschiffe 4090 und 7900 XTX in UHD. Ein Vergleichsvideo mit Raytracing und ein Video ohne Raytracing. => Hier die Frage: Wie sieht das CP2077-Gameplay 4090 vs. 7900 XTX mit und ohne Raytracing aus?
die 4090 im vergleich zur 7900xtx bringt nicht wirklich was. die 4090 ist deutlichst schneller, kostet aber halt auch 1100 euro mehr. vergleichbar ist die 7900xtx eigentlich nur mit der 4080, das wäre ein fairer vergleich und tatsächlich interessant
@@s.7208 Du hast den Sinn leider nicht verstanden oder nicht richtig gelesen. Mir geht es darum die Benchmark-Zahlen der beiden Flaggschiffe im Gameplay-Vergleich zu sehen. Ich möchte also im Gameplay sehen, was der 4090-Vorsprung ausmacht (nicht nur Balken und Zahlen). Sieht die 4090 im Vergleich zur 7900 XTX sehr viel flüssiger aus, dass es sich für Grafikenthusiasten lohnt tief in die Tasche zu greifen? Oder sieht es bei der 7900 XTX (mit und ohne Raytracing) flüssig genug aus und man kann eine menge Geld sparen. Daher bringt dieser Vergleich durchaus was! Wenn zwei Games einen gleich langen Benchmark-Balken haben, dann wird in einem Splitscreen-Gameplay-Vergleich die linke Seite genau so aussehen, wie die rechte. Die Arbeit kann man sich sparen. Es geht auch darum am Beispiel der beiden Flaggschiffe die Benchmark-Zahlen zu visualisieren! Man sieht viele Balken und Zahlen, schön wäre daher mal ein Gameplay-Beispiel, um zu sehen wie flüssig die fps-Angaben im Vergleich aussehen. Zahlen sind abstrakt, nicht jeder hat eine genaue Vorstellung ab wann etwas flüssig wahrgenommen wird und ab wann es keinen Unterschied mehr ausmacht. Ein Gameplay-Vergleich zeigt, was die Zahlen bedeuten und was es letztlich bringt.
@@s.7208 Daher wollte ich ein Vergleichsvideo von Cyberpunk 2077 sehen. Ohne Raytracing liegen beide unter 60 fps (44,8 vs. 42,5 fps). Mit Raytracing liegt die 4090 nur 7 fps darüber (67 vs. 31,9 fps). Wenn man diese 7 fps außen vor lässt, würde mich interessieren wie sich das visuell auswirkt. Wie wäre es die Fragen und Wünsche deiner Mitmenschen zu respektieren anstatt abwertend formulierte Kommentare zu posten? Ich muss mich nicht für eine Frage an PCGH bei der Community rechtfertigen. Sowas demotiviert andere User Fragen zu stellen und macht keinen Spaß! Außerdem habe ich PCGH gefragt und nicht dich. PCGH wird schon selbst entscheiden können ob sie die Frage aufgreifen und wie sie am sinnvollsten ein Splitscreen-Vergleichsvideo umsetzen.
Danke für den von der technischen Seite her hervorragenden Test und die viele Arbeit. Aber 1:00: "Warum sind die so billig und gibt es einen Haken?": Ja! Der Haken ist, dass 1.150 € schlicht und ergreifend nicht billig ist 🙂
Schlagt ihr bei den neuen AMD-Grafikkarten zu? 🥊👊
Nö, ich hab ne RTX3080 Aorus Master 12GB, das langt erstmal.
Aber die Dinger sind schon nicht schlecht.
Bin mal auf die Customs gespannt.
Ich denke in ein paar Monaten wenn sich die Preise ein wenig eingependelt haben
Klare Sache. XTX wird es werden.
würde mir die kleine gerne holen, aber auch wenn sie "günstiger" als die Nv Karten sind, 1k ist immer noch eine Menge Holz. Von daher leider eher nicht.
Nö hab ne 4090 :)
Extrem gutes Video, sowohl kompetent als auch total sympathisch und ohne überflüssiges Grimassenschneiden. Vielen Dank, Raff!
Lieber PC Games Hardware, ich möchte mich herzlich für den ausführlichen Test der Radeon RX 7900 XTX und RX 7900 XT bedanken. Es war sehr hilfreich, die Leistung dieser Grafikkarten in verschiedenen Szenarien zu sehen und zu vergleichen. Der Test war sehr gut recherchiert und aufschlussreich. Vielen Dank für die Mühe, die ihr euch gemacht habt. Ich schätze eure Arbeit sehr und werde eure Videos weiterhin verfolgen. Vielen Dank!
Stimmt, muss ich dir Recht geben, sehr hilfreich. Behalte daher meine 4080 😂
Die RTX kann DLSS 3 bedeutet nochmal 20 bis 30% mehr FPS.
War das abgelesen ? 😂
@@anubis2960 das muss hatt sein. aber manchmal macht man fehlkäufe
@@anubis2960 16gb vram langen heute schon nicht mehr was machst du jetzt?
Ich find 1000€ für ein grafikkarte immernoch extrem viel
Mit MWST wahrscheinlich 1200€..
für 1200 Euro konnte man sich vor 2,3 Jahren einen gehobenen Gaming PC zulegen
Ich hab ne 4090 für 2300€. 😛
@@T.K.Wellington1996 Wer?
@@T.K.Wellington1996 1100€ mehr für ca. 12% mehr leistung😂
@21:10 - Soweit ich es verstanden habe, geht das Problem noch viel tiefer. Es besteht ebenfalls auf niedrigen Auflösungen, sofern man entsprechend hohe Refreshraten nutzt und der Grafikkarte einen Headroom liefert. Es besteht auch nicht nur im IDLE, sondern auch während des Gamings von grafisch-leichter Kost wie Overwatch, Quake, CS, aber auch Farcry 6. Das merken viele nur nicht, weil viele "Gamer" nicht auf hohen Refreshraten zocken oder verstehen wie man diese in beide Richtungen einrichtet. Sie stellen die Refreshrate um und lassen adaptive Sync den Rest machen. [Da das Tearing nicht nur entsteht, wenn die FPS geringer als die maximale Refreshrate des Monitors sind, sondern auch wenn sie jene übersteigen, muss man eine Methode wählen die FPS zu limitieren. Eine Möglichkeit ist ein Framelimiter, entweder Ingame oder mit Programmen wie RTSS.]
Mein bisheriger Eindruck aus diversen Foren, Reviews und Kommentaren ist, dass in diesem Fall keine verringerte Leistungsaufnahme bei AMD erfolgt, während Nvidia eben die Leistung der Last anpasst. Man verbraucht mit einer XTX dann also immer noch 350w, anstatt 230w, obwohl sie keine 300 fps mehr liefern muss, sondern nur knapp unter der Refreshrate mit den Frames landen sollte. Das heißt man hat nicht nur im IDLE eine zu hohe Leistungsaufnahme von 60-80w, während ich surfe oder in LaTeX arbeite, sondern eine noch größere Differenz von 100w bis 160w, wenn ich kompetitive, Indie oder leichte games zocke. Auf das Jahr gerechnet ist das im Vergleich zu einer 4080 nicht weniger als ein schlechter Witz und ganz sicher kein gewolltes Verhalten, um irgendeine "Performance" zu halten. Nvidia kriegt es doch auch hin. Ich weiß, dass AMD der Underdog ist, aber dieses Problem unter den Teppich zu kehren wie es laut Aussagen einiger AMD-Spieler der Fall ist, schadet mehr als zu nützen.
Ich wollte zu Team Tomate wechseln, nachdem ich seit fast 3 Dekaden nur von Team Greed ausgebeutelt wurde, aber so?
Entweder darf ich mir einen überteuerten und überdimensionalen Backstein mit einem zerfledderten Adapterkabel ins Gehäuse quetschen als würde sich ein 150 Kg schwerer Rastamann in der U-bahn auf mich und meine beiden Nebensitze pressen, oder ich darf Knight-Rider-Style ein geistig gehandicappten K.I.T.T. fahren, der zu doof ist seinen Spritverbrauch unter Rennstrecken-niveau zu halten, wenn ich mit ihm Einkaufen oder auf der Landstraße fahre.
In dem Fall muss ich sagen, da ist die 4080 deutlich effizienter. Also würde ich in den nächsten 1-2 Jahren alles im Regal liegen lassen, was nach GPU aussieht, damit die Preise schön weiter abschmelzen.
edit: nvm hast recht ist nicht nur im idle hatte das anders mitbekommen ... treiber updates sollten trotzdem noch etwas tun über die nächsten monate
Wenn du das machst ist es okay. Aber die Karten sind oft direkt vergriffen, selbst die 4090 für 2.000 Euro. Da wird so schnell nichts passieren, außer die Stückzahlen werden deutlich erhöht
Danke!
Wieder ein sehr gelungenes Video.
Eine Frage ist mir dabei aber offen geblieben:
Wie viel Strom verbrauchen denn die anderen Karten auf dem Markt so im Idle mit verschiedenen Displaykonstellationen? Ein Vergleich mit einigen anderen Karten der letzten 2-3 Jahre wäre sehr hilfreich das etwas besser einordnen zu können.
Wo soll der Strom für USB-C bei der XTX herkommen, wenn diese diesbezüglich bereits am Limit läuft?
Mal was abseits der Grafikkarten: Ich schaue seit langem mal wieder ein Video von euch und die Qualität ist ja mal krass gestiegen! Gefällt mir 👍🏼
Hab gerade verschiedene internationale Reviews über die Karten geschaut. Das Video hier von PCGH ist definitiv das beste!
8K - 😜
Danke für Deine sicher sehr aufwändige Arbeit.
Die flexible Anzeigen der GraKa Leistung sind Gold wert.
20:30 ff. - Ich bin diesem Problem jetzt auch mehrfach auf die Spur gekommen, und das bereits bei 2xFHD@144Hz. Das Problem hatte ich aber bei Nvidia mit der RTX 3070 mit den gleichen Monitoren auch. Die RTX 3070 war zunächst ziemlich identisch vom Verhalten, ich konnte hier jedoch mit einigen Einstellungen im Control Panel gegensteuern. Bei AMD sieht es danach aus, als ob genau das nicht machbar wäre. In meinen Augen ist das höchstproblematisch, man kann im Grunde kein Silent-Setup im idle mit Multimonitorbetrieb herstellen, wenn es nicht irgendwann Möglichkeiten gibt im Adrenalin gegenzusteuern.
Und überhaupt ist das absurd. Es gibt Szenarien, wo man ältere Spiele in 4K@144Hz spielt und der Verbrauch einer 7900 XTX z.B. vielleicht bei ca. 130-140 Watt oder auch bei 110 Watt liegen würde, weil die Karte hier kaum ausgelastet wird. Und daher würde sie hier zwischen idle, also Desktop wie Office / Surfen etc. und einem etwas älteren 3D-Game in 4K@144Hz überhaupt keinen Unterschied machen. Das kann und darf es nicht sein.
Mein heutiger Test mit der 6700 XT.
2xFHD@60-100Hz --> 7W@~70-130MHz RAM Clock ~ 38-40 C°
SOBALD einer der beiden Monitoren (oder beide) mehr als 100Hz bekommt (nächster Schritt wäre 120Hz) --> 30W@1995MHz RAM Clock. ~ stetig steigend bis 60-65 C°, wenn nicht die Lüfter anspringen
Der heftige Sprung des RAM Clock ist für mich nicht nachvollziehbar. Diese hohe Taktung braucht natürlich mehr Leistung, bringt mehr Wärme etc, und das NUR (!) weil einer der beiden Monitore 20Hz schneller läuft. Sorry, aber AMDs Aussage ist purer Bullshit denn das Problem hat offensichtlich RDNA2 auch. Es sollte sich eigentlich problemlos über Adrenalin steuern lassen, für mich ganz klar ein großes Versäumnis von AMD.
Wie kann ich die Leistung als VR Spieler einstufen?
Gibt es eine weitere Liste zu dem Stromverbrauch? Um weitere Karten in allen Situationen zu vergleichen. Würde mich halt sehr interessieren, welches Modell man sich nach der effizient eher holen soll
WoW.. Da haste aber gute Arbeit abgeliefert! Fleissig, fleissig! ;-)
Danke dafür!
Eines ist mir nicht ganz verständlich geworden: Wird der viel zu hohe Stromverbrauch bei 4K 120Hz nur über die Displayports oder auch über HDMI verheizt? 🤔🤒
Mir auch nicht #FragPCGH
Danke für das sehr informative Video. Daumen hoch. Schlaf gut ;)
Wow, das war mal ausführlich und gut! Fantastisch, danke.
Hi, Super Video. Das ganze ist jetzt 4 Monate her. Hat sich in Sachen Stromverbrauch bei Leerlauf/Desktop und Co. langsam was getan? Ein aktuelles Update wäre echt cool von euch.
Wie siehts mit Overclocking aus? Laufen die neuen AMD Karten schon weit oberhalb des sinnvollen Bereichs der Effizienzkurve, oder kann man da mit +30% power target noch viel rausholen?
Bei der 7900xtx ist die Luft mehr als dünn für oc bei der Referenzkarte
eher im gegenteil, habe gehört das mit -10% undervolting das ding kühler läuft, deshalb höher taktet und mehr FPS ausspuckt !? (ist halt die Frage obs dann noch stabil läuft, silicon lottery etc.) ...mal abwarten was die tech tuber da die nächsten wochen so berichten.
Danke für die Arbeit , tolle Thematik, gefällt mir.
7:31 das ist das erste Video mit dieser Aussage, ich habe im amerikanischen Raum Dutzende Videos gesehen die das Gegenteil behaupten.
#FragPCGH Könntet ihr vielleicht ein Undervolting / Powerlimit Test machen? Z.B. auf die gleiche Leistungsaufnahme wie die 4080 begrenzen oder den Effizienz-Sweetspot herausfinden und dann nochmal vergleichen und die Temperaturen, Lautstärke und Spulenfiepen vorher/nachher gegenüberstellen. Wäre mega interessant was diese Karten für einen Optimierungsspielraum bieten.
Eure Test sind immer richtig gut und meiner Meinung nach das beste Format des gesamten PC Games Hardware Kanals und das schon seit vielen Jahren.
Danke für das tolle und ausführliche Video.
#FragPCGH
Mich würden Benchmarks der XTX interessieren auf Basis mit einem AM5 Board mit einem AMD Prozessor, da soll es ja Vorteile geben, bessere Timings?
Oder wäre das zu vernachlässigen?
Danke für eure Arbeit
wie stehts bei denen mit VR
Wirklich gutes und informatives Video der PCGH von einem meiner favorisierten Hardware-Tester auf TH-cam
Wie sieht es denn heute mit der Leitungsaufnahme aus bzgl. Displays und Idle? Gab's da was von AMD?
Wie immer sehr informativ Danke sehr.
Wann gibt es endlich mal wieder Consumer Grafikkarten zu vernünftigen Preisen?
#FragPCGH: Werdet ihr mitteilen, inwieweit sich die Leistungsaufnahme (z.B. 144FPS, 2 Displays) durch Updates verbessert? Was darf man da erwarten?
Erfolgen noch Standardtests, wie PortRoyal etc.?
Temperaturen?
Warum wurde in Sone, statt Dezibel gemessen? Warum liegen die Werte für Gaming und 100% manuell so extrem auseinander und sind somit ein Vielfaches lauter?
Könnt ihr Videos machen, in dem die Specs und ihre Bedeutung und Messung thematisiert werden (ähnlich aber tiefgreifender als hier unter "Specs")?
Schonmal vielen Dank für das Video, die ehrliche und faire Bewertung der Karten und dafür, dass ihr auch Coil whine miteinbezieht : )
#FragPCGH was wird besser sein 7900 XT custom design oder 7900 XTX Reference Design? Die werden ja wahrscheinlich ähnlich viel kosten.
Custom
Danke für dieses sehr informative Video.
21:46 Zur Zeit bin ich AMD Fan aber mich stört der hohe Idle Wattverbrauch der Karten schon.
Wie verhällt sich das bei einer FullHD Auflösung?
War perfekt zum Frühstück. Vielen Dank
und wie sieht es in relation zur cpu auslastung aus, zwischen nvidia und amd ? oder der bildqualität ? fps sind immer relativ...
Vor 4-5 Jahren konnte ich für ~1500€ eine guten Gaming PC bekommen, der fast alle Spiele locker geschafft hat!
Da sich die Gehälter nicht im gleichen Maß erhöht haben, wie diese völlig abgefahrenen Preissteigerungen 😢, gibt es auf absehbare Zeit keinen neuen PC.
Wurde das Problem mit der hohen Leistungsaufnahme der 7900 XT bei Single-Display mit hoher Bildwiederholrate mittlerweile gefixed?
Schön zusammengefasst. DLSS/FSR wurden jedoch nicht erwähnt. Für mich ist das für Games in 4K das wichtigste Feature und hier hat Nvidia einen klaren Vorteil.
Wie steht es denn um den Stromverbrauch der Radeon Karten in 2k im Vergleich zu 4k? Ist der Stromverbrauch auch so ..gottlos in 2k144hz?
Mich würde die Streaming Performance im Vergleich zu den Nvenc Encodern von Nvidia interessieren. Und wie sieht es aus, wenn man die Karten unter PCI 3.0 laufen lässt, gibt es starke Leistungseinbußen ?#FragPCGH
Die angebliche Verbesserungen der Video-Engine fände ich auch interessant... NVenc oder Quicksync waren immer so deutlich besser, als AMDs AMF, dass sich die Karten schon fast disqualifizierten, wenn man mit OBS & Co etwas hochwertigere Feierabendstream produzieren wollte - von Videobearbeitung ganz zu schweigen.
Jupp, würde ich auch sehr gerne wissen!
Auf so einen Vergleich warte ich auch !
Eine 4090 verliert in UHD und WQHD max. 2% an Leistung auf PCI-E 3.0. Im Vergleich zu 4.0. Das dürfte bei AMD nicht schlimmer sein, denke ich
PCIe 3.0 vs 4.0 RX 6900 XT th-cam.com/video/NF_j63WXDbk/w-d-xo.html PCIe 3.0 vs PCIe 4.0 || RTX 4080 th-cam.com/video/f2I3qEsQxH4/w-d-xo.html
Hallo Raff. War ein sehr informatives Video. An sich schmecken die Karten schon, vor allem wegen des größer dimensionierten VRAMs . In meinem Fall besteht ein größeres Interesse am XT-Modell. Die Leistung liegt zwar unter der 4080, allerdings ist der Preis deutlich günstiger. Raytracing ist bei den Karten weniger ein Thema, aber gut. Es gibt einen Punkt, der mich etwas schlucken lies: Der Stromverbrauch im Multi-Monitoring Betrieb. Ich habe mir die PCGH Tests zu der 4070 TI und 4080 angesehen. Leider wird nirgends erwähnt, wieviel Strom die Nvidia-Karten mit mehreren Monitoren einfordern. Und leider fand ich dazu nichts im Internet. Tja, wie auch bereits andere in den Kommentaren geschrieben haben, ist der Stromverbrauch ein Thema. Währe klasse, wenn Du dazu ein paar Infos hättest.
27:02 VSR kenne ich nicht... kann man das essen?
Mega Analyse, vielen vielen Dank für die ganze Arbeit und große Mühe 🙏🏻👏🏻 Respekt vor Eurer Arbeit 👌🏻🫶🏻
Thema dlss bleibt offen? Oder im Vergleich mit FSR?
Sehr Geil, werde mir jetzt ein Bier holen und mir das Video reinziehen :)
Oida, wir haben Montag 16:00 Uhr
@@Syspender Ich habe Urlaub xD
Darf ich mal was fragen, ich hab die Vega64 könnt ihr nicht auch die in den Benchmark packen? Damit ich und viele andere wissen wie groß der Leistungsunterschied ist? Weil die Vega64 ist ja ebenfalls 4k Ready.
Dass die GPU 100w im Idle bei hohen Auflösungen braucht, ist ein absolutes Nogo (gerade in der heutigen Zeit). Keiner holt sich sone GPU, um die hinterher bei FullHD 60Hz zu betreiben.
dp 2.1 abwärts kompatibel zu dp 1.4 ?
Danke, dass ihr immer noch Doom Eternal bencht :) So ein wunderbar optimiertes Spiel. Nutze nicht zuletzt deshalb immer eure Benchmarks.
Welche der AMD 7000er Karten haben denn aktuell die wenigsten Probleme mit Spulenfiepen?
Ich behalte meine 580€ 3080 10GB. Das waren schon 200€ mehr, als ich sonst für eine GPU bereit war. Wer mal vom Gedanken weg kommt immer alles auf maxed out stellen zu müssen, der wird erstaunt sein wie gering der optische Unterschied ist, aber wie groß der Framegewinn dafür.
Hab immer noch meine 2080 und kann alles was ich habe auf hohen Einstellung sauber spielen. Mal abgesehen davon, dass die meisten guten Spiele überhaupt keine großen Grafikmonster sind.
Dann aber sicher gebraucht? Ich kaufe prinzipiell gebrauchte Karten nur von Leuten, die ich kenne. Aber die neuen NVIDIA-Karten sind einfach nur überteuert. Meine Schmerzgrenze wurde mit der 3080 12GB erreicht.
Ich auch
Oder DLSS nutzen. DLSS verdoppelt die Fps in vielen fällen. In Qualität sieht es oft sogar besser aus als nativ mit Anti Alising.
Also mein Sohn hat eine "Sapphire Vega 64 Nitro+" aus 2018 und spielt aktuelle Titel auf Ultra. Ich hab mal bei ihm "Sniper Ghost Warrior Contracts 2" auf Ultra gespielt. Das lief problemlos. Ich hatte zwar nur 40fps, aber dennoch war das Spiel immer noch sehr gut spielbar! Auch "Horizon 5" läuft auf seinem Rechner mit "Extrem" Einstellungen flüssig. Eine Nvidia macht nur Sinn wenn man Rytracing will, aber ist Raytracing diesen Aupreis wert? - Definitiv nicht! Ich habe eine RX6900XT und zocke auf einem OLED mit 4K und HDR - das ist der Wahnsinn. Die kostet 500 Euro weniger als die RTX4080 und über 1000 Euro weniger als die RTX4090. Kauft man sich heute eine Karte aus dem Mittelfeld, ist man bestens für die nächsten Jahre bedient.
Auf welche Temperaturen kommen die beiden Karten im Gaming?
Raff, du bist der Geilste!
Danke für das Video
Ab wie viel uhr geht die 7900er serie in europa in den verkauf?
Sehr schöne Karten gefallen mir.
#FragPCGH Bei dem erschreckenden Anstieg das Verbrauchs bei Anschluss eines 144 Hz Monitors...habt Ihr mal getestet, wie sich das bei einem 240 Hz oder gar 360 Hz Monitor verhält? Liegt dieser hohe Verbrauch nur bei 4k Monitoren vor? Habe einen 21:9 Monitor mit 2560*1080 , aber eben 144 Hz.. wäre der Verbrauch hier auch so hoch?
Habe gerade den Artikel regelrecht verschlungen! Vielen Dank für die herausragende Arbeit und die vielen interessanten Informationen! Rein objektiv betrachtet, sind das wirklich performante Produkte die AMD da am Markt platzieren möchte. Bedauerlicherweise leidet aktuell noch die Workload Effizienz, was hoffentlich noch durch Treiber Updates gefixt werden kann, denn insbesondere heutzutage ist dieser Faktor nicht zu vernachlässigen und muss beim Preis der Karten miteinkalkuliert werden, denn Energie wird auf absehbare Zeit garantiert nicht günstiger. Leistung und Lautstärke stimmen ansonsten absolut.
Wenn AMD schon sagt es ist so gewollt,dann wird da nix passieren
Im Prinzip die gleiche Sache wie ryzen 7000 durchgehend bei 95°...laut AMD gewollt....und nach wie vor immer noch so
Ich habe aktuell die 7900xt und bim am überlegen die 7900xtx oder rtx 4090 , wäre das sinnvoll?
So wie erwartet, gleich auf +- 4080 in Raster, letzte generation Nvidia RT Leistung und dabei höherer Verbrauch und lauter als die 4080. So wie erwartet hat der niedrige Preis seinen Grund. Trotzdem sind die XTX und die 4080 beide interessant , wenn die XTX als Custom kommt sind es wohl dann 1199 oder 1249 Euro und kommt der 4080 umso näher im Preis. Irgendwie kommt es mir doch so vor als ob Nvidia und AMD wissen was der andere machen wird.. Das Ganze ist so angepasst, wenn Nvidia günstiger gewesen wäre hätte AMD nochmal runter gehen müssen im Preis, aber ist ja nur meine Meinung. Man muss aber auch sagen dass die RT Leistung einer 3090Ti mit DLSS und dann ggf. auf der XTX mit FSR 2/3 gut genug sein wird um es gut nutzen zu können. Die 4090 ist nunmal schon auf dem Level der nächsten Generation in 2 Jahren, wenn man es haben und es sich leisten kann, dann warum nicht...
10% mehr Raster Leistung als die 4080 ist für dich gleich auf ???? Are u drunk? 😁
@@lokibier Dafür 25% mehr Leistung im Raytracing. Wir sprechen hier von High-End...da muss das ordentliches Raytracing schon drin sein. Zudem 80-100w weniger Verbrauch im Schnitt, wesentlich leiser und wesentlich besser im Bereich Rendern und Bild/Video/3D-Bearbeitung (ist auch vielen wichtig) usw usw. Ich denke beide Karten haben ihre Zielgruppen.
@@lokibier 4% mehr Rasterleistung für die XTX. Der einzige Kontext, in dem hier 10% gefallen ist, ist 10% weniger Rasterleistung für die XT.
@@mikeryan1043 hast du dir die Grafen angesehen ? Ich sehe da 10%. Ebenso bei Igor etc ?
@@lokibier 11:40
Also super cooles Video wirklich , aber eine Frage hätte ich da woher hast du die AMD Led Beleuchtung im Hintergrund ? 😅
#FragPCGH
Mich würde das Undervolting Potential der RDNA3 Karten interessieren. 🤓
Lässt sich die Effizienz der neuen Karten (so deutlich wie bei den RTX 4000 Karten) erhöhen, indem man das Powertarget senkt, oder undervolted? 😊
Bei den Ada Karten waren ja noch ordentlich Effizienzgewinne ohne grobe Leistungseinbußen drinnen - das würde die AMD Karten noch deutlich attraktiver machen, wenn man da noch etliche Watt sparen kann 😇
also vielleicht ein "Stromspar-Guide 2022 GPUs"😁
Vielen Dank für den ausführlichen Test, aber was ich mich noch frage: wie ist die Performance unter Pci 3.0? Aktuell reicht mir noch mein X370 Board, aber ich will nicht 1200€ verpulvern.
Gibt es eigentlich Mikroruckler? Also im Vergleich zu Monolithdesigns? Und wie sehen die 1% und 0,1% low aus?
Schade. Ich habe sehr sehr lange gewartet, bin aber doch enttäuscht. Wenn ich die Entscheidung zwischen einer Customdesign AMD Karte vs Nvidia entscheiden muss, dann fällt die Entscheidung "leider" auf die Nvidia. Stromverbrauch, RT, Treiberprobleme und die absolut ungewisse Zukunft der DLSS Variante von AMD. Wenn das nächstes Jahr in die Hose geht, dann steht man mit einer 1300€ Karte extrem doof da.
Somit dann doch die absolut sichere, leise und stromsparende 4080 für 150€ mehr.
Top Video. Inhaltlich und von deiner Art und Weise wie Du es vorträgst. Danke dafür!
hm also der verbrauch, effizienz der amd karten hat mich ja schon enttäuscht, im vergleich zur 4080
ich vermute mal die Treiber werden dafür wieder nach und nach nachgebessert wie bisher bei AMD
Danke für die Mühe! Wie performen die denn so mit After Effects und Blender?
Ich bleibe für die nächsten 1 bis 2 Jahre bei meiner 3080, es muss nicht immer alles in Ultra und Raytracing sein. Ich wage zu behaupten, den Unterschied zwischen High und Ultra
sieht so gut wie keiner.
Ich mag meine 1070 xD
Guess who's back?
Back again
Raff's back
Tell a friend
Guess who's back? Guess who's back?
Guess who's back? Guess who's back?
Guess who's back? Guess who's back?
Guess who's back?
Danke für die Mühe und das zusammentragen der ganzen Fakten. Wie immer super informativ und auf den Punkt. Leider bin ich mir immer noch unsicher obs jetzt ne 4080 oder ne 7900xtx wird, mal schauen was die nächsten 2 Wochen so passiert und wie die Partnerkarten sich mit den neuen GPU´s machen und was sie dann am Ende tatsächlich kosten.
Also ich habe seit Freitag meine RTX 4080 FE und kann dir sagen...absolut geile Karte! 🥰👍 Aber ja...den Preis braucht man nicht schön zu reden. Da musste ich auch 10x überlegen, ehe ich auf "Kaufen" gedrückt hab. Aber die Nutzungsdauer von min. 4 Jahren und die Tatsache, das Gaming mein einziges Hobby ist, haben mir die Entscheidung dann deutlich leichter gemacht. 😉
Kann dir auch die 4080 empfehlen. Flüsterleise und der Stromverbrauch ist echt nice.
@@D4rkResistance hammer karte alles richtig gemacht. hab mir auch eine 4080 fe gekauft. hat deine karte auch etwas spulenfiepen? meine hat leider etwas spulenfiepen und ich hoffe das wird mit der zeit besser.
Wenn Raytracing, dann 4080, aber besser 4 Wochen warten, sonst argerste dich nur.
Ich schließe mich allen an , habe auch ne 4080 sie hält was sie verspricht , wirklich Flüsterleise , extrem gute Leistung , sehr Effizient und ein Raytracing Monster. Meine Kaufentscheidung hängt auch am Raytracing und ich würde auch eher zu Nvidia greifen. Ich hab übrigens die Gamerock 4080 von Palit. Grüße Dave
Ist das dssl 3 nicht auch noch etwas wichtiges - gerade in Zukunft, damit man lange was von der Karte hat?
Geiles Teil, aber der Preis wird sich iwo bei 1300-1400€ einpendeln genau wie die 4080.
Jo denk ich auch, dann muss man sich wohl entscheiden, das eine gegen das andere.....bei 100€ hin oder her, würde ich persönlich tatsächlich die Nvidia nehmen, aber die hat wiederum kein USB-C was ich für VR bräuchte -.-
AMD wird schon unter Nvidia bleiben müssen, dafür fehlt es dann an RT Leistung und aktuell FSR 3.0. Ich tippe auf 1.2 für die RE.
Ist vielleicht nicht ganz das Thema für diese spezifischen Karten Modell bei AMD, aber wie ist es denn Software seitig von AMD mittlerweile?
Habe oft gehört dass die Treiber für AMD Karten halt nicht so optimal sind wie bei Team grün zumal Nvidia ja auch noch Features hat wie Broadcast, kann da nun AMD mit halten?
Wenn man eine 1200€ Karte als billig bezeichnet 😂😂 Da läuft einiges falsch in der Hardwarebranche.
Ist halt der Wandel der Zeit, ein Golf kostet heutzutage auch so viel wie früher ein BMW.
Wenn man bei der Technik das aktuellste und beste haben will muss man halt dafür bezahlen, ansonsten gibt es ja genug Alternativen die günstiger sind und genau so funktionieren wenn man hier und da Abstriche macht
@@LA_3000 Schlechter Vergleich von dir. Ein passenderer Vergleich: Wenn du für ein Auto, dass mit 100km/h fahren kann, 70.000 Euro verlangst. Eine Einsteigergrafikkarte die nicht mal richtig FHD kann, für 300€ im Jahr 2023 zu verkaufen, ist einfach nur krank und kann nicht schöngeredet werden. Aber hey, jeder wie er es mag. Es gibt Menschen, die denken ein Handy wäre über 2000 Euro wert, weil es Whatsapp Nachrichten schreiben kann und TH-cam unterstützt. Das zeigt einfach nur, dass sich die Menschen gerne abzocken lassen und die etwas Klügeren nutzen es halt aus.
@@massivebuilder dann kauf es nicht und nutz 10 Jahre alte Technik und zock alles in low Details.
Aber heul nicht rum von wegen „abzocken lassen“ offne mal die Augen was in der Wirtschaft so abgeht….
Hallo zusammen, ein sehr informatives Video! Allerdings auch viel Informationen. Ich nutze sehr intensiv den Microsoft Flugsimulator 2020 und für den soll nun ein neuer Rechner her. Die Konfiguration steht soweit, allerdings ist nun die Frage AMD RX 9500 xtx oder die RTX 4080. Habt ihr, nur bezogen auf den MSFS 2020 eine Empfehlung?? Herzlichen Dank. VG Thomas
Den Preisunterschied zur 4080 frisst die XTX mit dem Stromverbrauch bei den aktuellen ganz gut weg... Meine Treiber-Erfahrungen waren bei AMD sehr negativ, daher wird es wohl die 4080
#FragPCGH Wie schlagen sich die Karten unter Linux? Und hängt der hohe (Desktop) Stromverbrauch am Treiber oder am Hardware Design?
Überlege ernsthaft von ner 3070 auf die XTX zu wechseln
Gibt es auch mal einen Test der RTX 6000 ADA?
Bis jetzt ist die aktuelle GPU Generation einfach unfassbar uninteressant. Die RTX 4080 ist überteuert, die kleine schwester ist am Markt komplett verschwunden und wird wohl als 4070 rebranded und die 7900 XT/X sieht schlechter aus als sie beworben wurde, waren da nicht zwischen 50-70% mehr FPS die Rede? Im Endeffekt stehen beide hersteller schlecht da.
Naja wie auch immer...gute Arbeit und danke dafür.
Video wie immer top....ich persönlich bleibe jedoch bei meiner Aussage vor 3 Monaten.....beide gpus werden als Referenz nie verfügbar sein...und eine custom xtx wird sich zwischen 1270-1500€ einpendeln
Ich bin davon überzeugt daß die sehr schlecht verfügbar sein werden und gute 250€ teurer als angegeben,hab mich die letzten Jahre nur selten geirrt....aber wir werden sehen
Hab was gehört das zum launch 3000 Karten in Deutschland verfügbar sein sollen, 7000 Europaweit ...also wirklich nicht viel.
und die Boardpartner halten sich noch ein paar Wochen zurück damit sie auch paar Karten zum verkaufen haben.
Daumen nach oben Top Video 🙂. AMD war ja früher nicht bekannt für gute Treiber was sich aber seit den Radeon 6000er Karten doch ziemlich verbessert hat! Wenn ich mir die Leistung der 6000er Karten nach release anschaue und diese mit jetzt vergleiche hat sich da einiges getan. Ich bin da sogar der Meinung, dass AMD in den letzten drei Jahren bessere Arbeit geleistet zu haben wie NVIDIA. Wie seht Ihr das und was könnte man dann noch von diesen Karten erwarten. Zu Euerer Frage: ja
Kann ich leider nicht behaupten die Treiber Probleme sind auch bei den 6000ern
@@soausf2438 Dann würde mich mal rein aus Interesse interessieren, was genau für Probleme es gibt.
@@nicobraun9540 wo soll ich nur anfangen?😂....bei der Adrenalin Software die rumspackt sobald irgendwas umgestellt wird statt auf Auto zu lassen,microruckler alle paar Sekunden in diversen Games,plötzlicher schwarzer Bildschirm ingame...und Man ist im Desktop weil Treiber gecrashed ist
Alles Sachen die ich in 10 Jahren Nvidia nicht hatte
Und das schlimmste davon ist,du kauft eine 6800xt,6700xt und 6900xt...und mit allen 3 bekommst du kein Bild ,weil AMD das Software und Chipsatzmäßig nicht schafft es zum laufen zu bringen
Jedesmal musste erst die gute GTX 970 als Retter in Not herhalten
Ich würd's ja noch vertehen wenn es mit einem Intelbrett so wäre.....aber hauseigener ryzen 5000 ,b550 Brett mit neuesten BIOS und AMD GPU.....
Und hola...der Computer sagt nein 😖
Für mich unverständlich
Kann ich so unterschreiben, meine 6900XT wurde mit jedem größeren Treiberupdate besser. Wenn ich daran denke, das ich bei Cyberpunk zu Beginn die reinste Diashow hatte als ich RT aktiviert hatte und das mit jetzt vergleiche, wo ich mit 60+ fps auf WQHD zocken kann. Auch kann ich diese ganzen Treiberprobleme die es geben soll nicht nachvollziehen. So lange man nicht irgendwelche Einstellungen im Treiber ohne zu wissen was man dort eigentlich macht ändert, laufen die Karten auch 1A. Vorrausgesetzt natürlich, man hat alte NVidia-Treiber sofern vorhanden sauber mit DDU entfernt oder das System mal komplett neu aufgesetzt. Denn oftmals sitzt das Problem nicht im Treiber sondern im Anwender vorm Monitor.
@@waldowaldo1980 Tja und davon ist nicht mal ein einziges der Probleme bei mir oder bekannten (welche alle AMD nutzen) aufgekommen. Eher im Gegenteil, mit meiner alten GTX 1060 hatte ich wesentlich mehr Probleme 🫠
#FragPCGH
Thema Treiber:
Ich habe oft diesen "Grauenbildschirm" Fehler und der Fehlerbericht sagt mit immer was von Treiber Timeout..... habt ihr sowas auch beim Testen oder garnicht?
Habe schon viel rumprobiert und diesen Fehler zu beheben aber er kommt immer wieder. Ich denke das es an meinem Odysee WQHD Bildschirm liegt. -.-
1150€ ist das neue "billig"... Sachen gibt's. ^^'
Ist es möglich, dass Board Partner (Karten) oder Treiber Updates den Stromverbrauch in Ruhezustand mit mehreren Monitoren (mit hoher Bildwiederholrate) runterdrosseln können?
Gute Konkurrenz zur RTX 4080 und dazu noch rund 200-250€ günstiger. Für alle die nicht mit ach und krach nur auf RT achten eine sehr gute Alternative 👍
Viel zu wenig Ersparnis, für die Abstriche, welche man machen muss. Alleine DLSS 3 und RayTracing bei der RTX 4080 und 90 sind goldwert!
Wenn man nicht auf RT achtet braucht man aber auch keine XT(X).
Schau dir nochmal ab 19:40 an, zieh aber vorher deine rosarote AMD Brille ab, sonst verpasst du es evtl.
Raytracing ist seit Jahren das am meisten überbewertete Feature, was keiner den ich kenne nutzt. Daher achte ich nur auf die normalen Frames und Leistungsaufnahme / Verbrauch.
@@primus_DE ALS RTX 3070 Besitzer muss ich leider zugeben das es stimmt. RT wird in 99% der Spiele derart beschissen umgesetzt, das ich gut gemachte Cube, light und shadowmaps vorziehe. Das macht man mal fürn Benchmark an und ist schnell gefrustet. Bevor ich auf das native rendern verzichte, kommt RT aus. Denn DLSS/FSR ist Sondermüll. ich hab dadurch in 1440p einfach oft ein derart unscharfes Bild mit Artefakten, das ist kein RT wert. Auch wenns Ausnahmen wie Controll gibt.
klasse Video, sher schön erklärt
Schade, jetzt sind 1 Tag vor Release schon all meine Hoffnungen kaputt. Wollte mir endlich Mal wieder ein Upgrade zur GTX 1070 holen. Aber bei den Preisen... Dann muss sie halt noch ein Jahr durchhalten...
Der $preis war doch schon seit wochen bekannt 🤔
Spoiler: Die nächste Grafikkartengeneration wird sicher nicht billiger.
die Preise waren doch lange bekannt !?!
kauf dir doch von so einem vollhonk eine 6900XT für 500-600€ bei ebay und fertig. Haste wieder 4 jahre ruhe und einen sehr intelligenten menschen der JEDE generation mitnimmt gibt es doch immer :)
AMD hatte die (US) Preise seit knapp 1,5 Monaten selbst preisgegeben... Und dass die High End Modelle nicht gerade 500 kosten ist wohl logisch
Vielen Dank für das ausführliche Video.
#fragPCGH
Ist denn bekannt, ob Customdesigns auch andere Displayanschlüsse verwenden?
Ich betreibe derzeit eine Valve Index @DP und drei 4k-Panels an 2xDP, 1xHDMI.
Mit einem solchen Setting wären die aktuellen AMD schon direkt raus.
899€ für die XTX und 699€ UVP für die 7900 XT wären bei der gebotenen Performance "gut" gewesen. Hier haben wir nun zwei weitere GPUs auf dem Markt, welche die RTX 4080 und 4090 noch besser aussehen lassen und deren Preise quasi in Stein meißeln. AMD muss die Preise anpassen, sonst kaufen nur AMD Fanboys und ein paar Fehlgeleitete diese Karten, der Rest holt sich die RTX 4080 oder 4090, die ebenfalls überteuert sind. Echt schade, ich hätte die 7900 XTX sonst gerne im Referenzdesign gekauft.
Ich geb dir voll Recht, nur: Wie bekomme ich ohne komplett neues Setup ein USB-C Anschluss an die 4080, für die Ersparniss wird das wohl weniger
@@syrocoo1 USB-C geht mit 4080 leider nur über entsprechende Mainboards, die DP/alt oder Thunderbolt haben. Der USB-C Anschluss ist für mich auch ein selling point. Für meinen mobilen Rechner habe ich da eine RX 6800 XT mit USB-C gekauft. Da läuft der mobile Monitor mit nur einem USB-C Kabel, ohne extra Stromanschlüsse.
@@BarisYener Hmm....was kostet die Welt XD
Also doch eher ne Powerbank für die VR und über W-lan 🤔 n goldesel hab ich einfach nicht🥲
Mal abwarten was die Hersteller so verlangen....
@@BarisYener 700€ wäre knapp die Hälfte der 4080 für ~10% weniger Leistung... Deine Preise sind absolut unrealistisch. Ich finde auch AMD muss leicht unter Nvidia bleiben da die Karten weiterhin bei RT nicht auf dem Level sind und FSR 3.0 aktuell noch nicht verfügbar ist. 1200€ für die 7900XTX passt aber, AMD hat leider auch kein Geld zu verschenken. Ich finds eher interessant was dann die Mittelklasse kosten wird, die wenigsten wollen im Endeffekt so ne 1000+ Karte
Besser kamm man es nicht zusammenfassen. Eine einzige Enttäuschung dieser Release. 100 Watt Idle und das mit Absicht...ohne Worte...
Der Stromverbrauch in Display 4K ist ja nicht sehr erfreulich. Wie sieht es mit der Leistungsaufnahme beim Display in WQHD aus?...Würde mich interessieren, ob die Energieeffizienz in WQHD ansprechender ausfällt. Gibt es dazu schon Fakten?
"Warum sind die so BILLIG"?! WTF!? Billig wären sie, wenn sie 600€ kosten würden. Himmel hilf..
Hat der nicht wirklich gesagt? 😅
Gibt es eine Liste zu allen aktuellen GK mit dem Stromverbrauch? Zb. die 4070Ti mit zu vergleichen.
Danke Raff! Du bist der beste Grafikkarten-Profi und nach deinen Videos und den hervorragenden Online-Tabellen ist man definitiv optimal informiert.
Ich mag den integrierten USB-C für VR-Headsets sehr. Schade, dass nVidia Karten das nicht haben. Und wie immer ordentlich RAM. Ich mag aber auch Raytracing und sitze da zwischen zwei Stühlen.
_____
#FragPCGH:
- Man liest viele Benchmark-Tabellen, ich würde gerne mal in einem Vergleichsvideo sehen, wie die Unterschiede im Gameplay visuell ausfallen.
- Als Beispiel ein Gameplay-Splitscreen-Vergleichsvideo von Cyberpunk 2077 der beiden Flaggschiffe 4090 und 7900 XTX in UHD. Ein Vergleichsvideo mit Raytracing und ein Video ohne Raytracing.
=> Hier die Frage: Wie sieht das CP2077-Gameplay 4090 vs. 7900 XTX mit und ohne Raytracing aus?
die 4090 im vergleich zur 7900xtx bringt nicht wirklich was. die 4090 ist deutlichst schneller, kostet aber halt auch 1100 euro mehr. vergleichbar ist die 7900xtx eigentlich nur mit der 4080, das wäre ein fairer vergleich und tatsächlich interessant
@@s.7208 Du hast den Sinn leider nicht verstanden oder nicht richtig gelesen.
Mir geht es darum die Benchmark-Zahlen der beiden Flaggschiffe im Gameplay-Vergleich zu sehen. Ich möchte also im Gameplay sehen, was der 4090-Vorsprung ausmacht (nicht nur Balken und Zahlen). Sieht die 4090 im Vergleich zur 7900 XTX sehr viel flüssiger aus, dass es sich für Grafikenthusiasten lohnt tief in die Tasche zu greifen? Oder sieht es bei der 7900 XTX (mit und ohne Raytracing) flüssig genug aus und man kann eine menge Geld sparen. Daher bringt dieser Vergleich durchaus was! Wenn zwei Games einen gleich langen Benchmark-Balken haben, dann wird in einem Splitscreen-Gameplay-Vergleich die linke Seite genau so aussehen, wie die rechte. Die Arbeit kann man sich sparen.
Es geht auch darum am Beispiel der beiden Flaggschiffe die Benchmark-Zahlen zu visualisieren! Man sieht viele Balken und Zahlen, schön wäre daher mal ein Gameplay-Beispiel, um zu sehen wie flüssig die fps-Angaben im Vergleich aussehen. Zahlen sind abstrakt, nicht jeder hat eine genaue Vorstellung ab wann etwas flüssig wahrgenommen wird und ab wann es keinen Unterschied mehr ausmacht. Ein Gameplay-Vergleich zeigt, was die Zahlen bedeuten und was es letztlich bringt.
@@MichelPougin na dann überleg dir mal was wie man das zeigen kann, wenn youtube nur 4k 60fps anzeigen kann. in gameplays hast du auch nur zahlen
@@s.7208 Daher wollte ich ein Vergleichsvideo von Cyberpunk 2077 sehen. Ohne Raytracing liegen beide unter 60 fps (44,8 vs. 42,5 fps). Mit Raytracing liegt die 4090 nur 7 fps darüber (67 vs. 31,9 fps). Wenn man diese 7 fps außen vor lässt, würde mich interessieren wie sich das visuell auswirkt.
Wie wäre es die Fragen und Wünsche deiner Mitmenschen zu respektieren anstatt abwertend formulierte Kommentare zu posten? Ich muss mich nicht für eine Frage an PCGH bei der Community rechtfertigen. Sowas demotiviert andere User Fragen zu stellen und macht keinen Spaß! Außerdem habe ich PCGH gefragt und nicht dich. PCGH wird schon selbst entscheiden können ob sie die Frage aufgreifen und wie sie am sinnvollsten ein Splitscreen-Vergleichsvideo umsetzen.
Danke für den von der technischen Seite her hervorragenden Test und die viele Arbeit.
Aber 1:00: "Warum sind die so billig und gibt es einen Haken?":
Ja! Der Haken ist, dass 1.150 € schlicht und ergreifend nicht billig ist 🙂
r.i.p. AMD. Über 100 Watt für normales Windows. Ihr habt doch den Schuss nicht gehört.
Wie kommt ihr auf so nen hohen Wattverbrauch bei der 4080? Meine zieht average 7 Watt im Leerlauf und 13,4 Watt bei 4K YT Video.
hab ne 4080 einen HD monitor und einen 4K hauptmonitor. beide laufen und ich schau youtube 4k video und hw monitor sagt 7 w bei mir
Warum sind die so billig sagt er… dass ich nicht lache. Realitätsverlust als Tester
Danke dir vielmals! Aber wo bleibt der OC ? ;)