AMD Radeon RX 7900XTX und RX 7900 XT im Test - Viel Licht und trotzdem auch Schatten. Die Fakten!

แชร์
ฝัง
  • เผยแพร่เมื่อ 6 ก.ค. 2024
  • Artikel auf Deutsch: bit.ly/3hkQucy | English Version: bit.ly/3hduzEd
    00:00:00 - Kanalintro
    00:00:16 - Begrüßung und Einführung
    00:02:14 - Sehr wichtige Vorbemerkung
    00:04:00 - Die Kartendaten im Schnelldurchlauf
    00:07:37 - Testsystem und Labor (Insights)
    00:10:30 - Teardown: Platine, Topologie, Komponenten
    00:19:23 - Teardown: Kühler und Tipps zum Wärmeleitpastentausch
    00:25:22 - Benchmarks in QHD (Rastergrafik, Raytracing, alles gemeinsam)
    00:37:03 - Benchmarks in UHD (Rastergrafik, Raytracing, alles gemeinsam)
    00:45:13 - Workstation.Benchmarks und Rendering
    00:49:01 - Leistungsaufnahme im Detail und Hintergründe zum Slot
    00:53:09 - Lastspitzen und Lastwechsel samt Nebenwirkungen
    00:57:16 - Netzteil-Bemessung und Empfehlung
    00:58:34 - Reale Taktraten unter Last, Temperaturen und Infrarot-Bilder
    01:04:10 - Lüftersteuerung, Lautstärke und Spulenfiepen (Samples)
    01:08:18 Zusammenfassung und Fazit
    Es ist endlich soweit und wir können nun endlich, nach viel Theorie und Unboxing im Vorfeld, auch einmal praktisch testen, was die neuen Radeon RX 7900XTX und RX 7900XT wirklich leisten können und wo vielleicht sogar auch noch weiteres Potential brach liegt. Ich gehe mal davon aus, dass auch AMD vom guten Abschneiden der GeForce RTX 4090 und später auch der RTX 4080 einigermaßen überrascht wurde. So, wie viele meiner Leser auch, die hinter beiden neuen Ada-Karten zunächst stromfressende Pixelmonster vermutet hatten. Doch es kam ja bekanntlich alles komplett anders und es ist zu vermuten, dass AMD in letzter Minute an den beiden heute gelaunchten Karten noch etwas nachgelegt hat...
    #AMD #Radeon #rx7900xtx #RX7900XTX #rdna3 #benchmark #gaming #review
  • วิทยาศาสตร์และเทคโนโลยี

ความคิดเห็น • 825

  • @patatacaliente8270
    @patatacaliente8270 ปีที่แล้ว +96

    Igor ist so'ne Art Harald Lesch für PC Enthusiasten: Super informiert und dabei auch noch ein guter Unterhalter. Schaut man sich immer wieder gern an.

    • @Falk4711
      @Falk4711 ปีที่แล้ว +2

      Schau doch erstmal bis zum Ende.

    • @alexanders.2685
      @alexanders.2685 ปีที่แล้ว +2

      Haha ja. Wie tief sollen wir rein gehen?! Igor: Ja!

    • @Captain_Rudi
      @Captain_Rudi ปีที่แล้ว +2

      Er erinnert mich immer an den Peter Lustig... 😅 Wer ihn nicht kennt...googelt mal 😂

    • @Falk4711
      @Falk4711 ปีที่แล้ว +1

      @@Captain_Rudi Fehlt nur noch die Latzhose 😁

    • @Captain_Rudi
      @Captain_Rudi ปีที่แล้ว +2

      @@Falk4711 genau...obwohl er von der Statur es nicht ganz packt...aber von der Art her auf jeden Fall 😅😁
      Das ist natürlich positiv gemeint, lieber @Igor 😉

  • @Artstye4you
    @Artstye4you ปีที่แล้ว +9

    Danke für den tollen ausführlichen Test- Ich bin schon sehr gespannt was mit den Boardpartner Karten der 7900XTX passieren wird. Für 1300 Euro und mehr werden die es jedenfalls sehr schwer haben denke ich !

    • @MotoMario1
      @MotoMario1 ปีที่แล้ว

      Habe mir die Red Devil für aktuell 1190€ bestellt, bin gespannt.

  • @neralem
    @neralem ปีที่แล้ว +5

    Jener Aufwand! Respekt Igor, wirklich Wahnsinn was du dir für Mühe gibst. Sehr interessant alles

  • @norb309
    @norb309 ปีที่แล้ว +6

    Ich mag die technischen Details und Erklärungen dazu. Macht deine Videos zu etwas besonderem. ;)

  • @emidrummer1990
    @emidrummer1990 ปีที่แล้ว +2

    Top Test, danke Igor! und jetzt ab in die Weihnachtsferien mit Dir :) frohe Festtage!

  • @ChadKenova
    @ChadKenova ปีที่แล้ว +11

    Igor seems to go into way more depth than most reviewers, great review

    • @igorsLAB
      @igorsLAB  ปีที่แล้ว +8

      Thats why I need more time, that means video length. BTW it is a one-take :D

    • @fckyt8222
      @fckyt8222 ปีที่แล้ว +2

      @@igorsLAB And thats, why Igor is the tech king. He goes much deeper in that stuff, than everybody else!

    • @HitokiriShin
      @HitokiriShin ปีที่แล้ว +3

      Seems? He literally does! :^D

    • @Erbsengeneral
      @Erbsengeneral ปีที่แล้ว +2

      @@igorsLAB holy moly ^^ Respekt. Ist mir nicht aufgefallen, so gut wars am Ende.

  • @jensprystawik6982
    @jensprystawik6982 ปีที่แล้ว +1

    Ich habe Dein Video nur nebenbei im Hintergrund gehört.. ABER dann musst ich mir das genau anschauen. Sehr gute Infos und sehr fundamentales Wissen über Grundlage der E-Technik. Chapeau! Sehr informativ Igor 🙂

  • @sleepyelk5955
    @sleepyelk5955 ปีที่แล้ว +1

    Das Spulenfiepen und die Lüfterlautstärke ist schon krass ... danke, dass du das so ausführlich vorgestellt und erklärt hast!

  • @jurgenthiele3772
    @jurgenthiele3772 ปีที่แล้ว +1

    Danke, sehr gut vorgestellt. Freue mich schon auf dein nächstes Video. Danke und mach es genau so weiter.

  • @bartoszrura2804
    @bartoszrura2804 ปีที่แล้ว

    Wunderbar!
    Danke für den ausführlichen Test :-)

  • @cy7125
    @cy7125 ปีที่แล้ว +3

    Danke Igor!
    Eingedenk Deiner tollen differenzierten Tests, und da ich die nächste Karte wohl viele Jahre im Rechner haben werde, wird es bei mir wohl das Stromsparmodell.
    Also eine undervoltete 4090.

  • @EspritBerlin
    @EspritBerlin ปีที่แล้ว +2

    Igor, ganz herzlichen Dank für das tolle Video! Hammer, 1000 Dank!

  • @Noir1234
    @Noir1234 ปีที่แล้ว +5

    Straßenpreise werden wohl anfangs eher bei 1,3k€ liegen für die XTX. Im AMD Shop bekommt man sie vielleicht zum UVP, aber ganz ehrlich, bei dem Spulen fiepen verzichte ich.
    Davon abgesehen das ich diese Gen. komplett überspringen werde.
    AMD hat diesmal echt ins Klo gegriffen. XTX für unter 1000€ kann man drüber reden, mehr nicht...
    Wenn man sich die UVP Preise anschaut ist die XT wie eine kleine Pommes bei McDonalds, ergibt keinen Sinn sie zu kaufen. 10% günstiger aber im durchschnitt ~15-20% langsamer.
    Die XT muss mindestens 200€ weniger kosten als die XTX (UVP) bevor man überlegen kann sie zu kaufen.
    Da wirken die 4080 Preise schon gar nicht mal so schlecht, für den Mehrwert den man bekommt mit RT, DLSS, NVENC etc....

  • @PzKdt76
    @PzKdt76 ปีที่แล้ว +14

    Danke für deine gleichbleibend interessante, professionelle, unterhaltsame und wohl auch ziemlich einzigartig tiefgründige Arbeit!

  • @theblackshadow3144
    @theblackshadow3144 ปีที่แล้ว +4

    Super Video danke für die ganze Arbeit würde mich noch freuen wenn du noch einen Vergleich Video machst zu FSR und DLSS zu den neuen Karten

    • @igorsLAB
      @igorsLAB  ปีที่แล้ว

      Dafür gibts den Artikel 😉

  • @FatalityDiablo
    @FatalityDiablo ปีที่แล้ว +2

    Igor, du bist einfach der beschte!

  • @jumowagames
    @jumowagames ปีที่แล้ว

    Igor, Deine geile Ausstrahlung ist ansteckend! Danke! 😁

  • @kmc012
    @kmc012 ปีที่แล้ว +3

    Da bin ich ja froh im Sommer die 6950XT zu einem guten Preis ergattert zu haben. Klar haben die neuen AMD Karten eine gute Performance, aber so ein riesiger Leistungssprung zum Vorgänger ist es jetzt nicht. Für 150€ weniger fände ich die Preise in Ordnung.

  • @devultra1125
    @devultra1125 ปีที่แล้ว +4

    Ich hoffe das weitere Treiberupdates noch Verbesserungen bringen können. SAM und FSR3 fehlen ja irgendwie noch. Da könnte vielleicht dieses kleine Quäntchen herausgeholt werden, was die Karte dann doch abhebt von der 4080.

    • @fye5602
      @fye5602 ปีที่แล้ว +1

      SAM ist doch rbar und damit vorhanden, warum sollte das fehlen? Einzig FSR 3 fehlt derzeit noch, aber ist auch nicht notwendig für die Benchmarks.

    • @devultra1125
      @devultra1125 ปีที่แล้ว +1

      @@fye5602 rbar war doch Nvidia oder nicht? Keine Ahnung, mir war nicht bekannt das die 7000er auch direkt SAM unterstützen, wobei das ja Sinn macht, die 6000er konnten es ja auch ab Release.
      Bei den Benchmarks hilft es nicht, aber mehr FPS in Games sind immer gut, und es sind letztlich die Games weswegen ich mir eine Grafikkarte hole, keine Synthetischen Benchmarrks. :^)

  • @TheRaketenHarry
    @TheRaketenHarry ปีที่แล้ว +1

    Von "der da" zu "Ada" ist mein persönliches Highlight! ;)
    PS: gutes Video!

  • @Andreas-ec4gi
    @Andreas-ec4gi ปีที่แล้ว +1

    Super Aufklärung....bist der Beste...Danke Igor ....😉

  • @bene452
    @bene452 ปีที่แล้ว

    Danke! Fakten mit humor 😂super freu mich schon aufs nächste Video

  • @saab_9
    @saab_9 ปีที่แล้ว +1

    Awesome review

  • @Ruhiger_Fels
    @Ruhiger_Fels ปีที่แล้ว +4

    Ich wünsche Ihnen und ihrer Familie frohe Weihnachten und ein gutes neues Jahr 2023. 😃👍
    Ein wichtiger Kanal der die Qualität bei TH-cam hochhält.

  • @michaelmeyer2842
    @michaelmeyer2842 ปีที่แล้ว +4

    Ich bin bis jetzt sehr positiv mit den Karten gestimmt. Sie sind da wo sie angekündigt wurden und die Treiber sind der Erfahrung her auf Dauer immer die Performanteren, da sie längerfristig besser optimiert werden. Noch sind die AI-Cores auch noch nicht in Anwendung, d. h. auch hier ist noch offenes Potential. Und für das Geld was AMD abruft ist die Leistung wirklich top

    • @rhunor2433
      @rhunor2433 ปีที่แล้ว

      Finde es erschreckend, wie schnell solche Preise relativiert werden...kein Wunder, dass die Preise so hoch bleiben.

    • @michaelmeyer2842
      @michaelmeyer2842 ปีที่แล้ว

      Keine Ahnung warum die Preise nicht passen sollen. Es sind Haloprodukte nicht die Standardkarten aka 7700 oder 3060 welche wieder bezahlbar für den Otto sind

    • @firezeed
      @firezeed ปีที่แล้ว +1

      sagen wir malso, die treiber reifen erst noch beim kunden. Hatte einige amd karten...

    • @wolfgangkober1291
      @wolfgangkober1291 ปีที่แล้ว +1

      sehe das anders - ich würde hier eher die 4080 für 200 Euro mehr kaufen. Dann hab ich nicht so Geschichten wie die unfertigen Treiber, das Risiko mit dem Hitze Problem, laute und ineffiziente Karten und in jedem Game eine gute Leistung. Auf die Nutzungsdauer sind die 200 Euro gut investiert

    • @michaelmeyer2842
      @michaelmeyer2842 ปีที่แล้ว

      @@wolfgangkober1291 Da das Hitzeproblem nur bei den Referenzkarten existiert und ich persönlich daran nicht interessiert bin ist es für mich kein Faktor. Die Treiber werden mit der Zeit immer besser und AMD hat auf lange Sicht NVIDIA häufig Plätze gekostet. Die Energieeffizienz ist für mich aktuell nicht relevant, da es auf 50-100 Watt nicht ankommt und diese mit leichter Optimierung sowieso eingespart werden können und hier eben auch die Treiber den Verbrauch verbessern werden. Ich hatte die letzten 14 Jahre mehrere NVIDIA und AMD Karten und je nach Generation sind manche besser und schlechter. Dieses Mal ist NVIDIA mMn. einfach nicht das Geld wert, welches sie für ihre Karten fordern. Auch NVIDIAs Treiber haben stellenweise Probleme und AMD ist gerade aus OpenSource-Sicht die bessere Wahl. Hier ist für mich und ich rede nur von meiner Sicht und Wahl! AMD die bessere Wahl. Ich steigere meine Leistung von meiner 3080 allein in der Rasterleistung deutlich und RT ist für mich nicht relevant, der Mehrspeicher schon eher. Eine 4080 ist teilweise kaum besser als eine 3090 und die 4070TI ist auf dem lvl einer 3080 für deutlich mehr Geld. NVIDIA zieht hier einfach nur den Leuten das Geld aus der Tasche.

  • @pistolero2k9
    @pistolero2k9 ปีที่แล้ว +5

    Schade, dass AMD bei 4k gaming immernoch Probleme ggü. dem grünen Lager hat. Solche high end Karten will man natürlich voll ausfahren. Für 1440p kaufe ich mir sowas nicht. Denke, ich bleibe erstmal bei meiner 3080ti und beobachte den Markt.

    • @HitokiriShin
      @HitokiriShin ปีที่แล้ว

      Ist definitiv das Beste!

  • @08funfzehn
    @08funfzehn ปีที่แล้ว +9

    Gut das ich bei der 6900xt vor einigen Wochen zugeschlagen habe😬

  • @ALPHA_N3RD
    @ALPHA_N3RD ปีที่แล้ว +3

    Lieber Igor,
    wieder einmal ein tolles Video, danke! 🙂Könntest du mal eine RX 6900 XTXH gegen die beiden neuen Karten testen? Diese fehlt mir immer in den Benchmarks bis jetzt. Mich würde das sehr intressieren und freuen!.

  • @austinpowers8422
    @austinpowers8422 ปีที่แล้ว +4

    Ich hab bei meiner XFX 7900 XT (AMD Referenzkarte) gerade eine interessante Entdeckung gemacht bezüglich Spulenfiepen, da ich selbst mit Framelimiter auf 60 FPS bei Doom Eternal und Battlefield 1 in den Menüs das Fiepen deutlich hören kann (vor allem bei Doom):
    Einfach mit Alt + Tab oder Alt + R raus aus dem Spiel wechseln und dann wieder zurück ins Spiel springen, dann ists weg. Allerdings spinnen dann bis zum nächsten Systemneustart die Tabs im Chrome und Edge Browser (schwarzes Flackern).
    Im Radeon Overlay sehe ich auf die Schnelle keine Veränderung an der Leistungsaufnahme oder anderen Metriken... was hoffen lässt dass das Problem evtl. per Treiber behoben werden kann.
    Übrigens scheint mein Be Quiet Straight Power 11 650W Gold die Radeon 7900 XT samt Ryzen 5800X3D stabil betanken zu können.
    Danke @Igor für das Video und den dazugehörigen Artikel 👍

    • @David-kn2lb
      @David-kn2lb ปีที่แล้ว

      Hey ich kann dir da auch noch einen Tipp geben, hab nämlich auch eine XFX 7900xtx... Hab bei mir folgende perfekte Einstellungen gefunden: Im AMD Treiber leichtes Undervolting von 1150mV auf 1110mV somit ist Karte ca. 5-8 Grad Kühler und verbraucht im Schnitt ca. 50 Watt weniger... Da die GPU eh schon annähernd an die 3000Ghz läuft und bei mir bis 3040Mhz takten darf lohnt sich hier nicht den Takt weiter anzuheben, allerdings verträgt meine XFX +300Mhz im Speichertakt und läuft somit ebenfalls auf 2800Mhz... Alles in allem hat das Undervolting folgende Vorteile, Karte verbraucht weniger Strom, bleibt Kühler und man kann den Speichertakt anheben. Im Benchmarkt konnte ich nur durchs reine Undervolting +5% Mehrleistung erkennen (Karte bleibt Kühler und länger im oberen Boost), durch den höheren Speichertakt kommen noch mal 5% drauf also 10% gesamt das sind 8-10fps und in FarCry 6 sogar 12fps mehr. Das besten kommt zum Schluss das Spulenfiepen ist ebenfalls viel besser geworden... Ich nutze zusätzlich im Treiber das Profil Spiele für die Gaming Performance und befeuere somit einen 49" Samsung Monitor mit AMD Freesync Pro... Hab meine FPS im AMD Treiber auf 80FPS limitiert und das alles in Kombination ist für mich einfach die perfekte Einstellung, Karte läuft schnell, kühl und relativ leise ( halt was das MBA Design her gibt)... Hoffe da sind noch ein paar Tipps für dich dabei... LG David

    • @austinpowers8422
      @austinpowers8422 ปีที่แล้ว +1

      @@David-kn2lb Danke für den Tipp. Ich hab meine 7900 XT aber wieder zurück geschickt, daher kann ich es jetzt nicht mehr verifizieren. Igor hatte mit seiner Netzteilempfehlung zwar recht, aber als ich meine Vega 56 wieder verbaut hatte, fing das Netzteil an mit fiepen. Ich lasse Benchmarks immer ohne Ton oder anderer Audioquellen laufen weil ich genau hören will was das System für ne Lautstärke generiert.
      Das Netzteil hatte zuvor definitiv nicht gefiept weshalb entweder reiner Zufall bedingt durch das Alter (PSU ist ca. 5 Jahre alt) oder die 7900 XT dies verursacht hat. Das fiepen mit der Vega ist aber deutlich weniger penetrant.
      Getestet und reproduzierbar ist es im Cyberpunk 2077 Benchmark... da fiept es mit beiden Karten durchgehend, egal bei welchen FPS. Ein fiepen bei FPS jenseits von 144 FPS (ich will ja meinen 144hz Monitor auch nutzen) wäre ja ok... aber selbst im gesamten Spektrum von 30FPS bis 144FPS ist ein no go für mich.
      Der momentane Plan sieht aus, dass ich Custom Modelle der 7900 XTX + Tests abwarte, ne 1kW PSU kaufe und dann hoffentlich im März oder so (samt gereifterer Treiber) nen vertretbar leises System habe.
      Meine Tests lassen mich auch vermuten, dass der Adrenalin Treiber 22.12.1 nicht immer den Framelimiter aktiviert und das Radeon Overlay auch falsche FPS anzeigt.
      Kannst das ja mal in Cyberpunk probieren indem Du VSync ausmachst und die Bildmodi "Fenster", "Fenster ohne Rand" und "Vollbild" durchschaltest. Bei "Vollbild" macht die 7900 XT jedem Zikadenschwarm Konkurrenz. Dann machst mal VSync wieder an und schaltest die Modi noch mal durch. Trotz 60PFS Grenze und 60FPS im Radeon Overlay höre ich das Fiepen.

  • @Andy_S79
    @Andy_S79 ปีที่แล้ว +2

    Danke für das Updaten von Blender und Testen mit HIP und nicht mit Open CL wie früher. 👍

  • @tomsun3159
    @tomsun3159 ปีที่แล้ว +1

    Igor Danke für deinen ausführlichen Bericht. Er erleichtert mir meine Entscheidung noch zu warten erheblich.
    Coilwhine
    Stromversorgung auf Kante
    Treiberprobleme
    hoher Verbrauch bei vergleichsweise niedriger Belastung (in meinem Fall 3440*1440/100FPS Rasterleistung in DX11 Titel)
    Ich denke wenn die anderen Boardpartner mit ihren eigenen Layouts (3+8 Pin), die (ich denke mal) Bios-Fehler gefixed sind, der Treiber gereift sind, dann wird es nochmal interessant. Aber in der jetzigen Situation/Konfiguration uninteressant.

  • @411STFU
    @411STFU ปีที่แล้ว +5

    Also das Einzige, was ich mir von der 7900 xtx erhoffe ist, dass sie preislich endlich mal Druck auf die 6800xt ausübt. In den USA bekommste du eine Red Devil 6800 xt für 550$. Bei uns kostet die über 800€. Die günstigsten 6800xt bewegen sich so um 700€. Das kann so nicht weitergehen. :-)

    • @411STFU
      @411STFU ปีที่แล้ว +2

      @@InnerFury666
      Eine Red Devil 6800xt für 550€ kaufe ich instant.

    • @mikeryan1043
      @mikeryan1043 ปีที่แล้ว

      Denke leider nicht, dass die neuen Karten im Mittelklasse Segment viel Preisdruck ausüben. Dazu sind die neuen Preise viel zu weit entfernt.

  • @reijhinru1474
    @reijhinru1474 ปีที่แล้ว +2

    Vielen Dank für den ausführlichen Test Igor. Ich wollte mir eine 7900 XTX kaufen aber bei dem Spulenfiepen und der Lüfterlautstärke der Karte hab ich ohne zu zögern eine 4080 FE bestellt. Lieber zahle ich 250€ mehr und muss dieses fiepen nicht hören! da wird man doch verrückt...

    • @Uthleber
      @Uthleber ปีที่แล้ว +2

      "ohne zu Zögern" :D Nice try, Jensen.

  • @Ex-the_deadfly_donkey
    @Ex-the_deadfly_donkey ปีที่แล้ว +5

    Wenn ich mir Ihr fast euphorisches Video über die 6900XT in Erinnerung rufe, dann ist die 7900xt(x) eine reine Enttäuschung. Sehr schade!

  • @steffenachtzehn8817
    @steffenachtzehn8817 ปีที่แล้ว

    DANKE GUTES VIDEO😀

  • @tomsun3159
    @tomsun3159 ปีที่แล้ว +4

    @igor: wie wäre es mal Simulationen (Flightsim und der allseits beliebte ETS2) in Multimonitor Setup zu testen, ich denke gerade für den Personenkreis könnte es interessant sein (3* WQHD) da dürfte einiges an Belastung auf die Karten zu kommen (klar da geht es nicht um dreistellige Frameraten), ich frage mich wer da die bessere Wahl ist Nvidia oder AMD.

    • @hanneskomoll5785
      @hanneskomoll5785 ปีที่แล้ว

      Würde mich sehr interessieren, super Vorschlag,

  • @peerrucke2599
    @peerrucke2599 ปีที่แล้ว

    Hallo Igor, die Frage gehört zwar nicht zum Thema, aber kannst du mir eine Wärmeleitlösung für 3D drucker empfohlen? Hab mir ein neues Hotend bestellt und werde damit öfters mit 260-270 grad C arbeiten. Bei den meisten pasten steht nichts dabei und selbst die Pasten, die als 3D-Druckpasten verkauft werden, geben nur 200 Grad max an. Muss jetzt kein highendzeug sein. Hauptsache es leitet besser als Luft und hält die Temperaturen aus. Ich hab Arctic MX4 und Liquid metal zuhause, denk aber nicht, das eines davon geegnet ist. Thermal Grizzly gibt aber -250-350Grad C. an? Wäre das was?

  • @TnFruit
    @TnFruit ปีที่แล้ว +2

    Habe ich vor die Videokodierung und Entkodierung mit AV1 verpasst?

  • @thejoker9211
    @thejoker9211 ปีที่แล้ว +2

    Hallo Igor,
    Erstmal danke für das ausführliche und spannende Video!
    Ich habe eine Frage wegen den Blender Benchmarks.
    Woran liegt das, dass die Karten beim Rendern deines Bots so weit vorne liegen, obwohl andere Tests mit blendereigenen benchmarks (auch mit HiP) nur auf das lvl einer RTX 3080 kommen?

    • @morkaili
      @morkaili ปีที่แล้ว +1

      Besonders faszinierend sind die sehr unterschiedlichen Ergebnisse mit HIP je nachdem ob mit Intel oder AMD CPU getestet wurde. Das seltsame daran ist, dass es keinerlei Funktionen gibt, die die Leistung mit einer AMD CPU verbessern, eigentlich müsste sie sogar schlechter sein im vergleich zu der Intel-Konkurrenz im selben Preisbereich.
      Scheint als ob es da mit der unfinalen Version von Blender 3.5.x noch so einige Probleme gibt, in 3.4.x jedenfalls sind die Nvidia GPUs klar vorne.

  • @C137IDR
    @C137IDR ปีที่แล้ว +3

    Wie seht ihr den Vergleich zwischen FSR und DLSS? Besseres Bild, bessere Frames etc. Und wie relevant ist der Unterschied im VRAM besonders auch auf die 2023 Spiele möglicherweise, wenn man Richtung Lumen und Nanite schaut die ja VRAM hungrig sind. Schwierige Entscheidung geworden zwischen der 4080 und 7900XTX. Kürzlich den G9 zugelegt mit 5120x1440 - da wird das Upgrade von der Laptop 3060 jetzt Zeit.

    • @wedgeantilles8575
      @wedgeantilles8575 ปีที่แล้ว +5

      Wenn du keine Firmenvorlieben hast, ist die 4080 die unterm Strich klar bessere Karte.
      16GB Ram genügen.
      DLSS ist klar besser als FSR, alleine weil es deutlich mehr Spiele gibt die DLSS unterstützen als FSR. Und wenn in Zukunft mehr FSR geben - das kannst du mit der 4080 ja auch nutzen.
      Aber wenn ein Spiel DLSS unterstützt aber nicht FSR? Dann bist du mit der AMD Karte der Depp.
      Dazu ist die Bildqualität von DLSS unterm Strich besser. Vor allem auf den unteren Stufen deutlich besser.
      -> DLSS ist FSR überlegen.
      Die 4080 ist bei RT sehr deutlich schneller im RT - und RT ist das, wo du am ehesten viel Grafikleistung brauchst.
      Die 4080 ist deutlich effizienter, braucht also sehr viel weniger Strom.
      Damit hast du die Mehrausgaben im Laufe der Zeit locker wieder drin. Kommt natürlich an wieviel du deinen PC nutzt, aber alleine durch die katastrophalen Idle Werte und YT Werte sparst du da pro Woche bereits mehrere kWh wenn du deinen PC am Tag ein paar wenige Stunde nutzt.
      Das macht im Jahr 50 Euro, bei stärkerer Nutzung auch das doppelte oder dreifache.
      Die 4080 ist leiser und kühler.
      Ich sage nicht, dass die 4080 eine attraktive Karte ist - aber sie ist das deutlich bessere Angebot als die 7900XTX.
      Und das ist sehr traurig, da die 4080 eigentlich völlig überteuert ist.

    • @drago1legendpcsbuilds80
      @drago1legendpcsbuilds80 ปีที่แล้ว

      @@wedgeantilles8575 FSR ist die Zukunft. Es hängt von den Konsolen ab und da ist AMD im Vorteil. Denk sogar das die PS6 wieder auf AMD setzten wird, weil günstiger.
      Nvidia unterstützen ? Man tut sich selber keinen Gefallen damit...Das ist ja der Grund, warum diese überteuert sind...Also nicht kaufen...Natürlich ist AMD kein Engel und will auch Geld verdienen, jedoch was Nvidia in form einer 4080 12GB machen wollte war ganz klar Wucher ! Und man darf daher diese nicht unterstützen.

    • @wedgeantilles8575
      @wedgeantilles8575 ปีที่แล้ว +2

      @@drago1legendpcsbuilds80 Falls FSR "gewinnt" ist man mit der 4080 nicht schlechter aufgestellt. Weil FSR darauf genauso funktioniert.
      Falls aber DLSS gewinnt, ist man mit der 7900XTX der Idiot.
      4080 ist die sichere Option.
      Und mit den Stromkosten unterm Strich eher sogar preiswerter!
      Das abzustreiten ist einfach unsinnig.
      Außer eben man zahlt nix für Strom oder nutzt den PC nur wenige Stunden pro Woche.
      Und PS6: Sorry, aber aktuell heißt es, dass die 2028 kommt.
      Evt. wird es 2027 - aber das sind immer noch 5 Jahre.

    • @ningamertendo
      @ningamertendo ปีที่แล้ว

      @@wedgeantilles8575 Geht nur bis FSR2 für FSR3 wird es wie bei den Nvidia Grafikkarten auf die AI-Zusatzkerne hinauslaufen. Zumal es noch RSR gibt, das auf Treiber-Ebene läuft während Nvidias DLSS implementiert sein muss. AMD hat und wird immer den Vorteil des Open-Source-Systems haben. In der Vergangenheit hat auch Nvidia immer und immer wieder dadurch die Technologie von AMD übernommen. Rein Fortschrittlich gesehen ist man daher eher mit der Geldanlage bei AMD aufgehoben. Man kann natürlich jetzt den Stromverbrauch hochrechnen, was doch eher Richtung 4000 Stunden Vollleistung geht. Wenn man 8h am Tag diese nutzt dann könnte sich es lohnen, bevor die neuen Generation raus kommt (auf 2 Jahre gerechnet). Wobei auch hier AMD leider aber wie immer erst optimieren muss. Dann gehe ich davon aus, dass wie in der Vergangenheit auch die Leistung zu nimmt und die Leistungsaufnahme teilweise auch ab.
      Nvidia kommt mir nicht mehr ins Haus, da die komplette Software proprietär ist und jeglicher Support unter Linux etc. nicht oder nur schwer vorhanden ist. Quasi ein vorgeben, wie man seine Hardware zu nutzen hat. Das kann und will ich nicht mehr unterstützen.

  • @Triso86XT
    @Triso86XT ปีที่แล้ว

    Die Benchmarks und Fazits sind wirklich echt unterschiedlich wenn man so quer schaut.

  • @gatzuuuberserker3931
    @gatzuuuberserker3931 4 หลายเดือนก่อน +1

    Gibts mittlerweile einen fix fuer den extremen desktop idle stromverbrauch? 120-140 watt bei der xtx

  • @ImSiggi
    @ImSiggi ปีที่แล้ว +2

    wenn man eine der beiden kauft dann die xtx. die xt kostet 10% weniger bieter aber 15% weniger leistung und wie du selbst gesagt hast kann die xtx durch updates noch deutlich besser werden, die xt aber nicht so viel.

  • @robertdrechsler5003
    @robertdrechsler5003 ปีที่แล้ว +2

    Es ist sicherlich nachvollziehbar, dass die erste Multi-Chiplet-Architektur bei Gaming-GPUs überhaupt noch etwas mehr mit Treiberproblemen zu kämpfen hat. Von daher bin ich beim Thema "Fine Wine" recht zuversichtlich. Da steckt sicherlich noch etwas an Leistungspotenzial in den RDNA3-Grafikkarten. Aber auch so ist es für mich, bis auf den Effizienzvergleich mit Ada, eine richtig gute Vorstellung von AMD. Auch die Raytracing-Performance ist jetzt auf einen guten Niveau und stellt nicht mehr länger einen deutlichen Nachteil dar.

  • @Neikon
    @Neikon ปีที่แล้ว +2

    danke für das Video igor, ich finde die 7900XTX super, RT Interessiert mich zum glück noch nicht, und die paar mehr watt interessieren mich auch nicht wirklich da ich nicht 24/7 spiele. :D mach weiter so.

    • @sr1v3r
      @sr1v3r ปีที่แล้ว

      Zum Glück?

    • @Neikon
      @Neikon ปีที่แล้ว

      @@sr1v3r ja weil da die Leistung nicht so gut aussieht

  • @TheOnlyRivae
    @TheOnlyRivae ปีที่แล้ว +1

    Wieder mal ein grandioser Test, leider nicht dem Hype gerecht geworden die Karte, wer hätte anderes erwartet.

  • @PhoticSneezeOne
    @PhoticSneezeOne ปีที่แล้ว +3

    Bin echt froh, daß der Gebrauchtmarkt wieder HALBWEGS akzeptabel ist.
    Was Nvidia und AMD preislich abziehen ist mittlerweile wirklich dystopisch.

    • @dirkengelhardt2116
      @dirkengelhardt2116 ปีที่แล้ว

      Warum?

    • @n.erdbeer
      @n.erdbeer ปีที่แล้ว

      Alles wird teurer, die Preise von vor Jahren gelten nicht mehr, insbesondere durch die Geschehnisse der letzten Krisen. Konsolen wären auch deutlich teurer, gäbe es kein Preis Diktat der Hersteller.

    • @mikeryan1043
      @mikeryan1043 ปีที่แล้ว

      Kann ich nur zustimmen. Realitätsferne Preise, die sich vermutlich in den kommenden Monaten runterregulieren. Bzw. schon jetzt tun wie man an der 4080 sehen kann.

    • @andrefelder4902
      @andrefelder4902 ปีที่แล้ว

      @@n.erdbeer Du bist leider realitätsfern unterwegs. die Preissprünge sind nicht zu rechtfertigen

    • @n.erdbeer
      @n.erdbeer ปีที่แล้ว

      @@andrefelder4902 kaufst du auch keine Butter mehr, weil der Preis sich verdoppelt hat? Die Produktionskosten der Chips bleiben doch nicht gleich, die haben sich mit dem kleineren Fertigungsprozess deutlich erhöht, davon abgesehen das Nvidia Chips mit großer Fläche verwendet, die geringere Yield Raten haben, man also pro Wafer weniger Ertrag hat. Eine Kostensteigerungen wäre somit logisch, auch wenn man alle Krisen der letzten Jahre ausblendet, die allesamt Einfluss auf die Preisentwicklung hatten. Der Dollar Euro Kurs tut sein übriges um die Preise bei uns zu steigern. Wem die Preise zu hoch sind, der soll eben warten oder Last Gen kaufen. Ansonsten kommt mal in der Realität an.

  • @roberthuxoll8500
    @roberthuxoll8500 ปีที่แล้ว +1

    Da hatte ich mir doch ein wenig mehr erhofft... 😯
    Bleibt noch abzuwarten, wie es denn bei der 7900 XT ausschauen wird, wenn Igor einmal Hand anlegt und bei ursprünglicher Leistungsbegrenzung von 300W (oder gerne noch einen Tick weniger) untervoltet. 🤔😉
    Ich könnte ja doch derzeit noch zur 4080 FE tendieren, wenn die denn in das Gehäuse passen würde... 🥴

  • @Sesam
    @Sesam 7 หลายเดือนก่อน +3

    Ein Nachtest wäre super Igor. Leider hat niemand mehr auf die Karten geschaut. Wie ist die Lage beim Stromhunger, gerade im Idle, wie sind die Treiber inzwischen, wie ist der "Reifegrad" aktuell nach ca. einem Jahr. Wäre super wenn da noch was kommt. Alle Videos zur 7900er Reihe sind inzwischen 1 Jahr alt und niemand weiß ob AMD die Probleme inzwischen im Griff hat

    • @igorsLAB
      @igorsLAB  7 หลายเดือนก่อน

      Viel besser geworden ist es leider nicht. FSR3 hat immer noch etwas von einem Einhorn und manchmal habe ich das Gefühl, AMD hat intern RDNA3 schon abgehakt. Allein schon das Verdongeln von Treiber und API zeigt leider, dass man was zu verbergen hat, was der Community mehr als nur abträglich ist. Seit man noch nicht mal mehr gescheit Untervolten kann, haben viele meiner Bekannten AMD den Rücken gekehrt.

    • @Sesam
      @Sesam 7 หลายเดือนก่อน +1

      @@igorsLAB leider hab auch ich AMD den rücken gekehrt. Bin nun komplett blau grün obwohl ich viele Jahre komplett rot war. Liebäugle nun aber aufgrund des Videospeichers mit der 7900xt von Sapphire oder Asus. Nur der idle Strombezug und der Verbrauch bei dual Monitor Setup mit hohen Herzzahlen schreckt mich etwas ab. Bisher ging das ja in den hohen zwei bis niedrigen dreistelligen Bereich. Da gab's auch keine Besserung?

    • @michaelt3439
      @michaelt3439 7 หลายเดือนก่อน

      Anscheinend muss sich der Stromverbrauch mit aktivem VRR also Free Sync massiv verbessern
      Das sagen zumindest 2 Berichte vom August

    • @Sesam
      @Sesam 7 หลายเดือนก่อน

      @@michaelt3439 werde es kommende Woche rausfinden. Hab nun zwei fast identische Monitore da. Der eine kann nur paar Herz mehr als der andere. Die 7900xt tuf kommt auch in paar tagen

    • @Sesam
      @Sesam 7 หลายเดือนก่อน +1

      Inzwischen bin ich etwas schlauer. Nachdem die Sapphire Nitro bei mir ein echter Schreihals war hab ich nun die Asus tuf drin. Idle 40-50w auf dem Desktop mit offenem gpuz. Surfen + Twitch/TH-cam kaum mehr, bei nicht so leistungshungrigen spielen bleibt's bei genügsamen 110-150w. 300w und mehr hab ich bisher nur selten gesehen außerhalb von Benchmarks.
      Monitore sind einmal ein LG ultragear 850bp @165hz und ein 800bp @144hz. Karte ist noch unangetastet, lediglich Radeon chill ist dauerhaft aktiv um das spulenfiepen zu reduzieren bzw zu beseitigen

  • @OberstStruppi
    @OberstStruppi ปีที่แล้ว

    @Igorslab Was meinst du? Bei einem x570 5600x/6800XT Gespann für 3440x1440p auf eine 7900XTX hochzurüsten. Lohnt sich das oder sollte man die CPU auch gleich tauschen?

    • @igorsLAB
      @igorsLAB  ปีที่แล้ว

      Besser wäre es schon. Der X3D war grade günstig

    • @OberstStruppi
      @OberstStruppi ปีที่แล้ว

      @@igorsLAB Die Überlegung ist tatsächlich ob man jetzt GPU/CPU hochrüsten soll auf X570 Basis oder tatsächlich eine Generation überspringen und dann auf X670 gehen mit DDR5 und neuen GPU´s in zwei Jahren.

    • @oliverbecker3443
      @oliverbecker3443 ปีที่แล้ว

      @@OberstStruppi Und worauf willst du in 2 Jahren warten?

    • @OberstStruppi
      @OberstStruppi ปีที่แล้ว +1

      @@oliverbecker3443 Dann einmal alles neu. Board, DDR5, RTX5000 oder AMD 8000er Serie. Jetzt wäre es ein zwischendurch Upgrade.

  • @shibadad5891
    @shibadad5891 ปีที่แล้ว +1

    Vielleicht auch eine dumme Frage aber wird der Stromverbrauch dann auch bei den Boardpartnerkarten aussehen? Sprich egal was die liefern es wird immer das Maximum verbraucht? Das ist ja als fahre ich mein Auto so spritsparend wie möglich und es verbraucht so viel wie bei Vollgas.

    • @SouLG97
      @SouLG97 ปีที่แล้ว +1

      Ich denke das ist eine Treiberfrage. Dass die Karte immer auf maximaler Last läuft macht eigentlich keinen Sinn. Ansonsten fps limitieren auf deine Monitor Hz Frequenz. Da wird sich in naher Zukunft sicher noch etwas am Verbrauch ändern.

    • @shibadad5891
      @shibadad5891 ปีที่แล้ว +1

      @@SouLG97 ah OK dann warte ich mal ab was die Zukunft bringt. Bin schon ultra gespannt wie die RedDevil sich schlagen wird.

  • @threesixtydegreeorbits2047
    @threesixtydegreeorbits2047 ปีที่แล้ว +5

    (Dieser Kommentar stellt eine Kunstpause im Kommentarbereich dar, der die Themen trennt)

  • @Karlderkarl
    @Karlderkarl ปีที่แล้ว +1

    wenn meine augen nicht täuschen, dann war da doch eine fury nano auf dem bild ?

    • @igorsLAB
      @igorsLAB  ปีที่แล้ว +1

      Gut beobachtet 😊

  • @Exacted
    @Exacted ปีที่แล้ว +5

    Das kannst du dir nicht ausdenken wie viel Strom die verbrauchen, da vergeht mir direkt die Lust auf eine neue Grafikkarte.

    • @Uthleber
      @Uthleber ปีที่แล้ว +3

      Find es witzig, unter wievielen Videos ich von diesem Effizienz Thema lese - Bei der 3080 und 3090 hat es auch keine Sau interessiert, das die viel mehr verbraucht haben als AMD. Diesmal ist es anders herum und es wird ein riesen Fass aufgemacht.

    • @Exacted
      @Exacted ปีที่แล้ว +2

      @@Uthleber Woher weißt du denn ob ich bei der 3090 nicht die gleiche Meinung hatte?

    • @TeipeX_yt
      @TeipeX_yt ปีที่แล้ว

      😂👍

    • @Uthleber
      @Uthleber ปีที่แล้ว +2

      @@Exacted Ich rede nicht speziell von dir. Es fällt aber einfach wie, wie viele über dieses Thema reden, welches bei der letzten Generation niemanden interessiert hat. ( Auf dauer wird halt das alleinige Raytracing Argument langweilig ;) )

    • @fredistar681
      @fredistar681 ปีที่แล้ว

      @@Uthleber Naja das ist doch relativ einfach. Wenn eine Karte einfach schneller ist, dann nimmt man gerne einen höheren Stromverbrauch in Kauf.
      Und das Image Problem darf man dazu auch nie vergessen. Bei Nvidia da denkt der Kunde, dass er ein Gerät hat mit "allen" Features und top Treibern. Bei AMD fehlt halt immer irgendwas. Und ich alleine kenne genug Leute, die aus Prinzip deswegen zur RTX 4080 greifen werden. Vor allem weil denen dann auch die 300€ mehr total egal sind.
      Frag einfach mal random Leute, ob sie bei AMD/ATI denken, dass sie High Performance Karten haben die gut sind

  • @MrSales1987
    @MrSales1987 ปีที่แล้ว +3

    Danke Igor, super Video sehr informativ!

  • @TheRickster998
    @TheRickster998 ปีที่แล้ว

    Hi, sind die Komponenten, sprich die Bildqualität hier bei der 7900XT schlechter als bei einer Radeon Pro W6600 oder W6800? Mich interessiert die Karte da ich 4K und 5k Thunderbolt3/USB-C Displayport Monitore habe. (Gaming nebensächlich, mir geht es mehr um die Bildqualität/Schärfe)
    Vielen Dank!

    • @igorsLAB
      @igorsLAB  ปีที่แล้ว +1

      Nein, ist sie nicht :)

    • @TheRickster998
      @TheRickster998 ปีที่แล้ว

      @@igorsLAB Danke für die schnelle Antwort. Es ist wirklich schwierig die richtige Grafikkarte zu finden für 5k Monitore, oder 4k Daisychainging. Mich interessiert hautpsächlich der USB-C Anschluß auf der Grafikkarte den fast keine Grafikkarte mehr hat. Ich habe schon 3 LG 32UL950W (4k) und einen LG 27MD5KL-B 5K Monitor. Ich glaub du bist der einzige der sich da vielleicht auskennt :) Die sind zuerst auf einem intel iMac 27 mit einer Radeon Pro 575X gelaufen (Thunderbolt 3). Bevor ich jetzt bei meinem Multimonitor PC-Build (mindestens 4x4K bis
      5x4k +1x5k, mich komplett verzettle vielleicht has du einen Tipp welche Grafikkarte da passen würde? Vielen Dank!

    • @igorsLAB
      @igorsLAB  ปีที่แล้ว +1

      @@TheRickster998 Mit aktuellen Karten wird das eher schwierig. Aber es kommen bald RDNA3-Karten als Radeon Pro (psst!)

    • @TheRickster998
      @TheRickster998 ปีที่แล้ว

      @@igorsLAB Ja das habe ich auch schon befürchtet bzw. gehofft. Danke!

  • @Osch1987
    @Osch1987 ปีที่แล้ว

    Werden also alle 7900XTX das Spulenfiepen haben? Oder kann es bei den Partnerkarten ganz anders ausschauen?

  • @Hope-be3yy
    @Hope-be3yy 4 หลายเดือนก่อน

    Hallo an alle ich verzweifele gleich mit dem Anschluss der rx7900xt . Ich habe ein rm850x Netzteil und welches Kabel nutze ich nun? Ein Y Kabel ? Oder lieber 2 Kabel , ob serperat oder 2 y Kabel ist ja dann egal aber bei meiner letzten 7900xt Pulse hatte ich mit einem sf750 nach 1 Monat dauernd Abstürze und es waren 2 Kabel dran. Ich hab viel gelesen aber einer sagt so der andere sagt so …. Gibt es jemanden der mir hier helfen kann ? Vielen lieben Dank an euch im Voraus )))))❤

    • @igorsLAB
      @igorsLAB  4 หลายเดือนก่อน

      Einzele Kabel sind eigentlich immer besser. Und wie äußerten sich die Abstürze? Normalerweise würde ja der PC ausgehen und neu starten.

  • @Fireice11111
    @Fireice11111 ปีที่แล้ว +1

    Igor oder jemand anderes kann mir jemand beantworten zu 100% ob es für die Manli GeForce® RTX 4080 16GB Gallardo Grafikkarte (16 GB, GDDR6X)
    Einen wasserkühler gibt ? ??
    Oder passt da der ek wasserkühler der FE drauf ???
    Finde da nichts zu im Netz auf ek wird sie nicht aufgelistet mein ich .

    • @Fireice11111
      @Fireice11111 ปีที่แล้ว +1

      Keiner weiß was ? Vielleicht Referenzen Design ?

    • @sebastiankueppers7105
      @sebastiankueppers7105 ปีที่แล้ว +1

      Warum willst du denn eine Manli umbauen? Hole doch direkt eine Gigabyte Aorus Waterforce Xtreme WB oder eine Inno3d ichill Frozen mit Full Cover Wasserblock. Dann hast du auch kein Garantieverlust durch abmontieren des Kühlers.

    • @Fireice11111
      @Fireice11111 ปีที่แล้ว +1

      Weil ich eine manli für 1100 haben hätte können habe mich aber um entschlossen .
      Habe super günstig eine Zotac bekommen.
      Meine alte rtx 3070 mit viel Zubehör steht nun zum vk wer interesse hat melden , 240 radi ,ek kühler ,Pumpe enheim . Oder auqastream xt , ich denke ihr könnt bei mir nen schnapper machen.
      LG. Noch

  • @SChuckLP
    @SChuckLP ปีที่แล้ว +1

    PCGH hat außerdem festgestellt, dass mit der Hertz Zahl des Monitors die Leistungsaufnahme teils deutlich ansteigt ( 100 Watt sind es insgesamt mit einer 7900 XTX z.B. bei einem UHD Monitor mit 144 Hz im Idle). Dies soll, laut AMD, so gewollt sein. Wie kann man sowas wollen?! Ich, als Kunde, jedenfalls nicht! Sonst sind die Karten wirklich gut und wurden zu den Vorgängern in vielen Aspekten verbessert und die Performance stimmt definitiv auch. Zum Thema Effizienz kann vielleicht noch ein Treiberfix etwas bewirken, aber das bleibt abzuwarten. Vielen Dank für deinen ausführlichen Test und die vielen interessanten Informationen!

    • @yosoy1loco
      @yosoy1loco ปีที่แล้ว

      Weißt Du, ob es in der Vergangenheit wirklich mal einen Treiberfix bei AMD gegeben hat, der die Powereffizienz merklich verbessert hat? Ich meine jetzt nicht das Ausbessern von absoluten Fehleinstellungen, sofern bei den vorliegenden 7900XT / XTX die Leistungsabnahme nicht als eine solche Fehleinstellung beurteilt wird.

    • @SChuckLP
      @SChuckLP ปีที่แล้ว +1

      @@yosoy1loco Nein, leider nicht, da ich auch seit meiner 7870 keine AMD Karte mehr hatte. Teils gewaltige Performanceverbesserungen durch Treiber sind mir aber schon noch gewahr, gerade wenn ich an die gute alte Radeon HD 5870 denke, die dann sogar eine Geforce GTX 480 schlagen konnte, sogar in Tesselation, was damals quasi das war, was Raytracing heute ist, eine technische Innovation.

  • @janodelic2615
    @janodelic2615 ปีที่แล้ว

    Meine Vermutung wäre, dass der VDDCR_USR vieleicht die neuen KI-Kerne versorgt. Aber ich hab keine Ahnung.
    Edit: Bin jetzt durch mit dem Video. Danke für das Review! Toll gemacht und sehr Informativ. Ich Schätze mal AMD wird hier auch noch beim Preis genug Spielraum haben, 700 € für die XTX in 2 Jahren sind bestimmt auch Möglich :-)
    Für mich eher Interessant werden dann die "Midrange" WQHD aka. Navi 32.

  • @Flextec
    @Flextec ปีที่แล้ว +1

    Seasonic Focus GX 650 mit 5800x3D und Referenz 7900xtx funktioniert meißtens aber nicht auf Dauer. Hatte jetzt schon mehrfach Abschaltungen bei Tarkov und auch Warzone 2.0.

    • @igorsLAB
      @igorsLAB  ปีที่แล้ว +1

      Das alte Focus hat ein technisches Problem, weil die OCP viel zu schnell reasgiert. Das ist aber bekannt.

    • @Flextec
      @Flextec ปีที่แล้ว +1

      @@igorsLABdanke für die Info, bisher liefen 6900xt und 3080 ti einwandfrei, hatte gehofft mich vor dem Netzteil-Kauf drücken zu können aufgrund der derzeitig angespannten Preislage.
      Hatte von Problemen mit multi Rail Netzteilen in Verbindung mit den 7900xtx gelesen, ist da was dran oder sollte ich wieder ein Single Rail nehmen? Schwanke zwischen dem bitfenix whisper m 850 (multirail) und dem fractal ion+ 2 860 (singlerail)

  • @user-ms4ij3cb5g
    @user-ms4ij3cb5g 8 หลายเดือนก่อน

    Danke

  • @peterrippl667
    @peterrippl667 ปีที่แล้ว

    Danke für den tollen Test. Kannst du auch mal bei den Renderprogrammen twinmotion oder UnrealEngine5 mit reinnehmen. Hier wäre der Unterschied Raster / Raytracing interessant. Danke!

  • @CellDE
    @CellDE ปีที่แล้ว

    Das Spulenfiepen der Referenzkarten wäre für mich nicht so der Kaufgrund auch der hohe Stromverbrauch im Dual Monitorbetrieb mit >60hz bildwiederholrate schreckt ab ...

  • @serious-rc933
    @serious-rc933 ปีที่แล้ว +2

    Könnte man vielleicht ein undervolting machen, mich würde es interessieren ob die Performance pro Watt sich verbessert und was dabei maximal mögliche wäre.
    Ich selbst habe aktuell eine RX6600XT 160Watt erreiche ca. 80FPS nun würde ich gerne die XTX einsetzen, jedoch brauche ich lediglich die 144fps Limit, den Rest würde ich gerne Energie sparen.

    • @hbl2011
      @hbl2011 ปีที่แล้ว +2

      Das hätte ich mir auch gewünscht. Undervolting und/oder irgendwas von den Partner-Karten. Interessant währe auch, was die Treiber nun machen (Gibt es Besserungen bei der Leistungsaufnahme etc). Schaun wir mal ob noch was kommt im Neuen Jahr. >> Einen guten Rutsch - kommt gut und gesund rein.

  • @zokuva
    @zokuva ปีที่แล้ว

    Mein PC (6600XT, 5600x) zieht aktuell laut Messung an einer herkömmlichen Smart-Steckdose so 300W während eines Torture Tests mit Prime95 und Furmark (FPS bei Furmark waren auf 1440p unabhängig ob Prime95 lief gleich also gehe ich davon aus, dass die GPU trotz Prime95 im Limit lief). Das Netzteil ist ein Corsair TX550M 80+ Gold. Ich weiß, dass bei meiner Messung die Leistungsspitzen außenvor gelassen wurden, aber wäre es zu weit her geholt, wenn ich vermute, dass eine 7900XT trotzdem an diesem PC laufen könnte?
    Ne 6700XT lief in dem PC auch mal für ein paar Wochen, auch problemlos, aber mir ist schon klar, dass die 7900XT ein gutes Stück mehr Saft zieht.

    • @igorsLAB
      @igorsLAB  ปีที่แล้ว

      Die 7900XT ist mit Lastspitzen von bis zu 400 watt im 10 ms Bereich eher sportlich. Aus dem älteren Corsair solltest Du rund 600 Wat dauerlast rausbekommen, aber das ist grenzwertig und laut.

    • @zokuva
      @zokuva ปีที่แล้ว

      @@igorsLAB laut, aber möglicherweise noch funktional? Der PC wird ja nicht dauerhaft Torture Tests laufen

    • @FatalityDiablo
      @FatalityDiablo ปีที่แล้ว

      @@igorsLAB angenommen man regelt das power limit auf -10%, drosselt zudem noch den chip-takt auf den von AMD spezifizierten boost takt von 2400MHz UND leitet ein kleines aber feines undervolting ein (vllt. 40 bis 60 mV) ...DANN solltest Du auf alle Fälle keine Probleme haben und Leistung auch kaum verlieren. Ich möchte mich natürlich nicht festlegen, aber meine 6800 läuft mit +10% power limit und 960mV chip spannung ohne probleme am seasonic focus platinum 550W.
      Für mich ist ein richtiger Dorn im Auge dass AMD das so blöd geregelt hat mit der Stromzufuhr über den PCIe slot was zu dem für mich persönlich unertragbarem Spulen rasseln und surren führt. Und wieso die Navi31 immer am limit der Stromversorgung bleiben ist für mich auch ein Rätsel... ich bekomme bei der RDNA3 architektur iwie Bauchschmerzn aber auch iwie keine Lust auf RDNA4 zu warten... vllt wirds diese Generation doch Ada Lovelace... yikes.

  • @WinklermachtFanmanagement
    @WinklermachtFanmanagement 6 หลายเดือนก่อน

    macht laune das fideo👍

  • @sven8993
    @sven8993 ปีที่แล้ว +3

    schön das ich mir erstmal eine 6900xt für 650,-€ gekauft habe. Dann kann ich in ruhe warten bis die 4080 nur noch 1000,-€ kostet

  • @peterpansen100
    @peterpansen100 ปีที่แล้ว +5

    Also die Effizienz ist tatsächlich ein Minuspunkt. Das im Idle stört mich am meisten. Allerdings ist eine Nvidia-Karte nach wie vor kein Thema bei diesen Wucherpreisen. Daher sehe ich die AMD-Karten derzeit als alternativlos und konkurrenzlos in den meisten Szenarien an. Sofern die UVP nicht überschritten wird, bieten die Karten dann auch relativ viel Leistung fürs Geld. Raytracing wird natürlich gerne als Marketinginstrument benutzt, hat aber in der Praxis so gut wie keine Bedeutung für die allermeisten Spieler. Der wichtigste Punkt ist die Raster-Leistung. Von daher überzeugt mich die 7900xtx in diesem Punkt. Was tatsächlich für mich aber ein No-Go ist, ist das Spulenfiepen. Das kann aber auch am Netzteil liegen. Hier werde ich lieber noch mal die Custom-Karten und weitere Test abwarten. Also entweder wird es eine AMD 7900xtx oder ich behalte meine 2080ti noch eine Generation länger. Ein Schnäppchen sind die AMD-Karten leider auch nicht. Nvidia hat sich aber so oder so komplett ins Abseits gestellt mit den Horror-Preisen. Sollten entgegen meiner Erwartung die Preise bei NVIDIAs neuen Karten stark sinken, dann erst würden diese anfangen interessant zu werden. Bei deren Geldgier wird das aber Wunschdenken bleiben. AMD ist als derzeit in meinen Augen die einzige Wahl, wenn man Spitzenleistung für einen gerade noch so akzeptable Preis möchte. Die Preise von NVIDIA dagegen sind absolut inakzeptabel und an Dreistigkeit nicht zu überbieten. Da hilft dann die bessere Effizienz auch nicht mehr wirklich und verpufft wie ein Tropfen auf dem heißen Stein. Das Raytracing Getöse ist auch nur heiße Luft und hat in der Praxis Nähe zu null Relevanz!

    • @Snake74147
      @Snake74147 ปีที่แล้ว

      Ist logisch dass sie Konkuirrenzlos ist, wenn du alle Konkurrenten ausschließt.

    • @fckyt8222
      @fckyt8222 ปีที่แล้ว

      @@Snake74147 NV hat sich doch selber ins Aus geschossen mit den Preisen. Die melken die Fanboys bis zum schluß....
      Und die Fanboys kaufen auch brav :D

    • @optimalsettings
      @optimalsettings ปีที่แล้ว

      Also willst du die bessere nvidiakarte zum gleichen preis wie die schlechtere amd karte? Xtx 700€ und 4080 max. 1000 euro wäre passabel.

  • @darkschneider8508
    @darkschneider8508 ปีที่แล้ว +1

    Persönlicher Wunsch: Bitte auch Stable Diffusion Benchmarks in der Zukunft integrieren 😀

  • @steven301
    @steven301 ปีที่แล้ว

    Hallo Igor, Welche der RX 7900XT würdest du mir so aus dem hopps empfehlen? XFX, Sapphire etc. ? Wäre sehr Dankbar über eine Antwort, auch seitens der Community.

    • @igorsLAB
      @igorsLAB  ปีที่แล้ว +1

      Spontan: Sapphire, aber die nehmen sich fast alle nicht viel.

    • @MoBreYT05
      @MoBreYT05 ปีที่แล้ว

      Habe eine Asrock genommen und bin damit echt zufrieden, der grund war das mir dass Spulenfiepen der sapphire aufm sack ging

  • @niebuhr6197
    @niebuhr6197 ปีที่แล้ว

    Hello Igor, will you test whether Amd changed their power monitoring or not (same as rdna2)

    • @igorsLAB
      @igorsLAB  ปีที่แล้ว +1

      It's inside my review. They are reporting the TBP. Not so exact like NV, but more or less correct :)

    • @niebuhr6197
      @niebuhr6197 ปีที่แล้ว

      @@igorsLAB oh that's great. So better than previous Radeons.

    • @igorsLAB
      @igorsLAB  ปีที่แล้ว +1

      @@niebuhr6197 Sure. Totally different :)(

  • @M-I-K-E
    @M-I-K-E ปีที่แล้ว +1

    1h 15 Wahnsinn dann sehe ich mir das mal später an

  • @sts_gaming
    @sts_gaming ปีที่แล้ว +5

    Extrem lehrreiches und ausführliches Video! Das macht keiner so wie du! Ich konnte mir alle Infos die ich für meine Entscheidung brauchte aus diesem Video ziehen. Danke dafür! 👍

  • @xserenityx4813
    @xserenityx4813 ปีที่แล้ว +1

    Super Test und tolles Video! Vielen Dank dafür. Unterm Strich bin ich dann doch etwas enttäuscht, denn ich stelle mir die Frage: XTX oder 4080....Bisher dachte ich XTX, jetzt sieht das doch wieder etwas anders aus. Die Leistung ist natürlich gut, doch zu welchem Preis? Es wirkt etwas als hätte AMD nicht mit der Effizienz und der Leistung einer 4080 gerechnet und hat jetzt versucht doch noch irgendwie zumindest Nvidias 2. Karte noch zu schlagen. Anders kann ich mir das eigentlich nicht erklären.
    Die FE kommt für mich nicht in Frage, die anderen Karten werden sicherlich 50 oder 100 Euro teurer werden. Eine 4080 kostet aktuell ab 1349 Euro und wenn ich mich nicht verlesen hatte, plant Nvidia ja noch eine Preissenkung für Mitte des Monats. Preislich werden sich die Karten also vermutlich noch deutlich annähern. Dann bietet Nvidia halt einfach das bessere Gesamtpaket.
    Für AMD spricht dann eigentlich hauptsächlich die Konnektivität. Doch ob ich überhaupt Display Port 2.1 brauchen werde weiß ich ehrlich gesagt nicht. Auf eventuell bessere Treiber warten und ob FSR gut wird usw. ist mir zu unsicher. Dann müsste ich vermutlich noch ein Jahr warten und das will ich definitiv nicht. Falls ich etwas vergessen habt, gebt mir gerne noch Input, sonst wird es dann demnächst vermutlich eine 4080.

    • @bogdanschodorov8064
      @bogdanschodorov8064 ปีที่แล้ว

      Ach du hast doch die Kohle. Immer raus damit.

    • @xserenityx4813
      @xserenityx4813 ปีที่แล้ว

      @@bogdanschodorov8064 Jupp, trotzdem kann man ja noch halbwegs "vernünftig" einkaufen.

  • @donmaynardo
    @donmaynardo ปีที่แล้ว +1

    Assetto Corsa Competitione in Ultra in VR wäre Mal ein schöner Test gewesen.
    Da heißt es für mich wieder: Erst kaufen und dann dumm gucken😂😂😂
    Mir ist aber klar, das Du nicht 1000 Spiele testen kannst😬
    Aber Danke für Deine unglaublich ausführlichen Test👍

  • @Mathias-RetroFutureTech
    @Mathias-RetroFutureTech ปีที่แล้ว

    Schade, hatte jetzt erwartet, dass blow-through Kühler zum Standard werden, auch bei Referenz-Karten. Das ist doch im Grunde immer verschenktes Kühlpotential.

  • @thirtythirty9054
    @thirtythirty9054 ปีที่แล้ว

    1:07:59 lol das abends um 2 Uhr Nachts lol Der Nachbar wird sich freuen

  • @ramonruegg8653
    @ramonruegg8653 ปีที่แล้ว +1

    Hallo Igor denkst du eine custom 7900 xtxit 3x pcie Stecker könnte diese Probleme beheben?

    • @igorsLAB
      @igorsLAB  ปีที่แล้ว +1

      Sicher. Aber auch bei 400 Watt wird die Karte kaum schneller. ;)

    • @Snake74147
      @Snake74147 ปีที่แล้ว +1

      nö. was soll ein weiterer Anschlus an den Lüfter-Problemen und Spulenfiepen auch drehen.... .
      Hatte echt die Hoffnung das AMD was im Petto hat - aber allein das Spulenfieben bei über 1k€ ist nen No-Go.

    • @proxis9980
      @proxis9980 ปีที่แล้ว

      @@Snake74147 digga wenn du strom verteilst und die dinger nicht am limit laufen sind die deltsa eifanch kleiner...eifanches rechen beispiel du bekomst zwischen 4 und 10 bagles (ohne messer und wärend corana) ihr seit zu 3 ...dh entweder 2 sind hungrid und einer ist mediocre satt (1 1 2) bis hinzu zwei sind voll und einer ist am platzen (3 3 4) spanne ist also im worstcase 3 bagle unterschied....wenn ihr aber 4 leute seit dann ist das 1 1 1 1 zu 2 2 2 3 worstacase difference ist also 2 ...:P und ja ich warte grade auf mein essen..cheers

    • @Alpha6015
      @Alpha6015 ปีที่แล้ว

      @@igorsLAB interessant OC max. ->
      Google ->
      ASUS RX 7900 XTX TUF OC techpowerup
      Grüsse!

    • @RomanM1986
      @RomanM1986 ปีที่แล้ว

      @@igorsLAB Könntest du auch noch mit FSR und DLSS testen? In meinem Freundeskreis hat das in 4K so und so fast jeder an. Ein Indiz das sich hier was getan hat wären ja die neuen AI cores oder?

  • @MrBB1607
    @MrBB1607 ปีที่แล้ว +2

    hmm. Das Spulenfiepen ist schon nicht zum aushalten. Wollte eigentlich eine Referenz 7900xtx. Werde mal auf die anderen Custom Modelle warten. Will die Grafikkarte mit in einem Custom Loop einbinden. Fiepen geht da mal gar nicht. Der Rechner steht Rechts oben neben mir. Powercolor 6950xt habe ich auch zurück geschickt. Bei 100FPS schon kaum auszuhalten. Hab kein Bock eine Top Karte zu installieren und auf 60FPS zu begrenzten.

    • @m.f.7997
      @m.f.7997 ปีที่แล้ว

      Mit bissl UV gibt sich das sicher.

    • @Snake74147
      @Snake74147 ปีที่แล้ว +1

      Naja du kannste die Begrenzung aber auch deiner Stromrechnung anlasten.
      Je nach Game/etc. kann das schon einen abschlag ausmachen (je nach Abschlag nahtürlich).

    • @MrBB1607
      @MrBB1607 ปีที่แล้ว +4

      @@Snake74147 Ganz ehrlich. Interessiert mich gar nicht. Hobby kostet immer. Egal ob Motorrad Copter bauen oder Rechner.

    • @Snake74147
      @Snake74147 ปีที่แล้ว

      @@MrBB1607 Das ist wiederrum traurig.

    • @vanzrides9780
      @vanzrides9780 ปีที่แล้ว +3

      @@Snake74147 warum traurig ? xD er hat doch einen validen Punkt.

  • @TheTaurus104
    @TheTaurus104 ปีที่แล้ว +2

    Weil der hohe Idle Verbrauch bei der Nutzung von 4k 144hz Monitoren gestern hier und auch in anderen Medien thematisiert wurde.
    Der 22.12.1 Adrenalin Treiber ist erschienen und das Problem wird unter den Known Issues aufgeführt.
    Das heißt, AMD ist sich des Problems bewusst und arbeitet bereits an einer Lösung und hat es als Problem anerkannt.
    -"High idle power has situationally been observed when using select high resolution and high refresh rate displays."

    • @Inversible100
      @Inversible100 ปีที่แล้ว +2

      Die Frage ist warum fällt einem das erst bei Release auf? Sagt doch alles über deren Qualitätsmanagement aus.

    • @yosoy1loco
      @yosoy1loco ปีที่แล้ว

      @@Inversible100 Sowas kann schon mal passieren. Hauptsache ist, dass es nicht nur bei der momentanen Beobachtung bleibt, sondern ebenfalls bemerkt wird, dass die Karten unter leichter Gaminglast wie eine Cracknutte saugen - wahrscheinlich hat das auch etwas mit den hohen Refreshraten zu tun. Sie passen also ihre Leistungsaufnahme in einigen Lasten nicht an. Wenn das nicht erkannt und gefixt wird, ist das kein Premiumprodukt mehr, sondern überteuerter Trash, wenn man die Stromkosten miteinberechnet. Vor dem Umstand, dass bei diesen Anwendungen selbst die 4090 weniger zieht als eine XT, obwohl nicht mal die XTX die 4090 als Highendkarte ablösen kann, wird das sehr deutlich.

    • @Errost5
      @Errost5 ปีที่แล้ว

      @@yosoy1loco Naja, also das ist halt auch jetzt kein unbekanntes Problem, nur ist es deutlich schlimmer geworden.
      die 6000er reihe hatte auch schon seit release das selbe Problem - da wurde aber seither fast nichts gemacht.

    • @yosoy1loco
      @yosoy1loco ปีที่แล้ว

      @@Errost5 Das ist ziemlich frustrierend, weil man keine Ahnung hat, ob und inwiefern sie das Problem angehen werden, wenn es schon seit Jahren besteht. Die meisten Leute raffen doch nicht einmal, dass es existiert und welche Ausmaße es hat - wieso sollte man es dann versuchen zu ändern?

  • @Cthulhu_Ryleh
    @Cthulhu_Ryleh ปีที่แล้ว +1

    Ich bräuchte bitte Mal dringend Hilfe. Hatte mir eine RX 6800 gekauft. Habe wie im Video von Igor(AMD Radeon RX 6800 Overclocking und Undervolting - von 240 Watt bis unter 180 Watt ist alles drin!) erklärt, das More Power Tool runter geladen. Das BIOS der Karte ausgelesen und gespeichert, per GPU-Z. Dann im More Power Tool das Bios der Karte eingelesen, und den Memory Clock von 1050 auf 1100 angehoben, und per Write SPPT gespeichert. PC dann neu gebootet. Allerdings bleiben beide Monitore nun schwarz, alles andere läuft, auch Windows fährt hoch. Auch schon mit nur einem Monitor versucht. Nichts. Alles leuchtet am PC, Maus und Tastatur funktionieren auch, und wie gesagt, Windows 11 startet(höre ich). Auch wenn ich mein Windows Passwort eingebe, wird Windows ausgeführt(sehe ich an der RGB Beleuchtung, die sich dann ändert). Habe andere Kabel für die Monitore genommen, Verkabelung im PC geprüft. Immer nur Black Screen. Wie kann ich denn nun das was ich mit dem MPT gespeichert hatte, wieder Rückgängig machen, wenn ich nix sehe? Bin für jede Hilfe dankbar

    • @philippgessl589
      @philippgessl589 ปีที่แล้ว

      wenn deine CPU und dein MB auch Onboard Grafik anbieten, dann darüber mal den PC starten. Dann kannst du dich austoben. Oder vielleicht hast du eine alternative Grafikakrte rumliegen. Viel mehr geht da meiner Meinung nach nicht. Maximal noch Remotezugriff - muss aber vorher bereits aktiviert worden sein :-)

    • @Cthulhu_Ryleh
      @Cthulhu_Ryleh ปีที่แล้ว

      @@philippgessl589 Schon alles versucht, PC war sogar in nem Shop zur Überprüfung........

    • @philippgessl589
      @philippgessl589 ปีที่แล้ว

      @@Cthulhu_Ryleh Hast du einen Speaker angesteckt? So ein kleines Ding am Mainboard, welches Fehlercodes "anzeigt" --> allerdings verbal also mit Piepstönen. Zur Not googeln. Vielleicht kannst du damit mehr eruieren. Der Shop ist dann auf jeden Fall inprofessionell in meinen Augen. Ich bin selbst ITler und dafür muss es auf jeden Fall eine vernünftige Lösung geben.

  • @horvichrom85
    @horvichrom85 9 หลายเดือนก่อน

    Welche Wärmeleitpaste hat er jetzt verwendet?

    • @igorsLAB
      @igorsLAB  9 หลายเดือนก่อน +1

      Für AMD nehme ich die originalen Phase Change Pads und Thermal Putty von Honeywell (das blaue 5000er)

    • @horvichrom85
      @horvichrom85 9 หลายเดือนก่อน

      @@igorsLAB Super! Danke! Eine Frage noch: Hast du schon mal die K5 Pro statt Wärmepads versucht?

  • @nicovega1831
    @nicovega1831 ปีที่แล้ว +1

    Das Power-Management und die Effizienz zu Launch enttäuscht. Hoffentlich geht da noch was über Treiber und Firmware. AMD traue ich das zu, aber erst muss geliefert werden

  • @miccellomann
    @miccellomann ปีที่แล้ว +3

    Die,Problematik mit der hohen idle Leistungsaufnahme im Multi Monitor betrieb oder bei Displays mit hoher refresh rate ist bei amd nicht neu. Das zieht sich bei denen seit 2011 durch. Hatte 2019 und 2020 mal Pause um im Oktober 2022 wiederzukehren. Der vram taktet in diesen Szenarien nicht runter. Ein Bekannter amd Treiber bug, oft beschrieben in diversen Foren und bei amd selbst, stets von amd geleugnet. Betroffen sind aktuell nicht nur rdna3 sondern auch die drei direkten Vorgänger Generationen.

    • @yosoy1loco
      @yosoy1loco ปีที่แล้ว +1

      Das lässt mir das Herz in die Hose rutschen, weil es sich mit dem deckt, was ich so aus den Reviews interpretiert habe, aber dennoch eine XT bestellt habe, um Team Greed den Rücken zu zukehren. Ich weiß, dass es paranoid klingt, aber bei dem ganzen Marketing-Scheiß und dem Fanboy-tum, ist es für mich schwer rauszulesen, wer versucht aufzuklären und wer nur verwirren möchte. Hast Du irgendwelche Links zu älteren Foreneinträgen, die deine Beobachtungen irgendwie unterstützen, bzw. weißt Du ob diese Probleme in der Vergangenheit irgendwie vermindert wurden? Bei den neuen Karten ist die Differenz einfach so riesig, im übrigen nicht nur bei Idle und Multimonitor, sondern auch bei leichtem Gaming wie CS-Go oder OW, wo mal eben 150w mehr gezogen wird als bei einer vergleichbaren Karte. Jede Info wäre nice, damit ich weiß, ob ich die AMD-Karte gar nicht annehmen sollte oder darauf vertrauen, dass sie es irgendwie noch vermindert kriegen. Denn seien wir ehrlich. Wenn Du dir das PCB-layout der 4090 FE anguckst, zusammen mit dem Schwachsinn bei den Kabeln, weiß man genau, warum EVGA bei Nvidia ausgestiegen ist.

    • @miccellomann
      @miccellomann ปีที่แล้ว

      @@yosoy1loco Das Problem ist mehr oder Weniger, abgesehen von zwei Jahren Pause zur RDNA Generation, dauerhaft präsent. Das kannst Du u.a. bei ComputerBase, und auch in den AMD Support Foren nachlesen. Im aktuellen Status würde ich, als absoluter AMD Fan, keine RDNA3 Karte kaufen - zumindest so lange bis AMD dieses Problem endlich einmal behebt. Aucdh im Multimonitor Betrieb taktet der VRAM schlicht nicht ins Idle - AMD weigert sich die Problematik anzuerkennen, wissend, dass es an deren Pixel Clock Management mit Monitoren liegt, welches Nvidia im Griff hat. AMD ist alleine seit 2019 hunderte Male, in großen Threads in deren eigenen Foren, hingewiesen worden - AMD hat dieses Verhalten als "Normal" abgestempelt - was schlicht Quatsch ist. Es gibt keinen Grund warum im Idle der VRAM hochtakten muss - auch bei 2 oder 3 Screens mit High Refresh Rate nicht.
      Schau mal hier:
      community.amd.com/t5/drivers-software/high-vram-clock-always/m-p/265427
      Einfach in der Forensuche VRAM eingeben - Zig Einträge.
      Bei ComputerBase versucht man diese leidige Problematik mit dem Tool CRU zu lösen - meist aber nicht zufriedenstellend ode runter Verlußt der Farbtiefe von 10 bit:
      www.computerbase.de/forum/threads/howto-vram-taktet-nicht-runter-loesung-mittels-cru.1986961/
      Auch dort gibt es zahlreiche Threads zu diesem leidigen Problem. Auch in Igor's Foren sind dazu Einträge - u.a. auch von mir.
      WIllst DU meinen Rat: Bestellung stornieren - abwarten ob AMD dieses Problem diesmal ENDLICH und FINAL fixt - und erst dann kaufen. Das wäre auch dann für mich wieder Grund zu AMD zu greifen - aber dieser Bug hindert mich daran das wieder zu tun. Denn eine KArte, die auch im Home Office betrieben wird, und im Idle einerseits heiß wird und wegen nicht runtertaktendem VRAM massiv Strom zieht, ist für mich reicn pragmatisch unbrauchbar.

    • @yosoy1loco
      @yosoy1loco ปีที่แล้ว

      @@miccellomann Danke für diese Antwort. Nach den Dingen, die ich in den letzten 24 Stunden lesen musste, bist Du ein erfrischend neutraler AMD-Fan. Ich habe mich in der Nacht nämlich schon in den von dir benannten Foren umgesehen. Zum einen habe ich genau die von dir beschriebenen Probleme nachlesen können. Zum anderen scheint es eine nicht unbeträchtliche Anzahl an Fanboys zu geben, die jegliche Hinweise auf diese Problematik als Hetzerei abstempeln, um sich dann selbst als Hetzer herauszustellen. Dabei werden inhaltlich die hirnverbranntesten Argumente benutzt, um das Problem herunterzuspielen, nach dem Motto: "Stromverbrauch ist bei der Preisklasse egal" oder" für einen Gamer sei das nicht wichtig, der benutzt den PC nur um seine paar Stunden am Tag zu spielen wie eine Playstation".
      Das macht mich so teufelswild, dass diese Konsolencowboys im PC-Schlafrock sich Gamer nennen. Das Problem besteht ja nicht nur im IDLE, sondern wird richtig heftig bei Spielen wie CS, Overwatch, Farcry 6 etc., eben allem, was eigentlich weniger Last bieten sollte. Wenn man diese Titel natürlich nur auf seinem 4k-Heimkino-Erlebnis in 60hz "spielt", um den Arbeitstag für 2 Stunden ausklingen zu lassen, versteht man natürlich nichts davon. Und gerade echte Gamer nutzen ihren PC für alles mögliche: Um zu surfen, in Foren zu wühlen, sich zu belesen, Theorycrafting in Excel, Latex und whatever zu machen. Sie zocken auf hohen Refreshraten und viele verschiedene Arten von Spielen, nicht nur ihre Mainstream AAA-Titel, welche sie sich von einem deutschen Let's-Player haben empfehlen lassen. Sie wissen, dass backlightstrobing der heilige Gral ist und nicht endlos höhere Auflösungen, HDR oder RT. Wenn AMDs Kundschaft hauptsächlich aus diesen Casuals und Normies besteht, die sich als Elite aufspielen, ist es kein Wunder, dass ihr Marktanteil so abkackt und für AMD keine Motivation besteht das vorliegende Problem anzugehen.
      Sorry, dass Du meinen Rant abgekriegt hast. Ich wollte nie an diesem Fanboy-bullshit teilhaben und wünsche AMD nichts negatives, habe mir eher gewünscht, dass sie Nvidia eins drauf geben. Also ein Kompliment dafür, dass Du bei diesem "Team Tomate vs Team Greed" so ehrlich bleibst. Die meisten Menschen raffen einfach nicht, dass ein Problem nur schlimmer wird, wenn man es leugnet oder sogar verteidigt.
      Deinen Ratschlag empfinde ich als sehr vernünftig wie auch hilfreich, denn ich habe mich schon selbst verrückt gemacht. Seit 3 Jahren versuche ich ne neue Karte zu holen und hab hirnlos die Karte gekauft, weil ich zum Release nicht leer ausgehen wollte, nachdem ich mich dazu überwunden habe auf AMD zuzugehen. Nvidias ist so scheiße in vielen belangen, vor allem jetzt, wo EVGA ihnen den Mittelfinger gezeigt hat. Aber man sollte rational bleiben. Es ist schlauer die Radeon zurückzuschicken und AMD etwas Zeit zu geben, um das Problem zu beheben, auch wenn ich dabei ziemliche Zweifel hege. Falls du zeitnah mitbekommen sollest, dass sie das Problem gelöst oder vollständig anerkannt haben, kannst gerne Bescheid geben - natürlich nur, wenn Du zufällig dran denkst. Ansonsten erstmal Danke!
      ps. Im CB-Forum hat einer behauptet die Referenzkarten würden nur im A0-Stepping verkauft werden und das Shaderprefechting sei bei den GPUs im Bios deaktiviert.

    • @miccellomann
      @miccellomann ปีที่แล้ว +2

      @@yosoy1loco Ich bin weder Fanboi vom grünen oder vom roten Team. Es geht mir, wie es auch sein sollte, schlicht im die Usability. Ein PC ist eben nicht nur ne Gaming Maschine, sondern auch ein Werkzeug welches z.b. eben im Home Office oder anderen Anwendungen genutzt wird. Und gerade da, da ich z.b. aich immer mal wieder von Daheim arbeite, sind AMD Karten aktuell eben nicht brauchbar eben wegen diesem VRAM Problem - welches bis 2021 auch nicht existierte in der Form. Bis Anfang diesen Jahres hatte ich ne Radeon - erst ab Oktober 2021 trat die Problematik wieder auf (nachdem ich 2013 wegen dieser Problematik zu Nvidia gewechselt war). Auch sind AMD Karten nicht grundsätzlich schlecht. Nur solche Dinge sind es eben, für den generellen Anwender, die hier die Suppe versalzen.
      Bedauerlich an der Sache ist, dass AMD das Ganze offenbar erst jetzt interessiert, wo eben diverse Reviewer das Problem angesprochen haben - die doch nicht gerade kleine Anzahl an Usern, welche diese Problematik seit JAHREN melden und immer wieder mit jedem Treiber-Release ansprechen und melden, hat AMD schlicht ignoriert. So sehr ich AMD schätze - hier ist Luft nach Oben - genau wie bei Nvidia die endlich bei Preisgestaltung und dem Hig Power Connector zurückrudern müssen.

    • @yosoy1loco
      @yosoy1loco ปีที่แล้ว

      @@kullalishka Sie soll bei hohen Refreshraten nicht saufen wie ein Loch, obwohl sie es gar nicht braucht.
      Hast Du denn einen hohen Refreshmonitor oder "zockst" Du wie ein Konsolencowboy auf 60hz? Wenn Du höhere Refreshraten benutzt und am besten auch eine höhere Auflösung (144p oder 4k), kannst Du es einfach testen.
      a. Setze die Refreshrate entsprechend hoch. Arbeite in word oder was auch immer und guck dir in GPU-Z die Leistungsaufnahme der Karte an. Wenn das nicht 25w sind, sondern 60w, weißte Bescheid.
      b. Such dir ein Spiel aus, bei der die Karte wirklich drücken kann, also so 300 fps oder so. Spiel dann auf deinem beispielweise 144hz Monitor ein bisschen und schreib dir die Leistungsaufnahme auf. Limitier danach die FPS auf unter 144 wie jeder liebe Gamer macht, um das Tearing zu vermeiden und Strom zu sparen, und spiele nochmal. Wenn deine Karte dann immer noch kurz unter maximaler Leistung bei veringerter Last rumrennt, weißt Du bescheid.
      Mit den neuen Karten müsste das weitaus deutlicher aus fallen als mit den alten und im Zusammenhang mit den Strompreisen ist der pure Geldverbrennung, wenn das korrekt ist, was ich bisher gesehen habe.

  • @Pirate85getready
    @Pirate85getready ปีที่แล้ว +1

    Danke Igor - ich bleib also bei meiner 6950 und freu mich. :)
    LG
    Marti
    Edit: Ich hab nen paar ganz schön miese "Soundspecials" drinnen gehabt - z.b. bei 9:18 ist nen schöner - hat meine Soundkarte einen weg oder haben das auch andere? oO

    • @staselirus
      @staselirus ปีที่แล้ว

      Hat' ich auch, keine Sorge

  • @Don_Pong
    @Don_Pong ปีที่แล้ว

    Top wie immer. Schönes Hintergrundbild.

  • @ganjafield
    @ganjafield ปีที่แล้ว +1

    Wie kann man nur die Lüftersteuerung und die Leistungsaufnahme im Idle so mies einstellen? Die hatten bei AMD wohl wirklich extrem viel Zeitdruck so kurz vor Weihnachten und haben Alles noch für spätere Treiberupdates übrig gelassen was ging. Immerhin sind alle Punkte noch in späteren Treibern fixbar und vielleicht steigt dadurch auch noch die Performance und Raytracing Performance in manchen Titeln. Für 200,- EUR weniger als die Nvidia Konkurrenz wäre es dann eine wirklich kaufbare Alternative. Momentan würde ich Niemand raten die erste Charge zu kaufen und schon gar nicht zu den aktuellen Marktpreisen. Lieber mal 4-5 Monate abwarten dann sieht es hoffentlich Anders aus.

  • @yosoy1loco
    @yosoy1loco ปีที่แล้ว +1

    Hier ein Kommentar für den Algorythmus und ein Danke für die sorgfältige Analyse!

  • @Blacklist91
    @Blacklist91 ปีที่แล้ว +1

    Hoffen wir mal das Powercolor Asus und co. bessere Arbeit abliefern als Amd selber mit Lüftern und Spülenfieben.🤣😂

  • @thraxas79
    @thraxas79 ปีที่แล้ว +2

    Bei den ganzen Auswertungen und Tabellen fehlt mir nur noch die Frames pro Kg 😅 und der Sound unter Vollast macht ne Flugsim richtig authentisch ^^
    Spaß beiseite, für VR Begeisterte ist RT ja eher uninteressant aber die 1% und 0,1% lows umso interessanter, denn das Hoppeln hatte anfangs mit meiner 3080 auch keinen Spaß gemacht. Was geht hier mit Undervolting und gedeckelten max Taktraten um min FPS schön smooth zu bekommen. Wäre schön wenn mal irgend ein Techkanal so ernsthafte Benchmarks für VR machen würde

    • @m0ntreeaL
      @m0ntreeaL ปีที่แล้ว +1

      :D jaa stimmt

    • @dirkengelhardt2116
      @dirkengelhardt2116 ปีที่แล้ว

      Warum soll rt für vr uninteressant sein? Zb Cyberpunk

    • @martinjan3427
      @martinjan3427 ปีที่แล้ว +1

      @@dirkengelhardt2116 sieht man zb in assetto corsa competizione.. Schaltest du RT an, bekommst du eine übel verwaschene Grafik 🤮

    • @dirkengelhardt2116
      @dirkengelhardt2116 ปีที่แล้ว

      @@martinjan3427 ein Beispiel in einer jungen Technologie. Abgesehen davon zockt fast jeder der vr zockt auch 2d games

    • @thraxas79
      @thraxas79 ปีที่แล้ว

      @@dirkengelhardt2116 rt in VR ist deshalb "eher" uninteressant weil es etwa gleich viel Performance frisst wie man schon für eine flüssige VR Performance braucht. Wo ich mit einer 3080 in 2D alles auf Max setzen kann muss ich in VR auf Medium oder darunter gehen um gute FPS und genug Headroom zu behalten damit keine Ruckler auftreten, denn Ruckler 1% lows in VR verursachen Motion Sickness

  • @dimakrutoj93
    @dimakrutoj93 ปีที่แล้ว +2

    Aber fsr 3.0 ist noch nicht raus das wird sich ja auch noch ändern.

  • @Reminder74
    @Reminder74 ปีที่แล้ว +2

    Die Infos, die wir als "Leaks" zwischendurch bekommen, dürften NVIDIA und AMD gegenseitig auch bekommen. Und noch viel mehr, viel früher und viel detaillierter. Mag das der Grund für NVIDIAs Preise sein? Sie wussten dass RX7000 ihnen nicht das Wasser wird reichen können... 🤔

    • @Smidyev
      @Smidyev ปีที่แล้ว

      Hauptsächlich wusste Nvidia, dass die Karten einen brutalen Performancesprung liefern und einige Wochen eher erhältlich sind. Jetzt, wo die AMD-Karten kommen, bewegt man sich dann preislich in den kompetetiven Bereich. An den Enthusiasten hat man heute schon gut verdient, einfach nur weil man fixer war.

  • @sleepyelk5955
    @sleepyelk5955 ปีที่แล้ว

    Danke für das spitze video 👍 bin echt mal gespannt, wie die preisentwicklung weitergeht

  • @mfgCarlos
    @mfgCarlos 10 หลายเดือนก่อน +3

    Hat sich die Leistungsaufnahme der rx 7900 xtx mittlerweile verändert?

    • @michaelt3439
      @michaelt3439 7 หลายเดือนก่อน

      Anscheinend muss der Stromverbrauch stark sinken wenn Free Sync aktiviert ist

  • @Easterbunny1972
    @Easterbunny1972 ปีที่แล้ว

    41:25 Laut dem Diagram ist die XTX besser, Fehlerteufel???

    • @igorsLAB
      @igorsLAB  ปีที่แล้ว +3

      Das Diagramm stimmt. Das ist Standup ohne Plot, da kann man sich schon mal versprechen :)
      Ich habe leider keinen Prompter, nur mein Gehirn und die Augen auf die Charts am externen Monitor vom Laptop mir gegenüber

    • @Tuskabanana
      @Tuskabanana ปีที่แล้ว

      @@igorsLAB die Lautstärke der karte ist doch eine Zumutung XD

    • @igorsLAB
      @igorsLAB  ปีที่แล้ว +1

      @@Tuskabanana Irgendwie schon :D

  • @er_tas
    @er_tas 8 หลายเดือนก่อน

    wäre super wenn die 4070ti dabei gewesen wäre bei den vergleichen aber so auch top

  • @tarkanyildiz4879
    @tarkanyildiz4879 ปีที่แล้ว

    Danke Igor :) und bei minute 38 hast ja AMD´s SAM vergessen. AMD hat ja die mit SAM funktion getestet. Deswegen gibts dieses 0.7% denke ich.

  • @maw8565
    @maw8565 ปีที่แล้ว +7

    Leistungsaufnahme ist wirklich AUA und Spulenfiepen, Lüfter sind ein No Go. Schade AMD, danke Igor für den Test.