Hallo habt ihr das thema schon behandelt ? von V-Cache das der in bios auf auto ist und muss auf treiber gestellt werden extra für windows das der 3D-V Cache angesteuert wird von treiber weil automatisch auf den Mainboard ist das auf auto und nicht auf treiber und man hat das dann wenn man das im mainboard umändert direkt 80 fps mehr zb Borderlands 3 in den Video th-cam.com/video/4wdQpVcL_a4/w-d-xo.html
Hat der Monty auch empfohlen. Lieber an der CPU sparen und die Ersparnis auf die Grafikkarte drauflegen und eine Nummer besser kaufen. Bringt dir am Ende mehr fps fürs Geld.
Wenn man für den CPU-Vergleichstest auf die 320x200 Auflösung gehen muss, um wirklich noch große Unterschiede zu sehen, kommen für mich schon ein wenig künstliche und lebensferne Ergebnisse heraus. Versteht mich nicht falsch, es ist natürlich als Hardwarefan generell „cool“ darauffolgend die schnellste Gaming-CPU auf der Welt zu haben. Falls es aber in FHD, QHD oder 4k, wenn überhaupt, nur marginale Unterschiede gibt, dann kann man sich die Neuanschaffung als praktisch orientierter Gamer oft auch sparen?
die geringeren unterschied in hohen auflösungen kommen nur dann zustande, wenn du eine zu langsame grafikkarte hast. Was hat deine zu langsame grafikkarte mit einem cpu test zu tun? richtig, gar nichts. kauf die ne stärkere grafikkarte oder halt doch einfach die finger still wenn du von der marterie keinen peil hast Danke
@@KevinM0890 Das stimmt nicht. Selbst mit einer 4090er ist der Unterschied in 4k bei vielen Spielen zwischen einem 3D und einem normalen Ryzen nicht sehr hoch. Das Stichwort ist GPU-bound. Ich akzeptiere Deine Entschuldigung.
@@noobahoi lass den begriff auflösung einfach weg. wenn die fps bei erhöhung der auflösung fallen, ist es ein gpu limit eine CPU hat mit der auflösung NICHTS zu tun
eine CPU macht FPS. in jeder auflösung in aller regel die gleichen macht eine cpu 120fps in spiel x, macht sie 120fps in spiel x ob du die in deiner auflösung (die ich nicht kenne) auch hast, hängt von deiner grafikkarte ab. Der cpu juckt es nicht im geringsten wenn du die auflösung erhöhst daher sind tests in 720p völlig valide. die fps die dort rauskommen, hast du auch in 4k wenn deine graka die fps der cpu mindestens matcht.
wegen dem Ram, 6000mhz wird doch als sweat spot bezeichnet, da der FCLK (corregiert mich bitte, falls ich den gerade vertausche) im 1:1 ratio läuft und es wenn der ram schneller ist nicht mehr im 1:1 sondern im 2:1 Ratio läuft. Das heißt im umkehr schluss, das schnellerer ram vom aufpreis sich nicht lohnt, da man sogar leistungs verlust haben könnte (ohne manuellem oc).
Ja, 6000 läuft wohl bei quasi jeder CPU (bei 2 Riegeln) im 1:1 Verhältnis, also Speicher und Speichercontroller mit 3000. Wer Glück hat schafft in 1:1 auch 6200 oder mit noch mehr Glück 6400, einzelne Lottogewinner mit 6600 soll es auch geben. Das Limit ist dabei der Speichercontroller. Wenn man 6200 oder 6400 nicht schafft kann man 8000 im 2:1 versuchen, da läuft dann der Speicher mit 4000 und der Controller nur mit 2000. Ab einem gewissen Punkt gleicht man den 2:1 Malus durch das höhere Tempo wieder aus. Man braucht aber natürlich guten Speicher dafür, und es ist dann schwierig zu erreichen weil das Mainboard limitiert. Sweetspot bezieht sich also vor allem auf den Aufwand und den Preis. Der Punkt bei dem sich 2:1 lohnt war vorher nur mit viel Aufwand zu erreichen, die gut machbaren 7200 langsamer. Wir kommen nun an den Punkt wo viele neue Boards aber 8000+ auf der QVL stehen haben, und der Speicher ist auch nicht mehr so übertrieben teuer. Wer nicht groß tunen will für den bleibt die Empfehlung "ordentlicher 6000er", übertakten kann man den auch wenn die CPU mehr schafft. Schnellerer Speicher ist aber nicht unbedingt viel teurer, und man kann dann evtl. gesichert gute Hynix bekommen.
Ja ich habe gefragt ,weil ich das auch nicht hinbekomme. Aber warum Word dann eine tdp von 120 Watt angegeben? Kann ja jeder behaupten. Dann könnte man ja auch zb.300 Watt angegeben. Keiner kann das erreichen. Eben,wie Dave schon sagt ,würde zu heiss werden. Aber wie bekommst du das Gesamtsystem auf nur 93 Watt ? Mein 7800 x3d mit 4 ssds plus Monitor ist bei 128 Watt. Muss ich beim msi tomahawk wifi im BIOS auf 45 Watt Begrenzung geben?
Jedes System ist anders. Je mehr angeschlossen ist, je mehr im Hintergrund läuft, LEDs, ARGB, verschiedene Software - das kann sich alles auf den Idle-Verbrauch auswirken. Wir verwenden für die Tests ein "sauberes" Windows 11, also ohne unnötigen Ballast. Das macht schon viel aus.
Man sollte trotzdem zumindest einen Vergleichsprozessor mit hoher Auflösung gegenstellen um die Relevanz des neuen Prozessors zu beleuchten. Viele bekommen FOMO, nur wegen langen Balken und sind enttäuscht, wenn der persönliche Mehrwert am Ende gering ist. Und der preisliche Unterschied zwischen z.B. einem 7500f und einem 9800x3D ist ja nicht gerade wenig.
Nur mal ne Frage, warum macht ihr nicht mehere ssds die jeweils für ein System, 1 TB nvme ssds kosten ja nicht mehr die welt! Besser als jedes mal zu installieren! Wieviele nvme ssds kann man anschließend und Direktstorage nutzen! Auf meinem System gehts nur aud der ssd die direkt an der CPU angeschlossen ist und nicht am chipsatz!
wie ist denn deine grafikkarten auslastung dort wo du aktuell zu wenig fps hast? 99% ? > neue cpu bringt nix, deine graka ist ne gurkr unter 90% ? eine neue cpu bringt was aber nur bis zu dem punkt wo deine graka bei 99% ist. warum kannst du das nicht selbst googlen?
@@KevinM0890 m.2 ssd gen 5 , dar das die neuste und aktuele pc hardware ist , eine ssd hat 550mb/s eine m.2 ssd gen 5 hat 14.500mb/s und 2x m.2 ssd crucial t705 2tb im RAID 0 hat 24,500mb/s und das hat ein einflus auf test ergebnese genau wie die umgebungs temperatur hier mein test video ,, atto-disk-benchmark m.2 ssd samsung 990 gen4 vs RAID 0 2x crurial t705 gen5 , asus trx50 #HEDTgaming ,,
Wie soll man denn den sweetspot seiner CPU austesten? 5 verschiedene Speicherkits dazukaufen, alle durchtesten und dann 4 davon wieder zurückschicken? Wie ist das gemeint?
In grundegenommen, genau so. Bei Zalando zb bestellt man ja seine Klamotten auch nach diesem Prinzip - das ist mittlerweile der Weg. Wer sich das leisten soll (Vorkasse) ist die andere Frage...
Das ist doch Unsinn :) Glaubt ihr, dass ein Speicherkit nur eine bestimmte Spezifikation aufweist und sonst nicht anders takten könnte? Man kann ein DDR5-6000-Kit auch mit -6400 betreiben. Oder mit -5800.
@@PCGH_Dave Ähm, ja... Ein 5800 Kit wird wahrscheinlich nicht mit 6800 laufen... Daher ja meine Frage wie das praktisch aussehen soll. Sonst bliebe ja doch nur das schnelleste/teuerste kaufen und dann entsprechend bei Instabilität heruntertakten. Oder meinst du, dass 6000 ja doch der sweetspot ist, man ein 6000 CL30 Kit nehmen sollte und noch ein bisschen damit herumprobieren sollte? Dann kommt es im Video einfach nicht so rüber.
@@nipa5961 k.a. die Erklärung im video ist merkwürdig. Ich kenne den Begriff Sweetspot eher, wenn es um Preis/Leistung geht. Nicht was der Prozessor verarbeiten kann. Und wenn man sich die Preise für RAM Module anguckt, ist DDR5-6000 durchaus der Sweetspot. Zwischen DDR5-6000 und 6400 ist der Aufpreis aktuell ca. 10%. Während man jedoch keine 10% Mehrleistung bekommt.
Der Sweetspot des RAM war doch deswegen sinnvoll, weil ein Wert über 3600MT/s bei Ryzen 5000 den internen Taktteiler so einstellt, dass der Infinity Fabric nur halb so schnell Taktet. Ist das Argument also für Ryzen 7000 und 9000 nicht mehr valide? #FragPCGH
Ich muss mal ein riesen Lob für euch da lassen. Ihr macht m. M. n. wirklich tolle, unterhaltsame und Informative Videos die man sich gerne anschaut. Dank euch bin ich wieder voll in der PC-Hardware-Bubble und immer auf dem neuesten Stand. Vielen Dank für euren Content und macht weiter so 👍🏻
6000MT/s schaffen die Grundsätzlich ALLE mit 2 RAM Riegeln! Nur mit mehr Riegeln wird das nur selten klappen und der Sweepspot beschreibt auch nicht den maximalen Speed den die CPU bringen könnte, sondern den Punkt an dem ein höherer Takt einfach kaum noch was bringt ausser höhere Kosten. Hier werden im Video leider ziemlich viele Halbwahrheiten verbreitet! Ausserdem wir hier dier IF Teiler auch mal ignoriert. Und nein, die Kerne ohne 3D Cache werden nicht deaktiviert sie werden nur bei Games nicht bevorzugt genutzt, andere interne Anwendungen laufen dabei nämlich genau auf den Kernen. Bei Turbo Modus wird nämlich der SMT deaktiviert und dadurch ist der Modus in Games tatsächlich etwas stärker, allerdings im einstelligen % Bereich! Lohnen, tut sich das allerdings wirklich nicht so richtig.
In 720p zu testen um die CPU zu testen ist ja ok, das verstehe ich ja. Aber nur in 720p zu testen verzehrt das Bild aber auch. Daher fände ich 720p, 1k und 2k ok, den so hat man den RAW vergleich der CPU der nötig ist und was wirklich hinten raus kommt, wenn man 4k spielt. Aber immerhin finden die CPU Hersteller test die nur in 720P sind super ;)
Wenn man das konsequent machen wollte müsste man dann aber auch mit verschiedenen GPUs testen. Ich glaube das wäre dann aber ein extremer Zeitaufwand für relativ wenig Nutzen.
Ich habe gelesen das man nur mit den neuen Mainboards Expo 8000 fahren kann. Das kann man mit den x600 zum Beispiel nicht. Warum gibt es dazu kein Wort? Und hat das überhaupt Sinn?
Stimmt nicht. Ich habe meinen 7800X3D auf X670E schon mit -8000 betrieben. Es bringt nur nichts, weil der Controller dann nur mit halber Geschwindigkeit läuft.
Früher in den 90'er wurde CS noch auf Pentium und AMD mit AGP GraKa gezockt,da hat noch niemand geschaut ,ob das Game jetzt mit 50 oder 1000Fps läuft. Hauptsache es lief flüssig. Heute ist alles Overhyped ,Erbsenzähler und Geldmacherei.
Ich kann was meinen 7800X3d betrifft nicht klagen, im zocken bei ca 51-56W, und bei Timelaps rendern ca 80W, und das auch ziemlich schnell, 1100-1300 Bilder brauchen keine 5min. Das ganze ist für mich eine andere Welt, gesehen vom vor gänger her 3770 der dafür gute 15-20 min brauchte. Es geht mir aber vorangig ums zocken, also alles gut für mich und würde das Teil jederzeit wieder kaufen.
0:52 Ich meine als der 7800x3D für 300€ ging hätte man den in alles reinhauen können was mehr als full hd ist und wos ins budget passt. Weil für 300€ die beste CPU dies gibt war schon n kracher
#fragpcgh Keine direkte Frage, viel mehr ein videovorschlag. Könnt ihr euch mal mit der Thematik HDR beim PC Gaming widmen? Ich hab mir vor kurzem einen OLED-Monitor gekauft, nur um dann jetzt festzustellen, dass HDR bei ganz vielen Spielen, z.B Cyberpunk , vollkommen beschissen aussieht. Das Bild wirkt besonder in dunklen szenen total verwaschen, sodass ich lieber in SDR spiele, da dort die schwarzwertr wesentlich besser sind. Und das kanns ja eigentlich nicht sein. Es gibt wohl so Tools wie Reshade mit denen man das beheben kann. Jedoch fände ich es richtig gut wenn ihr dazu mal ein Video oder gar Tutorial machen könntet.
2:19 Bei ryzen 3000 mit dem ersten IO-Die gabs einen neuen RAM-controller der nach einer gewissen RAM frequenz (so um die 3733MT/s DDR4, mal mehr mal weniger, je nach Silizium-lotterie) von 1:1 auf 2:1 modus umgeschaltet hat. Das hat die Latenz erhöht und somit die Gaming performance potenziell verringert. (Das ganze war natürlich noch vor 3D-Vcache und somit noch relevanter als auf letzteren) Weiß jemand obs auf Ryzen 7000 und 9000 auch noch so einen 2:1 Modus gibt?
Nein, die CPU geht nicht kaputt, wenn das BIOS/UEFI zu alt ist. Es kann aber sein, dass das Mainboard nicht startet und man denkt, die CPU sei defekt. Ein BIOS-Update kann das Problem oft lösen.
Hmmmmm kein Spielebenchmark schafft die Watt? Also in WarThunder hab ich meinen 13900k schon auf 330 Watt rödeln sehen! War lustig, aber auch bissel unheimlich 🤣 Hab dann die FPS auf 120 begrenzt. Vorher hat mein System (Einstellung Film bei 1440p) zwischen 500 und 700 FPS rausgedrückt 😅 Also: bei WarThunder kann man CPUs auslasten, aber richtig!
In allen Tests die, ich gesehen habe, waren die Kommentare voll davon. Schien oft so als würden Intel fans nicht haben wollen, das AMD vor weit vorne liegt.
Die Tests sind zwar aussagekräftig um CPUs untereinander zu vergleichen, wenn aber jemand für eine FullHD eine optimale P/L-Leistung für bspw. Simulationen sucht, verzichte ich auf diese 720p Testergebnisse genauso wie auf die Testergebnisse von Ego-Shootern in Full HD. Es ist einfach irrelevant.
'Thema Auflösung bei CPU Tests, sorry aber das seh ich halt einfach anders klar wollt ihr nen Bopttleneck der Graka verhindern um dann sagen zu können der CPU is so und soviel schneller usw aber das gilt halt dann auch nur für DIESE Aufläösung die dann noch absolutl realitätsfern ist. Wenn es die Realtität ist, dass nen Game mit ner 4080 in 4k mit quasi allen Cpus gleich schnell is, dann sollte das auch in nem Test so drinstehen. ich mag aus dem Grund die Videos von Hardware unboxed echt gern weil die halt Full HD 1440 und 4k testen und die Werte dann direkt nebeneinander anzeigen. Und ja dann sehe ich ok Fullhad is das Ding 10% schneller in 1440 nur noch 4% und in 4k 0,5% und ja da kann man dann sagen da limitiert die GraKa aber dennoch isses nen realistischeres Bild als auf 720 zu testen
Das Ergebnis gilt nicht nur für DIESE Auflösung sondern für alle 16:9 Auflösungen in diesem Spiel solange deine GPU nicht zu 100% ausgelastet wird / nicht limitiert. Wenn die getestete CPU im Spiel X laut Test 140 FPS in 720p (oder niedriger) schafft und du dieses Spiel mit dieser CPU in 1080p gepaart mit einer 4090 spielst, kannst du auch dann die 140FPS sehen weil die GPU sich quasi langweilt. Bei 1440p vieleicht auch noch - kommt auf das Spiel an. Und bei 4k evtl. dann nicht mehr weil die GPU so viele Bilder nicht mehr berechnen kann. Ich hoffe ich konnte das irgendwie verständlich rüber bringen. Du willst quasi einen CPU/GPU Test gemixt mit am besten sämtlichen Kombinationen in 30 Games um direkt in einem Test sehen zu können: "Aha... habe ich CPU X und GPU Y und spiele das Spiel "Elden Ring" in 4k, dann kann ich bei der CPU bis Modell Z runter und sparen." Ist halt ein übelster Aufwand. Und der PCGH CPU bzw. GPU Index hilft in der Hinsicht schon. Da hat man dann eben einen Durchschnittswert und nich speziell für eine Anwendung / Spiel.
@@christianwetzel103 blablabla sorry aber das genau mein ich damit jaja is kein echter CPU test weil sich sonst die Graka zu sehr ins Ergebnis einmischt usw usw usw, sorry nochmal^^ DAS INTERESSIERT ABER NICHT ich denke keinen Käufer sollte es interessieren wenn er weiß ui auf 320 mal 240 is meine CPU 20% schneller als die andere CPU WENN ICH DAS NIE SELBER SO SPIELEN WERD. Mich interessiert z.b. ich spiele 1440p momentan wieviel schneller is die CPU xyz in dieser Auflösung vs der CPU abc, wenn die 4% schneller is, evtl noch bissl sparsamer is und ungefähr das gleiche kostet naja dann kauf ich die halt, wenn jetzt aber abc und xyz quasi identisch sind und auch im Verbrauch identisch sind dann kauf ich die wo BILLIGER is im kompletten Setup, ob die CPU dann an sich im 720 schneller wäre interssiert mich einfach ned egal ob da die GraKa sich einmischt oder ned. Vor allem wenn diese Tests mit ner 4090 gemacht wurden und ich evtl keine 2k ausgeben will sondern evtl nur 800 oder so, weil dann meine GraKa ja eher bottlenecked und sich Cpus eher angleichen von den FPS her. Daher verstehe ich zwar, das man objektiv zeigen will wieviel schneller die CPU sein kann aber es ist halt einfach ned "sinnvoll" das zu tun find ich. Das is wie in nem Autotest wo halt alles Daten auf freien Strassen gemacht werden, klar mein Porsche packt 250, wenn ich aber den nur innerorts fahren will oder kann isses halt ne an sich für mich unnütze Info, da interessiert mich eher das der statt 5 Liter wie nen Lupo oder so halt 23 mag^^
@@christianwetzel103 p.s. und wieviele Auflösungen kennst du in dem Verhältnis die aktuell gespielt werden außer Full HD wo sich die Graka langweilen kann?^^
@@pedronanton443 Das "blablabla" ist unnötig. Ich will gesittet Diskutieren und nicht streiten... Es gibt nicht nur AAA(A) *hust* Spiele die deine GPU zum kotzen bringen. Da gibt es genug bei denen die CPU die Grenze setzt wegen dem Anspruch an die Berechnungen oder beispielsweise div. Indiespiele. Da musst du ein bisschen nach links und rechts schauen. Nochmal: Ist deine GPU in deinem Beispiel bei 1440p zu 100% ausgelastet wird die auch mit einer neuen leistungsfähigeren CPU voll ausgelastet sein und deine FPS sich nicht (1% Schwankungen mal außen vor) verändern. Zugegeben könnte man zumindest bessere Low P0.2 / P1 usw. FPS haben. Ich wollte dir mit meinem letzten Absatz eigentlich mitteilen, dass ich grundsätzlich verstehe was du willst. Aber damit bin ich wohl gescheitert 🤔. Das was du willst wirst du wohl bei PCGH nicht finden wenn dir die Indexwerte nicht reichen zum Vergleichen. Und zu deinem Autovergleich: Ich persönlich kauf mir kein Auto mit höheren PS-Zahlen weil ich ständig damit Rasen will 😁
@@pedronanton443 das interessiert dich nicht, gut. das ist dann auch dein problem. damit musst du leben. du verstehst es nicht, also sei doch einfach still
Ich verstehe nicht warum die Leute das mit der Auflösung bei CPU Tests nicht verstehen. Das ist so dermaßen gut erklärt, allein hier schon. Ist doch so einleuchtend. Vielleicht macht ihr mal einen Artikel oder Video was bei einem Spiel eigentlich die CPU macht und was die GPU.
gefühlt 90% der leute sehen einen CPU test als Gesamtsystemtest bzw Spieletest an bzw. wollen das darin sehen. Das ist es aber nicht und deshalb sind die Mad. Unbelehrbare Kinder aus der Generation Z
12:32 Sry aber diese Aussage ist schlicht falsch. Bei einer niedrigen 32:9 Auflösung kann die CPU mehr zutun haben, als bei einer höheren 16:9 Auflösung, da mehr Bild Inhalt sichtbar ist welcher auch berechnet werden muss, unabhängig von der Auflösung im jeweiligen Format.
In manchen Spielen wie Hogwarts Legacy ist das ja auch so. Jedes Multiplayer-Server-basierte Spiel mit vielen Spielern profitiert ebenfalls IMMER von besseren CPUs.
@@wetzlarerjung das mag durchaus sein, es gibt immer die eine ausnahme, aber deswegen graded man nicht von 7800x3d auf 9800x3d up, das ist wohl minimal was man dadurch erreichen würde
wo ist das problem? eine cpu und graka arbeiten nicht zusammen. keine ist voneinander abhängig. wenn er seine wunsch fps mit der kombi erreicht, ist alles gut
2:00 Danke dafür. Ich bekomme jedesmal einen anfall wenn ich von "Sweetspot ist 6000 MT/s" höre 11:46 Das ist nicht ganz korrekt. Die Auflösung spielt keine Rolle für CPUs, solange man sich bei gleichem Bildverhältnis befindet. Weicht das ab, z.B. 16:9 zu 21:9, dann muss die CPU auch mehr arbeiten 15:59 Naja eine 240er AiO reicht natürlich per se aus, genauso wie ein 20€ Luftkühler. Da Ryzen CPUs aber bereits weit vor ihrer Tj_max anfangen den Takt zu senken sorgt eine stärkere Kühlung für höhere Taktraten unter Last. Für die maximalen Taktraten unter Last, reicht eine 240er AiO nicht. Außerhalb von Benchmarks kaum relevant, aber man sollte es mal erwähnen
Richtig, 21:9 und 32:9 habe ich nicht erwähnt. Allerdings ist die Unterstützung in den meisten Spielen immer noch nicht enthalten und die Auflösung so hoch, dass zumeist die Grafikkarte limitiert.
Ich hätte da einige Fragen für #fragPCGH. Wenngleich diese nicht AMD Ryzen™ 7 9800X3D-exklusiv sind: 1.) Wie verhält es sich mit dem 3D V-Cache™ unter Linux? Bringt das dort ähnlich viel Mehrleistung pro Takt wie unter Windows? 2.) Warum gibt es (noch) keinen 3D V-Cache™ für mobile Prozessoren? Oder falls es die schon gibt, welche Prozessoren haben diesem bzw. wann kommen mobile Prozessoren mit 3D V-Cache™ in Laptops oder Handhelds? 3.) Wann, sofern überhaupt, wird PCGH Apples M-Prozessoren mit in die Vergleichstabelle aufnehmen? Apple liefert seit einigen Jahren mit ihren M-Prozessoren durchaus potente Hardware, an der sich, zumindest einigen Tests zufolge, die Intel-, Qualcomm- und AMD-Konkurrenz die Zähne ausbeißt. Speziell im mobilen Segment als auch was Effizienz angeht.
Ich möchte trotzdem wissen ob ich einen Vorteil in 4k mit dem Prozessor habe oder nicht. Die unteren Auflösungen sind mit egal. Man sollte das einfach mitteilen um ein Gesamtbild zu erhalten. Und wenn neue grakas kommen muss die CPU neu getestet Werden um dann ggf unter 4k Änderungen zu sehen.
kannst du doch sehen? die fps einer cpu verändern sich mit steigender auflösung nicht. du wirst dieselben fps aus dem 720p tests auch in 4k haben wenn deine graka schneller ist. ist deine graka nicht schneller, kriegst du die fps natürlich nicht Was ist daran so schwer zu verstehen? eine CPU test ist kein systemtest nur für dich und deine ausgangssituation.
@DeviatorBytes Der 9800X3D bringt da aktuell garnichts. In 99% der Fälle limitiert der Engine Mainthread aktuell. Dieser liegt bei ca 20-35ms, manchmal auch bei über 40ms. Ganz gleich welche CPU. Der Renderthread der CPU derfür die Grafikberechnung zuständig ist liegt bei einem 5800X3D bei ca 10-18ms. Mit nem 13700K ca bei 6-12ms. Das bringt dir nur nix weil immer noch der Mainthread den Bottleneck darstellt. In allen Städten wirst du ganz gleich welche CPU oder Graka nur maximal 30-50FPS sehen. 5800X3D+7900XTX, Graka dümpelt meist bei 40-60% rum. 13700K+4080S= 40-60%, 7800X3D+2070S= 60-90% GPU Auslastung (Exakt gleiche FPS wie mit den anderen Karten) Mit 4.0 soll wohl noch Multicore Rendering in SC kommen. Das wird den RT noch weiter senken. Ob das Auswirkungen auf den MT hat... wohl eher nicht. Der generelle Aufwand für den RT und GPU Thread steigt aber wieder. Paar neue Grafikeffekte, u.a dynamische Wolken kommen.
Danke für deine mühe und diesen Liebevollen Kommentar Shinchyko. Ich habe schon Starke Differenzen bei den verschiedenen Hauptstädten, wie du auf meinem TH-cam Kanal sehen kannst. Das geht von 30-50 nativen FPS in Hurston wie du richtig sagst, bis hin zu 170 nativen fps in Area 18. Es ist wie du richtig sagst, eher die Software die Probleme macht. Ich freue mich schon sehr auf 4.0 und dein erwähntes Multicore Rendering ! Danke nochmal für deine ausführliche Antwort ! Bist super.
@DeviatorBytes In 3.23.3 PTU und 4.0 Techpreview kannst du mit folgendem Befehl die Graphen anschalten. Alle Angaben in Millisekunden. GPU= Render-Zeit der GPU selbst, RT= Render-Zeit der CPU für die GPU, MT= Engine der Rest (Physik, AI usw.) r_displayFrameGraph 1
Macht es überhaupt Sinn vom 5800X3D auf den 9800X3D zu gehen? Ein Bekannter von mir will das jedenfalls machen. Ich habe ihm geraten, er solle lieber sein Hardwareschrott in Form der RTX 4060 Ti 16 GB verkaufen und gegen eine, RX 7800/7900 XT(X) oder RTX 4070(Ti) (Super) tauschen, da er in WQHD und dabei auch gern mit Ultra-Einstellungen zockt. Nur wundert er sich, dass das mit seinem aktuellen System nicht richtig funktioniert. Aber Hauptsache 5800X3D, 64GB DDR-4-3600 RAM und ein völlig überdimensioniertes be quiet! Straight Power 11 Platinum 1200W Netzteil, das noch nicht mal mit dem Formfaktor ATX 3.x daherkommt. Schade, dass ich ihn noch nicht kannte, als er sich damals dieses teils dämliche System zusammenstellen lassen hat. Mr. Edit: Sorry, ich bin irgendwie beim völlig falschen Video gelandet.😵💫
Dankeschön für dieses sehr informative und hilfreiche Video! 👍👍👍👍👍 Mich hat hier auch schon einige Zeit niemand mehr gefragt, warum ich immer diese Bananen 🍌in meinen Kommentaren vergebe. #FragDochDieBananenSelbst Also: Vielen Dank, liebe Santi! 🍌🍌🍌🍌🍌 Vielen Dank, lieber Dave! ☕☕☕☕☕ Vielen Dank, liebes "Kamera-Kind" 🎥Felix! 🍪🍪🍪🍪🍪
Windows neu machen und erneut die Spiele installieren? Weiß zwar nicht welchen oder ob Performance Einfluss es hat wenn man Spiele auf einer anderen NVME installiert aber dafür knallt man nicht die Win Platte voll. Einfach dem Launcher den Vorhandenen Pfad vorgeben und prüft einfach nur die vorhandenen Spieldateien. Zack. Hat man in 5 Minuten einfach 20 Spiele zur Verfügung.
Der typische IT Betriebsmuffel. Erklären bringt nix da es eh keiner versteht. Kein Bock Games zu testen. Obwohl man auch Backups nutzen kann statt jedes mal windows neu zu installieren. Turbo Game Mode ist Schrott. Hat es aber nicht getestet und weiß gar nicht genau was da passiert. Dann teste es mal mit Horizon Dawn Remastered oder CS2. Dann siehst Du was es bringt. Man steckt den Typ in den Keller und holt einen der Lust auf das Thema hat.
ach ja der flug simulator der ist echt krank dort nimmt sahder sein ende. sorry aber mit KI würde das auf jedem RTX PC laufen und schlanker machen im ram warscheinlich braucht man nicht mal 16 GB. wenn KI benutzt wird. ich vinde MS hat hier gezeigt wie unfähig winows ist. ein hammer dummes update das leuten zwingt mehr ram zu kaufen. warum nicht das nutzen das man hat und so weit verbessern das es gut ist. weil sahder einfach sind man erweitert die bibiotek und spiel alles wie videos ab echte berchnng ist das nicht. das größte spar programm ist shader. wie schon oft gesag die frage ist wo gerendert wird nicht wo mit. RTX ist schlecht mit cuda die technik ist auf tensor ausgelegt und doch nutzt man die karte wie eine herkömliche GTX karte echt geil. haupt sache man kann die FPS vergleichen ist ja die selbe render technik neue kare muss auch schder berechnen können. wow ich dachte RTX rezeugt shader aus der berchnung von RT und DLSS. warum soll man nochmal mehr aufwand machen. eigenltich kann ich sahder daten löschen brauche sie nicht mehr speichern auf der platte. nur noch reine texturen. animatioen beleuchtung und co. braucht man nicht mehr. wie klein kann also ein spiel werden. aber anscheined geht das battle weiter wer hat das gröste spiel mehr shader. ich wurde sagen wer hat den größeren schaden so mit strom der kunden umzugehen. der PC ist nicht KÖO wie auch wennn der berchnungen mcht die er nicht machen muss. so stufe ich shader ein mit RTX. warum ist nicht möglich? das st doch die frage keinen iteresiert was eine karte mit cuda macht. sondern was KI machen kann für das spiel und was die zukunft ist. ich sehe nur das ihr nicht verstanden habt das KI wichtig ist das zeigen mir eure test. wie schnell ist KI was ist mit KI in spielen möglich. welches spiel simuliert was besser. mit shader kann man lange warten den dort wird es nicht besser nur schlimmer.
Also wer sich nen 7800x3d oder nenn 9800xd3 holt um nur damit auf 1080p zocken zu können, hat wohl einfach zu viel Geld oder demjenigen ist nichtmehr zu helfen, ...ja gut es sei den der jenige zockt auf nemm 1080p 360 Hz Monitor seine Shooter, mit fps über alles undso^^
mit einem Ryzen 5600 messe ich auch um die 60W idle an der Steckdose mit 7 heruntergeregelten Lüftern, 2 SSDs und 2 HDDs. Ich kann kaum glauben, dass die 7000 und 9000 Serie rund 30W mehr verbrauchen würden. Es muss denke ich auch am Chipsatz liegen, da ein 7800X3D z.B. teilweise nur 50W Package Power in Spielen verbraucht, das wären schon 30W über meinem 5600 im Idle (etwas mehr mit Netzeilineffizienz miteingerechnet).
Hardware Unboxed hat eine ausführliches Video zu der 9800x3D Benchmark Thematik gemacht mit Beispielen, lohnt sich auch Hogwarts Legacy z.B. hatte mit ner 4090 trotz 4k immer noch einen CPU bottleneck
Ich denke, beides ist sinnvoll. Testen unter 1080p kann die pure Power der CPUs zeigen, und zeigt die größten Unterschiede. Doch halte ich es auch für sinnvoll zusätzlich 1080p oder 1440p zu testen, um reale Anwendungsfälle ebenso abzudecken. Es ist halt auch einfach so, dass in realen Anwendungen, mit realen Auflösungen die CPU fürs Gaming fast keine Rolle spielt, so lange es eine halbwegs aktuelle Desktop CPU ist.
@@KevinM0890 Ich habe bereits gesagt, was der Sinn ist. Reale Anwendungsfälle. Man muss das ja nicht genau so umfangreich testen. Der8auer macht das übrigens auch, der zeigt auch die Performance bei höheren Auflösungen.
@@masterluckyluke Roman macht eher übersichtliche kleine reviews und ich halte ihn für so kompetent genug, dass er in den spielen, die er dafür hernimmt sicherstellt, dass sie im cpu limit laufen. die auflösung ist dabei egal solange er das sicherstellen kann.
Hab heute meinen 9800X3D eingebaut und meinen 7800X3D ersetzt. Nicht weil es sinnvoll wäre, aber einfach weil ich es kann. Und ich hab eine RTX 4090, also passt.
Zu der CPU Thematik die immer wieder hier aufkommt. Leute, einfach mal die FPS von Grafikkartentests und von CPU Vergleichen. Dann seht ihr doch selber, welche Kombi gut harmoniert. Zumal oft im Heft auch genau solche Vergleiche als Balkendiagramme vorkommen. Ist es den wirklich so schwer selbständig vergleiche anzustellen? Und was hier in dem Video ja schon angerissen wurde, kauft ihr euch jetzt einen 9800X3D und später mal eine in der Zukunft liegende 6070 12 Gigabyte äh 16 hoffentlich (sorry der musste sein) sollte der Prozessor immer noch schnell genug sein und ihr müsst euch keine neue CPU kaufen geschweige den ein Mainboard oder neuen Ram.
@KevinM0890 warum sollte die 5090 schneller als 9700x sein. Die cpu macht noch bei der 6090 seine Arbeit. Soviel "Next Level" wird die 5090 auch nicht werden.
es ist falsch zu sagen das spiele grafik lstig sind oder CPU lasitg weil sie nicht KI nutzen oder sich verbessern. die beste technik bringt nur dann was wie RTX wen man auch KI nutzen kann wo für die karte gemacht ist. um shader zu rendern braucht man nicht eine 4090. das ist sogar mega dumm damit sahder zu berechnen den auf tensor geht es ja nicht also wo berechnet eine RTX sahder ja auf cuda. aber cuda war gesten nur spiele bekommen das mit KI nicht hin. weil man auf cuda rendert und nich frei hat für das spiel. raum weicht das spiel auf die CPU aus. warum man dann auch end schiffe bei der CPU braucht. die frage ist also warum ist ein spiel langsamm weil es zu viel last erzeugt und wo kann man die last verschiben beim rendern kann man mal anfangen. die last auf tensor zu bringen um cuda frei zu bekommen. aber das schaft kein spiel. kenn ihr ein spiel das mit KI wirbt sich mit andernen ki anderer hersteller konkuriert. alle machen sie sahder und schader wird auf cuda berechnet wie schnell wird das wohl sein. wie schnell ist tensor rendern wirklich hat das je ein spiel gemacht in den letzen 8 jahren. ich weiss nur das warzone und cod und metro exodus DLSS nutzen um die FPS ausgabe von cuda zu verbessern weil das einfach ist wird das sogar noch heute so gemacht aber ist das gut. nein weil RTX oder das was RTX ist sein sollte nie gemacht oder KI nie genutzt wurde. gaming hengt immer noch auf GTX weiter als GTX ist gaming nie gekommen KI ist nicht da. wie soll allso eine RTX karte seine stärken aus spielen. ich weiss nur das tensr benutzt wird für die brodcast software. für mehr ist tensor nicht da und schläft wartet oder freut sich mal mit DLSS was machen zu dürfen. man nutzt die cuda power also komplett dumm in spielen. cuda ist nicht für shader da nicht mehr seit RTX da ist. aber das versteht keiner das ist so traurig die bescheuert. wie schnell ist eine RTX karte das weiß keiner weil sie nie richtig benutzt wurde. wie schnell ist AMD das wissen wir ist schlechter als RTX karten. also was aht zukunft und was ist mehr wert. nur weil man was schlecht macht und das das beste ist ist doch ein plus punkt. die frage ist nur wann macht man richtiges RTX und richtig KI. weil nichtmal windows KI nutzen will oder die GPU wie es ausehen wird bringt heuch die X3D serie auch nich den die aht auch keine AI. das hesit wir man KI machen wollen mit der GPU die da drin ist ist es fraglich ob die CPU dann noch diese werte halten kann. was also AMD in die karten spiel ist das AI und KI nicht da sind. sind sie es wir schnell klar was schnell wirklich ist und was sein geld wert ist. aber dazu muss man das mal nutzen könne und vergleichen. so wie es aussehen wird HAT NVIDIA auch keine lust mehr karten im gaming bereich zu verkaufen. weil man mit GPUs nur sahder berchnet und nich simuliert so wie es gedacht ist. mir KI. GTX ist als und schlank aber wird weil es aufwändig ist weiter geamcht. die frage ist wo KI heute ist. wo KI in zukunft mit besseren code sein kann. deep lorning ist nicht möglich weil spiele KI nie machten. darum hat DLSS auch kaum vortschritte gemacht. die vortschritte dort kommen aus der eingenen cloud. das erklärt auch das nur spiele die dort spielbar sind DLSS nutzen können. was auch die kompatibilität zu 2000 nicht gegeben ist warum auch oft eine 3000 bessere werte bringt. weil man in der cloud mit DLSS 3000 daten sammelte und nicht mit 2000. nun ja alles ist abhänig macht man einen schritt nicht ist KI nicht möglich. und die CPU muss alles machen aber das ist dumm. sorry aber schlecht bleibt schlecht weil man sich nicht anpasst. konolen passen sich nicht an aber alles andere kann man der konole anpassen und das wird auch gemacht. nicht der PC gibt Grafik vor sondern technik von vor 10 jahren WTF. so ist die ware grenze des machbaren komplett unergründet.
Sag mal, bist Du ein KI-Bot? Denn so viele Fehler in jedem Satz und praktisch in jedem zweiten Wort mit Fleiß zu machen - schafft kein echter Mensch! ;-) Du hast sicherlich so einige gute Ideen in Deiner Text-Wall, aber man kommt beim Lesen nur unter Schmerzen voran. Nun, KI hin oder her, nichtsdestotrotz KANN man über CPU-lastig oder GPU-lastig im Spiele-Kontext zu sprechen - man muss nur den gemeinten Zusammenhang verstehen und das kann ein KI-Bot leider noch nicht ;-)
@@pcgh dan kanst bistimt sagen bei welcher umgebungs temp , welcher wermeleit paste , welche aio und auf welchen mainbord ist die tests gemacht habt und wieviel punkte ihr im 3dmark benhmark habt , damit man das selber zuhause nach testen kan um auf gleiche ergebnese komt ? ansonsten hört auf tests zu felschen . ale meine tests findest im 3dmark , cpu : AMD 7960x 24kerner UND RTX4090 in alen tests 1-3 weltrang mit der cpu und gpu
Danke wieder für eure Fragen! 😊 Alle Klarheiten beseitigt? 😄
yep!
Der 9800 3D ist laut dem Test von Hardware Unboxed, bei vielen Spielen auch bei 4k schneller. Ich kann das leider erst Ende des Jahres testen.
@@Games-ce9nh
Da wurde mit DLSS Balanced getestet, somit wurde ja garnicht richtiges 4k getestet..
für esport games macht diese cpu auch sinn weil cs2 valorant usw spielt man nicht in 4k ultra settings sondern eher 1080p/1440p low-mid settings
Hallo habt ihr das thema schon behandelt ? von V-Cache das der in bios auf auto ist und muss auf treiber gestellt werden extra für windows das der 3D-V Cache angesteuert wird von treiber weil automatisch auf den Mainboard ist das auf auto und nicht auf treiber und man hat das dann wenn man das im mainboard umändert direkt 80 fps mehr zb Borderlands 3 in den Video th-cam.com/video/4wdQpVcL_a4/w-d-xo.html
Danke euch. Damit denk ich für 4K besser die GPU aufs maximum aufrüsten und die CPU im Einsteigerbereich oder Mittelklasse lassen.
Hat der Monty auch empfohlen. Lieber an der CPU sparen und die Ersparnis auf die Grafikkarte drauflegen und eine Nummer besser kaufen. Bringt dir am Ende mehr fps fürs Geld.
@@gromm224 Monty. :D
Wenn man für den CPU-Vergleichstest auf die 320x200 Auflösung gehen muss, um wirklich noch große Unterschiede zu sehen, kommen für mich schon ein wenig künstliche und lebensferne Ergebnisse heraus.
Versteht mich nicht falsch, es ist natürlich als Hardwarefan generell „cool“ darauffolgend die schnellste Gaming-CPU auf der Welt zu haben. Falls es aber in FHD, QHD oder 4k, wenn überhaupt, nur marginale Unterschiede gibt, dann kann man sich die Neuanschaffung als praktisch orientierter Gamer oft auch sparen?
die geringeren unterschied in hohen auflösungen kommen nur dann zustande, wenn du eine zu langsame grafikkarte hast.
Was hat deine zu langsame grafikkarte mit einem cpu test zu tun? richtig, gar nichts.
kauf die ne stärkere grafikkarte oder halt doch einfach die finger still wenn du von der marterie keinen peil hast
Danke
@@KevinM0890 Das stimmt nicht. Selbst mit einer 4090er ist der Unterschied in 4k bei vielen Spielen zwischen einem 3D und einem normalen Ryzen nicht sehr hoch. Das Stichwort ist GPU-bound.
Ich akzeptiere Deine Entschuldigung.
@@noobahoi lass den begriff auflösung einfach weg.
wenn die fps bei erhöhung der auflösung fallen, ist es ein gpu limit
eine CPU hat mit der auflösung NICHTS zu tun
eine CPU macht FPS. in jeder auflösung in aller regel die gleichen
macht eine cpu 120fps in spiel x, macht sie 120fps in spiel x
ob du die in deiner auflösung (die ich nicht kenne) auch hast, hängt von deiner grafikkarte ab.
Der cpu juckt es nicht im geringsten wenn du die auflösung erhöhst
daher sind tests in 720p völlig valide.
die fps die dort rauskommen, hast du auch in 4k wenn deine graka die fps der cpu mindestens matcht.
wegen dem Ram, 6000mhz wird doch als sweat spot bezeichnet, da der FCLK (corregiert mich bitte, falls ich den gerade vertausche) im 1:1 ratio läuft und es wenn der ram schneller ist nicht mehr im 1:1 sondern im 2:1 Ratio läuft. Das heißt im umkehr schluss, das schnellerer ram vom aufpreis sich nicht lohnt, da man sogar leistungs verlust haben könnte (ohne manuellem oc).
Ja, 6000 läuft wohl bei quasi jeder CPU (bei 2 Riegeln) im 1:1 Verhältnis, also Speicher und Speichercontroller mit 3000. Wer Glück hat schafft in 1:1 auch 6200 oder mit noch mehr Glück 6400, einzelne Lottogewinner mit 6600 soll es auch geben. Das Limit ist dabei der Speichercontroller.
Wenn man 6200 oder 6400 nicht schafft kann man 8000 im 2:1 versuchen, da läuft dann der Speicher mit 4000 und der Controller nur mit 2000. Ab einem gewissen Punkt gleicht man den 2:1 Malus durch das höhere Tempo wieder aus. Man braucht aber natürlich guten Speicher dafür, und es ist dann schwierig zu erreichen weil das Mainboard limitiert.
Sweetspot bezieht sich also vor allem auf den Aufwand und den Preis. Der Punkt bei dem sich 2:1 lohnt war vorher nur mit viel Aufwand zu erreichen, die gut machbaren 7200 langsamer. Wir kommen nun an den Punkt wo viele neue Boards aber 8000+ auf der QVL stehen haben, und der Speicher ist auch nicht mehr so übertrieben teuer.
Wer nicht groß tunen will für den bleibt die Empfehlung "ordentlicher 6000er", übertakten kann man den auch wenn die CPU mehr schafft. Schnellerer Speicher ist aber nicht unbedingt viel teurer, und man kann dann evtl. gesichert gute Hynix bekommen.
Ja ich habe gefragt ,weil ich das auch nicht hinbekomme. Aber warum Word dann eine tdp von 120 Watt angegeben? Kann ja jeder behaupten. Dann könnte man ja auch zb.300 Watt angegeben. Keiner kann das erreichen. Eben,wie Dave schon sagt ,würde zu heiss werden. Aber wie bekommst du das Gesamtsystem auf nur 93 Watt ? Mein 7800 x3d mit 4 ssds plus Monitor ist bei 128 Watt. Muss ich beim msi tomahawk wifi im BIOS auf 45 Watt Begrenzung geben?
Jedes System ist anders. Je mehr angeschlossen ist, je mehr im Hintergrund läuft, LEDs, ARGB, verschiedene Software - das kann sich alles auf den Idle-Verbrauch auswirken. Wir verwenden für die Tests ein "sauberes" Windows 11, also ohne unnötigen Ballast. Das macht schon viel aus.
Ach btw, keine Ahnung ob es jemand schon erwähnt hat, aber Herzlichen Glückwunsch zu 200k Abonennten.
Man sollte trotzdem zumindest einen Vergleichsprozessor mit hoher Auflösung gegenstellen um die Relevanz des neuen Prozessors zu beleuchten. Viele bekommen FOMO, nur wegen langen Balken und sind enttäuscht, wenn der persönliche Mehrwert am Ende gering ist. Und der preisliche Unterschied zwischen z.B. einem 7500f und einem 9800x3D ist ja nicht gerade wenig.
dafür gibt es Grafikkarten tests. wer das nicht versteht hat pech gehabt
Nur mal ne Frage, warum macht ihr nicht mehere ssds die jeweils für ein System, 1 TB nvme ssds kosten ja nicht mehr die welt! Besser als jedes mal zu installieren! Wieviele nvme ssds kann man anschließend und Direktstorage nutzen! Auf meinem System gehts nur aud der ssd die direkt an der CPU angeschlossen ist und nicht am chipsatz!
Ich habe derzeit einen Intel 5820k als cpu lohnt sich ein Upgrade zum 9800x3d. Spiele nur auf 4k mit noch einer rtx 3080.
wie ist denn deine grafikkarten auslastung dort wo du aktuell zu wenig fps hast?
99% ? > neue cpu bringt nix, deine graka ist ne gurkr
unter 90% ? eine neue cpu bringt was aber nur bis zu dem punkt wo deine graka bei 99% ist.
warum kannst du das nicht selbst googlen?
testet ihr den amd 98003xd mit m.2 ssd gen 5 oder noch mit der alten gen 4 , das würde mich und sehr viele leute intresiren , wegen den lanes
willst du einen cpu test oder ssd test?
eine ssd klaut der cpu keine lanes
@@KevinM0890 m.2 ssd gen 5 , dar das die neuste und aktuele pc hardware ist , eine ssd hat 550mb/s eine m.2 ssd gen 5 hat 14.500mb/s und 2x m.2 ssd crucial t705 2tb im RAID 0 hat 24,500mb/s und das hat ein einflus auf test ergebnese genau wie die umgebungs temperatur hier mein test video ,, atto-disk-benchmark m.2 ssd samsung 990 gen4 vs RAID 0 2x crurial t705 gen5 , asus trx50 #HEDTgaming ,,
Wie soll man denn den sweetspot seiner CPU austesten?
5 verschiedene Speicherkits dazukaufen, alle durchtesten und dann 4 davon wieder zurückschicken? Wie ist das gemeint?
Habe ich leider auch so verstanden...
In grundegenommen, genau so.
Bei Zalando zb bestellt man ja seine Klamotten auch nach diesem Prinzip - das ist mittlerweile der Weg. Wer sich das leisten soll (Vorkasse) ist die andere Frage...
Das ist doch Unsinn :) Glaubt ihr, dass ein Speicherkit nur eine bestimmte Spezifikation aufweist und sonst nicht anders takten könnte? Man kann ein DDR5-6000-Kit auch mit -6400 betreiben. Oder mit -5800.
@@PCGH_Dave Ähm, ja...
Ein 5800 Kit wird wahrscheinlich nicht mit 6800 laufen...
Daher ja meine Frage wie das praktisch aussehen soll.
Sonst bliebe ja doch nur das schnelleste/teuerste kaufen und dann entsprechend bei Instabilität heruntertakten.
Oder meinst du, dass 6000 ja doch der sweetspot ist, man ein 6000 CL30 Kit nehmen sollte und noch ein bisschen damit herumprobieren sollte?
Dann kommt es im Video einfach nicht so rüber.
@@nipa5961 k.a. die Erklärung im video ist merkwürdig. Ich kenne den Begriff Sweetspot eher, wenn es um Preis/Leistung geht. Nicht was der Prozessor verarbeiten kann. Und wenn man sich die Preise für RAM Module anguckt, ist DDR5-6000 durchaus der Sweetspot. Zwischen DDR5-6000 und 6400 ist der Aufpreis aktuell ca. 10%. Während man jedoch keine 10% Mehrleistung bekommt.
Also ram mit 8000mhz geht nicht beim 9800x3d, auch wenn das Mainboard es unterstützen würde?
Nein
@Bin_dein_Anwalt und 7200? Oder ist 6800 das höchste der Gefühle?
8000 MTs funktionieren bringen aber zu 6000 MTs CL30 sehr wenig Mehrleistung gemessen zum Aufpreis für die Module.
@TheTaurus104 also geht doch? Und was ist die Grenze?
@@johannes1892 der sweetspot wird immer noch bei 6000 CL 30 liegen. Kann mit mehr mhz auch laufen, aber der Cl wert wird da nicht mitspielen
#fragt_Pc_Hardware moin wie schnell ist die 9800x3d beim windwos 11 booten vs Intel z.b gegen 265k ? , schöne hintergrundinformationen danke noch mal
Der Sweetspot des RAM war doch deswegen sinnvoll, weil ein Wert über 3600MT/s bei Ryzen 5000 den internen Taktteiler so einstellt, dass der Infinity Fabric nur halb so schnell Taktet. Ist das Argument also für Ryzen 7000 und 9000 nicht mehr valide? #FragPCGH
Ich muss mal ein riesen Lob für euch da lassen. Ihr macht m. M. n. wirklich tolle, unterhaltsame und Informative Videos die man sich gerne anschaut. Dank euch bin ich wieder voll in der PC-Hardware-Bubble und immer auf dem neuesten Stand. Vielen Dank für euren Content und macht weiter so 👍🏻
6000MT/s schaffen die Grundsätzlich ALLE mit 2 RAM Riegeln! Nur mit mehr Riegeln wird das nur selten klappen und der Sweepspot beschreibt auch nicht den maximalen Speed den die CPU bringen könnte, sondern den Punkt an dem ein höherer Takt einfach kaum noch was bringt ausser höhere Kosten. Hier werden im Video leider ziemlich viele Halbwahrheiten verbreitet!
Ausserdem wir hier dier IF Teiler auch mal ignoriert. Und nein, die Kerne ohne 3D Cache werden nicht deaktiviert sie werden nur bei Games nicht bevorzugt genutzt, andere interne Anwendungen laufen dabei nämlich genau auf den Kernen. Bei Turbo Modus wird nämlich der SMT deaktiviert und dadurch ist der Modus in Games tatsächlich etwas stärker, allerdings im einstelligen % Bereich!
Lohnen, tut sich das allerdings wirklich nicht so richtig.
Mein 9700x läuft bei 2x 16gb bei 7200mhz und bei 4x 16gb bei 5200mhz.
PC Games?
Wo sind die ganzes Tests?
... nö, haben wir als PC Games keinen Bock drauf :)
In 720p zu testen um die CPU zu testen ist ja ok, das verstehe ich ja. Aber nur in 720p zu testen verzehrt das Bild aber auch. Daher fände ich 720p, 1k und 2k ok, den so hat man den RAW vergleich der CPU der nötig ist und was wirklich hinten raus kommt, wenn man 4k spielt.
Aber immerhin finden die CPU Hersteller test die nur in 720P sind super ;)
Selbst 720p ist nicht okay. Sucht mal auf der PCGH-Site nach "16 × 9".
somit lässt sich die Frage zu 4K leicht beantworten ^^ ob man ryzen 9800x3d braucht oder nicht
Wenn man das konsequent machen wollte müsste man dann aber auch mit verschiedenen GPUs testen.
Ich glaube das wäre dann aber ein extremer Zeitaufwand für relativ wenig Nutzen.
@@GamerJuli85das hängt zu sehr vom Spiel ab, als dass man das so pauschal sagen könnte.
Bei der 4080s hat man schon fast keinen Nutzen vom 9800x3d. Hätte gegenüber meinem 13700k nur ca. 5 % mehr FPS. Für das Ding braucht man ne 4090😂
Ich habe gelesen das man nur mit den neuen Mainboards Expo 8000 fahren kann. Das kann man mit den x600 zum Beispiel nicht. Warum gibt es dazu kein Wort? Und hat das überhaupt Sinn?
Stimmt nicht. Ich habe meinen 7800X3D auf X670E schon mit -8000 betrieben. Es bringt nur nichts, weil der Controller dann nur mit halber Geschwindigkeit läuft.
Finde eine CPU ist in Esports Games nie Overkill, mehr FPS = weniger Input Lag. Es ist ein riesen unterschied CS mit 700 anstatt 300 FPS zu spielen
Früher in den 90'er wurde CS noch auf Pentium und AMD mit AGP GraKa gezockt,da hat noch niemand geschaut ,ob das Game jetzt mit 50 oder 1000Fps läuft. Hauptsache es lief flüssig.
Heute ist alles Overhyped ,Erbsenzähler und Geldmacherei.
@@MsPirolino Du hast die Kugelmaus vergessen :D
@@christianwetzel103 ja stimmt, die mit den vielen Fusseln und Staub.
Ich kann was meinen 7800X3d betrifft nicht klagen, im zocken bei ca 51-56W, und bei Timelaps rendern ca 80W, und das auch ziemlich schnell, 1100-1300 Bilder brauchen keine 5min. Das ganze ist für mich eine andere Welt, gesehen vom vor gänger her 3770 der dafür gute 15-20 min brauchte. Es geht mir aber vorangig ums zocken, also alles gut für mich und würde das Teil jederzeit wieder kaufen.
0:52 Ich meine als der 7800x3D für 300€ ging hätte man den in alles reinhauen können was mehr als full hd ist und wos ins budget passt. Weil für 300€ die beste CPU dies gibt war schon n kracher
#fragpcgh
Keine direkte Frage, viel mehr ein videovorschlag.
Könnt ihr euch mal mit der Thematik HDR beim PC Gaming widmen?
Ich hab mir vor kurzem einen OLED-Monitor gekauft, nur um dann jetzt festzustellen, dass HDR bei ganz vielen Spielen, z.B Cyberpunk , vollkommen beschissen aussieht. Das Bild wirkt besonder in dunklen szenen total verwaschen, sodass ich lieber in SDR spiele, da dort die schwarzwertr wesentlich besser sind. Und das kanns ja eigentlich nicht sein.
Es gibt wohl so Tools wie Reshade mit denen man das beheben kann.
Jedoch fände ich es richtig gut wenn ihr dazu mal ein Video oder gar Tutorial machen könntet.
#fragPCGH Hallo, wird der 9950X3D mit 3D V-Cache auf beiden CCD's kommen ?
2:19 Bei ryzen 3000 mit dem ersten IO-Die gabs einen neuen RAM-controller der nach einer gewissen RAM frequenz (so um die 3733MT/s DDR4, mal mehr mal weniger, je nach Silizium-lotterie) von 1:1 auf 2:1 modus umgeschaltet hat.
Das hat die Latenz erhöht und somit die Gaming performance potenziell verringert.
(Das ganze war natürlich noch vor 3D-Vcache und somit noch relevanter als auf letzteren)
Weiß jemand obs auf Ryzen 7000 und 9000 auch noch so einen 2:1 Modus gibt?
Ja gibt es und ich denke er hat die Frage auch falsch verstanden. Deshalb am besten einfach bei 6000Mhz CL30 bleiben.
1:37 das heißt: Asche über mein Haupt. 🤦♂
Bei Watt-Verbrauch Idle: Verstehe ich das dann richtig, das die Differenz alleinig auf die CPU zurückzuführen ist?
Nicht ganz. Mainboard und Speicher sind ja ebenfalls anders. Aber ja, CPU hat natürlich den größten Einfluß.
Geht eine CPU kaputt wenn man sie einbaut und das BIOS/UEFI nicht aktuell genug ist?
NEIN xD!!!!
Nein, die CPU geht nicht kaputt, wenn das BIOS/UEFI zu alt ist. Es kann aber sein, dass das Mainboard nicht startet und man denkt, die CPU sei defekt. Ein BIOS-Update kann das Problem oft lösen.
Santi melde Dich bitte mal wieder :)
Bessere Boards erwünscht. Ihr zwei, einfach nur Dream Team.
Hmmmmm kein Spielebenchmark schafft die Watt? Also in WarThunder hab ich meinen 13900k schon auf 330 Watt rödeln sehen! War lustig, aber auch bissel unheimlich 🤣
Hab dann die FPS auf 120 begrenzt. Vorher hat mein System (Einstellung Film bei 1440p) zwischen 500 und 700 FPS rausgedrückt 😅
Also: bei WarThunder kann man CPUs auslasten, aber richtig!
Gibt es immer noch Menschen die nicht verstehen warum man CPU'S in 720p testet?
In allen Tests die, ich gesehen habe, waren die Kommentare voll davon.
Schien oft so als würden Intel fans nicht haben wollen, das AMD vor weit vorne liegt.
@@Marcus221179 hier trifft technisches Unverständnis auf Realität
Die Leute kapieren es einfach nicht.
Die Tests sind zwar aussagekräftig um CPUs untereinander zu vergleichen, wenn aber jemand für eine FullHD eine optimale P/L-Leistung für bspw. Simulationen sucht, verzichte ich auf diese 720p Testergebnisse genauso wie auf die Testergebnisse von Ego-Shootern in Full HD. Es ist einfach irrelevant.
Naja, es gibt halt auch Menschen die gerade neu zu diesem Thema kommen. Kinder die älter werden und so.
'Thema Auflösung bei CPU Tests, sorry aber das seh ich halt einfach anders klar wollt ihr nen Bopttleneck der Graka verhindern um dann sagen zu können der CPU is so und soviel schneller usw aber das gilt halt dann auch nur für DIESE Aufläösung die dann noch absolutl realitätsfern ist. Wenn es die Realtität ist, dass nen Game mit ner 4080 in 4k mit quasi allen Cpus gleich schnell is, dann sollte das auch in nem Test so drinstehen.
ich mag aus dem Grund die Videos von Hardware unboxed echt gern weil die halt Full HD 1440 und 4k testen und die Werte dann direkt nebeneinander anzeigen. Und ja dann sehe ich ok Fullhad is das Ding 10% schneller in 1440 nur noch 4% und in 4k 0,5% und ja da kann man dann sagen da limitiert die GraKa aber dennoch isses nen realistischeres Bild als auf 720 zu testen
Das Ergebnis gilt nicht nur für DIESE Auflösung sondern für alle 16:9 Auflösungen in diesem Spiel solange deine GPU nicht zu 100% ausgelastet wird / nicht limitiert. Wenn die getestete CPU im Spiel X laut Test 140 FPS in 720p (oder niedriger) schafft und du dieses Spiel mit dieser CPU in 1080p gepaart mit einer 4090 spielst, kannst du auch dann die 140FPS sehen weil die GPU sich quasi langweilt. Bei 1440p vieleicht auch noch - kommt auf das Spiel an. Und bei 4k evtl. dann nicht mehr weil die GPU so viele Bilder nicht mehr berechnen kann. Ich hoffe ich konnte das irgendwie verständlich rüber bringen.
Du willst quasi einen CPU/GPU Test gemixt mit am besten sämtlichen Kombinationen in 30 Games um direkt in einem Test sehen zu können: "Aha... habe ich CPU X und GPU Y und spiele das Spiel "Elden Ring" in 4k, dann kann ich bei der CPU bis Modell Z runter und sparen." Ist halt ein übelster Aufwand. Und der PCGH CPU bzw. GPU Index hilft in der Hinsicht schon. Da hat man dann eben einen Durchschnittswert und nich speziell für eine Anwendung / Spiel.
@@christianwetzel103 blablabla sorry aber das genau mein ich damit jaja is kein echter CPU test weil sich sonst die Graka zu sehr ins Ergebnis einmischt usw usw usw, sorry nochmal^^ DAS INTERESSIERT ABER NICHT
ich denke keinen Käufer sollte es interessieren wenn er weiß ui auf 320 mal 240 is meine CPU 20% schneller als die andere CPU WENN ICH DAS NIE SELBER SO SPIELEN WERD.
Mich interessiert z.b. ich spiele 1440p momentan wieviel schneller is die CPU xyz in dieser Auflösung vs der CPU abc, wenn die 4% schneller is, evtl noch bissl sparsamer is und ungefähr das gleiche kostet naja dann kauf ich die halt, wenn jetzt aber abc und xyz quasi identisch sind und auch im Verbrauch identisch sind dann kauf ich die wo BILLIGER is im kompletten Setup, ob die CPU dann an sich im 720 schneller wäre interssiert mich einfach ned egal ob da die GraKa sich einmischt oder ned. Vor allem wenn diese Tests mit ner 4090 gemacht wurden und ich evtl keine 2k ausgeben will sondern evtl nur 800 oder so, weil dann meine GraKa ja eher bottlenecked und sich Cpus eher angleichen von den FPS her. Daher verstehe ich zwar, das man objektiv zeigen will wieviel schneller die CPU sein kann aber es ist halt einfach ned "sinnvoll" das zu tun find ich.
Das is wie in nem Autotest wo halt alles Daten auf freien Strassen gemacht werden, klar mein Porsche packt 250, wenn ich aber den nur innerorts fahren will oder kann isses halt ne an sich für mich unnütze Info, da interessiert mich eher das der statt 5 Liter wie nen Lupo oder so halt 23 mag^^
@@christianwetzel103 p.s. und wieviele Auflösungen kennst du in dem Verhältnis die aktuell gespielt werden außer Full HD wo sich die Graka langweilen kann?^^
@@pedronanton443 Das "blablabla" ist unnötig. Ich will gesittet Diskutieren und nicht streiten... Es gibt nicht nur AAA(A) *hust* Spiele die deine GPU zum kotzen bringen. Da gibt es genug bei denen die CPU die Grenze setzt wegen dem Anspruch an die Berechnungen oder beispielsweise div. Indiespiele. Da musst du ein bisschen nach links und rechts schauen.
Nochmal: Ist deine GPU in deinem Beispiel bei 1440p zu 100% ausgelastet wird die auch mit einer neuen leistungsfähigeren CPU voll ausgelastet sein und deine FPS sich nicht (1% Schwankungen mal außen vor) verändern. Zugegeben könnte man zumindest bessere Low P0.2 / P1 usw. FPS haben.
Ich wollte dir mit meinem letzten Absatz eigentlich mitteilen, dass ich grundsätzlich verstehe was du willst. Aber damit bin ich wohl gescheitert 🤔. Das was du willst wirst du wohl bei PCGH nicht finden wenn dir die Indexwerte nicht reichen zum Vergleichen.
Und zu deinem Autovergleich: Ich persönlich kauf mir kein Auto mit höheren PS-Zahlen weil ich ständig damit Rasen will 😁
@@pedronanton443 das interessiert dich nicht, gut. das ist dann auch dein problem. damit musst du leben. du verstehst es nicht, also sei doch einfach still
Wenn die Samples nicht da sind, dann kauft sie halt.
Ich verstehe nicht warum die Leute das mit der Auflösung bei CPU Tests nicht verstehen. Das ist so dermaßen gut erklärt, allein hier schon. Ist doch so einleuchtend. Vielleicht macht ihr mal einen Artikel oder Video was bei einem Spiel eigentlich die CPU macht und was die GPU.
gefühlt 90% der leute sehen einen CPU test als Gesamtsystemtest bzw Spieletest an bzw. wollen das darin sehen.
Das ist es aber nicht und deshalb sind die Mad.
Unbelehrbare Kinder aus der Generation Z
She lehrreich! Das war echt super :D
Ich warte immer noch auf Blondes Haar!
Möglichst niedirige Auflösung ist auch nicht immer top, siehe hardware unboxed.
Liebe Grüße Greg
lern oder sag einfach nix
12:32 Sry aber diese Aussage ist schlicht falsch. Bei einer niedrigen 32:9 Auflösung kann die CPU mehr zutun haben, als bei einer höheren 16:9 Auflösung, da mehr Bild Inhalt sichtbar ist welcher auch berechnet werden muss, unabhängig von der Auflösung im jeweiligen Format.
Jaaaaa Tuning Guide bitte für soft OC and Max OC mit dem 9800X3D!! 😍😍
Wie immer super video! Danke an euch beide, echt top
Sehr informativ. Lieben Dank!
15:58 da schließ ich mich mal an und frag mal, ob mein NH D15 SE AM4 ausreichen wird.
danke für den Mainboard Tipp,
hab genau nach so etwas gesucht, hatte zuvor das Asus Tuf im Auge, aber das hier passt von den lanes besser
Hab auch das AsRock B650 Steel Legend WiFi gekauft. Fehlt nur nur die CPU...
Wo schicke ich meine Bewerbung hin?
als was möchtest du dich wo bewerben?
Beste CPU für Star Citizen!
Mir wollte vor kurzen auch jemand erklären das er mit einen 7800x3d in 4k und einer 4090 ins CPU Bottleneck kommt...
In manchen Spielen wie Hogwarts Legacy ist das ja auch so. Jedes Multiplayer-Server-basierte Spiel mit vielen Spielern profitiert ebenfalls IMMER von besseren CPUs.
@@wetzlarerjung absolut richtig
@@wetzlarerjung das mag durchaus sein, es gibt immer die eine ausnahme, aber deswegen graded man nicht von 7800x3d auf 9800x3d up, das ist wohl minimal was man dadurch erreichen würde
Ein neues #fragpcgh Video?
Nice! \o/
......und wieder was gelernt! Top Video✌
Bitte wieder den MSFS bei den Tests mit aufnehmen 🙏
im Hardwareluxx Forum ist jemand, der eine RTX2080 hat mit einem 9800x3D 🙈
ok wo ist das Problem?
wo ist das problem? eine cpu und graka arbeiten nicht zusammen. keine ist voneinander abhängig. wenn er seine wunsch fps mit der kombi erreicht, ist alles gut
Dafür reicht auch eine 4090 nicht.
2:00 Danke dafür.
Ich bekomme jedesmal einen anfall wenn ich von "Sweetspot ist 6000 MT/s" höre
11:46 Das ist nicht ganz korrekt. Die Auflösung spielt keine Rolle für CPUs, solange man sich bei gleichem Bildverhältnis befindet. Weicht das ab, z.B. 16:9 zu 21:9, dann muss die CPU auch mehr arbeiten
15:59 Naja eine 240er AiO reicht natürlich per se aus, genauso wie ein 20€ Luftkühler. Da Ryzen CPUs aber bereits weit vor ihrer Tj_max anfangen den Takt zu senken sorgt eine stärkere Kühlung für höhere Taktraten unter Last. Für die maximalen Taktraten unter Last, reicht eine 240er AiO nicht. Außerhalb von Benchmarks kaum relevant, aber man sollte es mal erwähnen
Richtig, 21:9 und 32:9 habe ich nicht erwähnt. Allerdings ist die Unterstützung in den meisten Spielen immer noch nicht enthalten und die Auflösung so hoch, dass zumeist die Grafikkarte limitiert.
Vielen Dank, dass ihr meine Frage beantwortet habt! 😍❤️ (06:55)
Ich hätte da einige Fragen für #fragPCGH. Wenngleich diese nicht AMD Ryzen™ 7 9800X3D-exklusiv sind:
1.) Wie verhält es sich mit dem 3D V-Cache™ unter Linux? Bringt das dort ähnlich viel Mehrleistung pro Takt wie unter Windows?
2.) Warum gibt es (noch) keinen 3D V-Cache™ für mobile Prozessoren? Oder falls es die schon gibt, welche Prozessoren haben diesem bzw. wann kommen mobile Prozessoren mit 3D V-Cache™ in Laptops oder Handhelds?
3.) Wann, sofern überhaupt, wird PCGH Apples M-Prozessoren mit in die Vergleichstabelle aufnehmen? Apple liefert seit einigen Jahren mit ihren M-Prozessoren durchaus potente Hardware, an der sich, zumindest einigen Tests zufolge, die Intel-, Qualcomm- und AMD-Konkurrenz die Zähne ausbeißt. Speziell im mobilen Segment als auch was Effizienz angeht.
Ich möchte trotzdem wissen ob ich einen Vorteil in 4k mit dem Prozessor habe oder nicht. Die unteren Auflösungen sind mit egal. Man sollte das einfach mitteilen um ein Gesamtbild zu erhalten. Und wenn neue grakas kommen muss die CPU neu getestet Werden um dann ggf unter 4k Änderungen zu sehen.
kurz und knapp: nein, du hast kaum einen Vorteil, vorausgesetzt du besitzt überhaupt eine extrem potente GPU
kannst du doch sehen? die fps einer cpu verändern sich mit steigender auflösung nicht. du wirst dieselben fps aus dem 720p tests auch in 4k haben wenn deine graka schneller ist. ist deine graka nicht schneller, kriegst du die fps natürlich nicht
Was ist daran so schwer zu verstehen?
eine CPU test ist kein systemtest nur für dich und deine ausgangssituation.
@DeviatorBytes Der 9800X3D bringt da aktuell garnichts. In 99% der Fälle limitiert der Engine Mainthread aktuell. Dieser liegt bei ca 20-35ms, manchmal auch bei über 40ms. Ganz gleich welche CPU. Der Renderthread der CPU derfür die Grafikberechnung zuständig ist liegt bei einem 5800X3D bei ca 10-18ms. Mit nem 13700K ca bei 6-12ms. Das bringt dir nur nix weil immer noch der Mainthread den Bottleneck darstellt. In allen Städten wirst du ganz gleich welche CPU oder Graka nur maximal 30-50FPS sehen. 5800X3D+7900XTX, Graka dümpelt meist bei 40-60% rum. 13700K+4080S= 40-60%, 7800X3D+2070S= 60-90% GPU Auslastung (Exakt gleiche FPS wie mit den anderen Karten)
Mit 4.0 soll wohl noch Multicore Rendering in SC kommen. Das wird den RT noch weiter senken. Ob das Auswirkungen auf den MT hat... wohl eher nicht. Der generelle Aufwand für den RT und GPU Thread steigt aber wieder. Paar neue Grafikeffekte, u.a dynamische Wolken kommen.
Danke für deine mühe und diesen Liebevollen Kommentar Shinchyko.
Ich habe schon Starke Differenzen bei den verschiedenen Hauptstädten, wie du auf meinem TH-cam Kanal sehen kannst.
Das geht von 30-50 nativen FPS in Hurston wie du richtig sagst, bis hin zu 170 nativen fps in Area 18.
Es ist wie du richtig sagst, eher die Software die Probleme macht.
Ich freue mich schon sehr auf 4.0 und dein erwähntes Multicore Rendering !
Danke nochmal für deine ausführliche Antwort ! Bist super.
@DeviatorBytes In 3.23.3 PTU und 4.0 Techpreview kannst du mit folgendem Befehl die Graphen anschalten. Alle Angaben in Millisekunden. GPU= Render-Zeit der GPU selbst, RT= Render-Zeit der CPU für die GPU, MT= Engine der Rest (Physik, AI usw.) r_displayFrameGraph 1
Macht es überhaupt Sinn vom 5800X3D auf den 9800X3D zu gehen? Ein Bekannter von mir will das jedenfalls machen. Ich habe ihm geraten, er solle lieber sein Hardwareschrott in Form der RTX 4060 Ti 16 GB verkaufen und gegen eine, RX 7800/7900 XT(X) oder RTX 4070(Ti) (Super) tauschen, da er in WQHD und dabei auch gern mit Ultra-Einstellungen zockt. Nur wundert er sich, dass das mit seinem aktuellen System nicht richtig funktioniert. Aber Hauptsache 5800X3D, 64GB DDR-4-3600 RAM und ein völlig überdimensioniertes be quiet! Straight Power 11 Platinum 1200W Netzteil, das noch nicht mal mit dem Formfaktor ATX 3.x daherkommt. Schade, dass ich ihn noch nicht kannte, als er sich damals dieses teils dämliche System zusammenstellen lassen hat. Mr. Edit: Sorry, ich bin irgendwie beim völlig falschen Video gelandet.😵💫
Genau so ist es 👍
Dankeschön für dieses sehr informative und hilfreiche Video! 👍👍👍👍👍
Mich hat hier auch schon einige Zeit niemand mehr gefragt, warum ich immer diese Bananen 🍌in meinen Kommentaren vergebe. #FragDochDieBananenSelbst
Also: Vielen Dank, liebe Santi! 🍌🍌🍌🍌🍌 Vielen Dank, lieber Dave! ☕☕☕☕☕ Vielen Dank, liebes "Kamera-Kind" 🎥Felix! 🍪🍪🍪🍪🍪
Windows neu machen und erneut die Spiele installieren?
Weiß zwar nicht welchen oder ob Performance Einfluss es hat wenn man Spiele auf einer anderen NVME installiert aber dafür knallt man nicht die Win Platte voll.
Einfach dem Launcher den Vorhandenen Pfad vorgeben und prüft einfach nur die vorhandenen Spieldateien. Zack. Hat man in 5 Minuten einfach 20 Spiele zur Verfügung.
Auf ner Weihnachtsfeier würde ich definitiv Santi anbaggern. Lol!
Der typische IT Betriebsmuffel. Erklären bringt nix da es eh keiner versteht. Kein Bock Games zu testen. Obwohl man auch Backups nutzen kann statt jedes mal windows neu zu installieren. Turbo Game Mode ist Schrott. Hat es aber nicht getestet und weiß gar nicht genau was da passiert. Dann teste es mal mit Horizon Dawn Remastered oder CS2. Dann siehst Du was es bringt. Man steckt den Typ in den Keller und holt einen der Lust auf das Thema hat.
Ich hatte ähnliche Gedanken😂
ach ja der flug simulator der ist echt krank dort nimmt sahder sein ende. sorry aber mit KI würde das auf jedem RTX PC laufen und schlanker machen im ram warscheinlich braucht man nicht mal 16 GB. wenn KI benutzt wird.
ich vinde MS hat hier gezeigt wie unfähig winows ist. ein hammer dummes update das leuten zwingt mehr ram zu kaufen. warum nicht das nutzen das man hat und so weit verbessern das es gut ist.
weil sahder einfach sind man erweitert die bibiotek und spiel alles wie videos ab echte berchnng ist das nicht. das größte spar programm ist shader.
wie schon oft gesag die frage ist wo gerendert wird nicht wo mit.
RTX ist schlecht mit cuda die technik ist auf tensor ausgelegt und doch nutzt man die karte wie eine herkömliche GTX karte echt geil. haupt sache man kann die FPS vergleichen ist ja die selbe render technik
neue kare muss auch schder berechnen können. wow ich dachte RTX rezeugt shader aus der berchnung von RT und DLSS. warum soll man nochmal mehr aufwand machen.
eigenltich kann ich sahder daten löschen brauche sie nicht mehr speichern auf der platte. nur noch reine texturen. animatioen beleuchtung und co. braucht man nicht mehr. wie klein kann also ein spiel werden.
aber anscheined geht das battle weiter wer hat das gröste spiel mehr shader. ich wurde sagen wer hat den größeren schaden so mit strom der kunden umzugehen.
der PC ist nicht KÖO wie auch wennn der berchnungen mcht die er nicht machen muss. so stufe ich shader ein mit RTX.
warum ist nicht möglich? das st doch die frage keinen iteresiert was eine karte mit cuda macht. sondern was KI machen kann für das spiel und was die zukunft ist.
ich sehe nur das ihr nicht verstanden habt das KI wichtig ist das zeigen mir eure test. wie schnell ist KI was ist mit KI in spielen möglich. welches spiel simuliert was besser. mit shader kann man lange warten den dort wird es nicht besser nur schlimmer.
Gutes Video Danke
Auf meinem Asus Rog Strix B650E Gaming Wifi läuft der 9800X3D ohne BIOS Update.
Also wer sich nen 7800x3d oder nenn 9800xd3 holt um nur damit auf 1080p zocken zu können, hat wohl einfach zu viel Geld oder demjenigen ist nichtmehr zu helfen, ...ja gut es sei den der jenige zockt auf nemm 1080p 360 Hz Monitor seine Shooter, mit fps über alles undso^^
neid? was hat die cpu mit der auflösung zu tun? bist du stinkig dass du dir keine leisten kannst`?
die frage mit den cpu tests in niedriger auflösung werdet ihr wohl in 30 jahren noch beantworten :D
mit einem Ryzen 5600 messe ich auch um die 60W idle an der Steckdose mit 7 heruntergeregelten Lüftern, 2 SSDs und 2 HDDs. Ich kann kaum glauben, dass die 7000 und 9000 Serie rund 30W mehr verbrauchen würden. Es muss denke ich auch am Chipsatz liegen, da ein 7800X3D z.B. teilweise nur 50W Package Power in Spielen verbraucht, das wären schon 30W über meinem 5600 im Idle (etwas mehr mit Netzeilineffizienz miteingerechnet).
Hardware Unboxed hat eine ausführliches Video zu der 9800x3D Benchmark Thematik gemacht mit Beispielen, lohnt sich auch
Hogwarts Legacy z.B. hatte mit ner 4090 trotz 4k immer noch einen CPU bottleneck
Da wurde mit DLSS Balanced getestet, somit wurde ja garnicht richtiges 4k getestet..
@@daaviddave richtig und dort auch genauso erklärt
Schade dass da im Vergleich der 13900k/14900k nicht auftaucht. Mich hätts interessiert.
Ich denke, beides ist sinnvoll. Testen unter 1080p kann die pure Power der CPUs zeigen, und zeigt die größten Unterschiede. Doch halte ich es auch für sinnvoll zusätzlich 1080p oder 1440p zu testen, um reale Anwendungsfälle ebenso abzudecken. Es ist halt auch einfach so, dass in realen Anwendungen, mit realen Auflösungen die CPU fürs Gaming fast keine Rolle spielt, so lange es eine halbwegs aktuelle Desktop CPU ist.
nein ist es nicht. wozu andere auflösungen testen wenn das ergebnis im cpu limit eh identisch ist? les dich ein oder lass es, bitte.
@@KevinM0890 Ich habe bereits gesagt, was der Sinn ist. Reale Anwendungsfälle. Man muss das ja nicht genau so umfangreich testen. Der8auer macht das übrigens auch, der zeigt auch die Performance bei höheren Auflösungen.
@@masterluckyluke Roman macht eher übersichtliche kleine reviews und ich halte ihn für so kompetent genug, dass er in den spielen, die er dafür hernimmt sicherstellt, dass sie im cpu limit laufen. die auflösung ist dabei egal solange er das sicherstellen kann.
Hab heute meinen 9800X3D eingebaut und meinen 7800X3D ersetzt. Nicht weil es sinnvoll wäre, aber einfach weil ich es kann. Und ich hab eine RTX 4090, also passt.
besser haben als brauchen, nice
angeber 😂
Gönn dir ❤
Ich bin auch am überlegen aufzurüsten merkt du eine Leistungssteigerung?
Von einer 7800X3D? 👀 Wieviel Geld möchte man verbrennen? Ja😂
Zu der CPU Thematik die immer wieder hier aufkommt. Leute, einfach mal die FPS von Grafikkartentests und von CPU Vergleichen. Dann seht ihr doch selber, welche Kombi gut harmoniert. Zumal oft im Heft auch genau solche Vergleiche als Balkendiagramme vorkommen. Ist es den wirklich so schwer selbständig vergleiche anzustellen?
Und was hier in dem Video ja schon angerissen wurde, kauft ihr euch jetzt einen 9800X3D und später mal eine in der Zukunft liegende 6070 12 Gigabyte äh 16 hoffentlich (sorry der musste sein) sollte der Prozessor immer noch schnell genug sein und ihr müsst euch keine neue CPU kaufen geschweige den ein Mainboard oder neuen Ram.
Also 5090 mit 9700x auf 4k.
Bringt die gleichen fps wie der 9800x3d mit 5090.
wenn die 5090 langsamer als beide cpus ist, ja. und jetzt?
@KevinM0890 warum sollte die 5090 schneller als 9700x sein.
Die cpu macht noch bei der 6090 seine Arbeit.
Soviel "Next Level" wird die 5090 auch nicht werden.
es ist falsch zu sagen das spiele grafik lstig sind oder CPU lasitg weil sie nicht KI nutzen oder sich verbessern.
die beste technik bringt nur dann was wie RTX wen man auch KI nutzen kann wo für die karte gemacht ist.
um shader zu rendern braucht man nicht eine 4090. das ist sogar mega dumm damit sahder zu berechnen den auf tensor geht es ja nicht also wo berechnet eine RTX sahder ja auf cuda.
aber cuda war gesten nur spiele bekommen das mit KI nicht hin.
weil man auf cuda rendert und nich frei hat für das spiel. raum weicht das spiel auf die CPU aus.
warum man dann auch end schiffe bei der CPU braucht.
die frage ist also warum ist ein spiel langsamm weil es zu viel last erzeugt und wo kann man die last verschiben beim rendern kann man mal anfangen. die last auf tensor zu bringen um cuda frei zu bekommen. aber das schaft kein spiel. kenn ihr ein spiel das mit KI wirbt sich mit andernen ki anderer hersteller konkuriert.
alle machen sie sahder und schader wird auf cuda berechnet wie schnell wird das wohl sein.
wie schnell ist tensor rendern wirklich hat das je ein spiel gemacht in den letzen 8 jahren.
ich weiss nur das warzone und cod und metro exodus DLSS nutzen um die FPS ausgabe von cuda zu verbessern weil das einfach ist wird das sogar noch heute so gemacht aber ist das gut. nein weil RTX oder das was RTX ist sein sollte nie gemacht oder KI nie genutzt wurde.
gaming hengt immer noch auf GTX weiter als GTX ist gaming nie gekommen KI ist nicht da. wie soll allso eine RTX karte seine stärken aus spielen.
ich weiss nur das tensr benutzt wird für die brodcast software. für mehr ist tensor nicht da und schläft wartet oder freut sich mal mit DLSS was machen zu dürfen.
man nutzt die cuda power also komplett dumm in spielen. cuda ist nicht für shader da nicht mehr seit RTX da ist. aber das versteht keiner das ist so traurig die bescheuert.
wie schnell ist eine RTX karte das weiß keiner weil sie nie richtig benutzt wurde.
wie schnell ist AMD das wissen wir ist schlechter als RTX karten. also was aht zukunft und was ist mehr wert.
nur weil man was schlecht macht und das das beste ist ist doch ein plus punkt. die frage ist nur wann macht man richtiges RTX und richtig KI. weil nichtmal windows KI nutzen will oder die GPU wie es ausehen wird
bringt heuch die X3D serie auch nich den die aht auch keine AI. das hesit wir man KI machen wollen mit der GPU die da drin ist ist es fraglich ob die CPU dann noch diese werte halten kann.
was also AMD in die karten spiel ist das AI und KI nicht da sind. sind sie es wir schnell klar was schnell wirklich ist und was sein geld wert ist. aber dazu muss man das mal nutzen könne und vergleichen.
so wie es aussehen wird HAT NVIDIA auch keine lust mehr karten im gaming bereich zu verkaufen.
weil man mit GPUs nur sahder berchnet und nich simuliert so wie es gedacht ist. mir KI.
GTX ist als und schlank aber wird weil es aufwändig ist weiter geamcht.
die frage ist wo KI heute ist. wo KI in zukunft mit besseren code sein kann. deep lorning ist nicht möglich weil spiele KI nie machten. darum hat DLSS auch kaum vortschritte gemacht. die vortschritte dort kommen aus der eingenen cloud. das erklärt auch das nur spiele die dort spielbar sind DLSS nutzen können. was auch die kompatibilität zu 2000 nicht gegeben ist warum auch oft eine 3000 bessere werte bringt. weil man in der cloud mit DLSS 3000 daten sammelte und nicht mit 2000. nun ja alles ist abhänig macht man einen schritt nicht ist KI nicht möglich.
und die CPU muss alles machen aber das ist dumm. sorry aber schlecht bleibt schlecht weil man sich nicht anpasst. konolen passen sich nicht an aber alles andere kann man der konole anpassen und das wird auch gemacht. nicht der PC gibt Grafik vor sondern technik von vor 10 jahren WTF.
so ist die ware grenze des machbaren komplett unergründet.
Sag mal, bist Du ein KI-Bot? Denn so viele Fehler in jedem Satz und praktisch in jedem zweiten Wort mit Fleiß zu machen - schafft kein echter Mensch! ;-) Du hast sicherlich so einige gute Ideen in Deiner Text-Wall, aber man kommt beim Lesen nur unter Schmerzen voran. Nun, KI hin oder her, nichtsdestotrotz KANN man über CPU-lastig oder GPU-lastig im Spiele-Kontext zu sprechen - man muss nur den gemeinten Zusammenhang verstehen und das kann ein KI-Bot leider noch nicht ;-)
Warum felscht ihr tests ?
Der Witz, wird mit der Zeit nicht besser Dude 😅...
@@tomekdargiewicz6397 hier wird nicht gefeilscht
@@pcgh dan kanst bistimt sagen bei welcher umgebungs temp , welcher wermeleit paste , welche aio und auf welchen mainbord ist die tests gemacht habt und wieviel punkte ihr im 3dmark benhmark habt , damit man das selber zuhause nach testen kan um auf gleiche ergebnese komt ? ansonsten hört auf tests zu felschen . ale meine tests findest im 3dmark , cpu : AMD 7960x 24kerner UND RTX4090 in alen tests 1-3 weltrang mit der cpu und gpu
@@BattleCatler ahte auf deren ausfürliche antwort das wird würklich ein witz
Bruder, versuch doch erst mal einen ganzen vollständigen und korrekten Satz zu schreiben. Dann sehen wir weiter. Danke.