Etwas anders muss auch gesagt werden: Die Leistungssteigerungen der letzten Jahren waren enorm und immer nahe dessen, was technisch gerade noch machbar ist. Irgendwann musste man an eine Grenze stoßen. Am schlimmsten aber an dieser Entwicklung ist, dass sich Softwareentwickler auf immer leistungsfähigere Hardware verlassen habe und sich daher nicht mehr die Mühe gemacht haben, für irgendetwas zu optimieren. Ich möchte an die Zeit erinnern, an der Programmierer ihre gesamte Kreativität aufbringen mussten um aus der limitierenden Hardware echte Wunder heraus zu kitzeln. Heute ist es genau umgekehrt. Die Hardware könnte so viel mehr Erlebnis für den Endanwendern bieten, aber sie werden von den Programmieren nicht annähernd ausgenutzt. Stattdessen treiben viele Programme aufgrund nicht vorhandener Code-Optimierung Speicher und Kühlung an ihre Grenzen ohne dabei für den Endnutzer irgendeiner Mehrwert zu bieten. Wäre es nicht schön, wenn die Hardwareentwicklung mal ein wenig Luft holt und stattdessen die Software wieder optimiert werden könnte?
Sehe ich nicht so, bei den ARC Karten ist nur der Preis interessant, die sind kaum schneller als die 4060 aber haben eine deutlich höhere Stromverbrauch, peinlich dafür, dass die Karten so viel neuer sind
Ich finde Battlemage ist schon ein großes Highlight. Starke Verbesserung der Treiber, viel mehr Vram für entry-level GPUs und super Entwicklung gegenüber der Alchemist Generation. Ich wünschte Intel würde auch mal im high end bereich Nvidia den Kampf ansagen.
Eine Frage ist ja, ob denn jedes Jahr alles immer krasser und besser werden muss. Klar, wie hier gesagt, belebt es den Markt urn Konkurrenz sorgt auch für bessere Preise und Angebote allgemein, aber dennoch muss man ja nicht dauernd aufrüsten und es gibt ja enorm krasse Sachen schon auf dem Markt. Vielleicht wäre es sogar gut, wenn nicht so viel bessere Hardware rauskommt, damit Entwickler ihre Spiele wieder mehr optimieren, statt auf neue Technologien wie Upscaler und Fake-Optimierungen und Unreal Engine setzen. Viele Programme sind ja allgemein einfach nur wahnsinnig groß und ineffizient geworden. Wenn man mal an ganze Spiele denkt die sich auf Disketten oder anderen winzigen Datenträgern befanden, nicht nur weil sie viel weniger Detail hatten, sondern auch weil Entwicklern enge Grenzen gesetzt waren, die sie einhalten mussten… Also hoffentlich kommt dadurch bald mehr Optimierung, die sich natürlich aber schlecht monetarisieren lässt. Vielleicht sehe ich das auch ganz falsch und wir brauchen wieder Generationssprünge wie vor 10-20 Jahren.
@@KreativEcke Allgemein ist das nicht korrekt, Wasserstoff hat einen Kovalenzradius von 0,032 nm, Cäsium hat einen von empirisch ermittelten Atomradius von 0,260 nm. Es gibt also schon deutliche Größenunterschiede. da wir aber über elektronische Bauteile reden. Für Silizium passt es aber, dass sind 110 pm, also die 0,110 nm, für Gold sind es 0,135 nm.
Klar, für Hardware Enthusiasten, Content Creator und co. ist es schade, wenn sich nichts tut in dem Markt. Aber für mich ist es besser. So kann ich meinen PC länger behalten und muss nicht irgendwann die Hardware wechseln
Mein Hardware-Highlight 2024 ist dass ich das Kapitel Intel-Treue nach 20+ Jahren abschließen werde. So lange bis AMD richtig rein scheißt, das kann eine kurze Zeitspanne sein oder lebenslang, mal gucken. Bis dahin kommt mir kein Intel mehr inne Kiste.
Für Hardware-TH-cam und einige Enthusiasten mögen das schlechte Nachrichten sei. Für mich als Gamer und vor allem als schon etwas älteren Gamer sind das eher gute Nachrichten und zwar aus 2 Gründen: 1. Meine „alte“ 4070 TI ist noch halbwegs aktuell und ich muss nicht ständig los und mir für hunderte Geld neue Hardware besorgen, nur um die neusten AAA Titel auch mit mehr als 30 FPS zocken zu können. 2. Und das ist eher eine Hoffnung für die Zukunft. Ich hoffe, dass wir wieder mehr zu guten Inhalten in Games kommen anstatt immer nur größere Maps mit noch besserer Grafik. Ich meine ein modernes AC oder auch ein RDR sind toll anzusehen aber diese immer gleichen Inhalte, weil den Entwickelten nichts mehr einfällt um die 10.000 Quadratkilometer große Spielwelt zu füllen. Da hilft es auch nicht wenn ich jetzt jede einzelne Pore im Nacken meiner Figur erkennen kann.
2025 wird schlimmer, sollten die neusten Leaks zur neuen AMD Generation tatsächlich zutreffen. Ich sage nur 7900gre performance für 600 Euro, wenns ganz doof kommt. Dann haben wir die 5090, einzige wirklich interessante Karte im RTX Line-Up, die mit gut 2200 oder 2300 msrp hier in Deutschland an den Start geht, voraussichtlich. Die Preise für die 5090 werden u. A. auch durch künstliche Verknappung so sehr in die Höhe getrieben, dass man in den ersten Monaten hier in Deutschland kaum ein Modell für unter 2600 Euro in die Hände bekommen wird, wenn es nicht sogar noch teurer wird. Ein Glück, dass ich in den nächsten 2+ Jahren nicht mehr upgraden muss. Vielleicht spielt ja dann AMD auch wieder im Enthusiasten-Segment eine Rolle, sodass Nvida oben nicht konkurrenzlos dasteht.
Hey, ich hab mir ne 4070super bestellt (zu nem ryen 7 7700). Besser wieder zurückschicken und auf den Release der 5070 warten (passt die überhaupt auf nen pcie 4.0 slot) oder lohnt sich das warten nicht?
Hallo KreativEcke ( Daniel ) Ersten es war sehr Aufschlußreich dein Jahres Rückblick und Zwitens richt es ist alles Viel zu Teuer geworden!!! Für mich war auch nur die gute Performins der B580 von Intel. viel mehr ist nicht passiert dieses Jahr. Ich wünsche dir und deiem Team ein sehr schönes Weihnachts Fest ! Ich weis das wir uns spätestens am Freitag wieder sehen werden. bis dahin einen Daumen in nördlicher Richtung und viele liebe Grüße. René mit Familie
Wie wäre es mit einem neuen Test beim Ultra 9 285k in Verbindung mit dem Cudimm bis zu 10.000Mhz seien damit möglich und soll laut ein paar Tests von anderen Creatorn 5-15% mehr Leistung bringen in Games. Mit OC sollten sogar bis zu 25% möglich sein. G.Skill Trident Z5 CK das waren die Test Riegel von z.b. Techtestern, sie hatte aber nur die 8.400Mhz Variante Würde mich freuen!
Ich finde schon, dass sich einiges getan hat. DDR5 RAM und SSDs sind schneller, Kühler und Gehäuse besser und allesamt günstiger geworden. Battlemage hatte einen überraschend positiven Launch, CPUs werden deutlich energieeffizienter. 9800X3D ist unglaublich schnell und dank des neuen Cache-Aufbaus auch mit für die X3D-Serie tollen Neuerungen - niedrigere Temperaturen, höherer Kerntakt, frei übertaktbar. Das Jahr hatte mMn durchaus Highlights. Dass sich bei den GPUs nix tut liegt meines Erachtens nach eher am Enterprise-Markt, warum sollten AMD und Nvidia neue Enthusiastenprodukte rausbringen wenn sie stattdessen für absurden Profit Karten für KI verkaufen können. Viel lukrativer.
AI hat genauso einen Stillstand. GPT5 sollte Microsoft intern schon im Sommer vorgeführt werden. Trotz zweier halbjährigen Trainingsläufe, waren die Ergebnisse nur minmal besser als GPT4. Die hatten ja schon das gesamte Internet zum training bentutzt und sie müssen nun auf künstliche Daten zurückgreifen. Ihr werdet sehen, dass alles ist eine riesige Blase und total überbewertet.
Ich bin gespannt auf die RDNA 4 und Battlemage GPUs im nächsten Jahr. Die B580 ist schon recht gut geworden, aber mich würde eher der B770 interessieren. Bei NVIDIA bin ich raus, da die Preisgestaltung schon jetzt abgehoben ist und die 5000er noch zusätzlich in die selbe Kerbe schlagen wird.
Das Problem bei Intel ist nicht Moores Law sondern weil Intel bisher nicht bei TSMC gefertigt hat und seiner Fertigung selber versucht hat was nicht so gut funktioniert hat
das beste highlight war wohl eher Intel Arc mit den Billigen Gpus naja wobei bis die bei uns sind in deutschland kosten die auch wieder genug so das sich weder arc 580 noch 4060 lohnt sondern echt nur die alte rx6700xt bzw. rx6750xt rx6800 rest ist dann wieder zuteuer!
Werde erst 2027-2028 upgraden. Dieses hin und her oder kaufen kaufen, macht einen verrückt. 13900k im Einsatz und happy. Auch wenn der Stromverbrauch hoch ist, werde ich kein neues board mit cpu kaufen. 2020 eine 3090 zu Release preis ergattert und bis 2024 märz betrieben. Anschließend für 700 verkauft und eine asus tuf rtx 4080 super oc geholt für 1199 Euro. Aktuell sind alle Produkte einfach beta und das optimale im bezug watt wärme und ghz, wird sich dies in 2-3 einpendeln
1200 Euro für eine 4080 Super ? Die gabs doch damals schon für unter 1000 Euro. Und komm mir nicht mit dem OC. Die 7 % mehr Leistung sind keine 150 Euro mehr wert.
Mnm ist generell der gesamte Gaming Kosmos problematisch wenn Spiele oder Anwendungen so schlecht optimiert und entwickelt werden ( siehe DLSS hole) und sich darauf ausgeruht wird das schlechte Optimierung mit Leistung wett gemacht wird die Grafik sich seit 2012 nicht so stark verbessert wie die Leistung es fähig macht warum sollte man upgraden warum sollte man bessere Monitore kaufen und warum sollte man sich eine teurere graka kaufen wenn sich am Endprodukt nichts ändert weil es Grottig entwickelt wird. Wenn Spiele Konsolen orientiert entwickelt werden und man hofft das upscaling alles besser macht ist eh Hopfen und Malz verloren 😞
Man muss auch mal ein bissel nachdenken! Wie groß ist der Markt für Leute die es sich leisten können 2000€ und mehr für eine Grafikkarte auszugeben? Bestimmt nicht so groß, wie bis 1000€! Wenn da noch ein zweiter Hersteller mit dabei ist, kann man zwar dem Konkurenten 50% Marktanteile weg nehmen. Dann machen aber Beide so wenig Gewinn, dass sich die Entwicklung nicht lohnt und beide verschwinden aus diesem Segment. AMD hat also verstanden, dass da kein Geld zu machen ist. Dafür bauen die gute CPU´s die im Verbund mit ihren eigenen GPU´s ein gutes PreisLeistungsverhältnis haben.
Nvidia und wenig gewinn??? Nvidias Ki Grafikkarten sind extrem beliebt und gewinnbringend und das unternehmen konnte das Jahr sogar mit Microsoft als wertvollstes unternehmen mithalten und zum teil sogar mit dem Umsatz übertreffen. Nvidia wird sicher nicht aus diesem Segment verschwinden. Bei Amd mache ich mir aber mehr sorgen weil sie nvidias Dominanz klar unterlegen sind..
Nvidia sind die "gamer" mittleweile komplett egal, 90% der Einnahmen sind durch AI deswegen geben sie der 4080s z.B auch nur 16VRAM genauso wie der 5080 sonst würde sie zutah an der 5090 dran sein und würden einnahmen durch die AI verlieren.
Also ich finde man sollte sich mehr auf die performance bei intel Fokusieren und nicht auf irgent einen AI oder KI müll den wenn ich mal eine Intel Ultra habe deaktiviere ich direct die NPU und wenn das nicht geht dann werfe ich lieber die CPU in dem müll Genauso wie Raytracing und jegliche upscalling funktion würde ich am liebsten auch entsorgen
Intel ist, für dein empfinden, sehr gut mit der Problematik ihrer defekten CPU's umgegangen? Na hallo, da muss man schon alle vier Augen für zudrücken. Erst will man kein Problem haben, dann hat man eins, aber die anderen (Mainnoardhersteller) sollen schuld sein, bis man es nach langem hin und her doch eingestehen muss es mit der Brechstange einfach übertrieben zu haben und die Kommunikation seitens Intel war ja auch mal ewig nicht existent. Also für mein Verständnis ist das sehr weit fernab von "sehr gut".
Man muss hier den richtigen Maßstab ansetzen und der lautet nun mal AMD. Wenn man bedenkt das AMD "bis heute" den soc/expo bug totschweigt, durch den nicht nur die Ryzen 7000er abgefackelt sind, sondern die Boards wegen der verkokelten Sockel gleich mit geschrottet wurden, hat sich Intel gradezu musterhaft verhalten. Im Gegensatz zu AMD die nicht nur nichts erstattet haben, wurde hier sogar zusätzlich noch die Garantiezeit erhöht. Von AMD gab es noch nicht mal einen Müllbeutel um den Schrott zu entsorgen. Und natürlich hatten die Boardhersteller mindestens eine Teilschuld, weil die Vollhorste die Boards ab Werk immer schön mit Knallgaseinstellungen im Bios ausgeliefert haben. Man will ja in den benchmark Listen immer schön oben stehen, koste es was es wolle. Wenn dann durch einen ähnlichen Bios bug den AMD hatte Schäden entstehen, ist das nicht wirklich verwunderlich. Das Verhalten von AMD seinen Kunden gegenüber war jedenfalls für alle Betroffenen im Vergleich zu Intel unter aller Kanone!
Mag sein, dass AMD's Umgang noch schlimmer war, aber das macht aus einer Schulnote 4 keine 1, nur weil der andere Schüler noch schlechter war. Und der Punkt, dass die Boardpartner zumindest Teilschuld hätten, ist zumindest diskussionswürdig. Man könnte eben auch anführen, dass Intel da hätte strenger sein müssen, so wie es nVidia und AMD beispielsweise bei den GraKas sind. Und warum schaffen es die Boardpartner von AMD nicht mit Werksseitigem OC für die CPU auszuliefern? Vermutlich nicht, weil AMD ihnen die Wahl dazu lässt. Man hat als Endkunde (bei AMD) auch die Möglichkeit viel herumzuspielen, aber ab Werk ist erst mal alles auf Standardwerten.
Diese Diskussionen gab es schon öfters. Am Ende hat sich immer herauskristallisiert das a.) die CPU Hersteller keinen Einfluss darauf haben mit welchen Bios Einstellungen die boards in den Handel kommen und b.) es bei AMD boards keinen Sinn macht alles auf Knallgas zu stellen, weil AMD CPUs sehr viel sensibler reagieren und dann nur Fehlermüll beim Hochfahren angezeigt würde. Intel hatte auch kein "Brechstangenproblem" sondern einen fehlerhaften microcode. Wenn der vid Schutz nicht greift und die CPU wegen eben diesem Fehler über 1,6V anfordert und auch bekommt, stirbt sie eben langsam den Hitzetod. Zum Glück ist das ja nun gefixt und die Boardhersteller können im Bios wieder einstellen was sie wollen. Davon abgesehen sollte eh jedem klar sein, das Hitze "immer" schädlich ist. Dies gilt auch für die AMD Hitzköpfe, da hohe Temperaturen den Abfluss der Kupferatome in den Leiterbahnen der CPU begünstigen, was zu vorzeitiger Alterung führt.
@@dorfschmidt4833 Es geht um den Umgang mit dem Kunden im allgemeinen. Ich spreche als geschädigter und hätte mir so sehr gewünscht AMD hätte sich nur einen Hauch so Kulant verhalten wie Intel. Daher kann ich die Kritik an "Intels" Verhalten absolut nicht nachvollziehen. Wenn du da anderer Ansicht bist ist das völlig okay aber "Ablenken" tue ich hier von gar nichts!
#KreativeFragen Hi, ich bin Grafikdesigner und nutze für meine Arbeit die Adobe Creative Suit insbesondere Illustrator, Indesign und Photoshop. Ich bin es aber leid immer soviel Geld für Apple PCs ausgeben zu müssen. Was wäre bei Windows eine gute alternative im High-End bereich wo ich am Ende auch mal drauf zocken kann. Kannst du mal eine Empfehlung machen insbesondere für CPU und GPU?
Warte noch auf die neuen GPUs von Nvidia, wenn das Budget da ist kannst du dir ne RTX 5090 und nen Ryzen 9950x zulegen. Damit sollte deine ganze Arbeit flüssig wie Wasser laufen und Gaming technisch hast du auch noch mit das Beste. Musst dich dann natürlich aber auch auf nen Preis um die 4000€ einstellen.
Seitder Amd 7000 reihe wo ale Grafikchip immer kleiner und effizienter werden sollen aber nicht signifikant mehr Leistung zur vorgängerversionen bieten, wfür dann noch neue Hardware. Die RX6800 xt ist ein Beast in jedem Game und bei der bleibe ich jetzt auch.
Ich halte "KI", besser gesagt lernendes Programm, nicht für die oder irgendeine Lösung. Eher eine Notlösung, denn was am ende raus kommt sehen wir ja mit DLSS oder FSR, halbgare Bilder die verschwommen oder zerrissen sind und keinen Mehrwert bieten. Manchmal muss man auch erst mal wieder einen Schritt zurück gehen bevor man weiter vorwärts kommt, irgendwann ist jedes Potential ausgeschöpft und die großen Fortschritten können wir nicht pünktlich alle 2 Jahre erwarten. Das was Spiele Entwickler damals geschafft haben, braucht heute die vierfache Performance, bestes bsp. ist RDR2 VS. Star Wars Outlaws. Wenn man eben nur noch Leute bekommt die nicht mehr in der Lage sind das volle Potential auszuschöpfen und nur noch alles auf Quantität ausgelegt ist muss man sich nicht wundern wenn alles so schnell an seine Grenzen kommt.
# KreativeFragen (tag zwei an dem ich frage) Was sagts du zu einer NVIDIA quadro T1000? habe selber diese karte.ICh komme aktuell gut mit der klar (aber die reicht manchmal nichtmal für Roblox aus, mal ganz von satisfactory GTA5 etc. abgesehen) , aber habe einen WQHD 34 zoller und nene Full HD 20 zoller.Lohnt sich hier ein upgrade ( habe einen 12th gen Intel(R) Core(TM) i7-12700KF und 64 gb DDR 4 RAM .Lohnt sich hier ein upgrade ohne zu großen bottelneck auf eine RTX 4070 oder 4070 ti /ti super /super? ich möchte damit auch meine meta quest 3 auf 4k betreiben.... Wäre toll wenn der kommentar ins viedio kommt... PS: Möchte nicht zu viel geld ausgeben...vlt hilft eine antwort auch vielen anderen , da viele die ich kenne auch diesen prozessor haben und auch von z.b. einer 3050 upgraden wolen...
ich mag den kanal wirklich aber 4:03 wir kann man ernsthaft auch nur im ansatz behaupten intel wäre mit der lage gut umgegangen? das handeln von intel war katastrophal und hätten gewisse US hadware youtuber das proplem nicht nachgewissen würde es intel wahrscheinlich heute noch tot schweigen
Von Hardware-TH-camr-Perspektive kann ich den Standpunkt nachvollziehen. Als Anwender sehe ich etwas differenzierter. Ich bin seit über 30 Jahren dabei und habe die Entwicklung von DOS-Spielen bis hin zu aktuellen Blockbustern am eigenen Leib erlebt. Vor ca. 15-20 Jahren habe ich fast jährlich neue Hardware gekauft und auch einen deutlichen Schub gespürt. Mittlerweile hat die Hardware bei mir eine Halbwert-Zeit von ca. 3 Jahren und die Schübe sind manchmal nur noch messbar. Ich hatte mir im Sommer meine RTX 3080 gegen eine RTX 4080 Super getauscht und kann den Benefit fast ausschließlich auf DLSS 3.5 reduzieren . Zur Zeit spiele ich z.B. hauptsächlich The Division 2 im Koop und da macht die neue Karte ja eigentlich überhaupt keinen Impact. Die alte Karte habe ich in eine alte Kiste geschraubt (i7 9700k mit DDR4 RAM), die noch rumlag, und nutze die im Wohnzimmer in Full-HD und für VR. Und da geht die ab wie Schmidts Katze (z.B. Forza Horizon voll aufgerissen mit 160-180 fps geht für mich völlig klar). Ich glaube, mich auch an einen Beitrag zu erinnern, in dem es darum ging, dass wir aufgrund Moores LAW so ziemlich am Ende sind und jetzt eher an Software gearbeitet werden muss, was ich persönlich begrüße. Ich finde diese "Höher-Weiter-Schneller"-Philosophie in diesen Bereichen eh etwas fragwürdig und vielleicht sollte man sich mit dem Sinn des Treibens beschäftigen. Geht es am Ende vielleicht wirklich nur noch um den noch etwas höheren Score in irgendeiner abstrakten Benchmark?
Danke für dein ausführliches Feedback! Ich kann deinen Standpunkt definitiv nachvollziehen! Trotzdem sind Fortschritte beidseitig also sowohl Hardware als auch auf Software Ebene wichtig (finde ich zumindest)! 😊
Stillstand war nie die Lösung. Wir hätten ja aufhören könne, als wir das Feuer entdeckt hatten, oder das Rad erfunden haben. Technologien wie DLSS/FSR + FrameGen sind aktuell wie damals die gefakten Schatten oder die gefakten Texturen die uns vorgaukeln sollten, das die Oberfläche 3D wäre etc. Es ist Teil des Fortschritts, erstmal zu tricksen, bis die Rohleistung das nicht mehr benötigt. Raytracing hat zu Doszeiten Tagen gebraucht um nur ein simple Kugel mit einen Schatten und Spiegellung zu versehen. Ja, es gab schon damals eine DOS Version von 3D Studio. Heute können wir das ab der 4080 schon in Realtime mit 30-60FPS je nach Spiel. Allerdings nicht nur mit einer langweiligen Kugel, sondern mit komplexen Objekten, eine ganze Openworld wird damit gerendert. Ich glaube ja, das die meisten das gar nicht erkennen, was das für ein gigantischer Sprung ist. Fakt bleibt, die Zeiten, als man alle 2-3 Jahre einen gigantischen Rohleistungsfortschritt gesehen hat, sind definitiv vorbei.
@@excite6501 Ich vermute, im Graka-Bereich werden in Zukunft Multicore und Chiplets wieder für mehr Leistungssprünge sorgen. Generell geht es und wird es weiter in die Richtung mehrerer dedizierter Recheneinheiten mit spezialisierten Anwendungsfeldern gehen. Würde jedenfalls Sinn machen verschiedene Chips oder gar Karten für unterschiedliche Aufgabenbereiche zu haben - ist auch günstiger als ein großer Chip, der alles machen können muss.
Glaubst du das es sich lohnt von einer 3070 auf eine 40er reihe zuwechseln? also zb eine 4060ti oder so, dadurch das es halt mehr neue Features wie dlss 4.0 hat? LG- Jonas
Wie es auch schon andere geschrieben haben, ist die Arc B580 schon so ein kleines Highlight, aber bahnbrechendes war wirklich nicht dabei. Für mich persönlich gab es dieses Jahr im Bezug auf meine Anschaffungen aber ein paar kleine Highlights, die mich hinterher doch im positiveren Sinne überrascht haben, als erwartet. Anfang des Jahres ne neue Tastatur (wie schon so oft gesagt ne SGK50 S3), im Mai dann ne neues Tablet - vorher wie nachher 120Hz, allerdings das neue mit OLED und kein IPS. Der Umstieg auf OLED war von der Responsivness her ein doch härterer Sprung als erwartet. Später im Jahr dann von 3090 auf 4080 Super. Auf dem Papier ist der Leistungsunterschied zwar nicht überragend groß, aber gerade beide undervoltet ist die Leistungsaufnahme so viel geringer, dass es sich dennoch wie ein großer Sprung anfühlt. Für nächstes Jahr hab ich auch schon was im Sinn.. meinen Hauptmonitor gegen einen OLED zu tauschen. Wenn der Unterschied in der Reaktionszeit sich ähnlich stark auswirkt, wie beim Tablet, wird das ein wahrer Genuss werden.
Ich sehe das ganz genauso, es gab dieses Jahr nichts besonderes, was ein vom Hocker gerissen hat. Soweit ich es aber verstanden habe scheint es bei den m2 Platten der fünften Generation etwas zu geben. Scheinbar gibt es jetzt neuere modelle, die weniger Strom brauchen und damit nicht mehr so heiß werden. Aber wirklich der Hit...... Ist das leider auch nicht. 😅
#KreativeFragen: Ich steh vor der Entscheidung, ob ich in meinem alten PC, der vermutlich bald noch als Streaming-PC (nur capture) verwendet werden soll, ob ich meine alte 1080ti drin lassen soll (welche bislang gute Dienste für diesen Zweck getan hat) oder ob ich das Amazon Angebot der 3050 OC 6 GB wahrnehmen soll, um den PC "aufzurüsten". Der Hintergrund ist der, dass ich in einem anderen PC Projekt gern eine bessere Karte als die 380 2GB drin hätte, die keine Wurst vom Teller zieht, ich aber wenn ich was besseres einbauen sollte nur wirklich alte Hardware in den DDR3 Ram Rechner verbauen will. Im Versus steht, dass die 3050 OC 6GB besser ist als die 1080ti aber die werte sprechen dennoch fast alle dagegen. Kurz gesagt, ich würde die 1080ti gerne abgeben, weil das ein Gaming Neueinsteiger mit wenig ansprüchen bekommen soll. Ich will aber mein altes System nicht downgraden weil ich irgendwas übersehen habe. Die 3050 steht gerade mit unter 200€ drin und verlockt etwas. Pls help =D Btw. was sind das alles für Bots in den Kommentaren? xD
Setze lieber auf was von AMD. Eine RX 6600 oder RX 6650xt. Schau dir Benchmarks an und du wirst den Unterschied sehen. Die 1080 ist übrigens ein gutes besser als die 3050 und raytracing wirst du in dieser Preisklasse nicht vernünftig nutzen können. LG
@@dangergamer_5218 ja die 6650 für 244€ hab ich auch schon eine Weile im Auge aber bislang war ich nicht bereit für ausrangiertes überhaupt Geld auszugeben, jetzt ne 3050 unter 200 klang zunächst atraktiv.
Ist es eine gute eine rtx 4060 mit einem 7800x3d zu kombinieren? Oder sollte ich lieber bei der gk wechseln und wenn ja auf welche? (es wird mein erster PC)
Jenachdem was du spielst wird die GraKa aus dem letzten Loch pfeifen und die CPU wird sich total langweilen. Bei Nvidia sollte hinten schon eine 70 stehen und bei AMD min. die RX7800XT. Kommt natürlich auch auf dein Budget an. Wenn du nicht so viel ausgeben kannst oder willst würde auch der 7600X3D absolut ausreichend sein in Verbindung mit einer 70er Karte bzw. 7800er.
Ich hoffe ehrlich, dass bald mehr cpus mit optischen transistoren entwickelt werden. Die Entwicklung steckt noch in den Kinderschuhen aber die Optischen könnten bis zu 100 tausend mal schneller sein als herkömmliche cpus. Ein Video dazu wäre mal sehr interessant :D
@@TheRealLelek Das Militär der großen Player würde alles tun, um solche Rechenpower zu bekommen. Genauso wie Geheimdienste. Mit der Rechenleistung könnte man einen 51% Angriff auf Bitcoin locker fahren. Also selbst nachdem die in Serienproduktion gehen, werden sie wohl wie Öl, Uran, Gold, Lithium, seltene Mineralien etc. von jeden der es kann aufgekauft. Keine Panik nach 3-5 Jahren bekommen wir die Abfallprodukte für den Consumer Markt für Apple/Tesla/Nvidia Preise.
Ergänzende These von mir. Da wir uns technisch mittlerweile an den Grenzen des Möglichen bewegen, dürften große "NOBRAINER" leider immer seltener werden. In den 80er und 90er konnten die CPU Leistung, bzw. Taktraten in großen Schritten angehoben werden. Das wird es so nicht nehr geben, schätze ich. Der Große Goldrausch liegt hinter uns. ES SEI DENN die neuen Fertigungsverfahren die es so gibt, würden entsprechendes Potential mit sich bringen. Aber das wird sich zeigen. Aber, ich stimme zu, Hardware-mäßig, war 2024 jetzt, für Endanwender, nicht sooo besonders.
Das Hardwarehighlite 2024 dürfte tatsächlich die ARC B580 sein. Die Xe2 Architektur dahinter scheint super interessant zu sein und man stelle sich nur mal vor, Intel bringt auf dieser Basis eine Mittel-Obere Mittelklasse GPU raus. Dann dürfte sich insbesondere AMD leistungstechnisch warm anziehen und nVidia wäre gezwungen mal einen Blick auf seine Preise zu werfen. Man kann also nur hoffen... Mein persönliches Highlite war, dass ich unverhofft Anfang Dezember meine vorbestellte 9800X3D CPU von Mindfactory für tatsächlich "nur" 549€ erhalten habe.
Mir gefällt Deine kritisch-gesunde Einstellung zu den Dingen. Die Differenzierung, dass es sehr wohl gute Produkte gibt, die aber schlichtweg zu teuer sind. Den „normalen“ Verbraucher und Nutzer im Blick zu behalten, obwohl Du selbst ja mega-erfolgreich mit Deinem Stream bist, ist nicht selbstverständlich. Mach weiter so!!
Meiner Meinung nach ist die Ausschlachtung der derzeitigen Konsolengeneration schuld. Hardware Hersteller haben halt alle Zeit der Welt, solange sich nicht die nächste Konsolengeneration ankündigt, da sich die Anforderungen an AAA Titeln nicht erhöht. Also warum nee neue GPU herausbringen, wenn die aufgrund mangelnder Optimierung von Spielen kaum nen boost bringt? Ist ja auch irgendwo schlechte PR.
Das wäre für AMD die Chance, auch im Graka-Bereich deutlich aufzuholen und NVidia im High-End Bereich ordentlich Druck zu machen. War ja bei CPUs so der Fall, da Intel gut 10 Jahre lang geschlafen hat und die neuen CPUs nicht wirklich schneller waren als die alten. Die 2000er Serie war eben nicht sehr viel langsamer als die 8000er Serie. Auch Intel könnte das nutzen, um mit Arc nach und nach das obere Mittelfeld zu erobern. Scheinbar ist es aber so, dass der Absatz im Mittelfeld-Bereich einfach zu gut ist, um Zeit und Geld in den High-End Bereich zu stecken. Aber das hat zumindst den Vorteil, dass ich mit einem Upgrade noch Zeit lassen kann.
sehe ich überhaupt nicht so. zu erst kommt es mal auf die eigenen Bedürfnisse an. low-mid-highRange. meine RTX-3070 wird jetzt 4Jahre alt, ich bin noch immer auf AM4 habe vor 2Jahren von R5-3600 auf R7-5700x ein Upgrade gemacht sogar nochmals von B450 auf B550 und Ram von 16GB-3200 auf 32GB-3600. alles in Allem keine 1000€ in 4Jahren. das sind am Ende nicht mal 50€ pro Monat. Und ich kann aktuelle Spiele in QHD und high-Settings mit stabilen 60FPS und mehr "vernünftig" zocken. Verstehe absolut nicht wo du hier eine Absurdität erkennst. Man muss sich nicht in jeder neuen Hardware-Generation die besten tollsten Sachen holen um "vernünftig" zocken zu können. Ich werde nächstes Jahr auf AM5 wechseln und dann auch eine neue Graka zulegen. Und wenn man den Leaks nur ansatzweise Glauben schenken kann, werde ich nach über 20Jahren mit einer 8800XT von grün auf rot wechseln.
Naja an sich hast du aber auch denn grund für schleifende Käufe angesprochen. Die Preise steigen und somit sind viele nicht mehr in der lage oder wollen auch einfach nicht mehr kaufen. Wieso für 50FPS mehr über 200€ mehr bezahlen? Wenn se die Preise runter schrauben denk ich wirde der Markt auch wieder BOOMEN. Nebenbei angemerkt: man kann die CPU auch größer machen um mehr Transistoren zu haben. dann is der Sockel eben keine 10cmx10cm mehr (nur als beispiel , da ich die werte nicht kenne) sondern eben 12cmx12cm. So wäre ebenfals noch leistung über Hardware steigerung möglich. Die Grafikkarten ansich ohne denn Kühler haben ja auch noch enorm viel platz. Dann fällt eben früher oder später Mini ATX raus.
Ich denke auch das ein neuer Sockel unausweichlich ist. Wird wahrscheinlich günstiger sein als immer mehr Leistung auf die gleiche Größe quetschen zu wollen.
Hallo, ich habe vor mir einen Pc zu bestellen und wollte mal nach eurer Meinung zu den Komponenten Fragen, da ich selbst kaum Erfahrung damit Habe. Als Prozessor habe ich mir den Ryzen 5 5600X ausgesucht, als CPU-Kühler möchte ich den be quiet! Pure Rock 2 Silver verwenden. Beim Mainboard habe ich das Gigabyte B550 GAMING X V2 ausgesucht. Beim Arbeitsspeicher habe ich mich für 2 mal 16GB Ddr4 entschieden. Bei Ssd und Netzteil bin ich mir schon sehr sicher. Bei der Grafikkarte habe ich mich für die 16GB MSI RTX4060Ti GAMING X entschieden. Sind die ausgewählten Komponenten sinnvoll und/oder gibt es noch Verbesserungsmöglichkeiten? Schon einmal im Vorhinein vielen Dank für jede Hilfe😅
kaufe lieber eine 7800xt und ryzen 5 7500f sowie ddr5 ram das sollte kein großer preislicher unterschied beim motherboard kannst du das msi pro 650 s wifi nehmen
Nebst der Intel Arc würde ich dieses Jahr auch noch den Monitor-Markt hervorheben. Mittlerweile gibt es sehr gute (und langsam auch bezahlbare) 4K OLED Monitore mit 240 Hz. Aber schon klar, für uns PC-Schrauber sind Monitore halt eher langweilig, weil es da nicht viel zu schrauben gibt 😊
Ich muss sagen, ich würde die Nvidia-Superkarten, insbesondere was die Grafikkarte 4070Super anbelangt, als Highlight ansehen, da die mich persönlich am meisten angesprochen hat. Es hat Raytracing und Upscaling-Technologie und war zudem für mich die preisleistungsstärkste Grafikkarte überhaupt. Seitdem ich mir diese Graka geholt habe, war ich positiv überrascht gewesen, wie viel sie tatsächlich leistet: Da habe ich dieses Jahr Resident Evil 4 Remake oder A Way Out gespielt und bereue keinen Cent und keine Sekunde diese Grafikkarte gekauft zu haben. Es macht höllisch Spaß, ohne das man sich Gedanken machen müsste die Settings runter zu schrauben. Super Video! Mach weiter so! 😁
Wenn der Freak Karten für über 2.000,- (4090) kauft, dann ist doch alles gut ! Meinerseits bin ich noch auf AM4 und maximal eine 7800 von AMD, was preislich noch im Rahmen ist, wie auch real gesehen absolut ausreicht. Geht mir finanziell noch gut, aber soll ich mein Geld diesen Preistreibern in den Rachen werfen ? Wobei dann bei Neuerscheinungen diese Preise absolut wieder fallen, was heißt so schnell kann man nicht mehr kaufen ! Ist schon wie mit den Handys - schneller, besser, usw. - wobei die Meisten dies gar nicht nutzen, wie viele Spiele diese Hardware gar nicht nutzen, usw. ! Verarsche hoch drei und es sei ja jedem gegönnt, aber man sollte man überlegen über Preis / Leistung, wie allem Sinn und Zweck. Lieber kaufe ich einen Gebrauchtwagen, usw. als hier diese Dimmension an Geld zu verschleudern.
@@KreativEcke Tja - guter Beitrag und die Fakten auf den Punkt ! Aber wer es braucht, dem sei es gegönnt :) Gruß und machst super Kanal - der auch eien Denke beinhaltet, was bei den anderen meist mit Sponsoren verbunden ist. Dank !
Wo kostet der 9800X3D bitte 700 Euro? Ja, wenn man ihn von Scalpern auf Ebay kaufen will vielleicht. Bei Mindfactory bekommt man ihn für ca. 570 Euro, wenn man bis Januar warten kann. Warum war es das schlechteste Jahr für Computerhardware ? Die Grafikkarten sind so leistungsfähig, da vermisst man eine neue Generation (noch) nicht. Eher ein schlechtes Jahr für Gaming. Was alles an Rotz auf den Markt geworfen wurde und teilweise enttäuscht hat. Concord, Star Wars Outlaws, Skull and Bones, Dragon Age the Veilguard, etc...
Kurz zu den Preisen, selbst die I5 11600k ist von Juli, ca. 115€, bis heute auf 165€ im Preis gestiegen (jeweils ohne Kühler). Das ist echt krass... Das war eher ein unüberlegter Kauf den ich heute nicht mehr bereue.
4090 ist vor über zwei Jahren rausgekommen. Kostet immer noch fast über 2k. Siehst du da irgendwann Besserung oder hast du Tipps, wie man an die 5090 ran kommt, ohne dass man sich die überteuerten Modelle holen muss, weil die Crypto-Miner alles vorher mit Bots weggekauft haben.
Gutes Video. Ich empfinde ganz genauso. Und es gibt echt ein paar Sachen die wirklich stören... Wieso hat AMD nicht dazugelernt aus den letzten CPU launches und beim 9800x3D viel mehr produziert? Es war doch klar, dass die Nachfrage danach riesig ist, besonders, da der 7800x3D vorher im Preis wieder so enorm gestiegen ist. Und auch der nächste Punkt trifft AMD. Warum zu Hölle bringen sie keine High End GPUs mehr auf den Markt. Mir ist schon klar, dass die Gewinnmargen vermutlich dort nicht die allergrößten sein werden, aber Konkurrenz belebt nach wie vor das Geschäft und NVIDIA einfach gar keine Konkurrenz zu bieten ist einfach falsch. Gerade wenn jetzt auch noch Intel im Einsteiger GPU Bereich mitspielt. Meiner Meinung nach wäre es wichtig für AMD zumindest der 80er Serie der NVIDIA GPUs eine Gleichwertige Konkurrenz zu bieten. Im Prinzip müssten sie ja nur den Preis der 7900 XTX etwas senken und idealerweise eine Version mit ewas stärkerem RayTracing und weniger Stromverbrauch herausbringen. Dass sie die 5090 mit 32GB Vram nicht schlagen können werden ist okay und das wird sich vermutlich solange nicht ändern bis AMD die finanziellen Mittel und vorallem Marktanteile hat, dass es sich für sie lohnt. Und als letztes noch kurz zu NVIDIA... wie können sie es wagen (laut einiger recht wahrscheinlicher Leaks) die 5080 wieder nur mit 16GB Vram auszustatten? Warum nicht wenigstens 20 oder 24? Ich bräuchte Beispielsweise eine neue Grafikkarte mit mindestens 20GB Vram bzw. lieber 24GB, da ich dank Videoschnitt, Videobearbeitung und auch etwas 3D renderings diese durchaus ausreizen könnte. Ich kann aber als Student nicht einfach 2k+ für eine 4090 hinlegen und demensprechend bleibt mir eigentlich nur die 7900xtx übrig welche aber wesentlich schlechter ist in RT und vermutlich auch nicht ganz so optimiert für Grafikprogramme etc. (Sorry an der Stelle "kleiner" Rant)...
@@neoey AMD macht den Großteil ihrer Profite im Serverbereich. Amazon, Nvidia, Google... alle nutzen AMD CPUs für Virtualisierung, Skalierung usw. Wie Nvidia nutzt auch AMD? Ja, z.B. in ihren Cloudgaming Service Geforce Now. Im Serverbereich kann Intel halt AMD nicht das Wasser reichen. Der kleinen Konsumentenmarkt ist da nice to have, aber mehr auch nicht. GPUs weiter hin in Rawperformance zu pushen ist leider nutzlos, und so hat übrigens ATI damals Nvidia kurzzeitig geschlagen. Laut NVidia selbst in einem langen Techinterview bei DF, haben sie versucht die Rohleistung so hoch zu pushen wie möglich, aber haben festgestellt, das bei 50% mehr Transistoren, leider nur 15-20% mehr FPS in Spielen bei rumkommen. Da hat der Leadforscher für Hardware gesagt, wir fokussieren uns lieber auf DLSS + FrameGen, da diese mit weniger Aufwand und Kosten mehr FPS bringen. Aus wirtschaftlichen Gründen macht das auch Sinn. 99% der Konsumenten wollen jetzt schon nicht den Preis für eine RTX4070 und höher bezahlen. Jetzt stell dir vor, die DIEs werden mit noch mehr CUDA Cores etc vollgepackt, was sie ja als Prototyp mal getestet haben, dann werden das noch viel weniger kaufen. Der FPS pro €/$ ist halt auch entscheidend. Dann sagt keiner, schaut her die 4090 Ultradeluxe für 3K kann aber 15 FPS mit Max Settings mehr bringen, als die 4090 für ein Bruchteil dessen.
@excite6501 Uh danke das wusste ich tatsächlich nicht. Macht aber Sinn soweit. Ja mir geht's auch gar nicht so um die high end Karten ist schon klar, dass das eher nischig ist, aber es ist generell alles viel zu teuer.
Bringt doch nichts - mit dem kleinen Marktanteil gibt nVidia immer vor und AMD muss nachziehen, ob vernünftig oder nicht - wenn sie jetzt mit neuen Technologien voranpreschen die dann doch niemand übernimmt da alle eh weiter auf Team Grün setzen ist das ganze reine Zeit- und Geldverschwendung. Das beste was sie noch machen können ist offene Technologien für alle pushen, aber was Eigenes kostet nur und wird dann egal wie gut eh nicht adapttiert. Als früherer Mac-User kenne ich das umgekehrte Spiel, damals hatte nVidia auf Macs quasi keine Relevanz und jeder Pro hatte eh AMD/Ati, da Apple - gerade nach ihrem Kleinkrieg mit nVidia - schlicht intensiv alles für Ati optimierte. Wenn wie hier Drittanbieter mitspielen kann das super laufen, Ati war Standard und nVidia hat keinen interessiert. Auf dem PC-Markt ist es umgekehrt, egal was AMD macht die Platzhirschen wie Adobe etc. haben sich auf nVidia eingeschossen und kein Interesse an AMDs Alternativen. z.B. im AI-Bereich, Stable Diffusion und der Kram, hat AMD durchaus gute und konkurrenzfähige Technologien mit ROCm etc. - aber das musst Du Dir umständlich selbst zusammenstückeln, die einfachen Komplettpakete für Normalos setzen alle auf CUDA und die Anbieter haben schlicht keine Lust sich noch um AMD zu kümmern, weil "nutzt ja eh keiner". So ist das mit Quasi-Monopolen, wird zum Teufelskreis.
Ich finde, dass wenn man über den PC Bereich im ganzen spricht, dass Peripheriegeräte meine Highlights des Jahres waren. Wie zum Beispiel Wootang, oder die Scyrox V8, welche das Segment wirklich weiterentwickelt und/oder deutlich in neue Preissegmente gebracht haben.
Bin schon auf AMD umgestiegen, wobei die letzte Nvidia 3060 waren, die noch preislich im Rahmen lagen. Zeit PC mit 3060 und der Haupt-PC schon mit 7800, die super ist.
Was ich dieses Jahr als "Highlights" zumindest technisch bezeichnen würde: - AMD Ryzen 7 9800X3D = Den 3D-Cache von oben nach unten zu platzieren war der richtige Schritt. - Bei DDR5 RAM hat sich viel getan und in den letzten Wochen kam ein Rekord nach dem anderen. Zudem gibt es mit CUDIMM und CAMM2 interessante Veränderungen. - Die Ankündigung von GDDR7 bzw. das auch in Aussicht gestellt wird, das es noch 3GB Module geben wird. Damit sind zukünftig neue VRAM Bestückungen möglich. - iGPU Grafik hat nochmal einen ordentlichen Sprung gemacht. Im Vergleich zu den dedizierten Karten sind hier die Sprünge noch recht groß. - Langsam kommen mehr PCIe 5.0 NVME SSD's die nicht mehr so heiß werden und damit besser zu kühlen sind und damit länger bei ihrer Geschwindigkeit bleiben können. ...
Weißt du warum Nvidia und amd nicht das Weihnachtsgeschäft genutzt haben sondern bringen eher die neuen gpus zum Frühling/Sommer raus? Ich freue mich btw riesig auf die 8800 xt. Hoffe die wird ein 4080 Konkurrent zu einem guten Preis :) lg
Wahrscheinlich aus einem ähnlichen Grund, wie auch Nintendo die Switch 2 noch nicht auf den Markt bringt. Die aktuelle Generation verkauft sich noch gut genug, die Nachfrage ist hoch und man kann das Weihnachtsgeschäft mit der alten Gen noch mitnehmen. Dann kann man zur CES im Januar seine neuen Produkte präsentieren oder launchen und übers Jahr das Portfolio und die Bestände aufbauen und dann zum nächsten Weihnachtsfest full in gehen. Und wie man beim 9800X3D sieht: Der wird trotz Launch vor Weihnachten bei den meisten nicht unterm Baum landen, weil einfach nicht verfügbar. Da hätte es wahrscheinlich auch nicht geschadet, den mit etwas größeren Beständen erst im Januar oder später und zusammen mit den großen Brüdern (9900X3D und 9950X3D) zu launchen.
Fands gar nicht so übel. Nachdem die Intel Chips ihr letztes Update bekommen hatten und bevor Nvidia die 4080 Produktion eingestellt hatte, hab ich ein neues System für Videoschnitt und Gaming kaufen können, war denke ich ein guter Zeitpunkt mit ausgereifter Hardware. Die 50er Serie muss sich erst mal etablieren und in der ganzen Software und Spielelandschaft ankommen
Habe einen Ryzen 7 5800X3D, 32GB RAM DDR4 , 3600Mhz. MSI 3070. was wäre empfehlenswerter zu upgraden ? Auf AM5 mit dem ryzen 7 7800X3D, DDR5 RAM etc aber Grafikkarte bleibt gleich oder für den selben Preis von einer 3070 auf eine 4080 upgraden ? @KreativEcke
Habe quasi dieselben Specs wie du aber ne 4080. Wenn du nicht grade noch produktiv die Mehrleistung brauchst, lohnt sich nen Upgrade null. Je nach Auflösung wirste zum 9800X3D null Unterschied sehen (bei mir z.B. in 4K haste null bis maximal ein paar wenige fps Unterschiede außer in extrem Beispielen wie Factorio und selbst da reicht der 5800X3D). Kauf dir die 4080, davon profitierst du am meisten. Ich würde aber vielleicht noch bis Januar warten, was NVidia da zeigt und ob dann evtl. die 4xxx Reihe im Preis sinkt. Ich selber überlege auch mit einer 4090, weil ich gerne mehr VRAM hätte aber anscheinend NVidia bei der 5080 wieder nur 16GB verbauen soll. Ne 5090 wird mir viel zu teuer sein ergo gibt's da nicht wirklich ne Alternative für mich.
Etwas anders muss auch gesagt werden: Die Leistungssteigerungen der letzten Jahren waren enorm und immer nahe dessen, was technisch gerade noch machbar ist. Irgendwann musste man an eine Grenze stoßen.
Am schlimmsten aber an dieser Entwicklung ist, dass sich Softwareentwickler auf immer leistungsfähigere Hardware verlassen habe und sich daher nicht mehr die Mühe gemacht haben, für irgendetwas zu optimieren. Ich möchte an die Zeit erinnern, an der Programmierer ihre gesamte Kreativität aufbringen mussten um aus der limitierenden Hardware echte Wunder heraus zu kitzeln.
Heute ist es genau umgekehrt. Die Hardware könnte so viel mehr Erlebnis für den Endanwendern bieten, aber sie werden von den Programmieren nicht annähernd ausgenutzt. Stattdessen treiben viele Programme aufgrund nicht vorhandener Code-Optimierung Speicher und Kühlung an ihre Grenzen ohne dabei für den Endnutzer irgendeiner Mehrwert zu bieten.
Wäre es nicht schön, wenn die Hardwareentwicklung mal ein wenig Luft holt und stattdessen die Software wieder optimiert werden könnte?
Ich würde die neue Intel Arc schon als Highlight sehen, vorallem wenn man sich anguckt, was sonst so im Einsteigerberreich für Karten verfügbar sind
Vorallem das Verhältnis indem sich die Karten und Treiber verbessert haben ist beeindruckend.
Definitiv ein Highlight
Ja absolut deiner Meinung!
@@eugen5790 Trotzdem noch nicht gut. Beeindruckend finde ich die Karten von Intel erst, wenn sie reibungslos funktionieren.
Sehe ich nicht so, bei den ARC Karten ist nur der Preis interessant, die sind kaum schneller als die 4060 aber haben eine deutlich höhere Stromverbrauch, peinlich dafür, dass die Karten so viel neuer sind
6:10 ein Atom hat ganz sicher nicht die Größe von 0,1 mm. War aber vermutlich nur ein Versprecher
Ich finde Battlemage ist schon ein großes Highlight. Starke Verbesserung der Treiber, viel mehr Vram für entry-level GPUs und super Entwicklung gegenüber der Alchemist Generation. Ich wünschte Intel würde auch mal im high end bereich Nvidia den Kampf ansagen.
Finde man braucht nicht immer alle zwei oder jedes Jahr was Neues genau so bei Handys und Autos ….so bescheuert
Und das die Leute genau das machen treibt natürlich die Preise hoch.
Eine Frage ist ja, ob denn jedes Jahr alles immer krasser und besser werden muss. Klar, wie hier gesagt, belebt es den Markt urn Konkurrenz sorgt auch für bessere Preise und Angebote allgemein, aber dennoch muss man ja nicht dauernd aufrüsten und es gibt ja enorm krasse Sachen schon auf dem Markt.
Vielleicht wäre es sogar gut, wenn nicht so viel bessere Hardware rauskommt, damit Entwickler ihre Spiele wieder mehr optimieren, statt auf neue Technologien wie Upscaler und Fake-Optimierungen und Unreal Engine setzen. Viele Programme sind ja allgemein einfach nur wahnsinnig groß und ineffizient geworden. Wenn man mal an ganze Spiele denkt die sich auf Disketten oder anderen winzigen Datenträgern befanden, nicht nur weil sie viel weniger Detail hatten, sondern auch weil Entwicklern enge Grenzen gesetzt waren, die sie einhalten mussten…
Also hoffentlich kommt dadurch bald mehr Optimierung, die sich natürlich aber schlecht monetarisieren lässt. Vielleicht sehe ich das auch ganz falsch und wir brauchen wieder Generationssprünge wie vor 10-20 Jahren.
"Ein Atom hat in etwa eine Größe von 0,1mm" .....ähm....nein...
😅
0,1 nm :-D Sorry xD Versprochen xD
@@KreativEcke Passiert ^^ 😄
@@KreativEcke
Allgemein ist das nicht korrekt, Wasserstoff hat einen Kovalenzradius von 0,032 nm, Cäsium hat einen von empirisch ermittelten Atomradius von 0,260 nm.
Es gibt also schon deutliche Größenunterschiede.
da wir aber über elektronische Bauteile reden.
Für Silizium passt es aber, dass sind 110 pm, also die 0,110 nm, für Gold sind es 0,135 nm.
Mist mir sind wieder alle Atome aus dem Portemonnaie gefallen.
Hab's im Auto gehört und musste mir die Minuten Merken und später nochmal hören ob er das wirklich so gesagt hat 😅
Klar, für Hardware Enthusiasten, Content Creator und co. ist es schade, wenn sich nichts tut in dem Markt. Aber für mich ist es besser. So kann ich meinen PC länger behalten und muss nicht irgendwann die Hardware wechseln
Also ich finde die 4070 ti super schon die beste Hardware Überraschung der letzten 6 Jahre.
Finde ich auch, 4k mit dlss quality bei den neusten Games 60fps+ ist doch gut für unter 1000€ und ist sogar in 4k ultra rt etwas besser als 7900xtx
Mein Hardware-Highlight 2024 ist dass ich das Kapitel Intel-Treue nach 20+ Jahren abschließen werde. So lange bis AMD richtig rein scheißt, das kann eine kurze Zeitspanne sein oder lebenslang, mal gucken. Bis dahin kommt mir kein Intel mehr inne Kiste.
Ich sag nur X370 Crosshair damals 150€, heute das aktuelle Crosshair 600€ oh man
6:13 ein atom ist 0,1mm??????????...
Ein RIESEN Atom ⚛️
Aber die Aussage stimmt. Wir sind trotzdem noch weit weg von 0,1mm xD
10⁶m weit weg
😂 Ich dachte mir auch nur so... What the fck nein
Für Hardware-TH-cam und einige Enthusiasten mögen das schlechte Nachrichten sei. Für mich als Gamer und vor allem als schon etwas älteren Gamer sind das eher gute Nachrichten und zwar aus 2 Gründen:
1. Meine „alte“ 4070 TI ist noch halbwegs aktuell und ich muss nicht ständig los und mir für hunderte Geld neue Hardware besorgen, nur um die neusten AAA Titel auch mit mehr als 30 FPS zocken zu können.
2. Und das ist eher eine Hoffnung für die Zukunft. Ich hoffe, dass wir wieder mehr zu guten Inhalten in Games kommen anstatt immer nur größere Maps mit noch besserer Grafik. Ich meine ein modernes AC oder auch ein RDR sind toll anzusehen aber diese immer gleichen Inhalte, weil den Entwickelten nichts mehr einfällt um die 10.000 Quadratkilometer große Spielwelt zu füllen. Da hilft es auch nicht wenn ich jetzt jede einzelne Pore im Nacken meiner Figur erkennen kann.
2025 wird schlimmer, sollten die neusten Leaks zur neuen AMD Generation tatsächlich zutreffen. Ich sage nur 7900gre performance für 600 Euro, wenns ganz doof kommt.
Dann haben wir die 5090, einzige wirklich interessante Karte im RTX Line-Up, die mit gut 2200 oder 2300 msrp hier in Deutschland an den Start geht, voraussichtlich.
Die Preise für die 5090 werden u. A. auch durch künstliche Verknappung so sehr in die Höhe getrieben, dass man in den ersten Monaten hier in Deutschland kaum ein Modell für unter 2600 Euro in die Hände bekommen wird, wenn es nicht sogar noch teurer wird.
Ein Glück, dass ich in den nächsten 2+ Jahren nicht mehr upgraden muss. Vielleicht spielt ja dann AMD auch wieder im Enthusiasten-Segment eine Rolle, sodass Nvida oben nicht konkurrenzlos dasteht.
Vielleicht kleines highlight R7 5700x3d?
Hey, ich hab mir ne 4070super bestellt (zu nem ryen 7 7700). Besser wieder zurückschicken und auf den Release der 5070 warten (passt die überhaupt auf nen pcie 4.0 slot) oder lohnt sich das warten nicht?
Sind denn noch genug Fachkräfte dort?
Hallo KreativEcke ( Daniel ) Ersten es war sehr Aufschlußreich dein Jahres Rückblick und Zwitens richt es ist alles Viel zu Teuer geworden!!! Für mich war auch nur die gute Performins der B580 von Intel. viel mehr ist nicht passiert dieses Jahr. Ich wünsche dir und deiem Team ein sehr schönes Weihnachts Fest ! Ich weis das wir uns spätestens am Freitag wieder sehen werden. bis dahin einen Daumen in nördlicher Richtung und viele liebe Grüße. René mit Familie
Danke für dein Feedback Rene! 😊
Dir auch erstmal eine entspannte restliche Woche und bis Freitag! 😇
Aber warum ist das denn überraschend, dass amd in cpus weit vorraus ist? War doch eh schon ne ganze weile so
Wie wäre es mit einem neuen Test beim Ultra 9 285k in Verbindung mit dem Cudimm bis zu 10.000Mhz seien damit möglich und soll laut ein paar Tests von anderen Creatorn 5-15% mehr Leistung bringen in Games. Mit OC sollten sogar bis zu 25% möglich sein.
G.Skill Trident Z5 CK das waren die Test Riegel von z.b. Techtestern, sie hatte aber nur die 8.400Mhz Variante
Würde mich freuen!
Ich finde schon, dass sich einiges getan hat. DDR5 RAM und SSDs sind schneller, Kühler und Gehäuse besser und allesamt günstiger geworden. Battlemage hatte einen überraschend positiven Launch, CPUs werden deutlich energieeffizienter. 9800X3D ist unglaublich schnell und dank des neuen Cache-Aufbaus auch mit für die X3D-Serie tollen Neuerungen - niedrigere Temperaturen, höherer Kerntakt, frei übertaktbar. Das Jahr hatte mMn durchaus Highlights.
Dass sich bei den GPUs nix tut liegt meines Erachtens nach eher am Enterprise-Markt, warum sollten AMD und Nvidia neue Enthusiastenprodukte rausbringen wenn sie stattdessen für absurden Profit Karten für KI verkaufen können. Viel lukrativer.
AI hat genauso einen Stillstand. GPT5 sollte Microsoft intern schon im Sommer vorgeführt werden. Trotz zweier halbjährigen Trainingsläufe, waren die Ergebnisse nur minmal besser als GPT4. Die hatten ja schon das gesamte Internet zum training bentutzt und sie müssen nun auf künstliche Daten zurückgreifen. Ihr werdet sehen, dass alles ist eine riesige Blase und total überbewertet.
Ich bin gespannt auf die RDNA 4 und Battlemage GPUs im nächsten Jahr.
Die B580 ist schon recht gut geworden, aber mich würde eher der B770 interessieren.
Bei NVIDIA bin ich raus, da die Preisgestaltung schon jetzt abgehoben ist und die 5000er noch zusätzlich in die selbe Kerbe schlagen wird.
Meine HW highlights 2024: Ryzen 9800X3d/7600X3D, IntelB580, Apple M4/Pro/Max (insb. Mac Mini), alle 3 neuen Ultrabook-Plattformen (Lunar Lake, Ryzen AI, Snapdragon Elite), Epyc Turin, Nvidia H100, AMD MI300X
Kannst du dir das HE Nyfboard mal angucken
Das Problem bei Intel ist nicht Moores Law sondern weil Intel bisher nicht bei TSMC gefertigt hat und seiner Fertigung selber versucht hat was nicht so gut funktioniert hat
das beste highlight war wohl eher Intel Arc mit den Billigen Gpus naja wobei bis die bei uns sind in deutschland kosten die auch wieder genug so das sich weder arc 580 noch 4060 lohnt sondern echt nur die alte rx6700xt bzw. rx6750xt rx6800 rest ist dann wieder zuteuer!
Meinung zu Mad gaming?
Werde erst 2027-2028 upgraden. Dieses hin und her oder kaufen kaufen, macht einen verrückt.
13900k im Einsatz und happy.
Auch wenn der Stromverbrauch hoch ist, werde ich kein neues board mit cpu kaufen. 2020 eine 3090 zu Release preis ergattert und bis 2024 märz betrieben. Anschließend für 700 verkauft und eine asus tuf rtx 4080 super oc geholt für 1199 Euro.
Aktuell sind alle Produkte einfach beta und das optimale im bezug watt wärme und ghz, wird sich dies in 2-3 einpendeln
1200 Euro für eine 4080 Super ? Die gabs doch damals schon für unter 1000 Euro. Und komm mir nicht mit dem OC. Die 7 % mehr Leistung sind keine 150 Euro mehr wert.
@ hab halt ein asus Setup. Deshalb asus. Die 150 waren es mir wert
Mnm ist generell der gesamte Gaming Kosmos problematisch wenn Spiele oder Anwendungen so schlecht optimiert und entwickelt werden ( siehe DLSS hole) und sich darauf ausgeruht wird das schlechte Optimierung mit Leistung wett gemacht wird die Grafik sich seit 2012 nicht so stark verbessert wie die Leistung es fähig macht warum sollte man upgraden warum sollte man bessere Monitore kaufen und warum sollte man sich eine teurere graka kaufen wenn sich am Endprodukt nichts ändert weil es Grottig entwickelt wird. Wenn Spiele Konsolen orientiert entwickelt werden und man hofft das upscaling alles besser macht ist eh Hopfen und Malz verloren 😞
Mein Highlight dieses Jahr war mein 7800x3d für 299€ mehr würde ich heute auch nicht mehr ausgeben, lohnt einfach nicht.
Man muss auch mal ein bissel nachdenken! Wie groß ist der Markt für Leute die es sich leisten können 2000€ und mehr für eine Grafikkarte auszugeben? Bestimmt nicht so groß, wie bis 1000€! Wenn da noch ein zweiter Hersteller mit dabei ist, kann man zwar dem Konkurenten 50% Marktanteile weg nehmen. Dann machen aber Beide so wenig Gewinn, dass sich die Entwicklung nicht lohnt und beide verschwinden aus diesem Segment. AMD hat also verstanden, dass da kein Geld zu machen ist. Dafür bauen die gute CPU´s die im Verbund mit ihren eigenen GPU´s ein gutes PreisLeistungsverhältnis haben.
Nvidia und wenig gewinn??? Nvidias Ki Grafikkarten sind extrem beliebt und gewinnbringend und das unternehmen konnte das Jahr sogar mit Microsoft als wertvollstes unternehmen mithalten und zum teil sogar mit dem Umsatz übertreffen. Nvidia wird sicher nicht aus diesem Segment verschwinden. Bei Amd mache ich mir aber mehr sorgen weil sie nvidias Dominanz klar unterlegen sind..
Nvidia sind die "gamer" mittleweile komplett egal, 90% der Einnahmen sind durch AI deswegen geben sie der 4080s z.B auch nur 16VRAM genauso wie der 5080 sonst würde sie zutah an der 5090 dran sein und würden einnahmen durch die AI verlieren.
Der Preis der Battlemage B580 ist gerade nichts besonderes. Kostet mehr als eine RTX 4060 8GB bzw. momentan genau so viel wie eine RX 6750 XT.
Also ich finde man sollte sich mehr auf die performance bei intel Fokusieren und nicht auf irgent einen AI oder KI müll den wenn ich mal eine Intel Ultra habe deaktiviere ich direct die NPU und wenn das nicht geht dann werfe ich lieber die CPU in dem müll Genauso wie Raytracing und jegliche upscalling funktion würde ich am liebsten auch entsorgen
Wenn geschafft wird das man mit KI VRam kompensieren kann dann villeicht aber mal kucken
Intel ist, für dein empfinden, sehr gut mit der Problematik ihrer defekten CPU's umgegangen? Na hallo, da muss man schon alle vier Augen für zudrücken.
Erst will man kein Problem haben, dann hat man eins, aber die anderen (Mainnoardhersteller) sollen schuld sein, bis man es nach langem hin und her doch eingestehen muss es mit der Brechstange einfach übertrieben zu haben und die Kommunikation seitens Intel war ja auch mal ewig nicht existent.
Also für mein Verständnis ist das sehr weit fernab von "sehr gut".
Man muss hier den richtigen Maßstab ansetzen und der lautet nun mal AMD. Wenn man bedenkt das AMD "bis heute" den soc/expo bug totschweigt, durch den nicht nur die Ryzen 7000er abgefackelt sind, sondern die Boards wegen der verkokelten Sockel gleich mit geschrottet wurden, hat sich Intel gradezu musterhaft verhalten. Im Gegensatz zu AMD die nicht nur nichts erstattet haben, wurde hier sogar zusätzlich noch die Garantiezeit erhöht. Von AMD gab es noch nicht mal einen Müllbeutel um den Schrott zu entsorgen. Und natürlich hatten die Boardhersteller mindestens eine Teilschuld, weil die Vollhorste die Boards ab Werk immer schön mit Knallgaseinstellungen im Bios ausgeliefert haben. Man will ja in den benchmark Listen immer schön oben stehen, koste es was es wolle. Wenn dann durch einen ähnlichen Bios bug den AMD hatte Schäden entstehen, ist das nicht wirklich verwunderlich. Das Verhalten von AMD seinen Kunden gegenüber war jedenfalls für alle Betroffenen im Vergleich zu Intel unter aller Kanone!
Mag sein, dass AMD's Umgang noch schlimmer war, aber das macht aus einer Schulnote 4 keine 1, nur weil der andere Schüler noch schlechter war.
Und der Punkt, dass die Boardpartner zumindest Teilschuld hätten, ist zumindest diskussionswürdig.
Man könnte eben auch anführen, dass Intel da hätte strenger sein müssen, so wie es nVidia und AMD beispielsweise bei den GraKas sind. Und warum schaffen es die Boardpartner von AMD nicht mit Werksseitigem OC für die CPU auszuliefern? Vermutlich nicht, weil AMD ihnen die Wahl dazu lässt. Man hat als Endkunde (bei AMD) auch die Möglichkeit viel herumzuspielen, aber ab Werk ist erst mal alles auf Standardwerten.
Diese Diskussionen gab es schon öfters. Am Ende hat sich immer herauskristallisiert das a.) die CPU Hersteller keinen Einfluss darauf haben mit welchen Bios Einstellungen die boards in den Handel kommen und b.) es bei AMD boards keinen Sinn macht alles auf Knallgas zu stellen, weil AMD CPUs sehr viel sensibler reagieren und dann nur Fehlermüll beim Hochfahren angezeigt würde. Intel hatte auch kein "Brechstangenproblem" sondern einen fehlerhaften microcode. Wenn der vid Schutz nicht greift und die CPU wegen eben diesem Fehler über 1,6V anfordert und auch bekommt, stirbt sie eben langsam den Hitzetod. Zum Glück ist das ja nun gefixt und die Boardhersteller können im Bios wieder einstellen was sie wollen. Davon abgesehen sollte eh jedem klar sein, das Hitze "immer" schädlich ist. Dies gilt auch für die AMD Hitzköpfe, da hohe Temperaturen den Abfluss der Kupferatome in den Leiterbahnen der CPU begünstigen, was zu vorzeitiger Alterung führt.
@motobienchen Schön abgelenkt auf AMD, es ging um Intel.
@@dorfschmidt4833 Es geht um den Umgang mit dem Kunden im allgemeinen. Ich spreche als geschädigter und hätte mir so sehr gewünscht AMD hätte sich nur einen Hauch so Kulant verhalten wie Intel. Daher kann ich die Kritik an "Intels" Verhalten absolut nicht nachvollziehen. Wenn du da anderer Ansicht bist ist das völlig okay aber "Ablenken" tue ich hier von gar nichts!
#KreativeFragen Hi, ich bin Grafikdesigner und nutze für meine Arbeit die Adobe Creative Suit insbesondere Illustrator, Indesign und Photoshop. Ich bin es aber leid immer soviel Geld für Apple PCs ausgeben zu müssen. Was wäre bei Windows eine gute alternative im High-End bereich wo ich am Ende auch mal drauf zocken kann. Kannst du mal eine Empfehlung machen insbesondere für CPU und GPU?
Warte noch auf die neuen GPUs von Nvidia, wenn das Budget da ist kannst du dir ne RTX 5090 und nen Ryzen 9950x zulegen. Damit sollte deine ganze Arbeit flüssig wie Wasser laufen und Gaming technisch hast du auch noch mit das Beste. Musst dich dann natürlich aber auch auf nen Preis um die 4000€ einstellen.
oled monitore einfach vergessen
Nvidia hat doch schon neue Preisbereiche und Modelle angeteasert:
RTX 5060 8GB 128bit
RTX5060Ti 16GB 128bit,
RTX5070 12GB 192bit 599 - 699 $,
RTX5070Ti 16GB 256bit,
RTX5080 16GB 256bit 1199 - 1499 $,
RTX5090 32GB 512bit 1999 - 2499 $
Dagegen wirken die 4090 und 4080S wie richtige Schnapper...
AMD cpus definitiv mein highlight, die arcs sind natürlich mega geil aber ich bau high end - somit nicht MEIN highlight ;)
Seitder Amd 7000 reihe wo ale Grafikchip immer kleiner und effizienter werden sollen aber nicht signifikant mehr Leistung zur vorgängerversionen bieten, wfür dann noch neue Hardware. Die RX6800 xt ist ein Beast in jedem Game und bei der bleibe ich jetzt auch.
Mein Highlight dieses Jahr war definitiv das Lian Li O11 Vision (Compact) + Uni Fan TL LCD LÜFTER
Ich halte "KI", besser gesagt lernendes Programm, nicht für die oder irgendeine Lösung. Eher eine Notlösung, denn was am ende raus kommt sehen wir ja mit DLSS oder FSR, halbgare Bilder die verschwommen oder zerrissen sind und keinen Mehrwert bieten. Manchmal muss man auch erst mal wieder einen Schritt zurück gehen bevor man weiter vorwärts kommt, irgendwann ist jedes Potential ausgeschöpft und die großen Fortschritten können wir nicht pünktlich alle 2 Jahre erwarten.
Das was Spiele Entwickler damals geschafft haben, braucht heute die vierfache Performance, bestes bsp. ist RDR2 VS. Star Wars Outlaws. Wenn man eben nur noch Leute bekommt die nicht mehr in der Lage sind das volle Potential auszuschöpfen und nur noch alles auf Quantität ausgelegt ist muss man sich nicht wundern wenn alles so schnell an seine Grenzen kommt.
# KreativeFragen (tag zwei an dem ich frage) Was sagts du zu einer NVIDIA quadro T1000? habe selber diese karte.ICh komme aktuell gut mit der klar (aber die reicht manchmal nichtmal für Roblox aus, mal ganz von satisfactory GTA5 etc. abgesehen) , aber habe einen WQHD 34 zoller und nene Full HD 20 zoller.Lohnt sich hier ein upgrade ( habe einen 12th gen Intel(R) Core(TM) i7-12700KF und 64 gb DDR 4 RAM .Lohnt sich hier ein upgrade ohne zu großen bottelneck auf eine RTX 4070 oder 4070 ti /ti super /super? ich möchte damit auch meine meta quest 3 auf 4k betreiben.... Wäre toll wenn der kommentar ins viedio kommt... PS: Möchte nicht zu viel geld ausgeben...vlt hilft eine antwort auch vielen anderen , da viele die ich kenne auch diesen prozessor haben und auch von z.b. einer 3050 upgraden wolen...
KreativEcke's "Low-Lights"!
Endlich sagt es mal jemand. Und auch noch so detailliert begründet.
Die CPU Leistungsprobleme zeigen auch, dass x86 langsam aber sicher am Ende ist.
ich mag den kanal wirklich aber 4:03 wir kann man ernsthaft auch nur im ansatz behaupten intel wäre mit der lage gut umgegangen? das handeln von intel war katastrophal und hätten gewisse US hadware youtuber das proplem nicht nachgewissen würde es intel wahrscheinlich heute noch tot schweigen
bin noch zufrieden mit meinen 11700k und mit einer rtx 3090 und altes system auch noch vorhanden i7-7700k somit aufrüsten wenn nichts mehr geht
Wer kennt nicht die 0.1 mm Atome 😂❤
Darf ich mal was fragen Ich habe einen Gaming Notebook der ein Intel Prozessor eingebaut hat bin ich von diesem Skandal Intel aktuell hat betroffen?
Es ist zumindest nichts bekannt! Also erstmal kein Grund zur Sorge! 😊
@@KreativEcke Danke
Ich finde Intel zum Ende des Jahres ist ein Highlight 👍
Zitat: "2024 war das SCHLECHTESTE Jahr für PC HARDWARE! "
'25 wird es steigern!
... SCHLECHTESTESTE
Für mich persönlich war es ein gutes Hardware jahr, aber nicht wegen der Hardware sondern wegen der Börse 😅 nur AMD hat mich dieses jahr enttäuscht.
Von Hardware-TH-camr-Perspektive kann ich den Standpunkt nachvollziehen. Als Anwender sehe ich etwas differenzierter. Ich bin seit über 30 Jahren dabei und habe die Entwicklung von DOS-Spielen bis hin zu aktuellen Blockbustern am eigenen Leib erlebt. Vor ca. 15-20 Jahren habe ich fast jährlich neue Hardware gekauft und auch einen deutlichen Schub gespürt. Mittlerweile hat die Hardware bei mir eine Halbwert-Zeit von ca. 3 Jahren und die Schübe sind manchmal nur noch messbar. Ich hatte mir im Sommer meine RTX 3080 gegen eine RTX 4080 Super getauscht und kann den Benefit fast ausschließlich auf DLSS 3.5 reduzieren . Zur Zeit spiele ich z.B. hauptsächlich The Division 2 im Koop und da macht die neue Karte ja eigentlich überhaupt keinen Impact. Die alte Karte habe ich in eine alte Kiste geschraubt (i7 9700k mit DDR4 RAM), die noch rumlag, und nutze die im Wohnzimmer in Full-HD und für VR. Und da geht die ab wie Schmidts Katze (z.B. Forza Horizon voll aufgerissen mit 160-180 fps geht für mich völlig klar).
Ich glaube, mich auch an einen Beitrag zu erinnern, in dem es darum ging, dass wir aufgrund Moores LAW so ziemlich am Ende sind und jetzt eher an Software gearbeitet werden muss, was ich persönlich begrüße. Ich finde diese "Höher-Weiter-Schneller"-Philosophie in diesen Bereichen eh etwas fragwürdig und vielleicht sollte man sich mit dem Sinn des Treibens beschäftigen. Geht es am Ende vielleicht wirklich nur noch um den noch etwas höheren Score in irgendeiner abstrakten Benchmark?
Danke für dein ausführliches Feedback! Ich kann deinen Standpunkt definitiv nachvollziehen! Trotzdem sind Fortschritte beidseitig also sowohl Hardware als auch auf Software Ebene wichtig (finde ich zumindest)! 😊
Stillstand war nie die Lösung. Wir hätten ja aufhören könne, als wir das Feuer entdeckt hatten, oder das Rad erfunden haben. Technologien wie DLSS/FSR + FrameGen sind aktuell wie damals die gefakten Schatten oder die gefakten Texturen die uns vorgaukeln sollten, das die Oberfläche 3D wäre etc. Es ist Teil des Fortschritts, erstmal zu tricksen, bis die Rohleistung das nicht mehr benötigt. Raytracing hat zu Doszeiten Tagen gebraucht um nur ein simple Kugel mit einen Schatten und Spiegellung zu versehen. Ja, es gab schon damals eine DOS Version von 3D Studio. Heute können wir das ab der 4080 schon in Realtime mit 30-60FPS je nach Spiel. Allerdings nicht nur mit einer langweiligen Kugel, sondern mit komplexen Objekten, eine ganze Openworld wird damit gerendert. Ich glaube ja, das die meisten das gar nicht erkennen, was das für ein gigantischer Sprung ist. Fakt bleibt, die Zeiten, als man alle 2-3 Jahre einen gigantischen Rohleistungsfortschritt gesehen hat, sind definitiv vorbei.
@@excite6501 Ich vermute, im Graka-Bereich werden in Zukunft Multicore und Chiplets wieder für mehr Leistungssprünge sorgen. Generell geht es und wird es weiter in die Richtung mehrerer dedizierter Recheneinheiten mit spezialisierten Anwendungsfeldern gehen. Würde jedenfalls Sinn machen verschiedene Chips oder gar Karten für unterschiedliche Aufgabenbereiche zu haben - ist auch günstiger als ein großer Chip, der alles machen können muss.
Hey kannst du mal ein video zu machen wenn ich zb meine graka upgraden will wie ich am besten schaue ob das netzteil ausreicht
Glaubst du das es sich lohnt von einer 3070 auf eine 40er reihe zuwechseln? also zb eine 4060ti oder so, dadurch das es halt mehr neue Features wie dlss 4.0 hat? LG- Jonas
DLSS 4.0 - 3.0 hast du ja schon
Auf die 4060 wäre mir der Unterschied zu klein
Trotzdem danke für deine Frage :)
@@KurakkaYT ja tut mir leid hab mich verschrieben🤣
@@KreativEcke Also doch lieber auf der 3070 bleiben
@@BloodRmxJa, der Leistungsunterschied ist zu gering, als das es sich lohnt so viel zu zahlen
Wie es auch schon andere geschrieben haben, ist die Arc B580 schon so ein kleines Highlight, aber bahnbrechendes war wirklich nicht dabei.
Für mich persönlich gab es dieses Jahr im Bezug auf meine Anschaffungen aber ein paar kleine Highlights, die mich hinterher doch im positiveren Sinne überrascht haben, als erwartet. Anfang des Jahres ne neue Tastatur (wie schon so oft gesagt ne SGK50 S3), im Mai dann ne neues Tablet - vorher wie nachher 120Hz, allerdings das neue mit OLED und kein IPS. Der Umstieg auf OLED war von der Responsivness her ein doch härterer Sprung als erwartet. Später im Jahr dann von 3090 auf 4080 Super. Auf dem Papier ist der Leistungsunterschied zwar nicht überragend groß, aber gerade beide undervoltet ist die Leistungsaufnahme so viel geringer, dass es sich dennoch wie ein großer Sprung anfühlt.
Für nächstes Jahr hab ich auch schon was im Sinn.. meinen Hauptmonitor gegen einen OLED zu tauschen. Wenn der Unterschied in der Reaktionszeit sich ähnlich stark auswirkt, wie beim Tablet, wird das ein wahrer Genuss werden.
8:55 doch die neue Arctic freezer 3 in weiß, das war so ein kleines Highlight.
Ich sehe das ganz genauso, es gab dieses Jahr nichts besonderes, was ein vom Hocker gerissen hat. Soweit ich es aber verstanden habe scheint es bei den m2 Platten der fünften Generation etwas zu geben. Scheinbar gibt es jetzt neuere modelle, die weniger Strom brauchen und damit nicht mehr so heiß werden. Aber wirklich der Hit...... Ist das leider auch nicht. 😅
Das jahr des Handhelds
#KreativeFragen: Ich steh vor der Entscheidung, ob ich in meinem alten PC, der vermutlich bald noch als Streaming-PC (nur capture) verwendet werden soll, ob ich meine alte 1080ti drin lassen soll (welche bislang gute Dienste für diesen Zweck getan hat) oder ob ich das Amazon Angebot der 3050 OC 6 GB wahrnehmen soll, um den PC "aufzurüsten". Der Hintergrund ist der, dass ich in einem anderen PC Projekt gern eine bessere Karte als die 380 2GB drin hätte, die keine Wurst vom Teller zieht, ich aber wenn ich was besseres einbauen sollte nur wirklich alte Hardware in den DDR3 Ram Rechner verbauen will. Im Versus steht, dass die 3050 OC 6GB besser ist als die 1080ti aber die werte sprechen dennoch fast alle dagegen.
Kurz gesagt, ich würde die 1080ti gerne abgeben, weil das ein Gaming Neueinsteiger mit wenig ansprüchen bekommen soll. Ich will aber mein altes System nicht downgraden weil ich irgendwas übersehen habe. Die 3050 steht gerade mit unter 200€ drin und verlockt etwas.
Pls help =D
Btw. was sind das alles für Bots in den Kommentaren? xD
Setze lieber auf was von AMD. Eine RX 6600 oder RX 6650xt. Schau dir Benchmarks an und du wirst den Unterschied sehen. Die 1080 ist übrigens ein gutes besser als die 3050 und raytracing wirst du in dieser Preisklasse nicht vernünftig nutzen können. LG
@@dangergamer_5218 ja die 6650 für 244€ hab ich auch schon eine Weile im Auge aber bislang war ich nicht bereit für ausrangiertes überhaupt Geld auszugeben, jetzt ne 3050 unter 200 klang zunächst atraktiv.
Ist es eine gute eine rtx 4060 mit einem 7800x3d zu kombinieren? Oder sollte ich lieber bei der gk wechseln und wenn ja auf welche? (es wird mein erster PC)
Hey, kannst du so machen! Die CPU hat allerdings deutlich mehr Potential, sprich du kannst durchaus über ein Upgrade nachdenken! 😊
Jenachdem was du spielst wird die GraKa aus dem letzten Loch pfeifen und die CPU wird sich total langweilen. Bei Nvidia sollte hinten schon eine 70 stehen und bei AMD min. die RX7800XT. Kommt natürlich auch auf dein Budget an. Wenn du nicht so viel ausgeben kannst oder willst würde auch der 7600X3D absolut ausreichend sein in Verbindung mit einer 70er Karte bzw. 7800er.
wieso müssen die preise immer so hoch sein man geiles video KreativEcke
Intel ist nicht kompetitiv in mid range ich brauche mehr vram als 12gb
Ich hoffe ehrlich, dass bald mehr cpus mit optischen transistoren entwickelt werden. Die Entwicklung steckt noch in den Kinderschuhen aber die Optischen könnten bis zu 100 tausend mal schneller sein als herkömmliche cpus. Ein Video dazu wäre mal sehr interessant :D
Lange davor wird es schon Graphen CPUs geben. Diese werden auch immerhin schon 100-1000x schneller sein.
werden auch 100 tausend mal so viel kosten
@@schwazernebe das wird sich mit der Zeit zeigen. Bin mir sicher man wird Lösungen finden die dinger günstiger zu produzieren.
@@TheRealLelek Das Militär der großen Player würde alles tun, um solche Rechenpower zu bekommen. Genauso wie Geheimdienste. Mit der Rechenleistung könnte man einen 51% Angriff auf Bitcoin locker fahren. Also selbst nachdem die in Serienproduktion gehen, werden sie wohl wie Öl, Uran, Gold, Lithium, seltene Mineralien etc. von jeden der es kann aufgekauft. Keine Panik nach 3-5 Jahren bekommen wir die Abfallprodukte für den Consumer Markt für Apple/Tesla/Nvidia Preise.
Ergänzende These von mir. Da wir uns technisch mittlerweile an den Grenzen des Möglichen bewegen, dürften große "NOBRAINER" leider immer seltener werden. In den 80er und 90er konnten die CPU Leistung, bzw. Taktraten in großen Schritten angehoben werden. Das wird es so nicht nehr geben, schätze ich. Der Große Goldrausch liegt hinter uns. ES SEI DENN die neuen Fertigungsverfahren die es so gibt, würden entsprechendes Potential mit sich bringen. Aber das wird sich zeigen.
Aber, ich stimme zu, Hardware-mäßig, war 2024 jetzt, für Endanwender, nicht sooo besonders.
Okay, ist im Video ja deutlich gesagt worden. 🤮🫡
Das Hardwarehighlite 2024 dürfte tatsächlich die ARC B580 sein. Die Xe2 Architektur dahinter scheint super interessant zu sein und man stelle sich nur mal vor, Intel bringt auf dieser Basis eine Mittel-Obere Mittelklasse GPU raus. Dann dürfte sich insbesondere AMD leistungstechnisch warm anziehen und nVidia wäre gezwungen mal einen Blick auf seine Preise zu werfen. Man kann also nur hoffen...
Mein persönliches Highlite war, dass ich unverhofft Anfang Dezember meine vorbestellte 9800X3D CPU von Mindfactory für tatsächlich "nur" 549€ erhalten habe.
Mir gefällt Deine kritisch-gesunde Einstellung zu den Dingen. Die Differenzierung, dass es sehr wohl gute Produkte gibt, die aber schlichtweg zu teuer sind. Den „normalen“ Verbraucher und Nutzer im Blick zu behalten, obwohl Du selbst ja mega-erfolgreich mit Deinem Stream bist, ist nicht selbstverständlich. Mach weiter so!!
2025 geht’s mit Mining wieder los ich sage es euch
ist es schlauer zu warten beim kauf eines 7800x3d oder wird sich da nicht viel ändern #kreativefragen
Meiner Meinung nach ist die Ausschlachtung der derzeitigen Konsolengeneration schuld. Hardware Hersteller haben halt alle Zeit der Welt, solange sich nicht die nächste Konsolengeneration ankündigt, da sich die Anforderungen an AAA Titeln nicht erhöht. Also warum nee neue GPU herausbringen, wenn die aufgrund mangelnder Optimierung von Spielen kaum nen boost bringt? Ist ja auch irgendwo schlechte PR.
Ja bis an das Ende der Generation, braucht man nicht aufrüsten.
Das wäre für AMD die Chance, auch im Graka-Bereich deutlich aufzuholen und NVidia im High-End Bereich ordentlich Druck zu machen. War ja bei CPUs so der Fall, da Intel gut 10 Jahre lang geschlafen hat und die neuen CPUs nicht wirklich schneller waren als die alten. Die 2000er Serie war eben nicht sehr viel langsamer als die 8000er Serie. Auch Intel könnte das nutzen, um mit Arc nach und nach das obere Mittelfeld zu erobern.
Scheinbar ist es aber so, dass der Absatz im Mittelfeld-Bereich einfach zu gut ist, um Zeit und Geld in den High-End Bereich zu stecken. Aber das hat zumindst den Vorteil, dass ich mit einem Upgrade noch Zeit lassen kann.
Atom =0,1 mm? ein Menschen Haar hat 0,05 mm .
Entspann dich mal er hat sich offensichtlich versprochen
Kosten für vernünftiges PC Gaming sind einfach nur noch absurd.
Aktuell leider schon… 😅
Gebraucht kaufen
sehe ich überhaupt nicht so. zu erst kommt es mal auf die eigenen Bedürfnisse an. low-mid-highRange. meine RTX-3070 wird jetzt 4Jahre alt, ich bin noch immer auf AM4 habe vor 2Jahren von R5-3600 auf R7-5700x ein Upgrade gemacht sogar nochmals von B450 auf B550 und Ram von 16GB-3200 auf 32GB-3600. alles in Allem keine 1000€ in 4Jahren. das sind am Ende nicht mal 50€ pro Monat. Und ich kann aktuelle Spiele in QHD und high-Settings mit stabilen 60FPS und mehr "vernünftig" zocken. Verstehe absolut nicht wo du hier eine Absurdität erkennst.
Man muss sich nicht in jeder neuen Hardware-Generation die besten tollsten Sachen holen um "vernünftig" zocken zu können. Ich werde nächstes Jahr auf AM5 wechseln und dann auch eine neue Graka zulegen. Und wenn man den Leaks nur ansatzweise Glauben schenken kann, werde ich nach über 20Jahren mit einer 8800XT von grün auf rot wechseln.
@@binny801weil ich games zocke , welche selbst mit 4090 Leistungsfressend sind. Und wer will in einem Comp Shooter nur 60 FPS ?
Das Hauptproblem sind die hohen Kosten für eine gute Gaming Grafikkarte. Selbst gebrauchte sind zu teuer.
Naja an sich hast du aber auch denn grund für schleifende Käufe angesprochen. Die Preise steigen und somit sind viele nicht mehr in der lage oder wollen auch einfach nicht mehr kaufen. Wieso für 50FPS mehr über 200€ mehr bezahlen? Wenn se die Preise runter schrauben denk ich wirde der Markt auch wieder BOOMEN. Nebenbei angemerkt: man kann die CPU auch größer machen um mehr Transistoren zu haben. dann is der Sockel eben keine 10cmx10cm mehr (nur als beispiel , da ich die werte nicht kenne) sondern eben 12cmx12cm. So wäre ebenfals noch leistung über Hardware steigerung möglich. Die Grafikkarten ansich ohne denn Kühler haben ja auch noch enorm viel platz. Dann fällt eben früher oder später Mini ATX raus.
Ich denke auch das ein neuer Sockel unausweichlich ist. Wird wahrscheinlich günstiger sein als immer mehr Leistung auf die gleiche Größe quetschen zu wollen.
Ein Atom ist viel viel viel kleiner als 0,1 mm!
er wollte sicherlich 0,0000001 mm sagen, bzw 0,1 nm
Hallo,
ich habe vor mir einen Pc zu bestellen und wollte mal nach eurer Meinung zu den Komponenten Fragen, da ich selbst kaum Erfahrung damit Habe. Als Prozessor habe ich mir den Ryzen 5 5600X ausgesucht, als CPU-Kühler möchte ich den be quiet! Pure Rock 2 Silver verwenden. Beim Mainboard habe ich das Gigabyte B550 GAMING X V2 ausgesucht. Beim Arbeitsspeicher habe ich mich für 2 mal 16GB Ddr4 entschieden. Bei Ssd und Netzteil bin ich mir schon sehr sicher. Bei der Grafikkarte habe ich mich für die 16GB MSI RTX4060Ti GAMING X entschieden.
Sind die ausgewählten Komponenten sinnvoll und/oder gibt es noch Verbesserungsmöglichkeiten?
Schon einmal im Vorhinein vielen Dank für jede Hilfe😅
kaufe lieber eine 7800xt und ryzen 5 7500f sowie ddr5 ram das sollte kein großer preislicher unterschied beim motherboard kannst du das msi pro 650 s wifi nehmen
wie findest du die neuen light produkte von be quit?
Nebst der Intel Arc würde ich dieses Jahr auch noch den Monitor-Markt hervorheben. Mittlerweile gibt es sehr gute (und langsam auch bezahlbare) 4K OLED Monitore mit 240 Hz. Aber schon klar, für uns PC-Schrauber sind Monitore halt eher langweilig, weil es da nicht viel zu schrauben gibt 😊
Ich muss sagen, ich würde die Nvidia-Superkarten, insbesondere was die Grafikkarte 4070Super anbelangt, als Highlight ansehen, da die mich persönlich am meisten angesprochen hat. Es hat Raytracing und Upscaling-Technologie und war zudem für mich die preisleistungsstärkste Grafikkarte überhaupt. Seitdem ich mir diese Graka geholt habe, war ich positiv überrascht gewesen, wie viel sie tatsächlich leistet: Da habe ich dieses Jahr Resident Evil 4 Remake oder A Way Out gespielt und bereue keinen Cent und keine Sekunde diese Grafikkarte gekauft zu haben. Es macht höllisch Spaß, ohne das man sich Gedanken machen müsste die Settings runter zu schrauben.
Super Video! Mach weiter so! 😁
Wenn der Freak Karten für über 2.000,- (4090) kauft, dann ist doch alles gut !
Meinerseits bin ich noch auf AM4 und maximal eine 7800 von AMD, was preislich noch im Rahmen ist, wie auch real gesehen absolut ausreicht.
Geht mir finanziell noch gut, aber soll ich mein Geld diesen Preistreibern in den Rachen werfen ? Wobei dann bei Neuerscheinungen diese Preise absolut wieder fallen, was heißt so schnell kann man nicht mehr kaufen !
Ist schon wie mit den Handys - schneller, besser, usw. - wobei die Meisten dies gar nicht nutzen, wie viele Spiele diese Hardware gar nicht nutzen, usw. !
Verarsche hoch drei und es sei ja jedem gegönnt, aber man sollte man überlegen über Preis / Leistung, wie allem Sinn und Zweck.
Lieber kaufe ich einen Gebrauchtwagen, usw. als hier diese Dimmension an Geld zu verschleudern.
Ja das ist definitiv schon crazy über was für Preise wir hier eigentlich reden! 😅
@@KreativEcke
Tja - guter Beitrag und die Fakten auf den Punkt !
Aber wer es braucht, dem sei es gegönnt :)
Gruß und machst super Kanal - der auch eien Denke beinhaltet, was bei den anderen meist mit Sponsoren verbunden ist.
Dank !
Wo kostet der 9800X3D bitte 700 Euro? Ja, wenn man ihn von Scalpern auf Ebay kaufen will vielleicht. Bei Mindfactory bekommt man ihn für ca. 570 Euro, wenn man bis Januar warten kann.
Warum war es das schlechteste Jahr für Computerhardware ? Die Grafikkarten sind so leistungsfähig, da vermisst man eine neue Generation (noch) nicht. Eher ein schlechtes Jahr für Gaming. Was alles an Rotz auf den Markt geworfen wurde und teilweise enttäuscht hat. Concord, Star Wars Outlaws, Skull and Bones, Dragon Age the Veilguard, etc...
Kurz zu den Preisen, selbst die I5 11600k ist von Juli, ca. 115€, bis heute auf 165€ im Preis gestiegen (jeweils ohne Kühler). Das ist echt krass... Das war eher ein unüberlegter Kauf den ich heute nicht mehr bereue.
4090 ist vor über zwei Jahren rausgekommen. Kostet immer noch fast über 2k. Siehst du da irgendwann Besserung oder hast du Tipps, wie man an die 5090 ran kommt, ohne dass man sich die überteuerten Modelle holen muss, weil die Crypto-Miner alles vorher mit Bots weggekauft haben.
Puh also da gehört leider auch viel Glück dazu! 😅
Gutes Video. Ich empfinde ganz genauso. Und es gibt echt ein paar Sachen die wirklich stören... Wieso hat AMD nicht dazugelernt aus den letzten CPU launches und beim 9800x3D viel mehr produziert? Es war doch klar, dass die Nachfrage danach riesig ist, besonders, da der 7800x3D vorher im Preis wieder so enorm gestiegen ist. Und auch der nächste Punkt trifft AMD. Warum zu Hölle bringen sie keine High End GPUs mehr auf den Markt. Mir ist schon klar, dass die Gewinnmargen vermutlich dort nicht die allergrößten sein werden, aber Konkurrenz belebt nach wie vor das Geschäft und NVIDIA einfach gar keine Konkurrenz zu bieten ist einfach falsch. Gerade wenn jetzt auch noch Intel im Einsteiger GPU Bereich mitspielt. Meiner Meinung nach wäre es wichtig für AMD zumindest der 80er Serie der NVIDIA GPUs eine Gleichwertige Konkurrenz zu bieten. Im Prinzip müssten sie ja nur den Preis der 7900 XTX etwas senken und idealerweise eine Version mit ewas stärkerem RayTracing und weniger Stromverbrauch herausbringen. Dass sie die 5090 mit 32GB Vram nicht schlagen können werden ist okay und das wird sich vermutlich solange nicht ändern bis AMD die finanziellen Mittel und vorallem Marktanteile hat, dass es sich für sie lohnt. Und als letztes noch kurz zu NVIDIA... wie können sie es wagen (laut einiger recht wahrscheinlicher Leaks) die 5080 wieder nur mit 16GB Vram auszustatten? Warum nicht wenigstens 20 oder 24? Ich bräuchte Beispielsweise eine neue Grafikkarte mit mindestens 20GB Vram bzw. lieber 24GB, da ich dank Videoschnitt, Videobearbeitung und auch etwas 3D renderings diese durchaus ausreizen könnte. Ich kann aber als Student nicht einfach 2k+ für eine 4090 hinlegen und demensprechend bleibt mir eigentlich nur die 7900xtx übrig welche aber wesentlich schlechter ist in RT und vermutlich auch nicht ganz so optimiert für Grafikprogramme etc. (Sorry an der Stelle "kleiner" Rant)...
Hey, danke für deinen sehr ausführlichen Kommentar, dem kann man eigentlich nichts mehr hinzufügen! 😊
Qeil sie Kohle machen wollen mit den X3D Sachen. Das ist der einzige Grund.
@@fanolade ja, aber auf lange zeit gesehen würden sie nicht mehr geld verdienen wenn sie mehr cpus verkaufen anstatt wenige für mehr geld?
@@neoey AMD macht den Großteil ihrer Profite im Serverbereich. Amazon, Nvidia, Google... alle nutzen AMD CPUs für Virtualisierung, Skalierung usw. Wie Nvidia nutzt auch AMD? Ja, z.B. in ihren Cloudgaming Service Geforce Now. Im Serverbereich kann Intel halt AMD nicht das Wasser reichen. Der kleinen Konsumentenmarkt ist da nice to have, aber mehr auch nicht. GPUs weiter hin in Rawperformance zu pushen ist leider nutzlos, und so hat übrigens ATI damals Nvidia kurzzeitig geschlagen. Laut NVidia selbst in einem langen Techinterview bei DF, haben sie versucht die Rohleistung so hoch zu pushen wie möglich, aber haben festgestellt, das bei 50% mehr Transistoren, leider nur 15-20% mehr FPS in Spielen bei rumkommen. Da hat der Leadforscher für Hardware gesagt, wir fokussieren uns lieber auf DLSS + FrameGen, da diese mit weniger Aufwand und Kosten mehr FPS bringen. Aus wirtschaftlichen Gründen macht das auch Sinn. 99% der Konsumenten wollen jetzt schon nicht den Preis für eine RTX4070 und höher bezahlen. Jetzt stell dir vor, die DIEs werden mit noch mehr CUDA Cores etc vollgepackt, was sie ja als Prototyp mal getestet haben, dann werden das noch viel weniger kaufen. Der FPS pro €/$ ist halt auch entscheidend. Dann sagt keiner, schaut her die 4090 Ultradeluxe für 3K kann aber 15 FPS mit Max Settings mehr bringen, als die 4090 für ein Bruchteil dessen.
@excite6501 Uh danke das wusste ich tatsächlich nicht. Macht aber Sinn soweit. Ja mir geht's auch gar nicht so um die high end Karten ist schon klar, dass das eher nischig ist, aber es ist generell alles viel zu teuer.
Ehrlich gesagt verstehe ich nicht warum AMD immer nachzieht, warum gehen die nicht einfach mal voran und versuchen es...
Die werden sich dabei schon eine Strategie überlegt haben. Wir können da leider nur mutmaßen! 😅
Bringt doch nichts - mit dem kleinen Marktanteil gibt nVidia immer vor und AMD muss nachziehen, ob vernünftig oder nicht - wenn sie jetzt mit neuen Technologien voranpreschen die dann doch niemand übernimmt da alle eh weiter auf Team Grün setzen ist das ganze reine Zeit- und Geldverschwendung. Das beste was sie noch machen können ist offene Technologien für alle pushen, aber was Eigenes kostet nur und wird dann egal wie gut eh nicht adapttiert.
Als früherer Mac-User kenne ich das umgekehrte Spiel, damals hatte nVidia auf Macs quasi keine Relevanz und jeder Pro hatte eh AMD/Ati, da Apple - gerade nach ihrem Kleinkrieg mit nVidia - schlicht intensiv alles für Ati optimierte. Wenn wie hier Drittanbieter mitspielen kann das super laufen, Ati war Standard und nVidia hat keinen interessiert. Auf dem PC-Markt ist es umgekehrt, egal was AMD macht die Platzhirschen wie Adobe etc. haben sich auf nVidia eingeschossen und kein Interesse an AMDs Alternativen.
z.B. im AI-Bereich, Stable Diffusion und der Kram, hat AMD durchaus gute und konkurrenzfähige Technologien mit ROCm etc. - aber das musst Du Dir umständlich selbst zusammenstückeln, die einfachen Komplettpakete für Normalos setzen alle auf CUDA und die Anbieter haben schlicht keine Lust sich noch um AMD zu kümmern, weil "nutzt ja eh keiner". So ist das mit Quasi-Monopolen, wird zum Teufelskreis.
Die CEOs von Nvidia und AMD sind miteinander verwandt. Man weiß nie was da im Hintergrund für Entscheidungen getroffen werden.
Hab rx 7700xt für 380 gekauft, und i5 14600kf für 200, z790 für 160 und 32GB ddr5 6000mt/s für 75. Würde das mein Highlight nennen
Ich finde, dass wenn man über den PC Bereich im ganzen spricht, dass Peripheriegeräte meine Highlights des Jahres waren. Wie zum Beispiel Wootang, oder die Scyrox V8, welche das Segment wirklich weiterentwickelt und/oder deutlich in neue Preissegmente gebracht haben.
Top Video und perfekt auf den Punkt gebracht! 👍👍👍
Danke für das Lob!😊
Finde das sind echt coole Videos die du machst
Hey, danke dir! ☺️
Wenn Nvidia GK nächstes Jahr wieder so teuer sind werde ich komplett auf AMD setzen ... werde erst im Sommer kaufen ^^
Klingt nach einem Plan ! 😊
Glückwunsch, mach das :)
Bin schon auf AMD umgestiegen, wobei die letzte Nvidia 3060 waren, die noch preislich im Rahmen lagen. Zeit PC mit 3060 und der Haupt-PC schon mit 7800, die super ist.
Ich setze nur noch auf amd mich juckt nicht wie wird die zukunft bei nvidia
Die werden teurer, Verlass dich drauf.
Was ich dieses Jahr als "Highlights" zumindest technisch bezeichnen würde:
- AMD Ryzen 7 9800X3D = Den 3D-Cache von oben nach unten zu platzieren war der richtige Schritt.
- Bei DDR5 RAM hat sich viel getan und in den letzten Wochen kam ein Rekord nach dem anderen. Zudem gibt es mit CUDIMM und CAMM2 interessante Veränderungen.
- Die Ankündigung von GDDR7 bzw. das auch in Aussicht gestellt wird, das es noch 3GB Module geben wird. Damit sind zukünftig neue VRAM Bestückungen möglich.
- iGPU Grafik hat nochmal einen ordentlichen Sprung gemacht. Im Vergleich zu den dedizierten Karten sind hier die Sprünge noch recht groß.
- Langsam kommen mehr PCIe 5.0 NVME SSD's die nicht mehr so heiß werden und damit besser zu kühlen sind und damit länger bei ihrer Geschwindigkeit bleiben können.
...
ja 9800x3d, bin gespannt wan die scalper kein bog mehr haben
Lohnt es sich jetzt schon die Intel ARC B580 zu kaufen oder wird sie in 3-4 Monaten günstiger sein?
Weißt du warum Nvidia und amd nicht das Weihnachtsgeschäft genutzt haben sondern bringen eher die neuen gpus zum Frühling/Sommer raus?
Ich freue mich btw riesig auf die 8800 xt. Hoffe die wird ein 4080 Konkurrent zu einem guten Preis :)
lg
Puh also da kann man im Grunde genommen nur mutmaßen, wir haben ja leider keine Glaskugel! 😅
Wahrscheinlich aus einem ähnlichen Grund, wie auch Nintendo die Switch 2 noch nicht auf den Markt bringt.
Die aktuelle Generation verkauft sich noch gut genug, die Nachfrage ist hoch und man kann das Weihnachtsgeschäft mit der alten Gen noch mitnehmen.
Dann kann man zur CES im Januar seine neuen Produkte präsentieren oder launchen und übers Jahr das Portfolio und die Bestände aufbauen und dann zum nächsten Weihnachtsfest full in gehen.
Und wie man beim 9800X3D sieht: Der wird trotz Launch vor Weihnachten bei den meisten nicht unterm Baum landen, weil einfach nicht verfügbar.
Da hätte es wahrscheinlich auch nicht geschadet, den mit etwas größeren Beständen erst im Januar oder später und zusammen mit den großen Brüdern (9900X3D und 9950X3D) zu launchen.
die haben ja schon knappe zeitfenster, mal eben 3 monate vorher releasen führt einfach nur dazu was man hier immer wieder sieht, treiberprobleme etc
Was war mit den nivida super Karten die im Januar rauskamen?
Fand die rtx 4070s auch ganz gut und habe dann zugegriffen
Die 70 sind immer ein guter Kompromiss. Habe die 3070 davor die 1070. Ganz früher mal die 770 Phantom.
Fands gar nicht so übel. Nachdem die Intel Chips ihr letztes Update bekommen hatten und bevor Nvidia die 4080 Produktion eingestellt hatte, hab ich ein neues System für Videoschnitt und Gaming kaufen können, war denke ich ein guter Zeitpunkt mit ausgereifter Hardware. Die 50er Serie muss sich erst mal etablieren und in der ganzen Software und Spielelandschaft ankommen
Habe einen Ryzen 7 5800X3D, 32GB RAM DDR4 , 3600Mhz. MSI 3070.
was wäre empfehlenswerter zu upgraden ? Auf AM5 mit dem ryzen 7 7800X3D, DDR5 RAM etc aber Grafikkarte bleibt gleich oder für den selben Preis von einer 3070 auf eine 4080 upgraden ? @KreativEcke
Habe quasi dieselben Specs wie du aber ne 4080. Wenn du nicht grade noch produktiv die Mehrleistung brauchst, lohnt sich nen Upgrade null. Je nach Auflösung wirste zum 9800X3D null Unterschied sehen (bei mir z.B. in 4K haste null bis maximal ein paar wenige fps Unterschiede außer in extrem Beispielen wie Factorio und selbst da reicht der 5800X3D). Kauf dir die 4080, davon profitierst du am meisten. Ich würde aber vielleicht noch bis Januar warten, was NVidia da zeigt und ob dann evtl. die 4xxx Reihe im Preis sinkt. Ich selber überlege auch mit einer 4090, weil ich gerne mehr VRAM hätte aber anscheinend NVidia bei der 5080 wieder nur 16GB verbauen soll. Ne 5090 wird mir viel zu teuer sein ergo gibt's da nicht wirklich ne Alternative für mich.
@ Ich danke dir für die Antwort. Dann spare ich und warte ich ob sich die Preise beruhigen :)
Ich glaub bie 6:20 meintest du 0,1 nm, nicht mm
6:49 TaKassen? Hab ich das richtig gehört? Hast eineues Wort erfunden 😂
Ja halt die Kaschen in den Tassen
hi kreativecke ich habe eine frage was machst du eigenlich mit den Pcs die du gebaut hast ?