Wir sind erst am Anfang des Machbaren. Da wird es noch eine unendliche Menge zu tun geben. Natürlich kommen wir an Grenzen, jedoch wird man irgendwann die CPU mit einer ganz anderen Architektur ersetzen. Es ist wie mit dem Weltall momentan. Selbst wenn wir zum Mars kommen, wird es gefühlt unmöglich sein, andere Galaxien zu erreichen (auch mit Lichtgeschwindigkeit). Jedoch, wenn Einstein recht hat, dann werden wir irgendwann durch Wurmlöcher reisen können, um andere Galaxien zu erreichen. Wer hätte jemals 2000 oder 2010 geglaubt, dass wir einmal so etwas wie DLSS oder FSR bekommen würden? :) Was die Leistung einfach irgendwann verdoppelt oder noch so viel mehr kann! Und das quasi nur mit Software. Man wird eben Grenzen haben, jedoch dann nach neuen Grenzen suchen. CPU geht nicht mehr kleiner, ja dann suchen wir eine andere Möglichkeit, um noch mehr Leistung zu bekommen.
Welche neuen Architekturen??? Digitalrechner müssen mit Transistoren arbeiten, daran lässt sich nichts ändern, und die sind etwa seit 2014 bei 14 nm Größe gefangen, darunter kam man bis jetzt nicht, außerdem kosten irgendwann immer kleinere Fortschritte immer mehr Geld. 2000 oder 2010 waren die Fertigungsverfahren auch noch deutlich größer als jetzt. Welche neuen Architekturen meinst du denn genau? Und bedenke folgendes: Wenn das Universum Reisen zwischen verschiedenen Galaxien nicht vorgesehen hat, dann sind sie auch nicht möglich.
@@oliverbecker3443wie soll er Architekturen nennen die es noch nicht gibt?.. Woher weißt du denn dass das Universum vorgibt es gibt keine Möglichkeit? Das wird alles schon irgendwie so wie sonst auch 😋
@@oliverbecker3443 Architektur betrifft nicht nur die Materialien auch die Anordnung 😁 früher wurden andere Befehlsätze teilweise genutzt oder ein Rechenkwerk zum addieren und Multiplikation wurden mehrmals durchs "addierwerk" gejagt. Da gibt es bestimmt noch Potential neue Rechenwerke die speziell für eine Aufgabe sind CPU's und GPU's als eine große Recheneinheit die ihre Leistung individuell einteilt. Schnellere Speicher. Größerer L1 Cache der außerhalb der CPU angebracht werden kann. Wer weiß. Wer nicht forscht wird auch nichts finden ^^
@@Civooo420 Er soll keinen Namen nennen, sondern die veränderte Funktionsweise, und ich sage nicht, das uns das Universum dazu keine Möglichkeit bereit stellt, allerdings sollte man eben nicht jetzt schon, ohne das eine praktischer Beweis erbracht wurde, annehmen, das es so kommt, wie von viele hier erhofft. Des Weiteren haben die Ingenieure von Intel, AMD und NVDIA einen guten Grund, anzunehmen, dass es mehr als nur die aktuellen Möglichkeiten gibt; denn wenn keine neue Hardware mehr entwickelt werden muss, dann wäre eben jener Berufsstand fast vollständig überflüssig, und man bräuchte fast keine Hardware- sondern nur noch mehr Softwareentwicklung. Und wie gesagt: Ein digitaler Rechenchip muss mit Transistoren rechnen. Ein alternativer Stoff zu Silizium müsste außerdem mindestens genauso Effizient wie dieser sein, auch wenn er kleiner ist. Neue Elemente gibt es inzwischen ohnehin nicht mehr zu entdecken, die Auswahl bei Alternativen beschränkt sich also auf die uns bereits bekannten Elemente.
So mag ich ein Video! Das beleuchten von allen Seiten, alles neutral darstellen und jeden selbst entscheiden lassen, was diese Infos mit Ihr / Ihm machen und nicht diese Schlagzeilen mit Bild Niveau Videos oder Beiträge. Vielen Dank dafür ♥ :) .
Ich hab zu danken für die echt super netten Worte. Ich will mich künftig auch verabschieden von „Bild Niveau“. Ich hab lange über den Content hier nachgedacht und für mich entschieden, dass hier auf dem Channel „der nächste Schritt“ ansteht! Danke!
@@KreativEcke Ich meinte das allgemein und hatte gar nicht deinen Channel im Sinn :) . Aber lieber ein wenig Selbstkritik als alles lieblos dahin laufen lassen :) .
@@KreativEcke deine Videos sind echt Klasse und sind für mich auch nie Bild Niveau gewesen. Kein Platz für Populismus was gesellschaftliche Themen angeht oder Zusammenarbeit mit Unternehmen die fragwürdig sind. Sehr tolle Entscheidung
Bei Autos ist das eigentlich seit vielen Jahren schon so. Ein neuer Golf ist nicht schneller als mein fast 20 Jahre alter Golf, aber etwas effizienter und gleichzeitig natürlich deutlich besser ausgestattet!
Würde ich sehr situativ betrachten. Es bringt mir bei meiner Grafikkarte nicht wirklich viel, wenn ich für die Effizienzsteigerung als Endkunde mehr bezahlen muss. Das Ersparte, habe ich damit sowieso in den Sand gesetzt. Auch bezweifle ich das alle Spieler einen Strommesser eingesetzt haben um sich daran aufzugeilen, dass ihre Grafikkarte nun 30 Watt weniger saugt und damit über das Jahr eine Einsparung von 12 Euro [30 Watt an 4h/d 7 Tage die Woche auf 365 Tage. ] resultiert.
Ich vergleiche meinen PC und die Spielzeit mit Auto fahren. Mein PC braucht ein paar Wattstunden, mein Auto ein paar Tausend Wattstunden pro Stunde. Solange also mein PC + Klimagerät beim Spielen weniger Energie braucht als mein Auto, mache ich mir um meinen PC keine Sorgen. Gaming ist schließlich Hobby und Hobby darf auch etwas kosten, dafür geht man arbeiten.
Durch weniger Energieverbrauch kann man mehr Leistung erzielen, da man dann weniger Temperaturentwicklung hat. Für die Stromkosten ist mir das komplett egal. Hier kostet Strom zwar 50 cent auf dem Campingplatz hier, und trotzdem hat man vorher in der Mietwohnung fast genauso viel schon bezahlt, trotz weit günstigerem strom. Da sieht man mal was man in einer mietwohnung abgezockt wird. Hier auf dem Campingplatz hab ich vllt 130 € Strom nach 3 Monaten verbraucht und das obwohl ich den PC immer an habe und keine fps limiter benutze. Immer schön uncapped und auch schön overclocking rein. Also kümmert mich persönlich der Strom kaum. Viel nerviger ist die Erdgas Therme. Da zahlste tatsächlich schnell viel Geld wenn man nicht aufpasst.
Das lustige ist ja, dass der Mensch keine Veränderung mag, aber trotzdem immer das neuste will und sich nicht langweilen will.. Aber wäre das nicht paradox? 😮
Ich persönlich zumindest will nicht immer das neuste. Ich bin zufrieden, wenn meine Geräte lange halten und ich mich eben nicht ständig an was neues gewöhnen und wieder Geld ausgeben muss. Daher sind viele meiner Geräte auch schon 10, 20, 30, oder zum teil gar über 40 Jahre alt. Warum ersetzen, wenn es doch noch funktioniert?
@@Der-RetroGamer Geht mir auch meistens so, ich bin nur vom Durchschnittsmensch ausgegangen, aber am Ende müssen wir alle sparsamer mit dingen umgehen das stimmt..
Es gibt immer Leute, die sich nur beschweren. Das sind auch oftmals die Menschen, die sich in dem Thema nicht wirklich auskennen und daher die geleistete Arbeit gar nicht nachvollziehen und somit auch nicht schätzen können.
Einen großen Nachteil bringt der Co-Pilot Ki aber im Gegensatz zu der Rohleistung mit sich. Die Rohleistung lässt beliebig in jedem Szenario bedenkenlos einsetzen, während die Ki erst lange auf ein einziges, bestimmtes Szenario angepasst werden muss. So entscheidet letzendes Endes mehr der Hersteller, was mit der Hardware gemacht werden kann. Das wird in Zukunft dann kleinere Entwicklerstudios von Anwendungen und Indie-Games treffen, für welche es sich aus Sicht der Hardware Hersteller einfach nicht lohnt, deren Hardware auf "kleine Projekte" zu implementieren. Außerdem wird die Entwicklerplattform so erschwert, da Software bereits auf einem Hardware/Software Hybrid aufbaut.
Ich finde, wir sollten uns nicht von den Fortschritten von KI blenden lassen und Moores Law im klassischen Sinne nicht aufgeben. Außerdem sollten wir auch andere Möglichkeiten als Silizium basierte Bausteine in Erwägung ziehen, um leistungsfähigere Rechner zu bauen. In diese Richtung gibt es auch viele Forschungsansätze, die aber meist noch sehr frisch und wenig ausgereift sind. Bis diese Technologien für den Markt reif sind, kann es noch lange dauern.
Hardware und Software müssen immer Hand in Hand gehen. KI, upscaling etc. hat Softwareseitig riesen Potential was gerade erst angefangen wird auszuschöpfen. Gleichzeitig muss auch Hardwareseitig weiter entwickelt werden. Ich bin mir sicher das man mit Optimierungen seitens der Software noch sehr viel Leistung aus der Hardware die es schon gibt raußholen kann. Wie immer sollte man sich nicht nur auf eine Sache konzentrieren, sondern immer das Gesamtpaket betrachten
Ich habe keine Problem mit Veränderungen, ich gehe da schon mit der Zeit, aber es kommt eben auch auf die Veränderungen an wie sehr sich etwas verändert, im Bezug auf Hardware / Software bin ich für alles offen. vor allem wenn es auch mal Günstiger wird.
Erst einmal bedanke ich mich für dieses super Video bedanken. Ohne Veränderung kann es auch keinen Fortschritt geben. Am Ende zählt nur das Ergebnis, der Weg dahin aber ist mir egal, solange er ethisch vertretbar ist.
Hey ✌🏼 Ich muss dir jetzt mal ein fettes Lob aussprechen! Ich mache mir jeden Tag Gedanken über pc Hardware und jede Frage in meinem Kopf wird anschließend in einem Video von dir beantwortet 😋 Seit Wochen geht das so und ich enjoy es sehr Mach bitte genau so weiter 🙏❤️
Ohne das Video gesehen zu hahen, glaube ich, dass die Zukunft ARM sein wird. Mit dem Game Porting Toolkit von Apple schafft es mein Macbook in Windows Games teilweise bis auf die Geschwindigkeiten meiner RTX 2070. Keine Ahnung, was wir bei nativen ARM Spielen ohne legliche Übersetzung erwarte können, aber ich befürchte eine Menge. Für uns sehr schade bezüglich der Aufrüstbarkeit, aber zumindest eine Variante beim Neukauf weiter an wirklich viel Leistung für wenig Geld ranzukommen. Die Performance ist fürs Geld auf ARM Chips deutlich günstiger zu haben.
Es wird noch einige wenige Hardwaregenerationen geben in denen sich die Halbleiter werden verdichten lassen, die bereits geplant sind. Allerdings ist das auch mit steigenden Kosten verbunden, was bis vor einer Weile nicht der Fall war, die Kosten pro Halbleiter sind bis 28nm stetig gefallen. Aber das ist ja auch schon 10 Jahre her. Wobei mittlerweile eher 14nm als besonders kostengünstig gelten kann. Was danach ist, nun es kann gut sein dass man sich wieder was mit der Halbleitertechnik einfallen lässt, lässt sich nur von jetzt aus noch nicht absehen. Aber die meisten Fortschritte bei den GPUs waren von logischer Natur, nicht von fertigungstechnischer. Aber so eine Kristallkugel haben wir auch nicht, die es und sagen würde, was sich da noch machen lässt.
Na also es gibt ja ein paar Überlegungen in Richtung Graphen und andere Materialien. Aber genau das ist es: es ist ja auch immer Sinne der Hersteller das Ganze kostengünstiger zu gestalten weil man sich sonst die Kunden vergrault.
hoffe es bleibt einfach bezahlbar ,auch für denn normal Bürger. Die Welt dreht sich weiter ,ob man es mag oder nicht . Einfach offen für neue Dinge bleiben .
Es gibt eine konkreten Grund, warum das jetzt schon so ist: die Entwicklung von SRAM Zellen, die für den Cache in CPUs benutzt werden, haben jetzt schon eine Grenze erreicht und werden im Verhältnis zu den CPU Halbleitern die aktuell im 4 Nanometer Verfahren hergestellt werden seit längerer Zeit im Verhältnis nicht mehr kleiner. Der SRAM kann also nicht mehr kleiner gebaut werden können. Es gibt ein super Video dazu von „High Yield“ mit dem Titel „Next Gen CPUs / GPUs have a huge problem“. Wer Englisch versteht, sollte sich das mal anschauen, dort wird das Problem detailliert beschrieben. Super interessantes Thema.
95% der Spiele die ich spiele unterstützen aktuell kein Dlss oder so. Und mit meine 4070ti kommt da leider öfters an ihre Grenzen. Ebenso Mangelt es vielen Spielen an der dringend nötigen Optimierung. Das beste Beispiel ist aktuell dafür Starfield.
Das war das beste Video der letzten vier Monate von dir! Ganz stark, danke. Ich finde gerade die aktuellen Entwicklungen im GPU Sektor sehr spannend. Ki Cores werden immer mehr Relevanz bekommen. Das Intel bei seiner ersten GPU Generation direkt darauf setzt zeigt wie wichtig das Thema ist. Mehr Rohleistung wird es nur in noch kleineren Fertigungsverfahren geben. Aber genau da stoßen wir so langsam an physikalische Grenzen. Es wird also bei GPUs, ähnlich wie bei CPU's, ganz bald auf die Effizienz der Architekturen ankommen und wie diese mit den ihnen zur Seite gestellten Ki Cores arbeiten. Ich finde das mega spannend!
Oha! Vielen Dank dir für die super Rückmeldung. Wie genau kommst du auf 4 Monate? Das würde mich sehr interessieren. Und richtig: Das Intel keine "klassischen" GPUs bringt sondern direkt das KI gestützte Feature XeSS implmentiert, ist da mMn auch ein Punkt, der sehr gut zeigt, wie wichtig das Thema wird. Ich finde es auch enorm spannend.
@@KreativEcke das kann ich dir gerne "sagen". In den letzten vier Monaten hast du für meinen Geschmack viel Content geladen, der (Gaming) PC's von Influencern oder Hardware-Shops usw. zeigt. Ganz ehrlich, das interessiert mich persönlich eher so semi ;-) . Ich vergleiche mich bzw. meine PCs nicht, da ich darin keinen Sinn sehe. Daher ist es mir auch ziemlich egal wer was für einen PC hat oder verkauft. Dazu kommt, dass ich seit meinem elften Lebensjahr meine PCs (und die meiner Freunde / Family) selber zusammenschraube. Vorkonfigurierte PCs sind somit für mich eher Blasphemie :-D . Mich reizen da eher neue Techniken (XeSS/DLSS/Ki) und Benchmarks. Was mich mal brennend Interessieren würde sind auch Vergleiche von zB. drei Jahre alten High-End Systemen (i9 10900X Serie) gepaart mit alten und aktuellen Grafikkarten gegen komplett moderne Systeme. Ich denke ein großer Teil der Community investiert eher regelmäßig in eine neue GPU als in einen komplett neuen PC, da die meisten Games eher GPU-lastig sind. Zumindest sehe ich das so in meinem Bekanntenkreis. Ist aber auch nur meine Meinung ;-) . Egal welchem Thema du dich gerade verschreibst, deine Videos sind immer High-Class und ich sehe sie immer gerne. Auch dann, wenn das Thema an sich mich vielleicht nicht direkt anspricht. LG, Hans
Ich denke es wird, wie damals vom Single zum Multicore (und der damit verdoppelten Transistormenge), werden die tragenden Komponenten wie GPU und CPU weiter mehr Kerne in der Gesamtanzahl erhalten, siehe Raytracing mit den neuen Kernen. Die Hauptkerne werden weiter Aufgaben abgeben, die andere Kerne übernehmen, die das besser können und so werden wir viel mehr Arbeitsteilung auf der Platine sehen. So hätten die Hauptkerne auch mehr Kapazitäten und damit hätte die gesamte Komponente mehr Leistung. Da läuft dann eben auf der GPU neben der Grafikleistung noch eine komplette KI Berechnung in vielen Hinsichten und auf der CPU könnte man auch KI Kerne aufbauen, die dann andere Arten von Verhalten von NPCs und Co. möglich machen. Das nur "Optisch" zu betrachten, halte ich für zu kurz gefasst.
Also bei dem bisherigen Herstellungsverfahren und dem aktuellen Aufbau der Hardware sind wir langsam am Limit, was die reine Leistung angeht. Der Fertigungsprozess ist bei 3nm angekommen, da ist bald das Ende des Machbaren erreicht. Ich denke man muss was die Zukunft angeht hier CPU und GPU voneinander unterscheiden. Während die CPU immer weniger wichtig wird im Gaming, da ab WQHD sie kaum und bei 4K gar keine Rolle mehr spielt, sind die aktuellen CPUs mehr als ausreichend. Ein aktueller 8-Kerner mit 16 Threads, wird auch die nächsten 5 Jahre noch ausreichen, erst recht ein 16-Kerner mit 32 Threads. Bei der GPU jedoch denke ich, dass wir da in den nächsten Jahren einen Wandel erleben werden, von dem bisherigen Konzept zu einem neuen Konzept/neuem Aufbau/neuer Architektur. Denn hier sind sich die Insider einig, das aktuelle Konzept hat bereits ein EOL und muss durch ein neues ersetzt werden. Hier wäre denkbar, dass wir bald GraKa's haben werden, die nicht mehr nur eine GPU haben, sondern mehrere mit unterschiedlichen Aufgaben. Die eine macht das Rasterising, die andere hat die CUDA Cores, die dritte macht dann Frame Generation etc. Auch was die Speicher angeht, wird es Zeit für was neues. Da es bei Karten mit 32 GB schon schwierig wird, diese Chips noch alle auf die Karte zu bekommen, bei dem bisherigen Adressschema der GPU's. Man kann gespannt sein, wohin die Reise gehen wird, vor allem im GPU-Bereich. Im CPU-Bereich, denke ich, ist noch kein Anreiz dafür, da, wie gesagt, die aktuellen CPUs im Gaming noch für die nächsten Jahre reichen werden, es sei denn, das neue GPU Konzept benötigt spezielle CPU-Features, die sie aktuell noch nicht haben, danach sieht es aber noch nicht aus.
KI wird nicht nur die Optimierung der Abläuft bzw. Softwareseitigen verbesserung voranbringen auch für die Optimierung der Hardware wird schon KI verwendet. Um neue CPU Architekturen zu entwickeln.
Wow freut mich total zu lesen. Ich selbst würde mir keine 1 sondern ne 2+ geben weil ich an einigen Stellen verbesserungspotential sehe , aber man ist immer sein größter Kritiker
Nunja, da muss man deinen werten Kollegen das Monty aber auch in Schutz nehmen… Es ist auch meine ich rausgehört zu haben seine Meinung, dass es egal ist wie die Leistung nachher zustande kommt. Er hat nur, wie du selbst und auch noch andere sehr bekannte YT Kollegen (dich auch mit einbegriffen) einen Hang für reißerische Überschriften. 😂 aber an sich ist das ja absolut kein Problem, wenn danach aufgeklärt wird. Aber wie immer ein Top Video 😌🙌🏻
Da hast du schon recht! Wir neigen alle zu reißerischen Titeln! Mir hat ein kleinwenig die Einordnung in dem Video gefehlt. Aber es ist in Ordnung! Das war auch kein Angriff, sondern mein Eindruck :) vielen dank dir :)
Heute wird ja Alles AI genannt. Dahinter steht wie bei H.265 nur ein Algorithmus. Sonst würde die KI ja mit jedem Spielstart lernen und noch mehr Frames generieren können. Die heutige Hardware muss leider nur noch die schlechte Programmierung über Assembler kompensieren. Sauber Programmieren wäre mal ein Fortschritt. Auch wenn die neuen Spiele immer besser aussehen, sind sie vom Gameplay her meist grotte. Was juck mich die Qualität von Spiegelungen? Und das nachplappern von Hochglanzversprechen der Hersteller macht es nicht besser.
Sobald das Bewusstsein durch Neuralink im Upload kommt, wähle ich nen D-Wave Quantenkomputer von A-Mazon oder Schwarzfels All-Add-Inn und lasse das Neandertalerpack bei ihren Faustkeilen :-D
Eigentlich finde ich, das ganze klingt positiv! Veränderungen sind auch immer Chancen und wenn wir alle irgendwie mithelfen diese Veränderungen in eine positive Richtung zu lenken, dann kann daraus wirklicher Fortschritt werden! Ich betrachte Veränderungen auch immer kritisch, sehe sie aber auch immer gerne und gestalte sie auch gerne mit! Anders gesagt; Lasst uns neue Dinge ausprobieren! Ohne Veränderungen würden wir nicht da sein wo wir heute sind und außerdem kann man immer wieder zum alt bewährten zurückkehren, wenn das Neue nicht so funktioniert wie erhofft. Aber oft genug haben selbst kritisch betrachtete Veränderungen am Ende eine Bereicherung ergeben!
Einen wichtiger Aspekt, der aussen vor gelassen wurde ist die weiterentwicklung der FETs. Auch wenn wir das physikalische Limit der Größe erreicht haben, wird die Anzahl der Transistoren weiter steigen. Eine Möglichkeit z.b ist die FETs dreidimensional anzuordnen (was teilweise bereits so gemacht wird). Leider lässt sich dazu relativ wenig im Netz finden, da diese Technologien noch proprietär sind.
Ich denke, man kann es so sagen: die Zeiten, in denen wir massive Leistungssprünge dadurch bekommen, dass immer mehr Tramsistoren auf wenig Platz geballert werden, neigen sich dem Ende. Ab nun bekommen wir die Leistung halt durch Innovationen, wie X3D, Upscaling, ggf irgendwann sogar analog-digital-hybridsysteme, etc.
Spannend auch das einige der Technologien wie zum Beispiel DLSS auch auf älterer Hardware läuft und dadurch selbst ältere Computer wieder mehr leistung bekommen.
Ich finde die neuen Wege ganz interessant. Das kommt bei den Kunden aber nicht gut an wenn jeder sein eigenes Süppchen kocht. Die Unified Shader waren bei Release der Xbox 360, ATI (heute AMD) exklusiv. Aktuell gibt es keine GPU's mehr ohne Unified Shader. Auch asynchron arbeitende Shader sind mittlerweile ein einheitlicher Standard. Von allen bisher veröffentlichten PC Spielen mit beschleunigter 3D Unterstützung, sind allerdings gerade einmal 1% (Wenn überhaupt) in der Laage DLSS, FSR, xlss etc zu nutzen. Ich blick da selbst kaum noch durch. Es ist toll das ein dritter Konkurent auf dem GPU Markt ist. Aber egal von welchem Hersteller ich eine Karte kaufe, ich habe am ende je nach Spiel gegenüber der Konkurenz teilweise starke Nachteile. Das nervt extrem. In zusammenarbeit mit API (Vulkan, DirectX u.s.w.) und Treiberentwicklern müssen KI gestütze Standards her. Wenn das der Fall ist, werde ich mich auch nicht über weniger Mehrleistung bei der Rohleistung beschweren. Auch im Videoschnitt bringt Rohleistung oft mehr wie AI oder andere Konzepte.
Grenzen sind dafür da um sie zu überwinden, neue Ideen & Ansätze schaffen und schauen wie weit man damit kommt. Die Mehrzahl mag wohl keine Veränderung, aber durch Routine wird man Betriebsblind 😂 neues entdecken, altes weiterentwickeln und die Leute die keine Veränderung mögen an die Hand nehmen um ihn zu zeigen, dass es nicht immer was schlechtes sein muss 😋 tolles Video, mach weiter so ♥️
Ich würde mir mehr Fokus auf einen relativ großen Sprung Technik wünschen, als jedes Jahr einen kleinen Sprung. Quasi alle 3 oder 5 Jahre neue Hardware. Dann aber mit allem was möglich ist. Ich verstehe das ganze System, auch wirtschaftlich gesehen. Finde es nur schade, das der Egoismus, wirtschaftlich stärker zu werden, größer ist, als an das große ganze und die Gesellschaft zu denken....... Egaaaaaal
Interessant ist aber auch die Frage, wäre alles so gekommen(Doppelte Leistung "Transistoren" alle 2 Jahre) wenn Gordon Moore es nicht gesagt hätte? Dadurch dachten die Menschen halt auch das uns Transistoren ewig begleiten würden. Mir fällt da ein tolles Filmzitat zu ein. Zitat: Arthur: "Ich pflanze Ihnen jetzt einen Gedanken ein: Denken Sie nicht an Elefanten. Woran denken Sie gerade?", Seito:"An Elefanten". Vielleicht wäre ja alles anders gekommen, vielleicht hätten wir sogar ganz andere Technik, so wie wir uns JETZT Gedanken machen müssen über andere Technik. Ich denke Transistoren werden uns auf längere Zeit gesehen nicht weiter bringen, Transistoren CPU´s werden bald an ihre Grenze ankommen. Zum Thema GPU: Früher hat man über die Leute gelacht die dachten das man sich mehr Ram oder eine bessere CPU herunterladen kann. Bald kann man sich mehr GPU Leistung herunterladen anstatt sich eine neue GPU zu kaufen.
Du willst also elektrische Schaltungen ohne elektrische Schaltungen? Auf welche Technik hoffst du denn? Und in wie fern kann man sich Speicherchips herunterladen?
Ist das eigentlich nur bei mir so oder hast du in deinen Spiele-Aufnahmen wie bei 5:48 ein tearing Problem? Das ist mir auch in den letzten Videos schon aufgefallen
@@KreativEcke Bei mir (Gigabyte M28U 4k 144Hz) passiert das immer, wenn ich spiele im Vollbildmodus mit mehr FPS spiele als mein Monitor Hz hat. Wenn ich im ramenlosen Fenstermodus spiele läuft alles super auch mit mehr FPS. Ansonsten, haben sich eventuell diene free/g-sync Einstellungen nach einem Treiberupdate verändert/resettet?
Sehr gut recherchiert! Die klassischen CPUs mit Transistoren sind in der Tat an den Grenzen der Physik. Irgendwann kommt nun einfach der Punkt, an dem ein Transistor nur noch aus einem Atom besteht. Dazu die Anekdote: "Systeme verändern sich oder sterben." Es ist nicht die Frage, ob man die grundlegenden Veränderungen, die jetzt und in naher Zukunft in der Branche stattfinden werden gut oder schlecht findet. Innovation ist nun mal das, was die Gesellschaft langzeitlich betrachtet erhält und weiterbringt. Die Frage sollte eher sein, wie wir die Veränderungen, welche zwangsläufig kommen werden, möglichst effektiv aber auch schonend einbringen, also zwar zügig, aber trotzdem mit Rücksicht auf die etablierten Strukturen. Denn ohne diesen wäre es nur ein kurzes Streben. Ich finde das sehr spannend. Man bekommt richtig das Gefühl, an einem Wendepunkt zu stehen. Ab jetzt kann der menschliche Erfindergeist in der Branche wieder richtig ins rollen kommen, mit neuen Fertigungsverfahren, Architekturen, Materialien, aber eben auch KI und .... Ich sehe da für mich meine persönliche Chance mich einzubringen. Schreibe 2025 Abitur und dieses Thema packt mich schon fast seit der Grundschule. Gerade deshalb erfüllt es mich mit Faszination und Neugier, zu sehen wie doch so ein gewaltiger Umbruch vor uns liegt. Hier wird bestimmt, wie unser aller Zukunft aussehen soll. Vielen Dank für das Video
Wenn man moors law nur auf den transistor count anwendet sind wir noch lange nicht am Ende, den er hat damals von monolitischen chips gesprochen was anderes gab es zu der Zeit ja noch nicht, was diese betrifft sind wir mit den aktuellen Herstellenungs Methoden bald an den physikalischen Grenzen weil einfach nicht mehr kleinere strukturen erzeugen können. Allerdings sind wir ja schon bei chiplets angekommen, wenn wir also die Chips dünner gestalten sie aber größer machen kann man die Energie dichte und damit Temperatur im Verhältnis zur Fläche wieder senkt. Also einfach gesagt die Größe der Chips wird steigen, die cpu und gpu dies werden größer, dadurch die Produktion anfälliger, der stück preis höher, aber die Leistung und der Transistorcount größer. Wir werden neue kühllösungen, mainboard, cpu und Grafikkarten form - faktoren entwickeln müssen, die Designs von gpus und cpus werden sich annähern. Und das wird solange weitergehen bis wird eine alternative zum aktuell verwendeten Basis Material aller Chips haben, also Silizium. Spätestens wenn wir Material haben mit dem man entweder noch kleinere Strukturen erzeugen können wird, oder die grundlegende Funktionweise sich ändert (Quanten computer, oder Lichtleiter anstelle Transistoren etc) werden wir wieder ähnliche gains erreichen wie wir sie bisher bei Silizium Chips hatten. Die Zukunft wird spannend 🔥🚀.
Also in der IT dreht sich alles um Weiterentwicklung und Veränderung. Und ja, aktuell stoßen wir in der klassischen Transistorfertigung an die Grenzen der Physik. Wer möchte kann sich ja mal damit beschäftigen, was es eigentlich heißt im 5nm oder 6nm Verfahren zu fertigen. Was da für Licht überhaupt benötigt wird und wie hoch der Aufwand ist dieses Licht überhaupt zu erzeugen. Alleine schon die Spiegel die benötigt werden um das Licht dann in entsprechende Bahnen zu lenken, müssen super eben sein. Da wird mit Toleranzen von einer Atomhöhe gearbeitet. Das Nächste große Ding wird der Quantencomputer werden und genau so wie damals in den 40ern und 50ern wird es eine Weile dauern, bis jeder dann seinen kleinen Quanten-PC zu Hause stehen hat. Das werden spannende Zeiten!
Und da liegt die Exzellenz von Nvidia. Trends erkennen, und sofort umsetzen .. und leider auch dementsprechend Preise nehmen. Und auch zu AMD Athlon Zeiten hat man gesagt: 1Ghz wird nicht möglich sein wegen der fehlenden Kühlung ... joa ... gut ^^
Deine Videos sind einfach klasse. Bitte mache weiter so😊. #kreativefragen mein Rechner nervt mich seit Tagen mit dem Windows 11 Update. Lohnt sich mittlerweile das Update. Ich hatte anfangs von vielen Problemen mit AMD Prozessoren gelesen, ist das immer noch so? Vielen Dank Schöne Grüße 🖖
Kann mir sogar vorstellen das wir irgendwann ne zeit erreichen wo wir dann für die Software zahlen müssen, sei es für eine neue Erweiterung oder wie in einem abo (wenn es weiter Richtung Software ersetzt oder Komplimentiert hardware geht)
Danke für das Video. Ich vermute das die PC Bauteile für die nächsten ca. 50 Jahre, langsam stetig größer werden (um diese auch noch besser kühlen zu können) aufgrund von Multi-Chip Systemen. Anstatt ein GPU Chip, sind dann zwei auf einer Karte (siehe nächste Serie). Nach den 50 Jahren (geschätzt) wirs der bisherige PC durch Quantencomputersysteme abgelöst die durch Ki super viel Leistung bieten. Bis dahin wird 8k/16k Auflösung Standard sein und auch sehr lange so bleiben (aufgrund der Datenmengen und Grafik). Erst dann wird das ganze stetig mehr auf Effizienz getrimmt anstatt mehr Leistung, um das ganze energiesparender zu betreiben (und auch die Software besser wird).
#KreativeFrage Was wäre wenn AMD bei der 7900xtx nicht GDDR6 Speicher verwendet hätte, sondern HBM2/3 benutzt hätte. Wäre AMD schneller als eine 4090 bzw warum nutz man kein HBM2 speicher mehr in HighEnd GPUs
Ich spiele seit Tagen mit dem AMD Preview Treiber und dem treiberseitigen Frame Generation. Macht Spaß alle möglichen Games damit auszuprobieren. Und wenn ich mir vorstelle was heute geht und das innerhalb weniger Jahre mit KI Technologien, dann könnten klassische Benchmarks auch irgendwann aussterben. Man schaut dann nicht mehr auf Frames, sondern darauf wie gut die Technologie in den Spielen und Treibern implementiert ist, also wie gut das Spielerlebnis ist (Bildqualität und Stabile Frameraten). Mit etwas Glück wird man nämlich zukünftig in jedem Game irgendwie auf 100 FPS oder whatever kommen. Dann spielt die Energieeffizienz, Wärme und Lautstärke vielleicht eine größere Rolle.
Tolles Video. Kann ich echt nichts hinzufügen. Es wird sich immer etwas im Wandel befinden. Das Auto bekommt als Vergleich ebenfalls autonomes Fahren. Dies wird immer Wichtiger. Dies ist ebenfalls eine KI Unterstützte Funktion. Ich denke das Wort des Jahres wird KI / AI sein 😁✌
Finde für uns alte Hasen is das echt schwierig. Bin inzwischen 39 und damals hieß es: "Willst du mehr Rohleistung, musst du mehr bezahlen" Jetzt wandeln wir aber auf dem Weg das die Karten sich kaum mehr verbessern, sondern wir einfach die Software dahinter entsprechend schreiben. Ich sehs schon kommen, der DLSS Code wird nächstes Jahr an die Serie angepasst, dann wäre das bei der RTX 5000er Serie halt DLSS 5.x und wir bekommen die entsprechende DLSS Version auch nur noch auf der entsprechenden Serie. Marketingtechnisch gibt man halt alles um dieses AI Zeug zu verkaufen, aber für die alten Füchse wirkt das ein wenig extrem nach Augenwischerei. Vorallem wenn man dann die einzelnen Vergleiche sieht, die man von offizieller Seite, egal ob nVidia, AMD oder Intel, präsentiert bekommt. Prinzipiell hätte ich nichts gegen Upscaling wenn es entsprechende Leistung bringt. Aber die Tatsache wie es uns eben vermittelt wird, und was für Preise man dann dafür aufruft, find ich seit DLSS1 schon mehr als erschreckend. Die Moores Law aussage von heutigen Intel MAs, oder dem wo du im Gespräch hattest, is halt interessant. Wenn man bedenkt wie sie ihre Refreshes seit Jahren machen und sich auf ihrer Leistung ausgeruht haben, weil man ja nicht musste.
nicht nur die fläche ist ein problem, sondern auch das ein Signal (elektrisch gesehen, einfach eine bestimmte zeit anliegen muss, damit es als valides signal und nicht als "störfeuer" gesehen wird) diese Zeit kriegst du mit aktueller Architektur nicht weiter runter. Hier kam ja damals der Trend zur Paralellisierung her. Was auch richtig ist
Hallo, ich überlege meinen ersten Gaming-PC zu bauen und wollte dich oder die COmmunity fragen ob die Komponenten Zusammenstellung stimmig ist. Ich dachte an folgendes (ja ist Dead-End, das ist mir egal): Sapphire Pulse Radeon RX 6700 XT, 12GB GIGABYTE B550 Gaming X V2 AMD Ryzen 7 5700X Western Digital WD_BLACK SN770 NVMe SSD 1TB, M.2 be quiet! Pure Power 12 M 650W ATX 3.0 Kingston FURY Beast DIMM Kit 16GB, DDR4-3600, CL17 be quiet! Pure Rock 2 Black be quiet! Pure Base 500 schwarz, schallgedämmt Ist das Netzteil übertrieben? Vielen Dank :)
Richtig . Alles hat mal ein Ende. Rasterisierung ist noch nicht am Ende. Aber es kommt und wir müssen eben vorher reagieren. Wenn du auf eine Wand zuläufst und dahinter weiter musst, solltest du halt nicht warten bis du vor der Wand stehst, sondern schon vorher schauen wie du da drüber/vorbei/durch kommst, sonst heisst das erstmal Stillstand! Und KI Performance wächst eben deutlich einfacher und schneller weil es neuer und weniger erforscht ist. Wie bei fast allem Neuen so(E-Auto, grüne Stromgewinnung....)
Moin! Wenn du sagst, dass wir uns momentan an einem Wendepunkt was zukünftige Leistung angeht befinden, ist es dann sinnvoll jetzt einen High-End Gaming Rechner zu bauen? Mit RX7900XTX und allem was dazu gehört oder sagst du, man solle lieber noch 1-2 Jahre warten (meine aktuelle GPU RX5700 kommt langsam an ihre Grenzen in Starfield, aber es geht noch) und die mögliche neue Generation mitnehmen? Großes Lob übrigens an dieses Video. Fand ich sehr spannend, mach weiter so.
Veränderung ist geil und die, die sich nicht anpassen, gehen dabei zur Grunde. Dafür gibt es in der allgemeinen Unternehmensgeschichte genug Beispiele. Ob Schlecker, Nokia oder auch so etwas, wie die N64 „Kassetten“. Nintendo ist dabei nicht zur Grunde gegangen, aber bei der Vorstellung der Konsole gab es nur 2 Spiele und nur weil eins davon Super Mario war, lief das ganze noch gut
#kreativefragen Ich habe mir einen neuen pc gebaut Hardwaredealz 900€ pc( mit 3060) aber wo kann ich die lüfter vom pop air ans mainboard schließen? Weil bei jrainbow passiert dann gar nix
Super interessantes und vor allem informatives Video. Vielen Dank dafür :) P.S. Ist das Spulenfiepen einer ASUS ROG Strix 4080 sehr krass hörbar im Vergleich anderer Marken ?
Hallo Daniel, wie immer ein sehr informatives, interessantes Video. Kurze Frage zu der 4090 FE: Ich überlege, mir eine zu holen. Dabei ist mir jedoch aufgefallen, dass es einmal eine Steckvariante mit Lüfter nach unten und einmal nach oben (wie im Video) gibt. Wie wirkt sich das denn auf die Kühlung aus bzw. agiert der Lüfter dann immer noch für Luftansaugung oder ist er dann quasi für den Abtransport der Luft zuständig? Meines Erachtens nach geht der Chimney-Effekt doch dadurch verloren, oder? Würde mich über eine Antwort freuen :)
@@Legoloewe Vielleicht habe ich es etwas missverständlich ausgedrückt. Ich meinte eher die Anschlussposition, also dass dieser einmal weiter oben und weiter unten angebracht ist, sodass der Lüfter je nachdem nach oben oder unten zeigt.
Sehe die Gesellschaft als ein Problem. Ja ich gehe absolut mit dir. Die Lösung sollte eine Rollenspielen nicht der Weg dahin. Viele Schulsysteme und Arbeitswege sind aber noch auf dem alten Weg.
Das mit den Veränderungen sieht man auch ganz stark bei den autoliebhabern, sowas ähnliches wie bei uns rgbisten. So wie wir keine pcs ohne rgb mögen, mögen die Autos mit elektronischen antrieb nicht sondern die Autos mit nem verbrenner
Hey Kreativecke, ICh bin vor kurzem zu Modularen AIOS gestoßen und bin sehr Interessiert daran, wäre es möglich das du dazu Videos machst? Weil bisher habe ich kaum bis nie wirklich Videos über Modulare AIOs gesehen wenn dann für Geschlossene Systeme.
Ich sehe dass genauso wie du. Mir ist relativ egal wie nvidia oder AMD die Leistung erbringen ob Hardware basiert ober Software Hauptsache das Endergebnis beeindruckt mich. Ich Vergleich dass ein wenig mit alten Autos. Bin 83 geboren und kann mich noch gut an Papas Ford Granada erinnern 4.2 oder solar 5.5 Liter Hubraum aber keinen 200 PS. Heute ist es möglich aus einem 1.8 l Motor locker 150 180 PS rauszuholen..eine Optimierung der Technik ist doch super. Wenn der Kunde davon profitiert.
Veränderungen sind wichtig für mich weil man sich privat und Beruflich weiter entwickeln kann und bei Computern sind sie extrem wichtig. Man muss nur lernen mit Veränderung klar zu kommen. Der Rest kommt von selbst finde ich. 😊
Ich finde den Preis ziemlich wichtig, auch wenn du das eher verteidigt hast ! Die Grafikkarten sind jetzt schon viel zu teuer und wenn das so weiter geht und ne 6090 plötzlich 2500€-3000€ kostet, wird sich die niemand mehr kaufen. Die 4000er haben ja schon echt schlecht Performed, weil sie einfach nicht mehr bezahlbar sind. und da muss das Verfahren optimiert werden, sonst sehe ich für den PC als gaming Gerät schwarz.
Und ich weiss trotzdem nicht welche Graka für um die 500€ ich nehmen will bei nem Gesamtbudget für einen neues 1500€ System. Frage mich ob es sich auch lohnt noch auf Black Friday Deals zu warten.
Ich denke diese Änderung wird viel bringen. Hardware ohne Software wäre unbrauchbar da es nichts gibt was sie anwendet. Vor allem kann durch KI auch ältere Hardware plötzlich deutlich besser funktionieren. Beispiel ist da auch Apple oder Google die ihre Software gut genug anpassen um mit den selben Geräten über Jahre zu arbeiten ohne das Gefühl sie würde langsamer werden. Mit guter Software und KI braucht man nicht immer und mehr Leistung sondern kommt vielleicht mit den selben Komponenten wie vorher über mehrere Jahre zurecht
Die Grenze der taktrate haben wir ja seit einrm Jahrzehnt leider erreicht. Danach ging es nur noch um Miniaturisierung um eine höhere und effizientere transistordichte zu erreichen. Der diesjährige deutsche Nobelpreisträger in Physik meinte aber dass durch seine Forschung taktraten mit 100000 fachen Leistung in Zukunft möglich sein könnten. Dann würde das Rennen wieder starten, was mich sehr freuen würde. Ich mag den Gedanken von ki generierten Bildern leider nicht, da es nur die bestmögliche Annäherung ist, aber es ist eben kein vollkommen echter errechneter Frame. Wird sich aber nicht vermeiden lassen und der Fokus in Zukunft mehr darauf liegen.
Ich denke, wenn man visuell irgendwann auf das Niveau der Realität rankommt (rein durch Technikhardware, AI oder beides in Kombination) oder sogar diese übertrifft und man gar nicht mehr unterscheiden kann, was Echt ist und was nicht, dann haben wir ein Wendepunkt erreicht oder auch schon überschritten, wenn es dazu kommen sollte. Besonders dann, wenn auch noch die anderen Sinnesorgane (Ohren, Haut, Nase, Geschmacksinn und Gleichgewichtssinn) realitätsnah stimuliert werden, dann ist die Büchse Pandora offen. Die Zukunft ist geduldig, denn sie weiß, dass ihre Zeit kommen wird.
Stimmt nur bedingt, denn ohne steigende Rohleistung, sei es durch (mehr) Transistoren, Takt, oder spezielle Kerne gibt, es keine neue, schnellere, oder mehr "Features". Die ganzen "Grafikverbesserer" machen eben nur eines: Sie verbessern den "Look" und/oder skalieren die Bilder hoch. Wenn man in Zukunft immer mehr realistisch simulierte Welten haben möchte (ala Matrix), dann benötigt man Rohleistung. Eine "KI", welche immer besser werden soll, lebt auch nicht nur von Luft und Liebe und DLSS, RT, und Co. nutzen ihr selbst dabei relativ wenig. 😉
Ach Grenzen. Sowas habe ich schon vor 10 - 15 Jahren gelesen. Damals hieß es immer, ja Physik und die Grenzen liegen bei maximal 7nm. Und nun haben wir schon 3nm. Grenzen waren u.a. immer die Belichtung der Materialien. Weil für die Belichtung des Halbleiters und für den Ätzvorgang sehr kurze Wellenlängen nötig sind. Um das aber zu schaffen wird auch die Parallaxe immer wichtiger. Also das Licht kommt ja nicht nur von oben, sondern auch leicht seitlich. Und je größer der seitliche Einfall umso größer die Ätzfehler, also die Bahnen werden dünner. Für die 3nm Technologie ziehe ich schonmal meinen Hut. Silicium dotiert (1 Atom und seine Wirkweite), scheint um die 500pm also 0,5nm zu sein. Auch ergeben sich langsam Quanteneffekte, die auftreten können, wenn Material, welches die Leiterbahnen trennen soll, dann doch plötzlich Strom leitet (Tunnelstrom). Wirklich merken, tut man die nicht weiter steigende Performance schon seit ca. 10 Jahren. Sie steigt einfach nicht, es werden nur mehr Kerne. Aber was bringen Kerne, wenn sie nicht optimal genutzt werden. Auch haben Bugs wie Spectre und Meltdown die Performance gesenkt. Aber es gibt Hoffnung. SSDs hatten den nächsten Schub geleistet, denn was bringt eine superschneller CPU, wenn diese die meiste Zeit auf die Eingaben und Ausgaben wartet. Auch werden immer mehr Anwendungen, allein wegen des Smartphones, immer performanter. Das liegt daran, dass die Programmierung von Multithread-Anwendungen immer einfacher wird. Spiele sind per se schon Könner in dieser Richtung. Doch auch sie profitieren von dieser Richtung.
das einzige Problem ist, dass Tests dann weniger vergleichbar werden, da es bei verschiedenen Features trotz gleicher Grafikeinstellungen zu unterschiedlicher Optik kommen kann. Also sehr schwer, Grafikarten "fair" zu vergleichen.
Ich glaube die Frage die man sich stellen muss, brauchen wir diese Art der Veränderung und Weiterentwicklung eigentlich ? Es wird immer weiter gehen, ob jetzt nach Moores Law oder langsamer, nur wieviel nutzen wir diese Weiterentwicklungen überhaupt. Klar geht es immer höher schneller und weiter, aber braucht der normale Nutzer das überhaupt ?
Man kann die Veränderungen als ein Anzeichen dafür sehen, dass sich das Denken nicht mehr weiterentwickelt. Gerade in der Größenordnung in der heute gearbeitet wird, spielt die Dreidimensionalität zwar eine gewisse Rolle, aber es basiert immer noch auf der Idee von Linearität. Alle Daten basieren dabei auf 1 und 0. Auch wenn wir hier schon erste Phänomene der Gleichzeitigkeit verschiedener Zustände kennen (Mehrkernprozessoren, Multithreading), so reiten wir noch immer dasselbe Pferd und wenn wir an die Grenzen von Moores Law stoßen, wäre das dem Tod des Pferdes abstrakt vergleichbar. Statt also das sprichwörtlich tote Pferd zu reiten, sollten wir absteigen und einen anderen Weg der Fortbewegung finden. Die Verwendung von KI-gestützten Prozessen ist m.E. eher ein fauler Kompromiss, als das Neudenken der Datenverarbeitung. Ich verstehe zwar wenig von der neuen Technologie die analoge und digitale Datenverarbeitung in einem vereint, aber dieser Grundgedanke scheint mir in eine Richtung zu gehen, die ich für insofern vielversprechend halte, dass Daten hier nicht mehr linear verarbeitet werden, sondern in gewisser Weise dieselben Eingaben zu unterschiedlichen Ausgaben führen, da analoge Daten eine relative Varianz haben und durch verschiedene Faktoren beeinflusst werden können, die für digitale Daten keine Rolle spielen. Letzteres mag für die Entwicklung von KI von herausragender Bedeutung sein und könnte als solche u.U. sogar zu einer kreativen KI führen (da die gegenwärtige ja nur entsprechend verschiedener Erfahrungswerte Informationen neu kombiniert, aber nicht wirklich neues erschafft - da hierfür mindestens die Eingaben von realen Personen erforderlich sind). Ich würde daher sagen, ja Moores Law muss neu interpretiert werden und diese nicht mehr als im engeren Sinne Verdoppelung der Integrationsdichte ausgelegt werden dürfte, sondern im weiteren Sinne als einer Verdopplung der Leistungsfähigkeit von Rechensystemen. Ein Beispiel dafür wäre u.U. ein neues Rechen-/Verarbeitungssystem, das die Bildbearbeitung nicht mehr auf ein zusätzliches System wie eine Grafikkarte auslagert, sondern beispielsweise eine neues Verarbeitungssystem permanent eine virtuelle raumzeitlich konsistente Umgebung erzeugt, in der regelgeleitete/naturgesetzliche virtuellphysikalische Gegenstände/Welten/Realitäten simuliert werden würden und beispielsweise die Ausgabe von Bilddaten dann analog stattfinden würde, ein Bildschirm (oder anderes bildgebendes Gerät) am Ende technisch mehr mit einem Chamäleon gemeinsam hätte als mit einem heutigen Monitor. Will meinen: Komplexe Rechenprozesse finden nicht mehr in realphysikalischen Einheiten statt, sondern in der virtuellen Umgebung werden neue Rechensysteme geschaffen, die in dieser Umgebung betrieben werden, d.h. die eigentliche Verarbeitung findet in der virtuellen Umgebung statt. D.h. diese Systeme würden u.U. wieder die Größe eines Zimmers oder gar ganzen Hauses einnehmen, um überhaupt funktionieren zu können, aber Moores Law würde dann hier wiederum greifen und diese Systeme würden mit der Zeit kleiner und leistungsfähiger, würden zu neuen Technologien führen, die wir uns heute nicht einmal vorstellen können.
Wie im Video gesagt zählt für mich mehr das die Grafik sich entwickelt und nicht Rasterleistung oder Transistordichte... Leider gibt's bei den ganzen KI Entwicklungen usw aber vieles was uns als Endkunden gar nicht schmecken könnte... Den neben den KI Kernen auf der Karte hat das ganze eben auch ein starke Software Komponente und nicht nur beim gaming,sondern generell gibt es da klare Bestrebungen zu Abo Modellen gehen zu wollen. Kann am ende heißen das wir nicht mehr nur von dem Spieleschmieden ausgenommen werden ,sondern möglicherweise abo-gebühren auf die Nutzung von DLSS oder ähnlichem zahlen werden mit der Begründung "kannst deine Karte doch nutzen, aber KI beschleunigung gibt's nur im Abo" ... Tja und weil man schöne aufwendige spiele in vernünftigen Bildraten evtl. Dan nur noch mit KI genießen kann.... Das zieh ich mir auch nicht aus den Fingern... Selbst Hausgeräte Hersteller lieben ja die Zukunftsvorstellung eines Tages keine Geräte mehr zu verkaufen sondern viel mehr abo-modelle zu verkaufen ... Dan kaufst du die Dienstleistung "spülen" statt ne Spülmaschine... Und PC's sind an diesen Entwicklungen um einiges näher dran... Ich mag es auch nicht das immer so getan wird ,auch in den Videos hier, als wen der Preis viel mit der Produktion oder den kosten zu tun hätte. Jede Firma die es sich durch einen Wettbewerbsvorteil leisten kann nimmt nicht was sie MUSS als Preis, sondern was sie KANN... In diesen Fällen haben Preis und kosten überhaupt nichts mehr miteinander zu tun. Egal ob es der Mercedes für 200tsd ist oder die Rolex oder auch die tolle Nvidia Schieß mich tot mit super KI ... Man bezahlt einen Fantasiepreis von dem der Hersteller glaubt dort ist der sweet Spot zwischen Verkaufs Menge und Preis... In der Herstellung kostet das Produkt nur noch Bruchteile dessen was der Kunde bezahlt... Wäre im übrigen sicher auch Mal ein Thema für ein Video ;) .. LG
War wieder ein sehr interessantes Video! Kannst du mir eine gute 75% Tastatur empfehlen, die aber so ungefähr 160€ kostet? Die Asus ROG Azoth ist mir leider zu teuer, allerdings mag die Größe sehr gerne.
Ich hätte einen etwas andere frage 😅 Ich möchte mir meinen ersten Gaming Pc kaufen, mit i5 13600kf und rtx4070ti Sollte ich noch etwas warten oder gleich kaufen ? 🤔
Ja! Warte mal bis Intel seine neuen CPUs rausgebracht hat. Das wird nicht mehr lange dauern. Die werde auch keinen großen Sprung machen. Aber eventuell günstiger
Ok Moore macht uns bei 1nm und kleiner einfach das Leben schwer. Aber für die Zwischenzeit werden die Hersteller einfach auf 2 dann 3-4 Karten usw. Setzen bis der Quantencomputer ins Gaming Zimmer einzieht. Also Einfach Cool Bleiben Und Abwarten! Was Auch Kommt Es Wird Grandios......
Also mein Mathematik Leherer hatte immer gesagt, das auch der weg eine wichtige rolle zur Lösung beiträgt. :P Ja, mir ist es egal wenn ich so mehr leistung erhalten um die neusten Games zocken zu dürfen sehr gern.
Schönen guten abend/tag wann immer ihr es auch seht ich bräuchte eventuell hilfe meine ryujin 2 360mm neu schon eingebaut wird als auswerfmedium angezeigt und ich habe keine ahnung warum alles richtig angeschlossen lüfter sind am cpu header angeschlossen wo sie dranne sollen auch mall umgesteckt aber nix :/ meine cpu i7 13700k geht auf 50 grad meist nicht durchgängig aber komisch ob wohl er nur imDesktop betrieb läuft 😅
Ich könnte mir vorstellen das die Kern Zahl zurück geht, und CPUs ki gestürzt Chips bekommen um das Maximum aus der Anwendung rausholen rausholen und zurzeit wird die ki Technik schon genutzt siehe Nvidia in Bereichen von Grafik Darstellung ( GPUs als RTX) dlss ist in meinen Augen die Zukunft für gaming und Work (filme etc)
Die Veränderung ist komplexer geworden. Raster lässt sich mit simplen x mal x mal X berechnen und hervorheben. Jetzt Versuch das mal mit den ganzen Zwischenberechnung Dank diverser Zusatzchips auf dem Board ...
Wie schnell kann der RAM (ddr5) max. mit dem AMD Ryzen 7 7700X kombiniert werden? #KreativeFragen: kann man CS:GO und Fortnite mit einem Intel Celeron G5905 spielen? :D
Grundsätzlich interessiert mich natürlich eher die Rasterleistung. Aber am Ende ist es wie in der Schule im Mathe-Unterricht - Das Ergebnis zählt und nicht der Rechenweg! :)
Ich finde Veränderung gut und wichtig. Nur mit Veränderung können wir uns weiterentwickeln (überall und in jeglicher Hinsicht), wie einmal jemand sagte: Das Gleiche zu machen und ein anderes Ergebnis als sonst zu erwarten, ist verrückt. Kommt eig. mal noch was zu deinem NAS? Hast vor n paar Monaten angekündigt und ich hab bislang nix dazu von dir gefunden, oder bin ich blind?
Wir sind erst am Anfang des Machbaren. Da wird es noch eine unendliche Menge zu tun geben. Natürlich kommen wir an Grenzen, jedoch wird man irgendwann die CPU mit einer ganz anderen Architektur ersetzen.
Es ist wie mit dem Weltall momentan. Selbst wenn wir zum Mars kommen, wird es gefühlt unmöglich sein, andere Galaxien zu erreichen (auch mit Lichtgeschwindigkeit). Jedoch, wenn Einstein recht hat, dann werden wir irgendwann durch Wurmlöcher reisen können, um andere Galaxien zu erreichen. Wer hätte jemals 2000 oder 2010 geglaubt, dass wir einmal so etwas wie DLSS oder FSR bekommen würden? :) Was die Leistung einfach irgendwann verdoppelt oder noch so viel mehr kann! Und das quasi nur mit Software.
Man wird eben Grenzen haben, jedoch dann nach neuen Grenzen suchen. CPU geht nicht mehr kleiner, ja dann suchen wir eine andere Möglichkeit, um noch mehr Leistung zu bekommen.
Supraleiter bei Raumtemperatur und quantencomputing könnten uns zum 60.000hz gaming führen 😁
Welche neuen Architekturen??? Digitalrechner müssen mit Transistoren arbeiten, daran lässt sich nichts ändern, und die sind etwa seit 2014 bei 14 nm Größe gefangen, darunter kam man bis jetzt nicht, außerdem kosten irgendwann immer kleinere Fortschritte immer mehr Geld.
2000 oder 2010 waren die Fertigungsverfahren auch noch deutlich größer als jetzt. Welche neuen Architekturen meinst du denn genau?
Und bedenke folgendes: Wenn das Universum Reisen zwischen verschiedenen Galaxien nicht vorgesehen hat, dann sind sie auch nicht möglich.
@@oliverbecker3443wie soll er Architekturen nennen die es noch nicht gibt?.. Woher weißt du denn dass das Universum vorgibt es gibt keine Möglichkeit? Das wird alles schon irgendwie so wie sonst auch 😋
@@oliverbecker3443 Architektur betrifft nicht nur die Materialien auch die Anordnung 😁 früher wurden andere Befehlsätze teilweise genutzt oder ein Rechenkwerk zum addieren und Multiplikation wurden mehrmals durchs "addierwerk" gejagt. Da gibt es bestimmt noch Potential neue Rechenwerke die speziell für eine Aufgabe sind CPU's und GPU's als eine große Recheneinheit die ihre Leistung individuell einteilt. Schnellere Speicher. Größerer L1 Cache der außerhalb der CPU angebracht werden kann. Wer weiß. Wer nicht forscht wird auch nichts finden ^^
@@Civooo420 Er soll keinen Namen nennen, sondern die veränderte Funktionsweise, und ich sage nicht, das uns das Universum dazu keine Möglichkeit bereit stellt, allerdings sollte man eben nicht jetzt schon, ohne das eine praktischer Beweis erbracht wurde, annehmen, das es so kommt, wie von viele hier erhofft.
Des Weiteren haben die Ingenieure von Intel, AMD und NVDIA einen guten Grund, anzunehmen, dass es mehr als nur die aktuellen Möglichkeiten gibt; denn wenn keine neue Hardware mehr entwickelt werden muss, dann wäre eben jener Berufsstand fast vollständig überflüssig, und man bräuchte fast keine Hardware- sondern nur noch mehr Softwareentwicklung.
Und wie gesagt: Ein digitaler Rechenchip muss mit Transistoren rechnen. Ein alternativer Stoff zu Silizium müsste außerdem mindestens genauso Effizient wie dieser sein, auch wenn er kleiner ist. Neue Elemente gibt es inzwischen ohnehin nicht mehr zu entdecken, die Auswahl bei Alternativen beschränkt sich also auf die uns bereits bekannten Elemente.
So mag ich ein Video! Das beleuchten von allen Seiten, alles neutral darstellen und jeden selbst entscheiden lassen, was diese Infos mit Ihr / Ihm machen und nicht diese Schlagzeilen mit Bild Niveau Videos oder Beiträge. Vielen Dank dafür ♥ :) .
Ich hab zu danken für die echt super netten Worte. Ich will mich künftig auch verabschieden von „Bild Niveau“. Ich hab lange über den Content hier nachgedacht und für mich entschieden, dass hier auf dem Channel „der nächste Schritt“ ansteht! Danke!
@@KreativEckewann warst du denn jemals auf Bild Niveau? Ich fand deine Videos eigentlich schon immer überdurchschnittlich differenziert.
@@KreativEcke Ich meinte das allgemein und hatte gar nicht deinen Channel im Sinn :) . Aber lieber ein wenig Selbstkritik als alles lieblos dahin laufen lassen :) .
@@KreativEcke deine Videos sind echt Klasse und sind für mich auch nie Bild Niveau gewesen. Kein Platz für Populismus was gesellschaftliche Themen angeht oder Zusammenarbeit mit Unternehmen die fragwürdig sind. Sehr tolle Entscheidung
Doch!!! Polarisieren was das Zeug hält!!! Sonst ist es ja langweilig 🥱
Ich finde der Effizienzfaktor sollte nicht unterschätzt werden. Gleiche Leistung bei geringerem Energieverbrauch ist für mich auch ein Fortschritt.
Ein recht großer sogar meiner Meinung nach
Bei Autos ist das eigentlich seit vielen Jahren schon so. Ein neuer Golf ist nicht schneller als mein fast 20 Jahre alter Golf, aber etwas effizienter und gleichzeitig natürlich deutlich besser ausgestattet!
Würde ich sehr situativ betrachten. Es bringt mir bei meiner Grafikkarte nicht wirklich viel, wenn ich für die Effizienzsteigerung als Endkunde mehr bezahlen muss. Das Ersparte, habe ich damit sowieso in den Sand gesetzt. Auch bezweifle ich das alle Spieler einen Strommesser eingesetzt haben um sich daran aufzugeilen, dass ihre Grafikkarte nun 30 Watt weniger saugt und damit über das Jahr eine Einsparung von 12 Euro [30 Watt an 4h/d 7 Tage die Woche auf 365 Tage. ] resultiert.
Ich vergleiche meinen PC und die Spielzeit mit Auto fahren. Mein PC braucht ein paar Wattstunden, mein Auto ein paar Tausend Wattstunden pro Stunde. Solange also mein PC + Klimagerät beim Spielen weniger Energie braucht als mein Auto, mache ich mir um meinen PC keine Sorgen. Gaming ist schließlich Hobby und Hobby darf auch etwas kosten, dafür geht man arbeiten.
Durch weniger Energieverbrauch kann man mehr Leistung erzielen, da man dann weniger Temperaturentwicklung hat.
Für die Stromkosten ist mir das komplett egal. Hier kostet Strom zwar 50 cent auf dem Campingplatz hier, und trotzdem hat man vorher in der Mietwohnung fast genauso viel schon bezahlt, trotz weit günstigerem strom. Da sieht man mal was man in einer mietwohnung abgezockt wird.
Hier auf dem Campingplatz hab ich vllt 130 € Strom nach 3 Monaten verbraucht und das obwohl ich den PC immer an habe und keine fps limiter benutze. Immer schön uncapped und auch schön overclocking rein.
Also kümmert mich persönlich der Strom kaum.
Viel nerviger ist die Erdgas Therme. Da zahlste tatsächlich schnell viel Geld wenn man nicht aufpasst.
Das lustige ist ja, dass der Mensch keine Veränderung mag, aber trotzdem immer das neuste will und sich nicht langweilen will.. Aber wäre das nicht paradox? 😮
Stimmt wenn man drüber nachdenkt 😂
Ich persönlich zumindest will nicht immer das neuste. Ich bin zufrieden, wenn meine Geräte lange halten und ich mich eben nicht ständig an was neues gewöhnen und wieder Geld ausgeben muss. Daher sind viele meiner Geräte auch schon 10, 20, 30, oder zum teil gar über 40 Jahre alt. Warum ersetzen, wenn es doch noch funktioniert?
@@Der-RetroGamer Geht mir auch meistens so, ich bin nur vom Durchschnittsmensch ausgegangen, aber am Ende müssen wir alle sparsamer mit dingen umgehen das stimmt..
es kommt eben auch auf die Qualität und Art der Veränderungen an...
Das Neueste vom Gleichen! 😁
Super informatives Video mit fantastisch redaktionellen/philosophischem Hintergrund.
Gerne mehr! :)
Freut mich total zu lesen! Ich hatte auch mega viel Spaß daran. Gedenke auch mehr von solchen Videos zu bringen! Danke!
Es gibt immer Leute, die sich nur beschweren. Das sind auch oftmals die Menschen, die sich in dem Thema nicht wirklich auskennen und daher die geleistete Arbeit gar nicht nachvollziehen und somit auch nicht schätzen können.
Einen großen Nachteil bringt der Co-Pilot Ki aber im Gegensatz zu der Rohleistung mit sich.
Die Rohleistung lässt beliebig in jedem Szenario bedenkenlos einsetzen, während die Ki erst lange auf ein einziges, bestimmtes Szenario angepasst werden muss. So entscheidet letzendes Endes mehr der Hersteller, was mit der Hardware gemacht werden kann.
Das wird in Zukunft dann kleinere Entwicklerstudios von Anwendungen und Indie-Games treffen, für welche es sich aus Sicht der Hardware Hersteller einfach nicht lohnt, deren Hardware auf "kleine Projekte" zu implementieren.
Außerdem wird die Entwicklerplattform so erschwert, da Software bereits auf einem Hardware/Software Hybrid aufbaut.
Ich finde, wir sollten uns nicht von den Fortschritten von KI blenden lassen und Moores Law im klassischen Sinne nicht aufgeben. Außerdem sollten wir auch andere Möglichkeiten als Silizium basierte Bausteine in Erwägung ziehen, um leistungsfähigere Rechner zu bauen. In diese Richtung gibt es auch viele Forschungsansätze, die aber meist noch sehr frisch und wenig ausgereift sind. Bis diese Technologien für den Markt reif sind, kann es noch lange dauern.
Tolles Video. Meiner Meinung nach ist Veränderung einer der wichtigsten Aspekte des Lebens.
Hardware und Software müssen immer Hand in Hand gehen. KI, upscaling etc. hat Softwareseitig riesen Potential was gerade erst angefangen wird auszuschöpfen. Gleichzeitig muss auch Hardwareseitig weiter entwickelt werden. Ich bin mir sicher das man mit Optimierungen seitens der Software noch sehr viel Leistung aus der Hardware die es schon gibt raußholen kann.
Wie immer sollte man sich nicht nur auf eine Sache konzentrieren, sondern immer das Gesamtpaket betrachten
Ich habe keine Problem mit Veränderungen, ich gehe da schon mit der Zeit, aber es kommt eben auch auf die Veränderungen an wie sehr sich etwas verändert, im Bezug auf Hardware / Software bin ich für alles offen. vor allem wenn es auch mal Günstiger wird.
Erst einmal bedanke ich mich für dieses super Video bedanken.
Ohne Veränderung kann es auch keinen Fortschritt geben.
Am Ende zählt nur das Ergebnis, der Weg dahin aber ist mir egal, solange er ethisch vertretbar ist.
Veränderungen sind gut und bedeuten Weiterentwicklung und Fortschritt 😎🖖 bin gespannt wohin die Reise noch geht 🤓
Es geht immer weiter und weiter!!! Alleine aus finanzieller Sicht!!!
Hey ✌🏼
Ich muss dir jetzt mal ein fettes Lob aussprechen!
Ich mache mir jeden Tag Gedanken über pc Hardware und jede Frage in meinem Kopf wird anschließend in einem Video von dir beantwortet 😋
Seit Wochen geht das so und ich enjoy es sehr
Mach bitte genau so weiter 🙏❤️
Ohne das Video gesehen zu hahen, glaube ich, dass die Zukunft ARM sein wird. Mit dem Game Porting Toolkit von Apple schafft es mein Macbook in Windows Games teilweise bis auf die Geschwindigkeiten meiner RTX 2070. Keine Ahnung, was wir bei nativen ARM Spielen ohne legliche Übersetzung erwarte können, aber ich befürchte eine Menge.
Für uns sehr schade bezüglich der Aufrüstbarkeit, aber zumindest eine Variante beim Neukauf weiter an wirklich viel Leistung für wenig Geld ranzukommen. Die Performance ist fürs Geld auf ARM Chips deutlich günstiger zu haben.
Finally ist dieses Video hier und es ist GROSSARTIG! RIP Moore.
danke für den Einblick, war mir so nicht bewusst
Es wird noch einige wenige Hardwaregenerationen geben in denen sich die Halbleiter werden verdichten lassen, die bereits geplant sind. Allerdings ist das auch mit steigenden Kosten verbunden, was bis vor einer Weile nicht der Fall war, die Kosten pro Halbleiter sind bis 28nm stetig gefallen. Aber das ist ja auch schon 10 Jahre her. Wobei mittlerweile eher 14nm als besonders kostengünstig gelten kann.
Was danach ist, nun es kann gut sein dass man sich wieder was mit der Halbleitertechnik einfallen lässt, lässt sich nur von jetzt aus noch nicht absehen.
Aber die meisten Fortschritte bei den GPUs waren von logischer Natur, nicht von fertigungstechnischer. Aber so eine Kristallkugel haben wir auch nicht, die es und sagen würde, was sich da noch machen lässt.
Na also es gibt ja ein paar Überlegungen in Richtung Graphen und andere Materialien. Aber genau das ist es: es ist ja auch immer Sinne der Hersteller das Ganze kostengünstiger zu gestalten weil man sich sonst die Kunden vergrault.
hoffe es bleibt einfach bezahlbar ,auch für denn normal Bürger. Die Welt dreht sich weiter ,ob man es mag oder nicht . Einfach offen für neue Dinge bleiben .
Ja das ist auch das, was ich hoffe
Es gibt eine konkreten Grund, warum das jetzt schon so ist: die Entwicklung von SRAM Zellen, die für den Cache in CPUs benutzt werden, haben jetzt schon eine Grenze erreicht und werden im Verhältnis zu den CPU Halbleitern die aktuell im 4 Nanometer Verfahren hergestellt werden seit längerer Zeit im Verhältnis nicht mehr kleiner. Der SRAM kann also nicht mehr kleiner gebaut werden können.
Es gibt ein super Video dazu von „High Yield“ mit dem Titel „Next Gen CPUs / GPUs have a huge problem“. Wer Englisch versteht, sollte sich das mal anschauen, dort wird das Problem detailliert beschrieben. Super interessantes Thema.
Salamaleikum, KreativEcke! 🕊
Maleikum salam 👍
95% der Spiele die ich spiele unterstützen aktuell kein Dlss oder so. Und mit meine 4070ti kommt da leider öfters an ihre Grenzen. Ebenso Mangelt es vielen Spielen an der dringend nötigen Optimierung. Das beste Beispiel ist aktuell dafür Starfield.
Jap. Das sehe ich auch so: viele Spiele haben nen Optimierungsbedarf
Ist ja immer eine Frage der Kosten für die Game Entwicklung
Das war das beste Video der letzten vier Monate von dir! Ganz stark, danke.
Ich finde gerade die aktuellen Entwicklungen im GPU Sektor sehr spannend. Ki Cores werden immer mehr Relevanz bekommen. Das Intel bei seiner ersten GPU Generation direkt darauf setzt zeigt wie wichtig das Thema ist. Mehr Rohleistung wird es nur in noch kleineren Fertigungsverfahren geben. Aber genau da stoßen wir so langsam an physikalische Grenzen. Es wird also bei GPUs, ähnlich wie bei CPU's, ganz bald auf die Effizienz der Architekturen ankommen und wie diese mit den ihnen zur Seite gestellten Ki Cores arbeiten. Ich finde das mega spannend!
Oha! Vielen Dank dir für die super Rückmeldung. Wie genau kommst du auf 4 Monate? Das würde mich sehr interessieren. Und richtig: Das Intel keine "klassischen" GPUs bringt sondern direkt das KI gestützte Feature XeSS implmentiert, ist da mMn auch ein Punkt, der sehr gut zeigt, wie wichtig das Thema wird. Ich finde es auch enorm spannend.
@@KreativEcke das kann ich dir gerne "sagen". In den letzten vier Monaten hast du für meinen Geschmack viel Content geladen, der (Gaming) PC's von Influencern oder Hardware-Shops usw. zeigt. Ganz ehrlich, das interessiert mich persönlich eher so semi ;-) . Ich vergleiche mich bzw. meine PCs nicht, da ich darin keinen Sinn sehe. Daher ist es mir auch ziemlich egal wer was für einen PC hat oder verkauft. Dazu kommt, dass ich seit meinem elften Lebensjahr meine PCs (und die meiner Freunde / Family) selber zusammenschraube. Vorkonfigurierte PCs sind somit für mich eher Blasphemie :-D . Mich reizen da eher neue Techniken (XeSS/DLSS/Ki) und Benchmarks. Was mich mal brennend Interessieren würde sind auch Vergleiche von zB. drei Jahre alten High-End Systemen (i9 10900X Serie) gepaart mit alten und aktuellen Grafikkarten gegen komplett moderne Systeme. Ich denke ein großer Teil der Community investiert eher regelmäßig in eine neue GPU als in einen komplett neuen PC, da die meisten Games eher GPU-lastig sind. Zumindest sehe ich das so in meinem Bekanntenkreis. Ist aber auch nur meine Meinung ;-) . Egal welchem Thema du dich gerade verschreibst, deine Videos sind immer High-Class und ich sehe sie immer gerne. Auch dann, wenn das Thema an sich mich vielleicht nicht direkt anspricht. LG, Hans
Guter Standpunkt, alles sehr spannend. Ich bin sehr interessiert, wie sich die Hardware sich in den nächsten Jahren entwickelt.
Danke für das Video :D
Vielen Dank dir für dein super nettes Feedback! Ich bin auch mega gespannt auf das, was noch auf uns zukommt :)
Ich denke es wird, wie damals vom Single zum Multicore (und der damit verdoppelten Transistormenge), werden die tragenden Komponenten wie GPU und CPU weiter mehr Kerne in der Gesamtanzahl erhalten, siehe Raytracing mit den neuen Kernen. Die Hauptkerne werden weiter Aufgaben abgeben, die andere Kerne übernehmen, die das besser können und so werden wir viel mehr Arbeitsteilung auf der Platine sehen. So hätten die Hauptkerne auch mehr Kapazitäten und damit hätte die gesamte Komponente mehr Leistung. Da läuft dann eben auf der GPU neben der Grafikleistung noch eine komplette KI Berechnung in vielen Hinsichten und auf der CPU könnte man auch KI Kerne aufbauen, die dann andere Arten von Verhalten von NPCs und Co. möglich machen. Das nur "Optisch" zu betrachten, halte ich für zu kurz gefasst.
Also bei dem bisherigen Herstellungsverfahren und dem aktuellen Aufbau der Hardware sind wir langsam am Limit, was die reine Leistung angeht. Der Fertigungsprozess ist bei 3nm angekommen, da ist bald das Ende des Machbaren erreicht. Ich denke man muss was die Zukunft angeht hier CPU und GPU voneinander unterscheiden. Während die CPU immer weniger wichtig wird im Gaming, da ab WQHD sie kaum und bei 4K gar keine Rolle mehr spielt, sind die aktuellen CPUs mehr als ausreichend. Ein aktueller 8-Kerner mit 16 Threads, wird auch die nächsten 5 Jahre noch ausreichen, erst recht ein 16-Kerner mit 32 Threads.
Bei der GPU jedoch denke ich, dass wir da in den nächsten Jahren einen Wandel erleben werden, von dem bisherigen Konzept zu einem neuen Konzept/neuem Aufbau/neuer Architektur. Denn hier sind sich die Insider einig, das aktuelle Konzept hat bereits ein EOL und muss durch ein neues ersetzt werden. Hier wäre denkbar, dass wir bald GraKa's haben werden, die nicht mehr nur eine GPU haben, sondern mehrere mit unterschiedlichen Aufgaben. Die eine macht das Rasterising, die andere hat die CUDA Cores, die dritte macht dann Frame Generation etc. Auch was die Speicher angeht, wird es Zeit für was neues. Da es bei Karten mit 32 GB schon schwierig wird, diese Chips noch alle auf die Karte zu bekommen, bei dem bisherigen Adressschema der GPU's.
Man kann gespannt sein, wohin die Reise gehen wird, vor allem im GPU-Bereich. Im CPU-Bereich, denke ich, ist noch kein Anreiz dafür, da, wie gesagt, die aktuellen CPUs im Gaming noch für die nächsten Jahre reichen werden, es sei denn, das neue GPU Konzept benötigt spezielle CPU-Features, die sie aktuell noch nicht haben, danach sieht es aber noch nicht aus.
KI wird nicht nur die Optimierung der Abläuft bzw. Softwareseitigen verbesserung voranbringen auch für die Optimierung der Hardware wird schon KI verwendet. Um neue CPU Architekturen zu entwickeln.
Super Interessant! Ich meine Daniel hat frei gesprochen, hat Bilder benutzt und alles verständlich erklärt. Ich finde die Note 1 ist gerechtfertigt.
Wow freut mich total zu lesen. Ich selbst würde mir keine 1 sondern ne 2+ geben weil ich an einigen Stellen verbesserungspotential sehe , aber man ist immer sein größter Kritiker
Nunja, da muss man deinen werten Kollegen das Monty aber auch in Schutz nehmen… Es ist auch meine ich rausgehört zu haben seine Meinung, dass es egal ist wie die Leistung nachher zustande kommt. Er hat nur, wie du selbst und auch noch andere sehr bekannte YT Kollegen (dich auch mit einbegriffen) einen Hang für reißerische Überschriften. 😂 aber an sich ist das ja absolut kein Problem, wenn danach aufgeklärt wird. Aber wie immer ein Top Video 😌🙌🏻
Da hast du schon recht! Wir neigen alle zu reißerischen Titeln! Mir hat ein kleinwenig die Einordnung in dem Video gefehlt. Aber es ist in Ordnung! Das war auch kein Angriff, sondern mein Eindruck :) vielen dank dir :)
Heute wird ja Alles AI genannt. Dahinter steht wie bei H.265 nur ein Algorithmus. Sonst würde die KI ja mit jedem Spielstart lernen und noch mehr Frames generieren können. Die heutige Hardware muss leider nur noch die schlechte Programmierung über Assembler kompensieren. Sauber Programmieren wäre mal ein Fortschritt. Auch wenn die neuen Spiele immer besser aussehen, sind sie vom Gameplay her meist grotte. Was juck mich die Qualität von Spiegelungen? Und das nachplappern von Hochglanzversprechen der Hersteller macht es nicht besser.
Sobald das Bewusstsein durch Neuralink im Upload kommt, wähle ich nen D-Wave Quantenkomputer von A-Mazon oder Schwarzfels All-Add-Inn und lasse das Neandertalerpack bei ihren Faustkeilen :-D
Eigentlich finde ich, das ganze klingt positiv! Veränderungen sind auch immer Chancen und wenn wir alle irgendwie mithelfen diese Veränderungen in eine positive Richtung zu lenken, dann kann daraus wirklicher Fortschritt werden! Ich betrachte Veränderungen auch immer kritisch, sehe sie aber auch immer gerne und gestalte sie auch gerne mit! Anders gesagt; Lasst uns neue Dinge ausprobieren! Ohne Veränderungen würden wir nicht da sein wo wir heute sind und außerdem kann man immer wieder zum alt bewährten zurückkehren, wenn das Neue nicht so funktioniert wie erhofft. Aber oft genug haben selbst kritisch betrachtete Veränderungen am Ende eine Bereicherung ergeben!
Einen wichtiger Aspekt, der aussen vor gelassen wurde ist die weiterentwicklung der FETs.
Auch wenn wir das physikalische Limit der Größe erreicht haben, wird die Anzahl der Transistoren weiter steigen.
Eine Möglichkeit z.b ist die FETs dreidimensional anzuordnen (was teilweise bereits so gemacht wird).
Leider lässt sich dazu relativ wenig im Netz finden, da diese Technologien noch proprietär sind.
Ich denke, man kann es so sagen: die Zeiten, in denen wir massive Leistungssprünge dadurch bekommen, dass immer mehr Tramsistoren auf wenig Platz geballert werden, neigen sich dem Ende. Ab nun bekommen wir die Leistung halt durch Innovationen, wie X3D, Upscaling, ggf irgendwann sogar analog-digital-hybridsysteme, etc.
Spannend auch das einige der Technologien wie zum Beispiel DLSS auch auf älterer Hardware läuft und dadurch selbst ältere Computer wieder mehr leistung bekommen.
Krank, dass Du die Kommentare echt liest !!!
Wieso ist das krank? Die Kommentar Funktion auf TH-cam ist das wichtigste Feature wie ich finde
Ich finde die neuen Wege ganz interessant. Das kommt bei den Kunden aber nicht gut an wenn jeder sein eigenes Süppchen kocht. Die Unified Shader waren bei Release der Xbox 360, ATI (heute AMD) exklusiv. Aktuell gibt es keine GPU's mehr ohne Unified Shader. Auch asynchron arbeitende Shader sind mittlerweile ein einheitlicher Standard. Von allen bisher veröffentlichten PC Spielen mit beschleunigter 3D Unterstützung, sind allerdings gerade einmal 1% (Wenn überhaupt) in der Laage DLSS, FSR, xlss etc zu nutzen. Ich blick da selbst kaum noch durch. Es ist toll das ein dritter Konkurent auf dem GPU Markt ist. Aber egal von welchem Hersteller ich eine Karte kaufe, ich habe am ende je nach Spiel gegenüber der Konkurenz teilweise starke Nachteile. Das nervt extrem. In zusammenarbeit mit API (Vulkan, DirectX u.s.w.) und Treiberentwicklern müssen KI gestütze Standards her. Wenn das der Fall ist, werde ich mich auch nicht über weniger Mehrleistung bei der Rohleistung beschweren.
Auch im Videoschnitt bringt Rohleistung oft mehr wie AI oder andere Konzepte.
Ich mag nicht wenn die PC Technik weiß man nicht was man kaufen soll beim nächsten Tag das geht schon wieder nicht mehr aktuell ist
In 10 jahren ist mein ryzen 3 1200 gtx 1660super system safe nix mehr wert oder doch?
Grenzen sind dafür da um sie zu überwinden, neue Ideen & Ansätze schaffen und schauen wie weit man damit kommt.
Die Mehrzahl mag wohl keine Veränderung, aber durch Routine wird man Betriebsblind 😂 neues entdecken, altes weiterentwickeln und die Leute die keine Veränderung mögen an die Hand nehmen um ihn zu zeigen, dass es nicht immer was schlechtes sein muss 😋 tolles Video, mach weiter so ♥️
Ich würde mir mehr Fokus auf einen relativ großen Sprung Technik wünschen, als jedes Jahr einen kleinen Sprung. Quasi alle 3 oder 5 Jahre neue Hardware. Dann aber mit allem was möglich ist. Ich verstehe das ganze System, auch wirtschaftlich gesehen. Finde es nur schade, das der Egoismus, wirtschaftlich stärker zu werden, größer ist, als an das große ganze und die Gesellschaft zu denken....... Egaaaaaal
Interessant ist aber auch die Frage, wäre alles so gekommen(Doppelte Leistung "Transistoren" alle 2 Jahre) wenn Gordon Moore es nicht gesagt hätte? Dadurch dachten die Menschen halt auch das uns Transistoren ewig begleiten würden. Mir fällt da ein tolles Filmzitat zu ein.
Zitat: Arthur: "Ich pflanze Ihnen jetzt einen Gedanken ein: Denken Sie nicht an Elefanten. Woran denken Sie gerade?", Seito:"An Elefanten". Vielleicht wäre ja alles anders gekommen, vielleicht hätten wir sogar ganz andere Technik, so wie wir uns JETZT Gedanken machen müssen über andere Technik. Ich denke Transistoren werden uns auf längere Zeit gesehen nicht weiter bringen, Transistoren CPU´s werden bald an ihre Grenze ankommen. Zum Thema GPU: Früher hat man über die Leute gelacht die dachten das man sich mehr Ram oder eine bessere CPU herunterladen kann. Bald kann man sich mehr GPU Leistung herunterladen anstatt sich eine neue GPU zu kaufen.
Du willst also elektrische Schaltungen ohne elektrische Schaltungen?
Auf welche Technik hoffst du denn? Und in wie fern kann man sich Speicherchips herunterladen?
Ist das eigentlich nur bei mir so oder hast du in deinen Spiele-Aufnahmen wie bei 5:48 ein tearing Problem? Das ist mir auch in den letzten Videos schon aufgefallen
Ja hab da ein tearing Problem. Muss rauskriegen woran das liegt
@@KreativEcke Bei mir (Gigabyte M28U 4k 144Hz) passiert das immer, wenn ich spiele im Vollbildmodus mit mehr FPS spiele als mein Monitor Hz hat. Wenn ich im ramenlosen Fenstermodus spiele läuft alles super auch mit mehr FPS. Ansonsten, haben sich eventuell diene free/g-sync Einstellungen nach einem Treiberupdate verändert/resettet?
Sehr gut recherchiert! Die klassischen CPUs mit Transistoren sind in der Tat an den Grenzen der Physik. Irgendwann kommt nun einfach der Punkt, an dem ein Transistor nur noch aus einem Atom besteht. Dazu die Anekdote: "Systeme verändern sich oder sterben." Es ist nicht die Frage, ob man die grundlegenden Veränderungen, die jetzt und in naher Zukunft in der Branche stattfinden werden gut oder schlecht findet. Innovation ist nun mal das, was die Gesellschaft langzeitlich betrachtet erhält und weiterbringt. Die Frage sollte eher sein, wie wir die Veränderungen, welche zwangsläufig kommen werden, möglichst effektiv aber auch schonend einbringen, also zwar zügig, aber trotzdem mit Rücksicht auf die etablierten Strukturen. Denn ohne diesen wäre es nur ein kurzes Streben.
Ich finde das sehr spannend. Man bekommt richtig das Gefühl, an einem Wendepunkt zu stehen. Ab jetzt kann der menschliche Erfindergeist in der Branche wieder richtig ins rollen kommen, mit neuen Fertigungsverfahren, Architekturen, Materialien, aber eben auch KI und .... Ich sehe da für mich meine persönliche Chance mich einzubringen. Schreibe 2025 Abitur und dieses Thema packt mich schon fast seit der Grundschule. Gerade deshalb erfüllt es mich mit Faszination und Neugier, zu sehen wie doch so ein gewaltiger Umbruch vor uns liegt. Hier wird bestimmt, wie unser aller Zukunft aussehen soll. Vielen Dank für das Video
Wenn man moors law nur auf den transistor count anwendet sind wir noch lange nicht am Ende, den er hat damals von monolitischen chips gesprochen was anderes gab es zu der Zeit ja noch nicht, was diese betrifft sind wir mit den aktuellen Herstellenungs Methoden bald an den physikalischen Grenzen weil einfach nicht mehr kleinere strukturen erzeugen können.
Allerdings sind wir ja schon bei chiplets angekommen, wenn wir also die Chips dünner gestalten sie aber größer machen kann man die Energie dichte und damit Temperatur im Verhältnis zur Fläche wieder senkt. Also einfach gesagt die Größe der Chips wird steigen, die cpu und gpu dies werden größer, dadurch die Produktion anfälliger, der stück preis höher, aber die Leistung und der Transistorcount größer.
Wir werden neue kühllösungen, mainboard, cpu und Grafikkarten form - faktoren entwickeln müssen, die Designs von gpus und cpus werden sich annähern.
Und das wird solange weitergehen bis wird eine alternative zum aktuell verwendeten Basis Material aller Chips haben, also Silizium.
Spätestens wenn wir Material haben mit dem man entweder noch kleinere Strukturen erzeugen können wird, oder die grundlegende Funktionweise sich ändert (Quanten computer, oder Lichtleiter anstelle Transistoren etc) werden wir wieder ähnliche gains erreichen wie wir sie bisher bei Silizium Chips hatten.
Die Zukunft wird spannend 🔥🚀.
Also in der IT dreht sich alles um Weiterentwicklung und Veränderung. Und ja, aktuell stoßen wir in der klassischen Transistorfertigung an die Grenzen der Physik. Wer möchte kann sich ja mal damit beschäftigen, was es eigentlich heißt im 5nm oder 6nm Verfahren zu fertigen. Was da für Licht überhaupt benötigt wird und wie hoch der Aufwand ist dieses Licht überhaupt zu erzeugen. Alleine schon die Spiegel die benötigt werden um das Licht dann in entsprechende Bahnen zu lenken, müssen super eben sein. Da wird mit Toleranzen von einer Atomhöhe gearbeitet.
Das Nächste große Ding wird der Quantencomputer werden und genau so wie damals in den 40ern und 50ern wird es eine Weile dauern, bis jeder dann seinen kleinen Quanten-PC zu Hause stehen hat. Das werden spannende Zeiten!
Und da liegt die Exzellenz von Nvidia. Trends erkennen, und sofort umsetzen .. und leider auch dementsprechend Preise nehmen. Und auch zu AMD Athlon Zeiten hat man gesagt: 1Ghz wird nicht möglich sein wegen der fehlenden Kühlung ... joa ... gut ^^
Deine Videos sind einfach klasse. Bitte mache weiter so😊. #kreativefragen mein Rechner nervt mich seit Tagen mit dem Windows 11 Update. Lohnt sich mittlerweile das Update. Ich hatte anfangs von vielen Problemen mit AMD Prozessoren gelesen, ist das immer noch so? Vielen Dank Schöne Grüße 🖖
Ich bin gespannt wann die ersten High-End Gaming-SOCs auf den Markt kommen! Das sollte auch Performance technisch sehr interessant werden.
Wirklich ein geiles Video. Geht einem sogar etwas unter die Haut!
Danke dafür.
Wow! Danke dir! Freut mich wirklich total zu lesen! :)
Kann mir sogar vorstellen das wir irgendwann ne zeit erreichen wo wir dann für die Software zahlen müssen, sei es für eine neue Erweiterung oder wie in einem abo (wenn es weiter Richtung Software ersetzt oder Komplimentiert hardware geht)
Danke für das Video.
Ich vermute das die PC Bauteile für die nächsten ca. 50 Jahre, langsam stetig größer werden (um diese auch noch besser kühlen zu können) aufgrund von Multi-Chip Systemen. Anstatt ein GPU Chip, sind dann zwei auf einer Karte (siehe nächste Serie).
Nach den 50 Jahren (geschätzt) wirs der bisherige PC durch Quantencomputersysteme abgelöst die durch Ki super viel Leistung bieten. Bis dahin wird 8k/16k Auflösung Standard sein und auch sehr lange so bleiben (aufgrund der Datenmengen und Grafik).
Erst dann wird das ganze stetig mehr auf Effizienz getrimmt anstatt mehr Leistung, um das ganze energiesparender zu betreiben (und auch die Software besser wird).
#KreativeFrage
Was wäre wenn AMD bei der 7900xtx nicht GDDR6 Speicher verwendet hätte, sondern HBM2/3 benutzt hätte.
Wäre AMD schneller als eine 4090
bzw warum nutz man kein HBM2 speicher mehr in HighEnd GPUs
Ich spiele seit Tagen mit dem AMD Preview Treiber und dem treiberseitigen Frame Generation. Macht Spaß alle möglichen Games damit auszuprobieren. Und wenn ich mir vorstelle was heute geht und das innerhalb weniger Jahre mit KI Technologien, dann könnten klassische Benchmarks auch irgendwann aussterben. Man schaut dann nicht mehr auf Frames, sondern darauf wie gut die Technologie in den Spielen und Treibern implementiert ist, also wie gut das Spielerlebnis ist (Bildqualität und Stabile Frameraten). Mit etwas Glück wird man nämlich zukünftig in jedem Game irgendwie auf 100 FPS oder whatever kommen. Dann spielt die Energieeffizienz, Wärme und Lautstärke vielleicht eine größere Rolle.
Ich denke die technik wird irgendwann mueinander verknüpft wie in rechenzentren so kann man die leisung erhöhen
Tolles Video. Kann ich echt nichts hinzufügen. Es wird sich immer etwas im Wandel befinden. Das Auto bekommt als Vergleich ebenfalls autonomes Fahren. Dies wird immer Wichtiger. Dies ist ebenfalls eine KI Unterstützte Funktion. Ich denke das Wort des Jahres wird KI / AI sein 😁✌
Finde für uns alte Hasen is das echt schwierig. Bin inzwischen 39 und damals hieß es: "Willst du mehr Rohleistung, musst du mehr bezahlen"
Jetzt wandeln wir aber auf dem Weg das die Karten sich kaum mehr verbessern, sondern wir einfach die Software dahinter entsprechend schreiben.
Ich sehs schon kommen, der DLSS Code wird nächstes Jahr an die Serie angepasst, dann wäre das bei der RTX 5000er Serie halt DLSS 5.x und wir bekommen die entsprechende DLSS Version auch nur noch auf der entsprechenden Serie.
Marketingtechnisch gibt man halt alles um dieses AI Zeug zu verkaufen, aber für die alten Füchse wirkt das ein wenig extrem nach Augenwischerei. Vorallem wenn man dann die einzelnen Vergleiche sieht, die man von offizieller Seite, egal ob nVidia, AMD oder Intel, präsentiert bekommt.
Prinzipiell hätte ich nichts gegen Upscaling wenn es entsprechende Leistung bringt. Aber die Tatsache wie es uns eben vermittelt wird, und was für Preise man dann dafür aufruft, find ich seit DLSS1 schon mehr als erschreckend.
Die Moores Law aussage von heutigen Intel MAs, oder dem wo du im Gespräch hattest, is halt interessant. Wenn man bedenkt wie sie ihre Refreshes seit Jahren machen und sich auf ihrer Leistung ausgeruht haben, weil man ja nicht musste.
nicht nur die fläche ist ein problem, sondern auch das ein Signal (elektrisch gesehen, einfach eine bestimmte zeit anliegen muss, damit es als valides signal und nicht als "störfeuer" gesehen wird) diese Zeit kriegst du mit aktueller Architektur nicht weiter runter. Hier kam ja damals der Trend zur Paralellisierung her. Was auch richtig ist
Hallo, ich überlege meinen ersten Gaming-PC zu bauen und wollte dich oder die COmmunity fragen ob die Komponenten Zusammenstellung stimmig ist. Ich dachte an folgendes (ja ist Dead-End, das ist mir egal):
Sapphire Pulse Radeon RX 6700 XT, 12GB
GIGABYTE B550 Gaming X V2
AMD Ryzen 7 5700X
Western Digital WD_BLACK SN770 NVMe SSD 1TB, M.2
be quiet! Pure Power 12 M 650W ATX 3.0
Kingston FURY Beast DIMM Kit 16GB, DDR4-3600, CL17
be quiet! Pure Rock 2 Black
be quiet! Pure Base 500 schwarz, schallgedämmt
Ist das Netzteil übertrieben?
Vielen Dank :)
Richtig . Alles hat mal ein Ende. Rasterisierung ist noch nicht am Ende. Aber es kommt und wir müssen eben vorher reagieren. Wenn du auf eine Wand zuläufst und dahinter weiter musst, solltest du halt nicht warten bis du vor der Wand stehst, sondern schon vorher schauen wie du da drüber/vorbei/durch kommst, sonst heisst das erstmal Stillstand! Und KI Performance wächst eben deutlich einfacher und schneller weil es neuer und weniger erforscht ist. Wie bei fast allem Neuen so(E-Auto, grüne Stromgewinnung....)
dumme frage, aber warum kann man die cpu fläche nicht einfach größer machen, um mehr transistoren drauf zu packen anstatt sie immer kleiner zu machen?
Moin! Wenn du sagst, dass wir uns momentan an einem Wendepunkt was zukünftige Leistung angeht befinden, ist es dann sinnvoll jetzt einen High-End Gaming Rechner zu bauen? Mit RX7900XTX und allem was dazu gehört oder sagst du, man solle lieber noch 1-2 Jahre warten (meine aktuelle GPU RX5700 kommt langsam an ihre Grenzen in Starfield, aber es geht noch) und die mögliche neue Generation mitnehmen? Großes Lob übrigens an dieses Video. Fand ich sehr spannend, mach weiter so.
Es wird vermutlich immer was neues mit mehr Leistung auf den Markt kommen.
@@christianmuller3087 das ist klar, aber es geht um eine mögliche größere Neuerung und nicht einfach "nur" die nächste Generation an Grafikkarten
Veränderung ist geil und die, die sich nicht anpassen, gehen dabei zur Grunde. Dafür gibt es in der allgemeinen Unternehmensgeschichte genug Beispiele. Ob Schlecker, Nokia oder auch so etwas, wie die N64 „Kassetten“. Nintendo ist dabei nicht zur Grunde gegangen, aber bei der Vorstellung der Konsole gab es nur 2 Spiele und nur weil eins davon Super Mario war, lief das ganze noch gut
#kreativefragen Ich habe mir einen neuen pc gebaut Hardwaredealz 900€ pc( mit 3060) aber wo kann ich die lüfter vom pop air ans mainboard schließen? Weil bei jrainbow passiert dann gar nix
Super interessantes und vor allem informatives Video. Vielen Dank dafür :) P.S. Ist das Spulenfiepen einer ASUS ROG Strix 4080 sehr krass hörbar im Vergleich anderer Marken ?
Danke dir sehr für das nette Feedback! :) Also das kann ich pauschal so gar nicht sagen! Hängt auch bisschen vom einzelnen Modell ab!
Ich habe genau dieselbe Grafikkarte und keine Probleme. Es kann auch mit dem verbauten Netzteil zusammenhängen, wie ich in diversen Foren gehört habe.
Hallo Daniel, wie immer ein sehr informatives, interessantes Video. Kurze Frage zu der 4090 FE: Ich überlege, mir eine zu holen. Dabei ist mir jedoch aufgefallen, dass es einmal eine Steckvariante mit Lüfter nach unten und einmal nach oben (wie im Video) gibt. Wie wirkt sich das denn auf die Kühlung aus bzw. agiert der Lüfter dann immer noch für Luftansaugung oder ist er dann quasi für den Abtransport der Luft zuständig? Meines Erachtens nach geht der Chimney-Effekt doch dadurch verloren, oder? Würde mich über eine Antwort freuen :)
Es gibt nur eine Variante. Nur die Kühler der RTX 3060 (Ti) und 3070 hatten die Lüfter beide unten.
@@Legoloewe Vielleicht habe ich es etwas missverständlich ausgedrückt. Ich meinte eher die Anschlussposition, also dass dieser einmal weiter oben und weiter unten angebracht ist, sodass der Lüfter je nachdem nach oben oder unten zeigt.
Sehe die Gesellschaft als ein Problem. Ja ich gehe absolut mit dir. Die Lösung sollte eine Rollenspielen nicht der Weg dahin.
Viele Schulsysteme und Arbeitswege sind aber noch auf dem alten Weg.
Das mit den Veränderungen sieht man auch ganz stark bei den autoliebhabern, sowas ähnliches wie bei uns rgbisten. So wie wir keine pcs ohne rgb mögen, mögen die Autos mit elektronischen antrieb nicht sondern die Autos mit nem verbrenner
Hey Kreativecke,
ICh bin vor kurzem zu Modularen AIOS gestoßen und bin sehr Interessiert daran, wäre es möglich das du dazu Videos machst? Weil bisher habe ich kaum bis nie wirklich Videos über Modulare AIOs gesehen wenn dann für Geschlossene Systeme.
#KeativeFrage könntest du mal Gaming Setups für unter 1000 Euro vorstellen wäre mega cool. Feier deine Videos.
Ich sehe dass genauso wie du. Mir ist relativ egal wie nvidia oder AMD die Leistung erbringen ob Hardware basiert ober Software Hauptsache das Endergebnis beeindruckt mich. Ich Vergleich dass ein wenig mit alten Autos. Bin 83 geboren und kann mich noch gut an Papas Ford Granada erinnern 4.2 oder solar 5.5 Liter Hubraum aber keinen 200 PS. Heute ist es möglich aus einem 1.8 l Motor locker 150 180 PS rauszuholen..eine Optimierung der Technik ist doch super. Wenn der Kunde davon profitiert.
Veränderungen sind wichtig für mich weil man sich privat und Beruflich weiter entwickeln kann und bei Computern sind sie extrem wichtig. Man muss nur lernen mit Veränderung klar zu kommen. Der Rest kommt von selbst finde ich. 😊
Ich finde den Preis ziemlich wichtig, auch wenn du das eher verteidigt hast ! Die Grafikkarten sind jetzt schon viel zu teuer und wenn das so weiter geht und ne 6090 plötzlich 2500€-3000€ kostet, wird sich die niemand mehr kaufen. Die 4000er haben ja schon echt schlecht Performed, weil sie einfach nicht mehr bezahlbar sind. und da muss das Verfahren optimiert werden, sonst sehe ich für den PC als gaming Gerät schwarz.
Das aller wichtigste is Forschung und Entwicklung. Diese Fähigkeit hat die Menschheit erst soweit gebracht.
Tolles Video! Danke.
Und ich weiss trotzdem nicht welche Graka für um die 500€ ich nehmen will bei nem Gesamtbudget für einen neues 1500€ System. Frage mich ob es sich auch lohnt noch auf Black Friday Deals zu warten.
wie wäre es mit einer neuen Architektur? ARM verbraucht auch bei gleicher Leistung weniger Strom
Ich denke diese Änderung wird viel bringen. Hardware ohne Software wäre unbrauchbar da es nichts gibt was sie anwendet. Vor allem kann durch KI auch ältere Hardware plötzlich deutlich besser funktionieren. Beispiel ist da auch Apple oder Google die ihre Software gut genug anpassen um mit den selben Geräten über Jahre zu arbeiten ohne das Gefühl sie würde langsamer werden. Mit guter Software und KI braucht man nicht immer und mehr Leistung sondern kommt vielleicht mit den selben Komponenten wie vorher über mehrere Jahre zurecht
Die Grenze der taktrate haben wir ja seit einrm Jahrzehnt leider erreicht. Danach ging es nur noch um Miniaturisierung um eine höhere und effizientere transistordichte zu erreichen. Der diesjährige deutsche Nobelpreisträger in Physik meinte aber dass durch seine Forschung taktraten mit 100000 fachen Leistung in Zukunft möglich sein könnten. Dann würde das Rennen wieder starten, was mich sehr freuen würde. Ich mag den Gedanken von ki generierten Bildern leider nicht, da es nur die bestmögliche Annäherung ist, aber es ist eben kein vollkommen echter errechneter Frame. Wird sich aber nicht vermeiden lassen und der Fokus in Zukunft mehr darauf liegen.
Ich denke, wenn man visuell irgendwann auf das Niveau der Realität rankommt (rein durch Technikhardware, AI oder beides in Kombination) oder sogar diese übertrifft und man gar nicht mehr unterscheiden kann, was Echt ist und was nicht, dann haben wir ein Wendepunkt erreicht oder auch schon überschritten, wenn es dazu kommen sollte. Besonders dann, wenn auch noch die anderen Sinnesorgane (Ohren, Haut, Nase, Geschmacksinn und Gleichgewichtssinn) realitätsnah stimuliert werden, dann ist die Büchse Pandora offen.
Die Zukunft ist geduldig, denn sie weiß, dass ihre Zeit kommen wird.
Stimmt nur bedingt, denn ohne steigende Rohleistung, sei es durch (mehr) Transistoren, Takt, oder spezielle Kerne gibt, es keine neue, schnellere, oder mehr "Features".
Die ganzen "Grafikverbesserer" machen eben nur eines: Sie verbessern den "Look" und/oder skalieren die Bilder hoch.
Wenn man in Zukunft immer mehr realistisch simulierte Welten haben möchte (ala Matrix), dann benötigt man Rohleistung.
Eine "KI", welche immer besser werden soll, lebt auch nicht nur von Luft und Liebe und DLSS, RT, und Co. nutzen ihr selbst dabei relativ wenig. 😉
6:30 - Bekomm ich dafür jetzt ein ,,Ich war dabei!'' Shirt? ;)
Veränderungen sind nie einfach
Ach Grenzen. Sowas habe ich schon vor 10 - 15 Jahren gelesen. Damals hieß es immer, ja Physik und die Grenzen liegen bei maximal 7nm. Und nun haben wir schon 3nm. Grenzen waren u.a. immer die Belichtung der Materialien. Weil für die Belichtung des Halbleiters und für den Ätzvorgang sehr kurze Wellenlängen nötig sind. Um das aber zu schaffen wird auch die Parallaxe immer wichtiger. Also das Licht kommt ja nicht nur von oben, sondern auch leicht seitlich. Und je größer der seitliche Einfall umso größer die Ätzfehler, also die Bahnen werden dünner. Für die 3nm Technologie ziehe ich schonmal meinen Hut. Silicium dotiert (1 Atom und seine Wirkweite), scheint um die 500pm also 0,5nm zu sein. Auch ergeben sich langsam Quanteneffekte, die auftreten können, wenn Material, welches die Leiterbahnen trennen soll, dann doch plötzlich Strom leitet (Tunnelstrom). Wirklich merken, tut man die nicht weiter steigende Performance schon seit ca. 10 Jahren. Sie steigt einfach nicht, es werden nur mehr Kerne. Aber was bringen Kerne, wenn sie nicht optimal genutzt werden. Auch haben Bugs wie Spectre und Meltdown die Performance gesenkt. Aber es gibt Hoffnung. SSDs hatten den nächsten Schub geleistet, denn was bringt eine superschneller CPU, wenn diese die meiste Zeit auf die Eingaben und Ausgaben wartet. Auch werden immer mehr Anwendungen, allein wegen des Smartphones, immer performanter. Das liegt daran, dass die Programmierung von Multithread-Anwendungen immer einfacher wird. Spiele sind per se schon Könner in dieser Richtung. Doch auch sie profitieren von dieser Richtung.
#kreativefragen Weißt du was über die Intel Arc 580 die sollte doch auch noch erscheinen?
das einzige Problem ist, dass Tests dann weniger vergleichbar werden, da es bei verschiedenen Features trotz gleicher Grafikeinstellungen zu unterschiedlicher Optik kommen kann. Also sehr schwer, Grafikarten "fair" zu vergleichen.
Mir ist auch nur das Ergebnis wichtig. WENN, ja WENN nicht alles immer teurer würde.
Ich glaube die Frage die man sich stellen muss, brauchen wir diese Art der Veränderung und Weiterentwicklung eigentlich ? Es wird immer weiter gehen, ob jetzt nach Moores Law oder langsamer, nur wieviel nutzen wir diese Weiterentwicklungen überhaupt. Klar geht es immer höher schneller und weiter, aber braucht der normale Nutzer das überhaupt ?
"640 KB sollten genug für jedermann sein." (Bill Gates, 1981)
Man kann die Veränderungen als ein Anzeichen dafür sehen, dass sich das Denken nicht mehr weiterentwickelt. Gerade in der Größenordnung in der heute gearbeitet wird, spielt die Dreidimensionalität zwar eine gewisse Rolle, aber es basiert immer noch auf der Idee von Linearität. Alle Daten basieren dabei auf 1 und 0. Auch wenn wir hier schon erste Phänomene der Gleichzeitigkeit verschiedener Zustände kennen (Mehrkernprozessoren, Multithreading), so reiten wir noch immer dasselbe Pferd und wenn wir an die Grenzen von Moores Law stoßen, wäre das dem Tod des Pferdes abstrakt vergleichbar. Statt also das sprichwörtlich tote Pferd zu reiten, sollten wir absteigen und einen anderen Weg der Fortbewegung finden.
Die Verwendung von KI-gestützten Prozessen ist m.E. eher ein fauler Kompromiss, als das Neudenken der Datenverarbeitung. Ich verstehe zwar wenig von der neuen Technologie die analoge und digitale Datenverarbeitung in einem vereint, aber dieser Grundgedanke scheint mir in eine Richtung zu gehen, die ich für insofern vielversprechend halte, dass Daten hier nicht mehr linear verarbeitet werden, sondern in gewisser Weise dieselben Eingaben zu unterschiedlichen Ausgaben führen, da analoge Daten eine relative Varianz haben und durch verschiedene Faktoren beeinflusst werden können, die für digitale Daten keine Rolle spielen. Letzteres mag für die Entwicklung von KI von herausragender Bedeutung sein und könnte als solche u.U. sogar zu einer kreativen KI führen (da die gegenwärtige ja nur entsprechend verschiedener Erfahrungswerte Informationen neu kombiniert, aber nicht wirklich neues erschafft - da hierfür mindestens die Eingaben von realen Personen erforderlich sind).
Ich würde daher sagen, ja Moores Law muss neu interpretiert werden und diese nicht mehr als im engeren Sinne Verdoppelung der Integrationsdichte ausgelegt werden dürfte, sondern im weiteren Sinne als einer Verdopplung der Leistungsfähigkeit von Rechensystemen. Ein Beispiel dafür wäre u.U. ein neues Rechen-/Verarbeitungssystem, das die Bildbearbeitung nicht mehr auf ein zusätzliches System wie eine Grafikkarte auslagert, sondern beispielsweise eine neues Verarbeitungssystem permanent eine virtuelle raumzeitlich konsistente Umgebung erzeugt, in der regelgeleitete/naturgesetzliche virtuellphysikalische Gegenstände/Welten/Realitäten simuliert werden würden und beispielsweise die Ausgabe von Bilddaten dann analog stattfinden würde, ein Bildschirm (oder anderes bildgebendes Gerät) am Ende technisch mehr mit einem Chamäleon gemeinsam hätte als mit einem heutigen Monitor.
Will meinen: Komplexe Rechenprozesse finden nicht mehr in realphysikalischen Einheiten statt, sondern in der virtuellen Umgebung werden neue Rechensysteme geschaffen, die in dieser Umgebung betrieben werden, d.h. die eigentliche Verarbeitung findet in der virtuellen Umgebung statt. D.h. diese Systeme würden u.U. wieder die Größe eines Zimmers oder gar ganzen Hauses einnehmen, um überhaupt funktionieren zu können, aber Moores Law würde dann hier wiederum greifen und diese Systeme würden mit der Zeit kleiner und leistungsfähiger, würden zu neuen Technologien führen, die wir uns heute nicht einmal vorstellen können.
Wie im Video gesagt zählt für mich mehr das die Grafik sich entwickelt und nicht Rasterleistung oder Transistordichte...
Leider gibt's bei den ganzen KI Entwicklungen usw aber vieles was uns als Endkunden gar nicht schmecken könnte...
Den neben den KI Kernen auf der Karte hat das ganze eben auch ein starke Software Komponente und nicht nur beim gaming,sondern generell gibt es da klare Bestrebungen zu Abo Modellen gehen zu wollen.
Kann am ende heißen das wir nicht mehr nur von dem Spieleschmieden ausgenommen werden ,sondern möglicherweise abo-gebühren auf die Nutzung von DLSS oder ähnlichem zahlen werden mit der Begründung "kannst deine Karte doch nutzen, aber KI beschleunigung gibt's nur im Abo" ... Tja und weil man schöne aufwendige spiele in vernünftigen Bildraten evtl. Dan nur noch mit KI genießen kann....
Das zieh ich mir auch nicht aus den Fingern...
Selbst Hausgeräte Hersteller lieben ja die Zukunftsvorstellung eines Tages keine Geräte mehr zu verkaufen sondern viel mehr abo-modelle zu verkaufen ... Dan kaufst du die Dienstleistung "spülen" statt ne Spülmaschine... Und PC's sind an diesen Entwicklungen um einiges näher dran...
Ich mag es auch nicht das immer so getan wird ,auch in den Videos hier, als wen der Preis viel mit der Produktion oder den kosten zu tun hätte. Jede Firma die es sich durch einen Wettbewerbsvorteil leisten kann nimmt nicht was sie MUSS als Preis, sondern was sie KANN... In diesen Fällen haben Preis und kosten überhaupt nichts mehr miteinander zu tun.
Egal ob es der Mercedes für 200tsd ist oder die Rolex oder auch die tolle Nvidia Schieß mich tot mit super KI ... Man bezahlt einen Fantasiepreis von dem der Hersteller glaubt dort ist der sweet Spot zwischen Verkaufs Menge und Preis... In der Herstellung kostet das Produkt nur noch Bruchteile dessen was der Kunde bezahlt...
Wäre im übrigen sicher auch Mal ein Thema für ein Video ;) ..
LG
1:51 was ist das für ein sockel?
War wieder ein sehr interessantes Video! Kannst du mir eine gute 75% Tastatur empfehlen, die aber so ungefähr 160€ kostet? Die Asus ROG Azoth ist mir leider zu teuer, allerdings mag die Größe sehr gerne.
Ich kann sogar eine empfehlen die weniger kostet und verdammt gut ist! Die Endorfy thock. Gibt es auch in 75%
Ok, vielen Dank!
Ich hätte einen etwas andere frage 😅
Ich möchte mir meinen ersten Gaming Pc kaufen, mit i5 13600kf und rtx4070ti
Sollte ich noch etwas warten oder gleich kaufen ? 🤔
Ja! Warte mal bis Intel seine neuen CPUs rausgebracht hat. Das wird nicht mehr lange dauern. Die werde auch keinen großen Sprung machen. Aber eventuell günstiger
@@KreativEcke Super vielen Dank, dann werde ich noch warten ☺️
Ok Moore macht uns bei 1nm und kleiner einfach das Leben schwer.
Aber für die Zwischenzeit werden die Hersteller einfach auf 2 dann 3-4 Karten usw. Setzen bis der Quantencomputer ins Gaming Zimmer einzieht.
Also Einfach Cool Bleiben Und Abwarten! Was Auch Kommt Es Wird Grandios......
Also mein Mathematik Leherer hatte immer gesagt, das auch der weg eine wichtige rolle zur Lösung beiträgt. :P Ja, mir ist es egal wenn ich so mehr leistung erhalten um die neusten Games zocken zu dürfen sehr gern.
Er hatte damit auch deshalb recht. Weil die Industrie sich an seiner Prognose orientiert hat, u.a. anhand der Investitionen...
Schönen guten abend/tag wann immer ihr es auch seht ich bräuchte eventuell hilfe meine ryujin 2 360mm neu schon eingebaut wird als auswerfmedium angezeigt und ich habe keine ahnung warum alles richtig angeschlossen lüfter sind am cpu header angeschlossen wo sie dranne sollen auch mall umgesteckt aber nix :/ meine cpu i7 13700k geht auf 50 grad meist nicht durchgängig aber komisch ob wohl er nur imDesktop betrieb läuft 😅
Ich könnte mir vorstellen das die Kern Zahl zurück geht, und CPUs ki gestürzt Chips bekommen um das Maximum aus der Anwendung rausholen rausholen und zurzeit wird die ki Technik schon genutzt siehe Nvidia in Bereichen von Grafik Darstellung ( GPUs als RTX) dlss ist in meinen Augen die Zukunft für gaming und Work (filme etc)
Die Veränderung ist komplexer geworden. Raster lässt sich mit simplen x mal x mal X berechnen und hervorheben. Jetzt Versuch das mal mit den ganzen Zwischenberechnung Dank diverser Zusatzchips auf dem Board ...
Wie schnell kann der RAM (ddr5) max. mit dem AMD Ryzen 7 7700X kombiniert werden? #KreativeFragen: kann man CS:GO und Fortnite mit einem Intel Celeron G5905 spielen? :D
Grundsätzlich interessiert mich natürlich eher die Rasterleistung. Aber am Ende ist es wie in der Schule im Mathe-Unterricht - Das Ergebnis zählt und nicht der Rechenweg! :)
Ich finde Veränderung gut und wichtig. Nur mit Veränderung können wir uns weiterentwickeln (überall und in jeglicher Hinsicht), wie einmal jemand sagte: Das Gleiche zu machen und ein anderes Ergebnis als sonst zu erwarten, ist verrückt.
Kommt eig. mal noch was zu deinem NAS? Hast vor n paar Monaten angekündigt und ich hab bislang nix dazu von dir gefunden, oder bin ich blind?
Kommt noch was zu, brauche aber etwas mehr Zeit! Das ist immer hinten runtergefallen!
@@KreativEckecool, freu ich mich schon drauf!👍🏼
Wenn das schon so oft runtergefallen ist ist das Nas nicht bald mal kaputt.