Half-Life 3 kommt mit 99% warscheinlichkeit im November 2024 raus wobei es sich bei HL3 um ein remake von HL2 handeln könnte! (ja die Antwort kam von einer AI) :D
Ich denke irgendwann muss es halt auch mal in die richtung gehen das Technik wieder günstiger wird, und vorallem auch Stromsparender. Ich meine was will man in 20 Jahren mit 16k Bildschirmen oder so, ich sehe den Sinn da nicht. Aber das in Zukunft durch AI es leichter wird 4k 240hz zu befeuern und das ganze Stromsparender wäre schon ne feine Sache.
@@KreativEcke Mal was anderes, mit den neuen Thumbnails, bleibt das so, ohne die Rote Ecke oben rechts? Fand das früher immer schöner, da hat man es immer direkt erkannt wenn es ein Video von dir war.
Geht nur wenn die Technik ausgetauscht wird, die Silizium-basierte Technik ist am Rande des physikalischen machbaren. Dadurch werden einfach mehr Transistoren auf den Chip geballert und die verbrauchen mehr Strom und erzeugen mehr Hitze.
@@maervo4179hab letztens erst gelesen das man getrennte silizium teilchen durch 4 volt schläge verbinden und so die lebensdauer drastisch verlängern kann. also ich glaube da gibts auf jeden fall noch luft nach oben 💪🏻
Moore's Law kollidiert mit dem Abbschen Auflösungtheorem, ich versuche es mal einfach zu erklären: Die maximale Auflösung (also das kleinste Detail, das man noch erkennen kann) eines optischen Systems - wie z.B. eines Mikroskops - durch die Wellenlänge des verwendeten Lichts begrenzt ist. Da die besten Chips im EUV-Lithographie-Verfahren hergestellt werden, trifft das auf auf die Transistor- Fertigung zu. Bei einer Wellenlänge von 13,5nm kommt man auf eine Transistorgröße von ca. 6,5nm, durch Tricks wie Optische Proximity Correction, Phase-Shift Masks und Multiple Patterning kommt man sogar auf ca. 3nm. Das ist sehr nah am Limit, also muss man für deutlich kleinere Transistoren ein Verfahren mit noch kürzerer Wellenlänge erst entwickeln, was dann Röntgenstrahlung wäre, was nochmal ganz andere Probleme erzeugt als bei dem aktuellen Verfahren. Dann gibt es aber wieder ein neues Limit.
@@quackifan7504 Es ist noch UV, schaue mal nach dem elektromagnetischen Spektrum, 192nm ist Tiefes Ultraviolett (voriges Verfahren DUV (Deep-Ultra-Violet)), 13,5nm ist Extremes Ultraviolet (EUV-Lithographie von Zeiss und ASML). Ich habe dort als Ingenieur ein langes Praktikum gemacht (Dort wo auch neue Teile für EUVL entwickelt werden). Röntgenstrahlung liegt bei ca. 50pm-10nm. Also EUV ist sehr nah dran, aber tatsächlich noch UV-Strahlung. Sie wird sofort von Luft absorbiert und durchdringt auch kein Glas, es ist sehr schwer das zu erzeugen und damit zu arbeiten.
‚,what a time to be alife‘‘ denke ich mir schon wenn ich innerhalb von sek Überweisungen mit dem einfachen abfotografieren von Bankdaten schaffe. Einfach eine Mega geile Zeit für Menschen die Technik lieben.
Moore's Law ist nicht tot... Ist gibt kein Grund für die Hardware Hersteller irgendwie was neues rauzubringen... Nvidia hat ja keine Konkurenz mehr... und AMD überholt Intel auch in vielen sachen... Warum super viel neues rausbringen wenn man keinen Grund dazu hat?
ein Grund wäre VR. bestes Spiel World meiner Meinung ist Halflife-Alyx. mehr davon Valve! ❤ das ist nur die Software die richtig genützt werden müsste! vielleicht bekommt das Alienspiel für VR, das bald rauskommt es hin.
definitiv eine gute ansicht über die situation, aber ich bin ehrlich: der ganze AIersalat, dass es inzwischen immer das erste merkmal für alles ist, geht mir gehörig auf die nerven... es wird einfach zu sehr übertrieben
Zum Einen ist Moors Law ist nicht tot. Es stößt nur an eine Grenze. Dabei handelt es sich NICHT um eine physikalische Grenze, sondern um eine wirtschaftliche Grenze. Denn es steigt nicht nur die Integrationsdichte, sondern auch die Kosten einer einzelen Chipfabrik. Im Moment liegt man im Bereichen von 5-20 Milliarden. Dies wird daduch kompensiert man Fabriken mit entsprechen mehr Ausstoß gebaut werden, so das die Kosten pro Chip im Rahmen bleiben. Alles kein Problem, solange der Umsatz der Halbleiterindustrie in ähnlichen Maße oder gar schneller steigt. Aber diesen Wachstum sind Grenzen gesetzt. Das wird zur Zeit dadurch kompensiert, das man die Zahl der Fabriken reduziert. Aber auch da gibt es Grenzen, da man nicht weniger als eine Fabrik bauen kann.
Es gibt deutlich mehr alternativen als Quantencomputer, welche aktuell auch deutlich besser umzusetzen sind. Der Aufbau eines Quantencomputers ist viel zu kompliziert für den Standard-Rechner. Mal ganz davon ab, dass sich Quantencomputer nicht für alle Probleme eignen. Viel einfacher wären bspw. Ersatzmaterialien für Silizium, welche deutlich höhere Taktraten oder auch eine weitere minituarisierung ermöglichen. Auch wäre ein optischer Transistor wahrscheinlicher, welcher bspw. 100-1000x so schnell sein könnte wie ein heutiger Transistor. Auf jeden Fall muss sich was tun, nur AI (Maschinelles Lernen) wird das Problem nicht lösen, da es im Prinzip nur mathematische Modelle sind um eine relativ gute Annäherung in der Grafikberechnung zu schaffen (für kreative Dinge natürlich bombe um langwierige Aufgaben zu beschleunigen). Wir brauchen für alle Dinge einfach mehr Rechenpower (Echte AI, VR, 4k/8k usw.)
Eine weitere Möglichkeit wäre es an den schwachen AIs weiter zu arbeiten um so eine Starke zu erhalten. Aber vor einer solchen hätte ich auch Angst (Mark Uwe Kling hat mal ein Buch geschrieben das sich prinzipiell um AIs dreht es heisst Qualityland)
Sehr cooles Video, willst du nicht mal eine AI Week machen und jeden Tag ein kleines Video mit Praxis Beispielen. Tag 1 ChatGPT und co Tag 2 Foto Bearbeitung mit Ai Tag 3 Audio Tag 4 Video Und und und 😃 Gerne auch mit 1-2 anderen Content Creator oder Experten aus den jeweiligen Bereichen. Wäre bestimmt super cool, interessant und lehrreich ☺️
Bei den Temperaturen fahre ich in den Süden, da zeigt man Kompass den Norden unten an. Tja, hätte ja ein Like gegeben, aber ich folge stets Deinen Anweisungen! 😂
Warum macht man die Chips nicht einfach größer, wie die Threadripper? Das einzige Problem ist dann doch nur den Chip kühlen zu können und genug strom liefern zu können.
Das ist meine Vermutung: Strom ist eigentlich sehr langsam, also würde es ewig brauchen bis der Chips etwas zum andern Transistor bringen kann. Und desto kleiner die Chips sind, desto effizienter. Denn so welche chips zu produzieren ist verdammt kompliziert und schwer. Bei der 40 Serie von Nvidia ist eigentlich genau der gleiche Chip drin. Eine 4060 hat aber mehrere Defekte Bereiche als eine 4090. Bei einem großen Chip kann viel mehr schief gehen.
@@Dreamlicationwow, warte mal die ballern alle Chips mit Laser ab mit den Versuch auf die 4090 und Testen sie dann auf die Qualität und je mehr defekt davon ist geht sie in die Kategorie 4060?
@@UnderPowert schau dir mal das Video von Branch education an. Das ist 27:48 lang. Auf Englisch. Eine umfangreiche Erklärung als diese kriegst du nicht.
Als eine Person welche in einem Rechenzentrum arbeitet finde ich das Thema super interessant aber auch teilweise sinnlos (für Forschung ist AI super). Die Technik dahinter ist auch super interessant und im HPC Bereich sieht man auch jedes Jahr (manchmal alle zwei Jahre )riesige Sprünge von 50% oder manchmal 100%.
Kann mich der Thematik nur positiv anschließen. Ich nutze AI täglich in meiner Arbeit und auch in meiner Freizeit sowie als Nebenverdienst. Auf der Arbeit so wie die meisten chatGPT und die jeweiligen Module. Zum Nachschlagen oder schnellen scripten ist das einfach mega. Und in meiner Freizeit Bildgenerierung und Bearbeitung. Sei es über diverse SD Frameworks oder auch mit der Adobe Suite. AI wird zu einem ganz normalen alltäglichen Begleiter werden. Ich finde es ist wichtig, dass die Leute lernen damit umzugehen. AI muss nicht dieses böse Etwas sein das uns tausende Arbeitsplätze kosten wird. Es kann auch genausogut neue Arbeitsplätze schaffen und neue Industriezweige öffnen.
Ich finde die Ki Funktionen in PS/raw converter schon krass. Hilft mir extrem vorher langsame händische arbeiten schnell umzusetzen. Genauso ist es echt mega geil um krasse Kompositings mal schnell als mockup umzusetzen. Wie du sagst nicht immer perfekt aber ich will nie wieder zurück :D
Beruflich arbeite ich im PLM Umfeld mit AI - dort wird sie hauptsächlich genutzt, um Abfragen und Analysen zu bestimmten Produkten und deren Merkmale zu generieren. Privat nutze ich AI eher selten und dann eher for fun.
7:56 Videos mit der Nvida-GPU rendern ist nun aber wirklich nicht neu. Nvenc gibt es schon seit Jahren, das habe ich schon mit einer GTX 1060 gemacht. Zu Zeiten, wo es den AI-Hype (zum Glück) noch nicht gab.
Moore's Law hat sicherlich auch nicht berücksichtigt das Energie Produktion im Jahr 2024 wieder zum Luxusgut zählt. Man könnte wohl wesentlich mehr erreichen wenn wir mit der Energieproduktion nicht immer noch im Jahr 1960 stecken würden. Energieeffizienz ist mittlerweile einer der großen Interessen, auch Intels neuster Chip hat keinerlei Performance Zuwachs bekommen dafür aber gleiche Performance bei weniger Energieaufnahme als sein Vorgänger.
Also selbst wenn wir langsam an den Grenzen sind was Transistoren betrifft ist dies nicht das Hauptproblem. Ich habe vor über 10 Jahren schon gesagt das bei 7 GHz CPU Ende sein wird. Und eigentlich wenn wir ehrlich sind, ist es weit unter 7 GHz. Warum weil jeder Highend Rechner bald ein eigenes Kraftwerk bräuchte. Es geht um den Verkauf. Und sowas lässt sich nicht in Masse verkaufen. Auch Nvidia könnte wie es bei den CPU schon passiert, einfach die Kerne GPU verdoppeln. Das würde besser sein als 2 oder mehr Grafikkarten in einem Gerät zu nutzen. Aber auch das würde so manchen das Budget knacken und daher wahrscheinlich nicht ausreichen um dementsprechend zu verkaufen. Außerdem gehen uns langsam aber sich die Ressourcen aus, und das liegt zu einem daran das immer mehr PC und Konsolen in den Umlaufkommen, zum anderen an den Kriegen die momentan herrschen und wahrscheinlich auch an die aktuelle Lage der Bedrohung von China zu Taiwan. Ich glaube das die Nvidia 5000 Serie so langsam das Ende einläutet was eine Single GPU angeht und vor allem an die, die sich eine 5090 Serie leisten werden. Den dazu geforderten CPU und RAM. Beim RAM sind wir noch nicht am Ende dort gibt es jetzt als Basis die DDR 5. Sicherlich wird dies wahrscheinlich auf DDR 7 bald enden. Was noch etwas schnell gehen könnte ist wiederum SSD und gewisse Chip später auf Mainboards die es ermöglichen all diese Hardware auch einwandfrei und sehr Effektiv zu nutzen. Der Fehler bei PCler ist schlicht. Ein PC wird eben meist nicht nur zum Zocken benutzt. Würde dies der Fall sein wäre im Voraus Preisleistung immer ein absolutes Minus sein. Sondern eben auch für Texte, Video render oder Streamingdienste. Dabei sammeln sich soviel Müll dabei an das man eigentlich seinen PC alle 6 Monate so intensiv von Daten Müll reinigen müsste das er wieder richtig flott läuft. Im Grunde müsste man sogar alle 6 Monate das Betriebssystem neu aufsetzen. Eigentlich bräuchte jeder Zocker der noch viele andere Sachen mit seinem PC nutzt ein Super-Backup Programm das dies automatisch alle 6 Monate tut, ohne dabei aktuelle Arbeitsdateien zu löschen oder zu zerstören. Und wenn wir ehrlich sind, müsste man 3 PC haben oder Laptops. Einem zum zocken, einen zum Text und Streamingdienste und einem um Videos oder Musik zu verarbeiten. Wollen wir nicht, und würde ja PC auch irgendwie unsinnig machen!
Ein Haupgrund für das Stagnieren der Taktraten ist die recht geringe Lichtgeschwindigkeit. (Elektrische Signale bewegen sich mit rund 2/3 der Lichtgeschwindigkeit.) Bei 7 GHz kommt das elektrische Signal in einem Takt nur noch etwa 20 cm weit. Bei höheren Taktraten müsste man Prozessoren und Leitungen auf dem Motherboard immer kleiner/kürzer machen, was dann letztendlich die Anzahl der Transistoren (welche nicht beliebig klein sein können) beschränken würde und auf Kosten der Rechenleistung ginge.
also ich finde das von der 3090 auf die 4090 ein riesiger sprung ist so wie der sprung von der 4090 zu der 5090 wird mit pcie express 5.0 Gddr7 und mehr vram und mehr kerne
Naja das Thema ist an sich auch super interessant, zukunftsweisend und wird auch auf ewig ein immer wichtigeres Thema bleiben. Es hat ja einen Grund wieso das schon seit Jahrzehnten existiert und nun ist man endlich an dem Punkt, wo man auch die Technik und das Wissen hat, um damit auch in einer akzeptablen Zeit etwas anzufangen. Das Problem ist eben nachwievor wie das ganze vermarktet wird (siehe die letzten Technikmessen) mit solchem Blödsinn wie der AI Maus und dem AI Gehäuse. Man fühlt sich da eben nur noch veralbert, als ob viele Hersteller einfach schreien " Hallo hier guck mal ich bin auch super modern und hab was mit AI, bitte bitte kauf mein Zeug".
Das was heute an Features und Funktionen als KI bezeichnet wird, hat nichts mit der eigentlichen Definition von KI zutun. Die Blase wird platzen und der Hype wird auf das zurecht gestutzt werden was es ist. Paar neue Software Funktionen die durch Marketing zu KI Features gemacht werden aber eigentlich nur entfernt welche sind.
Aktuell liegt die physikalische Grenze beim Licht. Die Transistoren in einem Computerkern werden ja durch Lithographie so verkleinert. Der Aufwand der mittlerweile betrieben werden muss, um Licht mit einer Wellenlänge von 4nm zu erzeugen ist immens. Da wird mit Ultrahochviolet-Lasern auf Quecksilberkugeln geschossen, welches dadurch ionisiert und dann Licht mit Wellenlängen unter 10 nm abgeben kann. Um die Laser zu steuern werden Spiegel verwendet, die mit einer Abweichung von einer Atomhöhe hergestellt werden. (Die kommen übrigens von Zeiss)
Sollte ich mir jetzt einen Pc kaufen oder erst wenn die neuen 5000 Karten und Amd cpus erscheinen? Weil jetzt tendiere ich zu einer 4080 Super und einer 7800 x3d cpu aber die werden sicher im Preis fallen (denk ich). Also warten oder kaufen? Bitte Hilfe 🙏🙏🙏
Wenn man AI-getrimmte Systeme berücksichtigt - wie es NVIDIA auch tut -, ist Moore‘s Law - abgesehen von der Leistungssteigerung kraft Erhöhung der Transistorenzahl - so gesehen nicht tot.
Kreativecke Ich habe eine Frage immer wenn ich meinen PC Starte Kriege ich einen Blackscreen wir haben auch schon alle Treiber Aktualisiert und es fallen uns keine neuen Ideen ein wie wir das Problem beheben können 😥😥😥
#KreativeFragen Welche PC Konfiguration ist am besten für Gaming (Full HD) und aufwendige Blender Projekte geeignet und hat ein gutes Preis-Leistungs-Verhältnis?
Ich bin etwas enttäuscht, dass die Ryzen 5 8600G und Ryzen 7 8700G nicht erwähnt wurden. Diese CPUs haben eine NPU integriert und man kann damit eine sehr günstige Workstation bauen.
Moin hab mir gerade einen gaming Laptop für unterwegs gekauft und kann windows nicht installieren weil mein speicher von windows nicht erkannt wird bitte um hilfe
Ich habe mir einen PC zusammengestellt, aber ich weis nicht ganz, ob dieser so Perfekt ist, und deshalb würde ich gerne noch jemanden einen Blick drüber werfen lassen der vielleicht ein bisschen mehr Ahnung hat. Ich weis aber nicht ganz wo ich das machen kann.
Gute budget Kombi kommt halt drauf an was du willst mit den system. Mainboard vorhanden oder muss gekauft werden?wen gekauft werden muss warum nich AM5 und ne günstige 7000 CPU da biste Upgrade fähiger für die zukunft.
Also RISC-V macht aktuell enorme Fortschritte Die Rechenleistung übertrifft teilweise moderne x86 Prozessoren bei deutlich kleinerem budget und Stromverbrauch Das Problem ist, dass bestimmte Mainstream-Betriebssysteme (Windows) mehr damit beschäftigt sind, mehr services in der Cloud zur Verfügung zu stellen, als ihr OS für neue Architekturen anzupassen (ARM/RISC-V)
2:47 Das liegt aber hauptsächlich daran, dass die meisten einfach drauf scheißen ihr Spiel vernünftig zu optimieren, weil warum sollte man da Zeit und Geld investieren wenn man einfach sagen kann: "DLSS wird wird unsere Geldgier und Faulheit schon ausbügeln." Jeder verlässt sich nur noch auf DLSS um überhaupt noch irgendwie 60 FPS zu erreichen - obwohl die Games nicht mal so Geil aussehen - statt sein Spiel vernünftig zu Programmieren. Ich liebe und hasse DLSS, denn es ist Fluch & Segen zugleich.
Ich mag deine Videos total aber mich jedes Mal mit der Kompass-App nach Norden auszurichten, dass Handy waagerecht zu halten und dann auf den Daumen nach oben zu clicken ist immer etwas aufwändig.
Ja und wir sind ja auch selber daran Schuld, wenn wir das wie alles andere immer zulassen! Genau wie diese verkackte Politik und die verkackte Waffenlieferungen, die dem Krieg nur weiter anheizen 🤮🤮🤮💩💩💩🫣🫣🫣
Chat Gpt und andere Chatbots sind noch weit von einer echten KI entfernt, die Bots "denken" nicht, sondern wissen nur welches nächste Wort am wahrscheinlichsten ist, weil sie mit tonnenweise Daten gefüttert wurden.
Ich denke nicht, dass Moores law tot ist.Mein bestes Beispiel ist Apple, die haben es in den letzten Generationen und expezit von m3 auf m4 immer wieder gute Verbesserungen geschafft haben
10:16 Super informatives Video, danke dafür! 🚀 Ich nutze KI bereits in meinem Alltag für Textbearbeitung und als Unterstützung bei Recherchen. Tatsächlich wäre es aber wirklich interessant, wenn man KI unabhängig von der Cloud nutzen könnte, vor allem aus Datenschutzgründen und um auf eine stabile Internetverbindung verzichten zu können. Nvidia und andere Anbieter schaffen da ja gerade echt spannende Möglichkeiten. Wie seht ihr das, nutzt jemand hier KI offline? 😊 … (ja, auch dieser Kommentar entstand mit etwas KI-Unterstützung)
Ich finde es schade dass, wenn man in der Discord Gruppe nach Meinungen zum Selbstkonfigurierten PC fragt (Bezüglich der Harmonie der Komponenten). Dort meist nur als Antwort kommt: Das geht Günstiger, warum den überteuerten Corsair Lüfter? und so ähnliches. Wenn man nach Tipps Fragen würde wie man den Preis runter bekommen kann, dann wäre das ja an sich passend zur Frage. Aber kaum jemand kann dann zu sich sagen: Okay er möchte diese Marken haben, ich würde dafür nicht so viel Geld ausgeben aber ich Helfe ihm was seine Frage betrifft.
hey kreativecke, mich würde interessieren ob ich eher eine am4 oder am5 cpu kaufen sollte, da mein pc eine rx470 und einen i3 4150 hat. Wäre nett wenn du mir antworten oder es in einem video mitreinnimmst.
Wenn es dir um Leistung geht, würde ich AM5 empfehlen. Wenn es um Geld geht, würde ich aufrüsten: i7 4790 ~50€ + GTX1070 ~100€ =150€ Da alles von deinem Recht alten System ein Quantensprung wird reicht evtl mein zweiter Vorschlag.
Bin zwar spät, aber Ich habe eine AMD RX 6800 XT und kann Llama und Stable Diffusion ausführen. Warum? Weil ich Linux verwende. Unter Linux funktioniert das ganze AI zeug mit einer AMD GPU, soweit man mit dem ganzen Terminal kram Klar kommt (Zumindest Teilweise, geht auch ohne Terminal und know how wenn man Abstriche in flexiblität macht).
Es wäre interessant einen Test zu sehen wo ein AMD Threadripper Pro 7995WX gegen eine NVIDIA 4090 im rendering antritt von einem 8k 240 hz/fps ohne ai Features aber auch einen Test mit ai Features.
Bewusst nutze ich es nicht wirklich. Wenn es integriert ist wie bei DLSS, ist es für mich okay. Bei Google Apps wird es ja auch immer mehr eingebunden und man bekommt es eigentlich gar nicht mit. Da ich zur älteren Generation gehöre bin ich auch der Meinung das es nur Unterstützen soll und einem nicht die Arbeit abnehmen soll. Was ich zum Beispiel schrecklich finde ist, sind die ganzen AI Bilder und Videos die im Netz rum schwirren. Man kann gar nicht mehr auseinander halten was richtig und AI ist.
Ist für mich mehr hype als essenziell. Bis jetzt haben keine Unternehmen Umsatzsteigerungen durch AI erzielen können. Nvidia tritt als Schaufelverkäufer ins Licht und verspricht allen , dass sie Gold finden werden. AI kann man es auch eigentlich nicht nennen , weil es immer noch Machine-Learning ist. Klar gibt es hier und da neue coole Sachen und Erleichterungen und es wird auch safe in Zukunft alles mehr an Bedeutung gewinnen aber der aktuelle Hype ist für mich stand Jetzt nicht nachvollziehbar
Ich benötige Hilfe bitte. Möchte mein Setup verbessern, aber wo soll ich anfangen? Mein Setup :asus Prime x470 Pro , AMD Ryzen 7 2700X, KFA" GTX 1070Ti, Kingston Fury Hyper x DDR3 16 GB eine Neue SSD steht 1000% an habe nur 512 GB von Crucial
Kurze Frage, vielleicht kann jemand helfen :) Wenn man in seinem PC einen neuen AMD Ryzen 7 9700x verbauen möchte, ist als Motherboard z.B. ein MSI PRO B650-S genauso benutzbar wie ein X670E? Zweiteres ist ja deutlich teurer. Aber laufen die neuen Chips auf dem älteren Board? :)
Ich nutze tatsächlich schon AI über meine RTX 4090 Founders Edition und über mein Samsung Foldable und es hilft mir sehr im Alltag. 👍 Tolles unterhaltsames Video was meinen Sonntag echt erfrischt hat. 😁👌 Mache weiter so #KreativEcke 💪😎❤️👍
Moin Meister, kannst du mal ein Video machen, in dem du mechanische Low-Profile Tastaturen vergleichst? Finde zwar ein paar Videos darüber aber viele über Tastaturen ohne ISO Layout..
Hallo kreativeecke ich will ein pc selber bauen aber ich weis nicht was kannst du ein Video machen was ein guter gaming pc heutzutage brauch um sehr gut zu sein danke 😊
Glaubst du, dass NVDIA in den nächsten Jahren auch noch die Krone auf hat was KI angeht? Siehst du momentan irgendwelche Anzeichen, dass AMD aufschließen ggf. sogar überholen kann was die Technik angeht? :)
Hallo ich weiß das es nicht zu diesem Video passt...aber würdest du folgende Konfiguration in Ordnung finden...ich überlege mir einen neuen PC zu kaufen und wollte eigentlich eine 4070 Ti Super einbauen da ich schon immer Team NVIDIA war. Allerdings ist mir aufgefallen das die meisten Benchmarks zeigen das die RX 7900XT mehr FPS liefert und das sogar für 110€ weniger und eine Frage am Rande würdest du diese Grafikkarte eher auf einen 4K oder QHD Monitor setzen da es eigentlich eher eine 4K Grafikkarte ist wenn auch im unteren Leistungsbereich aber genau da liegt meine Frage macht es dann nicht mehr Sinn einen QHD Monitor mit dieser zu befeuern und dann auf Max Einstellungen und hohen FPS zu spielen? Als CPU hatte ich mir überlegt mir eine 7 7800x3d zu besorgen, da aber bald die ersten x3d CPUs der 9. Gen auf den Markt kommen wollte ich fragen ob es Sinn macht noch etwas zu warten, vor allem da die Preise für den 7800x3d durch die Decke gehen? Viele Grüße Ach ja und tausendmal Entschuldigung für meine Rechtschreibung.
Habe mir vor kurzem selbst den 7800X3D geholt (gebraucht) und diesen Ruf hat er nicht umsonst. Da du ja schon selbst den Preisanstieg ansprichst, würde ich tatsächlich noch etwas warten. X870 lohnt aber weiterhin nicht also würde ich für den 9800X3D definitiv ein X670 zu einem B650 vorziehen. Bezüglich der GPU kommt es drauf an. Ich bin auch eher der NVIDIA Fan und DLSS und Ray Traycing sind sehr starke Argumente. Mit 4k musst du auf die AI-Features (Upscaler und Frame Gen) von AMD zurückgreifen, die nicht so gut sind wie die von Team Green. Für 1440p und kein großer Fokus auf Ray Traycing wäre die AMD GPU sicherlich ausreichend. Wenn du in Richtung 4k gehst, empfehle ich dir definitiv die 4070TiS um von DLSS zu profitieren. Wenn dein Target nur 60 fps sind, reicht das auf jeden Fall aus und mit 16GB VRAM bist du auch noch einige Jahre gut bedient. Ich habe selbst ein 1440p165Hz Setup und hätte gerne eine 4080 Super (als Referenz wie ich meinen Leistungsbedarf kalkuliere)
@@Gamerprofi1 Soweit ich weiß, sind 2 RAM Sticks in der Regel schneller, als 4. Warum das so ist, kann ich dir nicht sagen. Zum reinen zocken würde ich wahrscheinlich auch nur 32gb nehmen.
Irgendwie hast du etwas unglückliche worte gewählt bei frame generation weil es nich immer die fps verdoppelt. Hört sich hier aber so an. Höchstens frame generation mit dlss verdoppelt die fps, aber nicht das reine frame gen also wenn man nur frame gen nutzt. Ansonsten top video. Weiter so.
#kreativefragen Sollte man sich lieber einen 144Hz 4K-IPS-Monitor kaufen oder einen 144Hz-240Hz 1440p-OLED-Monitor auf 27 Zoll? Ich habe die richtige Hardware, um 4K mit 144Hz zu nutzen.
Ich hab mir vor ein paar Monaten einen 27 Zoll 240 Hz Oled Monitor von LG gekauft und ich bin einfach nur begeistert von Oled. Oled bietet echtes Schwarz, super schönes HDR und durch die 0.03 ms Latenz und VRR fühlen sich 60 FPS eher wie 90 an
Ähnliches bietet auch schon Intel mit ihrer AI Playground an, und dabei hoffe ich auf das der gleich gut sein wird wie das von Nvidia. Denn seit dem Launch der 40 Reihe, hat sich Nvidia stark verändert und wünscht wortwörtlich Nieren als Bezahlmethode
Mashallah meine Brüder und ich bauen uns auch demnächst nen neuen Rechner ich hol mir wohl auch so nen geilen Dual Monitor 4k/1080p und mit ner dicken 5090 und DLSS wirds glaub geil
Ich weiß nicht, wie ihr das seht, aber mir kommt beim Gedanken an "AI" immer gleich "SKYNET" in den Sinn...kann mir da nicht helfen.😆 Trotzdem find ich es mega faszinierend, was mit dieser Technik jetzt und in Zukunft alles möglich sein wird.
das was heute als ki betitelt wird und skynet in terminator sein soll davon sind wir noch mehrere Generationen entfernt wenn wir überhaupt mal soweit kommen ein echte KI zu erschaffen.
Laut nvidia, nutze ich AI über meine grafikkarte, in Bezug auf die Skalierung. Ich glaube, ansonsten nutze ich es nicht. Bin aber auch schon über 40 und nicht mehr up-to-date....😂
früher nannte man AI "auto" :D klar chat gpt und sowas ist schon beeindruckend und beängstigend zugleich, aber das meiste AI zeug ist halt marketing. kann man hardware technisch nicht einfach 2 CPUs und 2 GPUs verwenden wenn die hardware am ende ist? ich meine früher hatten wir auch eine zeit, wo unsere CPUs 1 kern hatten, ich sage nur pentium 1+2, dann kam dual core und das war bahnbrechend, könnte ja auch dual-cpu und dual-gpu kommen?
Die Broadcast software ist so gut das mein pc alle paar tage einfach bluescreened und das immer mal wieder nach schauen in den log ist broadcast das problem seitdem ich den müll deinstalliert habe kein problem mehr muss die 4090 wohl doch nur zum gamen nutzen
Ja AI erleichtert die Arbeit so, das es betreutes Denken ist, und oder wie im Fall von Adobe geklaut wird und AI Hirnlos generierter Stuff massig das Web flutet. Wie wäre es mal zu Abwechslung die Nachteile von AI auf zu zeigen. Denn wenn niemand wirklich mehr beim Erstellen von content in bestimmen Bereichen was leistet, benötigen wir diesen nicht. 🤷♂️ Und encoden über die GPU ist nicht der AI zu verdanken sondern des des Verbauten HVEMC encoders auf einer GPU.
#KreativeFragen Du redest ja immer von NVIDIA und Ai, aber was ist mit AMD ? Ich habe eine AMD Radeon RX 7600 und in den Spezifikationen unter GPU steht "KI-Beschleuniger = 64" !!! Kannst du das mal im Video erklären, was das bei AMD auf sich hat ? Also beim programmieren in Microsoft-VisualStudio-Professional-2022, unterstützt die KI (Intellicode). Hilft da und auch bei anderen KI-Anwendungen oder bei Spielen der KI-Beschleuniger der Radeon ? LG Christian
Selbst KI kann nicht sagen, wann Half-Life 3 rauskommt. 😢 5:25
aber die kann es bestimmt bald programmieren^^
aber erst müsste man eine KI alle Spiele spielen lassen, damit sie das beste Spiel schaffen kann :P
Half-Life 3 kommt mit 99% warscheinlichkeit im November 2024 raus wobei es sich bei HL3 um ein remake von HL2 handeln könnte! (ja die Antwort kam von einer AI) :D
Bis dahin gibt es Holoräume wie auf der Enterprise, das wird toll.🙃
Ich denke irgendwann muss es halt auch mal in die richtung gehen das Technik wieder günstiger wird, und vorallem auch Stromsparender. Ich meine was will man in 20 Jahren mit 16k Bildschirmen oder so, ich sehe den Sinn da nicht. Aber das in Zukunft durch AI es leichter wird 4k 240hz zu befeuern und das ganze Stromsparender wäre schon ne feine Sache.
Das ist definitiv ein Trend den ich auch sehr begrüßen würde! 😊
@@KreativEcke Mal was anderes, mit den neuen Thumbnails, bleibt das so, ohne die Rote Ecke oben rechts? Fand das früher immer schöner, da hat man es immer direkt erkannt wenn es ein Video von dir war.
Geht nur wenn die Technik ausgetauscht wird, die Silizium-basierte Technik ist am Rande des physikalischen machbaren. Dadurch werden einfach mehr Transistoren auf den Chip geballert und die verbrauchen mehr Strom und erzeugen mehr Hitze.
Nicht mit unseren Intel/AMD Prozessoren
@@maervo4179hab letztens erst gelesen das man getrennte silizium teilchen durch 4 volt schläge verbinden und so die lebensdauer drastisch verlängern kann. also ich glaube da gibts auf jeden fall noch luft nach oben 💪🏻
Interessant Dauerwerbesendung 😊
Dachts auch
Moore's Law kollidiert mit dem Abbschen Auflösungtheorem, ich versuche es mal einfach zu erklären: Die maximale Auflösung (also das kleinste Detail, das man noch erkennen kann) eines optischen Systems - wie z.B. eines Mikroskops - durch die Wellenlänge des verwendeten Lichts begrenzt ist. Da die besten Chips im EUV-Lithographie-Verfahren hergestellt werden, trifft das auf auf die Transistor- Fertigung zu. Bei einer Wellenlänge von 13,5nm kommt man auf eine Transistorgröße von ca. 6,5nm, durch Tricks wie Optische Proximity Correction, Phase-Shift Masks und Multiple Patterning kommt man sogar auf ca. 3nm. Das ist sehr nah am Limit, also muss man für deutlich kleinere Transistoren ein Verfahren mit noch kürzerer Wellenlänge erst entwickeln, was dann Röntgenstrahlung wäre, was nochmal ganz andere Probleme erzeugt als bei dem aktuellen Verfahren. Dann gibt es aber wieder ein neues Limit.
Bei 13.5 nm sind wir doch schon bei sehr harter Röntgenstrahlung. Wenn man noch kürzer wird, kommt man an Gammastragleb ran
@@quackifan7504 Es ist noch UV, schaue mal nach dem elektromagnetischen Spektrum, 192nm ist Tiefes Ultraviolett (voriges Verfahren DUV (Deep-Ultra-Violet)), 13,5nm ist Extremes Ultraviolet (EUV-Lithographie von Zeiss und ASML). Ich habe dort als Ingenieur ein langes Praktikum gemacht (Dort wo auch neue Teile für EUVL entwickelt werden). Röntgenstrahlung liegt bei ca. 50pm-10nm. Also EUV ist sehr nah dran, aber tatsächlich noch UV-Strahlung. Sie wird sofort von Luft absorbiert und durchdringt auch kein Glas, es ist sehr schwer das zu erzeugen und damit zu arbeiten.
Ich dachte diese ganzen Angaben in nm Größe wie 3nm bei Chips wären nur Marketing und hätten nichts mit der Realität zu tun oder doch nicht?
‚,what a time to be alife‘‘ denke ich mir schon wenn ich innerhalb von sek Überweisungen mit dem einfachen abfotografieren von Bankdaten schaffe. Einfach eine Mega geile Zeit für Menschen die Technik lieben.
Definitiv! 😎
Moore's Law ist nicht tot... Ist gibt kein Grund für die Hardware Hersteller irgendwie was neues rauzubringen... Nvidia hat ja keine Konkurenz mehr... und AMD überholt Intel auch in vielen sachen... Warum super viel neues rausbringen wenn man keinen Grund dazu hat?
Und nicht vergessen, dass einige Verbraucher mittlerweile gerne mehr Geld ausgeben für weniger Leistung, Hauptsache man hat das neuste Zeug. lol
ein Grund wäre VR. bestes Spiel World meiner Meinung ist Halflife-Alyx.
mehr davon Valve! ❤
das ist nur die Software die richtig genützt werden müsste!
vielleicht bekommt das Alienspiel für VR, das bald rauskommt es hin.
Im HPC Bereich haben wir Sprünge von 50-100% pro Generation (abhängig von was man macht). Bei HPC Kunden kannst du wirklich viel Gewinn machen
Der nächste Schritt ist die Photonik. Analoge Lasercpus und parallel QuantenCPUs
Aber das ändert nichts daran das man nicht immer weiter miniaturisieren kann.
definitiv eine gute ansicht über die situation, aber ich bin ehrlich: der ganze AIersalat, dass es inzwischen immer das erste merkmal für alles ist, geht mir gehörig auf die nerven... es wird einfach zu sehr übertrieben
Ja es ist schon bisschen viel, stimmt schon! 😅
Zum Einen ist Moors Law ist nicht tot. Es stößt nur an eine Grenze. Dabei handelt es sich NICHT um eine physikalische Grenze, sondern um eine wirtschaftliche Grenze. Denn es steigt nicht nur die Integrationsdichte, sondern auch die Kosten einer einzelen Chipfabrik. Im Moment liegt man im Bereichen von 5-20 Milliarden.
Dies wird daduch kompensiert man Fabriken mit entsprechen mehr Ausstoß gebaut werden, so das die Kosten pro Chip im Rahmen bleiben.
Alles kein Problem, solange der Umsatz der Halbleiterindustrie in ähnlichen Maße oder gar schneller steigt. Aber diesen Wachstum sind Grenzen gesetzt. Das wird zur Zeit dadurch kompensiert, das man die Zahl der Fabriken reduziert. Aber auch da gibt es Grenzen, da man nicht weniger als eine Fabrik bauen kann.
Hat die AI von NVIDIA jetzt ihr eigenes Werbevideo gemacht und auf deinem Kanal, mit deiner Stimme hochgeladen?🤔
So weit ist es schon! ^^ 😅
Wäre vielleicht mal Zeit die Ressourcen in Quantencomputer zu stecken.
Definitiv eine spannende Angelegenheit! 👀
Quantencomputer, eine Lösung auf der Suche nach dem Problem
Es gibt deutlich mehr alternativen als Quantencomputer, welche aktuell auch deutlich besser umzusetzen sind. Der Aufbau eines Quantencomputers ist viel zu kompliziert für den Standard-Rechner. Mal ganz davon ab, dass sich Quantencomputer nicht für alle Probleme eignen. Viel einfacher wären bspw. Ersatzmaterialien für Silizium, welche deutlich höhere Taktraten oder auch eine weitere minituarisierung ermöglichen. Auch wäre ein optischer Transistor wahrscheinlicher, welcher bspw. 100-1000x so schnell sein könnte wie ein heutiger Transistor. Auf jeden Fall muss sich was tun, nur AI (Maschinelles Lernen) wird das Problem nicht lösen, da es im Prinzip nur mathematische Modelle sind um eine relativ gute Annäherung in der Grafikberechnung zu schaffen (für kreative Dinge natürlich bombe um langwierige Aufgaben zu beschleunigen). Wir brauchen für alle Dinge einfach mehr Rechenpower (Echte AI, VR, 4k/8k usw.)
Eine weitere Möglichkeit wäre es an den schwachen AIs weiter zu arbeiten um so eine Starke zu erhalten. Aber vor einer solchen hätte ich auch Angst (Mark Uwe Kling hat mal ein Buch geschrieben das sich prinzipiell um AIs dreht es heisst Qualityland)
Lasst uns erstmal von x86 wegkommen
Sehr cooles Video, willst du nicht mal eine AI Week machen und jeden Tag ein kleines Video mit Praxis Beispielen.
Tag 1 ChatGPT und co
Tag 2 Foto Bearbeitung mit Ai
Tag 3 Audio
Tag 4 Video
Und und und 😃
Gerne auch mit 1-2 anderen Content Creator oder Experten aus den jeweiligen Bereichen.
Wäre bestimmt super cool, interessant und lehrreich ☺️
Bei den Temperaturen fahre ich in den Süden, da zeigt man Kompass den Norden unten an. Tja, hätte ja ein Like gegeben, aber ich folge stets Deinen Anweisungen! 😂
Ryzen 7 7800x3d, 4080 super, ddr5 6000 30cl ram und jahrelang ruhe
Warum macht man die Chips nicht einfach größer, wie die Threadripper? Das einzige Problem ist dann doch nur den Chip kühlen zu können und genug strom liefern zu können.
Das ist meine Vermutung:
Strom ist eigentlich sehr langsam, also würde es ewig brauchen bis der Chips etwas zum andern Transistor bringen kann. Und desto kleiner die Chips sind, desto effizienter. Denn so welche chips zu produzieren ist verdammt kompliziert und schwer. Bei der 40 Serie von Nvidia ist eigentlich genau der gleiche Chip drin. Eine 4060 hat aber mehrere Defekte Bereiche als eine 4090. Bei einem großen Chip kann viel mehr schief gehen.
@@Dreamlicationwow, warte mal die ballern alle Chips mit Laser ab mit den Versuch auf die 4090 und Testen sie dann auf die Qualität und je mehr defekt davon ist geht sie in die Kategorie 4060?
@@UnderPowert schau dir mal das Video von Branch education an. Das ist 27:48 lang. Auf Englisch. Eine umfangreiche Erklärung als diese kriegst du nicht.
@@UnderPowert Hab etwas mehr recherchiert und ja, alle 40 Serie Karten haben den gleichen Chip aber haben mehr oder weniger Bereiche die defekt sind.
eine eigene offline ki zu haben wäre echt geil! weil leider ja die ganzen ki aktuell unter zensur stehen bei gewissen themen.
Als eine Person welche in einem Rechenzentrum arbeitet finde ich das Thema super interessant aber auch teilweise sinnlos (für Forschung ist AI super). Die Technik dahinter ist auch super interessant und im HPC Bereich sieht man auch jedes Jahr (manchmal alle zwei Jahre )riesige Sprünge von 50% oder manchmal 100%.
Kann mich der Thematik nur positiv anschließen. Ich nutze AI täglich in meiner Arbeit und auch in meiner Freizeit sowie als Nebenverdienst. Auf der Arbeit so wie die meisten chatGPT und die jeweiligen Module. Zum Nachschlagen oder schnellen scripten ist das einfach mega.
Und in meiner Freizeit Bildgenerierung und Bearbeitung. Sei es über diverse SD Frameworks oder auch mit der Adobe Suite.
AI wird zu einem ganz normalen alltäglichen Begleiter werden. Ich finde es ist wichtig, dass die Leute lernen damit umzugehen.
AI muss nicht dieses böse Etwas sein das uns tausende Arbeitsplätze kosten wird. Es kann auch genausogut neue Arbeitsplätze schaffen und neue Industriezweige öffnen.
Hey! Ne frage, würde es rein Theoretisch funktionieren wenn man eine PS5 und einen Pc an EINEN Monitor anschließen könnte? 🤔
ja
@ müsste ich es dann die ganze Zeit umstecken oder an hdmi 2.0 die ps5
@@Besen_sucher Hol dir einen HDMI-Splitter
Wir benutzen AI in Photoshop bei der Bildbearbeitung. Das macht manches schneller als es händisch zu tun. Funktioniert aber nicht immer perfekt.
Ich finde die Ki Funktionen in PS/raw converter schon krass. Hilft mir extrem vorher langsame händische arbeiten schnell umzusetzen. Genauso ist es echt mega geil um krasse Kompositings mal schnell als mockup umzusetzen. Wie du sagst nicht immer perfekt aber ich will nie wieder zurück :D
Topaz AI 👍🏻✅💯
Beruflich arbeite ich im PLM Umfeld mit AI - dort wird sie hauptsächlich genutzt, um Abfragen und Analysen zu bestimmten Produkten und deren Merkmale zu generieren.
Privat nutze ich AI eher selten und dann eher for fun.
Was ist aus dem gestrigen Kreative Fragen geworden? Sonst kommt Kreative Fragen doch Freitags um 15.00 Uhr
Was bedeutet genau "Intel Optimiert" bei RAM? Kann ich den weissen dominator titanium mit amd expo nutzen?
#kreativefragen
7:56 Videos mit der Nvida-GPU rendern ist nun aber wirklich nicht neu. Nvenc gibt es schon seit Jahren, das habe ich schon mit einer GTX 1060 gemacht. Zu Zeiten, wo es den AI-Hype (zum Glück) noch nicht gab.
Moore's Law hat sicherlich auch nicht berücksichtigt das Energie Produktion im Jahr 2024 wieder zum Luxusgut zählt.
Man könnte wohl wesentlich mehr erreichen wenn wir mit der Energieproduktion nicht immer noch im Jahr 1960 stecken würden. Energieeffizienz ist mittlerweile einer der großen Interessen, auch Intels neuster Chip hat keinerlei Performance Zuwachs bekommen dafür aber gleiche Performance bei weniger Energieaufnahme als sein Vorgänger.
Bitte eine Dubaro Werbung auf Blatt deutsch
Also selbst wenn wir langsam an den Grenzen sind was Transistoren betrifft ist dies nicht das Hauptproblem. Ich habe vor über 10 Jahren schon gesagt das bei 7 GHz CPU Ende sein wird. Und eigentlich wenn wir ehrlich sind, ist es weit unter 7 GHz. Warum weil jeder Highend Rechner bald ein eigenes Kraftwerk bräuchte. Es geht um den Verkauf. Und sowas lässt sich nicht in Masse verkaufen. Auch Nvidia könnte wie es bei den CPU schon passiert, einfach die Kerne GPU verdoppeln. Das würde besser sein als 2 oder mehr Grafikkarten in einem Gerät zu nutzen.
Aber auch das würde so manchen das Budget knacken und daher wahrscheinlich nicht ausreichen um dementsprechend zu verkaufen. Außerdem gehen uns langsam aber sich die Ressourcen aus, und das liegt zu einem daran das immer mehr PC und Konsolen in den Umlaufkommen, zum anderen an den Kriegen die momentan herrschen und wahrscheinlich auch an die aktuelle Lage der Bedrohung von China zu Taiwan. Ich glaube das die Nvidia 5000 Serie so langsam das Ende einläutet was eine Single GPU angeht und vor allem an die, die sich eine 5090 Serie leisten werden.
Den dazu geforderten CPU und RAM. Beim RAM sind wir noch nicht am Ende dort gibt es jetzt als Basis die DDR 5. Sicherlich wird dies wahrscheinlich auf DDR 7 bald enden. Was noch etwas schnell gehen könnte ist wiederum SSD und gewisse Chip später auf Mainboards die es ermöglichen all diese Hardware auch einwandfrei und sehr Effektiv zu nutzen. Der Fehler bei PCler ist schlicht. Ein PC wird eben meist nicht nur zum Zocken benutzt. Würde dies der Fall sein wäre im Voraus Preisleistung immer ein absolutes Minus sein. Sondern eben auch für Texte, Video render oder Streamingdienste. Dabei sammeln sich soviel Müll dabei an das man eigentlich seinen PC alle 6 Monate so intensiv von Daten Müll reinigen müsste das er wieder richtig flott läuft. Im Grunde müsste man sogar alle 6 Monate das Betriebssystem neu aufsetzen. Eigentlich bräuchte jeder Zocker der noch viele andere Sachen mit seinem PC nutzt ein Super-Backup Programm das dies automatisch alle 6 Monate tut, ohne dabei aktuelle Arbeitsdateien zu löschen oder zu zerstören. Und wenn wir ehrlich sind, müsste man 3 PC haben oder Laptops. Einem zum zocken, einen zum Text und Streamingdienste und einem um Videos oder Musik zu verarbeiten. Wollen wir nicht, und würde ja PC auch irgendwie unsinnig machen!
Ein Haupgrund für das Stagnieren der Taktraten ist die recht geringe Lichtgeschwindigkeit. (Elektrische Signale bewegen sich mit rund 2/3 der Lichtgeschwindigkeit.) Bei 7 GHz kommt das elektrische Signal in einem Takt nur noch etwa 20 cm weit. Bei höheren Taktraten müsste man Prozessoren und Leitungen auf dem Motherboard immer kleiner/kürzer machen, was dann letztendlich die Anzahl der Transistoren (welche nicht beliebig klein sein können) beschränken würde und auf Kosten der Rechenleistung ginge.
also ich finde das von der 3090 auf die 4090 ein riesiger sprung ist so wie der sprung von der 4090 zu der 5090 wird mit pcie express 5.0 Gddr7 und mehr vram und mehr kerne
Ab 2:50 bekomme ich Kopfschmerzen warum ist kein vsync aktiviert
Ich würde das so gerne lernen wollen. Interessiert mich sehr. Gerade weil ich es auch selbst brauchen kann für alles was ich brauch
Naja das Thema ist an sich auch super interessant, zukunftsweisend und wird auch auf ewig ein immer wichtigeres Thema bleiben. Es hat ja einen Grund wieso das schon seit Jahrzehnten existiert und nun ist man endlich an dem Punkt, wo man auch die Technik und das Wissen hat, um damit auch in einer akzeptablen Zeit etwas anzufangen. Das Problem ist eben nachwievor wie das ganze vermarktet wird (siehe die letzten Technikmessen) mit solchem Blödsinn wie der AI Maus und dem AI Gehäuse. Man fühlt sich da eben nur noch veralbert, als ob viele Hersteller einfach schreien " Hallo hier guck mal ich bin auch super modern und hab was mit AI, bitte bitte kauf mein Zeug".
Das was heute an Features und Funktionen als KI bezeichnet wird, hat nichts mit der eigentlichen Definition von KI zutun. Die Blase wird platzen und der Hype wird auf das zurecht gestutzt werden was es ist. Paar neue Software Funktionen die durch Marketing zu KI Features gemacht werden aber eigentlich nur entfernt welche sind.
1:19 ist die RXT4070 gut?
Für 1440p ja. Ist in der Rasterisierung etwas schwächer als eine AMD 7800XT, bei Raytracing aber etwas stärker.
Wo liegt eigentlich die physikalische Grenze fuer einen Transistor? 1nm? 8 (Gold-)Atome? Oder was ist theoretisch noch herstellbar?
Aktuell liegt die physikalische Grenze beim Licht. Die Transistoren in einem Computerkern werden ja durch Lithographie so verkleinert. Der Aufwand der mittlerweile betrieben werden muss, um Licht mit einer Wellenlänge von 4nm zu erzeugen ist immens. Da wird mit Ultrahochviolet-Lasern auf Quecksilberkugeln geschossen, welches dadurch ionisiert und dann Licht mit Wellenlängen unter 10 nm abgeben kann. Um die Laser zu steuern werden Spiegel verwendet, die mit einer Abweichung von einer Atomhöhe hergestellt werden. (Die kommen übrigens von Zeiss)
es gibt keine physikalische Grenze sondern nur eine technische Grenze anhand unseres derzeitigen Wisssens.
Danke für dieses Video genau das thema hatte ich mir gewünscht
Hey ich habe da mal eine Frage welcher CPU sollte ich mir holen, wenn ich eine 4070 habe? Vielen Dank!
für welche auflösung, welche plattform (am4/5 oder intel)?
Sollte ich mir jetzt einen Pc kaufen oder erst wenn die neuen 5000 Karten und Amd cpus erscheinen? Weil jetzt tendiere ich zu einer 4080 Super und einer 7800 x3d cpu aber die werden sicher im Preis fallen (denk ich). Also warten oder kaufen? Bitte Hilfe 🙏🙏🙏
Wie findest du das neue Asus Ally X ? im vergleich zum All Z
Wenn man AI-getrimmte Systeme berücksichtigt - wie es NVIDIA auch tut -, ist Moore‘s Law - abgesehen von der Leistungssteigerung kraft Erhöhung der Transistorenzahl - so gesehen nicht tot.
Moores Law bezieht sich aber ausschließlich auf die Anzahl an Transistoren pro Chipfläche.
Kreativecke Ich habe eine Frage immer wenn ich meinen PC Starte
Kriege ich einen Blackscreen wir haben auch schon alle Treiber Aktualisiert und es fallen uns keine neuen Ideen ein wie wir das Problem beheben können 😥😥😥
#KreativeFragen Welche PC Konfiguration ist am besten für Gaming (Full HD) und aufwendige Blender Projekte geeignet und hat ein gutes Preis-Leistungs-Verhältnis?
in welcher Auflösung?
Full HD
Ich bin etwas enttäuscht, dass die Ryzen 5 8600G und Ryzen 7 8700G nicht erwähnt wurden. Diese CPUs haben eine NPU integriert und man kann damit eine sehr günstige Workstation bauen.
Dafür hat AMD das Geld aber nicht lockergemacht.
Video ist ja auch nicht von AMD gesponsort :D
Moin hab mir gerade einen gaming Laptop für unterwegs gekauft und kann windows nicht installieren weil mein speicher von windows nicht erkannt wird bitte um hilfe
Ich habe mir einen PC zusammengestellt, aber ich weis nicht ganz, ob dieser so Perfekt ist, und deshalb würde ich gerne noch jemanden einen Blick drüber werfen lassen der vielleicht ein bisschen mehr Ahnung hat.
Ich weis aber nicht ganz wo ich das machen kann.
Was haltet ihr von der Kombination rtx 4060 und ryzen 5 5600x ?
Gute budget Kombi kommt halt drauf an was du willst mit den system. Mainboard vorhanden oder muss gekauft werden?wen gekauft werden muss warum nich AM5 und ne günstige 7000 CPU da biste Upgrade fähiger für die zukunft.
Hat jemand eine Mainboard empfehlung für die ryzen 9 5950x? Habe zurzeit noch ein msi x570 a-pro und das soll ja vom vrm zu schwach sein
Also RISC-V macht aktuell enorme Fortschritte
Die Rechenleistung übertrifft teilweise moderne x86 Prozessoren bei deutlich kleinerem budget und Stromverbrauch
Das Problem ist, dass bestimmte Mainstream-Betriebssysteme (Windows) mehr damit beschäftigt sind, mehr services in der Cloud zur Verfügung zu stellen, als ihr OS für neue Architekturen anzupassen (ARM/RISC-V)
Und jetzt? Was haben wir Gamer bitte davon?
Ich nutze aktuell perplexity um in meiner Ausbildung Themen zu verstehen die ich beim Lehrer nicht verstehe.
2:47 Das liegt aber hauptsächlich daran, dass die meisten einfach drauf scheißen ihr Spiel vernünftig zu optimieren, weil warum sollte man da Zeit und Geld investieren wenn man einfach sagen kann: "DLSS wird wird unsere Geldgier und Faulheit schon ausbügeln." Jeder verlässt sich nur noch auf DLSS um überhaupt noch irgendwie 60 FPS zu erreichen - obwohl die Games nicht mal so Geil aussehen - statt sein Spiel vernünftig zu Programmieren.
Ich liebe und hasse DLSS, denn es ist Fluch & Segen zugleich.
Ich mag deine Videos total aber mich jedes Mal mit der Kompass-App nach Norden auszurichten, dass Handy waagerecht zu halten und dann auf den Daumen nach oben zu clicken ist immer etwas aufwändig.
Ach ja KI wird uns leider trotzdem hart zerstören 😢
Nope
Ja und wir sind ja auch selber daran Schuld, wenn wir das wie alles andere immer zulassen! Genau wie diese verkackte Politik und die verkackte Waffenlieferungen, die dem Krieg nur weiter anheizen 🤮🤮🤮💩💩💩🫣🫣🫣
Chat Gpt und andere Chatbots sind noch weit von einer echten KI entfernt, die Bots "denken" nicht, sondern wissen nur welches nächste Wort am wahrscheinlichsten ist, weil sie mit tonnenweise Daten gefüttert wurden.
Jo kann mir irgendjemand helfen meine cpu ist dauerhaft egal was ich schließe oder oder oder wirklich dauerhaft auf 100% hat da jemand eine lösung?
Ich denke nicht, dass Moores law tot ist.Mein bestes Beispiel ist Apple, die haben es in den letzten Generationen und expezit von m3 auf m4 immer wieder gute Verbesserungen geschafft haben
10:16
Super informatives Video, danke dafür! 🚀 Ich nutze KI bereits in meinem Alltag für Textbearbeitung und als Unterstützung bei Recherchen. Tatsächlich wäre es aber wirklich interessant, wenn man KI unabhängig von der Cloud nutzen könnte, vor allem aus Datenschutzgründen und um auf eine stabile Internetverbindung verzichten zu können. Nvidia und andere Anbieter schaffen da ja gerade echt spannende Möglichkeiten. Wie seht ihr das, nutzt jemand hier KI offline? 😊 … (ja, auch dieser Kommentar entstand mit etwas KI-Unterstützung)
Ein Video am Sonntag das gabs schon lange nicht mehr 👏
Yesss haha! 😂
Ich finde es schade dass, wenn man in der Discord Gruppe nach Meinungen zum Selbstkonfigurierten PC fragt (Bezüglich der Harmonie der Komponenten). Dort meist nur als Antwort kommt: Das geht Günstiger, warum den überteuerten Corsair Lüfter? und so ähnliches.
Wenn man nach Tipps Fragen würde wie man den Preis runter bekommen kann, dann wäre das ja an sich passend zur Frage.
Aber kaum jemand kann dann zu sich sagen: Okay er möchte diese Marken haben, ich würde dafür nicht so viel Geld ausgeben aber ich Helfe ihm was seine Frage betrifft.
Das alles geht nur mit Nvidia und nicht mit AMD Grafikkarten?
hey kreativecke,
mich würde interessieren ob ich eher eine am4 oder am5 cpu kaufen sollte, da mein pc eine rx470 und einen i3 4150 hat.
Wäre nett wenn du mir antworten oder es in einem video mitreinnimmst.
Wenn es dir um Leistung geht, würde ich AM5 empfehlen.
Wenn es um Geld geht, würde ich aufrüsten: i7 4790 ~50€ + GTX1070 ~100€ =150€
Da alles von deinem Recht alten System ein Quantensprung wird reicht evtl mein zweiter Vorschlag.
Bin zwar spät, aber Ich habe eine AMD RX 6800 XT und kann Llama und Stable Diffusion ausführen. Warum? Weil ich Linux verwende. Unter Linux funktioniert das ganze AI zeug mit einer AMD GPU, soweit man mit dem ganzen Terminal kram Klar kommt (Zumindest Teilweise, geht auch ohne Terminal und know how wenn man Abstriche in flexiblität macht).
Endlich mal Werbung bei der man nicht grad sofort merkt das es Werbung ist
Du meinst das ganze Video?
@@hanswurst2220 Ja. Warum denkst du das oben rechts die ganze Zeit 'Werbung' steht ?
@@Skansin77 das frage ich dich
Es wäre interessant einen Test zu sehen wo ein AMD Threadripper Pro 7995WX gegen eine NVIDIA 4090 im rendering antritt von einem 8k 240 hz/fps ohne ai Features aber auch einen Test mit ai Features.
Bewusst nutze ich es nicht wirklich. Wenn es integriert ist wie bei DLSS, ist es für mich okay. Bei Google Apps wird es ja auch immer mehr eingebunden und man bekommt es eigentlich gar nicht mit.
Da ich zur älteren Generation gehöre bin ich auch der Meinung das es nur Unterstützen soll und einem nicht die Arbeit abnehmen soll. Was ich zum Beispiel schrecklich finde ist, sind die ganzen AI Bilder und Videos die im Netz rum schwirren. Man kann gar nicht mehr auseinander halten was richtig und AI ist.
Ja das ist definitiv problematisch! 😅
Ist für mich mehr hype als essenziell. Bis jetzt haben keine Unternehmen Umsatzsteigerungen durch AI erzielen können. Nvidia tritt als Schaufelverkäufer ins Licht und verspricht allen , dass sie Gold finden werden. AI kann man es auch eigentlich nicht nennen , weil es immer noch Machine-Learning ist. Klar gibt es hier und da neue coole Sachen und Erleichterungen und es wird auch safe in Zukunft alles mehr an Bedeutung gewinnen aber der aktuelle Hype ist für mich stand Jetzt nicht nachvollziehbar
krass am Sonntag um 17:00 Uhr ein Video? gab es doch noch nie oder?
Doch doch! Aber ist normalerweise natürlich nicht der Fall! 😂
Ich benötige Hilfe bitte. Möchte mein Setup verbessern, aber wo soll ich anfangen? Mein Setup :asus Prime x470 Pro , AMD Ryzen 7 2700X, KFA" GTX 1070Ti, Kingston Fury Hyper x DDR3 16 GB eine Neue SSD steht 1000% an habe nur 512 GB von Crucial
Kurze Frage, vielleicht kann jemand helfen :)
Wenn man in seinem PC einen neuen AMD Ryzen 7 9700x verbauen möchte, ist als Motherboard z.B. ein MSI PRO B650-S genauso benutzbar wie ein X670E? Zweiteres ist ja deutlich teurer. Aber laufen die neuen Chips auf dem älteren Board? :)
Hast du eine Antwort darauf?
@@reyzix-jj5of jap, sie laufen auch auf den Älteren :)
man merkt wie krank er bezahlt wurde in diesem video
Der ganze Kanal ist einfach nur dafür da um Profit zu machen und seine Zuschauer checken dass anscheinend nicht.
Ich nutze tatsächlich schon AI über meine RTX 4090 Founders Edition und über mein Samsung Foldable und es hilft mir sehr im Alltag. 👍
Tolles unterhaltsames Video was meinen Sonntag echt erfrischt hat. 😁👌
Mache weiter so #KreativEcke 💪😎❤️👍
Hey, danke dir ! ☺️
Moin Meister, kannst du mal ein Video machen, in dem du mechanische Low-Profile Tastaturen vergleichst? Finde zwar ein paar Videos darüber aber viele über Tastaturen ohne ISO Layout..
Hallo kreativeecke ich will ein pc selber bauen aber ich weis nicht was kannst du ein Video machen was ein guter gaming pc heutzutage brauch um sehr gut zu sein danke 😊
Glaubst du, dass NVDIA in den nächsten Jahren auch noch die Krone auf hat was KI angeht? Siehst du momentan irgendwelche Anzeichen, dass AMD aufschließen ggf. sogar überholen kann was die Technik angeht? :)
Interessante Frage! Allerdings kann man das definitiv nicht vorhersagen! 😊 Wäre natürlich super, wenn es mehrere Bigplayer in dem Gebiet gibt! 😊
AMD hat eigene AI/KI Beschleuniger. Eigene Software und Schnittstellen der aber OpenSource sind und unterstützt bereits Viele AI Software Projekte.
@@TheTaurus104 Auch eine normale 7900XTX kann KI über ROCm, das eigene CUDA von AMD. Wird auch von pytorch supported.
Könntest Du nicht mal zeigen wie man mit seiner RTX Bilder etc generiert?
Hallo ich weiß das es nicht zu diesem Video passt...aber würdest du folgende Konfiguration in Ordnung finden...ich überlege mir einen neuen PC zu kaufen und wollte eigentlich eine 4070 Ti Super einbauen da ich schon immer Team NVIDIA war. Allerdings ist mir aufgefallen das die meisten Benchmarks zeigen das die RX 7900XT mehr FPS liefert und das sogar für 110€ weniger und eine Frage am Rande würdest du diese Grafikkarte eher auf einen 4K oder QHD Monitor setzen da es eigentlich eher eine 4K Grafikkarte ist wenn auch im unteren Leistungsbereich aber genau da liegt meine Frage macht es dann nicht mehr Sinn einen QHD Monitor mit dieser zu befeuern und dann auf Max Einstellungen und hohen FPS zu spielen? Als CPU hatte ich mir überlegt mir eine 7 7800x3d zu besorgen, da aber bald die ersten x3d CPUs der 9. Gen auf den Markt kommen wollte ich fragen ob es Sinn macht noch etwas zu warten, vor allem da die Preise für den 7800x3d durch die Decke gehen?
Viele Grüße
Ach ja und tausendmal Entschuldigung für meine Rechtschreibung.
Habe mir vor kurzem selbst den 7800X3D geholt (gebraucht) und diesen Ruf hat er nicht umsonst. Da du ja schon selbst den Preisanstieg ansprichst, würde ich tatsächlich noch etwas warten.
X870 lohnt aber weiterhin nicht also würde ich für den 9800X3D definitiv ein X670 zu einem B650 vorziehen.
Bezüglich der GPU kommt es drauf an. Ich bin auch eher der NVIDIA Fan und DLSS und Ray Traycing sind sehr starke Argumente. Mit 4k musst du auf die AI-Features (Upscaler und Frame Gen) von AMD zurückgreifen, die nicht so gut sind wie die von Team Green. Für 1440p und kein großer Fokus auf Ray Traycing wäre die AMD GPU sicherlich ausreichend. Wenn du in Richtung 4k gehst, empfehle ich dir definitiv die 4070TiS um von DLSS zu profitieren. Wenn dein Target nur 60 fps sind, reicht das auf jeden Fall aus und mit 16GB VRAM bist du auch noch einige Jahre gut bedient. Ich habe selbst ein 1440p165Hz Setup und hätte gerne eine 4080 Super (als Referenz wie ich meinen Leistungsbedarf kalkuliere)
Würde die Konfiguration passen; Grafikarte RX 7900xtx
Prozessor Ryzen 9 9950x
Ram 4×16gb= 64gb ddr5
Speicher 2Tb Crucial t500
Mainboard ASUS ROG CROSSHAIR X870E
Wasserkühlung Corsair iCUE H150i Elite LCD XT
Gehäuse NZXT H9 Elite
Netzteil Corsair Gold 1000 Watt
3 Zusatzlüfter Thermalright C12
Warum kein Dual Channel ram?
@@blackeye6810 Ist das schlecht?
@@Gamerprofi1 unnötige geldverschwendung 2x16gb reicht fürs gaming
@@Gamerprofi1 Soweit ich weiß, sind 2 RAM Sticks in der Regel schneller, als 4. Warum das so ist, kann ich dir nicht sagen. Zum reinen zocken würde ich wahrscheinlich auch nur 32gb nehmen.
@@blackeye6810 Ok danke aber sonst würde alles passen?
Irgendwie hast du etwas unglückliche worte gewählt bei frame generation weil es nich immer die fps verdoppelt. Hört sich hier aber so an. Höchstens frame generation mit dlss verdoppelt die fps, aber nicht das reine frame gen also wenn man nur frame gen nutzt. Ansonsten top video. Weiter so.
Das ist ja wohl am Titel komplett vorbei, wahrscheinlich mit AI kreiert
#KreativeFragen Lohnt sich ein Wechsel von einen i5 14400 F auf einen AMD ryzen 7 7800 x3 D ?
Würdest du sagen rtx 4070 und ryzen 5 7800 gehen klar oder wird es ein bootleneck geben?
Zum zocken etc geht das klar und mit den AM5 sockel biste zukunftsfähig.
#kreativefragen Sollte man sich lieber einen 144Hz 4K-IPS-Monitor kaufen oder einen 144Hz-240Hz 1440p-OLED-Monitor auf 27 Zoll? Ich habe die richtige Hardware, um 4K mit 144Hz zu nutzen.
Ich hab mir vor ein paar Monaten einen 27 Zoll 240 Hz Oled Monitor von LG gekauft und ich bin einfach nur begeistert von Oled. Oled bietet echtes Schwarz, super schönes HDR und durch die 0.03 ms Latenz und VRR fühlen sich 60 FPS eher wie 90 an
Was hast du zum Monitor Video beschlossen?
Mh? :)
Kann das Wort nicht mehr hören.K.i ist nur da damit die Firmen sich keine Mühe mehr geben müssen und noch alles teurer machen darf xD.
Dafür machen sie Fortschritte mit den gestörten Preisen.
Ähnliches bietet auch schon Intel mit ihrer AI Playground an, und dabei hoffe ich auf das der gleich gut sein wird wie das von Nvidia. Denn seit dem Launch der 40 Reihe, hat sich Nvidia stark verändert und wünscht wortwörtlich Nieren als Bezahlmethode
#KreativeFragen Könntest du mal ein ITX build im Fractal Desing Era 2 Gehäuse machen? Finde das Case hat schon was ansprechendes wie es Designed ist
Davon gibt es bereits einige auf YT
Mashallah meine Brüder und ich bauen uns auch demnächst nen neuen Rechner ich hol mir wohl auch so nen geilen Dual Monitor 4k/1080p und mit ner dicken 5090 und DLSS wirds glaub geil
Erinnert vom Titel leicht an dein Video "Der WAHRE Grund, WARUM wir "KEINE Fortschritte" machen! Moores Law ist tot, oder nicht?" :p
Ich weiß nicht, wie ihr das seht, aber mir kommt beim Gedanken an "AI" immer gleich "SKYNET" in den Sinn...kann mir da nicht helfen.😆
Trotzdem find ich es mega faszinierend, was mit dieser Technik jetzt und in Zukunft alles möglich sein wird.
das was heute als ki betitelt wird und skynet in terminator sein soll davon sind wir noch mehrere Generationen entfernt wenn wir überhaupt mal soweit kommen ein echte KI zu erschaffen.
#kreativefragen was ist der Unterschied zwischen ner 4090 und 4080 die. Haben doch gleiche Leistung
Eine 4090 ist etwa 25% schneller als eine 4080
Alternative zu AI-->Qubits
Aktuell nutze ich KI noch nicht (direkt), freue mich aber natürlich, dass DLSS meine Games schneller macht.
Weil Kapitalismus.
Nvidia zockt die Kunden mit den aktuellen Preisen ab. Aber hey, wenn die Leute es mitmachen und man fast ein Monopol hat, warum auch nicht.
Bitte mach mal ein Video über Quantencomputer!
Wozu? Davon gibt es bereits eine Menge
@@hanswurst2220 Free Palestine Bruder
Und würde es feiern wenn er auch darüber mal ein Video macht
@@tarik.azml7
Das überschreitet Daniels Basiswissen, dementsprechend wird er auch kein Video dazu machen..
Plane von einem benq gl2450 monitor auf einen gigabyte m27 qx zu wechseln würdest du es mir empfehlen
Ich würde dir empfehlen.. hab selbst den Monitor.
Laut nvidia, nutze ich AI über meine grafikkarte, in Bezug auf die Skalierung. Ich glaube, ansonsten nutze ich es nicht. Bin aber auch schon über 40 und nicht mehr up-to-date....😂
Macht doch gleich eine gou die groß ist wie das ganze Haus
früher nannte man AI "auto" :D klar chat gpt und sowas ist schon beeindruckend und beängstigend zugleich, aber das meiste AI zeug ist halt marketing.
kann man hardware technisch nicht einfach 2 CPUs und 2 GPUs verwenden wenn die hardware am ende ist? ich meine früher hatten wir auch eine zeit, wo unsere CPUs 1 kern hatten, ich sage nur pentium 1+2, dann kam dual core und das war bahnbrechend, könnte ja auch dual-cpu und dual-gpu kommen?
Nvidia wird einfach das real life "skynet" 😂
nein, ganz und gar nicht. hat nix mit dem film (fiktion) zu tun.
Die Broadcast software ist so gut das mein pc alle paar tage einfach bluescreened und das immer mal wieder nach schauen in den log ist broadcast das problem seitdem ich den müll deinstalliert habe kein problem mehr muss die 4090 wohl doch nur zum gamen nutzen
Ja AI erleichtert die Arbeit so, das es betreutes Denken ist, und oder wie im Fall von Adobe geklaut wird und AI Hirnlos generierter Stuff massig das Web flutet. Wie wäre es mal zu Abwechslung die Nachteile von AI auf zu zeigen. Denn wenn niemand wirklich mehr beim Erstellen von content in bestimmen Bereichen was leistet, benötigen wir diesen nicht. 🤷♂️ Und encoden über die GPU ist nicht der AI zu verdanken sondern des des Verbauten HVEMC encoders auf einer GPU.
#KreativeFragen Du redest ja immer von NVIDIA und Ai, aber was ist mit AMD ? Ich habe eine AMD Radeon RX 7600 und in den Spezifikationen unter GPU steht "KI-Beschleuniger = 64" !!! Kannst du das mal im Video erklären, was das bei AMD auf sich hat ? Also beim programmieren in Microsoft-VisualStudio-Professional-2022, unterstützt die KI (Intellicode). Hilft da und auch bei anderen KI-Anwendungen oder bei Spielen der KI-Beschleuniger der Radeon ? LG Christian
Noch keine AI Benutzung.