Half-Life 3 kommt mit 99% warscheinlichkeit im November 2024 raus wobei es sich bei HL3 um ein remake von HL2 handeln könnte! (ja die Antwort kam von einer AI) :D
Moore's Law ist nicht tot... Ist gibt kein Grund für die Hardware Hersteller irgendwie was neues rauzubringen... Nvidia hat ja keine Konkurenz mehr... und AMD überholt Intel auch in vielen sachen... Warum super viel neues rausbringen wenn man keinen Grund dazu hat?
ein Grund wäre VR. bestes Spiel World meiner Meinung ist Halflife-Alyx. mehr davon Valve! ❤ das ist nur die Software die richtig genützt werden müsste! vielleicht bekommt das Alienspiel für VR, das bald rauskommt es hin.
Ich denke irgendwann muss es halt auch mal in die richtung gehen das Technik wieder günstiger wird, und vorallem auch Stromsparender. Ich meine was will man in 20 Jahren mit 16k Bildschirmen oder so, ich sehe den Sinn da nicht. Aber das in Zukunft durch AI es leichter wird 4k 240hz zu befeuern und das ganze Stromsparender wäre schon ne feine Sache.
@@KreativEcke Mal was anderes, mit den neuen Thumbnails, bleibt das so, ohne die Rote Ecke oben rechts? Fand das früher immer schöner, da hat man es immer direkt erkannt wenn es ein Video von dir war.
Geht nur wenn die Technik ausgetauscht wird, die Silizium-basierte Technik ist am Rande des physikalischen machbaren. Dadurch werden einfach mehr Transistoren auf den Chip geballert und die verbrauchen mehr Strom und erzeugen mehr Hitze.
Es gibt deutlich mehr alternativen als Quantencomputer, welche aktuell auch deutlich besser umzusetzen sind. Der Aufbau eines Quantencomputers ist viel zu kompliziert für den Standard-Rechner. Mal ganz davon ab, dass sich Quantencomputer nicht für alle Probleme eignen. Viel einfacher wären bspw. Ersatzmaterialien für Silizium, welche deutlich höhere Taktraten oder auch eine weitere minituarisierung ermöglichen. Auch wäre ein optischer Transistor wahrscheinlicher, welcher bspw. 100-1000x so schnell sein könnte wie ein heutiger Transistor. Auf jeden Fall muss sich was tun, nur AI (Maschinelles Lernen) wird das Problem nicht lösen, da es im Prinzip nur mathematische Modelle sind um eine relativ gute Annäherung in der Grafikberechnung zu schaffen (für kreative Dinge natürlich bombe um langwierige Aufgaben zu beschleunigen). Wir brauchen für alle Dinge einfach mehr Rechenpower (Echte AI, VR, 4k/8k usw.)
Eine weitere Möglichkeit wäre es an den schwachen AIs weiter zu arbeiten um so eine Starke zu erhalten. Aber vor einer solchen hätte ich auch Angst (Mark Uwe Kling hat mal ein Buch geschrieben das sich prinzipiell um AIs dreht es heisst Qualityland)
definitiv eine gute ansicht über die situation, aber ich bin ehrlich: der ganze AIersalat, dass es inzwischen immer das erste merkmal für alles ist, geht mir gehörig auf die nerven... es wird einfach zu sehr übertrieben
Also selbst wenn wir langsam an den Grenzen sind was Transistoren betrifft ist dies nicht das Hauptproblem. Ich habe vor über 10 Jahren schon gesagt das bei 7 GHz CPU Ende sein wird. Und eigentlich wenn wir ehrlich sind, ist es weit unter 7 GHz. Warum weil jeder Highend Rechner bald ein eigenes Kraftwerk bräuchte. Es geht um den Verkauf. Und sowas lässt sich nicht in Masse verkaufen. Auch Nvidia könnte wie es bei den CPU schon passiert, einfach die Kerne GPU verdoppeln. Das würde besser sein als 2 oder mehr Grafikkarten in einem Gerät zu nutzen. Aber auch das würde so manchen das Budget knacken und daher wahrscheinlich nicht ausreichen um dementsprechend zu verkaufen. Außerdem gehen uns langsam aber sich die Ressourcen aus, und das liegt zu einem daran das immer mehr PC und Konsolen in den Umlaufkommen, zum anderen an den Kriegen die momentan herrschen und wahrscheinlich auch an die aktuelle Lage der Bedrohung von China zu Taiwan. Ich glaube das die Nvidia 5000 Serie so langsam das Ende einläutet was eine Single GPU angeht und vor allem an die, die sich eine 5090 Serie leisten werden. Den dazu geforderten CPU und RAM. Beim RAM sind wir noch nicht am Ende dort gibt es jetzt als Basis die DDR 5. Sicherlich wird dies wahrscheinlich auf DDR 7 bald enden. Was noch etwas schnell gehen könnte ist wiederum SSD und gewisse Chip später auf Mainboards die es ermöglichen all diese Hardware auch einwandfrei und sehr Effektiv zu nutzen. Der Fehler bei PCler ist schlicht. Ein PC wird eben meist nicht nur zum Zocken benutzt. Würde dies der Fall sein wäre im Voraus Preisleistung immer ein absolutes Minus sein. Sondern eben auch für Texte, Video render oder Streamingdienste. Dabei sammeln sich soviel Müll dabei an das man eigentlich seinen PC alle 6 Monate so intensiv von Daten Müll reinigen müsste das er wieder richtig flott läuft. Im Grunde müsste man sogar alle 6 Monate das Betriebssystem neu aufsetzen. Eigentlich bräuchte jeder Zocker der noch viele andere Sachen mit seinem PC nutzt ein Super-Backup Programm das dies automatisch alle 6 Monate tut, ohne dabei aktuelle Arbeitsdateien zu löschen oder zu zerstören. Und wenn wir ehrlich sind, müsste man 3 PC haben oder Laptops. Einem zum zocken, einen zum Text und Streamingdienste und einem um Videos oder Musik zu verarbeiten. Wollen wir nicht, und würde ja PC auch irgendwie unsinnig machen!
‚,what a time to be alife‘‘ denke ich mir schon wenn ich innerhalb von sek Überweisungen mit dem einfachen abfotografieren von Bankdaten schaffe. Einfach eine Mega geile Zeit für Menschen die Technik lieben.
Also RISC-V macht aktuell enorme Fortschritte Die Rechenleistung übertrifft teilweise moderne x86 Prozessoren bei deutlich kleinerem budget und Stromverbrauch Das Problem ist, dass bestimmte Mainstream-Betriebssysteme (Windows) mehr damit beschäftigt sind, mehr services in der Cloud zur Verfügung zu stellen, als ihr OS für neue Architekturen anzupassen (ARM/RISC-V)
Beruflich arbeite ich im PLM Umfeld mit AI - dort wird sie hauptsächlich genutzt, um Abfragen und Analysen zu bestimmten Produkten und deren Merkmale zu generieren. Privat nutze ich AI eher selten und dann eher for fun.
Als eine Person welche in einem Rechenzentrum arbeitet finde ich das Thema super interessant aber auch teilweise sinnlos (für Forschung ist AI super). Die Technik dahinter ist auch super interessant und im HPC Bereich sieht man auch jedes Jahr (manchmal alle zwei Jahre )riesige Sprünge von 50% oder manchmal 100%.
Ich bin etwas enttäuscht, dass die Ryzen 5 8600G und Ryzen 7 8700G nicht erwähnt wurden. Diese CPUs haben eine NPU integriert und man kann damit eine sehr günstige Workstation bauen.
Hallo ich weiß das es nicht zu diesem Video passt...aber würdest du folgende Konfiguration in Ordnung finden...ich überlege mir einen neuen PC zu kaufen und wollte eigentlich eine 4070 Ti Super einbauen da ich schon immer Team NVIDIA war. Allerdings ist mir aufgefallen das die meisten Benchmarks zeigen das die RX 7900XT mehr FPS liefert und das sogar für 110€ weniger und eine Frage am Rande würdest du diese Grafikkarte eher auf einen 4K oder QHD Monitor setzen da es eigentlich eher eine 4K Grafikkarte ist wenn auch im unteren Leistungsbereich aber genau da liegt meine Frage macht es dann nicht mehr Sinn einen QHD Monitor mit dieser zu befeuern und dann auf Max Einstellungen und hohen FPS zu spielen? Als CPU hatte ich mir überlegt mir eine 7 7800x3d zu besorgen, da aber bald die ersten x3d CPUs der 9. Gen auf den Markt kommen wollte ich fragen ob es Sinn macht noch etwas zu warten, vor allem da die Preise für den 7800x3d durch die Decke gehen? Viele Grüße Ach ja und tausendmal Entschuldigung für meine Rechtschreibung.
Ich finde die Ki Funktionen in PS/raw converter schon krass. Hilft mir extrem vorher langsame händische arbeiten schnell umzusetzen. Genauso ist es echt mega geil um krasse Kompositings mal schnell als mockup umzusetzen. Wie du sagst nicht immer perfekt aber ich will nie wieder zurück :D
Naja das Thema ist an sich auch super interessant, zukunftsweisend und wird auch auf ewig ein immer wichtigeres Thema bleiben. Es hat ja einen Grund wieso das schon seit Jahrzehnten existiert und nun ist man endlich an dem Punkt, wo man auch die Technik und das Wissen hat, um damit auch in einer akzeptablen Zeit etwas anzufangen. Das Problem ist eben nachwievor wie das ganze vermarktet wird (siehe die letzten Technikmessen) mit solchem Blödsinn wie der AI Maus und dem AI Gehäuse. Man fühlt sich da eben nur noch veralbert, als ob viele Hersteller einfach schreien " Hallo hier guck mal ich bin auch super modern und hab was mit AI, bitte bitte kauf mein Zeug".
Das was heute an Features und Funktionen als KI bezeichnet wird, hat nichts mit der eigentlichen Definition von KI zutun. Die Blase wird platzen und der Hype wird auf das zurecht gestutzt werden was es ist. Paar neue Software Funktionen die durch Marketing zu KI Features gemacht werden aber eigentlich nur entfernt welche sind.
Glaubst du, dass NVDIA in den nächsten Jahren auch noch die Krone auf hat was KI angeht? Siehst du momentan irgendwelche Anzeichen, dass AMD aufschließen ggf. sogar überholen kann was die Technik angeht? :)
Gute budget Kombi kommt halt drauf an was du willst mit den system. Mainboard vorhanden oder muss gekauft werden?wen gekauft werden muss warum nich AM5 und ne günstige 7000 CPU da biste Upgrade fähiger für die zukunft.
Wenn man AI-getrimmte Systeme berücksichtigt - wie es NVIDIA auch tut -, ist Moore‘s Law - abgesehen von der Leistungssteigerung kraft Erhöhung der Transistorenzahl - so gesehen nicht tot.
Aktuell liegt die physikalische Grenze beim Licht. Die Transistoren in einem Computerkern werden ja durch Lithographie so verkleinert. Der Aufwand der mittlerweile betrieben werden muss, um Licht mit einer Wellenlänge von 4nm zu erzeugen ist immens. Da wird mit Ultrahochviolet-Lasern auf Quecksilberkugeln geschossen, welches dadurch ionisiert und dann Licht mit Wellenlängen unter 10 nm abgeben kann. Um die Laser zu steuern werden Spiegel verwendet, die mit einer Abweichung von einer Atomhöhe hergestellt werden. (Die kommen übrigens von Zeiss)
Ist für mich mehr hype als essenziell. Bis jetzt haben keine Unternehmen Umsatzsteigerungen durch AI erzielen können. Nvidia tritt als Schaufelverkäufer ins Licht und verspricht allen , dass sie Gold finden werden. AI kann man es auch eigentlich nicht nennen , weil es immer noch Machine-Learning ist. Klar gibt es hier und da neue coole Sachen und Erleichterungen und es wird auch safe in Zukunft alles mehr an Bedeutung gewinnen aber der aktuelle Hype ist für mich stand Jetzt nicht nachvollziehbar
also ich finde das von der 3090 auf die 4090 ein riesiger sprung ist so wie der sprung von der 4090 zu der 5090 wird mit pcie express 5.0 Gddr7 und mehr vram und mehr kerne
Bewusst nutze ich es nicht wirklich. Wenn es integriert ist wie bei DLSS, ist es für mich okay. Bei Google Apps wird es ja auch immer mehr eingebunden und man bekommt es eigentlich gar nicht mit. Da ich zur älteren Generation gehöre bin ich auch der Meinung das es nur Unterstützen soll und einem nicht die Arbeit abnehmen soll. Was ich zum Beispiel schrecklich finde ist, sind die ganzen AI Bilder und Videos die im Netz rum schwirren. Man kann gar nicht mehr auseinander halten was richtig und AI ist.
@@Gamerprofi1 Soweit ich weiß, sind 2 RAM Sticks in der Regel schneller, als 4. Warum das so ist, kann ich dir nicht sagen. Zum reinen zocken würde ich wahrscheinlich auch nur 32gb nehmen.
7:56 Videos mit der Nvida-GPU rendern ist nun aber wirklich nicht neu. Nvenc gibt es schon seit Jahren, das habe ich schon mit einer GTX 1060 gemacht. Zu Zeiten, wo es den AI-Hype (zum Glück) noch nicht gab.
Ja AI erleichtert die Arbeit so, das es betreutes Denken ist, und oder wie im Fall von Adobe geklaut wird und AI Hirnlos generierter Stuff massig das Web flutet. Wie wäre es mal zu Abwechslung die Nachteile von AI auf zu zeigen. Denn wenn niemand wirklich mehr beim Erstellen von content in bestimmen Bereichen was leistet, benötigen wir diesen nicht. 🤷♂️ Und encoden über die GPU ist nicht der AI zu verdanken sondern des des Verbauten HVEMC encoders auf einer GPU.
Es wäre interessant einen Test zu sehen wo ein AMD Threadripper Pro 7995WX gegen eine NVIDIA 4090 im rendering antritt von einem 8k 240 hz/fps ohne ai Features aber auch einen Test mit ai Features.
Eigentlich komisch, wieso muss die Baugröße immer kleiner werden?! - grade wenn dadurch mehr Fehlerströme entstehen?! Man kann doch den Chip vergrößern und mehr Kerne drauf setzen und den Cache stapeln und die Kühlung weit optimieren usw.. Und ja Software ist wichtig.. bringt halt nichts Leistung zu haben und keine Software nutzt die.. Wie beim Sega Saturn^^ Und meine Meinung ist dass wir künstlich ausgebremst werden.. Damit die selber nachhaltiger sind und mehr Geld machen können.
Ein größerer Chip hat z.B. das fundamentale Problem, das es mehr Fläche gibt, wo Fehler entstehen können. Je größer der Die, desto mehr Fehlproduktionen entstehen. Dadurch wird die gesammt-Produktionskapazität kleiner, es braucht deutlich mehr Silicium (größerer die UND mehr unbrauchbare Ware) und die kosten Steigen exponentiell an.
Je kleiner die Baugröße desto effizienter sind die Chips. Es bringt nichts Chips zu haben 1000kw saugen und dafür schnell sind. Das kann nämlich keiner zahlen.1 Die Millionen von Servern etc. Brauchen sparsame Chips. Dein Smartphone braucht sparsamer Chips usw.
Hinzu kommt noch, dass je kleiner die Fläche eines Chips ist, desto mehr Chips passen auf einen Wafer. Dadurch können in einem Fertigungsschritt mehr Chips gleichzeitig belichtet werden und damit Kosten eingespart werden.
@@reemann8179 nur wie gesagt, die könnten noch alles um die CPU drum herum verbessern.. 3D V-Cache ist ja nur der Anfang.. den könnte man noch locker erhöhen. Und guck dir die Server-CPUs an.. wenn wir so weit sind das die für ein schmalen Taler verkauft werden, dann haben wir die Grenze erreicht.. ich meine das Gesetz ist tot, aber das Ende haben wir lange nicht erreicht^^
Ich weiß nicht, wie ihr das seht, aber mir kommt beim Gedanken an "AI" immer gleich "SKYNET" in den Sinn...kann mir da nicht helfen.😆 Trotzdem find ich es mega faszinierend, was mit dieser Technik jetzt und in Zukunft alles möglich sein wird.
das was heute als ki betitelt wird und skynet in terminator sein soll davon sind wir noch mehrere Generationen entfernt wenn wir überhaupt mal soweit kommen ein echte KI zu erschaffen.
#KreativeFragen Du redest ja immer von NVIDIA und Ai, aber was ist mit AMD ? Ich habe eine AMD Radeon RX 7600 und in den Spezifikationen unter GPU steht "KI-Beschleuniger = 64" !!! Kannst du das mal im Video erklären, was das bei AMD auf sich hat ? Also beim programmieren in Microsoft-VisualStudio-Professional-2022, unterstützt die KI (Intellicode). Hilft da und auch bei anderen KI-Anwendungen oder bei Spielen der KI-Beschleuniger der Radeon ? LG Christian
Laut nvidia, nutze ich AI über meine grafikkarte, in Bezug auf die Skalierung. Ich glaube, ansonsten nutze ich es nicht. Bin aber auch schon über 40 und nicht mehr up-to-date....😂
Ähnliches bietet auch schon Intel mit ihrer AI Playground an, und dabei hoffe ich auf das der gleich gut sein wird wie das von Nvidia. Denn seit dem Launch der 40 Reihe, hat sich Nvidia stark verändert und wünscht wortwörtlich Nieren als Bezahlmethode
#kreativefragen Sollte man sich lieber einen 144Hz 4K-IPS-Monitor kaufen oder einen 144Hz-240Hz 1440p-OLED-Monitor auf 27 Zoll? Ich habe die richtige Hardware, um 4K mit 144Hz zu nutzen.
Ich hab mir vor ein paar Monaten einen 27 Zoll 240 Hz Oled Monitor von LG gekauft und ich bin einfach nur begeistert von Oled. Oled bietet echtes Schwarz, super schönes HDR und durch die 0.03 ms Latenz und VRR fühlen sich 60 FPS eher wie 90 an
10:16 Super informatives Video, danke dafür! 🚀 Ich nutze KI bereits in meinem Alltag für Textbearbeitung und als Unterstützung bei Recherchen. Tatsächlich wäre es aber wirklich interessant, wenn man KI unabhängig von der Cloud nutzen könnte, vor allem aus Datenschutzgründen und um auf eine stabile Internetverbindung verzichten zu können. Nvidia und andere Anbieter schaffen da ja gerade echt spannende Möglichkeiten. Wie seht ihr das, nutzt jemand hier KI offline? 😊 … (ja, auch dieser Kommentar entstand mit etwas KI-Unterstützung)
Mittlerweile nutze ich KI täglich - von Textkorrektur und Übersetzung bis hin zur Ideenfindung, Planung und Optimierung verschiedenster Projekte. Insgesamt betrachte ich KI als mächtiges Werkzeug, das aus unserem Alltag nicht mehr wegzudenken ist. Man könnte sogar sagen: "KI markiert eine eigene Epoche, vergleichbar mit der Erfindung des Internets, der Suchmaschinen oder des PCs selbst."
ja aber trotzdem ist KI weniger einer künstliche Intelligenz, als ein Programm welches halt nur ziemlich genial geschrieben wurde und das macht was es soll..
@@TheTaurus104 Ich benutze gerne den Begriff „Sprachmodell“ für ChatGPT. Streng genommen gehören jedoch selbst einfache Automatisierungen bereits zur Kategorie der „schwachen KI“.
#KrativFragen Ich hätte mal eine kleine Frage ich wollte mir gerne einen weißen gaming PC bauen deswegen wollte ich fragen ob du mir Komponenten empfehlen könntest.ich habe ungefähr 1100€ zu Verfügung und spiele eigentlich alle Games.
Ich nutze tatsächlich schon AI über meine RTX 4090 Founders Edition und über mein Samsung Foldable und es hilft mir sehr im Alltag. 👍 Tolles unterhaltsames Video was meinen Sonntag echt erfrischt hat. 😁👌 Mache weiter so #KreativEcke 💪😎❤️👍
sorry aber um den Bokeh Effekt so hinzubekommen braucht du keine teure Kamera oder Objektiv, es kommt auf das Zusammenspiel von Brennweite und Verschluss an
Hi, könnte mir jemand weiterhelfen oder mir Tipps geben zu der Frage, mit welcher GPU ich aufrüsten sollte. Meine CPU ist eine AMD Ryzen 5 PRO 2400G und meine APU reicht nicht mehr aus, weshalb ich noch zwischen der AMD Radeon RX 6400 und der RX 6600 überlege. Die RX 6600 wurde mir bereits von jemandem vorgeschlagen, allerdings bottlenecked meine CPU dabei zu 35% (laut pc-builds )und die RX 6400 nur zu ca. 1-2%, was ja nicht wirklich als Bottleneck anzusehen ist. Und die Person meinte, dass ich den Bottleneck einfach durch das Hochstellen der Details und der Bildqualität kompensieren könnte. Stimmt das so? (bin nicht so bewandert was das betrifft) Welche sollte ich mir von den Beiden holen, oder würdet ihr mir zu einer ganz anderen raten? Schon mal Danke im voraus :)
Ich bin fest davon überzeugt das AI unser Untergang sein wird. Es ist ganz und gar nicht gut wohin sich das alles entwickelt. Verstehe auch deswegen nicht warum du mit Nvidia noch "zusammenarbeitest".....
@@mirkotram5306 Kannst du lesen oder dich nur lustig machen über ein so ernstes Thema? Ich habe nirgends geschrieben das ich nicht weiss wohin das führt. Also mach dich nicht lächerlich!
sich einfach komplett von x86 verabschieden ARM ist jetzt schon effizienter :) gleiches bei Grafikkarten es gab mal ein versuch das sogenannte endless detail . brauchte weniger leistung bei wahnsinnigen details
Arm ist sicherlich nicht effizienter und gleichzeitig leistungsstärker das zeigen die lunar lake cpus im mobil und Qualcomms im Vergleich schlechtere Snapdragon Elite X CPU.
Nope, den Daumen gibt's diesmal höchstens in südliche Richtung, obwohl da ja eigentlich zwei Herzen in meiner Brust schlagen. Einerseits IST KI nun mal ein Ding, so skeptisch und altersstarrsinnig ich dem Unfug auch gegenüberstehe, und insofern ist dieses Video, na ja, so semi-informativ. Die andere Sache ist aber, dass Nvidia so eine aufgeblähte, komplett unsympathische Bude ist, dass die meiner Meinung nach nicht noch einen - Verzeihung - TH-cam-Fritz brauchen, der für sie die Werbetrommel rührt. Ich mochte deinen "Content" bisher gut leiden, weil du in der Präsentation die Gratwanderung zwischen Professionalität und Lässigkeit hinbekommst, und weil man tatsächlich einiges lernen kann mit deinen Videos. Aber mir fällt in letzter Zeit vermehrt auf, dass ganz gern mal (über die Freitagswerbung hinausgehende) Werbung für Dubaro geschaltet wird, und dass eine RTX 4070 plötzlich keine Grafikkarte mehr ist, sondern ein "RTX Power System", hat irgendwie für mich auch ein leichtes Geschmäckle, wobei das vielleicht nicht mal auf deinem Mist gewachsen ist. Ja, es ist als "Werbung" gekennzeichnet, aber für die Zukunft würde ich mir bspw. mal ein Video über KI im Allgemeinen oder Spezielleren ohne das "eklige" Nvidia-Füßeküssen wünschen, wo man WIRKLICH was lernt.
Selbst KI kann nicht sagen, wann Half-Life 3 rauskommt. 😢 5:25
aber die kann es bestimmt bald programmieren^^
aber erst müsste man eine KI alle Spiele spielen lassen, damit sie das beste Spiel schaffen kann :P
Half-Life 3 kommt mit 99% warscheinlichkeit im November 2024 raus wobei es sich bei HL3 um ein remake von HL2 handeln könnte! (ja die Antwort kam von einer AI) :D
Bis dahin gibt es Holoräume wie auf der Enterprise, das wird toll.🙃
Moore's Law ist nicht tot... Ist gibt kein Grund für die Hardware Hersteller irgendwie was neues rauzubringen... Nvidia hat ja keine Konkurenz mehr... und AMD überholt Intel auch in vielen sachen... Warum super viel neues rausbringen wenn man keinen Grund dazu hat?
Und nicht vergessen, dass einige Verbraucher mittlerweile gerne mehr Geld ausgeben für weniger Leistung, Hauptsache man hat das neuste Zeug. lol
ein Grund wäre VR. bestes Spiel World meiner Meinung ist Halflife-Alyx.
mehr davon Valve! ❤
das ist nur die Software die richtig genützt werden müsste!
vielleicht bekommt das Alienspiel für VR, das bald rauskommt es hin.
Im HPC Bereich haben wir Sprünge von 50-100% pro Generation (abhängig von was man macht). Bei HPC Kunden kannst du wirklich viel Gewinn machen
Der nächste Schritt ist die Photonik. Analoge Lasercpus und parallel QuantenCPUs
Aber das ändert nichts daran das man nicht immer weiter miniaturisieren kann.
Ich denke irgendwann muss es halt auch mal in die richtung gehen das Technik wieder günstiger wird, und vorallem auch Stromsparender. Ich meine was will man in 20 Jahren mit 16k Bildschirmen oder so, ich sehe den Sinn da nicht. Aber das in Zukunft durch AI es leichter wird 4k 240hz zu befeuern und das ganze Stromsparender wäre schon ne feine Sache.
Das ist definitiv ein Trend den ich auch sehr begrüßen würde! 😊
@@KreativEcke Mal was anderes, mit den neuen Thumbnails, bleibt das so, ohne die Rote Ecke oben rechts? Fand das früher immer schöner, da hat man es immer direkt erkannt wenn es ein Video von dir war.
Geht nur wenn die Technik ausgetauscht wird, die Silizium-basierte Technik ist am Rande des physikalischen machbaren. Dadurch werden einfach mehr Transistoren auf den Chip geballert und die verbrauchen mehr Strom und erzeugen mehr Hitze.
Nicht mit unseren Intel/AMD Prozessoren
Wäre vielleicht mal Zeit die Ressourcen in Quantencomputer zu stecken.
Definitiv eine spannende Angelegenheit! 👀
Quantencomputer, eine Lösung auf der Suche nach dem Problem
Es gibt deutlich mehr alternativen als Quantencomputer, welche aktuell auch deutlich besser umzusetzen sind. Der Aufbau eines Quantencomputers ist viel zu kompliziert für den Standard-Rechner. Mal ganz davon ab, dass sich Quantencomputer nicht für alle Probleme eignen. Viel einfacher wären bspw. Ersatzmaterialien für Silizium, welche deutlich höhere Taktraten oder auch eine weitere minituarisierung ermöglichen. Auch wäre ein optischer Transistor wahrscheinlicher, welcher bspw. 100-1000x so schnell sein könnte wie ein heutiger Transistor. Auf jeden Fall muss sich was tun, nur AI (Maschinelles Lernen) wird das Problem nicht lösen, da es im Prinzip nur mathematische Modelle sind um eine relativ gute Annäherung in der Grafikberechnung zu schaffen (für kreative Dinge natürlich bombe um langwierige Aufgaben zu beschleunigen). Wir brauchen für alle Dinge einfach mehr Rechenpower (Echte AI, VR, 4k/8k usw.)
Eine weitere Möglichkeit wäre es an den schwachen AIs weiter zu arbeiten um so eine Starke zu erhalten. Aber vor einer solchen hätte ich auch Angst (Mark Uwe Kling hat mal ein Buch geschrieben das sich prinzipiell um AIs dreht es heisst Qualityland)
Lasst uns erstmal von x86 wegkommen
definitiv eine gute ansicht über die situation, aber ich bin ehrlich: der ganze AIersalat, dass es inzwischen immer das erste merkmal für alles ist, geht mir gehörig auf die nerven... es wird einfach zu sehr übertrieben
Ja es ist schon bisschen viel, stimmt schon! 😅
Nvidia wird einfach das real life "skynet" 😂
Hat die AI von NVIDIA jetzt ihr eigenes Werbevideo gemacht und auf deinem Kanal, mit deiner Stimme hochgeladen?🤔
So weit ist es schon! ^^ 😅
Also selbst wenn wir langsam an den Grenzen sind was Transistoren betrifft ist dies nicht das Hauptproblem. Ich habe vor über 10 Jahren schon gesagt das bei 7 GHz CPU Ende sein wird. Und eigentlich wenn wir ehrlich sind, ist es weit unter 7 GHz. Warum weil jeder Highend Rechner bald ein eigenes Kraftwerk bräuchte. Es geht um den Verkauf. Und sowas lässt sich nicht in Masse verkaufen. Auch Nvidia könnte wie es bei den CPU schon passiert, einfach die Kerne GPU verdoppeln. Das würde besser sein als 2 oder mehr Grafikkarten in einem Gerät zu nutzen.
Aber auch das würde so manchen das Budget knacken und daher wahrscheinlich nicht ausreichen um dementsprechend zu verkaufen. Außerdem gehen uns langsam aber sich die Ressourcen aus, und das liegt zu einem daran das immer mehr PC und Konsolen in den Umlaufkommen, zum anderen an den Kriegen die momentan herrschen und wahrscheinlich auch an die aktuelle Lage der Bedrohung von China zu Taiwan. Ich glaube das die Nvidia 5000 Serie so langsam das Ende einläutet was eine Single GPU angeht und vor allem an die, die sich eine 5090 Serie leisten werden.
Den dazu geforderten CPU und RAM. Beim RAM sind wir noch nicht am Ende dort gibt es jetzt als Basis die DDR 5. Sicherlich wird dies wahrscheinlich auf DDR 7 bald enden. Was noch etwas schnell gehen könnte ist wiederum SSD und gewisse Chip später auf Mainboards die es ermöglichen all diese Hardware auch einwandfrei und sehr Effektiv zu nutzen. Der Fehler bei PCler ist schlicht. Ein PC wird eben meist nicht nur zum Zocken benutzt. Würde dies der Fall sein wäre im Voraus Preisleistung immer ein absolutes Minus sein. Sondern eben auch für Texte, Video render oder Streamingdienste. Dabei sammeln sich soviel Müll dabei an das man eigentlich seinen PC alle 6 Monate so intensiv von Daten Müll reinigen müsste das er wieder richtig flott läuft. Im Grunde müsste man sogar alle 6 Monate das Betriebssystem neu aufsetzen. Eigentlich bräuchte jeder Zocker der noch viele andere Sachen mit seinem PC nutzt ein Super-Backup Programm das dies automatisch alle 6 Monate tut, ohne dabei aktuelle Arbeitsdateien zu löschen oder zu zerstören. Und wenn wir ehrlich sind, müsste man 3 PC haben oder Laptops. Einem zum zocken, einen zum Text und Streamingdienste und einem um Videos oder Musik zu verarbeiten. Wollen wir nicht, und würde ja PC auch irgendwie unsinnig machen!
‚,what a time to be alife‘‘ denke ich mir schon wenn ich innerhalb von sek Überweisungen mit dem einfachen abfotografieren von Bankdaten schaffe. Einfach eine Mega geile Zeit für Menschen die Technik lieben.
Definitiv! 😎
Ach ja KI wird uns leider trotzdem hart zerstören 😢
Also RISC-V macht aktuell enorme Fortschritte
Die Rechenleistung übertrifft teilweise moderne x86 Prozessoren bei deutlich kleinerem budget und Stromverbrauch
Das Problem ist, dass bestimmte Mainstream-Betriebssysteme (Windows) mehr damit beschäftigt sind, mehr services in der Cloud zur Verfügung zu stellen, als ihr OS für neue Architekturen anzupassen (ARM/RISC-V)
Ryzen 7 7800x3d, 4080 super, ddr5 6000 30cl ram und jahrelang ruhe
Beruflich arbeite ich im PLM Umfeld mit AI - dort wird sie hauptsächlich genutzt, um Abfragen und Analysen zu bestimmten Produkten und deren Merkmale zu generieren.
Privat nutze ich AI eher selten und dann eher for fun.
Als eine Person welche in einem Rechenzentrum arbeitet finde ich das Thema super interessant aber auch teilweise sinnlos (für Forschung ist AI super). Die Technik dahinter ist auch super interessant und im HPC Bereich sieht man auch jedes Jahr (manchmal alle zwei Jahre )riesige Sprünge von 50% oder manchmal 100%.
Ich bin etwas enttäuscht, dass die Ryzen 5 8600G und Ryzen 7 8700G nicht erwähnt wurden. Diese CPUs haben eine NPU integriert und man kann damit eine sehr günstige Workstation bauen.
Dafür hat AMD das Geld aber nicht lockergemacht.
Hallo ich weiß das es nicht zu diesem Video passt...aber würdest du folgende Konfiguration in Ordnung finden...ich überlege mir einen neuen PC zu kaufen und wollte eigentlich eine 4070 Ti Super einbauen da ich schon immer Team NVIDIA war. Allerdings ist mir aufgefallen das die meisten Benchmarks zeigen das die RX 7900XT mehr FPS liefert und das sogar für 110€ weniger und eine Frage am Rande würdest du diese Grafikkarte eher auf einen 4K oder QHD Monitor setzen da es eigentlich eher eine 4K Grafikkarte ist wenn auch im unteren Leistungsbereich aber genau da liegt meine Frage macht es dann nicht mehr Sinn einen QHD Monitor mit dieser zu befeuern und dann auf Max Einstellungen und hohen FPS zu spielen? Als CPU hatte ich mir überlegt mir eine 7 7800x3d zu besorgen, da aber bald die ersten x3d CPUs der 9. Gen auf den Markt kommen wollte ich fragen ob es Sinn macht noch etwas zu warten, vor allem da die Preise für den 7800x3d durch die Decke gehen?
Viele Grüße
Ach ja und tausendmal Entschuldigung für meine Rechtschreibung.
Wir benutzen AI in Photoshop bei der Bildbearbeitung. Das macht manches schneller als es händisch zu tun. Funktioniert aber nicht immer perfekt.
Ich finde die Ki Funktionen in PS/raw converter schon krass. Hilft mir extrem vorher langsame händische arbeiten schnell umzusetzen. Genauso ist es echt mega geil um krasse Kompositings mal schnell als mockup umzusetzen. Wie du sagst nicht immer perfekt aber ich will nie wieder zurück :D
Naja das Thema ist an sich auch super interessant, zukunftsweisend und wird auch auf ewig ein immer wichtigeres Thema bleiben. Es hat ja einen Grund wieso das schon seit Jahrzehnten existiert und nun ist man endlich an dem Punkt, wo man auch die Technik und das Wissen hat, um damit auch in einer akzeptablen Zeit etwas anzufangen. Das Problem ist eben nachwievor wie das ganze vermarktet wird (siehe die letzten Technikmessen) mit solchem Blödsinn wie der AI Maus und dem AI Gehäuse. Man fühlt sich da eben nur noch veralbert, als ob viele Hersteller einfach schreien " Hallo hier guck mal ich bin auch super modern und hab was mit AI, bitte bitte kauf mein Zeug".
Das was heute an Features und Funktionen als KI bezeichnet wird, hat nichts mit der eigentlichen Definition von KI zutun. Die Blase wird platzen und der Hype wird auf das zurecht gestutzt werden was es ist. Paar neue Software Funktionen die durch Marketing zu KI Features gemacht werden aber eigentlich nur entfernt welche sind.
Interessant Dauerwerbesendung 😊
eine eigene offline ki zu haben wäre echt geil! weil leider ja die ganzen ki aktuell unter zensur stehen bei gewissen themen.
Glaubst du, dass NVDIA in den nächsten Jahren auch noch die Krone auf hat was KI angeht? Siehst du momentan irgendwelche Anzeichen, dass AMD aufschließen ggf. sogar überholen kann was die Technik angeht? :)
Interessante Frage! Allerdings kann man das definitiv nicht vorhersagen! 😊 Wäre natürlich super, wenn es mehrere Bigplayer in dem Gebiet gibt! 😊
AMD hat eigene AI/KI Beschleuniger. Eigene Software und Schnittstellen der aber OpenSource sind und unterstützt bereits Viele AI Software Projekte.
@@TheTaurus104 Auch eine normale 7900XTX kann KI über ROCm, das eigene CUDA von AMD. Wird auch von pytorch supported.
Und dann gibt es valorant "player" die sich Pixelbrei auf 540Hz anschauen um Latenzen zu verringern... Krasse Welt
Was haltet ihr von der Kombination rtx 4060 und ryzen 5 5600x ?
Gute budget Kombi kommt halt drauf an was du willst mit den system. Mainboard vorhanden oder muss gekauft werden?wen gekauft werden muss warum nich AM5 und ne günstige 7000 CPU da biste Upgrade fähiger für die zukunft.
Wenn man AI-getrimmte Systeme berücksichtigt - wie es NVIDIA auch tut -, ist Moore‘s Law - abgesehen von der Leistungssteigerung kraft Erhöhung der Transistorenzahl - so gesehen nicht tot.
Moores Law bezieht sich aber ausschließlich auf die Anzahl an Transistoren pro Chipfläche.
Ich nutze aktuell perplexity um in meiner Ausbildung Themen zu verstehen die ich beim Lehrer nicht verstehe.
Wo liegt eigentlich die physikalische Grenze fuer einen Transistor? 1nm? 8 (Gold-)Atome? Oder was ist theoretisch noch herstellbar?
Aktuell liegt die physikalische Grenze beim Licht. Die Transistoren in einem Computerkern werden ja durch Lithographie so verkleinert. Der Aufwand der mittlerweile betrieben werden muss, um Licht mit einer Wellenlänge von 4nm zu erzeugen ist immens. Da wird mit Ultrahochviolet-Lasern auf Quecksilberkugeln geschossen, welches dadurch ionisiert und dann Licht mit Wellenlängen unter 10 nm abgeben kann. Um die Laser zu steuern werden Spiegel verwendet, die mit einer Abweichung von einer Atomhöhe hergestellt werden. (Die kommen übrigens von Zeiss)
es gibt keine physikalische Grenze sondern nur eine technische Grenze anhand unseres derzeitigen Wisssens.
Ist für mich mehr hype als essenziell. Bis jetzt haben keine Unternehmen Umsatzsteigerungen durch AI erzielen können. Nvidia tritt als Schaufelverkäufer ins Licht und verspricht allen , dass sie Gold finden werden. AI kann man es auch eigentlich nicht nennen , weil es immer noch Machine-Learning ist. Klar gibt es hier und da neue coole Sachen und Erleichterungen und es wird auch safe in Zukunft alles mehr an Bedeutung gewinnen aber der aktuelle Hype ist für mich stand Jetzt nicht nachvollziehbar
Was ich mich schon lange frage: Was für einen CPU hat ein Borg-Kubus?
also ich finde das von der 3090 auf die 4090 ein riesiger sprung ist so wie der sprung von der 4090 zu der 5090 wird mit pcie express 5.0 Gddr7 und mehr vram und mehr kerne
Würdest du sagen rtx 4070 und ryzen 5 7800 gehen klar oder wird es ein bootleneck geben?
Zum zocken etc geht das klar und mit den AM5 sockel biste zukunftsfähig.
Bewusst nutze ich es nicht wirklich. Wenn es integriert ist wie bei DLSS, ist es für mich okay. Bei Google Apps wird es ja auch immer mehr eingebunden und man bekommt es eigentlich gar nicht mit.
Da ich zur älteren Generation gehöre bin ich auch der Meinung das es nur Unterstützen soll und einem nicht die Arbeit abnehmen soll. Was ich zum Beispiel schrecklich finde ist, sind die ganzen AI Bilder und Videos die im Netz rum schwirren. Man kann gar nicht mehr auseinander halten was richtig und AI ist.
Ja das ist definitiv problematisch! 😅
Würde die Konfiguration passen; Grafikarte RX 7900xtx
Prozessor Ryzen 9 9950x
Ram 4×16gb= 64gb ddr5
Speicher 2Tb Crucial t500
Mainboard ASUS ROG CROSSHAIR X870E
Wasserkühlung Corsair iCUE H150i Elite LCD XT
Gehäuse NZXT H9 Elite
Netzteil Corsair Gold 1000 Watt
3 Zusatzlüfter Thermalright C12
Warum kein Dual Channel ram?
@@blackeye6810 Ist das schlecht?
@@Gamerprofi1 unnötige geldverschwendung 2x16gb reicht fürs gaming
@@Gamerprofi1 Soweit ich weiß, sind 2 RAM Sticks in der Regel schneller, als 4. Warum das so ist, kann ich dir nicht sagen. Zum reinen zocken würde ich wahrscheinlich auch nur 32gb nehmen.
@@blackeye6810 Ok danke aber sonst würde alles passen?
7:56 Videos mit der Nvida-GPU rendern ist nun aber wirklich nicht neu. Nvenc gibt es schon seit Jahren, das habe ich schon mit einer GTX 1060 gemacht. Zu Zeiten, wo es den AI-Hype (zum Glück) noch nicht gab.
Nvidia zockt die Kunden mit den aktuellen Preisen ab. Aber hey, wenn die Leute es mitmachen und man fast ein Monopol hat, warum auch nicht.
Ja AI erleichtert die Arbeit so, das es betreutes Denken ist, und oder wie im Fall von Adobe geklaut wird und AI Hirnlos generierter Stuff massig das Web flutet. Wie wäre es mal zu Abwechslung die Nachteile von AI auf zu zeigen. Denn wenn niemand wirklich mehr beim Erstellen von content in bestimmen Bereichen was leistet, benötigen wir diesen nicht. 🤷♂️ Und encoden über die GPU ist nicht der AI zu verdanken sondern des des Verbauten HVEMC encoders auf einer GPU.
Es wäre interessant einen Test zu sehen wo ein AMD Threadripper Pro 7995WX gegen eine NVIDIA 4090 im rendering antritt von einem 8k 240 hz/fps ohne ai Features aber auch einen Test mit ai Features.
Eigentlich komisch, wieso muss die Baugröße immer kleiner werden?! - grade wenn dadurch mehr Fehlerströme entstehen?!
Man kann doch den Chip vergrößern und mehr Kerne drauf setzen und den Cache stapeln und die Kühlung weit optimieren usw..
Und ja Software ist wichtig.. bringt halt nichts Leistung zu haben und keine Software nutzt die.. Wie beim Sega Saturn^^
Und meine Meinung ist dass wir künstlich ausgebremst werden.. Damit die selber nachhaltiger sind und mehr Geld machen können.
Ein größerer Chip hat z.B. das fundamentale Problem, das es mehr Fläche gibt, wo Fehler entstehen können. Je größer der Die, desto mehr Fehlproduktionen entstehen. Dadurch wird die gesammt-Produktionskapazität kleiner, es braucht deutlich mehr Silicium (größerer die UND mehr unbrauchbare Ware) und die kosten Steigen exponentiell an.
Je kleiner die Baugröße desto effizienter sind die Chips. Es bringt nichts Chips zu haben 1000kw saugen und dafür schnell sind.
Das kann nämlich keiner zahlen.1
Die Millionen von Servern etc. Brauchen sparsame Chips. Dein Smartphone braucht sparsamer Chips usw.
Vielleicht solltest du dir mal die Physik dahinter anschauen, dann wäre dir auch klar warum es immer kleiner werden muss ;)
Hinzu kommt noch, dass je kleiner die Fläche eines Chips ist, desto mehr Chips passen auf einen Wafer. Dadurch können in einem Fertigungsschritt mehr Chips gleichzeitig belichtet werden und damit Kosten eingespart werden.
@@reemann8179 nur wie gesagt, die könnten noch alles um die CPU drum herum verbessern.. 3D V-Cache ist ja nur der Anfang.. den könnte man noch locker erhöhen. Und guck dir die Server-CPUs an.. wenn wir so weit sind das die für ein schmalen Taler verkauft werden, dann haben wir die Grenze erreicht..
ich meine das Gesetz ist tot, aber das Ende haben wir lange nicht erreicht^^
Ich weiß nicht, wie ihr das seht, aber mir kommt beim Gedanken an "AI" immer gleich "SKYNET" in den Sinn...kann mir da nicht helfen.😆
Trotzdem find ich es mega faszinierend, was mit dieser Technik jetzt und in Zukunft alles möglich sein wird.
das was heute als ki betitelt wird und skynet in terminator sein soll davon sind wir noch mehrere Generationen entfernt wenn wir überhaupt mal soweit kommen ein echte KI zu erschaffen.
#KreativeFragen Du redest ja immer von NVIDIA und Ai, aber was ist mit AMD ? Ich habe eine AMD Radeon RX 7600 und in den Spezifikationen unter GPU steht "KI-Beschleuniger = 64" !!! Kannst du das mal im Video erklären, was das bei AMD auf sich hat ? Also beim programmieren in Microsoft-VisualStudio-Professional-2022, unterstützt die KI (Intellicode). Hilft da und auch bei anderen KI-Anwendungen oder bei Spielen der KI-Beschleuniger der Radeon ? LG Christian
krass am Sonntag um 17:00 Uhr ein Video? gab es doch noch nie oder?
Doch doch! Aber ist normalerweise natürlich nicht der Fall! 😂
Laut nvidia, nutze ich AI über meine grafikkarte, in Bezug auf die Skalierung. Ich glaube, ansonsten nutze ich es nicht. Bin aber auch schon über 40 und nicht mehr up-to-date....😂
Ähnliches bietet auch schon Intel mit ihrer AI Playground an, und dabei hoffe ich auf das der gleich gut sein wird wie das von Nvidia. Denn seit dem Launch der 40 Reihe, hat sich Nvidia stark verändert und wünscht wortwörtlich Nieren als Bezahlmethode
#kreativefragen Sollte man sich lieber einen 144Hz 4K-IPS-Monitor kaufen oder einen 144Hz-240Hz 1440p-OLED-Monitor auf 27 Zoll? Ich habe die richtige Hardware, um 4K mit 144Hz zu nutzen.
Ich hab mir vor ein paar Monaten einen 27 Zoll 240 Hz Oled Monitor von LG gekauft und ich bin einfach nur begeistert von Oled. Oled bietet echtes Schwarz, super schönes HDR und durch die 0.03 ms Latenz und VRR fühlen sich 60 FPS eher wie 90 an
Was hast du zum Monitor Video beschlossen?
Mh? :)
10:16
Super informatives Video, danke dafür! 🚀 Ich nutze KI bereits in meinem Alltag für Textbearbeitung und als Unterstützung bei Recherchen. Tatsächlich wäre es aber wirklich interessant, wenn man KI unabhängig von der Cloud nutzen könnte, vor allem aus Datenschutzgründen und um auf eine stabile Internetverbindung verzichten zu können. Nvidia und andere Anbieter schaffen da ja gerade echt spannende Möglichkeiten. Wie seht ihr das, nutzt jemand hier KI offline? 😊 … (ja, auch dieser Kommentar entstand mit etwas KI-Unterstützung)
Aktuell nutze ich KI noch nicht (direkt), freue mich aber natürlich, dass DLSS meine Games schneller macht.
Macht doch gleich eine gou die groß ist wie das ganze Haus
nicht mehr lange, dann wird nvidia in cyberdyne umbenannt, RTX gibts dann auch nimmer sondern Skynet und dann haben wir party xD
Kann das Wort nicht mehr hören.K.i ist nur da damit die Firmen sich keine Mühe mehr geben müssen und noch alles teurer machen darf xD.
man merkt wie krank er bezahlt wurde in diesem video
Ab 2:50 bekomme ich Kopfschmerzen warum ist kein vsync aktiviert
1:19 ist die RXT4070 gut?
Für 1440p ja. Ist in der Rasterisierung etwas schwächer als eine AMD 7800XT, bei Raytracing aber etwas stärker.
Bin ich der einzige, der KI nicht vertraut und diesen scheiß nicht benutzen möchte?
Jap 😂
Mittlerweile nutze ich KI täglich - von Textkorrektur und Übersetzung bis hin zur Ideenfindung, Planung und Optimierung verschiedenster Projekte. Insgesamt betrachte ich KI als mächtiges Werkzeug, das aus unserem Alltag nicht mehr wegzudenken ist. Man könnte sogar sagen: "KI markiert eine eigene Epoche, vergleichbar mit der Erfindung des Internets, der Suchmaschinen oder des PCs selbst."
ja aber trotzdem ist KI weniger einer künstliche Intelligenz, als ein Programm welches halt nur ziemlich genial geschrieben wurde und das macht was es soll..
Das was heute als KI bezeichnet wird hat nichts mit der eigentlichen Definition von KI zutun.
@@TheTaurus104 Ich benutze gerne den Begriff „Sprachmodell“ für ChatGPT. Streng genommen gehören jedoch selbst einfache Automatisierungen bereits zur Kategorie der „schwachen KI“.
#kreativefragen was ist der Unterschied zwischen ner 4090 und 4080 die. Haben doch gleiche Leistung
Eine 4090 ist etwa 25% schneller als eine 4080
Heißt das in der osteuropäischen Landwirtschaft dann Muh Slawen?
😂
Bitte mach mal ein Video über Quantencomputer!
Heute ist doch Sonntag oder?
Ja? :D
Das mit offline ist schön und gut aber mein PC ist immer an einem Lankabel gebunden
Wow, noch keine bots
Abwarten haha! 😂😅
Das hätte ich als Bot auch gesagt
ich fänds mal spannend wenn nvidia ne cpu raushauen würde
Das wäre tatsächlich interessant 👀
#KrativFragen Ich hätte mal eine kleine Frage ich wollte mir gerne einen weißen gaming PC bauen deswegen wollte ich fragen ob du mir Komponenten empfehlen könntest.ich habe ungefähr 1100€ zu Verfügung und spiele eigentlich alle Games.
Stell dir was schönes zusammen mit einer 4070 Super und einem 7500F oder falls dir AM4 genügt ein 5700X3D
Danke werde ich dann mal machen
Achso und ich kenne mich so garnicht mit PCs aus was ist denn noch bei den anderen Komponenten so gutes was in mein Budget passt ?
Nilson cooler Typ
Definitiv! 😎
Danke für dieses Video genau das thema hatte ich mir gewünscht
Ein Video am Sonntag das gabs schon lange nicht mehr 👏
Yesss haha! 😂
servus tipps um fn esportler zu werden?
Tu's nicht...
digga ist das dein ernst
@@trowfymobile9753 warum?
@@julianhalllo9741 ja why?
@@trowfymobile9753 warum kollege?
Ich nutze tatsächlich schon AI über meine RTX 4090 Founders Edition und über mein Samsung Foldable und es hilft mir sehr im Alltag. 👍
Tolles unterhaltsames Video was meinen Sonntag echt erfrischt hat. 😁👌
Mache weiter so #KreativEcke 💪😎❤️👍
Hey, danke dir ! ☺️
#kreativeFragen kriegen wir eine Studio Tour?
Könnte ich mal wieder machen! :)
bei war thunder is dlls voll schlecht mit der Qualität x.x (bestimmt 1gen XD)
Oh! 😅
sorry aber um den Bokeh Effekt so hinzubekommen braucht du keine teure Kamera oder Objektiv, es kommt auf das Zusammenspiel von Brennweite und Verschluss an
Hi, könnte mir jemand weiterhelfen oder mir Tipps geben zu der Frage, mit welcher GPU ich aufrüsten sollte. Meine CPU ist eine AMD Ryzen 5 PRO 2400G und meine APU reicht nicht mehr aus, weshalb ich noch zwischen der AMD Radeon RX 6400 und der RX 6600 überlege. Die RX 6600 wurde mir bereits von jemandem vorgeschlagen, allerdings bottlenecked meine CPU dabei zu 35% (laut pc-builds )und die RX 6400 nur zu ca. 1-2%, was ja nicht wirklich als Bottleneck anzusehen ist. Und die Person meinte, dass ich den Bottleneck einfach durch das Hochstellen der Details und der Bildqualität kompensieren könnte. Stimmt das so? (bin nicht so bewandert was das betrifft) Welche sollte ich mir von den Beiden holen, oder würdet ihr mir zu einer ganz anderen raten? Schon mal Danke im voraus :)
well, ich kreiere Dio ai civetd mit... joa ai
Geiles interessantes Video!!!
Danke! 🙏 😊
Wenigstens mal Ai statt Ki 😂
Dubaru AI
Upscaling🎉❤
Liebe deine videos
😊
aktivier mal dein windows :D
Es bleibt alles so wie es ist! 😂
Nvidia FTW
Wie immer ein sehr tolles Video von dir ^-^ Danke Schön 😊
Gern geschehen 😊
Was geht
Hey! 😊
Das Video sollte unter unnütze wissen laufen 😏
Wieso genau?! :)
@@KreativEcke weil jeder gamer bzw jeder der sich bissel mit pc beschäftigt weiß was Ki und Ai ist sowas ist nichts neues mehr
@@KreativEckeDas weiß er bestimmt nicht 😂.
Ich bin fest davon überzeugt das AI unser Untergang sein wird. Es ist ganz und gar nicht gut wohin sich das alles entwickelt. Verstehe auch deswegen nicht warum du mit Nvidia noch "zusammenarbeitest".....
? Untergang ? Und nicht wissen wohin ? Was denn nun ?
Ich mache mir da keine Sorgen.
@@neutralasswitz3192 er hat letztes die matrix Trilogie geguckt
@@mirkotram5306 Kannst du lesen oder dich nur lustig machen über ein so ernstes Thema? Ich habe nirgends geschrieben das ich nicht weiss wohin das führt. Also mach dich nicht lächerlich!
@@tad5796 ich glaube du bist eine heulsuse und das kannst du für dich behalten.
sich einfach komplett von x86 verabschieden ARM ist jetzt schon effizienter :) gleiches bei Grafikkarten es gab mal ein versuch das sogenannte endless detail . brauchte weniger leistung bei wahnsinnigen details
Wäre auch eine Idee! 😊
Arm ist sicherlich nicht effizienter und gleichzeitig leistungsstärker das zeigen die lunar lake cpus im mobil und Qualcomms im Vergleich schlechtere Snapdragon Elite X CPU.
18 min
Sehr schnell! 👀😎
zweiter
Bin kein bot
Sicher?👀😂
Zweiter :D
erster
Jup :)
Die ersten werden die letzten sein.
Nope, den Daumen gibt's diesmal höchstens in südliche Richtung, obwohl da ja eigentlich zwei Herzen in meiner Brust schlagen. Einerseits IST KI nun mal ein Ding, so skeptisch und altersstarrsinnig ich dem Unfug auch gegenüberstehe, und insofern ist dieses Video, na ja, so semi-informativ. Die andere Sache ist aber, dass Nvidia so eine aufgeblähte, komplett unsympathische Bude ist, dass die meiner Meinung nach nicht noch einen - Verzeihung - TH-cam-Fritz brauchen, der für sie die Werbetrommel rührt.
Ich mochte deinen "Content" bisher gut leiden, weil du in der Präsentation die Gratwanderung zwischen Professionalität und Lässigkeit hinbekommst, und weil man tatsächlich einiges lernen kann mit deinen Videos. Aber mir fällt in letzter Zeit vermehrt auf, dass ganz gern mal (über die Freitagswerbung hinausgehende) Werbung für Dubaro geschaltet wird, und dass eine RTX 4070 plötzlich keine Grafikkarte mehr ist, sondern ein "RTX Power System", hat irgendwie für mich auch ein leichtes Geschmäckle, wobei das vielleicht nicht mal auf deinem Mist gewachsen ist.
Ja, es ist als "Werbung" gekennzeichnet, aber für die Zukunft würde ich mir bspw. mal ein Video über KI im Allgemeinen oder Spezielleren ohne das "eklige" Nvidia-Füßeküssen wünschen, wo man WIRKLICH was lernt.
Chill. Alle Unternehmen sind "böse". Die wollen nur unser Geld, wissen wir
@KreaticEcke ja ein FollowUp Video wäre toll