2D trifft 3D: Die Zukunft der Mikrochips!
ฝัง
- เผยแพร่เมื่อ 27 มิ.ย. 2024
- Werbung: "Fake Train" mit Rezo wurde im Auftrag der Bundeszentrale für politische Bildung produziert und könnt ihr ganz kostenlos und ohne Amazon Prime Abo auf Freevee streamen: www.amazon.de/Faketrain
Die Tech-Industrie hat ein Riesenproblem! Und zwar wurden in den letzten Jahrzehnten unsere Mikrochips immer leistungsfähiger, damit das aber auch in Zukunft so weiter geht, müssen diese Strukturen auf so einem Chip immer kleiner werden. Doch das zu erreichen, wird immer schwerer und könnte Zukunft vielleicht gar nicht mehr möglich sein. Deshalb muss die Industrie jetzt kreativ werden, um weiterhin noch bessere Mikrochips garantieren zu können. Neue Ergebnisse aus der Wissenschaft machen jetzt aber Hoffnung. Die Lösung könnten nämlich 3D-Chips sein. Wo genau eigentlich das Problem mit der Verkleinerung liegt und warum gerade 3D-Chips dafür eine Lösung bieten, das klären wir jetzt!
Breaking Lab bei Instagram: breakinglab...
Dieses Video ist in meinem Breaking Lab-Team entstanden. Verantwortlich aus der Redaktion: Richard Kraft, Tabea Desch, Jacob Beautemps; Editing: Neo Sanjuan Thiele, Sören Rensch & Aron Kamenz
Kapitel
00:00 Das Chip-Problem
01:27 Grundsätzliche Funktionsweise
04:33 3D-Chip
05:29 Ergebnisse des Papers
07:28 Das große ABER
Quellen:
Quelle 1:
doi.org/10.1038/s41586-023-06...
Quelle 2:
www.swr.de/wissen/essenz-des-...
Quelle 3:
www.edn.com/tsmc-approaching-...
Quelle 4:
www.deutschlandfunknova.de/be...
Quelle 5:
www.fr.de/ratgeber/medien/ps5...
Quelle 6:
www.spektrum.de/thema/halblei...
Quelle 7:
pubchem.ncbi.nlm.nih.gov/elem...
Quelle 8:
www.spektrum.de/lexikon/physi...
Quelle 9:
• Die Welt ist abhängig ...
Quelle 10:
www.spektrum.de/news/moores-g...
Quelle 11:
www.eurekalert.org/news-relea...
Quelle 12:
doi.org/10.1038/s44287-024-00...
Quelle 13:
www.nature.com/articles/d4158...
Quelle 14:
irds.ieee.org/images/files/pd...
Quelle 15:
www.edn.com/tsmc-reaffirms-pa...
Ich bin Jacob Beautemps und mache gerade meinen Doktor an der Universität zu Köln. Vor vier Jahren habe ich zusammen mit Philip Häusser diesen TH-cam Kanal gegründet und seit 2018 stehe ich nun selbst vor der Kamera. In meiner Forschung an der Uni geht es um das Thema "What comprises a successful educational TH-cam video?: the optimization of TH-cam videos’ educational value through the analysis of viewer behavior and development via machine learning." Oder kurzgesagt: Wie lernt man auf TH-cam und wie können wir das mit künstlicher Intelligenz optimieren. Dies fließt natürlich stark in meine TH-cam Videos mit ein, denn hier geht es auch darum möglichst viel über Physik, Chemie, Technik und andere naturwissenschaftliche Themen zu lernen.
Hat dir das Video gefallen? Klick auf "Daumen hoch" und lass ein Abo da! Dein Feedback motiviert mich zu neuen Videos. Dankeschön :-) - วิทยาศาสตร์และเทคโนโลยี
Werbung: "Fake Train" mit Rezo wurde im Auftrag der Bundeszentrale für politische Bildung produziert und könnt ihr ganz kostenlos und ohne Amazon Prime Abo auf Freevee streamen: www.amazon.de/Faketrain
Bitte ein Video machen wo die Speicher Chips der Zukunft und wie viel Terabyte gespeichert werden können
Alright, alleine dafür natürlich das Abo *mal wieder* weg und Daumen runter - wie kann man sich so ekelig anbiedern?! 🙀
1:10 Dass ein Transistor schon nur 3 nm groß sei, kann nicht sein. Quelle 3 spricht nur davon, dass mit nicht-Silizium-Materialien Transistoren in Größe von 1 nm erreicht werden könnte (was ich nicht glaube, dass das so gemeint ist, sondern quasi nur die nächste Generation symbolisiert) und sie spricht vom aktuellen TSMC "3 nm"-Verfahren, was lediglich ein Marketing Begriff ist.
TSMC "3 nm"-Trasistoren haben einen Gate Pitch von 48 nm.
Vielleicht kannst du mir ja Aufschluss geben, wieso du an der Stelle sagst, dass Transistoren schon 3 nm klein sein können.
3 nm Strukturbreite denke ich. Aber ich bin gerade auch nicht so drin …
Nichts an den Transistoren ist meines Wissens 3 nm. Man findet auf mehreren Internetseiten (auch Wikipedia) die Info, dass die Bezeichnung rein Marketing ist.
Genau, die Transistorgröße ist nicht 3, sondern ca. 48 nm. Alles andere ist nur Marketing.
Es gibt schon erste Transistoren die im Bereich von 0,36 nm sind.
Ist auch meine Kritik. Die Node-Bezeichnungen sind Marketing und beziehen sich auf eine Vergleichsmetrik hinsichtlich der Transistordichte, jedoch im Vergleich zu recht alten Strukturbreiten.
Nicht ist bei einem 3nm Node tatsächlich 3nm - gar nichts. Vielmehr bewegen sich die Einzeltransistoren in einem Größenbereich von 60nm, je nachdem auf welches Merkmal man da nun als Messkriterium abzielt.
2:59 Nein, das ist nicht der Grund. Der Hauptgrund sind die Signallaufzeiten, die die Rechenleistung bergenzen, denn auch auf dem Chip können sich Signale nur mit maximal Lichteschwindigkeiten ausbreiten. Wenn ein Signal zwischen zwei Gattern auf dem Chip eine größere Strecke zurücklegen muss, ist das halt ein Problem. Ein weiterer Grund ist, dass man aus kleinen Chips die Verlustwärme besser abführen kann, denn sie staut sich nicht im Material.
Die Transistorgröße ist eine Marketing Falle. Früher hat sich das auf die "Gate länge" bezogen (das ist die Schicht in der Mitte, wo der Strom durch geht oder eben nicht), aber inzwischen sagen die nm im Namen vom Transistor soweit ich weiß nichts aus
spielt dennoch keine rolle, da sich die leistung eideutig erhöht.
@@xTheBlackLpx ja, die Leistung erhöht sich, aber Transistoren sind trotzdem nicht nur 3nm groß
@@ricodo1244 die 3nm beziehen sich rlaub ich auf die Dichte der Transistoren die alle paar Jahre kleiner wird. Das geht aber auch nur bis zu einem gewissen Punkt, da sonst elektromagnetische Kräfte häufiger Bits "umkippen" können.
@@CrispyRichter Quantentunneleffekte
Immer schön wenn man in der Wissenschaft weiter kommt
Oh come on! Von dir hätte ich schon erwartet, dass du dazusagst, dass die nm lediglich ein Werbebegriff sind, und die physikalischen Dimensionen der Transistoren deutlich darüber liegen -.- Für die erste Iteration von TSMC's "3nm" gilt übrigens ein Gate Abstand von 48 nm und ein Abstand der Leiterbahnen von 24 nm im untersten Metal Layer. Die Transistordimensionen erstrecken sich im Bereich von 2-3 Dutzend nm L*B*H.
Das ist wirklich Spannend!
Oh nein, die Tech-Industrie hat kein Problem. Ich wäre froh, wenn das mal stagnieren würde, da dann die Entwickler und Softwarehersteller wieder dazu gezwungen wären, optimiert, ressourcensparend und vorausschauend zu programmieren. Dabei müssten sie wieder auf die Ressourcen achten und nicht so viel ineffizienten Müll produzieren.
Das ist doch ein alter Hut... diese Diskussion gab es schon vor 30 Jahren... und kommt wohl bei jedem Shrink wieder auf 😂
Immer wieder nett, davonbzu hören
Gibs doch schon lange, 3D-Nand bei SSD, hab so eine drin seit Jahren. Und x3d bei AMD, wo cache draufgestackt wurde, auch seit mehreren Generationen des Ryzen.
Das Problem bei 2nm und mehr ist der Elektronensprung von einer Bahn in eine andere wo sie nicht hingehören. Rein gestackte Chips gibs noch keine soweit ich weiss, deswegen geht die Entwicklung dahin ganz andere Beschleuniger mit reinzubauen, zb für KI oder Raytracing.
Meine mittlerweile doch schon recht alte AMD Vega 56 hat auch schon gestapelten Speicher, aus meiner Sicht geht da bei allen Arten von Chip über kurz oder lang kein Weg dran vorbei und sei es nur, dass eine Recheneinheit direkt mit dem Speicher verbunden wird.
Bei kleineren Strukturen sehe ich eine ganze Reihe von Problemen, allerdings gibt es so Probleme wie Elektromigration auch nicht erst seit gestern und die Grenzen wurden trotzdem immer weiter verschoben.
In diesem Video geht es allerdings nicht um ge-stackte Die - Packages, die es tatsächlich schon seit 20 Jahren oder länger gibt, sondern um ein Herstellungsverfahren, bei dem sich die Transistoren oder andere Elemente in einem Die auf mehreren Lagen übereinander befinden können.
Kannst du mal ein Video über das TSB machen?
Fantastiko! More than Moore! 😂
Ähm, hier muss ich einmal kritisch anführen, dass an einem 3nm Prozess rein gar nichts 3nm ist.
Das sind Marketingmetriken die seit nunmehr über einer Dekade quasi ein Verhältnis der Transistordichte zu älteren Prozessnodes angeben.
Tatsächlich ist aber bei einem heutigen 3nm Prozess nichts in dem Chip in der Größe von 3nm. Vielmehr haben die Transistoren so um die 60nm.
Tatsächlich ist das schwer zu definieren, weil unterschiedliche Fertigungsmethoden unterschiedliche Transistorgeometrien zur Folge haben.
Weswegen man da lieber von "Transistor Density" also der Transistordichte spricht, die ein jeweilige Prozess bereitstellt. Das ist beispielsweise bei TSMCs 3nm Prozess so um die 215 Millionen Transistoren pro mm², wohingegen Samsungs äquivalenter Node etwa 195 Millionen Transistoren pro mm² abliefert. Beide heißen 3nm Prozessnode, bei beiden ist nichts 3nm.
Die Aussage mit dem Vergleich eines Gold-Atoms ist also schlicht sinnbefreit. Da kann ich auch angeben wieviele Turnschuhe in ein Fußballstationen passen - ohne zu definieren welche Turnschuhe oder welches Fußballstation überhaupt gemeint ist. Äpfel mit Birnen Vergleich.
Die Verarbeitung von Informationen setzt Wärme frei, gut nur im Moment ist der Atomtransistor im Gespräch und das wäre dann denke ich die Grenze der Verkleinerung von Transistoren. Warum sollen sich nicht ein paar Wissenschaftler eine schöne Zeit machen.
3 nm ist nur die Prozessgenauigkeit (quasi die Fertigungstoleranz), die Transistoren sind halt dennoch um die 50nm groß ...
Könntest du mal ein Video zum Thema unconventional computing machen? Gibt ja nicht nur Quantencomputer, sondern auch alle möglichen Arten von Analogcomputern (optische Computer mit Photonen, die alten Kisten mit elektrischen Analogschaltungen, Rechnen mit Wasser und was es da noch so alles gibt).
Die monolithische 3D-Idee ist schon wenigstens 30 Jahre alt in Form der Trench-Cells. Hauptproblem der 3D-Technologie ist die Wärmeableitung und die damit zusammenhängenden verschiedenen Dehnungskoeffizienten der Metalle zum Silizium.
die 3d Chips hat doch Cyberdyne Systems erfunden. Da hatte ein Ingenieur plötzlich eine Idee....
Spass beiseite, wie bekommt man die Wärme aus der Mitte raus, oder arbeiter der in flüssigen Stickstoff und hat Kapillaren?
Ich finde das Thema sehr spannend. Und gutes Video! Danke!
Gut ist der Hinweis zur Wahl 😊❤
0:57 Der Graph ist halblogarithmisch; deshalb liegen die Punkte ungefähr auf einer Geraden.
Eine Siliziumscheibe heißt _Waver._ Ein einzelnes herausgeschnittenes Plättchen heißt _Die_ (sprich: dei). Ein oder mehrere Dies in einem Gehäuse mit Verdrahtung und Anschlüssen heißt _Chip._
Vorsicht, "falsche Freunde": Silizium = engl. silicon, aber Silikon = engl. silicone.
Finde ich geil 👍
Bekommt man bei den 3D-CPU nicht ein Problem mit der Überhitzung? Wäre es nicht auch mal an der Zeit auf eine neuere Technik umzusteigen? Z. B. ARM-Prozessoren oder CPU, die Lichtwellen statt Strom benutzen?
Steck noch ein pelltier da rein,das wird krass mit der Kühlung
Englisch Silicon = Deutsch Silizium. Hab viele Deutsche in Space Engineers (pc game) kennen gelernt, die Silicon als Silikon dachten. "Silicon Valley = Silikon Valley" :D
Selbst in wissenschaftlichen Fernsehbeiträgen schon gesehen 🙄
Wenn man von einem Tal voll mit Models und Fans der plastischen Chirugie ausgeht😂
Bericht: Die ersten 2-Nanometer-Chips von TSMC gehen an Apple
Erst im Herbst des Jahres 2023 stellte Apple seine wichtigsten Geräte auf Chips um, die im 3-nm-Verfahren gefertigt wurden. Sowohl der A17-Chip der iPhone-15-Pro-Reihe als auch der M3 nutzen das Fertigungsverfahren, das jüngst Marktreife erreichte. Die Kapazitäten sind dabei mehr als ausgelastet, damit iPhones, iMacs und aktuelle MacBook-Pro-Modelle mit den neuen Chips ausgestattet werden können. Für nächstes Jahr planen Apple und TSMC bereits die nächste Miniaturisierung.
Nach Berichten des taiwanesischen Branchenportals DigiTimes bereitet der Prozessorhersteller TSMC bereits die Fertigung im 2-nm-Verfahren vor. Dafür werden neue Fabriken gebaut, um in der zweiten Jahreshälfte 2025 die Massenfertigung im zukünftigen Miniaturisierungsschritt zu starten.
Wie erhöht man die Leistung von einem Daumennagel großen Chip? Indem man einen ganzen Wafer in einen riesigen Chip verwandelt. Um eventuelle Kristallfehler zu umgehen, müsste ein solcher Chip aus vielen redundanten Einzelprozessoren bestehen. Das wird aber einem beim Stapeln in der dritten Dimension auch nicht erspart bleiben.
Welche Notwendigkeit gibt es denn überhaupt, Computer beliebig klein zu bauen? Der limitierende Faktor bei mobilen Geräten ist der Akku. Beliebig viel Rechenleistung im Smartphonegehäuse ist rein physikalisch nicht machbar.
4:46 Packaging ist doch einfach nur das Verbinden des Dies mit dem Package, was man bei quasi jedem chip braucht? Heißt das vielleicht Multi-Die Packaging oder so?
Jo, Packaging ist das Verbinden des Dies mit den Füsschen (Bonden, damit das Tierchen laufen kann) und dem Umspritzen mit Kunststoff. Früher hat man auch schon mal Keramikgehäuse verwendet und den Chip drin unterzubringen. Aber auch das ist Packaging.
Teile des Transistors sind 3nm groß, der rest eher so 20nm. Deshalb ist auch nicht xxnm Prozess bei Intel gleich xx nm prozes bei Global Foundrys etc.
Schon interessant, so etwas in der Art hatte ich unter irgendeinen Video vor längerer Zeit mal diskutiert. 3D Cnusterstuctures vielleicht noch in Kaskadenanordnung.
5:46 - Molybdänsulfid (MoS) kenne ich bisher vor allem als Rostlöser-Spray...
Perfekt, dann können wir bald mittels Computerchips Rost lösen ^^
Das war als Schmiermittel mit sehr guten Notlaufeigenschaften entwickelt worden....
Würde im WW2 bei Flugzeugen eingesetzt
Der Vorteil bei immer kleineren Transistoren war ja, dass der Energieverbrauch pro Transistor sinkt. Wenn man jetzt nur die Anzahl der Transistoren steigert (wie z.B. beim 3D Chip) sinkt der Energieverbrauch nicht oder? Insofern sehe ich nicht wie der 3d-chip das mooresche Gesetz vorantreibt. Bin allerdings kein Experte.
Naja sowohl als auch.
Je kleiner die Transistoren, desto weniger Energie wird benötigt, aber gleichzeitig schalten diese Transistoren schneller.
Bezüglich Dichte: An sich wird einfach der ganze Chip kleiner, wenn die Transistoren kleiner werden. Aber es ist möglich, stattdessen mehr Transistoren reinzubauen.
Das hinzufügen von mehr Transistoren führt dazu, dass so ein Chip schneller sein kann, aber dafür insgesamt mehr Energie verbraucht. Nur kann man sich das erlauben, wenn die Transistoren effizienter werden.
Zudem hat das schnellere Schalten den Nebeneffekt, dass man einen Chip höher takten kann. Das Problem an einem höheren Takt ist, dass er den Energieverbrauch quadratisch steigt.
Beispiel: Ein Beispiel-CPU verbraucht 60 Watt auf 3.5GHz. Dann muss man bei einer Taktung von 4GHz von etwa 100 Watt ausgehen.
Nun wollen die Kunden einfach immer schnellere CPUs haben, solange der Verbrauch verkraftbar ist und die Kühlung da mitspielt. Darum versucht die Industrie immer möglichst viel Leistung rauszuholen, obwohl modernere CPUs sehr viel Energieeffizienter sein könnten.
Bezüglich 3D-Chips:
Es würde nur begrenzt gut funktionieren, für solche hoch getakteten CPUs, weil die Verbindungen von mehreren Chips einfach langsamer sind als die innerhalb des Chips. Es gibt jedoch Einsatzmöglichkeiten, mehr Leistung rauszuholen.
Neben dem Takt gibt es auch die Möglichkeit, mehr Kerne auf einem Chip Unterzubringen. Der Vorteil daran: Leistung skaliert linear zum Energieverbrauch. 2 Kerne auf 2GHz haben so viel Leistung wie ein 1 Kerner auf 4GHz, aber verbraucht halb so viel Strom. Dies kann man mit 3D noch sehr sehr viel weiter hoch skalieren, aber das werden wir in unseren Heimrechnern nicht so schnell sehen, aber in Servern, deren Wirtschaftlichkeit auch von der Leistungseffizienz abhängt.
Ich würde vermuten, die bekommen ein arges Problem mit der Kühlung. Wenn man in den Strukturen immer kompakter wird und nehmen wir an, dass mit zunehmender "Schrumpfung" die Leistungsdichte nicht mehr linear ist und damit die Hitzeentwicklung ...denn in welche Richtung willst du die Hitze abführen? Gibt keine weitere, 4. Dimension, die das übernehmen könnte.
hallo! ich hätte eine frage zu ner graphen-alternative. graphen besteht aus einer 1 atomlage dicken kohlenstoffschicht, wo die atome in hexagonen angordnet sind. das wird doch beim abdichten von wasserstofftanks eingesetzt, oder? theoretisch müsste es ja noch engmaschiger sein, wenn das gitter keine hexagonalw sondern quadratische struktur hätte. wo sind die probleme bei der herstellung davon? ... oder wird das eh auch hergestellt und ich hab nur noch nie davon und dessen verwendungszweck gehört? danke lg
Das Problem liegt einfach in der Physic eines Atoms. Atome besitzen nur 3 mögliche anordnungen iher nachbar. Eine bildet quasi eine eindimensionale linie, mit bis zu 2 nachbarn, eine hat ne anordnund ähnlich mit 3 nachbam rundherum, die auch für garphen benutz wird, und die letzte mit bis zu 3 nachbarn ist bereits 3 dimensional.
@@l1a2r3s4x danke aber das bringt mich jetz genau garnicht weiter. das ist so wie wenn ich sage es gibt koordinatensysteme mit 1er, 2 oder sogar 3 achsen.
sogesehen wird wasserstoff immer nur eine 1dimensionale verbindung hinbekommen weil da nur ein elektron zur paarbindung frei ist. kohlenstoff hat aber platz für 4, und wenn man die abstoßungseffekte der ladungen auf eine kugel gleichmäßig verteilt, würde das bei 2 nachbarn eine 1-dimensionale und bei 3 nachbarn eine 2-dimensionale anordnung wie ein mercedesstern ergeben. bei 4 nachbarn allerdings würde es eine caltrop-artige anordnung ergeben (quasi tetraeder-mäßig)... aber im diamantenkristallgitter sind die quadratisch in 3 dimensionen angeordnet (also kubisch) - zumindest von den modellen die unser professor das immer gezeigt hat, kann ja seein, dass das garnicht stimmt, dann hat sich meine frage erledigt.
wenn das modell aber stimmt, dann ist es möglich diese abstoßungseffekte zu umgehen, ist es dann nicht möglich, dieses gitter "scheibenweise" abzutrennen bzw herzustellen?
@@o8livion Sry, hab versucht meine Antwort möglichst einfach zu halten. Du hast recht, in Kristallen gibt es andere Gitterformen. Diese basieren auf Ionischen Verbindungen. der Nachteil ist, dass solche Verbindungen im Gitter sehr stabil sind, aber die einzelnen Elemente quasi wegklappen können. Daduch können sie auch so viele verschoedene strukturen bilden. Aber ein soches 2 dimensionales gitter würde wie ein blatt papier zusammenklappen. Kovalente Bindungen können nur bestimmte Winkel haben, die sehr stabil sind. dadurch ist die Graphen struktur die stabilste 2 dimensionale Struktur.
Ich habe irgendwo mal gehört oder gelesen das, auch wenn ein Chip schon so winzig klein ist, es bei dessen planung schon darauf ankommt das man die Lichtgeschwindigkeit der Signale berücksichtigen muss. In sachen leiterbahnlänge und so.
Ihr dürft mich gerne korrigieren 😊
Jo, 1 ns entsprechen ca. 30cm.
1:00 Ist ja klar, daß dieses Mooresche Gesetz irgendwann mal zu Ende geht. Denn irgendwann ist man auf Atomgröße und da geht es nicht mehr kleiner.
Nebenbei ist Gordon Moore letztes Jahr gestorben. So wie er gestorben ist wird das sein Gesetz auch bald tun. 🤔😃
Joap.
Ich finde es nur Schade, dass die Hersteller nicht die tatsächliche Transistorengröße angeben. AMD fertig ja jetzt angeblich in 5nm und künftige CPUs/GPUs an die bereits gearbeitet wird, sollen nur noch in 4nm gefertigt werden.
Roman der 8auer hat damals zu AMD 7nm (Ryzen 3000) und Intel 10nm ein Video gemacht, indem er die Chips aufgeschnitten und ein extrem kleinen Querschnitt unter einen Rasterelektronenmikroskop gelegt hat und die dort waren beide tatsächliche Transistorengrößen ca. 25nm.
Die Größe der Transistoren spielt bei ca. 4-5nm eine Rolle, weil sie dort nämlich ein Limit an. Hier sind die Transistoren so klein, dass ein Elektro einfach über ein geschlossenes Gate springen kann und somit stimmt die komplette Berechnung nicht mehr.
Ich vermute mal, dass wir mittlerweile schon etwas unter 20nm sind und wir merken ja an Hand der immer mehr verzögernden Releases, dass neue Produkte nicht mehr so einfach möglich ist. Die einzige Alternative für wesentlich mehr Transistoren ist eine größere Chipgröße und das hat sehr viele große Nachteile:
-Ausfallrate/defekte Chips steigen
-Die erzeugte Wärme steigt exponentiell an und ist schwerer zu kühlen
-Leistungsaufnahme steigt stärker
-Die Teile werden wesentlich teurer
@@Sora-xm5xe Gut erklärt, danke 👍Zu 386 PC Zeiten gab es mal Co-Prozessoren. Wäre evtl. auch eine Lösung. Ich denke nicht, daß diese extreme Miniaturisierung noch so wichtig ist. Es gibt viele andere kompetende Lösungen.
Das Mooresche Gesetz besagt ja garnicht, daß die Transistoren kleiner werden, nur daß deren Anzahl in einem Chip steigt (bei minimalen Kosten).
@@Sora-xm5xe es ist viel mehr eine hochrechnung, dadurch das sich die leistung dennoch verdoppelt sagen halt die hersteller das jetzt doppelt so viele transistoren drauf sein müssen.
Dem Moorschen Gesetz wurde schon sehr oft der Tod vorhergesagt. Die Halbleiterei hat aber immer wieder Möglichkeiten gefunden, ihn hinauszuzögern.
Denke eher das wir erst auf größere Chips oder mehrere Chips nebeneinander umsteigen werden, bevor 3D Chips oder andere Techniken eingeführt werden.
AMD macht sowas schon seit Jahren bei ihren 3D Cache CPUs und stacked extra L2 Cache oben drauf. Das ganze weiter zu denken überrascht mich da nicht.
Edit: Fände an dieser Stelle auch die Thematik um Licht/Laser Transistoren interessant, die CPUs auch nochmal extrem beschleunigen kann.
Wie weit ist der optronische Prozessor ?
Wenn Transistoren/Elektrizität zu groß ist, dann kann man doch mit Licht weitermachen. Einen entsprechenden Bericht habe ich irgendwo bei TH-cam schon gesehen.
Ist ja an sich mal irrelevant, ob nun 3nm oder 3,5nm in echt erreicht werden können. Was wir hier haben ist ein neuer Ansatz, das aus der "linearen" Entwicklung (immer kleiner) eine Proportionale Entwicklung macht. Spannend, faszinieren und auch ein klein wenig beängstigend... :-)
Aber müsste der Titel nicht eher lauten, '3D Revolutioniert: Die Zukunft der Mikrochips!'?
Denn aktuelle Prozessoren mit mehreren Layern werden bereits als 3D-Chips betrachtet. Diese Technologie, bekannt als '3D-Stacking' oder '3D-ICs' (integrierte Schaltungen), beinhaltet das Stapeln mehrerer Schichten von Schaltkreisen übereinander, was die Packungsdichte erhöht und die Leistungsfähigkeit verbessert.
3D-Stacking wird seit den frühen 2000er Jahren in kommerziellen Chips genutzt und erlebte in den 2010er Jahren signifikante Durchbrüche, die zu einer breiten Akzeptanz führten. Seit 2015, als die Radeon R9 Fury GPU mit High Bandwidth Memory (HBM) auf den Markt kam, wurde 3D-Stacking massentauglich gefertigt.
Also ist das aktuell wirklich so ein problem? wenn ich da an apple denke, die haben ja mit den SoCs im prinzip alles ausser speicher in einem chip, und für die hochleistungschips klatschen die die ja "einfach" in 2D aneinander und das ganze passt immer noch in ein laptopgehäuse?
Klingts irgendwie auch thermisch logischer als zu stapeln
Luftkühler werden immer mehr zur ausstattung für einsteiger-PCs XD
Stapelchips werden VIEL Hitze generieren. Bei dünnen Chiplets bekommt man die hitze vergleichsweise gut weg mit Leitpaste, Kühlblock und luft/Wasser ableitung.
Aber bei Stapelung müssen wir noch besser aufpassen, das uns der Block nicht im PC schmilzt.
...einer der Gründe warum wir den Schalttakt nichtmehr höher treiben. Die Atomstruktur würde noch höhere Frequenzen nicht aushalten.
Mal gucken.
Die ersten Chips benutzten bipolare Halbleiterstrukturen, damit konnte man Spiegeleier braten.
Irgendwann entdeckte man , dass auch mit dem Feldeffekt Transistoren gebaut werden konnten. Ab da reichte die Energie nicht mal mehr zum Kaffewarmhalten.
Findige Ingenieure ruhten nicht und erfanden die CMOS-Technologie, die dazu führte, dass die Chips nicht ma mehr spürbar warm wurden.
Aber die Moore-Extremisten packten dann soviel CMOS-Transistoren in die Chips und machten sie so schnell, dass die kumulierte Energie doch wieder dazu führten, dass man Spiegeleier damit braten kann.
Mikroprozessorhersteller haben dann die Schwellen der Transistoren so weit runtergefahren, dass die Transistoren zwar noch gut schnell waren, aber kaum mehr Leistung brauchten.
Ich wart einfach mal ab, was den Halbleiterern noch alles einfällt.
Moore ist tot (na ja). Es lebe Moore! 🤗
Bin echt gespannt ob das richtig funktioniert. Die Temperaturen könnte halt echt schwer werden. Bestes Beispiel bzw. Ähnliches Beispiel ist der 3dV cache von AMD. Da muss die max. Temperaturen von 95 auf 89 °C begrenzt werden. Wenn aber jeder der Ebenen thermische Energie abführen muss könnte das wieder um dazu führen dass diese Transistoren langsamer laufen müssen um weniger Abwärme zu generieren oder liege ich da falsch?. Aber gutes Video
Prinzipiell richtig.
Aber AMD und Intel haben früher immer für große Rechner produziert. Energieeffizienz? Diesen Ausdruck kannten die gar nicht.
Firmen wie ARM haben dann bewiesen, dass die Performance eines Chips nicht unbedingt mit so hohen Leistungen erkauft werden muss.
Das ist auch heute nicht ganz ausgereizt denke ich.
Na ja, ich gehe davon aus, das wir erst wirklich eine neue Chipgeneration erleben werden, wenn der
Atomare 3D-Druck raus kommt. Also wir Atom für Atom drucken. zB 1g Kristallzucker neben 1g Chip und 1g Stahl.
Und dann ist es nur noch eine Frage der Energie was möglich ist. Und natürlich wie Sortenrein die Atome zur Verfügung stehen.
*
intresante ansätztze der technologie des letzten jahrhunderts
Warum Moore's Law eigentlich ein Gesetz? Ist es ein Naturgesetz? Wenn 'ja', warum? Ist es nicht viel eher eine Beobachtung, aus der man in die Zukunft extrapolieren kann?
... vergleichbar mit Murphys Gesetz. 🤗
Zweiteres ist zutreffend. Und es wurde erst ein "Gesetz" daraus, als sich Moores Prognose als richtig stabil erwies.
AMD mit 3D V Cache. CPU sind schon sehr mächtig, aber die aller meiste zeit tun die nichts außer zu warten, weil sie auf den Arbeitsspeicher Zugriffen müssen. Und das dauert im Verhältnis eine Ewigkeit.
Cool, jeder Sci-Fi Film oder Game hatte wo kubische Datenträger vorkommen recht mit der Zukunft der Chips 😅
Ich halte optische Computer chips, aufgrund der nicht vorhandenen Selbstinduktion, für deutlich spannender. Aktuell begrenzt das noch die maximale Arbeitsfrequenz, wenn wir das Problem mit optischen Relais umgehen, können wir je nach Schaltzeit Taktungen von mehreren hundert ghz erreichen was die Rechenleistung auch drastisch verbessert.
Freevee = zwar ohne Kosten, aber mit Werbung 😜
Darf man nicht vergessen zu erwähnen ne
Sehr interessantes Video 👍
Die Musik ist durch die Lautstärke und den Rythmus zu präsent. Da ich Geräusche schlecht filtern und ausblenden kann.
Die alten Videos sind komplett ohne Musik ausgekommen und dadurch konnte ich den Videos gut folgen.
Was später auch noch interessant sein könnte ist "Optical Computing"
Wissen sie was interessant wäre : Mal auszurechnen wie große ein Quantencomputer sein muss um den schnellsten CPU der nur 0 und 1 berechnen kann, gleich zu ziehen + Stromverbrauch.
Scheinbar ist Silizium in der Chip-Erzeugung ausgereizt. Derzeit läuft daher viel Forschung mit anderen Elementen. Eine sehr erfolgversprechende Möglichkeit wird wohl in den nächsten 15 Jahren Datenspeicherung durch Laser in 3D-Kristallen sein. Die Möglichkeit der Datenspeicherung wie in einen Laser-3D-Glas ist eine ältere Variante. Mitlerweise kann man in Speziellen Kristallen einen 1 Minütigen Datenstrahl mit einen Laser einschießen der im Kristall verschwindet. Mit einen Seitlichen Kontrolllaser mit bestimmter Farbfrequenz und Einfallwinkel wird der Datenstrahl erst wieder freigegeben und kommt auf der gegenüberliegenden Seite heraus. Derzeit wird geprüft wie lange ein Datenstrahl im Kristall verbleiben kann, wie lang er sein kann und wie viel Datenfelder 1 Kubikzentimeter haben kann. Solche Datenspeicher sind bei Quantencomputern und Cloud-Servern auch nötig.
Danke für das Video. Chips wird es in der Zukunft auch weiter geben.
ja von mehreren Gb/s auf Kb/s die zukunft
rechenleistung in endgeräten wie handys sollte erstmal reichen..jetzt das netz ausbauen u dann einfach jegliche rechenleistung outsourcen.. dann spielt die größe keine rolle mehr. wäre auch sinnvoll weil rechenzentren dann da stehen können wo viel strom od gute kühlung möglich ist.
Ja genau. In Hanau wird gerade ein Rechnenzentrum gebaut, das 2 mal so viel Energie frisst, wie die Stadt Hanau sebst.
Scheiß egal, baut man halt in Zukunft eines, was 20 mal so viel Energie frisst.
Oh man, wozu braucht ihr so einen Mist?
Ich gebe die an dem Punkt recht, dass die pure Rechenleistung erstmal ausreichend ist. Zwei Punkte möchte ich dennoch ergänzen: Chips mit einem neueren Herstellungsverfahren werden i.d.R. auch effizienter. D.h. sie können die gleiche Rechenleistung mit weniger Strom bewältigen was bei Mobilgeräten sehr wichtig ist. Der zweite Punkt ist, dass sich nicht alle Berechnungen in der Cloud sinnvoll durchführen lassen. Nehme ich bsplw. ein Bild mit digitalen Zoom auf dann ist es vorteilhaft wenn auf dem Handy das Bild live per KI verbessert wird.
@@saschas.3909 Da bin ich bei dir, aber sobald man 5g überall hat, wäre auch dein foto beispiel über cloud software möglich. und klar, effizienter ist immer besser. aber wir sind da irgendwann ohnehin am physikalischen limit angekommen.. u man müsste dann auch mal den mehraufwand an energie für das erreichen noch kleinerer bauteile gegenüberstellen sowie, dass kleine bauteile oft mehr kühlung benötigen u somit zwar bessere leistung aber auch mehr energirverbrauch aufweisen..
Kühlung?
Ich glaube nicht, daß wir privat mehr Rechenleistung benötigen !
Stabilität und Langlebigkeit wären netter .Womöglich würde eine solche Strategie viel besser angenommen,
als ein Hardwarekrieg den du nicht gewinnen kannst und der die Erde ausplündert .
Ich wünsche mir z.B. einen Drucker, der lange druckt ... 🙂und in den ich einfach Tinte nachfülle und den Schwamm wechsele .
Wenn er dann noch schnell und genau arbeitet, bin ich bereit etwas mehr zu bezahlen .
Leider tun ALLE das Gegenteil und versuchen immer schneller immer absurderen Mist zu verkaufen .
Schönheit wäre auch ein gutes Verkaufsargument !
Zum Beispiel genau einstellbare Farben statt kitschigen RGB Kopfschuss oder wunderschöne Gehäusekonzepte und universelle Kompatibilität zu anderen hochwertigen Geräten plus ultimative Servicefreundlichkeit .
Aber Keiner versucht es, komisch oder ?
Bei immer kleineren Strukturen kann es sein, dass der Strom sich seinen eigenen Weg sucht. In wie weit hat man diese Problem gelöst?
Für die Chemiker: Molybdänsulfid wolframdiselenid
99 prozent der Consumer High end chips sitzen in Gamer PCs, der Rest wird für Videoediting verwendet.
Wer kein Datacenter betreibt ist mit Mid Range CPU gut bedient
Da bekommt der Ausdruck "Moore renaturieren" eine ganz neue Bedeutung
👍
Gefühlt wird in keiner anderen Industrie Forschung so schnell angewendet. Da sieht man mal wie der Prozess beschleunigt wird wenn extrem viel Geld auf dem Spiel steht.
Wie wärs mir 3D Gestappelte Pixeln? damit könne man die Schärfe um dem Faktor 1000% Erhöhen!
Das wäre ja dann so wie ein echtes Gehirn im menschlichen Kopf.
@@mike8728 Nicht bei einen OLED Panel sondern in einen QDEL Panel (NanoLED) Ausgezeichnet Farbraum bei rec 2100. 8K-DCI Auflösung und 120Hz bei 32 Zoll wäre ein wahre Wunder der Technik 🥰😍 ob es jemals sowas auch passieren wird steht in denn sternen.
3 D Chips sind ein alter Hut. Darüber hatte es schon 1995 Abhandlungen gegeben.
Hallo,
Danke für das interessante und gute Video. Bitte weiter so.
Ich würde gerne wählen gehen, aber es gibt nicht eine Partei die das machen würde was ich mir vorstelle. 😒
Kernfusion und Quantencomputer sind due Zukunft und sind bald betriebsbereit. Meanwhile in the industry... Atomkraftwerke und 3D chips auf dem Vormarsch. Schon erstaunlich, dass "einfache" Dinge immer mehr erfolg haben. 😅
erzähle mir mehr von den bald betriebsbereiten Quantencomputern und Fusionsreaktoren.
@@obimitt. Ich sollte mir echt einen Banner erstellen für jeden sarkastischen Kommentar... Ich dachte das wäre offensichtlich genug gewesen...
Wären licht cpus nicht auch: more then moore?
Mit 0-3, 0-5, 0-15, statt nur 0-1
0-8-15
Bin mal gespannt was von Apple kommt. TSMC stellt deren Chips zwar her, die Entwicklung kommt aber von Apple...
10 Jahre später. 3D trifft 4D
3:50min wichtiger, guter Aufruf, unterschreibe ich und rufe mit. Seid bei der zweitgrößten demokratischen Wahl der Welt dabei!
Aber ich gehe Sonntag nicht wählen, pardon.
Habe ich längst per Briefwahl ;)
Man weiß ja nie, schlechtes Wetter oder jemand pullert ins Boot... bin schon oft nicht wie geplant angekommen, Wahl habe ich nie verpasst.
Ich gebe keine Wahlempfehlung außer einer: Denkt nach, seid vernünftig und geht vorallem eure Stimme abgeben.
ein Mainboard Dicker zu machen, mit 2 CPUs die auf 2 eigene Ram Slots zugreifen macht da für mich mehr sinn.
Ich mag Silicium.
Hm, dachte durch Multilayer wären 3 Dimensionale Chips auch so möglich. Aber die Hütte erwärmt sich dann wohl zu sehr, hm?
Multilayer werden eigentlich eher Leiterplatten mit mehreren Ebenen genannt.
In Chips werden schon sehr lange (multiple) Metallisierungsebenen verwendet um die Signale intern zu routen. Das lässt sich auch ganz gut realisieren. Aber mehrere Ebenen in denen die Halbleiterfunktionen eingebettet sind nicht so einfach zu machen.
@@herbertleypold5351 Danke für die Erklärung. :)
Die Technik kann bei analoge Chips hilfreich sein.
Neue Lösung?
Das wird schon seit Jahrzehnten genutzt
Mich interessiert nur das mal Grafikkarten wieder zu einem vernünftigen Preis angeboten werden!
Klingt für mich nach nextlevel Technologie.
Nicht nextlevel, nur Erweiterung.
Nvidia hat schon angekündigt das man das einfach alles simulieren kann. Braucht man nicht mehr bauen. Quanten Computer werden einfach simuliert. 😅
Die sind schon von anfang an her 3D, du kannst keinen Chip mit 2D Strukturen erzeugen. Das ist unmöglich!!! 🤷♂️
AMD hat doch schon den Ersten CPU seit fast einem Jahr auf den Markt, wo die CPU Höher ist, weil 2 Lagen übereinander liegen
Frage mich schon seit 15 Jahren, warum Chips nicht 3D mit mehreren Eben sind.
Manchmal ist die Welt echt langsam.
Ist mir bekannt Germanium
Intel versucht die Power-delivery und die Data-connections zu trennen
Das Konzept habe ich mir schon vor zehn Jahren gedacht, warum man Chips nicht einfach in die Höhe baut
Ideen haben ist das eine, sie ökonomisch nachhaltig umzusetzen etwas völlig anderes.
@@MCRuCrleider wahr 😔
Ein großes Problem ist die Kühlung.
Da müssen erst mal Probleme gelöst werden und die Kosten steigen.
Deshalb hat man erst mal den konventionellen Weg ausgereizt.
Ach laber o.O
Ich dachte die wären immer getürumt ... aber jetzt gibt es neuen zoff 😂 -> Graphen Chips .. aber mit SE (selithium) füsschen? Wegen patent und so ^^😅
3:56 Zu spät für Infos......das X ist bereits Gesetzt
Riffelchips sind die Lösung! 😆
Rechenleistung als Währung ... hmmm!
Amazon als Infokanal ist nicht dein Ernst, oder? Eher hacke ich mir beide Beine ab als irgendetwas zu schauen, das mit amazon zu tun hat.
gute Inhalte, aber zu viel Werbung
Dann haben Handys die Rechenleistung heutiger Gaming PC
Das die Dinger noch Mikrochips heißen. Bei der Größe könnten sie doch auch direkt Nanochip heißen.
Falsche Richtung - eher Mini- oder Millichips. Inzwischen gibt es Chips, von denen nur noch einer auf einen 12"-Wafer passt.
Mein Vater ist Elektrotechnikingenieur und hat mir schon vor 15 oder 20 Jahren von 3D Mikrochips erzählt 🤷🏼♂️
Alter Hut sozusagen
Damals kann es aber nur eine Zukunftbetrachtung gewesen sein.
Oder er hat von MEMS gesprochen. Das sind mikromechanische dreidimensionale Strukturen in Silizium, die werden meist mit Halbleiterstrukturen auf dem Chip vermischt.
ich sehe das video und denke wo lebe ich? an sowas denke ich seit ich chips kenne...
Die Frage ist für mich: Wie viel Schnelligkeit kann sich die Menschheit überhaupt leisten? All das frisst Ressourcen und Energien, von denen wir ohnehin schon viel zu viel verbrauchen. Durch unsere Technikbesessenheit vergessen wir glaube ich, dass alle Ressourcen endlich sind.
Vorbild Natur: Eine Fliege besitzt nicht mehr Gehirn, als sie braucht, um die Bilder ihrer Facettenaugen zu verarbeiten und den Flug zu stabilisieren. Wozu sollte sie intelligenter sein? Ihr kleiner Körper könnte ein unnötig grosses Gehirn nicht ernähren. Jedes Lebewesen ist auf minimalen Ressourcenverbrauch optimiert.
Nur der Mensch mit der Fähigkeit, fast alle Beschränkungen zu umgehen, lebt seine masslose Gier aus.
Wenn man allerdings ein wenig optimistisch ist dann werden wir das Ende der meisten Ressourcen nicht mitbekommen, denn die Energie wird uns so schnell nicht ausgehen und theoretisch können wir ein Material mit genügend Energie in ein anderes umwandeln
@@tornado3007 Man kann natürlich "hoffen", oder wie andere es nennen "optimistisch sein". Besser wäre, nachhaltiger zu denken und Ressourcen von vornherein zu schonen und halt nur Dinge zu machen, die den Menschen am Ende wirklich nutzen. Was dieser ganze extreme digitale Unsinn uns wirklich als Menschheit nutzt, stelle ich deutlich in Frage.
@@marcobocher5211 naja man muss nicht wirklich hoffen denn so viel Energie wie es im Universum gibt können wir in den nächsten paar Milliarden Jahren nicht verwenden und wir können schon ein Material in ein anderes umwandeln mit Energie also ist es nur eine Frage der zeit bis es in größeren Mengen genutzt wird. Und was sollen wir sonst groß sinnvolles mit dem Material machen? Die Wissenschaft in Richtung Technik zu entwickeln ist meiner Meinung nach sehr sinnvoll denn sie hat den Lebensstandard vieler Menschen deutlich verbessert
@@tornado3007 Dann mach mal die Energien des Universums nutzbar... Oh Mann!