Sehr cooler Test! Wer mit dem Lautheitsmaß nichts anfangen kann: 1,5 sone ist etwa 8 Mal so laut wie 0,2 sone (Verdopplung des Werts = Verdopplung der subjektiv wahrgenommenen Lautheit).
Ich kenne viele Leute, die mit leistungsstarken Windowsmaschinen oft nur surfen, Videos schauen oder Mails schreiben. Es ist ein Wahnsinn, wie viel Strom da verschwendet wird. Wenn Arm nur ein Bruchteil benötigt, dazu leise und bei Laptops akkuschonend ist, dann hoffe ich sehr, dass wir davon mehr sehen, nicht nur von Apple.
@@nyambe Nimm ein Raspi. Der reicht vollkommen. Passt locker mit einer kleinen Festplatte in eine Pralinenschachtel. Je nach Definition ist das auch ein "richtiger" Computer :-) SCNR :-)
@@hesspet Mein PC ist sechs Jahre alt und braucht Idle 4 Watt. Das ist weniger als ein Mac. Legt er los ist er flotter als der schnellste M1. Und braucht pro Leistung immer noch weniger Strom als ein M1.
Also ich selbe habe Leistungsstarke PC und ich tu entweder Internet Surfen, paar Spiele Zocken oder mache eigene Projekte wie Programmieren oder Musik Produzieren.
Das sind mal sehr beeindruckende Werte! Der nächste Klapprechner steht bei mir bald an. Bei den Werten überlege ich dann doch noch mindestens solange zu warten, bis diese Arm-Prozzesoren in größerer Auswahl zu Verfügung stehen. Danke c't3oo3 für diese Nachricht.
Trotz des Erfolgs der Apple M1 Chips wird es noch einige Jahre dauern bis ARM-SoCs in den wichtigen Produktlinien von HP, Lenovo, Dell etc. zu finden sein werden. Man macht nichts "falsch", wenn man sich jetzt ein aktuelles x86 Notebook kauft.
@@HolgerN hab gerade mal geschaut. Wenn man mit unter 15" Displaygröße zurecht kommt, gibt es da schon die ersten Modelle, auch von HP, Lenovo ... aber Dell fehlt noch. Bei Geizhals kann man sich explizit Modelle vorstellen lassen, die mit ARM-Prozessoren ausgerüstet sind.
Vielen Dank für das hervorragende Video. Seit einer Woche bin ich am recherchieren, welches System für mich für Videoschnittanwendungen am besten ist. Habe Daten verglichen und und, alles sehr zwitraubend. Ich habe mir auch zwei Videos hier auf TH-cam angeschaut, darunter dieses hier von c't 3003. Jetzt weiß ich, dass der Mac Studio M1 Max genau der Richtige für mich ist. Also, dafür ein Like und abonniert 👍
den x86 Rechner hatte ich mir seinerzeit auch gebaut und die Leistung ist bis heute für mich ausreichend. Aus Gründen der Nachhaltigkeit werden ich ihn auch weiterhin nutzen. Meine Tendenz ist eher von Apple weg, als noch mehr Geräte zu erwerben. Beim Stromverbrauch hat Keno leider einen Punkt. Die nächste Kiste muss trotzdem noch etwas warten .. schon aus Prinzip.
Very good points. Current software is designed with x86 in mind. As soon as big developers start creating software specifically for low wattage GPU computers, x86 will be in trouble.
Die Herstellung der Hardware kostet sehr viel Energie, wenn ich diese nun nach 3 Jahren verschrotten muss, weil ich weder die Hardware aufrüsten kann, noch auf ein aktuelles OS upgraden kann. Hier ist also eine komplett neue Hardware fällig. Von den Apps brauchen wir glaube ich nicht zu reden. Das x86 System hingegen kann auf vielfache Weise auf den aktuellen Stand gebracht werden.
@@mjmoonbow x86 verbraucht jetzt mehr Strom, aber es ist immer noch dasselbe wie vor 10 Jahren. Der Vorteil von x86 ist auch seine Einschränkung. Die Maschinen, die 1000 W zum Betrieb benötigen, werden in Zukunft nicht mehr passen.
@@nyambe He does have a point though. My colleague has a 5 year old Macbook Pro. No more updates of the operating system, he can basically throw it out because XCode works on current OS only. On my 15 year old Dell laptop on the other hand Windows 10 runs smoothly and I can develop Windows, Linux or Android software without problems.
@@hosnkrocha A lot has happened since 2008. Imagine using a 15 year old phone today. It's not a good thing that you are still using that. Intel has highjacked PC innovation. We will see rapid progress soon because of the competition. BTW. you can't put windows 11 2021 Computers either.
Ein 3 Jahre alter PC kann gegen ein aktuelles System von Apple nun mal nicht anstinken. Hier wurden im wahrsten Sinne des Wortes Äpfel mit Birnen verglichen.
@@bits-bytes Da hat wohl jemand nicht verstanden, worum es geht ... :-D Und nochwas: Warum es immer heißt "Äpfel mit Birnen kann man nicht vergleichen", verstehe ich nicht. Äpfel mag ich sehr gerne, Birnen aber nicht. Warum sollte man das nicht miteinander vergleichen können? Ich kann sogar Äpfel mit Bananen vergleichen. Oder mit Weintrauben. Vergleichen kann man alles. :-P
Ich dacht Apple macht selber schon genug Werbung für ihre Produkte. Ich will die neuen Produkte von Apple auch gar nicht schlecht reden, im Gegenteil ich bin sogar sehr interessiert daran zu erfahren, ob Apple Silicone (oder ARM) nun wirklich der klassischen x86-Architektur das Wasser reichen kann, aber von den bisherigen Tests und Benchmarks (nicht ausschließlich von heise) bin ich eher enttäuscht: Apple hält seine Werbeversprechen und die neuen Macs sind gut für diesen ganzen Multimediakram von Bildbearbeitung über Videoschnitt und Rendern bis hin zu Sounddesign. Soweit so gut. Dafür ist das Apple Silicone maßgeschneidert und es freut mich, dass es in diesen Bereichen nun so potente Hardware gibt. Ähnlich wie in den 80ern/90ern Spielekonsolen für dediziertes Spielen von Computerspielen aufkamen, kommt nun also ein dediziertes System für diesen speziellen Bereich, den ich zuvor 'Multimedikram' nannte auf. Was mir aber der klassische PC gegenüber Spielekonsolen gibt, ist ein multi-purpose Gerät. Angefangen beim Betriebssystem, welches ich auf der Hardware installiere über verschiedene Anwednungsbereiche von Textverarbeitung über Programmierung bis hin zum Multimediakram oder auch Gaming: mit der klassischen x86-Architektur kann ich all das hinreichend gut. Ggf muss man sich einzelne Komponenenten wie z.B. eine potente GPU nachrüsten, aber dann kann ich EIN EINZIGES Gerät für alles nutzen und zwar ohne viel Aufwand. Ich habe z.B. verschiedene SSDs, die klemm ich dann einfach ans Mainboard und schon habe ich ein komplett neues System aber die Hardware kann ebenso für das Perfekte Heimkinoerlebnis sorgen, wie zum Gamen dienen oder für Linux-Versuche herhalten. Um zu sagen, ob die neuen Apple Produkte eine wirkliche Alternative zu x86 darstellen müsste man vor allem die nicht von Apple beworbenen Bereiche im Vergleich zu x86 testen. Apple hat da perse schon mal einen gewaltigen Nachteil, nämlich dass ihre Geräte weitestgehend nicht modular sind. Wenn in 3-5 Jahren deutlich wird, dass die RAM-Kapazität nicht mehr ausreichend für zeitgemäße Aufgaben ist, ist man gezwungen ein komplett neues Gerät zu kaufen, selbst wenn die PRozessorpower noch mehr als ausreichend ist. Beim klassischen Tower kann ich nach 3 Jahren günstig den RAM verdoppeln oder die Festplattenkapazität aufstocken. Trotzdem soll das nicht das k.o.-Kriterium gegen Apple-Hardware sein, aber dafür müssten die echt mal liefern und zwar ganz genau auch in den Bereichen abseits von Multimediakram. Leider hab ich bis jetzt keinen Test gefunden, der dies behandelt. Und auch die Wahl des OS müsste für mich offener sein. Ich bezahle schließlich die Hardware, damit ist es meine HArdware und ich sollte selbst entscheiden dürfen, ob ich lieber Linux auf dem Apple silicone laufen lasse. Auf den goldenen Käfig vom MacOS hab ich nämlich keinen Bock. @Keno: macht doch bitte mal einen Allroundtest oder besser noch: testet explizit die Bereiche, die mit Apple eher kritisch sind. 08/15-Tests zu den neuen Macs gibt es wahrlich schon genug! Wenigstens mal Linux auf der HW installieren wäre schon was, womit man sich von den ganzen anderen reviews abheben könnte!
@@ct3003 Sehr cool, dass ihr antwortet! Also zum einem meine ich mit den "nicht von Apple beworbenen Bereichen" die Wahl des Betriebsystems. Hatte ich zuvor ja bereits erwähnt. Mit Asahi Linux gibts es auch bereits praktische Bestrebungen Linux auf dem M1 zum Laufen zu bringen. Allerdings lässt sich damit (bisher) noch nicht die gesamte HW nutzen; z.B. einige Anschlüsse der neuen Macs können damit nicht oder nicht mit der unter MacOS möglichen Datentransferrate genutzt werden (z.B. anstatt USB3 und Displayport, kann man dieselbe Buchse nur für USB2 nutzen). Ein anderer großer Punkt ist Virtualisierung. Bei 20 Kernen oder mehr schreit die HW förmlich danach als Hypervisor genutz zu werden, denn sind wir mal ehrlich: Wer braucht im täglichen Gebrauch schon so viele Kerne (okay, vlt wieder der Bereich Multimediakram). Für mich viel relevanter ist die Möglichkeit mehrere VMs gleichzeitig laufen zu lassen, was zudem auch die Sicherheit erhöhen kann. Ich nutze z.B. Windows nur noch, wenn ich durch die Arbeit gezwungen bin MS Office zu nutzen. Dafür reichen aber locker zwei Kerne, ist ja nur ein bisschen Word und PowerPoint und einfache Excel-Tabellen. Wenn ich wirklich mal ins Apple-Universum vordringen will, dann mach ich das auch lieber in einer VM, so werden meine persönlichen Daten nicht tangiert. Kann man das neuste MacOS überhaupt ohne Online-Konto (also Apple ID) nutzen? Für mich ist das immer mit einem unguten Gefühl verbunden, wenn ich für die einfachsten Dinge, wie z.B. Zugriff auf KOSTENLOSE Apps schon meine Adresse und Kontoverbindung hinterlegen soll. Muss das wirklich sein? Über Linux und VMs kann ich dann wenigstens ein bisschen meiner Privatsphäre wahren. Solange der neue Mac ohne MacOS und ohne meine Kontaktdaten nur ein extrem teurer Briefbeschwerer ist, bleibe ich lieber beim altbewährten x86er. Dabei habt ihr die Vorteile z.B. in Bezug auf Effizienz und Energieverbrauch ja schön hervorgehoben. Macht doch mal ein Video darüber, ob man auch ohne den Zwang seine persönlichen Daten offenzulegen von der neuen Technologie profitieren kann. Es muss ja noch nicht mal zwingend Apple Silicone sein (obwohl diese HW schon sehr attraktiv aussieht). BTW: Wenn ihr denkt "Windows und MacOS sind doch bestimmt unbedenklich; wenn persönliche Daten ausgelesen und irgendwohin übermittelt werden, dann erst durch unsichere Software von anderen Anbietern", muss ich euch enttäuschen. Ich habe im Frühjahr 2020 ausschließlich von zu Hause gearbeitet (wie sehr viele Menschen zu dieser Zeit) und selbst im Sommer 2021, wo ich zuletzt ausgiebig mit Windows auf einer dedizierten Maschine gearbeitet habe, habe ich in meinem Netzwerk zwischen 30 und 35% der DNS-Anfragen mit dem Pi-Hole blockiert. Zum Vergleich: Wenn ich kein Windows nutze, sind es nur 5 bis 8% und dieser Vergleich verschärft sich nochmal dadurch, dass ich unter Windows hauptsächlich Office und Zoom genutz habe, ansonst mit meinen anderern Geräten aber viel im Netz surfe und z.B. eure Videos konsumiere oder in verschiedensten Foren unterwegs bin. Ich fürchte Apple ist ungefähr ähnlich interessiert an den Nutzerdaten und daher überwiegt bei mir das Bedürfnis nach Privatsphäre und Freiheit die Neugier auf die neue, effiziente Hardware. Windows schreibt in den AGBs, welchen man beim Installieren des Betriebssystems zustimmen muss sogar ganz kess, dass ALLE Tastatureingaben zur Verbesserung der Nutzererfahrung an MS übermittelt werden können. Ich finde da sollte man sich zweimal überlegen, ob man in Zukunft noch Online Banking auf einem Windowsrechner macht. Ich glaube zwar nicht, dass sich Bill Gates die Zugangsdaten schnappt um sich selbst Geld von fremden Konten zu überweisen, aber Datenlecks oder Hacks wie jüngst durch Lapsus$ führen immer wieder vor Augen, wie schnell sensible Daten in die falschen Hände geraten können und dass selbst die Big Player (MS, Apple, etc.) kein sicheres Mittel zum Schutz davor haben.
ProRes wird als Zwischenformat zum Editieren benutzt, man kann in der Ingest-Station gleich als ProRes ingesten, oder wenn man möchte die Previews als ProRes abspeichern und dann weiterverwenden.
Mich würde so dringend mal ein ein DAW Vergleich interessieren. Alle checken die Video und Gamingleistung, aber nie vergleicht mal die Audioleistung :(
Ein 3 Jahre alter PC kann gegen ein aktuelles System von Apple nun mal nicht anstinken. Hier wurden im wahrsten Sinne des Wortes Äpfel mit Birnen verglichen.
Ich nutze den M1 im McBook Air als Content Creator, es ist einfach unglaublich effizient in der Videobearbeitung. Preisleistung ohne hin top beim Air !
Bin mal gespannt wie sich das alles weiterentwickelt mit der Arm Architektur, Apple hat sehr schön bewiesen was jetzt schon machbar ist im Vergleich zur energieeffizienz, ist halt schade das noch keine Spiele wirklich unter Mac OS laufen... aber eventuell ändert es sich ja noch bzw Windows zieht fix nach (:
Was mache ich mit meiner Windows Altsoftware? :-) Ich denke das wird der Haupthemmschuh sein. Ich habe eine große Spielebibliothek, vor der bestimmt die meisten Firmen kein Interesse haben sollten nativ für den Arm einen Port zu machen. Ähnliches dürfte sich auch bei extrem vielen Altanwendungen in der Windowswelt abspielen. Also fern ab von den Bettkantenusern im normalen Geschäftsbereich.
@@hesspet Ich habe mit Apple in den 90ern den Umstieg von Motorola- auf PowerPC-Architektur mitgemacht, dann 10 Jahre später den Umstieg von PowerPC auf Intel und jetzt steht der Umstieg auf ARM an. Davor habe ich überhaupt keine Angst, denn die alte Software läuft ja noch ein paar Jahre. Viel schmerzhafter war der Umstieg von MacOS9 auf MacOSX und von 32 auf 64 Bit. Da ist mehr Software den Hang runter. Sprich: ein Wechsel der Hardware stellte dank Emulationsschicht kein wirkliches Problem dar. Das bekommt auch Microsoft hin.
@@karlknapp2798 Nö, auf den Emulationszug springe ich nicht mehr auf. Ich habe da zu viele Stunden meines Lebens mit Frickelei verbracht :-) Dafür bin ich einfach zu alt geworden. Gerade bei Branchensoftware haben mich diese Art von Umstellungen schon viele graue Haare die letzten 30 Jahre gekostet. Große Versprechen und wenn es ernst wurde, hast Du beim Kunden verzweifelt gesessen und einen Patch nach dem anderen durchprobiert um dann irgendwie (meist) zum Erfolg zu kommen.
Vielen lieben Dank für euer Video. Hab es von Sekunde 1 an genoßen. Sehr informativ und auch total gut veranschaulicht! Frage: Du bist kurz auf Blender eingegangen. Kann man dem Mac Studio den Umgang mit 3D Basteleien oder auch z.B. Unity zutrauen? Viele liebe Grüße, Jan
12:40 Die Leistungsaufnahme von Spiele-PCs sinken nicht, sondern steigen weiter an. Total Graphics Power (TGP) von RTX 2080 TI FE: 260W TGP von RTX 3090 FE: 350W TGP von RTX 3090 TI: 520W (TDP: 450W) TGP RTX 4090: 600W
Das wird aber auch Apple nicht ändern. Für diese Art von GPU Power ist, nach meinem Kenntnisstand, kein anderer Weg möglich. Zumindest sehe ich den nicht.
@@hesspet das geht schon anders. Problem ist das hier eine ganze Industrie auf einen neuen Standard wechseln müsste. Da hat sie Branche einfach kein Interesse dran. Würde ja die Gewinne schmälern und die Idioten kaufen ja eh alles.
Und diese Entwicklung ist absolut lächerlich... Sofern man seine eigene Stromrechnung zahlt. Hab mal rtx 4090 und dazu noch einen schönen fetten Monitor im Dauerbetrieb laufen, da schlackerst du nach einem Jahr mit den Ohren. Die Frage die sich MIR beim gamen nach dem chip-shortage gestellt hat: Brauch ich das überhaupt um den drölfigsten COD Ableger zu zocken? Jeden das seine, aber ich mach diesen Mist nicht mehr mit und hänge die Zockerei bis auf weiteres an den Nagel
Man könnte den gleichen Test statt mit dem Studio, auch mit dem 2020iger M1 Mac mini machen der weniger als die Hälfte kostet, Ergebnisse wären wohl verhältnismässigen ähnlich, zumal der Mac mini inzwischen frei von Kinderkrankheiten ist und der Studio noch ein paar hat (Skalierung, Throttling, etc.)
Der Leistungsverbrauch der CPU ist ja aktuell das kleinere Problem, Systemverbrauch da spielt die Musik, also Was wird aus der Wand gesaugt, mit Monitor, PC, Zubehör. Lautstärke ist da natürlich auch ein Thema.
Könnte mir gut vorstellen das nvidia als nächstes was im Bereich ARM SoC für Consumer bringen wird. Auch wenn sie sich ARM nicht einverleiben konnten, verzögert das die Pläne die sie mit ARM haben vermutlich nur etwas.
Sehr Interessant was die Leistung und der Stromverbrauch betrifft, aber leider sind die MACs ganz schön teuer und wenn Nachfolgekosten enstehen durch ein behebbaren technischen Schaden muss man wieder tief in die Tasche greifen. Bei Apple ist fast alles überteuert. Aber für Leute die finanziell gut ausgestattet sind, ist das allemal eine sehr gute Empfehlung !
Daher ist dieser Vergleich nutzlos, jemand der sich einen Mac Studio anschaut, sollte auch immer einen 32 Kern Threadripper Pro in Betracht ziehen (kosten sind bei Sinnvolen Specs ähnlich)
Naja einen Mac verkaufe ich noch ewig für gutes Geld. Einen Windows pc eher nicht. Mein Nachbar hat sich jetzt noch ein MacBook Pro aus 2016 gekauft für 600€ und das Ding rennt.
@@dkastra26 Für 600 € hat ihr Nachbar ein gutes Schnäppchen gemacht. Und Windows PCs verlieren schnell an Wert. Das liegt an der Masse die hergestellt wird.
Bei Blender ist der Vorsprung von Nvidia speziell darauf zurückzuführen das Blender CUDA nutzt, was als proprietäre Nvidia Technik nicht auf dem M1 verfügbar ist aber auch nicht auf AMD Karten. Zudem kann der Mac noch kein Raytracing und die Optimus Technik zum entrauschen läuft auch nur auf einer Nvidia Karte. Der Vergleich ist also nicht ganz verhältnismäßig. Ansonsten finde ich es immer noch bemerkenswert was Apple aus dem Stand für einen SoC rausgehauen hat. Der M1 ist erst die erste Desktop Chip Generation auf dieser Basis, mit einer Überarbeitung. Das Watt-Leistungsverhältnis ist wirklich beeindruckend. Danke für den gelungenen Test.
Ich danke dir für deine Videos. Du sprichst locker aus der Hüfte und kommst auf den Punkt. Kann man viel lernen. Ja und Apple wird eh in Zukunft alles überrennen. Wie sage ich immer " Die können es einfach " ! ;)
Sie vergleichen AMD-Technologie der letzten Generation mit aktueller Technologie von Apple. Ein richtiger Benchmark wäre ein Nvida 3090 und ein AMD 5900x
Das beobachtete ich schon vor ca. drei Jahren. Samsung Gear-360-Kamera-Bilder müssen gerendert werden. Mein i5 4670K Hackintosh mit RX570 drehte komplett am Rad. Alle Lüfter an und die Grafikkarte zeigte 170 Watt im Peak an. Sah in einem Video, dass man das doch bitte auf dem Handy rendern sollte. Also nahm ich mein Xiaomi Redmi Note 5 und ließ rendern. Das war in einem Viertel der Zeit fertig und das Handy wurde nicht mal lauwarm. Das war für mich der Zeitpunkt, an dem ich mir dachte, dass das mein letzter x86-Rechner sein wird. Bis heute habe ich den nicht ausgetauscht - auch weil tatsächlich kein Bedarf bestand. Ich habe noch eine m2 nachgerüstet und bin auf Ubuntu geswitcht -sonst nichts mehr. Warte nun auf ARM-Desktops und dann wird es vielleicht wieder ein Hackintosh Ich vermisse drei Dinge ganz heftig unter Linux: FCPX, Fotos und Photoshop - okay, Shotwell, Kdenlive und PhotoGimp sind absolut in Ordnung, es ist schlicht die Gewohnheit. Bis 1984, zum C64, hatte ich noch „ernsthaft“ auf Konsolen gezockt, dann nicht mehr. Ich war einfach der notorisch übertaktende PC-Gamer. Hat sich echt geändert. Immer wenn man Zocken will, muss man Windows starten. Das macht erst mal ewige Updates und bettelt auch danach noch um Aufmerksamkeit. Neeee, keinen Bock darauf. Merkte, dass ich immer öfter die Xbox benutzte. Seit 18 Jahren habe ich privat kein Windows mehr „produktiv“ am Start - und lebe seitdem stressfreier. Selbst ein scheiß Hackintosh ist einfacher zu installieren und zu warten als Windows.
Von wegen 'Wünsch der was': Kannst du nicht mal ein oder zwei Videos zum Thema Geforce Now machen? Am Besten einmal für Menschen ohne Mitgliedschaft, die unter anderem Steam nutzen möchten. Und einmal mit Mitgliedschaft, mit Infos darüber, was dass dann bringt und wie die Bedienung geht. Ich habe seit Jahren z.B. ein Nvidia Shield, und bekomme da spieletechnisch mal garnix an Haken. Bin aber auch kein Gamer, würde mich aber gerne mal in die Welt begeben. Letzten habe ich ca. 25 Minuten auf einen freien Slot gewartet, um eines der kostenlosen Games zu spielen, wofür ich ja ausch schon registriert sein muss. Endlich an der Reihe, sollte ich mich wieder mit facebook, google oder noch so'n Mist anmelden und bin gescheitert. Danke für dein Beiträge. Endlich mal ein verständlicher Motivator 🙂
cool. endlich ist man nicht mehr abhängig vom hersteller eines betriebssystems und ich kann jederzeit ram und datenträger tauschen oder ergänzen. diese neue "unabhängigkeit" ist MEGA !!! 😮😮😮
Vor meinem M1 Mac Mini hatte ich einen Intel Mac Mini i7 (6 Kerne, 12 Threads). Leistung (fast) ohne Ende, doch bei Videoberechnung war der Rechner nach spätestens 1 Minute bereit zum Spiegel-Ei braten und der Lüfter kurz vorm abheben. Das Info-Tool zeigte 99 Grad Celsius. Der M1 Mac Mini dagegen wird minimal wärmer, Lüfter sind nicht zu hören bei max. 60 Grad Celsius. Bei diesen geringen Stromaufnahme lasse ich ihn auch mal gerne die Nacht über rechnen. Für einen 08/15 Nornalo-User wie mich ist ein M1 Mac Mini der richtige Rechner: klein, lautlos (befindet sich 60 cm von mir entfernt), stromsparend.
Dafür hätte ein Pi400 auch gereicht. Im Ernst, der ist noch sparsamer und hat mehr als genug Bumms für SOHO und Web. Sogar 4k-Videoschnitt läuft überraschend gut, siehe TH-cam.
@@CrassSpektakel Nichts gegen den Raspberry 4 (habe selbst einen als Mediaplayer mit Libreelec ;-)), aber als Alltags-Rechner fehlt mir da doch etwas die Performance ...
Was noch zu kurz kommt. Absolute Stille im Raum bei vollster power. So kann man arbeiten. Selbst mit meiner wakü rödeln immer Lüfter neben mir rum und dann meine kindische rgb Beleuchtung die kein Mensch braucht. Apple ist schon was tolles. Ganz ohne Neid. Noch dazu diese power in einem MacBook Pro und der Akku hält einfach ewig
Sehr informativer Test! Würdest du beim Kauf des Mac Studio 32gb für ausreichend sehen, oder doch lieber 64gb RAM nehmen,? Soll für Videoschnitt mit Final Cut/imovie und Musikproduktionen mit Ableton Live sein.
Als ich als Jugendlicher im Kino den Bond „Im Angesicht des Todes“ sah, war ich wohl der Einzige, der aufschnaufte, als Bond was von „Chips“ und „Silikon“ faselte. Das tut mir bis heute weh.
Hallo Keno! Richtig interessant wäre ein Vergleich mit Deiner Workstation, die mit Linux läuft. Ob sich die Benchmarkwerte dadurch noch verbessern würden? Mir sind jedenfalls die Apple-Produkte viel zu teuer, auch wenn sie sehr ausgewogen und zuverlässig sein sollen. Und, für das Geld, was ich bei Apple mehr bezahle, kann ich erst mal noch viel Strom mit dem Windowsrechner verbrauchen! ;-) Richtig vom Glauben abgefallen bin ich als ich gesehen habe, was Modifikationen, wie z.B. eine größere SSD kosten sollen. Das ist einfach nur unverschämt und dreist! Auf jeden Fall vielen Dank, für das interessante Video. Mach weiter so. Ich finde Deinen Stil super! Informativ und unterhaltsam, genau die richtige Mischung!
Ich lese immer wieder davon, dass Apple Rechner zu teuer wären. Aber immer wenn ich Leute dann bitte, mal einen vergleichbaren Windows Rechner zu präsentieren, dann wird das wegignoriert. Also z.B. ein Macbook Air kostet in der Windowswelt maximal 100 Euro weniger (gleicher SSD-Platz, gleicher RAM, gleicher Bildschirm etc).
@@dergummipunkt :-) Und genau das höre ich immer wieder von Apple Missionaren. Nur leider beweisen konnte es mir noch keiner. Vor allem wenn ich einen "kleinen" erweiterbaren Rechner haben wollte. Entweder volle Breitseite oder? Es sind halt Rechner für HighEnd Kunden und da kommt es einfach nicht auf das Geld an - aber wo ist der vernünftige Desktoprechner für den normalen Büroalltag für sagen wir mal unter 1000 Euro. :-) Es kommt immer auf den Blickwinkel an, die wenigsten Anwender dürften eine so geballte Leistung brauchen. P.s.: Ich habe gerade wieder einen kleinen Wohnzimmer "PC" auf ARM Basis aufgebaut. -> Raspi4 :-)) Geht doch... für unter 200€ inkl. Festplatte und Gehäuse. Und die Leistungsaufnahme hält sich wirklich in vernünftigen Grenzen.
@@dergummipunkt Genau, ich habe noch nie einen Monitorständer unter 1000€ gesehen!!!!! Oder die 850€ Rollen für den Mac, der Gedanke man wurde in der Windows Welt günstigere Rollen finden ist ja völlig absurd!! Die sind schließlich aus Gummi!!!!! GUMMI!!!!! Sowas Hochwertiges gibt es bei Windows PCs doch gar nicht!!!!! Aber bitte, stell halt eine Rechnung auf wie viel ein Rechner kostet der vergleichbar mit dem 4600€ M1 Ultra Mac ist. Mein Vorschlag wäre ein Ryzen 5950X mit starker GPU. Wenn man die GPU nicht braucht kann man auch direkt einen Threadripper nehmen. Als Benchmark nehmen wir die Compilezeit des Linux Kernels.
Ich stimme Keno im Großen und Ganzen zu, auch ich würde gerne so einen Rechner mit Apple Silicon als tägliches Arbeitstier nutzen, wobei ich Mac noch nie genutzt habe und deren Preise nicht wirklich nett finde, vom Apple Kosmos mal ganz zu schweigen... Bedenken sollte man aber, dass Apple auch einfach die ARM Biester schlechthin baut. Kein anderer Hersteller kann mit den Apple Chips mithalten, das war/ist schon bei den iPhones so. Dass man mit mehr TDP Spielraum da durchaus in Desktop/Workstation Spheren hinaufstoßen wird, war mir schon sehr lange klar. Passiert im Servermarkt ja auch schon längst (da klatscht man notfalls dann einfach noch mehr CPUs ins Rack). Ein Problem war halt lange die fehlende Software Unterstützung für Desktop/Workstation Apps... Bisher, so habe ich es glaube auch aus den c't Tests gelesen, tut sich Windows mit ARM aber noch recht schwer, was sicher auch mit den vergleichsweise "schwächeren" Qualcomm Chips zu tun hat, vor allem aber mangels besagtem äquivalenten Emulator zu Rosetta, welcher scheinbar auch eine Glanzeleistung von Apple ist. Da kann MS einfach (noch) nicht mithalten. Gleichzeitig wird auch native Desktop-Software dank steigender Verbreitung von M1 und Nachfolgern immer mehr auf ARM portiert werden (davon könnte dann auch irgendwann wieder MS profitieren). Wie das mit x86 aussieht, muss man sehen, als Laie kann ich nicht so ganz nachvollziehen, warum nicht auch x86 noch sparsamer werden kann (also letztlich mehr Performance je Watt). Vllt ist das tatsächlich ja Architektur bedingt (CISC vs RISC?) . Da müssen AMD und Intel aber tatsächlich bald liefern. Immer nur den aller schnellsten Chip ungeachtet des Verbrauchs wird irgendwann einfach auch eine physische Grenze haben.
Wie gut, dass immer Äpfel und Birnen verglichen werden … der Vergleich zu alles bis 5950x sollte der Mach mini, bzw. Der kleinste MAc Studio sein. Alles darüber ist preislich in einer sinnvollen Austattung mit einer Threadripper Workstation zu vergleichen … Was ist daher die Aussage dieses Videos? Das man Äpfel nicht mit Birnen vergleichen kann?
Fail: 3:00 - die "sehr gute" NVMe hat max. 3500 MB/s. Jetzt schau dir mal die Benchmarks von der internen SSD des Studios an. 6000 bis 7000 MB/s. Man bekommt für das Geld also auch mehr Leistung. Zudem wird der RAM im M1 auch für die Grafik genutzt, weshalb er sau schnell sein muss. Also pack die lahme 970 Evo Plus wieder weg, das sind Äpfel und Birnen…
Apple M1 Erfahrung: Docker läuft mehr schlecht als recht...fast alle wichtigen images basieren auf x86 und die emulation ist einfach nur langsam. Wichtige frameworks fuer DeepLearning (tensorflow, pyTorch) laufen nicht auf dem M1....Fuer Entwickler meiner Meinung bedingt produktiv einsetzbar, aber sonst tolle Maschinen...
Dem kann ich nur zustimmen, als Entwickler kann man aktuell alleine mit dem M1 nicht wirklich arbeiten. Schon gar nicht im Team mit anderen Entwicklern, die mit ihren x86 Maschinen volle Kompatibilität genießen. Wird leider viel zu wenig erwähnt, alle wollen heutzutage nur noch Videos schneiden...
@@derallli1 ja, video schneiden ist wohl der hauptanwendungszweck für professionelles arbeiten bei vielen youtubern. Anwendungsfälle von Ingenieuren (coding, machine learning, cad, Simulationen, matlab, etc.) sind wohl überflüssig...
Hallo tolles Video. Gibt es eigentlich eine Angabe von seitens Apple die diese Leistung des Mac Studio für gewisse Anzahl von Betriebsstunden garantieren? Die iPhones mit ARM Chip werden Jährlich erneuert können dann schneller und besser etc. Diese Roadmap jährlich was neues ist mit der Nachhaltigkeit nicht vereinbar. Grüße 👋🏻
Ich habe selber ein neues MaxBookPro 16" M1. aber beim Arbeiten der normalen Anwendungen merkt man nicht sehr viel, schon gar nicht was der Unterschied des Preises ausmacht ! Da darf dann der PC schon mal ums vierfache längsämer sein.
Man sollte beachten das es nicht rein an der Architektur liegt. Es kommt immer darauf an wie die Software mit der Hardware kommuniziert. Speziell auf die Hardware abgestimmte Software wird immer deutlich besser laufen als Massenware. Ich merke das gerade bei Linux. Auch ein M1 wird scheiße laufen wenn die Software mist ist.
Früher gab es noch PowerPc Architektur. Aber zur Power von ARM ja hatte schon immer quasi mehr Effizienz, das Problem war x86 hatte 1985 schon 32Bit Architektur und Arm erst seit 2015, sonst würde die Welt anders aussehen.
Hm, einen brandneuen High-End-Rechner (kleinste Konfig ab 2300 €) mit einem drei Jahren Mittelklasse-PC (ja auch damals gab es schnelleres - 16-Kerner, 2080 Ti) zu vergleichen hat schon was. Habt ihr vor drei Jahren den Keno-PC auch mit einem drei Jahre alten Mac verglichen, der halb so teuer war? Aktuelle x86-Technik und Zubehör wie eine RTX 3090 schaffen in dem Blender-Benchmark übrigens so 2800 Punkte. Ist der M1 jetzt auch tot?
Kostenpunkt für meinen letzten Spiele-PC (2021): 3500 Euro. Wobei allein die RTX 3090 ca 70% des Preises ausgemacht hat, Grafikkarten kriegt man ja zur Zeit nur noch gegen ihr Gewicht in Gold (Platin?). Klar ist der performanter bei der Grafik als selbst ein M1 Ultra mit voll ausgebauter GPU (mein erster Spiele-PC, bei dem der Grafikbenchmark eines AAA-Titels - Ghost Recon Breakpoint - in 4k/HDR/Ultra die GPU nicht zu 100% auslastet). Aber wenn Keno jetzt den für die Rendertests genommen hätte, wären die Ergebnisse bereits im Vergleich mit dem M1 Max die gleichen gewesen. Der PC zieht bei Vollast mehr als 500 Watt aus der Steckdose und verbraucht Idle mehr als der M1 Max unter Vollast. Weil weder Intel noch AMD bereits bei 5 nm angekommen sind, können die Leistung aus ihren CPUs nur dadurch rauskitzeln, dass sie bei der Leistungsaufnahme ans thermische Limit gehen, um die Taktraten möglichst hoch zu schrauben. Ein Mac Studio mit gleichem RAM (32 GB) und SSD-Ausbau (1 TB) wie dieser Spiele-PC wäre im übrigen günstiger (mit m1 MAX 32 GPU-Kerne: knapp 2800 Euro). Aber als Arbeitspferd im Home Office für SW-Entwicklung reicht mir bereits ein mini M1. Den gibts ab 700 Euro. Wenn die bei Intel und AMD auch mal so kompakt fertigen können, erwarte ich, dass auch der Leistungshunger der x86-CPUs abnimmt. Weniger Stromverbrauch heisst: längere Notebooklaufzeiten ohne Notwendigkeit, die CPUs zu drosseln, mehr Laufruhe auf dem Desktop und in Rechenzentren Einsparungen bei der Stromrechnung und dem Aufwand für die Klimatisierung, die dann auch noch mal Strom kostet. Es ist gut, dass das Rennen um Effizienz eröffnet ist.
@@olafschluter706 Nö, Grafikkarten sind seit Dezember um 60-70% gefallen. Ein Spezl hat sich gerade eine Geforce 3080Ti für 1000 Euro bestellt, ich warte noch, derzeit fallen GPUs pro Woche um 10%. Ich denke bis Sommer sind wir DEUTLICH unter UVP. Ich denke bis Juli kostet die 3080Ti unter 700 Euro. Dann werde ich wohl zuschlagen.
@@CrassSpektakel Ja, das ist gut, aber die Lage sah halt Anfang 2021 ganz anders aus. Aber ich wollte damals unbedingt einen Spiele-PC, der in der Lage ist, eine HP Reverb G2 kompromisslos zu versorgen. Doch selbst unter normalen Umständen muss man bereits einen M1 mit einer benchmarkmäßig vergleichbaren CPU + 1060 GPU vergleichen. Wo man einen M1 Max mit 32-Core GPU grafikkartenmässig zu verorten hat, ist nicht ganz klar, allerdings sind >60 fps für Shadow of the Tomb Raider, dass überall immer noch als GPU-Benchmark herhält, bei maximalen Einstellungen und 4k schon ne Hausnummer - anders als die High-End-Karten der Wintel-Welt ist der ja noch nicht mal im Hinblick auf Spiele gebaut. Ein Mac ist keine Spieleplattform, mangels verfügbarer SW und wohl auch, weil Gamer wie ich sich ihre Wintel-Boxen kompromisslos selbst zusammenstellen, da passt das Geschäftsmodell und Produktangebot von Apple überhaupt nicht. Es gibt aber Spiele, die selbst schon auf einem M1 ziemlich gut laufen, bspw. die von Paradox Interactive, Surviving Mars oder Europa Universalis (coole Spiele btw.) Rosetta 2 ist allerdings ziemlich performant, der x64-Emulator von Windows on ARM ist da deutlich langsamer (weil verschiedene Konzepte, Rosetta übersetzt x64-Code in ARM, Windows emuliert einen x64-Prozessor auf ARM, und hier gewinnt mal ganz deutlich das Rosetta-Konzept) deswegen kann man auch ein Intel-Mac-Spiel nehmen, um die GPU-Performance eines M1x zu testen und man kann Rosetta da auch nicht als Entschuldigung nehmen. Eine RTX 3090 bringt hier etwas mehr Performance, bis zu 80fps, sagt das Internet, ich kenne das Spiel und habe das auf dem aktuellen PC nicht mehr gespielt, kann also nur zitieren. Ich sehe das recht gelassen, weil der mini M1, den ich habe, für SW-Entwicklung genutzt wird. Da hat er die Performance eines Intel-PCs mit vergleichbarem CPU-Benchmark und kostet auch nicht mehr als der, was seine GPU kann, kann mir wurscht sein (die ist bei Shadow of the Tomb Raider nicht wirklich toll, da habe ich das aus Neugier mal ausprobiert). Weil macOS obendrein unixoid ist, taugt er auch zur SW-Entwicklung besser als Windows. Alle wichtigen SW-Entwicklungstools stammen aus der Unix-Welt. Und an macOS kommt man eh nicht vorbei, wenn man SW für iPhones schreibt, das ist sein Vorteil gegenüber Linux. Weil das in den letzten Jahren zu meinen Aufgaben hinzugekommen ist, musste eh ein macOS-Rechner her. Als der Macbook Pro mit M1 Max präsentiert wurde, habe ich mal den Vergleichsrechner Razor Advanced 15, das Gaming-Notebook-Flagschiff von Razor, aufgerufen, das leistungsmäßig am ehesten equivalent ist. Bei gleichem RAM und SSD-Ausbau kamen ein Macbook Pro 16 und dieses Notebook beide auf ca. 3500 Euro. Apple ist nicht wirklich teuer. Die verkaufen halt bloss immer Hardware im Premium-Segment, da, wo bei Autos BMW, Mercedes oder Audi sind. Und damit in den oberen Preisklassen,. Der mini ist da die Ausnahme (der 24 Zoll iMac und das Macbook Air im Prinzip auch noch). Die sind preis/leistungsmäßig vergleichbar mit der Intel-Welt für Normal-Sterbliche, und haben ihre Vorteile nicht bei der Performance, sondern bei der Energieeffizienz (was mehr Akkulaufzeit für Notebooks und mehr Laufruhe für Desktops bedeutet). Wenn es den mini nicht gäbe, wäre meine Entscheidung für einen macOS-Rechner wohl auch anders ausgefallen, ich hätte mir dann privat keinen angeschafft, denn ausser dem mini pur habe ich nichts gebraucht, alles andere, Monitor, Sound, Kamera, Tastatur, Maus, war ja alles schon da. Jetzt hängt der mini als 2. PC am Monitor, der auch einen KVM Switch hat, und auch noch den Vorgänger-PC versorgt. Den ich aber, seit ich den mini habe, kaum noch nutze (eigentlich nur noch, um Daten auf den mini zu übertragen, die bisher nur auf dem PC waren). Ich hatte mir vorher bereits eine Zeitlang damit beholfen, einen Hackintosh zu betreiben (was allerdings absehbar keine Option mehr sein wird wegen dem Umstieg auf Apple Silicon, das geht vielleicht noch ein paar Jahre). (War) Die günstigste Lösung für macOS, wenn man die Hardware sowieso schon hat. Ja, ist richtig, fürs Gamen gebe ich wesentlich schmerzfreier Geld aus, habe ich ja erzählt :) Das ist halt mein Hobby. Da bin ich eher in Gefahr, wieder mehr als 2K für einen Wintel-Rechner auszugeben (der Spiele-PC war mit Abstand der teuerste PC, den ich je angeschafft habe, normalerweise habe ich mir immer ein Budget von 1500 Euro gegönnt), als mir ein Mac Studio anzuschaffen. Fürs Arbeiten brauche ich so viel Power nicht. Nicht für meine Zwecke da. Allerdings hatten mich meine Hackintosh-Erfahrungen auch davon überzeugt, dass macOS gar nicht so schlecht ist zum Erledigen typischer Home-PC-Aufgaben, wie z.B. scannen und verschicken eines Steuerbescheids an den Steuerberater . Deutlich besser als Windows und Linux zickt da mitunter auch mehr. Ich brauche auch weder MS Word noch OpenOffice, um die paar Briefe zu schreiben, die im Jahr anfallen, da kommt mir die Funktionsvielfalt dieser Office-Pakete eher in die Quere. Für solche Zwecke sind die Office-Tools, die mit macOS mitkommen, genau richtig. Und Keynote ist deutlich besser als Powerpoint oder sein OpenOffice Pendant Das kann ich als jemand, der auch als Berater unterwegs ist, mit Grund sagen.
Bist du dir sicher, dass du hier nicht Äpfel mit Birnen vergleichst? Gerade beim Rendering sind die "verdrahteten" Encoder der Schlüssel für gute Performance. Möglicherweise solltest du den mal gegen einen 12900k laufen lassen? Aber dazu gibt's ja auch schon genügend Videos :-)
Erstmal ein dickes Dankeschön für die tollen Beitrage! Die Vollkatastrophen die Apple die letzten Jahre im Angebot hatte, haben mich zweifeln lassen ob dieses Unternehmen es nochmal schaffen wird, aus dem Tal der Belanglosigkeit rausfinden. Der M1 hat es ermöglicht und Leistungs/Energieeffizienz sind WOW. Die Preisgestaltung ist seit jeher auf dem höchsten "ihr seit doch nicht ganz dicht" und auch ich musste mit dieser Begründung gute Hardware mein frieden finden, denn im Grafikbereich ist Mac nicht schlagbar. Und selbst mein 2015MacBook Pro voll aufgepimpt macht immer noch täglich seinen Job, zwar nicht mehr als Grafikkiste aber zum Entwickelt taugt er absolut. Was das Redaktionelle angeht möchte ich ein Thema anregen, welches nicht nur mich betrifft sondern eine Menge andere Leute sicherlich auch. Das Apel sehr konsequent Hardware für älter Hardware einstellt, ist auch für mich absolut nachvollziehbar, Das sie das jedoch auf eine Art machen, die für mich einen Gefühl von ""ich will t@ten" erzeugt. Es muss doch möglich seine alte Aple-Hardware zumindest dazu zu bring das die Daten, welche sie immer noch enthält so zu sichern, das wie in meinem Fall, ein IPop Classic mit 80GB seine Daten freigibt, das deren Struktur erhalten bleibt. Um es noch ein wenig deutlicher zu machen. 70GB voll mit der schönsten Zeit meines Lebens, mit Erinnerungen deren Verlust...ach da mag ich garnicht weiter drüber nachdenken. Ich finde absolut keine Losung, diese Daten zumindest zu retten. Es gibt nur die unbrauchbare Lösung das Gerät im Festplatten-Modus zu starten. Das wurde zwar die Rohdaten speichern und das ist mir auch gelungen, aber diese Media-Datem so zu strukturien das sie auch in der Zeitachse wieder erkennbar sind, ist mir nicht gelungen. Support.Anfrage sowie der örtliche Apple.Dealer war ein fail. Der Vergleich mit einem Crypto-Trojana ist da durchaus passend, jedoch wäre bei der Gangster Variante wenigsten eine Option vorhanden. Frage des Preis! Für mich gibt. es keinerlei Erklärung was sich Apple dabei gedacht hat, Denn Der IPOD Ist ein Device zur Datenspeicherung in seinem Fall Mediadaten. Die Aufnahmen erzeugen dessen Besitzer nich Apple ist. Ihr seht es erzeugt mir richtige Schmerzen, Bitte liebes c't team es würde glaub ich eine ganze Menge User frohlocken, wenn ihr dieses Thema zu Eurem machen. Als Gegenleistung, wüsste ihr dann, wie lang es braucht bis diesem arroganten Apple-Dealer, der Ipot aus dem Schädel gewachsen ist.
Tolle Hardware, aber leider kann ich einfach keinen Rechner von Apple kaufen. Dazu ist mir Apple einfach zu gierig und die fehlende Möglichkeit, selbst aufzurüsten, ist ein Ausschlusskriterium. Einen kleinen, leisen und stromsparenden Rechner wie den Mac Studio hätte ich nur zu gern. Ich hoffe, dass wir in den nächsten Jahren auch PCs auf ARM-Basis sehen werden.
Einfach beschweren ;) irgendwann müssen die das wieder möglich machen besonders wen in eu das Recht auf selbst Reparatur Pflicht wird da müssen auch Hardware so sein das man sie wechseln kannst
@@BlackEvildoer falsch sorry er will aufrüsten können kann man mit denn neueren Mac mini nicht mehr 🤔 glaub seid 2014 wurden die RAM verlötet und ab 2018 auch die ssd oder umgedreht aber jetzt mit 2020 Modell oder 21 Modell kann man es überhaupt nicht mehr leider deswegen hoff ich auf das Gesetz von der eu
Wenn wir aber mal ganz ehrlich sind und die Nerds und Freaks rausstreichen + berufliche Schnitter und Musiker? Wieviel Rechner werden wirklich über ihren Lebenszyklus aufgerüstet? Jaaa? Eben, nur recht wenige bis gar keine. Dieses Apple Geschäft spielt sich doch eher im HighEnd Bereich ab. Tolle Hardware würde sich für mich für einen reinen Desktop Consumer Rechner im 500-1000€ Sektor bewegen. Da würde Apple Pleite gehen wenn sie diesen Markt bedienen wollen. Ich denke wir werden ARM Geräte sehen, aber nicht von Apple in diesem Segment.
@@hesspet Und dann wären da die vielen Rechner, die von einfachen Anwendern gekauft werden, bei denen man Speicher und SSD nachrüsten muss, weil völlig unbedarft einfach irgendetwas gekauft wurde, dass dann viel zu langsam ist und keine Freude mehr bereitet. RAM und SSDs sind was ich regelmäßig in meinem Umfeld aufrüsten muss. Dass kaum Rechner aufgerüstet werden, halte ich für eine Kühne Behauptung. Es gibt von Apple bereits ARM-Desktop-Rechner für 799, 1029 und 1259 Euro: Den Mac Mini. Warum sollte Apple ausgerechnet an einem Massenmarkt pleite gehen? Wenn überhaupt fahren sie mit den Profigeräten nicht genug ein. Es wird kein Zufall sein, dass es ewig gedauert hat, bis endlich ein neuer Pro vorgestellt wurde, nach dem der "Mülleimer" kein echter Wurf war. Der Pro-Bereich ist, im Vergleich zum iPhone und den 30% Wegzoll im App-Store, nur eine Randerscheinung.
Muss leider noch bis zum 22.4. warten bis das Mac Studio da ist. Bin aber gespannt wieviel Unterschied zwischen dem jetzigen m1 mini und dem m1 Max ist. Der m1 reicht jedenfalls für normale Anwendungen definitiv aus. Für mich kommt nur der RAM an seine Grenzen, was ich Webentwickler schon oft zu spüren bekommen habe. 32 Gb im Mac mini wären einfach besser aber Apple wird den mini nicht mit einer m1 Max Version raus bringen da bin ich mir sicher. Also keine 32GB Variante des Mac mini. Meine alten Hacki hab ich schon mehr als ein halbes Jahr nicht mehr an gemacht. Egal ob dort 64GB RAM drin stecken, denn der Strom den er schluckt ist es mir nicht mehr Wert.
Nicht ganz fair ne eher für heutige Verhältnisse lahme NVMe (5-7 GB/s) zu vergleichen. Eine externe sehr schnelle TB3/4 SSD mit 4 TB kostet ja auch rund 2k € - also von dem her eigentlich gar nicht so schlecht.
Naja, ne gute 2TB PCIe4.0 NVME kostet auf dem freien Markt auch nur ca. 260-300€. Warum du jetzt hier mit externen TB SSDs ankommst, versteh ich auch nicht so ganz. Da kosten allein die Cases ja dank TB schon ein Heidengeld.
Habe mir ein M1 Macbook air Gekauft, da es mir reicht und Trotz Spiele spielen wie CS:GO, Euro Truck Simulator 2 Und Minecraft trotzdem arbeiten und Internet Surfen komme ich locker durch den tag und durch das 13,3 zoll Display ist es schön handlich.
Schönes Teil bin mal wegen ARM gespannt ab wann ARM im CAD Bereich blicken lässt...potente hardware wäre vorhanden auch wenn ich es aktuell so sage das m1 ultra in der max config rein von der rohleistung an einer rtx a6000 ( das ist eine 5000€ gpu ) aktuell nicht ran kommt Intel hat ja bei alder lake das big little prinzip von arm abgeschaut Es bleibt spannend ob nvidia oder amd das auch mal anwenden werden
Es gibt auch Bereiche in denen der Mac Studio leider nicht der beste ist: Programmierung. Durch das Mac OS rund um sorglos und vernagelt Prinzip ist das nämlich relativ nervig(Xcode)
Finde ich gut das Arm viel Leistung mit wenig Energie liefern kann. Nur deshalb kaufe ich mir noch lang nicht von Apple - aber wenn es genauso gut möglich ist sich einen PC mit Arm zusammen zu stellen, warum nicht - linux wird darauf laufen, von daher...
Intel und AMD haben kein Problem solange Apple ihre irrwitzige Preis Politik beibehält. Nicht jeder will 2300 € für einen Rechner hinlegen und wenn ich sehe was die Nachrüst Komponenten bei Apple kosten... Nee, lass ma
Nach nun 2 Jahren Apple M auf ARM Basis sind die Qualcomm X Elite gerade dabei, die Intel und AMD CPUs ganz schön unter Druck zu setzen. Und Apple hat mit dem M4 und den künftigen M4 Pro, M4 Max, M4 Ultra und evtl. sogar M4 Extreme ein Paar Pfeile im Köcher, die den X86ern wohl bald den Gar ausmachen werden. Dabei sollte man nicht so sehr auf die aktuellen CPUs bei Intel, AMD, Qualcomm und Apple schauen, sondern auf die extrapolierten Entwicklungssprünge für die Zukunft, also die Rate, mit der neue CPUs schneller und sparsamer werden. Ich sehe für Intel und AMD nur die eine Möglichkeit, ebenfalls auf ARM zu wechseln. Ob das dann RISC V oder eine ganz eigene ARM-Implementierung wird, ist unerheblich. Microsoft setzt mit seinen neuen Surface Laptop 7 und X Elite voll auf Windows on ARM und das wird sich in Zukunft noch verstärken. Da wird die ganze X86-Schiene in's Hintertreffen geraten, zumal Windows on ARM selbst mit den alten X86-Programmen recht gut und schnell funktioniert. Als Apple-User mit diversen ARM-Rechnern sehe ich dem Ganzen genüsslich zu. Ich warte schon auf den großen Paukenschlag, wenn Pat Gelsinger den Umstieg auf ARM verkündet und kurz danach Lisa Su für AMD gas Gleiche Verkündet. ich bin mir sicher, dass das kommen wird.
Ich fände es mal spannend die voll ausgestattet Variante für 9200 € mit einem sagen wir mal 800.000-9200 € wenn’s wieder möglich ist Windows Rechner zu konfigurieren also zu kombinieren also wann konfiguriert quasi einen neuen 20 € Windows Rechner und dass du das dann gegen Nanda an
Bei Multicoresachen wie z.B. Videoschnitt macht der M1 schon sinn. Aber die Singlecore Leistung ist jetzt nicht so mega. Im Audiobereich kommt es mehr auf Singlecore und Realtime an, da bringt die Multicoreleistung nicht so viel.
Wenn man nur die Singlecore-Performance benötigt, dann reicht ja auch ein MacBook Air oder ein Mac mini mit einem M1. Dafür muss man also keine 1000€ ausgeben.
Hier darf man echt nicht den Fehler machen und von einem normalen PC vergleiche ziehen. Auch wenn die Leistungsdaten hier auf dem Papier zurück bleiben müssen sich die M1 Macs hier nicht verstecken.
@@blank_35m Ja, glaube ich dir. Mir gings halt nur darum, dass der M1 eher für multicore anwendungen gedacht bzw. da richtig seine stärken ausspielen kann. Auch die Singlecoreleistung reicht selbstverständlich dicke für die meisten anwender.
@@Ebasstutorials Jap ich persönlich bin echt froh über mein Mac mini und will denn nicht missen alles ist so mega schnell 🫤 einzige was nervt ist das alles verlötet ist
Apple hat halt bei TSMC die 5nm Fertigung eingekauft. Wenn AMD und Intel auch mal auf dem Node sind, wird das bestimmt besser werden. Ich sehe das primär als Fertigungsproblem.
Mal schaun was sich da in Zukunft tut. Mir ist eigentlich egal welche CPU in meinem Rechner steckt. Es hat sich bis jetzt eben keiner so richtig getraut etwas anderes als Intel oder AMD in den Office PC´s ein zu bauen oder es wurde durch gekonnte Verträge und Lizenzen, Patente ect. bislang unterdrückt bzw. unmöglich gemacht.
Ja gut, der fairnesshalber muss man auch sagen, dass Apple in ganz feinen 5 Nanometern operiert.... Intel wechselt erst auf 7 Nanometer.... Das macht natürlich ne Menge beim Stromverbrauch - trotzdem will ich nicht mehr zurück. Macos mit Brew ist einfach super nice. Dazu ne Fish Shell. Bam!
"When Apple announces its latest computer hardware, it usually demonstrates benchmark results that present performance of its PCs in the best light possible. This tactic is hardly surprising, it is widely used in the industry. But in reality, there are other performance benchmarks and real-world use cases that at times contradict promises of unbeatable performance promised in ads and during presentation. In general, if you need to choose between an M1 Ultra-based desktop or an AMD / Intel-based machine, you should probably check performance of such systems in your workloads rather than rely on benchmark results published over the Internet." Tom´s Hardware
Tja, zwei Jahre vergangen und geändert hat sich nichts. 'Dank' Gaming-PC hab ich jährlich einen Stromverbrauch als Single, da stellt mir jede Strompreis-Vergleichs-Seite automatisch den 2 Personen-Haushalt ein, wenn ich da meine 3000 KWh jährlich eintrage. Dank ROG Ally waren es mal 200 weniger und ärgerlicher finde ich, dass die Kisten die Energie in Hitze umwandeln. Im Winter praktisch, aber gibt ja noch andere Jahreszeiten...
Ist der Geekbench wirklich geeignet X86 CPUs mit dem M1 zu vergleichen? Soweit ich weiß, wird hier nur die Single-Thread Leistung pro Kern gemessen. Was bedeutet, dass beim X86 Prozessor nur ein Teil der Leistung abgerufen wird, weil ein Kern auf zwei Threads aufgeteilt wird wohingegen ein M1 Prozessor nur einen Thread pro Kern besitzt. Das ist in etwa so, als würde man ein Allrad-Auto mit einem Fronttriebler vergleichen indem man die Leistung nur auf der Vorderachse misst.
@@lukass8506 Naja, da bin ich mir jetzt nicht so sicher - wie bereits beschrieben. Falls das wirklich so ist - vielleicht ist das in der aktuellen Version der Fall - nehme ich natürlich alles zurück, kein Thema :-) Ich möchte aber noch zusätzlich zu bedenken geben, dass Intel CPUs aktuell noch in 10 nm gefertigt werden und M1 Prozessoren in 5 nm. Das ist natürlich Intels versagen aber es relativiert zumindest die Überlegenheit des M1 Chipdesigns. Für in Stein gemeißelt halte ich die aktuelle Situation indes nicht. In den 90´ern wurde der Power-PC Prozessor bereits als überlegene Architektur gepriesen, daraus wurde nichts. Bis Mitte der 2000´er Jahre hinkte Intel den AMD Prozessoren hinterher bis man die Core 2 Duos lauchnte wodurch sich das Blatt mit einem Schlag gewendet hat. Will sagen: Das Rennen ist weiterhin offen. Auch AMD als zweiter großer X86 Hersteller hat das Potenzial den M1 in die Schranken zu weisen. Letztlich ist X86 eine Schlüsseltechnologie der USA - ARM nicht - der Druck ist derartig hoch, dass man sich die Butter nicht vom Brot nehmen lässt. Klar, Apple ist auch eine amerikanische Company. Und: Hut ab, der M1 ist ein gelungenes Produkt. ARM ist schon seit den 90´ern interessant (Acorn Archimedes). Aber ich halte die Koexistenz für viel wahrscheinlicher als das Aussterben einer der beiden Prozessorlinien.
@@friedhelmfeuerstein9111 Naja, das einzige was man Geekbench vorwerfen könnte ist, dass bei den "Single Core" Tests nur ein einziger Thread genutzt wird (wie bei jedem anderem Benchmark auch, da man als Entwickler gar nicht einfach so nur 2 Threads auf einem Kern laufen lassen kann (Wenn du 2 Threads erzeugst, dann übernimmt das OS ab dem Punkt und würde niemals ohne manuelles Eingreifen in den Scheduler zwei Threads auf einen Kern legen). Aber das ist ein Problem des Names des Benchmarks und nicht zutreffend beim Multicore Benchmark. Das war damals zum Thema geworden, weil jede von Apples aussagen auf die Goldwaage gelegt wird und sie vom schnellsten CPU "Kern" gesprochen haben. Wenn du die "echte" Pro Kern nLeistung wissen willst, dann musst du vor dem Starten des Benchmark Programms Variablen setzen, die dem Benchmark vorgeben, dass es nur zwei Threads gebe und zur Laufzeit (vorm starrt des eigentlichen Bencmarks) dann z.B. über eine Schnittstelle zum Scheduler das Ausführen des Programms auf z.B. CPU0 und CPU1 zu limitieren. Dann startest du den "multicore" Benchmark und dann bekommst du deine "echte" Pro Kern Performance. Das ganze ist halt sehr realitätsfern. Das mit den nm Angaben ist nicht wiurklich so relevant, da diese Zahl in den letzten Jahren an bedeutung verloren hat (es gibt keine Einheitliche definition). Intels 10nm ist äquivalent zu AMDs/TSMCs 7nm und damit erstmal kein Nachteil. Der Vorteil von 5nm ggü. 7nm ist auch eher klein. Es gibt ja auch noch andere ARM CPUs, die auch in 7nm gefertigt werden und trotzdem erheblich schneller sind. Ampere macht AMD aktuell das Leben im Serverbereich schwer, Amazon hat seit 2020 mehr ARM CPUs für ihre Server angeschafft als x86 CPUs. Die Leistungsstärkste CPU (steckt auch im stärksten Supercomputer weltweit) ist eine 48 Kern (eigentlich 48+4 - es ist eine heterogene Architektur) CPU, die auf eine Smartphone Architektur von 2018 setzt. Technisch gesehen ist ARM extrem weit voraus und weder AMD noch Intel werden da erstmal rankommen (ARMs nächste Serverarchitektur wird gute 40% schneller alsa die aktuelle, die jetzt schon in vielen Anwendungen stärker als die neuesten EPYC Systeme ist). Der Vorteil, den sie haben, ist die Software. Die meiste Software ist noch nicht für ARM optimiert (ist auch für Apple aktuell ein Problem). Software ist deutlich entscheidender als die Hardware. PowerPC ist auch heute noch stark, IBM besetzt damit aber eher Nischenbereiche (Platz 2 und 3 der Supercomputer sind PowerPC). Ich denke, Intel wird mit x86 noch länger durchkommen, aber für AMD wird die Konkurrenz von ARM sehr hart werden.
Kann ich dir auch sagen hab zwar kein m1 ultra aber auf m1 Mac mini lauft Windows echt gut mit parallel Desktop mit arm Windows bekommt es fast die ganze Leistung ab von Gast spiele laufen einige sehr gut neue natürlich nicht so hängt aber auch davon ab ob die Spiele mit arm laufen
@@BGlevelextreme da bin ich mir eben nich so sicher. selbst die open source arm alternativen sind alle verloetet und der trend electornische fuss fesseln zu intigrieren ist kaum von der hand zu weisen. man wird sehen was die zukunft bringt. mehr leistung bei gerringerem strom verbrauch ist auf jedenfall wuenschenswert. der trend bei den actuellen GPUs ist ja schon total verueckt. PS. sorry for my bad German.
Habe berufsbedingt ein Macbook Pro 2021 aufgedrängt bekommen. Wollte mein T470s mit Archlinux nicht aufgeben. Macos? Was soll ich damit als ehemaliger Gentoo User, der sich selbst seine Kernel kompilierte und zehn Stundenlang Openoffice kompilierte. Und was soll ich sagen? Ich bin so verliebt in dieses Macbook pro, dass ich jetzt alles versuche um an Geld zu kommen, damit ich meinen Windows PC mit einem Macbook Pro Max 14 ", 32 GB Ram, 1 TB SSD und 24 GPU Cores auszutauschen. Das Gerät ist für mich wie ein Traum. Schnell, leise und das beste, es laufen keine Spiele darauf 😀Die optimale Arbeits und Kreativumgebung ;-)
Die neuen Macs sind selbst schon in den kleinen Konfigurationen grandios. Dabei interessiert mich noch nichtmal so sehr die reine Rechenpower. Ob ich auf den Export von 100 RAW-Dateien 2 Minuten oder 1 Minute warten muss.... Naja, das ist mir eigentlich ziemlich wurscht. Der Cappuccino ist in beiden Fällen noch nicht fertig. Aber: Das Notebook rennt stundenlang, es ist lautlos und ich verbrenne mir im Sommer nicht mehr die Oberschenkel. Das ist im wahrsten Sinne des Wortes "cool"! Und ich wünsche der Intel/AMD-Welt, dass sie einen Weg finden, ähnliches zu erreichen.
Zeigt mir ein System für 7000 Euro welches LLAMA 3.1 FP16 mit einer Model Size von 70B laden kann (140GB Video RAM benötigt). Ein aktueller Mac Studio mit 192GB Unified RAM und einer Speicherbandbreite von 800GB/s schafft das für den Preis. Ein gleichwertiger PC kostet um ein vielfaches mehr, erreicht die Bandbreite bei weitem nicht und verbraucht dabei viel mehr Strom.
Super Interessant, was die ARM Prozessoren mittlerweile leisten. Aber iergendwie ist dass wie Äpfel mit Fenstern vergleichen 😉
Es fehlt noch Pinguin
Pinguin gibt’s für M1….
äpfel mit fenster, den muss ich mir merken 🤣
Sehr cooler Test! Wer mit dem Lautheitsmaß nichts anfangen kann: 1,5 sone ist etwa 8 Mal so laut wie 0,2 sone (Verdopplung des Werts = Verdopplung der subjektiv wahrgenommenen Lautheit).
Das heißt „achtmal“, unreformiert ist noch „8mal“ möglich.
geile attitude vom host, und schönes passendes editing dazu :)
Super Video und ein spannendes Thema. Mal sehen wo die Reise da noch hin geht.
Danke! Ohne Gebummel, Hingehalte, Zeitschinderei - getroffen!
Super Video und sehr informativ. Danke
Wenn Macs jetzt noch einigermaßen fürs Zocken zu gebrauchen wären (Treiber und so), würde ich komplett umsteigen.
Ich kenne viele Leute, die mit leistungsstarken Windowsmaschinen oft nur surfen, Videos schauen oder Mails schreiben. Es ist ein Wahnsinn, wie viel Strom da verschwendet wird. Wenn Arm nur ein Bruchteil benötigt, dazu leise und bei Laptops akkuschonend ist, dann hoffe ich sehr, dass wir davon mehr sehen, nicht nur von Apple.
Da hast du Recht. Es gibt nur wenig Anwendungsfälle für X86.
Völlig einverstanden! Ich möchte einen richtigen Computer in der Größe einer Pralinenschachtel. Leise und kraftvoll. Warum nicht?
@@nyambe Nimm ein Raspi. Der reicht vollkommen. Passt locker mit einer kleinen Festplatte in eine Pralinenschachtel. Je nach Definition ist das auch ein "richtiger" Computer :-) SCNR :-)
@@hesspet Mein PC ist sechs Jahre alt und braucht Idle 4 Watt. Das ist weniger als ein Mac. Legt er los ist er flotter als der schnellste M1. Und braucht pro Leistung immer noch weniger Strom als ein M1.
Also ich selbe habe Leistungsstarke PC und ich tu entweder Internet Surfen, paar Spiele Zocken oder mache eigene Projekte wie Programmieren oder Musik Produzieren.
Das sind mal sehr beeindruckende Werte!
Der nächste Klapprechner steht bei mir bald an. Bei den Werten überlege ich dann doch noch mindestens solange zu warten, bis diese Arm-Prozzesoren in größerer Auswahl zu Verfügung stehen.
Danke c't3oo3 für diese Nachricht.
Trotz des Erfolgs der Apple M1 Chips wird es noch einige Jahre dauern bis ARM-SoCs in den wichtigen Produktlinien von HP, Lenovo, Dell etc. zu finden sein werden. Man macht nichts "falsch", wenn man sich jetzt ein aktuelles x86 Notebook kauft.
@@HolgerN hab gerade mal geschaut. Wenn man mit unter 15" Displaygröße zurecht kommt, gibt es da schon die ersten Modelle, auch von HP, Lenovo ... aber Dell fehlt noch.
Bei Geizhals kann man sich explizit Modelle vorstellen lassen, die mit ARM-Prozessoren ausgerüstet sind.
Interessantes Video, danke dafür.
das war mal EEENDLICH EIN GEILES VIDO!! perfekt genau das alles wollte ich hören und sehen .. super abbo is da ! daumen hoch weiter so
Geniales Video! Genau den Vergleich hab ich auf YT gesucht!
Vielen Dank für das hervorragende Video. Seit einer Woche bin ich am recherchieren, welches System für mich für Videoschnittanwendungen am besten ist. Habe Daten verglichen und und, alles sehr zwitraubend. Ich habe mir auch zwei Videos hier auf TH-cam angeschaut, darunter dieses hier von c't 3003. Jetzt weiß ich, dass der Mac Studio M1 Max genau der Richtige für mich ist. Also, dafür ein Like und abonniert 👍
den x86 Rechner hatte ich mir seinerzeit auch gebaut und die Leistung ist bis heute für mich ausreichend. Aus Gründen der Nachhaltigkeit werden ich ihn auch weiterhin nutzen. Meine Tendenz ist eher von Apple weg, als noch mehr Geräte zu erwerben. Beim Stromverbrauch hat Keno leider einen Punkt. Die nächste Kiste muss trotzdem noch etwas warten .. schon aus Prinzip.
Danke für das aufschlussreiche Video.
Very good points. Current software is designed with x86 in mind. As soon as big developers start creating software specifically for low wattage GPU computers, x86 will be in trouble.
Die Herstellung der Hardware kostet sehr viel Energie, wenn ich diese nun nach 3 Jahren verschrotten muss, weil ich weder die Hardware aufrüsten kann, noch auf ein aktuelles OS upgraden kann. Hier ist also eine komplett neue Hardware fällig. Von den Apps brauchen wir glaube ich nicht zu reden.
Das x86 System hingegen kann auf vielfache Weise auf den aktuellen Stand gebracht werden.
@@mjmoonbow x86 verbraucht jetzt mehr Strom, aber es ist immer noch dasselbe wie vor 10 Jahren. Der Vorteil von x86 ist auch seine Einschränkung. Die Maschinen, die 1000 W zum Betrieb benötigen, werden in Zukunft nicht mehr passen.
google translate, I don't speak german lol
@@nyambe He does have a point though. My colleague has a 5 year old Macbook Pro. No more updates of the operating system, he can basically throw it out because XCode works on current OS only.
On my 15 year old Dell laptop on the other hand Windows 10 runs smoothly and I can develop Windows, Linux or Android software without problems.
@@hosnkrocha A lot has happened since 2008. Imagine using a 15 year old phone today. It's not a good thing that you are still using that. Intel has highjacked PC innovation. We will see rapid progress soon because of the competition. BTW. you can't put windows 11 2021 Computers either.
Spannend ... und vor allem geht es wohl in die richtige Richtung. Danke für die Info!
Ein 3 Jahre alter PC kann gegen ein aktuelles System von Apple nun mal nicht anstinken. Hier wurden im wahrsten Sinne des Wortes Äpfel mit Birnen verglichen.
@@bits-bytes Da hat wohl jemand nicht verstanden, worum es geht ... :-D
Und nochwas: Warum es immer heißt "Äpfel mit Birnen kann man nicht vergleichen", verstehe ich nicht. Äpfel mag ich sehr gerne, Birnen aber nicht. Warum sollte man das nicht miteinander vergleichen können? Ich kann sogar Äpfel mit Bananen vergleichen. Oder mit Weintrauben. Vergleichen kann man alles. :-P
Sehr sympathisch. Abonniert!
Ich dacht Apple macht selber schon genug Werbung für ihre Produkte. Ich will die neuen Produkte von Apple auch gar nicht schlecht reden, im Gegenteil ich bin sogar sehr interessiert daran zu erfahren, ob Apple Silicone (oder ARM) nun wirklich der klassischen x86-Architektur das Wasser reichen kann, aber von den bisherigen Tests und Benchmarks (nicht ausschließlich von heise) bin ich eher enttäuscht: Apple hält seine Werbeversprechen und die neuen Macs sind gut für diesen ganzen Multimediakram von Bildbearbeitung über Videoschnitt und Rendern bis hin zu Sounddesign. Soweit so gut. Dafür ist das Apple Silicone maßgeschneidert und es freut mich, dass es in diesen Bereichen nun so potente Hardware gibt. Ähnlich wie in den 80ern/90ern Spielekonsolen für dediziertes Spielen von Computerspielen aufkamen, kommt nun also ein dediziertes System für diesen speziellen Bereich, den ich zuvor 'Multimedikram' nannte auf.
Was mir aber der klassische PC gegenüber Spielekonsolen gibt, ist ein multi-purpose Gerät. Angefangen beim Betriebssystem, welches ich auf der Hardware installiere über verschiedene Anwednungsbereiche von Textverarbeitung über Programmierung bis hin zum Multimediakram oder auch Gaming: mit der klassischen x86-Architektur kann ich all das hinreichend gut. Ggf muss man sich einzelne Komponenenten wie z.B. eine potente GPU nachrüsten, aber dann kann ich EIN EINZIGES Gerät für alles nutzen und zwar ohne viel Aufwand. Ich habe z.B. verschiedene SSDs, die klemm ich dann einfach ans Mainboard und schon habe ich ein komplett neues System aber die Hardware kann ebenso für das Perfekte Heimkinoerlebnis sorgen, wie zum Gamen dienen oder für Linux-Versuche herhalten.
Um zu sagen, ob die neuen Apple Produkte eine wirkliche Alternative zu x86 darstellen müsste man vor allem die nicht von Apple beworbenen Bereiche im Vergleich zu x86 testen. Apple hat da perse schon mal einen gewaltigen Nachteil, nämlich dass ihre Geräte weitestgehend nicht modular sind. Wenn in 3-5 Jahren deutlich wird, dass die RAM-Kapazität nicht mehr ausreichend für zeitgemäße Aufgaben ist, ist man gezwungen ein komplett neues Gerät zu kaufen, selbst wenn die PRozessorpower noch mehr als ausreichend ist. Beim klassischen Tower kann ich nach 3 Jahren günstig den RAM verdoppeln oder die Festplattenkapazität aufstocken. Trotzdem soll das nicht das k.o.-Kriterium gegen Apple-Hardware sein, aber dafür müssten die echt mal liefern und zwar ganz genau auch in den Bereichen abseits von Multimediakram. Leider hab ich bis jetzt keinen Test gefunden, der dies behandelt. Und auch die Wahl des OS müsste für mich offener sein. Ich bezahle schließlich die Hardware, damit ist es meine HArdware und ich sollte selbst entscheiden dürfen, ob ich lieber Linux auf dem Apple silicone laufen lasse. Auf den goldenen Käfig vom MacOS hab ich nämlich keinen Bock.
@Keno: macht doch bitte mal einen Allroundtest oder besser noch: testet explizit die Bereiche, die mit Apple eher kritisch sind. 08/15-Tests zu den neuen Macs gibt es wahrlich schon genug! Wenigstens mal Linux auf der HW installieren wäre schon was, womit man sich von den ganzen anderen reviews abheben könnte!
Wir bleiben definitiv am Thema dran. Was meinst du denn genau mit "nicht von Apple beworbenen Bereichen"?
@@ct3003 Sehr cool, dass ihr antwortet! Also zum einem meine ich mit den "nicht von Apple beworbenen Bereichen" die Wahl des Betriebsystems. Hatte ich zuvor ja bereits erwähnt. Mit Asahi Linux gibts es auch bereits praktische Bestrebungen Linux auf dem M1 zum Laufen zu bringen. Allerdings lässt sich damit (bisher) noch nicht die gesamte HW nutzen; z.B. einige Anschlüsse der neuen Macs können damit nicht oder nicht mit der unter MacOS möglichen Datentransferrate genutzt werden (z.B. anstatt USB3 und Displayport, kann man dieselbe Buchse nur für USB2 nutzen).
Ein anderer großer Punkt ist Virtualisierung. Bei 20 Kernen oder mehr schreit die HW förmlich danach als Hypervisor genutz zu werden, denn sind wir mal ehrlich: Wer braucht im täglichen Gebrauch schon so viele Kerne (okay, vlt wieder der Bereich Multimediakram). Für mich viel relevanter ist die Möglichkeit mehrere VMs gleichzeitig laufen zu lassen, was zudem auch die Sicherheit erhöhen kann. Ich nutze z.B. Windows nur noch, wenn ich durch die Arbeit gezwungen bin MS Office zu nutzen. Dafür reichen aber locker zwei Kerne, ist ja nur ein bisschen Word und PowerPoint und einfache Excel-Tabellen. Wenn ich wirklich mal ins Apple-Universum vordringen will, dann mach ich das auch lieber in einer VM, so werden meine persönlichen Daten nicht tangiert. Kann man das neuste MacOS überhaupt ohne Online-Konto (also Apple ID) nutzen?
Für mich ist das immer mit einem unguten Gefühl verbunden, wenn ich für die einfachsten Dinge, wie z.B. Zugriff auf KOSTENLOSE Apps schon meine Adresse und Kontoverbindung hinterlegen soll. Muss das wirklich sein? Über Linux und VMs kann ich dann wenigstens ein bisschen meiner Privatsphäre wahren. Solange der neue Mac ohne MacOS und ohne meine Kontaktdaten nur ein extrem teurer Briefbeschwerer ist, bleibe ich lieber beim altbewährten x86er. Dabei habt ihr die Vorteile z.B. in Bezug auf Effizienz und Energieverbrauch ja schön hervorgehoben.
Macht doch mal ein Video darüber, ob man auch ohne den Zwang seine persönlichen Daten offenzulegen von der neuen Technologie profitieren kann. Es muss ja noch nicht mal zwingend Apple Silicone sein (obwohl diese HW schon sehr attraktiv aussieht).
BTW: Wenn ihr denkt "Windows und MacOS sind doch bestimmt unbedenklich; wenn persönliche Daten ausgelesen und irgendwohin übermittelt werden, dann erst durch unsichere Software von anderen Anbietern", muss ich euch enttäuschen. Ich habe im Frühjahr 2020 ausschließlich von zu Hause gearbeitet (wie sehr viele Menschen zu dieser Zeit) und selbst im Sommer 2021, wo ich zuletzt ausgiebig mit Windows auf einer dedizierten Maschine gearbeitet habe, habe ich in meinem Netzwerk zwischen 30 und 35% der DNS-Anfragen mit dem Pi-Hole blockiert. Zum Vergleich: Wenn ich kein Windows nutze, sind es nur 5 bis 8% und dieser Vergleich verschärft sich nochmal dadurch, dass ich unter Windows hauptsächlich Office und Zoom genutz habe, ansonst mit meinen anderern Geräten aber viel im Netz surfe und z.B. eure Videos konsumiere oder in verschiedensten Foren unterwegs bin. Ich fürchte Apple ist ungefähr ähnlich interessiert an den Nutzerdaten und daher überwiegt bei mir das Bedürfnis nach Privatsphäre und Freiheit die Neugier auf die neue, effiziente Hardware.
Windows schreibt in den AGBs, welchen man beim Installieren des Betriebssystems zustimmen muss sogar ganz kess, dass ALLE Tastatureingaben zur Verbesserung der Nutzererfahrung an MS übermittelt werden können. Ich finde da sollte man sich zweimal überlegen, ob man in Zukunft noch Online Banking auf einem Windowsrechner macht. Ich glaube zwar nicht, dass sich Bill Gates die Zugangsdaten schnappt um sich selbst Geld von fremden Konten zu überweisen, aber Datenlecks oder Hacks wie jüngst durch Lapsus$ führen immer wieder vor Augen, wie schnell sensible Daten in die falschen Hände geraten können und dass selbst die Big Player (MS, Apple, etc.) kein sicheres Mittel zum Schutz davor haben.
Cool, mein nächster Rechner wird ein Mac
ProRes wird als Zwischenformat zum Editieren benutzt, man kann in der Ingest-Station gleich als ProRes ingesten, oder wenn man möchte die Previews als ProRes abspeichern und dann weiterverwenden.
Mich würde so dringend mal ein ein DAW Vergleich interessieren. Alle checken die Video und Gamingleistung, aber nie vergleicht mal die Audioleistung :(
Ich weiß jetzt nicht wie es mit FL Studio oder so aussieht, aber mit Logic pro rennen die M1 Macs allem anderen davon.
Gibt doch 1mio Videos genau zu deinem Thema.
@@kobi-kobsen echt? Dann zeigt mir TH-cam von den 1 Mio nur 4 an, von denen 3 kacke sind.
Schönes Video, spannend wohin die Reise geht.
Ein 3 Jahre alter PC kann gegen ein aktuelles System von Apple nun mal nicht anstinken. Hier wurden im wahrsten Sinne des Wortes Äpfel mit Birnen verglichen.
Ich nutze den M1 im McBook Air als Content Creator, es ist einfach unglaublich effizient in der Videobearbeitung. Preisleistung ohne hin top beim Air !
Bin mal gespannt wie sich das alles weiterentwickelt mit der Arm Architektur, Apple hat sehr schön bewiesen was jetzt schon machbar ist im Vergleich zur energieeffizienz, ist halt schade das noch keine Spiele wirklich unter Mac OS laufen... aber eventuell ändert es sich ja noch bzw Windows zieht fix nach (:
Was mache ich mit meiner Windows Altsoftware? :-) Ich denke das wird der Haupthemmschuh sein. Ich habe eine große Spielebibliothek, vor der bestimmt die meisten Firmen kein Interesse haben sollten nativ für den Arm einen Port zu machen. Ähnliches dürfte sich auch bei extrem vielen Altanwendungen in der Windowswelt abspielen. Also fern ab von den Bettkantenusern im normalen Geschäftsbereich.
@@hesspet mit etwas Glück wird es dafür vielleicht einen Emulator geben?
@@hesspet Ich habe mit Apple in den 90ern den Umstieg von Motorola- auf PowerPC-Architektur mitgemacht, dann 10 Jahre später den Umstieg von PowerPC auf Intel und jetzt steht der Umstieg auf ARM an. Davor habe ich überhaupt keine Angst, denn die alte Software läuft ja noch ein paar Jahre. Viel schmerzhafter war der Umstieg von MacOS9 auf MacOSX und von 32 auf 64 Bit. Da ist mehr Software den Hang runter. Sprich: ein Wechsel der Hardware stellte dank Emulationsschicht kein wirkliches Problem dar. Das bekommt auch Microsoft hin.
@@karlknapp2798 Nö, auf den Emulationszug springe ich nicht mehr auf. Ich habe da zu viele Stunden meines Lebens mit Frickelei verbracht :-) Dafür bin ich einfach zu alt geworden. Gerade bei Branchensoftware haben mich diese Art von Umstellungen schon viele graue Haare die letzten 30 Jahre gekostet. Große Versprechen und wenn es ernst wurde, hast Du beim Kunden verzweifelt gesessen und einen Patch nach dem anderen durchprobiert um dann irgendwie (meist) zum Erfolg zu kommen.
Vielen lieben Dank für euer Video. Hab es von Sekunde 1 an genoßen. Sehr informativ und auch total gut veranschaulicht!
Frage: Du bist kurz auf Blender eingegangen. Kann man dem Mac Studio den Umgang mit 3D Basteleien oder auch z.B. Unity zutrauen?
Viele liebe Grüße,
Jan
Unity läuft sogar auf M1-Notebooks schon ganz ok.
12:40 Die Leistungsaufnahme von Spiele-PCs sinken nicht, sondern steigen weiter an.
Total Graphics Power (TGP) von RTX 2080 TI FE: 260W
TGP von RTX 3090 FE: 350W
TGP von RTX 3090 TI: 520W (TDP: 450W)
TGP RTX 4090: 600W
Das wird aber auch Apple nicht ändern. Für diese Art von GPU Power ist, nach meinem Kenntnisstand, kein anderer Weg möglich. Zumindest sehe ich den nicht.
@@hesspet das geht schon anders. Problem ist das hier eine ganze Industrie auf einen neuen Standard wechseln müsste. Da hat sie Branche einfach kein Interesse dran. Würde ja die Gewinne schmälern und die Idioten kaufen ja eh alles.
Und diese Entwicklung ist absolut lächerlich... Sofern man seine eigene Stromrechnung zahlt. Hab mal rtx 4090 und dazu noch einen schönen fetten Monitor im Dauerbetrieb laufen, da schlackerst du nach einem Jahr mit den Ohren.
Die Frage die sich MIR beim gamen nach dem chip-shortage gestellt hat: Brauch ich das überhaupt um den drölfigsten COD Ableger zu zocken? Jeden das seine, aber ich mach diesen Mist nicht mehr mit und hänge die Zockerei bis auf weiteres an den Nagel
Die EU sollte hier ganz klar einschreiten und Hoechstwerte vorschreiben..
Man könnte den gleichen Test statt mit dem Studio, auch mit dem 2020iger M1 Mac mini machen der weniger als die Hälfte kostet, Ergebnisse wären wohl verhältnismässigen ähnlich, zumal der Mac mini inzwischen frei von Kinderkrankheiten ist und der Studio noch ein paar hat (Skalierung, Throttling, etc.)
Der Leistungsverbrauch der CPU ist ja aktuell das kleinere Problem, Systemverbrauch da spielt die Musik, also Was wird aus der Wand gesaugt, mit Monitor, PC, Zubehör.
Lautstärke ist da natürlich auch ein Thema.
9:07 das ist eigentlich komplett krank, das es immer noch 65 FPS trotz Emulation hat.
Und der Mac Studio mit M1 Ultra hatte sogar 96 FPS.
Könnte mir gut vorstellen das nvidia als nächstes was im Bereich ARM SoC für Consumer bringen wird. Auch wenn sie sich ARM nicht einverleiben konnten, verzögert das die Pläne die sie mit ARM haben vermutlich nur etwas.
Wie immer gut 👍✌️👏👍
Sehr Interessant was die Leistung und der Stromverbrauch betrifft, aber leider sind die MACs ganz schön teuer und wenn Nachfolgekosten enstehen durch ein behebbaren technischen Schaden muss man wieder tief in die Tasche greifen.
Bei Apple ist fast alles überteuert.
Aber für Leute die finanziell gut ausgestattet sind, ist das allemal eine sehr gute Empfehlung !
Daher ist dieser Vergleich nutzlos, jemand der sich einen Mac Studio anschaut, sollte auch immer einen 32 Kern Threadripper Pro in Betracht ziehen (kosten sind bei Sinnvolen Specs ähnlich)
Nach meiner Erfahrung (Mac Admin) gehen die Macs äußerst selten hops. Und wenn dann kann man mit iFixit selbst Hand anlegen.
Naja einen Mac verkaufe ich noch ewig für gutes Geld. Einen Windows pc eher nicht. Mein Nachbar hat sich jetzt noch ein MacBook Pro aus 2016 gekauft für 600€ und das Ding rennt.
@@dkastra26
Für 600 € hat ihr Nachbar ein gutes Schnäppchen gemacht.
Und Windows PCs verlieren schnell an Wert.
Das liegt an der Masse die hergestellt wird.
Bei Blender ist der Vorsprung von Nvidia speziell darauf zurückzuführen das Blender CUDA nutzt, was als proprietäre Nvidia Technik nicht auf dem M1 verfügbar ist aber auch nicht auf AMD Karten. Zudem kann der Mac noch kein Raytracing und die Optimus Technik zum entrauschen läuft auch nur auf einer Nvidia Karte. Der Vergleich ist also nicht ganz verhältnismäßig.
Ansonsten finde ich es immer noch bemerkenswert was Apple aus dem Stand für einen SoC rausgehauen hat. Der M1 ist erst die erste Desktop Chip Generation auf dieser Basis, mit einer Überarbeitung. Das Watt-Leistungsverhältnis ist wirklich beeindruckend.
Danke für den gelungenen Test.
Ich danke dir für deine Videos. Du sprichst locker aus der Hüfte und kommst auf den Punkt. Kann man viel lernen. Ja und Apple wird eh in Zukunft alles überrennen. Wie sage ich immer " Die können es einfach " ! ;)
Sie vergleichen AMD-Technologie der letzten Generation mit aktueller Technologie von Apple. Ein richtiger Benchmark wäre ein Nvida 3090 und ein AMD 5900x
super Video. mach doch mal ein Video über Arm news bei Intel, Windows ....
Freu mich schon riesig auf den ersten AMD ARM Prozessor 😃
Ob sie sich dann in ARMD umbenennen?
@@R-R-R Glaube ich kaum, da es ja nur die Prozessorarchitektur ist 😁
Das beobachtete ich schon vor ca. drei Jahren. Samsung Gear-360-Kamera-Bilder müssen gerendert werden. Mein i5 4670K Hackintosh mit RX570 drehte komplett am Rad. Alle Lüfter an und die Grafikkarte zeigte 170 Watt im Peak an. Sah in einem Video, dass man das doch bitte auf dem Handy rendern sollte. Also nahm ich mein Xiaomi Redmi Note 5 und ließ rendern. Das war in einem Viertel der Zeit fertig und das Handy wurde nicht mal lauwarm.
Das war für mich der Zeitpunkt, an dem ich mir dachte, dass das mein letzter x86-Rechner sein wird. Bis heute habe ich den nicht ausgetauscht - auch weil tatsächlich kein Bedarf bestand. Ich habe noch eine m2 nachgerüstet und bin auf Ubuntu geswitcht -sonst nichts mehr. Warte nun auf ARM-Desktops und dann wird es vielleicht wieder ein Hackintosh
Ich vermisse drei Dinge ganz heftig unter Linux: FCPX, Fotos und Photoshop - okay, Shotwell, Kdenlive und PhotoGimp sind absolut in Ordnung, es ist schlicht die Gewohnheit.
Bis 1984, zum C64, hatte ich noch „ernsthaft“ auf Konsolen gezockt, dann nicht mehr. Ich war einfach der notorisch übertaktende PC-Gamer. Hat sich echt geändert. Immer wenn man Zocken will, muss man Windows starten. Das macht erst mal ewige Updates und bettelt auch danach noch um Aufmerksamkeit. Neeee, keinen Bock darauf. Merkte, dass ich immer öfter die Xbox benutzte.
Seit 18 Jahren habe ich privat kein Windows mehr „produktiv“ am Start - und lebe seitdem stressfreier. Selbst ein scheiß Hackintosh ist einfacher zu installieren und zu warten als Windows.
@@TheMinijobber Updates sind Wartung.
Die AMD APUs sind auch schon viel effizienter... M1 vs. APU mit DDR5
Von wegen 'Wünsch der was': Kannst du nicht mal ein oder zwei Videos zum Thema Geforce Now machen? Am Besten einmal für Menschen ohne Mitgliedschaft, die unter anderem Steam nutzen möchten. Und einmal mit Mitgliedschaft, mit Infos darüber, was dass dann bringt und wie die Bedienung geht.
Ich habe seit Jahren z.B. ein Nvidia Shield, und bekomme da spieletechnisch mal garnix an Haken. Bin aber auch kein Gamer, würde mich aber gerne mal in die Welt begeben. Letzten habe ich ca. 25 Minuten auf einen freien Slot gewartet, um eines der kostenlosen Games zu spielen, wofür ich ja ausch schon registriert sein muss. Endlich an der Reihe, sollte ich mich wieder mit facebook, google oder noch so'n Mist anmelden und bin gescheitert.
Danke für dein Beiträge. Endlich mal ein verständlicher Motivator 🙂
Ach, so sieht der Typ aus den Heise-Podcasts aus :D kannte nur deine Stimme. Hab mich dir viel nerdiger vorgestellt ^^
Muss leider auch gestehen, die M1-Chips sind echt brutal 😂
Naja, wenigstens müssen sich Intel und Konsorten jetzt Mal richtig anstrengen 😅
Kann uns doch nur recht sein :-)
cool. endlich ist man nicht mehr abhängig vom hersteller eines betriebssystems und ich kann jederzeit ram und datenträger tauschen oder ergänzen. diese neue "unabhängigkeit" ist MEGA !!! 😮😮😮
Bereits Mitte der 80er Anfang der 90er war die ARM Architektur der damals schon veralteten x86 Architektur überlegen.
Vor meinem M1 Mac Mini hatte ich einen Intel Mac Mini i7 (6 Kerne, 12 Threads). Leistung (fast) ohne Ende, doch bei Videoberechnung war der Rechner nach spätestens 1 Minute bereit zum Spiegel-Ei braten und der Lüfter kurz vorm abheben. Das Info-Tool zeigte 99 Grad Celsius.
Der M1 Mac Mini dagegen wird minimal wärmer, Lüfter sind nicht zu hören bei max. 60 Grad Celsius. Bei diesen geringen Stromaufnahme lasse ich ihn auch mal gerne die Nacht über rechnen.
Für einen 08/15 Nornalo-User wie mich ist ein M1 Mac Mini der richtige Rechner: klein, lautlos (befindet sich 60 cm von mir entfernt), stromsparend.
🤦🤦🤦🤦🤦🤦🤦🤦🤦
Dafür hätte ein Pi400 auch gereicht. Im Ernst, der ist noch sparsamer und hat mehr als genug Bumms für SOHO und Web. Sogar 4k-Videoschnitt läuft überraschend gut, siehe TH-cam.
@@CrassSpektakel Nichts gegen den Raspberry 4 (habe selbst einen als Mediaplayer mit Libreelec ;-)), aber als Alltags-Rechner fehlt mir da doch etwas die Performance ...
Was noch zu kurz kommt. Absolute Stille im Raum bei vollster power. So kann man arbeiten. Selbst mit meiner wakü rödeln immer Lüfter neben mir rum und dann meine kindische rgb Beleuchtung die kein Mensch braucht. Apple ist schon was tolles. Ganz ohne Neid. Noch dazu diese power in einem MacBook Pro und der Akku hält einfach ewig
Sehr informativer Test! Würdest du beim Kauf des Mac Studio 32gb für ausreichend sehen, oder doch lieber 64gb RAM nehmen,? Soll für Videoschnitt mit Final Cut/imovie und Musikproduktionen mit Ableton Live sein.
ich habe die 32 GB Version , be Audio auf jeden Fall ausreichend bei Video mit größeren Projekten mir 4K und aufwärts besser 64 . Viel Spaß.
Am meisten hat mich die Info über Silicon = Silicium fasziniert. Das hat meine Welt etwas mehr zurechtgerückt 😅
Als ich als Jugendlicher im Kino den Bond „Im Angesicht des Todes“ sah, war ich wohl der Einzige, der aufschnaufte, als Bond was von „Chips“ und „Silikon“ faselte. Das tut mir bis heute weh.
Die Tage von x86 scheinen langsam gezählt und es freut mich.
Hallo Keno! Richtig interessant wäre ein Vergleich mit Deiner Workstation, die mit Linux läuft. Ob sich die Benchmarkwerte dadurch noch verbessern würden? Mir sind jedenfalls die Apple-Produkte viel zu teuer, auch wenn sie sehr ausgewogen und zuverlässig sein sollen. Und, für das Geld, was ich bei Apple mehr bezahle, kann ich erst mal noch viel Strom mit dem Windowsrechner verbrauchen! ;-) Richtig vom Glauben abgefallen bin ich als ich gesehen habe, was Modifikationen, wie z.B. eine größere SSD kosten sollen. Das ist einfach nur unverschämt und dreist! Auf jeden Fall vielen Dank, für das interessante Video. Mach weiter so. Ich finde Deinen Stil super! Informativ und unterhaltsam, genau die richtige Mischung!
Ich lese immer wieder davon, dass Apple Rechner zu teuer wären. Aber immer wenn ich Leute dann bitte, mal einen vergleichbaren Windows Rechner zu präsentieren, dann wird das wegignoriert. Also z.B. ein Macbook Air kostet in der Windowswelt maximal 100 Euro weniger (gleicher SSD-Platz, gleicher RAM, gleicher Bildschirm etc).
@@dergummipunkt Pssst… das darfst du aber nicht so sagen 😉 Im Vergleich zu nem billigem Plaste Windows Rechner sind die schon gar arg teuer…
Premiere Pro gibts leider nicht für Linux...
@@dergummipunkt :-) Und genau das höre ich immer wieder von Apple Missionaren. Nur leider beweisen konnte es mir noch keiner. Vor allem wenn ich einen "kleinen" erweiterbaren Rechner haben wollte. Entweder volle Breitseite oder? Es sind halt Rechner für HighEnd Kunden und da kommt es einfach nicht auf das Geld an - aber wo ist der vernünftige Desktoprechner für den normalen Büroalltag für sagen wir mal unter 1000 Euro. :-) Es kommt immer auf den Blickwinkel an, die wenigsten Anwender dürften eine so geballte Leistung brauchen. P.s.: Ich habe gerade wieder einen kleinen Wohnzimmer "PC" auf ARM Basis aufgebaut. -> Raspi4 :-)) Geht doch... für unter 200€ inkl. Festplatte und Gehäuse. Und die Leistungsaufnahme hält sich wirklich in vernünftigen Grenzen.
@@dergummipunkt Genau, ich habe noch nie einen Monitorständer unter 1000€ gesehen!!!!! Oder die 850€ Rollen für den Mac, der Gedanke man wurde in der Windows Welt günstigere Rollen finden ist ja völlig absurd!! Die sind schließlich aus Gummi!!!!! GUMMI!!!!! Sowas Hochwertiges gibt es bei Windows PCs doch gar nicht!!!!!
Aber bitte, stell halt eine Rechnung auf wie viel ein Rechner kostet der vergleichbar mit dem 4600€ M1 Ultra Mac ist. Mein Vorschlag wäre ein Ryzen 5950X mit starker GPU. Wenn man die GPU nicht braucht kann man auch direkt einen Threadripper nehmen. Als Benchmark nehmen wir die Compilezeit des Linux Kernels.
Ich stimme Keno im Großen und Ganzen zu, auch ich würde gerne so einen Rechner mit Apple Silicon als tägliches Arbeitstier nutzen, wobei ich Mac noch nie genutzt habe und deren Preise nicht wirklich nett finde, vom Apple Kosmos mal ganz zu schweigen... Bedenken sollte man aber, dass Apple auch einfach die ARM Biester schlechthin baut. Kein anderer Hersteller kann mit den Apple Chips mithalten, das war/ist schon bei den iPhones so. Dass man mit mehr TDP Spielraum da durchaus in Desktop/Workstation Spheren hinaufstoßen wird, war mir schon sehr lange klar. Passiert im Servermarkt ja auch schon längst (da klatscht man notfalls dann einfach noch mehr CPUs ins Rack). Ein Problem war halt lange die fehlende Software Unterstützung für Desktop/Workstation Apps...
Bisher, so habe ich es glaube auch aus den c't Tests gelesen, tut sich Windows mit ARM aber noch recht schwer, was sicher auch mit den vergleichsweise "schwächeren" Qualcomm Chips zu tun hat, vor allem aber mangels besagtem äquivalenten Emulator zu Rosetta, welcher scheinbar auch eine Glanzeleistung von Apple ist. Da kann MS einfach (noch) nicht mithalten. Gleichzeitig wird auch native Desktop-Software dank steigender Verbreitung von M1 und Nachfolgern immer mehr auf ARM portiert werden (davon könnte dann auch irgendwann wieder MS profitieren).
Wie das mit x86 aussieht, muss man sehen, als Laie kann ich nicht so ganz nachvollziehen, warum nicht auch x86 noch sparsamer werden kann (also letztlich mehr Performance je Watt). Vllt ist das tatsächlich ja Architektur bedingt (CISC vs RISC?) . Da müssen AMD und Intel aber tatsächlich bald liefern. Immer nur den aller schnellsten Chip ungeachtet des Verbrauchs wird irgendwann einfach auch eine physische Grenze haben.
Man bin ich gespannt, was die Zukunft mit ARM bringt.
Wie gut, dass immer Äpfel und Birnen verglichen werden … der Vergleich zu alles bis 5950x sollte der Mach mini, bzw. Der kleinste MAc Studio sein. Alles darüber ist preislich in einer sinnvollen Austattung mit einer Threadripper Workstation zu vergleichen … Was ist daher die Aussage dieses Videos? Das man Äpfel nicht mit Birnen vergleichen kann?
Bitte vergleiche mit dem ALDI-PC Engineer X20 (1999 €)
Fail: 3:00 - die "sehr gute" NVMe hat max. 3500 MB/s. Jetzt schau dir mal die Benchmarks von der internen SSD des Studios an. 6000 bis 7000 MB/s. Man bekommt für das Geld also auch mehr Leistung. Zudem wird der RAM im M1 auch für die Grafik genutzt, weshalb er sau schnell sein muss. Also pack die lahme 970 Evo Plus wieder weg, das sind Äpfel und Birnen…
Eine 980 mit der selben Leistung kostet aber auch nur ~ 280-300 €.
Apple M1 Erfahrung: Docker läuft mehr schlecht als recht...fast alle wichtigen images basieren auf x86 und die emulation ist einfach nur langsam. Wichtige frameworks fuer DeepLearning (tensorflow, pyTorch) laufen nicht auf dem M1....Fuer Entwickler meiner Meinung bedingt produktiv einsetzbar, aber sonst tolle Maschinen...
Dem kann ich nur zustimmen, als Entwickler kann man aktuell alleine mit dem M1 nicht wirklich arbeiten. Schon gar nicht im Team mit anderen Entwicklern, die mit ihren x86 Maschinen volle Kompatibilität genießen. Wird leider viel zu wenig erwähnt, alle wollen heutzutage nur noch Videos schneiden...
@@derallli1 ja, video schneiden ist wohl der hauptanwendungszweck für professionelles arbeiten bei vielen youtubern. Anwendungsfälle von Ingenieuren (coding, machine learning, cad, Simulationen, matlab, etc.) sind wohl überflüssig...
Hallo tolles Video. Gibt es eigentlich eine Angabe von seitens Apple die diese Leistung des Mac Studio für gewisse Anzahl von Betriebsstunden garantieren? Die iPhones mit ARM Chip werden Jährlich erneuert können dann schneller und besser etc. Diese Roadmap jährlich was neues ist mit der Nachhaltigkeit nicht vereinbar. Grüße 👋🏻
Ich habe selber ein neues MaxBookPro 16" M1. aber beim Arbeiten der normalen Anwendungen merkt man nicht sehr viel, schon gar nicht was der Unterschied des Preises ausmacht ! Da darf dann der PC schon mal ums vierfache längsämer sein.
Man sollte beachten das es nicht rein an der Architektur liegt. Es kommt immer darauf an wie die Software mit der Hardware kommuniziert. Speziell auf die Hardware abgestimmte Software wird immer deutlich besser laufen als Massenware. Ich merke das gerade bei Linux. Auch ein M1 wird scheiße laufen wenn die Software mist ist.
Früher gab es noch PowerPc Architektur.
Aber zur Power von ARM ja hatte schon immer quasi mehr Effizienz, das Problem war x86 hatte 1985 schon 32Bit Architektur und Arm erst seit 2015, sonst würde die Welt anders aussehen.
Endlich hat er das Licht gesehen! 😁😆🙃😝
Hm, einen brandneuen High-End-Rechner (kleinste Konfig ab 2300 €) mit einem drei Jahren Mittelklasse-PC (ja auch damals gab es schnelleres - 16-Kerner, 2080 Ti) zu vergleichen hat schon was. Habt ihr vor drei Jahren den Keno-PC auch mit einem drei Jahre alten Mac verglichen, der halb so teuer war? Aktuelle x86-Technik und Zubehör wie eine RTX 3090 schaffen in dem Blender-Benchmark übrigens so 2800 Punkte. Ist der M1 jetzt auch tot?
Kostenpunkt für meinen letzten Spiele-PC (2021): 3500 Euro. Wobei allein die RTX 3090 ca 70% des Preises ausgemacht hat, Grafikkarten kriegt man ja zur Zeit nur noch gegen ihr Gewicht in Gold (Platin?). Klar ist der performanter bei der Grafik als selbst ein M1 Ultra mit voll ausgebauter GPU (mein erster Spiele-PC, bei dem der Grafikbenchmark eines AAA-Titels - Ghost Recon Breakpoint - in 4k/HDR/Ultra die GPU nicht zu 100% auslastet). Aber wenn Keno jetzt den für die Rendertests genommen hätte, wären die Ergebnisse bereits im Vergleich mit dem M1 Max die gleichen gewesen. Der PC zieht bei Vollast mehr als 500 Watt aus der Steckdose und verbraucht Idle mehr als der M1 Max unter Vollast. Weil weder Intel noch AMD bereits bei 5 nm angekommen sind, können die Leistung aus ihren CPUs nur dadurch rauskitzeln, dass sie bei der Leistungsaufnahme ans thermische Limit gehen, um die Taktraten möglichst hoch zu schrauben. Ein Mac Studio mit gleichem RAM (32 GB) und SSD-Ausbau (1 TB) wie dieser Spiele-PC wäre im übrigen günstiger (mit m1 MAX 32 GPU-Kerne: knapp 2800 Euro). Aber als Arbeitspferd im Home Office für SW-Entwicklung reicht mir bereits ein mini M1. Den gibts ab 700 Euro.
Wenn die bei Intel und AMD auch mal so kompakt fertigen können, erwarte ich, dass auch der Leistungshunger der x86-CPUs abnimmt.
Weniger Stromverbrauch heisst: längere Notebooklaufzeiten ohne Notwendigkeit, die CPUs zu drosseln, mehr Laufruhe auf dem Desktop und in Rechenzentren Einsparungen bei der Stromrechnung und dem Aufwand für die Klimatisierung, die dann auch noch mal Strom kostet. Es ist gut, dass das Rennen um Effizienz eröffnet ist.
@@olafschluter706 Nö, Grafikkarten sind seit Dezember um 60-70% gefallen. Ein Spezl hat sich gerade eine Geforce 3080Ti für 1000 Euro bestellt, ich warte noch, derzeit fallen GPUs pro Woche um 10%. Ich denke bis Sommer sind wir DEUTLICH unter UVP. Ich denke bis Juli kostet die 3080Ti unter 700 Euro. Dann werde ich wohl zuschlagen.
@@CrassSpektakel Ja, das ist gut, aber die Lage sah halt Anfang 2021 ganz anders aus. Aber ich wollte damals unbedingt einen Spiele-PC, der in der Lage ist, eine HP Reverb G2 kompromisslos zu versorgen.
Doch selbst unter normalen Umständen muss man bereits einen M1 mit einer benchmarkmäßig vergleichbaren CPU + 1060 GPU vergleichen. Wo man einen M1 Max mit 32-Core GPU grafikkartenmässig zu verorten hat, ist nicht ganz klar, allerdings sind >60 fps für Shadow of the Tomb Raider, dass überall immer noch als GPU-Benchmark herhält, bei maximalen Einstellungen und 4k schon ne Hausnummer - anders als die High-End-Karten der Wintel-Welt ist der ja noch nicht mal im Hinblick auf Spiele gebaut. Ein Mac ist keine Spieleplattform, mangels verfügbarer SW und wohl auch, weil Gamer wie ich sich ihre Wintel-Boxen kompromisslos selbst zusammenstellen, da passt das Geschäftsmodell und Produktangebot von Apple überhaupt nicht. Es gibt aber Spiele, die selbst schon auf einem M1 ziemlich gut laufen, bspw. die von Paradox Interactive, Surviving Mars oder Europa Universalis (coole Spiele btw.) Rosetta 2 ist allerdings ziemlich performant, der x64-Emulator von Windows on ARM ist da deutlich langsamer (weil verschiedene Konzepte, Rosetta übersetzt x64-Code in ARM, Windows emuliert einen x64-Prozessor auf ARM, und hier gewinnt mal ganz deutlich das Rosetta-Konzept) deswegen kann man auch ein Intel-Mac-Spiel nehmen, um die GPU-Performance eines M1x zu testen und man kann Rosetta da auch nicht als Entschuldigung nehmen. Eine RTX 3090 bringt hier etwas mehr Performance, bis zu 80fps, sagt das Internet, ich kenne das Spiel und habe das auf dem aktuellen PC nicht mehr gespielt, kann also nur zitieren. Ich sehe das recht gelassen, weil der mini M1, den ich habe, für SW-Entwicklung genutzt wird. Da hat er die Performance eines Intel-PCs mit vergleichbarem CPU-Benchmark und kostet auch nicht mehr als der, was seine GPU kann, kann mir wurscht sein (die ist bei Shadow of the Tomb Raider nicht wirklich toll, da habe ich das aus Neugier mal ausprobiert). Weil macOS obendrein unixoid ist, taugt er auch zur SW-Entwicklung besser als Windows. Alle wichtigen SW-Entwicklungstools stammen aus der Unix-Welt. Und an macOS kommt man eh nicht vorbei, wenn man SW für iPhones schreibt, das ist sein Vorteil gegenüber Linux. Weil das in den letzten Jahren zu meinen Aufgaben hinzugekommen ist, musste eh ein macOS-Rechner her.
Als der Macbook Pro mit M1 Max präsentiert wurde, habe ich mal den Vergleichsrechner Razor Advanced 15, das Gaming-Notebook-Flagschiff von Razor, aufgerufen, das leistungsmäßig am ehesten equivalent ist. Bei gleichem RAM und SSD-Ausbau kamen ein Macbook Pro 16 und dieses Notebook beide auf ca. 3500 Euro. Apple ist nicht wirklich teuer. Die verkaufen halt bloss immer Hardware im Premium-Segment, da, wo bei Autos BMW, Mercedes oder Audi sind. Und damit in den oberen Preisklassen,. Der mini ist da die Ausnahme (der 24 Zoll iMac und das Macbook Air im Prinzip auch noch). Die sind preis/leistungsmäßig vergleichbar mit der Intel-Welt für Normal-Sterbliche, und haben ihre Vorteile nicht bei der Performance, sondern bei der Energieeffizienz (was mehr Akkulaufzeit für Notebooks und mehr Laufruhe für Desktops bedeutet). Wenn es den mini nicht gäbe, wäre meine Entscheidung für einen macOS-Rechner wohl auch anders ausgefallen, ich hätte mir dann privat keinen angeschafft, denn ausser dem mini pur habe ich nichts gebraucht, alles andere, Monitor, Sound, Kamera, Tastatur, Maus, war ja alles schon da. Jetzt hängt der mini als 2. PC am Monitor, der auch einen KVM Switch hat, und auch noch den Vorgänger-PC versorgt. Den ich aber, seit ich den mini habe, kaum noch nutze (eigentlich nur noch, um Daten auf den mini zu übertragen, die bisher nur auf dem PC waren). Ich hatte mir vorher bereits eine Zeitlang damit beholfen, einen Hackintosh zu betreiben (was allerdings absehbar keine Option mehr sein wird wegen dem Umstieg auf Apple Silicon, das geht vielleicht noch ein paar Jahre). (War) Die günstigste Lösung für macOS, wenn man die Hardware sowieso schon hat. Ja, ist richtig, fürs Gamen gebe ich wesentlich schmerzfreier Geld aus, habe ich ja erzählt :) Das ist halt mein Hobby. Da bin ich eher in Gefahr, wieder mehr als 2K für einen Wintel-Rechner auszugeben (der Spiele-PC war mit Abstand der teuerste PC, den ich je angeschafft habe, normalerweise habe ich mir immer ein Budget von 1500 Euro gegönnt), als mir ein Mac Studio anzuschaffen. Fürs Arbeiten brauche ich so viel Power nicht. Nicht für meine Zwecke da.
Allerdings hatten mich meine Hackintosh-Erfahrungen auch davon überzeugt, dass macOS gar nicht so schlecht ist zum Erledigen typischer Home-PC-Aufgaben, wie z.B. scannen und verschicken eines Steuerbescheids an den Steuerberater . Deutlich besser als Windows und Linux zickt da mitunter auch mehr. Ich brauche auch weder MS Word noch OpenOffice, um die paar Briefe zu schreiben, die im Jahr anfallen, da kommt mir die Funktionsvielfalt dieser Office-Pakete eher in die Quere. Für solche Zwecke sind die Office-Tools, die mit macOS mitkommen, genau richtig. Und Keynote ist deutlich besser als Powerpoint oder sein OpenOffice Pendant Das kann ich als jemand, der auch als Berater unterwegs ist, mit Grund sagen.
Bist du dir sicher, dass du hier nicht Äpfel mit Birnen vergleichst? Gerade beim Rendering sind die "verdrahteten" Encoder der Schlüssel für gute Performance. Möglicherweise solltest du den mal gegen einen 12900k laufen lassen? Aber dazu gibt's ja auch schon genügend Videos :-)
Erstmal ein dickes Dankeschön für die tollen Beitrage!
Die Vollkatastrophen die Apple die letzten Jahre im Angebot hatte, haben mich zweifeln lassen ob dieses Unternehmen es nochmal schaffen wird, aus dem Tal der Belanglosigkeit rausfinden. Der M1 hat es ermöglicht und Leistungs/Energieeffizienz sind WOW. Die Preisgestaltung ist seit jeher auf dem höchsten "ihr seit doch nicht ganz dicht" und auch ich musste mit dieser Begründung gute Hardware mein frieden finden, denn im Grafikbereich ist Mac nicht schlagbar. Und selbst mein 2015MacBook Pro voll aufgepimpt macht immer noch täglich seinen Job, zwar nicht mehr als Grafikkiste aber zum Entwickelt taugt er absolut.
Was das Redaktionelle angeht möchte ich ein Thema anregen, welches nicht nur mich betrifft sondern eine Menge andere Leute sicherlich auch.
Das Apel sehr konsequent Hardware für älter Hardware einstellt, ist auch für mich absolut nachvollziehbar, Das sie das jedoch auf eine Art machen, die für mich einen Gefühl von ""ich will t@ten" erzeugt.
Es muss doch möglich seine alte Aple-Hardware zumindest dazu zu bring das die Daten, welche sie immer noch enthält so zu sichern, das wie in meinem Fall, ein IPop Classic mit 80GB seine Daten freigibt, das deren Struktur erhalten bleibt.
Um es noch ein wenig deutlicher zu machen. 70GB voll mit der schönsten Zeit meines Lebens, mit Erinnerungen deren Verlust...ach da mag ich garnicht weiter drüber nachdenken. Ich finde absolut keine Losung, diese Daten zumindest zu retten. Es gibt nur die unbrauchbare Lösung das Gerät im Festplatten-Modus zu starten. Das wurde zwar die Rohdaten speichern und das ist mir auch gelungen, aber diese Media-Datem so zu strukturien das sie auch in der Zeitachse wieder erkennbar sind, ist mir nicht gelungen.
Support.Anfrage sowie der örtliche Apple.Dealer war ein fail. Der Vergleich mit einem Crypto-Trojana ist da durchaus passend, jedoch wäre bei der Gangster Variante wenigsten eine Option vorhanden. Frage des Preis! Für mich gibt. es keinerlei Erklärung was sich Apple dabei gedacht hat, Denn Der IPOD Ist ein Device zur Datenspeicherung in seinem Fall Mediadaten. Die Aufnahmen erzeugen dessen Besitzer nich Apple ist.
Ihr seht es erzeugt mir richtige Schmerzen,
Bitte liebes c't team es würde glaub ich eine ganze Menge User frohlocken, wenn ihr dieses Thema zu Eurem machen.
Als Gegenleistung, wüsste ihr dann, wie lang es braucht bis diesem arroganten Apple-Dealer, der Ipot aus dem Schädel gewachsen ist.
Tolle Hardware, aber leider kann ich einfach keinen Rechner von Apple kaufen. Dazu ist mir Apple einfach zu gierig und die fehlende Möglichkeit, selbst aufzurüsten, ist ein Ausschlusskriterium. Einen kleinen, leisen und stromsparenden Rechner wie den Mac Studio hätte ich nur zu gern. Ich hoffe, dass wir in den nächsten Jahren auch PCs auf ARM-Basis sehen werden.
Einfach beschweren ;) irgendwann müssen die das wieder möglich machen besonders wen in eu das Recht auf selbst Reparatur Pflicht wird da müssen auch Hardware so sein das man sie wechseln kannst
MacMini z.B……
@@BlackEvildoer falsch sorry er will aufrüsten können kann man mit denn neueren Mac mini nicht mehr 🤔 glaub seid 2014 wurden die RAM verlötet und ab 2018 auch die ssd oder umgedreht aber jetzt mit 2020 Modell oder 21 Modell kann man es überhaupt nicht mehr leider deswegen hoff ich auf das Gesetz von der eu
Wenn wir aber mal ganz ehrlich sind und die Nerds und Freaks rausstreichen + berufliche Schnitter und Musiker? Wieviel Rechner werden wirklich über ihren Lebenszyklus aufgerüstet? Jaaa? Eben, nur recht wenige bis gar keine. Dieses Apple Geschäft spielt sich doch eher im HighEnd Bereich ab. Tolle Hardware würde sich für mich für einen reinen Desktop Consumer Rechner im 500-1000€ Sektor bewegen. Da würde Apple Pleite gehen wenn sie diesen Markt bedienen wollen. Ich denke wir werden ARM Geräte sehen, aber nicht von Apple in diesem Segment.
@@hesspet Und dann wären da die vielen Rechner, die von einfachen Anwendern gekauft werden, bei denen man Speicher und SSD nachrüsten muss, weil völlig unbedarft einfach irgendetwas gekauft wurde, dass dann viel zu langsam ist und keine Freude mehr bereitet. RAM und SSDs sind was ich regelmäßig in meinem Umfeld aufrüsten muss. Dass kaum Rechner aufgerüstet werden, halte ich für eine Kühne Behauptung. Es gibt von Apple bereits ARM-Desktop-Rechner für 799, 1029 und 1259 Euro: Den Mac Mini. Warum sollte Apple ausgerechnet an einem Massenmarkt pleite gehen? Wenn überhaupt fahren sie mit den Profigeräten nicht genug ein. Es wird kein Zufall sein, dass es ewig gedauert hat, bis endlich ein neuer Pro vorgestellt wurde, nach dem der "Mülleimer" kein echter Wurf war. Der Pro-Bereich ist, im Vergleich zum iPhone und den 30% Wegzoll im App-Store, nur eine Randerscheinung.
Hat er zum Schluss gesagt, “warum x86 doch eine Daseinsberechtigung hat”? Er mein ARM, oder?
Muss leider noch bis zum 22.4. warten bis das Mac Studio da ist.
Bin aber gespannt wieviel Unterschied zwischen dem jetzigen m1 mini und dem m1 Max ist. Der m1 reicht jedenfalls für normale Anwendungen definitiv aus. Für mich kommt nur der RAM an seine Grenzen, was ich Webentwickler schon oft zu spüren bekommen habe.
32 Gb im Mac mini wären einfach besser aber Apple wird den mini nicht mit einer m1 Max Version raus bringen da bin ich mir sicher. Also keine 32GB Variante des Mac mini.
Meine alten Hacki hab ich schon mehr als ein halbes Jahr nicht mehr an gemacht. Egal ob dort 64GB RAM drin stecken, denn der Strom den er schluckt ist es mir nicht mehr Wert.
Nicht ganz fair ne eher für heutige Verhältnisse lahme NVMe (5-7 GB/s) zu vergleichen. Eine externe sehr schnelle TB3/4 SSD mit 4 TB kostet ja auch rund 2k € - also von dem her eigentlich gar nicht so schlecht.
Naja, ne gute 2TB PCIe4.0 NVME kostet auf dem freien Markt auch nur ca. 260-300€. Warum du jetzt hier mit externen TB SSDs ankommst, versteh ich auch nicht so ganz. Da kosten allein die Cases ja dank TB schon ein Heidengeld.
Eine schnellere ssd macht die cpu in den ganzen Tests nicht wirklich schneller
Kurze Zusammenfassung: x86 ist ARM dran
Habe mir ein M1 Macbook air Gekauft, da es mir reicht und Trotz Spiele spielen wie CS:GO, Euro Truck Simulator 2 Und Minecraft trotzdem arbeiten und Internet Surfen komme ich locker durch den tag und durch das 13,3 zoll Display ist es schön handlich.
Schönes Teil bin mal wegen ARM gespannt ab wann ARM im CAD Bereich blicken lässt...potente hardware wäre vorhanden auch wenn ich es aktuell so sage das m1 ultra in der max config rein von der rohleistung an einer rtx a6000 ( das ist eine 5000€ gpu ) aktuell nicht ran kommt
Intel hat ja bei alder lake das big little prinzip von arm abgeschaut
Es bleibt spannend ob nvidia oder amd das auch mal anwenden werden
Hey du.. ich mag dich. Abo ist gemacht.
Es gibt auch Bereiche in denen der Mac Studio leider nicht der beste ist: Programmierung. Durch das Mac OS rund um sorglos und vernagelt Prinzip ist das nämlich relativ nervig(Xcode)
Was hat denn Xcode damit zu tun? Wenn du z. B. Web oder Backend Development machst, kannst du jedes andere Programm nutzen.
verdammt interessant. Zeitenwende
Finde ich gut das Arm viel Leistung mit wenig Energie liefern kann.
Nur deshalb kaufe ich mir noch lang nicht von Apple - aber wenn es genauso gut möglich ist sich einen PC mit Arm zusammen zu stellen, warum nicht - linux wird darauf laufen, von daher...
Intel und AMD haben kein Problem solange Apple ihre irrwitzige Preis Politik beibehält.
Nicht jeder will 2300 € für einen Rechner hinlegen und wenn ich sehe was die Nachrüst Komponenten bei Apple kosten...
Nee, lass ma
Das Air kostet doch nu 950 Euro . Zeig mir eine Laptop mit dieser Leistung und Batterielaufzeit.
Nach nun 2 Jahren Apple M auf ARM Basis sind die Qualcomm X Elite gerade dabei, die Intel und AMD CPUs ganz schön unter Druck zu setzen. Und Apple hat mit dem M4 und den künftigen M4 Pro, M4 Max, M4 Ultra und evtl. sogar M4 Extreme ein Paar Pfeile im Köcher, die den X86ern wohl bald den Gar ausmachen werden. Dabei sollte man nicht so sehr auf die aktuellen CPUs bei Intel, AMD, Qualcomm und Apple schauen, sondern auf die extrapolierten Entwicklungssprünge für die Zukunft, also die Rate, mit der neue CPUs schneller und sparsamer werden. Ich sehe für Intel und AMD nur die eine Möglichkeit, ebenfalls auf ARM zu wechseln. Ob das dann RISC V oder eine ganz eigene ARM-Implementierung wird, ist unerheblich. Microsoft setzt mit seinen neuen Surface Laptop 7 und X Elite voll auf Windows on ARM und das wird sich in Zukunft noch verstärken. Da wird die ganze X86-Schiene in's Hintertreffen geraten, zumal Windows on ARM selbst mit den alten X86-Programmen recht gut und schnell funktioniert. Als Apple-User mit diversen ARM-Rechnern sehe ich dem Ganzen genüsslich zu. Ich warte schon auf den großen Paukenschlag, wenn Pat Gelsinger den Umstieg auf ARM verkündet und kurz danach Lisa Su für AMD gas Gleiche Verkündet. ich bin mir sicher, dass das kommen wird.
Ich fände es mal spannend die voll ausgestattet Variante für 9200 € mit einem sagen wir mal 800.000-9200 € wenn’s wieder möglich ist Windows Rechner zu konfigurieren also zu kombinieren also wann konfiguriert quasi einen neuen 20 € Windows Rechner und dass du das dann gegen Nanda an
Gute Idee!
Bei Multicoresachen wie z.B. Videoschnitt macht der M1 schon sinn. Aber die Singlecore Leistung ist jetzt nicht so mega. Im Audiobereich kommt es mehr auf Singlecore und Realtime an, da bringt die Multicoreleistung nicht so viel.
Wenn man nur die Singlecore-Performance benötigt, dann reicht ja auch ein MacBook Air oder ein Mac mini mit einem M1. Dafür muss man also keine 1000€ ausgeben.
Falsch 🤦♂️ sorry es gibt genoch Leute die mit m1 Mac Audio machen und die sagen selber das es super lauft alles
Hier darf man echt nicht den Fehler machen und von einem normalen PC vergleiche ziehen. Auch wenn die Leistungsdaten hier auf dem Papier zurück bleiben müssen sich die M1 Macs hier nicht verstecken.
@@blank_35m Ja, glaube ich dir. Mir gings halt nur darum, dass der M1 eher für multicore anwendungen gedacht bzw. da richtig seine stärken ausspielen kann. Auch die Singlecoreleistung reicht selbstverständlich dicke für die meisten anwender.
@@Ebasstutorials Jap ich persönlich bin echt froh über mein Mac mini und will denn nicht missen alles ist so mega schnell 🫤 einzige was nervt ist das alles verlötet ist
Rendern gibt immer schöne Zahlen doch wie ist der gefühlte Workflow auf einem M1 Max?
Apple hat halt bei TSMC die 5nm Fertigung eingekauft. Wenn AMD und Intel auch mal auf dem Node sind, wird das bestimmt besser werden. Ich sehe das primär als Fertigungsproblem.
Mal schaun was sich da in Zukunft tut. Mir ist eigentlich egal welche CPU in meinem Rechner steckt. Es hat sich bis jetzt eben keiner so richtig getraut etwas anderes als Intel oder AMD in den Office PC´s ein zu bauen oder es wurde durch gekonnte Verträge und Lizenzen, Patente ect. bislang unterdrückt bzw. unmöglich gemacht.
okay, jetzt will ich ein mac mit win:)
Ja gut, der fairnesshalber muss man auch sagen, dass Apple in ganz feinen 5 Nanometern operiert.... Intel wechselt erst auf 7 Nanometer.... Das macht natürlich ne Menge beim Stromverbrauch - trotzdem will ich nicht mehr zurück. Macos mit Brew ist einfach super nice. Dazu ne Fish Shell. Bam!
Gaming-PCs sind die SUV der Pixelkrieger!
Die ARM Prozessoren werden die CPU Welt noch so aufrühren :) Wird dauern, klar! Aber... ! :D
Dankeschoen
magste porsche fahren, kaufe dir ne apple. auch wenn mein porsche etwas kleiner ist, porsche fahren ist einfach mal klasse! 😂😝 danke fürs zeigen!
"When Apple announces its latest computer hardware, it usually demonstrates benchmark results that present performance of its PCs in the best light possible. This tactic is hardly surprising, it is widely used in the industry. But in reality, there are other performance benchmarks and real-world use cases that at times contradict promises of unbeatable performance promised in ads and during presentation.
In general, if you need to choose between an M1 Ultra-based desktop or an AMD / Intel-based machine, you should probably check performance of such systems in your workloads rather than rely on benchmark results published over the Internet." Tom´s Hardware
Tja, zwei Jahre vergangen und geändert hat sich nichts. 'Dank' Gaming-PC hab ich jährlich einen Stromverbrauch als Single, da stellt mir jede Strompreis-Vergleichs-Seite automatisch den 2 Personen-Haushalt ein, wenn ich da meine 3000 KWh jährlich eintrage. Dank ROG Ally waren es mal 200 weniger und ärgerlicher finde ich, dass die Kisten die Energie in Hitze umwandeln. Im Winter praktisch, aber gibt ja noch andere Jahreszeiten...
Ist der Geekbench wirklich geeignet X86 CPUs mit dem M1 zu vergleichen? Soweit ich weiß, wird hier nur die Single-Thread Leistung pro Kern gemessen. Was bedeutet, dass beim X86 Prozessor nur ein Teil der Leistung abgerufen wird, weil ein Kern auf zwei Threads aufgeteilt wird wohingegen ein M1 Prozessor nur einen Thread pro Kern besitzt. Das ist in etwa so, als würde man ein Allrad-Auto mit einem Fronttriebler vergleichen indem man die Leistung nur auf der Vorderachse misst.
Geekbench ist der mit Abstand fairste Benchmark zum vergleichen von x86 und ARM Systemen. SMT wird auch genutzt.
@@lukass8506 Naja, da bin ich mir jetzt nicht so sicher - wie bereits beschrieben. Falls das wirklich so ist - vielleicht ist das in der aktuellen Version der Fall - nehme ich natürlich alles zurück, kein Thema :-) Ich möchte aber noch zusätzlich zu bedenken geben, dass Intel CPUs aktuell noch in 10 nm gefertigt werden und M1 Prozessoren in 5 nm. Das ist natürlich Intels versagen aber es relativiert zumindest die Überlegenheit des M1 Chipdesigns. Für in Stein gemeißelt halte ich die aktuelle Situation indes nicht. In den 90´ern wurde der Power-PC Prozessor bereits als überlegene Architektur gepriesen, daraus wurde nichts. Bis Mitte der 2000´er Jahre hinkte Intel den AMD Prozessoren hinterher bis man die Core 2 Duos lauchnte wodurch sich das Blatt mit einem Schlag gewendet hat. Will sagen: Das Rennen ist weiterhin offen. Auch AMD als zweiter großer X86 Hersteller hat das Potenzial den M1 in die Schranken zu weisen. Letztlich ist X86 eine Schlüsseltechnologie der USA - ARM nicht - der Druck ist derartig hoch, dass man sich die Butter nicht vom Brot nehmen lässt. Klar, Apple ist auch eine amerikanische Company. Und: Hut ab, der M1 ist ein gelungenes Produkt. ARM ist schon seit den 90´ern interessant (Acorn Archimedes). Aber ich halte die Koexistenz für viel wahrscheinlicher als das Aussterben einer der beiden Prozessorlinien.
@@friedhelmfeuerstein9111 Naja, das einzige was man Geekbench vorwerfen könnte ist, dass bei den "Single Core" Tests nur ein einziger Thread genutzt wird (wie bei jedem anderem Benchmark auch, da man als Entwickler gar nicht einfach so nur 2 Threads auf einem Kern laufen lassen kann (Wenn du 2 Threads erzeugst, dann übernimmt das OS ab dem Punkt und würde niemals ohne manuelles Eingreifen in den Scheduler zwei Threads auf einen Kern legen). Aber das ist ein Problem des Names des Benchmarks und nicht zutreffend beim Multicore Benchmark. Das war damals zum Thema geworden, weil jede von Apples aussagen auf die Goldwaage gelegt wird und sie vom schnellsten CPU "Kern" gesprochen haben.
Wenn du die "echte" Pro Kern nLeistung wissen willst, dann musst du vor dem Starten des Benchmark Programms Variablen setzen, die dem Benchmark vorgeben, dass es nur zwei Threads gebe und zur Laufzeit (vorm starrt des eigentlichen Bencmarks) dann z.B. über eine Schnittstelle zum Scheduler das Ausführen des Programms auf z.B. CPU0 und CPU1 zu limitieren. Dann startest du den "multicore" Benchmark und dann bekommst du deine "echte" Pro Kern Performance. Das ganze ist halt sehr realitätsfern.
Das mit den nm Angaben ist nicht wiurklich so relevant, da diese Zahl in den letzten Jahren an bedeutung verloren hat (es gibt keine Einheitliche definition). Intels 10nm ist äquivalent zu AMDs/TSMCs 7nm und damit erstmal kein Nachteil. Der Vorteil von 5nm ggü. 7nm ist auch eher klein.
Es gibt ja auch noch andere ARM CPUs, die auch in 7nm gefertigt werden und trotzdem erheblich schneller sind. Ampere macht AMD aktuell das Leben im Serverbereich schwer, Amazon hat seit 2020 mehr ARM CPUs für ihre Server angeschafft als x86 CPUs. Die Leistungsstärkste CPU (steckt auch im stärksten Supercomputer weltweit) ist eine 48 Kern (eigentlich 48+4 - es ist eine heterogene Architektur) CPU, die auf eine Smartphone Architektur von 2018 setzt.
Technisch gesehen ist ARM extrem weit voraus und weder AMD noch Intel werden da erstmal rankommen (ARMs nächste Serverarchitektur wird gute 40% schneller alsa die aktuelle, die jetzt schon in vielen Anwendungen stärker als die neuesten EPYC Systeme ist). Der Vorteil, den sie haben, ist die Software. Die meiste Software ist noch nicht für ARM optimiert (ist auch für Apple aktuell ein Problem). Software ist deutlich entscheidender als die Hardware.
PowerPC ist auch heute noch stark, IBM besetzt damit aber eher Nischenbereiche (Platz 2 und 3 der Supercomputer sind PowerPC).
Ich denke, Intel wird mit x86 noch länger durchkommen, aber für AMD wird die Konkurrenz von ARM sehr hart werden.
Kriegs ja hier in der Birne, alle 3sec wird geschnittet
Erinnert ihr euch noch an das Toshiba AC100?
Kein Wort zu Windows auf der Maschine? Machst du nochmal ein Video mit einer Windows-Emulation auf ARM?
Kann ich dir auch sagen hab zwar kein m1 ultra aber auf m1 Mac mini lauft Windows echt gut mit parallel Desktop mit arm Windows bekommt es fast die ganze Leistung ab von Gast spiele laufen einige sehr gut neue natürlich nicht so hängt aber auch davon ab ob die Spiele mit arm laufen
@@blank_35m Müssen erst mal die Entwickler einbauen bzw. integrieren ... Sehe jetzt schon die nächste Remastered Welle auf uns zukommen 😅
@@ExceptionalWorld 🤣 naja wer aber geil wen die Spiele direkt für Mac raus bringen wurden da wurde ich mir so mac bestellen mit dicken gpu auf m1 xD
Gerade in Mini-PC wird arm riesig frischen wind bringen
arm als x86 ersatz nur wenn die CPU gesockelt kommt und der pc standard offen und erweiterbar bleibt.
Genau das wird sicherlich nicht passieren! Das wäre mir die Effizienz auch nicht wert.
@@BGlevelextreme da bin ich mir eben nich so sicher. selbst die open source arm alternativen sind alle verloetet und der trend electornische fuss fesseln zu intigrieren ist kaum von der hand zu weisen.
man wird sehen was die zukunft bringt. mehr leistung bei gerringerem strom verbrauch ist auf jedenfall wuenschenswert. der trend bei den actuellen GPUs ist ja schon total verueckt.
PS. sorry for my bad German.
@@gamingthunder6305 Es gibt jetzt schon viele ARM CPUs, die gesockelt werden. Halt im Serverbereich.
Habe berufsbedingt ein Macbook Pro 2021 aufgedrängt bekommen. Wollte mein T470s mit Archlinux nicht aufgeben. Macos? Was soll ich damit als ehemaliger Gentoo User, der sich selbst seine Kernel kompilierte und zehn Stundenlang Openoffice kompilierte. Und was soll ich sagen? Ich bin so verliebt in dieses Macbook pro, dass ich jetzt alles versuche um an Geld zu kommen, damit ich meinen Windows PC mit einem Macbook Pro Max 14 ", 32 GB Ram, 1 TB SSD und 24 GPU Cores auszutauschen. Das Gerät ist für mich wie ein Traum. Schnell, leise und das beste, es laufen keine Spiele darauf 😀Die optimale Arbeits und Kreativumgebung ;-)
Die neuen Macs sind selbst schon in den kleinen Konfigurationen grandios. Dabei interessiert mich noch nichtmal so sehr die reine Rechenpower. Ob ich auf den Export von 100 RAW-Dateien 2 Minuten oder 1 Minute warten muss.... Naja, das ist mir eigentlich ziemlich wurscht. Der Cappuccino ist in beiden Fällen noch nicht fertig. Aber: Das Notebook rennt stundenlang, es ist lautlos und ich verbrenne mir im Sommer nicht mehr die Oberschenkel. Das ist im wahrsten Sinne des Wortes "cool"! Und ich wünsche der Intel/AMD-Welt, dass sie einen Weg finden, ähnliches zu erreichen.
Die geringe Leistungsaufnahme ist wirklich ein riesen Vorteil, Intel/AMD Rechner in dem Leistungssegment brauchen oft schon 600 Watt und mehr.
Zeigt mir ein System für 7000 Euro welches LLAMA 3.1 FP16 mit einer Model Size von 70B laden kann (140GB Video RAM benötigt).
Ein aktueller Mac Studio mit 192GB Unified RAM und einer Speicherbandbreite von 800GB/s schafft das für den Preis. Ein gleichwertiger PC kostet um ein vielfaches mehr, erreicht die Bandbreite bei weitem nicht und verbraucht dabei viel mehr Strom.