Gut, dass du das Thema docker security ansprichst. Vielleicht kannst du noch ein separates Video zu diesem Thema machen, da es sonst eher vernachlässigt wird.
@@TheMorpheusTutorials gerne auch mehrere 😜 mich würde zB deine Meinung zum Thema Nextcloud/Bitwarden interessieren. Beziehungsweise wie du sowas absichern würdest und wie macht man das ganze wirklich sicher um auch von unterwegs Zugriff zu haben (VPN?!). Beste Grüße
Hardware -> host-os -> hypervisor -> gast-OS XYZ -> Container -> anwendung This is the way. Für Privatpersonen jedoch vollkommen ausreichend und eine gute Lösung sein System zu halten. so wird das auch in rechenzentren gemacht.sogar noch komplizierter XD
Wieder ein sehr informatives Video, verstehe nicht wieso du wenig Abonnenten hast. Was wichtig zu wissen wäre ist wie es mit der Redundanz bzw. ausfallsicherheit des Servers aussieht. Lg
Was zum Thema portabilität in der Docker Serie nicht fehlen darf ist ein Hinweis auf verschiedene Prozessor Architekturen. Hab als ich mit einem Raspberry angefangen habe viel zu lange gebraucht um zu verstehen, dass der einen arm64 Prozessor hat.
So sieht es aus bzw bei älteren RPIs armv7(hf). Für x86 brauchst dann auch angepasste Container. Aber das sieht man ja schön im Docker HUB welches Image worauf lauffähig ist. Portability JA aber mit Einschränkungen.
Ist es möglich eine PCIe Karte an einem Container zu übergeben (Stichwort PCI passthrough)? Kann der Treiber für die Karte auch wieder reengineered werden?
Danke für das Video, kannst du auch etwas zu Proxmox und des dort verwendeten Containern sagen? Was wären deine Tipps für den Hobby Bereich? Wie weit macht unter Proxmox für verschiedene Linux Anwendungen (LXC) ein eigenes System Sinn (z.B. Datenbank, Mailserver, FileServer,...) Wo liegt dort der Unterschied LXC zu z.B Docker oder einer VM? Welche Vor- bzw. Nachteile gibt es.
Zur letzten Folie: Was würdest du zu einem System sagen, das die Container auf dem Host-OS laufen lässt? Wenn ich mich nicht irre dürfte das der Ansatz in TrueNAS Scale sein 🤔
Das Problem mit den "großen Systemen" lässt sich mit docker-compose relativ leicht lösen. Dort kann man mehrere container als ein großes Setup definieren, abhängigkeiten einstellen und einzelne Container einem Virtuellen Netzwerk zuweisen. So lassen sich große Setups mit vielen Containern gut verwalten.
Hi wäre cool wenn du auch etwas zu "unraid" und vergleichbaren Lösungen sagen könntest und dieses in deinen Vergleich der Techniken ( Docker, Proxmox) Vor- und Nachteile mit berücksichtigen.
Vielen Dank für das aktuelle Thema Cedric. Was hältst Du vom Hypervisor "UNRAID"? Ich arbeite mich gerade ein, weil ich Linode oder andere Cloud VMs zu öffentlich fand. Die GPU Leistung auf mehrere docker container verteilen zu können und dadurch das system mehrfach im Hintergrund auslasten zu können ist verlockend. Das Thema Security, oder ob man daraus eine art sandbox erstellen kann würde mich sehr interessieren.
Hi Community 😁 Ich habe eine Frage, können Sanboxen als Container betrachtet werden? Könnte jemand 1. die Gemeinsamkeiten und 2. die Unterschiede auflisten bitte 😄? Vielen Dank 😊
Verwende ein Linux, mit KVM und PCI Passthrough, so kann ich in meiner Windows VM Zocken. Die VM wird nach dem Herunterfahren automatisch auf ein Gewisses Snapshot zurückgesetzt. Kann VM‘s für den Aufbau eines Sichern PCs empfehlen, die Vorteile liegen auf der Hand, vorallem wenn man eine Linux basis nimmt. Zocken ist in einer VM möglich, nennt sich PCI-Passthrough und funktioniert super. So kann meine Freundin Zocken, während ich Arbeiten kann und alles an einem PC, aber jeder mit eigener Maus Tastatur und Monitor 🙈
Lässt sich eigentlich eine virtuelle Maschine abermals in virtuelle Maschinen absrrahieren? Das dürfte auf den eigentlichen Host ressourcentechnisch ja keine Auwirkungen mehr haben, da der "Host" für die weiteren virtuellen Maschinen ja bereits eine virtuelle Maschine ist, der ja schon Systemressourcen zugewiesen wurden - die dann nur nochmal auf weitere VMs aufgeteilt würde. :-)
Wie weot llässt sich das treiben, bevor der Kernel auf dem realen Host die Segel streicht? Ich denke, ne virtuelle Maschine, die auf einer virtuellen Maschine läuftz, die von einer virtuellen Maschine auf einer virtuellen Maschine gehostet wird, deren Host wiederum eine virtuelle Maschien auf einer virtuellen Maschine ist, ... irgendwann wird doch für den realen Host Schicht sein - oder sind mir da keine Grenzen gesetzt ( außer der Prozessorleistung und dem RAM auf der Real Hardware) ?
Boah ey, ich hab das Video/Tut fast bis zum Ende geschafft, aber nur fast -_- Du sagst ständig die Anwendungen nutzen üer den Container den Kernel des Host Systems - also wenn der Host ein Linux ist, nutzen die Anwendungen den Linux Kernel, also WENN sie auf Linux laufen, also Linux Programme sind, denn ein Windows Programm läuft nicht ohne weitres wie Wine usw. auf Linux usw.... Also bleibt ja dann der Spruch "Bei mir läufts aber" - oder wurde das nur semigut erklärt und ich habe das mal so gar nicht verstanden? :D
Btw wenn ihr mal VMware ESXi mit 'zertifizierter Hardware' testen wollt: VM mit z.B. VMware Workstation erstellen, dort ESXi installieren. Die Hardware der VM ist fuer ESXi dann 'zertifiziert' 😂
Ach ja. Die Konfusion ist wieder mal herrlich! Steppt man so die verschiedenen - meist englischsprachigen - Tutorials, stellt man fest, daß Docker ( Docker Toolbox ) angeblich in einer VM läuft. Es wird also das Gegenteil behauptet von, dem, was hier ausgesagt ist. Das ist um so erstaunlicher, daß jedem, der sich die Idee von Docker und die von VMs klar gemacht hat, mindestens diese Eigenschaft klar sein müßte, und die Macher dieser Tutorials erfahrene IT-Leute sind. Ich peile es nicht. Ich vermute, daß bei Docker Toolbox das Frontend ( Shell ) zur Kontrolle des Daemons in einer VM läuft, aber nicht der Daemon selbst. Sonst könnten nur Linux-Apps genutzt werden. Mir ist der Unterschied zwischen Docker Desktop und Docker Toolbox nicht klar. Ich vermute, daß bei Docker Desktop auch die Shell zu Steuerung und Konfiguration des Daemons nicht in einer VM läuft. Schließlich gibt es ja BASH als Console für Windows, s.d. eine seperate VM für eine Shell zur Steuerung des Daemons überflüssig erscheint. Weil ich Windows 7 nutze( durchinstalliert und auch schon eingemüllt ), kann ich - wenn überhaupt - nur Docker Toolbox ausprobieren. Immerhin, ich sehe eine laufende Shell! Den Konflikt mit einem bereits installierten Oracle VM-Manager ( den ich tunlichst nicht regelmäßig aktualisiere ) habe ich durch Abwählen der entsprechenden Installation bei der Intallation von Docker Toolbox umschifft. Was Kitematic ist, weiß ich nicht. Und ob nun unbedingt das Versionskontrollsystem Git eingeführt werden muß, sei dahin gestellt. Schaden tut es nicht aber die Vermüllung des Systems wird wieder mal gesteigert. Wann nutze ich bewußt Git bzw. habe Bock darauf, wenn ich bloß gelegentlich Docker-Images anfassen will um eine Software auszuprobieren? Gar nicht! I.Ü. muß man zwischen Docker-Files und Docker-Images tunlichst unterscheiden. Bei Docker-Files handelt es sich lediglich um Beschreibungen mitsamt der Pfade der Installations-Quellen ins Netz hinein aber nicht um die Software selbst. In vielen Zusammenhängen wird gerne darüber hinweggetäuscht. Und so impliziert Docker fast eine ständige Online-Pflicht, weil doch irgendwas aus dem Netz geholt werden muß, was man vorher nicht überblickt Wohl dem, dem es i.Ü. gelungen ist, der NET-ID zu entgehen; einmal auf einer Web-Site verklickt und das war's! Docker hat den Vorteil - aber eben auch den Nachteil - Dependencies zu zentralisieren. Ich zerschelle daran. Gut, Step by Step ließe sich das lösen. DAS ist der Vorteil von Unix/Linux: Recherche, Sorgfalt und Bedacht führen dort häufig noch zum Ziel. Für Windoofs 10, bzw. 11 fehlen mir Geld und Nerven und damit fällt Docker Desktop flach. Für jede Monster-App ist es halt wie gehabt eine eigene VM das Ideal und wird auch in Zukunft die Devise bleiben! Die Dutzenden obligatorischen Tools kommen halt immer mit dabei. Hardware- und Energie-Aufwand haben sich danach zu richten. Das ist russisch-gut; sch*&%$ auf Effizienz. Zu guter Letzt mein liebstes Spiel - Kettensägen-Massaker: Rechner aus, Rechner ein. ( nix Runterfahren. ) Temp-Verz. leeren, Installation-Ziel-Verzeichnisse mitsamt Inhalt killen, mit cCleaner und Bleachbit Mül-Vermerke aus der Registry weghämmern. Firewall aufräumen. Nochmal ein-aus und nachpolieren ( Temp, Registry ) - fertig ist die Maus. Wie oft ich das Spiel schon hatte! So auch hier; besser als jeder Ego-Shooter; Erlebnisse sind garantiert. Zwei Tricks, die helfen können, das zu überleben: Bei einem erneuten Installationsversuch leert man den Trash nicht sofort; das tut man erst hinterher! Datei-Fehler halten sich hernach so doch in Grenzen. Dann und wann sichert man Verzeichnisse mit einem Prüfsummen-Tool ab um ob der Datei-Wüsten schnell Veränderungen ( z.B. Rudimente ) erkennen zu können. Giftig sind die kleinen süßen Veränderungen in irgendwelchen, häufig rein textuellen, Konfigurations-Dateien, die einem sonst aus dem Blickfeld geraten. Ich bin ein übler Grobian aber Ich muß bei alledem irgendwie besser sein als meine Laune z.Z., denn meine Möre tut's noch! - Aber ohne Docker.
VMS kann man nicht mit Containern vergleichen, für Spielereien zuhause ist Docker ja ganz schön aber in Unternehmen wird sich das nicht durchsetzen, da werden weiterhin Hypervisor wie Hyper-V oder ESX den Ton angeben da die in Unternehmen genutzten Anwendungen in Docker nicht emuliert werden können
Gut, dass du das Thema docker security ansprichst. Vielleicht kannst du noch ein separates Video zu diesem Thema machen, da es sonst eher vernachlässigt wird.
Mehrere, wohl eher 😅
@@TheMorpheusTutorials gerne auch mehrere 😜
mich würde zB deine Meinung zum Thema Nextcloud/Bitwarden interessieren. Beziehungsweise wie du sowas absichern würdest und wie macht man das ganze wirklich sicher um auch von unterwegs Zugriff zu haben (VPN?!).
Beste Grüße
Wie gewohnt ein schönes Video mit wichtigen nützlichen Inhalten. Danke
Einer, der Wenigen, den man auch auf 2x speed versteht ... super!!!! Danke für die infos
Hardware -> host-os -> hypervisor -> gast-OS XYZ -> Container -> anwendung
This is the way.
Für Privatpersonen jedoch vollkommen ausreichend und eine gute Lösung sein System zu halten.
so wird das auch in rechenzentren gemacht.sogar noch komplizierter XD
Schönes Vidso, gut erklärt und informativ^^ Danke!
Wieder ein sehr informatives Video, verstehe nicht wieso du wenig Abonnenten hast.
Was wichtig zu wissen wäre ist wie es mit der Redundanz bzw. ausfallsicherheit des Servers aussieht. Lg
Was zum Thema portabilität in der Docker Serie nicht fehlen darf ist ein Hinweis auf verschiedene Prozessor Architekturen. Hab als ich mit einem Raspberry angefangen habe viel zu lange gebraucht um zu verstehen, dass der einen arm64 Prozessor hat.
So sieht es aus bzw bei älteren RPIs armv7(hf). Für x86 brauchst dann auch angepasste Container. Aber das sieht man ja schön im Docker HUB welches Image worauf lauffähig ist. Portability JA aber mit Einschränkungen.
Danke das es dich gibt 🙏🏽
Endlich kommen wir zu Proxmox und eventuell Unraid 😍
die begrüßung gefällt mir :)
container = ein emulator, eine VM nur für anwendungen.
Ist es möglich eine PCIe Karte an einem Container zu übergeben (Stichwort PCI passthrough)? Kann der Treiber für die Karte auch wieder reengineered werden?
Danke für das Video, kannst du auch etwas zu Proxmox und des dort verwendeten Containern sagen?
Was wären deine Tipps für den Hobby Bereich? Wie weit macht unter Proxmox für verschiedene Linux Anwendungen (LXC) ein eigenes System Sinn (z.B. Datenbank, Mailserver, FileServer,...)
Wo liegt dort der Unterschied LXC zu z.B Docker oder einer VM? Welche Vor- bzw. Nachteile gibt es.
Proxmox bekommt was eigenes 😅
@@TheMorpheusTutorials Proxmox kommt auch dran? Sehr geil 🙂
Womit hast du die Präsentation erstellt? Dass die Slides ineinander über gehen ist genial.
Ich denke mal PowerPoint
@@Robbi9over danke! Schade, ich hatte mit einem Open Source Tool gerechnet
Gut erklärt, danke 🙂
Zur letzten Folie:
Was würdest du zu einem System sagen, das die Container auf dem Host-OS laufen lässt?
Wenn ich mich nicht irre dürfte das der Ansatz in TrueNAS Scale sein 🤔
Wie immer Top deine Erklärungen!!!
Mega gute Erklärung :]
super erklärt, danke
Kann man dich irgendwie kontaktieren bei Fragen?
Mich wuerde jetzt noch der Vergleich mit flatpak und snap interessieren
Das Problem mit den "großen Systemen" lässt sich mit docker-compose relativ leicht lösen. Dort kann man mehrere container als ein großes Setup definieren, abhängigkeiten einstellen und einzelne Container einem Virtuellen Netzwerk zuweisen. So lassen sich große Setups mit vielen Containern gut verwalten.
Und wenn du ein "noch größeres System" hast für das du mehrere docker-composes bräuchtest: Kubernetes deployments / Helm charts. :D
Hi wäre cool wenn du auch etwas zu "unraid" und vergleichbaren Lösungen sagen könntest und dieses in deinen Vergleich der Techniken ( Docker, Proxmox) Vor- und Nachteile mit berücksichtigen.
Bestimmt auch gut für Cloud-Dienste.
Ein großer Vorteil von Containern ist natürlich der Punkt Skalierung (in einem Cluster).
Kann man Linux Terminal anonymisieren?
Geile Sache mit der Docker Reihe.
Wird irgendwann etwas zu Firebase kommen?
Sehe da nicht richtig durch :D
Ja, aber wann kann ich dir noch nicht sagen 😅
Vielen Dank für das aktuelle Thema Cedric. Was hältst Du vom Hypervisor "UNRAID"? Ich arbeite mich gerade ein, weil ich Linode oder andere Cloud VMs zu öffentlich fand. Die GPU Leistung auf mehrere docker container verteilen zu können und dadurch das system mehrfach im Hintergrund auslasten zu können ist verlockend. Das Thema Security, oder ob man daraus eine art sandbox erstellen kann würde mich sehr interessieren.
Würde ich mir Mal aufschreiben
Hi Community 😁
Ich habe eine Frage, können Sanboxen als Container betrachtet werden?
Könnte jemand 1. die Gemeinsamkeiten und 2. die Unterschiede auflisten bitte 😄? Vielen Dank 😊
Tolles Video :)
Ich fand das sehr interessant. Könntest du dazu auchmal ein praktisches Beispiel machen wie es dann so in der Praxis gemacht wird?
Siehe docker Reihe 😁
hmm aber die definition fehlt was genau was ist und warum
Verwende ein Linux, mit KVM und PCI Passthrough, so kann ich in meiner Windows VM Zocken.
Die VM wird nach dem Herunterfahren automatisch auf ein Gewisses Snapshot zurückgesetzt.
Kann VM‘s für den Aufbau eines Sichern PCs empfehlen, die Vorteile liegen auf der Hand, vorallem wenn man eine Linux basis nimmt. Zocken ist in einer VM möglich, nennt sich PCI-Passthrough und funktioniert super.
So kann meine Freundin Zocken, während ich Arbeiten kann und alles an einem PC, aber jeder mit eigener Maus Tastatur und Monitor 🙈
Starkes Video, wäre eine kleine Cent OS Vorstellung denkbar?
Absolut
Was willst du den wissen, bzw vorgestellt haben?
Lässt sich eigentlich eine virtuelle Maschine abermals in virtuelle Maschinen absrrahieren? Das dürfte auf den eigentlichen Host ressourcentechnisch ja keine Auwirkungen mehr haben, da der "Host" für die weiteren virtuellen Maschinen ja bereits eine virtuelle Maschine ist, der ja schon Systemressourcen zugewiesen wurden - die dann nur nochmal auf weitere VMs aufgeteilt würde. :-)
Ja, wird ja auch gemacht. Wenn man einen Teil von einem Server mietet und dann ne VM dauf insterliert.
Wie weot llässt sich das treiben, bevor der Kernel auf dem realen Host die Segel streicht?
Ich denke, ne virtuelle Maschine, die auf einer virtuellen Maschine läuftz, die von einer virtuellen Maschine auf einer virtuellen Maschine gehostet wird, deren Host wiederum eine virtuelle Maschien auf einer virtuellen Maschine ist, ... irgendwann wird doch für den realen Host Schicht sein - oder sind mir da keine Grenzen gesetzt ( außer der Prozessorleistung und dem RAM auf der Real Hardware) ?
@@saschavloggt6232 es gibt nur Grenzen sichtlich der Hardware (Also RAM CPU und HDD, eventuell auch noch GPU und ansonsten noch Netzteil)
Danke
Boah ey, ich hab das Video/Tut fast bis zum Ende geschafft, aber nur fast -_-
Du sagst ständig die Anwendungen nutzen üer den Container den Kernel des Host Systems - also wenn der Host ein Linux ist, nutzen die Anwendungen den Linux Kernel, also WENN sie auf Linux laufen, also Linux Programme sind, denn ein Windows Programm läuft nicht ohne weitres wie Wine usw. auf Linux usw....
Also bleibt ja dann der Spruch "Bei mir läufts aber" - oder wurde das nur semigut erklärt und ich habe das mal so gar nicht verstanden? :D
Btw wenn ihr mal VMware ESXi mit 'zertifizierter Hardware' testen wollt: VM mit z.B. VMware Workstation erstellen, dort ESXi installieren. Die Hardware der VM ist fuer ESXi dann 'zertifiziert' 😂
Ach ja. Die Konfusion ist wieder mal herrlich! Steppt man so die verschiedenen - meist englischsprachigen - Tutorials, stellt man fest, daß Docker ( Docker Toolbox ) angeblich in einer VM läuft. Es wird also das Gegenteil behauptet von, dem, was hier ausgesagt ist. Das ist um so erstaunlicher, daß jedem, der sich die Idee von Docker und die von VMs klar gemacht hat, mindestens diese Eigenschaft klar sein müßte, und die Macher dieser Tutorials erfahrene IT-Leute sind. Ich peile es nicht.
Ich vermute, daß bei Docker Toolbox das Frontend ( Shell ) zur Kontrolle des Daemons in einer VM läuft, aber nicht der Daemon selbst. Sonst könnten nur Linux-Apps genutzt werden. Mir ist der Unterschied zwischen Docker Desktop und Docker Toolbox nicht klar. Ich vermute, daß bei Docker Desktop auch die Shell zu Steuerung und Konfiguration des Daemons nicht in einer VM läuft. Schließlich gibt es ja BASH als Console für Windows, s.d. eine seperate VM für eine Shell zur Steuerung des Daemons überflüssig erscheint. Weil ich Windows 7 nutze( durchinstalliert und auch schon eingemüllt ), kann ich - wenn überhaupt - nur Docker Toolbox ausprobieren. Immerhin, ich sehe eine laufende Shell! Den Konflikt mit einem bereits installierten Oracle VM-Manager ( den ich tunlichst nicht regelmäßig aktualisiere ) habe ich durch Abwählen der entsprechenden Installation bei der Intallation von Docker Toolbox umschifft. Was Kitematic ist, weiß ich nicht. Und ob nun unbedingt das Versionskontrollsystem Git eingeführt werden muß, sei dahin gestellt. Schaden tut es nicht aber die Vermüllung des Systems wird wieder mal gesteigert. Wann nutze ich bewußt Git bzw. habe Bock darauf, wenn ich bloß gelegentlich Docker-Images anfassen will um eine Software auszuprobieren? Gar nicht! I.Ü. muß man zwischen Docker-Files und Docker-Images tunlichst unterscheiden. Bei Docker-Files handelt es sich lediglich um Beschreibungen mitsamt der Pfade der Installations-Quellen ins Netz hinein aber nicht um die Software selbst. In vielen Zusammenhängen wird gerne darüber hinweggetäuscht. Und so impliziert Docker fast eine ständige Online-Pflicht, weil doch irgendwas aus dem Netz geholt werden muß, was man vorher nicht überblickt Wohl dem, dem es i.Ü. gelungen ist, der NET-ID zu entgehen; einmal auf einer Web-Site verklickt und das war's!
Docker hat den Vorteil - aber eben auch den Nachteil - Dependencies zu zentralisieren. Ich zerschelle daran. Gut, Step by Step ließe sich das lösen. DAS ist der Vorteil von Unix/Linux: Recherche, Sorgfalt und Bedacht führen dort häufig noch zum Ziel.
Für Windoofs 10, bzw. 11 fehlen mir Geld und Nerven und damit fällt Docker Desktop flach. Für jede Monster-App ist es halt wie gehabt eine eigene VM das Ideal und wird auch in Zukunft die Devise bleiben! Die Dutzenden obligatorischen Tools kommen halt immer mit dabei. Hardware- und Energie-Aufwand haben sich danach zu richten. Das ist russisch-gut; sch*&%$ auf Effizienz.
Zu guter Letzt mein liebstes Spiel - Kettensägen-Massaker: Rechner aus, Rechner ein. ( nix Runterfahren. ) Temp-Verz. leeren, Installation-Ziel-Verzeichnisse mitsamt Inhalt killen, mit cCleaner und Bleachbit Mül-Vermerke aus der Registry weghämmern. Firewall aufräumen. Nochmal ein-aus und nachpolieren ( Temp, Registry ) - fertig ist die Maus. Wie oft ich das Spiel schon hatte! So auch hier; besser als jeder Ego-Shooter; Erlebnisse sind garantiert. Zwei Tricks, die helfen können, das zu überleben: Bei einem erneuten Installationsversuch leert man den Trash nicht sofort; das tut man erst hinterher! Datei-Fehler halten sich hernach so doch in Grenzen. Dann und wann sichert man Verzeichnisse mit einem Prüfsummen-Tool ab um ob der Datei-Wüsten schnell Veränderungen ( z.B. Rudimente ) erkennen zu können. Giftig sind die kleinen süßen Veränderungen in irgendwelchen, häufig rein textuellen, Konfigurations-Dateien, die einem sonst aus dem Blickfeld geraten.
Ich bin ein übler Grobian aber Ich muß bei alledem irgendwie besser sein als meine Laune z.Z., denn meine Möre tut's noch! - Aber ohne Docker.
10:51 xD ja echt nicht SO praktisch
VMS kann man nicht mit Containern vergleichen, für Spielereien zuhause ist Docker ja ganz schön aber in Unternehmen wird sich das nicht durchsetzen, da werden weiterhin Hypervisor wie Hyper-V oder ESX den Ton angeben da die in Unternehmen genutzten Anwendungen in Docker nicht emuliert werden können
Bitte etwas langsamer sprechen! Diese Geschwindigkeit ist nicht zum Aushalten.
Geschwindigkeit kann selbst eingestellt werden unter Einstellungen...
Etwas über Proxmox würde mich interessieren :)