CEPH és PROXMOX használatával HA cluster létrehozása játszásiból 2023-10-15

แชร์
ฝัง
  • เผยแพร่เมื่อ 25 พ.ย. 2024
  • A videó címében lévő dátum az a dátum, amikor a tagok számára elérhetővé vált a videó!
    Légy te is tag, hogy hamarabb hozzájuthass az új tartalmakhoz, illetve hogy élők alatt tudj csevegni!
    Kernel Pánik Facebook oldal: / kernelpanikcsatorna
    Kernel Pánik Facebook csoport: / 683123033405304
    Kivonat: Az előző részekben összerakott fürtöt ( #cluster ) ruházzuk most fel HA ( High Availability ) képességgel, amihez egy megosztott tárhely szükséges, amit mindegyik #Proxmox #node elérhet és rajta tároljuk a #konténer -eket és #vm -eket. Így ha az egyik #szerver ki is esik, a többiről még működik tovább az egész kóceráj pár perc pihenő után. :) Most egy érdekes megoldást választottam a #CEPH elosztott tárolót.
    Az ígért link a CEPH -ről:
    conference.nii...
  • วิทยาศาสตร์และเทคโนโลยี

ความคิดเห็น • 17

  • @Monarchias
    @Monarchias ปีที่แล้ว

    'Böcsületesen' meghallgattam! ;) proxmox HA beállítás nélkül is lehet CEPH kluszter tárhelyet létrehozni? Vagy muszáj a proxmox is, hogy egybe legyen fűzve? ASMedia pci-e sata controllert is tudok ceph-re használni? Előre is köszönet a válaszért. UI: Csak 2 proxmox áll rendelkezésre.

    • @kczovek
      @kczovek ปีที่แล้ว

      kell a 3, a quorum miatt. Meg lehet csinálni 2vel, de öntökönlövés

    • @Monarchias
      @Monarchias ปีที่แล้ว

      @@kczovek Ezek szerint a Ceph-hez kell a minimum 3 proxmox, hogy használni tudjam?

    • @Mcs1v
      @Mcs1v ปีที่แล้ว +1

      @@Monarchias mindből kell 3 a korábban említett quorum miatt. Egy split brain-nél, amikor pl a hálózat hasal el, kettő node nem elég ahhoz, hogy eldöntse, ki esett ki valójában. Egy életszerű példa: van két node, megszakad köztük a kapcsolat, de mindkettő üzemképes marad. Mindkettő azt mondja a másikról, hogy ő esett ki, én vagyok az aktív, majd mindkettő példány elkezdi felhúzgálni a másikon is futó szolgáltatásokat. Az, hogy egy VM két helyen is fut, az sok jót nem feltételez :) Ugyan ez a ceph-nél is, két node egyszerűen nem elég még az üzembiztos működéshez sem, nem hogy HA -hoz

    • @kczovek
      @kczovek ปีที่แล้ว +1

      @@Monarchias HA valamit is akarsz vele kezdeni akkor BÁRMILYEN clusterhez 3 node kell, mivel így csökkented a splibrain esélyét. A cephez meg azért kell 3, mivel alapból úgy osztja el az adatot 3 node között, hogy egy kihullásával még van aktív hozzáférésed - ha 2böl kihullik egy az már readonly lesz

    • @Monarchias
      @Monarchias ปีที่แล้ว +1

      @@kczovek Értem. Köszönöm a választ. Úgy néz ki egy darabig nem lesz CEPH-em. De legalább tudom most, hogy a jövőre nézve miképpen alakítsam át a szerver(ek)et!

  • @zzotya777
    @zzotya777 ปีที่แล้ว

    A Proxmox Ceph 3 gépes HA egy semmi extra közép gépen, AMD Ryzen 3700x 16GB RAM, Linux desktop felett Virtualbox és kiválóan felépíthető, tanulható az egész hármas rendszer virtualizálva. Abban CT-k telepíthetők, működnek. Legalább a megtanulásához, teszteléséhez nem kell feltétlenül 3 vas, több HDD, több LAN kártya, switch.

    • @kernel_panik
      @kernel_panik  ปีที่แล้ว +1

      No, de 3 valódi gépen sokkal látványosabb is a dolog, eleve úgy is került elő nálam a kérdés, hogy itt van 3 gép, csináljunk vele valami érdekeset.

  •  ปีที่แล้ว

    Hol van a link? 😀

    • @kernel_panik
      @kernel_panik  ปีที่แล้ว

      Még csak most írtam át a leírást. :) ...de gyors voltál. Már benne van.

    •  ปีที่แล้ว

      @@kernel_panik Köszi már meg van 👍. Ithon ülök két és fél hónapja újtöréssel , ezért nagyon ráérek youtubozni.

    • @kernel_panik
      @kernel_panik  ปีที่แล้ว +1

      Részvétem és jobbulást!

  • @kczovek
    @kczovek ปีที่แล้ว

    kéne 2x 10G meg egy marék VLAN

    • @Mcs1v
      @Mcs1v ปีที่แล้ว

      ceph-nek inkább saját 10G :D Egy backfill fájdalmas tud lenni, főleg ennyi node/osd kombóval

    • @kczovek
      @kczovek ปีที่แล้ว +1

      @@Mcs1v akár - de azon a 2x10G trunkon úgyis a kifelé menö forgalom lesz a legkevesebb.... De igen. ha jól akarja akkor 2x10G replication 2x10G public