DevOps Meet up: введение в Ceph

แชร์
ฝัง
  • เผยแพร่เมื่อ 29 พ.ค. 2019
  • DevOps Meet up (город Иннополис)
    Спикер: Руслан Баймухаметов (системный администратор UNIX/сетевой администратор/DevOps engineer в ГК FIX)
    Введение в Ceph:
    - Что такое Сeph с картинками/зачем он нужен.
    - Как мы сделали Сeph и были довольны.
    - Как мы сели в лужу, когда запустили кластер монги (сильно пишущий с картинками) и как всё исправили.

ความคิดเห็น • 23

  • @vavy3
    @vavy3 2 ปีที่แล้ว +2

    Ровный пацан! Респект!

  • @barma1309
    @barma1309 4 ปีที่แล้ว +7

    про православие огонь!! :-)))))

    • @hpsfresh
      @hpsfresh 2 ปีที่แล้ว +1

      Но не совсем верно :) demon ≠ daemon

  • @vladimirbondarev6676
    @vladimirbondarev6676 4 ปีที่แล้ว +4

    Руслан, спасибо за лекцию. По моим наблюдениям proxmox не умеет перераспределять IOPSы между виртуалками (может в 6 версии исправили), приходится вручную устанавливать max IOPS.

    • @da-bro
      @da-bro 4 ปีที่แล้ว

      Да, вы правы, по-умолчанию ни CPU, ни IOPS никак не распределен. Принцип прост: кто первый встал - того и тапки. Если кластер действительно высоконагруженный, то да, надо и это настраивать, конечно же.

    • @spiritcxz
      @spiritcxz 3 ปีที่แล้ว

      @@da-bro Вы с Казахстана?

    • @da-bro
      @da-bro 3 ปีที่แล้ว

      @@spiritcxz нет) из Башкортостана))

  • @xxxxPomaHxxxx
    @xxxxPomaHxxxx 4 ปีที่แล้ว

    Я так и не понял зачем Ceph вообще, то есть разве не будет быстрее обойтись решениями которые есть например в самой монге, чтобы раскинуть по нескольким машинам?

    • @vladimirbondarev6676
      @vladimirbondarev6676 4 ปีที่แล้ว +4

      монга частный случай, Ceph защищает любые данные.

    • @da-bro
      @da-bro 4 ปีที่แล้ว +1

      Все верно, ceph в данном случае - это наш storage для дисков виртуальных машин в кластере.

    • @tuchkaletuchka5685
      @tuchkaletuchka5685 2 ปีที่แล้ว

      @@da-bro а как рассчитывали IOPS и чем мониторинг IOPS организован? Заббикс или как то иначе...? Спасибо

    • @da-bro
      @da-bro 2 ปีที่แล้ว

      @@tuchkaletuchka5685 встроенный в ceph exporter есть, он дает эти метрики

  • @sergeyo118
    @sergeyo118 3 ปีที่แล้ว

    Иерархия на уровне крашмата несколько дц работает прям паршиво, мультисайт RGW - немного лучше, но тоже такое себе удовольствие, rbd-mirror сам не юзал, но отзывы ребят, кто его пытался использовать, тоже говорят, что номинально есть, по факту - использовать больно.
    Ну и посыл про то, что ceph можно собрать из говна и палок - самое большое заблуждение, нифига не дешевое это удовольствие иметь нормальный ceph кластер.

    • @defend00r
      @defend00r 3 ปีที่แล้ว

      А какие альтернативы если s3 только нужен? MinIO не хотим, ругают на больших нагрузках.

    • @sergeyo118
      @sergeyo118 3 ปีที่แล้ว

      @@defend00r сильных альтернатив нет, если коротко и не развозить демагогию. Можете потестить seaweedfs, у него тоже есть поддержка с3, по пилят его полтора китайца, хоть и давно пилят

  • @Semanbis
    @Semanbis 4 ปีที่แล้ว +1

    Слайды скиньте

  • @SiriusParallaxTV
    @SiriusParallaxTV 9 หลายเดือนก่อน +1

    GlusterFS доставляет меньше гемороя чем Ceph

    • @pa7pa736
      @pa7pa736 5 หลายเดือนก่อน

      Только kubernetes к сожалению с версии 1.26 не умеет в gluster, а так да если искать хранилку для кубика то гластер был идеален

  • @erimitis
    @erimitis ปีที่แล้ว +5

    Бездарная лекция. Когда уже айтишники научатся мыслить целостно и системно, включат эмпатию и научатся доносить смысл и логику, а не фрагменты, минуя всякий контекст, который держат в голове, предполагая, что этот контекст известен слушателям? Тьфу.

    • @vano03voin
      @vano03voin 8 หลายเดือนก่อน +2

      Добрый, нашёл какую-нибудь более лучшую лекцию об цепхе?

  • @user-bg2xf2lv7o
    @user-bg2xf2lv7o 3 ปีที่แล้ว

    плохо