Скажите какие ip адреса должны быть в пуле? я так понял это не адреса нод кластера (или я ошибаюсь?) Если это не адреса нод то кто тогда отвечает на рандомных адресах? Это адреса локальной частной сети или адреса внутренние кластера (подов, сервисов)?
Применил configmap для metallb со списком IP, аналогичным локальным адресам control+worker node кластера. В итоге очевидно потерял доступ к кластеру, так как балансировщик на себя забирает все запросы. Есть способ конфигмап снести не через инструменты k8s, в самой ОС как то? Или я доигрался (
Потенциально можно. Первое, что пришло в голову - залезть в базу etcd и потереть конфигмап. Но это жестокая хирургия. Ну или попробовать средствами docker или containerd остановить контейнер metallb. Но я не уверен, что кубелет его не перезапустит.
@@OldPythonKAA Благодарю. Попробую, я пока на control нодах сменил ip на те, которых не было в конфигмапе и kubespray запустил с надеждой что все починится само.
Супер! Расскажите в следующих своих видео или просто в тексте, пожалуйста, как развернуть keycloak на кластере rancher kubernetes, и как подключить ему базу и вывеcсти его в example.ru .
запустил kubectl apply -f metallb/00-mlb.yaml kubectl apply -f metallb/01-lb-ingress-controller-svc.yaml почему то потерял соединение с k8s └$► kubectl get nodes -o wide The connection to the server 10.0.20.101:6443 was refused - did you specify the right host or port? диапазон свой задал - 10.0.20.101-10.0.20.103
Очень добротный контент!))) спасибо!
Выход каждого видео как праздник
xoроший канал, жаль что только обнаружился) буду смотреть
А если изменить type: LoadBalancer для ingress-nginx-controle он должен получить external IP ? не совсем понятно для чего он нужен с типом nodePort
Скажите какие ip адреса должны быть в пуле? я так понял это не адреса нод кластера (или я ошибаюсь?) Если это не адреса нод то кто тогда отвечает на рандомных адресах? Это адреса локальной частной сети или адреса внутренние кластера (подов, сервисов)?
Любые, нужные вам IP адреса.
Лайкану, посмотрю позже.
PyCharm подсказки может выводить?
www.jetbrains.com/help/idea/kubernetes.html
Применил configmap для metallb со списком IP, аналогичным локальным адресам control+worker node кластера. В итоге очевидно потерял доступ к кластеру, так как балансировщик на себя забирает все запросы. Есть способ конфигмап снести не через инструменты k8s, в самой ОС как то? Или я доигрался (
Потенциально можно. Первое, что пришло в голову - залезть в базу etcd и потереть конфигмап. Но это жестокая хирургия.
Ну или попробовать средствами docker или containerd остановить контейнер metallb. Но я не уверен, что кубелет его не перезапустит.
@@OldPythonKAA Благодарю. Попробую, я пока на control нодах сменил ip на те, которых не было в конфигмапе и kubespray запустил с надеждой что все починится само.
что-то не понял а Keycloak нужен был?
все понял, keycloak следующем видео
У меня мало одиночных видео. Обычно идет несколько серий.
не совсем понятно, в чем роль спикеров в металлб и арп как тут работает
добавляет айпи адресс сервиса в арп таблицу во всех нодах, а когда нода падает просто обновляет мак адреса в арп таблицах нод?(т.к. айпи сохраняется)
ARP он и в Африке ARP. 😁 Кубер этой таблицей не рулит. И Металлб ей тоже не рулит. Металлб рулит IP адресом (адресами).
а вам борода идет.
Супер! Расскажите в следующих своих видео или просто в тексте, пожалуйста, как развернуть keycloak на кластере rancher kubernetes, и как подключить ему базу и вывеcсти его в example.ru .
В Пнд (12.07) выйдет второе видео из этой серии. Там как раз про клоак.
@@OldPythonKAA класс, очень, очень ждём!!!
запустил
kubectl apply -f metallb/00-mlb.yaml
kubectl apply -f metallb/01-lb-ingress-controller-svc.yaml
почему то потерял соединение с k8s
└$► kubectl get nodes -o wide
The connection to the server 10.0.20.101:6443 was refused - did you specify the right host or port?
диапазон свой задал - 10.0.20.101-10.0.20.103
просто подредактировал IP, у export KUBECONFIG=~/work/kubernetes/vagrant/kubespray/inventory/my_lab/artifacts/admin.conf
- cluster:
certificate-authority-data:
server: 10.0.20.102:6443