No video

longhorn

  Рет қаралды 3,964

Артур Крюков

Артур Крюков

Күн бұрын

Longhorn - highly available persistent storage for Kubernetes
00:00 - Введение
06:47 - Подготовка к установке.
08:56 - Установка по умолчанию.
12:20 - настройка при помощи WEB интерфейса.
17:24 - storageClass
22:41 - Запуск тестовых приложений. StatefullSet.
26:28 - Запуск тестовых приложений. Deployment + PVC.
33:24 - Backup.
35:28 - Snapshot.
41:01 - Автоматическая конфигурация нод и томов.
44:48 - Параметры по умолчанию.
50:52 - Заключение.
Файлы, используемые в видео: github.com/BigKAA/youtube/tre...
Мой сайт: www.kryukov.biz/
boosty.to/bigkaa
Telegram: t.me/arturkryukov/87
VK video7111833_456239208
Станьте спонсором канала. Подробнее:
/ @oldpythonkaa

Пікірлер: 38
@user-ew9gg1fh8z
@user-ew9gg1fh8z 2 ай бұрын
Просто бесценная информация.
@neophron197
@neophron197 Жыл бұрын
Артур вы сделали большой вклад информации в это дело самое главное что есть теория как все работает
@vyacheslavnagornov5701
@vyacheslavnagornov5701 Жыл бұрын
Спасибо вам за видео (все видео), очень много информации, многое узнал благодаря вашему каналу. Спасибо огромное! Надеюсь у вас будет огромное количество подписчиков, качественный контент пока еще не разогнался, но дело не за горами, товарищ! Ставлю лайки на все видео) Поддержите Артура, ребят!
@igancev
@igancev Жыл бұрын
Спасибо! Ваш канал для меня находка. Искал лишь k3s, а нашел кучу полезного. Грамотная подача, лаконичная речь, без воды, идеальный темп. Приятно смотреть и слушать 👏🙏
@faridakbarov4532
@faridakbarov4532 Жыл бұрын
наконец то) очень ждал этой темы, использовал лонгхорн в прод енве, все до сих пор ок, оставил по 2 реплики на волум
@DimaEvoc
@DimaEvoc Жыл бұрын
Благодарю =) все чаще и чаще вас рекомендует ютуб
@user-jy5rx6zr7p
@user-jy5rx6zr7p Жыл бұрын
Спасибо за такое подробное видео,сам использую Longhorn в кластере K3S.
@defend00r
@defend00r Жыл бұрын
👏
@DDDD-uc9fq
@DDDD-uc9fq Ай бұрын
Спасибо за видео и в целом за качественный материал! Не совсем понял про созданные тома. Получается longhorn для подов в своем формате создает и уже просто не получится полазить по директориям контейнера прям с хоста? по пути /var/lib/longhorn/replicas/pvc-xxx не лежат фалы контейнера а имиджи диска.
@alko4188
@alko4188 Жыл бұрын
ну, тяпнем 😀
@erics8362
@erics8362 Жыл бұрын
Спасибо, крутой видос. Расскажите, какие инструменты используете в работе? И ваши тестовый кластер на базе какой виртуализации?
@OldPythonKAA
@OldPythonKAA Жыл бұрын
Все инструменты есть на видео. Виртуализация VMware ® Workstation 16 Pro. Про железо тут показывал - t.me/arturkryukov/82
@nikolaynikolaev6039
@nikolaynikolaev6039 Жыл бұрын
интересно, на сколько сильно в проде утилизирует сеть все это дело для репликации данных
@user-zo4bm8hb2x
@user-zo4bm8hb2x Жыл бұрын
Спасибо, Артур, за ваши видео - очень помогают разобраться во всяком разном...Однако продолжает мучать вопрос - а что за проводник по файлам вы используете? Уж больно нравиться, что содержимое показывает...
@OldPythonKAA
@OldPythonKAA Жыл бұрын
pycharm от jetbrains. Только это не проводник, это среда разработки :)
@user-zo4bm8hb2x
@user-zo4bm8hb2x Жыл бұрын
@@OldPythonKAA Спасибо
@DmitriNikulinTravel
@DmitriNikulinTravel Жыл бұрын
Здравствуйте , спасибо за видео. Каким приложением вы рисуете архитектуру/диаграммы ?
@OldPythonKAA
@OldPythonKAA Жыл бұрын
draw.io
@user-er9ev7vf1h
@user-er9ev7vf1h Жыл бұрын
Артур, спасибо за интересный материал. Есть вот какой вопрос: как у админки дела с авторизацией? Можно ли нарезать какие-то административные группы и ограничить для них видимость/управляемость томов? Есть ли вообще какие-то права доступа? Конечная задача следующая - аутентифицировать внешних пользователей при помощи какого-нибудь dex и авторизовать их доступы только к тем томам, которые используются в их проектах.
@OldPythonKAA
@OldPythonKAA Жыл бұрын
Никак, я бы поставил перед админкой что то типа гейткипера. Нет. Нет. Я вижу только путь стандартного k8s RBAC с рулёжкой доступами к StorageClass. Но это не точно...
@user-er9ev7vf1h
@user-er9ev7vf1h Жыл бұрын
@@OldPythonKAA понял, спасибо! мы тут просто пошли путём gitops и всё хотим рулить через git посредством argo максимально изолировав разработчиков от кластера. создание томов тоже не напрямую, а через манифесты в git, а доступ на такой низкий уровень хотелось дать исключительно из-за бэкапов и теневых копий, чтоб облегчить разрабам работу. хотя... надо ли им это? )) вопрос риторический)
@ydc1499
@ydc1499 Жыл бұрын
Спасибо за видео, очень полезная информация! Но несовсем понятно как работает отказоустойчивость. Например: У меня реплицирование на 3 нодах, одна выходит из строя, вольюм переходит в состояние "Degraded", для исправления - ноду возвращать или вручную реплицирование менять на 2 ноды. Как-то автоматизировать данный процесс можно ? Как понимаю, опция ReplicaAutoBalance не совсем за это отвечает ? или я не правильно её понимаю.
@OldPythonKAA
@OldPythonKAA Жыл бұрын
Так это. Все же метками на нодах рулится. Добавляете ноду с аналогичными метками и все должно автоматом. Если конечно я правильно понял вопрос.
@ydc1499
@ydc1499 Жыл бұрын
​ @Артур Крюков да, при таком варианте среплицирует, но суть вопроса была в том, что ноду выбило с концами и быстро поднять её не получается (бареметал - сервер умер, сетевые проблемы и.т.д), других свободных нод в кластере нет и не будет. По итогу имеем 2 реплики из 3ёх и состояние вольюмов "Degraded". Есть ли функционал который сбалансирует кол. реплик между оставшимися нодами и вернёт вольюмам состояние Healthy ? что бы не было даунтайма в работе или совсем минимальный.
@OldPythonKAA
@OldPythonKAA Жыл бұрын
Они же продолжают работать если одна из 3-х нод вылетела. Иначе какой смысл во всем этом? Это типа раида. И будут работать до тех пор, пока вы третью ноду не восстановите. Так что бы переконфигурировать на меньшее количество... Не знаю. Не пробовал.
@ydc1499
@ydc1499 Жыл бұрын
@@OldPythonKAA Понял, думал будут проблемы при работе со статусом "Degraded", спасибо.
@michaelkaka95
@michaelkaka95 Жыл бұрын
Здравствуйте, чтобы не было той проблемы с расшариванием диска нужно было еще дополнительно поставить на каждую ноду nfs-common и проблема с приземлением именно на ту ноду где есть диск должна исчезнуть. В доке можно почитать. Чтобы лучше понимать где это все приземляется нужно покопаться на тачках
@OldPythonKAA
@OldPythonKAA Жыл бұрын
nfs-common - это что? У меня там стоят nfs-utils везде. Это шапкины пакеты для работs nfs
@michaelkaka95
@michaelkaka95 Жыл бұрын
@@OldPythonKAA nfs-common я ставил отдельно. Советую проинсталировать отдельно может он не ставится вместе с utils. Как ставить посмотрите в инете
@michaelkaka95
@michaelkaka95 Жыл бұрын
@@OldPythonKAA кстати по этим причинам я на дебиан 11 перешел
@michaelkaka95
@michaelkaka95 Жыл бұрын
только что посмотрел. nfs-common только на deb. Но возможно можно еще что-то подкинуть из nfs чтобы этой проблемы не было. Но одно могу сказать точно что так быть не должно на 100% на дебиане такой проблемы с томами у меня нет и из-за этого я и перешел на дебиан потому что также не мог шарить тома на другие ноды а это один из заявленных функционалов лонгхорна
@OldPythonKAA
@OldPythonKAA Жыл бұрын
Это не проблема с томами. Это одна опция, которая требует что бы под был на той же ноде что и реплика. Условие не было соблюдено, вот он и ругался. А так том работал и все сохранялось.
@user-er9un3mn1z
@user-er9un3mn1z Ай бұрын
у меня через кубспрэй кубер установлен там сетевой плагин calico в vxlan и kube-proxy с типом ipvs, при установке longhorn как в оф сайте через helm у меня не заводятся 3 пода 2шт.-longhorn-ui 1шт.-longhorn-driver ошибка nginx тип он не резолвит бэкэгд longhorn-backend root@k8s-master-01:~# kubectl logs -n longhorn-system longhorn-ui-5d65c99c9b-jjvbj nginx: [emerg] host not found in upstream "longhorn-backend" in /var/config/nginx/nginx.conf:32 root@k8s-master-01:~# kubectl logs -n longhorn-system longhorn-ui-5d65c99c9b- longhorn-ui-5d65c99c9b-77pt4 longhorn-ui-5d65c99c9b-jjvbj root@k8s-master-01:~# kubectl logs -n longhorn-system longhorn-ui-5d65c99c9b-77pt4 nginx: [emerg] host not found in upstream "longhorn-backend" in /var/config/nginx/nginx.conf:32 root@k8s-master-01:~# root@k8s-master-01:~# root@k8s-master-01:~# root@k8s-master-01:~# kubectl logs -n longhorn-system longhorn-driver-deployer-66dc79cfdd-js4s7 Defaulted container "longhorn-driver-deployer" out of: longhorn-driver-deployer, wait-longhorn-manager (init) Error from server (BadRequest): container "longhorn-driver-deployer" in pod "longhorn-driver-deployer-66dc79cfdd-js4s7" is waiting to start: PodInitializing root@k8s-master-01:~# как быть?)
@OldPythonKAA
@OldPythonKAA Ай бұрын
Обращайтесь в поддержку Longhorn.
Local Path Provisioner
37:43
Артур Крюков
Рет қаралды 1,4 М.
kubeadm [01]
29:54
Артур Крюков
Рет қаралды 5 М.
Опасность фирменной зарядки Apple
00:57
SuperCrastan
Рет қаралды 11 МЛН
Gym belt !! 😂😂  @kauermtt
00:10
Tibo InShape
Рет қаралды 17 МЛН
Best Toilet Gadgets and #Hacks you must try!!💩💩
00:49
Poly Holy Yow
Рет қаралды 20 МЛН
Установка Kubernetes при помощи Kubespray
48:10
Артур Крюков
Рет қаралды 12 М.