Создание кластера Kubernetes может казаться сложным процессом, который включает в себя множество настроек, но сложные вещи могут стать более понятными, когда их разложить на части. В этой статье мы демистифицируем процесс создания кластера Kubernetes, поднимая минимальный набор компонентов, необходимых для запуска Kubernetes кластера.

Введение

Прежде всего, важно иметь виртуальную машину (VM), на которой запущено Debian- или RHEL-основное дистрибутивы Linux. Для этого урока мы будем использовать Debian 11 VM, запущенную в виртуальной среде KVM. Сам дистрибутив Debian был слегка модифицирован моими личными так называемыми "dotfiles", которые обеспечат нам более приятный опыт использования командной строкой.

Tерминал вдохновленный конфигурацией Garuda - дистрибутивом Linux на базе Arch.
Tерминал вдохновленный конфигурацией Garuda - дистрибутивом Linux на базе Arch.

Предварительные требования

После настройки VM мы можем перейти к следующим шагам в создании кластера Kubernetes с использованием cri-o в качестве контейнерного рантайма. Во-первых, нам необходимо внести несколько необходимых изменений, чтобы пройти проверки при инициализации kubeadm init. Об этих пунктах чуть ниже.

В качестве первого шага мы должны следовать главной рекомендации при работе с программным обеспечением — проверка на наличие обновлений и установка последних пакетов:

sudo apt update
sudo apt upgrade

Кроме того, необходимо загрузить и установить несколько зависимостей:

sudo apt install software-properties-common apt-transport-https ca-certificates gnupg2 gpg sudo

1. Отключение swap

В Linux, swap — это полезный способ расширения доступной оперативной памяти, когда физическая память исчерпана, позволяющий процессам продолжать работу. Однако при настройке узла для кластера Kubernetes обычно рекомендуется отключить swap по нескольким причинам.

Во-первых, для эффективной работы Kubernetes требуется значительное количество памяти, и любое снижение производительности из-за использования swap может повлиять на производительность всего кластера. Кроме того, Kubernetes предполагает, что на узле есть фиксированное количество доступной памяти, и если swap включен, это может вызвать путаницу и неожиданное поведение.

Кроме того, отключение swap может помочь предотвратить риск вызова так называемого "OOM killer". OOM killer — это процесс ядра Linux, который отвечает за завершение процессов, когда система исчерпывает свободную память. Хотя это и предназначено для защиты от сбоев системы, это может привести к непредсказуемому поведению при запуске рабочих нагрузок Kubernetes, так как OOM killer может завершить критические компоненты кластера.

Мы можем узнать, использует ли наша машина swap-память, используя команду htop:

На этом скриншоте своп равен 0. Однако. если бы это было иначе, нам нужно было бы отключить его.
На этом скриншоте своп равен 0. Однако. если бы это было иначе, нам нужно было бы отключить его.

В целом, хотя swap-память может быть полезным инструментом для расширения доступной памяти на машине Linux, при настройке узла для кластера Kubernetes обычно рекомендуется отключить его, чтобы обеспечить надежную и предсказуемую производительность. Мы можем сделать это, выполнив следующую команду:

swapoff -a

Чтобы убедиться, что swap остается отключенным после запуска, нам необходимо закомментировать строку в файле /etc/fstab, который инициализирует swap-память при загрузке Linux:

Комментируем строку 10, где прописана настройка для монтирования swap файла /swap.img
Комментируем строку 10, где прописана настройка для монтирования swap файла /swap.img

В этом конкретном случае в качестве раздела swap использовался файл с именем swap.img, который мы можем удалить после этого с правами root:

sudo rm /swap.img 

Примечание: В современных дистрибутивах Linux часто используется swap-файл вместо отдельного раздела swap. Если ваша система настроена с отдельным разделом swap, важно учитывать это при настройке кластера Kubernetes и избегать настройки раздела swap при установке виртуальной машины.

Теперь вы можете перезагрузить машину, и swap должен быть отключен. Используйте htop еще раз, чтобы подтвердить это.

2. Включение модулей ядра Linux

Включение необходимых модулей ядра Linux — это важный шаг при настройке контейнерного запуска для кластера Kubernetes. Эти модули необходимы для обеспечения функциональности сетевого подключения и хранения данных в Kubernetes Pods, которые являются наименьшими и простейшими единицами в системе Kubernetes. Модули сетевого подключения позволяют Kubernetes обеспечивать сетевое соединение между различными Pods в кластере, а модули хранения — постоянное хранилище данных в Pods кластера.

Для включения этих модулей ядра обычно нужно изменить параметры ядра Linux и загрузить соответствующие модули ядра с помощью утилиты modprobe. Это обеспечивает доступность необходимой функциональности для кластера Kubernetes и позволяет Pods эффективно общаться и хранить данные. Включая эти модули, мы можем гарантировать, что наш кластер Kubernetes хорошо подготовлен к выполнению широкого спектра задач и может предоставить надежную и масштабируемую платформу для запуска контейнеризованных приложений.

Прежде чем продолжить, мы войдем под учетную запись root и выполним все нижеуказанные действия с привилегиями этого суперпользователя:

sudo su - root

Вот два модуля ядра Linux, которые нам нужно включить:

  1. br_netfilter — этот модуль необходим для включения прозрачного маскирования и облегчения передачи трафика Virtual Extensible LAN (VxLAN) для связи между Kubernetes Pods в кластере.

  2. overlay — этот модуль обеспечивает необходимую поддержку на уровне ядра для правильной работы драйвера хранения overlay. По умолчанию модуль overlay может не быть включен в некоторых дистрибутивах Linux, и поэтому необходимо включить его вручную перед запуском Kubernetes.

Мы можем включить эти модули, выполнив команду modprobe вместе с флагом -v(подробный вывод), чтобы увидеть результат:

modprobe overlay -v
modprobe br_netfilter -v

После этого мы должны получить следующий вывод:

Чтобы убедиться, что модули ядра загружаются после перезагрузки, мы также можем добавить их в файл /etc/modules:

echo "overlay" >> /etc/modules
echo "br_netfilter" >> /etc/modules

После включения модуля br_netfilter необходимо включить IP-пересылку в ядре Linux, чтобы обеспечить сетевое взаимодействие между подами и узлами. IP-пересылка позволяет ядру Linux маршрутизировать пакеты с одного сетевого интерфейса на другой. По умолчанию IP-пересылка отключена на большинстве дистрибутивов Linux из соображений безопасности, поскольку она позволяет использовать машину как маршрутизатор.

Однако в кластере Kubernetes нам нужно включить IP-пересылку, чтобы позволить подам общаться друг с другом, а также пересылать трафик наружу. Без IP-пересылки поды не смогут получить доступ к внешним ресурсам или взаимодействовать друг с другом, что приведет к неисправности кластера.

Для этого мы должны записать "1" в файл конфигурации с названием "ip_forward":

echo 1 > /proc/sys/net/ipv4/ip_forward

С этих необходимых шагов для настройки требований нашего кластера Kubernetes мы можем перейти к установке Kubelet — сердцу Kubernetes.

Установка Kubelet

Установка Kubelet, возможно, самый простой шаг, поскольку он очень хорошо описан в официальной документации Kubernetes. В основном, нам нужно выполнить следующие команды:

mkdir /etc/apt/keyrings
sudo curl -fsSLo /etc/apt/keyrings/kubernetes-archive-keyring.gpg https://packages.cloud.google.com/apt/doc/apt-key.gpg
echo "deb [signed-by=/etc/apt/keyrings/kubernetes-archive-keyring.gpg] https://apt.kubernetes.io/ kubernetes-xenial main" | sudo tee /etc/apt/sources.list.d/kubernetes.list
apt-get update
apt-get install -y kubelet kubeadm kubectl
apt-mark hold kubelet kubeadm kubectl 

Строка apt-mark hold kubelet kubeadm kubectl сообщает нашему менеджеру пакетов не обновлять эти компоненты, так как это необходимо делать вручную при обновлении кластера.

Запустите команду, скрестите пальцы и надеемся, что все сработает:

Теперь, когда мы установили kubelet, kubeadm и kubectl, мы можем продолжить установку среды выполнения контейнеров, которая будет запускать компоненты Kubernetes.

Установка нашей среды выполнения контейнеров

Kubernetes — это система оркестрации для контейнеризированных нагрузок. Он управляет развертыванием, масштабированием и работой контейнеризированных приложений на кластере узлов. Однако Kubernetes не запускает контейнеры напрямую. Вместо этого он полагается на среду выполнения контейнеров, которая отвечает за запуск, остановку и управление контейнерами. Среда выполнения контейнеров — это программное обеспечение, которое запускает контейнеры на узлах в кластере Kubernetes.

Существует несколько сред выполнения контейнеров, которые можно использовать с Kubernetes, включая Docker, cri-o, containerd и другие. Выбор среды выполнения контейнеров зависит от таких факторов, как производительность, безопасность и совместимость с другими инструментами в инфраструктуре. Для наших целей мы выберем cri-o в качестве среды выполнения контейнеров нашего Kubernetes кластера.

Следуя официальной документации по cri-o, нам сначала нужно указать переменные, необходимые для загрузки желаемой версии cri-o для нашего конкретного дистрибутива Linux. Учитывая, что мы запускаем Debian 11, а на момент написания 1.24 — это последняя версия cri-o, мы экспортируем несколько переменных:

export OS=Debian_11
export VERSION=1.24

Мы также можем проверить, сохранены ли эти переменные в текущей сессии терминала, передав команду env в grep:

Теперь мы можем начать установку контейнерного времени выполнения:

echo "deb https://download.opensuse.org/repositories/devel:/kubic:/libcontainers:/stable/$OS/ /" > /etc/apt/sources.list.d/devel:kubic:libcontainers:stable.list
echo "deb http://download.opensuse.org/repositories/devel:/kubic:/libcontainers:/stable:/cri-o:/$VERSION/$OS/ /" > /etc/apt/sources.list.d/devel:kubic:libcontainers:stable:cri-o:$VERSION.list
curl -L https://download.opensuse.org/repositories/devel:/kubic:/libcontainers:/stable:/cri-o:/$VERSION/$OS/Release.key | apt-key add -
curl -L https://download.opensuse.org/repositories/devel:/kubic:/libcontainers:/stable/$OS/Release.key | apt-key add -
apt-get update
apt-get install -y cri-o cri-o-runc

Если все прошло успешно, мы должны получить следующий вывод:

Теперь, когда мы установили пакеты cri-o, мы должны включить и запустить cri-o как службу:

systemctl enable crio
systemctl start crio
systemctl status crio

Команда systemctl status crio должна вывести текущее состояние службы:

Поздравляем! Наш узел Kubernetes готов к запуску.

Запуск нашего первого узла

Я надеюсь, вы плотно затянули свои ботинки, потому что наша сеть Pod будет иметь CIDR 10.100.0.0/16.

Что такое сетевой CDR?

CIDR (Classless Inter-Domain Routing) - это обозначение, используемое для представления префикса сети в адресации IP. Это комбинация IP-адреса и маски подсети, представленных в виде "<IP-адрес>/<маска подсети>". Маска подсети определяет, какая часть IP-адреса является сетевой, а какая - хостовой.

В случае диапазона 10.100.0.0/16 это означает, что IP-адрес - 10.100.0.0, а маска подсети состоит из 16 бит. Маска подсети из 16 бит указывает, что первые 16 бит IP-адреса являются сетевой частью, а оставшиеся 16 бит - хостовой частью. Это означает, что наш хост может управлять до 65 536 IP-адресами, находящимися в диапазоне от 10.100.0.0 до 10.100.255.255.

Теперь, когда мы решили, что наш маленький, но могущественный кластер Kubernetes будет иметь сеть из 65 536 IP-адресов, мы можем проверить нашу конфигурацию.

Dry run

Для запуска нашего кластера мы будем использовать официальную утилиту kubeadm. Прежде чем применять наши изменения, мы можем запустить настройку сети с использованием флага --dry-run без каких-либо изменений:

kubeadm init --pod-network-cidr=10.100.0.0/16 --dry-run

Если наша виртуальная машина была настроена правильно, мы должны получить длинный вывод:

Если так называемые "предварительные проверки" выдают ошибку, то, выполнив быстрый поиск в Google, мы можем исправить проблему и в последствии применить эти изменения без флага --dry-run.

Инициализация нашего кластера

После того, как мы получили виртуальную машину, которая проходит предварительные проверки, мы можем инициализировать наш кластер.

После выполнения этой команды kubeadm превратит нашу виртуальную машину в узел управления Kubernetes, состоящий из следующих основных компонентов:

  • etcd — хранилище ключ-значение, используемое для хранения состояния всего кластера Kubernetes;

  • kube-scheduler — компонент управления, который отслеживает вновь созданные Pod без назначенного узла и выбирает для них узел для запуска;

  • kube-controller-manager — компонент управления, запускающий процессы контроллера.

Если наша инициализация прошла успешно, мы получим вывод с командой, которую можно использовать для присоединения других узлов:

Обратите внимание на эту команду присоединения:

kubeadm join 192.168.122.97:6443 --token nljqps.vypo4u9y07lsw7s2 \
        --discovery-token-ca-cert-hash sha256:f820767cfac10cca95cb7649569671a53a2240e1b91fcd12ebf1ca30c095c2d6

Примечание: По умолчанию токен этой команды присоединения действителен только в течение 2 часов, после чего вам нужно будет сообщить kubeadm, чтобы он выдал новый токен для присоединения других узлов.

После того, как мы запустили первый узел управления, мы можем использовать crictl так же, как используем команду docker, и увидеть, какие компоненты работают в нашем контейнерном времени выполнения cri-o:

Как мы видим, вышеупомянутые компоненты Kubernetes все работают как контейнеры внутри первой ноды нашего кластера .

Добавляем нашего первого воркера

По умолчанию узел Control Plane запускает только контейнеры, которые являются частью системы Kubernetes, но не Pod-ы с контейнерными приложениями. Теперь, когда у нас есть работающий узел Control Plane ("master1"), мы можем приступить к добавлению первого воркера.

Перед этим мы должны выполнить те же самые шаги, что и при настройке нашего Control Plane узла. Для нашего первого воркера, я создал вторую виртуальную машину под названием "worker1" в правой части моего оконного менеджера терминалов tmux:

После того, как мы выполнили те же процедуры, я копирую токен присоединения из шагов выше:

kubeadm join 192.168.122.97:6443 --token nljqps.vypo4u9y07lsw7s2 \
        --discovery-token-ca-cert-hash sha256:f820767cfac10cca95cb7649569671a53a2240e1b91fcd12ebf1ca30c095c2d6

И вставляю команду с токеном в окно "worker1". kubeadm снова потребует время, чтобы пройти все проверки, прежде чем присоединить рабочего узла ("worker1") к узлу Control Plane ("master1").

Как только это будет сделано, мы можем поздравить себя с созданием кластера Kubernetes с нуля!

Доступ к нашему кластеру с помощью kubectl

Последний шаг, который нам нужно сделать — скопировать учетные данные администратора, которые будут использоваться kubectl для управления ресурсами нашего кластера через компонент API-сервера Kubernetes, работающий на нашем узле Control Plane.

В целях этого руководства мы будем получать доступ к нашему кластеру через узел Control Plane. Мы скопируем конфигурацию в домашний каталог нашего пользователя следующим образом:

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

После этого мы можем использовать команду kubectl для управления, создания, редактирования, удаления и развертывания нашего кластера Kubernetes. Для начала мы можем получить список узлов, которые в настоящее время являются частью нашего кластера Kubernetes:

kubectl get nodes

И мы получаем список, состоящий из нашего узла Control Plane ("master1") и главного воркер узла ("worker1"):

Теперь мы можем создавать Pod-ы, сервисы, пространства имен и все прочие замечательные вещи при помощи команды kubectl!

Заключение

В заключение можно сказать, что процесс создания кластера Kubernetes с использованием cri-o в качестве контейнерного рантайма может показаться сложным на первый взгляд, но с правильным пониманием и знанием отдельных компонентов, его можно достичь относительно легко. Следуя шагам, описанным в этом туториале, мы получили более глубокое понимание того, как работает Kubernetes, и требований, необходимых для настройки функционального кластера. Вооруженные этими знаниями, мы теперь можем уверенно экспериментировать и исследовать все возможности Kubernetes в наших средах разработки и эксплуатации.

Комментарии (35)


  1. AkshinM
    14.05.2023 20:16

    Если не отключить swap, то kubeadm откажется поднимать кластер и потребует его отключения перед тем как продолжить. А с технической точки зрения, свап отключается из-за того, что при нехватке памяти (если свап включен) под будет записан на диск. При многочисленном удалении и создании подов в таком состоянии (например обновили deployment) вызовет деградацию перформанса всей вм-ки (или сервера). При выключенном свапе, сам kubelet способен обработать ситуацию когда нет памяти. Он тупо не поднимет под и в описании пода (kubectl describe pod my-pod) укажет что мало памяти. Для такого сценария ответственность за правильный scheduling пода на нужных нодах ложится на администратора (taint-ы и toleration-ы + node selector-ы, к тому же есть возможность установки ресурсных лимитов для самих подов)


  1. IDanya
    14.05.2023 20:16
    +1

    А как настроить так терминал? Так удобно выглядит.


    1. mbrav Автор
      14.05.2023 20:16
      +2

      Если не вдаваться сильно в детали, которые под копотом, то основные детали это конфигурация tmux через пакетный мемеджер tpm и плагин dracula, и настройщик командной строки starship.

      Так что вот этапы:

      1. Устанавливаем tmux, устанавливаем tpm и заносим мой tmux.conf в ~/.config/tmux/tmux.conf

      2. Устанавливаем starship и не забываем добавить в ~/.bashrc (или .zshrc, config.fish, тд). Заносим мой starship.conf в ~/.config/starship.toml

      Остальные подробности придется как-нибудь описать в отдельном посте)


      1. FruTb
        14.05.2023 20:16
        +1

        Простите, а что именно starship делает? Выглядит как просто tmux с вертикальным сплитом панелей.


        1. mbrav Автор
          14.05.2023 20:16
          -1

          Не совсем. Tmux и starship это совсем разные вещи. Tmux — это терминальный оконный менеджер. Starship — это конфигуратор самой строки в терминале. Он, например, позволяет превратить вот эту унылую строку:

          user@ubuntu: ~/#

          В вот такие красивые и полезные штуки:

          Или вот такую:

          То есть, starship это аналог Oh My Zsh для Zsh shell и ohmybash для Bash. Но у starship есть одно явное преимущество: он совместим с Bash, Fish, Zsh, Powershell, Elvish, Tcsh и со многими другими терминальными средами. То есть, один конфиг будет работать во всех этих средах. Плюс, starship написан на языке Rust, что делает его гораздо шустрее при генерации всех этих "красивых и полезных штук", в отличие от ohmyzsh и ohmybash, которые написаны на ответствующих терминальных средах.


        1. khajiit
          14.05.2023 20:16

          del


  1. nikis05
    14.05.2023 20:16
    +2

    Спасибо что не только изложили порядок действий, но и разъяснили смысл каждого шага!

    Помню как-то раз приходилось поднимать кластер таким способом, и я тогда еще не мог понять. Вот есть список шагов которые надо выполнить чтобы подготовиться к установке кластера, он досконально описан в официальных доках. Почему было просто не включить эти шаги в утилиту kubeadm? А там, где от пользователя требуется какое-то осознанное решение, например выбор движка для контейнеров, делать промпт? В этом есть какой-то тайный смысл, или просто у мейнтейнеров руки не дошли?


    1. creker
      14.05.2023 20:16
      +2

      Видимо решили разделить роли. kubeadm это инструмент исключительно настройки кубера. Он не занимается настройкой ОС и ее компонентов. Для последнего есть kubespray - он предварительно все настроит, даст выбор контейнерного рантайма и много чего еще (статья, например, не коснулась вообще выбора CNI), а потом использует тот же kubeadm, чтобы настроить специфические куберовские вещи.


    1. mbrav Автор
      14.05.2023 20:16

      Дело в том, что Kubernetes — это прежде всего контейнрный оркестратор и на этом его, так скажем, "ответственность", почти заканчивается. Боллее того, сам Kubernetes отдаляется от поддержки отдельных компонентов, которые не связаны с его основной должностью. Например, с версии 1.24, Kubernetes больше не поддерживает dockershim официально. Это означает, что выбор контейнерного рантайма (containerd, cri-o, Docker Engine и другие) теперь стоит за Kubernetes администратором и kubeadm теперь делает гораздо меньше за тебя. С другой стороны, kubeadm делает достаточно проверок настроек перед созданием кластера.

      Более того, сам Kubernetes кластер может быть настроен по разному, в зависимости от технических требований. Например, БД etcd может быть настроена вне нод мастеров, а сами мастера могут быть настроены через Load Balancer, которые осуществляют бесперебойность кластера. Это всё усложняет количество возможных конфигураций Kubernetes кластера. Поэтому, включать шаги настройки Kubernetes в утилиту kubeadm было бы достаточно трудно и кропотливо. С другой стороны, есть не мало утилит, которые упрощают настройку Kubernetes. Я думаю, всё зависит от требований.


  1. a_s_p_e_r
    14.05.2023 20:16
    +5

    Это машинный перевод? 'Debian-основной' это типа 'debian-based' что ли?

    А можно ссылку на оригинал? Такой перевод что-то очень тяжело читать.


  1. slonopotamus
    14.05.2023 20:16
    +1

    Шож так сложно-то...

    1. Ставим убунту

    2. sudo snap install microk8s --classic

    3. Вы великолепны


    1. dobry-kot
      14.05.2023 20:16

      Ага еще скажи

      1. sudo snap install microk8s --classic и продакшн


      1. KReal
        14.05.2023 20:16

        k3d же) а в продакшене EKS)


      1. slonopotamus
        14.05.2023 20:16

        Не вижу нигде в статье слов про продакшен. Ну и для продакшена перечисленных действий скорее всего недостаточно.


  1. Dvorff
    14.05.2023 20:16
    +2

    Можно ли получить ссылку на официальную документацию, где было сказано про отключение файл подкачки?

    Если бы автор хоть чуть-чуть шарил принципах работы операционной системы, он бы не рекомендовал отключать swap.

    Я не рекомендую использовать этот гайд никому.


    1. mbrav Автор
      14.05.2023 20:16
      +2

      Ну тогда напишите гид, который объясняет почему не стоит отключать файл подкачки и я с удовольствием включу это в статью ;)

      Потом про необоснованность отключения файла подкачки при настройки Kubernetes можно будет написать вот на эти ресурсы. Уверен, что там будет кому удивится:


    1. karabanov
      14.05.2023 20:16

      Это особенность Kubelet и для его предсказуемого поведения SWAP должен быть отключен.


    1. AkshinM
      14.05.2023 20:16

      Если не отключить swap, то kubeadm откажется поднимать кластер и потребует его отключения перед тем как продолжить. А с технической точки зрения, свап отключается из-за того, что при нехватке памяти (если свап включен) под будет записан на диск. При многочисленном удалении и создании подов в таком состоянии (например обновили deployment) вызовет деградацию перформанса всей вм-ки (или сервера). При выключенном свапе, сам kubelet способен обработать ситуацию когда нет памяти. Он тупо не поднимет под и в описании пода (kubectl describe pod my-pod) укажет что мало памяти. Для такого сценария ответственность за правильный scheduling пода на нужных нодах ложится на администратора (taint-ы и toleration-ы + node selector-ы, к тому же есть возможность установки ресурсных лимитов для самих подов)


      1. mbrav Автор
        14.05.2023 20:16
        +1

        Спасибо за это лаконичнoe разъяснение. Думаю это стоит закрепить, так как тема про отключение swap при настройки kubeadm вызвало комичное количество недоумений)


        1. slonopotamus
          14.05.2023 20:16
          +1

          Это всё вообще никак не объясняет в чём проблема kubelet'а считать лимиты памяти делая вид будто никакого свапа не существует.

          К тому же я сходил по одной из предложенных ссылок и там отправляют в issue, которая очень даже fixed.


          1. mbrav Автор
            14.05.2023 20:16

            Тем не менее, в официальной документации (редакция 23 апреля, 2023 года ) твердится в жирном шрифте следующее:

            "You MUST disable swap in order for the kubelet to work properly."

            Если цель нашей дискуссии просто пофилософствовать от том, является ли бредом отключение swap памяти при настройки Kubernetes кластера, то можно хоть обфилософствоваться целами томами, на подобии софистов в Древней Греции. С практической же точки зрения, особенно в случаях, когда приходится настраивать Kubernetes в проде (таким, как мне), наверное, стоит придерживаться совету "вы ДОЛЖНЫ отключить swap память", который, в официальной документации, озвучивается соответствующим жирным шрифтом. Нет так ли?)


          1. creker
            14.05.2023 20:16
            +1

            Оно fixed, но реализация в alpha стадии и не видно, чтобы что-то изменилось с тех пор https://kubernetes.io/blog/2021/08/09/run-nodes-with-swap-alpha/ Плюс реализация, по сути, никакая - кублет просто запускается с включенным свапом и может позволить подам использовать свап или не использовать. Все.

            А рекомендация отключать свап все так же в силе, т.к. имеем непредсказуемое поведение нагрузок с ним. Плюс кубер все так же не способен оценить использовать свапа процессами, а значит не имеет полного контроля над ситуацией.

            Собственно, я всегда отключал свап на любых продовых серваках, не только кубера. От этого всегда становилось только лучше. Многий софт точно так же рекомендует это делать.


    1. FruTb
      14.05.2023 20:16

      Ну кубику свап реально мешает ресурсы планировать.

      Вообще есть софт который заточен на максимально прямое управление памятью и ему своп мешает.

      Да к примеру та-же Cassandra сама очень хорошо управляет памятью, а включение свопа под нагрузкой точно ее замедляет тк она очень хитро внутренними буферами пользуется.


      1. FruTb
        14.05.2023 20:16

        Если оставаться в рамках кубика. Вот представьте себе ситуацию. Прод кластер под кубиком. Есть два типа подов. Мелкие - кушают 2-4 ГБ склероза, и крупные - по 20 ГБ. Падает одна из нод и кубер должен пераспределить поды с этой ноды на оставшиеся. Если ну нас включен своп то большой под может попасть на ноду у которой физическая память уже загружена и ему придется бороться за ресурсы. Если своп выключен - произойдет перераспределение мелких подов так чтобы все помещались в памяти.

        И если прям супер надо - своп можно включить в поде.


  1. b0r0dat0r
    14.05.2023 20:16
    +3

    Каким образом отключение swap помогает избавиться от OOM? Если нет swap'а - он придёт еще раньше)


    1. ALexhha
      14.05.2023 20:16
      -1

      Просто со свап все будет умирать очень долго, в чем практически нет смысла. Если у вас la 20+ на 4х ядерном проце, то поверьте свап вас уже не спасет


      1. b0r0dat0r
        14.05.2023 20:16
        +2

        Мой вопрос был не в этом, а в том как отключение swap решит проблему с OOM. ответ - никак =)


        1. ALexhha
          14.05.2023 20:16
          -1

          Что подразумевается под проблемой OOM ?


          1. b0r0dat0r
            14.05.2023 20:16
            +1

            Вы статью читали?

            "Кроме того, отключение swap может помочь предотвратить риск вызова так называемого "OOM killer"."


            1. slonopotamus
              14.05.2023 20:16
              +1

              Не может.


            1. ALexhha
              14.05.2023 20:16

              :facepalm: мы вроде обсуждали комментарий @AkshinM относительно отключения swap, а оказывается что нет


              1. b0r0dat0r
                14.05.2023 20:16

                У того комментария 0 ответов, более того он добавлен через 6 часов после моего - так что мы его точно не обсуждали)


            1. FruTb
              14.05.2023 20:16

              Легко. Новый под не будет запланирован и начнет орать шедулер, а не сдохнет рандомный под из уже работающих.


      1. slonopotamus
        14.05.2023 20:16
        +1

        Ну бред же. Высокий la может быть потому что вся система ждёт I/O, который некуда закешировать, потому что выключили свап (а если бы он был включен, то в него бы выпихнулись неактивные процессы, и появилась память для кэширования I/O).


        1. ALexhha
          14.05.2023 20:16

          И какой процент таких случаев 0,00001% ? В личной практике за 20 лет свап ни разу не помогал, а только мешал


        1. FruTb
          14.05.2023 20:16

          Так кубер и решает это тем что не запускает нагрузку которую не выдержит кластер. В продакшн fast-fail гораздо лучше "очень медленно работает". Первое сразу детекится мониторингом и орет везде. Второе - очень сложно искать и ещё сложнее отлаживать.