Доступно в редакциях: CE, BE, SE, SE+, EE, CSE Lite (1.67), CSE Pro (1.67)
Управление компонентами control plane кластера осуществляется с помощью модуля control-plane-manager, который запускается на всех master-узлах кластера (узлы с лейблом node-role.kubernetes.io/control-plane: "").
Функции управления control plane:
- Управление сертификатами, необходимыми для работы control-plane, в том числе продление, выпуск при изменении конфигурации и т. п. Позволяет автоматически поддерживать безопасную конфигурацию control plane и быстро добавлять дополнительные SAN для организации защищенного доступа к API Kubernetes.
- Настройка компонентов. Автоматически создает необходимые конфигурации и манифесты компонентов
control-plane. - Upgrade/downgrade компонентов. Поддерживает в кластере одинаковые версии компонентов.
- Управление конфигурацией etcd-кластера и его членов. Масштабирует master-узлы, выполняет миграцию из single-master в multi-master и обратно.
- Настройка kubeconfig. Обеспечивает всегда актуальную конфигурацию для работы kubectl. Генерирует, продлевает, обновляет kubeconfig с правами cluster-admin и создает symlink пользователю root, чтобы kubeconfig использовался по умолчанию.
- Расширение работы планировщика, за счет подключения внешних плагинов через вебхуки. Управляется ресурсом KubeSchedulerWebhookConfiguration. Позволяет использовать более сложную логику при решении задач планирования нагрузки в кластере. Например:
- размещение подов приложений организации хранилища данных ближе к самим данным,
- приоритизация узлов в зависимости от их состояния (сетевой нагрузки, состояния подсистемы хранения и т. д.),
- разделение узлов на зоны, и т. п.
Управление сертификатами
Управляет SSL-сертификатами компонентов control-plane:
- Серверными сертификатами для
kube-apiserverиetcd. Они хранятся в Secret’еd8-pkiпространства именkube-system:- корневой CA kubernetes (
ca.crtиca.key); - корневой CA etcd (
etcd/ca.crtиetcd/ca.key); - RSA-сертификат и ключ для подписи Service Account’ов (
sa.pubиsa.key); - корневой CA для extension API-серверов (
front-proxy-ca.keyиfront-proxy-ca.crt).
- корневой CA kubernetes (
- Клиентскими сертификатами для подключения компонентов
control-planeдруг к другу. Выписывает, продлевает и перевыписывает, если что-то изменилось (например, список SAN). Следующие сертификаты хранятся только на узлах:- серверный сертификат API-сервера (
apiserver.crtиapiserver.key); - клиентский сертификат для подключения
kube-apiserverкkubelet(apiserver-kubelet-client.crtиapiserver-kubelet-client.key); - клиентский сертификат для подключения
kube-apiserverкetcd(apiserver-etcd-client.crtиapiserver-etcd-client.key); - клиентский сертификат для подключения
kube-apiserverк extension API-серверам (front-proxy-client.crtиfront-proxy-client.key); - серверный сертификат
etcd(etcd/server.crtиetcd/server.key); - клиентский сертификат для подключения
etcdк другим членам кластера (etcd/peer.crtиetcd/peer.key); - клиентский сертификат для подключения
kubeletкetcdдля helthcheck’ов (etcd/healthcheck-client.crtиetcd/healthcheck-client.key).
- серверный сертификат API-сервера (
Также позволяет добавить дополнительные SAN в сертификаты, это дает возможность быстро и просто добавлять дополнительные «точки входа» в API Kubernetes.
При изменении сертификатов также автоматически обновляется соответствующая конфигурация kubeconfig.
Масштабирование
Поддерживается работа control-plane в конфигурации как single-master, так и multi-master.
В конфигурации single-master:
kube-apiserverиспользует только тот экземплярetcd, который размещен с ним на одном узле;- На узле настраивается прокси-сервер, отвечающий на localhost,
kube-apiserverотвечает на IP-адрес master-узла.
В конфигурации multi-master компоненты control-plane автоматически разворачиваются в отказоустойчивом режиме:
kube-apiserverнастраивается для работы со всеми экземплярамиetcd.- На каждом master-узле настраивается дополнительный прокси-сервер, отвечающий на localhost. Прокси-сервер по умолчанию обращается к локальному экземпляру
kube-apiserver, но в случае его недоступности последовательно опрашивает остальные экземплярыkube-apiserver.
Масштабирование master-узлов
Масштабирование узлов control-plane осуществляется автоматически, с помощью лейбла node-role.kubernetes.io/control-plane="":
- Установка лейбла
node-role.kubernetes.io/control-plane=""на узле приводит к развертыванию на нем компонентовcontrol-plane, подключению нового узлаetcdв etcd-кластер, а также перегенерации необходимых сертификатов и конфигурационных файлов. - Удаление лейбла
node-role.kubernetes.io/control-plane=""с узла приводит к удалению всех компонентовcontrol-plane, перегенерации необходимых конфигурационных файлов и сертификатов, а также корректному исключению узла из etcd-кластера.
При масштабировании узлов с 2 до 1 требуются ручные действия с etcd. В остальных случаях все необходимые действия происходят автоматически. Обратите внимание, что при масштабировании с любого количества master-узлов до 1 рано или поздно на последнем шаге возникнет ситуация масштабирования узлов с 2 до 1.
Управление версиями
Обновление patch-версии компонентов control plane (то есть в рамках минорной версии, например с 1.29.13 на 1.29.14) происходит автоматически вместе с обновлением версии Deckhouse. Управлять обновлением patch-версий нельзя.
Обновлением минорной-версии компонентов control plane (например, с 1.29.* на 1.30.*) можно управлять с помощью параметра kubernetesVersion, в котором можно выбрать автоматический режим обновления (значение Automatic) или указать желаемую минорную версию control plane. Версию control plane, которая используется по умолчанию (при kubernetesVersion: Automatic), а также список поддерживаемых версий Kubernetes можно найти в документации.
Обновление control plane выполняется безопасно и для single-master-, и для multi-master-кластеров. Во время обновления может быть кратковременная недоступность API-сервера. На работу приложений в кластере обновление не влияет и может выполняться без выделения окна для регламентных работ.
Если указанная для обновления версия (с параметром kubernetesVersion) не соответствует текущей версии control plane в кластере, запускается умная стратегия изменения версий компонентов:
- Общие замечания:
- Обновление в разных NodeGroup выполняется параллельно. Внутри каждой NogeGroup узлы обновляются последовательно, по одному.
- При upgrade:
- Обновление происходит последовательными этапами, по одной минорной версии: 1.29 -> 1.30, 1.30 -> 1.31, 1.31 -> 1.32.
- На каждом этапе сначала обновляется версия control plane, затем происходит обновление kubelet на узлах кластера.
- При downgrade:
- Успешное понижение версии гарантируется только на одну версию вниз от максимальной минорной версии control plane, когда-либо использовавшейся в кластере.
- Сначала на узлах кластера выполняется понижение версии kubelet, после чего производится понижение версии компонентов control plane.
Аудит
Если требуется журналировать операции с API или отдебажить неожиданное поведение, для этого в Kubernetes предусмотрен Auditing. Его можно настроить путем создания правил Audit Policy, а результатом работы аудита будет лог-файл /var/log/kube-audit/audit.log со всеми интересующими операциями.
В установках Deckhouse по умолчанию созданы базовые политики, которые отвечают за логирование событий, которые:
- связаны с операциями создания, удаления и изменения ресурсов;
- совершаются от имен сервисных аккаунтов из системных Namespace
kube-system,d8-*; - совершаются с ресурсами в системных пространствах имен
kube-system,d8-*.
Для выключения базовых политик установите флаг basicAuditPolicyEnabled в false.
Настройка политик аудита подробнее рассмотрена в одноименной секции FAQ.