В разделе Быстрый старт доступны пошаговые инструкции по установке Deckhouse Kubernetes Platform.
Попробуйте также графический установщик Deckhouse Kubernetes Platform! Beta
На этой странице представлена обзорная информация по установке Deckhouse Kubernetes Platform (DKP).
Способы установки
Установить DKP можно следующими способами:
- с помощью CLI-установщика (доступен в виде образа контейнера и основан на утилите dhctl);
- с помощью графического установщика (находится в режиме бета-тестирования).
Далее рассмотрен процесс установки с помощью CLI-установщика.
Варианты установки
Установить DKP можно в следующих вариантах:
-
В поддерживаемом облаке. Установщик автоматически создает и настраивает все необходимые ресурсы (включая виртуальные машины, сетевые объекты и т.д.), разворачивает кластер Kubernetes и устанавливает DKP. Полный список поддерживаемых облачных провайдеров доступен в разделе «Интеграция платформы с IaaS».
-
На серверах bare-metal (в том числе гибридные кластеры) или в неподдерживаемых облаках. Установщик выполняет настройку указанных в конфигурации серверов или виртуальных машин, разворачивает кластер Kubernetes и устанавливает DKP. Пошаговые инструкции по развертыванию на bare-metal можно найти в разделе «Быстрый старт» → «Deckhouse Kubernetes Platform на bare metal».
-
В существующем кластере Kubernetes. Установщик разворачивает DKP и интегрирует его с текущей инфраструктурой. Пошаговые инструкции по развертыванию в существующем кластере можно найти в разделе «Быстрый старт» → «Deckhouse Kubernetes Platform в существующем кластере».
Требования к установке
Для оценки ресурсов необходимых для установки Deckhouse Kubernetes Platform вы можете ознакомиться со следующими руководствами:
- Руководство по подбору ресурсов для кластера на bare metal
- Руководство разметке и объему дисков
- Руководство по подготовке к production
Перед установкой убедитесь в следующем:
-
Для кластера на bare-metal (в том числе гибридного кластера) и установке в неподдерживаемых облаках: сервер использует операционную систему из списка поддерживаемых ОС или совместимую с ним, а также доступен по SSH через ключ.
-
При настройке интеграции с поддерживаемыми облаками: имеются необходимые квоты для создания ресурсов и подготовлены параметры доступа к облачной инфраструктуре (зависят от конкретного провайдера).
-
Есть доступ к хранилищу образов контейнеров Deckhouse (публичный —
registry.deckhouse.ioилиregistry.deckhouse.ru, либо зеркало).
Подготовка конфигурации
Перед началом установки необходимо подготовить файл конфигурации установки, а также, при необходимости, post-bootstrap-скрипт.
Файл конфигурации установки
Файл конфигурации установки состоит из YAML-секций (документов) и содержит настройки DKP, а также описание (манифесты) объектов и ресурсов кластера, которые будут созданы после установки. Файл конфигурации установки используется в CLI-установщике — передается с помощью параметра --config (см. далее).
Список обязательных и опциональных объектов и ресурсов кластера, которые могут понадобиться в файле конфигурации установки:
-
InitConfiguration (обязательный) — начальные параметры конфигурации, необходимые для запуска DKP.
Основные настройки, задаваемые в этом ресурсе:
- Параметры размещения компонентов;
- Используемый StorageClass;
- Параметры доступа к container registry;
- Шаблон DNS-имен;
- Другие важные параметры, без которых Deckhouse не сможет корректно функционировать.
-
StaticClusterConfiguration — параметры кластера, развертываемого на серверах bare-metal (в том числе гибридного кластера) или виртуальных машинах в неподдерживаемых облаках. Является обязательным, кроме случая, когда DKP устанавливается в уже существующий кластер Kubernetes.
Для добавления группы узлов (объект NodeGroup) под рабочую нагрузку в кластер могут понадобиться также объекты StaticInstance и SSHCredentials.
-
<PROVIDER>ClusterConfiguration— параметры интеграции с облачным провайдером. Является обязательным при интеграции DKP с поддерживаемой облачной инфраструктурой.Примеры ресурсов, настраивающих интеграцию DKP с облачным провайдером:
- AWSClusterConfiguration — Amazon Web Services;
- AzureClusterConfiguration — Microsoft Azure;
- DynamixClusterConfiguration — Базис.DynamiX;
- DVPClusterConfiguration — Deckhouse Virtualization Platform;
- GCPClusterConfiguration — Google Cloud Platform;
- HuaweiCloudClusterConfiguration — Huawei Cloud;
- OpenStackClusterConfiguration — OpenStack, OVHcloud, Selectel, VK Cloud;
- VsphereClusterConfiguration — VMware vSphere;
- VCDClusterConfiguration — VMware Cloud Director;
- YandexClusterConfiguration — Yandex Cloud;
- ZvirtClusterConfiguration — zVirt.
Для добавления облачных узлов в кластер также понадобятся объекты
<PROVIDER>InstanceClass(например YandexInstanceClass для Yandex Cloud), которые описывают конфигурацию виртуальных машин в группе узлов (объект NodeGroup). -
Конфигурации модулей DKP.
Каждый модуль настраивается (а также может быть включен или отключен) с помощью собственного объекта ModuleConfig с именем модуля (например,
user-authnдля модуля user-authn). Допустимые параметры, которые можно указывать в объекте ModuleConfig модуля, можно найти в документации модуля в разделе «Настройки» (например, настройки модуля user-authn).Список всех модулей Deckhouse Kubernetes Platform доступен в разделе «Модули» документации.
Некоторые модули могут быть включены и предварительно настроены автоматически, в зависимости от выбранного варианта установки и конфигурации кластера (например, модули обеспечивающие работы управляющего слоя кластера и сети).
Модули, часто настраиваемые при установке:
global— глобальные настройки DKP для указания параметров, которые используются по умолчанию всеми модулями и компонентами (шаблон DNS-имен, StorageClass, настройки расположения компонентов модулей и т.д.);deckhouse— настройки для доступа к хранилищу образов контейнеров, желаемый канал обновлений и другие параметры;user-authn— отвечает за единую систему аутентификации;- cni-cilium — отвечает за работу сети в кластере (например, используется при установке DKP на bare metal, в закрытом окружении, на РЕД-виртуализации и на SpaceVM).
Если кластер изначально создается с узлами, выделенными для определенных типов нагрузки (например, системные узлы или узлы для мониторинга), рекомендуется в конфигурации модулей, использующих тома постоянного хранилища, явно задавать параметр
nodeSelector(например, в параметре nodeSelector ModuleConfigprometheusдля модуляprometheus). -
IngressNginxController — параметры создаваемого балансировщика HTTP/HTTPS-трафика (Ingress-контроллера).
-
NodeGroup — параметры группы узлов. Необходим для добавления узлов под рабочую нагрузку в кластер.
-
Объекты для настройки аутентификации и авторизации, такие как ClusterAuthorizationRule, AuthorizationRule, User, Group, DexProvider.
Читайте подробнее в документации о настройке аутентификации и авторизации.
Post-bootstrap-скрипт
Установщик позволяет выполнить пользовательский скрипт на одном из master-узлов, после завершения установки (post-bootstrap-скрипт). Такой скрипт может использоваться для:
- Выполнения дополнительной настройки кластера;
- Сбора диагностической информации;
- Интеграции с внешними системами и других задач.
Указать путь к post-bootstrap-скрипту можно с помощью параметра --post-bootstrap-script-path при запуске CLI-установщика.
Установка
При установке коммерческой редакции Deckhouse Kubernetes Platform из публичного хранилища образов контейнеров registry.deckhouse.ru, необходимо предварительно пройти аутентификацию с использованием лицензионного ключа:
docker login -u license-token registry.deckhouse.ru
Команда для запуска контейнера с установщиком из публичного хранилища образов контейнеров Deckhouse:
docker run --pull=always -it [<MOUNT_OPTIONS>] registry.deckhouse.ru/deckhouse/<DECKHOUSE_REVISION>/install:<RELEASE_CHANNEL> bash
Где:
<DECKHOUSE_REVISION>— редакция DKP, напримерee— для Enterprise Edition,ce— для Community Edition и т. д.<MOUNT_OPTIONS>— параметры монтирования файлов в контейнер установщика, такие как:- SSH-ключи доступа;
- Файл конфигурации;
- Файл ресурсов и т. д.
<RELEASE_CHANNEL>— канал обновлений в формате kebab-case:alpha— для канала обновлений Alpha;beta— для канала обновлений Beta;early-access— для канала обновлений Early Access;stable— для канала обновлений Stable;rock-solid— для канала обновлений Rock Solid.
Пример команды для запуска контейнера с установщиком DKP Community Edition из канала обновлений Stable:
docker run -it --pull=always \
-v "$PWD/config.yaml:/config.yaml" \
-v "$PWD/dhctl-tmp:/tmp/dhctl" \
-v "$HOME/.ssh/:/tmp/.ssh/" registry.deckhouse.ru/deckhouse/ce/install:stable bash
Установка DKP осуществляется в контейнере установщика с помощью команды dhctl:
- Для запуска установки DKP с развертыванием нового кластера (все случаи, кроме установки в существующий кластер) используйте команду
dhctl bootstrap. - Для установки DKP в уже существующий кластер используйте команду
dhctl bootstrap-phase install-deckhouse.
Для получения подробной справки по параметрам команды выполните dhctl bootstrap -h.
Пример запуска установки DKP с развертыванием кластера в облаке:
dhctl bootstrap \
--ssh-user=<SSH_USER> --ssh-agent-private-keys=/tmp/.ssh/id_rsa \
--config=/config.yml
Где:
/config.yml— файл конфигурации установки;<SSH_USER>— имя пользователя для подключения по SSH к серверу;--ssh-agent-private-keys— файл приватного SSH-ключа для подключения по SSH.
Проверки перед началом установки
Список проверок, выполняемых установщиком перед началом установки Deckhouse Kubernetes Platform:
- Общие проверки:
- Значения параметров PublicDomainTemplate и clusterDomain не совпадают.
- Данные аутентификации для хранилища образов контейнеров, указанные в конфигурации установки, корректны.
- Имя хоста соответствует следующим требованиям:
- Длина не более 63 символов;
- Состоит только из строчных букв;
- Не содержит спецсимволов (допускаются символы
-и., при этом они не могут быть в начале или в конце имени).
- На сервере (ВМ) установлен поддерживаемый container runtime (
containerd). - Имя хоста уникально в пределах кластера.
- На сервере установлено корректное время.
- Адресное пространство подов (
podSubnetCIDR) и сервисов (serviceSubnetCIRD) кластера не пересекаются.
- Проверки для установки статического и гибридного кластера:
- Указан только один параметр
--ssh-host. Для статической конфигурации кластера можно задать только один IP-адрес для настройки первого master-узла. - Должна быть возможность подключения по SSH с использованием указанных данных аутентификации.
- Должна быть возможность установки SSH-туннеля до сервера (или виртуальной машины) master-узла.
- Сервер (ВМ), выбранный для установки master-узла, должен соответствовать минимальным системным требованиям:
- не менее 4 CPU;
- не менее 8 ГБ RAM;
- не менее 60 ГБ диска с производительностью 400+ IOPS;
- ядро Linux версии 5.8 или новее;
- установлен один из пакетных менеджеров:
apt,apt-get,yumилиrpm; - доступ к стандартным системным репозиториям для установки зависимостей;
- в случае с РЕД ОС — убедитесь, что установлены
yumиwhich(по умолчанию могут отсутствовать).
- На сервере (ВМ) для master-узла установлен Python.
- Хранилище образов контейнеров доступно через прокси (если настройки прокси указаны в конфигурации установки).
- На сервере (ВМ) для master-узла и в хосте, на котором запущен установщик, свободны порты, необходимые для процесса установки.
- DNS должен разрешать
localhostв IP-адрес 127.0.0.1. - На сервере (ВМ) пользователю доступна команда
sudo. - Открыты необходимые порты для установки:
- между хостом запуска установщика и сервером — порт 22/TCP;
- отсутствуют конфликты по портам, которые используются процессом установки.
- На сервере (ВМ) установлено корректное время.
- Адресное пространство подов (
podSubnetCIDR), сервисов (serviceSubnetCIRD) и внутренней сети кластера (internalNetworkCIDRs) не пересекаются. - На сервере (ВМ) отсутствует пользователь
deckhouse.
- Указан только один параметр
- Проверки для установки облачного кластера:
- Конфигурация виртуальной машины master-узла удовлетворяет минимальным требованиям.
- API облачного провайдера доступно с узлов кластера.
- Проверка конфигурации Yandex Cloud с NAT Instance.
Откат установки
Если установка была прервана или возникли проблемы во время установки в поддерживаемом облаке, то могут остаться ресурсы, созданные в процессе установки. Для их удаления используйте команду dhctl bootstrap-phase abort, выполнив ее в контейнере с установщиком.
Файл конфигурации, передаваемый через параметр --config при запуске установщика, должен быть тем же, с которым проводилась первоначальная установка.
Закрытое окружение, работа через proxy и стороннее хранилище образов контейнеров
Установка из стороннего хранилища образов контейнеров
Доступно в следующих редакциях: SE, SE+, EE, CSE Lite, CSE Pro.
DKP можно установить из стороннего хранилища образов контейнеров или через проксирующий сервер внутри закрытого контура.
DKP поддерживает работу только с Bearer token-схемой авторизации в хранилище образов контейнеров.
Протестирована и гарантируется работа со следующими container registries: Nexus, Harbor, Artifactory, Docker Registry, Quay.
При работе со сторонним хранилищами образов контейнеров не используйте учетную запись администратора для доступа к нему со стороны DKP. Используйте отдельную учетную запись с правами только на чтение и только в пределах нужного раздела в хранилище. Ознакомьтесь с примером создания такой учетной записи.
При установке DKP можно настроить на работу со сторонним хранилищем образов контейнеров (например, проксирующий registry внутри закрытого контура).
Установите следующие параметры в ресурсе InitConfiguration:
imagesRepo: <PROXY_REGISTRY>/<DECKHOUSE_REPO_PATH>/ee— адрес образа DKP EE в стороннем registry. Пример:imagesRepo: registry.deckhouse.ru/deckhouse/ee;registryDockerCfg: <BASE64>— права доступа к стороннему registry, зашифрованные в Base64.
Если разрешен анонимный доступ к образам DKP в стороннем registry, registryDockerCfg должен выглядеть следующим образом:
{"auths": { "<PROXY_REGISTRY>": {}}}
Приведенное значение должно быть закодировано в Base64.
Если для доступа к образам DKP в стороннем registry необходима аутентификация, registryDockerCfg должен выглядеть следующим образом:
{"auths": { "<PROXY_REGISTRY>": {"username":"<PROXY_USERNAME>","password":"<PROXY_PASSWORD>","auth":"<AUTH_BASE64>"}}}
где:
<PROXY_USERNAME>— имя пользователя для аутентификации на<PROXY_REGISTRY>;<PROXY_PASSWORD>— пароль пользователя для аутентификации на<PROXY_REGISTRY>;<PROXY_REGISTRY>— адрес стороннего registry в виде<HOSTNAME>[:PORT];<AUTH_BASE64>— строка вида<PROXY_USERNAME>:<PROXY_PASSWORD>, закодированная в Base64.
Итоговое значение для registryDockerCfg должно быть также закодировано в Base64.
Вы можете использовать следующий скрипт для генерации registryDockerCfg:
declare MYUSER='<PROXY_USERNAME>'
declare MYPASSWORD='<PROXY_PASSWORD>'
declare MYREGISTRY='<PROXY_REGISTRY>'
MYAUTH=$(echo -n "$MYUSER:$MYPASSWORD" | base64 -w0)
MYRESULTSTRING=$(echo -n "{\"auths\":{\"$MYREGISTRY\":{\"username\":\"$MYUSER\",\"password\":\"$MYPASSWORD\",\"auth\":\"$MYAUTH\"}}}" | base64 -w0)
echo "$MYRESULTSTRING"
Для настройки нестандартных конфигураций сторонних registries в InitConfiguration предусмотрены еще два параметра:
registryCA— корневой сертификат, которым можно проверить сертификат registry (если registry использует самоподписанные сертификаты);registryScheme— протокол доступа к registry (HTTPилиHTTPS). По умолчанию —HTTPS.
Особенности настройки Nexus
При взаимодействии с репозиторием типа docker расположенным в Nexus (например, при выполнении команд docker pull, docker push) требуется указывать адрес в формате <NEXUS_URL>:<REPOSITORY_PORT>/<PATH>.
Использование значения URL из параметров репозитория Nexus недопустимо
При использовании менеджера репозиториев Nexus должны быть выполнены следующие требования:
- Создан проксирующий репозиторий Docker («Administration» → «Repository» → «Repositories»):
- Установлен в
0параметрMaximum metadata ageдля репозитория.
- Установлен в
- Настроен контроль доступа:
- Создана роль Nexus («Administration» → «Security» → «Roles») со следующими полномочиями:
nx-repository-view-docker-<репозиторий>-browsenx-repository-view-docker-<репозиторий>-read
- Создан пользователь («Administration» → «Security» → «Users») с ролью Nexus.
- Создана роль Nexus («Administration» → «Security» → «Roles») со следующими полномочиями:
Настройка:
-
Создайте проксирующий репозиторий Docker («Administration» → «Repository» → «Repositories»), указывающий на публичное хранилище образов контейнеров Deckhouse:

- Заполните поля страницы создания репозитория следующим образом:
Nameдолжно содержать имя создаваемого репозитория, напримерd8-proxy.Repository Connectors / HTTPилиRepository Connectors / HTTPSдолжно содержать выделенный порт для создаваемого репозитория, например8123или иной.Remote storageдолжно иметь значениеhttps://registry.deckhouse.ru/.Auto blocking enabledиNot found cache enabledмогут быть выключены для отладки; в противном случае их следует включить.Maximum Metadata Ageдолжно быть равно0.- Если планируется использовать коммерческую редакцию Deckhouse Kubernetes Platform, флажок
Authenticationдолжен быть включен, а связанные поля должны быть заполнены следующим образом:Authentication Typeдолжно иметь значениеUsername.Usernameдолжно иметь значениеlicense-token.Passwordдолжно содержать ключ лицензии Deckhouse Kubernetes Platform.

- Настройте контроль доступа Nexus для доступа DKP к созданному репозиторию:
-
Создайте роль Nexus («Administration» → «Security» → «Roles») с полномочиями
nx-repository-view-docker-<репозиторий>-browseиnx-repository-view-docker-<репозиторий>-read.
-
Создайте пользователя («Administration» → «Security» → «Users») с ролью, созданной выше.

-
В результате образы DKP будут доступны, например, по следующему адресу: https://<NEXUS_HOST>:<REPOSITORY_PORT>/deckhouse/ee:<d8s-version>.
Особенности настройки Harbor
Используйте функцию Harbor Proxy Cache.
- Настройте доступ к registry:
- в боковом меню перейдите в раздел «Administration» → «Registries» и нажмите «New Endpoint», чтобы добавить эндпоинт для registry;
- в выпадающем списке «Provider» выберите «Docker Registry»;
- в поле «Name» укажите имя эндпоинта на свое усмотрение;
- в поле «Endpoint URL» укажите
https://registry.deckhouse.ru; - в поле «Access ID» укажите
license-token; - в поле «Access Secret» укажите свой лицензионный ключ Deckhouse Kubernetes Platform;
- задайте остальные параметры по своему усмотрению;
- нажмите «ОК», чтобы подтвердить создание эндпоинта для registry.

- Создайте новый проект:
- в боковом меню перейдите в раздел «Projects» и нажмите «New Project», чтобы добавить проект;
- в поле «Project Name» укажите любое имя проекта на свое усмотрение (например,
d8s). Указанное имя будет частью URL-адреса; - в поле «Access Level» выберите «Public»;
- включите «Proxy Cache» и в выпадающем списке выберите registry, созданный ранее;
- задайте остальные параметры по своему усмотрению;
- нажмите «ОК», чтобы подтвердить создание проекта.

После настройки Harbor образы DKP станут доступны по адресу следующего вида: https://your-harbor.com/d8s/deckhouse/ee:{d8s-version}.
Ручная загрузка образов DKP, БД уязвимостей в приватное хранилище
Утилита d8 mirror недоступна для использования с редакциями Community Edition (CE) и Basic Edition (BE).
О текущем статусе версий на каналах обновлений можно узнать на releases.deckhouse.ru.
-
Скачайте образы DKP в выделенную директорию, используя команду
d8 mirror pull.По умолчанию
d8 mirror pullскачивает только актуальные версии DKP, базы данных сканера уязвимостей (если они входят в редакцию DKP) и официально поставляемых модулей. Например, для Deckhouse Kubernetes Platform 1.59 будет скачана только версия 1.59.12, т. к. этого достаточно для обновления платформы с 1.58 до 1.59.Выполните следующую команду (укажите код редакции и лицензионный ключ), чтобы скачать образы актуальных версий:
d8 mirror pull \ --source='registry.deckhouse.ru/deckhouse/<EDITION>' \ --license='<LICENSE_KEY>' /home/user/d8-bundleгде:
--source— адрес хранилища образов контейнеров (container registry) Deckhouse Kubernetes Platform.<EDITION>— код редакции Deckhouse Kubernetes Platform (например,ee,se,se-plus). По умолчанию параметр--sourceссылается на редакцию Enterprise Edition (ee) и может быть опущен.--license— параметр для указания лицензионного ключа Deckhouse Kubernetes Platform для аутентификации в официальном хранилище образов контейнеров<LICENSE_KEY>— лицензионный ключ Deckhouse Kubernetes Platform./home/user/d8-bundle— директория, в которой будут расположены пакеты образов. Будет создана, если не существует.
Если загрузка образов будет прервана, повторный вызов команды продолжит загрузку, если с момента ее остановки прошло не более суток.
Пример команды для загрузки всех версий DKP EE начиная с версии 1.59 (укажите лицензионный ключ):
d8 mirror pull \ --license='<LICENSE_KEY>' \ --since-version=1.59 /home/user/d8-bundleПример команды для загрузки актуальных версий DKP SE (укажите лицензионный ключ):
d8 mirror pull \ --license='<LICENSE_KEY>' \ --source='registry.deckhouse.ru/deckhouse/se' \ /home/user/d8-bundleПример команды для загрузки образов DKP из стороннего хранилища образов контейнеров:
d8 mirror pull \ --source='corp.company.com:5000/sys/deckhouse' \ --source-login='<USER>' --source-password='<PASSWORD>' /home/user/d8-bundleПример команды для загрузки пакета баз данных сканера уязвимостей:
d8 mirror pull \ --license='<LICENSE_KEY>' \ --no-platform --no-modules /home/user/d8-bundleПример команды для загрузки пакетов всех доступных дополнительных модулей:
d8 mirror pull \ --license='<LICENSE_KEY>' \ --no-platform --no-security-db /home/user/d8-bundleПример команды для загрузки пакетов модулей
strongholdиsecrets-store-integration:d8 mirror pull \ --license='<LICENSE_KEY>' \ --no-platform --no-security-db \ --include-module stronghold \ --include-module secrets-store-integration \ /home/user/d8-bundleПример команды для загрузки модуля
strongholdс semver^ограничением от версии 1.2.0:d8 mirror pull \ --license='<LICENSE_KEY>' \ --no-platform --no-security-db \ --include-module stronghold@1.2.0 \ /home/user/d8-bundleПример команды для загрузки модуля
secrets-store-integrationс semver~ограничением от версии 1.1.0:d8 mirror pull \ --license='<LICENSE_KEY>' \ --no-platform --no-security-db \ --include-module secrets-store-integration@~1.1.0 \ /home/user/d8-bundleПример команды для загрузки точной версии модуля
stronghold1.2.5 с публикацией во все каналы релизов:d8 mirror pull \ --license='<LICENSE_KEY>' \ --no-platform --no-security-db \ --include-module stronghold@=v1.2.5 \ /home/user/d8-bundle
-
На хост с доступом к хранилищу образов контейнеров, куда нужно загрузить образы DKP, скопируйте загруженный пакет образов DKP и установите Deckhouse CLI.
-
Загрузите образы DKP в хранилище с помощью команды
d8 mirror push.Команда
d8 mirror pushзагружает в хранилище образы из всех пакетов, которые присутствуют в переданной директории. При необходимости выгрузить в хранилище только часть пакетов, вы можете либо выполнить команду для каждого необходимого пакета образов передав ей прямой путь до пакета tar вместо директории, либо убрав расширение.tarу ненужных пакетов или переместив их вне директории.Пример команды для загрузки пакетов образов из директории
/mnt/MEDIA/d8-images(укажите данные для авторизации при необходимости):d8 mirror push /mnt/MEDIA/d8-images 'corp.company.com:5000/sys/deckhouse' \ --registry-login='<USER>' --registry-password='<PASSWORD>'Перед загрузкой образов убедитесь, что путь для загрузки в хранилище образов контейнеров существует (в примере —
/sys/deckhouse) и у используемой учетной записи есть права на запись.Если вы используете Harbor, вы не сможете выгрузить образы в корень проекта, используйте выделенный репозиторий в проекте для размещения образов DKP.
-
После загрузки образов в хранилище можно переходить к установке DKP. Воспользуйтесь руководством по быстрому старту.
При запуске установщика используйте хранилище в которое ранее были загружены образы, а не официальное публичное хранилище образов контейнеров DKP. Для примера выше, адрес запуска установщика будет иметь вид
corp.company.com:5000/sys/deckhouse/install:stable, вместоregistry.deckhouse.ru/deckhouse/ee/install:stable.В ресурсе InitConfiguration при установке также используйте адрес вашего container registry и данные авторизации (параметры imagesRepo, registryDockerCfg или шаг 3 руководства по быстрому старту).
Создание кластера и запуск DKP без использования каналов обновлений
Этот способ следует использовать только в случае, если в приватном хранилище нет образов, содержащих информацию о каналах обновлений.
Если необходимо установить DKP с отключенным автоматическим обновлением:
- Используйте тег образа установщика соответствующей версии. Например, если вы хотите установить релиз
v1.44.3, используйте образyour.private.registry.com/deckhouse/install:v1.44.3. - Укажите соответствующий номер версии в параметре deckhouse.devBranch в InitConfiguration.
Не указывайте параметр deckhouse.releaseChannel в InitConfiguration.
Если вы хотите отключить автоматические обновления у уже установленного Deckhouse (включая обновления patch-релизов), удалите параметр releaseChannel из конфигурации модуля deckhouse.
Использование proxy-сервера
Доступно в следующих редакциях: BE, SE, SE+, EE, CSE Lite (1.67), CSE Pro (1.67).
Для настройки DKP на использование proxy используйте параметр proxy ClusterConfiguration.
Пример:
apiVersion: deckhouse.io/v1
kind: ClusterConfiguration
clusterType: Cloud
cloud:
provider: OpenStack
prefix: main
podSubnetCIDR: 10.111.0.0/16
serviceSubnetCIDR: 10.222.0.0/16
kubernetesVersion: "Automatic"
cri: "Containerd"
clusterDomain: "cluster.local"
proxy:
httpProxy: "http://user:password@proxy.company.my:3128"
httpsProxy: "https://user:password@proxy.company.my:8443"
Автозагрузка переменных proxy пользователям в CLI
Начиная с версии платформы DKP v1.67 больше не настраивается файл /etc/profile.d/d8-system-proxy.sh, который устанавливал переменные proxy для пользователей. Для автозагрузки переменных proxy пользователям в CLI используйте NodeGroupConfiguration:
apiVersion: deckhouse.io/v1alpha1
kind: NodeGroupConfiguration
metadata:
name: profile-proxy.sh
spec:
bundles:
- '*'
nodeGroups:
- '*'
weight: 99
content: |
{{- if .proxy }}
{{- if .proxy.httpProxy }}
export HTTP_PROXY={{ .proxy.httpProxy | quote }}
export http_proxy=${HTTP_PROXY}
{{- end }}
{{- if .proxy.httpsProxy }}
export HTTPS_PROXY={{ .proxy.httpsProxy | quote }}
export https_proxy=${HTTPS_PROXY}
{{- end }}
{{- if .proxy.noProxy }}
export NO_PROXY={{ .proxy.noProxy | join "," | quote }}
export no_proxy=${NO_PROXY}
{{- end }}
bb-sync-file /etc/profile.d/profile-proxy.sh - << EOF
export HTTP_PROXY=${HTTP_PROXY}
export http_proxy=${HTTP_PROXY}
export HTTPS_PROXY=${HTTPS_PROXY}
export https_proxy=${HTTPS_PROXY}
export NO_PROXY=${NO_PROXY}
export no_proxy=${NO_PROXY}
EOF
{{- else }}
rm -rf /etc/profile.d/profile-proxy.sh
{{- end }}
