Базы данных различаются по нескольким ключевым аспектам, включая модель данных, язык запросов, масштабируемость, схему данных и многие другие характеристики. Вот основные различия между SQL и NoSQL базами данных:
Реляционная модель: SQL базы данных используют реляционную модель, где данные хранятся в таблицах, состоящих из строк и столбцов. Таблицы могут быть связаны друг с другом с помощью ключей (первичных и внешних).
Схема: Строгая схема данных, которая требует определения структуры данных (таблиц, столбцов и типов данных) перед вставкой данных.
Нереляционные модели: NoSQL базы данных используют различные модели данных, включая документные, графовые, ключ-значение и колоночные модели.
Гибкая схема: NoSQL базы данных часто не требуют предварительного определения схемы, что позволяет легко изменять структуру данных.
Язык SQL: Используют Structured Query Language (SQL) для выполнения операций с базой данных, таких как создание, чтение, обновление и удаление данных (CRUD-операции).
Разнообразные языки запросов: В зависимости от типа NoSQL базы данных, могут использоваться разные языки запросов и API. Например, MongoDB использует запросы на основе JSON, а Cassandra использует CQL (Cassandra Query Language).
Вертикальная масштабируемость: SQL базы данных обычно масштабируются путем увеличения ресурсов (памяти, процессоров) на одном сервере.
Ограниченная горизонтальная масштабируемость: Хотя можно настроить кластеризацию и репликацию, горизонтальная масштабируемость может быть сложной и ограниченной.
Горизонтальная масштабируемость: NoSQL базы данных изначально спроектированы для горизонтального масштабирования, что позволяет распределять данные и нагрузку по множеству серверов.
Легкость масштабирования: Добавление новых узлов в кластер часто происходит без значительных изменений в архитектуре приложения.
ACID-свойства: Поддержка свойств ACID (Atomicity, Consistency, Isolation, Durability), что обеспечивает надежную обработку транзакций и согласованность данных.
BASE-свойства: Поддержка свойств BASE (Basically Available, Soft state, Eventual consistency), что позволяет достичь высокой доступности и производительности, но может допускать временную несогласованность данных.
Традиционные бизнес-приложения: Финансовые системы, CRM-системы, ERP-системы, где важна согласованность данных и транзакционная целостность.
Веб-приложения и социальные сети: Где данные могут быть неструктурированными или полуструктурированными и требуется высокая скорость доступа к данным.
Интернет вещей (IoT): Для хранения больших объемов данных, собираемых с различных устройств.
Аналитика и большие данные: Где требуется быстрое чтение и запись больших объемов данных, часто в реальном времени.
Ставь 👍 и забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16❤1
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14🔥6
Самым популярным in-memory (в памяти) хранилищем данных для Java является Hazelcast. Это распределенное in-memory хранилище данных, которое обеспечивает высокую доступность, масштабируемость и производительность. Hazelcast часто используется в Java-приложениях для кэширования, управления сеансами, распределенных вычислений и многого другого.
Hazelcast легко интегрируется с Java-приложениями. Библиотека Hazelcast доступна через Maven и Gradle, что делает процесс подключения простым и удобным.
Так как данные хранятся в памяти, доступ к ним происходит очень быстро, что значительно улучшает производительность приложений.
Hazelcast поддерживает горизонтальное масштабирование, что позволяет добавлять новые узлы в кластер без значительных изменений в конфигурации приложения. Это обеспечивает гибкость и возможность обрабатывать увеличивающиеся нагрузки.
Hazelcast предоставляет различные структуры данных, такие как карты (maps), множества (sets), очереди (queues), списки (lists) и другие, которые можно использовать в распределенном режиме.
Hazelcast поддерживает репликацию данных между узлами кластера, что обеспечивает высокую доступность и отказоустойчивость системы.
В Hazelcast можно выполнять распределенные вычисления с использованием MapReduce, входящих задач и прочих механизмов.
<dependency>
<groupId>com.hazelcast</groupId>
<artifactId>hazelcast</artifactId>
<version>4.2.5</version>
</dependency>
import com.hazelcast.core.Hazelcast;
import com.hazelcast.core.HazelcastInstance;
import com.hazelcast.map.IMap;
public class HazelcastExample {
public static void main(String[] args) {
// Создаем экземпляр Hazelcast
HazelcastInstance hazelcastInstance = Hazelcast.newHazelcastInstance();
// Получаем ссылку на распределенную карту
IMap<Integer, String> map = hazelcastInstance.getMap("my-distributed-map");
// Добавляем данные в карту
map.put(1, "value1");
map.put(2, "value2");
// Получаем данные из карты
String value1 = map.get(1);
String value2 = map.get(2);
// Выводим значения
System.out.println("Value for key 1: " + value1);
System.out.println("Value for key 2: " + value2);
// Закрываем экземпляр Hazelcast
hazelcastInstance.shutdown();
}
}
Это распределенная in-memory платформа, которая предоставляет как in-memory хранилище, так и возможности для распределенных вычислений и обработки данных в реальном времени.
Простое и мощное кэширование в памяти, часто используемое для ускорения доступа к часто запрашиваемым данным. Поддерживает интеграцию с Hibernate.
В то время как Redis чаще используется как отдельный сервер для in-memory данных, он также может использоваться в Java-приложениях через клиентские библиотеки, такие как Jedis и Lettuce.
Ставь 👍 и забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥2
Это механизм в Kubernetes, позволяющий пользователям определять свои собственные ресурсы (Custom Resources) и управлять ими так же, как и встроенными ресурсами Kubernetes (например, Pod, Service, Deployment). CRD расширяет API Kubernetes, предоставляя возможность создать пользовательские объекты с уникальными схемами и поведением.
CRD позволяет разработчикам расширять стандартный API Kubernetes, добавляя новые типы ресурсов, специфичные для их приложений или доменов.
Пользователи могут определить схему (структуру) своих пользовательских ресурсов с помощью YAML или JSON. Это включает описание полей, типов данных, обязательных полей и других ограничений.
Для управления состоянием пользовательских ресурсов можно разработать кастомные контроллеры (Custom Controllers), которые будут следить за изменениями в этих ресурсах и выполнять соответствующие действия.
Создаем YAML-файл для определения CRD, который будет описывать пользовательский ресурс типа
MyResource
: apiVersion: apiextensions.k8s.io/v1
kind: CustomResourceDefinition
metadata:
name: myresources.example.com
spec:
group: example.com
versions:
- name: v1
served: true
storage: true
schema:
openAPIV3Schema:
type: object
properties:
spec:
type: object
properties:
field1:
type: string
field2:
type: integer
scope: Namespaced
names:
plural: myresources
singular: myresource
kind: MyResource
shortNames:
- myr
Примените файл CRD, чтобы создать новый тип ресурса в Kubernetes:
kubectl apply -f myresource-crd.yaml
После создания CRD можно создавать объекты пользовательского ресурса:
apiVersion: example.com/v1
kind: MyResource
metadata:
name: my-custom-resource
spec:
field1: "value1"
field2: 42
Примените файл с пользовательским ресурсом:
kubectl apply -f my-custom-resource.yaml
Чтобы управлять состоянием пользовательских ресурсов, необходимо создать контроллер. Контроллеры обычно пишутся на Go с использованием фреймворка
kubebuilder
или operator-sdk
.Установка Kubebuilder. Заполнение логики контроллера в сгенерированных файлах и деплой оператора в кластер.
curl -L -o kubebuilder https://github.com/kubernetes-sigs/kubebuilder/releases/download/vX.Y.Z/kubebuilder_linux_amd64
chmod +x kubebuilder
mv kubebuilder /usr/local/bin/
Создание нового проекта оператора:
kubebuilder init --domain example.com --repo github.com/your-repo/my-operator
kubebuilder create api --group example --version v1 --kind MyResource
Ставь 👍 и забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥5
Доступ к кастомным ресурсам организуется с помощью механизмов аутентификации (проверка идентификации пользователя), авторизации (определение прав доступа), контроля доступа через URL (например, через фильтры или маршрутизацию), использования сессий и токенов (например, JWT), а также с помощью ACL (списки контроля доступа) или ролей пользователей для ограничения прав.
Настройка ролей и привилегий для управления доступом к кастомным ресурсам.
apiVersion: rbac.authorization.k8s.io/v1
kind: Role
metadata:
name: myresource-role
rules:
- apiGroups: ["example.com"]
resources: ["myresources"]
verbs: ["get", "list", "watch", "create", "update", "patch"]
Использование валидирующих вебхуков для валидации и контроля запросов к кастомным ресурсам.
apiVersion: admissionregistration.k8s.io/v1
kind: ValidatingWebhookConfiguration
metadata:
name: myresource-webhook
webhooks:
- name: myresource.example.com
clientConfig:
service:
name: myresource-webhook-service
namespace: default
path: "/validate"
rules:
- operations: ["CREATE", "UPDATE"]
apiGroups: ["example.com"]
apiVersions: ["v1"]
resources: ["myresources"]
Определение схемы в CRD для автоматической проверки данных.
apiVersion: apiextensions.k8s.io/v1
kind: CustomResourceDefinition
metadata:
name: myresources.example.com
spec:
group: example.com
versions:
- name: v1
schema:
openAPIV3Schema:
type: object
properties:
spec:
type: object
properties:
field1:
type: string
field2:
type: integer
minimum: 0
names:
plural: myresources
singular: myresource
kind: MyResource
Автоматизация управления
Написание контроллеров для управления состоянием кастомных ресурсов.
Интерактивное управление
Использование команд
kubectl
и API для взаимодействия с кастомными ресурсами. kubectl apply -f my-custom-resource.yaml
kubectl get myresources
kubectl describe myresource my-custom-resource
Ставь 👍 и забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👍2
В Kubernetes "роуты" (routes) обычно ассоциируются с концепцией маршрутизации сетевого трафика к нужным сервисам и подам в кластере.
Абстракция, определяющая логический набор подов и политику доступа к ним. Обеспечивает стабильную точку доступа (IP-адрес и порт) к динамически изменяющемуся набору подов.
ClusterIP: Доступ только внутри кластера.
NodePort: Открывает статический порт на каждом узле для внешнего доступа.
LoadBalancer: Создает внешний балансировщик нагрузки (используется в облачных провайдерах).
apiVersion: v1
kind: Service
metadata:
name: my-service
spec:
selector:
app: my-app
ports:
- protocol: TCP
port: 80
targetPort: 9376
type: ClusterIP
API-объект, который управляет внешним доступом к сервисам в кластере, обычно HTTP/HTTPS.
Предоставляет возможность настройки правил маршрутизации, SSL/TLS терминальной точки, виртуальных хостов и балансировки нагрузки. Специальный компонент, который реализует правила Ingress.
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: example-ingress
spec:
rules:
- host: example.com
http:
paths:
- path: /
pathType: Prefix
backend:
service:
name: my-service
port:
number: 80
Объект, определяющий правила контроля трафика для подов. Ограничивает и контролирует входящий и исходящий сетевой трафик между подами и сервисами, обеспечивая безопасность сети.
apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
name: example-network-policy
spec:
podSelector:
matchLabels:
role: db
policyTypes:
- Ingress
- Egress
ingress:
- from:
- podSelector:
matchLabels:
role: frontend
egress:
- to:
- podSelector:
matchLabels:
role: backend
Маршрутизирует запросы на уровне кластера, обеспечивая доступ к группе подов через один IP-адрес.
Обеспечивает маршрутизацию HTTP/HTTPS запросов от внешних клиентов к нужным сервисам в кластере, используя правила маршрутизации.
Контролируют сетевой трафик между подами, ограничивая или разрешая доступ по заданным правилам.
Services и Ingress предоставляют стабильные точки доступа к подам, упрощая взаимодействие между компонентами приложения и внешними клиентами.
Network Policies обеспечивают контроль сетевого трафика, что помогает защитить приложение от несанкционированного доступа и атак.
Services типа LoadBalancer и Ingress могут распределять входящий трафик между подами, обеспечивая равномерную нагрузку и улучшая производительность.
Ставь 👍 и забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍2
Шифрование переменных в CI/CD пайплайнах является критически важной задачей для обеспечения безопасности секретных данных, таких как API-ключи, пароли и другие конфиденциальные данные.
Предоставляют встроенные механизмы для безопасного хранения и использования секретов.
Добавление секретов в репозиторий: Перейдите в настройки репозитория (Settings) -> Secrets and variables -> Actions -> New repository secret. Добавьте новый секрет, указав имя и значение.
Использование секретов в workflow
name: CI Pipeline
on: [push]
jobs:
build:
runs-on: ubuntu-latest
steps:
- name: Checkout code
uses: actions/checkout@v2
- name: Use secret
run: echo ${{ secrets.MY_SECRET }}
Добавление переменных в GitLab: Перейдите в настройки проекта (Settings) -> CI/CD -> Variables -> Expand -> Add variable. Добавьте новую переменную, указав имя и значение, и отметьте ее как Protected и Masked.
Использование переменных в
.gitlab-ci.yml
stages:
- build
build:
stage: build
script:
- echo $MY_SECRET
Добавление секретов в Jenkins: Перейдите в настройки Jenkins -> Manage Jenkins -> Manage Credentials -> (global) -> Add Credentials. Добавьте новый секрет, указав Scope, ID и значение.
Использование секретов в Jenkins pipeline
pipeline {
agent any
environment {
MY_SECRET = credentials('my-secret-id')
}
stages {
stage('Build') {
steps {
sh 'echo $MY_SECRET'
}
}
}
}
Установка и настройка Vault: Запустите Vault сервер и инициализируйте его. Создайте секрет и настройте политики доступа.
Пример использования Vault в CI/CD:
Создайте и инициализируйте секрет
vault kv put secret/myapp MY_SECRET=my_secret_value
Включите аутентификацию и предоставьте доступ CI/CD системе
vault auth enable approle
vault write auth/approle/role/my-role token_policies=my-policy
Использование секрета в GitHub Actions
jobs:
build:
runs-on: ubuntu-latest
steps:
- name: Checkout code
uses: actions/checkout@v2
- name: Set up Vault
run: |
curl -o vault.zip https://releases.hashicorp.com/vault/1.8.2/vault_1.8.2_linux_amd64.zip
unzip vault.zip
sudo mv vault /usr/local/bin/
vault login ${{ secrets.VAULT_TOKEN }}
vault kv get -field=MY_SECRET secret/myapp
Зашифруйте файл с переменными
gpg --symmetric --cipher-algo AES256 secrets.env
Расшифруйте файл в CI/CD процессе
jobs:
build:
runs-on: ubuntu-latest
steps:
- name: Checkout code
uses: actions/checkout@v2
- name: Decrypt secrets
run: |
gpg --batch --passphrase ${{ secrets.GPG_PASSPHRASE }} -o secrets.env -d secrets.env.gpg
source secrets.env
Ставь 👍 и забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
Протоколы: TCP (надежная передача данных), UDP (быстрая и ненадёжная), HTTP/HTTPS (веб-протоколы), FTP (передача файлов), SMTP/IMAP/POP3 (почтовые протоколы), WebSocket (двусторонняя связь) и DNS (разрешение имён).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14😁8💊1
Без демона: Не требует отдельного демона, контейнеры работают как процессы.
Совместимость с Docker: Поддерживает Docker CLI.
rootless режим: Запуск без привилегий суперпользователя.
podman run -d --name my-container nginx
Интеграция с Kubernetes: Оптимизирован для Kubernetes.
Легковесность: Минимальные зависимости.
Поддержка OCI: Соответствует стандартам Open Container Initiative.
criSocket: /var/run/crio/crio.sock
Высокая производительность: Эффективное управление контейнерами.
Интеграция с Kubernetes: Используется напрямую через CRI.
Поддержка OCI: Полная совместимость с OCI.
ctr run -d --name my-container docker.io/library/nginx:latest
Полная виртуализация ОС: Изоляция процессов, сети и файловой системы.
Управление контейнерами: Удобные инструменты для управления.
Гибкость: Поддержка различных дистрибутивов Linux.
lxc launch ubuntu:20.04 my-container
Без демона: Запуск контейнеров без постоянного демона.
Безопасность: Изолированные окружения и аутентификация.
Интеграция с Kubernetes: Альтернатива Docker в Kubernetes.
rkt run --insecure-options=image docker://nginx
Виртуализация на уровне ОС: Запуск изолированных виртуальных окружений.
Производительность: Минимальная изоляция для высокой производительности.
Управление ресурсами: Контроль ресурсов для каждого окружения.
vzctl create 101 --ostemplate centos-7
Фокус на HPC: Оптимизирован для научных вычислений.
rootless контейнеры: Запуск без прав суперпользователя.
Совместимость: Поддержка Docker контейнеров и OCI форматов.
singularity pull docker://nginx
Ставь 👍 и забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥3
Без демона: Не требует отдельного демона, контейнеры работают как процессы.
Совместимость с Docker: Поддерживает Docker CLI.
rootless режим: Запуск без привилегий суперпользователя.
podman run -d --name my-container nginx
Интеграция с Kubernetes: Оптимизирован для Kubernetes.
Легковесность: Минимальные зависимости.
Поддержка OCI: Соответствует стандартам Open Container Initiative.
criSocket: /var/run/crio/crio.sock
Высокая производительность: Эффективное управление контейнерами.
Интеграция с Kubernetes: Используется напрямую через CRI.
Поддержка OCI: Полная совместимость с OCI.
ctr run -d --name my-container docker.io/library/nginx:latest
Полная виртуализация ОС: Изоляция процессов, сети и файловой системы.
Управление контейнерами: Удобные инструменты для управления.
Гибкость: Поддержка различных дистрибутивов Linux.
lxc launch ubuntu:20.04 my-container
Без демона: Запуск контейнеров без постоянного демона.
Безопасность: Изолированные окружения и аутентификация.
Интеграция с Kubernetes: Альтернатива Docker в Kubernetes.
rkt run --insecure-options=image docker://nginx
Виртуализация на уровне ОС: Запуск изолированных виртуальных окружений.
Производительность: Минимальная изоляция для высокой производительности.
Управление ресурсами: Контроль ресурсов для каждого окружения.
vzctl create 101 --ostemplate centos-7
Фокус на HPC: Оптимизирован для научных вычислений.
rootless контейнеры: Запуск без прав суперпользователя.
Совместимость: Поддержка Docker контейнеров и OCI форматов.
singularity pull docker://nginx
Ставь 👍 и забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤1
В Ansible хэндлеры и шаблоны являются важными инструментами для управления конфигурацией и автоматизации задач. Они позволяют эффективно управлять изменениями конфигурации и генерировать файлы конфигураций динамически. Вот описание моего опыта использования хэндлеров и шаблонов в ролях Ansible.
Это задачи, которые выполняются только при вызове. Они используются для выполнения действий после изменения состояния системы, например, перезагрузки службы после обновления конфигурационного файла.
Определение хэндлеров в роли
# roles/my_role/handlers/main.yml
- name: restart nginx
service:
name: nginx
state: restarted
Вызов хэндлера в задаче
# roles/my_role/tasks/main.yml
- name: Copy nginx configuration file
template:
src: nginx.conf.j2
dest: /etc/nginx/nginx.conf
notify:
- restart nginx
Используют движок Jinja2 для динамического создания файлов на основе переменных. Это позволяет генерировать конфигурационные файлы, которые могут адаптироваться к различным средам и параметрам.
Определение шаблона
# roles/my_role/templates/nginx.conf.j2
server {
listen 80;
server_name {{ server_name }};
location / {
proxy_pass http://{{ proxy_pass }};
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
}
}
Использование шаблона в задаче
# roles/my_role/tasks/main.yml
- name: Generate nginx configuration from template
template:
src: nginx.conf.j2
dest: /etc/nginx/nginx.conf
vars:
server_name: "example.com"
proxy_pass: "127.0.0.1:8080"
notify:
- restart nginx
В проектах автоматизации развертывания веб-серверов я использовал хэндлеры для перезапуска служб после обновления конфигурационных файлов. Шаблоны позволяли гибко настраивать конфигурации для различных окружений (development, staging, production).
Для управления конфигурацией баз данных я использовал шаблоны для генерации файлов конфигураций на основе переменных, которые определяют параметры подключения и настройки базы данных.
Использование хэндлеров для перезагрузки служб после установки или обновления пакетов. Например, перезапуск Apache после установки новых модулей или обновления конфигурации.
Ставь 👍 и забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14
В Ansible плейбуки и роли могут быть запущены различными способами в зависимости от контекста и требований. Основные методы включают использование командной строки, автоматизацию через CI/CD системы и запуск через API. Вот описание основных способов запуска плейбуков и ролей:
Самый распространенный и прямолинейный способ запуска плейбуков и ролей — это использование командной строки с командой
ansible-playbook
.Запуск плейбука
ansible-playbook site.yml
Запуск плейбука с указанием инвентарного файла
ansible-playbook -i inventory/hosts site.yml
Запуск плейбука с переменными
ansible-playbook -i inventory/hosts site.yml -e "variable1=value1 variable2=value2"
Запуск определенной роли в плейбуке
Плейбук
# site.yml
- hosts: all
roles:
- role: my_role
Команда
ansible-playbook -i inventory/hosts site.yml
Многие современные проекты используют CI/CD системы, такие как Jenkins, GitLab CI, GitHub Actions и другие для автоматизации процесса развертывания и тестирования. Ansible легко интегрируется с такими системами.
Jenkins Pipeline
pipeline {
agent any
stages {
stage('Deploy') {
steps {
sh 'ansible-playbook -i inventory/hosts site.yml'
}
}
}
}
.gitlab-ci.yml
stages:
- deploy
deploy:
stage: deploy
script:
- ansible-playbook -i inventory/hosts site.yml
Ansible Tower (коммерческий продукт) и AWX (open-source версия Ansible Tower) предоставляют веб-интерфейс и API для управления и автоматизации Ansible задач.
В веб-интерфейсе Ansible Tower или AWX создайте новый шаблон задания (Job Template), укажите плейбук и инвентарь.
Запустите задание через веб-интерфейс или API.
Запуск через API
curl -X POST -H "Content-Type: application/json" -H "Authorization: Bearer YOUR_API_TOKEN" \
-d '{"inventory": "1", "job_template": "1"}' \
http://tower.example.com/api/v2/job_templates/1/launch/
Пример плейбука
site.yml
# site.yml
- hosts: all
roles:
- role: my_role
Запуск через командную строку
ansible-playbook -i inventory/hosts site.yml
Ставь 👍 и забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8