Java for Beginner
743 subscribers
708 photos
196 videos
12 files
1.14K links
Канал от новичков для новичков!
Изучайте Java вместе с нами!
Здесь мы обмениваемся опытом и постоянно изучаем что-то новое!

Наш YouTube канал - https://www.youtube.com/@Java_Beginner-Dev

Наш канал на RUTube - https://rutube.ru/channel/37896292/
Download Telegram
Что выведет код?

abstract class Animal050925 {
public Animal050925() {
System.out.print("Animal ");
makeSound();
}

abstract void makeSound();
}

class Dog050925 extends Animal050925 {
public Dog050925() {
System.out.print("Dog ");
}

void makeSound() {
System.out.print("Woof ");
}
}

public class Task050925 {
public static void main(String[] args) {
new Dog050925();
}
}


#Tasks
🤯2
Создал канал в сетке!

Присоединяйтесь! 🙂

https://set.ki/channel/35sLVoe
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Вопрос с собеседований

Что такое local inner class? 🤓

Ответ:

Local inner class
— класс, определенный внутри метода, с доступом к локальным переменным (если final или effectively final).

Пример:
void method() {
final int x = 10;
class Local {
void print() { System.out.println(x); }
}
new Local().print();
}

Полезен для временной логики в методе.


#собеседование
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🗓 История IT-технологий сегодня — 6 сентября


ℹ️ Кто родился в этот день

Влади́мир Алекса́ндрович Коте́льников (24 августа [6 сентября] 1908, Казань, Российская империя — 11 февраля 2005 года, Москва, Россия) — пионер теории информации и связи; теорема Котельникова (сэмплирование) — краеугольный камень цифровой обработки сигналов.

Лев Никола́евич Королёв (6 сентября 1926, Подольск — 5 января 2016, Москва) — советский и российский учёный в области радиофизики, радиотехники, электроники, информатики, радиоастрономии и криптографии, системный программист, развитие ПО и ОС для БЭСМ-6, становление программирования в СССР.


🌐 Знаковые события

1989 — из-за компьютерной ошибки 41 тыс. парижан получили письма, извещающие о том, что ими совершены убийства и грабежи вместо нарушений правил дорожного движения.


#Biography #Birth_Date #Events #06Сентября
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Kubernetes

Зачем миру нужен Kubernetes?

Представьте, что вы строите небоскреб. У вас есть тысячи кирпичей (контейнеров), краны (серверы), рабочие (процессы). Без грамотного архитектора и прораба всё превратится в хаос: кирпичи будут лежать криво, краны простаивать, а рабочие — спорить, кто за что отвечает.

Kubernetes
(сокр. K8s) — это и есть тот самый «цифровой прораб», который автоматизирует развертывание, масштабирование и управление контейнеризированными приложениями. Но это не просто инструмент — это стандарт де-факто для оркестрации контейнеров в мире cloud-native разработки.


Почему это важно?
Когда приложения разбиваются на микросервисы (десятки или сотни независимых компонентов), ручное управление ими становится невозможным. Kubernetes решает эту проблему, превращая инфраструктуру в «самонастраивающуюся» систему, которая:
- Автоматически восстанавливает упавшие сервисы
- Масштабирует нагрузку «на лету»
- Обеспечивает непрерывную доставку кода без простоя



История: от внутренних систем Google к мировому стандарту

2014: Рождение в недрах Google
Kubernetes не появился на пустом месте. Его корни уходят в Borg — секретную систему оркестрации, которую Google использовал с 2003 года для управления своими сервисами (Поиск, Gmail, YouTube). Borg обрабатывал миллионы контейнеров ежедневно, но был закрыт для внешнего мира.

В 2014 году Google, совместно с Red Hat и Other, открыли исходный код Kubernetes (название происходит от греческого слова «κυβερνήτης» — «капитан, рулевой»). Это был не «облегченный Borg», а переработанная система с учетом опыта Google, но адаптированная для открытого использования.

2015: Передача в CNCF
Google передал Kubernetes Cloud Native Computing Foundation (CNCF) — некоммерческой организации, поддерживающей cloud-native технологии. Это был стратегический ход: чтобы система стала стандартом, она должна быть нейтральной и развиваться сообществом. Сегодня Kubernetes — самый успешный проект CNCF, с участием AWS, Microsoft, IBM и тысяч разработчиков.


Почему именно Kubernetes победил?

На момент появления существовали конкуренты (Docker Swarm, Mesos), но K8s выделялся:
- Глубокая проработка edge cases (опыт Google с миллиардами запросов)
- Декларативная модель (описывайте «что нужно», а не «как сделать»)
- Экосистема расширений (API можно расширять без изменения ядра)


Архитектура: как устроен «цифровой прораб»

Kubernetes работает по принципу control plane + data plane. Это как центр управления полетами (control plane) и самолеты (data plane).

Control Plane: «мозг» кластера

Располагается на master-нодах (хотя термин «master» устарел — теперь используется control plane node).

Состоит из:
1. API Server
Что это: Единственная точка входа для всех операций (развертывание, мониторинг).
Как работает: Принимает REST-запросы, проверяет права (через RBAC), записывает изменения в etcd.
Нюанс: Все компоненты взаимодействуют через API Server, даже сам Kubernetes. Это обеспечивает единую точку контроля и аудита.


2. etcd
Что это: Распределенное хранилище «состояния кластера» (какая нода работает, какие поды запущены).
Как работает: Хранит данные в виде ключ-значение. При изменении состояния (например, запуске нового пода) etcd рассылает события.
Нюанс: Требует нечетного числа нод (3, 5, 7) для кворума. Потеря большинства нод — катастрофа (split-brain).


3. Scheduler
Что это: «Распределитель задач». Решает, на какой ноде запустить новый под.
Как работает: Анализирует ресурсы нод (CPU, память), правила (taints/tolerations, affinity), выбирает оптимальный вариант.
Нюанс: Можно написать кастомный scheduler через API, если стандартный не подходит (например, для HPC-задач).



#Java #middle #on_request #Kubernetes
👍5
Архитектура Kubernetes

Kubernetes работает по принципу control plane + data plane. Это как центр управления полетами (control plane) и самолеты (data plane).


Control Plane: "мозг" кластера

Располагается на master-нодах (хотя термин «master» устарел — теперь используется control plane node).

Состоит из:
1. API Server
Что это: Единственная точка входа для всех операций (развертывание, мониторинг).
Как работает: Принимает REST-запросы, проверяет права (через RBAC), записывает изменения в etcd.
Нюанс: Все компоненты взаимодействуют через API Server, даже сам Kubernetes. Это обеспечивает единую точку контроля и аудита.


2. etcd
Что это: Распределенное хранилище «состояния кластера» (какая нода работает, какие поды запущены).
Как работает: Хранит данные в виде ключ-значение. При изменении состояния (например, запуске нового пода) etcd рассылает события.
Нюанс: Требует нечетного числа нод (3, 5, 7) для кворума. Потеря большинства нод — катастрофа (split-brain).


3. Scheduler
Что это: «Распределитель задач». Решает, на какой ноде запустить новый под.
Как работает: Анализирует ресурсы нод (CPU, память), правила (taints/tolerations, affinity), выбирает оптимальный вариант.
Нюанс: Можно написать кастомный scheduler через API, если стандартный не подходит (например, для HPC-задач).


4. Controller Manager
Что это: Набор «контроллеров», следящих за состоянием кластера.
Как работает: Например, Deployment Controller следит, чтобы количество запущенных подов соответствовало желаемому. Если под падает — пересоздает его.
Нюанс: Контроллеры работают по принципу reconciliation loop: постоянно сравнивают текущее состояние с желаемым.


5. Cloud Controller Manager (опционально)
Что это: Интеграция с облачными провайдерами (AWS, GCP).
Как работает: Управляет балансировщиками нагрузки, томами, сетями через API облака.



Data Plane: "рабочие руки"

Состоит из worker nodes (рабочих нод), где запускаются приложения:
1. Kubelet
Что это: Агент на каждой ноде.
Как работает: Получает задания от API Server, запускает/останавливает контейнеры через container runtime (Docker, containerd).
Нюанс: Kubelet не перезапускает контейнеры сам — это делают контроллеры (например, через Deployment).


2. Kube-proxy
Что это: Сетевой прокси.
Как работает: Обеспечивает доступ к сервисам через iptables/IPVS. Например, при обращении к my-service перенаправляет трафик на поды.
Нюанс: В режиме IPVS используется хэширование для балансировки, что эффективнее iptables при 10k+ сервисов.


3. Container Runtime
Что это: Движок для запуска контейнеров (Docker, containerd, CRI-O).
Нюанс: Kubernetes использует CRI (Container Runtime Interface) — абстрактный API, поэтому можно менять runtime без пересборки K8s.



#Java #middle #on_request #Kubernetes
👍5
Основные понятия Kubernetes

Cluster (кластер)
Что это: Группа нод (физических/виртуальных машин), управляющих приложениями.
Зачем: Объединяет ресурсы в единый «суперкомпьютер».
Нюанс: В production используют multi-zone кластеры для отказоустойчивости (ноды в разных зонах AZ).


Node (нода)
Что это: Отдельный сервер в кластере (worker или control plane).
Нюанс: Ноды могут иметь taints («отметки»), чтобы блокировать запуск подов (например, dedicated=gpu:NoSchedule).


Pod
Что это: Минимальная единица развертывания. Группа контейнеров, разделяющих сеть и томы.
Почему не один контейнер?
- Сторонние контейнеры (sidecar) для логирования, мониторинга
- Общая файловая система (например, веб-сервер + статика)

Нюанс: Pod не переживает перезагрузку ноды — его пересоздает контроллер.


Service
Что это: Абстракция для доступа к подам через стабильный IP/DNS.

Типы:
- ClusterIP (внутри кластера)
- NodePort (порт на каждой ноде)
- LoadBalancer (облачный балансировщик)

Нюанс: Service использует kube-proxy и EndpointSlice для балансировки. При 1000+ подах лучше включить EndpointSlice (уменьшает нагрузку на etcd).


Deployment
Что это: Управляет состоянием подов через ReplicaSet.

Как работает:
- Описывает желаемое состояние (например, 3 реплики)
- Обеспечивает rolling update (постепенное обновление без простоя)
- Поддерживает откат к предыдущей версии

Нюанс: Можно настроить readinessProbe (проверка готовности) и livenessProbe (проверка жизни) для корректного обновления.


ConfigMap и Secret
Что это: Хранение конфигурации и секретов.
Разница: Secret шифруется base64 (но не защищен по умолчанию — используйте etcd encryption или external secrets manager).
Нюанс: Избегайте монтирования ConfigMap как volume — при обновлении значения попадут в под с задержкой (до 1 минуты).



Как это работает: от команды до работающего приложения

1. Вы описываете желаемое состояние
Например, в YAML-манифесте Deployment указываете: replicas: 3, image: my-app:v2.

2. API Server сохраняет состояние в etcd
Все компоненты получают уведомление через watch API.

3. Scheduler назначает поды на ноды
Выбирает ноды с достаточными ресурсами, учитывая правила (например, nodeSelector: disk=ssd).

4. Kubelet запускает контейнеры
Через container runtime создает Pod с вашим приложением и sidecar-контейнерами (если есть).

5. Service направляет трафик
При обращении к my-service kube-proxy балансирует запросы между подами.

6. Контроллеры поддерживают стабильность
Если нода упала — Deployment Controller создаст новые поды на других нодах.


Ключевые особенности: почему это enterprise-ready

Декларативная модель
Вы говорите «каким должно быть приложение», а не «как его развернуть».

Например:
replicas: 5  # Не "запусти 5 экземпляров", а "должно быть 5 реплик"

Kubernetes сам решает, как достичь этого состояния (запустить новые поды, убить старые).

Self-healing
- Автоматический перезапуск упавших контейнеров
- Перемещение подов с нерабочих нод
- Проверка здоровья через liveness/readiness probes


Горизонтальное масштабирование
- HPA (Horizontal Pod Autoscaler): Масштабирует поды по CPU/memory или кастомным метрикам (например, RPS)
- Cluster Autoscaler: Добавляет/удаляет ноды в облаке при нехватке ресурсов


Организация конфигурации
- Namespaces: Изоляция сред (dev, prod)
- Resource Quotas: Ограничение ресурсов на namespace
- Network Policies: Контроль трафика между подами (как firewall)



Экосистема: Kubernetes как платформа

Kubernetes — не монолит, а ядро для построения платформы.


Расширения через:
- Operators: Управление stateful-приложениями (PostgreSQL, Kafka) как нативными объектами
- CRD (Custom Resource Definitions): Добавление своих типов объектов (например, CronTab)
- Helm: Управление версиями манифестов («пакетный менеджер для K8s»)
- Istio: Сервис-меш для продвинутой маршрутизации, мониторинга



#Java #middle #on_request #Kubernetes
👍6
🗓 История IT-технологий сегодня — 7 сентября


ℹ️ Кто родился в этот день

Алексе́й Я́ковлевич Червоне́нкис (7 сентября 1938 — 22 сентября 2014) — советский и российский учёный в области информатики, кандидат физико-математических наук, ведущий сотрудник Института проблем управления имени Трапезникова, профессор колледжа Royal Holloway Лондонского университета, соавтор теории VC-размерности, фундамент машинного обучения и обобщающей способности моделей.

Дэвид Паккард (англ. David Packard; 7 сентября 1912 — 26 марта 1996) — сооснователь Hewlett-Packard; один из архитекторов компьютерной индустрии Кремниевой долины.


🌐 Знаковые события

Не происходило вроде. Найдете - пишите в комментариях


#Biography #Birth_Date #Events #07Сентября
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
Использование LLM в работе - мошенничество или обязательное условие?

Сегодня это тему не обсудил наверное только ленивый.
Наверное пришло и наше время поразмышлять об этом ☺️

Признаюсь сразу - давно и плотно использую разные LLM. Знаю много видов, периодически нахожу новые.
Но использую только бесплатные (жаль денег, за то, что можно найти бесплатно).
Использую ли в работе - конечно.

Давайте об этом и поговорим.


Много лет назад

Когда-то, когда трава была зеленее и в IT-шники брали за умение запустить IDE (по слухам), было принято в Java-проектах писать всё руками.
Все setter-ы, getter-ы, конструкторы и прочий boilerplate-код.

Но потом появился Lombok и пара аннотаций стало все это решать. И сегодня сложно встретить проект без его использования.

Уже тогда разработчики разделились на 2 лагеря. Естественно за и против.

Сегодня, даже большинство IDE по нажатию горячих клавиш сгенерирует Вам все что нужно. И да, если этим пользоваться без оглядки и понимания - это тоже может привести к проблемам как и Lombok.



И причем тут LLM?

Далее пойдет мнение автора, которое может отличаться от большинства, но ему пофиг 🙃.

Сейчас сообщество разработчиков практически делится на 2 лагеря:
1. Те, кто считает, что использование LLM - это смерть программиста как такового из-за усыхания мозга и в конце он станет рептилоидом 😂.

Тут я наверное не соглашусь. Ведь человечество и так преодолело барьер программных языков, перейдя к высокоабстрактным языкам. И ведь когда это начиналось, наверняка звучали прогнозы, что это разрушит будущее.
Но оно не разрушилось


2. Те, кто считает, что использование LLM - это то же самое, что Google или StackOverflow, только быстрее и глупее.
Отношу себя к этому лагерю.

Когда я начинал учить Java, LLM только проявлял себя и поэтому я учился по туториалам и ответам из StackOverflow. Но сейчас, чтобы получить ответ на распространенный вопрос - достаточно написать LLM и вуаля.

НО! Важно понимать и знать, что как и на StackOverflow, выбирая из ответов самый залайканый или подходящий к ситуации, никто не давал гарантий, что он единственно правильный и обязательно будет работать.
Или, что вставив его в свой код, пропадет нужда достичь понимания как он работает.

Так и LLM легко напишет Вам методы которых не существует. Или даст ответ который вы не понимаете.


И что, не использовать его из-за этого? (Это как удалить телеграм, ведь где-то, кого-то обманули через него 😏)


В целом, подытоживая свой поток мыслей, считаю:
- что LLM сегодня для меня, это очень востребованный и важный инструмент самообучения, поиска и помощи.
- что игнорировать его просто глупо, ведь программист точно должен смотреть в будущее, а не в прошлое.



Риски использования LLM

1. Как я и сказал выше - шанс галлюцинаций, будьте внимательны и перепроверяйте информацию.
2. Юридические риски: лицензии, утечка кода в LLM → нарушение NDA.
3. Когнитивные риски: если использовать только как "копипасту", можно забыть как учиться.



Как относиться к использованию LLM в работе

На мой скромный взгляд, нужно относиться как к молотку на стройке.
Если нужно забить гвоздь - это незаменимый и важный помощник. И человек забивающий гвозди головой, будет выглядеть как минимум странно.
Другое дело, когда надо, к примеру, разрезать стекло.
Если бездумно использовать молоток, вы совершенно точно просто все испортите. Но при тонком знании и понимании процесса, прямых руках и капельке удачи - все вполне реализуемо.

Так и с LLM.

Но решать в итоге, конечно, Вам
✌️


А что вы думаете об этом?


Понравилась статья - поделись с другом, позови его на канал и будет тебе моя благодарность 🤝

😎

#motivation
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
🗓 История IT-технологий сегодня — 8 сентября


ℹ️ Кто родился в этот день

Виктор Яковлевич Пан (род. 8 сентября 1939, Москва) — советско-американский математик/информатик; алгоритмы для полиномов и быстрого матричного умножения.

Вайдьешваран Раджараман (родился в 1933 году) — пионер информатики в Индии; запуск первых академических программ по CS в IIT Канпур.


🌐 Знаковые события

1636основан Гарвардский университет, старейший из университетов Нового Света.


#Biography #Birth_Date #Events #08Сентября
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Docker Compose и микросервисы

Основы: docker-compose.yaml и его архитектура

Что такое docker-compose.yaml?
Это декларативный конфигурационный файл, управляющий многоконтейнерными приложениями через Docker Compose. В отличие от ручного запуска контейнеров через docker run, Compose абстрагирует сложность оркестрации: один файл определяет сервисы, сети, тома и зависимости. При выполнении docker-compose up Docker Engine создает изолированную среду, где контейнеры взаимодействуют через виртуальные сети, а данные сохраняются в управляемых томах.

Как это работает на уровне ядра?
Когда вы запускаете docker-compose up, Docker Daemon:
1. Парсит YAML-файл и строит граф зависимостей сервисов.
2. Создает изолированные *сетевые пространства имен* (network namespaces) для каждого сервиса, если не указано иное.
3. Назначает виртуальные Ethernet-интерфейсы (veth pairs) для соединения контейнеров в bridge-сеть по умолчанию.
4. Для томов (volumes) монтирует директории хоста или управляемые Docker тома в контейнеры через bind mounts или overlayfs.



Структура docker-compose: services, volumes, networks

1. services
Определяет контейнеры как логические сервисы.

Пример:
services:
web:
image: nginx:alpine
ports:
- "8080:80"
db:
image: postgres:15
environment:
POSTGRES_PASSWORD: example


- image — базовый образ (загружается из Docker Hub, если отсутствует локально).
- ports — проброс портов хоста в контейнер. Формат HOST:CONTAINER. При старте Docker создает iptables-правила для перенаправления трафика.

- Важно: Контейнеры в одной сети Compose общаются по имени сервиса (например, web может обращаться к db по DNS-имени db:5432). Это достигается через встроенный DNS-резолвер Docker, который динамически обновляет записи при старте/остановке сервисов.

2. volumes
Управляет данными, сохраняемыми между перезапусками контейнеров.

Пример:
volumes:
pgdata:
driver: local


- Named volumes (как pgdata) хранятся в /var/lib/docker/volumes/ и управляются Docker. При удалении контейнера данные сохраняются.

- Host mounts — явное указание пути на хосте:

  volumes:
- ./data:/var/lib/postgresql/data


Здесь изменения в /var/lib/postgresql/data контейнера отражаются на хосте в ./data. Это работает через механизм *bind mounts* ядра Linux, где inode хоста и контейнера совпадают.

3. networks
Создает изолированные сети для сервисов:
networks:
app_net:
driver: bridge


- По умолчанию Compose создает bridge-сеть, где контейнеры общаются через L2 (Ethernet).
- Внутри сети Docker внедряет *виртуальный DNS-сервер* на
127.0.0.11, обрабатывающий запросы к именам сервисов. Например, запрос db резолвится в IP-адрес контейнера db.


Переменные окружения в Compose

Использование .env и ${VAR}
Docker Compose поддерживает подстановку переменных из .env-файла:
DB_PASSWORD=secure_password


В docker-compose.yaml:
services:
db:
environment:
POSTGRES_PASSWORD: ${DB_PASSWORD}


- Как это работает: При парсинге YAML Compose ищет .env в текущей директории и заменяет ${VAR} на значения из файла. Если переменная не определена, контейнер запустится с пустым значением (если не указано ? для ошибки).
- Нюанс безопасности: .env не шифруется. Для секретов используйте Docker Secrets или инструменты вроде HashiCorp Vault.
👍3
Оркестрация зависимостей и профили

depends_on, restart, healthcheck

Проблема depends_on
services:
app:
depends_on:
- db
db:
image: postgres


- depends_on гарантирует, что контейнер db запустится раньше app, но не дожидается готовности сервиса (например, PostgreSQL может быть запущен, но не готов принимать подключения).
- Последствие: Java-приложение может упасть при старте, если БД еще не инициализирована.


Решение через healthcheck

db:
image: postgres
healthcheck:
test: ["CMD-SHELL", "pg_isready -U postgres"]
interval: 5s
timeout: 5s
retries: 10


- Docker периодически выполняет команду pg_isready внутри контейнера.
- Как это работает: Внутри контейнера запускается фоновый процесс, проверяющий healthcheck. Результат сохраняется в cgroups (контрольные группы ядра), и Docker Daemon отслеживает статус через /sys/fs/cgroup/.../docker/.../healthcheck.


- Для app:
  app:
depends_on:
db:
condition: service_healthy

Теперь app стартует только после успешного прохождения healthcheck db.


Профили (docker-compose.override.yml)

Зачем нужны override-файлы?
Для разделения конфигурации между окружениями (dev, prod).


Пример структуры:
├── docker-compose.yml
├── docker-compose.override.yml # Для dev
└── docker-compose.prod.yml # Для prod

- Как работает: При запуске docker-compose up Compose автоматически применяет docker-compose.override.yml.

Для prod:
  docker-compose -f docker-compose.yml -f docker-compose.prod.yml up


- Пример override для dev:

  # docker-compose.override.yml
services:
app:
environment:
DEBUG: "true"
volumes:
- ./src:/app/src

Здесь исходный код монтируется в контейнер для горячей перезагрузки.


Пример: Java + PostgreSQL

docker-compose.yaml
version: '3.8'
services:
app:
build: ./app
ports:
- "8080:8080"
environment:
SPRING_DATASOURCE_URL: jdbc:postgresql://db:5432/mydb
SPRING_DATASOURCE_PASSWORD: ${DB_PASSWORD}
depends_on:
db:
condition: service_healthy
networks:
- app_net

db:
image: postgres:15
environment:
POSTGRES_DB: mydb
POSTGRES_PASSWORD: ${DB_PASSWORD}
volumes:
- pgdata:/var/lib/postgresql/data
healthcheck:
test: ["CMD-SHELL", "pg_isready -U postgres"]
interval: 2s
timeout: 5s
retries: 15
networks:
- app_net

volumes:
pgdata:

networks:
app_net:
driver: bridge

Как это работает в памяти:
1. При старте db инициализирует shared memory для PostgreSQL (через shm_size в cgroups).
2. Том pgdata монтируется в контейнер как *bind mount*, обеспечивая персистентность данных.
3. Сеть app_net создает bridge-интерфейс на хосте (например, br-123456), куда подключаются veth-пары контейнеров.


Ключевой нюанс:
- Если DB_PASSWORD не задан в .env, контейнер db упадет с ошибкой (PostgreSQL требует пароль).
- condition: service_healthy предотвращает race condition между стартом app и инициализацией БД.
👍4
Расширенный пример: добавляем Kafka

KRaft vs ZooKeeper
В Kafka 3.3+ рекомендуется использовать KRaft (Kafka Raft Metadata mode) вместо ZooKeeper:
- ZooKeeper: Требует отдельного кластера для хранения метаданных, увеличивает сложность.
- KRaft: Метаданные управляются самой Kafka через Raft-протокол. Упрощает настройку и снижает задержки.


docker-compose.yaml для Kafka с KRaft
services:
kafka:
image: bitnami/kafka:3.5.1
container_name: kafka
ports:
- "9092:9092"
environment:
KAFKA_CFG_NODE_ID: 0
KAFKA_CFG_PROCESS_ROLES: broker,controller
KAFKA_CFG_LISTENERS: PLAINTEXT://:9092,CONTROLLER://:9093
KAFKA_CFG_ADVERTISED_LISTENERS: PLAINTEXT://kafka:9092
KAFKA_CFG_LISTENER_SECURITY_PROTOCOL_MAP: PLAINTEXT:PLAINTEXT,CONTROLLER:PLAINTEXT
KAFKA_CFG_CONTROLLER_LISTENER_NAMES: CONTROLLER
KAFKA_CFG_INTER_BROKER_LISTENER_NAME: PLAINTEXT
networks:
- app_net

app:
# ... (Java-сервис из предыдущего примера)
depends_on:
- kafka


Критически важные нюансы:
1. `KAFKA_CFG_ADVERTISED_LISTENERS` должен указывать на имя сервиса (kafka), чтобы другие контейнеры могли подключиться. Если использовать localhost, клиенты из других контейнеров не смогут соединиться.
2. Сеть: Kafka требует стабильного DNS-имени. В Compose это достигается через имя сервиса (kafka).



Конфигурация Kafka для Java-клиента

Через Spring-Kafka

# application.properties
spring.kafka.bootstrap-servers=kafka:9092
spring.kafka.consumer.group-id=my-group

- Как это работает: Spring Boot использует KafkaConsumer, который подключается к kafka:9092 через DNS Compose-сети.

Через чистый Kafka Client API
Properties props = new Properties();
props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "kafka:9092");
props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
KafkaProducer<String, String> producer = new KafkaProducer<>(props);

- Важно: Используйте имя сервиса (kafka), а не localhost или IP. Внутри сети Compose DNS резолвит kafka в актуальный IP контейнера.


Рекомендации для продакшена

1. Healthcheck обязателен для сервисов с долгой инициализацией (БД, Kafka). Без него возникают race conditions.
2. Избегайте host mounts в продакшене — используйте named volumes для персистентности и изоляции.
3. KRaft — будущее Kafka. ZooKeeper добавляет избыточную сложность и уязвимости.
4. Сетевые настройки Kafka — ключевой источник ошибок. Убедитесь, что advertised.listeners соответствует DNS-имени сервиса в Compose.


Docker Compose — не инструмент для продакшена (используйте Kubernetes), но он незаменим для локальной разработки микросервисов. Понимание его внутренней работы позволяет избежать подводных камней и строить предсказуемую инфраструктуру.
👍3
Что выведет код?

public class Task080925 {
public static void main(String[] args) {
Long a = 100L;
Long b = 100L;
Long c = 200L;
Long d = 200L;

System.out.println((a == b) + " " + (c == d));
}
}


#Tasks
👍3
Варианты ответа:
Anonymous Quiz
8%
"false true"
44%
"true true"
14%
"false false"
33%
"true false"
👍5