senior junior developer
125 subscribers
89 photos
4 videos
70 links
Привет! Меня зовут Максим @senior_junior_dev, я Java-разработчик. Делюсь здесь своим опытом в индустрии.
Download Telegram
Продолжаю шатать инфраструктуру. Поднимаю на десяти! машинках отказоустойчивый (HA) кластер PostgreSQL. Куда так много? Загибаем пальчики ☝️:
✔️ 4 тачки под одного лидера и три реплики (синхронная + асинхронная + асинхронный резерв)
✔️ 3 тачки под etcd (для распределенного хранения состояния кластера)
✔️ 1 тачка под HAProxy (для балансировки нагрузки на PgBouncer'ы)
✔️ 2 тачки под PgBouncer (своего рода мультиплексор для сглаживания архитектуры PostgreSQL «один процесс на соединение»)

Посмотреть, как это выглядит, можно на первом оранжево-синем скрине. Остальные 6 скринов тоже про HA кластера PostgreSQL. Решения похожи, но все же отличаются, тем:
что используем для хранения состояния кластера (etcd, Consul, Zookeeper, k8s)
вынесено ли это хранилище на отдельный пул тачек
сколько используем PgBouncer'ов и как их размещаем (на отдельных серверах или рядом с СУБД)
нужны ли резервные реплики
сколько HAProxy и куда они балансируют трафик
нужен ли для получившейся архитектуры keepalived, vip-manager или confd

Как нетрудно заметить все варианты работают под управлением Patroni. Есть ли альтернативы?
pg_auto_failover — встроенное в PostgreSQL решение, хорошо для простых сценариев, но не даёт такой гибкости
Repmgr — промежуточный вариант между pg_auto_failover и Stolon/Patroni, обладает простой настройкой, но ограниченной поддержкой k8s
Stolon — схож с Patroni по гибкости и сложности настройки, но перестал активно мейнтейниться

P.S. А теперь сравните показанные решения с MongoDB, где отказоустойчивый кластер идет из коробки 😑.

P.P.S. Автоматизации развертывания решения на пятом скрине можно добиться с помощью Autobase
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🫡1
Это я, отдохнувший за выходные, сфотографировался на карту болельщика, чтобы в конце марта сходить на матч Зенит-Рубин. Оформление хоть и не очень сложное (через отдельное приложение Госуслуг), но требует отсканировать чип действующего загранпаспорта паспорта (это которые на 10 лет оформляются, в пятилетних чипа нет). Первый раз приложение зависло при считывании на 0%, но со второго раза процедура прошла успешно. Прощаю, не пришлось идти в МФЦ 🎉.

Почему недостаточно тех данных, что есть уже есть на Госуслугах — непонятно. Помнится, что взятая дистанционно 5 лет назад ипотека и то проще оформлялась 🤩.

P.S. Если еще не оформили замозапрет на взятие на вас кредитов и займов (защищаемся от мошенников, можно снять в любой момент), то можете сделать это через Госуслуги онлайн. Чувствую, что сейчас по стране прокатится волна звонков от мошенников, которые будут "помогать оформлять самозапрет".

P.P.S. Не шарьте экран своего телефона посторонним людям. Могут попытаться авторизоваться и увидят sms-код, который придет вам в уведомлении. Другие рекомендации описал тут.

P.P.P.S. Еще участились сливы ФИО коллег по работе (не моей, а в принципе). Ссылаясь на ФИО начальника или коллеги к вам могут втереться в доверие. Соблюдайте бдительность 😎
Please open Telegram to view this post
VIEW IN TELEGRAM
💯5❤‍🔥2😱1
Срочные задачи — бич современного IT или как сделать так, чтобы сотрудник не спрашивал:
А эта задача просто срочная или срочная-срочная?


Если вам не приходится решать срочные задачи на постоянной основе — вам повезло. Их появление может быть продиктовано как реальной необходимостью, так и следствием плохого планирования и даже манипуляций. Важно понимать причины и принимать работающие меры для борьбы с этим коварным противником.

А в чем проблема проблема?
☝️Команда/сотрудник работает в состоянии хронического стресса, бесконечного аврала, постепенно выгорая,
и/или
☝️спринт команды продолжает наполняться задачами после этапа планирования, что приводит к невыполнению плана,
и/или
☝️сдвигаются сроки поставки запланированных фич.

Исходя из моего опыта, самое главное — понять, с чем мы столкнулись: искусственно созданная срочность или реально срочная задача?

Враг 1. Рили срочная задача

Бывают такие продукты и компании, которые не могут развиваться тихо, мирно, планомерно. Если ваши команда/компания/продукт должны давать молниеносные ответы на вызовы судьбы (адаптация к всплескам активности пользователей; стабилизация сервиса в ходе DDOS-атак; реализация фичи, как компенсирующая реакция на действия конкурентов и т.п.), то от срочных задач никуда не деться. Это вполне нормально, если вы заранее понимали, на что подписывались. Надеюсь, от вас этого не скрывали 😑

В качестве срочных задач также могут выступать прилетевшие баги/уязвимости с прода.

Решение:
1) Срочные задачи стали нормой уже после вашего прихода в команду (время идет — все меняется), или вы не поняли об этом на этапе собеседований (по своей вине или вине работодателя)? Это уже не так важно. Если вам не подходит такой темп работы, то лучше уволиться и не мучить себя.
2) Если увольнение — не ваш вариант, то стоит подстелить себе соломку, чтобы комфортно работать в долгосрочной перспективе. Каким образом? Если срочные неотложные задачи появляются часто, то в зависимости от используемой методологии команда при планировании должна систематически закладывать на них 10/20/...% спринта (scrum) либо сдвигать сроки по разрабатываемым фичам (kanban).

Враг 2. Искусственносрочная задача

Коллега создает ощущение срочности там, где её нет, чтобы заставить команду:
1) либо работать в ускоренном режиме
2) либо отвлечься от взятых в спринт задач

Искусственная срочность может создаваться неосознанно или быть следствием преднамеренных манипуляций.

Решение:
1) вместе с заказчиком нужно понять, является ли прилетевшая задача, действительно, срочной. Как это сделать? Оценить профит/последствия, если мы ее сделаем/не сделаем. Может она подождет до следующего планирования?
2) не все заказчики готовы к открытому диалогу, поэтому пункт 1 не всегда сработает в моменте. В этом случае рекомендую на дистанции собрать статистику таких задач и их последствий для планов/сроков. Ее можно будет обсудить на ретро команды с заказчиком. Обычно собранная и хорошо представленная фактура действует очень отрезвляюще.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🤔1
На что ты обращаешь внимание при выборе технического решения / технологии? Я в первую очередь руководствуюсь этими критериями:
👉 должна решаться поставленная задача
👉 простота (освоения, реализации, поддержки)
👉 гибкость (в том числе кастомизируемость, расширяемость)
👉 стандартизация (на уровне команды / компании / индустрии)

Разберём на примере выбора хранилища в существующем проекте под новую задачу.

1️⃣ Должна решаться поставленная задача

Если задача не решается, то мы такое решение / технологию в расчёт не берём. Сильно? Я тоже так думаю, однако на практике могут возникнуть сложности.

- Как будем работать с денормализованными данными? Возьмём наш PostgreSQL или поднимем MongoDB? Документы будут большие, в TOAST придется залезть.
- Напрашивается MongoDB. А какие нагрузки предполагаются и какой объем данных будем хранить?
- Бизнес пока не понимает.
- Нам же транзакции не нужны будут? Может Redis возьмём?
- Нужно познакомиться c его API.


Что нам поможет очертить круг подходящих решений?
* качественно собранные требования, в том числе на перспективу (must have)
* собственный опыт, опыт коллег из команды/компании или за их пределами, в том числе доклады с конференций и статьи
* изучить документацию и книги
* початгэпэтышить или подипсикать (даст дополнительную пищу для размышления)
* платная поддержка (идеально, но дорого и не всегда есть)

2️⃣ Простота

Из нескольких рабочих альтернатив я выбираю то, что будет максимально простым.

- Изучил документацию. Redis не подойдёт, слишком бедный API. Еще бизнес с фактурой по нагрузке вернулся: клиенты — юридические лица, объем хранения данных и RPS'ы скромные будут. Самое время разобраться с MongoDB на такой простой задаче!
- Но у наших разработчиков и SRE нет компетенции в MongoDB. PostgreSQL с такой задачей легко справится.
- Научатся! Еще одна технология будет в нашем арсенале.


Готовы ли мы принять новую зависимость в проект, тем самым значительно усложнив систему? Что компенсирует негативные факторы, которые окажутся на второй чаше весов:
* усложняется найм и онбординг новых, а также требуется адаптация "старых" сотрудников (разработка/DevOps/SRE)
* требуется поддерживать в актуальном состоянии скрипты раскатки с версиями раскатываемой инфраструктуры, документацию, базу знаний, мониторинги
* усложняется обновление самих сервисов в связи с подключением новых библиотек/стартеров (привет, Spring Hell 🖕)
* больше потенциальных уязвимостей и багов в системе
* в связи с перечисленным могут страдать бизнес-метрики

3️⃣ Стандартизация


Из нескольких равнозначных альтернатив я выберу то, которое чаще используется в команде / компании / индустрии. Честно говоря, не хочется обслуживать зоопарк решений, тратя на это драгоценное время команды. Технологии должны служить нам, а не мы им.

- Ради одной задачи разбираться с новой базой? Не перебор?
- Архитектор передал, что MongoDB одобрили для занесения в стек компании. В ближайшее время планируется значительный рост числа задач, где MongoDB будет необходима.


В данном случае простое и стандартное решение довольно сильно пересекаются. Чаще всего сложное решение делают стандартом за неимением простых альтернатив или сложности миграции на них.

А когда новые технологии пробовать? Стандарты могут и должны пересматриваться, если это оправдано. Мы сами недавно с Prometheus на Вику мигрировали, с Mesos на k8s, с Hazelcast на Redis.

4️⃣ Гибкость

Зная текущую задачу и перспективы развития продукта, я буду выбирать наиболее гибкое решение, которое позволит мне адаптироваться к новым вызовам без пересмотра архитектуры / логики и т.п. Это так же может быть полезно, если бизнес не до конца определился или вообще не знает, чего хочет.

- А как мы события будем получать? Через Kafka?
- Тот же PostgreSQL можно использовать для простой очереди, судя по аналитике нам должно этого хватить.


PostgreSQL и Redis, например, за счет расширений и внутренней архитектуры могут хорошо справляться не только со своими "прямыми обязанностями".

P.S. последние 4 года эта логика меня не ни разу подводила, движемся дальше 🏃‍♀️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4
«Моей матерью был компьютер»

Сходил на выставку о том, как как искусственный интеллект меняет окружающий нас мир. Галерея Цифергауз, что в Новой Голландии, в Питере, как всегда радует качественным контентом. Для меня она стала своего рода продолжением выставки-размышления «Конструктор EGO», проходившей летом прошлого года в не менее прогрессивном Третьем месте. Она, однако, была направлена уже на изучение мира внутреннего. Горячо рекомендую посещать эти места-жемчужины 🥰

---

А что по новостям искусственного интеллекта так сказать с полей?

У нас в компании продолжают активно внедрять AI в двух направлениях:
1️⃣ для ревью PR (пока результаты удручающие)
2️⃣ для упрощения кодирования

По второму пункту, как и у всех, есть успехи. Развернули DeepSeek во внутреннем контуре и прикрутили его в IDE-плагин Continue, которому можно скармливать открытый проект для наполнения контекста. Плюсы решения в целом понятны: данные не утекают наружу + проводим донастройку под свои задачи.

От моего друга-синьора-дата-инженера знаю, что в Ozon тоже подняли свою локальную инсталляцию. Тем не менее там еще остаются команды, которые пишут код по-старинке, используя белковые мозги. Мой друг до пятницы был в их числе. Поздравил его с тем, что он теперь тоже на "игле" и сможет по скорости работы конкурировать с вчерашними джунами. Мой друг-go-разработчик из СберКлауда пока сопротивляется, удивляясь производительности своего коллеги. Друга пока не увольняют, потому что есть еще один менее продуктивный, чем он сам, разработчик. Шутка (?). Так что ИИ пока погромистов не заменил.

ИИ научился кодить.
Ожидание: вайбкодинг 👦
Реальность: бизнес дает в 10 раз больше задач 🤣


---

В YT как на дрожжах появляются видео про low‑code / no-code платформу n8n.io. Если кто еще не в курсе, то с ее помощью вы можете строить пайплайны из классических (tg, Slack, Google и т.д.) и "умных" (ChatGPT, YandexGPT, или, например, OpenRouter, если хочется бесплатно) API для автоматизации разного рода сценариев, используя визуальный интерфейс. Если не готовы платить денежку за сервис, то можно развернуть его как как self-hosted на своем VPS. На зарубежных фриланс-площадках тысячи предложений по автоматизации с помощью n8n.io, make.com. Наши умельцы на фрилансе уже готовы поднять n8n за вас за скромную сумму. Думаю, что часть исполнителей уже написала свой Ansible-плейбук, другая — использует elest.io, а третья — делает все ручками. Сам сценарий тоже разработают, но значительно дороже: тут уже "наукоемкость" какая-то появляется.

Малый, как в целом и средний и крупный, бизнес теперь может буквально за копейки получить то, на что раньше не хватило бы никаких средств. Общаюсь по этому поводу с владельцем массажной студии, куда наведываюсь еженедельно. Так вот для него идея автоматизации интересна, но начинать погружаться в эту пучину нет ни сил, ни времени. Но это я ему ценность идеи пока плохо продал. В этом контексте с удовольствием посмотрел, как дядечка настраивал чат-бот для своего сайта с пассивными балансирами для аккумуляторов 😐. Не знаю, какой у него бэкграунд в IT, но сделал он все четко!

---

ИИ продолжает активно проникать в задачи обывателя в том числе на уровне решения комплексных задач. Я уже не говорю о генерации картинок, видео, текстов, музыки. Тем не менее, это не помешало мне вчера отправить письмо через Почту России, написав от руки в двух экземплярах опись вложения. Вот уж кто точно не торопится за этими вашими трендами. А у тебя получается оседлать эту ИИ-волну?
Please open Telegram to view this post
VIEW IN TELEGRAM
👌5👍2
С последнего моего прогноза прошло уже 4 месяца! Пора снова заглянуть в будущее.

У меня есть 5 примеров из ближнего круга, когда тестировщики переходили в разработчики. Этот сценарий, чтобы войти в айти, а затем и в разработку (с часто бОльшими зарплатами) давно на слуху. Почему он до сих пор актуален? Да простят меня тестировщики, но на начальных позициях требования к ним меньше, особенно к специалистам по ручному тестированию.

Удивительно, но примеров, когда системный аналитик переходил в разработчики, у меня нет. Читал про такие кейсы в этих ваших интернетах, и то пару раз. А сейчас их станет ещё меньше — ниже объясню, почему.

Почему меня это удивляет? Разве набор компетенций системного аналитика гораздо не ближе к разработчику?
* сбор и описание функциональных, нефункциональных, пользовательских и бизнес-требований
* постановка задач
* проектирование БД
* написание SQL-запросов
* проектирование интеграций и API (JSON, SOAP, RPC, очереди, шины, GraphQL, WebSocket, Webhook и другие)
* проектирование архитектуры (System Design)

Давай проанализируем этот список. Чего в нем не хватает? Навыка написания кода ⌨️ ! Какой вывод напрашивается? Системный аналитик с помощью ИИ вполне может заменить команду разработки.

Нужно просто поменять вектор приложения усилий: аналитик будет наполнять контекст и ставить задачи не кожаным мешкам, а ИИ. Больше не придется быть прокси между бизнесом и инженерами. А как мы знаем, любые вынужденные коммуникации внутри и между командами значительно бьют по производительности труда. Бизнес будет счастлив!

Первой целью вижу проекты, которые сосредоточены на перекладывании JSON'а. Это тот случай, когда сложность прикладного кода приложения невысока, но документация проекта может быть значительной. В этой схеме бизнес платит не за сложность технических решений, а за высокую когнитивную нагрузку на членов команды, а ИИ с рядом наполненных контекстов с этим прекрасно справится. Кажется, что в России финтех может стать первой такой экспериментальной площадкой.

Что думаешь? Объявляем бойкот системным аналитикам 😡?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁6👍1
На прошлой неделе чинил логирование в реактивном приложении. Это был Spring Cloud Gateway на WebFlux, который достался нам по наследству от другой команды. Наконец дошли руки до этой задачи.

Меня, однако, зацепил другой момент. Нужно было залогировать ошибку, когда из реактивного контекста и ThreadLocal все было заботливо удалено:
log.atError()
.addMarker(Markers.appendEntries(entries))
.setCause(e)
.log("Error occurred in MDCFilter");


В Map<?, ?> entries передаем пары ключ-значение, которыми хотим обогатить запись в логе. В моем случае это trace_id и user_id. Конечно, хочется написать one liner для инициализации entries. Только сделать это на ванильной Java не получится: нет подходящего решения 😐.

Чем не угодили Map.of(...) и Map.ofEntries(...)? Они не принимают null-value , которые в некоторых ситуациях предполагались для user_id. Может тогда возьмём HashMap c Double Brace Initialization?

new HashMap<>() {{
put(TRACE_ID, traceId);
put(USER_ID, userId);
}};


Нет, спасибо, эта история не для гейтвея.

Почувствуйте всю мою боль, пришлось писать полотно:

Map<String, String> entries = new HashMap<>();
entries.put(TRACE_ID, traceId);
entries.put(USER_ID, userId);


Дайте работягам one liner для HashMap по аналогии с Map.of(...) или Map.ofEntries(...)!

Утерев слёзы, я собрал все (потокобезопасные не рассматривал) one liner'ы ванильной Java для хэш-таблиц в сводную таблицу, где расписал свойства иммутабельности, возможность хранить nullable key и value, ограничения на число элементов, ловушки реализации и реализацию под капотом. Каждый из вариантов бережно приправлен тестами. Красота 🐸🐸🐸
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4💯21🔥1
А что собственно с логированием? В прошлый раз обещал рассказать подробнее. Это будет очередное подтверждение, зачем нужно знать многопоточку. Тем сложнее, что она здесь используется не в чистом виде, а в составе библиотек.

В очередной раз, бороздя просторы кибаны, я наткнулся на несоответствие идентификатора пользователя и содержимого в логируемых сообщениях. Пришлось приступить к исследованию кодовой базы сервиса. Я, честно, сначала грешил на нашу библиотеку логирования, однако дело было в обычном советском ... неаккуратной работе с MDC (Mapped Diagnostic Context) в нашей реализации интерфейса org.springframework.cloud.gateway.filter.GlobalFilter:
@Override
public Mono<Void> filter(ServerWebExchange exchange, GatewayFilterChain chain) {
...
MDC.put(USER_ID, userId);
...
}


org.slf4j.MDC используется для правки значений в MDC. Делается это с помощью вызова MDC.put(), который устанавливает пару ключ-значение. Под капотом MDC работает с экземпляром ch.qos.logback.classic.util.LogbackMDCAdapter. LogbackMDCAdapter в свою очередь работает на ThreadLocal-переменных.

ThreadLocal
привязан к конкретному потоку, а не к запросу пользователя. Если вы установили значение в MDC (ThreadLocal) в операторе реактивной цепочки, то следующий оператор, может не увидеть его, так как вполне возможно будет выполнен на другом потоке. Наша задача — подружить библиотеку, которая понятия не имеет о том, что работает в реактивном приложении с этим самым реактивным приложением 🤪

Если бы нам было достаточно локальной видимости ключа в рамках одного оператора, то мы могли бы:
* явно удалять ключ с помощью MDC.remove() в блоке finally
* использовать MDC.putCloseable() в блоке try-with-resources
* использовать MDC.getCopyOfContextMap и MDC.setContextMap для захвата и дальнейшего восстановления состояния MDC

Важно понимать, что метод MDC.putCloseable() не восстанавливает предыдущее значение, которое было перезаписано под уже существующим ключом!


При использовании цепочек операторов мы не можем работать с org.slf4j.MDC напрямую. Вместо этого, начиная с Spring Framework 6.0 /Spring Boot 3.0 / reactor-core 3.5.0, у нас появилась возможность использовать связку io.micrometer:context-propagation и reactor.core.publisher.Hooks. Вызов Hooks.enableAutomaticContextPropagation() позволяет библиотеке встроиться в механизм Project Reactor. После этого мы можем взаимодействовать с io.micrometer.context.ContextRegistry через метод registerThreadLocalAccessor:

public static void registerMdcKey(String mdcKey) {
Supplier<String> getKey = () -> MDC.get(mdcKey);
Consumer<String> putKey = value -> MDC.put(mdcKey, value);
Runnable removeKey = () -> MDC.remove(mdcKey);

ContextRegistry.getInstance()
.registerThreadLocalAccessor(mdcKey,
getKey,
putKey,
removeKey);
}


Это позволяет сделать библиотеку осведомлённой о состоянии злополучного ThreadLocal. После этого мы можем использовать contextWrite на Flux/Mono, чтобы установить "метаданные", которые мы хотим передавать по цепочке:

chain.filter(exchange)
.contextWrite(ctx -> ctx.putNonNull(USER_ID, userId))


Углубиться в детали можно в цикле из трех статей.

А что в Kotlin? Все несколько проще, хотя при работе с корутинами и suspend-функциями мы так же не можем напрямую использовать org.slf4j.MDC: корутина может "уйти" на другой поток. Нужно прокинуть свой kotlinx.coroutines.slf4j.MDCContext в контекст корутины:

withContext(MDCContext(...) + ..., block)


MDCContext имплементирует kotlinx.coroutines.ThreadContextElement (который в свою очередь имплементирует CoroutineContext.Element) и автоматически обновляет MDC при каждом переключении потока.

Такие дела 😎
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤‍🔥1🔥1
Часть 1. Есть ли настоящее и будущее у микробенчмаркинга?

С коллегами все чаще начали задаваться вопросом: "Не стоит ли поэкспериментировать с нагруженными core-сервисами?"

Что подразумевается под экспериментами?
1) остаться в лоне jvm, но сменить фреймворк с Java/Kotlin + SpringBoot + Webflux
2) переписать сервис на другой язык

Первое, что приходит в голову и в то же время наименее болезненно — отказаться от Webflux в пользу VirtualThreads, но 25-ый LTS-релиз еще не завезли. Почему его надо ждать — писал ранее.

На слепое переписывание сервисов под разные связки язык-фреймворк, понятное дело, времени нет, поэтому нужно проводить ресерч для определения наиболее перспективных кандидатов.

Может быть кто-то сделал эту работу за нас? Коллеги, опять же, поделились такой ссылочкой — sharkbench.dev.

Что понравилось? Достаточно богатый список языков и фреймворков. Можно посмотреть тестируемый код, который, на удивление, прикладывают не всегда. Для этого нажимайте на <> в первой колонке ...сам не сразу додумался, пока в исходный код страницы не залез 🤣.

Всего видим два набора тестов: с IO-bound (раздел Web frameworks) и CPU-bound (раздел Computation) нагрузкой. Если CPU нагружается алгоритмом вычисления приближения числа π, уже ставший стандартом де-факто, то с IO-bound нагрузкой нужно разобраться. Тестируется достаточно простой сценарий: происходит случайное обращение к двум параметризированным GET-ручкам, которые проксируют json'ы из локально выставленного источника, что и создает IO-нагрузку. К результатам такого тестирования, однако, надо подходить критически, так как профиль нагрузки вряд ли можно назвать prod like. Вместо реальной эффективности языка-фреймворка мы видим, как хорошо решается узкая задача.

Особенно хорошо в тестах это демонстрирует JDK Semeru от IBM, чей сборщик мусора по умолчанию как раз заточен на работу с большим числом короткоживущих объектов. Может быть, конечно, это и была идея автора.

Подведем итоги. Для первого знакомства ресурс подойдёт вполне неплохо, но пока хочется изучить альтернативы для принятия взвешенного решения. Как минимум ещё один такой есть на примете, ждите в следующих сериях.

P.S. Пока изучал, что за зверь такой IBM Semeru, наткнулся на сайт с хорошим верхнеуровневым сравнением JDK от разных вендоров jdkcomparison.com, рекомендую. И еще один whichjdk.com.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥51