Продолжаю шатать инфраструктуру. Поднимаю на десяти! машинках отказоустойчивый (HA) кластер PostgreSQL. Куда так много? Загибаем пальчики ☝️ :
✔️ 4 тачки под одного лидера и три реплики (синхронная + асинхронная + асинхронный резерв)
✔️ 3 тачки под etcd (для распределенного хранения состояния кластера)
✔️ 1 тачка под HAProxy (для балансировки нагрузки на PgBouncer'ы)
✔️ 2 тачки под PgBouncer (своего рода мультиплексор для сглаживания архитектуры PostgreSQL «один процесс на соединение»)
Посмотреть, как это выглядит, можно на первом оранжево-синем скрине. Остальные 6 скринов тоже про HA кластера PostgreSQL. Решения похожи, но все же отличаются, тем:
❓ что используем для хранения состояния кластера (etcd, Consul, Zookeeper, k8s)
❓ вынесено ли это хранилище на отдельный пул тачек
❓ сколько используем PgBouncer'ов и как их размещаем (на отдельных серверах или рядом с СУБД)
❓ нужны ли резервные реплики
❓ сколько HAProxy и куда они балансируют трафик
❓ нужен ли для получившейся архитектуры keepalived, vip-manager или confd
Как нетрудно заметить все варианты работают под управлением Patroni. Есть ли альтернативы?
pg_auto_failover — встроенное в PostgreSQL решение, хорошо для простых сценариев, но не даёт такой гибкости
Repmgr — промежуточный вариант между pg_auto_failover и Stolon/Patroni, обладает простой настройкой, но ограниченной поддержкой k8s
Stolon — схож с Patroni по гибкости и сложности настройки, но перестал активно мейнтейниться
P.S. А теперь сравните показанные решения с MongoDB, где отказоустойчивый кластер идет из коробки😑 .
P.P.S. Автоматизации развертывания решения на пятом скрине можно добиться с помощью Autobase
✔️ 4 тачки под одного лидера и три реплики (синхронная + асинхронная + асинхронный резерв)
✔️ 3 тачки под etcd (для распределенного хранения состояния кластера)
✔️ 1 тачка под HAProxy (для балансировки нагрузки на PgBouncer'ы)
✔️ 2 тачки под PgBouncer (своего рода мультиплексор для сглаживания архитектуры PostgreSQL «один процесс на соединение»)
Посмотреть, как это выглядит, можно на первом оранжево-синем скрине. Остальные 6 скринов тоже про HA кластера PostgreSQL. Решения похожи, но все же отличаются, тем:
Как нетрудно заметить все варианты работают под управлением Patroni. Есть ли альтернативы?
pg_auto_failover — встроенное в PostgreSQL решение, хорошо для простых сценариев, но не даёт такой гибкости
Repmgr — промежуточный вариант между pg_auto_failover и Stolon/Patroni, обладает простой настройкой, но ограниченной поддержкой k8s
Stolon — схож с Patroni по гибкости и сложности настройки, но перестал активно мейнтейниться
P.S. А теперь сравните показанные решения с MongoDB, где отказоустойчивый кластер идет из коробки
P.P.S. Автоматизации развертывания решения на пятом скрине можно добиться с помощью Autobase
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🫡1
Это я, отдохнувший за выходные, сфотографировался на карту болельщика, чтобы в конце марта сходить на матч Зенит-Рубин. Оформление хоть и не очень сложное (через отдельное приложение Госуслуг), но требует отсканировать чип действующего загранпаспорта паспорта (это которые на 10 лет оформляются, в пятилетних чипа нет). Первый раз приложение зависло при считывании на 0%, но со второго раза процедура прошла успешно. Прощаю, не пришлось идти в МФЦ 🎉 .
Почему недостаточно тех данных, что есть уже есть на Госуслугах — непонятно. Помнится, что взятая дистанционно 5 лет назад ипотека и то проще оформлялась🤩 .
P.S. Если еще не оформили замозапрет на взятие на вас кредитов и займов (защищаемся от мошенников, можно снять в любой момент), то можете сделать это через Госуслуги онлайн. Чувствую, что сейчас по стране прокатится волна звонков от мошенников, которые будут "помогать оформлять самозапрет".
P.P.S. Не шарьте экран своего телефона посторонним людям. Могут попытаться авторизоваться и увидят sms-код, который придет вам в уведомлении. Другие рекомендации описал тут.
P.P.P.S. Еще участились сливы ФИО коллег по работе (не моей, а в принципе). Ссылаясь на ФИО начальника или коллеги к вам могут втереться в доверие. Соблюдайте бдительность😎
Почему недостаточно тех данных, что есть уже есть на Госуслугах — непонятно. Помнится, что взятая дистанционно 5 лет назад ипотека и то проще оформлялась
P.S. Если еще не оформили замозапрет на взятие на вас кредитов и займов (защищаемся от мошенников, можно снять в любой момент), то можете сделать это через Госуслуги онлайн. Чувствую, что сейчас по стране прокатится волна звонков от мошенников, которые будут "помогать оформлять самозапрет".
P.P.S. Не шарьте экран своего телефона посторонним людям. Могут попытаться авторизоваться и увидят sms-код, который придет вам в уведомлении. Другие рекомендации описал тут.
P.P.P.S. Еще участились сливы ФИО коллег по работе (не моей, а в принципе). Ссылаясь на ФИО начальника или коллеги к вам могут втереться в доверие. Соблюдайте бдительность
Please open Telegram to view this post
VIEW IN TELEGRAM
💯5❤🔥2😱1
Срочные задачи — бич современного IT или как сделать так, чтобы сотрудник не спрашивал:
Если вам не приходится решать срочные задачи на постоянной основе — вам повезло. Их появление может быть продиктовано как реальной необходимостью, так и следствием плохого планирования и даже манипуляций. Важно понимать причины и принимать работающие меры для борьбы с этим коварным противником.
А в чем проблема проблема?
☝️Команда/сотрудник работает в состоянии хронического стресса, бесконечного аврала, постепенно выгорая,
и/или
☝️спринт команды продолжает наполняться задачами после этапа планирования, что приводит к невыполнению плана,
и/или
☝️сдвигаются сроки поставки запланированных фич.
Исходя из моего опыта, самое главное — понять, с чем мы столкнулись: искусственно созданная срочность или реально срочная задача?
Враг 1. Рили срочная задача
Бывают такие продукты и компании, которые не могут развиваться тихо, мирно, планомерно. Если ваши команда/компания/продукт должны давать молниеносные ответы на вызовы судьбы (адаптация к всплескам активности пользователей; стабилизация сервиса в ходе DDOS-атак; реализация фичи, как компенсирующая реакция на действия конкурентов и т.п.), то от срочных задач никуда не деться. Это вполне нормально, если вы заранее понимали, на что подписывались. Надеюсь, от вас этого не скрывали😑
В качестве срочных задач также могут выступать прилетевшие баги/уязвимости с прода.
Решение:
1) Срочные задачи стали нормой уже после вашего прихода в команду (время идет — все меняется), или вы не поняли об этом на этапе собеседований (по своей вине или вине работодателя)? Это уже не так важно. Если вам не подходит такой темп работы, то лучше уволиться и не мучить себя.
2) Если увольнение — не ваш вариант, то стоит подстелить себе соломку, чтобы комфортно работать в долгосрочной перспективе. Каким образом? Если срочные неотложные задачи появляются часто, то в зависимости от используемой методологии команда при планировании должна систематически закладывать на них 10/20/...% спринта (scrum) либо сдвигать сроки по разрабатываемым фичам (kanban).
Враг 2. Искусственносрочная задача
Коллега создает ощущение срочности там, где её нет, чтобы заставить команду:
1) либо работать в ускоренном режиме
2) либо отвлечься от взятых в спринт задач
Искусственная срочность может создаваться неосознанно или быть следствием преднамеренных манипуляций.
Решение:
1) вместе с заказчиком нужно понять, является ли прилетевшая задача, действительно, срочной. Как это сделать? Оценить профит/последствия, если мы ее сделаем/не сделаем. Может она подождет до следующего планирования?
2) не все заказчики готовы к открытому диалогу, поэтому пункт 1 не всегда сработает в моменте. В этом случае рекомендую на дистанции собрать статистику таких задач и их последствий для планов/сроков. Ее можно будет обсудить на ретро команды с заказчиком. Обычно собранная и хорошо представленная фактура действует очень отрезвляюще.
А эта задача просто срочная или срочная-срочная?
Если вам не приходится решать срочные задачи на постоянной основе — вам повезло. Их появление может быть продиктовано как реальной необходимостью, так и следствием плохого планирования и даже манипуляций. Важно понимать причины и принимать работающие меры для борьбы с этим коварным противником.
А в чем проблема проблема?
☝️Команда/сотрудник работает в состоянии хронического стресса, бесконечного аврала, постепенно выгорая,
и/или
☝️спринт команды продолжает наполняться задачами после этапа планирования, что приводит к невыполнению плана,
и/или
☝️сдвигаются сроки поставки запланированных фич.
Исходя из моего опыта, самое главное — понять, с чем мы столкнулись: искусственно созданная срочность или реально срочная задача?
Враг 1. Рили срочная задача
Бывают такие продукты и компании, которые не могут развиваться тихо, мирно, планомерно. Если ваши команда/компания/продукт должны давать молниеносные ответы на вызовы судьбы (адаптация к всплескам активности пользователей; стабилизация сервиса в ходе DDOS-атак; реализация фичи, как компенсирующая реакция на действия конкурентов и т.п.), то от срочных задач никуда не деться. Это вполне нормально, если вы заранее понимали, на что подписывались. Надеюсь, от вас этого не скрывали
В качестве срочных задач также могут выступать прилетевшие баги/уязвимости с прода.
Решение:
1) Срочные задачи стали нормой уже после вашего прихода в команду (время идет — все меняется), или вы не поняли об этом на этапе собеседований (по своей вине или вине работодателя)? Это уже не так важно. Если вам не подходит такой темп работы, то лучше уволиться и не мучить себя.
2) Если увольнение — не ваш вариант, то стоит подстелить себе соломку, чтобы комфортно работать в долгосрочной перспективе. Каким образом? Если срочные неотложные задачи появляются часто, то в зависимости от используемой методологии команда при планировании должна систематически закладывать на них 10/20/...% спринта (scrum) либо сдвигать сроки по разрабатываемым фичам (kanban).
Враг 2. Искусственносрочная задача
Коллега создает ощущение срочности там, где её нет, чтобы заставить команду:
1) либо работать в ускоренном режиме
2) либо отвлечься от взятых в спринт задач
Искусственная срочность может создаваться неосознанно или быть следствием преднамеренных манипуляций.
Решение:
1) вместе с заказчиком нужно понять, является ли прилетевшая задача, действительно, срочной. Как это сделать? Оценить профит/последствия, если мы ее сделаем/не сделаем. Может она подождет до следующего планирования?
2) не все заказчики готовы к открытому диалогу, поэтому пункт 1 не всегда сработает в моменте. В этом случае рекомендую на дистанции собрать статистику таких задач и их последствий для планов/сроков. Ее можно будет обсудить на ретро команды с заказчиком. Обычно собранная и хорошо представленная фактура действует очень отрезвляюще.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🤔1
Ты сталкиваешься со срочными задачами?
Anonymous Poll
36%
да и умею с ними справляться
14%
да, но не умею с ними справляться
50%
На что ты обращаешь внимание при выборе технического решения / технологии? Я в первую очередь руководствуюсь этими критериями:
👉 должна решаться поставленная задача
👉 простота (освоения, реализации, поддержки)
👉 гибкость (в том числе кастомизируемость, расширяемость)
👉 стандартизация (на уровне команды / компании / индустрии)
Разберём на примере выбора хранилища в существующем проекте под новую задачу.
1️⃣ Должна решаться поставленная задача
Если задача не решается, то мы такое решение / технологию в расчёт не берём. Сильно? Я тоже так думаю, однако на практике могут возникнуть сложности.
Что нам поможет очертить круг подходящих решений?
* качественно собранные требования, в том числе на перспективу (must have)
* собственный опыт, опыт коллег из команды/компании или за их пределами, в том числе доклады с конференций и статьи
* изучить документацию и книги
* початгэпэтышить или подипсикать (даст дополнительную пищу для размышления)
* платная поддержка (идеально, но дорого и не всегда есть)
2️⃣ Простота
Из нескольких рабочих альтернатив я выбираю то, что будет максимально простым.
Готовы ли мы принять новую зависимость в проект, тем самым значительно усложнив систему? Что компенсирует негативные факторы, которые окажутся на второй чаше весов:
* усложняется найм и онбординг новых, а также требуется адаптация "старых" сотрудников (разработка/DevOps/SRE)
* требуется поддерживать в актуальном состоянии скрипты раскатки с версиями раскатываемой инфраструктуры, документацию, базу знаний, мониторинги
* усложняется обновление самих сервисов в связи с подключением новых библиотек/стартеров (привет, Spring Hell🖕 )
* больше потенциальных уязвимостей и багов в системе
* в связи с перечисленным могут страдать бизнес-метрики
3️⃣ Стандартизация
Из нескольких равнозначных альтернатив я выберу то, которое чаще используется в команде / компании / индустрии. Честно говоря, не хочется обслуживать зоопарк решений, тратя на это драгоценное время команды. Технологии должны служить нам, а не мы им.
В данном случае простое и стандартное решение довольно сильно пересекаются. Чаще всего сложное решение делают стандартом за неимением простых альтернатив или сложности миграции на них.
А когда новые технологии пробовать? Стандарты могут и должны пересматриваться, если это оправдано. Мы сами недавно с Prometheus на Вику мигрировали, с Mesos на k8s, с Hazelcast на Redis.
4️⃣ Гибкость
Зная текущую задачу и перспективы развития продукта, я буду выбирать наиболее гибкое решение, которое позволит мне адаптироваться к новым вызовам без пересмотра архитектуры / логики и т.п. Это так же может быть полезно, если бизнес не до конца определился или вообще не знает, чего хочет.
PostgreSQL и Redis, например, за счет расширений и внутренней архитектуры могут хорошо справляться не только со своими "прямыми обязанностями".
P.S. последние 4 года эта логика меня не ни разу подводила, движемся дальше🏃♀️
👉 должна решаться поставленная задача
👉 простота (освоения, реализации, поддержки)
👉 гибкость (в том числе кастомизируемость, расширяемость)
👉 стандартизация (на уровне команды / компании / индустрии)
Разберём на примере выбора хранилища в существующем проекте под новую задачу.
1️⃣ Должна решаться поставленная задача
Если задача не решается, то мы такое решение / технологию в расчёт не берём. Сильно? Я тоже так думаю, однако на практике могут возникнуть сложности.
- Как будем работать с денормализованными данными? Возьмём наш PostgreSQL или поднимем MongoDB? Документы будут большие, в TOAST придется залезть.
- Напрашивается MongoDB. А какие нагрузки предполагаются и какой объем данных будем хранить?
- Бизнес пока не понимает.
- Нам же транзакции не нужны будут? Может Redis возьмём?
- Нужно познакомиться c его API.
Что нам поможет очертить круг подходящих решений?
* качественно собранные требования, в том числе на перспективу (must have)
* собственный опыт, опыт коллег из команды/компании или за их пределами, в том числе доклады с конференций и статьи
* изучить документацию и книги
* початгэпэтышить или подипсикать (даст дополнительную пищу для размышления)
* платная поддержка (идеально, но дорого и не всегда есть)
2️⃣ Простота
Из нескольких рабочих альтернатив я выбираю то, что будет максимально простым.
- Изучил документацию. Redis не подойдёт, слишком бедный API. Еще бизнес с фактурой по нагрузке вернулся: клиенты — юридические лица, объем хранения данных и RPS'ы скромные будут. Самое время разобраться с MongoDB на такой простой задаче!
- Но у наших разработчиков и SRE нет компетенции в MongoDB. PostgreSQL с такой задачей легко справится.
- Научатся! Еще одна технология будет в нашем арсенале.
Готовы ли мы принять новую зависимость в проект, тем самым значительно усложнив систему? Что компенсирует негативные факторы, которые окажутся на второй чаше весов:
* усложняется найм и онбординг новых, а также требуется адаптация "старых" сотрудников (разработка/DevOps/SRE)
* требуется поддерживать в актуальном состоянии скрипты раскатки с версиями раскатываемой инфраструктуры, документацию, базу знаний, мониторинги
* усложняется обновление самих сервисов в связи с подключением новых библиотек/стартеров (привет, Spring Hell
* больше потенциальных уязвимостей и багов в системе
* в связи с перечисленным могут страдать бизнес-метрики
3️⃣ Стандартизация
Из нескольких равнозначных альтернатив я выберу то, которое чаще используется в команде / компании / индустрии. Честно говоря, не хочется обслуживать зоопарк решений, тратя на это драгоценное время команды. Технологии должны служить нам, а не мы им.
- Ради одной задачи разбираться с новой базой? Не перебор?
- Архитектор передал, что MongoDB одобрили для занесения в стек компании. В ближайшее время планируется значительный рост числа задач, где MongoDB будет необходима.
В данном случае простое и стандартное решение довольно сильно пересекаются. Чаще всего сложное решение делают стандартом за неимением простых альтернатив или сложности миграции на них.
А когда новые технологии пробовать? Стандарты могут и должны пересматриваться, если это оправдано. Мы сами недавно с Prometheus на Вику мигрировали, с Mesos на k8s, с Hazelcast на Redis.
4️⃣ Гибкость
Зная текущую задачу и перспективы развития продукта, я буду выбирать наиболее гибкое решение, которое позволит мне адаптироваться к новым вызовам без пересмотра архитектуры / логики и т.п. Это так же может быть полезно, если бизнес не до конца определился или вообще не знает, чего хочет.
- А как мы события будем получать? Через Kafka?
- Тот же PostgreSQL можно использовать для простой очереди, судя по аналитике нам должно этого хватить.
PostgreSQL и Redis, например, за счет расширений и внутренней архитектуры могут хорошо справляться не только со своими "прямыми обязанностями".
P.S. последние 4 года эта логика меня не ни разу подводила, движемся дальше
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4
«Моей матерью был компьютер»
Сходил на выставку о том, как как искусственный интеллект меняет окружающий нас мир. Галерея Цифергауз, что в Новой Голландии, в Питере, как всегда радует качественным контентом. Для меня она стала своего рода продолжением выставки-размышления «Конструктор EGO», проходившей летом прошлого года в не менее прогрессивном Третьем месте. Она, однако, была направлена уже на изучение мира внутреннего. Горячо рекомендую посещать эти места-жемчужины🥰
---
А что по новостям искусственного интеллекта так сказать с полей?
У нас в компании продолжают активно внедрять AI в двух направлениях:
1️⃣ для ревью PR (пока результаты удручающие)
2️⃣ для упрощения кодирования
По второму пункту, как и у всех, есть успехи. Развернули DeepSeek во внутреннем контуре и прикрутили его в IDE-плагин Continue, которому можно скармливать открытый проект для наполнения контекста. Плюсы решения в целом понятны: данные не утекают наружу + проводим донастройку под свои задачи.
От моего друга-синьора-дата-инженера знаю, что в Ozon тоже подняли свою локальную инсталляцию. Тем не менее там еще остаются команды, которые пишут код по-старинке, используя белковые мозги. Мой друг до пятницы был в их числе. Поздравил его с тем, что он теперь тоже на "игле" и сможет по скорости работы конкурировать с вчерашними джунами. Мой друг-go-разработчик изСберКлауда пока сопротивляется, удивляясь производительности своего коллеги. Друга пока не увольняют, потому что есть еще один менее продуктивный, чем он сам, разработчик. Шутка (?). Так что ИИ пока погромистов не заменил.
---
В YT как на дрожжах появляются видео про low‑code / no-code платформу n8n.io. Если кто еще не в курсе, то с ее помощью вы можете строить пайплайны из классических (tg, Slack, Google и т.д.) и "умных" (ChatGPT, YandexGPT, или, например, OpenRouter, если хочется бесплатно) API для автоматизации разного рода сценариев, используя визуальный интерфейс. Если не готовы платить денежку за сервис, то можно развернуть его как как self-hosted на своем VPS. На зарубежных фриланс-площадках тысячи предложений по автоматизации с помощью n8n.io, make.com. Наши умельцы на фрилансе уже готовы поднять n8n за вас за скромную сумму. Думаю, что часть исполнителей уже написала свой Ansible-плейбук, другая — использует elest.io, а третья — делает все ручками. Сам сценарий тоже разработают, но значительно дороже: тут уже "наукоемкость" какая-то появляется.
Малый, как в целом и средний и крупный, бизнес теперь может буквально за копейки получить то, на что раньше не хватило бы никаких средств. Общаюсь по этому поводу с владельцем массажной студии, куда наведываюсь еженедельно. Так вот для него идея автоматизации интересна, но начинать погружаться в эту пучину нет ни сил, ни времени. Но это я ему ценность идеи пока плохо продал. В этом контексте с удовольствием посмотрел, как дядечка настраивал чат-бот для своего сайта с пассивными балансирами для аккумуляторов 😐 . Не знаю, какой у него бэкграунд в IT, но сделал он все четко!
---
ИИ продолжает активно проникать в задачи обывателя в том числе на уровне решения комплексных задач. Я уже не говорю о генерации картинок, видео, текстов, музыки. Тем не менее, это не помешало мне вчера отправить письмо через Почту России, написав от руки в двух экземплярах опись вложения. Вот уж кто точно не торопится за этими вашими трендами. А у тебя получается оседлать эту ИИ-волну?
Сходил на выставку о том, как как искусственный интеллект меняет окружающий нас мир. Галерея Цифергауз, что в Новой Голландии, в Питере, как всегда радует качественным контентом. Для меня она стала своего рода продолжением выставки-размышления «Конструктор EGO», проходившей летом прошлого года в не менее прогрессивном Третьем месте. Она, однако, была направлена уже на изучение мира внутреннего. Горячо рекомендую посещать эти места-жемчужины
---
А что по новостям искусственного интеллекта так сказать с полей?
У нас в компании продолжают активно внедрять AI в двух направлениях:
1️⃣ для ревью PR (пока результаты удручающие)
2️⃣ для упрощения кодирования
По второму пункту, как и у всех, есть успехи. Развернули DeepSeek во внутреннем контуре и прикрутили его в IDE-плагин Continue, которому можно скармливать открытый проект для наполнения контекста. Плюсы решения в целом понятны: данные не утекают наружу + проводим донастройку под свои задачи.
От моего друга-синьора-дата-инженера знаю, что в Ozon тоже подняли свою локальную инсталляцию. Тем не менее там еще остаются команды, которые пишут код по-старинке, используя белковые мозги. Мой друг до пятницы был в их числе. Поздравил его с тем, что он теперь тоже на "игле" и сможет по скорости работы конкурировать с вчерашними джунами. Мой друг-go-разработчик из
ИИ научился кодить.
Ожидание: вайбкодинг👦
Реальность: бизнес дает в 10 раз больше задач🤣
---
В YT как на дрожжах появляются видео про low‑code / no-code платформу n8n.io. Если кто еще не в курсе, то с ее помощью вы можете строить пайплайны из классических (tg, Slack, Google и т.д.) и "умных" (ChatGPT, YandexGPT, или, например, OpenRouter, если хочется бесплатно) API для автоматизации разного рода сценариев, используя визуальный интерфейс. Если не готовы платить денежку за сервис, то можно развернуть его как как self-hosted на своем VPS. На зарубежных фриланс-площадках тысячи предложений по автоматизации с помощью n8n.io, make.com. Наши умельцы на фрилансе уже готовы поднять n8n за вас за скромную сумму. Думаю, что часть исполнителей уже написала свой Ansible-плейбук, другая — использует elest.io, а третья — делает все ручками. Сам сценарий тоже разработают, но значительно дороже: тут уже "наукоемкость" какая-то появляется.
Малый
---
ИИ продолжает активно проникать в задачи обывателя в том числе на уровне решения комплексных задач. Я уже не говорю о генерации картинок, видео, текстов, музыки. Тем не менее, это не помешало мне вчера отправить письмо через Почту России, написав от руки в двух экземплярах опись вложения. Вот уж кто точно не торопится за этими вашими трендами. А у тебя получается оседлать эту ИИ-волну?
Please open Telegram to view this post
VIEW IN TELEGRAM
👌5👍2
С последнего моего прогноза прошло уже 4 месяца! Пора снова заглянуть в будущее.
У меня есть 5 примеров из ближнего круга, когда тестировщики переходили в разработчики. Этот сценарий, чтобы войти в айти, а затем и в разработку (с часто бОльшими зарплатами) давно на слуху. Почему он до сих пор актуален? Да простят меня тестировщики, но на начальных позициях требования к ним меньше, особенно к специалистам по ручному тестированию.
Удивительно, но примеров, когда системный аналитик переходил в разработчики, у меня нет. Читал про такие кейсы в этих ваших интернетах, и то пару раз.А сейчас их станет ещё меньше — ниже объясню, почему.
Почему меня это удивляет? Разве набор компетенций системного аналитика гораздо не ближе к разработчику?
* сбор и описание функциональных, нефункциональных, пользовательских и бизнес-требований
* постановка задач
* проектирование БД
* написание SQL-запросов
* проектирование интеграций и API (JSON, SOAP, RPC, очереди, шины, GraphQL, WebSocket, Webhook и другие)
* проектирование архитектуры (System Design)
Давай проанализируем этот список. Чего в нем не хватает? Навыка написания кода⌨️ ! Какой вывод напрашивается? Системный аналитик с помощью ИИ вполне может заменить команду разработки.
Нужно просто поменять вектор приложения усилий: аналитик будет наполнять контекст и ставить задачи не кожаным мешкам, а ИИ. Больше не придется быть прокси между бизнесом и инженерами. А как мы знаем, любые вынужденные коммуникации внутри и между командами значительно бьют по производительности труда. Бизнес будет счастлив!
Первой целью вижу проекты, которые сосредоточены на перекладывании JSON'а. Это тот случай, когда сложность прикладного кода приложения невысока, но документация проекта может быть значительной. В этой схеме бизнес платит не за сложность технических решений, а за высокую когнитивную нагрузку на членов команды, а ИИ с рядом наполненных контекстов с этим прекрасно справится. Кажется, что в России финтех может стать первой такой экспериментальной площадкой.
Что думаешь? Объявляем бойкот системным аналитикам😡 ?
У меня есть 5 примеров из ближнего круга, когда тестировщики переходили в разработчики. Этот сценарий, чтобы войти в айти, а затем и в разработку (с часто бОльшими зарплатами) давно на слуху. Почему он до сих пор актуален? Да простят меня тестировщики, но на начальных позициях требования к ним меньше, особенно к специалистам по ручному тестированию.
Удивительно, но примеров, когда системный аналитик переходил в разработчики, у меня нет. Читал про такие кейсы в этих ваших интернетах, и то пару раз.
Почему меня это удивляет? Разве набор компетенций системного аналитика гораздо не ближе к разработчику?
* сбор и описание функциональных, нефункциональных, пользовательских и бизнес-требований
* постановка задач
* проектирование БД
* написание SQL-запросов
* проектирование интеграций и API (JSON, SOAP, RPC, очереди, шины, GraphQL, WebSocket, Webhook и другие)
* проектирование архитектуры (System Design)
Давай проанализируем этот список. Чего в нем не хватает? Навыка написания кода
Нужно просто поменять вектор приложения усилий: аналитик будет наполнять контекст и ставить задачи не кожаным мешкам, а ИИ. Больше не придется быть прокси между бизнесом и инженерами. А как мы знаем, любые вынужденные коммуникации внутри и между командами значительно бьют по производительности труда. Бизнес будет счастлив!
Первой целью вижу проекты, которые сосредоточены на перекладывании JSON'а. Это тот случай, когда сложность прикладного кода приложения невысока, но документация проекта может быть значительной. В этой схеме бизнес платит не за сложность технических решений, а за высокую когнитивную нагрузку на членов команды, а ИИ с рядом наполненных контекстов с этим прекрасно справится. Кажется, что в России финтех может стать первой такой экспериментальной площадкой.
Что думаешь? Объявляем бойкот системным аналитикам
Please open Telegram to view this post
VIEW IN TELEGRAM
😁6👍1
На прошлой неделе чинил логирование в реактивном приложении. Это был Spring Cloud Gateway на WebFlux, который достался нам по наследству от другой команды. Наконец дошли руки до этой задачи.
Меня, однако, зацепил другой момент. Нужно было залогировать ошибку, когда из реактивного контекста и ThreadLocal все было заботливо удалено:
В😐 .
Чем не угодили❌ , которые в некоторых ситуациях предполагались для
Нет, спасибо, эта история не для гейтвея.
Почувствуйте всю мою боль, пришлось писать полотно:
Дайте работягам one liner для HashMap по аналогии с
Утерев слёзы, я собрал все(потокобезопасные не рассматривал) one liner'ы ванильной Java для хэш-таблиц в сводную таблицу, где расписал свойства иммутабельности, возможность хранить nullable key и value, ограничения на число элементов, ловушки реализации и реализацию под капотом. Каждый из вариантов бережно приправлен тестами. Красота 🐸 🐸 🐸
Меня, однако, зацепил другой момент. Нужно было залогировать ошибку, когда из реактивного контекста и ThreadLocal все было заботливо удалено:
log.atError()
.addMarker(Markers.appendEntries(entries))
.setCause(e)
.log("Error occurred in MDCFilter");
В
Map<?, ?> entries передаем пары ключ-значение, которыми хотим обогатить запись в логе. В моем случае это trace_id и user_id. Конечно, хочется написать one liner для инициализации entries. Только сделать это на ванильной Java не получится: нет подходящего решения Чем не угодили
Map.of(...) и Map.ofEntries(...)? Они не принимают null-value user_id. Может тогда возьмём HashMap c Double Brace Initialization?new HashMap<>() {{
put(TRACE_ID, traceId);
put(USER_ID, userId);
}};Нет, спасибо, эта история не для гейтвея.
Почувствуйте всю мою боль, пришлось писать полотно:
Map<String, String> entries = new HashMap<>();
entries.put(TRACE_ID, traceId);
entries.put(USER_ID, userId);
Дайте работягам one liner для HashMap по аналогии с
Map.of(...) или Map.ofEntries(...)!Утерев слёзы, я собрал все
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4💯2❤1🔥1