HighLoad++
6.25K subscribers
2.38K photos
166 videos
16 files
2.27K links
Официальный канал профессиональной конференции разработчиков высоконагруженных систем

Saint HighLoad++ 2026 пройдёт 22 и 23 июня в Санкт-Петербурге: https://highload.ru/spb/2026

Общаемся в чатике https://t.me/HighLoadTalks
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Система масштабируется, а вместе с ней растет и груз ответственности за каждое архитектурное решение. Знакомо вам чувство, когда выбор между «быстро» и «правильно» давит, а цена ошибки измеряется не часами, а неделями переделок?

Высоконагруженные системы не прощают поверхностных подходов. Но и вариться в собственном контексте — путь к застою. Иногда для прорыва нужно выйти за пределы своей команды и увидеть, как аналогичные вызовы решают другие.

Традиционно на предстоящей Saint HighLoad++ соберутся инженеры, которые ежедневно сталкиваются с теми же задачами. Здесь поделятся реальным опытом — включая разбор неудач и неочевидных решений.

Используйте возможность получить обратную связь на свои гипотезы, увидеть типовые решения, которые работают в рабочей среде, и сократить путь к надежной архитектуре. Без абстракций — только практика и диалог с теми, кто понимает контекст.

Ваше участие — это инвестиция в экспертизу, которая окупается качеством следующих релизов

Также напоминаем, что 1 мая повысится цена на билеты. Забронируйте участие заранее, чтобы зафиксировать текущую стоимость.

Встречаемся 22 и 23 июня в Санкт-Петербурге, присоединяйтесь 🖐️

➡️ Программа пока в стадии формирования, но часть уже готова — посмотреть можно сайте.
👍2
Пятничная подборка технических кейсов из мира highload, observability и инфраструктуры.

Коротко о главном в карточках.

Детали по ссылкам:
🔴Netflix: Mount Mayhem — Scaling Containers on Modern CPUs.
Запуск 100+ контейнеров на узле приводил к 30-секундным задержкам health-check из-за проблем с VFS mounting в Linux ядре.

🔴Cloudflare: 500 Tbps of Network Capacity.
В статье архитектурные решения, стоящие за этим масштабом.

🔴Adobe: OpenTelemetry Pipeline — Simplicity at Scale.
Трёхуровневая архитектура коллекторов: sidecar + deployment + managed namespace. Главный фикс — изоляция метрик, логов и трейсов друг от друга, чтобы сбой в одном бэкенде не ломал остальные.

🔴KubeCon EU 2026: AI, Observability и Fast Feedback Loops.
Новые SLI для LLM (time to first token, decode speed), сшивка frontend/backend трейсов через <meta />, риски AI-генерации телеметрии и проблема cardinality capping.

Продуктивного чтения и отличных выходных 🙌
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Использовать инструменты, в которых у нас наибольшая экспертиза, — весьма эффективная стратегия. Но в какой момент наступит та самая грань, после чего инструмент все же стоит сменить?

На Saint HighLoad++ 2026 выступит Игорь Анохин (K2 Cloud) с докладом «MongoDB как единственное хранилище. Использование, проблемы, боль и последствия». Рекомендуем послушать инженерам, отвечающим за архитектуру, хранение данных и эксплуатацию высоконагруженных сервисов.

Из доклада слушатели:
🟣Узнают, как MongoDB работает в реальной продакшн-среде: как хранилище, кеш, брокер сообщений, time-series и распределенная база данных.
🟣Увидят, где она действительно справляется и позволяет упростить стек, а где на практике пришлось перейти на специализированные решения: Redis, Kafka, VictoriaMetrics.
🟣Получат архитектурные компромиссы, эксплуатационные нюансы и выводы, которые помогут трезво выбирать инструменты.

➡️ Программа конференции в стадии формирования, принятую часть можно посмотреть на сайте.

До повышения цены на билеты осталось 4 дня. Успейте забронировать участие по текущей стоимости до 1 мая.
Please open Telegram to view this post
VIEW IN TELEGRAM
22👍1
Можно ли развернуть ASR-модель на CPU без потери качества и производительности?

Этот вопрос часто встает перед разработчиками, когда GPU недоступны или нужно оптимизировать ресурсы. Кажется, что компромиссы неизбежны, но так ли это на самом деле?

➡️ В этой статье подробно разбирается, как MWS AI удалось продуктивизировать нейросетевые решения для распознавания речи на CPU, сохраняя при этом высокое качество и сопоставимую с GPU-кластерами точность.

Различные бэкенды, особенности настройки Triton Inference Server и подводные камни, с которыми столкнулись инженеры. Если вы работаете с ASR, оптимизацией инференса или просто ищете способы эффективного использования ресурсов, этот материал даст вам конкретные ответы и практические кейсы.

Узнайте, как избежать ловушки усреднения метрик и добиться впечатляющих результатов.
Уже сегодня пройдет первая встреча закрытого клуба для тех, кто внедряет ИИ. Не изучает, не обсуждает, а делает.

📍28 апреля, 19:00 (мск), онлайн.

Сегодняшнюю встречу посвящаем распространенной проблеме провала AI-инициатив на этапе «продать команде»:

🔴Почему AI-powered development не покупают и что с этим делать. Даниил Подольский, Yadro.

🔴Spec Driven Development: как это работает на практике. Максим Куляев, Game Hunters Inc.

🔴С чего начать трансформацию, чтобы не застрять в пилоте. Татьяна Сеземина, ИТ-холдинг Т1

Формат камерный: доклады по 15–30 минут и живая дискуссия после каждого.

Клуб закрытый, попасть на встречу можно через заявку на вступление по ссылке
Please open Telegram to view this post
VIEW IN TELEGRAM
Вы когда-нибудь задумывались, почему многопоточный код иногда выдает неожиданные результаты?

Причина часто кроется в тонкостях модели памяти языка. В Go это особенно актуально. Без понимания Go Memory Model можно наткнуться на «пустую строку» вместо ожидаемого значения. Понимание happens before позволяет формально доказать корректность программы.

Хотите писать многопоточный код без скрытых багов? Эта статья👇— ваш проводник в мир синхронизации в Go.

Статья в двух частях:
В первой вы разберетесь с отношением happens before, формализмом, посмотрите практические примеры.
Во второй речь пойдет про линеаризуемость, барьеры памяти, гонки и использование различных нетривиальных техник.

Углубите свои знания в одной из самых сложных тем Go 🙌
Please open Telegram to view this post
VIEW IN TELEGRAM
Онтико традиционно выступает информационным партнёром исследования облачно-ориентированных технологий в России.

Команда АОТ проводит одно из первых детальных исследований того, как российские компании применяют Cloud Native-технологии и ИИ в разработке и DevOps.

Новое исследование — расширенная версия State of DevOps Russia, в котором вы могли принимать участие ранее. В опросе — вопросы про инструменты и практики Cloud Native, использование ИИ на разных этапах разработки и подходы к безопасности при работе с нейросетями.

Если вы связаны с DevOps и разработкой — пройдите опрос и расскажите, как используете облачные технологии в связке с ИИ.

На основе ответов будет подготовлен подробный отчёт, в котором поделимся ключевыми трендами этого года и выводами экспертов.
🚀 Мультибилет на две ключевые конференции июня в Санкт-Петербурге — возможность увидеть картину целиком.

Saint HighLoad++ 2026 (22–23 июня) — для тех, кто строит системы, которые держат нагрузку. Глубокие технические доклады, разборы инцидентов, интерактивные форматы и фокус на практические решения.

Saint TeamLead Conf 2026 (25–26 июня) — для тех, кто развивает команды. Управление людьми, процессы, коммуникации и стратегии роста в условиях неопределённости.

Мультибилет объединяет оба события с выгодой до 30%. Это выбор для тех, кто:
•хочет синхронизировать техническое видение с управленческим;
•планирует прокачать экспертизу в обоих направлениях;
•ценит время и предпочитает решать вопросы комплексно.

Четыре дня в Санкт-Петербурге, две сильные программы, одно логичное решение. Участие в обеих конференциях поможет не просто реагировать на вызовы, а формировать подход к ним.

Билеты постепенно дорожают — чем раньше примите решение, тем выгоднее будут условия. Завтра (1 мая) очередное повышение — успейте забронировать билет сегодня по текущей стоимости, оплатить сможете в течение нескольких дней.

Мультибилет — это инвестиция в развитие, которая окупается качеством архитектуры и зрелостью команды.

➡️ Подробности о конференциях и возможность забронировать билет на сайте

До встречи в Санкт-Петербурге 🖐️
🔥2
Пятничная подборка из 6 свежих материалов апреля для SRE, DevOps, backend-разработчиков и архитекторов высоконагруженных систем.

🔴GitHub ограничивает Copilot: агентные AI-воркфлоу перегружают инфраструктуру.
GitHub был вынужден приостановить регистрацию новых пользователей Copilot Pro из-за критической перегрузки инфраструктуры агентными AI-воркфлоу. Параллельные сессии агентов, выполняющих многошаговые задачи, генерируют экспоненциально растущие затраты на токены, которые превышают стоимость месячной подписки. В ответ GitHub внедряет лимиты сессий (аналог circuit breaker) и жесткие недельные квоты на потребление токенов.


🔴PlanetScale: как работает Database Traffic Control под капотом.
Инженерный блог PlanetScale опубликовал глубокий разбор механизма защиты баз данных PostgreSQL от перегрузки «тяжелыми» запросами. Система использует Postgres-хуки (в частности ExecutorRun) для перехвата запросов до их выполнения. Для предсказания стоимости запроса применяется адаптивный коэффициент, связывающий оценку планировщика с реальным CPU-временем, а также алгоритм leaky bucket для лимитирования по бюджетам.


🔴Релиз Kubernetes v1.36 «Haru»: 70 новых улучшений.
Вышел весенний релиз Kubernetes 1.36, включающий 18 стабильных фич. Среди главных нововведений: переход в GA гранулярной авторизации kubelet API (заменяет избыточные права nodes/proxy), стабильная поддержка User Namespaces и Volume Group Snapshots. В альфа-версии представлен Workload Aware Scheduling с атомарным gang scheduling через новый PodGroup API.


🔴Unit 42: Эволюция атак на npm и червь Shai-Hulud.
Аналитики Palo Alto Networks опубликовали исследование ландшафта угроз в экосистеме npm. Зафиксирована новая волна атак (группировка TeamPCP) с использованием пакета @bitwarden/cli. Вредонос использует многоступенчатую обфускацию, крадет токены доступа из CI/CD пайплайнов и облачных провайдеров, а затем использует их для самораспространения (wormable propagation) по всем доступным репозиториям.


🔴Datadog: Платформа оценки для автономных SRE-агентов.
Команда инженеров Datadog поделилась опытом создания платформы тестирования Bits AI SRE. Главной проблемой разработки AI-агентов стала «проблема регрессии»: улучшение навыков агента в одной области ломало его логику в другой. Для решения была создана система офлайн-эвалюации, использующая «снимки мира» (world snapshots) реальных инцидентов для воспроизводимого тестирования агентов перед деплоем.


🔴 Cloudflare: Внутренний AI-инженерный стек на базе собственных продуктов.
Cloudflare рассказала об архитектуре своей внутренней платформы для AI-разработки, которой пользуются 93% инженеров компании. Стек построен на собственных решениях: AI Gateway используется для маршрутизации запросов к LLM и контроля бюджетов, Workers AI — для инференса, а новый Sandbox SDK обеспечивает безопасное изолированное выполнение кода, сгенерированного агентами.


Если у вас есть новости по теме — делитесь в комментариях. Давайте вместе строить уютное профессиональное сообщество 🙌
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Вы уверены, что ваша система выживет при отказе? Большинство отвечают «да» — пока не случится первый инцидент.

На Saint HighLoad++ 2026 вас ждет воркшоп «Рождённый устойчивым», в программе которого практика по HA-архитектуре:
✔️ развернете приложение в Yandex Cloud, намеренно сломаете — и почините. Рядом будут инженеры Yandex Cloud, которые видели, как это ломается в реальных системах. Сможете задать вопрос и получить ответ от человека с production-опытом, а не от документации;
✔️ уйдете с Recovery Plan, который сможете адаптировать под свой прод.

🎤 Ведущие:
•Татьяна Сердинова — активный лидер команд,
•Антон Воронцов — Customer Reliability Engineer,
•Антон Егорушков — DevOps 7 лет, спикер, ментор.

👥 Для кого воркшоп: Backend-разработчики, SRE и DevOps-инженеры, которые хотят прокачать навыки обеспечения надежности.

🖐️ Присоединяйтесь к нам на Saint HighLoad++ 2026 и приходите на воркшоп, чтобы обрести уверенность, что ваш сервис выдержит следующий пик нагрузки.
👍1
Новость-молния

Вы внедряли AI в разработку и есть что рассказать? Особенно о том, что пошло не так? Вот это нам и нужно!

🙌 Мы открыли короткое окно на дополнительный прием заявок для стрима «Внедрение ИИ в цикл разработки». Ищем именно вас: тех, кто уже столкнулся с AI в реальном проекте.

📍Дедлайн подачи заявок — 15 мая

AI в SDLC занимает больше трети программы Saint HighLoad++ 2026. Поэтому мы хотим добрать кейсы про внедрение AI в реальный инженерный цикл: требования, архитектуру, разработку, тестирование, CI/CD, эксплуатацию, безопасность и управление командой. Тема может быть любой точкой SDLC, но не про «AI пишет код».

Мы хотим усилить программу там, где рынок быстро меняется, а аудитории особенно нужны зрелые практики вместо очередной демонстрации промптов.

Нас интересует живой опыт: как AI встретился с legacy, дорогим инференсом, несговорчивым ревью, compliance или командой, которая смотрит на все это скептически. Что сломалось, что пришлось переделать, какие trade-offs вы приняли и почему.

Есть сырая идея, но не знаете, как оформить? Пишите — поможем выбрать формат: доклад, case clinic, постмортем, дискуссия.

🖐️ Пройдите на сайт, чтобы отправить заявку
🔥2
В сегодняшнем выпуске дайджеста: изменения в управлении трафиком, внутренностях Git и ядре Linux.

🔴Gateway API v1.5: Стабилизация стандарта маршрутизации
Крупнейший релиз в истории Gateway API, в котором 6 ключевых функций (включая ListenerSet, TLSRoute и CORS Filter) перешли в статус Standard (Stable). Этот релиз окончательно закрепляет Gateway API как современный стандарт управления трафиком в Kubernetes, приходящий на смену устаревающему Ingress (в частности, Ingress-NGINX).

🔴Что нового в Git 2.54: config-based hooks и команда history
Свежий релиз Git принес несколько архитектурных изменений. Появилась экспериментальная команда git history для безопасного переписывания истории (reword, split) без затрагивания working tree. Также внедрены config-based hooks, позволяющие определять хуки прямо в gitconfig (с поддержкой нескольких хуков на одно событие), а геометрическая перепаковка (geometric repacking) стала стратегией обслуживания по умолчанию.

🔴Ядро Linux 7.1: новый in-kernel NTFS-драйвер и FRED
Завершилось окно слияния для ядра Linux 7.1. Главные инженерные новшества: внедрение нового, более производительного in-kernel драйвера NTFS (на замену ntfs3) и активация по умолчанию технологии FRED (Flexible Return and Event Delivery) на архитектуре x86. Также добавлены улучшения в подсистему amd-pstate и новые хуки безопасности Landlock LSM.

Продуктивного прочтения и делитесь с коллегами 🙌

Еще больше новостей будем обсуждать на Saint HighLoad++ 2026
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Насколько надежна ваша инфраструктура на самом деле? Между красивыми отчетами и суровой реальностью продакшена часто лежит пропасть.

В Райффайзен Банке решили не просто верить в планы, а регулярно и осознанно «ломать» свои системы, чтобы проверить их на прочность. Это не просто игра, а серьезный подход к обеспечению стабильности и отказоустойчивости. Ведь когда дело доходит до критически важных сервисов, знать о потенциальных сбоях заранее — значит быть готовым к ним.

В статье руководитель команды разработки хаос-платформы рассказывает, как они пришли к хаос-инжинирингу, почему готовые решения не подошли и как за несколько месяцев собрали собственную платформу для проверки отказоустойчивости. Это не только повышает надежность и сокращает время простоя, но и улучшает пользовательский опыт.

➡️ Если вы хотите узнать, как построить систему, которая действительно выдерживает сбои, и почему иногда лучше написать свое решение с нуля, — читайте статью.
AI Native Call for Papers


Мы открыли короткое окно (до 15 мая) на дополнительный прием докладов для стрима «Внедрение AI в SDLC» на конференцию Saint HighLoad++ (22 и 23 июня, 1500+ участников, Санкт-Петербург).

Ищем докладчиков, кто уже использует AI-инструменты, AI-агенты в реальном проекте - в рамках любой из стадий цикла:


1. Как на этапе сбора и анализа требований AI помогает продуктовым командам и аналитикам быстрее обрабатывать информацию, находить инсайты и формализовать задачи? Например, как использовать AI для автоматического выявления противоречий, логических ошибок и пробелов в объемных технических заданиях?

2. Как на этапе проектирования AI помогает архитекторам в создании архитектуры? Как AI-архитектор может помочь в проектировании схемы базы данных и микросервисных взаимодействий? Как автоматически поддерживать актуальность архитектурной документации (Architecture as Code) при помощи LLM?

3. Этап разработки - самый популярный и противоречивый этап для внедрения AI, обсуждаем кодогенерацию, рефакторинг и безопасность. Как внедрить «агентный» подход в разработку: от Copilot к автономным кодинг-агентам?

Как автоматизировать рефакторинг огромных монолитов и миграцию на новые стеки технологий? Как организовать эффективное Code Review, где AI выступает первым (и самым строгим) проверяющим? Как настроить локальные AI-модели? Как автоматизировать поддержание технической документации в актуальном состоянии прямо в процессе написания кода?

4. Как AI трансформирует QA-процессы: от генерации данных до умного запуска тестов? Как автоматически генерировать Unit- и Integration-тесты на основе исходного кода и бизнес-требований с высоким покрытием?

5. Как на этапе деплоя AI помогает снизить риски, автоматизировать рутину и оптимизировать инфраструктуру? Как AI-модели могут предсказывать риски неудачного релиза? Как внедрить системы автоматического отката деплоя?

6. AI-инструменты для эксплуатации, SRE, DevOps и инженеров техподдержки, направленные на стабильность и быстрое решение инцидентов. Как предсказывать деградацию производительности и потенциальные инциденты?


Подробнее о секции и докладах, которые мы ждём:
https://cfp.highload.ru/

Прямая ссылка на подачу доклада:
https://conf.ontico.ru/lectures/submit/ainative_hl2026-spb

Сама конференция:
https://highload.ru/spb/2026


Целевая аудитория: senior-разработчики, IT-руководители, DevOps-инженеры, QA-инженеры, CTO.

Конференция берёт на себя помощь с подготовкой, проезд до и проживание в Санкт-Петербурге.

Приглашаем выступить :)
👍4