🚨 Сжали Docker-образ с 846 MB до 2.5 MB
Классическая проблема. Один Dockerfile, жирный базовый образ, внутри всё подряд. Билд-тулы, кэши, временные файлы, лишние пакеты. В прод улетает всё.
Результат понятен. Огромный образ, медленные pull, лишние деньги за хранение и увеличенная поверхность атаки.
Решение:
Первый шаг. Лёгкий builder. Переход с полного golang-образа на alpine сразу режет размер в разы.
Дальше главный приём. Multi-stage build. В первом этапе собираешь бинарник со всеми зависимостями. Во втором стартуешь с чистого минимального образа и копируешь только результат сборки.
В прод не попадает ничего лишнего. Ни компиляторов, ни кэшей, ни dev-пакетов.
Дополнительно вычищаются слои. Команды объединяются, временные файлы удаляются сразу. Через .dockerignore выкидывается весь мусор из контекста сборки.
Для Go это усиливается статической сборкой. CGO выключен, бинарь самодостаточный.
На выходе остаётся минимальный runtime с одним бинарником.
846 MB превращаются в 2.5 MB.
Классическая проблема. Один Dockerfile, жирный базовый образ, внутри всё подряд. Билд-тулы, кэши, временные файлы, лишние пакеты. В прод улетает всё.
Результат понятен. Огромный образ, медленные pull, лишние деньги за хранение и увеличенная поверхность атаки.
Решение:
Первый шаг. Лёгкий builder. Переход с полного golang-образа на alpine сразу режет размер в разы.
Дальше главный приём. Multi-stage build. В первом этапе собираешь бинарник со всеми зависимостями. Во втором стартуешь с чистого минимального образа и копируешь только результат сборки.
В прод не попадает ничего лишнего. Ни компиляторов, ни кэшей, ни dev-пакетов.
Дополнительно вычищаются слои. Команды объединяются, временные файлы удаляются сразу. Через .dockerignore выкидывается весь мусор из контекста сборки.
Для Go это усиливается статической сборкой. CGO выключен, бинарь самодостаточный.
На выходе остаётся минимальный runtime с одним бинарником.
846 MB превращаются в 2.5 MB.
🔥6👍4❤1👎1😱1
🔥 История, которая перевернула безопасность во всём мире и всё из-за одной «невидимой» ошибки
В 1979 году на АЭС Three Mile Island в США произошла одна из самых известных ядерных аварий.
Но самое страшное было не в поломке.
А в том, как люди её интерпретировали.
Операторы видели данные с приборов и сделали, казалось бы, логичный вывод:
👉 система переполнена водой
👉 нужно её уменьшить
Они действовали «по инструкции».
Но реальность была противоположной.
💥 Реальная проблема:
• реактор терял охлаждение
А действия операторов только усугубили ситуацию
Почему это произошло?
Потому что они опирались только на видимые сигналы, игнорируя то, чего не было видно напрямую.
🧠 Это тот же тип ошибки мышления, что и у Вальда:
**мы доверяем тому, что видим
и игнорируем то, чего не видим**
После аварии провели масштабное расследование.
И выяснилось:
- интерфейсы показывали слишком много лишнего
- ключевые сигналы были «спрятаны»
- операторы не понимали, что действительно важно
⚡️ Что изменилось после этого:
- появилось направление human-centered design в критических системах
- интерфейсы начали проектировать под стрессовые ситуации
- в авиации и энергетике внедрили симуляторы аварий
- появилась концепция:
👉 «если пользователь ошибается — виноват дизайн, а не пользователь»
📊 Интересный факт:
после внедрения новых подходов к интерфейсам и обучению
👉 количество критических ошибок операторов в авиации и энергетике снизилось в разы
💡 Где это встречается сегодня:
- дашборды в аналитике
- мониторинг в DevOps
- алерты в продакшене
- метрики в AI
Ты видишь график — и думаешь, что понимаешь систему.
Но настоящая проблема часто скрыта в том,
чего нет на графике
👉 Главный вывод:
самые опасные ошибки — не в данных
а в том, как ты их интерпретируешь
📌 Параллель с Вальдом:
- там не было данных о погибших самолётах
- здесь не было понимания реального состояния реактора
И в обоих случаях: невидимое оказалось важнее видимого
#thinking #engineering #ai #devops
В 1979 году на АЭС Three Mile Island в США произошла одна из самых известных ядерных аварий.
Но самое страшное было не в поломке.
А в том, как люди её интерпретировали.
Операторы видели данные с приборов и сделали, казалось бы, логичный вывод:
👉 система переполнена водой
👉 нужно её уменьшить
Они действовали «по инструкции».
Но реальность была противоположной.
💥 Реальная проблема:
• реактор терял охлаждение
А действия операторов только усугубили ситуацию
Почему это произошло?
Потому что они опирались только на видимые сигналы, игнорируя то, чего не было видно напрямую.
🧠 Это тот же тип ошибки мышления, что и у Вальда:
**мы доверяем тому, что видим
и игнорируем то, чего не видим**
После аварии провели масштабное расследование.
И выяснилось:
- интерфейсы показывали слишком много лишнего
- ключевые сигналы были «спрятаны»
- операторы не понимали, что действительно важно
⚡️ Что изменилось после этого:
- появилось направление human-centered design в критических системах
- интерфейсы начали проектировать под стрессовые ситуации
- в авиации и энергетике внедрили симуляторы аварий
- появилась концепция:
👉 «если пользователь ошибается — виноват дизайн, а не пользователь»
📊 Интересный факт:
после внедрения новых подходов к интерфейсам и обучению
👉 количество критических ошибок операторов в авиации и энергетике снизилось в разы
💡 Где это встречается сегодня:
- дашборды в аналитике
- мониторинг в DevOps
- алерты в продакшене
- метрики в AI
Ты видишь график — и думаешь, что понимаешь систему.
Но настоящая проблема часто скрыта в том,
чего нет на графике
👉 Главный вывод:
самые опасные ошибки — не в данных
а в том, как ты их интерпретируешь
📌 Параллель с Вальдом:
- там не было данных о погибших самолётах
- здесь не было понимания реального состояния реактора
И в обоих случаях: невидимое оказалось важнее видимого
#thinking #engineering #ai #devops
❤3👍3🔥3
Forwarded from Python/ django
🔥 Linux 7.0 - Торвальд и команда вычистили десятилетия грязного легаси и ОС стала реально быстрее!
Линус Торвальдс наконец пошёл на радикальный шаг и начал массовую зачистку старого кода. То, что копилось годами, просто выкинули. Итог - система стала заметно проще, чище и быстрее.
Что изменилось по факту:
XFS сильно прокачали - файловая система стала надёжнее, меньше рисков потери данных и лучше ведёт себя под нагрузкой
Работа с памятью ускорилась примерно на 20%, плюс подтянули сетевой стек - соединения стабильнее при высоких нагрузках
Контейнеры теперь стартуют быстрее за счёт улучшений в open_tree - меньше оверхеда при разворачивании
В Kconfig наконец дали больше свободы кастомизации - можно заменить Tux на свой логотип
Поддержка железа тоже прокачана - AMD и Intel работают эффективнее без ручных оптимизаций
Главное здесь не список фич, а тренд. Ядро постепенно избавляется от исторического балласта и становится более предсказуемым и удобным для современных нагрузок.
https://github.com/torvalds/linux/releases/tag/v7.0
🐍 Python полезные ресурсы 🚀Max
@pythonl
Линус Торвальдс наконец пошёл на радикальный шаг и начал массовую зачистку старого кода. То, что копилось годами, просто выкинули. Итог - система стала заметно проще, чище и быстрее.
Что изменилось по факту:
XFS сильно прокачали - файловая система стала надёжнее, меньше рисков потери данных и лучше ведёт себя под нагрузкой
Работа с памятью ускорилась примерно на 20%, плюс подтянули сетевой стек - соединения стабильнее при высоких нагрузках
Контейнеры теперь стартуют быстрее за счёт улучшений в open_tree - меньше оверхеда при разворачивании
В Kconfig наконец дали больше свободы кастомизации - можно заменить Tux на свой логотип
Поддержка железа тоже прокачана - AMD и Intel работают эффективнее без ручных оптимизаций
Главное здесь не список фич, а тренд. Ядро постепенно избавляется от исторического балласта и становится более предсказуемым и удобным для современных нагрузок.
https://github.com/torvalds/linux/releases/tag/v7.0
🐍 Python полезные ресурсы 🚀Max
@pythonl
❤20🔥18👍7
⚡️ 20 kubectl команд, которые экономят часы в проде
Когда что-то падает — не нужен весь kubectl.
Достаточно этих команд 👇
🧪 Быстрый дебаг
• kubectl get pods -A --field-selector=status.phase!=Running
• kubectl get pods -A --sort-by=.status.containerStatuses[*].restartCount
• kubectl describe pod <pod> -n <ns>
• kubectl get pods -A | grep Pending
📜 Логи и ресурсы
• kubectl logs <pod> -n <ns> --previous
• kubectl top pods -A
• kubectl describe node <node>
🧭 Сеть и размещение
• kubectl get pod <pod> -n <ns> -o wide
• kubectl get pods -A -o wide | grep <node>
• kubectl get svc -A -o wide
• kubectl run tmp-shell -it --rm --image=busybox -- /bin/sh
🚀 Роллауты и откаты
• kubectl port-forward svc/<svc> 8080:80
• kubectl rollout history deployment/<name>
• kubectl rollout undo deployment/<name>
• kubectl get deployment <name> -o yaml
🧩 События и конфиг
• kubectl get events -A --sort-by=.metadata.creationTimestamp
• kubectl describe svc <svc>
• kubectl get endpoints <svc>
• kubectl get ingress -A
Освоишь эти команды - будешь закрывать 90% проблем в проде намного быстрее.
Сохрани, чтобы не искать потом 🔖
Когда что-то падает — не нужен весь kubectl.
Достаточно этих команд 👇
🧪 Быстрый дебаг
• kubectl get pods -A --field-selector=status.phase!=Running
• kubectl get pods -A --sort-by=.status.containerStatuses[*].restartCount
• kubectl describe pod <pod> -n <ns>
• kubectl get pods -A | grep Pending
📜 Логи и ресурсы
• kubectl logs <pod> -n <ns> --previous
• kubectl top pods -A
• kubectl describe node <node>
🧭 Сеть и размещение
• kubectl get pod <pod> -n <ns> -o wide
• kubectl get pods -A -o wide | grep <node>
• kubectl get svc -A -o wide
• kubectl run tmp-shell -it --rm --image=busybox -- /bin/sh
🚀 Роллауты и откаты
• kubectl port-forward svc/<svc> 8080:80
• kubectl rollout history deployment/<name>
• kubectl rollout undo deployment/<name>
• kubectl get deployment <name> -o yaml
🧩 События и конфиг
• kubectl get events -A --sort-by=.metadata.creationTimestamp
• kubectl describe svc <svc>
• kubectl get endpoints <svc>
• kubectl get ingress -A
Освоишь эти команды - будешь закрывать 90% проблем в проде намного быстрее.
Сохрани, чтобы не искать потом 🔖
👍12❤6
This media is not supported in your browser
VIEW IN TELEGRAM
Установка браузера Firefox на Linux и Windows
🤣23👍4❤2🥱1
GitHub stars больше не показатель. Их просто покупают
Исследование показало: около 6 миллионов звёзд, поставленных недавно на GitHub могут быть накрученными. Это 18 617 репозиториев и 300 000+ аккаунтов.
Рынок уже сформировался:
• звезда стоит от $0.03 до $0.85
• продаётся через фриланс-платформы, вроде Fiverr и через Telegram
• накрутка делается пачками под запуск или «рост» проекта
Проблема в том, что инвесторы и алгоритмы до сих пор смотрят на звёзды как на сигнал качества и популярности.
Реальный показатель сейчас - разрыв между метриками:
• если звёзд много, а форков и watchers почти нет
• если никто не копирует код и не следит за обновлениями
• если нет активности в issues и PR
https://awesomeagents.ai/news/github-fake-stars-investigation/
Исследование показало: около 6 миллионов звёзд, поставленных недавно на GitHub могут быть накрученными. Это 18 617 репозиториев и 300 000+ аккаунтов.
Рынок уже сформировался:
• звезда стоит от $0.03 до $0.85
• продаётся через фриланс-платформы, вроде Fiverr и через Telegram
• накрутка делается пачками под запуск или «рост» проекта
Проблема в том, что инвесторы и алгоритмы до сих пор смотрят на звёзды как на сигнал качества и популярности.
Реальный показатель сейчас - разрыв между метриками:
• если звёзд много, а форков и watchers почти нет
• если никто не копирует код и не следит за обновлениями
• если нет активности в issues и PR
https://awesomeagents.ai/news/github-fake-stars-investigation/
❤4👍4🥰1
🔥 Что на самом деле хотят услышать на DevOps собесе
На собеседованиях по DevOps очень любят спрашивать: "Как у вас устроен мониторинг в проекте?"
И многие отвечают слишком коротко:
Prometheus, Grafana, CloudWatch.
Ответ вроде правильный.
Но для сильного собеседования этого мало.
Интервьюеру обычно важно понять не просто названия инструментов, а всю цепочку:
- как собираются логи
- куда они попадают дальше
- как долго хранятся
- как собираются метрики
- как считается SLA
- и почему архитектура сделана именно так
Именно это показывает разницу между человеком, который просто пользовался готовым стеком, и тем, кто реально поднимал мониторинг в production.
Например, в enterprise-проекте на EKS мониторинг может выглядеть так:
Есть два типа нагрузок:
- микросервисы на Fargate
- stateful-приложение в StatefulSet
И подход к ним разный.
Для Fargate удобно использовать OpenTelemetry add-on.
Он автоматически собирает логи со всех Fargate-подов и отправляет их в CloudWatch. Это простой и удобный вариант, когда не хочется отдельно городить сбор логов внутри каждого сервиса.
Для StatefulSet чаще нужен более гибкий контроль.
Тут можно использовать Fluent Bit как sidecar-контейнер:
он читает логи из общего тома, фильтрует их, форматирует и отправляет в CloudWatch.
Это особенно важно в банках и других регулируемых системах, где есть требования к структуре логов, аудиту и хранению данных.
Дальше пайплайн может быть таким:
CloudWatch → Lambda для форматирования → Kinesis Firehose → OpenSearch
Зачем это нужно:
- Lambda может нормализовать и обогащать логи
- Firehose умеет батчить и стабильно доставлять данные
- OpenSearch удобен для поиска и анализа
- S3 подходит для долгого и дешёвого хранения
Пример хранения:
- 7 дней в OpenSearch
- 30 дней в CloudWatch
- полный архив в S3
С метриками история другая.
Обычно используют Prometheus, который ходит в
Чтобы Prometheus понимал, что именно скрейпить в Kubernetes, для сервисов настраивают
Дальше Grafana показывает всё в дашбордах.
Хорошая практика - свести в Grafana сразу несколько источников:
- Prometheus для технических метрик
- CloudWatch для инфраструктуры и логов
- OpenSearch для поиска по событиям и ошибкам
Тогда в одном месте можно увидеть:
- CPU и memory
- latency и error rate
- логи по времени инцидента
- состояние сервиса по SLA
И вот тут начинается взрослая часть мониторинга.
SLA - это не абстрактная цифра на слайде.
Это конкретный лимит простоя.
Например, 99.1% uptime в месяц означает, что сервис может быть недоступен примерно 6.4 часа за месяц.
Если это вынесено в Grafana, то и команда, и бизнес видят состояние системы в реальном времени, а не узнают о проблеме постфактум.
Поэтому на собеседовании лучше рассказывать не просто набор инструментов, а целую историю:
не "у нас Prometheus и Grafana",
а "вот как у нас собираются логи, вот куда они идут, вот почему выбран именно такой маршрут, вот как мы храним данные, вот как считаем SLA и что видит бизнес".
Именно такой ответ звучит как опыт production-уровня.
https://uproger.com/samyj-populyarnyj-vopros-na-sobesedovaniyah-devops-kak-u-vas-ustroen-monitoring-v-proekte/
На собеседованиях по DevOps очень любят спрашивать: "Как у вас устроен мониторинг в проекте?"
И многие отвечают слишком коротко:
Prometheus, Grafana, CloudWatch.
Ответ вроде правильный.
Но для сильного собеседования этого мало.
Интервьюеру обычно важно понять не просто названия инструментов, а всю цепочку:
- как собираются логи
- куда они попадают дальше
- как долго хранятся
- как собираются метрики
- как считается SLA
- и почему архитектура сделана именно так
Именно это показывает разницу между человеком, который просто пользовался готовым стеком, и тем, кто реально поднимал мониторинг в production.
Например, в enterprise-проекте на EKS мониторинг может выглядеть так:
Есть два типа нагрузок:
- микросервисы на Fargate
- stateful-приложение в StatefulSet
И подход к ним разный.
Для Fargate удобно использовать OpenTelemetry add-on.
Он автоматически собирает логи со всех Fargate-подов и отправляет их в CloudWatch. Это простой и удобный вариант, когда не хочется отдельно городить сбор логов внутри каждого сервиса.
Для StatefulSet чаще нужен более гибкий контроль.
Тут можно использовать Fluent Bit как sidecar-контейнер:
он читает логи из общего тома, фильтрует их, форматирует и отправляет в CloudWatch.
Это особенно важно в банках и других регулируемых системах, где есть требования к структуре логов, аудиту и хранению данных.
Дальше пайплайн может быть таким:
CloudWatch → Lambda для форматирования → Kinesis Firehose → OpenSearch
Зачем это нужно:
- Lambda может нормализовать и обогащать логи
- Firehose умеет батчить и стабильно доставлять данные
- OpenSearch удобен для поиска и анализа
- S3 подходит для долгого и дешёвого хранения
Пример хранения:
- 7 дней в OpenSearch
- 30 дней в CloudWatch
- полный архив в S3
С метриками история другая.
Обычно используют Prometheus, который ходит в
/metrics каждого приложения, например каждые 30 секунд.Чтобы Prometheus понимал, что именно скрейпить в Kubernetes, для сервисов настраивают
ServiceMonitor.Дальше Grafana показывает всё в дашбордах.
Хорошая практика - свести в Grafana сразу несколько источников:
- Prometheus для технических метрик
- CloudWatch для инфраструктуры и логов
- OpenSearch для поиска по событиям и ошибкам
Тогда в одном месте можно увидеть:
- CPU и memory
- latency и error rate
- логи по времени инцидента
- состояние сервиса по SLA
И вот тут начинается взрослая часть мониторинга.
SLA - это не абстрактная цифра на слайде.
Это конкретный лимит простоя.
Например, 99.1% uptime в месяц означает, что сервис может быть недоступен примерно 6.4 часа за месяц.
Если это вынесено в Grafana, то и команда, и бизнес видят состояние системы в реальном времени, а не узнают о проблеме постфактум.
Поэтому на собеседовании лучше рассказывать не просто набор инструментов, а целую историю:
не "у нас Prometheus и Grafana",
а "вот как у нас собираются логи, вот куда они идут, вот почему выбран именно такой маршрут, вот как мы храним данные, вот как считаем SLA и что видит бизнес".
Именно такой ответ звучит как опыт production-уровня.
https://uproger.com/samyj-populyarnyj-vopros-na-sobesedovaniyah-devops-kak-u-vas-ustroen-monitoring-v-proekte/
❤9👍3
⚡️ Вы слышали про Rust. Знаете, что он быстрый, безопасный и что за ним будущее.
Осталось одно: сесть и выучить.
Этот курс со Stepik- кратчайший путь от «знаю что такое Rust» до «пишу на нём».
6 модулей, 50 уроков, 143 теста. Ownership, borrowing, traits, async, Tokio, Axum, макросы, WASM — всё разложено по полочкам и закреплено практикой.
Никакого видео на 40 минут ради одной мысли. Подробный текст, много кода, реальные задачи после каждого урока. На выходе — портфолио из 10+ проектов: от CLI-утилит до REST API с базой данных.
48 часов действует скидка 55 процентов: stepik.org/course/269250
Осталось одно: сесть и выучить.
Этот курс со Stepik- кратчайший путь от «знаю что такое Rust» до «пишу на нём».
6 модулей, 50 уроков, 143 теста. Ownership, borrowing, traits, async, Tokio, Axum, макросы, WASM — всё разложено по полочкам и закреплено практикой.
Никакого видео на 40 минут ради одной мысли. Подробный текст, много кода, реальные задачи после каждого урока. На выходе — портфолио из 10+ проектов: от CLI-утилит до REST API с базой данных.
48 часов действует скидка 55 процентов: stepik.org/course/269250
❤3🖕3👍1🔥1
📌 15 лучших CI/CD инструментов для DevOps в 2026 году
Jenkins
https://github.com/jenkinsci/jenkins
GitLab CI (Community Edition)
https://github.com/gitlabhq/gitlabhq
Drone CI
https://github.com/harness/drone
Concourse CI
https://github.com/concourse/concourse
Woodpecker CI
https://github.com/woodpecker-ci/woodpecker
Argo Workflows
https://github.com/argoproj/argo-workflows
Argo CD (GitOps CD)
https://github.com/argoproj/argo-cd
Tekton Pipelines
https://github.com/tektoncd/pipeline
Spinnaker
https://github.com/spinnaker/spinnaker
GoCD
https://github.com/gocd/gocd
Zuul CI
https://github.com/zuul/zuul
Screwdriver CI
https://github.com/screwdriver-cd/screwdriver
Brigade
https://github.com/brigadecore/brigade
Dagger
https://github.com/dagger/dagger
Flux CD (GitOps)
https://github.com/fluxcd/flux2
Jenkins
https://github.com/jenkinsci/jenkins
GitLab CI (Community Edition)
https://github.com/gitlabhq/gitlabhq
Drone CI
https://github.com/harness/drone
Concourse CI
https://github.com/concourse/concourse
Woodpecker CI
https://github.com/woodpecker-ci/woodpecker
Argo Workflows
https://github.com/argoproj/argo-workflows
Argo CD (GitOps CD)
https://github.com/argoproj/argo-cd
Tekton Pipelines
https://github.com/tektoncd/pipeline
Spinnaker
https://github.com/spinnaker/spinnaker
GoCD
https://github.com/gocd/gocd
Zuul CI
https://github.com/zuul/zuul
Screwdriver CI
https://github.com/screwdriver-cd/screwdriver
Brigade
https://github.com/brigadecore/brigade
Dagger
https://github.com/dagger/dagger
Flux CD (GitOps)
https://github.com/fluxcd/flux2
❤3👍3
Быстрый Linux совет 🐧
Если сложно читать содержимое переменной $PATH - разнеси её по строкам.
По умолчанию там всё в одну линию через двоеточие, поэтому быстро понять структуру почти нереально.
Просто прогоняешь через tr:
$ echo $PATH | tr ":" "\n"
Теперь каждый путь отображается с новой строки.
Мелочь, но сильно ускоряет разбор окружения и поиск проблем.
Сохрани, пригодится.
Если сложно читать содержимое переменной $PATH - разнеси её по строкам.
По умолчанию там всё в одну линию через двоеточие, поэтому быстро понять структуру почти нереально.
Просто прогоняешь через tr:
$ echo $PATH | tr ":" "\n"
Теперь каждый путь отображается с новой строки.
Мелочь, но сильно ускоряет разбор окружения и поиск проблем.
Сохрани, пригодится.
👍18❤7🔥4
🎮 Учись программировать через игры — это реально работает
Если скучно учить код по книжкам - попробуй формат, где ты сразу применяешь знания на практике
Вот 10 крутых платформ:
1. Kubernetes
http://k8sgames.com
2. DevOps
http://devops.games
3. Linux
http://overthewire.org
4. Git
http://ohmygit.org
5. Python
http://codecombat.com
6. CSS & HTML
http://codepip.com
7. Кибербезопасность
http://picoctf.org
8. Мобильное обучение (как Duolingo)
http://sololearn.com
9. Для новичков с нуля
http://scratch.mit.edu
10. 25+ языков программирования
http://codingame.com
Почему это работает:
- сразу практика, а не теория
- есть цель и геймификация
- быстрее запоминается
- не выгораешь
Если ты только начинаешь или застрял —
это один из самых быстрых способов прокачаться
Если скучно учить код по книжкам - попробуй формат, где ты сразу применяешь знания на практике
Вот 10 крутых платформ:
1. Kubernetes
http://k8sgames.com
2. DevOps
http://devops.games
3. Linux
http://overthewire.org
4. Git
http://ohmygit.org
5. Python
http://codecombat.com
6. CSS & HTML
http://codepip.com
7. Кибербезопасность
http://picoctf.org
8. Мобильное обучение (как Duolingo)
http://sololearn.com
9. Для новичков с нуля
http://scratch.mit.edu
10. 25+ языков программирования
http://codingame.com
Почему это работает:
- сразу практика, а не теория
- есть цель и геймификация
- быстрее запоминается
- не выгораешь
Если ты только начинаешь или застрял —
это один из самых быстрых способов прокачаться
❤9👍1
👉 Поднимите приватный инференс на выделенном железе
В Selectel сделали поддержку видеокарт в управляемых кластерах Kubernetes на выделенных серверах.
Теперь модели можно запускать на отдельном железе: стабильная производительность, изоляция данных и конфигурации под разные задачи. По стоимости — до 40% дешевле, чем использовать ускорители в облачных серверах.
Попробуйте сами, на тест дают до 30 000 бонусных рублей: https://slc.tl/bwbx2
Реклама. АО "Селектел". erid:2W5zFGKKZF7
В Selectel сделали поддержку видеокарт в управляемых кластерах Kubernetes на выделенных серверах.
Теперь модели можно запускать на отдельном железе: стабильная производительность, изоляция данных и конфигурации под разные задачи. По стоимости — до 40% дешевле, чем использовать ускорители в облачных серверах.
Попробуйте сами, на тест дают до 30 000 бонусных рублей: https://slc.tl/bwbx2
Реклама. АО "Селектел". erid:2W5zFGKKZF7
❤3👍2👎1🔥1
Можно разрабатывать cloud-приложения… вообще без интернета 🤯
Да, теперь тебе не нужен AWS, чтобы тестировать S3.
Появился инструмент - gofakes3
Это лёгкий клон S3, который работает прямо у тебя локально.
Что это даёт:
• 💸 Ноль затрат
никаких счетов от AWS за тесты
• 📴 Полностью оффлайн
можешь разрабатывать даже без интернета
• ⚡ Быстрое тестирование
никаких задержек и сетевых лагов
Как это используют на практике:
👉 тестируешь загрузку файлов
👉 проверяешь интеграции с S3
👉 гоняешь edge-кейсы без риска
И всё это — локально.
💡 Почему это важно
Раньше:
локальная разработка ≠ прод
Теперь:
👉 ты можешь воспроизвести поведение облака у себя
🔥 Особенно полезно если ты:
- пишешь backend
- работаешь с файлами
- строишь SaaS
- тестируешь интеграции
🚀 Инсайт
Чем больше инфраструктуры ты переносишь локально
→ тем быстрее ты разрабатываешь
И тем меньше платишь.
Такие инструменты тихо убивают зависимость от облаков
на этапе разработки.
github.com/johannesboyne/gofakes3/
🖥 Полезные Linux ресурсы 🚀 Max
@DevOPSitsec
Да, теперь тебе не нужен AWS, чтобы тестировать S3.
Появился инструмент - gofakes3
Это лёгкий клон S3, который работает прямо у тебя локально.
Что это даёт:
• 💸 Ноль затрат
никаких счетов от AWS за тесты
• 📴 Полностью оффлайн
можешь разрабатывать даже без интернета
• ⚡ Быстрое тестирование
никаких задержек и сетевых лагов
Как это используют на практике:
👉 тестируешь загрузку файлов
👉 проверяешь интеграции с S3
👉 гоняешь edge-кейсы без риска
И всё это — локально.
💡 Почему это важно
Раньше:
локальная разработка ≠ прод
Теперь:
👉 ты можешь воспроизвести поведение облака у себя
🔥 Особенно полезно если ты:
- пишешь backend
- работаешь с файлами
- строишь SaaS
- тестируешь интеграции
🚀 Инсайт
Чем больше инфраструктуры ты переносишь локально
→ тем быстрее ты разрабатываешь
И тем меньше платишь.
Такие инструменты тихо убивают зависимость от облаков
на этапе разработки.
github.com/johannesboyne/gofakes3/
@DevOPSitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥5❤1😁1
🚀 Ты всё ещё называешь обёртку над ChatGPT «AI-продуктом»?
Пока ты пишешь промпты - рынок уже ушёл дальше.
Сейчас выигрывают не те, кто умеет красиво формулировать запросы, а те, кто строит агентные системы:
- принимают решения сами
- ходят в API
- работают с Postgres и Redis
- управляют браузером через Playwright
- доводят задачи до результата без человека
И вот правда, о которой мало говорят:
90% таких систем умирают между ноутбуком и продом.
Работает локально. Ломается в реальности.
Нет архитектуры. Нет устойчивости. Нет деплоя.
AI Agents Engineering - курс со Stepik, который закрывает этот разрыв.
- LangGraph, AutoGen, Computer Use
- архитектура агентов, а не «скрипты на коленке»
- LLMOps, логирование, стабильность
- деплой в Docker и работа в проде
8 модулей, 120+ шагов, всё через практику.
На выходе не «сертификат ради галочки», а:
- рабочий production-агент
- понимание, как строить такие системы с нуля
- навыки, за которые уже платят
Сейчас самое окно входа.
Через полгода это станет базой, а не преимуществом.
Скидка 55% действует ещё 48 часов: https://stepik.org/a/276971/
Пока ты пишешь промпты - рынок уже ушёл дальше.
Сейчас выигрывают не те, кто умеет красиво формулировать запросы, а те, кто строит агентные системы:
- принимают решения сами
- ходят в API
- работают с Postgres и Redis
- управляют браузером через Playwright
- доводят задачи до результата без человека
И вот правда, о которой мало говорят:
90% таких систем умирают между ноутбуком и продом.
Работает локально. Ломается в реальности.
Нет архитектуры. Нет устойчивости. Нет деплоя.
AI Agents Engineering - курс со Stepik, который закрывает этот разрыв.
- LangGraph, AutoGen, Computer Use
- архитектура агентов, а не «скрипты на коленке»
- LLMOps, логирование, стабильность
- деплой в Docker и работа в проде
8 модулей, 120+ шагов, всё через практику.
На выходе не «сертификат ради галочки», а:
- рабочий production-агент
- понимание, как строить такие системы с нуля
- навыки, за которые уже платят
Сейчас самое окно входа.
Через полгода это станет базой, а не преимуществом.
Скидка 55% действует ещё 48 часов: https://stepik.org/a/276971/
🤣5❤1👍1🔥1
🗺 Kubernetes Key Commands Map - карта ключевых команд Kubernetes, которую стоит сохранить
Если работаешь с Kubernetes, очень легко утонуть в количестве команд.
Но на практике чаще всего нужны не сотни команд, а понятная база, которая закрывает основные сценарии каждый день.
Эта карта охватывает 7 важных направлений:
1. Управление Pod'ами
2. Управление кластером
3. Управление сервисами
4. Мониторинг ресурсов
5. Работа с namespace
6. Управление deployment
7. Конфигурации и secrets
Важно понимать:
это не полный список команд Kubernetes.
Здесь собраны именно ключевые команды, которые чаще всего нужны в реальной работе - для диагностики, деплоя, проверки состояния и повседневного администрирования.
Сохрани себе, если работаешь с DevOps, Cloud или Kubernetes - такая шпаргалка реально экономит время.
54K+ человек уже читают мою рассылку про DevOps и Cloud:
https://techopsexamples.com/subscribe
🖥 Полезные Linux ресурсы 🚀 Max
@DevOPSitsec
Если работаешь с Kubernetes, очень легко утонуть в количестве команд.
Но на практике чаще всего нужны не сотни команд, а понятная база, которая закрывает основные сценарии каждый день.
Эта карта охватывает 7 важных направлений:
1. Управление Pod'ами
2. Управление кластером
3. Управление сервисами
4. Мониторинг ресурсов
5. Работа с namespace
6. Управление deployment
7. Конфигурации и secrets
Важно понимать:
это не полный список команд Kubernetes.
Здесь собраны именно ключевые команды, которые чаще всего нужны в реальной работе - для диагностики, деплоя, проверки состояния и повседневного администрирования.
Сохрани себе, если работаешь с DevOps, Cloud или Kubernetes - такая шпаргалка реально экономит время.
54K+ человек уже читают мою рассылку про DevOps и Cloud:
https://techopsexamples.com/subscribe
@DevOPSitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5😁1
🐳 Пока все ждали GPT-5.5, DeepSeek без шума обвалил рынок!
Никаких стримов, никакого пафоса. Просто вечером китайцы выложили V4 в открытый доступ и пошли спать. А утром индустрия проснулась в новой реальности.
В релизе две модели. V4-Pro на 1.6T параметров с 49B активных и V4-Flash на 284B с 13B активных. Обе с миллионом токенов контекста по дефолту. Оба варианта уже качаются с Hugging Face, работают в API и на chat.deepseek.com.
Фокус в новой архитектуре внимания: токенная компрессия плюс собственная DeepSeek Sparse Attention. Благодаря этому миллион контекста перестал быть премиум-опцией за конские деньги и стал дефолтом. Весь ваш кодбейс, вся документация, вся история переписки влезают в один запрос и не разоряют.
А теперь главное. Независимая Arena.ai уже прогнала модели вслепую. V4-Pro встал третьим среди открытых моделей в агентном кодинге и идёт вровень с GPT-5.4-high и Gemini 3.1 Pro. То есть открытые веса впервые по-настоящему догнали фронтир закрытых лабораторий. Не на бумажке и не в маркетинге, а на реальных запросах пользователей.
Отдельно DeepSeek потроллили Anthropic. В треде релиза прямо написано: V4 «бесшовно интегрируется с Claude Code». Вчера у Anthropic вышел пост-мортем про сломанный харнесс, сегодня им предлагают подменить модель и заодно сэкономить. Больно.
И вишенка. DeepSeek честно сказали, что Pro сейчас работает на ограниченных мощностях: топовых ускорителей не хватает. Во второй половине года они переезжают на Huawei Atlas 950 SuperPoD и обещают снова уронить цену. Санкции не остановили китайский AI, они просто заставили его пересесть на собственное железо.
Итог простой. Вчера миллион токенов контекста был роскошью. Сегодня это стандарт с открытыми весами. А закрытые лаборатории теперь должны объяснить, за что они берут свои деньги.
Тестим: https://huggingface.co/collections/deepseek-ai/deepseek-v4https://chat.deepseek.com/
https://huggingface.co/collections/deepseek-ai/deepseek-v4
Никаких стримов, никакого пафоса. Просто вечером китайцы выложили V4 в открытый доступ и пошли спать. А утром индустрия проснулась в новой реальности.
В релизе две модели. V4-Pro на 1.6T параметров с 49B активных и V4-Flash на 284B с 13B активных. Обе с миллионом токенов контекста по дефолту. Оба варианта уже качаются с Hugging Face, работают в API и на chat.deepseek.com.
Фокус в новой архитектуре внимания: токенная компрессия плюс собственная DeepSeek Sparse Attention. Благодаря этому миллион контекста перестал быть премиум-опцией за конские деньги и стал дефолтом. Весь ваш кодбейс, вся документация, вся история переписки влезают в один запрос и не разоряют.
А теперь главное. Независимая Arena.ai уже прогнала модели вслепую. V4-Pro встал третьим среди открытых моделей в агентном кодинге и идёт вровень с GPT-5.4-high и Gemini 3.1 Pro. То есть открытые веса впервые по-настоящему догнали фронтир закрытых лабораторий. Не на бумажке и не в маркетинге, а на реальных запросах пользователей.
Отдельно DeepSeek потроллили Anthropic. В треде релиза прямо написано: V4 «бесшовно интегрируется с Claude Code». Вчера у Anthropic вышел пост-мортем про сломанный харнесс, сегодня им предлагают подменить модель и заодно сэкономить. Больно.
И вишенка. DeepSeek честно сказали, что Pro сейчас работает на ограниченных мощностях: топовых ускорителей не хватает. Во второй половине года они переезжают на Huawei Atlas 950 SuperPoD и обещают снова уронить цену. Санкции не остановили китайский AI, они просто заставили его пересесть на собственное железо.
Итог простой. Вчера миллион токенов контекста был роскошью. Сегодня это стандарт с открытыми весами. А закрытые лаборатории теперь должны объяснить, за что они берут свои деньги.
Тестим: https://huggingface.co/collections/deepseek-ai/deepseek-v4https://chat.deepseek.com/
https://huggingface.co/collections/deepseek-ai/deepseek-v4
🔥25👎5❤2👍1🤨1