Hammering nails into Kapacitor coffin
Георгий Шуклин в своём блоге на Медиуме рассказывает об отрицательном опыте работы с Kapacitor.
Георгий Шуклин в своём блоге на Медиуме рассказывает об отрицательном опыте работы с Kapacitor.
Medium
Hammering nails into Kapacitor coffin
TICK is dead
Forwarded from /usr/bin
Introducing kubectl flame: Effortless Profiling on Kubernetes
Profiling is the act of analyzing the performance of applications in order to improve poorly performing sections of code.
One of the most popular ways to visualize a profile and quickly identifying performance issues is by generating a Flame Graph. Читать дальше.
Profiling is the act of analyzing the performance of applications in order to improve poorly performing sections of code.
One of the most popular ways to visualize a profile and quickly identifying performance issues is by generating a Flame Graph. Читать дальше.
Forwarded from /usr/bin
Centralize Your Docker Logging With Syslog
During one of the projects that I worked on in recent years, I had the task of integrating a centralized logging system with the applications stack we use (following a microservice architecture). Читать дальше.
During one of the projects that I worked on in recent years, I had the task of integrating a centralized logging system with the applications stack we use (following a microservice architecture). Читать дальше.
Medium
Centralize Your Docker Logging With Syslog
The best way to understand our systems and their successes or failures is through great logging
Семь «НЕ» мониторинга ИТ-инфраструктуры
Пару недель назад у этой статьи был двухлетний юбилей. А она как была актуальной так и остаётся. Автор, можно сказать, писал на века.
📌1. НЕ внедряйте инструмент мониторинга
📌2. Интегратор НЕ сделает за вас всей работы
📌3. НЕ путайте мониторинг и администрирование ИТ-инфраструктуры
📌4. НЕ рассчитывайте, что ваши подчиненные будут использовать мониторинг, если вы сами этого не делаете
📌5. НЕ заставляйте сотрудников работать с системой мониторинга
📌6. НЕ концентрируйтесь на проверке функциональности системы мониторинга во время ее испытаний
📌7. Мониторинг НЕ начнет приносить пользу, пока вы не начнете работать с ним и адаптировать его под свои потребности
Пару недель назад у этой статьи был двухлетний юбилей. А она как была актуальной так и остаётся. Автор, можно сказать, писал на века.
📌1. НЕ внедряйте инструмент мониторинга
📌2. Интегратор НЕ сделает за вас всей работы
📌3. НЕ путайте мониторинг и администрирование ИТ-инфраструктуры
📌4. НЕ рассчитывайте, что ваши подчиненные будут использовать мониторинг, если вы сами этого не делаете
📌5. НЕ заставляйте сотрудников работать с системой мониторинга
📌6. НЕ концентрируйтесь на проверке функциональности системы мониторинга во время ее испытаний
📌7. Мониторинг НЕ начнет приносить пользу, пока вы не начнете работать с ним и адаптировать его под свои потребности
Кто занимается Zabbix, знает про его возможности обнаружения сетевых устройств. В Zabbix, обнаружение сетевых устройств возможно с Zabbix-сервера или Zabbix-прокси.
Вот вам реальный кейс. Есть сеть из нескольких сотен магазинов (а может быть аптек или заправок или кафе) со своими серыми внутренними IP-адресами и 1 белым, через который во внешний мир выглядывает маршрутизатор. Внутри каждого такого объекта к маршрутизатору подключена одна-две рабочих станции (на борту 1С с локальным PostgreSQL) и еще десяток устройств: веб-камеры, принтер и другое оборудование. Всё внутри работает через DHCP.
Самое логичное решение — установка на рабочие станции активного Zabbix-агента и сбор шаблонами метрик производительности рабочих станций, 1С, PostgreSQL и может какая-то базовая инвентаризация по железу или ПО. Агент ходит к Zabbix-серверу и запрашивает для себя проверки. Подключения, разумеется, через сертификат или PSK. Но есть вопрос: как обнаружить всё сетевое окружение рабочей и поставить его на мониторинг хотя бы по пингу, если установка Zabbix-прокси на и так загруженные рабочие станции полнейший оверкилл?
Решение такой задачи (не то, чтобы уж очень изящное): чтение ARP-таблиц рабочих станций (см. прикрепленный скриншот), дальнейшее обнаружение из нее новых узлов и включение пинговалки. Если немного усложнить решение, можно зафильтровать служебные адреса и автоматические добавлять в мониторинг только заранее заданный пул адресов.
Как вам такое решение? В комментариях можно поделиться мнением или рассказать о своих интересных задачах. Если у вас есть вопрос или нужен консалтинг по Zabbix, напишите в личные сообщения.
👍 — интересный подход, может пригодиться.
👎 — я знаю лучше. Расскажите в комментариях пжл.
👀 — у меня связная сеть и таких кейсов нет
Вот вам реальный кейс. Есть сеть из нескольких сотен магазинов (а может быть аптек или заправок или кафе) со своими серыми внутренними IP-адресами и 1 белым, через который во внешний мир выглядывает маршрутизатор. Внутри каждого такого объекта к маршрутизатору подключена одна-две рабочих станции (на борту 1С с локальным PostgreSQL) и еще десяток устройств: веб-камеры, принтер и другое оборудование. Всё внутри работает через DHCP.
Самое логичное решение — установка на рабочие станции активного Zabbix-агента и сбор шаблонами метрик производительности рабочих станций, 1С, PostgreSQL и может какая-то базовая инвентаризация по железу или ПО. Агент ходит к Zabbix-серверу и запрашивает для себя проверки. Подключения, разумеется, через сертификат или PSK. Но есть вопрос: как обнаружить всё сетевое окружение рабочей и поставить его на мониторинг хотя бы по пингу, если установка Zabbix-прокси на и так загруженные рабочие станции полнейший оверкилл?
Решение такой задачи (не то, чтобы уж очень изящное): чтение ARP-таблиц рабочих станций (см. прикрепленный скриншот), дальнейшее обнаружение из нее новых узлов и включение пинговалки. Если немного усложнить решение, можно зафильтровать служебные адреса и автоматические добавлять в мониторинг только заранее заданный пул адресов.
Как вам такое решение? В комментариях можно поделиться мнением или рассказать о своих интересных задачах. Если у вас есть вопрос или нужен консалтинг по Zabbix, напишите в личные сообщения.
👍 — интересный подход, может пригодиться.
👎 — я знаю лучше. Расскажите в комментариях пжл.
👀 — у меня связная сеть и таких кейсов нет
Prometheus High Availability and Fault Tolerance strategy, long term storage with VictoriaMetrics
Статья на Медиуме.
Статья на Медиуме.
Feed Prometheus with Locust: performance tests as a metrics’ source
Представленная здесь идея использует результаты нагрузочного теста Locust в качестве источника метрик Prometheus для построения графика результатов нагрузочного теста относительно потребления ресурсов кластера в Grafana. На Медиум!
Представленная здесь идея использует результаты нагрузочного теста Locust в качестве источника метрик Prometheus для построения графика результатов нагрузочного теста относительно потребления ресурсов кластера в Grafana. На Медиум!
Medium
Feed Prometheus with Locust: performance tests as a metrics’ source
How to use load test results as a Prometheus metrics’ source and graph them against cluster resource consumption in Grafana.
Forwarded from /usr/bin
Centralized Monitoring System for Automated Tests with Elasticsearch and Kibana
В этом посте я хочу дать вам некоторую практическую информацию о системе мониторинга автоматических тестов. Я коснусь следующих тем:
⚡️ Зачем нужна система мониторинга для автоматизированных тестов
⚡️ Каковы потенциальные преимущества системы мониторинга
⚡️ Простой подход с использованием следующих технологий: Elasticsearch, Kibana, Firebase test lab, gcloud и gsutil, XCTest и Espresso.
Читать дальше на Медиуме.
В этом посте я хочу дать вам некоторую практическую информацию о системе мониторинга автоматических тестов. Я коснусь следующих тем:
⚡️ Зачем нужна система мониторинга для автоматизированных тестов
⚡️ Каковы потенциальные преимущества системы мониторинга
⚡️ Простой подход с использованием следующих технологий: Elasticsearch, Kibana, Firebase test lab, gcloud и gsutil, XCTest и Espresso.
Читать дальше на Медиуме.
Вчера на канале Дмитрия Ламберта, инженера из Zabbix, вышло видео об использовании и настройке throttling в Zabbix. Напомню, это подход, при котором дропаются одинаковые значения, что в итоге приводит к заметной экономии дисковых ресурсов под БД Zabbix. Выше публиковал об этом пост.
Free SSL Certificates With Let’s Encrypt for Grafana & Prometheus-Operator Helm Charts
Если хотите обезопасить Grafana и Prom
Если хотите обезопасить Grafana и Prom
Medium
Free SSL Certificates With Let’s Encrypt for Grafana & Prometheus-Operator Helm Charts
How to setup Free SSL certs with automated renewals using cert-manager and Let’s Encrypt for Grafana deployed on Kubernetes using Helm.
Подход, который поможет снизить количество событий в системе мониторинга — использование множественных проверок и зависимых триггеров. На приложенном скриншоте пример проверок доступности Zabbix-агента. Здесь его доступность проверяется тремя способами:
⚡️ ICMP Ping
⚡️ Проверка доступности порта агента 10050
⚡️ Проверка agent.ping
В зависимости от статуса каждой из проверок, в системе мониторинга срабатывает тот или иной триггер. Кроме того, такой подход позволит сразу же назначать инцидент на правильного инженера: системного, сетевого или ответственного за мониторинг. Применение подобного подхода для других систем поможет заметно ускорить выявление истинной причины недоступности чего-либо и снизит количество шумовых событий.
⚡️ ICMP Ping
⚡️ Проверка доступности порта агента 10050
⚡️ Проверка agent.ping
В зависимости от статуса каждой из проверок, в системе мониторинга срабатывает тот или иной триггер. Кроме того, такой подход позволит сразу же назначать инцидент на правильного инженера: системного, сетевого или ответственного за мониторинг. Применение подобного подхода для других систем поможет заметно ускорить выявление истинной причины недоступности чего-либо и снизит количество шумовых событий.
New in Grafana 7.2: $__rate_interval for Prometheus rate queries that just work
What range should I use with rate()? That’s not only the title of a true classic among the many useful Robust Perception blog posts; it’s also one of the most frequently asked questions when it comes to PromQL, the Prometheus query language. Читать дальше в блоге Grafana.
What range should I use with rate()? That’s not only the title of a true classic among the many useful Robust Perception blog posts; it’s also one of the most frequently asked questions when it comes to PromQL, the Prometheus query language. Читать дальше в блоге Grafana.
Forwarded from DevOps Tricks | Десять лет в IT
Иногда мы сталкиваемся с распределенной через Интернет инфраструктурой. В случае если отсутствует VPN, использование активных агентов zabbix - отличный способ настроить мониторинг серверов и рабочих станций. Но что, если мы хотим просто проверить доступность IP-камеры и других устройств, расположенных за NAT?
Конечно использовать агента!
Разработал шаблон для таких кейсов, доступно на zabbix-share
Конечно использовать агента!
Разработал шаблон для таких кейсов, доступно на zabbix-share
Zabbix Share
Zabbix Share - Template Windows ICMP Macro Discovery Active
Sometimes we are faced with an infrastructure distributed over the Internet. In case there is no VPN, using zabbix active agents is a great way to configure monitoring of servers and workstations.
How to Setup PostgreSQL Monitoring in Kubernetes
You don't need monitoring until you need it. But if you're running anything in production, you always need it. Читать дальше.
You don't need monitoring until you need it. But if you're running anything in production, you always need it. Читать дальше.
Crunchy Data
PostgreSQL Blog | Crunchy Data
PostgreSQL experts from Crunchy Data share advice, performance tips, and guides on successfully running PostgreSQL and Kubernetes solutions
Promscale: An analytical platform and long-term store for Prometheus, with the combined power of SQL and PromQL
In this post we introduce Promscale, a new open-source long-term store for Prometheus data designed for analytics. Читать дальше.
In this post we introduce Promscale, a new open-source long-term store for Prometheus data designed for analytics. Читать дальше.
Now GA: Cortex blocks storage for running Prometheus at scale with reduced operational complexity
We’ve just launched Cortex 1.4.0, one of the most significant releases of 2020. The big headline: The new blocks storage engine has exited the experimental phase and is now marked as Generally Available. Читать дальше.
We’ve just launched Cortex 1.4.0, one of the most significant releases of 2020. The big headline: The new blocks storage engine has exited the experimental phase and is now marked as Generally Available. Читать дальше.