📢 Load & Performance
886 subscribers
32 photos
3 files
98 links
Избранные материалы о тестировании производительности.
Чат и источник тем: @qa_load
Download Telegram
Привет, любители производительности!

В 2024-м году оплатил лицензию Proxyman.io, это была благодарность за проведение одного теста. После оплаты, и после этого теста не пользовался инструментом, но тест был хороший, поэтому отблагодарить разработчиков стоило

Это будет история про miro.com, proxyman.io, artillery.io, Google Chrome, Mozilla Firefox, картинки, кеширование и производительность

В 2024-м году гуляя по Еревану послушал выпуск подкаста PurePerformance: Persona Driven Engineering – The magic of knowing your end users with Barbara Ogris
🔗 https://www.spreaker.com/episode/persona-driven-engineering-the-magic-of-knowing-your-end-users-with-barbara-ogris--50890444
Не смогу пересказать подкаст кратко, но выхватил для себя, что можно попробовать применить это в тестировании производительности, а именно
🟣 поговорить с конкретным пользователем
🟣 понять конкретную проблему производительности
🟣 решить эту проблему и сообщить пользователю, что все готово

И в тоже время был куратором доклада на конференцию heisenbug.ru, готовили с Раисой Липатовой доклад про техники тест-дизайна. И в разговоре с ней узнал, что она проводит курсы обучения, для проведения курсов использует miro.com как основную платформу для слайдов, что она платный пользователь, что слайдов у нее много, на слайдах много картинок, что она открывает их из Израиля, и что все загружается очень медленно. Но дефект она не заводила

Этот доклад Раиса подготовила —Техники тест-дизайна на примере гипотетической системы выдачи Covid QR кодов
🔗 https://www.youtube.com/watch?v=bRGs5ma-8EY

А я взял себе задачу
🟣 исследовать скорость работы пользователей не из Европы
🟣 ускорить скорость открытия досок с большим количеством слайдов
🟣 ускорить скорость открытия досок с большим количеством картинок
а когда все получится, рассказать Раисе, что вот теперь работает быстро

Исследования выявили, что основной браузер клиентов — Google Chrome. И что на досках с большим количеством ресурсов достаточно долго ожидается загрузка ресурсов. В 2024-м году была версия системы, которая подгружала все ресурсы доски сразу, даже если они не были в фокусе, получалось долго. В 2025-м году используется новая версия, где загружаются только ресурсы, видимые сейчас.

Но также, для ресурсов не использовались заголовки кеширования. Таким образом, при перезагрузке страницы, браузер мог посылать запросы на загрузку ресурсов снова, и снова надо было долго ждать.
⚫️ запросы на ресурсы в miro были запросами на адрес https://miro.com/api/v1/user-pictures с параметрами
⚫️ а заголовки ответа о которых пишу это Cache-Control и Expires

Также исследования выявили, что браузер 📱 Mozilla Firefox отправляет примерно в 2,5 раза меньше запросов api/v1/user-pictures, чем браузер 📱 Google Chrome. Как оказалось, браузер 📱 Mozilla Firefox игнорирует отсутствие заголовков Cache-Control и Expires для ответов с типом image. 📱 Mozilla всегда кеширует картинки, даже если сервер сказал, что кешировать их не надо, что Expires = времени ответа.
⚫️ интересный момент, что 📱 Mozilla всегда кеширует картинки при любых заголовках про кеширование, а 📱 Google Chrome работает согласно заголовкам

И визуальные тесты показали, что действительно — доски с большим количеством картинок загружались в 📱 Mozilla Firefox при перезагрузке страницы гораздо быстрее. То есть, можно было написать пользователю — попробуй использовать Mozilla, и сначала открывать доску со слайдами, ждать пока все прогрузится, а потом обновлять страницу. Но этого было мало, надо было сказать разработчикам поменять заголовки
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Я нашел место в коде, где заголовки должны ставиться, нашел аннотацию на метод, которая включит кеширование, начал общение. Также узнал, что кеширование было когда-то сознательно отключено из-за возможного security сценария, при котором CDN-сервер кешировал на своей стороне ресурс-картинку, а потом неавторизованный пользователь мог перебором начинать обращаться к картинкам и скачивать их, ведь на CDN-сервере нет авторизации.
⚫️ Тут имею в виду такую архитектуру 📱 => CDN без проверки прав доступа => серверы с проверкой прав доступа
И поэтому в каждой картинке добавлен уникальный секретный ключ, одноразовый в рамках сессии, и кеширование выключено

Интересный момент, почему кеширование может быть выключено даже при наличии секретного одноразового ключа в адресе картинки, который злоумышленник уже точно не сможет подобрать? Потому что у CDN есть лимит того, что он будет хранить на своих серверах в кеше, если ему надо хранить 1000 уникальных ресурсов, то это стоит 1000 условных монет, а если при каждом открытии доски добавляется уникальный access token, то надо хранить уже 1 миллион миллионов ресурсов, и это стоит кратно больше

Хорошо, что CDN-сервер может не кешировать на своей стороне ресурсы вообще, если указать заголовок, что кешировать надо только на клиенте, но не на промежуточных серверах. Для этого кеш должен быть private
https://developer.mozilla.org/en-US/docs/Web/HTTP/Reference/Headers/Cache-Control
Private cache
Cache that exists in the client. It is also called local cache or browser cache. It can store and reuse personalized content for a single user.

private
The private response directive indicates that the response can be stored only in a private cache (e.g. local caches in browsers).

Cache-Control: private

⚫️ если вы не знали про Cache-Control: private, то эта директива может сэкономить на счетах за CDN

Но чтобы продемонстрировать эффект от такой правки, нужен был тест. И для теста использовал связку 📱 => Proxyman со скриптом => miro.com, тест наглядно показывал, как включение кеширования ускоряет работу. В proxyman скрипты активириются через меню Scripting, для своего скрипта задал такие параметры
🟣 Name: /api/v1/user-pictures
🟣 URL: https://miro.com/api/v1/user-pictures?*
🟣 Method: GET
🟣 Use Wildcard
И в функции onResponse написал две строки на JavaScript (дата 01 May 2024 на тот момент была датой в будущем)
  // Update or Add new headers
// response.headers["Content-Type"] = "application/json";
response.headers["Cache-Control"] = "private, max-age=31536000";
response.headers["Expires"] = "Wed, 01 May 2024 16:15:02 GMT";


Демонстрация была проведена. Совещания были назначены, созвоны созвонены, задачи поставлены, ... код написан, версия выпущена. Не за день, но все получилось. Получилась такая версия, которая при перезагрузке страницы загружала картинки из локального кеша, и это было на столько быстро, что они отображались почти мгновенно

⚫️ Тут надо помнить, что локальный кеш браузера тоже ограничен
📱 https://chromeenterprise.google/policies/#DiskCacheSize можно групповыми политиками увеличить этот параметр вот так
📱 или через ключ --disk-cache-size=524000000 (по умолчанию 320 МБайт)
📱А в FireFox это 1 ГБайт https://support.mozilla.org/en-US/questions/1272857#:%7E:text=Now%20look%20for%20%27%27%27browser,KB%2C%20before%20restarting%20Firefox%20again
📱 Для Edge тоже можно настроить https://www.thewindowsclub.com/change-microsoft-edge-cache-size-in-windows-10

Сообщил пользователю какую версию использовать, и что этот апдейт сделан специально, поблагодарил за обратную связь. Мне это так понравилось, что решил потом и разработчиков proxyman отблагодарить, оплатив лицензию на Pro версию. Фичи этой Pro версии не использовал, это было просто так. Всем рекомендую попробовать сделать customer based тест, это супер приятно и есть сильная мотивация сделать так, чтобы все получилось
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6
Если так случилось, что в текущей версии вашего любимого сайта для презентаций отпало кеширование статики и картинок в частности, то можете попробовать Mozilla, где есть баг игнорирования Expires и Cache-Control для картинок, этот баг становится фичей-ускорителем. Или можете попробовать свой прокси-сервер для активации кеширования. Или можете рассказать историю кому-то из команды разработки системы. Для этого возможно надо будет подать доклад на конференцию 🤗

Про artillery не рассказал еще. Чтобы измерить на сколько отличается скорость работы сайта для пользователей из разных стран можно использовать данные Chrome User Experience report, который удобно визуализировать на карте через treo.sh
🔗 https://treo.sh/sitespeed/miro.com?mapMetric=fcp
но Google собирает данные по домену в целом, не по страницам
И в какой-то момент мы решили собирать данные по конкретным доскам (пустая, не пустая), по тестовым доскам. И инструмент artillery.io тут подошел хорошо. Было с ним тоже не все так просто, опишу потом.
👏6
А вот так выглядел скрипт кеширования в UI
Привет любители производительности!

Подумал что напишу, как банить, отписываться, удалять, закрывать, ... для производительности, конечно. И вы, возможно, отпишитесь от этого канала, а может быть и нет 😄

Я использую youtube, telegram, linkedin и много разных программ и вкладок браузера. И за неделю накапливается много всего лишнего, а потом еще youtube и linkedin начинают рекомендовать много всего лишнего

Поэтому выбираю один вечер и просматриваю всю ленту рекомендаций и если это рекомендовано зря, то прошу не рекомендовать это больше. Но это не срабатывает 🤦‍♂️

Что можно сделать дополнительно

Для YouTube можно
*️⃣ открыть страницу истории и просто удалить оттуда лишние записи, но оставить похожие на интересные. И тогда в рекомендациях будет появляться что-то похожее. Это страница https://www.youtube.com/feed/history
*️⃣ одновременно с этим подписываться или добавлять в playlist то, что понравилось
*️⃣ и просить не рекомендовать видео по какой-то теме или с какого-то канала

Для Linkedin можно
*️⃣ открыть страницу профиля (кликнуть на свой аватар) / ⚙️ Settings (внизу) / 🔔 Notifications (внизу) / там будет 13 разделов по которым приходят подписки - можно отписаться от большинства из них
*️⃣ одновременно с этим подписываться или добавлять в 🚩 Saved то, что понравилось из рекомендаций или оставлять реакции с комментариями
*️⃣ и просить не рекомендовать лишние записи и авторов

В Telegram ленты, как таковой, нет. Тут настроил разные каталоги
*️⃣ Отключил уведомление почти у всего, настраивается в каждом чате/канале/контакте отдельно
*️⃣ А что-то поместил в Архив, чтобы поиском найти можно было, но не было видно

Для MacOS можно настроить две кнопки из раздела Apps / Other / Shortcuts
*️⃣ Stop Distructions и добавить там правила 🌜 Turn : Do not Disturb : On + Quit : App : Telegram + Quit : App : Slack + ...
*️⃣ Start Pomodoro - тоже полезная
*️⃣ Закрепить кнопки Stop Distructions и Start Pomodoro в панели задач
Использую их в паре, нажимаю обе, стартует таймер на 25 минут, а через 25 минут можно открыть снова Slack и Telegram и проверить нет ли там каких-то нужных сообщений, прочитать их. Потом снова нажать обе кнопки, снова 25 минут работы

Если коротко, то иногда вдумчиво читаю ленту, что-то с ней делаю, и так лента становится интересной и про нагрузку
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11
Привет любители производительности!

Этот канал был задуман, как канал со ссылками на обсуждения в чате qa_load. Это было важно, когда в Telegram не было подчатов, был только один чат General и надо было как-то группировать сообщения из General. Потом в Telegram появились подчаты и текущий канал qaload был отвязан от qa_load

И вот сегодня @qa_load дорос до четырех девяток ⭐️⭐️⭐️⭐️ или четырех нулей *️⃣*️⃣*️⃣*️⃣

Случилось это 18 апреля 2025-го года, спустя 2354 дня после старта

qa_load был стартован Сашей, как отдельный раздел про нагрузку, отдельный от @qa_automation

Рос qa_load со средней скоростью ~ 4.25 новых участников в день. И этот график роста линейный, идеально прямая линия. С первого дня до текущего момента (на таком масштабе в 2354 дня) линия прямая.

Долгое время в чате не было статистики и в Telegram ее не было. И появилась традиция дарить машину или мотоцикл или самолет или поезд на круглое число, например, подарить автомобиль у которого двигатель крутится со скоростью 8000 оборотов в минуту 8000-му человеку. А потом эти посты собирались в эту прямую линию, в них была дата и количество. И, конечно же, людям приятно 💛

Еженедельно его просматривает 215-230 любителей производительности

Постоянно команда ботов и админов следят за качеством дискуссий. Самый главный бот самописный, его Саша написал и поддерживает

Иногда бывает реклама. Я как-то вел учет, и пока его вел было заработано 1700 рублей (кажется) или $20. И это было каждый раз сложно. А вот делать бартер было несложно, бартер на билеты или еще на что-то, что можно бы было сразу потратить. И в какой-то момент все перешло на бартер

В чате можно найти около 6 розыгрышей билетов на разные конференции (я столько вспомнил, может неточное число)

Затрудняюсь сказать сколько стоит инфраструктура вокруг чата. Думаю около $250 в год и еще время 200+ человек каждую неделю

У меня профессиональная деформация, люблю числа и графики. Спасибо за Ваш вклад в числа и графики описанные выше 🤗
Please open Telegram to view this post
VIEW IN TELEGRAM
28
Для удобства разработки тестов производительности настроил локальный тестовый стенд. Который может работать без сети. И в том числе pipeline настроил локально TeamCity Server + Agent, так вся разработка получилась в IDEA и как код

⭐️ Но получил ошибку в Idea с текстом, которая не позволяет работать с git

Error updating changes: [4804c71824c21b5c] unable to normalize alternate object path: /opt/buildagent/system/git/git-FFDF2529.git/objects


Как видно, в тексте ошибки говорится про git-объекты из каталога /opt/buildagent/system/, а текущий проект находится в каталоге разработки, в home (~), но не в opt. Почему Idea смотрит на каталог opt?

Причиной такого интереса IntelliJ IDEA к каталогу /opt/buildagent/system оказался файл .idea/vcs.xml

Какими-то действиями добавил туда каталог, в который выгружается этот же репозиторий при сборке

⭐️ Способ починить Idea - удалить лишнюю строку 5 из файла .idea/vcs.xml

Репозиторий в каталоге Build Agent сломался потому что для агента он находится по адресу host.docker.internal, который недоступен локально, и там работа идет с веткой otel, которая есть не во всех внешних git-репозиториях, подключенных к проекту

💬 Иногда коллеги по нагрузке рассказывают про ожидания доступов до начала работы над проектом
💡 Можно практиковать развертывание локального окружения c CI/CD, Grafana и git (тоже можно поднять локально)
⭐️ Могут возникнуть ошибки, но они решаемые
⭐️ А такой проект несложно перенести на другое окружение при получении доступов
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡5👍3
1
Привет всем!

Встречался вчера с любителями Grafana на митапе Grafana & Friends Berlin

Рассказывал и показывал разные способы автоматизации анализа досок с метриками

Демонстрация на слайдах не очень отражена, но основные идеи тут изложил

https://polarnik.github.io/grafana-analysis-automation/

Буду рад вопросам
🔥13❤‍🔥31
Привет всем!

Готовлюсь записывать короткие видео и демо, связанные с производительностью. Раньше уже брался, но бросал. Поэтому сейчас нужен public commitment, надо пообещать что сделаю. Это обещания-пост. А начал с того, что пересмотрел набор инструментов для видео

Утилиты которые сейчас выбрал и проверил:
🎚 https://borumi.com/ — тут довольно просто разбить все на части и записать демо по частям, это 99% работы
🎚 https://www.capcut.com/ — чтобы добавить еще 1% в виде пары эффектов и акцентов, как 🔥⚡️💡❗️
Есть план укладываться в 4-5 часов при подготовке видео на 10 минут

Ранее использовал более профессиональные и сложные инструменты и тихонько отказываюсь от них:
🎚 https://obsproject.com/
🎚 https://www.blackmagicdesign.com/products/davinciresolve
Они мощные, но регулярную работу с ними я не освоил, дальше экспериментов не ушел

iMovie не очень мощный, чтобы записать и склеить видео можно
🎚 https://apps.apple.com/de/app/imovie/id377298193
🎚 screenshot + quicktime для видео
но потом внутренний перфекционист не дает покоя

Супер простой и популярный инструмент
🎚 https://screen.studio/
выбирать не стал, так как он очень популярный и узнаваемый, то что видео сделано в нем видно сразу, и это как-то лишало такое видео хардкорности

К ноябрю тут появится что-то новое:
📱 https://www.youtube.com/@qaload
А может не тут, но где-то рядом
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15❤‍🔥104
И - спасибо, да!
Заметил что у YouTube канала появились подписчики, хотя там нет никаких обновлений. Вот авторы, подходы которых посмотрел, тут есть обновления:

Anton Putra 106 тыс. подписчиков 274 видео
готовит в каждому видео тестовые стенды в AWS
бенчмарки на Go и Python к каждому видео https://github.com/antonputra/tutorials/tree/main/lessons
демонстрирует графики Grafana
использует анимированные слайды с темным фоном, на слайдах оставляет место в правом нижнем углу, чтобы потом вставить туда круг с видео
если показывает рабочий стол или среду разработки или браузер, то не накладывает кружок с видео на демо


A Life Engineered 177 тыс. подписчиков 126 видео
делает много экспериментов
использует профессиональный звук и свет, так как занимался музыкой отдельно, использует профессиональное оборудование
использует полноразмерные слайды или слайды на половину экрана, использует разделение экрана на две равные части
использует сложный монтаж, где включает стоковое видео в ролик, собирает историю из кусочков стокового видео
возможно использует услуги специалиста по монтажу


James Willett 6,11 тыс. подписчиков 46 видео
"ретроспективный" канал от создателя лучших курсов по Gatling:
можно видеть как 5 лет назад он использовал простой монтаж и только демонстрацию экрана
как два года назад он использовал маркерную доску и несколько камер с несложным монтажом
как он начал использовать screen.studio год назад


Alek OS 279 тыс. подписчиков 64 видео
использует много анимации и демонстрацию экрана
не использует видео с рассказчиком, использует только голос, демонстрацию экрана и анимацию


Лёша Корепанов 224 тыс. подписчиков 153 видео
иногда использует видео с собой но с разных локаций, которые склеивает в один рассказ
чаще использует видео из одной локации и позции
снимает на камеру
добавляет небольшие вставки с кодом или сайтами
не использует сложные анимации и эффекты


Software Engineering With Scott Moore 306 тыс. подписчиков 628 видео
использует какое-то популярное решение для записи demo, может быть camtasia или prezi для наложения слайдов на видео
использует хромокей и анимированный фон, анимированный фон его фишка
снимает на GoPro и не использует сложное оборудование и свет


Federico Terzi 9,04 тыс. подписчиков 43 видео
использует несложный монтаж с borumi
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
Знаете ли вы, что некоторые инструменты профилирования сделаны почти в одиночку или очень малой командой?

Привет всем! Часто использую инструменты профилирования JVM, иногда завожу дефекты или разбираюсь в исходном коде инструментов, и так ближе знакомлюсь с создателями, и заметил вот такую особенность — команды проектов небольшие

💡 Если есть мысли сделать инструмент для себя, то можно начать в одиночку и даже развить проект до коммерческого продукта

Некоторые оценки размеров команд:
YourKit Java Profiler поддерживается примерно тремя людьми, но это не точно
JProfiler поддерживался одним человеком (я пока только один контакт нашел)
jvm-tools/sjk активно поддерживается одним человеком, на github есть 26 участников проекта
AsyncProfiler судя по коммитам создавался двумя инженерами, потом долго-долго поддерживался одним инженером, и теперь в разработке участвуют 4 человека
VisualVM активно разрабатывается тремя инженерами, но всего 7 участников на github
Java Mission Control, где JFR используется как бекенд, активно разрабатывали около 20 человек, и 49 участников проекта есть на github
Grafana Pyroscope или Pyroscope, где AsyncProfiler используется как бекенд, имеет более 10 активных разработчиков и 221 участников на github


Некоторые источники:
YourKit Java Profiler: https://www.yourkit.com/forum/ — посмотрел на тех, кто отвечает на вопросы, заглянул в контакты на сайте и на linkedin
JProfiler: https://www.ej-technologies.com/company — посмотрел на контакты и на linkedin
jvm-tools/sjk: https://github.com/aragozin/jvm-tools/graphs/contributors оценил по github
AsyncProfiler: https://github.com/async-profiler/async-profiler/graphs/contributors
VisualVM: https://github.com/oracle/visualvm/graphs/contributors
Java Mission Control: https://github.com/openjdk/jmc/graphs/contributors
Grafana Pyroscope: https://github.com/grafana/pyroscope/graphs/contributors
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11
OnePager — стартовая точка для мониторинга, как продукта

Привет всем! Создаю, внедряю, применяю мониторинг производительности. И замечал, что мониторингом активно не пользовались

💡 Если подходить к мониторингу как к продукту, то такой продукт может начинаться с одной основной страницы, с которой пользователь может по ссылкам перейти на более детальные страницы

Создать такой one pager и провести онбординг пользователей для такой страницы — важная и не самая очевидная задача

Где-то такую страницу называют Иконостас. Это страница Grafana с отражением статусов и основными графиками:

🟦🟦🟥🟦
🟦🟥📉📈
📊📈🟦🟦
🟦🟦🟥🟦

Я пробовал создавать много досок с большим количеством графиков и таблиц:
📊📈📉📈
🗂📊📊📊
🗂📈🗓📉
Это сложно читать и она может медленно грузиться

Пробовал доски с интерактивными диаграммами:
🖼🖼🖼🖼
📊📈📉📈
🗓📉🗓📉
Это круто, но почти никто не кликает по частям диаграмм — это неочевидно, что они интерактивные и по ним можно кликать.

Пробовал создавать страницу только со статусами:
🟦🟦🟥🟦
🟦🟥🟥🟦
и ссылками на детали при клике по статусам. Но видимо не хватило разнообразия статусов на такой доске. На моей версии пока только статусы по загрузке страниц, и нет запросов или подсистем или системных метрик или транзакций или чего-то ниже уровнем, чем страницы. Такой высокий уровень, возможно, слишком высокий. И не хватает деталей

А самую популярную доску мониторинга в мире — Node Exporter Full
https://grafana.com/grafana/dashboards/1860-node-exporter-full/
не считаю удачным примером one pager-а. Она конечно умещается в одну страницу, но она довольно большая и сложная. Она изначально компактная за счет строк (row). Но если строки раскрыть, то там много деталей. Безусловно, такой формат распространения очень удачный — достаточно установить одну доску, и все сразу видно. Но добавляется сложность

Буду пробовать делать что-то между просто статусами со ссылками и большим количеством графиков
И попробую посмотреть, что пользователи делают на доске и что ждут от мониторинга. Пользователи — коллеги
Please open Telegram to view this post
VIEW IN TELEGRAM
Grafana / Inspect / Query / Refresh позволяет перезагрузить одну панель на доске Grafana

Привет всем! Бывало такое, что у вас не загружается доска Grafana и показывает пустую панель со значком предупреждения вверху ⚠️? А минуту назад все работало. Или бывало что часть панелей загрузилась, а часть показывают предупреждение?

Чаще всего хочется просто перезагрузить доску. Но если это проблема производительности хранилища метрик, то перезагрузка просто повторяет ситуацию множесвенной отправки запросов. И хотелось бы перезагрузить только сбойные панели

💡 В контекстном меню каждой панели можно найти пункт Inspect / Query, где будет кнопка Refresh, для перезагрузки только текущей панели. Это можно делать несколько раз, пока панель не загрузится успешно

А кеширующий прокси-сервер между Grafana и хранилищем метрик позволяет решить проблему для более общего случая, в котором и обновление страницы дозагружает только сбойные панели

Большинство хранилищ метрик и логов доступны по HTTP и подключаются к Grafana по HTTP. Поэтому можно выставить вместо цепочки:
Grafana => Хранилище
Цепочку:
Grafana => Nginx => Хранилище

Так для InfluxDB использовал Nginx вот с такой конфигурацией:
https://gist.github.com/polarnik/cb6f22751e8d1590342198609243c529

Тут ключевые настройки были такие

Кеш на 20 минут в секции http { ... } :
proxy_cache_path /data/nginx/cache keys_zone=mycache:20m max_size=1g inactive=60m;

Указание этого кеша в http { server { location /query { ... } } } :
proxy_cache mycache;
proxy_cache_key "$host-$request_method-$request_uri";
proxy_cache_min_uses 1;
proxy_cache_methods GET;
proxy_ignore_headers Cache-Control;
игнорирование настроек кеширования от самого хранилища метрик тут обязательно, хранилище метрик будет говорить, что кешировать ответ не надо. Но если выбрать статический интервал времени:
00:00:00 ... 12:00:00
но не динамический:
now-12h ... now
то кеширование будет успешно работать, потому что request_uri не изменится

Если хранилище метрик подключено к Grafana через POST-метод, то тогда в настройках кеширования можно указать:
proxy_cache_key "$host-$request_method-$request_uri-$request_body";
client_body_in_single_buffer on;
client_body_buffer_size 64k;
proxy_cache_methods GET POST;

Так как Nginx не будет выполнять авторизацию доступа к данным из кеша, то надо будет настроить Firewall так чтобы только IP-адрес Grafana Server имел доступ до Nginx Proxy. В этом случае авторизацию выполняет Grafana, и пользователи имеющие доступ до хранилища метрик там будут иметь доступ и кешу
Please open Telegram to view this post
VIEW IN TELEGRAM