Forwarded from Диаграммы и презентации
Спешу поделиться потрясающим проектом Фабиана Ланга.
Дизайнер и аналитик Фабиан Ланг 3 года работал с открытыми источниками, архивами и различными экспертами, чтобы получить уникальные наборы данных о природных и человеческих явлениях, связанных с Альпами. В результате получился 200-страничный сборник из 100 визуальных историй, где данные превращены в наглядные визуализации.
Проект охватывает такие темы, как:
- жизнь бородатого стервятника (GPS-трек)
- прошлое и будущее крупнейших альпийских ледников
- биоразнообразие на основе 30 000 наблюдений
- сосуществование людей и волков
- изменение климата, энергетический переход, распространение фамилий по высоте и др.
Это не просто визуализация гор - это визуализация взаимосвязей между средой, биоразнообразием, климатом и людьми. Данные становятся языком, с помощью которого читатель узнает и чувствует Альпы, а не просто читает сухие цифры.
Проект был отмечен рядом наград за сочетание дизайна, аналитики и ясного визуального языка.
Обязательно посмотрите, вдохновитесь
➡️https://www.fabianlang.net/schweizer-bergwelten/
Дизайнер и аналитик Фабиан Ланг 3 года работал с открытыми источниками, архивами и различными экспертами, чтобы получить уникальные наборы данных о природных и человеческих явлениях, связанных с Альпами. В результате получился 200-страничный сборник из 100 визуальных историй, где данные превращены в наглядные визуализации.
Проект охватывает такие темы, как:
- жизнь бородатого стервятника (GPS-трек)
- прошлое и будущее крупнейших альпийских ледников
- биоразнообразие на основе 30 000 наблюдений
- сосуществование людей и волков
- изменение климата, энергетический переход, распространение фамилий по высоте и др.
Это не просто визуализация гор - это визуализация взаимосвязей между средой, биоразнообразием, климатом и людьми. Данные становятся языком, с помощью которого читатель узнает и чувствует Альпы, а не просто читает сухие цифры.
Проект был отмечен рядом наград за сочетание дизайна, аналитики и ясного визуального языка.
Обязательно посмотрите, вдохновитесь
➡️https://www.fabianlang.net/schweizer-bergwelten/
🔥17❤9👍1
Котятки🐱,
Внутри любого продукта для хранения/аналитики есть логирование и возможность мониторинга.
На тачках, где они хостятся, если логирование и мониторинг.
Есть агенты типа Zabbix, которые ходят по всем тачкам и собирают всякие метрики, чтобы потом все это выдать в какой-нибудь Grafana.
Но факт в общем простой: любая observability-система, которую мы сами себе строим, имеет глубину погружения. Можно завезти в зоопарк видеокамеры, а можно ходить и брать у животных кровь на анализы и тыкать в них градусником. И то и другое не дает понимание, что на самом деле происходит в организме наших лисичек и бегемотиков, но по крайней мере мы понимаем, что они живы и возможно не умирают.
Вот тут неплохая программная статья про многослойный подход к observability в BI, линк: https://www.sigmacomputing.com/blog/data-observability
Внутри любого продукта для хранения/аналитики есть логирование и возможность мониторинга.
На тачках, где они хостятся, если логирование и мониторинг.
Есть агенты типа Zabbix, которые ходят по всем тачкам и собирают всякие метрики, чтобы потом все это выдать в какой-нибудь Grafana.
Но факт в общем простой: любая observability-система, которую мы сами себе строим, имеет глубину погружения. Можно завезти в зоопарк видеокамеры, а можно ходить и брать у животных кровь на анализы и тыкать в них градусником. И то и другое не дает понимание, что на самом деле происходит в организме наших лисичек и бегемотиков, но по крайней мере мы понимаем, что они живы и возможно не умирают.
Вот тут неплохая программная статья про многослойный подход к observability в BI, линк: https://www.sigmacomputing.com/blog/data-observability
Sigmacomputing
How Data Observability Future-Proofs Your BI Strategy | Sigma
Data observability ensures BI reliability by monitoring pipelines, catching issues early, and building trust for scalable, future-ready analytics.
❤6👍4🔥1
Котятки🐱,
С 8м марта девочек) пусть будет прекрасной и удивительной эта весна для всех нас!
Ну и сегодня еще тот самый день, который оказывает сильное влияние на ретейл)
У меня сегодня на изучении заумный гайд по сезонности и baseline ( книженция Intermittent Demand Forecasting) и чуть более веселая вещь - гайд по тому, как построить аналитику для цветочного магазина):
https://youtu.be/7fmij5j3hwM?si=RHj_HZwEYLNVnDmY
С 8м марта девочек) пусть будет прекрасной и удивительной эта весна для всех нас!
Ну и сегодня еще тот самый день, который оказывает сильное влияние на ретейл)
У меня сегодня на изучении заумный гайд по сезонности и baseline ( книженция Intermittent Demand Forecasting) и чуть более веселая вещь - гайд по тому, как построить аналитику для цветочного магазина):
https://youtu.be/7fmij5j3hwM?si=RHj_HZwEYLNVnDmY
YouTube
Interactive Excel Flower Shop Analysis Dashboard | Data Analysis Project
In this video, I create a flower shop sales dashboard using Microsoft Excel. The dashboard includes visualizations for top-selling products, monthly sales trends, product categories, sales by city, payment methods, and customer breakdown.
Like, share, and…
Like, share, and…
❤8👍7🔥4
Forwarded from Чернов пишет (Stanislav Chernov)
Опубликовал mcp-superset — MCP-сервер для Apache Superset
128+ инструментов. Дашборды, графики, датасеты, SQL Lab, пользователи, роли, RLS, группы, аудит прав — всё через Claude Code / Claude Desktop / Cursor.
Там "конкуренты" и рядом не стояли, сравнительную таблицу в том числе написал (по состоянию на 11 марта 2026 года)
Что умеет:
- полный CRUD всего что есть в Superset
- выполнение SQL запросов
- управление доступом (пользователи, роли, RLS, группы)
- аудит прав (матрица кто-куда-имеет-доступ)
- экспорт/импорт всего инстанса
- встроенная защита от случайного удаления и DDL/DML в SQL Lab
Ни один другой MCP-сервер для Superset даже близко не подошёл — ближайший конкурент имеет 60 инструментов и
ноль управления безопасностью.
или просто
репа: github.com/bintocher/mcp-superset
pypi: pypi.org/project/mcp-superset
описание: https://github.com/bintocher/mcp-superset/blob/main/README_RU.md
Лицензия: MIT
#mcp@chernovdev #superset@chernovdev #claudecode@chernovdev
https://t.me/chernovdev
128+ инструментов. Дашборды, графики, датасеты, SQL Lab, пользователи, роли, RLS, группы, аудит прав — всё через Claude Code / Claude Desktop / Cursor.
Там "конкуренты" и рядом не стояли, сравнительную таблицу в том числе написал (по состоянию на 11 марта 2026 года)
Что умеет:
- полный CRUD всего что есть в Superset
- выполнение SQL запросов
- управление доступом (пользователи, роли, RLS, группы)
- аудит прав (матрица кто-куда-имеет-доступ)
- экспорт/импорт всего инстанса
- встроенная защита от случайного удаления и DDL/DML в SQL Lab
Ни один другой MCP-сервер для Superset даже близко не подошёл — ближайший конкурент имеет 60 инструментов и
ноль управления безопасностью.
pip install mcp-superset
или просто
uvx mcp-superset
репа: github.com/bintocher/mcp-superset
pypi: pypi.org/project/mcp-superset
описание: https://github.com/bintocher/mcp-superset/blob/main/README_RU.md
Лицензия: MIT
#mcp@chernovdev #superset@chernovdev #claudecode@chernovdev
https://t.me/chernovdev
🔥15❤7🎉5👍1
Котятки,
Мне очень понравилась вот эта статья по масштабированию данных. Аккурат как раз когда я решаю вопрос о горизонте хранения:
https://arxiv.org/html/2501.13779v1
Несмотря на то, что она относится к LLM, в ней важные мысли про критерии качества данных и расширение этих критериев для разных целей, и как это влияет на масштабирование.
Грубо говоря, зачем хранить факт за 10 лет, если его поведение стабильно и доп горизонт хранения не даст дополнительных полезных свойств ни в задачах анализа, ни в задачах прогнозирования? Ну то есть, результат расчета всяких корреляций за 10 лет и за 3 года дает близкие коэффициенты?
Впрочем, эти проблемы решены в Data vault 2.0, где мы можем сжать сателлит до состояния ‘признак-период’, оптимизировать производительность и оставить неограниченной глубину хранения.
Мне очень понравилась вот эта статья по масштабированию данных. Аккурат как раз когда я решаю вопрос о горизонте хранения:
https://arxiv.org/html/2501.13779v1
Несмотря на то, что она относится к LLM, в ней важные мысли про критерии качества данных и расширение этих критериев для разных целей, и как это влияет на масштабирование.
Грубо говоря, зачем хранить факт за 10 лет, если его поведение стабильно и доп горизонт хранения не даст дополнительных полезных свойств ни в задачах анализа, ни в задачах прогнозирования? Ну то есть, результат расчета всяких корреляций за 10 лет и за 3 года дает близкие коэффициенты?
Впрочем, эти проблемы решены в Data vault 2.0, где мы можем сжать сателлит до состояния ‘признак-период’, оптимизировать производительность и оставить неограниченной глубину хранения.
👍7❤4🔥3
Forwarded from Чернов пишет (Stanislav Chernov)
qvd — чтение Qlik QVD файлов из Python и SQL
Написал open-source библиотеку для работы с QVD файлами без Qlik. Ядро на Rust, биндинги для Python.
Что умеет:
pandas / Polars / DuckDB — одной строкой:
SQL-запросы к QVD через DataFusion — JOIN, GROUP BY, агрегации прямо по QVD файлам
Конвертация QVD ↔ Parquet — с компрессией (snappy, zstd, gzip, lz4)
Streaming — чтение огромных файлов по чанкам, без загрузки в память
EXISTS() — O(1) хеш-индекс, как в Qlik
Скорость (проверено на 20 реальных файлах, byte-identical round-trip):
- 41 МБ / 465K строк / 12 колонок — чтение 0.5с, запись 0.03с
- 587 МБ / 5.4M строк / 15 колонок — чтение 6.1с, запись 0.4с
- 1.7 ГБ / 87M строк / 6 колонок — чтение 37с, запись 1.6с
- 2.8 ГБ / 11.9M строк / 42 колонки — чтение 24с, запись 2.4с
Первый и единственный QVD crate на crates.io.
https://github.com/bintocher/qvdrs
https://crates.io/crates/qvd
————
Подпишись, потом забудешь!
https://max.ru/join/U4r4IN8vgLwYowRRsU42LWb5HmsSOSvy4ExmqTSQ0yc
https://vk.com/chernovdev
https://dzen.ru/chernovdev
Написал open-source библиотеку для работы с QVD файлами без Qlik. Ядро на Rust, биндинги для Python.
Что умеет:
pandas / Polars / DuckDB — одной строкой:
df = qvd.read_qvd("data.qvd").to_pandas()
df = qvd.read_qvd("data.qvd").to_polars()
batch = qvd.read_qvd_to_arrow("data.qvd")
duckdb.sql("SELECT * FROM batch WHERE x > 100")SQL-запросы к QVD через DataFusion — JOIN, GROUP BY, агрегации прямо по QVD файлам
Конвертация QVD ↔ Parquet — с компрессией (snappy, zstd, gzip, lz4)
Streaming — чтение огромных файлов по чанкам, без загрузки в память
EXISTS() — O(1) хеш-индекс, как в Qlik
Скорость (проверено на 20 реальных файлах, byte-identical round-trip):
- 41 МБ / 465K строк / 12 колонок — чтение 0.5с, запись 0.03с
- 587 МБ / 5.4M строк / 15 колонок — чтение 6.1с, запись 0.4с
- 1.7 ГБ / 87M строк / 6 колонок — чтение 37с, запись 1.6с
- 2.8 ГБ / 11.9M строк / 42 колонки — чтение 24с, запись 2.4с
Первый и единственный QVD crate на crates.io.
pip install qvdrshttps://github.com/bintocher/qvdrs
https://crates.io/crates/qvd
————
Подпишись, потом забудешь!
https://max.ru/join/U4r4IN8vgLwYowRRsU42LWb5HmsSOSvy4ExmqTSQ0yc
https://vk.com/chernovdev
https://dzen.ru/chernovdev
GitHub
GitHub - bintocher/qvdrs
Contribute to bintocher/qvdrs development by creating an account on GitHub.
❤9👍3🔥3
Котятки🐱,
В этом сезоне у меня новый интерес - Decision‑Centric Visual Interfaces (DCVI). Впервые я столкнулась с этим понятием вот в этой статье на медиум : https://roger-moser.medium.com/decision-intelligence-in-action-part-1-c53e474fcced
Мне нравится концепция, что визуальный элемент знает свой SLA, риск и impact. Но пока для меня это концепция проектирования, а не набор характеристик визуального элемента, как такового перехода из подхода в жесткий чек-лист пока, как мне кажется, не произошло. Самый, наверное, знаменитый такой интерфейс - https://finviz.com.
В этом сезоне у меня новый интерес - Decision‑Centric Visual Interfaces (DCVI). Впервые я столкнулась с этим понятием вот в этой статье на медиум : https://roger-moser.medium.com/decision-intelligence-in-action-part-1-c53e474fcced
Мне нравится концепция, что визуальный элемент знает свой SLA, риск и impact. Но пока для меня это концепция проектирования, а не набор характеристик визуального элемента, как такового перехода из подхода в жесткий чек-лист пока, как мне кажется, не произошло. Самый, наверное, знаменитый такой интерфейс - https://finviz.com.
Medium
Decision Intelligence: In Action — Part 1
From “Orange Is the New Black” to “Questions Are the New Answers”…
❤11🔥2👍1
Котятки,
В прошлом, аналитика данных из 1С была нетривиальной задачкой, и выбор обычно стоял между двух зол: либо пиши обработки, либо разрабатывай свои отчеты. В 2014 году, помню, у нас сидело 2 программиста 1С чисто на написании запросов и выгрузках.
С появлением нормальных коннекторов к 1С, наконец, появился вменяемый доступ к данным, а теперь и AI-инструменты над ними.
Что посмотреть: 7 апреля в 12.00 будет вебинар Yandex DataLens и BI.Qube.
Там будет реальный кейс: как в low-code инструменте связывать со справочниками и обновлять 290 млн чеков, хранящихся в 1С, и как получить ответы в BI DataLens с помощью Нейроаналитика.
Что обещают: покажут, как запуститься за 1 день, получить первые результаты за 1–2 месяца и дальше развивать аналитику комфортно.
Что будет реально - увидим) Думаю, вебинар будет полезен тем, у кого аналитики совсем нет, и тем, кто не хочет сам строить решения типа БД/Хранилище+BI+MCP+AI, и вместо этого попробовать связку Datalens+Нейроаналитик.
В прошлом, аналитика данных из 1С была нетривиальной задачкой, и выбор обычно стоял между двух зол: либо пиши обработки, либо разрабатывай свои отчеты. В 2014 году, помню, у нас сидело 2 программиста 1С чисто на написании запросов и выгрузках.
С появлением нормальных коннекторов к 1С, наконец, появился вменяемый доступ к данным, а теперь и AI-инструменты над ними.
Что посмотреть: 7 апреля в 12.00 будет вебинар Yandex DataLens и BI.Qube.
Там будет реальный кейс: как в low-code инструменте связывать со справочниками и обновлять 290 млн чеков, хранящихся в 1С, и как получить ответы в BI DataLens с помощью Нейроаналитика.
Что обещают: покажут, как запуститься за 1 день, получить первые результаты за 1–2 месяца и дальше развивать аналитику комфортно.
Что будет реально - увидим) Думаю, вебинар будет полезен тем, у кого аналитики совсем нет, и тем, кто не хочет сам строить решения типа БД/Хранилище+BI+MCP+AI, и вместо этого попробовать связку Datalens+Нейроаналитик.
❤11👍5🔥2
Котятки🐱
Концепция Enterprise Intelligence не нова, особенно для тех, кто активно ищет способы, как превратить данные в знания. Интересного в ней то, что BI рассматривается не как отдельный инструмент, а как связующее звено, которое вытягивает смыслы из всех остальных систем. Сегодня утром я лениво по диагонали читала вот эту книжечку по теме и ресерчила, и наткнулась на занимательный блог чувака, который много лет батрачил в SQL Server Analysis Services
: https://eugeneasahara.com/2026/02/02/explorer-subgraph-the-dynamic-cartography-of-relation-space/
У него интересные мысли, как превратить связку AI+BI в систему знаний, но подача прямо на любителя.
Концепция Enterprise Intelligence не нова, особенно для тех, кто активно ищет способы, как превратить данные в знания. Интересного в ней то, что BI рассматривается не как отдельный инструмент, а как связующее звено, которое вытягивает смыслы из всех остальных систем. Сегодня утром я лениво по диагонали читала вот эту книжечку по теме и ресерчила, и наткнулась на занимательный блог чувака, который много лет батрачил в SQL Server Analysis Services
: https://eugeneasahara.com/2026/02/02/explorer-subgraph-the-dynamic-cartography-of-relation-space/
У него интересные мысли, как превратить связку AI+BI в систему знаний, но подача прямо на любителя.
❤10🔥5👍4🤔1
Котятки,
Я все еще живу в процессе миграции, которая подарит мне и новый BI-инструмент, и новые возможности к нему. Там, в частности, будет embedding. Раньше я к нему относилась прохладно, но потом как-то распробовала режим одного окна, когда операционка и аналитика доступна в рамках одного апплика.
Если есть желание познакомиться с такими возможностями поближе и приложить к своему ландшафту, то можно пощупать, например, DataLens:
15 апреля Yandex Cloud покажут, как встроить DataLens прямо в продукты (в личные кабинеты, корпоративные порталы или сервисы для клиентов).
Говорить будут и про логику, и про UX, и про авторизацию , и про секьюрити - короче, такое мини-погружение.
За час команда DataLens покажет реальные кейсы и разберёт embedding-механики непубличного и публичного встраивания.
Участие бесплатное, предварительно необходимо зарегистрироваться по ссылке.
Я все еще живу в процессе миграции, которая подарит мне и новый BI-инструмент, и новые возможности к нему. Там, в частности, будет embedding. Раньше я к нему относилась прохладно, но потом как-то распробовала режим одного окна, когда операционка и аналитика доступна в рамках одного апплика.
Если есть желание познакомиться с такими возможностями поближе и приложить к своему ландшафту, то можно пощупать, например, DataLens:
15 апреля Yandex Cloud покажут, как встроить DataLens прямо в продукты (в личные кабинеты, корпоративные порталы или сервисы для клиентов).
Говорить будут и про логику, и про UX, и про авторизацию , и про секьюрити - короче, такое мини-погружение.
За час команда DataLens покажет реальные кейсы и разберёт embedding-механики непубличного и публичного встраивания.
Участие бесплатное, предварительно необходимо зарегистрироваться по ссылке.
❤8🔥8👍5
Котятки🐱,
Сегодня я полдня ресерчила на тему эволюции data contracts, хотела понять, почему они усложняются, а не упрощаются, ведь по мере роста количества данных передавать связный контекст вместе, а не отдельным потоком, ведет к сильным накладным расходам. Пока я разбираюсь с этим забавным вопросом, ловите прелестную статью об эволюции Data Stack:
https://www.moderndata101.com/blogs/evolution-of-the-data-stack-the-story-of-how-we-interpret-ever-growing-data
Сегодня я полдня ресерчила на тему эволюции data contracts, хотела понять, почему они усложняются, а не упрощаются, ведь по мере роста количества данных передавать связный контекст вместе, а не отдельным потоком, ведет к сильным накладным расходам. Пока я разбираюсь с этим забавным вопросом, ловите прелестную статью об эволюции Data Stack:
https://www.moderndata101.com/blogs/evolution-of-the-data-stack-the-story-of-how-we-interpret-ever-growing-data
Moderndata101
Evolution of the Data Stack: The story of how we interpret ever-growing data | Modern Data Blog
Evolution through traditional, modern, and data-first stacks and how they played their important roles in upgrading our ability to interpret ever-growing data.
❤8🔥3👍2
Котятки🐱
Drill down уже, кажется, базовое требование в аналитике. С ним мало что можно сделать, разве что играться с глубиной. Ничего нового. А вот анархический концепт Drill by почему-то такую популярность не набрал, - да, это сложно технологически, однако дает куда большие возможности во всяких data-расследованиях. Возможно,конечно, он еще с точки зрения UX не готов- ведь в идеале, мы просто жмем на любую цифру, и таблица динамически перестраивается под новый разрез. Однако, мне кажется, все еще в пути)
Drill down уже, кажется, базовое требование в аналитике. С ним мало что можно сделать, разве что играться с глубиной. Ничего нового. А вот анархический концепт Drill by почему-то такую популярность не набрал, - да, это сложно технологически, однако дает куда большие возможности во всяких data-расследованиях. Возможно,конечно, он еще с точки зрения UX не готов- ведь в идеале, мы просто жмем на любую цифру, и таблица динамически перестраивается под новый разрез. Однако, мне кажется, все еще в пути)
Medium
Understanding Drill-Down, Drill-Up, Drill-Through, and More (BI Reporting Techniques)
Understanding Drill-Down, Drill-Up, Drill-Through, and More (BI Reporting Techniques) Data drilling is a standard business intelligence technique that allows users to analyze data from a variety of …
🔥6❤4👍3
Где посмотреть не просто дашборды, а весь путь их появления — от задачи до финальной визуализации 👀
21 апреля пройдет митап «Лаборатория решений DataLens» — встреча, где разбирают реальные BI-кейсы из бизнеса.
📍 Москва, Loft Hall (Avantage)
🕓 Сбор с 16:30
Формат классный: компании заранее отдали свои задачи, а партнёры их решили. На встрече покажут весь путь — от данных и архитектуры до дашбордов и выводов.
В программе:
- решения от Навикон, КОРУС Консалтинг, Смарт-Аналитикс и SQEEL
- разбор, как строятся дашборды под бизнес-задачи
- немного про развитие DataLens
- Q&A и нетворк
Количество мест ограничено, записи не будет. Локация в 5 минутах от м.Автозаводская.
🔗 Регистрация по ссылке
21 апреля пройдет митап «Лаборатория решений DataLens» — встреча, где разбирают реальные BI-кейсы из бизнеса.
📍 Москва, Loft Hall (Avantage)
🕓 Сбор с 16:30
Формат классный: компании заранее отдали свои задачи, а партнёры их решили. На встрече покажут весь путь — от данных и архитектуры до дашбордов и выводов.
В программе:
- решения от Навикон, КОРУС Консалтинг, Смарт-Аналитикс и SQEEL
- разбор, как строятся дашборды под бизнес-задачи
- немного про развитие DataLens
- Q&A и нетворк
Количество мест ограничено, записи не будет. Локация в 5 минутах от м.Автозаводская.
🔗 Регистрация по ссылке
❤10🔥6👍4