DataPulse на РУBIКОНФ ‘25 🚀
7 октября мы приняли участие в главной конференции российской data-индустрии — РУBIКОНФ ‘25.
Обсуждали, как сделать аналитику доступнее и быстрее — без ручного кодинга и громоздких процессов.
🎤 От нашей команды выступал Павел Хамрин с докладом
«Аналитика без посредников: как снизить порог входа для работы с данными?».
💡 На стенде мы показали, как с помощью наших продуктов за минуты собрать таблицы, создать документацию и запустить проверку качества данных — без необходимости писать SQL.
Особый интерес вызвали сценарии адаптации DataPulse под существующую инфраструктуру компаний и быстрый запуск пилотов.
Мы убедились: рынок активно движется к автоматизации и «умным» инструментам, которые делают работу с данными проще и быстрее.
Команда DataPulse благодарит РУBIКОНФ ’25 за организацию и сообщество, которое объединяет тех, кто формирует культуру работы с данными в России.
До встречи в следующем году!
7 октября мы приняли участие в главной конференции российской data-индустрии — РУBIКОНФ ‘25.
Обсуждали, как сделать аналитику доступнее и быстрее — без ручного кодинга и громоздких процессов.
🎤 От нашей команды выступал Павел Хамрин с докладом
«Аналитика без посредников: как снизить порог входа для работы с данными?».
💡 На стенде мы показали, как с помощью наших продуктов за минуты собрать таблицы, создать документацию и запустить проверку качества данных — без необходимости писать SQL.
Особый интерес вызвали сценарии адаптации DataPulse под существующую инфраструктуру компаний и быстрый запуск пилотов.
Мы убедились: рынок активно движется к автоматизации и «умным» инструментам, которые делают работу с данными проще и быстрее.
Команда DataPulse благодарит РУBIКОНФ ’25 за организацию и сообщество, которое объединяет тех, кто формирует культуру работы с данными в России.
До встречи в следующем году!
👍8❤4🔥4
Media is too big
VIEW IN TELEGRAM
Частые проблемы data mesh ⛔️
Вы, конечно, можете нарезать компанию на домены, красиво всё расписать по ролям…
А потом поймёте, что аналитиков не хватает, data-инженеров ещё меньше, а половина сотрудников не поняла, что вообще происходит.
Дальше будет классика жанра:
— сопротивление новым процессам
— «велосипеды» в каждом домене
— зоопарк технологий
— и повышенный порог входа, когда аналитик внезапно становится всем — от инженера до тестировщика
В общем, Data Mesh — штука хорошая, но только если вы готовы к человеческой стороне вопроса.
Как раз о ней — в новом видео 🎥
Вы, конечно, можете нарезать компанию на домены, красиво всё расписать по ролям…
А потом поймёте, что аналитиков не хватает, data-инженеров ещё меньше, а половина сотрудников не поняла, что вообще происходит.
Дальше будет классика жанра:
— сопротивление новым процессам
— «велосипеды» в каждом домене
— зоопарк технологий
— и повышенный порог входа, когда аналитик внезапно становится всем — от инженера до тестировщика
В общем, Data Mesh — штука хорошая, но только если вы готовы к человеческой стороне вопроса.
Как раз о ней — в новом видео 🎥
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤2🔥2
Тут недавно вышла статья в блоге dbt – сравнение хранимых процедур и dbt. И мне она совершенно не понравилась. Тезисы выстроены для мало разбирающихся менеджеров:
- вы не внедрите AI в хранимки (а зачем?)
- кандидаты будут выбирать других работодателей ведь хранимки – это прошлый век
- хранимки – legacy (но не объясняется почему)
Хранимые процедуры – неотъемлемая часть любого среднестатистического хранилища данных. Раньше нельзя было представить себе DWH без «хранимок». Но они действительно постепенно уходят в прошлое. Я постараюсь получше и без маркетинговых уловок объяснить, почему dbt лучше «хранимок».
В хранимой процедуре потребуется вручную прописывать логику INSERT, UPDATE, DELETE. В то время как в dbt из коробки доступны разные стратегии обновления, которые эту «обвязку» сделают за вас.
Да, в хранимых процедурах вы больше контролируете логику, зато с dbt вы гораздо меньше времени тратите на рутину. Ведь логика обновления данных у 90% объектов одинаковая – добавь новые данные (append), проставь новую версию.
Если вам требуется своя кастомная логика обновления – в dbt вы можете добавить свою стратегию обновления, написав ее в jinja.
Это кстати то, что мы сейчас делаем в нашем новом продукте dbtPro – добавляем множество своих стратегий обновления. А то в dbt их слишком уж мало.
В статье об этом тоже говорится, единственный хороший тезис. Хранимые процедуры ой как сложно поддерживать. Особенно, если одна зависит от другой, а другая зависит от третьей. Чаще всего никакой документации к ним нет; сотрудники, которые их делали давно уволились; не дай бог, в процедуре обновляется сразу несколько таблиц. И вот вы сидите и тратите уйму времени, чтобы внести мизерное изменение в этот ворох.
Dbt гораздо прозрачнее в этом плане. Есть встроенный функционал документации, можно фиксировать зависимости, один файл dbt – одна таблица. А главное – только SELECT-запросы внутри файлов, а не ворох непонятных DML-операций.
Удивительно, что dbt в своей статье забыли упомянуть эту киллер-фичу – dbt умеет работать со множеством СУБД. И при переезде на новую, вам не потребуется переписывать ворох DML-операций на новый синтаксис.
Да, сами SQL-запросы возможно переписать потребуется, но их «обвязка» в виде вставок и обновлений данных – это dbt берет на себя.
Да, хранимки конечно можно сохранить в текстовый файл и залить в Git. Но в какой-то момент вы обновите в DWH хранимку и забудете скопировать исправления в файл и закомитить в Git. Любые дополнительные действия без проверки исполнения, в итоге забываются. И вы 100% получите рассинхрон Git с актуальной версией хранимки.
В dbt вся SQL логика изначально хранится в файле. И грех не комитить этот файл в Git.
Ну и конечно, главный минус хранимых процедуры – они сложны в реализации. Я не сомневаюсь, что вы, читатель, несомненно крутой SQL-специалист. Но помимо вас есть еще огромное количество аналитиков, 90% которых не сможет написать хранимую процедуру.
А вот какой-нибудь SELECT аналитик уже написать сможет.
Мое скромное мнение – хранимые процедуры проигрывают битву за DWH и постепенно будут заменены на dbt и подобные аналоги.
Please open Telegram to view this post
VIEW IN TELEGRAM
dbt Labs
Why moving from stored procedures to dbt drives trust, talent, and AI-readiness | dbt Labs
Discover how migrating from stored procedures to dbt enhances trust, talent retention, and AI-readiness, accelerating data-driven business value.
👍4🔥4❤3
DataPulse и Денвик заключили партнёрство
Рады сообщить, что DataPulse активно развивает сотрудничество с Денвик Экстрактор 1С — инструментом для быстрой и безопасной выгрузки данных из 1С.
Цель партнёрства — объединить технологии, чтобы компании могли получать из 1С более полные, точные и структурированные данные. Это усилит качество аналитики, прозрачность отчётности и доверие к цифрам внутри корпоративных систем.
Наше партнёрство открывает новые возможности для повышения прозрачности и доверия к данным за счёт их более полного и качественного извлечения из источников.
Рады сообщить, что DataPulse активно развивает сотрудничество с Денвик Экстрактор 1С — инструментом для быстрой и безопасной выгрузки данных из 1С.
Цель партнёрства — объединить технологии, чтобы компании могли получать из 1С более полные, точные и структурированные данные. Это усилит качество аналитики, прозрачность отчётности и доверие к цифрам внутри корпоративных систем.
Наше партнёрство открывает новые возможности для повышения прозрачности и доверия к данным за счёт их более полного и качественного извлечения из источников.
❤4👍4🔥4
Media is too big
VIEW IN TELEGRAM
Развитие подходов к разработке 👨💻
Раньше хранилища строили по классике – долго и с издержками: высокий TTM, узкое горлышко, перегруз центральной дата-команды.
Потом появились новые технологии – они упростили жизнь инженеров и ускорили процессы.
Но Data Mesh меняет не инструменты, а сам подход к разработке. Что будет, если соединить его с технологиями?
Рассказываю в новом видео▶️
Раньше хранилища строили по классике – долго и с издержками: высокий TTM, узкое горлышко, перегруз центральной дата-команды.
Потом появились новые технологии – они упростили жизнь инженеров и ускорили процессы.
Но Data Mesh меняет не инструменты, а сам подход к разработке. Что будет, если соединить его с технологиями?
Рассказываю в новом видео
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍4❤3
Хочу рассмотреть несколько трендов в сфере DWH, которые сейчас явно прослеживаются.
Если мы говорим, про «умопомрачительные» объемы данных и big tech организации, то там конечно сейчас все чаще «выстреливает» гибридная lakehouse архитектура и всякие Delta Lake, Iceberg. Как и любая технология, DWH стремится отойти от монолитной не масштабируемой архитектуры к более эластичным вариантам. Да и к тому же аналитические движки становятся все быстрее: DuckDB заявляют в разы лучше любой MPP базы.
Конечно, 90% компаний до сих пор сидят на MSSQL или PostgreSQL. Потому что у них данных «с гулькин нос».
Раньше мы использовали ETL-инструменты, которые вытаскивали данные из источников, преобразовывали их «на лету», а потом вставляли в хранилище.
Сейчас мы повсеместно перешли от этого подхода к подходу – сначала вставь данные, потом трансформируй. А проприетарные ETL-инструменты, которые еще имели невероятно большой ценник, ушли в прошлое. Мы видим явную победу скриптовых ELT-фреймворков.
Главная цель – упрощение работы и прозрачность полученных результатов. Python ELT фреймворки или dbt гораздо легче поддерживаются и гораздо прозрачнее, нежели SSIS или SAS DI с их красивыми стрелочками и блоками.
Вот это очень заметный тренд последних 5 лет.
Мне самому всегда было удивительно, почему в разработке приложений и Систем выстроены серьезные процессы: версионирование кода, unit-тесты, релизы, ci/cd – а в DWH ничего подобного нет? Банально корректность полученных метрик в DWH не проверяем.
Сейчас же все потихоньку меняется. К разработке отчетных витрин начинают относится как к разработке полноценного приложения. С приходом скриптовых ELT пришло и версионирование в Git. Появляются фреймворки для проверки качества данных и проведения unit-тестов над таблицами. Data contract-ы для выстраивания взаимодействия различных подразделений, data catalog для документации, разные версии отчетных витрин и релизы.
Раньше DWH-разработчик не считался полноценным разработчиком. Теперь же это такой же специалист и процессы у него «программистские».
Я сознательно не стал затрагивать тему облаков, так как для России это больная тема. Скажу лишь, что мы наверняка тоже перейдем когда-нибудь на облачные решения. Просто это не так быстро произойдет.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
Как за 15 минут сделать бизнес-описание всей базы данных и BI-отчетности с помощью ИИ 🤖
Когда документация устаревает, аналитика перестает работать. Метаданные разбросаны, отчеты описываются вручную, а поиск нужной таблицы превращается в квест.
📆 25 ноября в 11:00 (МСК) приглашаем на бесплатный онлайн-вебинар с Павлом Хамриным (Lasmart).
Разберем:
— почему документация по данным всегда отстает от реальности;
— как AI помогает описывать таблицы, отчеты и процедуры за минуты;
— как «научить» модель понимать корпоративные термины;
— как DataDesc автоматизирует документацию и интегрируется с data-catalog.
👨💻 Кому будет полезно: data-инженерам, аналитикам, архитекторам DWH, BI-руководителям — и всем, кто отвечает за достоверность данных.
Павел Хамрин — руководитель направления AI в Lasmart. Более 10 лет опыта во внедрении аналитических решений: DWH, OLAP и BI-систем. В компании отвечает за развитие продуктов в области автоматизации работы с данными и AI-документации.
🎁 Бонус всем участникам: сравнение ИИ-моделей для формирования документации.
📎 Ссылка на регистрацию
Когда документация устаревает, аналитика перестает работать. Метаданные разбросаны, отчеты описываются вручную, а поиск нужной таблицы превращается в квест.
📆 25 ноября в 11:00 (МСК) приглашаем на бесплатный онлайн-вебинар с Павлом Хамриным (Lasmart).
Разберем:
— почему документация по данным всегда отстает от реальности;
— как AI помогает описывать таблицы, отчеты и процедуры за минуты;
— как «научить» модель понимать корпоративные термины;
— как DataDesc автоматизирует документацию и интегрируется с data-catalog.
👨💻 Кому будет полезно: data-инженерам, аналитикам, архитекторам DWH, BI-руководителям — и всем, кто отвечает за достоверность данных.
Павел Хамрин — руководитель направления AI в Lasmart. Более 10 лет опыта во внедрении аналитических решений: DWH, OLAP и BI-систем. В компании отвечает за развитие продуктов в области автоматизации работы с данными и AI-документации.
🎁 Бонус всем участникам: сравнение ИИ-моделей для формирования документации.
📎 Ссылка на регистрацию
👍5🔥5❤4
This media is not supported in your browser
VIEW IN TELEGRAM
❤1👍1🔥1🤩1
Please open Telegram to view this post
VIEW IN TELEGRAM
lasmart.ru
Онлайн-вебинар: «Как за 15 минут сделать бизнес-описание всей базы данных и BI-отчётности с помощью ИИ» 25-11-2025
Подробно разберем и пошагово покажем, как современные AI-модели автоматически формируют бизнес-описания для БД, отчётов и процедур.
👍2❤1🔥1
Уже завтра в 11:00 (МСК) пройдёт вебинар «Как за 15 минут сделать бизнес-описание всей базы данных и BI-отчётности с помощью ИИ?»
Каждому зрителю мы дарим таблицу «Сравнение LLM в части формирования документации» — наглядное сравнение моделей по точности бизнес-описаний таблиц, отчётов и процедур.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍2
Присоединяйтесь!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤2🔥2
Мы на низком старте!
➡️ Подключайтесь по ссылке — https://start.bizon365.ru/room/141460/biznes_opisanie
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🔥3
Коллеги, вебинар успешно прошел — всем спасибо за участие!
Если у вас остались вопросы — делитесь в комментариях ниже!
⌨️ Пропустили эфир? Мы можем прислать вам запись и презентацию!
Для этого напишите на нашу почту biwebinar@lasmart.ru слово «Вебинар» ✉️
Если у вас остались вопросы — делитесь в комментариях ниже!
Для этого напишите на нашу почту biwebinar@lasmart.ru слово «Вебинар» ✉️
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥5❤3
Нет документации = нет проблем (пока)
Привычный сценарий: молодая компания в какой-то момент осознает, что больше не может развиваться на ручной отчетности: Excel, выгрузки, какие-то сводные таблицы — все это перестает масштабироваться. И компания принимает решение: делаем хранилище данных🎉
Нанимают одного, двух, трех, четырех data-инженеров, столько же аналитиков (либо подключают интегратора).
Проходит несколько месяцев, полгода, год, и вот:
— у компании есть хранилище данных
— есть BI-отчетность
— отчеты автоматизированы
— все работает
— все довольны
Но компания растет, растет и объем данных, количество бизнес-процессов – становится больше таблиц, витрин, логики.
И именно здесь о документации уже нужно думать, но об этом опять никто не думает.
Потому что «пока все работает». Пока🥲
А потом наступает момент, когда все понимают одну простую вещь: таблиц стало так много, что среди них невозможно что-то найти.
И вот бедные аналитики и инженеры тратят время не на построение новых моделей, не на оптимизацию, не на аналитику —
а просто на поиск данных🔎
Каждый новый запрос превращается в попытку понять, в какой из 200 таблиц лежит нужная сущность, что она значит, откуда взялась и как менялась.
А если вдруг встает вопрос какого-нибудь рефакторинга хранилища – просто представьте, в каком ужасе будут те, кто за него отвечает!
И не на рефакторинг как таковой,
а на то, чтобы разбираться в существующем хранилище:
— что там лежит
— откуда это взялось
— зачем это было сделано
— как это работает
— и почему все устроено именно так
— …и только потом работа.
Так что да, все верно: нет документации = нет проблем.
Но только пока.
Привычный сценарий: молодая компания в какой-то момент осознает, что больше не может развиваться на ручной отчетности: Excel, выгрузки, какие-то сводные таблицы — все это перестает масштабироваться. И компания принимает решение: делаем хранилище данных
Нанимают одного, двух, трех, четырех data-инженеров, столько же аналитиков (либо подключают интегратора).
Проходит несколько месяцев, полгода, год, и вот:
— у компании есть хранилище данных
— есть BI-отчетность
— отчеты автоматизированы
— все работает
— все довольны
И именно на этом этапе почти никто не думает о документации.
Потому что главная задача — вообще запустить автоматизацию.
Документация откладывается на «потом», «когда будет время»📆
Но компания растет, растет и объем данных, количество бизнес-процессов – становится больше таблиц, витрин, логики.
И именно здесь о документации уже нужно думать, но об этом опять никто не думает.
Потому что «пока все работает». Пока
А потом наступает момент, когда все понимают одну простую вещь: таблиц стало так много, что среди них невозможно что-то найти.
И вот бедные аналитики и инженеры тратят время не на построение новых моделей, не на оптимизацию, не на аналитику —
а просто на поиск данных
Каждый новый запрос превращается в попытку понять, в какой из 200 таблиц лежит нужная сущность, что она значит, откуда взялась и как менялась.
А если вдруг встает вопрос какого-нибудь рефакторинга хранилища – просто представьте, в каком ужасе будут те, кто за него отвечает!
Когда нет документации, интеграторы автоматически закладывают
плюс 30–40% к стоимости
💰
И не на рефакторинг как таковой,
а на то, чтобы разбираться в существующем хранилище:
— что там лежит
— откуда это взялось
— зачем это было сделано
— как это работает
— и почему все устроено именно так
— …и только потом работа.
Так что да, все верно: нет документации = нет проблем.
Но только пока.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4
Способы ведения документации к хранилищу: от классики до document as code
Коротко разобрали плюсы и минусы каждого варианта — смотрите в карточках ➡️
Коротко разобрали плюсы и минусы каждого варианта — смотрите в карточках ➡️
👍2❤1🔥1